注册 登录 进入教材巡展 进入在线书城
#
  • #

出版时间:2019年5月

出版社:机械工业出版社

以下为《统计强化学习:现代机器学习方法》的配套数字资源,这些资源在您购买图书后将免费附送给您:
  • 机械工业出版社
  • 9787111622451
  • 1版
  • 262547
  • 47229556-7
  • 16开
  • 2019年5月
  • 259
  • 199
  • 工学
  • 计算机科学与技术
  • 计算机通信类
  • 本科
作者简介
杉山将(Masashi Sugiyama)东京大学教授,研究兴趣为机器学习与数据挖掘的理论、算法和应用。2007年获得IBM学者奖,以表彰其在机器学习领域非平稳性方面做出的贡献。2011年获得日本信息处理协会颁发的Nagao特别研究员奖,以及日本文部科学省颁发的青年科学家奖,以表彰其对机器学习密度比范型的贡献。
查看全部
内容简介
本书从现代机器学习的视角介绍了统计强化学习的基本概念和实用算法。它涵盖了各种类型的强化学习方法,包括基于模型的方法和与模型无关的方法,策略迭代和策略搜索方法。
目录
译者序序前言作者简介第一部分 简介第1章 强化学习介绍3 1.1 强化学习3 1.2 数学形式化8 1.3 本书结构11  1.3.1 模型无关策略迭代11  1.3.2 模型无关策略搜索12  1.3.3 基于模型的强化学习13第二部分 模型无关策略迭代第2章 基于值函数近似的策略迭代17 2.1 值函数17  2.1.1 状态值函数17  2.1.2 状态-动作值函数18 2.2 最小二乘策略迭代19  2.2.1 瞬时奖赏回归20  2.2.2 算法21  2.2.3 正则化23  2.2.4 模型选择25 2.3 本章小结26第3章 值函数近似中的基函数设计27 3.1 图中的高斯核27  3.1.1 MDP-诱导图27  3.1.2 通用高斯核28  3.1.3 测地线高斯核29  3.1.4 扩展到连续状态空间30 3.2 图解说明30  3.2.1 配置30  3.2.2 测地线高斯核31  3.2.3 通用高斯核33  3.2.4 图拉普拉斯特征基33  3.2.5 扩散小波35 3.3 数值示例35  3.3.1 机器人手臂控制35  3.3.2 机器人导航39 3.4 本章小结46第4章 策略迭代中的样本重用47 4.1 形式化47 4.2 离策略值函数近似48  4.2.1 片段重要性加权49  4.2.2 每次决策的重要性加权50  4.2.3 自适应的每次决策重要性加权50  4.2.4 图解说明51 4.3 展平参数的自动选择54  4.3.1 重要性加权交叉验证54  4.3.2 图解说明55 4.4 样本重用策略迭代56  4.4.1 算法56  4.4.2 图解说明56 4.5 数值示例58  4.5.1 倒立摆58  4.5.2 小车爬山61 4.6 本章小结64第5章 策略迭代中的主动学习65 5.1 主动学习的高效探索65  5.1.1 问题配置65  5.1.2 泛化误差的分解66  5.1.3 估计泛化误差67  5.1.4 设计采样策略68  5.1.5 图解说明69 5.2 主动策略迭代72  5.2.1 具有主动学习的样本重用策略迭代72  5.2.2 图解说明73 5.3 数值示例74 5.4 本章小结76第6章 鲁棒策略迭代79 6.1 策略迭代中的鲁棒性和可靠性79  6.1.1 鲁棒性79  6.1.2 可靠性80 6.2 最小绝对策略迭代81  6.2.1 算法81  6.2.2 图解说明81  6.2.3 性质82 6.3 数值示例83 6.4 可能的拓展88  6.4.1 Huber损失88  6.4.2 pinball损失89  6.4.3 deadzone-linear损失90  6.4.4 切比雪夫逼近90  6.4.5 条件风险值91 6.5 本章小结92第三部分 模型无关策略搜索第7章 梯度上升的直接策略搜索95 7.1 形式化95 7.2 梯度方法96  7.2.1 梯度上升96  7.2.2 方差约简的基线减法98  7.2.3 梯度估计量的方差分析99 7.3 自然梯度法101  7.3.1 自然梯度上升101  7.3.2 图解说明103 7.4 计算机图形中的应用:艺术家智能体104  7.4.1 东方山水画绘画104  7.4.2 状态、动作和瞬时奖赏的设计106  7.4.3 实验结果111 7.5 本章小结113第8章 期望最大化的直接策略搜索117 8.1 期望最大化方法117 8.2 样本重用119  8.2.1 片段重要性加权119  8.2.2 每次决策的重要性加权122  8.2.3 自适应的每次决策重要性加权123  8.2.4 展平参数的自动选择123  8.2.5 样本重用的加权奖赏回归125 8.3 数值示例125 8.4 本章小结131第9章 策略优先搜索133 9.1 形式化133 9.2 基于参数探索的策略梯度134  9.2.1 策略优先的梯度上升134  9.2.2 方差约简的基线减法135  9.2.3 梯度估计量的方差分析136  9.2.4 数值示例138 9.3 策略优先搜索中的样本重用142  9.3.1 重要性加权142  9.3.2 基线减法的方差约简144  9.3.3 数值示例146 9.4 本章小结153第四部分 基于模型的强化学习第10章 转移模型估计157 10.1 条件密度估计157  10.1.1 基于回归的方法157  10.1.2 ε-邻域核密度估计158  10.1.3 最小二乘条件密度估计159 10.2 基于模型的强化学习161 10.3 数值示例162  10.3.1 连续型链条游走162  10.3.2 人形机器人控制167 10.4 本章小结171第11章 转移模型估计的维度约简173 11.1 充分维度约简173 11.2 平方损失条件熵173  11.2.1 条件独立174  11.2.2 利用SCE进行维度约简175  11.2.3 SCE与平方损失互信息的关系176 11.3 数值示例176  11.3.1 人工和标准数据集176  11.3.2 人形机器人179 11.4 本章小结182参考文献183