码迷,mamicode.com
首页 > 其他好文 > 详细

增强学习笔记 第六章 TD方法

时间:2017-10-04 00:16:54      阅读:279      评论:0      收藏:0      [点我收藏+]

标签:选择   ted   在线   控制   images   序列   采样   cte   分享   

TD是一个结合DP和MC之间的方法。TD不需要环境模型,但是又可以bootstrap。

6.1 TD预测

典型的TD(0)预测方程:

技术分享

看第三章关于状态价值的等式:

技术分享

MC用的是第一行,它之所以为估计,因为不知道$G_t$的期望值,而使用的采样来做的平均。

DP用的是最后一行,它之所以为估计,是因为不知道$v_{\pi}(S_{t+1})$,是通过迭代方式不断更新的。

而TD则是两者的结合,它通过采样来获得$R_{t+1}$,通过迭代来获取$v_{\pi}(S_{t+1})$

技术分享

6.2 TD方法的优点

相对于DP,TD不需要模型,相对于MC,TD是一种在线算法。同时TD通常比MC收敛更快。

技术分享

6.3 TD(0)的最优化

MC收敛到最小均方

TD收敛到马尔科夫过程的最大似然,但是TD接近最小均方的效率也比MC要好。

 

6.4 Sarsa:On-Policy TD控制

我们这是使用action value

技术分享

 

技术分享

 6.5 Q学习:Off-Policy TD控制

把上面的式子作修改:

 技术分享

技术分享

之所以称为off-policy,是因为红框处的a的选取是根据最大值,而不是由当前策略决定的。

 6.6 期望Sarsa

我们对Sarsa的迭代式作另外一种修改:

技术分享

三者在Cliff Walking问题上的表现差异:

技术分享

Expected Sarsa也是一种在线算法,因为它是根据当前策略来定的下一个A,只是做了平均。当然也可以修改成一个off-line的算法,例如用一对policy的方式。

 

三种方法非常类似,唯一区别就是在估算过程中选择下一个action的方式。

 

6.7 最大化偏差和成对学习

上面三种方法都存在最大化偏差问题:

技术分享

 技术分享

根据上面这个式子,对初始点$S_t=A$来说,当$A_t=left$时,红框中的数值通常大于零。但是实际上均值是-0.1。对Sarsa,Expected Sarsa也是如此。

观察上面的曲线,一开始会偏差很远,之后渐进到最佳值,依然还是有偏差。

这个问题并不会导致算法失败,但是会导致收敛较慢较差。

 

造成问题的原因是:我们用了同一个序列来做选择动作和评估,解决问题的方法使用:double Q-learning,建立两个Q函数。

技术分享

技术分享

 

 6.8 案例(略)

增强学习笔记 第六章 TD方法

标签:选择   ted   在线   控制   images   序列   采样   cte   分享   

原文地址:http://www.cnblogs.com/milaohu/p/7624751.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!