码迷,mamicode.com
首页 > 其他好文 > 详细

强化学习(David Silver)3:动态规划

时间:2017-10-23 19:24:02      阅读:215      评论:0      收藏:0      [点我收藏+]

标签:ppi   改善   直接   批量   question   ace   化学   数量级   计算   

1、简介

1.1、动态规划

动态规划的性质:最优子结构;无后向性

动态规划假定MDP所有信息已知,解决的是planning问题,不是RL问题

1.2、两类问题

预测问题:给定策略,给出MDP/MRP和策略,计算策略值函数

控制问题:不给策略,给出MDP/MRP,得出最优策略值函数

任何MDP,都存在一个最优值函数,存在最优策略????why??

 

2、策略评估

通过贝尔曼方程,进行值函数迭代,就完成了策略评估

通过GridWorld的例子说明:值函数对于策略选择很有用;在策略评估中,随机策略迭代很多轮才得到最优策略;

在基于值函数的贪心策略中,贪心选择了三次就得到了最优策略

这个问题同时说明,寻找最优策略,不一定需要值函数收敛

3、策略迭代

3.1、步骤

1)策略评估

2)通过贪心改善策略

理论上说,收敛速率和初始状态无关;实践上说,但是收敛时间的确和初始状态有关,所以初始状态选择很重要

对于确定性策略如何进行策略迭代?

4、值迭代

来源:把MDP过程分解,每个状态下的最优策略都可以分解为,从这个状态出发,采用这个策略的到达的新状态的最优策略之和(好绕,哈哈哈哈)

值迭代的中间过程,并不直接对应于某个策略;不需要策略评估,直接从贝尔曼最优方程迭代即可

5、DP

迭代更新的时候,值函数不需要批量更新,逐个更新就可以

三种更新方式:

1、In-place update:逐个更新

2、优先更新:根据差值设置更新顺序,按差值从大到小排序

3、Real-time update:找那些agent真正访问过的状态更新

DP只能处理中等规模问题,也就是数量级为百万的问题;对于大型问题,backup代价很大,需要sample

6、Contraction Mapping

Question:

任何MDP,都存在一个最优值函数,存在最优策略???

强化学习(David Silver)3:动态规划

标签:ppi   改善   直接   批量   question   ace   化学   数量级   计算   

原文地址:http://www.cnblogs.com/ai1024/p/7718430.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!