码迷,mamicode.com
首页 > 其他好文 > 详细

MDP:马尔科夫决策过程(三)

时间:2015-03-20 12:31:03      阅读:108      评论:0      收藏:0      [点我收藏+]

标签:

MDP:马尔科夫决策过程(Markov Decision Process)

贝尔曼等式:

上节说到技术分享,这是对于确定性动作的模型。如果随机性动作的模型,应该表示为

技术分享

即,执行动作后的状态有多个,按照概率乘以值函数得到上式。

因此,当前状态最优执行动作就是技术分享

对于每个状态都有一个Vπ(S) ,所以对于每一步来说,可以得到如下递推的形式:

技术分享

 

MDP:马尔科夫决策过程(三)

标签:

原文地址:http://www.cnblogs.com/coolalan/p/4353085.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!