标签:
声明:引用请注明出处http://blog.csdn.net/lg1259156776/
说明:主要介绍了利用value iteration和policy iteration两种迭代算法求解MDP问题,还介绍了在实际应用中如何通过积累“经验”更新对转移概率和reward的估计的学习模型,并结合两种迭代算法进行求解的完整过程。
2015-10-11 艺少
版权声明:本文为博主原创文章,转载请注明出处http://blog.csdn.net/lg1259156776/。
标签:
原文地址:http://blog.csdn.net/lg1259156776/article/details/49053485