标签:[1] 噪声 延迟 XML 状态 形式 play test with
前4篇,我们都是假设动作值函数Q是一张大表,状态-动作对都是一一对应的。这对于现实应用状态动作空间很大的情况来说,计算量就非常的大,甚至根本无法求解这样一张大表。因此,我们引入状态值函数v,由参数$\bf{w}$描述,我们希望,
\[\hat v(s,{\bf{w}}) \approx {v_\pi }(s)\]
不可能对所有状态拟合都拟合准确,而且强化学习的数据是一个个进来的,且关联性很大,这就给值函数近似带来了很大的挑战。
1. 经验回放:为了打破数据相关性,文献[1]提出了Deep Q-leaning,agent将与环境交互得到的经验存储在一个数据集中,在算法更新时,从存储的样本池中随机抽取数据,从而消除了观测序列中的相关性,并平滑了数据分布中的变化。
2. 设置离线和在线两层神经网络:为了加快收敛速度,在文献[1]的基础上,文献[2]提出了Deep Q-network,创建一个双层神经网络,一个当前Q网络用来选择动作,更新模型参数,另一个目标Q‘网络用于计算目标Q值。目标Q网络的网络参数不需要迭代更新,而是每隔一段时间从当前Q网络Q复制过来,即延时更新,这样可以减少目标Q值和当前的Q值相关性。
[1] Mnih V , Kavukcuoglu K , Silver D , et al. Playing Atari with Deep Reinforcement Learning[J]. Computer Science, 2013.
[2] Mnih V, Kavukcuoglu K, Silver D, et al. Human-level control through deep reinforcement learning[J]. Nature, 2015, 518(7540): 529-533.
标签:[1] 噪声 延迟 XML 状态 形式 play test with
原文地址:https://www.cnblogs.com/yijuncheng/p/10138604.html