码迷,mamicode.com
首页 > 其他好文 > 详细

Deep RL Bootcamp Lecture 8 Derivative Free Methods

时间:2018-05-02 16:18:33      阅读:201      评论:0      收藏:0      [点我收藏+]

标签:data   arch   smooth   bubuko   policy   image   dimens   get   boot   

技术分享图片

 

 

 

技术分享图片

技术分享图片

 

 

 

 技术分享图片

you wouldn‘t try to explore any problem structure in DFO

 

 

 

 

 技术分享图片

 

 

 

 

技术分享图片

 

 

 

 技术分享图片

low dimension policy

 

 

 

 

技术分享图片

 

30 degrees of freedom

120 paramaters to tune 

 

 

 

技术分享图片

 

 

 

 

 

 技术分享图片

 

 

 技术分享图片

keep the positive results in a smooth way.

 

 

 

 

技术分享图片

 

 

 

 技术分享图片

How does evolutionary method work well in high dimensional setting?

If you normalize the data well, evolutionary method could work well in MOJOCO, with random search. 

 

 

Could always only get stuck at local minima.

 

技术分享图片

humanoid 200k parameters need to be tuned, and it‘s learnt by evolutionary method.

The four videos are actually four different local minima, and once you get stuck on it, it can never get out of it.

 

 

 

 

技术分享图片

evolutionary method is roughly 10 times worse than action space policy gradient.

evolutionary method is hard to tune because previously people didn‘t get it to work with deep net

 

 

 

 

技术分享图片

 

 

 

 

 

技术分享图片

 

 

 

 

 技术分享图片

 

 

 

 技术分享图片

 

 

 

 

 

 

技术分享图片

 

 

 

 

 

技术分享图片

 

 

 

 

 技术分享图片

技术分享图片

技术分享图片

 

 

 

 

 

 

 

 技术分享图片

 

 

 

 

技术分享图片

 

 

 

 

 技术分享图片

 

Deep RL Bootcamp Lecture 8 Derivative Free Methods

标签:data   arch   smooth   bubuko   policy   image   dimens   get   boot   

原文地址:https://www.cnblogs.com/ecoflex/p/8979721.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!