标签:orb evel 移除 dialog yam 文件 player typeof models
近段时间,ml-agent升级到了v0.3版本,做了一些变更,导致之前的文档《ml-agent v0.2:Win10下环境安装》部分内容无法在ml-agent v0.3中使用。最主要的是ppo.ipynb文件移除,导致无法用ppo进行训练。所以这里进行重新整理。
从Github网站上https://github.com/Unity-Technologies/ml-agents克隆(下载)ml-agent,代码,放在任意位置下。(本文放在D:\ml-agent)
安装略过
Anaconda内置了Phython3 64位和Jupyter notebook以及其他便利的功能,所以还是选择安装Anaconda简化整个Phython的过程。下载地址https://www.anaconda.com/download/#windows。安装略过(本文安装在F盘)。安装完成后利用Anaconda的Anaconda Navigator创建一个环境(这里环境名为tensorflow),Phython版本选择3.6。
在开始菜单中打开Anacoda Prompt,在命令行中输入一下命令来激活刚刚创建的环境
activate tensorflow
输入命令切换到ml-agent所在的目录中python目录的位置。比如ml-agent安装目录为D:\Git\ml-agent,则输入
cd D:\Git\ml-agent\python
如果你的Anaconda不是安装在ml-agent目录相同的磁盘,那么需要切换到ml-agen所在的磁盘。比如这里Anaconda的安装目录为F盘,ml-agent安装目录为D:\ml-agent,则需要切换到D盘,输入
D:
然后开始安装Demo所需的环境,输入命令
pip install .
注意,不要遗漏最后的点号。等待安装完成即可。该命令会安装所有的依赖库,包括tensorflow。此时不用关闭这个窗口。
使用Unity2017打开ml-agent下unity-environment文件夹。
打开Assets\ML-Agents\Examples\3DBall目录下的3DBall场景文件。在场景中选择Ball3DAcademy下的Ball3DBrain物体,将TypeOfBrain修改为External,表示从Tensorflow中获取数据。
菜单中选择File->Build Setting,添加当前所在场景。(可以勾选Development Build以便查看输出)
点击PlayerSeting,检查设置
Resolution and Presentation -> 勾选Run in Background
Resolution and Presentation -> Display Resolution Dialog设置为disable
回到Build Setting面板,点击Build,编译到ml-agent的python目录中。名为3dball.exe
注意,训练方法和ml-agent v0.2不同。v0.2使用Jupyter notebook运行ppo.ipynb文件。但是v0.3改为使用命令行的方法。
我们回到Anacoda Prompt,输入以下命令:
python learn.py 3dball --run-id=test --train
其中
如果这这些命令参数感兴趣,请参考Training ML-Agents
由于训练的Step为5.0e4(5*10的4次方),如果用cpu算比较慢,可以暂时修改超参数配置文件trainer_config.yaml,将Ball3DBrain下增加一行max_steps: 2.0e4(注意,由于该文件采用yaml格式,对文件的编码格式和空格要求非常严格,如果异常,将无法进行训练。max前面有4个空格,不是tab。冒号后面有一个空格,整个文件采用UTF8编码)。
训练结果数据保存在models\test\下,使用bytes文件请参考ML-Agent:通过TF#使用训练完成的模型数据
训练的结果视频:Unity ml-agent v0.3实践
标签:orb evel 移除 dialog yam 文件 player typeof models
原文地址:https://www.cnblogs.com/CodeGize/p/8983299.html