码迷,mamicode.com
首页 > 其他好文 > 详细

MFMARL(Mean Field Multi-Agent Reinforcement Learning)实现

时间:2021-01-13 10:55:25      阅读:0      评论:0      收藏:0      [点我收藏+]

标签:影响   agent   动作   wrap   一个   基于   python3   命令   class   

Mean Field Multi-Agent Reinforcement Learning(MFMARL) 是伦敦大学学院(UCL)计算机科学系教授汪军提出的一个多智能体强化学习算法。主要致力于极大规模的多智能体强化学习问题,解决大规模智能体之间的交互及计算困难。由于多智能体强化学习问题不仅有环境交互问题,还有智能体之间的动态影响,因此为了得到最优策略,每个智能体都需要考察其他智能体的动作及状态得到联合动作值函数。

实验代码:https://github.com/mlii/mfrl

文件:

  • main_MFQ_Ising.py文件:包含用于运行基于表格的MFQ for Ising模型的代码。

  • ./examples/ 文件夹:包含Ising模型和Battle Game(也包括模型)的场景。

  • battle.py文件:包含用于使用经过训练的模型运行《 Battle Game》的代码

  • train_battle.py文件:包含用于训练对战游戏模型的代码

环境:

  • python==3.6.9
  • gym==0.10.5 
  • matplotlib 如果您想使用并生成Ising模型。

在运行Battle Game环境之前,您需要对其进行编译。

cd examples/battle_model
./build.sh

运行训练脚本进行训练(例如mfac):

python3 train_battle.py --algo mfac

help帮助指令:

python3 train_battle.py --help

实现命令:

python3 battle.py

结果:

 

MFMARL(Mean Field Multi-Agent Reinforcement Learning)实现

标签:影响   agent   动作   wrap   一个   基于   python3   命令   class   

原文地址:https://www.cnblogs.com/Fiona-Y/p/14262177.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!