基于棋盘外博弈风险的强化学习环境
rlrisk的Python项目详细描述
一个强化学习环境的基础上,场外游戏的风险。本计画以强化学习为设计理念,旨在简化经济型游戏的研究。
开始
这些说明将为您在本地计算机上启动和运行项目的副本,以便进行开发和测试。
依赖性
- numpy<;=1.14
- pygame<;=1.9
用户安装
安装此软件包的最简单方法是通过pypi
pip install rlrisk
否则,可以通过克隆手动安装此软件包 存储库到本地计算机
git clone https://github.com/civrev/RLRisk
然后导航到该目录并运行setup.py
python setup.py install
与rlrisk合作
rlrisk是一个项目,旨在通过编写一个已经有利于强化学习技术的环境来简化研究。因此,与rlrisk合作非常容易。
环境
环境是孩之宝为风险制定的标准世界支配游戏规则。你可以在这里找到这些规则:https://www.hasbro.com/common/instruct/risk.pdf
环境位于文件risk.py中,并使用类risk()实现。该类具有足够的灵活性,可以用非常自定义的规则初始化,但是对于最常见的风险游戏,只使用一个玩家清单
就可以创建一个风险对象。from rlrisk.agents import * from rlrisk.environment import * players = [BaseAgent(), AggressiveAgent()] env = Risk(players) results = env.play()
药剂
rlrisk有3个代理,baseagent、human和aggressiveagent类。所有新的代理都必须是baseagent类的子类,但是查看baseagent会发现rlrisk的代理框架是非常直接的。它接收决策所需的信息,然后输出决策。
最后备注
这是我在北乔治亚大学攻读计算机科学学士学位的高级项目 (2018年5月毕业)