OpenAI昨日发布研究成果,宣布Dota2 5v5在限定条件下(英雄阵容固定,部分道具和功能禁用)战胜人类半职业选手。本文主要对其模型技术架构做一些分析总结。
一、 模型输入与输出
模型的输入是使用RAM(内存信息),如位置坐标,技能血量数值状态等,而不是图像像素信息。
模型输入主要分为两个部分:
直接观测的信息:场面其他英雄的绝对位置,相对距离,相对角度,血量,状态等。
人工定义抽象的信息:是否被攻击以及正在被谁攻击,炮弹距离命中的时间,朝向的cos与sin,最近12帧内的英雄的血量变化等。
模型的输出即是指AI所选择的动作,包括移动,攻击释放技能等。OpenAI将连续的动作,离散化对应到网格,并对各种技能定制化释放动作,以减少动作空间的大小。以下图为例,AI要释放一个攻击技能,需要选取这个技能,并选择一个目标单位周围网格内的一个位置:
值得注意的是,在Dota2游戏内还有其他动作,例如操控信使,购买装备,技能升级与天赋等,这些都是人工定义好,而不需AI决策的。而操控幻象分身,召唤物等涉及更复杂的多单位操作,则未在OpenAI当前版本的考虑范围内。
二、 网络架构与训练方式
网络架构架构局部如下图:
模型大图下载链接:https://d4mucfpksywv.cloudfront.net/research-covers/openai-five/network-architecture.pdf
总的来看,大量信息通过连接(concatenate)与全连接层(dense)层进行综合,作为1024维的LSTM的输入。LSTM综合时序信息,并输出决策向量,再用决策向量解构出详细动作。
训练方式:
纯自我对弈训练。
随机化训练:随机初始状态(血量速度移动等)的训练,以增强泛化能力。
使用很高的γ=0.9997。γ为奖励衰减值,一般在其他环境中设置为0.98,0.998。
大量计算:128,000CPU+256GPU,能做到每天模拟玩180年的游戏。
奖励(reward)设计:
总体奖励:当前局面评估(塔的情况等),KDA(个人战绩),补兵表现等。
合作奖励:全队的表现作为自己奖励的一部分。
分路对线的奖励与惩罚:最开始分配一条路,前期发育时如果偏离就会惩罚。
三、 总结
用强化学习玩Dota2需要面对4个挑战:状态空间大,局面不完全可见(有视野限制),动作空间大,时间尺度大。
近期论文中提出的解决方案,大致有以下几个方向:
状态空间大:解决方法如先用World Models抽象,再进行决策。
局面不完全可见:一般认为需要进行一定的搜索,如AlphaGo的MCTS(蒙特卡洛树搜索)。
动作空间大:可以使用模仿学习(Imitation Learning),或者与层次强化学习结合的方法。
时间尺度大:一般认为需要时间维度上的层次强化学习(Hierarchical Reinforcement Leanring)来解决这个问题。
而神奇的是,OpenAI没有使用上述任一方法,而仅仅使用高γ值的PPO基础算法,就解决了这些问题。这说明凭借非常大量的计算,强化学习的基础算法也能突破这些挑战。
OpenAI没有使用的WorldModels,MCTS,IL,HRL等方法,既是学术界研究的重点方向,也是OpenAI-Five潜在的提升空间。这些更高效的方法若被合理应用,可以加快模型的学习速度,增强模型的迁移能力,并帮助模型突破当前的限制。
-
AI
+关注
关注
87文章
30891浏览量
269083 -
模型
+关注
关注
1文章
3243浏览量
48840
原文标题:技术架构分析:攻克Dota2的OpenAI-Five
文章出处:【微信号:AItists,微信公众号:人工智能学家】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论