换句话来说,在游戏状态下,我们将可通过一条函数v*(s)来预测最终结果——例如你赢得这盘对弈的概率,区间为0到1。DeepMind的研究人员将其称为“最优估值函数”。由于某些盘面位置比其它盘面位置更有可能带来获胜结果,因此前者可能比其它位置拥有“更高估值”。让我再强调一次,估值=赢得比赛的0到1间概率值。
但先别急——假设一位名叫Foma的女孩坐在您的身边,在每下一步棋时,她都会告诉您这次决定会导致您胜利还是失败。“你赢了……你办理了……不,还是办理了……”我认为这样的提示对您的棋步选择并没有多大帮助,而且非常烦人。相反,真正能够帮得上忙的其实应该是勾勒出所有可能的棋步树,以及这些棋步将会引发的状态——而后,Foma会告诉你在整个树状结构中,哪些状态会将你推向胜利,而哪些会招致失败。突然之间,Foma就成了您的完美伙伴——而非讨厌的插嘴者。在这里,Foma将作为您的最优估值函数v*(s)。此前,人们一直认为像围棋这样的游戏,不可能拥有Foma这样的准确估值函数——因为其中存在着太多不确定性。
然而,即使您真的拥有了Foma,她对所有可能盘面位置的估算在现实对弈当中恐怕也无法奏效。因为在国际象棋或围棋这样的游戏当中,正如之前所提到,即使是想要预测七到八步之后的整体局势,过多的可能性选择也会令Foma需要耗费大量时间才能得出分析结果。
也就是说,单凭Foma还远远不够。大家还需要进一步缩小明智棋步的具体范围,并据此推衍接下来的局势走向。那么我们的程序该如何做到这一点?Lusha在这里闪亮登场。Lusha是一位拥有相当技巧的国际象棋选手加热心人,她曾花费数十年时间观看国际象棋大师赛。她可以观看你的盘面位置,快速思考您所能做出的全部合理选择,并告诉你专业选手作出各种判断的可能性。因此,如果您在某一特定时间点上拥有50种可能的棋步选项,Lusha会告诉你职业棋手选择每种选项的具体概率。当然,其中一些明智的棋步会拥有更高的概率,而其它无意义的棋步则概率极低。她就是你的策略函数,p(as)。对于给定状态s,她能够为您提供专业选手可能作出的全部选择的对应概率。
接下来,你可以在Lusha的帮助下寻找更为合理的棋步选项,而Foma则会告诉我们这些棋步对对弈结果的实际影响。在这种情况下,大家可以选择由Foma与Lusha协商给出落子建议,或者也可以先由Lusha提供建议,再由Foma对结果作出评估。接下来,挑选其中一些选项进行后续影响分析,再由Foma与Lusha继续进行预测指导——通过这种方式,我们将能够更为高效地掌握盘面局势走向。而这,正是所谓“减少搜索空间”的实际意义所在。利用估值函数(Foma)预测结果,利用策略函数(Lusha)提供棋艺层面的概率取舍以缩小值得进一步探索的落子范围。这套体系就是所谓“蒙特卡洛铺展(Monte Carlo rollouts)”。接下来,当重新回到当前棋步时,你将能够得到各种选项所对应的平均估值结论,并据此找到最适合的落子位置。不过到这里,其在围棋水平方面仍然表现不佳——因为这两种函数的实际指导能力还比较孱弱。
不过没关系。
首先进行具体解释。在MCTS当中,起步阶段的Foma与Lusha的功能还不够精熟。但对弈数量越多,二者在预测可靠结果与落子位置方面就越强大。论文指出,“缩小高可能性棋步的具体范围”其实是种较为复杂的表达,“Lusha实际上是通过提供专业棋手的落子概率帮助缩小需要考量的选项。以往的工作主要利用这种技术在策略函数较为简单的情况下,提供强大且成熟的AI选手解决方案。
是的,卷积神经网络非常适合图像处理类任务。而且由于神经网络需要特定输入内容并给出对应的输出结果,所以其在本质上其实也相当于一条函数。这意味着大家可以利用神经网络来充当一种高度复杂的函数。从这个思路出发,大家可以将其传递一份盘面位置图像,并由神经网络自行判断当前局势。如此一来,创建出的神经网络将拥有非常准确的策略与估值能力。
下面,我们将讨论Foma与Luha的具体训练方式。为了训练策略网络(负责预测专业棋手的落子位置判断),我们只需要将人类对弈棋谱作为素材,并利用其进行传统的监督式学习即可。
另外,我们还希望能够构建起一套略有不同的策略网络版本; 其应该更小巧且速度更快。可以想象,如果Lusha的经验非常丰富,那么其用于处理每个位置的时间也将相应延长。在这种情况下,虽然她能够更好地缩小合理落子范围,但由于整个过程会不断重复,因此耗费时间可能会过长。所以,我们需要为这项工作训练出一套速度更快的策略网络(我们将其称为……Lusha的弟弟,Jerry?姑且就这么称呼吧)。接下来,一旦利用人类选手的数据训练出满足需求的策略网络,我们就可以让Lusha在围棋棋盘上进行自我对抗以获得更多练习机会。这正是强化学习的体现——构建起更强大的策略网络版本。
此后,我们需要训练Foma进行估值:确定获胜的概率。人工智能将在模拟环境当中反复进行自我练习,每一次观察其最终綶,并从错误当中学习到更好、更先进的经验。
受到篇幅所限,这里我就不具体介绍网络的训练方式了。您可以在本文末尾提供的论文链接中(参阅‘方法’部分)了解更多细节信息。事实上,这篇论文的主要目的并非说明研究人员如何在这些神经网络之上进行强化学习。DeepMind在之前发表的一篇文章中,已经谈到过他们如何利用强化学习技术教会AI掌握雅达利游戏。因此在本文当中,我只在内容摘要部分稍微提到一点相关内容。这里再次强调,AlphaGo的最大创新在于DeepMind研究人员们利用强化学习加神经网络来改进已经广泛流行的游戏算法MCTS。强化学习确实是一种很酷的工具,研究人员们在常规监督式训练之后利用强化学习实现策略与估值函数神经网络的微调。但是,这篇研究论文的主要作用在于证明这款工具的功能多样性与优秀性,而非教导大家如何实际使用。
好了,现在大家对AlphaGo应该已经建立起比较完整的印象。下面,我们会进一步深入探讨之前提到的各个议题。当然,其中不可避免要涉及一些看似“危险”的数学公式及表达式,但相信我,它们都很简单(我会作出详尽解释)。因此,请放松心态。
所以,第一步就是训练我们的策略神经网络(Lusha),其负责预测专业棋手可能作出的判断。神经网络的目标是让人工智能发挥类似于人类专家的作用。这套卷积神经网络(正如之前提到,这种特殊的神经网络非常擅长图像处理)采用电路板式布局以简化图像内容。我们可以向该网络架构的各个层中添加“整流器非线性”,其将赋予整体网络学习更复杂技能的能力。如果大家以前曾经训练过神经网络,可能对“ReLU”层不会感到陌生。这里我们同样使用ReLU层。
这里的训练数据以随机盘面位置对的形式存在,而标签则为人类所作出的落子选择。这部分训练采用常规的监督式学习。
在这里,DeepMind使用了“随机梯度ASCENT”。这是一种反向传播算法。通过这种方式,我们希望最大程度发挥奖励函数的作用。奖励函数代表的是人类专家作出不同行动预测的概率; 我们的目标则是尽可能提升这一概率。但是,在实际网络训练当中,我们一般只需要让丢失函数尽可能降低即可——这在实质上是缩小预测结果与实际标签之间的误差/差异,也就是所谓梯度下降。在研究论文的实际实现部分,他们确实使用了常规的梯度下降方法。大家可以轻松找到与奖励函数相对的丢失函数,并通过尽可能降低后者最大程度提升前者。
这套策略网络拥有13层,我们将其称为“SL策略(SL policy)”网络(SL代表监督式学习)。其使用的数据来自某个高人气网站,有数百万用户在这里进行围棋对弈。那么,SL策略网络的实际表现如何?
首先,其围棋水平要高于其他研究人员的早期开发成果。至于“铺展策略”方面,大家可能还记得之前我们曾提到,研究人员们训练出一套速度更快的Lusha版本——我们称其为Jerry。在这里,Jerry负责发挥作用。如大家所看到,Jerry的准确度只有Lusha的一半,但速度却快了数千倍!当我们应用MCTS算法时,Jerry将帮助我们更快地完成对后续局势变化的模拟。
要理解下一节的内容,大家可以不了解强化学习,但需要认同一项前提——即我所作出的阐述真实有效。如果您希望探究更多细节并加以尝试,可能需要首先阅读一些关于强化学习的背景信息。
一旦拥有了这套SL网络,接下来要做的就是利用人类选手的判断数据以监督式方式对其进行训练。在此之后,就是由其自我对弈以不断磨练判断能力。具体实现方法也很简单——选择SL策略网络,将其保存在一个文件中,而后再复制一份副本。
然后,你可以利用强化学习对其进行微调。如此一来,这套网络就能够自我对抗并从结果中学习经验。
不过这样的训练方式其实存在一个问题。
如果其只在练习中对抗同一个对手,且该对手也一直贯穿训练始终,那么可能无法获得新的学习经验。换言之,该网络所学到的只是如何击败对方,而非真正掌握围棋的奥秘。没错,这就是过度拟合问题:你在对抗某一特定对手时表现出色,但却未必拥有对付各类选手的能力。那么,我们该如何解决这个问题?
答案很简单,当我们对一套神经网络进行微调时,其就会变成另一个风格上略有不同的选手。如此一来,我们可以将各个版本的神经网络保存在一份“选手”列表当中,并确保每位选手的表现都有所区别。很好,在接下来的神经网络训练过程中,我们可以从列表中随机选择不同的版本作为对抗对象。它们虽然源自同一套神经网络,但表现却略有区别。而且训练得越多,选手的版本也就越多。问题就此解决!
在这样的训练过程中,惟一指导训练过程的只有最终目标 ——即赢得比赛。到这里,我们已经不再需要对网络进行针对性训练,例如捕捉盘面上的更多位置等。我们只需要为其提供所有可能的合理选项,并下面目标“你必须获胜”。也正因为如此,强化学习才如此强大——其能够被用于训练任何游戏策略或估值网络,而绝不仅限于围棋。
到这里,DeepMind的研究人员们测试了这套RL策略网络的准确性——不使用任何MCTS算法。之前我们曾经提到,这套网络能够直接获取盘面位置并思考专业棋手的判断概率。到这里,它已经能够独立进行对弈了。结果是,强化学习微调后的网络战胜了仅利用人类棋谱进行训练的监督学习网络。不仅如此,它还能够战胜其它强大的围棋程序。
必须强调的是,即使是在训练这套强化学习策略网络之前,监督学习策略网络也已经拥有了超越现有技术的对弈水平——而如今我们又更进一步!更重要的是,我们甚至不需要使用估值网络这类其它辅助方案。
到这里,我们终于完成了对Lusha的训练。接下来重新回到Foma这边,它代表的是最优估值函数v*(s)——即只有两位选手皆完美执行其预期内的落子判断时,她才能提供在目前盘面局势下获得优胜的可能性。很明显,为了训练神经网络充当我们的估值函数,这里需要一位完美的对手……遗憾的是,目前我们还没有这样一位对手。因此,我们派出了最强大的选手——RL策略网络。
其会提取当前盘面状态state_s,而后输出您赢得本场对弈的概率。每一项游戏状态都将充当数据样本,并以标签的形式用于注释游戏结果。因此,在经过 50次落子之后,我们就获得了50份估值预测样本。
但这种作法实际上非常幼稚——毕竟我们不可能也不应该将对弈中的全部50次落子全部添加到数据集当中。
换言之,我们必须认真选择训练数据集以避免过度拟合的发生。由于每次落子都会与一个新位置对应,因此围棋中的每一次落子都非常相似。如果将所有落子选择的状态都添加到具有相同标签的训练数据当中,那么其内容将存在大量“重复”,并必然导致过度拟合。为了防止这种情况的发生,我们只能选择那些更具代表性的游戏状态。举例来说,我们可以只选择对弈过程中的五个状态——而非全部50个状态——添加到训练数据集内。DeepMind从3000万盘不同对弈过程中提取了3000万种状态,从而减少重复数据的出现可能性。事实证明,这种作法效果极佳!
现在,我们谈谈概念: 我们可以通过两种方法评估盘面位置的价值。第一是选择最佳估值函数(即之前训练完成的函数)。另一种则是使用现有策略(Lusha)直接推导盘面局势,并预测本次落子带来的最终结果。很明显,真正的对弈很少会完全按照我们的计划推进。但DeepMind仍然比较了这两种方法的实际效果。此外,大家也可以将这两种选项混合使用。稍后,我们将了解这一“混合参数”,请各位记住这个重要概念。
在这里,我们的一套神经网络会尝试给出最近似的最优估值函数,其效果甚至优于经过数千次模拟而得出的铺展策略!Foma在这里的表现真的超赞。在另一方面,DeepMind方面也尝试使用了准确度翻倍但速度极慢的Lusha RL策略,其需要进行成千上万次模拟以得出结论——最终效果略好于Foma。但也只是略好,而速度却慢了太多。因此,Foma在这场比拼中胜出,她证明自己拥有着不可替代的价值。
现在,我们已经完成了策略与估值函数的训练,接下来可以将其与MCTS结合起来,从而带来我们的前任世界冠军、大师中的大量、一个世代的突破、体重268磅的……Alphaaaa GO!
评论
查看更多