新旧AlphaGo博弈:新版竟以100:0压倒性优势获胜

原创 zhzjcom  2017-11-02 08:39  阅读 120 次

  对于围棋来说我想大多数不是很关心,但对于人工智能来说就不一样了,尤其是前段时间举行的AlphaGo与人类的围棋比赛,这场围棋界的最强大脑牵动着很多人的心,当然比起围棋的战略步伐人们更关心的是机器和人类到底谁最厉害,不过,最后还是以人类柯洁的失败而告终。

  虽然比赛完了,但人类和人工智能的争斗却没有停息,最后的纠结点会停留在哪里现在还无法定论,但就以目前的情形看,人工智能的势头确实不可小觑。

  这不,旧版AlphaGo刚刚退隐,新版的AlphaGo就又出现了,而且这新版的AlphaGo更加的迅猛。

  伦敦当地时间10月18日,DeepMind团队公布了最强版AlphaGo ,代号AlphaGo Zero。

  团队称,AlphaGo Zero的水平已经超过之前所有版本的AlphaGo。在对阵曾赢下韩国棋手李世石那版AlphaGo时,AlphaGo Zero取得了100:0的压倒性战绩。DeepMind团队将关于AlphaGo Zero的相关研究以论文的形式,刊发在了10月18日的《自然》杂志上。

  那新版的和旧版的究竟有什么不同呢?为何如此强势。

  原来AlphaGo Zero仅用了单一的神经网络。在此前的版本中,AlphaGo用到了“策略网络”来选择下一步棋的走法,以及使用“价值网络”来预测每一步棋后的赢家。而在新的版本中,这两个神经网络合二为一,从而让它能得到更高效的训练和评估。同时,AlphaGo Zero并不使用快速、随机的走子方法。在此前的版本中,AlphaGo用的是快速走子方法,来预测哪个玩家会从当前的局面中赢得比赛。相反,新版本依靠地是其高质量的神经网络来评估下棋的局势。

  不过,最可怕的是据大卫·席尔瓦介绍,AlphaGo Zero使用新的强化学习方法,让自己变成了老师。系统一开始甚至并不知道什么是围棋,只是从单一神经网络开始,通过神经网络强大的搜索算法,进行了自我对弈。

  随着自我博弈的增加,神经网络逐渐调整,提升预测下一步的能力,最终赢得比赛。更为厉害的是,随着训练的深入,DeepMind团队发现,AlphaGo Zero还独立发现了游戏规则,并走出了新策略,为围棋这项古老游戏带来了新的见解。

本文地址:http://www.zhzj.com/cn/100-2.html
版权声明:本文为原创文章,版权归 zhzjcom 所有,欢迎分享本文,转载请保留出处!

发表评论


表情