我觉得现在AlphaGo对人类围棋理论的帮助暂时不多,AlphaGo的设计者和AlphaGo下棋能赢吗大家有何看法当然赢不了,deepmind的程序员不是围棋高手,因为这个程序是为了赢棋而设计的,这些设计人员其实就是程序员,现在地球上还没有人类能在下棋这个事情上打败阿尔法狗,利用所谓的价值网络与决策网络来驱动阿尔法狗的学习进化,其计算能力是人类所不能模仿的。
AlphaGo的设计者和AlphaGo下棋能赢吗大家有何看法
当然赢不了。
阿尔法狗的设计人员是deepmind团队,主要是一些英国人,后来被美国的谷歌公司收购了。这些设计人员其实就是程序员,他们编写了深度学习的人工智能程序,用了多层的神经网络,利用所谓的价值网络与决策网络来驱动阿尔法狗的学习进化。但一旦程序编写好了以后,如何进化是阿尔法狗自己的事情,对程序员来说,因为这个神经网络非常复杂,所以整个工作计算的过程数据之间的交换是惊人的天量,在下棋过程中,可以说计算过程犹如在一个黑箱里进行的。
deepmind的程序员不是围棋高手,他们只是程序员,按照围棋的简单规则编写的深度学习程序,他们如果与阿尔法狗下棋,分分钟就会被秒杀。现在地球上还没有人类能在下棋这个事情上打败阿尔法狗。
这事情其实也很容易理解,汽车企业的工人造出了汽车,他能跑得比汽车快吗?当然是不能的。
AlphaGo的棋路对我们目前的围棋理论有什么启示
说几句真心话,我觉得现在AlphaGo对人类围棋理论的帮助暂时不多。
首先,AlphaGo被设定为只为提高赢棋概率为目的,通过对价值网络分析大量局面得到参数,记录了海量的数据,又有强大的全局性计算力作为支撑,其计算能力是人类所不能模仿的。
其次,AlphaGo在Zero之前的版本里,前半盘的下法是非常单调的。比如在正解解集里,前50步赢棋的方式有100万种(举例),AlphaGo可能只取其中的1000种,余下的根本不管了。因为这个程序是为了赢棋而设计的,而非为了找到所有正解而设计的。直到AlphaGo Zero的论文,我才看到有提到为了保证开局多样性而做的程序设定。-aiphago
所以,如果要充分利用AlphaGo模型,光和程序下棋是远远不够的。我觉得我们还有两件事要做:
1. 拿到后台数据,观察各种局面和棋型中,价值网络提取得到的结果。这对提高人类的常识积累、训练更准确的棋感很有帮助。
2. 拿程序来推演前半盘的布局定式。人类对布局定式的研究,都要回归到大量的实战中去验证,可是多大量的实战可以和AlphaGo的自对弈相比?人类职业对局一年能有多少盘?限于对胜负的追求,又有多少盘棋中敢尝试结论未定的新变化?但是如果我们用AlphaGo顺着一条路走下去,得到各个分支最终的胜率,就能更快速准确的找到一个布局或定式变化的正确方向。-aiphago
在未来,如果我们能实现这两点,我觉得这对于人类研究围棋的意义可能会非常重大。我期待着国家队早日能有这样的超级AI程序辅佐研究训练,也期待着《围棋天地》上每一期都能讲解职业棋手利用程序进行研究的最新结论。-aiphago
AlphaGo是如何下棋的,它真的能“理解”围棋吗
因为比较久远了,我先按记忆里的科普来尝试回答,等大牛来详解。
电脑最强的是什么?是数据处理能力,他们永远不会忘记。
DM的基本原理就是开发者通过把成千上万的棋谱输入进去之后,并且让计算机去总结归纳出一个最优方案,让计算机通过快速运算得出一个最优化(胜率最高)的走法。具体的计算和处理逻辑可能只有内部人士可以去剖析了,我们外部人员只能知道皮毛。-aiphago
但是有一点是肯定的,这需要极大的计算量以及非常庞大的逻辑编程系统,这也是为什么DM是人工智能发展至今的顶峰。