Ⅰ “阿尔法狗”为什么厉害
“阿尔法狗”为什么厉害
来源: 人民日报
谷歌的围棋人工智能程序和人类围棋冠军之间的比赛,堪称人工智能发展的一个重要里程碑,也让全世界的目光聚焦在人工智能这个热门科技领域。谷歌的人工智能程序是怎样赢了人类?人工智能对人类来说到底意味着什么,会带来什么?它会不会有一天在智能上也超过人类?
本版近期推出“关注‘人机大战’”系列报道上下篇,尝试揭开谷歌围棋人工亮局蚂智能程序赢得比赛的秘密,并分享相关专家对人工智能未来前景的预测。
——编者
从3月9日开始,一场人与机器的围棋大战吸引了全世界的目光。这场大战在韩国首尔上演,一直持续到15日,共5轮。大战之所以举世瞩目,是因为对战的双方是世界围棋冠军李世石与围棋人工智能程序AlphaGo。令人惊叹的是,整个比赛过程中,AlphaGo的表现都堪称完美,最终以4:1击败李世石。
这个战胜人类世界围棋冠军的AlphaGo程序到底是何方神圣?它为什么如此厉害?
“阿尔法狗”是什么?
一款人机对弈的围棋程序,棋艺不是开发者教给它的,而是“自学成才”
AlphaGo程序是美国谷歌公司旗下DeepMind团队开发的一款人机对弈的围棋程序,被中国棋迷们戏称为“阿尔法狗”。游戏是人工智能最初开发的主要阵地之一,比如博弈游戏就要求人工智能更聪明、更灵活,用更接近人类的思考方式解决问题。
1997年,IBM的“深蓝”计算机首次击败国际象棋世界冠军卡斯帕罗夫腊启,成为人工智能战胜人类棋手的第一个标志性事件。此后近20年间,计算机在诸多领域的智力游戏中都击败过人类。但在围棋领域,人工智能却始终难以逾越人类棋手。直到2015年,由谷歌开发的这款“阿尔法狗”程序才首次战胜欧洲围棋冠军樊麾。
为什么对于人工智能而言,围棋的难度这么大?中国自动化协敬埋会副理事长、秘书长王飞跃说:“首先,围棋的可能性太多。围棋每一步的可能下法非常多,棋手起手时就有19×19=361种落子选择。一局150回合的围棋可能出现的局面多达10170种。其次,是规律太微妙,在某种程度上落子选择依靠的是经验积累而形成的直觉。此外,在围棋的棋局中,计算机很难分辨当下棋局的优势方和弱势方。因此,围棋挑战被称作人工智能的‘阿波罗计划’。”
既然围棋对于人工智能来说这么难攻克,那么对于AlphaGo程序的设计者来说,是否也需要具备很高的围棋水平?
“这个不需要,设计者们只需要懂得围棋的基本规则即可。AlphaGo背后是一群杰出的计算机科学家,确切地说,是机器学习领域的专家。科学家利用神经网络算法,将棋类专家的比赛记录输入给计算机,并让计算机自己与自己进行比赛,在这个过程中不断学习训练。某种程度上可以这么说,AlphaGo的棋艺不是开发者教给它的,而是‘自学成才’的。”王飞跃说。
Ⅱ AlphaGo水平的中国象棋电脑可以后手赢得了中象第一人吗
我我个人觉得二者之间不具有可比性,任何的竞技类项目在二者没有真正一决雌雄的时候我们没有办法做出任何预测。
中国象棋源远流长博大精深变化多端岂是区区一个阿尔法狗只能可以赢得了的?虽然我很想这么说就是了,但如果真要让阿尔法狗和我国象棋第一人来一局棋盘比拼,我们的第一人怕也是要输的非常难看了,毕搭搜竟柯洁已经现身说法了。就像在今天之前,我们还满怀希望柯洁能够战胜阿尔法狗,维持住自己世界第一的排名,为全人类赢得胜利,但就目前第一局的状况来看,似乎是不可能了。第一局柯洁以四分之一目输给了阿尔法狗,这看似是一个非常小的数字,然而这却是阿尔法狗一再退让的结果。柯洁在中盘落后几十目,跟阿尔法狗之间实在是实力悬殊。但阿尔法狗毕竟只是智能而不是人,在它的概念里,赢几十目和租败赢四分之一目都是赢,也正是这种程序让他不断退让维持了刚好能赢的水准。聂卫平在第一局后作出预测称柯洁将0:3输给阿尔法狗,对于这个预测结果我是不能接受的,韩国选手李世石都拿下一局,为什么柯洁会三战皆败呢?从个人角度来说,我还是希望柯洁能够奇迹般的赢知型历得胜利。
再说说世界几大棋类、象棋、围棋、国际象棋、将棋,一般来说这四个比较出名也是最常见到的,而对于大部分玩儿棋的人来说,如果硬要给它们分级的话,围棋最难、将棋其次、再然后是象棋、最后是国际象棋。目前开发的象棋软件虽然还没有打败象棋选手冠军的先例,但在国际象棋来说,现有的国际象棋的软件已经打败过国际象棋的世界冠军选手了,估计象棋被打败也是不远的事情了,更别提阿尔法狗出手了。
Ⅲ 阿尔法狗的原理是不是在固定的范围没穷尽所有可能然后选择估值高的 打个比方国际象棋当中第一步有20个
不是的。围棋是三维的。阿尔法狗是真正的人工智能,有自己的学习方法。
Ⅳ 【转载】AlphaGo原理解析
这些天都在没日没夜地关注一个话题,谷歌人工智能程序AlphaGo(国内网友亲切地称为“阿尔法狗”)以5:0击败欧洲职业围棋冠军樊麾二段,并在和世界冠军的比赛中2:0领先。
什么!!
19年前计算机击败国际象棋冠军卡斯帕罗夫的情景还历历在目,现在计算机又要来攻克围棋了吗!?
虚竹在天龙八部里自填一子,无意中以“自杀”破解“珍笼”棋局,逍遥子方才亲传掌门之位。难道以后“阿尔法狗”要出任逍遥派掌门了?
1933年,东渡日本19岁的吴清源迎战当时的日本棋坛霸主、已经60岁的本因坊秀哉,开局三招即是日本人从未见过的三三、星、天元布阵,快速进击逼得对方连连暂停“打卦”和弟子商量应对之策。随后以“新布局”开创棋坛新纪元。难道阿尔法狗会再造一个“新新布局”?
作为一个关心人工智能和人类命运的理科生,近些天刷了好些报道,记者们说“阿尔法狗是个‘价值神经网络’和‘策略神经网’络综合蒙特卡洛搜索树的程序”,但我觉得光知道这些概念是不够的。我想看看“阿尔法狗”的庐山真面目。
准备好棋盘和脑容量,一起来探索吧?
围棋棋盘是19x19路,所以一共是361个交叉点,每个交叉点有三种状态,可以用1表示黑子,-1表示白字,0表示无子,考虑到每个位置还可能有落子的时间、这个位置的气等其他信息,我们可以用一个361 * n维的向量来表示一个棋盘的状态。我们把一个棋盘状态向量记为s。
当状态s下,我们暂时不考虑无法落子的地方,可供下一步落子的空间也是361个。我们把下一步的落子的行动也用361维的向量来表示,记为a。
这样,设计一个围棋人工智能的程序,就转换成为了,任意给定一个s状态,寻找最好的应对策略a,让你的程序按照这个策略走,最后获得棋盘上最大的地盘。
如果你想要设计一个特别牛逼惊世骇俗的围棋程序,你会从哪里开始呢?对于在知唯盯谷歌DeepMind工作的黄士杰和他的小伙伴而言,第一招是:
蒙特卡洛搜索树(Monte-Carlo Tree Search)是一种“大智若愚”的方法。面对一个空白棋盘S0,黄士杰的老师Coulum最初对围棋一无所知,便假设所有落子方法分值都相等,设为1。然后扔了一个骰子,从361种落子方法中随机选择一个走法a0。Coulum想象自己落子之后,棋盘状态变成S1,然后继续假设对手也和自己一样二逼,对方也扔了一个筛子,随便瞎走了一步,这时棋盘状态变成S2,于是这两个二逼青年一直扔骰子下棋,一路走到Sn,最后肯定也能分出一个胜负r,赢了就r记为1,输了则为0,假设这第一次r=1。这样Coulum便算是在心中模拟了完整的一盘围棋。
Coulum心想,这样随机扔骰子也能赢?运气不错啊,那把刚才那个落山饥子方法(S0,a0)记下来,分值提高一些:
我刚才从(S0, a0)开始模拟赢了一次,r=1,那么新分数=2,除了第一步,后面几步运气也不错,那我把这些随机出的局面所对应落子方法(Si,ai)的分数都设为2吧。然后Coulum开始做第二次模拟,搭和这次扔骰子的时候Coulum对围棋已经不是一无所知了,但也知道的不是太多,所以这次除(S0, a0)的分值是2之外,其他落子方法的分数还是1。再次选择a0的概率要比其他方法高一点点。
那位假想中的二逼对手也用同样的方法更新了自己的新分数,他会选择一个a1作为应对。如法炮制,Coulum又和想象中的对手又下了一盘稍微不那么二逼的棋,结果他又赢了,Coulum于是继续调整他的模拟路径上相应的分数,把它们都+1。随着想象中的棋局下得越来越多,那些看起来不错的落子方案的分数就会越来越高,而这些落子方案越是有前途,就会被更多的选中进行推演,于是最有“前途”的落子方法就会“涌现”出来。
最后,Coulum在想象中下完10万盘棋之后,选择他推演过次数最多的那个方案落子,而这时,Coulum才真正下了第一步棋。
蒙特卡洛搜索树华丽转身为相当深刻的方法,可以看到它有两个很有意思的特点:
1)没有任何人工的feature,完全依靠规则本身,通过不断想象自对弈来提高能力。这和深蓝战胜卡斯帕罗夫完全不同,深蓝包含了很多人工设计的规则。MCTS靠的是一种类似遗传算法的自我进化,让靠谱的方法自我涌现出来。让我想起了卡尔文在《大脑如何思维》中说的思维的达尔文主义[6]。
2)MCTS可以连续运行,在对手思考对策的同时自己也可以思考对策。Coulum下完第一步之后,完全不必要停下,可以继续进行想象中的对弈,直到对手落子。Coulum随后从对手落子之后的状态开始计算,但是之前的想象中的对弈完全可以保留,因为对手的落子完全可能出现在之前想象中的对弈中,所以之前的计算是有用的。这就像人在进行对弈的时候,可以不断思考,不会因为等待对手行动而中断。这一点Coulum的程序非常像人,酷毙了。
但黄士杰很快意识到他老师的程序仍然有局限:初始策略太简单。我们需要更高效地扔骰子。
如何更高效的扔骰子呢?
用P_human()来扔。
如果某一步被随机到很多次,就应该主要依据模拟得到的概率而非P_human。
所以P_human的初始分会被打个折扣:
这样就既可以用P_human快速定位比较好的落子方案,又给了其他位置一定的概率。看起来很美,然后实际操作中却发现:“然并卵”。因为,P_human()计算太慢了。
一次P_human()计算需要3ms,相对于原来随机扔骰子不到1us,慢了3000倍。如果不能快速模拟对局,就找不到妙招,棋力就不能提高。所以,黄士杰训练了一个简化版的P_human_fast(),把神经网络层数、输入特征都减少,耗时下降到了2us,基本满足了要求。先以P_human()来开局,走前面大概20多步,后面再使用P_human_fast()快速走到最后。兼顾了准确度和效率。
这样便综合了深度神经网络和MCTS两种方案,此时黄士杰的围棋程序已经可以战胜所有其他电脑,虽然距离人类职业选手仍有不小的差距,但他在2015年那篇论文的最后部分信心满满的表示:“我们围棋软件所使用的神经网络和蒙特卡洛方法都可以随着训练集的增长和计算力的加强(比如增加CPU数)而同步增强,我们正前进在正确的道路上。”
看样子,下一步的突破很快就将到来。同年2月,黄士杰在Deepmind的同事在顶级学术期刊nature上发表了“用神经网络打游戏”的文章[2]。这篇神作,为进一步提高MCTS的棋力,指明了前进的新方向:
红白机很多人小时候都玩过,你能都打通吗?黄士杰的同事通过“强化学习”方法训练的程序在类似红白机的游戏机上打通了200多个游戏,大多数得分都比人类还好。
“强化学习”是一类机器学习方法,Agent通过和环境s的交互,选择下一步的动作a,这个动作会影响环境s,给Agent一个reward,Agent然后继续和环境交互。游戏结束的时候,Agent得到一个最后总分r。这时我们把之前的环境状态s、动作a匹配起来就得到了一系列<s,a>,设定目标为最后的总得分r,我们可以训练一个神经网络去拟合在状态s下,做动作a的总得分。下一次玩游戏的时候,我们就可以根据当前状态s,去选择最后总得分最大的动作a。通过不断玩游戏,我们对<s,a>下总得分的估计就会越来越准确,游戏也玩儿得越来越好。
打砖块游戏有一个秘诀:把球打到墙的后面去,球就会自己反弹得分。强化学习的程序在玩了600盘以后,学到这个秘诀:球快要把墙打穿的时候评价函数v的分值就会急剧上升。
机器学习的开山鼻祖Samuel早在1967年就用自对弈的方法来学习国际跳棋[7],而之前的蒙特卡洛搜索树也是一个自对弈的过程。但是现在黄士杰不仅有一个从人类对弈中学习出的P_human这样一个高起点,而且有一个神经网络可以从对弈样本中学习,有理由相信这次会有更好的结果。
黄士杰准备在MCTS框架之上融合局面评估函数v()。这次还是用P_human作为初始分开局,每局选择分数最高的方案落子,下到第L步之后,改用P_human_fast把剩下的棋局走完,同时调用v(SL),评估局面的获胜概率。然后按照如下规则更新整个树的分数:
前两项和原来一样,如果待更新的节点就是叶子节点,那局面评估分就是v(SL)。如果是待更新的节点是上级节点,局面评估分是该节点所有叶子节点v()的平均值。
如果v()表示大局观,“P_human_fast模拟对局”表示快速验算,那么上面的方法就是大局观和快速模拟验算并重。如果你不服,非要做一个0.5: 0.5之外的权重,黄士杰团队已经实验了目前的程序对阵其他权重有95%的胜率。
以上,便是阿尔法狗的庐山真面目。
上图演示了阿尔法狗和樊麾对弈时的计算过程,阿尔法狗执黑,红圈是阿尔法狗实际落子的地方。1、2、3和后面的数字表示他想象中的之后双方下一步落子的地方。白色方框是樊麾的实际落子。在复盘时,樊麾觉得位置1的走法更好。
深度学习、蒙特卡洛搜索树,自我进化三招齐出,所有其他围棋ai都毫无还手之力。99%的胜率不说,“阿尔法狗”还可以在让四子的情况下以77%的胜率击败crazystone。“阿尔法狗”利用超过170个GPU,粗略估算超过800万核并行计算,不仅有前期训练过程中模仿人类,自我对弈不断进化,还有实战时的模拟对局可以实时进化,已经把现有方法发挥到了极限,是目前人工智能领域绝对的巅峰之作。
围棋是NP-hard问题,如果用一个原子来存储围棋可能的状态,把全宇宙的原子加起来都不够储存所有的状态。于是我们把这样的问题转换为寻找一个函数P,当状态为S时,计算最优的落子方案a = P(s)。我们看到,无论是“狂拽酷炫”的深度学习,还是“大智若愚”的MCTS,都是对P(s)的越来越精确的估计,但即使引入了“左右互搏”来强化学习,黄士杰和团队仍然做了大量的细节工作。所以只有一步一个脚印,面对挑战不断拆解,用耐心与细心,还有辛勤的汗水,才能取得一点又一点的进步,而这些进步积累在一起,终于让计算机达到并超过了人类职业选手的水平。
Ⅳ 千奇百怪!国际象棋比赛疑用智能肛珠作弊,国际象棋AI能否击败人类
国际象棋AI能击败人类。实际上早在1997年的时候IBM深蓝当时就已经击败了国际象棋的冠军。从这之中我们也能够看出来AI与人类悉液的区别,还有像之前的阿尔法狗也战胜了冠军的围棋选手。因为这些AI的学习方式是非常多变的,也就是说他们会根据实际的战局情况作出最全面的分析,等于是做了数据模型一样。把所有的结果全部预测到了,然后再根据对方下棋的节奏来选择下一步应该走哪一步棋。其实就是一种大数据上的碾压,我们自身平时在下象棋的时候也有和电脑对战的开关,那么我们发现在与电脑对战的时候,总能够找到最优解。只是人力与机器相比的话,是有着非常大的差距。可能人类在几十年才能够学会的东西,机器在短短的时间就能学会,并且能够比人类做得更好。
Ⅵ 中国象棋AI实现
喜欢下象棋的朋友都知道,象棋的博弈更像是一场坚持到最后才是胜利的游戏。阿尔法狗和柯洁的国际象棋的博弈在当时可以是引起了一场轰动的,人工智能的出现更是改变了很多东西。这应该算是一个重大突破,在一个以人为智力博弈的游戏中,AI的出现的对决是一场突破人的游戏,机械人自然人的智商,其实也在说明了时代的大潮流发展,未来的世界毁庆的正朝着新领域去发展。
我们知道如果从计算机统计的步数的复杂和空间的复杂上来讲,相对来说搜索比较容易实现了,只要模拟一下博弈树,再进行极大值和极小值的搜索 + 剪枝,难么一个DFS就完成了。 举个例子,我们都知道,每一步有很多多子可以走,每一个子有那么多步可以走。如果要思考很多层,那博弈树就太大了。
这两块算法写出能跑的不难,写出能PK过自己的AI也不难,但要真的要写好是个巨大的坑,要量化自己算法的好坏就是和开源算法进行对弈,在相同开销下比胜率,或者胜率相同比开销。