李世石败给Alphago后 听听围棋和AI专家怎么说
李世石输掉前三局,而这三局李世石输得都是欲哭无泪,尤其是第二局败北后李世石坦言已经无语,也就是说,他在对局中没有找到AlphaGo的漏洞,没有让“狗”崩溃,自己的防线却被攻破。
然而第四局李世石笑到最后,值得一提的是,李世石第78手成为致命一击,被众人誉为“神之一手”,阿法狗创始人哈萨比斯就表示在这神手后,阿法狗自我感觉良好以为胜率达到70%,直到第87后才反应过来。
也就是说,李世石的“神之一手”刺中了人工智能的软肋,正如阿法狗开发团队DEEPMIND巩固学习小组负责人大卫-席尔瓦在赛后所言,“李世石的神之一手,可能点中了电脑此前不为人知的BUG,祝贺李世石九段赢得漂亮。”
[create_time]2016-03-14 10:43:42[/create_time]2016-03-14 11:46:32[finished_time]1[reply_count]0[alue_good]环保康邦硅藻泥[uname]https://himg.bdimg.com/sys/portrait/item/wise.1.5f1bb25c.cdSly5aMuYihfyNF1RJUoQ.jpg?time=5996&tieba_portrait_time=5996[avatar]TA获得超过707个赞[slogan]这个人很懒,什么都没留下![intro]42[view_count]
AlphaGo 击败李世石,是否促进了AI行业的发展?
有意思的是曾经和史蒂芬霍金(Stephen Hawking)和其他的人工智能专家联名签署了一封禁止开发人工智能武器公开信的马斯克还是开发Alphago公司Deepmind的早期投资者。马斯克还因为担心人工智能会无比控制而伤害人类的言论而获得“阻碍科技进步奖”。那么离我们似乎并没有那么遥远的人工智能将会带来哪些变革呢?以笔者的观察,人工智能将会对智能家居、无人驾驶等方面对人类的生活产生巨大的影响。智能家居随着2014年谷歌以32亿美金收购智能家居创业公司Nest那时起,智能家居火了!智能硬件火了!有多火? 据IT桔子的数据,2014年国内外智能硬件融资数达到273次,2015年国内外智能硬件融资数达到150家。研究机构纷纷预测,智能家居是下一个亿万级的市场,资本、创业者、互联网巨头、传统家电厂商纷纷疯狂投入,以等待风口的到来。可是到了2016年,甚至是2015年末,资本市场和媒体都没有之前那样狂于热智能家居了。智能家居产品做好了,可是风为什么没有来呢?智能家居给我们的愿意是很美好的,早晨当你从睡梦中醒来,你喜欢的音乐响起,窗帘徐徐拉开,空调自动调节到适合的温度和湿度,面包机、咖啡机、热水壶自动启动为你准备好美味的早餐,洗碗机帮你把锅碗清理干净,扫地机帮你清理垃圾,你高高兴兴的去上班,门锁自动开闭,家里的电器全部关闭,智能安防系统开启,随时向你汇报家里的突发事件,晚上回到家,门锁和灯光自动打开,电视,空调,空气净化器打开……这不是梦寐以求的家嘛!可是现实的智能家居现状是什么样的呢?市面上绝大多数智能产品还停留在远程控制和定时的阶段,比如要打开灯光,需要你掏出手机,打开APP,找到你要打开的灯,触碰打开。真的是没那么方便有没有?而且不同品牌的智能家居产品还不能彼此控制,所以你要控制家里的电器,还需要打开不同的APP……这是很多消费者无法接受的。对于这个问题,欧瑞博智能家居CEO王雄辉对我表示到 ,“智能家居的发展分为三个阶段:第一个阶段是单品的智能化,比如一个智能灯,一个智能插座,一个智能门锁等等;第二个阶段是不同智能单品的联动,比如智能门锁打开的时候,灯光打开了,温度传感器检测到温度高于高于25摄氏度的时候自动打开了空调,PM2.5传感器检测到空气质量不好,自动打开了空气净化器等;第三个阶段是基于人工智能、大数据等实现的全自动、自学习、自感知的智能家居系统,这个阶段的智能家居才是普通销售者所期望的智能家居,它能自动学习和分析到消费者的家居习惯和喜好,自动打开家里的电器和灯光,消费者不需干涉和控制。”当被问到真正的智能家居何时才能到来的时候,王雄辉表示,“欧瑞博已经在经历智能家居的第二个阶段,我们已经实现了不同智能单品的联动,比如门打开的时候自动打开灯光和电视,温度高时自动打开空调等联动控制,下一步我们计划引入具备人工智能能力的家用服务型机器人,来做家庭总管,全部管理你的家庭,当然这个阶段需要5-10年的时间。”我们可以推测,人工智能极有可能是打开智能家居的任督二脉的关键技术,实现真正“懂”你的智能家居,将极大的方便和舒适我们的家居生活。
[create_time]2019-09-17 22:00:56[/create_time]2019-10-01 00:00:00[finished_time]12[reply_count]0[alue_good]wtfym66[uname]https://himg.bdimg.com/sys/portrait/item/wise.1.461a2662.4umONAfGpQsurYS0ru5uFQ.jpg?time=4711&tieba_portrait_time=4711[avatar]TA获得超过3.1万个赞[slogan]这个人很懒,什么都没留下![intro]88[view_count]阿尔法狗是什么?
阿尔法狗是第一个击败人类职业围棋选手、第一个战胜围棋世界冠军的人工智能机器人。其英文名为AlphaGo,音译中文后戏称为阿尔法狗。阿尔法狗其主要工作原理是“深度学习”。“深度学习”是指多层的人工神经网络和训练它的方法。一层神经网络会把大量矩阵数字作为输入,通过非线性激活方法取权重,再产生另一个数据集合作为输出。扩展资料:2016年3月,阿尔法围棋与围棋世界冠军、职业九段棋手李世石进行围棋人机大战,以4比1的总比分获胜;2016年末2017年初,该程序在中国棋类网站上以“大师”(Master)为注册帐号与中日韩数十位围棋高手进行快棋对决,连续60局无一败绩;2017年5月,在中国乌镇围棋峰会上,它与排名世界第一的世界围棋冠军柯洁对战,以3比0的总比分获胜。围棋界公认阿尔法围棋的棋力已经超过人类职业围棋顶尖水平,在GoRatings网站公布的世界职业围棋排名中,其等级分曾超过排名人类第一的棋手柯洁。参考资料来源:人民网——“阿尔法狗”为什么厉害
[create_time]2022-07-05 21:55:21[/create_time]2022-07-20 21:55:20[finished_time]1[reply_count]1[alue_good]ray聊教育[uname]https://pic.rmb.bdstatic.com/bjh/user/ebc3305d307f38cb68b2eba1dff9fb63.jpeg[avatar]解答你所关心的各种问题[slogan]解答你所关心的各种问题[intro]2163[view_count]阿尔法狗什么意思?
阿尔法狗是第一个击败人类职业围棋选手、第一个战胜围棋世界冠军的人工智能机器人。其英文名为AlphaGo,音译中文后戏称为阿尔法狗。阿尔法狗其主要工作原理是“深度学习”。“深度学习”是指多层的人工神经网络和训练它的方法。一层神经网络会把大量矩阵数字作为输入,通过非线性激活方法取权重,再产生另一个数据集合作为输出。扩展资料:2016年3月,阿尔法围棋与围棋世界冠军、职业九段棋手李世石进行围棋人机大战,以4比1的总比分获胜;2016年末2017年初,该程序在中国棋类网站上以“大师”(Master)为注册帐号与中日韩数十位围棋高手进行快棋对决,连续60局无一败绩;2017年5月,在中国乌镇围棋峰会上,它与排名世界第一的世界围棋冠军柯洁对战,以3比0的总比分获胜。围棋界公认阿尔法围棋的棋力已经超过人类职业围棋顶尖水平,在GoRatings网站公布的世界职业围棋排名中,其等级分曾超过排名人类第一的棋手柯洁。参考资料来源:人民网——“阿尔法狗”为什么厉害
[create_time]2022-06-30 02:56:40[/create_time]2022-07-15 02:56:39[finished_time]1[reply_count]0[alue_good]ray聊教育[uname]https://pic.rmb.bdstatic.com/bjh/user/ebc3305d307f38cb68b2eba1dff9fb63.jpeg[avatar]解答你所关心的各种问题[slogan]解答你所关心的各种问题[intro]1174[view_count]如何评价李世石对战AlphaGo第四局,神之一手
执白后手出战的李世石在序盘阶段就将棋局引向自己熟悉的局面。不过,40手过后,白棋在盘面上稍稍吃亏。很多在观战室观赛的职业棋手都为李世石捏了一把汗。
经过一番短兵相接,AlphaGo的黑棋在棋盘上方围出了一片空地,就在白棋似乎被逼入绝境时,李世石在第78手果断一“挖”,将白棋置于两枚黑棋之间,这手好棋瞬间把黑棋中腹空地内存在的隐患串联起来。白棋转危为安的同时,也让李世石找到了攻破黑棋包围圈的突破口。
令人意想不到的是,此后5手棋,AlphaGo似乎陷入混乱之中,连出毫无意义的昏招。这让局势瞬间倒向白棋一方。经验丰富的李世石自然不会放过良机,很快确立较大领先优势。
尽管此后AlphaGo并未轻易认输,但李世石每行一步都慎重思考,没有给对手留下翻盘的机会。最终,行至180手,AlphaGo投子认负。
比赛结束,alphago四比一完胜李世石,仅胜利的一局也有很多人认为是谷歌为了让alphago有世界排名而故意输的一局,因为如果一个棋手一直连胜,是没有世界排名的,输了一局才有排名,按照官方发布目前alphago排名世界第二,中国小将柯杰世界第一。
[create_time]2019-07-28 06:05:40[/create_time]2016-03-18 15:51:40[finished_time]1[reply_count]4[alue_good]康邦硅藻泥环保[uname]https://himg.bdimg.com/sys/portrait/item/wise.1.55d07d45.FQnHPGN_YhkGpOcqTL-8Rw.jpg?time=6011&tieba_portrait_time=6011[avatar]TA获得超过1236个赞[slogan]这个人很懒,什么都没留下![intro]562[view_count]
谁解释一下李世石与alphago的对弈
虽然整场对弈还没有结束,但是目前的情况显然有些让人出乎意料。有人认为,这是围棋冠军的一个挫败,但却是人类文明的胜利。因为人类是一个善于发明工具去协助自己变得更强大的生物。但是,这场人机对弈似乎有点被神话的意味。事实上,虽然人类在围棋项目输了,但这从本质上讲,仅仅意味着人类单项竞技智慧的颓败,并不代表人工智能已经全面超越人类。甚至,仅仅就围棋这一单行竞技中,人工智能能够对人类提供的帮助也是有限的。
在这场依旧正在进行中的人机博弈,结果依旧是难以预料的。但是不论最终结果如何,有一个事实是改变不了,那就是,围棋作为一项竞技项目,是有规则可寻的,而这些规则计算机的数据足够全面,其实也可以在这些数据的基础上找出规律,形成算法。而机器的算法早就已经超越了人类,即使是李世石处在围棋巅峰,其逻辑运算能力到了计算机面前也根本是难以逾越的。像之前的国际象棋早已经被计算机的逻辑运算完全打败,所以棋手都会和计算机下棋训练,如今看来,围棋这种人类竞技项目也难逃这种宿命。
真正的人工智能首先要有真正的分析推理能力,能够协助人类去提高分析和决策效率。虽然有别于传统计算机穷举计算方式,“阿尔法狗”采用的是利用“价值网络”去计算局面,用“策略网络”去选择下子。但是,阿尔法狗依旧处于一个弱人工智能的水平。什么是弱人工智能?简单的说,所谓弱人工智能就是仅在单个领域比较牛的人工智能程序。比如我们熟悉的苹果Siri,就是一个会卖萌的弱人工智能程序。而阿尔法狗根据这个标准,依旧在这个范围以内。充其量,最多是人类围棋的陪练。而这场人际对决,本质上更像是谷歌的一场科技秀。
[create_time]2016-03-16 14:54:11[/create_time]2016-03-16 16:49:57[finished_time]1[reply_count]1[alue_good]环保康邦硅藻泥[uname]https://himg.bdimg.com/sys/portrait/item/wise.1.5f1bb25c.cdSly5aMuYihfyNF1RJUoQ.jpg?time=5996&tieba_portrait_time=5996[avatar]TA获得超过707个赞[slogan]这个人很懒,什么都没留下![intro]219[view_count]
AlphaGo 是怎么下棋的?
本来其实不想写这个的,但是看到很多网友以及一些围棋职业选手提出了一些疑问,比如「Google 没有顶尖的棋手为什么能开发出顶尖的围棋机器人?」还有「机械为什么可以在如此直觉主导的游戏中战胜人类?」。这些问题事实上在人工智能领域已经有很多理论来做解释。而且这些理论也并不是 Google 提出的。AlphaGo 所使用的理论大多还是十余年前左右的论文的一些成果。在此之前,使用了这些理论开发出来的人工智能其实已经在 2006 年就已经在 9x9 的小棋盘上战胜周俊勋九段,之后在 2013 年 CrazyStone 程序就已经在让四子前提下战胜过石田芳夫九段,而就在去年,Facebook 的围棋机器人在不让子的前提下,胜过职业选手。至于之前「前百度深度学习研究院」的吴韧所开发的异构神机也使用的是类似的理论,也在前几天战胜过职业棋手。 这些方法上,AlphaGo 并无太大创新,很大程度上是 Google 团队实现得相对完善以及训练程度更好,以及人工智能算法的实现和调参存在很大的偶然因素。那么究竟是什么方法让机械拥有了和人一样直觉,而不是简单的机械化的思考。这事我们还是要从头讲起。 早在 1996 年,IBM 的深蓝计算机就战胜了国际象棋世界名将加里·卡斯帕罗夫。但象棋有一个特点,那就是每一步下的选择是相对非常有限的,最多也就十几种可能。哪怕是通过最最暴力的搜索方法,把每种都跑一遍,搜索几十步内的最优解。虽然这个方法随着搜索深度是指数级增长的,但事实上由于底数比饺小,依靠强大的算力还是可以解决的。而深蓝计算机正是这么一台拥有强大算力的超级计算机。 然而在围棋上,这样就不行了,因为围棋每一步都有上百种选择,如此大的底数纯粹的暴力就显然无法满足了。至少硬件的发展并非每年成百倍成百倍地快速增长的。同样的方法,显然是不适合使用在围棋上的。 在 2002 年之前,人们长期研究一个可以通过计算静态地分析出每一子的价值出来。然而这个方法的发展一直很慢。直到人们试图尝试一种动态评估一个博弈的一种方法,这就是靠 猜 。这个方法被称为蒙特卡洛搜索树,其前身是非常著名的上世纪曼哈顿计划期间由乌拉姆和冯·诺依曼提出的 蒙特卡洛方法 。 如果我们想知道圆周率的值,我们如何利用猜的方法来猜出圆周率呢?我们只需要在一个方形中随机而均匀地扔飞镖,数一下,多少个飞镖扔在了以方形边长为直径的圆里,多少扔在了外面,根据圆的面积公式和方形的面积公式就能把 π 算出来。而蒙特卡洛搜索树就是利用蒙特卡洛方法来优化搜索树。简单来说,就是,我们认为这一步下在一个地方是最优的,而我们不知道这地方在哪里。我们先通过一系列随机的采样,从而去猜测一个值,这个值可能是最优解,也可能是一个接近最优解的解。但至少,这可以用来估算像围棋这样大的棋盘的东西了,而不需要把每个细枝末节都同等对待地来暴力搜索。 解决完计算量的问题,我们还要来解决人类在围棋上最大的优势——直觉,或者说「大局观」。那么如何才能拥有大局观呢?我们想一下,人们在下围棋的时候,通常会先考虑下在哪个片区,以获得什么样的目的。而这就是所谓的大局观。 AlphaGo 的另一部分重要思想,得益于神经科学的发展,即人类认识人大脑神经的发展。人类愈发了解了大脑内神经元的工作模式,包括人类学习、认知的神经模型。这样的非常基础的模型,极大地方便了利用计算机来模拟人类进行学习的过程。 蒙特卡洛方法只是简化了计算,并不具备学习的能力。无论是单纯的蒙特卡洛搜索还是与 α-β 搜索结合的还是和置信区间结合一些版本,都与人类能越学越强的围棋技巧相比差上太多。至少,人脑是一个极其复杂的计算模型,哪怕是现在最好的计算机,其算力和整个大脑比起来还是差很多的。 在 2007 年,一些科学家试图提出一个新的机器学习模型,即所谓的深度学习。所谓深度学习,你可以看做模拟许多许多人脑中的神经元构成的一个网络。网络的每一层,针对一个特性进行识别。网络的每一层,都是一个单纯分类的无监督学习模型。你可以想像一下,人眼看到一个图像。经过一系列神经元,首先识别出了里面的眼睛、然后识别了里面的鼻子、嘴,再根据这些特性,发现这是一个人。这样依次发现的机制。而学习是通过一个有监督的反向传播进行。即告诉你这张图像里有一条狗,然后反向的一步步调整网络,让网络适应符合怎么样鼻子、嘴、眼睛的是一条狗。通过不断地数据的训练,即可以让模型越来越优。这个模型在图像识别领域已经达到甚至有时超越了人的识别能力。 而 AlphaGo 使用的就是深度学习来优化蒙特卡洛搜索树。在 AlphaGo 中有两个网络,一个是策略网络,一个是价值网络。策略网络即是一个大局观的网络,机器会先通过其经验,找出其应该做出进攻的反应还是防守的反应,表现在下在哪个片区是最为合适的,是不是应该跟棋之类的大问题。然后再通过蒙特卡洛搜索树去算出具体下在哪里是最合适的。 而我们说到,深度学习模型是真的和人一样可以学习的。每下一次棋,它就可以进一步调优自己的策略网络。首先 AlphaGo 导入了上千个职业选手对弈的棋谱,使得自己有了一个基础的下棋策略。这时候的 AlphaGo 就和一个受过系统训练的围棋少年一样了。然而这和职业选手的区别还是很大。这也就是所谓的「Google 没有顶尖的棋手为什么能开发出顶尖的围棋机器人?」按照一般常理,AlphaGo 应该一段一段地和人挑战,越发提高自己能力。然而 AlphaGo 不是这么做的,它选择和自己对弈。两台 AlphaGo 来对弈,将对弈的结果调优自己的网络。这个听起来很奇怪,为什么两个下得都不怎么样的棋手一起下棋,棋艺能那么快提升呢?因为它一天能和自己下上百万盘棋,它可以把自己分身成几万份跑在几万台电脑上,以及可以昼夜不停也不会过劳死,而这是任何一个人类都做不到的。AlphaGo 的开发人员说,他曾在早期能下赢 AlphaGo,而很快,AlphaGo 的水平就远超了他。所以 AlphaGo 得到了飞速的提升。仅仅五六个月,AlphaGo 就能从战胜欧洲棋王挑战到世界顶尖选手的水平了。 当然搞人工智能也要有基本法。这个基本法就是算力或者说是资源。虽然做了很大的优化,计算下围棋的计算量还是很大的。比起深蓝时依靠超级计算机来解决问题。AlphaGo 选择了一条适合 Google 的路径来解决算力问题。那就是分布式计算。使用分布式计算的 AlphaGo 版本比起不使用的版本其智能程度也是有相当大的提升。即使最简单,它也可以有更多时间来做随机的尝试,以找出更优的价值解。 同样利用深度学习优化蒙特卡洛搜索的 Facebook 围棋团队,相比 Google 就没有那么壕力冲天了。无论是开发资源还是人员来说也是远少于 Google。Facebook 的围棋机器人之前也取得了相当好的成绩,大概可以击败职业二段选手的水平。但是比起 AlphaGo,还是差上许多。 所以说,做这么一个人智能,背后的投入程度、重视程度也起到了很大的作用。这也是为什么深度学习目前做得很好的公司大多是一些顶尖的 IT 企业里的研发团队。 比起 AlphaGo 在围棋上的成就,其实大多数人很好奇人工智能未来的何去何从。从这次中,我们看到计算机已经具备了人类大局判断能力,其本质是类似于人类的学习能力,即不告诉电脑应该怎么做,而让电脑看人类是怎么做的。这项的应用其实相当广泛,尤其在非常复杂的问题上。 比如说,无人驾驶汽车之前发展很困难,是因为人们总是试图去把驾驶规则完全讲给电脑,而这点太过复杂,难以用纯逻辑说清。而今天 Google 的无人驾驶汽车也是使用的类似的深度学习的技术,让计算机观察人类开车并学习,从而模仿人类的判断。最终依靠计算机强大的算力和不会疲劳等特点,甚至超越人类的判断。 短期来看,利用深度学习的人工智能在未来数年内将会得到很大的应用。而这也是 Google 热衷于下围棋的原因。醉翁之意不在酒,在乎山水之间也。Google 只是想利用围棋来显示他们在深度学习应用上的先进水平。 就人工智能的最终目的来看,我们已经跨出了很大的一步。之前而言,我们很大程度局限于人类强大的抽象的思考能力,而模仿人类神经系统的模型已经很好地模拟了这种思考是怎么产生的了。进一步说,如果一个机器,拥有和人完全一样的眼睛、耳朵、鼻子、触觉等作为它的输入,以及类似于人类肌肉和关节的机械部件作为它的输出。并且模拟一个和人脑一样复杂程度的神经网络,并让它观察人类进行学习。是不是在某个未来,我们可以拥有和人类功能非常接近甚至超越人类的智能的出现。深度学习都为这样的强人工智能提出了理论上的基础。
[create_time]2022-07-18 22:09:27[/create_time]2022-08-02 08:54:55[finished_time]1[reply_count]0[alue_good]科创17[uname]https://himg.bdimg.com/sys/portrait/item/wise.1.893bbde8.PVbP8BkQWcgeD7mtuhrfPw.jpg?time=4991&tieba_portrait_time=4991[avatar]TA获得超过4825个赞[slogan]这个人很懒,什么都没留下![intro]70[view_count]在现在AlphaGo的能力下,AlphaGo需要让几子人类顶尖棋手才能胜利?
每年晚报杯全国业余围棋锦标赛有个压轴戏,职业棋手与获得前六名的业余棋手进行对抗赛,30年来每年都在坚持,职业棋手与业余高手之间的对局格很难说明问题,在让两子的对局格中,业余高手基本能赢,尤其是现在的业余高手从小接受科班训练,只是后来在定段赛中未能过关、成为职业棋手,但他们的实力并不亚于职业棋手,因此,职业高手让两子对他们肯定有些累,不是说完全不可能,当年赵治勋还将小林觉、山城宏他们打至让两子的对局格,但这种可能性毕竟很小。从这些年的职业、业余对抗成绩来看,职业棋手让业余高手两子根本让不动。像胡煜清这样的业余高手,与职业棋手分先下都难分胜负,你现在要职业棋手让他两子,怎么下?
同样的道理,AlphaGo虽然厉害,但在对柯洁这样的职业高手时,如果让子下的话,那百分百地押柯洁赢。这次“人机大战”三番棋,第一局和第二局,柯洁与AlphaGo的差距的确存在,那这种差距是职业高手之间的差距,不是职业与业余之间的那种巨大差距,AlphaGo让先的话,双方还是好胜负,但让两子的话,AlphaGo不大可能能赢。让两子通常是职业与业余之间的差距,能说AlphaGo与柯洁之间的差距有那么大吗?
让先即执黑不贴目,等于让7目半,让两子还不仅仅是让15目这么简单,在棋盘上先放两子的威力相当于让30目,如果有人说AlphaGo可以让柯洁30目的话,那实在有些夸张。
AlphaGo确实厉害,深度学习深不可测,但个人认为,它与人类顶尖高手的水平差距应该在让先与让两子之间,让两子断无可能。
[create_time]2021-11-20 08:57:01[/create_time]2021-11-07 10:48:51[finished_time]1[reply_count]0[alue_good]拱飞兰I[uname]https://himg.bdimg.com/sys/portrait/item/wise.1.9be9e1a6.U7qZTsogm_sYHyXYX7EYQw.jpg?time=9266&tieba_portrait_time=9266[avatar]TA获得超过2448个赞[slogan]这个人很懒,什么都没留下![intro]86[view_count]
AlphaGo 的“前世今生”
1996 年 2 月,在美国费城举行了一项别开生面的国际象棋比赛,报名参加比赛者包括了“深蓝”计算机 和 当时世界棋王 卡斯帕罗夫。 比赛最后一天,世界棋王卡斯帕罗夫对垒“深蓝”计算机。在这场人机对弈的6局比赛中,棋王卡斯帕罗夫以 4:2 战胜计算机“深蓝”,获得 40 万美元高额奖金。人胜计算机,首次国际象棋人机大战落下帷幕。比赛在 2 月 17 日结束。其後研究小组把深蓝加以改良。 次年,也就是1997 年 5 月 11 日,在人与计算机之间挑战赛的历史上可以说是历史性的一天。 计算机在正常时限的比赛中首次击败了等级分排名世界第一的棋手。加里·卡斯帕罗夫以 2.5:3.5 (1胜2负3平)输给 IBM 的计算机程序 “深蓝”。机器的胜利标志着国际象棋历史的新时代。 其中,比赛的转折点出现在第二局。 卡斯帕罗夫第一局获胜,感觉很好。但在第二局中,双方却打得不可开交。在第 36 步棋时,电脑的做法让卡斯帕罗夫不寒而栗。在当时的情况下,几乎所有顶尖国际象棋程序都会攻击卡斯帕罗夫暴露在外的皇后,但深蓝却走出了一步更为狡猾的棋,最终的效果也更好。这令卡斯帕罗夫对电脑另眼相看。 对卡斯帕罗夫和所有旁观者来说,深蓝突然不再像电脑一样下棋(它顶住诱惑,没有攻击皇后),反而采取了只有最聪明的人类大师级选手才有可能使用的策略。通过在卡斯帕罗夫面前深藏不漏,IBM成功让人类低估了它的水平。 他的斗志和体力在随后3局被拖垮,在决胜局中,仅 19 步就宣布放弃。 后来,IBM拒绝了卡斯帕罗夫的再战请求,拆卸了“深蓝”。卡斯帕罗夫虽然后来多次挑战电脑战平,却无法找“深蓝”“复仇”,留下永久的遗憾。 在今天看来,“深蓝”还算不上智能,它主要依靠强大的计算能力穷举所有路数来选择最佳策略:“深蓝”靠硬算可以预判 12 步,卡斯帕罗夫可以预判 10 步,两者高下立现。 在 AlphaGo 诞生之前,计算机在除围棋之外,几乎所有棋类游戏上战胜了人类,唯独围棋没有被攻克,为什么呢? 围棋游戏只有两个非常简单的规则,而其复杂性却是难以想象的,一共有 10 的 170 次方种可能性,这个数字之大,以至于用当今世界最强大的计算系统,算几十年也算不完,是没有办法穷举出围棋所有的可能结果的。所以,计算机需要一种更加聪明的方法。 直到 2016 年,AlphaGo 第一版发表在了 Nature 自然杂志上,这可是牛逼得不要不要的期刊。 而刚过去一年,Google DeepMind 又在 Nature 上发表了一篇 AlphaGo 的改进版——AlphaGo Zero,同样的围棋 AI,竟然在自然杂志上发了两次!可见他们的实力! AlphaGo 战胜过欧洲冠军樊麾,韩国九段棋手李世石,而后又赢了世界冠军柯洁,种种迹象表明,人类已经失守最拿手的围棋了。这些围棋高手一个个都表示 AlphaGo 走到了他们想不到的地方,战胜了人类的生物极限。那 AlphaGo 又是怎么在策略上战胜人类的呢?很简单,它会做计划。 阿尔法狗(AlphaGo)是通过两个不同神经网络合作来改进下棋。这就像有两个导师,每个都是多层神经网络。它们从多层启发式二维过滤器开始,去处理围棋棋盘的定位,就像图片分类器网络处理图片一样。经过过滤,13 个完全连接的神经网络层产生对它们看到的局面判断。这些层能够做分类和逻辑推理。 这些网络通过反复训练来检查结果,再去校对调整参数,去让下次执行更好。这个处理器有大量的随机性元素,所以人们是不可能精确知道网络是如何“思考”的,但更多的训练后能让它进化到更好。 导师1号:策略网络(Policy network) AlphaGo 的第一个神经网络大脑是“策略网络(Policy Network)”,观察棋盘布局企图找到最佳的下一步。事实上,它预测每一个合法下一步的最佳概率,那么最前面猜测的就是那个概率最高的。这可以理解成“落子选择器”。 AlphaGo 团队首先利用几万局专业棋手对局的棋谱来训练系统,得到初步的“策略网络”。训练“策略网络”时,采用“深度学习”算法,基于全局特征和深度卷积网络 (CNN) 来训练,其主要作用是给定当前盘面状态作为输入,输出下一步棋在棋盘其它空地上的落子概率。 接下来,AlphaGo 采用左右互搏的模式,不同版本的 AlphaGo 相互之间下了 3000 万盘棋,利用人工智能中的“深度增强学习”算法,利用每盘棋的胜负来学习,不断优化和升级“策略网络”,同时建立了一个可以对当前局面估计白棋和黑棋胜率的“价值网络”。 导师2号:价值网络(Value network) AlphaGo 的第二个大脑相对于落子选择器是回答另一个问题。不是去猜测具体下一步,它预测每一个棋手赢棋的可能,在给定棋子位置情况下。这个局面评估器就是 “价值网络(Value Network)” ,通过整体局面判断来辅助落子选择器。 然后,AlphaGo 通过吸收人类 几千年 来优秀的棋谱,不断学习优化 策略网络 和 价值网络,从而战胜了欧洲冠军樊麾,韩国九段棋手李世石,而后又赢了世界冠军柯洁。 实际对局时,AlphaGo 通过“蒙特卡罗树搜索”来管理整个对弈的搜索过程。 首先,通过“策略网络”,AlphaGo 可以优先搜索本方最有可能落子的点(通常低于10个)。对每种可能再通过“估值网络”评估胜率,分析需要更进一步展开搜索和演算的局面。综合这几种工具,辅以超级强大的并行运算能力,AlphaGo 在推演棋局变化和寻找妙招方面的能力,已经远超人类棋手。 根据资料,最高配置的 AlphaGo 分布式版本,配置了 1920 个 CPU 和 280 个 GPU,同时可以跑 64 个搜索线程,这样的计算速度就好像有几十个九段高手同时在想棋,还有几十个三段棋手帮着把一些难以判断的局面直接下到最后,拿出结论,某一位人类棋手要与对抗,确实难以企及。 但是,这并不是重点。 终于说到重点了~~ Zero 英文意思是:零。除了围棋最基本规则(棋盘的几何学定义,轮流落子规则,终局输赢计算,打劫等),它就是一张白纸。放弃参考任何人类棋谱,完全自我学习。 如果你和一个有人类老师的 AlphaGo 交手,那可能还会在它背后看到人类下棋的影子。但是 AlphaGo Zero,完全是一个无师自通的家伙,和它下棋,你可能闻到很浓烈的机械味。但从另一方面想,这样的 AlphaGo 打破了数千年来人类下棋思维的限制,探索了人类想不到的下棋境界,学会了一个崭新的下棋方式。 仅仅经过 3 天的训练后,这套系统已经可以击败 AlphaGo Lee,也就是击败韩国顶尖棋手李世石的那套系统,而且比分高达100:0。经过 40 天训练后,它总计运行了大约 2900 万次自我对弈,使得 AlphaGo Zero 击败 AlphaGo Master,也就是击败世界冠军柯洁的系统,比分为 89:11。要知道职业围棋选手一生中的正式比赛也就一千多局, 而 AlphaGo Zero 却进行了 2900 万次对局。 在技术层面来说,AlphaGo Zero 使用的不再是之前提到的两套神经网络系统,而是将它们融合成一个神经网络系统,这样做能更有效利用资源,学习效果更好。其关键在于采用了新的 Reinforcement Learning(强化学习) ,并给该算法带了新的发展。 而且,它不再仅仅使用 GPU,转而添加了自家的专门为机器学习打造的 TPU,而且使用的硬件个数也在逐步降低,然而学习的效果却不断上升。在短短 40 天没有老师教的训练中,AlphaGo Zero 超越了他所有的前辈,在这个时候,我相信它真正做到了在围棋场上无人能敌了。 最后,正如 AlphaGo 之父 David Silver 所说,一个无师自通 AlphaGo 的产生,并不仅仅意味着我们的 AI 能在围棋场上战胜人类,放眼未来,它还意味着,在更多方面,我们能用这样的 AI 创造出更多人类历史上的新篇章。 围棋场上,无论谁赢,最终获胜的都是人类自己。
[create_time]2022-07-24 20:57:26[/create_time]2022-08-05 20:26:49[finished_time]1[reply_count]0[alue_good]科创17[uname]https://himg.bdimg.com/sys/portrait/item/wise.1.893bbde8.PVbP8BkQWcgeD7mtuhrfPw.jpg?time=4991&tieba_portrait_time=4991[avatar]TA获得超过4825个赞[slogan]这个人很懒,什么都没留下![intro]45[view_count]怎么看待AlphaGo战胜李世石
AlphaGo战胜李世石,对于人机大战对于人工智能的发展意义很有限。但是解决了围棋问题,并不代表类似技术可以解决其他问题,自然语言理解、图像理解、推理、决策等问题依然存在,人工智能的进步被夸大了。AlphaGo技术全面,从来不犯错,这一点是其最大的优势,人类要打败它的话,必须在前半盘领先,然后中盘和官子阶段也不容出错,这样固然很难,但客观上也促进了人类棋手在围棋技术上的提高。AlphaGo其他情况简介。AlphaGo是第一个击败人类职业围棋选手、第一个战胜围棋世界冠军的人工智能机器人,由谷歌(Google)旗下DeepMind公司戴密斯·哈萨比斯领衔的团队开发。其主要工作原理是“深度学习”。2016年3月,阿尔法围棋与围棋世界冠军、职业九段棋手李世石进行围棋人机大战,以4比1的总比分获胜;2016年末2017年初,该程序在中国棋类网站上以“大师”(Master)为注册账号与中日韩数十位围棋高手进行快棋对决,连续60局无一败绩。
[create_time]2021-10-12 08:49:34[/create_time]2016-03-28 11:38:30[finished_time]5[reply_count]2[alue_good]ray聊教育[uname]https://pic.rmb.bdstatic.com/bjh/user/ebc3305d307f38cb68b2eba1dff9fb63.jpeg[avatar]解答你所关心的各种问题[slogan]解答你所关心的各种问题[intro]2090[view_count]