上周发生了一起即将被写入人工智能教科书的历史事件。在一直被认为是人类特有技能的围棋领域,计算机表现出了最高水平之上的能力。国际象棋、围棋、扑克等各种要求智力的游戏一直都是人工智能的研究对象。因为对于智能概念的界定,目前并没有相关的哲学论争,站在工学的立场上,只要能在需要高难度思维的游戏中展现出可以与人类最高水平相抗衡的能力,就可以视为拥有智能。从人工智能研究人员的立场来看,AlphaGo最具魅力的部分在于,它的算法并非由围棋专家亲自参与开发。AlphaGo几乎原样照搬了教科书式的人工智能演算法,然后利用从网上随便可以下载的人类对弈棋谱数据,不断提高它的性能。
事实上,AlphaGo使用都是些学界发表已久的技术。打破围棋无数棋路中的随机性从而决定着手点的蒙特卡洛树搜索是也是早在十年前就已被用于几乎所有人工智能围棋软件的定式。自主学习的“自我对弈”技巧也曾在1992年开发的西洋双陆棋桌游程序中登场亮相。对围棋局势的判断可以对搜索演算法的效率产生重大影响,在这一部分,AlphaGo实现了卓越的性能改进。在这一方面,最近整个颠覆了机器学习研究的深度神经网络技术发挥了作用。但这一技术早在90年代就已在图像认知领域诞生。AlphaGo使用的神经网络是模仿高等动物头脑视觉皮层的计算能力认识图形内客体的卷积神经网络技术。也就是说,计算机将围棋盘视为黑色和白色像素构成的图形,将人类看到图形后做出直觉客体认识的能力应用到了围棋之中。一句话说,AlphaGo通过利用计算机快速演算能力实现的搜索技术和模仿人类直觉的深度神经网络技术互补作用,表现出了超越人类最高水平的围棋实力。
其实我曾经非常担心这局对弈。谷歌DeepMind汇集了全世界的优秀人工智能研究人员,如果在对弈中不幸惨败,研究领域无疑将被泼下一盆冷水,担心重演上世纪80年代很多人意识到人工智能的局限性从而退出这一领域的“人工智能之冬”。这是因为,凝聚了大众目光的这次活动将对人工智能领域的未来发展产生巨大影响。不过我认为,研究团队中的技术领导人大卫·席尔瓦博士从研究生时候就一直研究人工智能围棋,还在2008年有过与职业棋手对弈的经验,因此才会安排这场活动。我觉得,这次对弈不是人工智能的胜利,而是大卫·席尔瓦博士个人执念和热情的胜利。
以下是我的思考和从中得到的启示。
第一,不要把这次对弈看做人类与计算机的对决。人们只需看到,计算机已经发展到可以解决如此难题的阶段,认识到计算机已经发展得如此便利和强大即可。计算机存在的本来目的就是为了解决人类难以处理的麻烦问题,这只不过是忠于计算机存在的本来意义、总有一天必然会出现的结果罢了。比如说,核工学可以被用作核能发电,也可以被用来开发核武器,如何制定有利于人类的使用方案,最终是人类自己的事。
第二,这次对弈的结果绝非意味着“人工智能的实现”。AlphaGo搭载的技术很难称之为真正意义上的通用人工智能技术。它只是按照围棋的属性,结合最合适的人工智能要素开发出的围棋特化演算程序。比如说,计算机国际象棋中并未使用AlphaGo的核心技术“蒙特卡洛树搜索技术”或者“深度神经网络”,一般观点认为,这是因为这种技术并无助于计算机表现出最高水平的国际象棋实力。AlphaGo通过无数局对弈,在反复的获胜和失败中进行练习,因而对于无人驾驶汽车和机器人等稍有失误就会导致人类死亡或受到严重伤害的机器,很难使用AlphaGo的学习型算法。所以说,迄今为止,我们距离人工智能这一远大目标还有很长的路要走。
第三,人工智能成了我们的后代必须掌握的技能之一。这次围棋对决让人们认识到了电脑编程教育的重要性,未来如果不能熟练掌握人工智能技术,将很难在现在的岗位上继续工作。推测此番DeepMind直接编写的AlphaGo核心源代码可能高达1000行以上。对于电脑专业学生来说,编写这些代码可能只需要几天时间,而对于没有掌握人工智能核心知识的人来说,可能一辈子也无法写出成果。(金基应(音) KAIST电算学系教授)