万维读者网 > 信息时代 > 正文  

机器打败人类 不靠模仿人类

www.creaders.net | 2016-03-28 23:32:34  英国《金融时报》 | 0条评论 | 查看/发表评论

  “(人工智能)有很多与人类不同的智能方式。”这是人工智能领域的领军人物帕特里克?温斯顿(Patrick Winston)说过的话。尽管他的观点很简单,但多数思考工作未来的人没有领悟到它的含义。然而,他所说的是我们应该最为关注的人工智能的一个特征。

  从上世纪50年代到80年代,在人工智能研究“第一次浪潮”时期,人们一般认为,创建能够将任务执行到达到人类专家水平或更高水平的系统的最佳方法,是复制专家们的工作方式。但问题是:对于很多任务,人类专家都常常难以说出他们是如何执行的。

  下棋是一个很好的例子。当研究人员与大师们坐下来,请他们解释如何把棋下得这么好时,答案都是毫无用处的。一些大师认为是“直觉”,还有一些人则归因于“经验”。很多人表示,他们根本不知道原因。如果最优秀的棋手自己都不能解释他们为何如此出色,那么研究人员如何能够创建一个可以打败大师的下棋系统?

  1997年,一个转折点出现了。当时的国际象棋世界冠军加里?卡斯帕罗夫(Garry Kasparov)被IBM的超级计算机“深蓝”(Deep Blue)击败。最引人瞩目的是这个电脑系统击败人类的方法。“深蓝”没有卡斯帕罗夫的“直觉”或“经验”。它是凭借强大的处理能力和大规模数据存储能力获胜的。

  接着出现了人工智能的“第二次浪潮”,就是现在。谷歌(Google)的人工智能程序AlphaGo刚刚在5局的围棋对弈中击败或许称得上目前最优秀的棋手李世石(Lee Se-dol)。不久以前,多数研究人员还认为,我们距离机器获胜至少还有10年的时间。然而,AlphaGo在与李世石的5局交锋中,有4局获胜。它没有李世石的天赋或战略眼光;它凭借的是被称为“深度神经网络”的系统,同样的,该系统是由处理能力和数据存储能力驱动。与“深蓝”一样,从某种程度上来说,AlphaGo玩的是不同的游戏。

  回过头来看,我们能够看出早期的研究人员犯下了我们现在称之为“人工智能谬论”的错误:他们认为,要把一项任务执行到达到人类专家的标准,唯一途径是复制人类专家的方法。如今,很多评论人士在思考工作的未来时也在重复同样的错误。他们未能意识到,将来系统战胜人类不是通过模仿最优秀的人类专家,而是通过以截然不同的方式执行任务。

  以法律界为例。法学教授丹尼尔?马丁?卡茨(Daniel Martin Katz)设计了一个预测美国最高法院投票行为的系统。它可以预测得与多数专家一样好,但它并不是模仿人类的判断。它利用的是记录美国最高法院60年行为的数据。

  我们还在其他经济领域看到了类似的事情。在美国,数百万人利用在线报税软件,而不是亲自与会计师会面,来提交纳税申报表。Autodesk的“Project Dreamcatcher”会通过筛选大量可能的设计以及选择最佳方案(而不是模仿建筑师的创意)来生成电脑化设计。IBM的超级计算机“沃森”(Watson)通过查阅海量医疗数据(而非复制医生的推理方法)帮助诊断癌症。

  所有这一切都没有预示“工作的终结”。它只是表明未来与多数专家的预测截然不同。人们经常说,因为机器无法像人类那样“思考”,所以它们永远无法变得有创意;因为它们无法像人类那样“推理”,所以它们永远无法做出判断;因为它们无法像人类那样“感受”,所以它们永远无法变得有同情心。出于这些原因,有人声称,很多任务永远需要人类去执行。

  但这未能意识到,未来的系统将处理很多现在需要创意、判断或同情的任务,不是通过模仿我们,而是通过用一种完全不同的非人类的方式工作。人类专属的任务可能会比很多人预测的少得多。

  作者丹尼尔·萨斯坎德是《职业的未来》(The Future of the Professions)一书的合著者之一。 译者/何黎

   0


热门专题
1
苗华被抓
6
美国大选
11
台湾大选
2
川普
7
以哈战争
12
李克强
3
俄乌战争
8
巴黎奥运
13
中国爆雷
4
中美冷战
9
三中全会
14
李尚福出事
5
万维专栏
10
中共两会
15
秦刚失踪
关于本站 | 广告服务 | 联系我们 | 招聘信息 | 网站导航 | 隐私保护
Copyright (C) 1998-2024. Creaders.NET. All Rights Reserved.