|
“(人工智能)有很多与人类不同的智能方式。”这是人工智能领域的领军人物帕特里克?温斯顿(Patrick Winston)说过的话。尽管他的观点很简单,但多数思考工作未来的人没有领悟到它的含义。然而,他所说的是我们应该最为关注的人工智能的一个特征。
从上世纪50年代到80年代,在人工智能研究“第一次浪潮”时期,人们一般认为,创建能够将任务执行到达到人类专家水平或更高水平的系统的最佳方法,是复制专家们的工作方式。但问题是:对于很多任务,人类专家都常常难以说出他们是如何执行的。
下棋是一个很好的例子。当研究人员与大师们坐下来,请他们解释如何把棋下得这么好时,答案都是毫无用处的。一些大师认为是“直觉”,还有一些人则归因于“经验”。很多人表示,他们根本不知道原因。如果最优秀的棋手自己都不能解释他们为何如此出色,那么研究人员如何能够创建一个可以打败大师的下棋系统?
1997年,一个转折点出现了。当时的国际象棋世界冠军加里?卡斯帕罗夫(Garry Kasparov)被IBM的超级计算机“深蓝”(Deep Blue)击败。最引人瞩目的是这个电脑系统击败人类的方法。“深蓝”没有卡斯帕罗夫的“直觉”或“经验”。它是凭借强大的处理能力和大规模数据存储能力获胜的。
回过头来看,我们能够看出早期的研究人员犯下了我们现在称之为“人工智能谬论”的错误:他们认为,要把一项任务执行到达到人类专家的标准,唯一途径是复制人类专家的方法。如今,很多评论人士在思考工作的未来时也在重复同样的错误。他们未能意识到,将来系统战胜人类不是通过模仿最优秀的人类专家,而是通过以截然不同的方式执行任务。
以法律界为例。法学教授丹尼尔?马丁?卡茨(Daniel Martin Katz)设计了一个预测美国最高法院投票行为的系统。它可以预测得与多数专家一样好,但它并不是模仿人类的判断。它利用的是记录美国最高法院60年行为的数据。
我们还在其他经济领域看到了类似的事情。在美国,数百万人利用在线报税软件,而不是亲自与会计师会面,来提交纳税申报表。Autodesk的“Project Dreamcatcher”会通过筛选大量可能的设计以及选择最佳方案(而不是模仿建筑师的创意)来生成电脑化设计。IBM的超级计算机“沃森”(Watson)通过查阅海量医疗数据(而非复制医生的推理方法)帮助诊断癌症。
所有这一切都没有预示“工作的终结”。它只是表明未来与多数专家的预测截然不同。人们经常说,因为机器无法像人类那样“思考”,所以它们永远无法变得有创意;因为它们无法像人类那样“推理”,所以它们永远无法做出判断;因为它们无法像人类那样“感受”,所以它们永远无法变得有同情心。出于这些原因,有人声称,很多任务永远需要人类去执行。
但这未能意识到,未来的系统将处理很多现在需要创意、判断或同情的任务,不是通过模仿我们,而是通过用一种完全不同的非人类的方式工作。人类专属的任务可能会比很多人预测的少得多。
作者丹尼尔·萨斯坎德是《职业的未来》(The Future of the Professions)一书的合著者之一。 译者/何黎
当前新闻共有0条评论 | 分享到: |
|
||||||||||
评论前需要先 登录 或者 注册 哦 |
24小时新闻排行榜 | 更多>> |
1 | 噩耗接连传来 中南海焦头烂额 |
2 | 前中南海官员:中共大变局已经到来 |
3 | 习近平有多狂有多狠?默克尔回忆种种细节 |
4 | 内幕首发:习家军惨烈大火拼第二幕开演 |
5 | 突传川普将有“重大”宣布 |
48小时新闻排行榜 | 更多>> |
一周博客排行 | 更多>> |
1 | 为何中共官宣苗华落马,却否认 | 胡亥 |
2 | 赵晓:美国白左所犯的 N 个错 | 万维网友来 |
3 | 突发:国防部长董军东部战区司 | 雷歌747 |
4 | 薄熙来出席薄瓜瓜婚礼有感 | 体育老师 |
5 | 习家军若被一锅端,中国会发生 | 文庙 |
6 | 上了安全局的黑名單 | 底波拉 |
7 | 狗奶奶露营记之三 | 野狼巴克 |
8 | 是不是谣言都万分危险了 | 三都瓠瓜 |
9 | 何宏军是贾廷安马仔 是习张博 | 胡亥 |
10 | 试析马斯克的新使命;专访马斯 | 玉质 |
一周博文回复排行榜 | 更多>> |