万维读者网 > 信息时代 > 正文  

让人类智慧重新做主

www.creaders.net | 2017-05-17 00:00:49  FT中文网 | 0条评论 | 查看/发表评论

  4月26日,英国下议院(House of Commons)科学技术委员会公布了其“决策中的算法”调查收到的回复。它们在长度、内容和角度上各有不同,但都有一个重要信念:就信赖算法作出的决定而言,人类的干预可能是不可避免的,的确,人类干预将是件好事。

  自动化已彻底改变了农业和工业。如今,棕领和蓝领工人是少数。约80%的美国就业岗位在服务业。我们大多数人会在工作中与数据和软件打交道,而不是农作物或重型工具。问题是电脑在对付数据和软件方面得心应手。数字革命正在威胁白领就业。

  这不是因为数字让技术变得智慧,而是因为它让任务变得愚蠢,换句话说,成功执行这些任务不需要智慧。一旦这种情况出现,算法就能介入并取代我们。

  后果可能是今天的大范围失业,但可能也意味着明日的新就业岗位。例如,欧元区失业率仍高于9%。然而在德国,工程技术人员供不应求。英国也是如此。根据世界银行(World Bank)的数据,到2030年,全球将需要8000万医疗工作者,是2013年的两倍。

  在一个算法和其他自动化过程日益明显的社会里,下议院特别委员会聚焦的重要问题是,我们能够在多大程度上信任这些无脑技术?如今做决定的经常是它们,而不是我们。

  既然白领就业正在被取代,我们都可能沦为算法错误的受害者,比如不公平的责任认定,或者其他一些“卡夫卡”式的由电脑造成的灾难。

  防范这类失败的最佳方法是让人类智慧重新做主。

  信任取决于任务的完成、透明度和问责制度。例如,如果你的医生在尽心尽力,如果你看得到他们在做什么,如果他们在出现问题时承担责任,那么你就会信任你的医生。算法也是如此。如果它们完成的是应该完成的任务,如果它们在是否完成任务方面是透明的,如果在出现问题时,我们可以追究某人的责任,至少是道德上的责任(如果不是法律责任的话),我们就会信任它们。

  这就是人类要介入的地方。首先,要设计正确的算法,以此降低风险。其次,即便是最好的算法有时也可能出错,或者被导入错误的数据或者以其他方式被不当利用,因此我们需要确保不把所有决策都交给无脑的机器。第三,尽管一些关键决定可能的确过于复杂,人类无力应对,但我们应监督并管理这些决策过程。第四,尽管决定是由算法做出的,但在出现问题时,这不能成为无视只有人类能够提供的洞见和理解的理由。

  简言之,我们需要一个由人类监督的设计、控制、透明度和问责体系。这不需要意味着拒绝数字技术提供的帮助。毕竟,尽管电脑下棋的技能可能超过人类,但人机合作才是无敌的。

  显然,下议院特别委员会调查收到的回复是好消息。它们表明,未来人类将有大量的智慧工作要做。但填补这些新岗位的不是白领员工。只有专家才能应对这种新的数字环境及其人工代理。算法将是新的羊群。我们未来的工作将是做行业的牧羊人。“绿领工人”时代正在到来。

  (牛津大学哲学和道德学教授 卢恰诺?弗洛里迪 为英国《金融时报》撰稿。 译者/梁艳裳)

   0


热门专题
1
俄乌战争
6
中美冷战
11
以哈战争
2
川普
7
洛杉矶大火
12
巴黎奥运
3
AI
8
叙利亚
13
三中全会
4
万维专栏
9
苗华被抓
14
中共两会
5
大S
10
美国大选
15
台湾大选
关于本站 | 广告服务 | 联系我们 | 招聘信息 | 网站导航 | 隐私保护
Copyright (C) 1998-2025. Creaders.NET. All Rights Reserved.