![]() |
|
这些人工智能系统不仅塑造了亚马逊员工的生活,还可能威胁数十亿人未来的工作。 在前面的章节,我们探讨了生产人工智能的供应链,以及往往隐藏在这个生产过程中的数百万工人。 在这里,我们将讨论人工智能在工作场所的部署方式,而这些方式可能会对更多的工人产生长远的影响。 对许多低生产力产业的老板来说,撷取机器的主要价值在于,它能更大程度地帮老板压榨员工。
不只员工生产力,从特定屏幕花费时间到打字速度都可以监控
2020年以来,工作场所监控的作法呈爆炸式的成长,许多公司现在都会搜集关于员工工作各个层面的信息,有时甚至是在员工不知情的状况下进行。 机器学习算法让公司分析这些数据并预测未来的行为模式。 这些技术在新冠疫情期间大受欢迎,因为各地的管理者都患了生产力妄想症,高达85%的管理者担心远距工作的员工生产力不足。 在疫情期间,许多雇主强迫员工在家用电脑上安装各种“老板软件”技术,通过各种应用程序与追踪器监控员工的工作日。 自疫情爆发以来,使用此类工具的大型雇主增加了一倍以上。 在美国,《纽约时报》调查发现,十大私人雇主中有80%会追踪个别员工的生产力。 他们往往宣称工作场所监控技术是为工人维持更安全、和谐工作环境的一种手段。 但是,监控与生产力工具渗透到员工生活的各个层面,可能造成一种专横且让人窒息的管理控制文化。
在某些办公室,员工识别证现在可用来追踪员工进入办公室的时间与停留时间。 其他工作场所则要求远距员工,在工作日随时开启摄影机与麦克风。 其他雇主仍然利用监视软件,几乎可以记录一个人在电脑上做的任何事,从他们在特定屏幕上花费的时间,到他们的打字速度,甚至透过网络摄影机秘密监视。 根据“数据与社会”(Data & Society)这个美国非营利研究组织的一份报告,研究人员发现,即使许多员工意识到自己受监视,却往往没有察觉监控的程度,也不知道收集到的信息要用来做什么。 这份报告所举的一个例子中,沃尔玛(Walmart)员工被要求在手机上安装一款应用程序以检查库存,但是这个应用程序可以持续存取手机的位置,不断与公司分享信息。 个中危险在于,随着老板介入员工的私生活,这个软件会让监控方式变得愈来愈严格。 历史证明,一旦为了应对危机而引进监控措施,这些措施很少会移除—想想美国九一一袭击事件后的“爱国者法”(Patriot Act),2005年伦敦爆炸案后加强的闭路电视监控,以及法国在2015年恐怖攻击后实施的紧急状态措施。
员工的个人隐私与身体自主权受到前所未有的侵犯
这项技术并不局限于特定的经济部门或少数单独的公司。 随着数十家小型科技公司开发出监控员工活动的应用程序与平台,它已经在各行各业中激增。 民间社会组织 coworker.org 的一份报告指出,在2018年至2021年间,有超过550种科技产品推出,目的是从招募到纪律处分,数字化并监控员工各个层面的生活。 在此之前,最先体验这项技术的是零工,特别是运输、食品配送与照护等领域; 他们工作的每一秒都通过算法的管理进行量化。 许多早期实验着重于如何协调工人完成任务,而不是监督他们的表现,但也有公司进行自动监控的实验。 众所周知,优步会使用驾驶员的智能手机监控他们,例如检查煞车与加速的习惯,作为安全驾驶的指标。 我们现在目睹的是,随着其他职业被分割成无法再分割的最小单位被降低技术要求,并通过生产力软件进行监控,这些工具也在劳动力中逐渐扩散。 这些工具包括Hubstaff、Time Doctor与FlexiSPY等,其中有80%的软件鼓励让员工长期使用。 它们通常结合不断增加的员工数据与人工智能的预测能力,以增加对劳动力的管控。
大多数员工都讨厌这种形式的监视。 一项针对750名科技工作者的调查发现,有一半的人宁愿辞职也不愿受到老板的持续监视。 有些员工找到了低技术的抵抗方式,例如用模仿人类动作的鼠标移动器来愚弄生产力监控,或是可以破坏电脑上间谍软件的软件。 然而,并非所有监视技术都能阻止或规避。 过去三年来,这类工具当中最具入侵性的,使用率大幅增加。 能记录你输入的所有内容,包括密码在内的键击纪录,增加了40%; 允许老板在员工不知情的状况下监视的隐形模式,增加了38%; 超过1/3的工具如今可以追踪员工确切的GPS位置。
风险在于,老板对提高劳动力的渴望渗透到员工的私人生活中,员工的个人隐私与身体自主权受到前所未有的侵犯。 除了标准的屏幕监控软件和生产力工具,人工智能还促成了影集《黑镜》(Black Mirror)般的新一代技术,比如“心情与情绪分析”、脸部识别与语音监控软件。 员工监控软件Teramind是其中最糟的一款,老板可以借由控制员工设备的摄影机和麦克风,观看或偷听员工在工作场所、甚至家中的对话。 更具体地说,一旦发生违规行为,公司可以记录违规行为前后五分钟的内容,包括每次键击及完整的录像。 此外,工作场所的穿戴装置也可记录员工的健康统计数据,持续监控个别员工,以确保他们能集中注意力且不会压力过大。 预测式人工智能工具使用收集到的员工数据为员工进行排名,并为不同的个人提供风险评分。 人力资源分析工具Perceptyx就是一个例子,它会制作“脆弱性评分”,衡量员工加入工会或离开公司的可能性。 Perceptyx拥有一系列工具,其中包括“感官”(Sense)这款“随显式员工监听产品”。 该软件根据个别员工的语音录音分析,产生“敬业度指标”评分,并承诺“透过预测建模以减少不必要的人员流动”。 人工智能驱动的文字分析软件也可以监控员工的电子邮件与Slack (团队沟通平台)信息,以评估职场文化与员工对公司的归属感。 我们很快就可能进入一个局面:每个人的细微脸部表情或语气变化都会被记录下来,直接送到人工智能驱动的评分系统,根据员工的情绪与满意度评分。
从筛选到面试,使用人工智能就不会有偏见?
人力资源团队也广泛采用人工智能进行招募与聘用。 人工智能系统可以被运用在招募过程的不同阶段,从筛选履历到建立候选名单、面试、评估性格测验与评价求职者等。 目前,美国有35%至45%的公司将人工智能用于招募人才,此举让这些公司在2022年节省了40%的招聘成本。 人工智能工具能自动扫描应用程序中的关键词与词组,节省人力资源的时间与金钱。 人工智能也不会专注于求职者的性别、种族或年龄,足以消除人为偏见的因素。 然而,其中许多说法都是虚幻的,因为软件本身已经证明会表现出明显的偏见,进一步让求职者的体验去人性化。
亚马逊提供了另一个重大案例,警示人工智能招募的危险性。 2014年,苏格兰的亚马逊工程师写了一个程序,可以自动为求职者评分,向招募人员提供最佳求职者名单。 2015年,团队意识到这个软件对女性求职者存有偏见,特别是软件开发人员与工程师等技术职位。 这种偏见是因为之前成功申请的求职者资料被用于训练资料,而这些数据的性别失衡、偏向男性所导致。 根据过去的例子,算法推断男性求职者更可取,并将包含“女性”字眼(如“女子足球队”)和毕业于女子学院的应征者降级。 当算法在履历中搜索特定的单词与词组,它也偏好“执行”与“捕获”等移动导向的语句,而男性求职者更可能使用这些语词。 在尝试修正这些偏差未果后,亚马逊于2018年舍弃了这个计划。
剑桥大学的研究人员研究了人工智能在招募过程中消弭各种种族与性别偏见的潜力,发现软件能达到的效果有非常大的局限性。 研究人员提出相当有说服力的说法,表示这类工具揭露了“对种族与性别的普遍误解”,将种族与性别视为个人的潜在可移除属性,而非塑造组织与社会运作方式更广泛的权力系统。 正如亚马逊的案例所示,种族化与性别化的系统会影响个人使用的语言类型、行为模式,以及别人看待他们的方式,即使据称是中立的算法,在执行评估时亦是如此。 因此,如果算法只被训练去看到履历中提及的性格特质、具体技能与某些关键词的普遍性,依然可能产生歧视性的结果。
许多人工智能系统使用的其中一项指标,是评估求职者的“五大”人格特性(外向性、亲和性、开放性、尽责性、情绪不稳定性),以避免任何种族化或性别分类。 这些人工智能公司宣称,人格分数可以对求职者的能力做中立的评估,比起招募人员对其经验的主观评价,这更能任人唯才。 然而,即使这样的人格测验似乎也无法产生公正的结果。 证据显示,求职者在测验时的穿着打扮与所的语言,都可以改变这些工具对求职者性格的部分看法。 这些所谓的人格评估近乎伪科学,根据人们的语气或屏幕上的外观,建立可靠的“行为特征”,从而预测工作表现。
公司不仅使用软件来整理履历,有些公司会邀请求职者参加自动化视频面试,要求求职者盯着网络摄影机并回答预先录制的问题。 然后,人工智能驱动的软件就会分析他们的回答,以确定他们是否适合这份工作。 例如,Modern Hire拥有一个“人工智能驱动的自动化面试平台”,称作“自动化面试创造器”(Automated Interview Creator),可以协助人力资源部门发展面试并评估求职者。 人工智能工具主要用来誊写面试内容,并根据转录下来的文字对求职者进行评估与排序。 但在此之前,收购了Modern Hire的HireVue是使用脸部辨识人工智能工具来分析视频面试,结果被投诉到联邦贸易委员会(Federal Trade Commission),指称有不公平和欺骗的行为。 该软件声称可以分析求职者的脸部表情、微手势、语气和线上状态,以评估性格特征与适合程度。 虽然HireVue停止使用这类工具,很难估计这些工具在业界的盛行程度。 美国有些州正在制定法律,规范人工智能在招募中的使用,譬如伊利诺州立法机构的“人工智能影像面试法”(Artificial Intelligence Video Interview Act),以及纽约州的“自动化聘雇决策工具”(Automated Employment Decision Tool)法规。 欧盟人工智能法案(EU AI Act)也将人工智能招募软件归类为“高风险”,意指公司必须符合一长串要求,以确保软件的安全性,并在可公开访问的数据库中,提供有关其系统的信息。 但就目前而言,这项技术的大部分使用仍然取决于雇主,这也为潜在带有偏见的决策留下了很大的空间。
人工智能在职场,推动新形式的监视与管理主导权
人工智能技术在工作场所的部署,有可能推动新形式的监视与管理主导权。 过去,白领工人在工作安排上享有更多自主权,现在却愈来愈受到像亚历克斯和在他之前的作业员那样的待遇。 工作强化的现象正从工业部门蔓延到零售业、接待业与更广泛的服务部门。 所有这些控制技术在工作场所都具有双重目的。 它们既降低了生产成本(以牺牲工作质量、工人自主性与基本民主权利为代价),也牺牲工人的权益,以赋予老板权力。
监视技术让雇主镇压员工的反抗,也可能阻碍工人在公司内的组织与代表。 大多数国家的法律都明文规定集体组织的能力,但随着公司以复杂的形式破坏工会活动,行使这项权利变得愈来愈困难。 老板除了聘请专门机构提供建议、阻止工人组建工会,也利用工作场所频道监控工人的对话,或是通过摄影机监视。 例如,亚马逊就被员工指控,称公司会悄悄监控参与工会活动者的电子邮件名单。
工人用许多方法反抗这种技术的部署,从秘密违反规则到离职等。 这些反抗形式大都停留在个人,或是和极小的群体共享。 五、六个同事可能会讨论如何欺骗亚马逊仓库的速度计算,为自己赢得一些急需的休息时间,但这类诡计通常在暗中进行。 我们可以肯定,即使没有直接的证据,这样的策略在亚马逊已经相当普遍,因为这种抵制总是会发生。 这是职场上工人与老板利益冲突的有机副产品。 但有时候,当特定条件满足了,这种非正式的个人抵制会扩大为更持久、更公开的抵抗。 这正是科芬特里BHX4所发生的事。
内容来源:《血汗AI:为人工智能提供动力的隐性人类劳工》大块文化授权转载。
当前新闻共有0条评论 | 分享到: |
|
||||||||||
评论前需要先 登录 或者 注册 哦![]() |
24小时新闻排行榜 | 更多>> |
1 | 中共前高官落马大快人心 民间拉横幅放烟花 |
2 | 习将矛头对准张又侠 |
3 | 开国上将的混血娇妻有多美?这些罕见照片告 |
4 | 200斤被最亲密盟友狠狠羞辱 |
5 | 又变了!暂时放过中国 川普签署新行政令 |
48小时新闻排行榜 | 更多>> |
1 | 传习又犯病 李强话风也变了 |
2 | 中共前高官落马大快人心 民间拉横幅放烟花 |
3 | 中国又1顶尖人才身亡 才48岁 网疑被暗杀 |
4 | 大反转!中南海噩梦开始… |
5 | 暴跌59%!马斯克付出惨重代价? |
6 | 习将矛头对准张又侠 |
7 | 开国上将的混血娇妻有多美?这些罕见照片告 |
8 | 太低估他了,川普看错一件事 |
9 | 曾任中宣部部长 中共“左王”逝世 |
10 | 200斤被最亲密盟友狠狠羞辱 |
一周博客排行 | 更多>> |
一周博文回复排行榜 | 更多>> |