随着人工智能(AI)技术的飞速发展,其潜在风险也日益受到关注。 一封由OpenAI、Google DeepMind以及Anthropic三大AI龙头十多位现任和前任员工联署的公开信,揭露了AI产业内部的隐忧:员工担心自己无法自由表达对AI威胁人类的担忧,因为他们受到保密协议、缺乏举报保护机制以及害怕报复的限制。
华尔街日报报道,这些员工呼吁AI公司建立员工安全揭露担忧的渠道,并允许员工将担忧公开。
他们指出,保密协议阻碍了员工公开讨论相关问题。 “最了解尖端AI系统运作方式和部署风险的人,却不能完全自由地发声”,签署这封信的前OpenAI员工桑德斯(William Saunders)说。
自主AI系统失控 恐导致人类灭绝
除了桑德斯之外,还有六名前OpenAI员工,以及四名现任OpenAI员工、一名前DeepMind员工和一名现任DeepMind员工也签署了他们的姓名,签署者中有六人选择匿名。
该信的签名者表示,由于政府对AI公司没有广泛的监督,现任和前任员工是少数一些能让公司承担责任的人。 他们说,他们担心的问题之一是人类可能会失去对自主AI系统的控制,进而导致人类灭绝。 信中还要求公司允许员工匿名举报问题,不对举报人进行报复,不强迫签署可能会让他们保持沉默的协议。 他们希望AI公司更加透明、注重保障措施。
三位顶尖的AI专家也表支持,包括罗素(Stuart Russell)以及被称为“AI教父”的本吉奥(Yoshua Bengio)和辛顿(Geoffrey Hinton)。 辛顿去年离开Google,以便能更自由地讨论AI风险。
ChatGPT开发商OpenAI的现任和前任员工公开警告,主要人工智能(AI)公司缺乏必要的透明度和问责制,无法因应AI潜在风险。 (美联社文件照)
OpenAI回应称,他们同意该有政府监管,强调会在发布技术之前,先创建必要的安全保障,并已设有匿名的诚信热线,且成立了由包括执行长阿特曼(Sam Altman)领导的安全委员会。 然而,联署员工认为,公司在开发AI技术的竞赛中无视风险,希望AI公司更加透明、注重安全保障。 DeepMind和电商龙头亚马逊支持的Anthropic暂未回应。