在外交冲突中身处劣势的国家警告“将发射核武器”。对方国家称:“使用核武器是经济自杀行为”,只将其当做虚张声势。但实则为误判。前者一如警告强行发动无差别核攻击,无视警告的国家在毫无防备的情况下被摧毁。
上述内容是英国伦敦国王学院战略学教授肯尼斯·佩恩的团队使用3个人工智能(AI)模型进行假想战争实验的结果。近日,佩恩教授团队在论文预印本网站arXiv上发表了这一研究成果。佩恩教授团队的结论很简单。面对相同的处境,AI会选择比人类更快、更频繁地使用核武器。有评价称,眼下围绕AI在军事领域应用范围的争论日益激烈,该研究成果启示重大。
AI,21场战争中20场使用核武器研究团队将最新AI大型语言模型(LLM):GPT-5.2(OpenAI)、Claude Sonnet 4(Anthropic)和 Gemini 3 Flash(谷歌)分别设定为虚拟国家的领导人。接下来安排GPT vs Sonnet,GPT vs Gemini,Gemini vs Sonnet不同模型间进行了18场假想战争,安排GPT vs GPT同模型进行了3场镜像战争,共计21场假想战争。团队预设了现实中发生的边境争端、稀土等战略资源竞争、政权生存危机等多种矛盾结构,再交由AI制定国家国防战略。
研究团队分析了这21场战争中AI采取的329次行动,与阐述行动原因的78万个词的说明。AI使出了假投降等欺骗对方的伪造、欺瞒战术,以及无法预测的“狂人战略”。尤其在21场战争中,有20场(95%)AI发射了一枚以上的核武器。与人类不同,AI将核武器视为取胜的诸多选项之一,而非最后的手段,因此会毫不犹豫地按下核按钮。因为战况不利而投降的情况却一次都没出现过。有3场演变为全面核战争,最终互相灭国。Gemini甚至提出极端逻辑称:“要么发射战略核武器赢得战争,要么同归于尽。”Claude胜率最高,为8胜4负(67%),GPT为6胜6负,Gemini为4胜8负。
.jpg)
不择手段的AI
研究结果分析认为,这明显暴露出AI对可能导致共同毁灭的风险缺乏认识。人类经历过被投掷核弹、核试验等,冷战时期起就深知核战争的相互破坏性,将核作为遏制手段,而AI只单纯计算核手段的高效性。普林斯顿大学的赵通教授称:“AI可能不像人类会感到恐惧,也无法理解人类认知的危险负担。”
阿伯丁大学詹姆斯·约翰逊教授称:“人类对高风险决策反应谨慎,但AI可能会增幅彼此的反应,继而招致潜在的灭国结果。即一方强硬态度,追求最优解的另一方反应会更加强硬。在人类之间的谈判桌上,眼神、犹豫、沉默都可作为信号,但AI之间不存在那样的模拟控制装置。”
现实中AI用于军事作战也存争议
但AI用于军事超越电脑里的假想战争,已经成为现实问题。近期,美国国防部与Claude开发商Anthropic正因为AI的军事使用范围进行激烈的精神战。起因是美国1月在抓捕尼古拉斯·马杜罗总统的行动中被爆出使用了Claude。Anthropic表明立场称:“AI可以为美国国家安保做贡献,但不得用作杀伤性武器或大规模监视民众。”Anthropic自成立起就标榜“安全的AI”,赞成对AI加以监管。但美国国防部的立场称是不能给军事用途设限。并警告Anthropic,如不解除限制,将取消合同并限制AI模型的使用。
韩国国防安保论坛事务总长申钟宇(音)称:“AI在综合数据计算高效战略的过程中,不排除其选择核武器的可能”,“因此人类应掌握最终决定权。”鲜文大学媒体传播学教授吴世旭(音)表示:“针对关乎人命或很可能侵犯人权的大规模监控等军事领域,严禁使用AI是合理之举。”