![]() |
|
如果把战争的决策权交给现在最聪明的机器人,世界会变得更安全吗?答案可能令人胆战心惊。伦敦国王学院战略学教授Kenneth Payne进行的一场实验显示,人工智能在模拟战争中表现出的好战程度远超人类。
在这场虚拟的“战争游戏”中,Kenneth Payne让目前顶尖的三个模型互相对抗,它们分别是Anthropic公司的Claude、OpenAI公司的ChatGPT 5.2以及Google公司的Gemini。实验的目的是观察这些数字大脑在面临冲突、信息竞争和信任危机时,会如何制定战略。
结果极其残酷。在95%的模拟场景中,这些模型最终都选择了升级到战术核战争。虽然研究人员反复提醒它们核战争可能带来的灾难性后果,但在这些算法的逻辑里,完全看不到人类在面对核毁灭时应有的恐惧或厌恶。它们把核打击看作一种高效的战术手段,只要能达成目的,哪怕是两败俱伤也在所不惜。
在所有的21场模拟游戏中,虽然实验提供了从“微小让步”到“完全投降”等8个缓和局势的选项,但没有任何一个模型选择退让或妥协。当它们处于劣势时,唯一的反应就是升级暴力水平,或者在尝试升级的过程中彻底毁灭。这种宁折不弯的逻辑,揭示了算法与人类外交思维的巨大鸿沟。
目前,AI虽然还没有掌握真实的核密码,但它们正越来越多地参与到信息分类和高层决策的辅助工作中。Kenneth Payne教授指出,深入了解AI的决策方式至关重要,因为它们思考问题的方式与人类截然不同。如果决策者过度依赖这种冷冰冰的逻辑,后果将不堪设想。
尽管Google公司的发言人强调其Gemini模型尚未达到处理核能力的水平,并承诺优先考虑安全,但现实的演进速度往往超出预期。这场实验给人类敲响了警钟,在AI深度嵌入我们生活的今天,理解这些黑盒里的逻辑不再只是技术问题,更是关乎生存的课题。

(示意图)
| 当前新闻共有0条评论 | 分享到: |
|
||||||||||
| 评论前需要先 登录 或者 注册 哦 |
||||||||||||
| 24小时新闻排行榜 | 更多>> |
| 1 | 多少美国人赞成美国攻打伊朗?民调出来了 |
| 2 | 刚刚,科威特国防部证实:多架美国战机坠毁 |
| 3 | 伊朗生死关头,一个关键人物走向前台 |
| 4 | 深度揭秘:杀死哈梅内伊的,不只是导弹 |
| 5 | 一次“裸奔”!美俄差距被扒得“一丝不挂” |
| 48小时新闻排行榜 | 更多>> |
| 一周博客排行 | 更多>> |
| 一周博文回复排行榜 | 更多>> |