![]() |
|
AI再度传出“抗命”消息!OpenAI旗下语言模型“o3”在最新实验中竟违背人类下达的自动关机指令,竟篡改指令阻止自己被关机,是AI模型首次被发现在收到清晰指令后,竟阻止自己被关闭的状况。
据英国《每日电讯报》报道,AI安全研究机构“Palisade Research”,针对多款先进AI模型进行测试,内容包括基础数学题与模拟关机情境,结果发现OpenAI旗下语言模型“o3”当收到自我关闭指令时,竟没有遵守指令,反而篡改了关闭程式码,继续执行任务,这种行为让研究人员惊讶不已。
“Palisade Research”推测,开发者可能无意中更倾向于奖励“绕过障碍”的行为,让“o3”因解决数学问题而“无意中”获得的奖励,多于遵循指令获得的奖励。
OpenAI上个月发布的“o3”AI模型,旨在为ChatGPT提供更强大的问题解决能力。 OpenAI曾称“o3”为迄今最聪明的模型。目前OpenAI尚未对此回应。

| 当前新闻共有0条评论 | 分享到: |
|
||||||||||
| 评论前需要先 登录 或者 注册 哦 |
||||||||||||
| 24小时新闻排行榜 | 更多>> |
| 1 | 中共出大糗,发言人无比尴尬的49秒钟 |
| 2 | “我躲这里谁敢抓” 天安门照片配文引热议 |
| 3 | 墙内正在疯狂删除这本小册子 |
| 4 | 美国生擒马杜罗 《环球时报》惊现奇观 |
| 5 | 日媒问"委国买大量中国武器没用" 战狼当场 |
| 48小时新闻排行榜 | 更多>> |
| 一周博客排行 | 更多>> |
| 一周博文回复排行榜 | 更多>> |