![]() |
研究人工智能(AI)的美国知名大学教授扬波尔斯基(Roman Yampolskiy)近日表示,他估计AI在未来100年内导致人类灭绝的机率高达99.9%,原因是至今仍没有一个AI模型是完全安全的,未来也很难创造出零缺陷的高度复杂模型。 不过,大多数AI研究者态度较为温和,认为AI消灭人类的机率大约是1%到20%。
根据美媒《商业内幕》报道,扬波尔斯基在路易斯维尔大学(University of Louisville)教授计算机科学,专精网络与AI安全方面研究。 近日他出版新书《人工智能:无法解释、预测或控制》(AI: Unexplainable, Unpredictable, Uncontrollable.),并在一档Podcast节目中谈了2个多小时有关AI未来可能造成的风险,但所持态度相当悲观。
扬波尔斯基认为,AI是否灭绝人类的关键取决于,人类能否在未来100年内创造出高度复杂并且零出错(with zero bugs)的软件。 但他估计这样的可能性并不高,因为人们一直在试图让AI去做一些超出它原先设计范围内的事情,因此迄今没有任何一种AI模型是完全安全的。
扬波尔斯基说,它们已经酿成失误,我们发生过意外,它们曾越狱(jailbroken)过。 我不认为现今存在一个单一的大型语言模型是可以成功防止它做一些开发者不想让它做的事。”
AI发展的3种悲惨结局
扬波尔斯基认为,为了控制AI,需要一个永久的安全机制,“即使我们在接下来来几个版本的GPT中做得很好,AI也会继续改进、学习、自我修改,并与不同的玩家互动,同时有生存风险,这『只有一次机会』”。
扬波尔斯基警告,我们无法预测一个更聪明的系统会怎么做。 他在通用人工智能(AGI)的背景下将人类比喻成松鼠,而AI却能想出一些甚至人类还不知道存在的东西。 扬波尔斯基预测了3种结局,其一是每个人都会死,其二是每个人都很痛苦并渴望死亡,其三是AI系统比人类更具创造力,并能完成所有工作,导致人类无所事事并完全失去他们的追求。
其他人怎么看?
扬波尔斯基受访的Podcast节目主持人费里曼(Lex Fridman)表示,与他讨论过的大多数AI工程师都认为,AI消灭人类的可能性约在1%到20%之间。 另外,最近一项针对2700名AI研究人员的研究结果显示,此一机率只有5%。
ChatGPT开发公司OpenAI的CEO奥特曼(Sam Altman)建议设立一个“监管沙盒”(regulatory sandbox),让人们能在其中对AI进行实验,并根据实验结果进行监管与调整。 奥特曼2015年曾半开玩笑地说,AI最有可能导致世界末日,但在此期间,会诞生许多伟大的公司。 特斯拉执行长马斯克(Elon Musk)也曾预测,AI毁灭人类的机率为10%到20%。
另外,前Google CEO施密特(Eric Schmidt)曾经表示,AI的真正危险在于网络与生物(生化)攻击,但这些风险将在3到5年内显现出来,若AI真的发展出意志,他认为最简单的解决方法是:人类可以直接拔掉插头。
当前新闻共有0条评论 | 分享到: |
|
||||||||||
评论前需要先 登录 或者 注册 哦![]() |
48小时新闻排行榜 | 更多>> |
1 | 高层爆料:是习近平下令处理李文亮 |
2 | 习失势的迹象已无法掩盖 |
3 | 食用油一换 癌死少一半?建议吃2种油 |
4 | 风云突变,崩了 |
5 | 川普突然扔下重磅炸弹 中概股暴跌 |
6 | 北京传来最新信号 |
7 | “习被削权”信号:新华社坐实重磅“谣言” |
8 | 川普终于证实了… |
9 | 习失军权 新华社军报文章现重大变化 |
10 | 春晚机器人突然失控 袭击观众视频曝光 |
一周博客排行 | 更多>> |
一周博文回复排行榜 | 更多>> |