|
研究人工智能(AI)的美国知名大学教授扬波尔斯基(Roman Yampolskiy)近日表示,他估计AI在未来100年内导致人类灭绝的机率高达99.9%,原因是至今仍没有一个AI模型是完全安全的,未来也很难创造出零缺陷的高度复杂模型。 不过,大多数AI研究者态度较为温和,认为AI消灭人类的机率大约是1%到20%。
根据美媒《商业内幕》报道,扬波尔斯基在路易斯维尔大学(University of Louisville)教授计算机科学,专精网络与AI安全方面研究。 近日他出版新书《人工智能:无法解释、预测或控制》(AI: Unexplainable, Unpredictable, Uncontrollable.),并在一档Podcast节目中谈了2个多小时有关AI未来可能造成的风险,但所持态度相当悲观。
扬波尔斯基认为,AI是否灭绝人类的关键取决于,人类能否在未来100年内创造出高度复杂并且零出错(with zero bugs)的软件。 但他估计这样的可能性并不高,因为人们一直在试图让AI去做一些超出它原先设计范围内的事情,因此迄今没有任何一种AI模型是完全安全的。
扬波尔斯基说,它们已经酿成失误,我们发生过意外,它们曾越狱(jailbroken)过。 我不认为现今存在一个单一的大型语言模型是可以成功防止它做一些开发者不想让它做的事。”
AI发展的3种悲惨结局
扬波尔斯基认为,为了控制AI,需要一个永久的安全机制,“即使我们在接下来来几个版本的GPT中做得很好,AI也会继续改进、学习、自我修改,并与不同的玩家互动,同时有生存风险,这『只有一次机会』”。
扬波尔斯基警告,我们无法预测一个更聪明的系统会怎么做。 他在通用人工智能(AGI)的背景下将人类比喻成松鼠,而AI却能想出一些甚至人类还不知道存在的东西。 扬波尔斯基预测了3种结局,其一是每个人都会死,其二是每个人都很痛苦并渴望死亡,其三是AI系统比人类更具创造力,并能完成所有工作,导致人类无所事事并完全失去他们的追求。
其他人怎么看?
扬波尔斯基受访的Podcast节目主持人费里曼(Lex Fridman)表示,与他讨论过的大多数AI工程师都认为,AI消灭人类的可能性约在1%到20%之间。 另外,最近一项针对2700名AI研究人员的研究结果显示,此一机率只有5%。
ChatGPT开发公司OpenAI的CEO奥特曼(Sam Altman)建议设立一个“监管沙盒”(regulatory sandbox),让人们能在其中对AI进行实验,并根据实验结果进行监管与调整。 奥特曼2015年曾半开玩笑地说,AI最有可能导致世界末日,但在此期间,会诞生许多伟大的公司。 特斯拉执行长马斯克(Elon Musk)也曾预测,AI毁灭人类的机率为10%到20%。
另外,前Google CEO施密特(Eric Schmidt)曾经表示,AI的真正危险在于网络与生物(生化)攻击,但这些风险将在3到5年内显现出来,若AI真的发展出意志,他认为最简单的解决方法是:人类可以直接拔掉插头。
当前新闻共有0条评论 | 分享到: |
|
||||||||||
评论前需要先 登录 或者 注册 哦 |
24小时新闻排行榜 | 更多>> |
1 | 突发!琼瑶台湾家中自杀 遗作曝光 |
2 | 东部战区出大事了 苗华案新解 |
3 | 王毅遭当面狠呛!中共战狼变绵羊 |
4 | 人民币贬值洪水即将到来 |
5 | 中共不能说的秘密 毛晚年最后一个靶子 |
48小时新闻排行榜 | 更多>> |
1 | 噩耗接连传来 中南海焦头烂额 |
2 | 突发!琼瑶台湾家中自杀 遗作曝光 |
3 | 前中南海官员:中共大变局已经到来 |
4 | 习近平有多狂有多狠?默克尔回忆种种细节 |
5 | 内幕首发:习家军惨烈大火拼第二幕开演 |
6 | 中共军队要临阵哗变 |
7 | 突传川普将有“重大”宣布 |
8 | 传东部战区司令林向阳自杀 |
9 | 冯小刚坦言:她太能装了,一辈子也别想红 |
10 | 东部战区出大事了 苗华案新解 |
一周博客排行 | 更多>> |
1 | 为何中共官宣苗华落马,却否认 | 胡亥 |
2 | 赵晓:美国白左所犯的 N 个错 | 万维网友来 |
3 | 突发:国防部长董军东部战区司 | 雷歌747 |
4 | 习家军若被一锅端,中国会发生 | 文庙 |
5 | 薄熙来出席薄瓜瓜婚礼有感 | 体育老师 |
6 | 上了安全局的黑名單 | 底波拉 |
7 | 狗奶奶露营记之三 | 野狼巴克 |
8 | 是不是谣言都万分危险了 | 三都瓠瓜 |
9 | 何宏军是贾廷安马仔 是习张博 | 胡亥 |
10 | 试析马斯克的新使命;专访马斯 | 玉质 |
一周博文回复排行榜 | 更多>> |