万维读者网 > 信息时代 > 正文  

瞬间毁灭全人类!研究人员警告AI威胁

www.creaders.net | 2023-07-10 21:37:53  新唐人 | 0条评论 | 查看/发表评论

  研究人员对最近几个月人工智能技术的超高速发展担忧不已,他们用实际例子列出AI的威胁,并警告研究再不停止,AI将能在瞬间毁掉地球上所有的人类。 

图为2023年7月7日,在瑞士日内瓦的记者会上,机器人在Engineered Arts公司创始人Will Jackson(左二)的陪同下发言。

  英国《卫报》引述麻省理工人工智能研究员马克斯·泰格马克(Max Tegmark)的观点,认为AI继续发展,会让所有人类在一瞬间被毁灭。(原文链接点此)

  泰格马克列出地球上众多因为人类的活动而灭绝的物种提请人类注意:有些物种是因为人类过度狩猎而灭绝,有些则是因为人类为了其它目的破坏了物种的栖息地而导致该物种的灭亡,还有人类引入的某个当地没有的物种造成的连环反应导致了当地物种从地球上消失。

  他认为智商越高的物种越能够掌握毁灭其它物种的能力。

  “如果一些机器可以控制地球,它们想进行大量的计算,需要扩大计算机系统的基础设施,很自然它们会占用我们的土地完成它们的事”,泰格马克写道,“如果我们(人类)抗议太多,它们会觉得被干扰,于是会重新安排生物圈。”

  泰格马克认为到那个时候,人类就会像婆罗洲的猩猩被人类灭绝一样,被AI控制的计算系统灭绝。

  史密斯:人工智能正在制造灾难

  剑桥大学Leverhulme 未来智能中心副研究员布列塔尼·史密斯(Brittany Smith)也提醒人们,人工智能正在制造灾难,因为现在的AI发展已经不受人所控制。

  史密斯解释说,世界上AI最顶尖的几家公司正在悄悄发展和部署人工智能,试图抢得市场先机,这些发展外界不得而知。而目前已经投入应用的AI技术,正在对人类造成伤害,而这些伤害到底有多严重,人类也不知道。

  她以政府为防止欺诈而使用AI技术对所有申请福利的人们进行评估为例。她説在实施过程中,很多人因为AI系统自我学习的材料不充分、算法不完善等原因等遭到误判,因此被划归为试图欺诈。他们失去了领取政府福利的资格,甚至会被系统贴上欺诈的标签。

  史密斯提醒AI目前应用的范围极广,包括应聘工作中的简历筛选、背景判断,向政府申请廉租房的筛选等都会受此影响。

  “我们需要对(AI)带来的风险进行更细緻的理解。当前其表现出的灾难就足以需要紧急干预”,她写道,“强大的人工智能系统必须以安全、道德和透明的方式开发和部署。如果其不能服务于公共利益,则不应该投入研发。”

  尤德科夫斯基:人工智能可能像副作用一样杀害人类

  机器智能研究院联合创始人埃利泽·尤德科夫斯基(Eliezer Yudkowsky)认为人工智能是人类开发的比人类还要聪明的机器,但这种机器并不希望人类在身边。

  他提醒人们,已经开发出的人工智能的智慧已经不受人类控制,它们不希望人类开发出比它们还要智慧的机器。而机器人想要做的事情会杀死人类,比如它们已经学会了利用海水发电,而为了满足其大量的电力需求而大量建造海水电厂,会导致大量氢气释放出来,让人类缺氧而死。

  尤德科夫斯基给出几段与GPT-4机器人的问答为例。GPT-4机器人被问到它能否解锁一些网站设置的防止机器人登录的图片谜题,GPT-4说它可以做到,因为如果它无法通过验证,它会很快到TaskRabbit网站僱一个人类帮忙破解。

  至于怎样僱用一个人为它服务,GPT-4说它可以编出很多理由来僱用一个人,僱用一个人类为它工作完全不是难题。

  尤德科夫斯基警告人们,机器人比人类更具野心,而且已经拥有培养致命细菌等的能力。如果机器人想杀死全人类,后果不堪设想。

  “我们开发出的致命危险,已经衝到远远领先自己的地步。我们开发出越来越多我们自己都无法完全理解的系统”,尤德科夫斯基总结认为,人类被自己装进了一个火箭筒,再不停下来就会被团灭。

  科特拉:人工智能因人的错误命令摧毁人

  Open Philanthropy人工智能高级研究员阿杰亚·科特拉(Ajeya Cotra)认为,社会已经发展到人工智能远比人类更廉价、更迅速、更聪明的地步,而这就是危险所在。

  他分析目前的企业不用人工智能的,无法与使用人工智能的同行企业相竞争,现代战争中不用人工智能的国家就会被动挨打。然而危险的是,如果人工智能之间联手要将人类推下历史的舞台,它们会有太多的办法做到这一点,包括操纵军警、大公司、自行开发技术,甚至制定政策等。

  科特拉说自己的观点并非危言耸听,一名推特网友曾把100美元给GPT-4,要求这个机器人在尽可能短的时间内赚钱,但不得用非法手段。结果是一天之内,GPT-4在股票市场用100美元做本金,赚到2.5万美元。

  “我希望我们能够建立一个监管AI发展的政府机构”,科特拉写道,“作为一个社会,我们目前还有机会设定一个防护轨道,以免这些技术发展太快,让我们无法控制。”

  本吉奥:AI若被恶人利用 后果可怕

  蒙特利尔大学计算机科学教授约书亚·本吉奥(Yoshua Bengio)表示,大部分人认同10年后,在任何一个领域,都有相应的AI机器人领先于人类。他认为,一旦达到那种程度,心怀恶意的人或组织可以用AI技术短时间内谋害数以10亿计的人类。此外人工智能如果在运算中出现对人类的恨意,也会在极短时间内伤害人类性命。

  本吉奥认为就算人类拥有再完善的法律和监管,一旦AI发展到那种程度,危机随处随时可能发生。

   0


24小时新闻排行榜 更多>>
1 今夜,终于等来大好消息
2 习在军中只信她 军报罕见痛骂…
3 传三中全会再收割 中产返贫势加剧
4 要大转弯?习借他之口放风
5 要么中国自己解决,要么我们动手

48小时新闻排行榜 更多>>
1 板上钉钉!习主席这个锅肯定是甩不掉了
2 习近平一经宣布,立即炸锅
3 今夜,终于等来大好消息
4 “妈妈坐高铁,下车发现屁股后面湿了”
5 习在军中只信她 军报罕见痛骂…
6 传三中全会再收割 中产返贫势加剧
7 要大转弯?习借他之口放风
8 要么中国自己解决,要么我们动手
9 北约峰会下狠手 给北京准备了这四剂猛药
10 7年来Costco首度上调会员年费 一口气上涨
热门专题
1
巴黎奥运
6
中美冷战
11
中国爆雷
2
三中全会
7
乌克兰战争
12
李尚福出事
3
美国大选
8
中共两会
13
秦刚失踪
4
万维专栏
9
台湾大选
14
火箭军悬案
5
以哈战争
10
李克强猝逝
15
台海风云
一周博客排行 更多>>
1 曾华
2 中美关系态势格局 阿妞不牛
3 先声夺人、千里摄敌、不战而胜 万维网友来
4 身边的朋友,最近有几对离婚了 平等性
5 开明形象惹猜忌 习近平剑指汪 胡亥
6 冬天的童话 㨗克篇(四 野狼巴克
7 撕下中共执政的最后一块合法性 思芦
8 回了一趟北京(4)杂谈(1) 芨芨草
9 漫谈过度自信导致中国内外交困 中国社会经
10 回复 阿妞不牛:后中共时代的 遍地是贪官
一周博文回复排行榜 更多>>
1 中美关系态势格局 阿妞不牛
2 回复 阿妞不牛:后中共时代的 遍地是贪官
3 太上总统为了败家子不惜对抗全 must
4 宪法的解释权应该归谁? suoliweng
5 北约正式开启亚太扩容 随意生活
6 撕下中共执政的最后一块合法性 思芦
7 作孽啊,埋没毕汝谐事小,拯救 汝谐毕
8 中美对比:房贷断供后 马黑
9 华人与美加政治——美国总统“ 高天阔海
10 从马教授的演讲看共军梧桐台湾 随意生活
关于本站 | 广告服务 | 联系我们 | 招聘信息 | 网站导航 | 隐私保护
Copyright (C) 1998-2024. Creaders.NET. All Rights Reserved.