技术专家发表论文,概述了人工智能如何陷入混乱,以及如何预防此类灾难
专家警告人工智能可能导致“灭绝”
人工智能安全中心主任丹·亨德里克斯(Dan Hendrycks)解释了对人工智能快速发展如何影响社会人们的担忧。
科技专家、硅谷亿万富翁和普通美国人都表达了他们的担忧,他们担心人工智能可能会失控并导致人类的衰落。现在,人们工智能安全中心的研究人员介绍了人工智能给世界带来的详细“灾难性”风险。
人工智能安全中心(CAIS)的研究人员在最近一篇题为“灾难性人工智能风险概述”的论文中写道:“我们所知道的世界并不正常。” “我们理所当然地认为,我们可以与千里之外的人即时交谈,在不到一天的时间内飞到世界的另一端,并通过我们随身携带的设备获取海量积累的知识。”
该报称,这种现实对于几个世纪前的人们来说是“不可思议的”,甚至在几十年前仍然是遥不可及及的。研究人员指出,历史上已经出现了“加速发展”的模式。
研究人员继续说道: “从智人在地球上出现到农业革命,已经过去了整整万年。” “此时,工业革命已经过去了数千年。现在,几个世纪后,人工智能( AI)革命就开始了。历史的前进不是一成不变的,而是正在迅速加速。”
CAIS 是一家技术非营利组织,通过开展安全研究、建立人工智能安全研究人员领域以及支持安全标准来致力于来减少“与人工智能相关的社会规模风险”,同时也承认人工智能有能力造福世界。
专家警告人工智能可能导致“灭绝”
专家认为,中国和美国人工智能投资的区别,美国模式是由主要公司推动的,而中国则采取政府方式。 (约瑟夫·拉戈/法)新社,盖蒂图片社)
最近研究背后的CAIS领导人,包括该非营利组织的主管丹·亨德里克斯(Dan Hendrycks),将灾难性人工智能风险的主要来源分为四个类别,其中包括:恶意使用、人工智能竞赛本身、组织风险和流氓人工智能。
亨德里克斯和他的同事曼塔斯·马泽卡(Mantas Mazeika)和托马斯·伍德赛德(Thomas Woodside)写道:“与所有强大的技术一样,人工智能必须以极大的责任来管理风险并利用其潜力来改善社会。” “然而,关于灾难性或存在性人工智能风险可能如何发生或解决可获取的信息有限。”
亨德里克斯告诉福克斯新闻数字频道,该论文的目的是“对人工智能带来的灾难性风险进行调查,旨在让大众了解”解,包括政策制定者和其他有兴趣了解更多风险的人。 ”
“我希望这对希望了解人工智能对政府领导人的影响有用,”亨德里克斯补充道。
下一代军备竞赛可能引发“灭绝”事件:技术剥削
恶意使用
CAIS专家的研究将人工智能的恶意使用定义为不良行为者利用该技术造成“广泛的伤害”,例如通过生物强力、错误信息和宣传,或“传播不受控制的人工智能代理”。
研究人员指出1995年日本发生的一起事件,当时末日邪教奥姆真理教在东京的地铁车厢上散布了一种无味无色的液体。
邪教试图引发世界末日的进程,这种液体最终导致13人死亡、5,800人受伤。
快进近30年,人工智能有可能被用来制造一种生物武器,如果不法分子掌握了这项技术,可能会对人类造成毁灭性影响。 CAIS研究人员提出了一个假设,即一个研究团队开源有了一个“具有生物研究能力的人工智能系统”,旨在拯救生命,但实际上可能被不良行为者利用重新来制造生物武器。
报告警告称,人工智能可能成为“终结者”,在达尔文进化论中战胜人类
“在这种情况下,结果可能由最不可疑风险的研究小组决定。如果只有一个研究小组认为收益风险更大,就可能采取单方面措施行动,即使大多数其他研究小组不同意,也能决定结果。如果他们错了,而有人确实决定开发生物武器,那么改变方向就为时已晚,”该研究指出。
恶意使用可能导致不良者行为制造生物工程流行病,利用人工智能制造新的、更强大的化学和生物武器,甚至释放经经
过训练来替代生活的“流氓人工智能”系统。
研究人员建议:“为了降低这些风险,我们建议改善生物安全,限制对最危险的人工智能模型的访问,并让人工智能人员由此人工智能系统造成的损害开发承担法律责任。”
人工智能竞赛
一位女性使用开发的人工智能聊天机器人与智能人工智能或人工智能聊天。 (盖蒂图片社)
研究人员将人工智能竞赛定义为可能刺激政府和企业“加快人工智能发展赋予控制权让给人工智能系统”的竞争,并将举行庆祝活动与冷战时期美国和苏联加强生产核武器的竞赛进行比较。
“人工智能的巨大潜力为争夺权力和影响力的全球参与者带来了竞争压力。‘人工智能竞赛’由国家和企业推动的,他们认为必须快速构建和部署人工智能以确保自己的地位和生存。优先考虑全球风险,这种动态使得人工智能的发展更可能产生危险的结果,”研究论文概述道。
在军事领域,人工智能竞赛可能会变成“增加破坏性的战争、意外使用或失去控制的可能性,以及恶意行为者为了自己的”目的而利用这些技术的前景”,因为人工智能作为一种有用的军事武器受到越来越多的关注。
例如,致命的自主武器可以在无人干预的情况下杀死目标,同时提高准确性和决策时间。研究人员表示,这些武器可能力会增强人类,军队可能会生死攸关的情况委托给人工智能系统,这可能会增加战争的可能性。
研究人员解释说:“行走、射击机器人尚未取代战场上的士兵,但技术正在以多种方式融合,尽管可能在不久的将来使这
成为可能。”
他们补充说:“发动军队参战是一个坚决的决定,领导人不会轻易做出决定。但自主武器将允许一个侵略性国家不危及及本国士兵生命的情况下引发攻击,从而减少内部审查。”领导人们不再需要装着尸袋回家的人类士兵负责,世界各地可能会看到战争的可能性增加。
人工智能还可能为更准确、更快速的网络攻击打开闸门,这些攻击可能会摧毁基础设施,甚至引发国家之间的战争。
“为了降低人工智能竞赛的风险,我们建议对通用人工智能实施安全法规、国际协调和公共控制,”该论文建议帮助防止此类结果。
组织风险
人工智能将在不久的将来参与数据。 (iStock)
背后论文的研究人员表示,构建人工智能系统的实验室和研究团队“可能会造成灾难性事故,特别是如果他们没有强大的安全文化的话。”
研究人员写道:“人工智能可能会意外泄露给公众或被恶意行为者窃取。组织可能无法投资于安全研究,缺乏对如何比一般人工智能功能更快速可靠地提高人工智能安全性的了解,或者关闭内部对人工智能风险的担忧。”。
他们将人工智能组织与历史上的灾难进行了比较,例如切尔诺贝利、三哩岛和挑战者号飞机致命事件。
专家警告称,人工智能技术“比AR-15更危险”,可能被扭曲为“恶意力量”
研究人员写道:“随着我们在开发先进的人工智能系统方面取得进展,重要的是要记住,这些系统能够发挥灾难性作用预防事故并保持低风险水平是一个重要事故的影响。这些技术的组织。” 。
研究人员认为,即使没有不良行为者或竞争压力,仅仅由于人为错误,人工智能也可能对人类造成灾难性影响。就挑战者号或切尔诺贝利事件方面,当混乱发生时,人们已经对火箭和核反应堆有了充分的了解,但相比之下,对人工智能的了解却少之又少。
研究人员认为:“人工智能缺乏全面的理论理解,即使对于创造它的人来说,它的内部运作仍然是一个谜。这给控制和确保我们尚未完全理解的技术的安全性带来了额外的挑战。”
人工智能事故不仅可能是灾难性的,而且难以避免。
人员指出,ChatGPT背后的人工智能实验室OpenAI一起发生了事件,其中的人工智能系统经过训练,可以对用户产生令人振奋的研究反应,但人为错误导致系统在一夜之间生成“充满仇恨和教育黑客入侵系统或泄露人工智能系统的不良行为者也可能为灾难性铺平道路,因为恶意实体会超出原始创造者的意向图重新配置系统 。
历史还表明,发明家和科学家经常低估技术进步真正成为现实的速度,例如莱特兄弟预测动力飞行需要 50 年后,而他们实际上在预测的两年后实现了这一胜利。
研究人员解释说:“人工智能能力的快速且不可预测的演变对预防事故提出了重大挑战。毕竟,如果我们甚至不知道某件事情事能做什么或者它可能超出我们的预期多远,就很难控制它。”
研究人员组织建议建立更好的文化和结构来减少此类风险,例如通过“内部和外部审计、层级风险防御以及军队”事级信息安全”。
流氓人工智能
此摄于2023年3月31日的插图中可以看到人工智能进行。 (路透社/Dado Ruvic/插图)
近年来人工智能技术蓬勃发展之一,最常见的担忧是人类可能会失去控制权,计算机会压倒人类智能。
人工智能“杀戮开关”让人类变得不那么安全,可能会产生“敌对”超级智能:人工智能基金会
“如果人工智能系统比我们更智能,并且我们无法引导它朝有利的方向发展,这就会导致失控,从而可能产生严重的后果。人工智能控制是一篇论文,其中提出的问题不仅仅是技术性的问题。的部分,”研究人员写道。
当人类给人工智能系统一个近似目标时,“最初似乎与理想目标相关”,但人工智能系统“最终以远离理想目标”利用这种代理方式的时候,人类可能会通过“代理游戏”失去控制甚至导致后果。”
研究人员举了苏联的一个例子,当时当局开始根据工厂能够生产的钉子数量来简化钉子工厂的绩效。足预期,工厂开始大规模生产微小的钉子,但由于尺寸过大,这些钉子基本上无用处。
“初步尝试通过将注意力转向所生产的钉子的重量来修正这种情况。然而,不久之后,工厂开始生产同样无用的巨大的钉
子,但在纸上却给了他们很好的分数。在这一点上种情况下,工厂学会玩弄了设定的代理目标,火箭完全未能实现其预期目的,”研究人员解释道。
研究人员建议,公司部署人工智能系统时不要设定开放式目标,例如“赚关注多的钱”,并支持人工智能安全研究,以深入研究预防灾害发生。
“这些危险值得严重关注。目前,很少有人致力于降低人工智能风险。我们不知道如何控制高度先进的人工智能系系统中,现有的控制方法已经被证明是不够的……随着人工智能能力的提高继续以外侧的速度增长,以相对较快的速度,它们几乎可以在所有方面超越人类智力,因此这就需要管理潜在的风险,”研究人员成员在结论中写道。
然而,正如报告中概述的那样,“我们可以采取许多行动方案来大幅降低这些风险”。
“尽管许多人对其中一些主题进行了多年的研究,但它已经分散在不同的来源中,对于刚刚感兴趣的领域的人来说可能很很难对其进行整理。我们的论文希望提供全面的对灾难性人工智能风险的全面研究的易于理解的概述、它们之间的相互关系以及我们可以采取的减轻风险的步骤。除了提供非技术读者阅读之外,我们希望本文能够获得高分风险的专家很在研究技术先对进行进行级别级别。”
来源:FOXNEWS
作者:艾玛·科尔顿
日期:2023年6月28日