2013 年 9 月 19 日,在剑桥郡剑桥市伊曼纽尔学院举行的剑桥电影节开幕之夜,霍金教授出席了“霍金”的放映会。盖蒂图片社
早在伊隆·马斯克和苹果联合创始人史蒂夫·沃兹尼亚克签署一封 警告人工智能对人类构成“深远风险”的信之前,英国理论物理学家斯蒂芬·霍金就一直在对快速发展的技术敲响警钟。
“全人工智能的发展可能预示着人类的终结,”霍金在 2014 年的一次采访中告诉 BBC。
霍金患有肌萎缩性侧索硬化症 (ALS) 超过 55 年,于 2018 年去世,享年 76 岁。尽管他对 AI 发表了批评言论,但他也使用了一种非常基本的技术形式来进行交流,因为他的疾病会削弱肌肉,需要霍金坐轮椅。
霍金在 1985 年无法说话,只能依靠各种方式进行交流,包括由英特尔运行的语音生成设备,该设备使他能够使用面部运动来选择合成语音的单词或字母。
霍金在 2014 年对 BBC 的评论说,人工智能可能“预示着人类的终结”,这是对一个关于可能改造他所依赖的语音技术的问题的回应。他告诉 BBC,非常基本的人工智能形式已经被证明是强大的,但创造出可以与人类智能相媲美或超越人类智能的系统对人类来说可能是灾难性的。
“它会自行起飞并以不断增加的速度重新设计自己,”他说。
斯蒂芬霍金于 2016 年 4 月 12 日在纽约市同一个世界天文台主持新闻发布会,宣布突破摄星计划,这是一项新的太空探索计划。布赖恩贝德
霍金补充说:“人类受到生物进化缓慢的限制,无法竞争并且会被取代。”
霍金去世几个月后,他的最后一本书上市了。他的书名为“大问题的简要回答”,为读者提供了他经常被问到的问题的答案。这本科学书籍阐述了霍金反对上帝存在的论点、人类有朝一日将如何生活在太空中以及他对基因工程和全球变暖的恐惧。
人工智能也在他的“重大问题”列表中占据首位,认为计算机“可能在 100 年内在智能方面超越人类”。
埃隆·马斯克 (Elon Musk) 出席 2022 年 5 月 2 日在纽约市大都会艺术博物馆举行的庆祝“在美国:时尚选集”的 2022 年 Met Gala。大都会博物馆的盖蒂图片社/
他写道:“我们可能会面临一场智能爆炸,最终导致机器的智能超过我们的智能超过我们的智能超过蜗牛的智能。”
他认为,计算机需要接受培训以符合人类目标,并补充说,不认真对待与人工智能相关的风险可能是“我们有史以来最严重的错误”。
“人们很容易将高度智能机器的概念视为纯粹的科幻小说,但这将是一个错误——而且可能是我们有史以来最严重的错误。”
霍金的言论呼应了科技巨头埃隆马斯克和苹果公司联合创始人史蒂夫沃兹尼亚克今年 3 月发表的一封信中的担忧。这两位技术领导者与其他数千名专家签署了一封信,呼吁至少暂停六个月构建比 OpenAI 的 GPT-4 聊天机器人更强大的人工智能系统。
“具有人类竞争智能的人工智能系统可能对社会和人类构成深远的风险,正如广泛的研究和顶级人工智能实验室所承认的那样,”非营利组织 Future of Life 发表的这封信中写道。
OpenAI 的 ChatGPT 在 1 月份成为增长最快的用户群,月活跃用户达 1 亿,因为世界各地的人们都争先恐后地使用聊天机器人,它根据给出的提示模拟类似人类的对话。该实验室于 3 月发布了该平台的最新版本 GPT-4。
尽管有人呼吁暂停正在研究超越 GPT-4 的技术的人工智能实验室的研究,但该系统的发布是一个分水岭,在整个科技行业引起反响,并促使各家公司竞相构建自己的人工智能系统。
谷歌正在努力彻底改革其搜索引擎,甚至创建一个依赖人工智能的新引擎;微软推出了“新必应”搜索引擎,被描述为用户的“网络人工智能副驾驶”;马斯克表示,他将推出一个竞争对手的人工智能系统,他将其描述为“最大限度地寻求真相”。
霍金在他去世前一年建议,世界需要“学习如何准备和避免与人工智能相关的潜在风险”,他认为这些系统“可能是我们文明史上最糟糕的事件”。然而,他确实指出,未来仍然未知,如果训练得当,人工智能可能对人类有益。
“成功创造有效的人工智能可能是我们文明史上最重大的事件。或者最糟糕的。我们只是不知道。因此,我们无法知道我们是否会得到 AI 的无限帮助,还是会被它忽视和边缘化,或者可能会被它摧毁,”霍金在 2017 年葡萄牙网络峰会技术会议上的一次演讲中说。
作者:艾玛科尔顿
来源:福克斯新闻
日期:2023年5月1日