英国研究人员发现,除了程序与机器人相结合并照进化学原理设计,否则 人的工作智慧可能无法达到类人类的认识。
模拟人类对说话的生气性 AI 平台,例如广受欢迎的 ChatGPT,尽管他们拥有庞大的神经网络和庞大的数据集,但如果他们仍然然而没有实体并且只出现在计算机屏幕上,那么它们将永远无法到达类人的认识能力感谢菲尔德大学在一项新的研究报告中。
ChatGPT是一种聊天机器人,可以模拟与向AI平台提供提示的人类用户的对话,通过监督和非监督学习类似于人类儿童的方式式学习。无监督学习需要系统通过反复试进行学习,例如像人说的那样聊天机器人对提示的回答是错误的,并据此信息进行构建。监督学习更像是儿童上学和学习所需要的材料——人类智能对话天机人接受输入训练,这些输入工具有程序从中学的预先确定的输出。
谢菲尔德大学计算机科学教授托尼·普雷斯科特 (Tony Prescott) 和斯图尔特·威尔逊 (Stuart Wilson) 发现,尽管管人智力有能力模拟人类的学习方式,但是这些程序不太可能完全像人类一样思考,除了有机会的人工作感受和感受现实世界。
报告警告说,人类智能可能会成为“最终结果者”,在达尔文进入化规中超人类。
AI照片插画:人类工作智能将在不久的将来正在破解数据。 (iStock)
“ ChatGPT 和其他大型神经网络模型是 AI 领导人们振奋的发展,它表明可以解决诸如学习人类语言结构等真正优秀的挑战。但是的,这些类型的AI系统不太可能发展到可以充分发挥作用的地步如果他们继续使用相同的方法进行设计,就会像人脑一样思考,”普雷斯科特说,根据谢菲尔德大学有关此项研究研究的新闻稿。
AI不会取消代人类艺术家,可能会带来“最想像力”的作品:TOPAZ LABS 首席执行官
此项发表在研究期刊《科学机器人》上的研究认为,人类类智能的发展是由于所有脊椎动物共有的复杂大脑系统。研究人员认为,这种大脑结构,加上人类在现实世界中通过 化学学习和改进的经验,在构建人类智能系统时很少被纳入。
GhatGPT openAI 标签插件图:在这张2023年5月4日拍摄的截图中可以看到ChatGPT徽标和AI人工智慧词。 (路透社/Dado Ruvic/截图)
“如果人工智能系统构建的架构足以以与人脑相似的方式学习和改造,利用它与现实世界的联系,那么人智能系统更有可能发展出类似人类的认知能力。机器人类技术可以作为人类智能系统提供这些连接——例如,通过摄像头和麦克风等传感器以及轮子和抓手等传感器。人类智能系统将能够充分感知知周围的世界,和人脑一样学习,”普雷斯特继续说。
人类难以理解真像或人类智能生成图像之间的差异:
“研究这些AI可能会拖长某种类型的感知、思考和规划,但不善于理解和推论其结果。因此,在我们构建这些更通常使用的东西时,我们必须安全地仔细考查人工智能。目标的系统,并将安全设置为 AI 操作系统的核心。”
普雷斯科特在对 Fox News Digital 的评论中补充说,环绕系统的“重大风险”来源于学习不透明,并表明他希望“看到开发 AI 的公司”提高透明度,同时改善治理,这需要国际化才能有效。”
“不透明的AI可能会以我们想不到的方式行事。通过理解真实的大脑如何控制真实的身体,我们认为这些系统可以变得更加透明,并而且我们可以朝着拥有更好的人工智能的方向前进解释他们是如何做决定的,”普雷斯科特说。
这个位教授还指出,“一种通用智能”可能存在于风险,这种智能可能“在某种领域达到或超过人类类的能力,但在其他领域可能非常不发达”。
“比如,这种AI可能会拖长某种类型的感知、思考和规划,但不善于理解和推论其结果。因此,我们在构建这些更常用的时候,我们必须安全地仔细考查AI——目标的系统,并将安全设置为AI操作系统的核心。这应该是可能的。就像我们能够使飞行器、汽车和发站完全一样,我们也应该能够足够对 AI 和机器人做同样的事情。我认为这是也意味着我们将需要协商,就像我们在其他行业中所做的那样,以确保安全需要得到巧妙处理,”他理解释道。
脑神经元图:人脑刺激或活动与神经特写3D冲洗插图。神经学、认识、神经元网络、心理学、神经科学概念。 (iStock)
研究人员表示,在为机器人构建AI平台方面取得了一些进展,这些平台将使用技术与现实世界直接连接,但是这一些平台距离模拟人脑的结构还有很长的路要走。
“近几十年来,通过为机器人构建人大脑来了了解真实大脑如何控制身体的努力导致了机器人学和神经科学的激动人心的发展。在回顾了其中一些主要关注人脑如何学习的努力之后,我们认为人类智能的下一个突破将来自更密切地模拟真正大脑的发展和进步,”威尔逊说。
来源:FOXNEWS
作者:Grady Trimble
日期:2023年6月15日