人工智能系统被发现擅长模仿但不擅长创新

来源:
导读 人工智能(AI)系统通常被描述为有感知能力的代理,足以掩盖人类思维。但加州大学伯克利分校的研究人员发现,人工智能缺乏人类至关重要的创新...

人工智能(AI)系统通常被描述为有感知能力的代理,足以掩盖人类思维。但加州大学伯克利分校的研究人员发现,人工智能缺乏人类至关重要的创新能力。

根据《心理科学展望》发表的研究结果,虽然儿童和成人都可以通过寻找日常物品的新用途来解决问题,但人工智能系统通常缺乏以新方式看待工具的能力。

像ChatGPT这样的人工智能语言模型是在包含人类产生的数十亿单词和图像的数据集上被动训练的。文章合著者尤妮斯·姚(EuniceYiu)在接受采访时解释道,这使得人工智能系统能够发挥类似于写作的“文化技术”的作用,可以总结现有的知识。但她说,与人类不同的是,它们在对这些想法进行创新时会遇到困难。

“即使是年幼的人类儿童也能对某些问题做出[语言学习模型]无法做出的智能反应,”姚说。“我们不应该将这些人工智能系统视为像我们一样的智能代理,而是可以将它们视为一种新形式的图书馆或搜索引擎。它们有效地总结并向我们传达现有的文化和知识库。”

Yiu和ElizaKosoy以及他们的博士生导师和论文的资深作者、发展心理学家AlisonGopnik测试了人工智能系统的模仿和创新能力与儿童和成人的能力有何不同。他们向42名3至7岁的儿童和30名成人提供了日常物品的文字描述。

在实验的第一部分中,88%的儿童和84%的成人能够正确识别哪些物体与另一个物体“最相配”。例如,他们将指南针与尺子配对,而不是茶壶。

在实验的下一阶段,85%的儿童和95%的成人也能够对日常物品的预期用途进行创新来解决问题。例如,在一项任务中,参与者被问到如何在不使用指南针等典型工具的情况下画一个圆。

考虑到在类似的工具(如尺子)、不同的工具(如圆底茶壶)和不相关的工具(如炉子)之间进行选择,大多数参与者选择了茶壶,这是一种概念上不同的工具,但可以实现相同的功能通过允许它们追踪圆形的形状,起到指南针的作用。

当Yiu和同事向五个大型语言模型提供相同的文本描述时,这些模型在模仿任务上的表现与人类相似,得分范围从表现最差的模型的59%到表现最好的模型的83%。然而,人工智能对创新任务的回答远没有那么准确。表现最差的模型选择有效工具的概率为8%,而表现最好的模型选择有效工具的概率为75%。

“孩子们可以想象他们以前没有见过或听说过的物体的全新用途,比如用茶壶底部画一个圆圈,”姚说。“大型模型很难产生这样的响应。”

研究人员指出,在一项相关实验中,孩子们只需通过实验和探索就能发现新机器的工作原理。但是,Yiu和同事写道,当研究人员对几个大型语言模型提供关于孩子们产生的证据的文本描述时,他们很难做出同样的推论,这可能是因为答案没有明确包含在他们的训练数据中。

Yiu和同事写道,这些实验表明人工智能对统计预测语言模式的依赖不足以发现有关世界的新信息。

“人工智能可以帮助传输已知的信息,但它不是创新者,”姚说。“这些模型可以总结传统智慧,但它们无法像年轻人那样扩展、创造、改变、抛弃、评估和改进传统智慧。”

姚表示,不过,人工智能的发展仍处于早期阶段,如何扩展人工智能的学习能力还有很多东西需要学习。她说,从孩子们好奇、积极和内在动机的学习方法中汲取灵感可以帮助研究人员设计新的人工智能系统,为探索现实世界做好更好的准备。

标签:

免责声明:本文由用户上传,如有侵权请联系删除!