会“自问自答”的人工智能,学得更快更聪明

作者: aeks | 发布时间: 2026-01-28 22:03 | 更新时间: 2026-01-28 22:03

学科分类: 心理学 控制科学与工程 神经科学 计算机科学与技术

会“自问自答”的人工智能,学得更快更聪明
会“自问自答”的人工智能,学得更快更聪明

研究发现,人工智能(AI)的学习不仅受系统结构影响,还取决于训练过程中的自我互动方式。正如第一作者、冲绳科学技术大学院大学认知神经机器人研究单元的 staff scientist 杰弗里·奎瑟博士所解释:“这项研究凸显了自我互动在学习中的重要性。通过构建能让系统‘自言自语’的训练数据,我们表明学习不仅由AI系统的架构决定,还受训练过程中嵌入的互动动态影响。”

### 自我对话如何提升AI性能
为验证这一想法,研究人员将被描述为安静“嘟囔”的自主内部言语与专门的工作记忆系统相结合。这种方法使他们的AI模型能更高效地学习、适应陌生情境,并同时处理多项任务。结果显示,与仅依赖记忆的系统相比,该模型在灵活性和整体性能上有明显提升。

### 构建具备泛化能力的AI
研究团队的核心目标是实现“内容无关的信息处理”,即不局限于训练时遇到的具体场景,而是运用通用规则而非记忆示例来应用所学技能的能力。

“人类每天都能轻松进行快速任务切换和解决陌生问题,但对AI而言,这难度大得多。”奎瑟博士表示,“因此我们采用跨学科方法,融合发展神经科学、心理学、机器学习和机器人学等领域,以寻找思考学习的新方式,并为AI的未来提供启示。”

### 工作记忆为何重要
研究人员首先研究了AI模型的记忆设计,重点关注工作记忆及其在泛化中的作用。工作记忆是短期持有和使用信息的能力,比如遵循指令或进行快速心算。通过测试不同难度的任务,团队比较了多种记忆结构。

他们发现,拥有多个工作记忆槽(临时存储信息片段的容器)的模型在复杂任务(如反转序列或重建模式)上表现更好。这些任务需要同时持有多条信息并按正确顺序处理。

当团队添加促使系统进行特定次数自我对话的目标后,性能进一步提升,在多任务处理和多步骤任务中效果尤为显著。

“我们的组合系统特别令人兴奋,因为它能处理稀疏数据,而非通常训练此类泛化模型所需的海量数据。它提供了一种互补的、轻量级的替代方案。”奎瑟博士说。

### 在现实世界中学习“如何学习”
研究人员计划下一步超越干净、可控的测试,探索更真实的环境。“现实世界中,我们在复杂、嘈杂、动态的环境中做决策和解决问题。为更好地模拟人类的发展性学习,我们需要考虑这些外部因素。”奎瑟博士表示。

这一方向支持团队更广泛的目标:从神经层面理解人类学习机制。“通过探索内心言语等现象,理解这些过程的机制,我们获得了关于人类生物学和行为的全新基础见解。”奎瑟博士总结道,“我们还能应用这些知识,例如开发能在复杂动态世界中运行的家用或农业机器人。”

DOI: 10.1162/NECO.a.36

标签: 人工智能学习 内部言语 工作记忆 泛化能力 自我对话