人脑的工作方式可能比想象中更像人工智能

作者: aeks | 发布时间: 2026-01-21 20:04 | 更新时间: 2026-01-21 20:04

学科分类: 心理学 神经科学 计算机科学与技术

这项发表在《自然·通讯》上的研究由希伯来大学的阿里尔·戈尔茨坦博士领衔,合作者包括谷歌研究院的马里亚诺·沙因博士以及普林斯顿大学的乌里·哈森教授和埃里克·哈姆。该团队共同发现,人类理解语言的方式与现代人工智能模型处理文本的方式之间存在意想不到的相似性。研究人员让参与者聆听一段30分钟的播客,并利用皮层脑电图记录追踪其语言处理过程中的大脑活动时间与位置。他们发现,大脑遵循一种结构化序列,该序列与GPT-2、Llama 2等大型语言模型的分层设计高度匹配。大脑如何随时间构建意义:当我们听别人说话时,大脑并非一次性理解所有含义,而是每个词语都要经过一系列神经步骤。戈尔茨坦及其同事发现,这些步骤随时间展开的方式与人工智能模型处理语言的过程相吻合——人工智能的早期层专注于基本词语特征,而更深层则整合语境、语气和更广泛的意义。人类大脑活动也遵循同样模式:早期神经信号与人工智能处理的早期阶段匹配,后期大脑反应则与模型的深层相对应。这种时间匹配在布洛卡区等高级语言区域尤为明显,当与人工智能深层关联时,这些区域的反应峰值出现得更晚。戈尔茨坦博士表示:“最让我们惊讶的是,大脑随时间展开意义的过程与大型语言模型内部的转换序列如此接近。尽管这些系统的构建方式截然不同,但两者似乎都通过类似的逐步积累过程来达成理解。”这些发现的意义:该研究表明,人工智能不仅能生成文本,还有助于科学家更好地理解人类大脑如何构建意义。多年来,语言一直被认为主要依赖固定符号和僵化层级结构,而这些结果对这一观点提出挑战,转而指向一种更灵活的统计过程——意义通过语境逐渐显现。研究人员还测试了音素、语素等传统语言元素,发现这些经典特征对实时大脑活动的解释力不如人工智能模型生成的语境表征,这支持了大脑更多依赖流动语境而非严格语言构建块的观点。语言神经科学的新资源:为推动该领域发展,团队已将完整的神经记录和语言特征数据集公开发布。这个开放数据集使全球研究人员能够比较语言理解理论,并开发更贴近人类思维运作方式的计算模型。

DOI: 10.1038/s41467-025-65518-0

标签: 人工智能-大脑相似性 大型语言模型 大脑语言处理 语言神经科学