AI可能并不需要海量训练数据

作者: aeks | 发布时间: 2026-01-05 16:02 | 更新时间: 2026-01-05 16:02

学科分类: 信息与通信工程 控制科学与工程 智能科学与技术 计算机科学与技术

这项发表在《自然-机器智能》上的研究成果,对人工智能(AI)开发领域的主流策略提出了挑战。该研究强调,与其依赖数月的训练、海量数据集和庞大的计算能力,不如从类脑的架构基础入手,这种方式具有重要价值。

重新思考AI的“数据密集型”发展路径
约翰斯·霍普金斯大学认知科学助理教授、该研究的主要作者米克·邦纳(Mick Bonner)表示:“当前AI领域的发展路径是向模型投喂大量数据,并构建规模堪比小型城市的计算资源,这需要花费数千亿美元。然而,人类仅用极少的数据就能学会视物。进化最终形成这样的(类脑)设计,或许有其充分的理由。我们的研究表明,更接近大脑的架构设计能让AI系统处于极为有利的起点。”

邦纳及其同事旨在测试:在不依赖大规模训练的情况下,仅凭架构设计能否让AI系统具备更接近人类的起点。

对比主流AI架构
研究团队重点关注了现代AI系统中常用的三类主要神经网络设计:Transformer(Transformer网络)、全连接网络和卷积神经网络。他们反复调整这些设计,构建出数十种不同的人工神经网络。所有模型均未经过预先训练。随后,研究人员向这些未训练的系统展示物体、人物和动物的图像,并将其内部活动与观看相同图像的人类及非人灵长类动物的大脑反应进行对比。

为何卷积神经网络脱颖而出
增加Transformer网络和全连接网络中的人工神经元数量,几乎未产生有意义的变化。然而,对卷积神经网络进行类似调整后,其活动模式与人类大脑中的活动模式更为接近。

研究人员表示,这些未经过训练的卷积模型,其性能与通常需要接触数百万甚至数十亿张图像的传统AI系统相当。研究结果表明,在塑造类脑行为方面,架构的作用比之前认为的更为重要。

通往更智能AI的更快路径
邦纳指出:“如果大规模数据训练真的是关键因素,那么仅凭架构调整就不可能获得类脑AI系统。这意味着,通过从正确的蓝图(即类脑架构)入手,并可能结合其他生物学见解,我们或许能够显著加速AI系统的学习过程。”

该团队目前正在探索受生物学启发的简单学习方法,这些方法有望催生新一代深度学习框架,可能使AI系统更快、更高效,且对海量数据集的依赖程度更低。

DOI: 10.1038/s42256-025-01142-3

标签: AI架构 卷积神经网络 海量数据集 类脑AI