人工智能行业的盲目扩张正走向悬崖

作者: aeks | 发布时间: 2025-10-20 10:11 | 更新时间: 2025-10-20 10:11

学科分类: 信息与通信工程 控制科学与工程 计算机科学与技术 软件工程

麻省理工学院(MIT)参与该研究的计算机科学家兼教授尼尔·汤普森表示:“未来5到10年,(人工智能模型之间的)差距很可能开始缩小。” 今年1月深度求索(DeepSeek)推出的低成本模型所展现的效率飞跃,已经给习惯了大量消耗计算资源的人工智能行业敲响了警钟。目前,像OpenAI这样的公司开发的前沿模型,远比学术实验室用少量计算资源训练出的模型性能更优。不过,麻省理工学院的研究团队指出,除非强化学习等新训练方法能带来意外突破,否则未来大型人工智能公司的优势可能会减弱。

主导这项分析的MIT研究科学家汉斯·冈德拉奇,因运行前沿模型时面临的操作复杂性而对该问题产生兴趣。他与汤普森及另一位MIT研究科学家杰森·林奇合作,绘制了前沿模型与使用更有限计算资源构建的模型在未来的性能对比。冈德拉奇提到,对于当前流行的推理模型而言,这种缩小差距的趋势尤为明显,这类模型在推理过程中更依赖额外的计算资源。

汤普森表示,研究结果显示,优化算法与扩大计算规模同等重要。他补充道:“如果在训练这些模型上投入了大量资金,那么绝对应该拿出一部分资金来研发更高效的算法,因为这可能会产生巨大影响。”

这项研究在当下人工智能基础设施热潮(或许可以称之为“泡沫”?)背景下显得尤为有趣,而这股热潮目前丝毫没有放缓的迹象。OpenAI等美国科技公司已签署了价值数千亿美元的协议,计划在美国建设人工智能基础设施。OpenAI总裁格雷格·布罗克曼本周宣布与博通公司合作开发定制人工智能芯片时宣称:“世界需要更多的计算资源。”

越来越多的专家开始质疑这些协议的合理性。数据中心建设成本中约60%用于图形处理器(GPU),而GPU的贬值速度很快。主要参与者之间的合作也显得循环且不透明。摩根大通首席执行官杰米·戴蒙是最新一位发出警告的金融界大佬,他上周告诉英国广播公司(BBC):“大多数人应该对这种不确定性有更高的认知。”

人工智能基础设施的“淘金热”并非完全是为了打造更强大的模型。OpenAI实际上押注于新型生成式人工智能工具的需求将呈指数级增长。该公司或许还希望减少对微软和英伟达的依赖,并将其5000亿美元的估值转化为可自主设计和定制的基础设施。

即便如此,行业利用麻省理工学院发布的这类分析来探索未来几年算法和硬件的发展趋势,似乎更为审慎。目前支撑美国经济很大一部分的基础设施建设热潮,也可能对美国的创新产生影响。人工智能公司若过度投资于深度学习专用的GPU和其他芯片,可能会错失来自学术边缘领域的新机遇,比如深度学习的替代方案、新型芯片设计,甚至量子计算等方法——毕竟,当今的人工智能突破正是源于这些领域。

(本文节选自威尔·奈特的《人工智能实验室》 newsletter。点击此处阅读往期 newsletter。)

标签: AI模型差距 人工智能基础设施 学术创新 算法优化 计算效率