英伟达与Meta达成合作,预示计算能力进入新时代

作者: aeks | 发布时间: 2026-02-19 10:02 | 更新时间: 2026-02-19 10:02

学科分类: 信息与通信工程 电子科学与技术 计算机科学与技术 集成电路科学与工程

但英伟达近期的举措表明,它正寻求锁定AI市场中计算密集度较低端的更多客户——这些客户不一定需要最强大的GPU来训练AI模型,而是在寻找运行智能体AI软件的最高效方式。英伟达最近斥资数十亿美元从一家专注于低延迟AI计算的芯片初创公司获得技术授权,还开始销售独立CPU作为其最新超级芯片系统的一部分。

昨日,英伟达与Meta宣布,这家社交媒体巨头已同意购买价值数十亿美元的英伟达芯片,为其大规模基础设施项目提供计算能力——英伟达的CPU也包含在此次交易中。

这项多年期交易是两家公司现有紧密合作关系的扩展。Meta此前估计,到2024年底,它将从英伟达购买35万颗H100芯片,到2025年底,公司总共将拥有130万颗GPU(不过尚不清楚这些是否全是英伟达芯片)。

作为最新公告的一部分,英伟达表示,Meta将“构建针对训练和推理进行优化的超大规模数据中心,以支持公司长期的AI基础设施路线图”。这包括“大规模部署”英伟达的CPU以及“数百万颗英伟达Blackwell和Rubin GPU”。

值得注意的是,Meta是首家宣布大规模购买英伟达Grace CPU作为独立芯片的科技巨头。今年1月,英伟达公布其新Vera Rubin超级芯片的完整规格时曾表示,Grace CPU可作为独立选项。正如一位分析师所说,英伟达还一直强调其提供连接各种芯片的技术,作为其计算能力“从头到尾”策略的一部分。

科技市场研究公司Creative Strategies的首席执行官兼首席分析师本·巴贾林表示,此举表明英伟达认识到,越来越多的AI软件现在需要在CPU上运行,就像传统云应用程序一样。“目前行业对数据中心内CPU如此乐观的原因是智能体AI,它对通用CPU架构提出了新要求,”他说。

芯片通讯《Semianalysis》最近的一份报告强调了这一点。分析师指出,CPU的使用正在加速以支持AI训练和推理,并以微软为OpenAI建立的数据中心为例,“现在需要数万台CPU来处理和管理GPU生成的PB级数据,若没有AI,这种使用场景原本是不需要的。”

不过巴贾林指出,CPU仍然只是最先进AI硬件系统的组成部分之一。Meta从英伟达购买的GPU数量仍然超过CPU。

“如果你是超大规模企业,你不会将所有推理计算都在CPU上运行,”巴贾林说,“你只需要你运行的软件在CPU上足够快,以与作为计算驱动力的GPU架构交互。否则,CPU会成为瓶颈。”

Meta拒绝对其与英伟达的扩展交易置评。在最近的财报电话会议上,这家社交媒体巨头表示,计划今年大幅增加AI基础设施支出,从去年的722亿美元增至1150亿至1350亿美元。

英伟达也拒绝对新交易置评。多年来,英伟达一直表示其硬件除了用于前沿AI训练外,还可满足推理计算需求。两年前,英伟达创始人兼首席执行官黄仁勋在接受《连线》杂志专访时估计,英伟达的业务可能“40%是推理,60%是训练”。

去年12月,英伟达宣布将斥资200亿美元从芯片初创公司Groq获得技术授权,并将Groq的部分顶尖人才(包括首席执行官乔纳森·罗斯)纳入英伟达。根据Groq的声明,这笔交易反映了“双方共同致力于扩大高性能、低成本推理的可及性”。这是英伟达迄今为止最大的收购交易。

竞争升温

英伟达与Meta的交易正值最知名的AI实验室和万亿美元软件公司寻求多样化其计算能力来源之际。过去几年,OpenAI、Anthropic、Meta、xAI等许多公司在训练和部署生成式AI模型时,都依赖英伟达硬件来承担重任。

如今,在许多情况下,它们正在自主设计或定制芯片,给英伟达带来提供更多服务的压力。

微软的AI云服务依赖英伟达GPU和定制设计芯片的混合使用。谷歌的云服务也使用英伟达芯片,但其先进AI模型的训练和部署主要依赖自主研发的张量处理单元(TPU)。据报道,谷歌还考虑向Meta出售其TPU。

Anthropic的Claude AI模型使用英伟达GPU、谷歌TPU以及亚马逊(其重要少数股东之一)的芯片组合。(Anthropic联合创始人兼首席执行官达里奥·阿莫代伊是少数公开批评黄仁勋游说美国政府允许英伟达向中国出售先进芯片的高管之一。)

OpenAI去年与英伟达签署了一项价值高达1000亿美元的大规模AI基础设施协议,该公司公开表示正与博通合作打造自己的AI芯片硬件和网络系统。

去年6月,OpenAI首席执行官山姆·奥特曼与AMD首席执行官苏姿丰在该芯片制造商的年度AI大会上共同登台;两人后来达成协议,OpenAI将在未来几年购买高达6吉瓦的AMD芯片,作为交换,可能获得AMD 10%的股份。AMD以CPU闻名,不过在AI加速器和AI GPU市场也在获得份额。

就在两周前,OpenAI宣布计划使用Cerebras的技术为其平台“增加750兆瓦的超低延迟AI计算能力”。这笔交易价值100亿美元——虽不及与英伟达的交易规模,但也意义重大。

“AI实验室寻求多样化,固然是因为需求在变化,但主要还是因为它们无法获得足够的GPU,”巴贾林说,“它们会想尽办法获取芯片。”

标签: AI芯片 CPU Meta 英伟达 计算能力多元化