Meta 正在通过一项全面的硬件合作来重塑其 AI 基础设施战略,该合作以英伟达 CPU和下一代 GPU 为核心。
Facebook 母公司Meta与英伟达签署了一项多年协议,将购买数百万颗芯片,涵盖 GPU 以及首次推出的独立 CPU。该协议包括现有的Blackwell GPU 、即将推出的Rubin GPU以及全新的Grace和Vera独立处理器。不过,双方均未透露合同总金额。
科技咨询公司Creative Strategies的首席执行官兼首席分析师Ben Bajarin估计,这笔交易价值数十亿美元。此外,科技媒体The Register报道称,该协议有望在有效期内为英伟达带来数百亿美元的利润。这凸显了Meta在人工智能领域扩张的迅猛步伐。
Meta首席执行官马克·扎克伯格此前已暗示了这一支出重点的转变。他宣布,Meta计划在2026年将其人工智能基础设施投资增加近一倍,总支出可能达到1350亿美元。不过,这项新的芯片交易让市场更清楚地了解了大部分资金的流向。
该协议中最引人注目的并非GPU的采购,而是Meta决定大规模采用Nvidia的CPU作为独立产品。在2026年初之前, Grace处理器几乎完全作为所谓的超级芯片(Superchips)的一部分销售,这种芯片将CPU和GPU集成在单个模块上。然而,Nvidia在2026年1月正式改变了销售策略,开始单独销售这些CPU。
当时首家公开披露名称的独立CPU客户是新云服务提供商CoreWeave 。如今,Meta也加入了这一行列,这表明市场对灵活的基于CPU的架构的需求日益增长。这与人工智能领域更广泛的转型趋势相吻合,即从训练大规模模型转向在生产环境中部署这些模型。
该公司瞄准的是快速增长的推理领域。近年来,人工智能行业主要集中于使用GPU密集型资源训练大型模型。然而,如今的重点正日益转向推理,即运行和扩展这些训练好的系统的过程。对于许多推理任务而言,传统的GPU在成本和功耗方面都显得过剩。
“我们之前处于‘训练’时代,现在正迈向‘推理’时代,这需要一种完全不同的方法,”巴贾林告诉《金融时报》 。尽管如此,这种转变并不会消除对GPU的需求;相反,它改变了超大规模数据中心内GPU和CPU工作负载之间的平衡。
据The Register报道,英伟达超大规模计算和高性能计算副总裁兼总经理伊恩·巴克表示, Grace处理器在后端工作负载(例如运行数据库)方面“每瓦性能可提升2倍”。此外,他还指出,“Meta已经有机会在Vera平台上运行部分此类工作负载,结果非常令人鼓舞。” 这凸显了英伟达致力于优化大规模推理和数据处理的能效。
Grace CPU拥有72 个 Arm Neoverse V2 核心,并采用LPDDR5x内存,这使其在带宽和空间受限的环境中具有优势。相比之下,Nvidia 的下一代Vera CPU则配备了88 个定制的 Arm 核心,支持同步多线程和内置机密计算功能。这些规格凸显了 Nvidia 直接与根深蒂固的服务器 CPU 厂商竞争的雄心。
据英伟达称,Meta计划在其WhatsApp加密消息服务中使用Vera进行私密处理和人工智能功能。Vera的部署计划于2027年进行,这表明Meta的后端现代化改造是一个多年规划。然而,该公司尚未提供除消息和安全相关工作负载之外的每个数据中心区域或特定服务的详细部署时间表。
英伟达将CPU作为独立产品销售,使其在利润丰厚的服务器市场与英特尔和AMD展开直接竞争。此前,英伟达的增长主要来自GPU,但CPU的加入使其数据中心产品组合更加完善。此外,这也使得客户能够围绕同一供应商构建完整的技术栈,而无需混用来自多个供应商的组件。
通过购买独立的英伟达CPU,Meta偏离了其他超大规模数据中心运营商的策略。亚马逊依赖自研的Graviton处理器,而谷歌则依赖于其定制的Axion芯片。相比之下,Meta在继续设计自身AI加速器的同时,也从英伟达采购产品。然而,《金融时报》报道称,Meta的内部芯片研发工作“遭遇了一些技术挑战和发布延迟”。
对英伟达而言,竞争压力也在不断加剧。近几个月来,谷歌、亚马逊和微软都相继发布了自主研发的新芯片。与此同时, OpenAI与博通联合开发了一款处理器,并与AMD签署了一项重要的供货协议。包括Cerebras在内的多家初创公司正在大力推广专用推理芯片,如果这些芯片得到广泛应用,可能会削弱英伟达的市场主导地位。
去年12月,英伟达通过授权协议从推理芯片公司Groq收购了部分技术人才,旨在加强其在新推理时代计算阶段的技术基础。然而,投资者情绪仍然对客户多元化的任何迹象都非常敏感。去年年底,有报道称Meta正在与谷歌洽谈使用张量处理单元(TPU ),受此消息影响,英伟达股价下跌了4%。但此后双方并未就TPU达成任何正式协议。
Meta 也并非完全依赖英伟达硬件。据 The Register 报道,该公司运营着一批AMD Instinct GPU ,并直接参与了 AMD Helios机架式系统的设计,该系统计划于今年晚些时候发布。此外,这种多厂商合作模式使 Meta 在价格谈判中更具优势,并有助于降低其快速增长的元人工智能基础设施的供应风险。
随着英伟达数据中心的扩张,“英伟达是否销售CPU ”这个问题正通过此类部署得到实际解答。更广泛的英伟达元协议表明,即使超大规模数据中心运营商也在尝试使用自有定制芯片和竞争对手的加速器平台,英伟达的CPU也正成为大规模推理架构的核心组件。
总而言之,Meta 的多年硬件合作协议凸显了人工智能领域的结构性转型,即从训练密集型的 GPU 集群转向围绕 Grace 和 Vera 等先进 CPU 构建的推理优化架构。然而,由于英特尔、AMD、云原生处理器以及众多专业初创公司都在争夺相同的工作负载,英伟达要想将其新的 CPU 战略转化为数据中心领域的长期主导地位,将面临一场复杂的竞争。