AI芯片格局再起波澜:Meta签约亚马逊,大规模采用自研CPU
亚马逊与Meta达成了一项重磅协议,Meta将采用数百万颗AWS Graviton芯片来驱动其日益增长的AI需求。值得注意的是,Graviton是ARM架构的CPU,而非GPU。这一动向表明,在AI推理和智能体(Agent)工作负载领域,CPU正扮演越来越重要的角色。
从训练到推理:芯片需求的结构性转变
长期以来,GPU一直是训练大型模型的首选芯片。然而,当模型训练完成并进入推理阶段,特别是AI Agent开始承担复杂任务时,计算需求发生了根本变化。Agent工作负载涉及实时推理、代码编写、搜索以及多步骤任务协调,这些场景对CPU的通用计算能力有更高要求。AWS最新版Graviton正是为此设计,专门优化了AI相关的计算需求。
Meta此次大规模采用Graviton,标志着AI芯片竞赛进入新阶段:CPU在AI领域的价值被重新评估。尽管GPU仍是训练的核心,但推理和Agent工作负载的多样性正推动云厂商和科技巨头重新思考芯片组合。
云巨头之间的暗流涌动
这笔交易也折射出云计算市场的激烈竞争。Meta此前主要使用AWS,但也曾与微软Azure合作,并在2024年8月与Google Cloud签订了价值100亿美元的六年协议。如今,Meta将大量计算需求带回AWS,无疑是对Google Cloud的一次“回撤”。有趣的是,亚马逊选择在Google Cloud Next大会结束后宣布这一消息,颇有“隔空回应”的意味。
Google同样拥有自研AI芯片(TPU),并在大会上发布了新一代产品。而亚马逊除了Graviton CPU,还拥有自研AI GPU Trainium,该芯片同时用于训练和推理。不过,Anthropic(Claude的开发商)此前已与亚马逊达成100亿美元、为期十年的协议,将主要使用Trainium芯片,这导致Trainium的产能被大量预定。
对AI行业的影响
Meta与亚马逊的这笔交易,可能引发连锁反应:
- CPU在AI推理中的地位提升:其他云厂商和科技公司可能重新评估CPU在AI工作负载中的价值,推动ARM架构芯片的进一步普及。
- 云厂商的芯片策略分化:AWS、Google Cloud、微软Azure都在加速自研芯片,差异化的芯片能力将成为竞争关键。
- AI Agent生态的硬件基础:随着Agent工作负载的爆发,对通用计算和实时推理的需求将推动芯片设计更注重任务协调和响应速度。
总的来看,这笔交易不仅是商业合作,更是AI基础设施演进的风向标。当模型训练趋于成熟,推理和Agent落地的“最后一公里”将成为新的战场,而CPU正在这个战场上重新证明自己的价值。

