乐于分享
好东西不私藏

四大科技巨头AI芯片「去英伟达化」

四大科技巨头AI芯片「去英伟达化」

科技巨头们正在用行动投票。

2025年全年,谷歌、微软、Meta、亚马逊四家公司合计资本支出达到4100亿美元,其中绝大部分流向AI基础设施。2026年,这个数字继续攀升,四家仅今年一季度的资本开支指引就达到了7250亿美元,华尔街的预测是全年可能逼近这个数字。

但是同期 Nvidia 股价却跌了4.63%。

这个组合很诡异,买家花更多钱,但最被看好的受益者反而在跌。市场在交易什么?

如果仔细看了各家最近的财报电话会和芯片路线图,就会感觉到了一个很清晰的信号:英伟达的好日子,可能正在进入下半场。不是不买了,是逻辑变了。

先说一个基本事实:英伟达现在依然是AI训练芯片的老大,没有任何一家能正面挑战它的H系列和B系列。这是根基,不会动摇。但是。这次「去英伟达化」,针对的不是训练侧,而是推理侧。

怎么回事?

ChatBot时代,AI跑的是对话。用户敲一句话,AI回一句话。一次对话消耗的token,撑死了也就几十万。

但Agent时代完全不同。AI要自己规划、调用工具、浏览网页、写代码、操作软件,一个任务跑下来,消耗的token量是ChatBot的几十倍甚至上百倍。拿Claude Code来说,一个完整的开发任务,可能要跑掉几亿个token。而OpenRouter的数据更能说明问题:2026年以来,周度token消耗量从2.1T暴涨到24.5T,增幅280%。整个推理市场的需求曲线,从爬坡变成了垂直起飞。

需求侧的这个变化,是各厂商下场做自研芯片的核心驱动力,不只是为了降本,更是为了在Agent爆发的窗口期掌握主动权,构建自己的供应韧性。否则,当token消耗量还在以这种速度攀升的时候,命运就全捏在英伟达手里了。

谷歌的TPU已经迭代到第五代,他们内部跑Transformer workload的成本比用英伟达芯片低了40%到60%。这不是官方宣传,是一些内部研究流出来之后行业里测算的结果。亚马逊有Trainium和Inferentia,微软有Maia,Meta有MTIA。这四家每家都在用自己开发的芯片规模化跑推理任务。训练侧依然用英伟达,但推理侧的份额,正在悄悄流失。

谷歌是最早也是最彻底的。TPU从2016年就开始搞了,现在内部已经跑了超过90%的推理任务量。谷歌云对外卖的时候也卖TPU实例,但这块的商业化一直比较保守,主要还是服务内部。这次值得注意的消息是,谷歌最新一批TPU v5e的采购量明显扩大,而且开始在部分数据中心大规模替换英伟达A100和H100。这个动作是真实发生的,不是规划中的。

微软是悄悄的但量大。微软的Maia 100芯片去年发布之后,今年开始大规模部署。主要跑Azure上的推理任务,包括Copilot系列产品的后端。微软的策略很有意思,它没有大张旗鼓地宣传自研芯片,但在财报里悄悄把自研芯片的折旧成本从采购清单里剔除了。意味着这样一来自研芯片的摊销不需要走资本支出,不影响毛利率。等这些芯片的量上来,微软的云服务成本结构会比现在好看很多。

Meta是,被迫的也是最决绝的。Meta是这里面最特殊的一家。别人是自己有能力了才自己做,Meta是买不到足够的芯片被迫自己来。Meta是英伟达H100的最大客户之一,2023年一下单就是几十亿美元的量。但是2025年,因为供应链紧张和价格谈判不顺,Meta开始加速部署MTIA。扎克伯格在电话会上说,2026年Meta会部署超过100万块自研芯片。这个数字很夸张。100万块什么概念?全球数据中心GPU一年的出货量也就是几百万块的量级。

亚马逊是最被低估的一家。亚马逊的芯片布局其实比所有人都早。Trainium已经出到第三代,Inferentia也在持续迭代。AWS是全球最大的云服务商,他们内部对芯片成本的控制压力是最大的。最近一个没被充分关注的信号是,亚马逊开始把部分SageMaker的推理任务从英伟达实例迁移到Trainium上。SageMaker是他们机器学习平台的旗舰产品,这个迁移意味着啥,不言自明。

市场对英伟达的担忧不无道理。这四家加起来,是全球最大的芯片买家。他们合计资本支出占全球数据中心投资的比重越来越高。如果这些买家中长期要把自研芯片的比例从现在的10%提升到40%甚至更高, Nvidia 的数据中心业务天花板就会比预期来得更早。

英伟达当然不会坐以待毙。

一个被严重低估的动作是,今年初英伟达以约200亿美元收购了Groq,然后把Groq的LPU(Language Processing Unit)整合进了最新的Vera Rubin平台。LPU和GPU的推理逻辑完全不同,GPU是把请求批量处理,追求吞吐量;LPU是逐token输出,延迟极低,特别适合对话这种实时交互场景。

OpenAI已经签约成为这个平台的最大客户之一。LPX机架搭载256个LPU处理器,提供128GB片上SRAM,推理吞吐量比单纯用GPU提升35倍。三星为LPU代工,首批机架下半年开始出货。

所以英伟达的应对策略其实很清晰:训练侧继续用Blackwell和H系列守住,推理侧用LPU打垂直场景,低延迟、高吞吐、特定任务优化。这和四大云厂商自己做推理芯片的逻辑是一样的,只不过英伟达是从芯片层面亲自下场而不是只卖通用芯片。

另外,英伟达在软件生态(CUDA、TensorRT)上的护城河依然极深,自研芯片的易用性和生态支持远不如英伟达。这也是为什么现阶段云厂商的自研芯片主要跑的是相对简单的推理任务,复杂训练依然要靠英伟达。

还有一个值得关注的方向:NPU。苹果的M4芯片里有NPU,高通的Snapdragon X Elite里有NPU,现在微软Surface Pro里用的Lunar Lake也有NPU。端侧AI推理的市场在起来,这个市场英伟达反而不是主角。

英伟达不是没有增长空间了,是从「唯一的芯片」变成了「芯片选项之一」。这个身份的转变,才是市场真正在定价的东西。

回到开头的问题:为什么买家花了更多的钱,但最被看好的受益者反而在跌?因为市场的定价逻辑变了。以前是:AI要发展 → 要买更多芯片 → 利好英伟达。这是「基础设施逻辑」,英伟达是整个AI时代的「卖水人」。现在是:AI跑起来了 → 怎么让水更便宜 → 自研芯片控制成本结构。

这是「成本结构逻辑」,水还是那个水,但卖水的换成了自己的子公司。这两套逻辑推导出来的估值模型完全不一样。第一种逻辑给英伟达的估值是「AI时代的石油」,需求无限供给,价格持续上涨。第二种逻辑给英伟达的估值是「高性能芯片供应商」,重要但不垄断,有竞争有替代。

这不是说英伟达会很快没落。他的训练芯片地位短期内无可替代,H200和Blackwell的需求依然火爆。但是市场开始把「英伟达被替代」这件事放进了概率空间里,哪怕概率很小,一旦有风吹草动,股价就会有压力。

这就是现在的局面:一边是史无前例的资本开支狂潮,一边是买家在悄悄「去英伟达化」。两者并不矛盾,因为背后的驱动逻辑已经不同了。买芯片的人不再只是想要最强的芯片,而是想要最适合自己的芯片。最强和最合适是两件事。英伟达依然是这个时代最重要的芯片公司,但最肥的那段利润,正在被一点点移走。