乐于分享
好东西不私藏

GPU采购大变天!AI巨头烧钱姿势让英伟达都紧张了?

GPU采购大变天!AI巨头烧钱姿势让英伟达都紧张了?

🎯7000 亿美元只是开胃菜,真正的钱还在路上

科技巨头们正在用一个天文数字重新定义”烧钱”:今年四家头部公司的投入将超过 7000 亿美元。这不是营销预算,不是研发经费,而是实打实采购 GPU、建数据中心的资本开支。更夸张的是,这个数字还不包括那些”隐形玩家”——OpenAI 单独拿出 500 亿美元砸算力,Anthropic 直接和 Google Cloud 签了 2000 亿美元的长期协议。当钱的单位从”亿”跳到”千亿”时,游戏规则已经变了。

📰微软一家就花掉一个中等国家的 GDP

微软 2026 年的资本开支预计达到 1900 亿美元,这个数字超过芬兰 2025 年全年 GDP。亚马逊、Google、Meta 三家加起来也不相上下,四巨头合计突破 7000 亿美元大关。这些钱主要流向两个方向:英伟达的 H100/H200 芯片,以及支撑这些芯片运转的基础设施——电力系统、冷却设备、专用网络。

OpenAI 和 Anthropic 的数字更能说明问题。OpenAI 今年单独投入 500 亿美元,这家公司 2023 年全年收入还不到 20 亿美元。Anthropic 更直接,直接锁定 Google Cloud 未来几年的服务和芯片供应,总额 2000 亿美元。这不是采购订单,是在给自己的算力需求”上保险”。

对比去年同期,微软的资本开支增长了 65%,亚马逊增长了 58%。这种增速在传统科技公司历史上从未出现过——即便是移动互联网爆发那几年,增速也不过 30% 左右。

🔄英伟达吃肉,其他人连汤都喝不上

这场投资狂潮的最大受益者只有一个:英伟达牢牢占据全球 AI 芯片生态的核心位置。四巨头的采购清单里,GPU 部分几乎全是英伟达的型号。AMD 的 MI300 系列在性价比上有优势,但实际订单量不到英伟达的十分之一。Google 自研的 TPU 只供内部使用,亚马逊的 Trainium 芯片还在爬坡期。

更关键的变化是采购模式。过去科技公司买服务器是”按需采购”,现在变成了”抢配额”。微软、Meta 都在财报会上提到,他们面临的最大风险不是需求不足,而是”拿不到足够的 GPU”。这导致英伟达的 H100 芯片从发布到现在,价格不降反升,二手市场甚至出现了溢价交易。

供应链也在重构。传统上,芯片厂商通过渠道商和集成商触达客户。现在大客户直接和英伟达谈判,锁定未来 18 个月的产能。有供应链消息称,微软和 Meta 已经预付了 2027 年上半年的部分订单款项,这在半导体行业极为罕见。

🔍这不是技术竞赛,是生存门槛

7000 亿美元的数字背后,是一个残酷的现实:如果你不在这个量级上投入,你就没有资格参与下一代 AI 的竞争。

OpenAI 的 GPT-5 训练需要的算力是 GPT-4 的 10 倍以上,Anthropic 的 Claude 4 同样如此。这意味着,想要保持模型性能的领先,你必须持续扩大算力规模。Google DeepMind 的内部报告显示,如果算力投入不能保持每年翻倍的增速,模型性能提升就会停滞。

这也解释了为什么 Anthropic 要和 Google Cloud 签 2000 亿美元的协议。这不是简单的采购合同,而是在用长期锁定的方式,确保自己在未来 3-5 年内不会因为”买不到算力”而掉队。对于 AI 公司来说,算力短缺带来的风险,比资金短缺更致命。

投资人的逻辑也在变化。过去评估 AI 公司看团队、看模型架构,现在第一个问题是”你锁定了多少算力”。红杉资本最近的一份内部备忘录提到,他们会优先投资那些”已经和云厂商或芯片厂商签订长期协议”的公司,因为这代表了确定性。

🏭云厂商的利润要被 GPU 吃掉一半

对于云计算三巨头——AWS、Azure、Google Cloud 来说,这场算力竞赛正在改变他们的商业模式。

传统上,云厂商的资本开支占收入的 15%-20%,净利润率能维持在 25% 以上。但今年的数字完全失控了。微软的 1900 亿美元开支,对应的云业务收入预计在 2500 亿美元左右,资本开支比例飙升到 76%。这意味着,如果不大幅提高 AI 服务的定价,云厂商的利润率会被压缩到个位数。

更棘手的是,这些投入的回报周期变长了。传统云服务的资本回收期是 3-4 年,但AI基础设施的回收期可能要延长到 5-7 年。这是因为 GPU 的折旧速度更快——H100芯片的有效使用寿命只有3年左右,之后性能就会被新一代产品大幅超越。

客户结构也在变化。过去云厂商的大客户是企业IT部门,现在最大的客户是AI公司和AI研究团队。这些客户对价格敏感度低,但对算力供应的稳定性要求极高。一旦出现算力短缺,他们会立刻切换到竞争对手。这导致云厂商不得不”超配”算力,宁可让部分GPU闲置,也不能让大客户的训练任务排队。

🔮电力合同和芯片良品率

未来关注的不是财报数字,而是两个更底层的指标。

第一个是电力采购合同。AI 数据中心的耗电量是传统数据中心的 5-10 倍,微软、亚马逊都在和电力公司签订长期供电协议。如果你看到某家科技巨头突然在某个地区签了大规模电力合同,那很可能意味着新的超大规模数据中心即将开工。有消息称,微软正在和德州、北卡罗来纳州的电网运营商谈判,计划锁定未来10年的电力供应。

第二个是英伟达下一代芯片B100的良品率。B100采用台积电3nm工艺,理论性能是H100的2.5倍,但良品率直接决定了量产时间。如果良品率不达标,英伟达可能要推迟出货,这会直接影响所有大客户的算力扩张计划。供应链消息显示,B100的工程样片良品率目前在60%左右,距离量产标准的80%还有距离。

这是一场只有五个座位的赌桌游戏

7000亿美元不是终点,而是入场费。当算力成为AI时代的石油,能坐上这张赌桌的玩家,全球不超过五家:微软、亚马逊、Google、Meta,再加上英伟达自己。其他所有公司——无论是传统科技巨头还是AI创业公司,要么成为这五家的客户,要么被挤出牌局。OpenAI和Anthropic 看起来风光,但他们的算力命脉完全掌握在云厂商手里。真正的权力,属于那些既有钱买GPU,又有能力自建数据中心的玩家。