乐于分享
好东西不私藏

全球四分之一的AI算力,被谷歌一家握在手里:1850亿美元砸出来的算力帝国

全球四分之一的AI算力,被谷歌一家握在手里:1850亿美元砸出来的算力帝国

DEEP TECH

AI算力云计算芯片战争

核心看点

谷歌目前控制全球约 25% 的 AI 算力,是唯一同时拥有自研芯片(TPU)、自研模型(Gemini)和全球级云平台的科技巨头。2026 年资本支出飙升至 1750-1850 亿美元,同比翻倍。Cloud Next 大会发布第八代 TPU,训练芯片算力是上代 3 倍,推理芯片性能/成本提升 80%。Gemini API 每分钟处理 160 亿 token,Anthropic 签下百万芯片大单。谷歌正从”搜索公司”变成”AI 基础设施公司”。

如果把全球 AI 算力比作一块蛋糕,谷歌一家就切走了四分之一。

这不是比喻。根据多家投行的测算,谷歌通过自研 TPU 芯片和大规模 GPU 集群,已经控制了全球约 25% 的 AI 计算能力——超过微软、Meta,仅次于整个英伟达 GPU 生态。

更值得注意的是,谷歌是地球上唯一一家同时拥有三样东西的公司:自研 AI 芯片、自研大模型、全球级云平台。亚马逊有云没有顶级模型,Meta 有模型没有云,英伟达有芯片但不做模型也不做云。只有谷歌,从硅片到算法到基础设施,全链条自己干。

4 月 22 日的 Cloud Next 2026 大会上,谷歌亮出了最新的底牌。

一、1850 亿美元:史上最大的算力军备投入

2025 年,谷歌在基础设施上花了 914 亿美元。2026 年,这个数字要翻倍——1750 到 1850 亿美元

这是什么概念?相当于每天烧掉 5 亿美元建数据中心、买芯片、拉光纤。比大多数国家的全年军费预算还多。

谷歌资本支出飙升

• 2024 年资本支出:527 亿美元
• 2025 年资本支出:914 亿美元(+73%)
• 2026 年资本支出指引:1750-1850 亿美元(+91%)
• 主要投向:AI 算力基础设施 + 云数据中心
• CEO 皮查伊:”全年可能持续处于 AI 算力供应紧张状态”

钱花在哪了?两个大头:一是疯狂建数据中心——2026 年谷歌在全球同时推进超过 20 个新数据中心项目;二是芯片,既买英伟达的 GPU,也大规模量产自研的 TPU。

华尔街的态度很有意思:一边担心自由现金流被压缩,一边又不敢不看好。三大投行对谷歌的目标价分别是——摩根大通 395 美元、花旗 405 美元、美银 370 美元——全部是”买入”。逻辑很简单:如果 AI 是下一个时代的操作系统,那现在不砸钱建基础设施的公司,未来就没有入场券。

二、第八代 TPU:训练和推理,第一次分家

Cloud Next 2026 上最硬核的发布是第八代 TPU——而且一次出了两款。

这是 TPU 历史上第一次把训练芯片和推理芯片拆开设计。以前是一款芯片两头兼顾,现在各干各的,各自极致优化。

TPU 8t(训练芯片) —— Broadcom 联合设计

• 台积电2nm制程
• 单芯片算力:12.6 PFLOPS(FP4)
• 超级 Pod:9600 颗芯片,总算力121 EFLOPS
• 相比上代 Ironwood 算力提升2.85 倍
• 支持百万芯片扩展的 Virgo 网络架构
• 训练价格性能提升2.8 倍

TPU 8i(推理芯片) —— MediaTek 联合设计

• 台积电2nm制程
• 单芯片算力:10.1 PFLOPS(FP4)
• 片上 SRAM 提升至384MB(上代 3 倍)
• 推理延迟降低5 倍
• 性能/美元效率改善80%
• 专为 AI Agent 实时推理场景优化

为什么要分家?因为训练和推理对芯片的需求已经完全不同。训练要的是极致吞吐——越快算完万亿参数越好;推理要的是极致延迟——用户问一句,AI 0.1 秒就得答。一颗芯片很难两头都做到极致。

更关键的信号是:谷歌判断推理算力将成为独立的收入增长曲线。随着 AI Agent 大规模落地,推理需求的增长速度可能远超训练。单独做一颗推理芯片,就是为这个趋势提前卡位。

三、云业务狂飙:从第三名到挑战者

谷歌云过去一直是 AWS 和 Azure 身后的”老三”。但 AI 时代给了它弯道超车的机会。

谷歌云关键数据

• 2025 Q4 云收入:176.6 亿美元(同比 +48%)
• 2025 全年营收首破4000 亿美元
• 云市场份额:约12%(AWS 31%,Azure 24%)
• AI 计算收入同比增长:71%(2026 Q1)
• 约 75% 的云客户正在使用 AI 产品
• Gemini API 每分钟处理160 亿 token(环比 +60%)
• Gemini Enterprise 付费月活用户环比增长40%

48% 的增速是什么水平?AWS 同期增长 19%,Azure 约 30%。谷歌云虽然体量还不到 AWS 的一半,但增速已经是行业第一。

更值得关注的是”160 亿 token/分钟”这个数字。上个季度才 100 亿,一个季度暴涨 60%。这说明 Gemini 的 API 调用量正在指数级增长——不是谷歌自己在用,而是外部客户在疯狂调用。摩根士丹利预测,到 2027 年谷歌 AI 基础设施收入将达到480 亿美元,是 2025 年的 2.3 倍。

四、Anthropic 大单:百万芯片绑定,数百亿美元赌注

谷歌最大的 TPU 外部客户是 Anthropic——Claude 的母公司。这笔交易的规模足以改变行业格局。

谷歌 × Anthropic 算力合作

• Anthropic 承诺使用最多100 万块Ironwood TPU
• 2026 年交付超过1 GW(吉瓦)AI 算力
• 2027 年扩大到3.5 GW
• 交易总价值:数百亿美元(多年期)
• Anthropic 是唯一获得 TPU 8t 优先访问权的外部客户
• Claude 日均请求量:140 亿+

这笔交易的战略意义远超商业本身。Anthropic 是 OpenAI 最大的竞争对手,也是目前最被看好的 AI 公司之一。把它绑在谷歌的 TPU 上,意味着:

第一,谷歌的 TPU 生态有了除自己之外的重量级客户,证明 TPU 不只是”内部玩具”。
第二,Anthropic 的 Claude 越火,谷歌的算力收入就越高——即使 Claude 和 Gemini 在模型层面是竞争对手。
第三,Meta 也在和谷歌谈 TPU 采购——如果 Meta 也上车,谷歌就真正成了 AI 算力的”水电煤”供应商。

五、挑战英伟达:从买家变卖家

谷歌做 TPU 最初是为了省钱——自研芯片比买英伟达的 GPU 便宜。但现在,事情正在起变化。

谷歌开始把 TPU 当产品卖了。先卖给 Anthropic,再谈 Meta,还通过 Google Cloud 对外提供 TPU 算力服务。这等于从英伟达最大的客户,变成了英伟达的竞争对手。

TPU vs NVIDIA:规模优势惊人

• TPU 8t 超级 Pod(9600 芯片)算力:121 EFLOPS
• NVIDIA NVL72(72 芯片)算力:1.44 EFLOPS
• 规模差距:84 倍
• 万亿参数模型训练同价位下 TPU 快35-45%
• NVIDIA 单芯片性能仍领先(20 PFLOPS vs 12.6 PFLOPS)

英伟达目前仍控制超过 80% 的 AI 加速器市场,CUDA 生态的护城河极深。但投行的预测是:到 2027 年,定制 AI 芯片(包括谷歌 TPU、亚马逊 Trainium、微软 Maia 等)将占到超大规模客户加速器支出的25-30%

谷歌 TPU 最大的劣势是软件生态。英伟达的 CUDA 拥有 400 万开发者,谷歌的 JAX 框架采用率还远不在一个量级。芯片性能可以追赶,但生态建设需要时间。

六、三个判断

判断一:谷歌正在从”搜索公司”变成”AI 基础设施公司”。
搜索广告仍然是谷歌的利润奶牛,但增长引擎已经切换。云业务 48% 的增速远超广告业务,75% 的新代码由 AI 生成,AI 基础设施收入两年后预计达 480 亿美元。1850 亿美元的资本支出,本质上是在重建整家公司的底层架构。

判断二:”全栈 AI”是谷歌最大的结构性优势。
从芯片(TPU)到模型(Gemini)到平台(Google Cloud)到终端应用(Workspace),谷歌是唯一一家每一层都自己做的公司。这意味着它可以端到端优化——TPU 芯片架构为 Gemini 模型定制,Gemini 又为 Workspace 的 AI Agent 定制。这种垂直整合在 AI 时代可能比”开放生态”更有效率。

判断三:最大的风险是”花了钱但没拉开差距”。
1850 亿美元是一个惊人的数字,但微软、亚马逊的投入规模也不遑多让。如果三家巨头都砸完钱,云市场份额格局却没有实质性改变,那这轮 AI 资本支出竞赛的赢家只有一个——英伟达。对谷歌来说,TPU 自研芯片必须在成本和性能上持续证明自己,否则”全栈优势”就只是一句口号。

全球四分之一的 AI 算力,1850 亿美元年投入,百万芯片级的 TPU 集群,每分钟 160 亿 token 的 Gemini 调用量。这些数字拼在一起,画出的是一个正在从搜索引擎蜕变为 AI 基础设施巨头的谷歌。这场蜕变能不能成功,下周二的 Q1 财报会给出第一个答案。

卧卧智研· AI 行业深度观察
关注最前沿的 AI 技术与产业趋势