全球四分之一的AI算力,被谷歌一家握在手里:1850亿美元砸出来的算力帝国
|
DEEP TECH AI算力云计算芯片战争
|
|
核心看点 谷歌目前控制全球约 25% 的 AI 算力,是唯一同时拥有自研芯片(TPU)、自研模型(Gemini)和全球级云平台的科技巨头。2026 年资本支出飙升至 1750-1850 亿美元,同比翻倍。Cloud Next 大会发布第八代 TPU,训练芯片算力是上代 3 倍,推理芯片性能/成本提升 80%。Gemini API 每分钟处理 160 亿 token,Anthropic 签下百万芯片大单。谷歌正从”搜索公司”变成”AI 基础设施公司”。 |
如果把全球 AI 算力比作一块蛋糕,谷歌一家就切走了四分之一。
这不是比喻。根据多家投行的测算,谷歌通过自研 TPU 芯片和大规模 GPU 集群,已经控制了全球约 25% 的 AI 计算能力——超过微软、Meta,仅次于整个英伟达 GPU 生态。
更值得注意的是,谷歌是地球上唯一一家同时拥有三样东西的公司:自研 AI 芯片、自研大模型、全球级云平台。亚马逊有云没有顶级模型,Meta 有模型没有云,英伟达有芯片但不做模型也不做云。只有谷歌,从硅片到算法到基础设施,全链条自己干。
4 月 22 日的 Cloud Next 2026 大会上,谷歌亮出了最新的底牌。
|
一、1850 亿美元:史上最大的算力军备投入 |
2025 年,谷歌在基础设施上花了 914 亿美元。2026 年,这个数字要翻倍——1750 到 1850 亿美元。
这是什么概念?相当于每天烧掉 5 亿美元建数据中心、买芯片、拉光纤。比大多数国家的全年军费预算还多。
|
谷歌资本支出飙升 • 2024 年资本支出:527 亿美元 |
钱花在哪了?两个大头:一是疯狂建数据中心——2026 年谷歌在全球同时推进超过 20 个新数据中心项目;二是芯片,既买英伟达的 GPU,也大规模量产自研的 TPU。
华尔街的态度很有意思:一边担心自由现金流被压缩,一边又不敢不看好。三大投行对谷歌的目标价分别是——摩根大通 395 美元、花旗 405 美元、美银 370 美元——全部是”买入”。逻辑很简单:如果 AI 是下一个时代的操作系统,那现在不砸钱建基础设施的公司,未来就没有入场券。
|
二、第八代 TPU:训练和推理,第一次分家 |
Cloud Next 2026 上最硬核的发布是第八代 TPU——而且一次出了两款。
这是 TPU 历史上第一次把训练芯片和推理芯片拆开设计。以前是一款芯片两头兼顾,现在各干各的,各自极致优化。
|
TPU 8t(训练芯片) —— Broadcom 联合设计 • 台积电2nm制程 |
|
TPU 8i(推理芯片) —— MediaTek 联合设计 • 台积电2nm制程 |
为什么要分家?因为训练和推理对芯片的需求已经完全不同。训练要的是极致吞吐——越快算完万亿参数越好;推理要的是极致延迟——用户问一句,AI 0.1 秒就得答。一颗芯片很难两头都做到极致。
更关键的信号是:谷歌判断推理算力将成为独立的收入增长曲线。随着 AI Agent 大规模落地,推理需求的增长速度可能远超训练。单独做一颗推理芯片,就是为这个趋势提前卡位。
|
三、云业务狂飙:从第三名到挑战者 |
谷歌云过去一直是 AWS 和 Azure 身后的”老三”。但 AI 时代给了它弯道超车的机会。
|
谷歌云关键数据 • 2025 Q4 云收入:176.6 亿美元(同比 +48%) |
48% 的增速是什么水平?AWS 同期增长 19%,Azure 约 30%。谷歌云虽然体量还不到 AWS 的一半,但增速已经是行业第一。
更值得关注的是”160 亿 token/分钟”这个数字。上个季度才 100 亿,一个季度暴涨 60%。这说明 Gemini 的 API 调用量正在指数级增长——不是谷歌自己在用,而是外部客户在疯狂调用。摩根士丹利预测,到 2027 年谷歌 AI 基础设施收入将达到480 亿美元,是 2025 年的 2.3 倍。
|
四、Anthropic 大单:百万芯片绑定,数百亿美元赌注 |
谷歌最大的 TPU 外部客户是 Anthropic——Claude 的母公司。这笔交易的规模足以改变行业格局。
|
谷歌 × Anthropic 算力合作 • Anthropic 承诺使用最多100 万块Ironwood TPU |
这笔交易的战略意义远超商业本身。Anthropic 是 OpenAI 最大的竞争对手,也是目前最被看好的 AI 公司之一。把它绑在谷歌的 TPU 上,意味着:
|
第一,谷歌的 TPU 生态有了除自己之外的重量级客户,证明 TPU 不只是”内部玩具”。 |
|
五、挑战英伟达:从买家变卖家 |
谷歌做 TPU 最初是为了省钱——自研芯片比买英伟达的 GPU 便宜。但现在,事情正在起变化。
谷歌开始把 TPU 当产品卖了。先卖给 Anthropic,再谈 Meta,还通过 Google Cloud 对外提供 TPU 算力服务。这等于从英伟达最大的客户,变成了英伟达的竞争对手。
|
TPU vs NVIDIA:规模优势惊人 • TPU 8t 超级 Pod(9600 芯片)算力:121 EFLOPS |
英伟达目前仍控制超过 80% 的 AI 加速器市场,CUDA 生态的护城河极深。但投行的预测是:到 2027 年,定制 AI 芯片(包括谷歌 TPU、亚马逊 Trainium、微软 Maia 等)将占到超大规模客户加速器支出的25-30%。
谷歌 TPU 最大的劣势是软件生态。英伟达的 CUDA 拥有 400 万开发者,谷歌的 JAX 框架采用率还远不在一个量级。芯片性能可以追赶,但生态建设需要时间。
|
六、三个判断 |
|
判断一:谷歌正在从”搜索公司”变成”AI 基础设施公司”。 |
|
判断二:”全栈 AI”是谷歌最大的结构性优势。 |
|
判断三:最大的风险是”花了钱但没拉开差距”。 |
全球四分之一的 AI 算力,1850 亿美元年投入,百万芯片级的 TPU 集群,每分钟 160 亿 token 的 Gemini 调用量。这些数字拼在一起,画出的是一个正在从搜索引擎蜕变为 AI 基础设施巨头的谷歌。这场蜕变能不能成功,下周二的 Q1 财报会给出第一个答案。
卧卧智研· AI 行业深度观察
关注最前沿的 AI 技术与产业趋势
夜雨聆风