乐于分享
好东西不私藏

1850亿美元天价支出、75%代码由AI生成!谷歌正式宣告:全面转向智能体工作流

1850亿美元天价支出、75%代码由AI生成!谷歌正式宣告:全面转向智能体工作流

1750亿至1850亿美元。 这是谷歌CEO桑达尔·皮查伊在Cloud Next 2026大会上宣布的2026年资本支出上限——这个数字是2022年310亿美元的近六倍,是有史以来任何一家科技公司为单一技术领域投入的最高金额。

75%。 这是谷歌内部如今由AI生成并经人类工程师审核的新增代码比例——而仅仅一年半前,这个数字还只有25%。

两款芯片、一个平台、一只基金、一份协议。 谷歌在这次大会上用一连串硬核发布,向整个行业宣告:智能体时代的基础设施军备竞赛,谷歌不打算输。

一个时代的分水岭

在Cloud Next 2026大会的 keynote 上,皮查伊说了一句话:”随着我们步入智能体时代,我们正将相关布局推向新高度。”

这句话的重量,只有放在具体数字里才看得清楚。

1750亿至1850亿美元是什么概念?相当于某些中等规模国家的全年科技预算,足以买下全球所有主要芯片代工厂几个季度的产能。这些钱将流向数据中心扩建、定制芯片研发和能源基础设施——这三项构成了AI时代算力竞争的核心战场。

而”75%新增代码由AI生成”这个数字,则意味着谷歌的软件开发范式已经发生了结构性转变。在谷歌内部,这意味着数千名工程师的工作方式正在被重新定义:AI负责初稿生成,人类工程师负责审核和把关。尽管AI参与比例很高,人类工程师仍然是最终的守门人,代码的每一行都经过工程师审核和批准。 但速度的提升是惊人的——部分任务的完成速度提升了6倍。

行业对此心知肚明。正如一位参会者所说:“行业讨论的焦点已经从’我们能否打造一个智能体?’转向了’我们该如何管理成千上万个智能体?'” 这个问题的答案,将决定未来五年科技竞争的基本格局。

第八代TPU:为智能体量身定制

硬件层面,谷歌发布了两款第八代TPU芯片,这是本场大会最具实质意义的技术发布。

TPU 8t 是训练型芯片,专为大模型预训练和后训练设计。单集群可扩展至9600颗芯片,算力达到121 FP4 EFlops。这个规模已经超出了大多数人的直觉想象——9600颗芯片协同工作,相当于一个拥有近万个高性能AI计算单元的超级计算机。

TPU 8i 是推理型芯片,主打近零延迟推理体验。与传统推理芯片不同,8i专门针对智能体场景做了优化:SRAM容量提升了三倍,以应对智能体任务中大量的上下文切换和中间状态存储。更值得关注的是,TPU 8i是谷歌首款完全采用自研Axion ARM架构CPU作为主控的AI芯片——这意味着从控制层到计算层,谷歌在芯片层面实现了全栈自主。

两款芯片的分工背后,是一个重要的行业认知:训练和推理对硬件的需求差异越来越大,一颗”通用”AI芯片已经无法同时最优地满足两种场景。 智能体时代的长时程任务(单次运行6到12小时)需要大容量KV cache,多步骤推理需要高效管理内存对象,推理还需要将计算分布到更多地理分散的数据中心——这些需求将训练和推理芯片推向了完全不同的设计方向。

这一趋势也与谷歌Cloud CEO Thomas Kurian在同期采访中的表态一致。他强调,“TPU的优势来自整个栈,而不是单点芯片”——真正的壁垒在于从硬件、光学拓扑网络到软件工具链(JAX、XLA、Pathways)的整栈协同优化,以及用goodput(有效吞吐)和每瓦token数衡量的整体效率。

Gemini企业智能体平台:200多个模型的选择题

软件层面,谷歌将原有的Vertex AI升级为Gemini Enterprise Agent Platform,这是一个面向企业开发者的智能体开发平台。

核心定位是:成为数据、人员与业务目标之间的连接纽带。 具体来说,平台提供四大类功能:模型选择与构建、模型微调、智能体集成与编排、安全与合规。

最值得关注的是模型层。该平台一口气整合了超过200种模型,包括Gemini 3.1 Pro、Gemini Nano Banana 2、开源模型Gemma系列,以及Anthropic的Opus 4.7。这种程度的模型整合意味着:企业开发者不需要在多个平台之间跳转,在一个界面里就可以完成模型对比、选择和部署。

对于企业来说,这解决了一个实际的痛点:多模型管理。现实中,大多数企业不会只用一家供应商的模型——不同任务对延迟、成本和能力的权衡不同,混合使用多种模型是常态。Gemini Enterprise Agent Platform试图把这个过程变得更系统化。

7.5亿美元基金与天才们的选择

除了自研,谷歌还在用资本手段扩大生态。

谷歌宣布设立7.5亿美元专项基金,用于帮助合作伙伴开发智能体AI产品。 这只基金的逻辑很清晰:智能体时代的竞争,不只是技术竞争,更是生态竞争——需要第三方开发者、服务商和行业合作伙伴共同参与,才能把平台做大。

更引人注目的是谷歌与Thinking Machines Lab签署的数十亿美元协议。这家实验室由前OpenAI CTO米拉·穆拉蒂创立,是当前最受关注的前沿AI创业公司之一。这份协议意味着:即便是曾经站在OpenAI核心位置的技术领袖,在搭建自己的AI实验室时,也选择将谷歌云作为首选基础设施提供商。

这背后的信号值得玩味:在AI基础设施层面,谷歌云正在吸引最挑剔的那批客户。

全行业都在加速

谷歌的激进转型,发生在整个行业都在提速的背景之下。

微软的AI编程助手已经服务数百万开发者,GitHub Copilot的普及让”AI写代码”从一个实验性功能变成了日常工具。Meta通过开源Llama系列模型,推动了开源社区在代码生成领域的快速迭代。Snap CEO在近期访谈中透露,团队已经在多个产品环节深度使用AI生成代码,显著降低了功能开发周期。

在这场竞赛中,代码生成比例已经从”锦上添花”变成了”核心指标”。 75%不是一个终点,而是一个信号:它意味着软件开发的生产关系正在被重新组织,AI不再是助手,而是主力。

人类的角色正在重新定义

面对这样的转变,一个不可避免的问题是:**如果AI已经能生成75%的新增代码,工程师还在做什么?

谷歌的回答是:人类工程师仍然是”最终的守门人”。AI生成代码,但每一行都需要人类审核和批准。这个模式的前提是:人类能够理解和判断AI生成的代码——这意味着工程师的能力模型正在改变:写代码的比重在下降,理解代码、审查代码、设计架构、定义问题的比重在上升。

用皮查伊的话说:“有一种说法是:你只需要写prompt,不需要理解代码。但在复杂系统中,这是不成立的。” 在智能体工作流中,工程师的核心价值正在从”写代码”迁移到”定义任务”和”把关质量”。

这并非危言耸听,而是正在发生的范式转移。谷歌Cloud CEO Thomas Kurian在采访中也明确表示:“我们在增加人员。我们在销售、产品商业化、以及部署工程团队方面都在扩招。” 他的结论是:AI提升效率的同时也创造了新的需求——关键在于找到AI对社会有益的应用场景。

基础设施决定智能体时代的高度

回到1850亿美元这个数字。

这场天价投入背后的逻辑很清楚:智能体的能力上限,由基础设施决定。 更强的芯片意味着更快的推理、更低的延迟、更长的上下文窗口;更大的算力规模意味着可以训练更大的模型、承载更复杂的任务;更完善的平台意味着开发者可以更高效地构建和部署智能体。

这些要素缺一不可,而每一个要素都需要巨额投入。谷歌的赌注是:在智能体时代全面到来之前,先把基础设施建好。

“今年,我们将见证AI技术迈向新一轮发展阶段。” 皮查伊在大会结尾的这句话,与其说是预测,不如说是宣言。

智能体时代的军备竞赛,谷歌已经all in。