乐于分享
好东西不私藏

谷歌CEO:几乎所有的软件,都将面临一次重新构建

谷歌CEO:几乎所有的软件,都将面临一次重新构建

本文仅为作者个人观点,不代表私募工场(Funds-Works)立场。股市有风险,投资需谨慎。本号所刊全部内容和信息均不构成投资建议,据此操作风险自担。#私募基金 #世界经济 #巴菲特 #大国经济 #网络热点 #中美关系 #小说连载#国际经济 #马斯克

来源:复兴馆

本文内容整理自Sundar Pichai(桑达尔·皮查伊)在Stripe频道的专访,公开发表于2026年4月7日。

原始内容参考:https://www.youtube.com/watch?v=bTA8sjgvA4c

内容提要: 桑达尔·皮查伊在Stripe的专访

AI产品化与技术守擂: 皮查伊澄清了外界对谷歌在Transformer应用上的误解,强调谷歌早已将Transformer及后续的LaMDA等模型深度融入搜索及核心产品中。之所以延迟对外发布,是源于对搜索质量的严苛高标准,以及对端到端RLHF(基于人类反馈的强化学习)与安全性探索的审慎态度。
速度与延迟的博弈: 极低的延迟是打造卓越产品的核心。谷歌实行严苛的“毫秒级延迟预算管理”,在模型能力、响应速度与服务成本之间寻找帕累托最优,并通过全栈垂直整合(如TPU与Gemini的深度协同)来极致挖掘效率。
搜索的终极演进: 搜索不会被聊天机器人简单替代,而是正在进化为“智能代理中枢(Agentic Manager)”。未来的搜索将具备处理长期复杂任务的能力,通过代理式工作流直接替用户解决问题,而不再局限于提供网页链接。
秉持非零和博弈观: 皮查伊坚信,AI的发展进程是“做大蛋糕”,而非零和博弈。他以YouTube应对行业竞争为例,指出只要保持持续创新,AI必将为各大业务板块带来指数级的规模扩张机遇。
对AGI的坚定预判: 谷歌内部对技术发展曲线的预测与外界前沿共识高度一致,绝不存在认知滞后。高达1800亿美元的巨额资本投向,正是谷歌对冲刺AGI及AI指数级爆发潜力深信不疑的最佳佐证。
突破现实物理法则制约: AI的大规模扩张正面临现实世界的物理壁垒——包括晶圆产能、电力能源以及内存等关键零部件的供应链制约。但皮查伊指出,这些瓶颈恰恰是创新的催化剂,将倒逼更高效的模型压缩技术与资源循环利用机制的诞生。
前瞻性创新布局: 谷歌正重仓未来:利用量子计算模拟自然法则、借助Gemini的多模态跃迁突破机器人技术、探索太空数据中心以彻底解决地球物理承载力上限,并通过Isomorphic Labs重塑药物研发范式。
算力霸权下的资本配置: 面对多元化的投资组合,谷歌以底层技术的关键里程碑(如突破纠错量子比特阈值)和长期期权价值作为研发投入的标尺。在算力极度稀缺的当下,皮查伊每周都会亲自进行细致入微的计算资源(TPU)调度与分配。
奇点临近,AI重塑组织: AI正在彻底重塑企业内部工作流,从工程师的“提效工具”跃升为非工程领域的“智能大脑”。皮查伊大胆预测:2027年,将是AI代理式工作流在企业内部迎来大规模爆发与重构建的“奇点之年”

内容简介

作为谷歌及Alphabet的现任CEO,Sundar Pichai与John和Elad Gil展开了一场深度对话,探讨了谷歌如何在白热化的AI军备竞赛中强势归来。访谈揭秘了他如何驾驭高达1800亿美元的超量资本支出,以及为何他断言2026年将遭遇严峻的“算力供应链紧缺”。

在对话中,他们不仅剖析了内存与电力双重枷锁的制约,探讨了AI为何能成为美国经济强劲增长的新引擎,更分享了谷歌内部重拾“Googley”极客乐观主义精神的文化重塑。此外,皮查伊还披露了令人瞩目的前沿长线押注——例如将数据中心搬上太空。他也坦言,自己唯独遗憾当初没能比想象中更快地为Waymo注入资金;在对谈末尾,他还分享了在谷歌内部,究竟是怎样一个看似不起眼的细节,至今仍在点燃他创造与构建的热情。

访谈全文

主持人John: 桑达尔·皮查伊(Sundar Pichai)担任谷歌 CEO 已满十年。如今,Alphabet 不仅是全球最大的科技公司之一,更是人工智能竞赛中的领跑者,并计划在 2026 年投入 1750 亿美元用于资本支出 (CapEx)。干杯。感谢你能来参加访谈。 (桑达尔:干杯。很高兴受邀前来。)

谷歌与人工智能的发展历程

人们在讨论谷歌与 AI 时,经常会提及这样一段历史:Transformer 模型是在谷歌发明的,但它发扬光大并实现产品化却是在谷歌之外完成的,最具代表性的就是 ChatGPT 及其同类产品。你现在如何看待这一点?我觉得这确实是个值得探讨的话题。

桑达尔·皮查伊: 外界对此其实有些误解。要知道,Transformer 模型是在内部大量使用 TPU 的背景下开发出来的,它们在很大程度上都是为了解决特定的产品需求而诞生的。例如,当时团队正在思考如何提升机器翻译的质量。在 TPU 的案例中,我们面临的挑战是:“看,语音识别系统运行得很好,但现在你突然要为 20 亿用户提供服务,而我们根本没有足够多的芯片。”这就演变成了一个问题:如何解决这种庞大计算规模下的推理 (Inference) 需求?而这恰恰催生了 Transformer 模型。

尽管 Transformer 出自研究团队之手,但其核心驱动力始终是解决实际的产品痛点建设。因此,它们被火速应用于产品中。人们经常低估 BERT 和 MUM 带来的巨大影响力,因为我们对搜索引擎质量的衡量标准极其严苛 (religiously);但是在那个时期,搜索质量的几次重大飞跃——即谷歌搜索将其他竞争对手远远甩在身后的阶段——正是由这些模型驱动的。

我们打造了 Transformer,并立即将其应用于搜索引擎,极大提升了语言理解能力,让搜索引擎能更精准地解读网页和用户的查询意图。与此同时,我们也在马不停蹄地研发更强大的模型。那时,我们实际上已经在内部开启了技术产品化的进程,团队正在研发一个名为 LaMDA 的项目。

显然,我们并不是第一家向公众发布这类产品的公司,但我不认为这是因为我们“只重研究而忽视产品落地”。我觉得事实并非如此……

主持人John: 这就像是,你们做了开创性的研究,在最初设定的应用方向上获得了巨大的投资回报率 (ROI),然后你们虽然没有发明出后来所有基于这项技术的新产品,但这也是情理之中的事。

桑达尔·皮查伊: 我想再深入一步讲。我们实际上不仅构想出了类似于 ChatGPT 的产品形态,我们连产品都有了——那就是 LaMDA。你可能还有印象,当时内部甚至有位工程师坚信 LaMDA 已经具备了自我意识 (Sentient),对吧?所以,你可以把它看作是谷歌内部供员工交流使用的一个早期版 ChatGPT。在某个“平行宇宙”里,我们早就拥有了它的产品化版本,而谷歌大约在九个月之后也发布了类似的产品。

事实上,在 2022 年的 Google I/O 大会上,我们就推出了一个名为“AI Test Kitchen”的项目,其中的核心就是 LaMDA。然而,我们当时对它进行了严格的限制,因为在内部,我们还没有跑通基于人类反馈的强化学习 (RLHF) 的端到端版本。我当时看到的内部版本,其发言的有害性 (Toxic) 要高得多——以至于我们当时根本无法将其公开发布。

作为一家对搜索质量极度偏执的公司,我们对公开发布的 AI 产品有着极高的质量底线。 这并不是说我们没有能力发布产品,而是我们当时仍在摸索如何负责任地将其推出。

我还想指出一点,即使 OpenAI 发布了 ChatGPT,他们当时也很可能才刚刚敲定与微软的合作没几个月。所以事后回看,其实也很难说他们当时就具备了绝对的领先优势。但我认为他们非常幸运,在 GitHub 的代码层面捕捉到了重要的发展信号——而这个信号,我们可能错过了。

你可能会觉得,在代码层面看到的代际飞跃,比单纯在语言层面要大得多。确实如此,如果你用它来写代码,GPT-2 到 GPT-3,以及后来跨越到 GPT-4 的进步无疑更加显著,你能明确指出它的突破点。所以,回到你最初的问题,这其实不仅仅是“研究能否转化为产品”的问题,而是由一系列其他因素共同决定的。

主持人Elad: 我也记得跟一些参与开发 ChatGPT 的人聊过,他们好像是在感恩节那一周匆匆上线的。那更像是一次“悄无声息的低调发布”。它当时并没有被当成一件具有重大战略意义、将决定公司未来的大事来高调宣传。我觉得它在当时只是一个很酷的测试用例。这确实非常有趣。

桑达尔·皮查伊: 我从这些经历中内化出的感悟是:只要你身处消费互联网行业,就注定要面对各种出人意料的变局。 当年我和 Eyal 还在谷歌负责“Google Video Search”时,YouTube 横空出世了,结果呢?我们最后直接收购了 YouTube。再想想,当 Instagram 爆火时,如果你在 Facebook 工作会是什么感受?事后没人会觉得这些时刻有多么惊心动魄,因为 Facebook 反手就把 Instagram 买下来了。

但我深刻地认识到,在消费互联网领域,总会有那么三个人坐在某个角落里疯狂地制作原型,碰撞出成千上万个点子。我不是在贬低任何人的努力,我是说你永远会遇到这种“黑马时刻”。

我不认为会有人在车库里一觉醒来,就能轻而易举地造出一部比 iPhone 更好的手机——这不可能。但消费互联网的生存法则就是如此充满变数。你必须对此保持清醒,并将其内化于心。

速度与搜索

主持人John: 当我展望 2026 年的 AI 军备竞赛时,有一点让我印象尤为深刻:长久以来,“速度”一直是谷歌用来打造差异化优势的杀手锏。早期的谷歌搜索非常快,甚至会把那极短的搜索耗时直接展示在结果页上来“炫技”。后来的 Gmail 搜索速度远超同时代的竞品,Chrome 浏览器相比其他浏览器也是快若闪电。现在,为了应对不同的工作流,市面上的各类 AI 服务我全都在用,但我发现,运行在 TPU 上的 Gemini 速度简直快得惊人。我很好奇,这在多大程度上是你们明确的产品战略?你是怎么看待这个问题的,还是说这背后的考量要微妙得多?

桑达尔·皮查伊:我一直将速度——在这里我们且称之为低延迟 (Latency) ——视为一款卓越产品的核心标志之一。它几乎不加掩饰地宣告着:这款产品的底层技术根基打得极其扎实。

当然,还有另一种同样至关重要的“速度”:那就是交付、迭代和发布周期的速度。这两者都不可或缺。

不过,当你谈论延迟时,口头上说要追求极致速度很容易,但实际上你总是在不断地给产品叠加新功能。随着模型能力的边界被不断拓宽,如何在功能与速度之间找到绝佳的平衡点,就成了一个巨大的挑战。这也是事情变得复杂的地方。

以搜索为例:

我和团队们深聊过,他们现在给各个子团队设定了极其严苛的、以毫秒计算的“延迟预算 (Latency Budget)”。规则大约是这样:如果你交付的功能为系统省出了 3 毫秒的延迟,那么你的团队能获得 1.5 毫秒的延迟奖励额度,而剩下的 1.5 毫秒则直接反馈给用户以提升体验。我们会根据你负责的项目,分配比如 30 毫秒或 10 毫秒的延迟额度。你可以使用这些额度,但必须经过极其严苛的代码审查。这就是我们对速度的痴迷程度。

主持人Elad: 速度确实至关重要。作为背景补充,我估计人类对延迟的感知阈值大概在几百毫秒左右,对吗?就在实际影响市场反馈的层面而言。

桑达尔·皮查伊: 是的,没错。完全正确。过去几天我们查看了业务看板和各项指标,在过去五年里,我们实际上将搜索延迟降低了30%。但回想一下这期间功能的发展跨度有多大。这就是为什么在研发 Gemini 时,我们深入思考了“帕累托前沿”(Pareto Frontier),以确保在模型能力和推理速度之间找到最佳平衡。你看,轻量级模型(Flash models)的能力大概能达到 Pro 模型 90% 的水平,但速度却快得多,服务端的推理效率也更高,而我们的垂直整合(Vertical Integration)在其中发挥了极大作用。

主持人Elad: 您认为搜索的未来真的会怎样发展?因为现在很多人都在谈论将对话(Chat)作为一种全新的交互界面。显然,在谷歌的版图中,Gemini 已经被整合进去,或者说搜索已经天然融入了 AI 的结果。但现在外界更关注的是“智能体工作流”(Agentic flows),即每个人都会拥有一个私人智能体。你不再需要输入查询指令,而是直接让它去替你办事。比如,不再是搜索旅行信息,而是让它直接帮你整个行程规划好。您如何看待搜索的未来?它是一种分发机制,还是一个未来的新产品?又或者,它只是未来人类与世界交互的无数种方式之一?

桑达尔·皮查伊: 我觉得,搜索的每一次代际变迁,都赋予了用户更强大的能力。我们必须吸收这些新能力,不断拓宽产品的前沿边界。回顾移动互联网时代,产品的进化极其迅速:当你走出纽约地铁,想看网页,想去某个地方,你要怎么找?用户的期望在不断改变,而我们也要亦步亦趋。展望未来,当前很多纯粹的信息检索需求,将在搜索中演变为智能体交互(Agentic interaction)。届时,你将能直接完成各种复杂任务,甚至多管齐下地并发处理海量线程。

主持人Elad: 十年后,搜索还会存在吗?

桑达尔·皮查伊: 它会不断进化。搜索可能会演变成一个“智能体管家”(Agent Manager),你在其中处理各项繁杂事务。就像我现在使用antigravity一样,你手下会有一组智能体在替你干活。我可以预见,未来搜索会演化出各种版本的功能形态,帮你把一堆事情处理妥当。

主持人John: 我觉得你这个问题的核心在于,如果你把“搜索”依然定义为一个不超过一行的提示词(Prompt),然后返回一堆带有排名的网页链接,而不是直接告诉你正确答案。那你的意思是,这种传统模式是否会消失……

桑达尔·皮查伊: 如今在融入 AI 模式的搜索中,人们已经在进行深度的研究型查询了。所以,这已经不太符合你刚才对搜索的传统定义。人们正在调整自己以适应 AI 时代。所以我认为,未来人们会让搜索去执行长期运行的复杂任务。

主持人Elad: 这就像是走向异步交互(Asynchronous)了。生命最初是单细胞生物,后来演变成如今复杂的生态系统。所以真正的问题在于,旧版的“搜索范式”最终会完全消亡吗?原本的搜寻引擎直接变成了智能体,未来的交互界面也是智能体,而十年或N年后的“搜索框”这种物理存在(或产品形态)就不复存在了?

桑达尔·皮查伊: 硬件设备会更迭,输入输出(I/O)方式也会发生颠覆性的改变。去硬性预测后十年的事是很难的,过度思虑反而容易让人陷入内耗。然而,我们很幸运地置身于这样一个伟大的时代:前沿技术的指数曲线如此陡峭,哪怕只着眼于未来一年,也足以令人热血沸腾。 过去,你可能需要干坐着苦思冥想五年后的愿景;而现在,短短一年内,模型就会发生翻天覆地的跃迁。驾驭这条陡直的增长曲线本身就是一件激动人心的事情;这不仅是技术的演进,更是一个无限扩张的时代。

在这个历史性的转折点,很多人严重低估了一点:这绝非一场非此即彼的零和博弈(Zero-sum game)。人类未来所能创造的价值,同样处于一条疯狂的上升曲线上。 一旦你跳出零和博弈的桎梏,你就会意识到,科技浪潮正在把整块蛋糕无限做大。举个例子,即便面临 TikTok 和 Instagram 的强力竞争,YouTube 依然表现强劲;这样的例子我能举出很多。

你越是陷入零和博弈的思维定势,前路就越是举步维艰。 只有当你停止创新,或者你的产品停止进化时,它才会真正变成一场零和博弈。只要你始终伫立在创新的最前沿,你必将赢得未来。我们正在同时推进 Google 搜索和 Gemini,虽然它们在某些应用层会有交集,但未来也会产生极其深远的差异化发展。我认为同时拥有这两者,并且张开双臂拥抱这种进化,是一件极具战略眼光的好事。

谷歌的 AI 绝地反击

主持人John: 当我们探讨搜索的现状及未来趋势时,我不禁想起大概一年前——大概在25年的春夏季——当时整个市场对 Google 的情绪跌至冰点。主流观点都在唱衰,认为“Google 搜索已经穷途末路”,将面临毁灭性打击;核心商业模式正遭受猛烈抽打等等。当时 Google 的股价大约在150美元左右徘徊。但现在看来,人们恍然大悟:那种看法是多么愚蠢。Google 在整个技术栈上展现了压倒性的底蕴,不论是上层应用、底层模型、TPU算力基础设施,还是 Waymo、YouTube 以及谷歌的各项创新探索业务(Google Bets)。

投资者本身代表了一种信息敏锐的市场情绪,您认为他们在去年这个时候对谷歌产生了哪些根本性的误解?因为很显然,当时外界存在巨大的认知偏差。

桑达尔·皮查伊: 那个时候,我显然把绝大部分精力都高度聚焦在公司内部的防线和建设上。对我而言,大局势非常清晰:整个社会的“奥弗顿之窗”(Overton window,指公众所能接受的政策或思想的范围)已经转移了。而我深信,我们公司生来就是为了迎接这一刻的。

我们在软硬件上的垂直整合绝非偶然,而是深思熟虑的战略布局。我们当时不仅已经进展到了第七代 TPU。而且我依然记得,早在 2016 年的 Google I/O 大会上,我们就发布了 TPU,并向外界阐述了我们是如何构建 AI 数据中心的。

那可是 2016 年!我们当时就在战略层面上思考,公司该如何以“AI 优先(AI-first)”的模式全面运转。可以说,我们早就内化了这种范式转移。

所以在我看来,尽管当时由于大语言模型(LLM)的突然爆发,我们在一些前沿模型上显得落后了半步;但不要忘了,内部早就积累了所有底层的硬核能力,我们要做的就是强悍执行,去抓住这个时代机遇。

真正令人振奋的是,当我从全栈(Full-stack)的宏观视角重新审视时,我看到我们拥有世界顶尖的研究团队,无可匹敌的基础平台设施,并且我们在许多业务线上都做过极具前瞻性的投资。就在那一瞬间,我有一种醍醐灌顶的感觉:哇!我们竟然拥有了一种能够直接为所有核心业务全面加速的通用底层技术。 无论是搜索、YouTube、Google 云 还是 Waymo,都可以仰仗这项技术的共同突破而实现飞跃;这是一种杠杆极高的破局路径,这一点我看得很透彻。

回到刚才讨论的观点,我压根不觉得这是一个“你死我活”的零和时刻。我预感到万事万物的规模都将呈 10 倍级爆发扩张,市场上绝对有足够广阔的空间容纳其他人一起成长。回顾历史,哪怕是在 Google 和 Facebook 强势入局之后,亚马逊依然交出了极其亮眼的成绩单;我们总是轻易低估科技浪潮把这盘大棋盘活的协同增长效应。

归根结底,作为一家公司,我们唯有把执行力磨砺到极致,这也正是为什么我当时说“我高度聚焦于公司内部执行”的原因所在。

主持人John: 是哪一刻向外界证明了你们确实已经“接管比赛”了呢?是让人惊呼“哦,谷歌做到了”的那个瞬间。是 Gemini 3(发布改变了人们的看法吗?我对这些具体的时间线不完全清楚。

桑达尔·皮查伊: 我认为真正让大众见识到我们实力的,应该是 Gemini 2.5。这个模型真正触碰到了行业的前沿天花板,尤其在多模态(Multimodality)能力上。这绝对要归功于 Google DeepMind 团队的杰出贡献。

我相信不管前期投入了多么高昂的固定研发成本都是值得的。因为我们从设计之初的第一天起,就把 Gemini 的架构打造成了原生多模态(Natively multimodal)。正因如此,我们的差异化优势才开始在很多特定领域凸显出来;比如那些引发热议的“Nana Banana”,在这其中你能直观地看到所有强大的能力被完美融合。

但无论如何,这是一个惊心动魄、极其充满变数的前沿阵地。放眼全球,真正留在这个牌桌上的只有两到三家顶尖的 AI 实验室,大家正以极高的烈度你追我赶,相互逼出彼此的极限。

主持人Elad: 确实如此。

桑达尔·皮查伊: 毫无疑问,在任何一个月里,我们都会觉得:“太棒了,这事我们做得不错。”但转头又会惊觉:“糟糕,有几件事我们落后了。”但我认为,几个月后局势又会发生动态变化。前沿领域的竞争正如你所料般白热化,局势永远在动态变化中。这就是我的看法。

主持人Elad: 这很有意思,因为当我与谷歌以外、或者其他顶尖实验室的研究人员交流时,他们普遍提到这样一个观点:他们觉得谷歌团队与另外两三家头部实验室最大的区别在于,谷歌并没有像他们所说的那样**“对AGI产生狂热爱热仰”(AGI-pilled)**。换句话说,对“AGI即将到来”以及随之而来的技术狂飙,谷歌的信仰似乎没那么深。显然,谷歌内部对此一直在进行深刻的思考。那么,第一,你认为外界这种看法真实吗?第二,你认为这种观念上的差异,是否会影响人们对未来究竟是什么样子的认知,从而决定了大家当下正在构建怎样的产品?

桑达尔·皮查伊: 你看,我们已经将资本支出(CapEx)从300亿美元大幅追加到了近1800亿美元。如果你对未来的技术曲线(Scaling Law)没有极其坚定的预判,是绝不敢下这种血本的。我认为外界的看法很大程度上是语义上的误解。或许因为我们是一家体量极庞大的公司,产品触达了各个圈层的海量用户,所以我们在谈论AGI时,使用的语言和表达方式会有所收敛和不同。

实际上,我认为核心创始人们绝对是**“对AGI具有狂热信仰”(AGI-pilled)**的。这大概是我在这个行业最早接触到的理念。所以,外界说谷歌没搞懂什么是AGI,或者说Demis(哈萨比斯)、Jeff Dean和他们的团队不懂AGI,这种观念根本站不住脚。你想想,在过去的某个时刻,Demis、Jeff、Ilya(伊利亚)、Dario(达里奥)这些顶级大脑都齐聚在谷歌。这本身就足以说明一切。

主持人John: 我喜欢你这个反驳。简直就像在直击灵魂:“喂,擦亮眼睛,过去这二十年你们到底有没有在关注行业真相?”

桑达尔·皮查伊: 没错,所以这种言论在我看来毫无逻辑。我觉得部分原因可能在于,如果你是一家非常年轻的公司,或者是一个纯粹的研究实验室,总部又恰好设在旧金山,这些外在属性的叠加确实会营造出一种更为激进的氛围标签。但在最底层的信仰上,大家对于技术曲线走向的预期,以及我们如何消化吸收这项技术,并没有本质的分歧。你看,即使在谷歌内部,我们中也有一群人生活在刀尖般的创新前沿:不断启动内部测试智能体(Agents),观察它们的潜力,看着它们自主学习技能、执行任务;同时也会将它们现在的能力与三个月前进行跨维度对比。在谷歌内部,我们正实实在在地经历着这种指数量级的狂飙。

主持人John: 我深表赞同,这确实印证了谷歌的发展史。但外界想表达的其实是一种直观感受——就像我前阵子刷到的一条推文,上面说:要解释硅谷现在到底在发什么疯,你必须意识到,现在**每一位科技高管都患上了严重的“AI狂热症”(AI Psychosis)**,他们正大把大把地把时间砸在写代码和跟AI聊天上。我觉得这个说法极其生动,而且不无现实依据。我很好奇,在这一路走来的近期工作中,让你真正拥有“感受到AGI(Feeling the AGI)”的决定性瞬间是什么?或者说,你现在的“AI狂热症”到底到了什么程度?

桑达尔·皮查伊: 我第一次“感受到AGI”的震撼时刻要追溯到2012年,当时Jeff Dean为我们演示了初代Google Brain——那就是神经网络第一次认出“一只猫”的破冰时刻。接着大概是2014年,我和Larry(拉里·佩奇)去看了DARPA机器人挑战赛,看着那些汽车在真实场地里自动驾驶。再有就是Demis演示那些具备了所谓“想象力”的早期模型。这种顿悟时刻数不胜数,技术的狂奔肉眼可见。

至于活在现在、让你产生最本能、最强烈震撼的切身体验,最接近的场景大概是:当你准备写代码时,直接丢给AI一个复杂任务,你甚至都不需要打开IDE(集成开发环境),而是身处某种智能体(Agent)的调度界面中,亲眼看着它自主把一切搞定。你会真切体会到那股力量有多么恐怖。如果愿意,你完全可以将这种体验称为“具身感受AGI” (Feel AGI)。确实,生活中越来越多这样让人灵魂激荡的瞬间。

主持人John: 没错,太对了。我最近自己弄了个业余小项目,运行了一段时间后我才突然反应过来:“咦,这项目到底是用什么语言写的?”这种底层细节,我居然等到整个程序完全跑通之后,才想起来去询问它。

桑达尔·皮查伊: 就像施了魔法一样。确实,这种不可思议的瞬间绝对存在。但真正让人脊背发凉的,是这条技术曲线攀升的恐怖斜率。当我们在极其庞杂的范式上全方位地推动其进化时,未来必将面临更猛烈的大爆发,这一点已经毋庸置疑,对吧?

主持人John: 当你谈及这种强烈的“切身体验”时,我觉得对于科技公司来说,有一点至关重要——尽管每位CEO的执行心法各异——那就是:你如何保持对产品体验和真实用户的极度敏锐?科技产品往往高度抽象,人太容易悬在半空脱离实际了;你绝不能仅仅靠听团队报告、看精美的PPT或干巴巴的Excel表格来做管理。

比如,DoorDash的CEO Tony Xu就曾说过,他至今仍会亲自去当外卖骑手,就是为了死死咬住那种一线的真实体验。在我们每周的全员大会上,也有一个雷打不动的环节叫“巡店(Walk the Store)”,大家一起在后台仪表板上到处点点看看。最后我们往往会发出一连串灵魂拷问:“这个弹窗为什么会塞在这里?”或者是发现某处交互极度让人困惑,这么做仅仅是为了迫使整个团队都来当一回真实用户。

所以我很好奇,这在你身上是怎么运作的?在谷歌这样的庞然大物里,你如何确保自己没有从真实的产品体验中脱离?应该不仅仅是因为你每天都在高频使用Gmail这些产品吧?

桑达尔·皮查伊: 噢,当然不是,我们有强烈的“吃自家狗粮”(Dogfooding)文化——也就是强制使用产品的内部开发版本。我会专门在日程表上圈出整块的无干扰时间,像个强迫症一样去高强度地把玩产品。这招绝对管用。

举个例子,就在两周前的健身房里,我一边拉伸一边拿着手机打开了 Gemini Live。我决定就死磕一个话题,跟它结结实实地聊满30分钟。你就得逼自己去干这种事。在这期间,有些功能丝滑得让人惊艳,有些则卡顿得让人抓狂,但正是在这种反复拉扯中,你会获得最真实的深度洞察。

我会强迫自己切换到极端的“重度极客模式(Power User)”去使用产品,以此保持对它底层运行机理的敏锐触觉。此外,像X(推特)这样的社交平台也是绝佳的试金石,因为在那儿你能被用户最直接、最粗粝的反馈砸中。比如用户会直接喊话:“谢天谢地,你们终于修了这个BUG。”

主持人John: 没错。

桑达尔·皮查伊: 或者会有同事直接回复用户:“感谢老铁反馈问题。”所以说,X平台确实是获取这种不加滤镜的原始评价的重要渠道,而且我一直坚持亲自去盯这些反馈。

主持人Elad: 非常有道理。

桑达尔·皮查伊: 但如果说有什么内部工具起到了颠覆性的作用,那就得切回我们刚刚聊到的话题了。比如,我会直接向Ant-Gravity——这是我们内部使用的AI工具——下达指令:“嘿,我们刚刚全量发布了这个新功能,外界反响如何?立刻给我列出全网吐槽最惨的五个痛点,以及口碑最好的五个亮点。”我只需要敲开回车,它瞬间就能把最核心的洞察直接喂到我面前。

所以,我的管理效能变高了吗?绝对的。如果放在过去,我得耗费成倍的心血和时间,试图在浩如烟海的数据中去“嗅”出用户的真实情绪。但现在,私人AI智能体(Agent)已经接管了这段繁复的旅程。

这就立刻带来了一个直击灵魂的悖论:在追求“手感”这件事上,我到底还需要投入多少时间去“事必躬亲”,又该在多大程度上彻底放权给这些神级工具?即便是我自己,也依然在这条摸着石头过河的路上,努力重塑自我,试图适应这个轰然而至的未来。

主持人Elad: 我想你提到了两点:A,这不是零和博弈;B,人们正在看到各方面的生产力提升。回顾以往的诸多技术周期,互联网、移动互联网或软件即服务(SaaS)在实际GDP数据中显现出来都需要时间。在AI的背景下,我们正从数据中心建设的角度看到这一点,这正在驱动部分GDP增长。展望未来三到五年,你认为美国经济会因为AI而实现规模扩张吗?如果是,规模能扩大多少?

桑达尔·皮查伊: 要让这些投资回报合理化,它必然在某个环节……我想大概是红杉资本(Sequoia)之前有人写过文章,指出人们目前投入了多少巨资。

主持人John: 对,他们把资本支出(CapEx)和……进行了对比。

桑达尔·皮查伊: 但在两年半前,就有言论称这种投资不合理,因为你需要达到相应的收入级别才能回本。而从那时起,投资规模可能已经翻了10倍(10x)。我得再去查证一下具体数据。所以不可避免地,在某个时间点,投入与产出必须达到平衡。但我要明确一点:我们目前处于供应受阻(Supply Constrained)的状态,我们在所有的业务层面上都看到了庞大的需求。

主持人Elad: 我丝毫不怀疑这是一个前景广阔的巨大市场。我认为人们低估了很多事情:比如,大家常讨论软件工程预算,以及其中Token(代币)支出与人员薪金的比例。但在某种程度上,我认为优秀的软件工程师市场一直处于严重的需求受限状态,如果突然增加产能供给,可能会让该市场规模扩大10倍。换句话说,我认为软件工程和编程的市场规模比任何人预想的都要大得多。仅仅比较Token预算与工程师薪酬是一个错误的衡量指标。因此,我认为AI会全面带动许多领域的增长。我只是很好奇,你认为这种增长的实际潜力究竟有多大。我完全没有质疑资本支出与最终收益的匹配问题。

桑达尔·皮查伊: 我们不妨回顾一下互联网的发展与GDP增长的关系。你会发现,宏观GDP数据并不能完全反映我们从互联网中获得的真实切身感受。也许如果没有互联网,GDP早就出现负增长了。所以未来的确很难完全预测。但我认为,社会在其各个层级都内在地存在着自然的“减震机制”(Dampening Mechanisms)。

显而易见的一点是,算力建设(Compute Build-out)的增长曲线与我们优化模型速度的曲线截然不同。你在算力上对应的是一条更加受限的物理曲线。接下来就是如何将技术普及到社会中的问题。我们正在 Waymo 自动驾驶上经历这个过程。

你可以让 Waymo 做到比人类驾驶员更安全,但在大规模推广时,你必须谨慎控制节奏。因此,如何负责任地将技术融入社会,在各个层面都存在着制约因素。不过,考虑到美国经济规模比十年前庞大得多,哪怕AI仅仅能为其额外贡献0.5%的增长率,那也是一项极其巨大的贡献。所以我预期事情会沿着这个方向发展。

发展的瓶颈

主持人John: 你刚刚提到了产能受阻(Supply Constraints),我认为这将是2026年的一个非常有趣的定义性特征。你刚说资本支出是1500亿美元还是1800亿美元?我们预测会在1750亿到1850亿美元之间。好的,那就是大约1800亿美元的资本支出。让我感到有趣的是,即便是谷歌想掏出4000亿美元,它也没法花出去,因为内存不够,电力不足,各种零部件都受到限制。你能梳理一下吗?我很想听听你对这几个主要瓶颈的整体看法。

桑达尔·皮查伊: 在某种程度上,你必须将问题追溯到实际的晶圆产能(Wafer Capacity)等硬件层面。这里存在一些更底层的“基本事实”(Ground Truths)。晶圆投片量(Wafer Starts)本身就是一个根本性的制约。相比之下,我认为电力和能源问题反而是更容易被解决的。行政许可审批和应对监管环境,可能才是一个真正的限制因素,它们决定了你推进事情的速度。

主持人John: 尽管在得克萨斯州或内华达州等支持经济增长的地区有大片土地。

桑达尔·皮查伊: 即便是蒙大拿州,可能也不够用。但我认为我们在改善基建方面正在取得巨大进展。对美国而言,这尤为关键。大家往往对中国建设事物的惊人速度感到敬畏,所以我们确实需要学会如何大幅加快建设速度。你几乎必须完成一种思维方式的跃迁:去思考在物理世界中如何将建设速度提升10倍。 但我确实会将其视为一个潜在的瓶颈。

这里可能会出现越来越大的社会阻力。这并不是少数几个人决定“加快建设”就能简单兑现的,特别是考虑到数据中心建设禁令(Data Center Moratoriums)等现实问题。我还要再次重申晶圆投片量以及为这些项目获取行政许可的能力。话虽如此,政府目前确实在积极推进很多有益的工作,因为大家已经开始意识到这些流程必须以更高效的方式来处理。

接下来是供应链中的关键零部件。内存(Memory)就是一个典型代表,短期内我们在这些方面依然受限。尽管整个行业最终都会对这些压力做出响应,但对于我们这些经营公司的人来说——不管我们对通用人工智能(AGI)的信仰有多深,对它的未来有多狂热(AGI-Pilled)——都必须留出容错空间(Margin of Error)。我们必须反思:你到底能有多盲目乐观?你能承受多少利润被侵蚀的风险?世界上总会有不可控的外部因素导致预定计划出现偏差,所以每个人都在进行必要的动态调整。

归根结底,这些都是现实世界的硬性制约。如果有人问内存是不是最卡脖子的零部件,我会说它绝对是我们当下考量的最关键因素之一。

主持人John: 你提到这只是短期现象,你是否认为只要人们全力拉升产能,借助高昂的市场价格机制就能自然解决这个问题?

桑达尔·皮查伊: 顶配的内存企业是不可能在短时间内瞬间大幅拉升产能的。所以你在短期内必然会处于受限状态,不过随着时间推移,瓶颈会逐渐松动。我预计所有这些因素在此期间都会形成多重制约。顺便一提,我认为这种制约也会倒逼出诸多伟大的技术创新,比如它会逼迫我们将这些设备的能效猛提30倍。 所有的这些进化实际上都在同步发生。

主持人Elad: 这是否会巩固寡头垄断市场?当你仔细观察模型层面,特别是考虑到未来众多模型的演进路线时,你会发现很大一部分动力将依赖于“自我改进”(Self-improvement)。也就是说,模型将开始自主编写越来越多自身所需的代码,为自己完成更多的数据标注等等。

主持人John:目前这基本上就是一场关于谁拥有算力(Compute)的“抢椅子游戏”。

主持人Elad: 完全正确。核心比拼的就是谁当下拥有算力,以及相对于全行业的整体容量,你实际能将规模扩张(Scaling)到什么地步?如果所有人达到某个数值前基本处于势均力敌的水平,那这实际上就为拔尖者领先其他人的幅度设定了天花板。你认为这种说法对吗?

桑达尔·皮查伊: 我认为这是一个合理的思考框架。但我也会提出一些不一样的看法,毕竟我们刚刚发布了Gemma 4。这是一个非常出色的开源模型。虽然中国的模型也很优秀,但放眼中国之外的地区,它确实是非常顶尖的开源模型。

你要知道,最前沿模型到Gemma 4的差距其实是多维度的,巨大却又没那么遥远,因为Gemma 4就是基于Gemini 3的架构打造的。这是件十分不可思议的事:你想想看,你谈论的只不过是一组能够轻易装进U盘的权重数据。

主持人Elad: 没错,这确实是个极佳的角度。它不像发射一艘巨大的SpaceX火箭那样具有实体感,这真的很疯狂。我总是为此感到震撼:你们在轰鸣的数据中心里训练了几个月又几个月,最终掉出来的产出仅仅是一个单薄的平面文件(Flat file)。这简直就像你新建并保存了一个Word文档,然而那就是你们呕心沥血训练出的模型。这太不可思议了。

桑达尔·皮查伊: 正是这些截然不同的独特属性,促使我去挑战现有的框架并反思:我们到底该如何看待接下来的发展?不过,至少在推理(Inference)层面,你刚才提出的确实是一个极其合理的思考切入点。但我坚信,在资本逐利的强力驱动下,每个人都在倾尽全力试图打破这些瓶颈,突破限制的动机无疑是无比巨大的。

主持人John: 但正如你所说,全球现阶段的内存(Memory)产能就那么多。因此,任何狂热的资本刺激都无法凭空变出2026年或2027年所需的内存供应。

主持人Elad: 那或许会成为一个见证更多元化方案的时代。

桑达尔·皮查伊: 没错。而且别忘了,内存短缺必须要与晶圆(Wafer)产能的提升、以及你们获批建设数据中心的能力相权衡。因此,这种单一资源的限制可能并没有看起来的那么致命。你需要将所有必需的条件统合为一个完整的全局盘面来通盘推演,比如确保资本(Securing capital)的到位。

主持人John: 确实如此。但让我感到有趣的是,人们似乎觉得理所当然可以投入超出当前资本支出(Capex)的资金,可我们现在正迎头撞上2026年和2027年的现实物理世界制约。这就如同霍尔木兹海峡(Strait of Hormuz)的逻辑:无论你能承受多高的油价,如果系统运转每天凭空少了2000万桶石油的供应,你就必须去硬生生摧毁每天2000万桶的需求。内存的情况惊艳地相似,最终总有一些人将不得不被迫放弃他们渴望的算力资源。

桑达尔·皮查伊: 另外还存在其他的硬性制约。比如你可以将安全性也视为一种限制。毕竟这些模型绝对有可能将市面上几乎所有的软件轻而易举地攻破。或许它们早就这么干了,只是我们一无所知。

主持人John: 等等,稍微退一步讲,它们真的会攻破所有的软件吗?比如像SSH这类底层安全协议,黑客们早就已经尝试破解很久了,也没能全面得手。

桑达尔·皮查伊: 我主要考虑的是那些大型平台系统。那里究竟还潜藏着多少零日漏洞(Zero-day vulnerabilities)?毫无疑问,这绝非危言耸听,而是整个系统内部真切存在的隐性约束。

主持人Elad: 这是无法通过蒙眼许愿来逃避的。之前有人跟我聊起,由于人工智能的发展极大地提升了挖掘漏洞的能力导致供给急剧增加,目前黑市上的零日漏洞价格正在暴跌。我觉得这背后折射出的现象非常值得玩味。

桑达尔·皮查伊: 我对此丝毫都不感到意外。但这种威慑力将如何切实地扩散渗透进社会?它带来的深远后果又是什么?

我认为这其中有很多相似之处,技术系统未来绝对会面临各种不曾察觉的隐秘约束,进而承受超速发展带来的猛烈冲击波。

但千帆阅尽,我仍然坚信前方有着不可估量的上升空间。某些限制反而会化作一种助燃剂。正所谓“束缚激化创造力”(Constraint inspires creativity),它会倒逼新一轮的架构压缩和创新周期,榨干每一滴效率。

它还倒逼我们展开了一些原本绝不可能发生的跨界对话和深刻反思。仅仅拿我刚谈的安全性举例,我已经意识到未来需要怎样一种前所未有的协同共建,而这点目前仍是一片空白。

总有一天,我们会迎来一个尖锐无比的临界时刻,所有的矛盾都会在那一刻爆发,你没法祈祷这些问题会自动消散。

主持人Elad: 说到这里,谷歌确实拥有一个堪称惊艳的技术和商业矩阵,不仅有内生自研的,还囊括了大量极具远见的投资。从股权布局来看,你在SpaceX持有可观的股份,虽然我不清楚当前确切数字,但在早期你们一度持有大概10%的份额;还有Anthropic大致同样的份额;同时还占据着Waymo的多数股权,这本身就是一个了不起的成就。而在谷歌内部,更孕育出了浩瀚的顶尖科技硕果:不仅有AI与Transformer,还有专属的TPU芯片。当然,你刚刚也发布了一项极其有趣的量子计算(Quantum computing)领域的最新成果。在这些为人熟知的壮举之外,谷歌内部还藏着哪些世人应该知晓、极度有趣、但或许其革命性潜力依然被外界严重低估的“隐秘瑰宝”?

桑达尔·皮查伊: 这么说吧,我们始终如一在逆向布局那些高度聚焦未来的长期宏大工程。尽管它们破壳而出刚刚对外揭晓时,外界总会觉得有些滑稽或离经叛道。比如说,我们目前正处于对“太空数据中心”构想进行论证的极早期阶段。这正好印证了你刚才提到的观点——限制往往能激发惊人的创造力。

试想一下,如果将视距拉长放眼20年后,在这个狭小的地球上,你打算把这些吞吐着海量算力的数据中心安放何处? 这绝对是个无比棘手的世纪难题。这正是我们当下已经在未雨绸缪的前哨计划罢了,就如同我们在2010年就开始下注Waymo自动驾驶一样。量子计算同样是被寄予厚望的前瞻性项目,我们正以前所未有的坚定信念深耕于此,其取得的突破让我感到深度的兴奋与震撼。

主持人Elad: 你认为量子计算未来的高光时刻会最先在哪个领域爆发?因为眼下大家都在谈论它在分子建模或者密码学维度的潜力,业界甚至已经在为了应对它的到来而研发“抗量子密码学”(Quantum-proof cryptography)。但在分子建模层面,目前的深度学习模型似乎已经在某些特定的场景下交出了几近完美的答卷,实际上正是你们借助AlphaFold开创了这一局面。你还认为量子计算至关重要吗?如果重要,它将在哪里产生最具倾覆性的影响?

桑达尔·皮查伊: 我们如果站在更加宏大抽象的层面来看待技术演进:人类分明是在拼尽全力去原汁原味地拟真和复刻这座浩瀚的大自然。然而大自然的底层架构原本就建立在无处不在的波粒量子(Quantum)之上,因此你注定需要借助同源的量子系统去更为精确地重构它。 不可否认,我们如今凭借经典计算技术(Classical computing),或辅以极致的抽象和算法压缩,也有希望以出人意料的方式无限逼近那个结果。但我内心深处无比确定,在该领域,量子计算的出现无疑是带着高维打击底色的压倒性优势。

坦白讲,人类至今仍未能拨开重重迷雾彻底参透许多生物学的底层机理。它们潜藏着令人窒息的错综复杂性。这或许也能勾起你大学时求学经历的共鸣。这让我拥有一种笃定的直觉:去攻坚“模拟复杂气象预测”或是“高度拟真现实”这类终极难题时,量子计算将亮剑并独揽绝对优势。

回溯整部波澜壮阔的技术发展史,规律惊人一致:一旦某项技术成功跨越某个特定的规模门槛进而真正跑通后,你只需要将它推向舞台,全人类无尽的想象力与创造力必然会自发为其找到破局之法。 我常拿智能手机加上GPS与Uber的诞生做例子;那些最初埋头搞硬件协议、推动基础通讯网络换代的工程师,根本无法预判随之而来的生态海啸。基于上述逻辑,我极其笃定,只要我们能攻克底层堡垒让量子技术真正顺畅运转,它定将势如破竹般催生出成千上万个惊世绝俗的应用模式。这就是我看待前沿浪潮的最底线逻辑。

主持人John: 抱歉打断一下。你刚才正谈到你最偏爱的谷歌前沿探索项目。

桑达尔·皮查伊: 我认为,你也知道,我们的 Google DeepMind (GDM) 团队正深入钻研机器人技术。作为一家公司,我们过去踏入机器人领域的时间太早了。现在回过头来看,大概在十到十五年前,人工智能正是许多构想迟迟无法落地所缺失的关键一环。

不过现在,Gemini 的机器人模型(Robotics Models)在空间推理等方面表现非凡。在这一领域,我们毫无疑问地拥有世界最先进的模型技术(State-of-the-Art Models)。有意思的是,我们又重新与波士顿动力(Boston Dynamics)、Agile 等公司结成了合作伙伴,正坚定不移地取得进展。当然,市场上也有许多极其出色的初创公司。

尽管如此,我们依然在持续投资。我之前提到过量子计算系统、太空数据中心,以及 Wing 无人机配送服务。我们正在不断扩大 Wing 的服务规模,在不远的将来,或许约 4000 万美国人就能享受到 Wing 的配送网络。这并非遥不可及的未来虚构。但话说回来,当你投身于这种长周期的硬科技项目时,所有的阶段性进展都是有条不紊、日积月累(Compounding)的过程。因此,我们倾注了极大的定力,比如对 Isomorphic Labs (谷歌旗下AI药物研发公司) 的投入。

主持人Elad: 确实。

桑达尔·皮查伊: 试想一下,我们有针对性地聚焦于这些靶向模型,去优化药物研发过程中每一个可能的环节。尽管你必须经历漫长的等待周期,比如三期临床试验等,但这使得最终获得成功的概率大幅度跃升。

资本分配 (Capital Allocation)

主持人Elad: 确实,针对不同的生物制药模型,不仅仅局限于大多数人被困住的分子设计,而是拥有更广阔的前瞻视野,这绝对是我所见过的最睿智的做法。这确实非常精妙。

主持人John: 我能问个问题吗?我很好奇谷歌内部的资本分配机制实际上是如何运作的?我的意思是,资本分配的底层逻辑在于内化资本的机会成本(Opportunity Cost),并将业务产生的现金引导至投资回报率最高的领域。

以波音公司为例,这是一个教科书式的对比:企业产生现金后,你必须决定,是应该将一定数额的资金投入研发去竞标下一个国防合同,从而实现某种稳定的收入预期;还是去开发一款全新的原研商用客机?这是一个再直白不过的比较——比如 16% 的内部收益率(IRR)对阵 19% 的 IRR,你自然会选择最高效的后者。

然而,就谷歌的情况而言,各个项目极具异质性(Heterogeneous)。你可能考虑给 YouTube 团队拨付更多资金来改进推荐算法,以此增加用户使用时长并提升商业化变现能力;或者,你可以给 Waymo 团队增加预算,帮助他们更快推向市场或实现规模化落地;再或者,你可以投资一种可能在五年之后才能看到第一笔回报的新型人工智能技术路径。

这就引出了一个根本性的难题:如果你试图将资本分配到回报率最高的地方,那么面对这些性质迥异、收益兑现曲线(Payoff Curves)截然不同的项目倡议,你要如何进行横向跨纬度比较?这真是个极具“约翰特色”(John-like)的刁钻问题。

桑达尔·皮查伊: 我不知道标准答案,你算是向我抛了个难题。我是怎么看待这个问题的呢?这确实问到了点子上。不可思议的是,如今我比以往任何时候都更能体会到这种左右为难,这恰恰是因为 TPU (张量处理单元) 的分配问题。从某种程度上说,我感觉连 Waymo 对算力的需求都嗷嗷待哺。有趣的是,正是算力(Compute)的紧缺,让资本分配这个问题变得前所未有地紧迫和凸显。

顺便提一句,在我参与的所有繁杂事务中,我最为期待的,就是作为智能助手的 AI 最终能够为这项资源分配决策提供有效参考。一旦我们真正打通所有数据壁垒,让数据顺畅流通,凭借各项预训练模型现有的能力,一切将水到渠成。目前关键在于如何全面解锁并释放这些底层数据的势能,我相信这会带来极大的破局助力。在这一点上,我深有感触。

纵观历史,我认为谷歌长久以来的一大优势在于,我们往往会在周期的极早期就拍板这些大额决策。这简直像是回归了我们的初心——一种深厚的技术极客导向。此时,我们会认真审视你刚才问到的问题:那些追求极致的长远终极目标究竟是什么。在这个初探阶段反而更容易厘清思路,因为初期所需的起步资金可以很少。你需要保持极强的长期主义定力,并确保团队在核心原研技术上不断取得纵深的突破。

只要你能够洞察到底层技术的进步——以量子计算为例——我们该如何评判它?我们是通过底层技术的里程碑来进行衡量的:比如围绕大规模、稳定且具备纠错能力的逻辑量子比特(Logical Qubit)阈值来设定参数标尺,不仅要明确团队实现跨越的时间节点,还要考量他们破局的执行力。你要这样去评估它的价值。

我们在思考这类长线问题时一直固守的准则之一——或者说对我个人而言至关重要的执念——便是:在孕育的最早期,果断对硬核底层技术进行深度押注。

这种坚持让公司受益匪浅。但常态化来看,我始终认为你必须去衡量这些事物的长期潜在价值。因此,直觉得看,你其实是在考量五到十年之后的时间窗口与期权价值(Option Value)。你需要在脑海里假设它们会迎来爆发性的疯狂增长,然后反复推敲回溯那些决策是否站得住脚。

TPU 的投资正是如此,得益于这种前瞻思维,我们一路稳妥地加码。

Waymo 则是一个绝佳的破局案例。回想两三年前,当整个世界对自动驾驶陷入集体悲观,其他玩家纷纷扯篷退缩、缩减阵线时,我们却逆势极大地增加了投资。

主持人Elad: 那个体验真的很神奇,那种乘坐体验简直妙不可言。现在只要有机会,我每天都会坐 Waymo 去上班。而且它……

主持人John: 所以我认为 Waymo 对此是一个极好的例证,正如我刚刚心中的疑问:谷歌确实也会挥刀砍掉项目,对于某些你们尝试过的东西,你们最终会叫停,表示“我们不会对这部分业务一直进行输血了”,或者“我们要下线这款产品,因为它的确行不通”。但就 Waymo 而言,从一个吸睛的 Demo 秀到最终在市场上实现千家万户的商业化落地,这条路可谓极其漫长,然而你们却从未动摇过信念。那么,你们当时究竟看到了什么?这到底是一个定性的拍板,还是一个定量的考量?你们是如何最终做出“砍掉气球联网项目 Loon,却保住自动驾驶项目 Waymo” 这样的抉择的?

桑达尔·皮查伊: 我认为这多半源于某种程度的量化洞察。如果你去透视 Waymo 自动驾驶系统(Waymo Driver)和它的底层代码——审视软件如何精准操控车辆,并在安全性和可靠性上节节攀升。这是一场需要长期跟踪的马拉松:你的系统到底有多安全?你的表现有多完美?你需要去持续拟合那条表现曲线。你要为心中的愿景设定绝对清晰的目标参数,并时刻将实际的路测表现与预测曲线进行复盘和对齐。

这支团队的表现堪称非凡。在这十年间,不可避免地经历过一些停滞不前的技术瓶颈期,而正是面临这种僵局的时刻,你更需要对团队冲破难关的核心素质抱有深沉的信心。

归根结底,你透视深层硬核技术内核的能力越强,你往往就越能做出明智准狠的长线抉择——至少,我是一路尽力如此践行的。

主持人Elad: 关于Waymo,我听到过一种观点探讨:近期Waymo之所以取得巨大进步,是因为它过去依赖人工编写的启发式规则(Heuristics),比如遇到驾驶边缘情况(Edge Cases)或突发状况时该如何响应。这些规则中有一部分几乎是手写硬编码让车辆去执行的,因此它能处理的任务范围非常狭窄。而真正的突破在于几年前,随着Transformer浪潮的席卷,其架构转向了端到端深度学习(End-to-End Deep Learning)。既然这是推动它向前迈进的核心突破,你认为如果Waymo是五年前而不是十五年前创立,它能达到现在的水平吗?

桑达尔·皮查伊: 我们之前聊过机器人技术。你可以把Waymo看作是一个机器人,对吧?我认为在过去三年里入局研究机器人技术的人,理论上确实会取得更快的进展。但Waymo是一个高度集成的系统(Integrated System)。虽然它不像台积电制造芯片或SpaceX发射火箭那样庞杂,但同样涉及到极度复杂的系统整合。我认为Waymo背后隐藏着大量需要时间去打磨的工程工艺(Craft)。话虽如此,我确实认为端到端方法会是一个巨大的加速器。

主持人Elad: 是的,正是因为长期养着这样一支团队,对Alphabet和Google来说积累了巨大的优势。你们持续注入资金,直到等来技术腾飞的爆发时刻,所有投入都获得了超额回报,这体现了极高的智慧和前瞻性。我觉得探讨这种模式如何应用于其他领域会很有趣。回到你关于机器人的观点,现在的机器人技术似乎将迎来一条完全不同的发展轨迹,可以实现极其快速的迭代。你们是否考虑过重新将硬件自主研发化,还是主要依靠合作伙伴模式将这些技术推向世界?

桑达尔·皮查伊: 我们对此保持非常开放的心态。从Waymo以及TPU等AI项目的经验来看,要想真正推动技术曲线(Push the Curve),尤其是在涉及安全管控和政府监管的领域,你必须掌握产品反馈周期的第一手经验。因此我的结论是:拥有第一方硬件最终将变得至关重要。

主持人John: 现阶段看来确实有道理。抱歉,我还有两个关于资本配置(Capital Allocation)的问题。

鉴于Google传统上一直保持着强劲的净现金头寸,是否可以说Google在历史上一直杠杆率不足(Under-levered)?

既然Google拥有的好点子多到用不完——可以说是创意爆棚——且核心业务一直保持着强劲且持久的增长(增速远高于Google的资本成本),足见Google对核心业务的理解极其深刻。

如今回顾过去,Google当时是否应该更“进取(Leaned In)”一些,比如宣布:“好吧,我们愿意在强劲净现金的基础上采取更激进的加杠杆策略”,并将这些资金投入到新项目中、为股东回购更多的核心公司股票,或者是进行更多的少数股权投资(Minority Investing)——毕竟在这方面,Google似乎一直是行业顶流?

桑达尔·皮查伊: 这是一个绝佳的问题。打个比方,如果Waymo能更早达到今天的成熟度,我肯定会更早地注入资本。所以在某种程度上,你的判断标准是:你必须成为优秀的资本管家。

如果你对投入资本回报率(ROIC)极度看好,你会毫不犹豫地把每一分钱都投进去。但当你有闲置资金,且认为当下无法在内部进行高性价比的配置时,这就是我们去投资其他公司的原因。即使这些投资不属于我们的核心业务,我们也始终用“优秀资本管家”的视角来审视它。

我们认为当年对Stripe的投资就是良好资本管理的体现,对SpaceX、Anthropic等公司的战略投资也是如此。随着当下的AI范式跃迁,我们获得了更多能高效配置资本的历史性机遇,因此我们正全力以赴。

我相信我们一直坚持着这种心态。事实上,如果条件允许,我非常乐意在更早的时候投入更多资本。

但当时我们的技术成熟度还达不到要求。就拿Waymo来说,从安全角度考量,我们的原则绝对是安全第一。当时你就是无法——

主持人John: 当时强行加速并非明智之举。所以,你的意思是,并不存在哪怕早点砸钱就能跑得更快的项目?它们单纯只是一定需要时间的积淀。

桑达尔·皮查伊: 我不会这么绝对。可能我们在某些具体项目上做过误判,但从原则上讲:只要我们对某个方向感到兴奋且抱有强烈的信念,我们就绝对愿意投入重金,一路陪跑到底。

主持人John: 我另外几个关于资本配置的问题,与科技公司的历史背景有关。过去,科技公司绝大部分的研发支出都花在了“楼里走来走去的员工”身上,即人力成本,人员编制(Headcount)是通过极其严格的流程来控制的。可以说,在分配研发资源时,本质上是在将高薪人才分配去攻克某个难题。与人力成本相比,技术成本往往只是次要考量——除非你做的是极度消耗算力的项目,当然Google在这方面经验丰富(比如Google图书项目)。

但随着TPU核心地位的确立及其分配方式的改变,我们正在进入一个完全不同的时代。在非常具体的预算规划层面,现在Google内部是如何运作的?

公司现在有总体的TPU预算吗?当你们为一个项目分配资源时,以前是给特定的HC人员预算,现在是既给人员预算又给TPU算力预算吗?它们是在同一个预算池里吗?在进行季度或年度盘点时,这又是如何运作的?

桑达尔·皮查伊: 其实我们一直都有算力预算(Compute Budget)。哪怕是传统算力时代也是如此。顺便说一下,在机器学习领域,我们广泛且同时使用TPU和GPU。不仅在人员编制的规划上需要我们深思熟虑,机器学习的算力规划同样如此。我们经历过算力相对充裕的阶段,也经历过全公司都受制于算力瓶颈的时段。

但现在的算力可以说是极度紧缺(Acutely Constrained),对吧?因此你需要投入更多心血。至少我个人每周都会雷打不动地拿出一个小时,在极其深入的颗粒度上专门复盘算力分配统筹。我能清晰地掌握每个项目、每个团队正在消耗的具体计算单元数量。因为手中掌握着这些数据,我会不断地对齐和评估。我认为,在当下,这绝对是公司最重要的核心要务之一。

主持人John: 在如今很多情况下,算力才是真正的稀缺资源。这正是你在做的事:用最高效的调度,确保Google最宝贵的算力资源浇灌在最具价值的创新之上。

主持人Elad: 在 GCP 和 Google Cloud 的背景下,您是怎么看待这个问题的?因为这实际上是将计算资源分配给外部客户,而不是用于内部业务,且系统本身存在限制。您是如何权衡这种差异化分配的?

桑达尔·皮查伊: 其实,核心在于提前规划,对吧?当我们进行前瞻性规划时,云团队会制定相应的计划。我们会为此提供预算支持,以满足内部需求。在做前瞻规划的同时,我们也会与客户签署长期承诺协议。对我们来说,向客户做出的任何承诺都是必须绝对履行的,因为这代表着合同维度的神圣契约。所以,很多资源冲突的问题早就通过提前规划解决了。

客观来说,处于这样一个算力紧缺的世界,云团队肯定也会觉得没有分到他们想要的算力数量。但破局之道,始终是未雨绸缪的规划。

主持人John: 既然说到了 Google Cloud,我正好有一个攒到这个环节才提的产品需求,我知道您一定很期待。(笑)问题其实很好解决。

你们做得很棒的一点是针对 GCP 推出的 MCP(模型上下文协议,Model Context Protocol),你们的 AI 能够以编程方式直接与 Google Cloud 进行交互,这太赞了。我猜除了一些核心的权限设置模块,你们基本上已经把底层接口都开放了。

我感觉,从某种程度上说,Google Cloud 过去的一种“烦恼”,就在于它的功能实在过于庞杂。我相信您一定也常常听到用户抱怨不知道怎么用。用户登录之后,必须创建组织、建项目,还要像海底捞针一样寻找合适的服务。但现在,这些全都不再是障碍了,因为你只需对着模型说:“嘿,帮我把这个 Google Cloud 动作加上去。” 这是目前的 Google Cloud 真正吃到了 AI 红利的地方。

因为它的生态太深、接口太广。我们在 Stripe 也遇到过类似的问题:随着产品功能的不断膨胀,要在这个庞大的产品矩阵中顺利导航,最佳路径就是依托一个已经为你嚼透了所有 API 文档的 AI。从目前的体验看,这种模式绝妙极了。

桑达尔·皮查伊: 我深有同感。AI 作为编排层(Orchestration Layer)展现出了无与伦比的潜力。 无论你思考什么问题,就像我前面提到的,哪怕是企业 CEO 在统筹内部管理时,痛点往往不是缺少数据,而是如何将数据无缝打通并一键呈现。放在过去,这绝对意味着要再启动一个无比笨重、类似 ERP 的大工程去拼接所有的数据孤岛。如今,看见 AI 能以一种完全契合终端用户直觉的方式充当起这个编排层,这种降维打击般的变革令人非常欣喜。

主持人John: 而且产品的涉猎面积越庞大,这种红利击中你的爽感就越强烈。我们在 Stripe 已经在一定程度上看到了这一点,但我感觉一旦加诸于 GCP,引发的绝对是核爆级的海量效应。

桑达尔·皮查伊: 我觉得我们在体验上还有很大的提升空间,但毫无疑问,您说得完全没错,这确实是一个巨大的机遇。

主持人John: 我对目前的效果总体已经非常满意了。好的,接下来该聊聊我的产品建议了。

主持人Elad: 您也带了产品建议来吗?您先请。

主持人John: 对,我有一两个想法。对于类似 OpenAI 或 Claude 这样的产品以及它们的产品市场契合度(PMF),让我感到有趣的是,它们开始为消费者提供状态化(Stateful)的 AI 能力。比如,大家最常期待的一个经典服务:“把你认为我感兴趣的每日新闻汇总好,每天早上准点发给我”。这就涉及到一个持续运行(Persistence) 的逻辑,但目前主流的 AI 应用几乎都还不允许这样常态化的运行。

桑达尔·皮查伊: 从大方向看,我们绝对想赋予用户这种能力——以高度可靠且安全的方式运行长期的、持久化的任务。当然,你必须在底层彻底打通身份验证、访问权限等繁杂问题。但我们判断这就是未来,这就是属于智能体(Agentic)的未来。将这种强大的重型能力真正带给每个普通消费者,正是我们目前正在探索的一个激动人心的前沿地带。

主持人Elad: 是的,这也是我想提的一点。比如 Dreamer 这家公司,由 Stripe 的前任 CTO 创立,最近刚被 Meta 收购。我认为他们在这方面做出了一个非常出色的版本,让我们看到了这种愿景非常早期的雏形……

主持人John: 没错,他们让你可以直接生成自带持久化能力的定制软件,而且你还可以尽情去跑自己的应用逻辑……

主持人Elad: ……可以说这让每个用户都能轻松创建专属的个人小程序。

主持人John: 完全同意!他们把门槛降得非常低,非常易用。我觉得一旦人们第一次体验到了这种能力,都会立刻经历一个“惊艳与狂喜”的时刻,这太让我着迷了。

桑达尔·皮查伊: 我更倾向于认为,未来的消费者交互界面,其底层都将由完整的编程模型(Coding Models)来硬核驱动。 只要我们具备合适的工具框架、技能组件,再加上能于本地和云端安全实现持久化运行的能力,所有这些基础设施元素(Primitives)就会水到渠成地交织在一起。

如果我们把看问题的视角转向开发者群体:今天在这个世界上,我感觉可能只有 1%——甚至是 0.1% 的极客,真正过上了属于未来的开发生活。他们正在利用这些为自己构建工具。而如何跨越鸿沟,将这种超前的能力推向大众、实现现象级的全面普及,正是摆在我们面前的一个激动人心的前沿课题。

主持人John: 好的,我的另外一个产品建议是——抱歉,您作为受访者可能得忍受一下这个只谈产品的琐碎环节了。可能我节奏太快了。

我的另一个产品想法是:不知道您是否有同样的切身体会,但对我个人而言,在 Google Docs 里搜索文件,简直比在 Gmail 里搜索难出十倍。显然,作为贵公司的门面,它们底层的搜索引擎体系同样出色。

但我猜测症结可能在于:传统的关键词匹配搜索在电子邮件中非常管用,因为你通常能准确回忆起某一封特定邮件里带有极其独特的个别词语。而在文档的生态里,至少我是这样的:我想回去翻看一份叫做“2026 年预算”的文件。结果发现在 Stripe 浩如烟海的文件库里,如果你去 Google Slides 搜“2026 年预算”,这两个词语丝毫体现不出唯一性。结果就是,我怎么也搜不到那份唯一确切的文件。

所以我个人十分好奇:伟大如 Sundar Pichai 的日常办公中也会遇到这个痛点吗?(笑)

桑达尔·皮查伊: 老实说,我之前没有像你感受得这么深刻,但听你这么生动地一描绘,彻底触发了我的底层共鸣。我的脑海里甚至已经在过画面了,想着回去后要把这段对话的具体切片发给谁听。我非常清楚该直接找负责这块的哪些同事聊聊了。我们的确还有巨大的拔高空间。

客观地说,随着 AI 被深度整合到包括 Google Docs 在内的各项服务中,相信在未来几个月内,大家将看到体验感会呈阶跃式的飞跃。 过去我们上线的只是最早期的初代版本,你甚至可以认为只是简单粗暴地把 AI 功能塞进了产品的某个角落。

但随着时间推移和技术迭代,对于如何压榨上下文窗口、如何做好长程缓存策略,以及如何发挥 AI 更深层次的真正价值,我们已经掌握了大幅跃升的秘诀。所以请保持期待。

主持人John: 好的,太棒了。

Google 的运作方式

主持人Elad: 我深度参与和投资的许多公司,即使是那些刚成立不久的年轻新锐,也不得不在产品开发和工程实践的工作流上发生颠覆性的剧变。他们甚至开始彻底重置设计团队的构成标准,以及这个团队应当具备何种维度的能力边界。在体量如此庞大的 Google,你们是否也在重新审视或者反思这整个协作体系?在工作流程或其它文化理念上,是否已经发生了重质的转变?

桑达尔·皮查伊: 我更倾向于用“同心圆”来比方目前的演进状态。在 Google 内部,处在核心阵地的部分团队正在经历极其深刻的重构转型。因此,对我来说,当前极具挑战的一大工程就是如何将这种变革的涟漪一层层扩散到外部庞大的梯队中去,尤其是作为 2026 年的战略重心。

有些动作我们在早期是不敢贸然去做的,因为它在当时总是频繁崩溃;透过窗口,你可以瞥见那个充满希望的新纪元,但当时的引擎还是半残废的。但就在今年,我非常强烈地感受到,那个剧变的拐点曲线正在以前所未有的速度抬升。

你能清楚地看到一些急先锋团队——特别是 GDM(Google DeepMind)与 Workspace 套件的一些核心组,正在彻头彻尾地更换他们的底层工作流。他们在使用我们内部称为“JetSki”的工具(说来也怪,同一款产品,我们在内部用了一个跟外部完全不搭界的名字,内部代称它为“反重力 / Anti-Gravity”)。在这样的新体系下,你是生活在一个完全由智能体(Agent)所构建和统筹的世界上,你的工作流是被重新定义的,你是在用一种破立式的姿势进行作业。

就在上周,我们刚刚把这套模式和理念下发推广到了搜索大团队。所以我们一直在内部推波助澜,激化这股势力。必须承认,对于大厂这样庞大的组织丛林而言,变革管理(Change Management)永远是让这项技术发生化学反应沉淀下去最艰巨的心智博弈,这种切肤之痛,在一个可以随时灵活打满转向灯的初创小公司里,是很难真正体会到的。

主持人John: 关于AI在工业界的实际普及,我观察到几个问题。我很好奇你认为我们何时以及如何解决它们。在我看来,我们目前面临着巨大的**智能过剩(Intelligence Overhang)**;AI在抽象层面的能力令人惊叹,但如果你去看一家公司的“AI原生”程度,或者他们实际运用这种智能的力度,会发现仍存在巨大落差。

我看到的首要问题是,作为一名工程师,要熟练掌握AI提示词工程(Prompting)技巧需要花费相当长的时间。这其中既包含通用的提示技巧,也包含Stripe特有的提示规范,比如要清楚该调用哪些内部工具。

其次,共享AI生成的代码库非常困难,因为它的代码变动量极大,且影响范围(Blast Radius)很广。如今代码的迭代率如此之高——甚至在发布前你可能就已经重写了好几次——与以前代码更新节奏较慢的时期相比,现在让多人协作处理同一个代码库要困难得多。

而跳出工程领域之外,我看到的最大显性障碍是数据访问。全球各个公司的员工每天会问多少次“嘿,这笔交易目前的进展如何?”这是公司本身已经掌握的信息,理应能由智能体(Agent)自动回答。Stripe内部确实有一些很酷的工具能很好地解决这个问题。然而,随着公司规模的扩大,无论是面对用户习惯还是数据访问控制,决定“谁能真正提取这些数据”的权限引擎都需要被彻底重写。

最后是角色定义的问题。正如你之前提到的,产品经理(PM)和设计的岗位设定一定程度上受制于过去的思维,随着AI在执行这些任务时变得越来越出色,至少在某些场景下,你可能会想要将这些角色融合。总之,这就是我对2026年现状的刻画:模型已经完全具备了完成这些任务的能力,但我们的开发和利用率却还极其有限。你对这项技术的普及进程和智能的最终形态有何看法?

桑达尔·皮查伊: 实际上,我们当中的许多团队,比如Gemini团队、Gemini企业版团队以及反重力团队(Anti-gravity Teams)等先锋部门,都在精准地攻克这些痛点。这就是你所提到的发展路线图。我们在内部也大量地使用它,不断撞上这些瓶颈并努力跨越它们,由此才孕育了我们最终交付的产品。

我们目前仍在持续推动技术的普及,因为随着人们不断地深度使用——比如在Google的网站可靠性工程(SRE)团队中——你会突然发现某些操作环节完全可以构建为自动化工作流。这种蜕变目前正率先在各个长板领域悄然发生。

然而,想要更加系统化地大规模推行这一举措会带来新的质问:当沉淀出新的技能后,知识该如何实现集中化管理?该如何将这些知识既开放给模型读取,又普惠于所有人?身份认证与权限访问控制是异常棘手的老大难问题,而我们正在全力破解。这正是目前限制技术普及的关键掣肘。

我们把安全性视作生命线,这无疑又为各项工作增加了一层技术壁垒。考虑到在这类服务中一旦行差踏错将面临极为昂贵的代价,我们必须如履薄冰。

但我坚信,只要踏平了这些险阻,方案的落地将变得更加坚如磐石,并最终造福每一位用户。我们眼下正在承受必经的“固定成本”阵痛,但一旦将这些神兵利器交到更广泛的受众手中,人类的创造力与效能必将迎来指数级的跃升。 随着其他企业的跟进以及模型的持续进化,我们脚下的整个生态系统也将变得无比繁荣与强健。

主持人John: 我想多数公司每年都会进行几次正式的业务预测调整(Reforecast)。至少Stripe是这样运作的:我们会拨出年度预算,然后每年发布三次正式的重新预测基准。

仔细审视,业务重新预测其实是一个基于时间快照的函数(Moment-in-time Function)。你需要抓取业务在某一瞬间的状态——这其中一小部分留存在业务人员的脑海中,绝大部分已沉淀为数据流——然后去衡量各个干系维度:这个产品跑得怎么样?那个产品起量了吗?这笔大单能Close吗?某项计划会如期推进吗?

这构成了业务的即时全貌。我们将这些状态丢进一个函数里,从而产出全年的最新预测数据。你不妨想象一下,由AI来执行一套“全程无需人工干预”(No Human In The Loop)的自动化预测流程。你认为Google会在哪个季度实现史上第一次“全量智能体化”(Fully Agentic)的业务预测?

桑达尔·皮查伊: 我非常确信,在某些特定的发力点上,2027年将成为一个极具标志性的历史拐点。即便现在还是人工在主导处理这些事,这也必定会演变成他们产出结果的标准工作流。也许在未来的某段过渡期内,你依然会用传统方式去Double Check(双重核对)AI的结果,但势必会跨过那道分水岭,完成彻底的范式切换。我笃定2027年会是异常重磅的一年,部分具有颠覆性的深刻变革将会在那一刻呼啸而至。

主持人John: 我觉得这也是刚才Elad抛出的问题核心所在:工程部门(Eng)通常是激进的早期采用者,但在工程部门之外的其他阵地呢?好吧,看来确实是2027年,我们会见证大量非工程类的业务流程被重构。

桑达尔·皮查伊: 针对你抛出的问题探讨,我觉得你的语境更多是在对标那些极具冲劲的初创公司。我确实认同,初创公司与生俱来的一大壁垒就是能够拥有成建制的“AI原生”战队,仅仅通过你们的面试筛选流就能轻松触达这批弄潮儿。而对于我们这种体量的巨头而言,则不可避免地需要经历漫长阵痛的技能重塑和组织换血。这种轻盈且原生的冲刺姿态,注定是生逢其时的年轻公司所独享的红利。 而我们,唯有咬紧牙关去驱动巨象的转身。

主持人John: 最后一个问题。我们一路聊了很多在Google孵化自“星星之火”的传奇创举,比如当年立项时甚至一度被排挤出Google核心优先级的Transformer。放眼最近的Google内部,有什么让你燃起高度兴奋感的破局“小项目”吗?

桑达尔·皮查伊: 这说出来可能有些天马行空。其实当年当我们拍板要“在太空建设数据中心”时,起初也只是拉起了一支极其袖珍的特种小队。真的只有寥寥几人,捏着少得可怜的预算,去死磕下第一个里程碑。我认为“起于微末”是至关重要的黄金法则,哪怕你的愿景大如星海。 这就是“从小处着眼,谋万里之局”的活生生的例子。

无独有偶,就在昨天,我还专门空出时间去聆听了一位研究员针对后训练(Post-training)阶段抛出的重大技改。就只有他一个人,单枪匹马在手舞足蹈地复盘进度,但在我静静倾听的间隙,我极其惊喜地预判到,这玩意儿必将给整体性能带来一次极为生猛的梯级跃升。

这就是在这个伟大黎明前最源源不竭的技术源泉。 至于我想分享的第二个狂想案例,当下还不宜泄露太多迷人的细节。

主持人Elad: 是的。

桑达尔·皮查伊: 我敢打包票,终有一天我们会豪言壮语地把它公之于众的。这就是眼下最令我热血沸腾的几个技术破局点。

主持人John: 所以最大的底牌是太空数据中心和次世代的机器学习技术路线,没错吧?这个回答棒极了。Sundar,诚挚地感谢你。能有这样一次纯粹的交流是我莫大的荣幸。谢谢,多保重。

写在最后

既然看到了这里,如果觉得不错,就请随手来个一键三连吧,转发给同样需要的朋友,这对我很重要。

另外如果想第一时间收到推送,也请将本公众号加个星标🌟