AI不再是软件故事|当电网比代码更值钱——All-In 最新一期里的 下半场

— All-In 思维系列 —
🌿序:那个轻盈的 AI 神话,悄悄落地了
这两年,关于 AI 的故事,几乎都是轻盈的。
谁家的模型更聪明、谁家的聊天机器人更会说话、谁家的产品 demo 更惊艳。一波又一波热度过去,普通人手里多了几个新工具,朋友圈里多了几句新流行语,事情好像就这样过去了。
直到 2026 年 5 月 1 日。
那天上线的 All-In 最新一期,标题很长——《OpenAI Misses Targets, Codex vs Claude, Elon vs Sam Trial, Big Hyperscaler Beats, Peptide Craze》。Chamath、Jason、Sacks、Friedberg 这四个人不是在聊新模型,也不是在比谁的 demo 更好看。他们一口气把 OpenAI 的增长失速、Anthropic 与 Codex 的竞争、巨头资本开支、电力瓶颈、算法效率、OpenAI 的法律风险,甚至还有一款减肥药,全部串在了一起。
散吗?我一开始也觉得散,像流水账一样。
可是听完之后,我意识到他们其实在谈一件大得多的事情——AI 这门生意,已经从一个「聪明的软件故事」,悄悄变成了一个「沉甸甸的工业故事」。
它还在变聪明,但它开始变重了。
📉一、OpenAI 第一次,被现实按在桌上算账
这一期最抓眼球的开场,是 OpenAI 没完成自己的目标。
这家公司过去几年几乎是 AI 的代名词。每次发新模型,都像把一个本来安静的水面砸了一颗大石头。可这一次,外界翻出来的数据有点尴尬——它原来设定的 10 亿周活跃用户目标没有完成,部分收入目标也没有达到。Investopedia 那篇梳理用了一个很直接的说法:missed key financial and user growth targets。
但事情有意思的地方在于:同一家公司,在同一段时间里,竟然能同时呈现出两套几乎相反的叙事。
因为就在两个月前,Reuters 还报道过另一套口径——OpenAI 预计到 2030 年,光 compute 一项的支出就要接近 6000 亿美元。同期外界讨论的 IPO 估值,最高接近 1 万亿美元。
你看,这就有点意思了。
一边是「我没达标」,一边是「我准备未来十年烧 6000 亿美元」。这两件事其实并不矛盾,它们说的是同一个故事的两面——OpenAI 不是突然摔下来了,而是它本来就在以一个极其惊人的速度往前冲,只是这一次,账单先一步寄到了门口。
✦打个比方——OpenAI 现在像一辆性能爆表的跑车。问题不在于跑得快不快,而在于油耗高得离谱、修车厂要自己建、加油站要自己挖、连赛道都得自己铺。它仍然是同一台跑车,但围着它转的成本和担心,已经完全不是几年前的样子了。
Sam Altman 的尴尬,恰恰也在这里。如果只看消费者那一头,他这一次确实没交出「继续被神格化」的成绩单。可如果你把眼光挪到开发者生态、企业市场,OpenAI 仍然在用 GPT-5.5、GPT-5.3-Codex 这一类产品线努力把「魔力」找回来。
说得直白一点——OpenAI 不是不会打仗,它只是开始撞上 AI 商业化最难的一堵墙:增长、成本和基础设施,没办法永远靠故事同时成立。
⚡二、真正的瓶颈,已经从芯片变成了电
这个判断,是这一期 All-In 里最值得普通人记住的一条。
过去两年,我们一聊 AI,脑子里跳出来的关键词都是 GPU、英伟达、H100、Blackwell,再不济也是 HBM、带宽、服务器机房。但你再往下挖一层就会发现,2026 年的真问题,已经不只是「芯片够不够」,而是另一个更老派、更朴素的问题——「电够不够」。
Reuters 在 4 月底的报道里给出了一组数字:Alphabet、Amazon、Meta、Microsoft 这四家 hyperscaler,2026 年的 AI 相关资本开支合计大约在 6000 亿美元量级。这已经不像普通软件公司的预算,更像几座城市加起来的基建项目。
而能源那一头也开始紧张。EIA 的数据显示,美国电力需求会在 2026 和 2027 连续创下新高,AI 数据中心是关键推手。PJM 这种大型电网运营方在 4 月重新放开了发电项目申请,本身就说明此前的接入队列已经被挤得很厉害了。
一句话——电网,正在被 AI 顶到临界点。
这件事为什么重要?因为它意味着,AI 公司的形象正在悄悄换一张面孔。
过去二十年,硅谷最迷人的地方就是它的「轻」——几个聪明人、一台电脑、一点云资源,就能开出一家估值百亿的公司。可现在,AI 越往下走,越像在筹建一座炼钢厂。它需要电、需要冷却、需要土地、需要并网审批、需要长期的电力采购合同,还需要资本市场愿意继续陪它一起烧钱,而且相信烧得值。
你可以把今天的 AI 玩家分成两类。一类是会做模型的人——很会出题,也很会答题;另一类是 hyperscaler——掌握校舍、电源、宿舍楼和食堂的人。前者当然聪明,但只要后者把总闸一拉,再聪明的脑子也只能摸黑做题。
这就是 Chamath 在节目里那句话的来历——「AI 竞争的本质,已经从软件代码转移到了电网变压器」。听上去像金句,落到现实里其实并不夸张。
这里也藏着一个讽刺的转折。我们以前说「护城河」,第一反应是算法、产品、用户体验。现在再问 AI 公司什么是护城河,答案里第一个冒出来的,可能是——「我们已经签了几座核电站的长协」。
🌱三、当电不够用,聪明开始比蛮力值钱
既然电电,藏在哪里,才能用在需要的时候?「鸭子曲线」:新能源最难解的时间错位。是稀缺的,路就只剩两条——一条是接着堆,把电也涨上来;另一条是回过头,让模型学会更省着用。
第二条路上,最近最火的关键词叫做「剪枝」。
这个词听起来很学术,其实你把它想成修树就明白了。一棵树长得太疯,营养分散,枝条乱飞。你不一定只能不停浇水施肥,也可以把那些没用的枝叉剪掉,让有限的养分,集中到真正撑得起树形的主干上。
神经网络的道理也是一样。
MIT 的研究者 Frankle 和 Carbin 几年前提出过著名的 Lottery Ticket Hypothesis——一个庞大的神经网络里,其实藏着一张「中奖彩票」。把那些不重要的连接剪掉,只留下中奖的那一小部分,模型在某些条件下还能保持原来的水准。论文里给出的数字相当夸张:参数量去掉九成以上,效果居然还能扛住。
到了 2026 年 4 月,MIT CSAIL 又推出了新一代方法 CompreSSM。这一次的思路更聪明了一步——它不是等模型训练完了再去瘦身,而是在训练的过程中,就一边教它学习、一边帮它减脂。MIT 的官方表述很克制,但意思很清楚:在不牺牲性能的前提下,把计算成本砍下来。
这意味着什么?意味着未来 AI 比的,不一定是「谁吃得最多」,而是「谁吃同一碗饭、能跑得更远」。
▎ 算法效率,是新的缩放法则。
我自己更喜欢把这句话翻成更接地气的一种说法——以后比的,不再是谁的饭量大,而是谁能把同样一碗饭,吃得更香、跑得更远。
当然,这里也得给读者打个预防针。剪枝在工程界目前更像是「方向」,而不是一颗一按就生效的银弹。不同的模型架构、不同的任务、不同的硬件,剪枝的收益参差不齐。它是一条值得走的路,但不是一条平坦的路。
🏛️四、未来的 AI,更像一个组织,而不是一个超级脑袋
顺着这条思路再往前走一步,就触到这一期里另一个重要的概念——宏模型架构。
这个词初听有点抽象,但它其实可以用一家餐厅来理解。
你想象一家像样的餐厅。后厨里有总厨、有专门负责切配的师傅、有炒锅、有打荷、有传菜员,还有那个负责把碗筷摆整齐的小弟。每一桌客人来了,并不是所有人都需要总厨亲自出来切鱼。简单的一道蛋炒饭,流水线上的师傅就能做得很好;只有那种特别讲究的高难度菜,才值得动用最贵、最稳的那把刀。
未来的 AI 系统,大概率就长成这个样子。
简单的问题——比如查天气、问时间、改个错别字——根本不值得唤醒最昂贵的那个超级模型;中等难度的任务,可以交给中等量级的模型完成;只有那 20% 真正复杂、真正高价值、真正容易出问题的需求,才需要把最强的那把刀请出来。
中间的调度,全靠「路由」在做——它就像后厨那个不上灶的总管,眼睛盯着所有桌子,决定每一道菜该交给谁处理。
这套架构一旦立得住,AI 公司的竞争维度就会发生变化。它不再只是「我的最强模型在 benchmark 上多了 0.3 分」那种简单比较,而是开始变成另一组问题——你能不能把 80% 的常见问题用最便宜的方式接住?只剩下那 20% 才动用最贵的算力?你的调度够不够聪明?你的成本曲线有没有比同行平?
这也解释了为什么 hyperscaler 在这一期节目里被反复提起。
因为一旦行业进入「宏模型 + 路由 + 专用模型 + 企业工作流」这条赛道,赢家就不一定是「最有灵感的那个人」,而更可能是「最会组织资源的那个人」。
📜五、节目里那两条容易被忽略的副线
这一期 All-In 还有两条线,乍看起来跟前面的话题不搭,但放在一起看就会明白他们想说什么。
第一条线,是 Greg Brockman 的日记。
Reuters 报道过,Elon Musk 起诉 OpenAI 的庭审已经开始,陪审团也已就位。这场官司的核心,是 Musk 指控 OpenAI 偏离了最初承诺的 nonprofit 使命,借着这个名号完成了后来的营利化转向。庭审材料里就有 Greg Brockman 2017 年的一段日记——里面写到他当年对 Elon 影响力和 OpenAI 方向的担忧。
法律结论今天还没落地,我们也没必要在这里替任何一方下判断。但有一件事,资本市场最敏感——它最怕的,从来都不是公司亏钱。
它最怕的是不可信。
一家公司只要还在烧钱、还有增长,市场就愿意陪着继续讲故事。可一旦开始有人问「你当年到底承诺过什么」「这些资产到底是怎么转移的」「谁在控制谁」,事情就变味了。它变成的不是财务模型问题,而是另一种更隐蔽、更难修复的东西——信任溢价的流失。
这件事对整个 AI 行业都是提醒。当一个行业还小的时候,大家可以宽容;但当它已经在影响 GDP、推动电力建设、引导万亿资本开支时,治理、审计、法律、责任,这些原本被技术光环遮住的旧规则,都会重新浮出水面。
第二条线,是减肥药 Retatrutide。
很多人看到节目后半段开始聊 Retatrutide,第一反应是「跑题了吧」。但如果你站在硅谷投资人的脑回路里看,这一段其实根本没跑题。
因为他们最近最迷恋的,是一件统一的事——一切能「提升系统效率」的东西。
对机器,是更高的 token 效率;对企业,是更高的资本效率;对电力,是更高的每瓦产出;对人,他们也希望能找到更高的代谢效率、更稳的认知状态、更长的健康寿命。这套审美下,减肥药跟变压器,是同一件事的两个侧面。
Retatrutide 这次被拎出来讲,是因为礼来 3 月的三期临床 topline 数据确实漂亮——40 周时最高剂量组的体重下降可以达到 16.8%,A1C 降幅最多 2.0%。它同时作用于 GLP-1、GIP、glucagon 三条通路。
⚠️替读者踩一脚刹车今天可以放心讲的事,是 Retatrutide 在体重管理和代谢改善上展示出了不错的潜力。至于「代谢革命」「抗衰老接口」「人类优化工具」这种说法,今天还更像是科技圈和资本市场的兴奋性延展,不是临床共识。任何把它当作「人生外挂」的叙事,都值得多停一会儿、多查几份资料再相信。
🔑六、给普通人的三条思考
说到这里,可能有人会问——这一切跟我有什么关系?
关系其实比想象中大。
🔑 第一条 | 你判断科技公司的标准,可能要换一套了。
过去看一家科技公司,第一反应是看它的产品、用户、增长曲线。这套指标在 AI 第一幕里依然有效,但进入第二幕之后,它就不够用了。你还要去看它的资本开支节奏,看它的电力布局,看它有没有跟核电、电网、能源公司签长期合同。一家科技公司开始关心电表箱,听起来荒诞,但这恰恰是这个时代的新常态。
🔑 第二条 | 未来真正稀缺的,不是模型,是组合资源的能力。
这五六年,所有人都在追「哪个模型最强」。可如果你认真听 Chamath 这一期讲的话,会发现他真正押的,是那些「既懂模型、又懂能源、还懂资本」的人。一个人能力的边界,正在从「我会用 AI」扩展到「我能看懂 AI 正在重写什么」。这两件事,差很多。
🔑 第三条 | 保持对长期的耐心,不要被短期叙事带着跑。
AI 这个赛道接下来一定会有很多戏剧性的转折——某家公司突然失速、某条法律纠纷突然爆发、某种新模型一夜之间被吹上天又打下来。这些都是噪音。
真正不变的事情其实只有几件:电会越来越紧、效率会越来越值钱、组织能力会越来越被看重、治理风险会越来越被重新定价。把这几件事记在心里,比追任何热点都更稳。
🌅结语:看似寻常最奇崛
王安石那句「看似寻常最奇崛,成如容易却艰辛」,我以前读总觉得是在讲诗。这两年再读,越来越觉得它在讲今天的 AI——那些看上去最不起眼的东西,比如电网、变压器、长期电价、并网审批,反而成了最难、最值钱的功夫。
AI 第一幕,是浪漫的。一个 ChatGPT 出来,所有人都信了——它会写、会画、会答、会编。第一幕像烟花,亮就行。
AI 第二幕,没那么浪漫,但更真实。它要回答的,已经不是「你能不能让人惊艳」,而是另一组更朴素的问题——你能不能在 6000 亿美元的承诺、几座核电站的依赖、漫长的法律纠纷、和不知道几年才能跑通的商业模式里,继续走得动?
这听上去比第一幕沉重很多。但换个角度想——一件事开始变厚重,往往说明它已经长大了。它从一个朋友圈话题,长成了一项基础设施;从一个少年神童,长成了一个要担担子的成年人。
山在,水在,电也在。
这个时代真正的赢家,可能不只是最会造脑子的那个人,而是那个既会造脑子、又养得起脑子、还能让脑子不惹祸的人。
💬你觉得 AI 下半场最大的瓶颈是哪一个——电力、资本开支、算法效率、还是治理与法律风险?留言聊聊。
· · · · · · · · · · · · · · · · · · · · · ·
「用AI工具,看见时代的底牌。」
喜欢这篇文章的伙伴,请一定点赞、分享和推荐❤️给朋友。
⚠️ 本文为 All-In 节目内容解读与产业观察,不构成任何投资、医疗或法律建议。所有第三方研究/数据/事件均以公开报道为准,市场判断有风险,请结合自身情况独立思考。
信息来源
[1] All-In with Chamath, Jason, Sacks & Friedberg,2026 年 5 月 1 日上线一期:《OpenAI Misses Targets, Codex vs Claude, Elon vs Sam Trial, Big Hyperscaler Beats, Peptide Craze》(节目官网与 Apple Podcasts 页面)
[2] Investopedia,对 OpenAI 未达成关键财务与用户增长目标的报道梳理,2026 年
[3] Reuters,OpenAI sees compute spend of around $600 billion by 2030,2026 年 2 月 20 日
[4] Reuters,Hyperscaler results pose major test for AI-driven US stock market,2026 年 4 月 29 日
[5] Reuters,US power use to beat record highs in 2026 and 2027 as AI use surges, EIA says,2026 年 4 月 7 日
[6] Reuters,关于 PJM 重新放开发电项目申请的相关报道,2026 年 4 月
[7] Frankle, J. & Carbin, M., The Lottery Ticket Hypothesis: Finding Sparse, Trainable Neural Networks,arXiv:1803.03635
[8] MIT News,New technique makes AI models leaner and faster while still learning(CompreSSM),2026 年 4 月
[9] Eli Lilly 官方新闻稿,Retatrutide 三期临床 topline 数据,2026 年 3 月
[10] Reuters,Elon Musk trial against Sam Altman to reveal OpenAI power struggle, jury is seated,2026 年 4 月 27 日
夜雨聆风