19万亿美元的赌局:AI泡沫、技术天花板与中国突围
Goldman Sachs在2025年11月发布了一份报告。报告的核心结论只有一句话:股市已经为AI多付了19万亿美元。
19万亿是什么概念?大约相当于四个半德国/日本,或者一整个中国的GDP。这笔钱已经”预付”给了AI——但AI的经济贡献远未兑现。
这不是一个旁观者的判断。这是一个每天在做AI落地的人,在看到数据之后的真实感受:AI的前景毋庸置疑,但资本催熟的节奏正在扭曲这个行业的发展方向。
一、历史不会重复,但会押韵
2000年3月,纳斯达克指数触及5132点。整个硅谷都在谈论一个词:dot-com。一个公司只要在名字后面加上”.com”,股价就能翻几倍——不需要盈利,甚至不需要收入,只需要一个”互联网概念”。
两年半后,纳斯达克跌到1108点。蒸发约5万亿美元。数百家公司倒闭,数万人失业。留下的废墟里,也确实长出了Amazon、eBay、Google——但那是泡沫挤掉之后的事。
互联网最终改变了世界。但那些在山顶上买入的人,大多数等不到这一天。
25年后,相似的画面正在重演。 只不过这次”.com”换成了”AI”。
二、一道算不赢的数学题
先算一笔账。
目前与AI相关的资产估值,市场已定价约19万亿美元的溢价。我们做一个最乐观的假设:30倍市盈率,30%净利润率。这意味着AI行业需要创造大约2万亿美元的年营收,才能撑住这个估值。
2万亿美元是什么概念?全球云计算市场2025年的总规模大约是6000亿美元。也就是说,AI需要创造一个超过整个云计算行业三倍以上的市场,才能让当前的估值显得合理。
即使放宽假设——50倍市盈率、20%净利率——也仍然需要约7600亿美元的年营收。而目前整个AI行业的实际年营收,离这个数字还有数量级的差距。
MIT经济学家Daron Acemoglu的研究提供了一个参照:他估算AI在未来十年对全球GDP的实际贡献可能仅在2%左右。2%当然不是小数,但它远不足以支撑一个19万亿美元的溢价预期。
泡沫不一定意味着AI没有价值。泡沫意味着市场对AI价值的兑现时间表过于乐观。
三、谁在为泡沫买单
泡沫的代价不只是账面损失。
Goldman Sachs 2026年4月的经济研究揭示了一个正在发生的现实:AI替代效应在美国每月消灭约2.5万个岗位,AI增强效应仅创造约9000个新岗位——净流失约1.6万个岗位/月。
受冲击最严重的是22-25岁的Z世代入门级员工。他们是AI替代效应的”第一波牺牲品”——简历投出去,回复说”我们现在用AI了”。
更早的估算更加触目:全球约3亿个全职岗位可能受到AI自动化的影响。 与此同时,AI创造的财富正在向极少数科技巨头集中。英伟达、微软、谷歌、Meta四家公司的市值之和已超过10万亿美元。
这就是”转移GDP”的真实含义。AI不仅在经济产出层面转移价值,还在就业层面和财富分配层面产生系统性影响。如果AI不能在替代岗位的同时创造足够多的新岗位和新价值,那它就不是在推动进步,而是在加剧不平等。
四、技术撞墙:AI的四个天花板
很多人把AI的突破寄托在”更多的算力”上。但算力不是万能的。AI正同时撞上四个天花板。
(一)算法的边际递减
自2017年Transformer架构诞生以来,整个生成式AI行业建立在一个核心信仰之上:更大的模型 + 更多的数据 + 更多的算力 = 更强的能力。这就是Scaling Law。
但2025-2026年的多项研究显示,Scaling Law正在进入边际收益递减区域。 Algorithm AI在2026年2月的分析预测,到2027年单纯的模型扩展可能出现明显的收益递减拐点。简单地说:每投入一倍算力,换来的能力提升越来越小。
这已经被现实验证了。
2025年初,中国AI公司DeepSeek用不到GPT-4十分之一的训练成本,达到了接近GPT-4o的水平。Scaling Law不是唯一的路径,甚至可能不是最优路径。(DeepSeek的战略含义将在第六章详细展开。)
(二)硅的物理极限
芯片的发展正在从”物理突破”时代进入”工艺改良”时代。
从几百纳米到几十纳米(约2000-2015年),每一代制程缩小都伴随着真正的物理创新——高K介电材料、应变硅、FinFET晶体管结构。但从十几纳米到如今的3纳米甚至2纳米,进步越来越依赖工程工艺而非基础物理。
McKinsey 2025年的分析明确指出:“半导体行业正在走向一个未来——性能提升越来越多来自更聪明的芯片架构,而非单纯的晶体管缩小。”
当晶体管间距缩小到几纳米级别时,量子隧穿效应开始显著——电子可以”穿透”本应阻隔它们的势垒,导致漏电流急剧增加。这不是工程问题,是物理定律的硬约束。
Nvidia最新架构的算力提升,相当一部分来自物理规模的扩大(更大的芯片面积、多芯片模块封装),而非单个晶体管的性能飞跃。这种”堆规模”的路径有上限——散热、功耗、良率和成本都在形成硬约束。
(三)能源
AI是一个”电力换智能”的游戏。而电不够用了。
宏观视角:全社会的电力危机
2025年,美国AI全口径用电量约2200亿千瓦时,中国约2100亿千瓦时——各自都已是一个不小的数字。作为参照,德国2025年全年发电量为4376亿千瓦时,两国AI用电量都已超过德国全年发电量的一半。AI用电占美国全社会用电量的5.2%,中国为2.0%。
2025年两国全年新增发电量:美国1210亿千瓦时,中国4910亿千瓦时——中国是美国的4倍。 AI是美国2025年电力需求增长的第一大来源,贡献了近50%的用电增量;中国AI用电贡献了约32%的增量。中国新增发电量尚可完全覆盖AI带来的新增用电,而美国新增发电量已经跟不上AI用电增长的脚步,局部电网已出现供电缺口。
微观视角:端侧能耗的隐形危机
数据中心的能耗已经广为人知。训练一次GPT-4级别的模型,耗电量相当于120个美国家庭一年的用电量。但更值得关注的是端侧——AI正在从云端走向设备,能耗问题也从机房蔓延到了马路和工厂。
以智能驾驶为例:SAE International 2025年的研究显示,自动驾驶计算系统在ADAS带来的”额外能耗增量”中占比约41%。 从整车行驶能耗角度看,目前AI计算系统约占10%-15%,但随着自动驾驶从L2走向L4/L5,算力需求将指数级增长,这一比例可能攀升至20%甚至更高。如果叠加电动车本身的续航焦虑,端侧AI能耗将成为一个被严重低估的问题。
从宏观到微观,能源瓶颈不是某一个环节的问题,而是从数据中心到终端设备的全链条约束。
(四)数据自我毁灭
这是最被忽视、也是最致命的天花板。
EPOCH AI的研究表明,互联网上由人类数十年积累的高质量文本数据,可能在2026-2028年间被耗尽。 世界经济论坛(WEF)2025年12月的报告也得出了相同结论:高质量数据的”井”正在干涸。
更棘手的是,AI正在”吃掉自己的食物”。
随着AI生成内容在互联网上的比例快速上升,未来的数据抓取将不可避免地混入大量AI生成的文本。用AI生成的内容训练下一代AI,会导致”模型坍缩”(Model Collapse)——模型的多样性和质量逐代退化,最终变成一个越来越平庸的回音壁。
这是一个恶性循环:AI越强大 → 生成的网络内容越多 → 可用的纯净人类数据越少 → 训练出来的AI质量越差。
打破这个循环的关键,不在更大的算力,而在找到互联网之外的、尚未被数字化的真实世界数据。
四个天花板,指向同一个结论:现有路线——硅基芯片 + Transformer + Scaling Law + 互联网数据——的天花板正在到来。
这不是说AI没有未来。而是说,AI的未来可能跟硅谷想象的不一样。
五、AI真正的价值在哪:不在更大的模型,而在更深的场景
(一)垂直AI > 通用AI
McKinsey 2025年全球AI调查报告揭示了一个事实:已产生实际ROI的AI项目中,超过80%集中在垂直领域。
通用大模型能写诗、能画画、能写代码——演示效果惊艳无比。但企业真正愿意持续付费的,是那些深入特定业务流程、解决具体问题的系统:医疗影像诊断、工业产线质检、法律合同审查、金融风控建模。
这里有一个行业里心知肚明的鸿沟:Demo和Product之间的距离,远比大多数人想象的要远。
大多数企业仍停留在AI试点阶段。Deloitte 2026年的报告指出,治理挑战正威胁着近一半的AI项目。一项行业分析专门讨论了”AI Agent生产差距”——为什么大多数AI项目永远无法从试点走向部署。
通用大模型做一个惊艳的Demo,一个API调用就够了。但在生产环境里,你需要处理长尾问题、保证稳定性、理解业务逻辑、控制成本——这些是”秀肌肉”和”干实事”之间的根本区别。
通用AI更像是”聪明的通才”,但企业愿意买单的是”深度的专家”。
(二)数据才是真正的护城河
如果算法不是终极壁垒,芯片也不是——那什么才是?
数据。
这里有一个关键的不对称:算力可以通过资本快速扩产(建数据中心、买GPU),算法有明确的工程路径,但高质量的真实世界数据只能通过时间积累,无法凭空产生。
合成数据(Synthetic Data)存在,但合成数据本质上是对已有知识的重新组合。你可以用合成数据优化模型,但无法用合成数据创造新的物理定律、新的化学反应、新的医学发现。
EPOCH AI的研究表明,互联网上由人类数十年积累的高质量文本数据,可能在2026-2028年间被耗尽。这意味着数据本身正在成为最稀缺的资源。
谁手里握着尚未数字化的真实世界数据——医疗记录、工厂产线数据、实验室实验结果、地质勘探报告——谁就握着AI下半场的入场券。
这同时也解释了为什么AI理解物理世界还差很远。AI可以通过海量文本”知道”苹果会掉下来,但不理解重力和空间关系。真正的物理世界理解,需要感知、操作和预测因果关系——而这些能力只能从物理世界的真实交互数据中获得。
不在互联网上的数据,恰恰是AI最大的蓝海。
六、中美对决:两种哲学的碰撞
中美AI竞赛表面上是技术能力的比拼,底层其实是两种完全不同的技术哲学。
(一)美国的赌注:All-in现有架构
美国的策略很清晰:压注硅基芯片 + Transformer + Scaling Law这条路线,赌规模扩张最终催生AGI的涌现。
这条路线有坚实的事实基础。Nvidia在AI加速器市场占据70%-95%的份额。OpenAI的GPT系列、Anthropic的Claude、Google的Gemini代表了当前最强大的基础模型。美国2025年AI私人投资达到2859亿美元。
美国的赌注是:只要算力足够大、模型足够大、数据足够多,AGI就会从量变走向质变。
至今没有人能从理论上证明AGI一定会涌现。但美国愿意为这个可能性押上几千亿美元。
(二)中国的策略:多路并进
中国面临一个结构性劣势:美国2025年AI私人投资是2859亿美元,中国是124亿美元——23倍的差距。 在”用钱砸算力”的纯规模竞赛中,追起来很吃力。
但中国有三个结构性优势。
第一,工业数据。 中国拥有全球最完整的工业体系和供应链网络。2024年数据生产总量达41.06泽字节(ZB),同比增长25%。中国政府明确提出到2027年打造100个工业领域高质量数据集。这些产线传感器数据、制造业质检数据、物流供应链数据——正是美国互联网公司主导的”文本数据”路线无法覆盖的盲区。
第二,能源基建。 前面提到的可控核聚变进展(EAST装置2025年实现480秒稳态运行),叠加中国在新能源产业链的绝对领先地位,构成了AI大规模部署的能源底座。AI归根结底是”电力换智能”的游戏,谁掌握廉价清洁能源,谁就掌握长期底牌。
第三,开源策略。 这可能是最具杀伤力的一招。
(三)开源围剿:瓦解美国的护城河
2023年,开源AI模型与闭源顶尖模型之间的性能差距还有17.5个百分点。到2025年底,这个差距缩小到0.3个百分点——几乎消失。
MIT Technology Review在2026年4月21日发表了一篇深度报道:”China’s open-source bet”。报道指出,DeepSeek发布一年后,Z.ai、Moonshot、阿里的Qwen、MiniMax等中国AI公司纷纷将最新模型开源。这已不是个别公司的选择,而是一种系统性的策略。
开源路线直接瓦解了美国的两个核心优势。
一是瓦解芯片壁垒。 闭源模型的商业模式依赖算力壁垒——你有最多的GPU就能训练最强的模型,然后高价卖API。但开源模型打破了这个逻辑:权重公开后,任何人都可以在自己的硬件上部署。芯片多不再是绝对优势。
二是瓦解资本优势。 美国私人投资是中国的23倍,但如果中国最好的模型免费开源——那花上千亿美元训练出的闭源模型,怎么跟免费的东西竞争?
这是中国开源策略的精妙之处:不追求在闭源赛道上正面击败OpenAI,而是通过持续输出高质量开源模型,把整个市场”向下拉平”。
当然,美国闭源仍有优势。在复杂推理、长上下文理解、多模态融合等前沿领域,GPT-5系列和Claude Opus仍然领先。
但问题是:这种3-4个月的领先幅度,值不值得消费者真金白银地持续付费?
这是AI行业即将面对的根本性商业问题。
(四)DeepSeek冲击:硬件依赖的双重瓦解
DeepSeek的意义远不止于”更便宜的中国版GPT”。它带来的是一个两层递进的冲击。
第一层冲击:AI能力提升不再单纯依赖硬件堆量。
DeepSeek的MoE(混合专家模型)架构,让模型在推理时只激活总参数中的一小部分,而非每次都把整个模型跑一遍。配合精细的工程优化,训练成本不到GPT-4的十分之一,却达到了接近GPT-4o的性能。代码生成甚至略优(82.6% vs 80.5%)。
这意味着什么?意味着”更多GPU = 更强AI”这个支撑美国AI战略的底层信条,已经被动摇。算法效率的提升可以在很大程度上替代硬件堆量。
第二层冲击:AI能力提升不再依赖美国硬件。
这层冲击更加深远。DeepSeek选择了开源——模型权重完全公开。开源权重意味着任何硬件都能部署:华为昇腾910B能跑,寒武纪的思元芯片能跑,海光的DCU能跑。你甚至可以在相对老旧的GPU集群上运行优化后的量化版本。
美国”芯片禁令”的逻辑链是:限制高端GPU出口 → 中国买不到足够算力 → 中国AI发展受阻。但开源生态打破了这条链——当最好的模型是免费的,当它能在任何硬件上运行,”买不到Nvidia就做不了AI”的叙事就站不住脚了。
把这几层放在一起看,一个更完整的图景浮现出来: 中国AI正在形成一套不依赖美国的完整体系——开源模型解决算法层,国产芯片解决硬件层,全球最完整的工业体系提供数据层,新能源产业链提供基础设施层。这不是某一项技术的突破,而是一条系统性的替代路线。
(五)一个值得深思的交叉
回看四个天花板——算法边际递减、硅芯片物理极限、能源瓶颈、数据耗尽——这恰恰是美国All-in策略的前提条件。如果Scaling Law失效、芯片撞墙、能源不够——那美国的”信仰驱动规模化”策略就面临巨大的路径风险。
而中国”多路并进”的策略,虽然每条路的资源投入不如美国集中,但抗风险能力更强。
Stanford HAI 2026 AI Index报告提供了一个令人深思的数据:中美AI模型的能力差距已经缩小到仅2.7%。 在23倍的投资差距下,这个数字本身就是对”All-in规模”路线的一个反问。
七、破局
“破局”不是等待某一项技术奇迹从天而降,而是从思维框架上做出系统性转向。回到四个天花板——算法递减、硅物理极限、能源瓶颈、数据耗尽——每一条都在指向同一个方向:AI下半场的竞争规则,已经从根本上改变了。
(一)眼下:从”更大的模型”转向”更深的场景”
前面说过,已产生实际ROI的AI项目,超过80%集中在垂直领域。这意味着破局的第一个着力点不在实验室,而在产线、病房、车间、柜台。
第四章已经论证过:互联网上的高质量文本数据正在耗尽,物理世界的”暗数据”才是无限的蓝海。谁率先把真实世界的数据搬上AI的餐桌,谁就拿到了下半场的优先入场券。
企业需要建立的判断框架是:AI项目的ROI不是由模型大小决定的,而是由数据质量和场景深度决定的。 一个用中等模型、跑在私有数据上的垂直系统,大概率比一个调用最顶级大模型但没有独占数据的通用产品更有商业价值。
(二)三到五年:从”算力竞赛”转向”效率竞赛”
第六章已经详细分析过DeepSeek的冲击:算法效率的提升可以在很大程度上替代硬件堆量。这意味着未来三到五年的竞争焦点,将从”谁拥有最多的算力”转向”谁用最少的算力做出最好的效果”。
在能源维度上,第四章的数据已经很清楚:中国新增发电量完全可以覆盖AI用电增长,而美国局部电网已出现缺口。“电力换智能”这场游戏,中国握着更大的底牌。
开源生态的持续发酵会加速这一进程。当高质量模型免费可得,企业的核心竞争力就不再是”能不能用到最好的模型”,而是”有没有最好的数据和最深的场景理解”。这恰恰是中国企业的传统强项。
(三)十年维度:碳基芯片与量子计算
碳基芯片是用碳纳米管、石墨烯等碳基材料替代硅基晶体管,本质还是电子计算,只是换了材料基底,目标是延续摩尔定律。目前已有实验室验证,但距离大规模量产仍有相当距离。
量子计算是另一条完全不同的路径,理论上在大规模并行计算中潜力巨大,但目前仍处于原理验证阶段。
这两条路线的共同意义在于:硅基芯片不是计算的终点。 当美国All-in的”算力信仰”建立在硅基芯片上,而硅的物理极限正在逼近——这条路的长期风险是真实存在的。
(四)更远的未来:生物计算
如果碳基芯片是”换材料”,那生物计算就是”换范式”。
人类大脑大约860亿个神经元,运行功率约20瓦,却能完成世界上最复杂的认知任务。从能效比看,生物大脑对硅基芯片有数量级的碾压优势——这不是工程优化能追平的差距,而是计算原理本身的差异。
这不是科幻。Nature在2025年11月报道了”用人脑类脑器官运行的计算机”的研究——科学家用实验室培养的脑类脑器官实现了基础的信息处理任务。生物计算已经从概念走向实验。但距离实用化,保守估计仍有十到十五年甚至更长的距离。
生物计算对AI的启示不在于它什么时候能落地,而在于它揭示了一个根本性问题:模仿大脑的计算方式,可能比堆砌更多的晶体管更接近智能的本质。
(五)对个体意味着什么
回到第三章的数据:AI在美国每月净消灭约1.6万个岗位,全球约3亿个岗位可能受到影响。
这不是危言耸听。但恐慌也没有必要。
AI最容易替代的,是”信息的搬运工”——那些工作内容本质上是接收、整理、转发信息的人。 不论你是初级分析师、初级程序员、初级文案,如果核心技能只是”把A的信息格式化为B的需求”,这个位置迟早会被压缩。
AI很难替代的,是”物理世界的操作者”和”复杂决策的承担责任者”。 一个熟练的外科医生、一个能解决异常产线问题的工程师、一个能判断客户真正需求并推动成交的销售——这些角色需要物理世界的感知、经验的直觉、以及承担决策后果的责任心,都不是当前AI能做到的。
务实的建议是:不要试图在AI最擅长的领域跟它竞争,而是找到AI触达不到的物理世界缝隙,把自己嵌入到真实场景的决策链条中。 拥有独占数据和深度场景理解的人,无论AI如何发展,都是稀缺的。
八、东方既白
1943年11月,德黑兰会议召开。罗斯福、丘吉尔、斯大林坐在一起,讨论的议题不是怎么打下柏林,也不是怎么夺回太平洋上的下一座小岛——他们讨论的是战后世界该怎么划分、联合国该怎么建、国际秩序该由谁来主导。
当时苏德战争还在乌克兰拉锯,太平洋战争还在为一个个小岛和制空权血战。但巨头们已经很清楚:当世界上最庞大的工业机器为了一个确定的目标全面开动,战争的结局已经没有悬念。 中途岛扭转了太平洋战局,库尔斯克会战消耗了德军最后的进攻能力——战场上的攻守已经异型,胜负只是时间问题。
八十多年后,相似的一幕正在上演。
模型还在迭代,benchmark还在刷分,发布会还是一个接一个。但当最庞大的工业体系、最完整的产业链、最丰富的人才储备全面转向一个方向时,尤其当DeepSeek V4的横空出世——历史已经反复给出过答案。
1943年的巨头们没有等到最后一枪打响,就开始讨论战后秩序。因为他们知道,有些结局不是在某一天突然到来的,而是在很久以前就已经注定了。
东方既白。
(全文完)
夜雨聆风