高管AI周观察 | 第18周
本周概览
经过三年的疯狂补贴和增长,AI 订阅模式的经济基础开始崩溃。OpenAI 预计其核心产品 ChatGPT Plus 的订阅量将在2026年暴跌80%,而 Microsoft 被迫将 GitHub Copilot 转向按 token 计费,正式宣告“AI 补贴时代”的终结。与此同时,NVIDIA CEO Jensen Huang 宣布“推理拐点”已经到来,计算需求在两年内增长了100万倍,但这种增长却建立在不可持续的经济模型之上。更令人警醒的是,主流媒体和知名学者开始公开质疑科技巨头在 AI 基础设施上的7000亿美元投入是否构成“史上最大的资本错配”。
本周关键词: 订阅崩溃、推理拐点、资本错配、token 计费、AI 经济学、编程代理突破、CPU 短缺、补贴终结
趋势一:AI 订阅模式的经济崩溃
趋势解读:
经过三年的高速增长,AI 订阅模式的经济基础正在崩溃。本周最震撼的消息来自 The Information 的报道:OpenAI 内部预测显示,其每月20美元的 ChatGPT Plus 订阅量将从2025年的4400万用户暴跌80%至2026年的900万用户。这不是一个渐进式的调整,而是一场断崖式的崩溃。
更令人震惊的是 OpenAI 的应对策略:他们计划通过推广每月5-8美元的广告支持版本“ChatGPT Go”,将订阅量从2025年的300万激增3600%至2026年的1.12亿。即使这个近乎不可能的增长目标实现,按每月5美元计算,OpenAI 仍将面临1.55亿美元的收入缺口。
几乎在同一时间,Microsoft 宣布 GitHub Copilot 将于2026年6月1日全面转向基于 token 使用量的计费模式。这标志着 AI 行业最成功的订阅产品之一正式放弃了固定月费模式。此前,GitHub Copilot 每月收费19美元,但用户平均每月消耗的 token 成本高达20-80美元,Microsoft 三年来一直在补贴这个差额。
核心动态:
- OpenAI ChatGPT Plus 订阅量预计暴跌80%
— 从2025年4400万降至2026年900万,计划用更便宜的 ChatGPT Go 弥补(需增长3600%) [The Information] - GitHub Copilot 转向按 token 计费
— 6月1日起结束固定月费,用户将按实际 token 消耗付费,Microsoft 称现有模式“不再可持续” [GitHub Blog] - AI 订阅的真实成本曝光
— Anthropic 文档显示 Claude Code 用户平均每天消耗13-30美元 token,年成本高达3276-7560美元 [Anthropic Docs] - 企业 AI 支出失控
— Goldman Sachs 报告显示部分企业 AI token 支出已达员工成本的10%,预计数季度内将达100% [Ed Zitron] - Anthropic 调整定价策略
— 企业客户已转向按 token 计费,消费者订阅调整即将到来 [The Information]
这场崩溃的根源在于 AI 订阅模式从一开始就建立在不可持续的经济基础上。与 Netflix 或 Spotify 这类订阅服务不同,AI 服务的成本与用户使用量直接挂钩,且波动极大。一个用户可能只用 ChatGPT 做简单搜索,而另一个用户可能要求它重构整个代码库或生成长篇文档。在固定月费模式下,后者的 token 消耗可能是前者的数百倍。
更糟糕的是,AI 公司刻意隐藏了真实成本。他们使用“请求数”、“消息限制”或百分比进度条,而非直接显示 token 消耗量和成本。这种信息不对称让用户在不知不觉中养成了高消耗习惯,也让企业在预算规划时严重低估了真实开支。
当 GitHub Copilot 用户发现他们过去一个“高级请求”(premium request)实际消耗了价值11美元的 token 时,Reddit 论坛瞬间炸锅。用户们意识到,他们过去三年享受的“生产力革命”,本质上是 Microsoft 每月补贴他们数十美元甚至上百美元的结果。
关键数据:
-
OpenAI ChatGPT Plus 订阅量预计从4400万降至900万(-80%) -
ChatGPT Go 需要从300万增长至1.12亿(+3600%)才能弥补收入 -
GitHub Copilot 用户平均每月消耗20-80美元 token,但只支付19美元 -
Claude Code 企业用户平均每天消耗13-30美元,年成本3276-7560美元 -
部分企业 AI token 支出已达员工成本的10%,预计将达100% -
Anthropic 用户曾能用1美元订阅费消耗8美元 token(800%补贴率)
趋势二:推理拐点与编程代理的突破
趋势解读:
就在 AI 订阅模式崩溃的同时,AI 应用本身却在经历一场真正的突破。NVIDIA CEO Jensen Huang 在 GTC 大会上宣布:“推理拐点已经到来。”他指出,过去两年 AI 计算需求增长了100万倍,其中训练需求增长1万倍,而使用量(推理)增长100倍。这意味着 AI 已经从实验室走向生产环境,从“训练时代”进入“推理时代”。
本周最显著的信号是编程代理正在“突破容器”(breaking containment)。OpenAI 的 Codex 和 Anthropic 的 Claude 都不再满足于仅仅辅助编程,而是开始进入更广泛的知识工作和创意工作领域。
OpenAI 推出了“Codex for Work”,明确将 Codex 定位为通用计算机工作助手,而非仅仅是编程工具。新版本支持 Microsoft Office、Google Workspace、Salesforce 集成,可以处理文档、电子表格、演示文稿、研究和规划任务。Codex 的计算机使用(Computer Use)速度提升了42%,并引入了类似 Anthropic Cowork 的规划界面和文件编辑器。
Anthropic 则推出了 Claude Security(代码审查工具)和对创意工具的支持,包括 Blender、Autodesk、Adobe Creative Cloud、Ableton、Splice、Canva 等。这标志着 AI 代理正在从程序员的工具变成设计师、音乐人、视频制作者的工具。
核心动态:
- Jensen Huang 宣布“推理拐点到来”
— AI 计算需求两年增长100万倍,推理成为新的增长引擎 [NVIDIA GTC] - OpenAI Codex 突破编程领域
— 推出“Codex for Work”,支持 Office/Google/Salesforce,计算机使用速度提升42% [OpenAI] - Claude 进入创意工作领域
— 支持 Blender、Adobe、Ableton 等创意工具,推出 Claude Security 代码审查 [Anthropic] - GPT-5.5网络安全能力突破
— 英国 AI 安全研究所报告显示 GPT-5.5在多步骤网络攻击模拟中达到71.4%成功率,接近 Claude Mythos [UK AISI] - Cursor 推出 SDK 平台化
— 将 Cursor 的运行时、工具和模型开放给 CI/CD、自动化和产品内嵌代理使用 [Cursor] - CPU 需求激增
— Intel CEO 称推理计算导致 CPU 需求增长10倍,可能出现 CPU 短缺 [Intel Q1 Earnings]
推理拐点的到来意味着 AI 的价值创造方式发生了根本性转变。在训练时代,投资主要流向 GPU 集群和大规模预训练;在推理时代,价值创造发生在每一次用户交互、每一个代理任务、每一行生成的代码中。这解释了为什么企业的 AI token 消耗如此之高:因为 AI 已经深度嵌入了日常工作流程。
编程代理的突破尤其值得关注。过去,AI 辅助编程被视为一个垂直应用;现在,它正在演变为一个通用的“计算机使用”平台。当 Codex 可以操作 Office 文档、Claude 可以控制 Blender 时,我们看到的不再是“AI 辅助工具”,而是“AI 操作系统”的雏形。
但这种突破也带来了新的挑战。Intel CEO Lip-Bu Tan 在 Q1财报电话会议上警告,推理计算正在导致 CPU 需求激增,可能出现 CPU 短缺。原因很简单:虽然模型推理在 GPU 上运行,但代理执行的实际任务——运行软件、操作文件、模拟环境——都需要大量 CPU 资源。而过去两年,企业为了购买 GPU 已经削减了 CPU 的更新预算,现在正面临一个尴尬的局面:有 GPU 但没有足够的 CPU 来支撑代理工作负载。
关键数据:
-
AI 计算需求两年增长100万倍(训练1万倍×使用100倍) -
Codex 计算机使用速度提升42% -
GPT-5.5网络安全任务成功率71.4%,接近 Claude Mythos 的68.6% -
Intel 报告推理计算导致 CPU 需求增长10倍 -
Cursor SDK 开放,支持 CI/CD 和产品内嵌 -
Claude 支持10+创意工具平台
趋势三:史上最大资本错配的质疑
趋势解读:
就在 AI 行业庆祝推理拐点到来的同时,一个更深层的问题开始浮出水面:这场 AI 基础设施的疯狂投资是否构成“史上最大的资本错配”?
本周,知名 AI 批评者 Gary Marcus 的警告首次被主流商业媒体 MarketWatch 引用为头条。MarketWatch 的文章标题直指要害:“科技巨头2026年在 AI 上的7000亿美元支出被称为‘史上最大的资本错配’”。这标志着对 AI 泡沫的质疑已经从学术圈和技术社区扩散到主流商业媒体。
更值得注意的是,HBO 的《Last Week Tonight》节目也在本周播出了关于 AI 炒作的深度批评。当主流娱乐媒体开始嘲讽 AI 行业时,这通常意味着公众情绪正在发生转变。
质疑的核心在于 AI 数据中心的经济学根本不成立。以 Oracle 为 OpenAI 建设的 Stargate Abilene 数据中心为例:这个1.2GW、耗资528亿美元的项目预计年收入100亿美元,但考虑到 GPU 折旧、电力成本、托管费用和债务利息,其毛利率在第一年仅为5.19%,而在开始偿还本金后将变为负40%。
更糟糕的是,这个项目的可行性完全依赖于 OpenAI 能否实现其疯狂的增长预测:从2026年到2030年,OpenAI 需要筹集或赚取8520亿美元才能支付所有计算合同。这要求其业务每年增长250%,四年内增长10倍,同时还要在2030年前实现现金流为正。
核心动态:
- MarketWatch 引用“史上最大资本错配”警告
— Gary Marcus 的批评首次成为主流商业媒体头条 [MarketWatch] - 《Last Week Tonight》批评 AI 炒作
— HBO 主流节目开始嘲讽 AI 行业过度承诺 [HBO] - 科技巨头2026年 AI 投入7000亿美元
— 但 ROI 证据稀缺,多项研究质疑实际回报 [Multiple Sources] - Oracle Stargate 项目经济学崩溃
— 528亿美元投资,预计毛利率仅5.19%,偿还本金后变为负40% [Ed Zitron Analysis] - OpenAI 需要8520亿美元才能生存
— 2026-2030年需筹集或赚取8520亿美元支付计算合同,要求年增长250% [The Information] - AI 数据中心建设严重滞后
— 宣称的114GW 容量中仅15.2GW 在建,且“在建”可能只是“地上有个坑” [Industry Analysis]
这场质疑的核心不在于 AI 技术本身是否有价值,而在于当前的投资规模、速度和经济模型是否可持续。问题在于三个层面:
第一,供需错配。AI 数据中心的建设周期是1-3年,但客户需求的可见性只有几个季度。Oracle 为 OpenAI 建设7.1GW 容量,预计总收入750亿美元,但 OpenAI 的支付能力完全依赖于其能否实现不切实际的增长预测。如果 OpenAI 在2027年融资失败,Oracle 将面临巨额亏损。
第二,技术折旧。NVIDIA 的年度升级周期意味着今天安装的 GPU 在完成第一个客户合同(通常6年)后几乎没有剩余价值。这与传统数据中心完全不同:传统服务器可以使用10年以上,而 AI GPU 的经济寿命可能只有2-3年。
第三,需求集中度。50%的在建 AI 数据中心容量是为 OpenAI 和 Anthropic 建设的。这两家公司都在大幅亏损,且都依赖持续融资。如果其中任何一家出现财务问题,整个 AI 基础设施行业都将遭受重创。
更深层的问题是:即使 AI 技术持续进步,当前的商业模式能否支撑这种投资规模?当用户发现他们需要为 AI 服务支付真实成本时,需求会不会大幅萎缩?当企业发现 AI token 支出达到员工成本的100%时,他们会不会重新评估 ROI?
关键数据:
-
科技巨头2026年 AI 基础设施投入:7000亿美元 -
Oracle Stargate Abilene 总投资:528亿美元 -
Stargate 预计年收入:100亿美元 -
Stargate 第一年毛利率:5.19% -
Stargate 偿还本金后毛利率:-40% -
OpenAI 2026-2030年需要筹集/赚取:8520亿美元 -
OpenAI 需要的年增长率:250% -
宣称的 AI 数据中心容量:114GW -
实际在建容量:15.2GW(仅13.3%) -
OpenAI+Anthropic 占在建容量比例:50%
本周时间线
4月26日(周六)
-
Anthropic 开放 Claude 对创意工具的支持(Blender、Adobe 等)
4月27日(周日)
-
HBO《Last Week Tonight》播出 AI 炒作批评节目 -
Oracle 发推称 Stargate Abilene“按计划进行”(实际严重滞后)
4月28日(周一)
-
The Information 报道 OpenAI 预计 ChatGPT Plus 订阅量将暴跌80% -
Ed Zitron 发表《AI‘s Economics Don’t Make Sense》深度分析 -
Intel Q1财报电话会议,CEO 警告 CPU 需求激增10倍 -
Anthropic 推出 Claude Security 代码审查工具
4月29日(周二)
-
OpenAI 推出“Codex for Work”,突破编程领域 -
GitHub 宣布6月1日转向按 token 计费 -
英国 AI 安全研究所发布 GPT-5.5网络安全能力评估 -
Cursor 推出 SDK,平台化编程代理能力
4月30日(周三)
-
Gary Marcus 发推警告“史上最大资本错配” -
MarketWatch 引用 Gary Marcus 警告作为头条新闻 -
Latent Space 发布《The Inference Inflection》深度分析 -
Demis Hassabis(DeepMind CEO)接受 Y Combinator 访谈
5月1日(周四)
-
OpenAI 发布 Codex 计算机使用速度提升42%的更新 -
Replit CEO 谈“未来公司只剩两种工作” -
多个开源模型发布:Qwen3.6 27B、Tencent Hy3-preview
5月2日(周五)
-
Y Combinator 发布“递归是 AI 的下一个扩展定律”视频 -
社区持续讨论 AI 订阅模式崩溃的影响
本周关键指标:
-
OpenAI ChatGPT Plus 订阅量预计变化:-80% -
ChatGPT Go 需要增长率:+3600% -
AI 计算需求两年增长:100万倍 -
CPU 需求增长:10倍 -
企业 AI 支出占员工成本比例:10%→100% -
科技巨头2026年 AI 投入:7000亿美元 -
OpenAI 2026-2030年需要资金:8520亿美元
趋势洞察
本周的三个信号共同指向一个深刻的矛盾:AI 技术正在经历真正的突破,但支撑这场突破的商业模式和投资逻辑正在崩溃。
矛盾的核心:
一方面,推理拐点确实到来了。编程代理突破容器,进入知识工作和创意工作;AI 开始真正嵌入企业工作流程;计算需求增长100万倍。这些都是技术成熟和应用落地的信号。
另一方面,支撑这场应用爆发的经济基础却是不可持续的。AI 公司通过补贴训练用户养成高消耗习惯,企业在不知不觉中将 AI 支出推高到员工成本的10%甚至100%,数据中心建设者为两家亏损公司投入数百亿美元,而这一切都建立在不切实际的增长预测之上。
本周关键信号:
- 订阅模式崩溃是必然的
— AI 服务的成本结构决定了固定月费模式不可持续,按 token 计费是唯一合理的定价方式。但这将导致用户需求大幅萎缩,因为大多数用户无法或不愿支付真实成本。 - 推理拐点带来新的瓶颈
— 从 GPU 短缺到 CPU 短缺,从训练成本到推理成本,瓶颈在转移但没有消失。更重要的是,推理成本随使用量线性增长,这与互联网服务的边际成本递减完全不同。 - 资本错配的质疑进入主流
— 当 MarketWatch 和 HBO 开始质疑 AI 投资时,这不仅是舆论转向的信号,更是投资者情绪可能转变的前兆。历史上,技术泡沫的破裂往往始于主流媒体的质疑。
三个信号的内在联系:
这三个信号不是孤立的,而是同一个故事的三个章节:
- 第一章(订阅崩溃):
揭示了 AI 商业模式的根本缺陷 - 第二章(推理拐点):
展示了技术突破带来的新挑战 - 第三章(资本错配):
质疑了整个投资逻辑的可持续性
展望下周:
下周值得关注的方向:
-
GitHub Copilot 用户对按 token 计费的实际反应 -
OpenAI 是否会调整 ChatGPT Plus 的定价或限制 -
更多 AI 公司是否会跟进转向按 token 计费 -
投资者对 AI 基础设施投资的态度是否开始转变 -
企业客户如何应对 AI 成本的大幅上升
经过三年的疯狂增长和补贴,行业开始面对一个残酷的现实:当前的商业模式和投资逻辑可能根本不可持续。
对于企业高管而言,本周的信号非常明确:
- 重新评估 AI 投资的 ROI
— 当 AI 成本从“每月20美元”变成“每天30美元”时,很多应用场景的经济性将完全改变。 - 准备应对成本上升
— 按 token 计费将成为常态,企业需要建立 AI 支出的监控和管理机制。 - 关注技术债务
— 在补贴时代养成的 AI 使用习惯可能在真实成本下无法持续,需要重新设计工作流程。 - 警惕供应商风险
— AI 基础设施的建设高度集中在少数亏损公司,供应链风险正在上升。
AI 技术本身仍在快速进步,编程代理的突破是真实的,推理能力的提升是显著的。但技术进步不等于商业成功,更不等于投资回报。本周的信号表明,AI 行业正在从“技术炒作”阶段进入“经济现实”阶段,而这个转变可能比大多数人预期的更加痛苦。
最关键的问题是:当用户和企业需要支付 AI 的真实成本时,这个市场还有多大?
这个问题的答案,将决定 AI 行业的未来。
夜雨聆风