乐于分享
好东西不私藏

AI 的经济学逻辑根本说不通

AI 的经济学逻辑根本说不通

本文翻译自 Ed Zitron’s Where’s Your Ed At

昨天,GitHub Copilot 用户终于等到了那个消息——其实我一周前就预告过:所有 GitHub Copilot 套餐将于 2026 年 6 月 1 日起改为按量计费

微软不再给用户按”请求次数”,而是按你实际消耗的模型算力收费。官方说法是”迈向可持续、可靠 Copilot 业务的重要一步”。用户以后只能花订阅费等值的 token——比如 $19/月的套餐,就只能用 $19 的 token。

说白了就是:”没法再补贴你们了,不然 CFO 要拿棒球棒打人了。”

GitHub 的说辞

GitHub 的公告本身就很值得玩味:

Copilot 已经不是一年前的产品了。它从一个编辑器里的助手,进化成了能跑长时间、多步骤编程任务的智能体平台,可以用最新模型,在整代码库里迭代。智能体模式正在成为默认,这带来的是高得多的算力需求。

现在,一个简单的聊天问题和一场几小时的自主编程,对用户来说成本是一样的。GitHub 一直在补贴这些不断上涨的推理成本,但原来的”高级请求”模式已经撑不住了。

按量计费能解决这个问题,让价格真正反映使用量,保证服务长期稳定,也不用再限制重度用户。

你看,不是微软补贴了近两百万用户的算力,而是AI 变得太强、太复杂,已经完全是另一个产品了!

可问题是,Copilot 再怎么变,那个核心的经济矛盾从来没变过:微软连续三年让用户每个月消耗的 token 都超过他们付的订阅费。

《华尔街日报》2023 年 10 月报道过:

个人用户每月付 $10 用 AI 助手。那年头几个月,公司平均每个用户每月亏 $20 多,有些用户一个月就能烧掉 $80。

现在,GitHub Copilot 用户群情激愤,说产品”已死”、”彻底废了”。

这不是我第一次预警。两年前写《AI 的“次贷危机”》时我就说过:

一种次贷式的 AI 危机正在酝酿。整个科技行业押注在一个被大幅折扣化的技术上,由巨头集中补贴。迟早有一天,生成式 AI 惊人的烧钱速度会追上来——结果就是涨价,或者推出一些贵得离谱的新功能。比如 Salesforce 的”Agentforce”,每段对话收 $2——贵到连有钱的企业客户都无法接受。

这一天,终于来了。

生成式 AI 的经济模型根本就是坏的

先打个比方。

当年 Uber 涨价的时候,底层经济逻辑没变——乘客付钱坐车,司机收钱开车。司机自己付油费、保险、牌照费、车贷,这些成本 Uber 没补贴。Uber 的亏损来自补贴用户、疯狂营销、还有自动驾驶这种烧钱项目。

但生成式 AI 订阅完全不一样。

想象一下另一种 Uber:

  • 每月 $20,可以坐 100 次车,每次 100 英里以内随便坐
  • 油价 $150 一加仑
  • Uber 帮你付油钱,因为有人信誓旦旦说”石油以后会便宜到不用钱”

然后有一天,Uber 说:从现在开始,$20 只是”司机服务费”,油钱你自己出。

突然间,用户从每月 $20 坐 100 次车,变成了 $20 服务费 + 10 英里路程 $26 油费。

用户当然要炸。

这差不多就是 GitHub Copilot 现在发生的事。

之前 Copilot 给的是:每月 300 次”高级请求”,外加 GPT-5 mini 等模型的”无限聊天”。每个请求就是”你让 Copilot 干活的任何互动”,用贵的模型就扣更多次数。

这还不是最狠的。到 2025 年 5 月之前,微软给的是模型无限用——即使那时候用户都已经对”有任何限制”很不爽了。

微软——和所有 AI 公司一样——用一个根本不可能持续的模式把客户骗进来,因为LLM 服务从来就不该用月费模式卖。

月费订阅本身就是骗局的一部分

从来就没有、以后也不会有——用月费卖 LLM 服务还能赚钱的方法。 不按用户实际消耗的 token 收费,这事本身就不可持续。而在欺骗用户的过程中,这些公司创造了一堆看起来有用、实际上投资回报存疑的产品。

这事儿几年前就显而易见了

月费模式只有在成本相对固定的时候才有意义。健身房卖年卡,是因为它大概知道器械损耗、课程成本、水电人工这些费用。Google Workspace 卖办公套件,是因为存储成本很低,文档处理也不吃算力——一个重度用户不会把利润吃光。

但 AI 用户的花费可以差出十万八千里。

有人只是偶尔用 ChatGPT 搜个东西,有人每天往里塞几万字的文档、重构代码库、生成 PPT。服务商——不管是 OpenAI、Anthropic 还是 Cursor——除了把产品变差(限制用量、缩小上下窗口、逼用户用便宜模型),根本没法控制成本。

更过分的是,这些服务故意不让你看到 token 消耗。用户根本不知道”速率限制”意味着什么,每次突然改规则,用户都只能抓瞎算自己还能干多少活。

这就是一种虐待用户、操纵信息、欺骗市场的商业模式。唯一的目的就是让 Anthropic、OpenAI 这些公司快速做大用户规模——因为大多数用户对 AI 的”价值感”,建立在每个月花 $1 却能烧掉 $8-13 的 token 这个基础上。

这种刻意的信息不对称只有一个目标:让大多数人永远接触不到生成式 AI 的真实成本。

真正的问题是:企业承受得起吗?

我上周提到过,Uber 的 CTO 在一个会议上说,他们几个月就把 2026 年全年的 AI 预算花光了。 高盛的报告显示,一些公司在 AI token 上的花费已经占到员工成本的 10%,未来几个季度可能涨到 100%

这是多年来培训用户”尽量多用 AI”同时隐藏真实成本的直接结果。每一家让员工”多用 AI”的大公司,要么根本没看过真实账单,要么完全活在梦里。

等公司被迫付真实成本的时候,我不确定有多少人能从经济上证明这笔投资值。

你可以说工程师”写代码更快了”,但快多少?省了多少钱?赚了多少钱? 如果你在 token 上花了员工成本的 10%,你在其他地方看到了相应的回报吗?

我不确定有。我不确定任何砸钱买 token 的企业看到了任何像样的投资回报。

Claude Code 的真实账单

到 4 月初,Anthropic 官方文档还写着:”Claude Code 平均成本是每个开发者每天 $6,90% 的用户每天不超过 $12。”

这周文档悄悄改了:

Claude Code 按 API token 消耗收费。在企业部署中,平均成本约为每位活跃开发者每天 $13,每月 $150-250,90% 的用户每天低于 $30。

按每月 21 个工作日算,Claude Code 用户平均每月 $273,每年 $3,276。如果每天 $30,就是每月 $630,每年 $7,560。

这数字已经很吓人了,更吓人的是——用 Anthropic 的新模型,你根本不可能只花 $30/天。

Claude Opus 4.7 的定价:每百万输入 token $5,每百万输出 token $25。100 万 token 大概是 5 万行代码。

用 $30/天 这个数字算算账:

  • 10 人开发团队,每年 $75,600(只算工作日)
  • 如果平均涨到 $50/天,就是 $88,200/年
  • 如果有个月冲到 $100/天,那年化 $102,900
  • 如果每天花 $300?10 个人就是每年 $756,000

这是每个开发者每年 $75,000,只为了用一个 AI 编程助手。

AI 数据中心的账也算不过来

现在大家谈 AI 数据中心,完全是另一个次元。我不觉得人们意识到这事有多荒谬。

TD Cowen 的 Jerome Darling 给过一组数字:每兆瓦数据中心容量,关键 IT 设备(GPU 之类)成本约 $3000 万,总成本约 $1400 万。建一个数据中心要一到三年——前提是电已经到位。

据说要在 2028 年底前建的 114GW 数据中心容量,真正在建设的只有 15.2GW。”在建设”可能只是”地上挖了个坑”。

Stargate Abilene 是一场灾难

我们来看看本该是”史上最可行”的数据中心项目——Oracle 为全球最大 AI 公司建的超级园区。

哈,开玩笑的,这地方是噩梦。

Stargate Abilene 是一个 8 栋楼、1.2GW 的数据中心园区,约 824MW 关键 IT 负载,2024 年 7 月就宣布了。到 2026 年 4 月 27 日,只有两栋楼在运营、在产生收入,第三栋几乎没有 IT 设备。我估计这地方总成本约 $528 亿。

Oracle 预计每年从 Stargate Abilene 赚约 $100 亿。为 OpenAI 建的 7.1GW 容量,总共能收约 $750 亿。

问题是:Oracle 在赌上自己的未来。 几十亿砸下去,换一个即使 OpenAI 每笔都按时付、也要很多年才能回本的生意。

如果 OpenAI 倒了,Oracle 也得陪葬

更大的问题是:这一切成立的唯一前提,是 OpenAI 那些荒诞的预测真的能实现。

7.1GW 的 Stargate 建成后,每年约 $750 亿收入,总成本超过 $3400 亿。Oracle 自由现金流负 $247 亿,其他业务停滞,唯一的增长引擎就是那块负利润到低利润的云业务。

OpenAI 要能付得起所有计算账单——不管是给 Amazon、Microsoft、CoreWeave、Google 还是 Oracle——它必须在四年内筹到或赚到 $8520 亿。 这意味着每年增长超过 250%,到 2030 年底业务翻 10 倍。

OpenAI 自己的预测:未来四年收入 $6730 亿,但为此要烧掉 $2180 亿。这是一个极不赚钱的生意。

《华尔街日报》报道:

OpenAI 最近没达到新用户和收入目标,这让一些管理层担心公司能否支撑在数据中心上的巨额投入。CFO Sarah Friar 告诉其他高管,她担心如果收入增长不够快,公司可能付不起未来的计算合同。

这像一家能在十年末赚 $8520 亿的公司吗?

Anthropic 也好不到哪去

我经常批评 OpenAI 的那些荒诞承诺,但 Anthropic 也差不多。它从 Google 和 Amazon 那里承诺了高达 5GW 的容量,我估计这笔交易涉及约 $1000 亿的计算承诺。

这些数字疯了。所有承诺都基于一个假设:这些模型实验室能无限融资、无限烧钱。

尾声:补贴时代结束了

GitHub Copilot 转向按量计费是一个信号:补贴时代正在终结。

微软是最有钱、最盈利、最有能力继续补贴算力的公司。如果连它都撑不住了,没人撑得住。

真正要盯着的——真正的”末日信号”——是 Anthropic 或 OpenAI 把所有订阅用户转向按 token 计费。那一天到来的时候,你就知道游戏结束了。

每一个 AI 服务都补贴了算力,每一个都在因此亏损。 当账单真的来敲门,我们终于会看到这项技术的真实成本——以及,还有谁付得起。

🎯 关注 泡壶 AI

及时获取更多新鲜、有料还有味的 AI 资讯与观点