乐于分享
好东西不私藏

AI订阅制收费骗局顶不住了:按量计费来袭

AI订阅制收费骗局顶不住了:按量计费来袭

2026年4月底,一条公告悄悄改写了AI行业的游戏规则。
GitHub Copilot宣布,从6月1日起,所有用户将从固定月费制切换到按Token用量计费。微软在公告里措辞谨慎,把这次涨价包装成”产品进化”——”Copilot已不再是一年前那个简单的编辑器助手,而是能运行长时间多步骤任务的Agent平台。”
言下之意:我们给你升级了产品,所以要多收钱。
这话说得漂亮。但如果你翻一翻历史账单,会发现另一个版本的真相——微软在过去三年里,每个月都在用自己的钱补贴用户的算力消耗。

一笔从一开始就亏损的生意

2023年10月,《华尔街日报》报道了一个让业内人士瞠目的数字:GitHub Copilot的月费是10美元,但每个用户每个月平均让微软亏损超过20美元——重度用户甚至能让微软每月亏损80美元。
换句话说,用户花10块,微软贴20到80块。
这不是初创公司为抢市场而做的短期补贴,这是整个AI订阅行业的系统性亏损模型。Anthropic、OpenAI、Perplexity,没有一家例外。根据第三方测算,Anthropic的Claude订阅用户,每花1美元订阅费,实际上消耗了8到13.5美元的算力成本。OpenAI的情况类似,只是数字更难查证。
这三年,AI公司用一种精心设计的方式,让用户完全感知不到真实成本——用”消息条数”替代Token计数,用”5小时速率限制”代替费用显示,用百分比进度条代替实际消耗。用户看到的是一个月20美元的订阅,感受到的是”好像什么都能做”,却从来不知道自己某次重构代码的对话,实际上烧掉了十几美元的算力。
这不是疏忽,是设计。

订阅制的本质谎言

所有固定月费模式的商业逻辑,都建立在一个前提上:成本相对可预测。
健身房可以卖月卡,因为器械磨损、电费、教练成本,都是可以精算的变量。Google Workspace可以按月收费,因为存储文档的边际成本趋近于零。
但大语言模型不一样。
同样是月费20美元的用户,一个人每天只用ChatGPT查个天气,另一个人每天把10万行代码丢进去重构。前者消耗的算力可能不到1美元,后者可能烧掉200美元。AI公司根本无法控制这个变量,除非把产品做得更烂——降低上下文窗口、切换更便宜的模型、设置使用上限。
而这三件事,AI公司全都做了,用户也全都抱怨过。
更深的问题在于:随着AI能力的演进,烧钱的速度不是在下降,而是在上升。早期的聊天对话,Token消耗有限。但现在的”推理模型”和Agent任务,动辄需要几十万Token才能完成一个工程任务。微软在公告里说”Copilot今天的一次多小时自主编程任务和一次简单提问,以前收你一样的钱”——这话是真的,区别是,以前微软替你垫付了这笔差价。
现在,垫不下去了。

真实成本暴露之后,数字令人吃惊

微软宣布转向按量计费之前,已有用户在GitHub社区测算过真实成本:过去算作”一次高级请求”的操作,实际使用了6万Token的上下文窗口,加上多轮工具调用,折合成本约11美元——而这在原来的订阅制里,不过是300次请求额度里的一次。
Anthropic官方文档最近的更新更能说明问题。今年4月以前,Claude Code的成本说明是”平均每开发者每天6美元,90%的用户日均低于12美元”。更新后变成了:平均每开发者每工作日13美元,90%的用户日均低于30美元。
按30美元/天、21个工作日/月计算,一个重度用户每月算力成本是630美元,一年7560美元。
对一个10人开发团队而言,这意味着:
正常使用下,年算力成本约75,600美元
如果某三个月使用强度上升到日均50美元,全年接近88,200美元
有一个月冲到日均100美元,全年突破10万美元
如果遇到某个大项目日均300美元,10人团队一年算力成本可以飙到75.6万美元
这还只是Claude Code一个工具。
高盛最新研究显示,部分企业的AI Token支出已占到员工薪酬总额的10%,而且有可能在未来几个季度内上升至100%。Uber的CTO在一次行业会议上透露,公司2026年的全年AI预算,在短短几个月内就已烧完。

基础设施的账,更加惊人

订阅制的崩塌,只是AI经济问题的冰山一角。
建一座100兆瓦的AI数据中心,综合成本约44亿美元,其中大头是英伟达GPU。以6年折旧计算,每年仅折旧就超过5亿美元。加上电费、托管费、运维成本,这类数据中心在满负荷运营、客户按时付款的理想状态下,毛利率约16%到37%。
一旦出现空置期或交付延误,这个数字迅速崩塌。
以号称史上最大AI数据中心项目的Stargate Abilene为例。这座由甲骨文为OpenAI建造的德州园区,规划装机1.2GW,总投资估算超过528亿美元。原计划2025年初开始运营,但截至2026年4月底,仅有两栋楼正式产生营收,第三栋还在安装设备。
问题是,甲骨文必须持续支付土地、建设和融资成本——哪怕数据中心还没有投入使用。
更大的问题在于:这整套逻辑能成立,前提是OpenAI必须按时付钱。而OpenAI的CFO Sarah Friar已经在内部公开表态:她担心OpenAI的收入增速,可能不足以支付未来的算力合同。
根据OpenAI自己的财务预测(已被媒体披露),它需要在2030年之前实现累计收入6730亿美元、总消耗8520亿美元。这意味着它必须在四年内将收入规模扩大10倍以上,达到接近微软当前量级的年营收。
而它现在,仍在亏损。
Anthropic的情况同样不乐观。该公司CFO在今年3月透露,公司成立以来的累计总收入为50亿美元。与此同时,Anthropic分别与谷歌和亚马逊签署了”最高5GW”的算力采购协议,据估算总金额超过1000亿美元。
一边是50亿的历史总收入,一边是千亿级别的算力承诺。这个缺口,只能靠持续融资来填。

订阅制的真实用途:让你看不见成本

我在投资这个行业多年,见过很多把定价策略用作增长杠杆的案例。但AI订阅制的操作,是我见过最系统化、最彻底的一次成本遮蔽。
它的逻辑是这样的:
你付20美元月费,感觉”已经付过钱了”,所以在使用时不会计较成本。你拿它写文章、改代码、做分析,每次”感觉很值”,因为你比较的基准是20美元/月,而不是这个任务实际消耗的2美元或15美元算力。媒体的评测也是在这个定价框架下完成的——记者体验Claude Code时,不会感受到每次重构出错、重新尝试背后的Token消耗,只会感叹”哇,一个月20美元能做这么多事”。
这套定价设计,让整个市场对AI的真实经济性产生了系统性误判。
企业管理者要求全员”多用AI”,却不追踪Token消耗;投资人赞扬AI公司的用户增长,却不深究单用户贡献的真实毛利;技术评论者鼓吹AI生产力革命,却用月费体验来估算规模化成本。
一旦切换到按量计费,这些误判都会浮出水面。

真正的问题:ROI在哪里

GitHub Copilot的用户社区在宣布变更后炸了锅,有人说产品”已死”,有人说”完全毁了”。情绪是真实的,但背后的逻辑值得深思——他们真正愤怒的,不是价格涨了,而是他们第一次意识到这个工具的真实成本。
当你知道一个Agent任务要花11美元时,你会开始认真计算:这个任务有没有这个价值?
这个问题,在订阅制下从来没人认真问过。
而当企业开始认真算这笔账时,AI的ROI神话就会受到考验。现有研究中,很难找到系统性证明AI投入产出比为正的数据。工程师”写代码更快了”——但快了多少?省下的时间创造了多少价值?这些时间节省,抵得上每年7万、10万、甚至数十万美元的算力账单吗?
这个问题,很快就会有答案。

我们正在进入AI经济的重新定价周期

按量计费的推进,是一个分水岭,不只是定价模式的改变,而是整个行业泡沫的第一条裂缝显现。
接下来可能出现的连锁反应:
第一,中小企业和个人用户大规模流失。月费20美元和按量付费200美元是两种完全不同的消费心理。那些因为”订阅了反正不用白不用”而频繁使用AI的用户,会在看到真实账单后迅速收手。
第二,AI公司的用户增长数据会变得难看。订阅用户数下滑,会影响估值逻辑,进而影响融资能力,进而影响算力合同的履约能力——这条链条的脆弱性,已经在OpenAI的CFO措辞里透露出来。
第三,”AI生产力革命”的叙事将被迫接受量化检验。当每一次模型调用都明码标价,企业IT部门就必须拿出数据证明这笔钱花得值。这会是很多AI应用的照妖镜。
第四,市场洗牌加速。真正能在按量计费环境下生存的AI产品,是那些解决了真实的高频痛点、用户体验到价值感明显高于成本的产品。凑热闹、蹭风口的产品,会死得很快。

尾声

我不是说AI技术没有价值。语言模型在特定场景下确实能提升效率,这是真的。
但有一件事同样是真的:过去三年,整个行业用一种精心设计的定价方式,系统性地向用户、企业和市场隐瞒了AI服务的真实成本,制造了一场规模空前的”成本幻觉”。这场幻觉支撑了数千亿美元的估值、数百亿美元的数据中心融资,以及无数篇”AI改变一切”的媒体报道。
现在,幻觉开始消散了。
GitHub Copilot的变化,只是第一张多米诺牌。Anthropic和OpenAI的企业客户,已经陆续转向按量计费。消费者订阅的切换,只是时间问题。
当每一次对话都有明确的价格标签,人们就会开始认真想清楚一个问题:这个东西,到底值不值这个钱。
这个问题的答案,将决定AI行业下半场真正的格局。