AI自助餐倒闭潮开始?

4月28日,GitHub 宣布 Copilot 从6月1日起取消固定月费,改为按 token 实际用量收费。理由是”再也扛不住重度用户的推理成本了”。这不是一家公司的定价调整。
这是 AI 行业必须回答的一个问题:当每次使用都有真实成本,固定价格的”随便用”模式还能撑多久?
“一个快速聊天和一次数小时的自主编程,花你一样的钱”
GitHub 的公告写得很直白。
目前的 Copilot 订阅按”请求次数”计费——一次快速问答和一个让 AI 自主编程数小时的 session,消耗的计算资源天差地别,但扣的请求数是一样的。GitHub 一直在”吸收”重度用户飙升的推理成本。
吸收不动了。
据 AI 评论人 Ed Zitron 引述的泄露内部文件,Copilot 的周度成本自今年1月以来几乎翻倍。这个时间点恰好对上了 agentic AI(如 OpenClaw 这类常驻多智能体工具)的崛起——它们能在一周内烧掉普通用户一年的 token。
新定价方案:订阅费变成等额的”AI Credits”。超出部分按 token 计价——输入、输出、缓存 token 全算。费率跟着 API 价格走。
好消息:基础的代码补全仍然免费。
坏消息:代码审查要额外收 GitHub Actions 分钟数。Copilot Code Review 本来是 Pro 计划里最被吹捧的功能之一。
这不是一个产品调整。这是一个信号。
互联网花了三十年降价,AI 三年就走到了拐点
有意思的地方在这里。
互联网的定价史是单向的:拨号时代按分钟计费 → DSL 按流量计费 → 宽带包月不限量。三十年,方向一直不变——越来越便宜,越来越随便用。
AI 在反着走。
ChatGPT 30/月随便出图,Copilot $10/月随便写代码。用户习惯了”订阅即无限”——这是互联网二十年养成的肌肉记忆。
但 AI 的底层算力没有完成互联网的工业化跳水。每次推理都需要 GPU 运转,每块 GPU 都有边际成本。
Netflix 加一个用户成本趋近于零。ChatGPT 加一个重度用户,每月成本可能是几百美元。
Ars Technica 的报道给了一个关键背景:Anthropic 已经开始要求大型企业客户支付其使用的全部计算成本,而不是享受订阅补贴。Anthropic 还短暂测试过把 Claude Code 从 $20/月的 Pro 计划中移除,虽然测试后没有永久执行,但方向已经很清楚了。
GitHub 只是第一个捅破窗户纸的。
谁是”重度用户”?不一定是大公司
GitHub 说这次调整是为了”减少对重度用户的门槛限制”——听起来像在说大企业。但真正被影响的,可能是小团队和个人开发者。
逻辑很简单:大公司本来就在用 Copilot Enterprise,议价能力强,用量大反而能谈到更低单价。真正的”重度用户”可能不是财富 500 强,而是一个独立开发者——每天靠 Copilot 写十几个小时的代码,效率是别人的两倍,但付的钱跟只用来写 email 的经理一模一样。
新定价后,这个独立开发者的账单会暴涨。
换句话说,最依赖 AI 提升效率的人——自由职业者、小团队、个人开发者——恰恰是按量收费下受冲击最大的人群。因为他们用得多,而且没有大企业的议价筹码。
这才是真正吊诡的地方:AI 工具的”重度用户”本来是它的核心用户,是口碑传播者,是社区里的示范案例。但按固定价格卖给他们,公司在亏钱。按用量收费后,在赚钱和赶走核心用户之间,只剩一条极细的钢丝。
如果 token 越来越贵
往远看一步。
Copilot 转按量收费不是终点。如果这个模式被验证——用户不跑、收入涨——所有按固定月费卖 AI 的公司都会跟进。
ChatGPT 现在是 $20/月无限用。但 OpenAI 刚跟微软结束了独家云合作,投奔 AWS。云计算成本要重新算账。如果 ChatGPT 也按 token 收费呢?
Midjourney $30/月随便出图。但图像生成的计算成本比文本高一个数量级。如果 Midjourney 也改按张收费呢?
AI 就会从”水电煤”退化成”奢侈品”。
这不是比喻。水电煤是基础设施——接入后按用量付费,单价低到你不觉得在花钱。但 AI token 的定价现在是什么水平?GPT-5.5 每百万 token 输出 $30。一次深度对话可能烧掉几百万 token。你算算每天认真用几小时 AI 的账单。
如果 token 价格不降反升——GPU 短缺在加剧,需求在指数增长——会发生什么?
“智能鸿沟”。
有钱的公司和有钱的个人可以无限制调用 AI。普通人开始精打细算每一次 prompt。这个 prompt 值不值得问?这个问题能不能自己查?这个任务要不要关掉 agent 模式省 token?
这不是普通的”知识付费”。 AI 是生产力工具。当扳手按使用次数收费时,用不起扳手的人只能用手拧螺丝。差距不是累加的,是指数级的。
历史上发生过类似的事。九十年代中期,穷人上不起网——拨号按分钟计费,一个月几十个小时的网费足够一个家庭吃好几顿饭。结果就是:整整一代人错过了第一波互联网红利。信息差变成了阶层差。
如果 AI 走到那一步,后果更大——互联网带来的只是信息差,AI 带来的是能力差。别人用 AI 写的代码、做的设计、分析的数据,你做不了。不是你没有天赋,是你加不起 token。
微软的算盘
一个容易被忽略的背景。
GitHub 是微软的。微软是 OpenAI 最大的投资方,但就在上周末,OpenAI 解除了微软的独家云条款,立刻转投 AWS 怀抱。微软则转过头跟 Anthropic 深度绑定——TechCrunch 报道称微软正在做基于 Claude 的 agent 产品。
Copilot 背后的模型用了多个供应商,包括 OpenAI 和 Anthropic。但主力仍是 OpenAI 的 Codex。微软要向这些模型供应商按 API 费率付 token 费。
换句话说:微软失去了 OpenAI 的独家红利,但 Copilot 的推理成本还在涨。以前可以靠”投资方内部价”扛一阵,现在 OpenAI 和 AWS 签了最高 500 亿美元大单,微软这边还有多少折扣,不好说。
Copilot 的定价调整,表面上是 GitHub 的”成本扛不住”,深层是微软 AI 战略在被迫独立。当微软没法再用投资关系换来 OpenAI 的优惠时,它只能让用户买单。
AI 到底是公共服务还是商品?
Copilot 这一改,整个行业都在看。
这不是一个”涨价”的故事。这是一个定义问题:AI 到底是什么?
如果是商品——按量收费天经地义。你用了多少算力,付多少钱。市场定价,愿打愿挨。
如果是公共服务——类似互联网、电力、自来水——那就不能完全按市场逻辑。公共服务的定价要考虑可及性:不能让穷人用不起电。
但现在没人敢回答这个问题。AI 公司嘴上说着”democratize AI”,身体在收 token 费。政府还没想好 AI 到底该不该像电信一样被监管普遍服务。而 Copilot 的定价调整,正在把这个问题从哲学讨论变成下个月账单上的数字。
在那之前,每个普通人都该问自己一个问题:如果 ChatGPT 明天改按 token 收费,我的月账单会是多少?
如果觉得内容不错,欢迎你点一下「在看」,或是将文章分享给其他有需要的人^^
相关好文推荐:
一种快速判别产品AI含量的黄金指标,帮你远离披着AI外皮的传统软件公司
夜雨聆风