乐于分享
好东西不私藏

OpenAI Codex 限额政策全解读:你的 AI 编程助手到底能"用多久"?

OpenAI Codex 限额政策全解读:你的 AI 编程助手到底能"用多久"?

当你正沉浸在 AI 辅助编程的快感中——代码自动补全、Bug 智能修复、复杂逻辑一气呵成——屏幕上突然弹出一行冷冰冰的提示:
**您已达到本时段使用限额。**
这种体验,大概就像马拉松跑到 40 公里被拦下要补票。
OpenAI 最近更新了 Codex 的使用限额政策,从按”消息数”计费转向更精细的”Token 消耗”模式。这套规则看起来复杂,但背后逻辑其实很清晰。今天我们就拆开来讲。

一、限额的”三层蛋糕”

首先,你得搞清楚自己是哪类用户。OpenAI 把用户分成三六九等(Plus/ Pro / Business / API key),每等的”蛋糕”大小完全不同。
一个小函数的自动补全,可能只消耗 0.1 个”消息单位”;但让它一次性重构整个模块,可能就要吃掉你好几个单位。简单说:越复杂的任务,”烧”得越快。
而 Business 和 Enterprise 用户已经全面转向 Token 计费——这是更”透明”的计费方式,后面细说。

二、Token 计费:新的游戏规则

从 4 月 2 日起,OpenAI 开始把 Business 和新 Enterprise 用户迁移到 Token 计费模式
什么叫 Token?简单说,就是你输入的内容 + AI 输出的内容,都被切分成一个个”词元”。中文一个汉字通常算 1-2 个 Token,英文一个单词大约 1 Token。
新的价目表是这样的(单位:Credits/百万 Token):
几个关键信息:
  1. 缓存输入便宜 10 倍 —— 如果你反复问同一类问题,AI 会”记住”上下文,这部分就不重复计费。
  2. 输出比输入贵得多 —— GPT-5.4 输出 1M Token 要 375 Credits,而输入只要 62.5。这意味着让 AI 写长文档比问短问题更”烧钱”。
  3. Mini 模型性价比高 —— GPT-5.4-mini 的输入单价只有旗舰款的 30%,输出更是便宜了 70%。
Plus 和 Pro 用户暂时还用旧的”消息数“模式,详见下表,但 OpenAI 明确表示:迁移只是时间问题。

 三、限额用完了怎么办?

当你看到那个”已达到限额”的提示,有三种选择:

方案 A:买 Credits

Plus 和 Pro 用户可以直接购买额外的 Credits,不用升级套餐。类似于游戏里的”体力值”用完了,花点钱补满。

方案 B:切 Mini 模型

GPT-5.4-mini 可以让你的限额”撑”久 2.5 到 3.3 倍。如果你只是在做代码补全、简单重构这种”低智力密度”任务,完全没必要杀鸡用牛刀。

方案 C:接 API Key

如果你有自己的 OpenAI API Key,可以绑到 Codex 上,按官方 API 价格计费,独立于 Codex 的限额体系。适合重度用户。

四、代码审查的坑

这里有个容易忽略的细节:
Code Review 使用量只针对 GitHub 集成场景。
什么意思?如果你在 GitHub PR 里 @Codex 让它审查代码,这会从你的”代码审查配额”里扣。但如果你在本地运行 Codex 审查自己的代码,这算普通使用量,走的是”本地消息”或”Token”配额。
两条赛道,别搞混了。

五、如何让限额”活”得更久?

OpenAI 官方给了几条建议,翻译成人话:

1. 控制提示词长度

别把整个项目历史都塞进 Prompt 里。精简上下文,只给 AI 真正需要的信息。

2. 精简 AGENTS.md

如果你在用 AGENTS.md 管理项目上下文,注意文件大小。嵌套越多,Token 消耗越大。

3. 关掉不用的 MCP Server

每个 MCP Server 都会给你的消息加”料”。不需要就关掉,给上下文瘦身。

4. 善用 Mini 模型

简单任务用 GPT-5.4-mini,复杂任务再切旗舰款。这是最有效的”省流量”方法。

六、如何查看实时限额?

两个入口:
  1. Codex 使用仪表盘 —— 网页端查看历史用量和配额状态。
  2. CLI 内命令 —— 会话中输入 /status,实时显示剩余配额。
建议养成习惯,做大任务前先看一眼。

写在最后

AI 编程助手正在从”按人头订阅”转向”按用量计费”——这几乎是所有 SaaS 产品的终极归宿。
对轻度用户来说,Plus 的限额可能永远用不完;但对重度开发者,理解这套计费逻辑、学会”精打细算”,正在成为一项新的职场技能。
毕竟,Token 不是免费的。而你的项目预算,也不是。