乐于分享
好东西不私藏

2026 年团队 AI 编程工具选型指南——七款付费工具横评

2026 年团队 AI 编程工具选型指南——七款付费工具横评

2026 年团队 AI 编程工具选型指南——七款付费工具横评

因为工作原因需要抉择付费 AI 工具,今年以来我前前后后试了不少主流的 AI 编程工具,有些只是短暂上手,有些用了很长时间。这篇就按自己的实际体验整理一下。如果你的团队也在做 AI 编程工具选型,希望能省一点来回试错的时间。

市面上叫得出名字的 AI 编程工具少说七八款,每一家都有各种套餐和定价方式,有的按请求数计费,有的按 token 计费,有的甚至搞了一套自己的计费规则。下面从几个维度来对比一下这些工具,理清下思路。


先说结论

如果你时间有限,直接看这张表:

团队类型
推荐方案
月费/人
非开发团队、轻度使用
Codex(ChatGPT Plus)
$20
开发团队、性价比优先
VS Code Copilot Pro 或 Trae Pro
$10
开发团队、体验优先
Cursor Pro
$20
专业场景、重度使用
有 Claude 账号就选 Claude Code,没有就 Cursor Pro+ / Ultra + Codex
$60~$200+

下面展开来说说每一款。


一、逐个拆解

1. GitHub Copilot(VS Code)

一句话:门槛最低,生态最广,但”聪明程度”中规中矩。

GitHub Copilot 的最大优势是无缝集成——你已经在用 VS Code 和 GitHub,装个插件就能跑。不需要换编辑器,不需要适应新的交互方式。

定价方面(官方定价页[1]):

档位
月费
高级请求额度
可用模型
Free
$0
50/月
GPT-4o、GPT-4.1、Claude Haiku 4.5 等(Free 档所有模型均消耗高级请求,无免费模型)
Pro
$10
300/月
GPT-4o、GPT-4.1(标准,不扣额度)+ Claude Sonnet 4.5/4.6、Gemini 2.5 Pro、o3 等全线高级模型
Pro+
$39
1,500/月
全部 Pro 模型 + Claude Opus 4.6 Fast Mode(独占)
Business
$19/人
300/人/月
同 Pro
Enterprise
$39/人
1,000/人/月
同 Pro+,全模型访问

这里有个关键概念:高级模型请求(Premium Requests)。在付费档(Pro 及以上),GPT-4o、GPT-4.1 这类标准模型不消耗高级请求额度,随便用。但 Free 档不一样——所有模型每次都扣 1 次高级请求,50 次用完就得等下个月。付费档切到 Claude Sonnet(1x)、Gemini 2.5 Pro(1x)、Claude Opus 4.6(3x)这些模型时就开始扣了,而且不同模型的消耗倍率不一样——用一次 Opus 4.6 相当于扣 3 次高级请求,Fast 模式更夸张,一次扣 30 次。所以 $10 的 Pro 档 300 次额度,如果主要用 Sonnet 级别够了,但想经常用 Opus 就得上 Pro+。

但实话说,Copilot 的交互体验一直没跟上——问一个稍微复杂的问题,它要读半天上下文,最后给你的回答还是会有小纰漏。当你习惯了 Cursor 的速度之后,回来用 Copilot 会有明显的”钝感”。

适合:已经全栈 GitHub 生态的团队,对工具体验要求不那么极致,需要企业级管理功能。

2. Cursor

一句话:体验最好,理解能力最强,Tab 补全最准。

Cursor一直是体感最流畅的 AI 编辑器。它的核心能力在于上下文理解——同样一段代码,Cursor 能更快”看懂”你在干什么,Tab 补全的准确率明显高于其他工具。

官方定价页[2]:

档位
月费
用量倍率
可用模型
Hobby
$0
有限
基础模型(限量使用,前沿模型需 Pro 以上)
Pro
$20
1x
Claude Sonnet 4.5/4.6、GPT-4o/4.1、Gemini 2.5 Pro/3 Flash、Cursor 自研 Composer 系列,以及 Claude Opus、Grok 4 等(需开启 Max Mode,按 API 价格 +20% 扣费)
Pro+
$60
3x
同 Pro,所有模型用量翻三倍
Ultra
$200
20x
同 Pro,所有模型用量翻二十倍,新功能优先体验
Teams
$40/人
同 Pro,共享规则、集中管理、SSO

Cursor 的模型策略比较大方:付费档位都能用所有模型,区别只在用量(Hobby 免费档前沿模型受限)。Pro 的标准额度覆盖了主流模型的日常使用,但如果你想用 Claude Opus 4.6 或 GPT-5.4 这类重量级模型,需要在请求时开启 Max Mode,费用按对应模型的 API 价格 +20% 实时扣。

我自己的体感是,最开始那种按次数用的方式会更舒服一点,心里负担没那么重。现在 Pro 按 token 跑,如果你用得比较狠,额度其实很快就见底了。超出部分按各模型的 API 价格扣费,用的也很快。如果重度使用,建议上 Pro+ 或 Ultra。

适合:对编码体验要求高的开发团队,愿意为生产力多付一点。

3. Trae(字节跳动)

一句话:价格还行,回答质量感觉和copilot差不多。

Trae 是字节跳动做的 AI IDE,之前在国内推了一阵。短暂体验下来,基础功能可用,但聊多了模型就开始”发呆”,回答质量肉眼可见地下滑。

定价确实便宜(官方定价页[3]):

档位
月付
年付月均
基础用量/月
说明
Free
$0
$3
GPT-5 系列、Gemini 3.1 Pro/3 Flash/2.5 Flash、DeepSeek V3.1、MiniMax M2.7、Kimi K2 等,补全 5,000 次/月
Lite
$3
$2.25
$5
同 Free,无限自动补全
Pro
$10
$7.50
$20
同上 + SOLO 模式,快速队列(≤15s),10 个并发云任务
Pro+
$30
$22.50
$90
同上,15 个并发云任务
Ultra
$100
$75
$400
同上 + 抢先体验新模型,20 个并发云任务

Trae 的模型池更新很快,目前已经覆盖了 OpenAI(GPT-5.4、GPT-5.3-Codex、GPT-5.2 等)、Google(Gemini 3.1 Pro、3 Flash、2.5 Flash)、DeepSeek(V3.1)、MiniMax(M2.7)、Kimi(K2)等。没有 Claude/Anthropic 系的模型,这是和 Cursor、Copilot 相比比较明显的短板。现在改成了按 token 计费,各档位能用的模型基本一样,区别在于用量额度。

月付的话 Pro 只要 $7.50/月,几乎是 Cursor 的三分之一。

说心里话,很想支持国产产品。但工具这个东西,用着不顺手的话,省下来的钱会以”多花时间修代码”的方式加倍还回来。

适合:预算极度有限的小团队,或者只需要基础补全和简单问答的场景。

4. Zed

一句话:编辑器本身优秀,但是我没有太深度体验

Zed 是一款用 Rust 写的高性能编辑器,启动速度和响应速度都很快。但它的 AI 策略和其他工具不太一样——核心思路是让你用自己的 API Key(官方定价页[4])。

档位
月费
可用模型
Personal
$0
2,000 次编辑预测/月;自带 API Key 可接任何模型(Anthropic、OpenAI、Google、DeepSeek、Mistral、Ollama 等十几家)
Pro
$10
无限编辑预测,含 $5 token 额度;Zed 托管模型包括 Claude Opus 4.5/4.6、Sonnet 4.5/4.6、Haiku 4.5、GPT-5.4、Gemini 3.1 Pro、Grok 4 等,超出按 API 价格 + 10% 扣费
Student
$0(限一年)
在校大学生可申请,含 $10/月 token 额度,不含 Claude Opus 和 GPT-5.4 pro
Enterprise
定制
SSO、数据安全、集中管理

Zed 的模型策略最灵活:免费档就能接自己的 API Key 用任何模型(支持 OpenRouter、Amazon Bedrock 等十几种供应商),Pro 档则提供 Zed 托管的模型,省去自己配 Key 的麻烦。Pro 档只加 10% 的加价率,比 OpenRouter 的 5.5% 高一点,但一站式省心。

我下了但没深度用。编辑器体验确实流畅,不过 AI 功能更像是”搭了个架子让你自己接”,对于想要开箱即用的团队来说,配置成本不低。

适合:已经有 API Key、想要灵活选择模型的技术团队。

5. Antigravity

一句话:接近 Cursor 的体验,有门槛——账号需要非中国区。

如果只看我自己的实际体感,Antigravity 大概就是现在最接近 Cursor 的那一档工具。编辑器本身没什么学习成本,还是 VS Code 这一套,操作上手很快(官方定价页[5])。

档位
月费
说明
AI Plus
$7.99
基础限额,适合体验
AI Pro
$19.99
更高 Agent 用量,含 $10/月 Google Cloud 额度
AI Ultra
$249.99
最高 Agent 用量,含 $100/月 Google Cloud 额度

我自己的使用感受是,它在编辑器体验上确实做得不错,整体路子也很像 Cursor,所以切过去不会太难受。

但它的问题也很明显。

第一,账号有门槛,需要非中国区。自己偶尔折腾一下还行,真要在团队里推,让每个人都去处理账号问题,比较麻烦,因为现在google账号切区不太好同意了。

第二,它虽然接近 Cursor,但还没到 Cursor 那个程度。我自己的感受是,拿它做轻中度使用没问题,查代码、补点小改动、日常问答都能用;但如果高强度连续用,或者把很多复杂任务都压上去,整体手感还是会比 Cursor 差一点。

适合:团队成员本身就有海外账号、或者公司有统一海外实体的情况。

6. OpenAI Codex

一句话:速度快,理解力强,像一个能干活的朋友——但没有 IDE,纯Agent Window。

Codex 是 OpenAI 的云端编程 Agent,跑在 ChatGPT 里。它会给你开一个沙盒环境,克隆你的仓库,改代码,跑测试,全在云上完成(ChatGPT 定价页[6])。

使用方式:

档位
月费
可用模型
ChatGPT Plus
$20
GPT-4o、o3、o4-mini(有用量上限)、Codex Agent(有限次/天),使用 codex-1 / GPT-5.3-Codex 模型
ChatGPT Pro
$200
同 Plus 全部模型 + 无限/极高用量 + o1 pro / o3 pro 模式(加强推理)+ GPT-5.3-Codex-Spark(更快变体)优先体验
API
按量
codex-mini 模型直接调用

Codex Agent 底层跑的是 codex-1(基于 o3 专门为编程任务训练的版本),后来升级到了 GPT-5.3-Codex。Pro 用户额外能用 Codex-Spark——跑在 Cerebras 硬件上的加速版本,响应更快。

Codex 的体感确实好——响应快,理解意图准确,像是和一个熟悉项目的同事在对话。但它没有独立的 IDE,你得在 ChatGPT 的 Web 界面里操作,或者用 Codex CLI(一个开源的终端工具,登录 OpenAI 我每次都要 切美国节点)。

对于非开发团队来说,Windows 上用 Codex 的 Web 端反而挺方便——不需要装 IDE,打开浏览器就能让 AI 帮你改代码、跑脚本。

适合:已经在用 ChatGPT 付费版的团队,或者需要云端 Agent 帮忙做大块任务的场景。

7. Claude Code

一句话:顶级能力,顶级门槛。

Claude Code 是 Anthropic 出的编程工具,能力毫无疑问是第一梯队的。它有两种用法:

方式一:订阅制(官方定价页[7]

档位
月费
可用模型
Pro
$20
Claude Sonnet 4.5/4.6、Haiku 4.5(默认 Sonnet,Opus 受限)
Max 5x
$100
同 Pro + Claude Opus 4.5/4.6 完整访问,5 倍 Pro 用量
Max 20x
$200
同 Max 5x,20 倍 Pro 用量,新功能优先体验
Team
$30/人
最少 5 人,模型访问同 Max
Enterprise
定制
全功能

注意:Pro 档主要用的是 Sonnet 级别的模型,Opus 的使用受限。想在 Claude Code 里稳定用上 Opus 4.6,得上 Max 档。这也是为什么很多人选择走 API Key——按量付费,想用什么模型用什么模型,没有档位限制。

方式二:API Key 按量付费(API 模型定价[8]

不需要订阅,直接在 console.anthropic.com 充值,按实际 token 用量扣费。这种方式更灵活,适合用量波动大的团队。

Claude Code 的 CLI 方式反而更方便——不需要登录 App,直接配好 provider 就能用。但如果走 App 端(claude.ai),注册需要非大陆手机号。自己可以去接码平台搞,但让团队每个人都这么操作不太现实,也容易封号。

适合:技术能力强的团队,能自己配置 API Key 和 CLI 环境,追求最强模型能力。


二、四维对比

维度一:适用场景

场景
最佳选择
说明
代码补全(Tab)
Cursor > Antigravity > Copilot/Trae
这一项 Cursor 还是最稳,Antigravity 也不错,但我自己的手感还是差半档
代码生成(整块功能)
Claude Code / Codex / Cursor Agent
这三家都能接大块任务,Claude Code 更稳,Codex 更快,Cursor 胜在编辑器里来回切换最顺
文档生成
Claude Code > Codex > Copilot
Claude 写长一点的说明、总结、分析,整体还是最顺
测试辅助
Cursor / Claude Code / Codex
这一项更看你怎么用。要在编辑器里边看边补,Cursor 顺手;要让它自己多读一点上下文,Claude Code 和 Codex 也很能打
代码审查
Claude Code > Codex > Copilot
Claude Code 看长 diff 和跨文件问题时更细,Codex 也不错
CI/CD 集成
Copilot > Claude Code > Codex > Cursor
Copilot 和 GitHub 贴得最紧,Claude Code 更容易直接塞进脚本和流程里,Codex 现在更偏交互式

文档生成方面,我发现Gemini模型的效果是最好的,远超Claude和GPT

维度二:生成质量

按我的实际体感排序:

  1. 1. Claude Code(Opus 4.6)—— 理解深、输出稳定、几乎不瞎编
  2. 2. Cursor(可选多种模型)—— 理解快、补全准,偶尔有小瑕疵
  3. 3. Codex —— 意图理解准确,但遇到复杂架构偶尔会偏
  4. 4. Copilot —— 中规中矩,简单任务够用,复杂任务容易出岔子
  5. 5. Antigravity —— 接近 Cursor,稍逊一点
  6. 6. Trae —— 轻度使用没问题,问深了质量会往下掉
  7. 7. Zed —— 我没深度用过,最后效果很看你接的模型和自己的配置

维度三:使用成本

这里把”成本”拆成三个层面:

学习成本

工具
学习门槛
Copilot
几乎为零,装插件就行
Cursor
低,和 VS Code 操作类似
Trae
Codex
低,Web 端开箱即用
Antigravity
中,需要海外账号
Zed
中,需要适应新编辑器
Claude Code
中到高,CLI 很直接,但真想用顺,还是得花时间配 provider、命令习惯和项目规则

月费对比(开发者个人)

把各家最常用的档位拉在一起看:

工具
入门档
主力档
重度档
Copilot
$0
$10(Pro)
$39(Pro+)
Cursor
$0
$20(Pro)

200(Ultra)
Trae
$0
$10(Pro,月付)
$100(Ultra,月付)
Zed
$0
$10(Pro)
按量超出
Antigravity
$7.99(AI Plus)
$19.99(AI Pro)
$249.99(AI Ultra)
Codex
$20(ChatGPT Plus)
$200(ChatGPT Pro)
API 按量
Claude Code
$20(Pro)
$100(Max 5x) / API 按量
$200(Max 20x) / API 按量

响应速度

Cursor 体感最快。Codex和Claude Code 整轮处理时间会比较长,尤其任务复杂一点的时候,你得给它时间自己读文件、跑命令、来回修。Copilot 中等,Trae 偶尔会掉速。

维度四:CI/CD 集成

工具
CI/CD 友好度
说明
Copilot
★★★★★
GitHub Actions 原生支持,代码审查直接集成
Claude Code
★★★★☆
CLI 可以写进任何 CI 脚本,官方有 GitHub Action
Codex
★★★☆☆
云端 Agent 可以接 GitHub,但主要是交互式使用
Cursor
★★☆☆☆
桌面工具,CI 集成需要额外配置
其他
★★☆☆☆
主要面向本地开发,CI 集成有限

三、模型费用:算一笔明白账

不管用哪个工具,背后都是大模型在干活。了解模型的 token 价格,能帮你判断工具定价是否合理,也能帮你决定是否直接走 API。

主流模型价格(每百万 token)

模型
输入价格
Cached 价格
输出价格
定位
定价来源
gpt-5.4-pro
$30.00
$180.00
OpenAI 高阶模型
OpenAI API 定价[9]
Claude Opus 4.6
$5.00
$0.50(cache hit)
$25.00
Anthropic 顶级模型
Anthropic 定价[10]
Claude Sonnet 4.6
$3.00
$0.30(cache hit)
$15.00
Anthropic 主力模型
Anthropic 定价[10]
GPT-4o
$2.50
$1.25
$10.00
OpenAI 主力
OpenAI GPT-4o[11]
gpt-5.4
$2.50
$0.25
$15.00
OpenAI 新一代主力模型
OpenAI API 定价[9]
GPT-4.1
$2.00
$0.50
$8.00
OpenAI 主力非推理模型
OpenAI GPT-4.1[12]
o3
$2.00
$0.50
$8.00
OpenAI 推理模型
OpenAI o3[13]
Gemini 2.5 Pro

2.50(>200k)

0.25(>200k)

15.00(>200k)
Google 主力
Google AI 定价[14]
o4-mini
$1.10
$0.275
$4.40
推理模型(轻量)
OpenAI o4-mini[15]
Claude Haiku 4.5
$1.00
$0.10(cache hit)
$5.00
Anthropic 快模型
Anthropic 定价[10]
gpt-5.4-mini
$0.75
$0.075
$4.50
GPT-5.4 轻量版
OpenAI API 定价[9]
Kimi K2
$0.60
$0.15
$2.50
代码和 Agent 能力比较强的国产模型
Kimi API Platform[16]
Kimi K2.5
$0.60
$0.10
$3.00
Kimi 当前更高阶版本
Kimi API Platform[16]
Gemini 3 Flash Preview
$0.50
$0.05
$3.00
Google 新一代快模型
Google AI 定价[14]
MiniMax M2.7
$0.30
$0.06
$1.20
MiniMax 主力文本模型
MiniMax Prompt Caching[17]
GLM-4.5
¥0.8
¥2.0
智谱主力代码/Agent 模型
GLM-4.5 官方文档[18]

注:表格按输入价格从高到低排列。各家的 cached 口径并不完全一样,不能简单当成同一种折扣来横比。OpenAI 这里是 cached input;Anthropic 同时区分 cache write 和 cache hit,这里放的是更常拿来估算成本的 cache hit;Google 这里是 context caching,另外还有单独的存储费用;Kimi 用的是 cache hit;MiniMax 同时区分 prompt caching read 和 write,这里先放 read 价格;GLM 公开页目前主要给到输入和输出价格,没有在这一页单独展开缓存价格。另外,这张表按官方原币种保留,OpenAI、Anthropic、Google、Kimi、MiniMax 用美元,GLM 官方文档这里给的是人民币。

实际花费估算

拿一个中等强度的编程场景来算:每次对话大概消耗 2,000~5,000 token 输入,加上 1,000~3,000 token 输出。假设一天 50 次交互,一个月按 22 个工作日算,总量大概是 220万~550万 输入 token,加上 110万~330万 输出 token。

下面这些数字,按官方 API 原价粗算,不把 cached 命中算进去:

  • • Claude Opus 4.6:约 $38.5~$110/月
  • • Claude Sonnet 4.6:约 $23.1~$66/月
  • • GPT-5.4:约 $22~$63.3/月
  • • GPT-4o:约 $16.5~$46.8/月
  • • Kimi K2.5:约 $4.6~$13.2/月
  • • Gemini 3 Flash Preview:约 $4.4~$12.7/月
  • • MiniMax M2.7:约 $2~$5.6/月

所以订阅型工具看起来贵不贵,很多时候还是要看它背后到底给你包了多少模型额度。

像 Cursor Pro 这种 $20/月 的档位,如果你平时主要用的是中档模型,或者不少请求能落到更便宜的快模型上,通常还能撑住。真要长时间高频跑 Claude Opus 4.6gpt-5.4 这一档,$20/月 很快就不够了。


四、OpenRouter:另一种思路

聊完工具和模型,有一个方案值得单独说一下——OpenRouter[19]

OpenRouter 是一个模型路由网关,把 300 多个模型统一到一个 API 接口下。你充值一笔钱,想用哪个模型就用哪个,按实际 token 消耗扣费,平台收 5.5% 的手续费

这意味着什么?

用 Claude Sonnet 4.6 的实际费用

  • • 直接用 Anthropic API:输入 $3.00 / 百万 token
  • • 通过 OpenRouter:输入 $3.165 / 百万 token(贵 5.5%)

5.5% 的加价换来的是:

  • • 一个 API Key 通吃所有模型——OpenAI、Anthropic、Google、DeepSeek、Mistral,全在一个入口
  • • 自动故障转移——某个供应商挂了,自动切到其他供应商
  • • 统一的用量看板——团队可以在一个地方看所有模型的消耗

对于团队来说,OpenRouter 的价值在于降低管理复杂度。你不需要分别在 OpenAI、Anthropic、Google 各开一个账号、各配一把 Key、各管一套计费。特别是配合 Zed 或 Claude Code 这种支持自定义 provider 的工具,OpenRouter 可以作为统一的模型供应层。

但也有局限

  • • 响应延迟比直连多几十毫秒(路由有开销)
  • • 部分模型的最新版本可能上线略晚
  • • 5.5% 的手续费在大量使用时也是一笔钱

是否值得用 OpenRouter:如果团队只用一两个模型,直接走官方 API 更省;如果需要灵活切换多个模型、或者想给不同项目分配不同模型策略,OpenRouter 是一个很好的中间层。


五、选型建议

说回最开始的问题,团队到底该怎么选,我自己的建议大概是这样。

情况一:非开发团队(产品、运营、设计等)

推荐 ChatGPT Plus($20/月,含 Codex),预算更紧的话再看 Trae Lite($3/月)

这类团队通常不太需要 IDE 深度集成,更多是让 AI 帮忙写脚本、整理数据、生成文档,或者直接做一点小修改。Codex 的好处是门槛低,理解力也够,打开就能用。Trae 的优势主要还是便宜,也更适合中文环境。

情况二:开发团队,性价比优先

推荐 VS Code + GitHub Copilot Pro($10/月),预算压得更紧的话可以看 Trae Pro($10/月)

Copilot 的优势是学习成本低,和 GitHub、VS Code 这一套接得最顺,拿来做日常补全、简单问答、基础生成已经够用了。Trae 价格更低一些,但如果用得比较深,质量和稳定性还是会差一截,所以更适合轻中度使用。

情况三:开发团队,体验优先

推荐 Cursor Pro($20/月),重度用户升 Pro+($60/月)

如果只看编辑器里的整体手感,我现在还是会把 Cursor 放在前面。它理解上下文快,Tab 也准,日常开发确实舒服。问题也很直接,Pro 现在按 token 跑,重度用户额度掉得很快,所以团队里高频使用的人,最好一开始就按 Pro+ 去看。

情况四:专业场景,已经把 AI 真正用进日常工作流

推荐 Cursor + Codex

Cursor 负责编辑器里的主力体验,Codex 负责接大块任务、复杂改动、长链路处理,这一套更贴近我自己现在的实际用法。它的好处是分工清楚,而且整体门槛比 Claude Code 更低一些。

如果团队本身已经能稳定使用 Claude Code CLI / API,那它也很值得加进来,特别是在大规模重构、代码审查、长文档生成这些场景里,能力还是很强。但这一步更适合已经能处理好 provider、账号和团队接入问题的团队。

如果团队会长期混用多种模型,再叠一层 OpenRouter 也可以,主要是为了统一 key、统一计费和统一路由。


写在最后

上面说的所有体验,都是基于工具的出厂配置。如果你愿意花时间配置自定义 Prompt、Rules 和 Skill,每个工具的上限都会再提高一大截。但选型阶段,我更看重的是”到手即用”的体验。

以上所有观点都是个人使用的真实体验,如果有不准的地方,欢迎指正。

引用链接

[1] 官方定价页: https://github.com/features/copilot/plans[2] 官方定价页: https://www.cursor.com/pricing[3] 官方定价页: https://trae.ai/pricing[4] 官方定价页: https://zed.dev/pricing[5] 官方定价页: https://one.google.com/intl/en/about/google-ai-plans/[6] ChatGPT 定价页: https://openai.com/chatgpt/pricing[7] 官方定价页: https://claude.com/pricing[8] API 模型定价: https://docs.anthropic.com/en/docs/about-claude/pricing[9] OpenAI API 定价: https://developers.openai.com/api/docs/pricing[10] Anthropic 定价: https://platform.claude.com/docs/en/about-claude/pricing[11] OpenAI GPT-4o: https://developers.openai.com/api/docs/models/gpt-4o[12] OpenAI GPT-4.1: https://developers.openai.com/api/docs/models/gpt-4.1[13] OpenAI o3: https://developers.openai.com/api/docs/models/o3[14] Google AI 定价: https://ai.google.dev/gemini-api/docs/pricing[15] OpenAI o4-mini: https://developers.openai.com/api/docs/models/o4-mini[16] Kimi API Platform: https://platform.moonshot.ai/[17] MiniMax Prompt Caching: https://platform.minimax.io/docs/api-reference/anthropic-api-compatible-cache[18] GLM-4.5 官方文档: https://docs.bigmodel.cn/cn/guide/models/text/glm-4.5[19] OpenRouter: https://openrouter.ai/models