乐于分享
好东西不私藏

别再为换模型改代码了:OpenClaw 接入第三方大模型中转站,一键调用 GPT-5.2(完整落地版)

别再为换模型改代码了:OpenClaw 接入第三方大模型中转站,一键调用 GPT-5.2(完整落地版)

你是不是也经历过这种“上线前夜最真实的噩梦”:

  • • 代码写完了,提示词调顺了,结果模型一限流/抽风——整套流程直接停摆
  • • 供应商 A 的 baseUrl、供应商 B 的 apiKey、供应商 C 的模型名……每换一次就要改一遍配置甚至改代码
  • • 真要长期跑自动化/智能体,最难的根本不是“写得多聪明”,而是:怎么稳定、怎么省钱、怎么不被单点卡死

如果你已经有一个「第三方 API 大模型中转站」(一般是 OpenAI 兼容的网关),那恭喜你:

你离“随时换模型不改代码”只差一步:把它接进 OpenClaw。

这篇文章我不讲虚的,直接给你一份能落地的完整方案:

  • • OpenClaw 怎么把中转站接成一个 Provider(baseUrl + apiKey
  • • 怎么在同一套工作流里切 gpt-5.2 / gpt-5.2-codex / 便宜跑批模型
  • • 怎么做“主力 + 备份 + 跑批”的三层策略,稳定性直接上一个台阶
  • • 附:Codex(以及类 Claude Code/命令行编程助手)怎么指向你的中转站

安全提醒:本文中的 key 仅作格式示例。真实密钥不要发群聊、不要进截图、不要进仓库。怀疑泄露就立刻重置。


很多人上来第一句话是:“哪个模型便宜?”“哪家送额度?”

但真正在生产环境里让你省心的,是下面这三件事:

  1. 1. 统一入口:业务侧只认一个 provider;换模型不再改业务代码
  2. 2. 快速对比:同一任务一键切不同模型,质量/速度/成本一眼就明白
  3. 3. 抗波动:某家限流、抽风、掉线时,立即切到备份模型继续跑

一句话总结:

额度只是门槛;路由能力决定你能不能长期稳定用。


1)最短落地路线:把中转站当成 OpenAI 兼容 Provider

中转站的 API 入口是:

  • • https://sub.jlypx.de/

这类服务通常会提供:

  • • baseUrl:例如 https://sub.jlypx.de/v1
  • • apiKey:形如 sk-xxxxxxxxxxxxxxxxxxxxxxxx
  • • model:例如 gpt-5.2 / gpt-5.2-codex

OpenClaw 的核心思路:

在 ~/.openclaw/openclaw.json 里新增一个 provider,然后用 provider/model 指定默认模型。


2)OpenClaw 手动配置(推荐):只“新增/合并”,不要覆盖原文件

把下面这段“合并进” ~/.openclaw/openclaw.json 里即可(重点是 models.providers):

{  "models": {    "providers": {      "free-gpt": {        "baseUrl": "https://sub.jlypx.de/v1",        "apiKey": "sk-***",        "api": "openai-responses",        "headers":{"User-Agent":"Mozilla/5.0"}        }      }    }  }}

然后把默认模型指到你想用的模型(例如先用 gpt-5.2):

{  "agents": {    "defaults": {      "model": {        "primary": "free-gpt/gpt-5.2"      }    }  }}

2.1 这里最容易踩的 4 个坑

  • • 不要整段覆盖:只“新增/合并字段”。否则你之前其他 provider 配置会被抹掉
  • • baseUrl 是否需要 /v1:多数 OpenAI 兼容网关需要(你给的就是 /v1
  • • 模型引用格式固定:provider/model(只按第一个 / 切分)
  • • key 不要硬编码进公开仓库:最好用本机私有配置文件或环境变量注入

3)三步自检:确认你真的接通了(不是“配了但没生效”)

配置完,按这三步验证:

openclaw models statusopenclaw models listopenclaw models set free-gpt/gpt-5.2

你要看到的现象是:

  • • status 能正常返回 provider 状态
  • • list 能列出你中转站提供的模型
  • • set 切换后,后续任务确实走你指定的模型

如果这三步都 OK,说明你已经把“换模型”从改代码,变成了改配置。


4)模型怎么用得又稳又省:三层策略(主力/备份/跑批)

我建议你不要只选一个“最强模型”,而是按任务分层:

4.1 主力模型:写作、方案、长文质量优先

  • • free-gpt/gpt-5.2

适合:

  • • 结构化写作(标题/摘要/正文)
  • • 观点梳理、逻辑链、对比分析
  • • 长文一致性

4.2 备份模型:代码、脚本、工具调用更顺手

  • • free-gpt/gpt-5.2-codex

适合:

  • • 写脚本、改配置、排错
  • • 需要更强“工程味”的任务

4.3 跑批模型:便宜量大

中转站还提供 gpt-5-gpt-5.2 等模型:

  • • 用来跑批(大量摘要、批量改写、批量生成)更划算

一句话原则:

默认用主力;遇到限流/抽风立刻切备份;需要量大就上跑批。


5)把“切模型”写进日常动作:你会越用越爽

很多人接了中转站之后还是“不会用”,原因是:

  • • 只把它当成“换了一个接口”
  • • 没把切换动作变成习惯

你可以给自己定一个简单 SOP:

  • • 写稿、出方案:gpt-5.2
  • • 写代码、修 bug:gpt-5.2-codex
  • • 批量任务:低成本模型

当你把它变成条件反射,就等于把生产力“稳定地加成”了。


6)Codex(以及类似命令行编程助手)怎么指向你的中转站

你给的“Codex 配置片段”在群里已经被拼接得很乱,我这里给一份干净、可理解的通用思路

本质就是:把 provider 设成 custom,并把 base_url 指向你的 https://sub.jlypx.de/v1,再填 api_key

不同工具的配置文件路径/字段名不完全一样,但关键字段通常只有三个:

  • • provider = custom
  • • base_url = https://sub.jlypx.de/v1
  • • api_key = sk-...

如果你告诉我你用的是:

  • • OpenAI Codex CLI / Claude Code / Gemini CLI / 还是你自研的客户端

直接使用Agent把配置文件的正确路径 + 完整示例给你补齐(并提醒哪些字段千万别进仓库)。


7)避坑清单(这段建议你直接收藏)

  1. 1. 密钥泄露是最常见事故:群聊、截图、录屏、Pastebin 都算高风险
  2. 2. 别宣传“永久免费/无限免费”:很容易引发误解或风控
  3. 3. 上线前至少准备一个备份模型:单点是灾难的开始
  4. 4. 把模型切换变成配置,不要写死在业务里:这就是你接中转站的意义

8)一页结论(给忙人)

  • • 中转站的价值,不是“额度”,而是让你“随时换模型不改代码”
  • • OpenClaw 接入关键就两步:新增 provider + 用 provider/model 指定默认模型
  • • 真正能跑长期的玩法:主力 + 备份 + 跑批 三层策略