Claude 使用受限,给 OpenClaw 找个平替
最近一直在做一件很现实的事:如果 GPT、Gemini、Claude 这些国外模型不方便继续作为 OpenClaw 和 Claude Code CLI 的基座,国内模型到底该怎么选?
我自己的场景很典型。OpenClaw 主要负责做日报、搜网页资讯、读网页内容、跑定时任务;Claude Code CLI 则主要承担代码和开发任务。之前 OpenClaw 接的是 Kimi 2.5 多模态 API,按量计费,一个月跑下来也要不少费用。问题在于,我平时高频 coding 其实主要还是用 Codex,所以这笔钱长期看并不划算。
其实,如果是 OpenClaw 这类任务型场景,核心就是“搜网页、读网页、整理输出”。这时候更重要的是稳定、听话、成本可控,而不是一味追求最强。所以,日报、网页资讯、定时任务优先看 GLM-5-Turbo;如果任务更复杂、更长链,再考虑 GLM-5.1。
如果是 Claude Code CLI 这类开发场景,我更看重代码理解、多轮修改和性价比。我的选择会更偏向:MiniMax M2.7 作为国内第二梯队 coding 副手;如果追求更高上限和更强长程任务能力,再看 GLM-5.1。
所以我现在更认可的一套国内平替策略是:
OpenClaw:GLM 系列为主,先解决日报和网页任务;
Claude Code CLI:MiniMax M2.7 优先,GLM-5.1 作为更强备选。
这套思路的重点,不是谁最火,而是谁更适合自己的真实工作流。
很多时候,真正有用的不是找到一个“完美模型”,而是找到一套能长期用下去、成本也能接受的组合方案。
其它金额
赞赏金额
¥
最低赞赏 ¥0
1
2
3
4
5
6
7
8
9
0
.
浙江,4小时前,
夜雨聆风