OpenClaw 把 DeepSeek V4 设为默认模型,AI 助手格局变了
OpenClaw 把 DeepSeek V4 设为默认模型,AI 助手格局变了
2026年4月24日,OpenClaw 发布 2026.4.24 版本。更新日志里有一行字,安静得几乎没人注意:
“ DeepSeek V4 Flash 成为新用户开箱即用的默认模型。
这行字比整个更新日志里其他 50 项新功能加在一起还重要。
一、这件事到底意味着什么?
OpenClaw 是目前全球能力最完整、生态最开放的 AI 助手框架之一。你正在用的 WorkBuddy,底层就是 OpenClaw。
把一个模型设为默认,意思是:每一个第一次安装 OpenClaw 的用户,打开后的第一句话,就是由这个模型来回答的。
在此之前,这个位置长期被 Claude(Anthropic)或 GPT(OpenAI)占据,两家都是美国公司的闭源商业模型。
现在换成了一个中国团队做的、MIT 协议开源的模型。
这件事在 AI 圈的分量,我打个比方:相当于 iPhone 出厂默认搜索引擎从 Google 换成了别的——而且这个”别的”是把搜索算法开源的那种。以前不敢想。
二、DeepSeek V4 到底什么水平?
先摆参数,再聊门道。
|
|
|
|
|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
两个版本完全开源,MIT 协议,商用无门槛。
Pro 版 1.6T 总参数,目前是全球最大的开源模型。Flash 版激活参数只有 13B,每次推理实际只调动 130 亿参数,成本极低,但能力在 Max 模式下几乎追平 Pro。
这恰恰是它能成为默认模型的核心原因:够强,且够便宜。
根据社区测算,DeepSeek V4 Flash 的推理成本大约是 Claude Sonnet 的 1/20,GPT-4o 的 1/15。对于 OpenClaw 这种需要大量工具调用、多轮对话、长上下文的 Agent 场景来说,成本结构直接决定了产品能做到什么程度。
三、OpenClaw 为什么选它?
光便宜没用,还得能用。
OpenClaw 的核心场景不是”聊两句”,而是 Agent 工作流:连续调用浏览器、操作文件、跑代码、发消息、接会议。这对模型的考验不是聊天能力,而是三件事。
第一,工具调用的稳定性。
多轮工具调用是 DeepSeek 之前的软肋。V4 这次专门修了一堆相关 bug。GitHub 的 issue #71372 记录了一个具体问题:在连续工具调用轮次中,assistant 消息的 reasoning_content 字段缺失,会触发 provider 的 replay 检查报错(400 错误)。V4 Flash/Pro 在这个场景下现在稳了。
第二,长上下文下的推理质量。
OpenClaw 的会话上下文经常跑到 5-10 万 token。DeepSeek V4 的 100 万 token 上下文不是摆设,Flash 版在长上下文 benchmark 上基本追平了 Claude 3.7 Sonnet。
第三,中文自然度。
这个不需要 benchmark 证明,你自己用就知道了。用英文写代码注释两个模型差不多,用中文讨论业务逻辑,DeepSeek 的语感明显更贴近国内工程师的表达习惯。
四、两个细节,看得出 OpenClaw 很认真
这次接入不是”加个模型选项”那么简单,OpenClaw 在框架层做了不少适配工作。
细节一:thinking/replay 兼容层重构。
DeepSeek V4 支持思维链(reasoning_content),但 OpenAI 兼容模式和 Anthropic 模式的 replay 策略不同。OpenClaw 把这两套逻辑打通了。V4 的 thinking 内容在 replay 时正确保留,关闭 thinking 时又干净地剥离。这个工作在 GitHub 的 commit 记录里能找到,改动涉及十几个文件。
细节二:模型目录静态化。
以前 OpenClaw 启动时要枚举 registry 来列模型列表,现在把常用模型(包括 DeepSeek V4 Flash/Pro)做成静态目录,启动快了不少。这个改动看起来小,但对用户体验的影响很直接,尤其是网速不好的时候。
五、格局真的变了吗?
说”变了”可能有点早,但说”开始变”是准确的。
从数据上看三个趋势:
趋势一:开源模型在 Agent 场景的占有率正在快速上升。
两个月前,OpenRouter 的数据是闭源模型占 85% 的 Agent 调用量;上个月这个数字降到了 72%。DeepSeek V3 和 V4 是主要贡献者。
趋势二:成本正在重新定义”能做什么”。
以前做一个需要每天跑 100 万 token 的 Agent 任务,Claude 的账单是 15 美元,DeepSeek 是 0.5 美元。差 30 倍。这个差距会让很多之前”理论上可行但算不过账”的 Agent 产品变成现实。
趋势三:中国 AI 模型从”追平”进入”局部领先”。
DeepSeek V2 的时候是追,V3 的时候是平,V4 出来以后,在推理成本、长上下文、代码能力这几个维度上,已经没有明显对手了。
六、你该怎么用?
如果你已经在用 OpenClaw(或者 WorkBuddy),升级到 2026.4.24 之后,新会话默认就是用 DeepSeek V4 Flash,不需要任何配置。
如果想手动切换:
# 切换到 V4 Pro(更强,但贵一点)openclaw config set agents.defaults.model.primary "deepseek/deepseek-v4-pro"# 切换到 V4 Flash(默认,便宜,够用)openclaw config set agents.defaults.model.primary "deepseek/deepseek-v4-flash"
如果你是国内用户,还有一个好消息:DeepSeek 的服务器在国内,延迟比 Claude/GPT 低得多。同等网络条件下,DeepSeek 的首次响应时间大概是 Claude 的 1/3。
尾声
两年前,大家讨论的是”中国什么时候能追上”。
一年前,大家讨论的是”追上了吗?”
现在,OpenClaw 把 DeepSeek V4 设为默认模型,答案已经不需要讨论了。
下一个问题反过来了:当最好的开源模型来自中国,全球开发者会怎么选?
我觉得答案已经在那里了。你去看看现在 GitHub 上新出来的 Agent 项目,dependencies 里有多少个 deepseek,就知道了。
2026 年,AI 助手的话语权,正在发生某种转移。这一次,不是从美国东海岸搬到西海岸,而是跨了太平洋。
参考资料:OpenClaw GitHub Release v2026.4.24、IT之家、123ai.org、GitHub issue #71372(2026年4月)
夜雨聆风