OpenClaw 官宣更新,DeepSeek V4 Flash 坐上默认位
昨天,OpenClaw 又更新了。表面看,这像一次普通迭代。但真正值得看的,不只是新版本本身,而是 DeepSeek V4 Flash 正式成为默认大模型。

不是支持,不是兼容,是默认。
默认 这两个字很轻,但分量其实很重。模型列表里多一个选项,和把一个模型直接放到默认入口,完全不是一回事。前者像展示货架,你自己挑。后者像产品团队替大多数用户先做了一轮判断。
先说 OpenClaw 本身。
从公开信息看,它早就不是小圈子里的实验项目了。GitHub 仓库现在超过 36 万 star,定位很清楚,就是一套可以跑在自己设备上的个人 AI 助手。它能接入很多常用渠道,也在持续推进语音、Canvas 和自动化能力。4 月 26 日,它发布了 v2026.4.25-beta.4 预发布版本,更新涉及 TTS、插件注册表、浏览器自动化、PWA 和安装流程优化,能看出来,这个项目已经进入高频迭代状态。

在这种节奏下,默认模型的调整,就不是一个无关紧要的小设置了。
再看 DeepSeek V4 Flash。
这并不是一个突然冒出来的名字。4 月 24 日,TechCrunch 报道了 DeepSeek 对 V4 Flash 和 V4 Pro 的预览。公开信息里,V4 Pro 走更强能力路线,V4 Flash 更像是在速度、成本和可用性之间找平衡。报道里提到,它拥有 100 万 token 上下文。
所以 OpenClaw 把默认位给到 Flash,而不是更强但更重的 Pro,我一点都不意外。说真的,这是个很产品的选择。对普通用户来说,默认模型不是给极客炫参数用的,而是拿来真正聊天、查资料、处理任务的。更多时候,一个速度更快、成本更低、体验更稳的版本,才更适合大多数人。

所以这次切换最有意思的地方,不是 OpenClaw 支持了 DeepSeek,而是它愿意把第一次接触、第一次提问、第一次形成印象的机会,直接交给 DeepSeek V4 Flash。
这背后至少说明一件事,在 OpenClaw 团队看来,DeepSeek V4 Flash 已经不只是一个可以放进兼容列表里的模型,而是一个足以承担默认入口职责的模型。
如果你是普通用户,这件事的意义其实很直接。
-
1. 门槛更低了
很多人第一次接触 AI 产品,卡就卡在第一步。模型太多,不知道选哪个。默认模型一旦定下来,体验会直接顺很多。
-
2. 国产模型更自然地出现在一线入口
以前很多产品也会接 DeepSeek,但更多像附加项。现在不一样了,默认位本身就在改写用户心智。谁在默认位,谁就更容易成为大家最先试、最先记住的模型。
-
3. Agent 产品正在变得更务实
OpenClaw 这种产品不是做模型榜单的,它是要真的拿来聊天、连渠道、跑任务的。一个默认模型能被放上去,看的不是单点跑分,而是整体体验,稳定性、速度、成本,还有够不够省心。
顺着上面的再聊聊,DeepSeek V4 的 100 万上下文 为什么会让这么多人盯着看。
因为这玩意在 Agent 场景里,确实不是个小升级。以前我们用 AI,经常会遇到割裂感,聊着聊着上下文不够了,工具调多了信息断了,文档一长会话就得重开。现在如果长上下文真的能稳定落地,那很多复杂任务的体验会完全不一样。
这也是为什么,这次默认位切换,表面看是在换模型,实际上传递出来的是另一个信号,开源 Agent 产品和国产新模型之间的配合,开始越来越靠前。
当然,这里我还是想把话收回来。我不想把这次变化吹成什么决定行业走向的大拐点。更准确的说法是,AI 产品在选默认模型这件事上,开始越来越看重真实可用,而不是谁的名头更响。
而 DeepSeek V4 Flash 这次坐上默认位,本身就是这种现实的一次落地。它未必会立刻改变所有人的使用习惯,但它会改变第一次进入产品的人,最先摸到的那扇门。
很多变化,就是从默认入口开始的。
夜雨聆风