"Openclaw"换脑了!DeepSeek V4把GPT踢下默认宝座,开发者:月账单降90%

4月26日凌晨,OpenClaw发了个新版本,新用户默认模型,从GPT换成了DeepSeek V4 Flash。
过去两年,这个位置一直在GPT和Claude之间轮换。现在,它属于Deepseek。

1/5成本,98%能力
OpenClaw创始人Alex Turner说得很直白:
“我们需要一个不仅聪明,而且’听话’、’便宜’且’开源’的大脑。”
压力测试数据很明显:DeepSeek V4 Flash用GPT-5 Turbo 1/5的成本,跑出了98%的逻辑跟随率。
Deepseek主打力大砖飞,量大管饱,加量不加价。
再看定价:
|
|
|
|
|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
对于一个开发者来说:日均10万次Agent调用,用GPT-5.5 Pro月成本可能上千美元,换成DeepSeek V4 Flash?几十美元搞定。
科技博主Sean Donahoe在X上发了条帖子,直接说:
“今天早上,我把Claude Code、Codex、Cursor、Aider,以及我用的所有其他编程智能体全部指向了DeepSeek端点。我的月账单将下降90%以上,而且效果比昨天还好。”
闭源涨价,开源降价
有意思的是,OpenAI在4月23日发了GPT-5.5,同时把API价格翻了一倍。
不到24小时,DeepSeek把V4开源了——MIT协议,100万token上下文,输出token每百万3.48美元,大概是GPT-5.5的十分之一。
两条路彻底分家了。闭源派堆算力、冲上限、涨价,你要最强就多掏钱。开源派抠效率、打普惠、降价,你要够用就少掏钱。
同时,DeepSeek V4的技术报告中,把华为昇腾和英伟达写进了同一份硬件验证清单。这意味着全球第一次有万亿参数级别的顶级大模型,跑在英伟达CUDA生态之外。
有人叫好,有人翻车
新版本发出来,社区反馈两极分化。
有人在评论区说”DeepSeek-V4-Flash很好用,非常棒的选择”。
也有人吐槽”更新需谨慎,会变不幸”——有部分用户升级后反馈,遇到了依赖缺失、网关启动失败的问题。同时,OpenClaw的生态日报里写了,v2026.4.21版本有依赖打包问题,全新安装大面积崩溃。
功能猛是猛,稳定性嘛……还在修。
AI这盘棋,玩法变了
OpenClaw换脑,表面是技术选型,实际是两种商业逻辑在打架。
当”够用+便宜+可控”开始赢过”最强+昂贵+依赖”,AI这盘棋的玩法变了。
你会冲新版本,还是再等等?

🌟加入社群🌟
为了更好地了解和满足大家的需求,我们建立了「Agent OpenClaw开发者交流群」。
加入 AI Agent开发者交流群,你可以和众多志同道合的朋友一起交流AIGC的最新进展,了解商业动态,获取教程资源,跟上大模型时代的这股浪潮。
扫描下方小助手的微信,开启你的OpenClaw之旅。请备注“昵称-地域-工作岗位”

THE END
夜雨聆风