乐于分享
好东西不私藏

这把砍向全球AI定价权的「价格屠刀」——附升级DeepSeek V4之小龙虾(OpenClaw)完整操作指南

这把砍向全球AI定价权的「价格屠刀」——附升级DeepSeek V4之小龙虾(OpenClaw)完整操作指南

2026年4月,DeepSeek V4悄然更新了定价页面。

Flash版本,输入每百万token一块钱,缓存命中时降到两毛。输出,两块钱。这个数字低到让不少开发者第一反应是“标错了”。与此同时OpenAI GPT-5.5的百万toen输入定价仍然在数十美元区间,Claude和Gemini同样高高在上。

这不是一张价格表。这是一把正在切进全球AI市场定价体系的刀。

而当DeepSeek宣布即将逐步淘汰旧版V3.2接口,要求开发者迁移到V4时,这把刀被推得更深了一步。数万开发者正在经历的这场“升级”,表面看是一次技术版本迭代,实质是一场精心设计的生态迁徙——用不可抗拒的低价和更强的能力,把开发者从旧大陆引向新大陆。

如果你正在使用DeepSeek、正在使用OpenClaw(小龙虾),这篇指南将帮你完成升级迁移,迈向“Token自由”。但在敲命令之前,先看清这次升级背后正在发生的暗战。


价格悬崖:一个被低估的战略武器

先看数字,再看数字背后的逻辑。

根据DeepSeek官方最新公告(人民币定价,单位:元/百万tokens),V4系列两款模型的定价如下:

特性
deepseek-v4-flash
deepseek-v4-pro
定位
日常对话、摘要、翻译
深度推理、复杂代码
上下文窗口
1,000,000

 tokens
1,000,000

 tokens
最大输出长度
32,768 tokens
65,536 tokens
输入价格(缓存未命中)
1 元 12 元
输入价格(缓存命中)
0.2 元 1 元
输出价格
2 元 24 元

这个定价在全球AI大模型市场中,处于一个极端位置。百万token的处理成本被压到了“聊胜于无”的级别。对于调用频繁的开发者来说,V4 Flash的日消耗甚至可能低于一杯咖啡——而这杯咖啡能驱动一个产品一整天的AI交互。

为什么DeepSeek要把价格压到这个水平?

不是为了做慈善。压低价的战略意图很清楚:用不可抗拒的迁移诱惑推动整个开发者生态从V3.2切换到V4,完成一次大规模的版本换代。迁移的成本被刻意压低,而迁移后获得的是接近8倍的上下文窗口、更快的响应速度和更强的推理能力。这不是割韭菜,这是发糖——但糖里包裹的是下一步战略:在这个全球开发者纷纷涌向DeepSeek的时间窗口里,用定价权争夺市场份额。

在全球AI竞赛中,价格正在成为DeepSeek撕开垄断缺口的最直接武器。它不是内卷,而是外卷——把价格带到竞争对手难以跟进的水平,用成本优势撬动全球开发者的选择和习惯。


OpenClaw(小龙虾)升级Deepseek V4指南

动手之前,必须备份。

打开终端(或 PowerShell),执行以下命令:

cp ~/.openclaw/openclaw.json ~/.openclaw/openclaw.json.bak
这会在.openclaw目录下生成一份备份文件。
一旦配置出错,随时可以恢复。这一步不到一秒钟,但它是你在任何时候都能全身而退的保证。接下来,请判断你的使用场景属于哪种情况:
  • 情况A:deepseek-chat(V3.2)是你当前的默认模型,唤醒直接调用它。
  • 情况B:deepseek-chat只出现在后备模型(Fallbacks)列表里,默认模型是别的。

情况A:deepseek-chat是我当前的默认模型

第1步:手动添加V4模型定义,清理旧版

旧配置文件里还没有V4的模型信息。直接用 openclaw models set 命令可能报“模型不存在”,所以我们手动编辑配置文件,一次性梳理干净(本文皆以笔者电脑上的文件为例,各人的配置文件内容会略有不同,仅供参考)

用编辑器打开配置文件openclaw.json,找到 "providers" 下 "deepseek" 那一整段,大致结构如下:

"deepseek": {  "baseUrl""https://api.deepseek.com",  "api""openai-completions",  "models": [    {      "id""deepseek-chat",      "name""DeepSeek Chat",      ...    },    {      "id""deepseek-reasoner",      "name""DeepSeek Reasoner",      ...    }  ]}
参考以下代码修改相关参数,生成新配置。
"deepseek": {  "baseUrl": "https://api.deepseek.com",  "api": "openai-completions",  "models": [    {      "id": "deepseek-v4-flash",      "name": "DeepSeek V4 Flash",      "reasoning": false,      "input": ["text"],      "contextWindow": 1000000,      "maxTokens": 32768,      "cost": {        "input": 1,        "output": 2,        "cacheRead": 0.2,        "cacheWrite": 0      },      "compat": {        "supportsUsageInStreaming": true      },      "api": "openai-completions"    },    {      "id": "deepseek-v4-pro",      "name": "DeepSeek V4 Pro",      "reasoning": true,      "input": ["text"],      "contextWindow": 1000000,      "maxTokens": 65536,      "cost": {        "input": 12,        "output": 24,        "cacheRead": 1,        "cacheWrite": 0      },      "compat": {        "supportsUsageInStreaming": true      },      "api": "openai-completions"    }  ]}
说明:价格字段单位均为元/百万 tokens
input为缓存未命中价格,cacheRead为缓存命中价格,output为输出价格,cacheWrite写入缓存通常为0。

同时,在配置文件靠前位置,如果看到类似以下旧定义:

"deepseek/deepseek-chat": {  "alias": "DeepSeek"}

直接删除该段后续可用 openclaw models alias 命令为新模型重新设置别名,不影响功能。

保存并退出编辑器。

第2步:设置默认模型和后备模型

依次执行以下命令:

# 将默认模型设为 V4 Flashopenclaw models set deepseek/deepseek-v4-flash# 清空现有 fallback,只加入 openrouter/free 作为后备(依据各人实际模型添加,也可不用后备模型)openclaw models fallbacks clearopenclaw models fallbacks add openrouter/free
第3步:重启网关并验证
openclaw gateway restart

等待几秒后,即可执行以下命令检查状态是否正常。

openclaw models listopenclaw models status

情况B:deepseek-chat 只是 Fallback 里的一个备选

飞叔将 openrouter/free 设为默认模型,DeepSeek仅作为后备。我这种情况要做的核心操作:将备胎从老V3.2换成V4 Flash,同时清理掉不再需要的其他模型。

第1步:修改配置文件,更新DeepSeek定义

编辑配置文件 openclaw.json,找到 providers.deepseek 部分,完整替换为上一节同样的新配置(即包含V4 Flash和Pro的那段JSON)。操作与情况A相同。

同时删除"deepseek/deepseek-chat"的别名定义(如果有)。再检查 configuredModels 或类似字段,删除已明确不再使用的旧模型标识(如openrouter/autoopenrouter/arcee-ai/trinity-large-preview:free 等)。如果对这些字段不熟悉,只删除那些确定不要的即可。

保存退出。

第2步:清理旧fallbacks,替换为V4 Flash

# 如希望保持默认模型为 openrouter/free,此行可跳过openclaw models set openrouter/free# 清空所有 fallbacks,重新添加 V4 Flashopenclaw models fallbacks clearopenclaw models fallbacks add deepseek/deepseek-v4-flash
第3步:重启并检查
openclaw gateway restartopenclaw models list

确认列表中已出现 deepseek-v4-flash,且旧的 deepseek-chat 已消失。状态页无报错即可。


Q:我的 DeepSeek API Key 还能用吗?完全不用更换。V4沿用同一套API地址和认证方式,旧Key无缝通用。

Q:想回退到旧版本怎么办?恢复到之前备份的文件openclaw.json.bak即可。

Q:用什么编辑JSON?可使用系统自带的记事本。不过飞叔推荐使用VSCode,用它编辑JSON文件实在是太方便了。

操作层面的事讲完了。现在拉回视角,说几句更深的话。


别急着赞美:价格武器的三个隐忧

Flash版本的低价令人振奋。但在这个价格数字面前冷静下来,有几个问题值得认真对待。

第一个隐忧,低价能持续多久?

Flash的定价,几乎是在成本边缘游走。当V3.2彻底关闭、大量开发者完成迁移并形成依赖后,定价权完全回归DeepSeek。今天的低价是建立生态的代价,但明天的定价是否还能保持在同一水平,没有人能保证。对于一个依赖API生存的产品来说,供应商的定价策略调整,就是你的成本结构的不确定性。

第二个隐忧,迁移成本被低估了。

对个人开发者来说,改配置文件只需五分钟。但对于在V3.2上做了大量prompt工程和fine-tuning的企业用户,V4的模型行为变化可能带来意料之外的兼容性问题。接口响应格式、推理逻辑、甚至是看似微小的输出风格变化,都可能影响到上层产品的稳定性。而官方给出的淘汰时间表,是否给所有人留足了缓冲,仍然是一个开放问题。

第三个隐忧,价格武器是双刃剑。

靠低价抢占市场,是商业史上最经典也最危险的策略。它能快速扩大份额,但它也是竞争对手最容易回应的方式。如果国际大厂在2026年内跟进降价——这几乎是可以预期的——DeepSeek的价差优势将被收窄。到那时,竞争将回到生态粘性、开发者体验和企业级服务的能力上。价格能帮你赢第一回合,但赢不了整场战争。


📌 预言存档 #002

预判内容: DeepSeek V4的定价策略(Flash输入1元/百万tokens、输出2元),将迫使至少一家国际主流大模型厂商(OpenAI、Anthropic或Google)在2026年内对其主力模型进行大幅降价,降幅不低于30%。

验证时间节点: 2026年12月31日

验证指标: GPT、Claude或Gemini的API定价页面更新公告,降价幅度不低于30%即为触发。

存档时间: 2026年5月1日


DeepSeek V4是一次再清晰不过的版本升级。它好得几乎不真实——更快、更强、更便宜。而正是这个“不真实”,值得你花一秒钟多想一层:当一个AI基础设施供应商用如此低的价格把你的业务接入它的生态时,你拥抱它的双手,要不要保留一点随时能抽回来的力气。

你做了这次迁移吗?Flash的价格是不是低到让你觉得“怎么才这么点”?以及,你觉得国际大厂跟进降价的那一天,会来得有多快?

欢迎留言。