乐于分享
好东西不私藏

OpenClaw将DeepSeek V4作为默认模型!

OpenClaw将DeepSeek V4作为默认模型!

说实话,我一开始没当回事。

4月26号凌晨,我随手更新了OpenClaw。这玩意我天天用,更新日志扫一眼就过去了。结果打开一看,默认模型变了。以前是个国外牌子,现在变成DeepSeek V4 Flash。

我愣了一下。DeepSeek?那个做R1的?

然后我去翻了翻资料,越看越不对劲。这事儿不是”换个默认模型”那么简单。OpenClaw,全球25万+星标、被外媒叫”最火开源Agent框架”的东西,它把中国AI模型推到了最C位。而这个中国模型的最新版本,是跑在华为芯片上的。

DeepSeek V4,从英伟达的CUDA生态,切到了华为的CANN框架。说穿了,这不是换显卡,这是换赛道。

先说说这个模型本身

DeepSeek V4是4月24日发布的,分两个版本。

V4 Pro是1.6万亿总参数的大家伙,49B激活参数,MoE架构。V4 Flash小一点,284B总参数,13B激活参数,但推理能力在Max模式下几乎能追平Pro。两个版本都支持100万token上下文,MIT协议完全开源。

数字挺漂亮的,但我更关心一件事。它跑在哪?

官方技术报告里明确写了,V4首次把国产芯片和英伟达GPU写进了同一份硬件验证清单。适配的是华为昇腾950PR推理芯片,2026年3月刚量产。

这颗芯片什么水平?单卡算力比英伟达对华特供的H20强2.87倍。采购价格大概是H200的三分之一到四分之一,绝对算力是H200的一半。也就是说,性价比这块,华为卡赢了。

阿里的、字节的、腾讯的,国内科技巨头已经向华为下单了数十万颗昇腾芯片。

CUDA到CANN,这条路不好走

英伟达的CUDA是什么?它是AI世界的通用语言。全球开发者学了十几年,工具链成熟得像自来水。华为CANN呢?说实话,生态还在长,第三方库支持、调试工具链,跟CUDA比确实嫩。

打个比方:CUDA是英伟达显卡的“御用翻译”,负责把代码变成显卡听得懂的活儿;CANN是华为昇腾芯片的“专属管家”,专门负责指挥自家芯片全力跑AI。两者互不通用,各为其主。

那DeepSeek为什么还切?

两个原因。一个是被动的,美国出口管制卡在那,H20已经是”特供缩水版”,前沿芯片根本买不到。另一个是主动的,推理时代来了。

今年3月的GTC大会上,黄仁勋自己说的:AI计算需求两年里激增了1万倍,行业重心从训练转向推理。而在低精度推理场景下,华为昇腾950PR的同构设计、低精度数据格式支持和自研HBM,效率反而能超过通用GPU。

黄仁勋4月15日在彭博社访谈里罕见发飙,反驳”芯片不该出口给中国”的说法。他警告过度限制逼中国建立自主生态。现在看,DeepSeek V4就是那句警告的实体回应。

OpenClaw为什么重要

OpenClaw把DeepSeek V4 Flash设为默认模型,这事儿有象征意义。

你想,OpenClaw的用户是全球的。北美、欧洲、东南亚、南美,全世界更新这个框架的人,打开的第一秒,跟自己对话的”大脑”就是DeepSeek V4 Flash。不是GPT,不是Claude,是一个跑在华为芯片上、用CANN框架的中国模型。

这是一种认知层面的切换。以前中国AI是被用的一方,你写代码,调用OpenAI的API。现在中国AI是被内置的一方,你装一个工具,默认大脑就是中国的。

OpenClaw的更新日志还提了一件事:修复了DeepSeek在多轮工具调用中的thinking和replay行为。以前Agent连续调用工具、切换模型时容易出错,新版本补了占位逻辑,让V4在长链路任务里更稳定。

这挺实在的。模型能力只是门票,能不能撑住复杂任务链路才是能不能用的关键。

梁文锋的”成人礼”

DeepSeek同时在做两件事:一边发布V4,一边启动首次外部融资。

估值从100亿美元迅速抬到200至300亿美元,腾讯、阿里正在谈。这家曾经纯靠幻方量化输血、梁文锋持股84.29%的公司,终于向资本伸出了手。

有人说他是为了给员工做期权定价。去年年底到现在,DeepSeek核心员工流失了不少,罗福莉去了小米,王炳宣去了腾讯,郭达雅去了字节。人才战打得太凶,脉脉数据显示AI岗位数量同比增了12倍,平均月薪超6万。

也有人说他是为了算力储备。V4跑在华为芯片上,但芯片采购、集群建设、生态适配,每一步都是钱。

不管怎样,那个”技术理想主义”的DeepSeek,正在完成自己的成人礼。理想主义撞上现实的算力账单,要么跳过去,要么摔下去。

这事儿对普通人意味着什么

我不是搞芯片的,我也不是投资人。我就是一个用OpenClaw的普通用户。

但当我发现默认模型变成DeepSeek V4的那一刻,我意识到一件事:中国AI的自主链,从芯片到框架到模型,正在变成日常体验的一部分。

你不需要懂CANN是什么,不需要知道昇腾950PR的算力数字。你只需要更新一下软件,然后发现,哦,我用的东西,背后的脑子是中国的,而且这脑子不是借来的,是自己长出来的。

这感觉有点像前几年国产手机芯片刚起来那会儿。一开始大家都说”能用就行”,后来慢慢发现,卧槽,这玩意居然挺好用。

DeepSeek V4是不是真的好?我不知道,我刚用。但OpenClaw把它设为默认,至少说明一件事:在开发者眼里,这个中国模型,已经值得被放在C位了。

至于它跑在华为芯片上这件事,那可能是比模型本身更大的信号。中国AI正在试图证明:在被制裁的环境下,用更少的钱、更自主的供应链,能做出世界一流的东西。

这条路能不能走通,V4是第一个严肃的测试。


——— 🐱 哎咆观点 ———

OpenClaw切默认模型这件事,给我的启发是:观察技术格局的变化,不要只看发布会,要看那些”默认设置”。默认设置不声不响,但它决定了大多数人第一眼看到什么、第一秒用到什么。当中国模型从”可选”变成”默认”,从”国产替代”变成”全球默认”,这个转变比任何参数升级都更有历史感。

还有一个实用的观察角度:看工具链。DeepSeek V4开源、MIT协议、100万上下文,API价格还打了2.5折。这些不是做慈善,是在用生态换话语权。谁的开源模型被更多工具默认接入,谁就在定义下一代AI基础设施的标准。这场仗,才刚刚开始。


编辑:小哎
来源:新智元、智东西、豹变、IT之家、新浪科技
📢 AI世界,哎咆为你精选。资讯快如咆,观点不随大流。