乐于分享
好东西不私藏

OpenClaw新版本默认接入DeepSeek V4 Flash,国产开源大模型站上全球Agent生态“C位”

OpenClaw新版本默认接入DeepSeek V4 Flash,国产开源大模型站上全球Agent生态“C位”

2026年4月26日,开源AI智能体(Agent)框架OpenClaw(“龙虾”)宣布,其最新版本于近日正式接入DeepSeek-V4系列大模型。其中,DeepSeek V4 Flash被设定为系统默认大模型,V4 Pro同步上线模型库供用户选用。这意味着,从即日起,全球每一位更新OpenClaw的用户,其智能体“大脑”将默认由DeepSeek V4 Flash驱动。

此次OpenClaw接入的DeepSeek-V4,于4月24日发布,是DeepSeek推出的新一代大语言模型,分Pro和Flash两个版本,全系标配100万token的超长上下文窗口,并同步开源模型权重。其中,V4 Pro版本总参数达1.6万亿,激活参数49B,面向高复杂度推理与Agent任务;V4 Flash为更轻量高效的版本,总参数284B、激活参数13B,不仅推理速度更快、部署成本更低,在简单Agent任务上也与Pro版本旗鼓相当。据公开的Agentic Coding评测数据显示,V4 Pro已达到当前开源模型最佳水平。

据OpenClaw披露,此次4.24版本更新除模型接入外,还包括实时语音通话全面打通、浏览器自动化增加坐标点击与更好地恢复机制,以及多项针对Telegram、Slack等渠道的修复。此外,新版本还修复了DeepSeek在多轮工具调用中的问题,使V4 Flash和V4 Pro在长链路任务中更加稳定。

不过,就V4 Pro版本而言,DeepSeek也表示,受限于高端算力,目前DeepSeek V4 Pro的服务吞吐十分有限,预计下半年昇腾950超节点批量上市后,Pro的价格会大幅下调。

另据公开报道称,DeepSeek-V4实现了结构创新。该模型开创了一种全新的注意力机制,在token维度进行压缩,结合DSA稀疏注意力(DeepSeek Sparse Attention),实现长上下文能力,并且相比于传统方法大幅降低了对计算和显存的需求。

OpenClaw选择将DeepSeek V4 Flash设为默认模型,并非简单的技术合作,而是折射出AI行业两个深层趋势。

其一,开源大模型的能力边界正在被持续推高。DeepSeek-V4在Agent能力、世界知识和推理性能上均实现国内与开源领域的领先,V4 Flash凭借13B激活参数即可提供接近Pro版的推理能力,加之极具竞争力的API定价,使其在高频Agent调用场景中具备显著的成本优势。

其二,国产大模型正加速进入全球开源生态的核心圈层。OpenClaw作为拥有超25万GitHub星标的Agent基础设施级平台,此次将系统默认模型切换为DeepSeek,被业内视为国产大模型在全球Agent生态中获得主流认可的重要信号。自DeepSeek-V4发布以来,英伟达Blackwell等平台已在第一时间完成适配。

OpenClaw的接入从Agent基础设施层面进一步放大了这一效应——国产开源大模型正从“被调用”走向“被默认”,从备选方案走向首选基座。随着智能体时代全面开启,DeepSeek-V4的能力认证将进一步压缩海外大模型的市场优势,有望推动国产大模型在Agent赛道话语权持续提升。

综合自澎湃新闻、财联社等