乐于分享
好东西不私藏

五天四发:中国开源AI一周,密度本身就是信号

五天四发:中国开源AI一周,密度本身就是信号

OpenAI 发了 GPT-5.5。

然后呢?

然后开发者们转头去排队等 DeepSeek V4 了。

我不是在开玩笑。GPT-5.5 发布那天,Twitter 上最热闹的讨论不是”OpenAI 又变强了”,而是——”DeepSeek V4 到底什么时候上?”

不到 10 个小时后,DeepSeek V4 上线。

中文 AI 圈彻底炸了。

但如果你以为这周的剧情只是一部”DeepSeek 碾压 OpenAI”的爽文,那你可能漏掉了真正离谱的事——这一周,中国四家 AI 公司连续发了四个开源模型。不是两个月,不是两周,是五天。

周一,月之暗面的 Kimi K2.6。

周二,阿里通义的 Qwen3.6-27B。

周四,腾讯混元的 Hy3-Preview。

周五,深度求索的 DeepSeek-V4。

五天四发。 中国 AI 圈上一次这么热闹,还是去年 DeepSeek V3 发布的那一周。


周一:Kimi K2.6——不是来刷榜的,是来干活的

Kimi K2.6开源编码碾压闭源,13小时重构8年代码库

Kimi K2.6 发布当天,vLLM、OpenRouter、Cloudflare、Baseten、MLX 等主流推理框架和平台同日宣布接入支持。NosResearch、Ollama 等十余家开发工具公司接连发文评价。

但真正让我惊的不是热度。是两个案例。

第一个:一个 AI,花 12 个小时,自己下载了一个模型,用 Zig 写了个推理引擎,然后把这个引擎优化到比 LM Studio 还快 20%。

全程 4000 多次工具调用,14 轮迭代,中间没停过。从”下载模型”到”调优到 193 tokens/s”,一气呵成。

注意,它用的不是 Python,是 Zig。一门连很多程序员都没听说过的系统编程语言。

第二个:同样的 AI,花了 13 个小时,重构了一个运营了 8 年的金融撮合引擎。 4000 多行代码,精确修改,分析 CPU 火焰图定位瓶颈,重新配置线程拓扑。最终——中等吞吐量提升 185%。

这些不是 demo,不是 PPT。

这是真实工程任务。是那种你交给一个中级工程师,对方可能要花一周才能搞定的活。Kimi K2.6 用一个下午干完了。

Vercel、Augment Code、Ollama、NousResearch 等十几家公司公开评价:K2.6 在长程 Agent 编码上已经摸到了闭源旗舰的门槛。

稳稳接住了。


周二:Qwen3.6-27B——27B 的身材,旗舰级的战斗力

27B干翻397B:通义千问丢了一颗炸弹,社区炸了

GitHub 3000+ Star,Apache 2.0 开源。

阿里的标题写得够直接:”Flagship-Level Coding in a 27B Dense Model”。

翻译成人话就是:27B 的小模型,编码能力已经能打旗舰了。

这意味着什么?你手边那台 MacBook,甚至一张 RTX 4090,就能本地跑起一个编码能力接近 Claude Sonnet 的模型。不用上云,不用调 API,不用担心数据泄露。

开发者社区出现频率最高的两个词是 “insane” 和 “this changes everything”。

但我觉得更骚的是这个趋势本身:大模型的能力正在以肉眼可见的速度向小模型迁移。

去年你需要 400B 的参数才能做的事,今年 27B 就搞定了。明年呢?

当”小模型够强”成为常态,”大”就不再是护城河了。这才是 Qwen3.6-27B 真正的杀伤力——它不是一款产品,是一个信号弹。


周四:Hy3-Preview——腾讯终于不佛了

发布当天 OpenRouter 免费接入,OpenClaw 等多个推理平台同步支持。但英文技术社区几乎没讨论——这本身就值得说。

在中国 AI 圈,它的分量一点不轻。

腾讯混元 Hy3-Preview,295B MoE 架构,21B 激活参数,256K 上下文窗口。数字看着不炸裂,但故事很炸。

腾讯混元团队重组了。 2026 年 2 月,腾讯直接推倒了预训练和强化学习的基础设施,从零重建。新的首席 AI 科学家叫姚顺雨(Yao Shunyu)——27 岁,前 OpenAI 研究员,清华姚班+普林斯顿博士。

推倒重来后 90 天,Hy3 发布并开源。

这是什么速度?按照行业惯例,一个同等规模的 MoE 模型从立项到发布,少说 6-9 个月。腾讯推倒重建、重新训练、发布、开源,用了 90 天。

这不是卷 benchmark,这是腾讯在用互联网公司的打法做 AI。

如果你了解腾讯的历史,你会知道一个词——”后发制人”。社交、游戏、支付、云,腾讯从来不第一个出手,但一旦出手就是基础设施级别。

现在 AI 基础模型也用上了同一套逻辑:权重开源、API 上线、腾讯云同步提供 token 套餐(输入 1.2 元/M,输出 4 元/M)。发布前就已经部署到了元宝、CodeBuddy、腾讯文档、和平精英等产品里——不是发完再找场景,是带着场景一起做的。

腾讯不是来跟你比谁的 benchmark 高的。 它是来铺路的。


周五:DeepSeek-V4——三张桌子同时掀了

DeepSeek V4 很强,但他们自己说还差半年

压轴戏。也是分量最重的一出。

发布当天 Hacker News 登顶前排,Simon Willison、TechCrunch 等主流 AI 观察者当天发文评测,OpenRouter 和 Venice 同日上线。两个版本全部开源,MIT 协议。

DeepSeek 这一次同时发了两个版本,全部开源:

• V4-Pro:1.6T 参数,对标全球顶级闭源模型

• V4-Flash:284B 参数,速度快,成本极低

然后它做了三件事。

第一件:100 万 token 上下文。

这不是简单的”支持长文本”。DeepSeek 重新设计了注意力机制——DSA(Deeply Sparse Attention),让推理成本在长上下文下保持平坦。

什么意思?以前你把上下文从 128K 拉到 1M,推理成本可能翻 10 倍。现在几乎不涨。

这是一个工程上的质变。

第二件:Code Forces 排名第一。 超越 GPT-5.4,和 GPT-5.5、Opus 4.7 打平。

第三件,也是最骚的:V4-Flash 的输出价格是 $0.28/M tokens。

Opus 4.7 是 $15/M。

便宜了 98%。 这不是打折,这是把桌子掀了,把椅子砸了,然后把地板也拆了。

但最让我觉得”整不会了”的,是另一个细节——

V4 首次支持华为昇腾 NPU。

DeepSeek 官方已经完成了细粒度专家并行的适配方案,为下半年昇腾 950 超节点的上市预留了空间。

这是一个战略信号。它的潜台词是:我们不只依赖英伟达了。

美国芯片禁令催生的 Plan B,正在变成 Plan A。


离谱的不是单个模型,是这套组合拳

如果你只看上面四款模型中的任何一个,你可能会说”哦,又一个开源模型”。

但把它们放在一起看,你会发现一个恐怖的规律。

参数全覆盖: 27B → 295B → 284B → 1.6T。从你的笔记本到数据中心,每个档位都有。

场景全覆盖: 编码 Agent(K2.6)→ 参数效率(Qwen3.6)→ 全能均衡(Hy3)→ 长上下文推理(DeepSeek-V4)。不重叠,各有所长。

价格全覆盖: Qwen3.6-27B 免费本地跑 → V4-Flash $0.28/M → V4-Pro $3.48/M。从零成本到企业级,每个预算都有答案。

算力全覆盖: 全部支持 NVIDIA GPU,DeepSeek-V4 额外支持华为昇腾 NPU。

这四家不是在互相竞争。它们是在合谋构建一个完整的开源生态。

你仔细想想这个时间节点——2026 年 4 月。ChatGPT 发布才三年半。三年半的时间,中国开源模型从”能用”进化到了”全面对标闭源旗舰”。

而 GPT-5.5 发布的那天,开发者的第一反应不是”太强了”,而是”DeepSeek 什么时候跟进”。

天平已经悄悄倾斜了。


一个更深的观察

很多人在讨论”中美 AI 差距”的时候,喜欢用 benchmark 数据来论证。

但我觉得真正重要的指标不是 benchmark。

是密度。

这一周,中国 AI 产业释放出的信号不是”我们追上来了”——这个结论半年前就有了。

信号是:我们能持续地、高密度地、体系化地输出。

月之暗面搞 Agent 编码,阿里卷参数效率,腾讯铺基础设施,DeepSeek 在推理和价格上掀桌。每一家都有自己的战略定位,每一家都在自己最擅长的维度做到极致。

这不是”四个模型碰巧同一周发布”。这是一个产业生态成熟后的自然结果。

对比一下:OpenAI 一年发两三个大版本。Google 也是。Anthropic 也是。

中国这边,一周四个。

当然,数量不等于质量。这四款模型各自都有局限——K2.6 的泛化能力、Qwen3.6 的非编码场景、Hy3 的英文社区存在感、V4-Pro 的算力瓶颈。这些都是事实。

但趋势是明确的:开源追赶闭源的速度,正在从”年”缩短到”周”。


最后说一句

上周有朋友问我:”你觉得 AI 行业现在最值得关注的趋势是什么?”

我说了一个很多人可能觉得反直觉的答案——

不是某个具体模型的突破,是中国开源 AI 的发布密度。

当一个产业能以”一周四发”的节奏持续输出,而且每一发都在不同维度逼近甚至超越闭源旗舰的时候,你就知道——这不是追赶了。

这是超车。


Macaron 🧁 | 当一周四发成为常态,追赶就变成了超车