硅谷最火编程工具的「自研」模型,被抓包发现是中国造

Cursor 刚发布 Composer 2 时,宣传口径是「暴打 Claude Opus 4.6」。结果一个开发者打开 API 日志,发现里面跑的根本不是 Cursor 自己的模型。
模型 ID 写得明明白白:kimi-k2p5-rl-0317-s515-fast。
这不是 Cursor 的东西,是月之暗面的 Kimi K2.5。
一条 API 日志引爆的信任危机
3 月 20 日,开发者 Fynn 在使用 Cursor 时顺手抓了个包。API 请求日志里的模型 ID 指向了 Kimi K2.5,而不是 Cursor 宣传的「自研模型」。
截图发到 X 上之后,月之暗面预训练负责人杜羽伦迅速跟进验证:Tokenizer 与 Kimi 完全一致。这不是巧合,是同一个模型。
Kimi K2.5 采用修改版 MIT 协议,条款很清晰:如果你的商业产品月活超 1 亿或月收入超 2000 万美元,必须在产品界面标注「Kimi K2.5」。
Cursor 的情况呢?估值近 300 亿美元,ARR 超 10 亿美元。无论怎么算都远超阈值。但在 Composer 2 的发布博客和产品界面里,Kimi 的名字一个字都没出现。

Cursor 的辩解:「我们加了 4 倍算力」
创始人 Aman Sanger 的回应来得很快,但说服力有限。
他承认基座模型确实是 Kimi K2.5,但强调 Cursor 在此基础上投入了 4 倍算力做强化学习(RL),「只有 1/4 的算力来自基座模型」。换言之,他的逻辑是:我用了你的地基,但上面盖的楼全是我的,所以这栋楼应该算我的。
这个说法有两个问题。
第一,开源协议不关心你加了多少算力。协议要求的是署名,不是原创性证明。你改了 90% 也好,改了 99% 也好,只要用了受协议保护的基座模型,署名义务就在那里。
第二,「4 倍算力」这个数字本身无法验证。Cursor 至今没有公开训练细节、评估方法或技术报告。自建基准测试 Terminal-Bench 2.0 上的跑分好看,但一个裁判给自己的选手打高分,参考价值有限。
Cursor 开发者 Lee Robinson 试图补充解释,称「仅 1/4 算力来自 Kimi」,但这个说法跟 Aman 的表述本质上是同一句话换了个方式说。社区并不买账。
最有意思的部分:和解比冲突来得更快
事件的走向才是最值得玩味的。
月之暗面联创周昕宇最初的反应是「没收到过授权申请」,杜羽伦也公开质问 Cursor CEO。但几个小时后,风向突变。月之暗面删除了此前的推文,发出一条官方声明:Cursor 已通过 FireworksAI 平台获得授权合作。
Aman Sanger 也配合发了道歉声明,称「忘记署名」是疏忽。
从质问到和解,只用了几个小时。速度快到让很多人怀疑:这到底是真的「忘了署名」,还是被抓包后紧急补票?
没有人能证明哪个版本是真的。但有一点是确定的:如果不是那个开发者打开了 API 日志,这件事大概率不会浮出水面。
一个更大的问题:AI 行业的「基座依赖症」
Cursor 不是第一个被抓到的。
今年早些时候,日本乐天发布 AI 3.0,号称自研大模型。社区扒了一下,发现是 DeepSeek-V3 套壳,同样没标注来源。
这些事件指向同一个行业现状:越来越多的 AI 公司,尤其是应用层公司,本质上是开源模型的「增值经销商」。它们的核心竞争力不在模型本身,而在产品包装、用户体验和商业叙事。
这本身没有问题。站在巨人的肩膀上做创新,正是开源精神的初衷。
问题在于诚实。
当你用别人的模型做产品时,说清楚就好。Cloudflare 就是个正面例子。它公开披露使用 Kimi K2.5 处理日均 70 亿 Token 的工作负载,成本节省了 77%。没有人因此看低 Cloudflare,相反,这被视为一个聪明的工程决策。
但 Cursor 选择了另一条路:把 Kimi K2.5 包装成自研成果,用它的性能来支撑「暴打 Claude Opus 4.6」的营销叙事。近 300 亿美元估值的公司,在免费使用估值 43 亿美元公司的核心技术成果,还不署名。
套利本身不丢人,藏着掖着才丢人。
中国开源模型的意外胜利
讽刺的是,这件事最大的赢家是月之暗面。
Kimi K2.5 是一个万亿参数的 MoE 模型,支持 256K 上下文和三模态输入。它的 Agent Swarm 机制将任务处理速度提升了 4.5 倍。这些参数在论文里是冷冰冰的数字,但现在有了最好的背书:连 Cursor 都偷偷在用。
竞争对手 Windsurf 立刻借机宣布免费开放 Kimi K2.5 一周。Hugging Face CEO Clem Delangue 在 X 上公开表示:中国开源模型已经成为全球 AI 生态的主导力量。

一年前,硅谷的主流叙事还是「中国 AI 靠抄袭追赶」。现在情况反过来了:硅谷估值最高的 AI 编程工具,核心引擎来自北京。
杨植麟在 GTC 上的演讲时间恰好和这场风波重叠。他大概没想到,最好的产品演示不是他自己做的,是 Cursor 帮他做的。

这件事的本质
剥开表面的戏剧性,这个事件揭示了 AI 行业一个结构性矛盾:开源模型的技术贡献与商业回报严重不对称。
Kimi 投入巨大资源训练了一个顶级模型,选择了相对宽松的开源协议,只要求大公司做到一件很简单的事:署个名。
Cursor 连这个都做不到。
署名本身毫无难度,但署名会打破「自研」的叙事,影响估值逻辑。在 AI 行业,「我们训练了自己的模型」和「我们基于开源模型做了优化」,在融资谈判桌上意味着完全不同的故事。
这才是真正的问题所在。某个公司忘了署名只是表象,行业的激励结构在鼓励隐瞒模型来源。只要「自研」比「开源+优化」在商业上更值钱,这种事就会一直发生。
解决方案不在道德自觉,在于让透明成为行业标准:模型卡必须披露基座来源,训练数据和方法论公开可查,独立基准测试替代自建跑分。
在这之前,打开 API 日志可能是用户唯一的武器。
参考资料
[1] Fynn, API 日志截图揭示 Cursor Composer 2 调用 Kimi K2.5 https://x.com/fynnso/status/2034706304875602030
[2] Aman Sanger(Cursor 联合创始人), 关于 Kimi K2.5 使用的公开声明 https://x.com/amanrsanger/status/2035079293257359663
[3] Kimi(月之暗面官方账号), 与 Cursor 达成合作的声明 https://x.com/Kimi_Moonshot/status/2035081631871455262
[4] Clem Delangue(Hugging Face CEO), 中国开源模型主导全球 AI 生态 https://x.com/ClementDelangue/status/2035042945884463538
[5] Cloudflare, Workers AI 大模型应用案例 https://blog.cloudflare.com/workers-ai-large-models/
夜雨聆风