乐于分享
好东西不私藏

【AI日报】4月29日|OpenAI万亿叙事裂缝、DeepSeek V4炸场、Kimi K3预告

【AI日报】4月29日|OpenAI万亿叙事裂缝、DeepSeek V4炸场、Kimi K3预告

今天是个有意思的日子。国内外同时出大料——一个是”皇帝的新衣”被戳破了一个口子,一个是国产力量在加速蓄力。挑几件最值得聊的说说。


OpenAI没完成内部目标,软银一天跌了10%

外界印象里,OpenAI一直是”AI时代最确定的赌注”,软银押了重注,微软、英伟达绑定,整条产业链都在给它抬轿子。

但4月28日,有媒体披露了一件有点尴尬的事:OpenAI没达成2025年的ChatGPT营收目标,更没实现”年末周活10亿用户”这个目标。谷歌Gemini的增速很猛,正在一点一点蚕食OpenAI的用户盘。与此同时,公司账面上背着6000亿美元的未来支出承诺,虽然融了1220亿,但CFO Sarah Friar直接说了——按这节奏烧三年就差不多了,今年IPO也不一定行。

消息一出,软银盘中暴跌11%,收盘跌了9.9%,甲骨文跌了4.1%,英伟达、AMD全被拖下水。

为什么重要:这不只是OpenAI一家公司的问题。这是”AI投资叙事”第一次出现公开的、可量化的裂缝。过去两年整个产业链都建立在”OpenAI一定会赢”的假设上,数据中心合同、算力采购、生态绑定……一旦这个假设开始动摇,下游全都要重新定价。

利好谁:对竞争对手来说是个机会。Anthropic、Google DeepMind,以及国产模型们。用户对”绑定单一平台”的依赖开始松动,多元化的时代要来了。

机会在哪:其实现在做”AI 能力路由”或”多模型协同调度”的基础设施,是个很好的时间窗口。没有人永远用同一个模型,这就是生意。

我的判断:OpenAI还是很强,但”信仰溢价”这件事正在被挤出去。未来大模型竞争不靠情怀,靠实打实的ROI。这对整个行业来说其实是好事。


DeepSeek V4炸场:1.6万亿参数开源,还只要GPT-5.5的十分之一钱

4月24日,沉寂了15个月的DeepSeek扔出了一枚重磅炸弹——DeepSeek-V4预览版发布,同步MIT协议全量开源,上线HuggingFace和ModelScope,顺带还附了一份58页的技术报告。

时间点选得很妙:凌晨OpenAI刚上线GPT-5.5,几小时后DeepSeek就亮剑了。

V4的参数量是1.6万亿(MoE架构),百万token上下文成了标配,Agent任务能力在开源模型里排第一。Flash版每百万token最低只要0.2元,Pro版贵一些但远低于GPT-5.5。对比一下:GPT-5.5的API输入价格是每百万token 5美元(约34元人民币),DeepSeek V4 Flash的价格是它的1/170。

华为昇腾同步官宣全面适配。这个细节很重要,意味着V4不依赖英伟达算力也能跑。

为什么重要:这是”算力自主”叙事第一次在实际产品上形成闭环。有高性能的开源模型 + 国产算力支持,这套组合拳以前从没同时出现过。

利好谁:中小企业和独立开发者。以前要用顶级模型能力就得交美元给OpenAI,现在可以用DeepSeek V4 + 国产云,成本砍掉90%,能力不输多少。

机会在哪:基于V4做垂直行业的fine-tune或工具链封装,时间窗口现在很宽。法律、医疗、教育这些领域,现在进入成本大幅降低了。

我的判断:DeepSeek这次选择完全开源,而且是MIT协议,不是”假开源”。这个决策有点壮烈的感觉——把护城河让出去换生态,是个长线博弈。值得持续跟进。


Kimi K3曝光:2.5万亿参数,三季度见

这条是爆料性质的,但值得记一笔。

4月27日有爆料称,月之暗面下一代大模型Kimi K3预计在今年第三季度发布,参数规模超过2.5万亿,内部已测试远超100万token的上下文,但最终是否开放1M上下文,瓶颈不在技术,在算力资源。

做个横向对比:DeepSeek V4 Pro是1.6万亿参数,Kimi K3是2.5万亿,比V4大了将近六成。传闻中Claude Opus那一档大约是5万亿,Mythos可能到10万亿。国产模型的参数竞赛正式进入”向国际顶尖看齐”阶段。

为什么重要:这说明月之暗面不打算靠性价比卷,而是要去竞争性能天花板。两条路都有人在走——DeepSeek走低价开源路线,Kimi走高性能闭源路线,国产模型的格局越来越像美国那边的两极分化。

利好谁:需要高性能模型处理长文本复杂任务的企业用户,比如法律文档分析、学术研究、金融报告生成这类场景。

机会在哪:提前布局和Kimi的API生态对接,等Q3发布后能快速上线基于K3能力的产品。

我的判断:国产大模型从”比价格”进化到了”比参数+比能力”,这个演化速度比很多人预期的要快。


中科院发布磐石100;:AI for Science不是口号了

最后一条有点不一样,但我觉得很值得聊。

4月28日,中国科学院在北京发布了”磐石100″模型体系。不是聊天机器人,不是文生图,而是一套专门给科研用的”AI科学家”系统。覆盖数学、物理、材料、生命科学等八大学科,能求解偏微分方程、预测太阳耀斑、辅助发现药物靶点。

这套系统能在30天内发现3个全新药物靶点,这个数字如果是真的,在药物研发里是非常了不起的速度——传统路径可能要几年。

为什么重要:AI for Science一直是个”听起来很厉害但看不到实际产品”的方向。中科院这次拿出一个体系化的东西,而不是单点Demo,说明这个领域真的在工程化落地了。

利好谁:科研院所、高校、生物医药公司。尤其是制药行业,靶点发现周期被压缩意味着研发成本可能大幅下降。

机会在哪:国内的生物科技创业公司,现在是接入这类工具的好时机。AI+药物研发、AI+材料研发,这两个方向的商业化前景越来越具体了。

我的判断:这是一个不热闹但很硬的方向。To B、周期长、难度高,但一旦跑出来护城河极深。这条赛道会出大公司的。


今天这四条加在一起,其实说的是同一件事:AI的战场正在分层。有人在卷价格,有人在卷参数,有人在卷专业深度,大而全的时代正在结束,各找各的位置的时代开始了。

— 边不谢