5.5 AI大事记
5月5日,Sam Altman在旧金山搞了个派对,庆祝GPT-5.5的诞生。但真正让我在意的不是派对本身,而是一个细节:GPT-5.5自己策划了自己的发布方案。
这不是段子,这是Altman亲口说的。一个AI模型开始操心自己的公关活动——如果你觉得这只是花边新闻,那你可能低估了它背后的信号。
但今天最值得聊的,其实不是GPT-5.5。
所有人都在追最强模型的时候,有一条暗线正在改写整个行业的竞争规则:效率。
阿里几天前开源的Qwen3,做了一件很聪明的事——同一个模型里集成了快思考和慢思考两种模式。简单问题秒回,复杂问题深想。这不是两个模型拼在一起,是一个模型学会了看菜吃饭。更夸张的是,它的MoE架构让Qwen3-30B只需要激活3B的参数就能达到前代32B的水平。翻译成人话:用十分之一的算力,干同样的活。
微软的Phi-4-reasoning也在讲同一个故事。14B参数,在AIME数学竞赛上打到82.5%。放在一年前,这是千亿参数模型才能碰的分数。中科院的AutoThink更直接——教模型自己判断这个问题值不值得深想,不值得就别浪费算力。
如果你觉得这只是技术细节,想想它的商业含义:当3B激活参数就能跑出32B的效果,那些砸重金堆参数量的公司,护城河在哪里?当一个14B的模型能在推理任务上跟GPT-4掰手腕,那大力出奇迹的时代是不是快结束了?
再看另一面。日本刚通过了首部AI专项法,ILO说AI可能影响全球25%的岗位,5月AI硬件融资42起领跑。政策在收紧,恐慌在蔓延,但钱还在涌入。
我的判断是:2025年下半年,AI行业会出现一次明显的分化。烧钱堆参数的玩家会越来越难讲新故事,而那些在效率和落地上做出突破的团队,才是真正的赢家。
所有人都在问谁的模型最大,但决定胜负的问题其实是谁的模型最聪明地偷懒。
夜雨聆风