上周最炸裂的AI新闻,不是GPT-5.5,不是Claude Mythos,而是一个国产模型的发布——
智谱AI的GLM-5.1,用MIT协议开源了。
然后它就在SWE-Bench Pro(业内最硬的编程基准测试)上,实打实地超越了GPT-5.4和Claude Opus 4.6。
我看到这个消息的时候,第一反应是:真的假的?
第二反应是:开源AI的时代,可能真的来了。
01 到底发生了什么
4月7日,智谱AI发布了GLM-5.1。这是一个7440亿参数的MoE模型(专家混合架构),每次推理只激活400亿参数。上下文窗口20万token。
关键点三个:
第一,性能超越了当前最强闭源模型。 在SWE-Bench Pro上,GLM-5.1的得分比GPT-5.4和Claude Opus 4.6都高。这个 benchmark 测的是真实软件工程任务——不是考卷,是让你真正去改bug、写模块、做代码审查。
第二,MIT协议。 这是最宽松的开源协议之一。你可以商用、可以改、可以二次分发,几乎没有任何限制。智谱AI说"随便用",他们是认真的。
第三,价格。 API调用大约1美元/百万输入tokens,3.2美元/百万输出tokens。如果你选择自己部署,那就是——电费。

同一天,Anthropic发布了Claude Mythos,定价25美元/百万输入、125美元/百万输出,只给50家"关键基础设施合作伙伴"用。
一个免费随便用,一个贵到离谱还限量。
这不是选择,这是态度。
02 国产开源大模型全家桶
光说GLM-5.1可能不够有感觉,因为4月第一周实在太卷了。我给你盘一下这一周发布的国产模型,你就知道"国产开源"现在是什么段位了。
GLM-5.1(智谱AI):MIT协议,744B参数,实测编程能力超越GPT-5.4,支持20万上下文。免费开源。
GLM-5V-Turbo(智谱AI):看截图就能生成代码的多模态模型。你给它一张UI设计图,它给你吐出前端代码。4月1日发布,API调用模式。
Qwen 3.6-Plus(阿里巴巴):开源,100万token上下文,专门为"自主代码开发"调优。0.28美元/百万tokens,便宜到可以随便扔给AI agent跑任务。
MiniMax-M2.7(MiniMax):3月份发布的开源MoE模型,在45-500亿参数档位很有竞争力。
简单说:如果你现在要做AI编程相关的事情,闭源模型真的不一定是首选了。
03 对开发者来说,这意味着什么
我看到很多开发者已经在讨论一个话题:"我们是不是可以完全用开源方案替代闭源API了?"
我的看法是:部分可以,但要看场景。
可以完全替代的场景:
相对标准的编程任务:CRUD代码、简单脚本、常规算法实现
对数据隐私有要求:代码不能发给第三方,那就本地部署GLM-5.1
成本敏感型项目:自己跑模型,电费比API便宜
还不能完全替代的场景:
最前沿的推理能力:Claude Opus 4.6在复杂逻辑推理上依然领先
需要极其稳定输出的产品级代码:开源模型的一致性还在提升
需要完整生态支持:GPT-5.4有OpenAI的tool use生态,配套成熟
但关键是:差距在快速缩小。

04 一个有意思的对比
我把这一周最重要的两个发布放在一起,你感受一下:
| | GLM-5.1 | Claude Mythos |
|---|---|---|
| 发布方 | 智谱AI | Anthropic |
| 协议 | MIT(完全开源) | 仅限50家合作伙伴 |
| 价格 | ~$1/$3.2 per M tokens | $25/$125 per M tokens |
| 性能 | SWE-Bench Pro实测超越GPT-5.4 | "我们史上最强" |
| 面向人群 | 所有人 | 关键基础设施企业 |
Anthropic的理由是:这个模型太危险了,不能给普通人用。
它的网络安全能力"远超现有任何AI模型",能发现"数十年未被发现的漏洞"。
这是AI圈第一次有公司公开说:"我们造了个东西,太强了,不敢放出来。"
我不知道这是真心为安全考虑,还是一种新的营销策略。
但我知道一件事:GLM-5.1是开源的,你今天就可以去GitHub下载,跑在你自己的机器上,没有任何限制。
05 几个值得关注的机会
说这么多落地的事情,我来给你几个实际可以动手的方向:
1. 用GLM-5.1搭建私有代码助手
现在很多团队在做这事儿。自己部署GLM-5.1,接上代码库,让AI帮你review代码、解释逻辑、生成测试用例。数据不出本地,隐私有保障。
2. 用Qwen 3.6-Plus做长程Agent任务
100万token上下文,意味着你可以扔一整个中型项目的代码给AI,让它做全局分析和重构规划。0.28美元/百万tokens的价格,跑一个项目可能就几分钱。
3. 关注Gemma 4的小模型
Google上周也发了Gemma 4,2B参数的版本可以直接跑在手机上。不是开玩笑,是真的手机。这对移动端AI应用来说是个重大信号。
4. 重新评估"闭源优先"的策略
如果你现在所有AI能力都依赖GPT-4或者Claude API,可能是时候测测开源方案了。差距已经不在一个量级上了。

06 我的判断
开源AI这波崛起,不是偶然。
从Llama到Mistral Small,再到GLM-5.1、Gemma 4,开源社区用了不到两年时间,追上了闭源前沿。
这背后有几个原因:
算力成本下降:训练一个大模型的门槛在降低。
开源社区协作:很多人一起贡献数据、代码、评测,迭代速度比闭源快。
商业公司的策略选择:智谱AI选择开源,是为了建立生态,不是慈善。
开发者社区的倒逼:当GPT-5.4的API价格是几分钱100倍的时候,开发者自然会去找替代方案。
我个人的判断:未来1-2年内,大多数"标准AI任务"会逐渐被开源方案覆盖。闭源模型的护城河,会越来越窄。
当然,Anthropic锁住Mythos这件事也说明:最尖端的能力,可能永远不会完全开源。
但那是少数人的游戏。
对于我们大多数AI使用者来说,开源方案已经足够好了。
好了,今天就聊到这儿。我知道你可能正在琢磨怎么部署自己的开源模型,我后续会详细写一篇关于GLM-5.1本地部署的实操指南。
有问题欢迎留言,我是阿哲,我们下期见。
夜雨聆风