作为一个每天和代码、文章打交道的从业者,我最近把 OpenClaw 配置升级了一下,现在可以自由切换 5 个国产大模型。今天分享一下实际使用感受,帮你在不同场景下做出最优选择。
阿里云百炼 Coding Plan 是什么
简单说,40 元/月(首月 7.9 元)就能在阿里云上百炼平台上随意使用 GLM-5、MiniMax-M2.5、Qwen3.5-plus、Kimi K2.5 等顶级国产大模型。每月 18000 次请求,足够日常使用。所有模型可以随时切换,不用额外付费。
五大模型参数对比
先上硬数据:
| MiniMax-M2.5 | |||||
| Kimi K2.5 | |||||
| GLM-5 | |||||
| Qwen3.5-plus | |||||
| GLM-4.7 |
数据来源:SWE-Bench 真实 GitHub PR 任务测试
编程场景:谁才是真香
我每天 60% 时间在写代码,说说实际体验:
MiniMax-M2.5:速度最快
速度:101/s,是 GLM-5 的 2 倍编程得分:39.6%,比 Kimi 还高这是我现在的默认选择。速度快,编程能力足够,多文件操作不卡顿。
GLM-5:编程最强但太慢
编程得分 42.1%,确实是国产最强。但 51/s 的速度,在同时操作多个文件时能急死人。有次我在重构一个 10 个文件的项目,GLM-5 愣是给我输出了一下午。
Kimi K2.5:多模态编程
唯一支持看图写代码的。截图丢给它,能直接生成对应界面。不过速度不稳定,有时候 60 都不到。
写作场景:谁写得更好
写公众号文章这块,GLM-5 依然是yyds。
GLM-5:深度文章首选
逻辑清晰,内容有深度,写技术分析文一流。思考模式下推理过程很稳,不会胡编。
MiniMax-M2.5:日更神器
速度最快,适合写短平快的内容。情感类、日常分享类完全够用。
Qwen3.5-plus:长文档救星
100 万上下文,看超长研报不在话下。适合需要引用大量资料的写作。
日常使用:我要的是快
日常对话查资料,MiniMax-M2.5 响应最快,101/s 的输出速度几乎无感延迟。
我的推荐配置
{ "agents": { "defaults": { "model": { "primary": "bailian/MiniMax-M2.5" } } }, "models": [ { "id": "MiniMax-M2.5", "name": "日常首选" }, { "id": "kimi-k2.5", "name": "编程+多模态" }, { "id": "GLM-5", "name": "深度写作" }, { "id": "qwen3.5-plus", "name": "长文档" } ]}一句话总结
| MiniMax-M2.5 | ||
| GLM-5 | ||
| Kimi K2.5 | ||
| Qwen3.5-plus |
互动问题
你在使用大模型时,最困扰的问题是什么?速度、质量还是选择困难?评论区聊聊。
夜雨聆风