MiniMax-M2.7 开源:从"AI帮手"到"AI自进化"的第一步
MiniMax-M2.7 开源:从”AI帮手”到”AI自进化”的第一步
2026年4月12日,MiniMax M2.7正式在全球开源。
这不只是又多了一个开源模型——这是业界第一次,有商用大模型在训练阶段让AI自己参与了优化迭代。100轮自主优化,零人工干预,最终评测提升30%。
听起来像噱头?看完技术细节和实测数据再下结论。
M2.7是什么
MiniMax-M2.7是MiniMax于2026年3月18日发布、4月12日全球开源的推理大模型。
核心参数:
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
但参数不是重点。真正值得关注的,是它做了什么不一样的事。
核心突破:AI自己训练自己
M2.7是第一个在训练过程中实现”自我进化”的商用大模型。
这里的”自进化”不是模型自己改权重——而是让模型在训练阶段,自己跑了100多轮优化循环:
-
1. 跑完任务 → 检查哪些做砸了 -
2. 定位到具体出错的步骤 -
3. 自己改脚手架代码去修复 -
4. 改完再跑一遍评测,对比新旧结果 -
5. 效果好就保留,退步了就回滚
没人盯着调参,是模型自己干的。
这个过程建立在MiniMax内部的OpenClaw框架上——OpenClaw本身是一个Agent工作流平台,在M2.7的训练里被改造成了模型自训练系统。
M2.7自己发现了什么
100轮跑下来,模型”琢磨”出了几个有意思的优化方向:
-
• 采样参数调优:系统性地搜索温度、频率惩罚等参数的最优组合,找到了比人工调参更好的配置 -
• 跨文件bug搜索:修完一个bug后,自动去其他文件里搜索相同模式——没人教它这么做,它自己琢磨出来的 -
• 死循环检测:在Agent执行链里加了防卡死机制
最终结果:内部评测提升30%,零人工干预。
硬核跑分:比Claude Opus便宜50倍,强23个点
自进化的故事再漂亮,开发者看的还是实际结果。M2.7的跑分撑得住这个故事。
编程与软件工程
|
|
|
|
|
| SWE-bench Verified | 78.0% |
|
|
|
|
|
|
|
|
|
82.4% |
|
|
|
|
|
|
|
SWE-bench Verified是最值得关注的:78%对55%,高了23个点。这个测试考的是真实GitHub issue的修复能力,不是刷题。
Agent与工具调用
工具调用准确率75.8%(Opus约72%)。差距不大,但考虑到M2.7训练阶段就是靠Agent工作流优化的,这个结果在意料之中。
MiniMax还搞了个MM Claw评测集,基于OpenClaw真实任务出题,M2.7拿到62.7%,接近Sonnet 4.6。
价格:比Opus便宜50倍
这是M2.7对开发者最有吸引力的一点。
|
|
|
|
| MiniMax M2.7 | $0.30/M | $1.20/M |
|
|
|
|
|
|
|
|
|
|
|
|
SWE-bench Verified比Opus高23个点,价格便宜50倍。代码生成、bug修复、Agent工作流这些日常开发任务,M2.7完全胜任,成本几乎可以忽略。
开源生态:全球首日即完成适配
4月12日开源当天,产业链反应速度惊人。
国内芯片厂商:
-
• 华为昇腾:基于vllm-Ascend推理引擎,Atlas 800 A3首日适配 -
• 摩尔线程:基于MTT S5000完成深度调优 -
• 沐曦曦云C系列GPU:MXMACA软件栈,首日”发布即算力就绪” -
• 昆仑芯:底层算子优化+软硬件协同加速
国际平台:
-
• NVIDIA TensorRT-LLM深度适配 -
• Together AI、Fireworks、Ollama首日接入 -
• Hugging Face、GitHub同步开源 -
• vLLM、SGLang、魔搭等推理框架完成适配
开源地址:
-
• GitHub:github.com/MiniMax-AI/MiniMax-M2.7 -
• HuggingFace:huggingface.co/MiniMaxAI/MiniMax-M2.7 -
• 魔搭:modelscope.cn/models/MiniMax/MiniMax-M2.7
局限性:自进化还在早期
M2.7的自进化并非万能。
MiniMax自己也承认,这还处于”早期回响”阶段。100轮优化提升30%,但优化范围集中在Agent脚手架层面,没有碰模型权重本身。
换句话说:它能优化”怎么用工具”,但”怎么推理”的核心能力还是人类设计的。
不过方向有意思。从”人训练模型”到”模型参与训练模型”,这条路如果能走下去,后面的版本迭代会快很多。
什么时候选M2.7
适合的场景:
-
• 代码生成、bug修复 -
• Agent工作流搭建 -
• 需要长上下文(200K)的任务 -
• 对成本敏感的日常开发
还是选Opus的场景:
-
• 复杂多步推理 -
• 学术研究 -
• 需要极度稳定的深度思考任务
结语
MiniMax M2.7最让我震撼的,不是78%的SWE-bench分数——而是从”人训练模型”到”模型自己优化自己”这个范式的转变。
当然,这只是第一步。但这一步迈出去之后,后面的路会快很多。
开源链接已就绪,感兴趣的同学可以上手实测了。
参考资料:
-
• MiniMax官方GitHub:github.com/MiniMax-AI/MiniMax-M2.7 -
• HuggingFace:huggingface.co/MiniMaxAI/MiniMax-M2.7 -
• DataLearner技术详解:datalearner.com -
• OFox AI技术分析:ofox.ai
夜雨聆风