乐于分享
好东西不私藏

MiniMax-M2.7 开源:从"AI帮手"到"AI自进化"的第一步

MiniMax-M2.7 开源:从"AI帮手"到"AI自进化"的第一步

MiniMax-M2.7 开源:从”AI帮手”到”AI自进化”的第一步

2026年4月12日,MiniMax M2.7正式在全球开源。

这不只是又多了一个开源模型——这是业界第一次,有商用大模型在训练阶段让AI自己参与了优化迭代。100轮自主优化,零人工干预,最终评测提升30%。

听起来像噱头?看完技术细节和实测数据再下结论。


M2.7是什么

MiniMax-M2.7是MiniMax于2026年3月18日发布、4月12日全球开源的推理大模型。

核心参数:

指标
数据
架构
MoE(混合专家)
总参数量
2300亿
激活参数
100亿
上下文长度
200K tokens
训练方法
首次引入”自进化”机制

但参数不是重点。真正值得关注的,是它做了什么不一样的事。


核心突破:AI自己训练自己

M2.7是第一个在训练过程中实现”自我进化”的商用大模型。

这里的”自进化”不是模型自己改权重——而是让模型在训练阶段,自己跑了100多轮优化循环

  1. 1. 跑完任务 → 检查哪些做砸了
  2. 2. 定位到具体出错的步骤
  3. 3. 自己改脚手架代码去修复
  4. 4. 改完再跑一遍评测,对比新旧结果
  5. 5. 效果好就保留,退步了就回滚

没人盯着调参,是模型自己干的。

这个过程建立在MiniMax内部的OpenClaw框架上——OpenClaw本身是一个Agent工作流平台,在M2.7的训练里被改造成了模型自训练系统。

M2.7自己发现了什么

100轮跑下来,模型”琢磨”出了几个有意思的优化方向:

  • • 采样参数调优:系统性地搜索温度、频率惩罚等参数的最优组合,找到了比人工调参更好的配置
  • • 跨文件bug搜索:修完一个bug后,自动去其他文件里搜索相同模式——没人教它这么做,它自己琢磨出来的
  • • 死循环检测:在Agent执行链里加了防卡死机制

最终结果:内部评测提升30%,零人工干预。


硬核跑分:比Claude Opus便宜50倍,强23个点

自进化的故事再漂亮,开发者看的还是实际结果。M2.7的跑分撑得住这个故事。

编程与软件工程

测试基准
M2.7
Claude Opus 4.6
GPT-5.3 Codex
SWE-bench Verified 78.0%
55.0%
SWE-Pro(多语言)
56.22%
~50%
56.22%
Terminal Bench 2
82.4%
74.1%
VIBE-Pro(项目级)
55.6%
~56%

SWE-bench Verified是最值得关注的:78%对55%,高了23个点。这个测试考的是真实GitHub issue的修复能力,不是刷题。

Agent与工具调用

工具调用准确率75.8%(Opus约72%)。差距不大,但考虑到M2.7训练阶段就是靠Agent工作流优化的,这个结果在意料之中。

MiniMax还搞了个MM Claw评测集,基于OpenClaw真实任务出题,M2.7拿到62.7%,接近Sonnet 4.6。


价格:比Opus便宜50倍

这是M2.7对开发者最有吸引力的一点。

模型
输入价格
输出价格
MiniMax M2.7 $0.30/M $1.20/M
MiniMax M2.7 Highspeed
$0.60/M
$2.40/M
Claude Opus 4.6
$15/M
$75/M
GPT-5.3
$2/M
$10/M

SWE-bench Verified比Opus高23个点,价格便宜50倍。代码生成、bug修复、Agent工作流这些日常开发任务,M2.7完全胜任,成本几乎可以忽略。


开源生态:全球首日即完成适配

4月12日开源当天,产业链反应速度惊人。

国内芯片厂商:

  • • 华为昇腾:基于vllm-Ascend推理引擎,Atlas 800 A3首日适配
  • • 摩尔线程:基于MTT S5000完成深度调优
  • • 沐曦曦云C系列GPU:MXMACA软件栈,首日”发布即算力就绪”
  • • 昆仑芯:底层算子优化+软硬件协同加速

国际平台:

  • • NVIDIA TensorRT-LLM深度适配
  • • Together AI、Fireworks、Ollama首日接入
  • • Hugging Face、GitHub同步开源
  • • vLLM、SGLang、魔搭等推理框架完成适配

开源地址:

  • • GitHub:github.com/MiniMax-AI/MiniMax-M2.7
  • • HuggingFace:huggingface.co/MiniMaxAI/MiniMax-M2.7
  • • 魔搭:modelscope.cn/models/MiniMax/MiniMax-M2.7

局限性:自进化还在早期

M2.7的自进化并非万能。

MiniMax自己也承认,这还处于”早期回响”阶段。100轮优化提升30%,但优化范围集中在Agent脚手架层面,没有碰模型权重本身。

换句话说:它能优化”怎么用工具”,但”怎么推理”的核心能力还是人类设计的。

不过方向有意思。从”人训练模型”到”模型参与训练模型”,这条路如果能走下去,后面的版本迭代会快很多。


什么时候选M2.7

适合的场景:

  • • 代码生成、bug修复
  • • Agent工作流搭建
  • • 需要长上下文(200K)的任务
  • • 对成本敏感的日常开发

还是选Opus的场景:

  • • 复杂多步推理
  • • 学术研究
  • • 需要极度稳定的深度思考任务

结语

MiniMax M2.7最让我震撼的,不是78%的SWE-bench分数——而是从”人训练模型”到”模型自己优化自己”这个范式的转变。

当然,这只是第一步。但这一步迈出去之后,后面的路会快很多。

开源链接已就绪,感兴趣的同学可以上手实测了。


参考资料:

  • • MiniMax官方GitHub:github.com/MiniMax-AI/MiniMax-M2.7
  • • HuggingFace:huggingface.co/MiniMaxAI/MiniMax-M2.7
  • • DataLearner技术详解:datalearner.com
  • • OFox AI技术分析:ofox.ai