2026 年 4 月 7 日,MiniMax 发布了 M2.7。如果只看名字,你可能以为又是一次常规版本迭代。但这次不一样——M2.7 是第一个在训练过程中实现了”自我进化”的商用大模型。
什么叫自我进化?简单说,M2.7 在训练阶段自己跑了 100 多轮优化,自己发现问题、自己改代码、自己验证效果、自己决定保留还是回滚。不是人盯着调参数,是模型自己干。
结果也不是噱头:SWE-bench Verified 78%,比 Claude Opus 4.6 的 55% 高出一大截;SWE-Pro 拿到 56.22%,接近 Opus;价格还是 \(0.30/\)1.20——跟 M2.5 一样,比 Opus 便宜 50 倍。
已经在用 M2.7 做开发的读者,接入配置参见 MiniMax M2.7 API 教程。本文聚焦自我进化机制的技术拆解和对开发者的实际影响。
M2.7 的自我进化建立在 MiniMax 的内部框架 OpenClaw 之上。OpenClaw 本身是一个 Agent 工作流平台,之前已经开源给开发者用了。但在 M2.7 的训练里,MiniMax 把它变成了一个模型自训练系统。
核心循环很直接:模型跑完一轮任务,检查哪些做砸了,定位到具体出错的步骤,然后自己改脚手架代码去修。改完再跑一遍评测,把新旧结果放在一起比,效果好就保留,退步了就回滚。
然后进入下一轮。
这个循环自主跑了 100 多轮,不是象征性做个 demo。
100 轮跑下来,M2.7 自己摸索出了几个有意思的优化。
一个是采样参数调优。模型自己系统性地搜索温度、频率惩罚等参数的最优组合,找到了比人工调参更好的配置。
另一个更有意思:M2.7 给自己写了新的操作规范。比如修完一个 bug 之后,自动去其他文件里搜索相同的 bug 模式。没人教它这么做,它自己琢磨出来的。
它还在 Agent 执行链里加了死循环检测,防止在复杂任务中卡住。
最终内部评测提升 30%,零人工干预。
自我进化是训练方法的创新,但开发者用模型看的是结果。M2.7 的跑分确实撑得起这个故事。
SWE-bench Verified 是最大的亮点:78% 对 Opus 的 55%,差了 23 个百分点。这个测试考的是真实 GitHub issue 的修复能力,不是刷题。SWE-Pro 多语言版本上三者打平,都在 56% 左右。Terminal Bench 2 测的是系统级操作和 DevOps 任务,M2.7 拿到 82.4%,Opus 74.1%。
工具调用准确率 75.8%,Opus 大约 72%。差距不算大,但考虑到 M2.7 训练阶段就是靠 Agent 工作流优化自己的,这个结果在意料之中。
MiniMax 还搞了个叫 MM Claw 的评测集,拿 OpenClaw 里的真实任务出题,包括学习规划、办公文档、代码维护这些。M2.7 拿到 62.7%,接近 Sonnet 4.6。
M2.7 的定价没有因为能力提升而涨价:
SWE-bench Verified 比 Opus 高 23 个点,价格便宜 50 倍。
代码生成、bug 修复、Agent 工作流,这些日常开发任务 M2.7 完全胜任,成本几乎可以忽略。$0.30 的输入价格意味着你可以放心跑长上下文,不用心疼 token。
复杂多步推理、学术研究、系统架构设计这类需要深度思考的活,Opus 还是更稳。M2.7 不是万能的,但它覆盖的场景已经很广了。
一行代码切换,不用改业务逻辑:
from openai import OpenAI client = OpenAI( api_key=“your-ofox-api-key”, base_url=“https://api.ofox.ai/v1” ) response = client.chat.completions.create( model=“minimax/minimax-m2.7”, messages=[{“role”: “user”, “content”: “分析这段代码的性能瓶颈并给出优化方案”}], ) print(response.choices[0].message.content)
完整的 API 配置、Highspeed 模式选择和 OpenClaw 集成方式,参见 MiniMax M2.7 API 教程 和 OpenClaw + Claude Code 配置教程。
说实话,M2.7 的自我进化还处于早期。MiniMax 自己也承认这一点,官方文章标题就叫”早期回响”。100 轮自主优化提升了 30%,但优化的范围集中在 Agent 脚手架层面,没有碰模型权重本身。
有意思的是方向。从”人训练模型”到”模型参与训练模型”,如果这条路能走下去,后面的版本迭代会快很多。不过这还只是个”如果”。
M2.7 本身已经是一个跑分扎实、价格友好的模型。自我进化的故事有多大后劲,下个版本见分晓。
- MiniMax M2.7 API 教程:highspeed 模式 + 国内调用方案
- MiniMax M2.5 API 接入教程
- MiniMax M2.5 vs Claude Sonnet 4.6 vs GPT-5.4 横评
- MiniMax M2.7 编程实测 + TTS 语音 API 实战
- MiniMax M2.5 开源部署指南 + M2.7 免费使用方案
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/252090.html