Day 0 实现 MiniMax M2.7 六芯落地,众智FlagOS 又双叒叕让大模型多芯可用了!

Day 0 实现 MiniMax M2.7 六芯落地,众智FlagOS 又双叒叕让大模型多芯可用了!MiniMax 于 2026 年 4 月 12 日开源了最新的 MiniMax M2 7 大模型 众智 FlagOS 社区实现 Day0 新模型的全量适配 这一次是 MiniMax M2 7 目前 M2 7 已在平头哥 华为 海光 沐曦 天数 英伟达等多种 AI 芯片上完成基于众智 FlagOS 统一 开源技术栈的多芯适配 精度对齐与部署验证 开发者可直接获取对应芯片的开箱即用方案 MiniMax M2 7 是

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



​MiniMax于2026年4月12日开源了最新的MiniMax M2.7大模型,众智 FlagOS 社区实现 Day0 新模型的全量适配——这一次是 MiniMax M2.7。目前,M2.7 已在平头哥、华为、海光、沐曦、天数、英伟达等多种 AI芯片上完成基于众智FlagOS统一、开源技术栈的多芯适配、精度对齐与部署验证,开发者可直接获取对应芯片的开箱即用方案。

MiniMax M2.7是 M2 系列的最新一代模型,也是M2系列首个深度参与自身迭代的模型——它能够自主构建复杂的Agent Harness和Skills、更新自身 Memory,并通过强化学习驱动自身迭代,形成”模型驱动模型进化”的闭环。在能力层面,M2.7覆盖了从代码生成到日志排障、端到端项目交付的完整软件工程链路,SWE-Pro 基准56.22%,追平 GPT-5.3-Codex;在专业办公领域同样表现出色,GDPval-AA 评分仅次于 Opus4.6、Sonnet4.6 和 GPT-5.4,在 40 个复杂 Skills(>2000 Token)场景下保持 97% 的指令遵循率。 模型能力的提升也意味着更高的部署门槛,跨芯片的算子适配、多机部署、精度对齐等都对FlagOS提出了更高要求。正因为FlagOS建立了从编译器、算子库、多芯片框架统一plugin等技术,FlagOS团队可以在36小时完成模型适配、跨芯迁移验证、精度对齐评测、开源版本发布等重要步骤。

FlagOS 为 MiniMax M2.7 新模型提供了统一支持多种 AI 芯片的 vLLM 插件–vLLM-plugin-FL,在保证高效推理的同时,为用户提供开箱即用的跨芯片 MiniMax M2.7 版本。目前在 vLLM-plugin-FL 的支持下,平头哥、天数、英伟达等多种 AI 芯片已经通过插件方式实现 “零代码修改“ 完成 MiniMax M2.7 的推理部署及充分验证,同时华为、沐曦、海光也通过FlagOS技术栈实现接入。

使用源码进行安装部署,可参考以下官方一站式开发者文档,含详细代码示例与操作指引:

  • GitHub:https://github.com/flagos-ai/vllm-plugin-FL/blob/main/README.md
  • GitCode:https://gitcode.com/flagos-ai/vllm-plugin-FL/blob/main/README.md

快速安装

# 1. 安装 vLLM v0.19.0 pip install vllm==0.19.0

2. 安装 vllm-plugin-FL

git clone https://github.com/flagos-ai/vllm-plugin-FL cd vllm-plugin-FLpip install –no-build-isolation -e .

3. 安装 FlagGems

git clone https://github.com/flagos-ai/FlagGems cd FlagGems && git checkout v5.0.0 pip install –no-build-isolation -e .

4. (可选) 安装 FlagCX 统一通信库

详见 https://github.com/flagos-ai/FlagCX

运行推理

from vllm import LLM, SamplingParams

prompts = ["Hello, my name is"] sampling_params = SamplingParams(max_tokens=10, temperature=0.0) llm = LLM(model="FlagRelease/MiniMax-M2.7-nvidia-FlagOS",

 max_num_batched_tokens=16384, max_num_seqs=2048) 

outputs = llm.generate(prompts, sampling_params) for output in outputs:

print(f"Prompt: {output.prompt!r}") print(f"Generated: {output.outputs[0].text!r}")

如果环境中存在多个 vLLM 插件,可通过环境变量指定:

 

export VLLM_PLUGINS=‘fl’

用户也可以直接拉取在 FlagRelease 上发布的迁移后的模型文件、代码和镜像。以下是迁移适配后的几种 AI 芯片的模型版本,开箱即用、无需迁移。

魔搭平台

图片

HuggingFace 平台

图片

MiniMax M2.7 新模型的跨芯适配版本从开发到部署,全程围绕开发者友好设计,解决了大模型落地过程中多芯片适配复杂、推理框架割裂、精度对齐困难、部署成本高等四大核心痛点,让开发者真正实现”一次开发,多芯运行”。

  1. 零改码适配:不改变原有开发与调用习惯

无论是模型原有接口、vLLM 推理引擎使用逻辑,还是开发者的日常调用代码,均无需做任何修改。FlagOS 通过底层插件与算子替换实现适配,开发者专注业务开发即可,无需重新学习硬件相关开发知识,大幅降低迁移与部署门槛。

  1. 核心能力与原生版本对齐

经 GDPval-AA、AIME等权威评测集验证,FlagOS 适配后的 MiniMax M2.7,在软件工程能力、专业办公能力、复杂推理等核心能力上,与 CUDA 原生版本对齐,可放心应用于代码生成、日志分析、Bug 排查、复杂文档编辑等生产场景,无需担心适配导致业务效果折损

评测数据

图片

注:目前天数部分评测数据仍在跑测中,完整结果会陆续更新到 FlagRelease 在魔搭和 HuggingFace上天数的模型下载主页,敬请关注

图片

注:本测试结果仅用于对迁移前(Nvidia-Origin)和迁移后(-FlagOS)版本的互相对齐验证,并不代表 MiniMax 模型的官方性能,MiniMax 模型的官方性能以 MiniMax 官方公布数据为准。

  1. 极简部署:开箱即用,底层优化无感知

FlagOS 将核心算子库、编译器等技术组件前置内置到 MiniMax M2.7 代码框架中,开发者加载官方模型时,底层优化代码自动生效,无需手动添加任何 FlagOS 初始化代码。同时,基于 FlagOS 的大模型跨芯半自动迁移及发版工具 FlagRelease,直接提供了多芯片版本的 MiniMax-M2.7-FlagOS 模型版本,无需用户迁移,真正实现”开箱即用”;同时标准化 Docker 镜像 + 一键加速命令,解决了开发者最头疼的环境配置、效果对齐、性能优化等问题。

MiniMax M2.7 新模型能实现”发布即多芯”并非偶然,而是依托众智 FlagOS 打造的统一多芯片 AI 系统软件栈,从算子层、编译层、框架层到工具层,全链路为大模型跨芯适配提供技术支撑,将原本数周的适配周期缩短至数天,真正实现极速落地。

图片
图1  FlagOS:面向多种 AI 芯片的系统软件栈



  1. 统一多芯片接入插件 vLLM-plugin-FL:无缝兼容原生使用习惯

vLLM-plugin-FL 是 FlagOS 为 vLLM 推理服务框架打造的专属插件,基于 FlagOS 统一多芯片后端开发,在完全不改变 vLLM 原生接口与用户使用习惯的前提下,实现 MiniMax M2.7 的多芯片推理部署。目前 vLLM-plugin-FL 已经支持了英伟达、摩尔线程、海光、沐曦、平头哥真武、天数智芯等多家芯片。

  1. 高性能算子库 FlagGems:核心算子深度适配,释放硬件算力

FlagGems 作为 FlagOS 核心的高性能通用大模型算子库,基于 Triton 语言实现,针对 MiniMax M2.7 推理链路的核心算子进行了深度适配与优化,包括 MoE 专家调度、Attention 计算、RMSNorm 等关键计算模块,同时原生支持 NVIDIA、摩尔线程、沐曦、清微智能、天数等接近 20 家 AI 芯片。

  1. 统一 AI 编译器 FlagTree:一次编写,多芯编译

FlagTree 是 FlagOS 面向多 AI 芯片后端的统一编译器,基于 Triton 深度定制,可将 MiniMax M2.7 的核心算子编译为英伟达、摩尔线程等十多种不同 AI 芯片后端可识别的指令,彻底解决不同芯片编译器生态割裂的问题,大幅降低算子跨芯片适配的开发成本。

  1. 模型跨芯迁移发布工具 FlagRelease:半自动实现模型跨芯迁移与版本发布

依托 FlagOS 全栈技术能力,FlagRelease 已完成 MiniMax M2.7 在英伟达 H200、H20、摩尔线程等多种芯片上的模型迁移、精度对齐与版本发布,覆盖 HuggingFace、魔搭等开源社区平台。开发者可直接下载使用,无需自行迁移。截至本文发布,FlagRelease 已发布覆盖 10+ 家芯片厂商、12+ 款硬件、70+ 个开源模型实例的跨芯适配版本。

当下,”异构算力协同、大模型普惠落地”已成为全球开源开发者社区的核心热点,打破硬件生态隔离、让大模型在不同算力平台高效低成本运行,是无数开发者的核心诉求。FlagOS 从诞生之初就将开源开放、众智共建刻入技术基因,始终以开发者为中心,通过全栈开源的统一系统软件栈,把复杂的”M×N”硬件适配问题降维为”M+N”,做每一位开发者最可靠的跨芯适配后盾。

全栈开源无保留,把技术主动权交给开发者

目前,FlagOS 已形成完整的开源技术体系,所有核心组件均已开源在 GitHub,同时开放了数十款最新的主流基础大模型、十多款 AI 芯片的适配方案与**实践,开发者可自由获取、深度定制:

  • 四大核心技术库: FlagGems 通用大模型算子库、FlagTree 统一 AI 编译器、FlagScale 训练推理并行框架、FlagCX 统一通信库,覆盖算子开发、编译优化、并行计算、跨芯片通信全链路;
  • 三大开源工具平台: FlagRelease 大模型自动迁移发版平台、KernelGen 算子自动生成工具、FlagPerf 多芯片评测工具,提供从模型适配、性能评测到工程落地的一站式工具链;
  • 全场景扩展生态: vLLM-plugin-FL、Megatron-LM-FL、TransformerEngine-FL 等框架增强组件,以及 FlagOS-Robo 具身智能工具包,覆盖大模型训练、推理、应用全场景。

多路径参与共建,全层级开发者均可入局

我们为不同技术方向、不同经验层级的开发者,设计了低门槛、多路径的共建方式,无论你是 AI 开发新手,还是深耕系统软件的资深专家,都能在 FlagOS 社区找到自己的位置。

  • 新手友好型参与: 可在对应仓库提交 Issue 反馈 bug、优化建议,或是补充完善文档、撰写入门教程与**实践,也可参与社区技术交流、分享使用经验,零门槛开启开源之旅;(社区文档参考:https://docs.flagos.io/en/latest/)
  • 深度技术共建: 开发者可直接参与 FlagGems 算子开发与优化(新增算子 / 性能调优 / 新芯片后端支持)、KernelGen 算子生成流程增强、FlagTree 编译器后端扩展等核心模块,与社区核心开发者一起推动技术演进。
  • 生态工具贡献: 开发者可基于 FlagOS Skills 开发面向国产芯片的 AI Agent 专业技能,帮助更多开发者通过自然语言完成芯片适配、模型部署等操作。

关于众智FlagOS社区

为解决不同AI芯片大规模落地应用,北京智源研究院联合众多科研机构、芯片企业、系统厂商、算法和软件相关单位等国内外机构共同发起并创立了众智FlagOS社区,目前已经有78家成员单位。

FlagOS是一款专为异构AI芯片打造的开源、统一系统软件栈,支持 AI 模型一次开发即可无缝移植至各类硬件平台,大幅降低迁移与适配成本。它包括大型算子库、统一AI编译器、并行训推框架、统一通信库等核心开源项目,致力于构建「模型-系统-芯片」三层贯通的开放技术生态,通过“一次开发跨芯迁移”释放硬件计算潜力,打破不同芯片软件栈之间生态隔离。

社区官网:https://flagos.io/

GitHub 项目地址:https://github.com/flagos-ai

GitCode 项目地址:https://gitcode.com/flagos-ai

小讯
上一篇 2026-04-14 19:13
下一篇 2026-04-14 19:11

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/260446.html