2026年4月17日,阿里通义千问团队正式发布旗下首个开源Qwen3.6系列混合专家(MoE)模型Qwen3.6-35B-A3B。该模型总参数量350亿,实际激活参数仅30亿,主打轻量高效特性,在编程、视觉两项核心能力上实现升级,视觉表现直逼Claude Sonnet 4.5,同时兼容OpenClaw开发框架,适配第三方智能体开发需求。
当前大模型赛道正呈现出闭源拼顶流性能、开源拼普惠效率的分化趋势,通义千问这次开源动作,恰好击中了开发者群体对低成本高性能MoE模型的需求缺口。
近年来,大语言模型参数规模不断攀升,顶流闭源模型的激活参数已经突破千亿门槛,虽然性能持续升级,但高昂的推理和部署成本,把绝大多数中小开发团队拦在了创新门槛之外。MoE架构凭借“总参数大、激活参数小”的特性,被业内认为是兼顾性能和成本的最优路径之一,但此前市面上的开源MoE模型要么性能跟不上最新梯队,要么激活参数仍偏高,难以满足普惠开发需求。
此次开源的Qwen3.6-35B-A3B,是Qwen3.6系列的首个开源MoE版本,该模型总参数量350亿,单次推理过程仅激活30亿参数,这样的设计让它在保持接近大参数模型能力的同时,推理成本大幅降低,普通开发者甚至可以在消费级高端显卡上本地部署运行。
登录后解锁全文,体验收藏、点赞、评论等完整功能
立即登录
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/268609.html