2026年阿里开源Qwen3.6-35B-A3B:30亿激活参数,编程能力"以下犯上"

阿里开源Qwen3.6-35B-A3B:30亿激活参数,编程能力"以下犯上"阿里开源了个 小个子 模型 但干翻了一堆大块头 大模型领域有个常见的逻辑 参数越多越强 70B 比 7B 强 130B 比 70B 强 这事基本上成立 但阿里 4 月 16 日开源的这个新模型 有点反常识 Qwen3 6 35B A3B 总参数 350 亿 但运行时只激活 30 亿 就是个 小个子 但它在编程基准测试里 把拥有 270 亿参数的稠密模型 Qwen3

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



阿里开源了个”小个子”模型,但干翻了一堆大块头

大模型领域有个常见的逻辑:参数越多越强。70B比7B强,130B比70B强,这事基本上成立。

但阿里4月16日开源的这个新模型,有点反常识。

Qwen3.6-35B-A3B,总参数350亿,但运行时只激活30亿。就是个”小个子”。

但它在编程基准测试里,把拥有270亿参数的稠密模型Qwen3.5-27B给超了。

阿里开源Qwen3.6-35B-A3B

这涉及到它用的架构——稀疏混合专家(MoE)

传统的稠密模型,不管什么任务,都会调用全部参数参与计算。就像你做一道加减法,全公司开会讨论,成本高、速度慢。

MoE架构不一样。它把模型拆成多个"专家",每次只激活跟当前任务相关的少数专家来处理。打个比方:你的公司有各领域的专业团队,做财务找财务部,做技术找研发部,不用每次全公司开会。

Qwen3.6-35B-A3B就是这个逻辑——350亿参数是"公司总人数",但每次只叫30亿"员工"上班。所以它跑起来的时候,资源消耗跟一个30亿参数的模型差不多,但调用的知识储备却是350亿级别的。

具体到编程能力:

SWE-bench Pro(硬核编程基准测试)上,Qwen3.6-35B-A3B从上代53.4%跃升至64.3%,单代涨幅近11个百分点。横向对比一下:GPT-5.4是57.7%,Gemini3.1 Pro是54.2%——它把这两个都踩在脚下了。

视觉推理方面,RefCOCO评分高达92.0,部分多模态指标已经比肩Claude Sonnet4.5。

还有一个有意思的点:它已经支持preserve_thinking思维链保留功能,可以无缝适配OpenClaw、Claude Code和Qwen Code等主流AI编程助手。

阿里开源Qwen3.6-35B-A3B

这件事值得多说几句。

过去两年,大模型的主流叙事是"越大越好"。OpenAI、Google、Meta这些大厂在参数规模上不断加码,用更大的模型证明更强的能力。

但到了2026年,方向开始分化了。一部分玩家继续走"大而全"的路线,另一部分开始探索"小而精"的路径——用更少的计算资源,提供足够强的能力。

Qwen3.6-35B-A3B属于后者。它的意义在于:它证明了在编程这个场景下,模型效率的优化可以弥补参数规模的差距

这对于实际应用来说很关键。企业部署模型需要考虑成本,在效果够用的前提下,能用30亿参数跑完的任务,为什么要花70亿的成本?尤其在端侧AI和自动化智能体需求激增的背景下,这种"低功耗高智能"的模型会更受欢迎。

目前已集成至Qwen Studio,并通过阿里云百炼平台以qwen3.6-flash的命名对外提供API服务。

如果你是开发者,想体验这个模型,可以去Qwen Studio或者阿里云百炼平台申请调用。API接口已经开放,文档也有。

模型地址:https://huggingface.co/Qwen/Qwen3.6-35B-A3B


AITOP100-AI资讯频道将持续关注AI行业新闻资讯消息,带来最新AI内容讯息。

想了解AITOP100平台其它版块的内容,请点击下方超链接查看

AI创作大赛 | AI活动 | AI工具集 | AI资讯专区 | AI小说

AITOP100平台官方交流社群二维码:

AITOP100平台官方交流社群二维码二维码

小讯
上一篇 2026-04-18 14:07
下一篇 2026-04-18 14:05

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/270148.html