Qwen3.6-35B-A3B开源:30亿激活参数实现27B级性能突破

Qwen3.6-35B-A3B开源:30亿激活参数实现27B级性能突破p strong 阿里通义千问团队最新开源的稀疏 MoE 模型 以 30 亿激活参数在编程基准测试中超越 270 亿参数稠密模型 重新定义高效 AI 推理标准 strong p p br p p style text align center p

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



 

阿里通义千问团队最新开源的稀疏MoE模型,以30亿激活参数在编程基准测试中超越270亿参数稠密模型,重新定义高效AI推理标准。

Qwen3

Qwen3.6-35B-A3B采用稀疏混合专家(MoE)架构,通过三大技术创新实现参数效率的飞跃:

混合注意力机制:创新性地将Gated DeltaNet(线性注意力)与Gated Attention(标准注意力)交替堆叠,既非纯Transformer也非纯线性注意力,而是两者的优化融合体。

动态专家路由:内置256个专家网络,每次推理仅激活8个路由专家+1个共享专家,实现精确的"按需调用"机制。这种设计使得350亿总参数中仅30亿参与计算,大幅降低推理成本。

40层深度架构:隐层维度2048,通过深层网络结构保证模型表达能力,同时利用稀疏激活控制计算复杂度。

在多项权威基准测试中,Qwen3.6-35B-A3B展现出卓越的智能体编程能力:

SWE-bench Verified 73.4 75.0 52.0 -1.6pts Terminal-Bench 2.0 51.5 41.6 42.9 +9.9pts QwenWebBench(前端) 1397 1068 1197 +329pts AIME 2026(数学) 92.7 - - 显著提升

关键突破:Terminal-Bench得分从40.5跃升至51.5,单代涨幅达11个百分点;前端代码生成能力提升40%以上,真正实现"一句话生成App"的开发体验。

  1. 在线体验:访问Qwen Studio无需注册直接对话,支持文本与图片输入
  2. API调用:通过阿里云百炼平台使用qwen3.6-flash名称调用,兼容OpenAI和Anthropic协议
  3. 本地部署:从Hugging Face或ModelScope下载权重,使用vLLM、Ollama加载
# 推荐启用思维保留功能用于复杂任务 

response = client.chat.completions.create(     model="qwen3.6-flash",     messages=[{"role": "user", "content": "生成一个数据分析仪表板"}],     preserve_thinking=True  # 保留思维链提升长周期任务效率 )

  • OpenClaw:配置文件设置Base URL为阿里云百炼端点,选择qwen3.6-flash模型
  • Claude Code:利用Anthropic API协议兼容性直接替换端点地址
  • Qwen Code:专为Qwen系列优化的开源终端AI智能体,认证后自动调用

Qwen3.6-35B-A3B的开源标志着大模型发展从"参数竞赛"向"效率优化"的重要转变。其价值体现在三个层面:

成本突破:推理成本仅为同性能稠密模型的十分之一,大幅降低企业部署门槛

性能密度:证明了在特定场景下,模型效率优化可以弥补参数规模差距

生态完善:作为Qwen3.6系列首个开源版本,为后续更大规模模型开源奠定基础

该模型已通过Apache 2.0开源协议完全开放,开发者可立即在Hugging Face和ModelScope平台获取,推动AI技术在更广泛场景的应用落地。

小讯
上一篇 2026-04-18 16:53
下一篇 2026-04-18 16:51

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/269887.html