阿里推出Qwen3.6-35B-A3B模型:高效轻量级开源方案及本地部署指南

阿里推出Qwen3.6-35B-A3B模型:高效轻量级开源方案及本地部署指南2026 年 4 月 16 日 阿里正式发布高效轻量级开源模型 Qwen3 6 35B A3B 该模型总参数量为 350 亿 采用稀疏 MoE 混合专家 架构 凭借仅 30 亿激活参数 便可与 Qwen3 5 27B Gemma4 等稠密模型一较高下 评测数据显示 Qwen3 6 35B A3B 在多项主流基准测试中与 Qwen3 5 27B 表现十分接近

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



2026年4月16日,阿里正式发布高效轻量级开源模型Qwen3.6-35B-A3B。该模型总参数量为350亿,采用稀疏MoE(混合专家)架构,凭借仅30亿激活参数, 便可与Qwen3.5-27B、Gemma4等稠密模型一较高下。

阿里推出Qwen3.6-35B-A3B模型:高效轻量级开源方案及本地部署指南_openclaw

评测数据显示,Qwen3.6-35B-A3B在多项主流基准测试中与Qwen3.5-27B表现十分接近,并在中文语义理解(C-Eval)上显著优于Gemma4模型。

阿里推出Qwen3.6-35B-A3B模型:高效轻量级开源方案及本地部署指南_飞书_02

Ollama自v0.17版本起支持OpenClaw部署(实测仍需较多手动配置)。考虑到Qwen新模型的优异性能,以及本地低成本运行OpenClaw的需求,本文将对基于Ollama的本地化部署进行详细实测。

阿里推出Qwen3.6-35B-A3B模型:高效轻量级开源方案及本地部署指南_阿里云_03

模型在Ollama上的显示大小为24GB(实际占用约23GB),处于消费级显卡的能力边界,非常适合本地部署尝鲜。

阿里推出Qwen3.6-35B-A3B模型:高效轻量级开源方案及本地部署指南_飞书_04

环境说明

  • 系统:Windows 11
  • 工具:WSL (Ubuntu)、Ollama

部署步骤

  1. 硬件检查:按Win + R,输入dxdiag,确认内存与显卡配置满足运行要求。
  2. 安装WSL:OpenClaw是Linux原生应用,建议先配置WSL环境。在PowerShell中执行:
wsl –install -d Ubuntu

解释一下:

WSL 是“Windows Subsystem for Linux”的缩写,即Windows的Linux子系统,是一个由微软开发的兼容层,允许用户在Windows上原生运行Linux语句和文件,而无需传统虚拟机或双系统。-d Ubuntu参数则指定在该子系统上安装Ubuntu发行版作为具体的Linux环境。

  1. 安装依赖:由于Ollama的模型文件都使用zstd(Zstandard,Facebook开源的一种高速数据压缩算法工具)格式进行压缩。因此,需要在Linux终端模式下先安装zstd:
sudo apt-get install zstd
  1. 安装 Ollama
curl -fsSL https://ollama.ai/install.sh | sh

注意:安装耗时较长,请确保设备不休眠(无断点续传功能)。

  1. 拉取模型
ollama run qwen3.6:35b-a3b

安装完成后会进入对话界面,输入 /?可查看操作帮助:

阿里推出Qwen3.6-35B-A3B模型:高效轻量级开源方案及本地部署指南_人工智能_05

实测模型具备基础代码能力,但仍存在少量“幻觉”现象。

阿里推出Qwen3.6-35B-A3B模型:高效轻量级开源方案及本地部署指南_人工智能_06

阿里推出Qwen3.6-35B-A3B模型:高效轻量级开源方案及本地部署指南_openclaw_07

6. 安装 Node.js(通过NVM)

# 安装 NVM curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.7/install.sh | bash

刷新配置

source ~/.bashrc

安装LTS版本Node.js

nvm install –lts

验证安装

node -v

7. 部署 OpenClaw

# 方式一:Ollama 启动 ollama launch openclaw

方式二:官方脚本(推荐)

curl -fsSL https://openclaw.ai/install.sh | bash

安装过程中如有需要添加的依赖,跟着引导一直选择“Yes”即可。

最终会输出一个长串dashboard url,其中“token=”后面的内容为OpenClaw的token值,需要记下来。

如果没有出现token值,可运行以下命令,命令行窗口会打印出url值即可看到token:

openclaw dashboard

9. 确认服务已启动:

在浏览器中打开dashboard url(若需要手动连接,将token值输入后点击连接即可)

阿里推出Qwen3.6-35B-A3B模型:高效轻量级开源方案及本地部署指南_人工智能_08

进入“概览”面板,看到如下页面说明服务已正常启动。

阿里推出Qwen3.6-35B-A3B模型:高效轻量级开源方案及本地部署指南_飞书_09

进入飞书开放平台,执行以下步骤:

  1. 进入开发者后台,创建企业自建应用,填写应用名称和简介
  2. 添加应用能力:机器人
  3. 在权限管理页面,选择“批量导入/导出权限”,清空原代码并粘贴以下代码:
{ “scopes”: {

"tenant": [ "im:message.group_at_msg:readonly", "im:message.p2p_msg:readonly", "im:message:readonly", "im:message:send_as_bot", "im:resource" ], "user": [] 

} }

确认批量导入权限为聊天,若需要群聊、云文档等权限,后续可按需开通:

阿里推出Qwen3.6-35B-A3B模型:高效轻量级开源方案及本地部署指南_语言模型_10

4. 进入“事件与回调”,“订阅方式”选择“使用长连接接收事件 (WebSocket)”,并添加事件,输入“im.message.receive_v1”(接收消息):

阿里推出Qwen3.6-35B-A3B模型:高效轻量级开源方案及本地部署指南_人工智能_11

5. 创建并发布应用

6. 在飞书聊天界面可以搜索到刚才创建的机器人,但先别着急对话, 还需要在OpenClaw中将飞书机器人配置进来。

命令行窗口输入以下命令安装飞书官方插件,随后屏幕会出现一个二维码:

npx -y @larksuite/openclaw-lark install

使用飞书扫码后,可以创建机器人或添加已有机器人,在这里选择我们刚才在飞书中配置好的机器人。

回到飞书聊天界面发送消息,目前 Qwen3.6-35B-A3B 在本地环境的响应速度不太理想。部署流程虽已打通,但从“能跑通”到“高效生产力”仍需一条漫长的养虾之路。

后续,我会针对模型调用稳定性、效率以及OpenClaw高效使用等实际痛点,持续分享调优思路与实践。

阿里推出Qwen3.6-35B-A3B模型:高效轻量级开源方案及本地部署指南_语言模型_12

参考资料:Qwen3.6-35B-A3B:智能体编程利器,现已开源:https://qwen.ai/blog?id=qwen3.6-35b-a3b

小讯
上一篇 2026-04-30 07:47
下一篇 2026-04-30 07:45

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/282550.html