2026年本地小龙虾搭建-16g内存

本地小龙虾搭建-16g内存针对 Windows 系统使用 Qwen3 5 搭配 OpenClaw 有两种主流方案 考虑到 Qwen3 5 是最新开源模型 2026 年 2 月发布 推荐优先使用方案一 方案一 Ollama Qwen3 5 推荐 这是最灵活的方案 模型运行在本地 OpenClaw 通过 API 调用 第一步 安装 Ollama 1 访问 ollama com download

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



针对 Windows 系统使用 Qwen3.5 搭配 OpenClaw,有两种主流方案。考虑到 Qwen3.5 是最新开源模型(2026年2月发布),推荐优先使用方案一。

🎯 方案一:Ollama + Qwen3.5(推荐)

这是最灵活的方案,模型运行在本地,OpenClaw 通过 API 调用。

第一步:安装 Ollama

  1. 双击安装,建议安装在纯英文路径(如 D:Ollama)
  2. 安装完成后,Ollama 会自动在后台运行(系统托盘可看到图标)

    第二步:下载 Qwen3.5 模型

    打开 PowerShell 或 CMD,执行:

    8GB显存首选

    ollama pull qwen3:7b

    验证模型是否下载成功:

    bash
    ollama list
    “`




    第三步:安装 OpenClaw

  3. 下载安装包(约 50-361MB):
       · 官方地址:https://openclaw.ai/
       · 或使用镜像下载链接:https://openclaw.ikidi.top/api/download/package/22?promoCode=IVA4136EC91D






  4. 解压到纯英文路径(如 D:OpenClaw),不要有中文或空格
  5. 双击 Openclaw Windows 一键启动.exe 开始安装
       · 如果弹出系统安全拦截,点击「更多信息」→「仍要运行」
       · 保持默认路径或选择纯英文路径
       · 等待 3-5 分钟自动完成


    第四步:配置 OpenClaw 连接 Ollama

    安装完成后,配置 OpenClaw 使用本地 Ollama 的 Qwen3.5:

    方法一:通过配置文件

    配置文件位置:C:Users你的用户名.openclawopenclaw.json

    添加以下配置:

    json
    {
      "models": {
        "providers": {
          "ollama": {
            "enabled": true,
            "baseUrl": "http://localhost:11434",
            "defaultModel": "qwen3:7b"
          }
        }
      }
    }



































    方法二:通过命令行

    bash
    openclaw config set models.default.provider ollama
    openclaw config set models.default.model qwen3:7b








    第五步:启动验证







  6. 启动 OpenClaw:双击桌面快捷方式或运行 openclaw gateway start
  7. 等待状态变为「Gateway 在线」(约 1-3 分钟)
  8. 测试指令:在输入框输入“整理桌面上的文件,按类型分类”

    ✅ 成功标志:界面右上角显示「Gateway 在线」

    🚀 方案二:OpenClaw 内置模型(最简单)

    如果你不想额外安装 Ollama,某些版本的 OpenClaw 一键安装包已经内置了优化版模型,无需任何配置即可使用。

    操作步骤:

    ⚠️ 注意:内置模型可能不是最新的 Qwen3.5,具体取决于你下载的安装包版本。

    🔧 关键注意事项

    必须遵守的规则

    Qwen3.5 工具调用支持

    Qwen3.5 系列全系列原生支持 Function Calling(工具调用),这是 OpenClaw Skills 功能正常工作的核心前提。使用 qwen3:7b 等模型即可。

    📋 常见问题速查

    📚 常用命令参考

    bash
    ollama pull qwen3:7b      # 下载模型
    ollama list               # 查看已安装模型
    ollama run qwen3:7b       # 测试运行模型







    openclaw gateway start    # 启动网关
    openclaw status           # 查看运行状态
    openclaw doctor           # 检查配置问题








    按以上步骤操作,你就能在 Windows 上成功运行 OpenClaw + Qwen3.5 了。如果遇到问题,欢迎随时追问!

小讯
上一篇 2026-04-16 20:52
下一篇 2026-04-16 20:50

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/267244.html