OpenClaw - 安装小龙虾并使用本地模型教程(接入本地Qwen3.5模型为例)

OpenClaw - 安装小龙虾并使用本地模型教程(接入本地Qwen3.5模型为例)官网地址 https openclaw ai 2 OpenClaw 的本质是一个本地优先的 AI Agent 网关 它不像 ChatGPT 那样只能陪你聊天 而是能直接操控你的电脑 读文件 执行命令 管理日历 甚至帮你整理下载 文件夹里堆积如山的 PDF 更妙的是 它可以通过微信 飞书 Telegram 这些日常聊天软件跟你互动 想象一下 你在地铁上发条语音给微信里的

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



  • 官网地址:https://openclaw.ai/




(2) OpenClaw 的本质是一个本地优先的 AI Agent 网关。它不像 ChatGPT 那样只能陪你聊天,而是能直接操控你的电脑——读文件、执行命令、管理日历、甚至帮你整理下载 文件夹里堆积如山的 PDF。更妙的是,它可以通过微信、飞书、 Telegram 这些日常聊天软件跟你互动。想象一下,你在地铁上发条语音给微信里的 AI 助手:“把桌面上的报销单整理成 Excel”,到家一看,文件已经乖乖躺在桌面了。








(1)首先我们电脑需要安装 Node.js 环境,我们可以去其官网(点击访问)下载安装包安装。








(2)后面使用 npm 安装 OpenClaw 会执行 git 命令,因此我们还需要安装 Git,我们可以去 Git 官网(点击访问)下载安装包安装。








(3)由于本次我们希望 OpenClaw 使用本地的 Qwen3.5 模型,可以参考我之前的文章安装运行 Qwen3.5 模型:
  • Ollama - 快速部署本地千问 Qwen3.5 大语言模型教程(支持视觉、图片识别)








(1)打开 CMD 命令行,执行如下命令进行安装:
npm install -g openclaw

(2)当显示如下信息则说明安装成功:

(1) OpenClaw 安装完毕后,我们就可以执行如下命令使用 ollama 来直接运行 OpenClaw 了。







ollama launch openclaw

(2)上面命令执行后就会让我们选择模型。这里会有一个推荐模型和更多模型。推荐模型最上面的是云端模型。我们这里使用本地模型,按键盘上的下箭头在 More 这里往下找,这里我找到本地的 Qwen 3.5:9b 模型,回车。








(3)然后就是风险提示,我们直接选择 yes 回车。








(4)接下来回车等待其自动完成即可。中途可能会弹出个类似如下新窗口,这里是网关的日志信息。这个窗口不用管,只要开着就行了。








(5)看到绿色的 OpenClaw is running,就说明 OpenClaw 已经启动成功了。我们可以直接在终端中与其进行对话。








(6)同时从上面截图信息中我们可以看到 Web UI 的地址,我们可以使用浏览器打开这个地址,这样我们就可以在 UI 界面中进行对话了。
提示Web UI 界面中的聊天内容,和我们终端中的内容是同步的。








(1)这里我想让 OpenClaw 统计下桌面图片情况,可以发送如下消息:
我的电脑桌面有多少个图片文件,给我所有图片的文件名、文件大小、创建日期

(2)稍等片刻, OpenClaw 便会将结果返回给我们。



















小讯
上一篇 2026-04-19 13:53
下一篇 2026-04-19 13:51

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/265943.html