2026年离线环境部署:OpenClaw调用本地化Qwen3-14B镜像的全封闭方案

离线环境部署:OpenClaw调用本地化Qwen3-14B镜像的全封闭方案要让 OpenClaw 对接本地模型 qwen 3 14 b 可参考本地 mac openclaw 安装步骤进行操作 下载 ollama 大模型平台 官网为 https ollama com 若已有 ollama 需关注其版本 ollama 至少要大于等于 0 15 3 在 mac 本地启动 iterm 通过命令下载大模型 em qwen em

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。

要让OpenClaw对接本地模型qwen3:14b,可参考本地mac - openclaw安装步骤进行操作:

  1. 下载ollama大模型平台,官网为https://ollama.com/ 。若已有ollama,需关注其版本,ollama至少要大于等于0.15.3。在mac本地启动iterm,通过命令下载大模型qwen3:14b
ollama pull qwen3:14b 

若pull大模型的过程太慢,可先按control c,然后再重新执行pull命令[^3]。

  1. 安装openclaw,执行命令:
npm install -g openclaw@latest 

若执行此命令提示没有权限,则可以选择nvm方式。没安装nvm的话,先下载:

curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.7/install.sh | bash 

然后重开iTerm或执行:

source ~/.zshrc 

用nvm安装Node(npm会一起装):

nvm install --lts nvm use --lts 

确认路径变了:

which node which npm 

最后再重新执行:

npm install -g openclaw@latest 

3. 使用ollama启动openclaw

ollama launch openclaw 

一路默认即可进行下去,启动成功后,会提示对应web - ui的路径和token。若想修改默认的模型,执行命令:

ollama launch openclaw --config 

~/.openclaw/openclaw.json中设置使用qwen3:14b为默认模型,示例配置如下:

{ "agents": { "defaults": { "model": { "primary": "qwen3:14b" } } } } 

参考资料:https://ollama.com/library/qwen3 、https://docs.ollama.com/integrations/openclaw [^3]。

小讯
上一篇 2026-04-11 15:36
下一篇 2026-04-11 15:34

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/256541.html