要让OpenClaw对接本地模型qwen3:14b,可参考本地mac - openclaw安装步骤进行操作:
- 下载ollama大模型平台,官网为https://ollama.com/ 。若已有ollama,需关注其版本,ollama至少要大于等于0.15.3。在mac本地启动iterm,通过命令下载大模型
qwen3:14b:
ollama pull qwen3:14b
若pull大模型的过程太慢,可先按control c,然后再重新执行pull命令[^3]。
- 安装openclaw,执行命令:
npm install -g openclaw@latest
若执行此命令提示没有权限,则可以选择nvm方式。没安装nvm的话,先下载:
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.7/install.sh | bash
然后重开iTerm或执行:
source ~/.zshrc
用nvm安装Node(npm会一起装):
nvm install --lts nvm use --lts
确认路径变了:
which node which npm
最后再重新执行:
npm install -g openclaw@latest
3. 使用ollama启动openclaw:
ollama launch openclaw
一路默认即可进行下去,启动成功后,会提示对应web - ui的路径和token。若想修改默认的模型,执行命令:
ollama launch openclaw --config
在~/.openclaw/openclaw.json中设置使用qwen3:14b为默认模型,示例配置如下:
{ "agents": { "defaults": { "model": { "primary": "qwen3:14b" } } } }
参考资料:https://ollama.com/library/qwen3 、https://docs.ollama.com/integrations/openclaw [^3]。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/256541.html