随着开源大模型的性能不断提升(如 Qwen、Llama 等),越来越多的开发者希望在本地环境部署大模型,以保护代码隐私并节省 API 成本。OpenClaw 作为一款优秀的 AI 助手框架/工具,支持灵活的模型接入机制。
本文将手把手教你如何从零开始安装 OpenClaw,并将其连接到本地部署的大模型中,打造一个完全属于你自己的本地智能编码助手。
在配置模型之前,我们需要先在本地环境中安装好 OpenClaw 客户端。
安装参考:关于 OpenClaw 的详细安装说明,你也可以参考这篇文章:OpenClaw 安装与配置指南。
OpenClaw 支持多种安装方式,以下是几种最常见且快捷的方法:
1.1 通过 npm 全局安装 (推荐)
如果你的电脑上已经安装了 Node.js(推荐使用 Node.js 22 或 LTS 版本),可以直接通过 npm 进行全局安装:
npm install -g openclaw@latest
安装完成后,可以在终端中输入以下命令验证是否安装成功:
openclaw –version
如果正常输出版本号,则说明安装成功。
1.2 通过官方脚本安装
Windows 系统 (PowerShell): 如果你使用的是 Windows,可以打开管理员权限的 PowerShell,运行以下一键安装脚本:
iwr -useb https://openclaw.ai/install.ps1 | iex
macOS / Linux 系统: 在终端中执行以下一键安装脚本:
curl -fsSL https://openclaw.ai/install.sh | bash
在配置 OpenClaw 之前,你需要确保本地或你的私有服务器上已经成功部署了兼容 OpenAI API 格式的大模型服务。
提示:如果你还没有完成本地大模型的部署,强烈推荐使用
vLLM或Ollama(新手建议)框架。若想了解具体的部署流程,vllm启动本地模型可以参考这篇文章:Claude Code 接入本地大模型Qwen3.6 进行代码开发(vLLM 部署 + 环境配置)。确保部署成功后,你能通过
curl等工具访问类似于http://127.0.0.1:8000/v1/models的地址并获得模型列表响应。
你需要提前记录好以下三个关键信息:
- 模型服务的基础地址(Base URL):例如
http://127.0.0.1:8000/v1 - 模型名称(Model Name):例如
Qwen3.6-35B-A3B-FP8,必须与部署时注册的模型名称完全一致。
OpenClaw 提供了直观且灵活的配置方式,让我们可以轻松切换到本地模型。
3.1 找到配置文件
OpenClaw 的核心配置通常位于用户目录下的配置文件夹中,具体路径因操作系统而异。你可以通过 OpenClaw 的设置面板修改,或者直接修改 config.json(通常位于 ~/.openclaw/config.json)。
3.2 修改大模型 API 参数
在配置文件中,找到与模型服务提供商(Provider)相关的配置节点。我们需要将其改为自定义的 OpenAI 兼容端点。
以下是一个标准的 config.json 修改示例:
{ “llm”: {
"provider": "openai-compatible", "openai": { "baseUrl": "http://127.0.0.1:8000/v1", "apiKey": "sk-local-token", "model": "Qwen3.6-35B-A3B-FP8", "temperature": 0.2, "maxTokens": 4096 }
} }
参数说明:
provider: 必须设置为openai-compatible或等效的自定义提供商选项,告诉 OpenClaw 使用兼容 OpenAI 格式的接口。baseUrl: 你的本地模型服务地址,注意通常需要带有/v1后缀(视具体部署框架而定)。apiKey: 对应你本地服务的 Token。model: 填写你部署的具体模型名称。temperature: 控制模型输出的随机性,编码场景建议调低(如 0.1 - 0.3)。
3.3 保存并重启应用
配置修改完成后,保存文件并重启 OpenClaw 客户端,以确保新的配置项生效。
重启 OpenClaw 后,我们需要验证模型是否已经成功接入。
在 OpenClaw 的对话框中,输入一条简单的测试指令:
你好,请简单介绍一下你自己。
如果 OpenClaw 能够快速响应,并且回答符合你部署模型(如通义千问)的特征,那么恭喜你,配置成功!
为了更高效地使用和管理 OpenClaw,我们需要掌握其核心的命令行指令和交互指令。以下是常用的指令清单:
5.1 核心服务管理
网关(Gateway)是 OpenClaw 的核心服务,负责维持系统运行与连接。
启动与停止:
- 后台启动服务:
openclaw gateway start - 停止服务:
openclaw gateway stop - 重启服务:
openclaw gateway restart
运行状态与健康检查:
- 查看网关运行状态及端口监听情况:
openclaw gateway status - 进行系统健康检查:
openclaw health
前台调试:
- 前台运行并显示详细日志,非常便于排查问题:
openclaw gateway run –verbose
5.2 配置与通道连接
用户需通过配置指令设置模型参数及登录通讯渠道。
配置管理:
- 查看当前的配置列表:
openclaw config list - 修改参数(例如修改 API 密钥或 Base URL):
openclaw config set - 重置配置到默认状态:
openclaw config reset
通道登录:
- 登录目标平台(如 Telegram、微信等),支持扫码或令牌认证:
openclaw channels login
模型设置:
- 扫描或配置支持的 AI 模型(如 GPT-4、Claude 或你的本地模型):
openclaw models configure
5.3 维护与前端交互指令
系统提供了丰富的诊断工具,并在聊天界面内内置了快捷命令。
维护与故障排查:
- 自动检测并修复常见的配置错误:
openclaw doctor –fix - 实时查看系统运行日志:
openclaw logs –follow - 打开 Web 控制台界面,可视化管理各项服务:
openclaw dashboard
前端交互(斜杠命令): 在对话窗口内直接输入即可:
- 查看所有可用的快捷指令帮助:
/help - 重置当前的会话上下文,清理历史记忆:
/reset - 快速切换当前对话使用的 AI 模型:
/model
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/271926.html