文章目录
适用场景 :Windows/macOS/Linux 本地开发环境
目标 :快速搭建 OpenClaw 网关,连接 VS Code 等编辑器与本地/远程 AI 模型。
更新时间 :2026 年 3 月
核心版本要求:Node.js v22+, OpenClaw v2026+
在开始配置之前,必须确保你的系统环境满足 OpenClaw 的运行要求。
1. 验证依赖环境
OpenClaw 基于 Node.js 构建,请打开终端(CMD/PowerShell/Terminal)依次执行以下命令,检查版本:
- 输出类似
- 输出类似
2. 全局安装 OpenClaw
环境验证通过后,使用 npm 全局安装最新版的 OpenClaw:
GPT plus 代充 只需 145 3. 验证安装成功
安装完成后,验证 CLI 工具是否可用及版本号:
安装成功后,我们将通过交互式界面完成核心配置。
第一步:启动配置向导
在终端中直接运行:
GPT plus 代充 只需 145 系统将进入交互式配置界面 ()。
第二步:配置模型 (Model) —— 让 AI 变聪明的关键
⚠️ 重要前提 :在配置此步骤前,请确保你的模型后端(如 Ollama, LM Studio, LocalAI 等)已经安装并正在运行。
- 在主菜单中,使用方向键选择 ,按 进入。
- 选择模型提供商 (Provider) :
- 根据你运行的后端选择对应的选项:
- 如果你用 Ollama :选择 。
- 如果你用 LM Studio :选择 (LM Studio 兼容 OpenAI 协议)。
- 如果你用 原生 OpenAI API :选择 。
- 其他后端通常选择 或 。
- 根据你运行的后端选择对应的选项:
- 配置后端地址 (Base URL) :
- 系统会提示输入 API 地址。
- Ollama 默认 :
- LM Studio 默认 : (注意末尾的 )
- OpenAI 官方 :
- 操作 :输入地址后按 。
- 配置 API Key (如果需要) :
- 如果是本地模型(Ollama/LM Studio),通常留空或输入 / 即可(具体视后端要求,本地通常不需要真实 Key)。
- 如果是云端模型(OpenAI/Claude),请输入你的真实 API Key。
- 选择默认模型名称 (Model Name) :
- 系统可能会尝试自动拉取模型列表。
- 手动输入你要使用的模型 ID,例如:
- Ollama: ,
- LM Studio: 你在软件中加载的模型文件名对应的 ID。
- 操作 :输入模型名后按 。
- 测试连接 (Health Check) :
- 配置完成后,系统通常会询问是否进行测试。选择 。
- 如果显示 或 ,说明 OpenClaw 已成功连接到你的模型后端。
第三步:配置网关 (Gateway) —— 核心步骤
网关是 OpenClaw 的核心组件,负责接收编辑器请求并转发给 AI 模型。
- 返回主菜单,选择 ,按 进入。
- Tailscale Exposure (外网暴露) :
- 选项: (默认) /
- 建议 :选择 。
- 理由 :除非你需要通过 Tailscale 从其他机器远程访问,否则本地开发只需监听 ,更安全且延迟更低。
- Gateway token source (令牌来源) :
- 选项: /
- 建议 :保持默认,直接按 选择 。
- 理由:系统会自动生成一个高强度随机 Token 并保存到本地配置文件。
- Gateway token (网关令牌) :
- 界面会显示一串自动生成的字符(例如:)。
- 操作 :直接按 确认使用。
- ⚠️ 重要 :请务必复制并保存这串 Token!后续在 VS Code 插件中连接时必须用到它。
配置完成后,系统会自动备份旧配置文件 () 并写入新配置。
第四步:完成并启动服务
- 返回主菜单 ()。
- 使用方向键向下移动,选择最底部的 。
- 按 确认。
此时,终端将显示启动成功的信息:
💡 关于 "Gateway: not detected" 的提示 :
看到 不要惊慌。这通常是因为启动瞬间没有客户端(如 VS Code)连接,属于正常现象。只要窗口不报错退出,服务即视为运行正常。
服务启动后,保持终端窗口最小化但不要关闭(它是服务端进程)。
- 打开 VS Code。
- 进入 OpenClaw 插件设置页面。
- 配置连接信息:
- WebSocket URL : (默认端口通常为 18789,以终端输出为准)。
- Token : 填入你在"第三步"中记录的那串 Token (例如 )。
- 点击 Connect 或 Save。
- 测试:在聊天窗口发送 "Hello, are you ready?",如果收到回复,说明部署成功!
1. 如何查看图形化面板?
在浏览器中访问终端输出的地址:
👉
在这里可以查看实时日志、会话历史和系统状态。
2. 配置文件在哪里?
默认位于用户目录下的隐藏文件夹:
- Windows :
- macOS/Linux :
如果需要修改端口或 Token,可以直接编辑此文件(修改前建议先停止服务)。
3. 连接失败怎么办?
- 检查模型后端:确保 Ollama 或 LM Studio 正在运行,且模型已加载。
- 检查版本 :确保 是 2026.x.x 以上,Node 是 v22。
- 检查端口 :确认 VS Code 中的端口与终端输出的 端口一致。
- 检查 Token:Token 必须完全匹配,多一个空格都会导致认证失败。
- 检查防火墙 :虽然是本地连接,但某些严格的安全软件可能会拦截 端口。
4. 如何让它在后台运行?
如果你不想一直开着黑色终端窗口:
- 简单方法:右键点击窗口标题栏 -> 属性 -> 布局 -> 勾选"启动时最小化"。
- 高级方法 (Windows) :使用 将其注册为 Windows 服务。
- 高级方法 (Linux/macOS) :使用 或 配置守护进程。
恭喜! 你现在已经拥有了一个从环境搭建、模型配置到网关启动的完整本地 AI 开发环境。下次部署时,只需按照此流程操作即可。
GPT plus 代充 只需 145 部署
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/236438.html