# OpenClaw 完整安装与使用教程
1. 环境准备与安装方式选择
1.1 系统环境要求
| 操作系统 | 最低要求 | 推荐配置 |
|---|---|---|
| Windows | Windows 10⁄11 + WSL2 或 Node.js ≥ v22 LTS | Windows 11 + WSL2 Ubuntu [ref_1] |
| macOS | Node.js ≥ v22 LTS | 最新版本 macOS + Node.js v22 [ref_6] |
| Linux | Node.js ≥ v22 LTS | Ubuntu 22.04+ + Node.js v22 [ref_6] |
1.2 Node.js 环境安装
Windows 系统推荐安装方式:
# 1. 下载 Node.js v22 LTS 版本 # 访问 https://nodejs.org/ 下载安装包 # 2. 验证安装 node --version npm --version # 3. 设置 npm 镜像(可选,加速下载) npm config set registry https://registry.npmmirror.com
如果选择 WSL2 方式,需要先启用 WSL2 并安装 Ubuntu 发行版 [ref_1]。
2. OpenClaw 安装方法
2.1 一键安装(推荐)
# 使用 npm 全局安装 OpenClaw CLI npm install -g @openclaw/cli # 验证安装 openclaw --version
此方法适用于大多数用户,自动化处理依赖和环境配置 [ref_2]。
2.2 Docker 部署(生产环境推荐)
# 使用官方 Docker 镜像 docker pull openclaw/openclaw:latest # 运行容器 docker run -d --name openclaw -p 18789:18789 -v /path/to/config:/app/config openclaw/openclaw:latest
Docker 方式提供更好的环境隔离和部署一致性 [ref_6]。
2.3 源码编译安装(开发人员)
# 克隆源码 git clone https://github.com/openclaw/openclaw.git cd openclaw # 安装依赖 npm install # 构建项目 npm run build # 启动开发模式 npm run dev
3. 服务配置与启动
3.1 初始化配置
# 运行快速启动向导 openclaw quickstart # 或手动创建配置文件 mkdir -p ~/.openclaw cat > ~/.openclaw/config.json << EOF { "gateway": { "port": 18789, "host": "0.0.0.0" }, "models": { "default": "glm-4" } } EOF
初始化过程会引导完成基础配置 [ref_4]。
3.2 启动 Gateway 服务
# 启动网关服务 openclaw gateway start # 或使用 npm 脚本(源码安装时) npm run gateway
服务启动后,可以通过 http://127.0.0.1:18789 访问 Web 管理界面 [ref_2]。
3.3 验证服务状态
# 检查服务运行状态 openclaw status # 测试 API 接口 curl http://127.0.0.1:18789/api/health
4. 模型接入配置
4.1 配置云模型 API
智谱 GLM-4 配置示例:
{ "models": { "glm-4": { "provider": "zhipu", "api_key": "your_glm_api_key_here", "base_url": "https://open.bigmodel.cn/api/paas/v4", "model_name": "glm-4" } } }
在 Web 管理界面的模型配置页面填入相应的 API Key 和基础 URL [ref_6]。
4.2 本地模型接入(Ollama)
# 安装 Ollama curl -fsSL https://ollama.ai/install.sh | sh # 下载模型 ollama pull qwen2:7b # 配置 OpenClaw 使用本地模型
修改配置文件指向本地 Ollama 服务:
{ "models": { "local-qwen": { "provider": "ollama", "base_url": "http://localhost:11434", "model_name": "qwen2:7b" } } }
本地模型部署适合对数据隐私要求高的场景 [ref_5]。
5. 飞书机器人集成
5.1 飞书应用创建步骤
- 登录飞书开放平台:https://open.feishu.cn/
- 创建企业自建应用
- 启用机器人能力
- 配置权限:需要消息接收、发送权限
- 获取凭证:记录 App ID 和 App Secret [ref_3]
5.2 OpenClaw 飞书配置
# 配置飞书机器人 openclaw config set feishu.app_id "your_app_id" openclaw config set feishu.app_secret "your_app_secret" openclaw config set feishu.encrypt_key "your_encrypt_key" # 可选 openclaw config set feishu.verification_token "your_verification_token"
5.3 事件回调配置
在飞书开放平台配置事件回调 URL:
http://your-server:18789/feishu/events
需要配置的权限包括:im:message、contact:user等 [ref_4]。
6. 高级功能配置
6.1 多模型负载均衡
{ "routing": { "strategy": "round-robin", "models": ["glm-4", "qwen-plus", "local-backup"] } }
6.2 自定义插件开发
// 示例:简单的天气查询插件 module.exports = { name: 'weather', description: '查询天气信息', async execute(args, context) { const { city } = args; // 实现天气查询逻辑 return `查询 ${city} 的天气信息...`; } };
7. 故障排查与优化
7.1 常见问题解决方案
| 问题现象 | 可能原因 | 解决方案 |
|---|---|---|
| 端口 18789 被占用 | 其他服务占用端口 | 修改配置文件的端口号或停止冲突服务 |
| API 调用返回 409⁄703 错误 | API Key 配置错误 | 检查 API Key 权限和配额 [ref_6] |
| sharp 依赖安装失败 | 系统缺少编译环境 | 安装 node-gyp 和相关构建工具 |
| 飞书消息无法接收 | 回调 URL 验证失败 | 检查网络可达性和签名验证 |
7.2 性能优化建议
# 启用服务监控 openclaw monitor start # 调整服务资源限制(Docker 环境) docker update --memory=2g --cpus=2 openclaw # 配置日志轮转 openclaw config set logging.rotation.enabled true openclaw config set logging.rotation.max_size 100MB
8. 实际应用场景
8.1 企业客服机器人
通过飞书集成,实现 7×24 小时智能客服,自动回答常见问题,减轻人工客服压力 [ref_3]。
8.2 开发助手
集成到 VS Code 等开发环境,提供代码审查、文档生成、问题解答等开发支持功能。
8.3 内部知识库
结合本地模型部署,构建安全可控的企业内部知识问答系统,保护商业机密。
本教程涵盖了 OpenClaw 从环境准备到生产部署的完整流程,用户可以根据自身需求选择合适的安装方式和配置方案。无论是个人使用还是企业部署,OpenClaw 都提供了灵活可靠的 AI 助手解决方案。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/230997.html