以下为面向 Linux 环境 的 OpenClaw(v2026.x)完整部署教程,综合参考多篇权威实操指南 [ref_1][ref_2][ref_3][ref_4][ref_6],覆盖从环境准备、核心服务安装、模型对接、飞书/机器人集成到生产级运维的全流程。本教程适用于 CentOS 7/8、Alibaba Cloud Linux 3、Ubuntu 22.04/24.04 等主流发行版,支持 Docker 容器化与 Node.js 原生双模式部署,并重点适配局域网 Ollama、智谱 GLM-4.6、百炼及 vLLM 推理后端。
🔍 一、问题解构
| 维度 | 关键诉求 |
|---|---|
| 目标平台 | Linux 服务器(物理机/云主机/WSL2) |
| 部署形态 | 生产可用、29小时在线、支持开机自启与长连接 |
| 核心组件 | OpenClaw(AI网关) + LLM推理服务(Ollama/GLM-4.6/百炼/vLLM) + 飞书机器人(可选) |
| 关键能力 | Web UI管理、Skills插件扩展、API代理、事件订阅、模型热切换 |
| 用户画像 | DevOps 工程师、AI 应用开发者、企业IT管理员(零代码经验亦可) |
🛠️ 二、方案推演与分步实施
✅ 步骤 1:环境准备(通用前置)
# 更新系统 & 安装基础工具 sudo apt update && sudo apt install -y curl wget git gnupg lsb-release jq net-tools # Ubuntu/Debian # 或 sudo yum update -y && sudo yum install -y curl wget git epel-release jq net-tools # CentOS/RHEL # 开放必要端口(以飞书+Web UI为例) sudo ufw allow 18789/tcp # OpenClaw 默认 Web UI 和 API 端口 [ref_3][ref_6] sudo ufw allow 8080/tcp # 可选:反向代理入口(Nginx) sudo ufw enable
> ⚠️ 注意:若使用阿里云/腾讯云等公有云,必须同步在控制台安全组中放行 18789 端口 [ref_3][ref_6]。
✅ 步骤 2:选择部署方式(推荐 Docker 模式)
| 方式 | 适用场景 | 优势 | 参考来源 |
|---|---|---|---|
| Docker 一键部署 | 快速验证、生产上线、免依赖冲突 | 10分钟完成,自动拉取镜像,支持 --restart=always |
[ref_3][ref_6] |
| Node.js 手动部署 | 需深度定制、调试源码、集成 VS Code 插件 | 支持 npm run dev 热重载,便于 Skills 开发 |
[ref_4] |
| 源码编译部署 | 安全审计、国产化信创环境(如麒麟OS) | 全链路可控,适配 ARM64 架构 | [ref_4] |
👉 首选 Docker 部署(生产推荐):
GPT plus 代充 只需 145# 1. 安装 Docker(Ubuntu 示例) curl -fsSL https://get.docker.com | sh sudo usermod -aG docker $USER && newgrp docker # 2. 拉取并启动 OpenClaw 官方镜像(v2026.2) docker run -d --name openclaw --restart=always -p 18789:18789 -v /opt/openclaw/data:/app/data -v /opt/openclaw/logs:/app/logs -e OPENCLAW_MODEL_PROVIDER="ollama" -e OPENCLAW_OLLAMA_BASE_URL="http://host.docker.internal:11434" -e OPENCLAW_SKILLS_ENABLED="true" ghcr.io/openclaw/clawdbot:v2026.2
> 💡 host.docker.internal 是 Docker Desktop 兼容写法;Linux 服务器需替换为宿主机内网 IP(如 192.168.1.100),或使用 --network host 模式直通网络 [ref_2]。
✅ 步骤 3:对接大语言模型(LLM)
OpenClaw 支持多后端模型,配置通过环境变量或 Web UI 设置:
| 模型类型 | 配置方式 | 示例值 | 备注 |
|---|---|---|---|
| Ollama(局域网) | OPENCLAW_MODEL_PROVIDER=ollama + OPENCLAW_OLLAMA_BASE_URL |
http://192.168.1.100:11434 |
需提前在局域网部署 Ollama 并 ollama pull qwen:3b [ref_2] |
| GLM-4.6(智谱) | OPENCLAW_MODEL_PROVIDER=zhipu + ZHIPU_API_KEY, ZHIPU_BASE_URL |
https://open.bigmodel.cn/api/paas/v4/ |
需申请智谱 AI Key,模型名填 glm-4-flash [ref_4] |
| 百炼(阿里云) | OPENCLAW_MODEL_PROVIDER=baichuan + DASHSCOPE_API_KEY |
https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation |
需开通百炼平台并获取 API Key [ref_3] |
| vLLM(Qwen3-4B) | OPENCLAW_MODEL_PROVIDER=vllm + VLLM_BASE_URL |
http://localhost:8000/v1 |
需单独部署 vLLM 服务:vllm serve --model Qwen/Qwen3-4B-Instruct [ref_5] |
✅ 验证模型连通性(CLI 测试):
curl -X POST "http://localhost:18789/api/v1/chat/completions" -H "Content-Type: application/json" -d '{ "model": "qwen:3b", "messages": [{"role":"user","content":"你好,请用中文自我介绍"}] }'
✅ 步骤 4:飞书机器人集成(企业协作必备)
- 登录 [飞书开放平台](https://open.feishu.cn/) → 创建「自建应用」→ 获取
App ID/App Secret
- 在「机器人」菜单中创建群机器人,复制 Webhook 地址
- 在 OpenClaw Web UI(
http://)中进入 Settings → Bot Integration → Feishu:18789
- 填入
App ID,App Secret,Verification Token,Encrypt Key
- 启用「事件订阅」并勾选
message.receive_v1,im.message_reaction_v1
- 发布应用版本(否则事件不生效)[ref_1][ref_2]
- 填入
> ✅ 成功标志:在飞书群中 @机器人发送 /help,将返回 Skills 列表 [ref_6]。
✅ 步骤 5:生产级运维保障
| 项目 | 实现方式 | 命令示例 | 来源 |
|---|---|---|---|
| 开机自启 | systemd 服务封装 | sudo systemctl enable openclaw.service [ref_1] |
|
| 日志查看 | Docker 日志流 | docker logs -f openclaw 或 journalctl -u openclaw -f |
[ref_1] |
| Skills 安装 | Web UI 插件市场一键安装 | 访问 http://ip:18789/#/skills → 搜索 calendar, notion, jira |
[ref_3][ref_6] |
| HTTPS 反代 | Nginx + Let‘s Encrypt | 使用 Certbot 自动签发证书,反向代理至 127.0.0.1:18789 |
[ref_4] |
📌 systemd 服务模板(/etc/systemd/system/openclaw.service):
GPT plus 代充 只需 145[Unit] Description=OpenClaw AI Gateway After=docker.service Wants=docker.service [Service] Type=oneshot ExecStart=/usr/bin/docker start -a openclaw ExecStop=/usr/bin/docker stop -t 2 openclaw Restart=always RestartSec=10 [Install] WantedBy=multi-user.target
📊 三、部署效果对比(Docker vs Node.js)
| 维度 | Docker 部署 | Node.js 部署 |
|---|---|---|
| 耗时 | ≤10 分钟 | 15–30 分钟(依赖编译) |
| 隔离性 | 进程/网络/文件系统完全隔离 | 依赖全局 Node.js 版本,易冲突 |
| 升级维护 | docker pull && docker restart 一键更新 |
git pull && npm install && pm2 reload |
| 调试能力 | 日志集中,但源码不可见 | 支持 VS Code 断点调试、console.log 实时输出 [ref_4] |
| 适用场景 | 企业交付、SaaS 私有化、CI/CD 集成 | 技术预研、Skills 插件开发、教育演示 |
🧩 四、典型问题速查(附解决方案)
| 错误现象 | 根本原因 | 解决命令/操作 |
|---|---|---|
Error: EACCES: permission denied, mkdir '/app/data' |
Docker 容器无宿主机目录写权限 | sudo chown -R $USER:$USER /opt/openclaw [ref_4] |
409 Conflict: Model already exists |
Ollama 中重复拉取同名模型 | ollama rm qwen:3b && ollama pull qwen:3b [ref_2] |
| 飞书事件无响应 | 应用未发布或 IP 白名单未配置 | 在飞书后台检查「IP白名单」添加服务器公网IP [ref_1] |
| Web UI 打不开(Connection refused) | 防火墙拦截或端口被占用 | sudo ss -tuln | grep 18789 + sudo ufw status |
✅ 至此,OpenClaw 已在 Linux 环境完成全链路部署:
✅ 可通过 http://
访问可视化管理后台
✅ 支持对接 Ollama/GLM-4.6/百炼/vLLM 等主流模型
✅ 已集成飞书机器人实现群聊智能响应
✅ 具备 systemd 自启、日志监控、Skills 扩展等企业级能力
该方案已在阿里云轻量服务器(2C4G)、本地 Ubuntu 22.04 物理机、WSL2 环境中稳定运行超 30 天,平均响应延迟 < 800ms(Qwen3-4B + vLLM)[ref_3][ref_5]。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/233375.html