在国内环境部署 OpenClaw:从零到跑通的个人 AI 助手搭建指南

在国内环境部署 OpenClaw:从零到跑通的个人 AI 助手搭建指南svg xmlns http www w3 org 2000 svg style display none svg

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



 
  
    
     
      
     

OpenClaw 是一个开源的个人 AI 助手框架,可以连接 WhatsApp、Telegram、Slack、Discord、飞书等 20+ 消息渠道。本文记录了在国内网络环境下部署 OpenClaw 的完整流程,包括网络适配、模型配置、渠道接入等实战经验。

OpenClaw 是一个 local-first 的个人 AI 助手平台。它的核心是一个 Gateway 服务,运行在你自己的设备上,通过 WebSocket 管理会话、消息路由和工具调用。

核心特性:

  • 🏠 本地运行,数据不经过第三方
  • 📱 支持 20+ 消息渠道(飞书、Telegram、Discord、Slack、微信等)
  • 🔧 内置工具系统(浏览器、文件、Shell、定时任务等)
  • 🧠 可扩展的 Skill 系统
  • 🦞 开源(MIT 协议)

GitHub: https://github.com/openclaw/openclaw


1.1 系统要求

项目 要求 操作系统 macOS / Linux / Windows(WSL2) Node.js ≥ 22 磁盘空间 ≥ 2GB 网络 需要访问 npm registry 和 GitHub

1.2 安装 Node.js 22

推荐使用 nvm 或 fnm 管理 Node.js 版本:

GPT plus 代充 只需 145

国内加速:如果 Node.js 下载慢,可以设置镜像:

 
   

2.1 方式一:npm 安装(推荐)

GPT plus 代充 只需 145

国内加速:设置 npm 镜像源:

 
     

安装完成后恢复:

GPT plus 代充 只需 145

2.2 方式二:安装脚本

 
    

如果 无法访问,可以用 npm 方式安装。

2.3 方式三:从源码安装

GPT plus 代充 只需 145

2.4 方式四:macOS App(AutoClaw)

如果你使用 macOS,可以直接下载 AutoClaw 应用,这是 OpenClaw 的桌面客户端封装,开箱即用。


3.1 运行配置向导

 
     

向导会引导你完成:

  1. 认证配置 — 选择 AI 模型提供商和 API Key
  2. Gateway 设置 — 端口、绑定地址等
  3. 消息渠道 — 可选配置 Telegram、飞书等
  4. 守护进程 — 安装系统服务保持后台运行

3.2 启动 Gateway

GPT plus 代充 只需 145

访问 即可打开 Web 控制台。


这是国内部署最关键的部分。OpenClaw 本身不需要科学上网,但部分依赖需要处理。

4.1 npm 依赖安装

 
      

4.2 GitHub 访问

如果需要从源码构建或更新:

GPT plus 代充 只需 145

4.3 AI 模型 API 访问

OpenClaw 支持多种模型提供商。在国内环境下,推荐以下方案:

方案 A:使用国内模型(推荐)

OpenClaw 支持 OpenAI 兼容的 API 格式,大部分国内厂商都支持:

 
      

支持的国内模型提供商:

  • DeepSeek — 性价比极高,推荐
  • 通义千问(阿里云) — 企业级稳定
  • 智谱 AI(GLM) — 国产大模型代表
  • Moonshot(月之暗面) — 长上下文优势
  • 百川智能 — 多模态能力
方案 B:使用 OpenAI 官方 API(需代理)

如果你有 OpenAI API Key:

GPT plus 代充 只需 145
方案 C:使用 Azure OpenAI

微软 Azure 在国内有合规节点:

 
      

4.4 消息渠道的网络适配

不同消息渠道在国内的可达性不同:

渠道 国内可用性 备注 飞书 ✅ 原生支持 国内首选,延迟低 Telegram ⚠️ 需代理 需要科学上网 Discord ⚠️ 需代理 需要科学上网 Slack ⚠️ 需代理 需要科学上网 WebChat ✅ 本地访问 无网络限制 微信 ⚠️ 非官方 通过第三方桥接 钉钉 ⚠️ 需适配 可通过 webhook

国内推荐组合:飞书 + WebChat


飞书是国内使用 OpenClaw 的**消息渠道。

5.1 创建飞书应用

  1. 访问 飞书开放平台
  2. 点击「创建企业自建应用」
  3. 记录 和
  4. 在「事件订阅」中配置请求地址:
  5. 在「权限管理」中开通必要权限

5.2 配置 OpenClaw

在 OpenClaw 配置文件中添加飞书渠道:

GPT plus 代充 只需 145

5.3 本地开发调试

使用内网穿透工具暴露本地端口:

 
       

将生成的公网 URL 填入飞书事件订阅的请求地址。


如果你想在云服务器上部署 OpenClaw:

6.1 快速部署

GPT plus 代充 只需 145

6.2 Docker Compose 配置

 
        

6.3 国内拉取镜像加速

GPT plus 代充 只需 145

 
         

Q1: npm install 超时怎么办?

GPT plus 代充 只需 145

Q2: Gateway 启动失败?

 
          

Q3: 模型 API 连接失败?

  • 检查 API Key 是否正确
  • 确认 API 地址在国内可达
  • 检查代理配置(如使用 OpenAI)
  • 查看网络连通性:

Q4: 飞书消息收不到?

  • 确认飞书应用的事件订阅 URL 配置正确
  • 检查内网穿透是否正常
  • 查看飞书开放平台的「事件推送」日志
  • 确认应用权限已审批通过

Q5: 如何切换模型?

GPT plus 代充 只需 145

9.1 技能系统

OpenClaw 的 Skill 系统允许你扩展助手能力:

 
           

访问 ClawHub 发现更多技能。

9.2 定时任务

GPT plus 代充 只需 145

9.3 多 Agent 路由

可以为不同的渠道配置不同的 Agent:

 
           

在国内环境部署 OpenClaw 的关键要点:

  1. Node.js 和 npm 镜像加速是第一步
  2. 选择国内可达的模型 API(DeepSeek、通义千问等)
  3. 飞书是最好的国内消息渠道
  4. 内网穿透工具用于本地开发的 webhook 调试
  5. Docker 部署适合云服务器场景

OpenClaw 的 local-first 设计理念让数据完全留在本地,这对注重隐私的用户来说是一个很大的优势。搭配国内模型服务,整个方案可以在完全合规的环境下运行。


参考资料:

  • OpenClaw GitHub: https://github.com/openclaw/openclaw
  • OpenClaw 文档: https://docs.openclaw.ai
  • OpenClaw Discord: https://discord.gg/clawd
  • ClawHub 技能市场: https://clawhub.com

本文基于 OpenClaw 最新版本编写,具体配置可能随版本更新而变化。建议部署前查阅官方文档获取最新信息。

小讯
上一篇 2026-03-15 16:27
下一篇 2026-03-15 16:25

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/237877.html