为解答您关于如何在云服务器上“养龙虾”(即部署和使用OpenClaw),以下是基于多篇最新实践指南总结的详细方案。OpenClaw是一款开源AI智能体平台,部署于云服务器后,可以获得稳定的公网IP和更强的计算资源,是个人搭建AI助手的理想选择[ref_1][ref_5][ref_6]。
本方案将分为三个核心部分:云服务器选购与环境准备、OpenClaw核心部署与配置、以及飞书通道集成与使用。
1. 云服务器选购与环境准备
选择一台合适的云服务器是稳定“养虾”的基础。根据OpenClaw的官方建议和社区实践,最低配置推荐如下表所示[ref_1][ref_5][ref_6]:
| 配置项 | 推荐规格 | 说明 |
|---|---|---|
| CPU | 2核或4核 | 处理AI模型推理和多个用户请求的基础算力。 |
| 内存 | 4GB或8GB | 运行Node.js服务、数据库及模型交互所需。8GB更流畅。 |
| 硬盘 | 40GB SSD 或以上 | 用于安装系统、OpenClaw及其依赖,预留空间存放日志和缓存。 |
| 带宽 | 2Mbps 或以上 | 影响与飞书服务器、大模型API通信的速度。 |
| 操作系统 | Ubuntu 22.04 LTS / CentOS 8 | 社区文档支持最完善的Linux发行版,兼容性好。 |
| 地域 | 海外节点(如中国香港、新加坡) | 关键建议:若计划接入国际模型(如OpenAI API)或希望获得更稳定的国际网络,优先选择海外地域。接入国内模型(如通义千问、Moonshot)则无此限制[ref_2][ref_5]。 |
| 服务商 | 华为云、阿里云、腾讯云 | 均提供一键镜像或详细部署教程,选择熟悉的平台即可[ref_1][ref_5][ref_6]。 |
环境准备步骤:
- 购买与登录:根据上表选购服务器后,通过SSH客户端(如Terminal, PuTTY)连接。
- 基础环境安装:确保服务器已安装Node.js运行环境。以下以Ubuntu 22.04为例:
# 更新系统包列表 sudo apt update && sudo apt upgrade -y # 安装Node.js 18.x LTS版本(OpenClaw推荐) curl -fsSL https://deb.nodesource.com/setup_18.x | sudo -E bash - sudo apt install -y nodejs # 验证安装 node --version # 应输出 v18.x.x npm --version
2. OpenClaw核心部署与配置
在云服务器上部署OpenClaw主要有两种路径:使用官方CLI工具或使用云市场预装镜像。
方案一:使用官方CLI部署(推荐,灵活可控)
这是最通用和受官方支持的方式[ref_2][ref_3]。
步骤1:安装OpenClaw CLI 通过npm全局安装OpenClaw的命令行工具。
sudo npm install -g @openclaw/cli
步骤2:通过交互式向导初始化配置 运行openclaw onboard命令,它会引导你完成核心配置。这是一个关键步骤,会生成配置文件。
# 启动配置向导 openclaw onboard
在向导过程中,你需要配置以下核心项:
- 数据存储路径:保持默认或指定一个目录。
- 服务端口:默认是
18789。务必确保云服务器安全组/防火墙已放行此端口(TCP协议)[ref_1][ref_6]。 - 管理员密码:设置用于访问Web管理后台的密码。
- 大模型配置:这是OpenClaw的“大脑”。你需要至少配置一个模型API。例如,接入阿里云百炼的Qwen模型:
- 选择模型供应商:选择
Aliyun Bailian或类似选项。 - 输入API Key:填入你在阿里云百炼平台获取的API Key[ref_1][ref_6]。
- 选择模型:例如
qwen-plus或qwen-max。 向导完成后,OpenClaw的配置文件(通常位于~/.openclaw/config.json5)和服务已准备就绪。
- 选择模型供应商:选择
步骤3:启动OpenClaw服务 使用PM2等进程管理工具来守护服务,确保其始终在线。
# 安装PM2 sudo npm install -g pm2 # 使用PM2启动OpenClaw服务,并设置开机自启 pm2 start openclaw --name “my-claw-bot“ pm2 save pm2 startup # 按照输出的命令执行,以启用系统服务 # 查看服务状态和日志 pm2 status pm2 logs my-claw-bot
步骤4:访问Web管理后台 在浏览器中访问 http://
<你的云服务器公网ip>
:18789
你的云服务器公网ip>,使用在向导中设置的管理员密码登录。后台用于管理技能、查看日志、监控状态等[ref_2][ref_4]。
方案二:使用云市场镜像(最快捷,适合新手)
华为云、阿里云等提供了预装了OpenClaw的镜像,真正做到“一键开箱”[ref_1][ref_6]。
- 选择镜像:在购买或重置服务器时,选择“镜像市场”或“应用镜像”,搜索“OpenClaw”或“Clawdbot”。
- 启动实例:购买后,服务器启动即已完成OpenClaw的安装。
- 获取访问信息:登录云服务器控制台,通常在实例详情页会提供OpenClaw的初始访问地址、端口和管理员密码。
- 登录配置:通过提供的地址登录Web后台,后续的大模型配置等操作在Web界面中完成。
这种方法省去了命令行安装的步骤,但服务器环境和OpenClaw版本相对固定。
3. 飞书通道集成与使用
将部署在云服务器的OpenClaw接入飞书,是其发挥作用的关键。云服务器的公网IP直接解决了内网穿透问题,配置更简单稳定[ref_5]。
关键参数配置与飞书应用创建
- 在飞书开放平台创建应用
- 登录飞书开放平台,创建“企业自建应用”。
- 记录下
App ID和App Secret。 - 在“事件订阅”中,启用并设置
verificationToken(一个自定义的字符串)。 - 在“权限管理”中,为应用开通必要的权限,通常至少需要“以应用身份读取通讯录”和“获取用户发给机器人的单聊消息”等[ref_2][ref_5]。
- 配置OpenClaw飞书通道 在OpenClaw的Web管理后台或配置文件中,找到“渠道管理”或“Channels”配置。需要填写的关键参数如下表所示,这些参数均来自飞书开放平台[ref_2][ref_3][ref_5]。
| 参数 | 说明 | 如何填写 |
|---|---|---|
appId |
应用凭证中的App ID。 | 填入飞书后台获取的 App ID。 |
appSecret |
应用凭证中的App Secret。 | 填入飞书后台获取的 App Secret。 |
verificationToken |
事件订阅中设置的Token。 | 填入飞书后台自定义的 verificationToken。 |
encryptKey |
如果启用了事件加密,则需填写。 | 非必须,未启用则留空。 |
eventEndpoint |
云服务器部署的核心配置。接收飞书事件回调的URL。 | 格式:https://
<你的云服务器公网ip或域名>
:18789/feishu/events
你的云服务器公网ip或域名>。注意:由于是公网IP,飞书可以直接访问。如果你的服务器没有80/443端口备案,可直接使用18789端口;若希望使用域名和标准HTTPS端口,需要在服务器部署Nginx进行反向代理并配置SSL证书[ref_4]。 |
配置文件修改示例(如果通过CLI安装,可能需要手动编辑~/.openclaw/channels/feishu.config.json5):
} }
修改后,需要重启OpenClaw服务使配置生效:
pm2 restart my-claw-bot
- 完成飞书事件订阅验证
- 在飞书开放平台的“事件订阅”页面,将 “请求地址” 设置为上一步配置的
eventEndpoint。 - 点击“保存”,飞书会向该地址发送一个验证请求。此时,请务必确保你的云服务器安全组已放行OpenClaw服务端口(如18789)的入站流量。如果OpenClaw服务运行正常且配置正确,验证将自动通过[ref_5]。
- 在飞书开放平台的“事件订阅”页面,将 “请求地址” 设置为上一步配置的
- 发布应用与测试
- 在飞书后台“版本管理与发布”中,创建版本并发布。将应用添加至你的飞书工作台或群组。
- 在飞书客户端中,@你的机器人或发送消息,OpenClaw即可响应。
4. 技能配置与管理
OpenClaw的核心能力通过“技能包”实现。部署成功后,你可以在Web管理后台的“技能中心”浏览和启用内置技能(如新闻摘要、文件处理、网页搜索等),也可以根据需要开发或导入自定义技能[ref_2][ref_3]。
总结与**实践
在云服务器上“养龙虾”相较于本地部署,优势在于公网可达、性能稳定、24小时在线。关键流程可概括为:
- 选配服务器:优先考虑海外节点以利国际模型接入,确保配置足够。
- 部署服务:使用
openclaw onboard向导或云市场镜像快速部署,并用pm2管理服务进程。 - 配置模型:在向导中或Web后台配置一个大模型API(如阿里云百炼、Moonshot),这是AI能力的基础[ref_1][ref_2]。
- 集成飞书:创建飞书应用,将
eventEndpoint指向云服务器的公网地址和端口,完成权限和事件订阅配置。 - 开放端口:这是最常见的错误点。务必在云服务器提供商的控制台(安全组/防火墙)中,明确放行OpenClaw服务端口(默认18789)的TCP入站规则,否则外部(包括飞书)无法连接[ref_5][ref_6]。
通过以上步骤,你即可在云服务器上成功搭建一个功能完整、可通过飞书便捷访问的专属AI助手。后续可以根据需求,在Web管理后台轻松管理技能、调整模型、查看交互记录,实现自动化办公与智能问答。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/282553.html