2026年在免费 AICoder 实例上部署 OpenClaw (MoltBot/ClawdBot)

在免费 AICoder 实例上部署 OpenClaw (MoltBot/ClawdBot)OpenClaw 曾用名 ClawdBot MoltBot 是一个活跃的开源项目 旨在为用户提供灵活 可扩展的自动化机器人解决方案 无论您是想搭建一个即时通讯机器人 还是需要一个自动化任务处理助手指 OpenClaw 都是一个极佳的选择 最近 OpenClaw 社区发布了重大更新 项目名称也正式确立为 OpenClaw 部署各类 Bot 或自动化脚本时 最大的痛点往往是服务器成本

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



OpenClaw(曾用名 ClawdBot、MoltBot)是一个活跃的开源项目,旨在为用户提供灵活、可扩展的自动化机器人解决方案。无论您是想搭建一个即时通讯机器人,还是需要一个自动化任务处理助手指,OpenClaw 都是一个极佳的选择。

最近,OpenClaw 社区发布了重大更新,项目名称也正式确立为 OpenClaw。

部署各类 Bot 或自动化脚本时,最大的痛点往往是服务器成本。为了运行一个简单的机器人而购买云服务器,不仅价格昂贵,配置起来也颇为繁琐。

AICoder 完美解决了这个问题。平台为每一位开发者提供了免费的 2 核 CPU、4GB 内存(2C4G)开发实例

  • 完全免费:无需复杂的申请流程,即可使用标准的 2C4G 实例进行开发与测试。
  • 轻量级友好:对于 OpenClaw 这类基于 Node.js/Python 的轻量级应用,2C4G 的配置足以保证流畅运行。
  • 开箱即用:环境预装了 git 等常用工具,并提供 Root 权限,可自由安装 Node.js/Python 等运行环境。

除了免费的算力 (AICoder),智算云平台还为 OpenClaw 提供了强大的 LLM API 服务支持。

  • OpenAI 兼容:完全兼容 OpenAI 接口协议,OpenClaw 可直接调用。
  • 海量模型:支持 DeepSeek-V3/R1KimiGLM-4 等顶尖模型,按需切换。
  • 极速体验:企业级推理加速,让您的机器人回复更加迅速。

您可以直接在平台控制台获取 API Key,稍后我们在配置 OpenClaw 时会用到。

在本教程中,我们将结合 免费 AICoder 实例GenStudio LLM API,手把手部署一套功能完备的 OpenClaw 智能助手。

在本教程结束时,您将获得一个完全免费、长期在线的 AI 智能助手。它具备以下能力:

  • 多渠道接入:既可以通过浏览器 Web UI 进行管理,也能直接接入飞书 (Feishu) 等即时通讯软件。
  • 无限记忆:配置了本地向量库,拥有长期记忆能力。
  • 零成本托管:运行在 AICoder 免费实例上,无需购买服务器。

AICoder 是一个高安全性的容器化开发环境,这虽然带来了免费的算力,但也带来了一些特殊的网络和权限限制。如果脱离此环境(例如在标准云服务器)部署,步骤会简单得多

为了在免费资源上跑通流程,本教程特别针对以下限制设计了"绕过"方案:

  1. 战胜完全内网环境 (无公网 IP)
    • 限制:AICoder 实例没有公网 IP,传统的 Webhook 机器人无法直接回调到您的服务。
    • 对策:利用 OpenClaw 对 WebSocket / Long Polling 的原生支持。机器人主动向飞书/Telegram 建立长连接接收消息,无需配置内网穿透。
  2. 解决容器进程管理 (无 Systemd)
    • 限制:AICoder 是轻量级 Docker 容器,未预装 。官方文档中依赖 的命令在这里无法执行。
    • 对策:我们引入 PM2 进程管理器。它不仅能替代 Systemd 守护 OpenClaw 进程,还能配合 npm 脚本实现日志查看和自动重启。
  3. 突破网络访问障碍 (拉取依赖)
    • 限制:容器内网在拉取 GitHub 源码或某些 npm 二进制包时可能受限。
    • 对策:通过 SSH 远程端口转发 技术,让 AICoder 实例直接复用您本地电脑的代理网络,并配合国内镜像源,实现环境的无缝安装。

为了确保我们的开发过程顺利进行,我们需要先搭建好基础环境。

AICoder 仅支持 SSH 密钥对认证。在开始之前,请确保您已将 SSH 公钥添加到智算云平台。详细步骤请参考 添加 SSH 公钥。

  1. 登录智算云平台。
  2. 点击顶部导航栏的 AICoder 图标。如果是首次使用,系统会自动为您初始化实例。
  3. 等待终端初始化完成后,点击右上角的「钥匙」图标,复制 SSH 连接命令(包含 Host, HostName, ProxyJump, User 等信息)。

代理服务对于成功拉取 GitHub 代码和安装依赖至关重要。通过简单的 SSH 配置,我们将让内网环境的 AICoder 复用您本地计算机的代理服务(需自行采购),从而跨越网络障碍,实现「无感级」的高效开发体验。

由于 OpenClaw 代码托管在 GitHub,且后续拉取依赖也需要稳定的网络环境,我们需要利用 SSH 远程端口转发,让 AICoder 实例复用您本地计算机的代理网络。

  1. 打开 VS Code,确保已安装 Remote - SSH 插件。
  2. 修改本地 SSH 配置文件(通常位于 ),参考下列配置进行添加:
  3. 保存配置后,在 VS Code 左侧「远程资源管理器」中选择该主机进行连接。
  4. 连接成功后,务必在 VS Code 终端设置环境变量,以确保后续拉取代码和安装依赖时能够正常访问网络(假设映射端口为 10080/10081):

    如果在终端看到 或 等响应,说明网络已打通。

在 VS Code 终端中连接到 AICoder 后,我们就可以开始安装 OpenClaw 了。得益于 AICoder 提供的标准 Ubuntu 环境,我们可以便捷地配置 Node.js 运行环境。

AICoder 实例默认未预装 Node.js,或版本可能不满足 OpenClaw 的要求(推荐 Node.js >= 22)。我们建议提前安装 LTS 版本。

在终端中执行以下命令(已包含优化配置):

机制说明: OpenClaw 的安装脚本 () 设计了自动引导机制。默认情况下,它会在安装结束前检查环境变量 。如果该变量未置为 ,脚本将自动为您执行 ,进入交互式初始化流程。

这种机制可以确保新手用户「开箱即用」。在 AICoder 环境中,我们通常直接跟随此自动流程即可。

  • 情况 A:自动进入向导 如果安装脚本运行结束后,您的终端直接变成了交互式配置界面,请直接按照下文指引操作。
  • 情况 B:手动触发 如果您意外退出了向导,或者使用了高级安装参数跳过了引导,可以随时通过命令手动启动:

交互指引参考

  • Onboarding mode: 选择 Quickstart
  • Model/auth provider:选择 Skip for now。如果您持有 OpenAI 或 Anthropic 等预置服务商的 Key,也可以在此直接配置使用。
    • Skip for now 说明:本教程示范使用智算云 GenStudio LLM API (Infini-AI)。配置向导不包含 GenStudio 选项,您可先暂略,稍后通过配置文件修正。
  • Filter models by provider: 如果已选择 Skip for now,此处任意选择即可。
  • Select channel (QuickStart): 选择 Skip for now
  • Configure skills now? (recommended): 选择 No
  • Enable hooks?: 选择 session-memory

如果不使用初始化配置中的任何预置的模型供应商,可通过配置文件,添加 GenStudio 为自定义模型服务商,确保 Web UI 启动后能立即开始对话

虽然您可以在启动后通过图形界面添加,但通过修改配置文件预先注入,可以让您获得更流畅的「开箱即用」体验,避免首次启动时的配置提示。

操作步骤 (预注入配置)

  1. 在 VS Code 中打开配置文件 (可直接在终端运行 打开)。
  2. 命令生成的配置文件包含了许多重要的运行参数(如 并发限制、 路径等)。请勿直接覆盖整个文件,而是找到或添加 字段,配置兼容 OpenAI 协议的服务商。

    配置示例 (保留默认参数并修改):请重点关注 、 和根节点的 部分:

配置完成后,我们使用 PM2 来启动并守护进程。

PM2 显示 并不代表服务内部逻辑完全启动。您需要查看日志来确认 Web 界面是否准备就绪。

如何判断启动成功? 当您在日志中看到类似下面的输出时,说明 Web GUI 已经成功启动:

此时, 命令也应该能显示 "Gateway: connected" 和 API 版本信息。

除了使用 查看进程状态外,我们还可以使用 OpenClaw 自带的命令检查业务逻辑健康度,或直接访问 Web 仪表盘。

OpenClaw 提供了丰富的 CLI 命令来确认系统状态。

命令查看 Gateway 系统状态、Web UI 地址及 Token

此命令能帮您快速获取 Dashboard 地址Auth Token 以及 Gateway 运行状态

命令验证模型配置是否生效,确认配置文件中的 API Key 是否被正确识别,以及 模型指针是否指向了有效的服务商(查看 Default 和 Configured models)。

如果您在运行 向导时遇到如下错误:

  1. Health check failed: gateway closed:
    • 原因: 向导试图启动服务但失败了(因为 AICoder 没有 Systemd)。
    • 解决: 这是预期行为。请直接继续执行下文的 "配置后台保活 (PM2)" 步骤手动启动服务。
  2. Missing Control UI assets:
    • 原因: 安装包可能缺失了预编译的前端资源。
    • 解决: 通常不影响 API 和 Bot 核心功能。如果 Web 仪表盘无法加载,尝试运行 重新安装修复。

OpenClaw 提供了强大的 Hook 系统来扩展功能。在 AICoder 环境中,我们强烈推荐启用以下两个内置 Hook:

  1. session-memory (会话记忆): 当您发送 重置对话时,它会自动总结上一段对话的精华并保存到本地()。这让您的 Bot 拥有「长期记忆」,不会因为话题重置而彻底忘记您的偏好。
  2. command-logger (指令日志): 将所有交互指令记录到文件中,方便后续排查问题。

启用方法

在终端中运行以下命令即可启用,无需重启服务:

OpenClaw 提供了一个可视化的控制台,默认运行在 。虽然 AICoder 没有公网 IP,但借助我们之前配置的 SSH 端口转发,您可以直接在本地浏览器访问它!

  1. 确保 SSH 连接时的端口转发配置中包含 (通常无需额外操作,VS Code 会自动转发检测到的端口,或者您可以手动在 VS Code 「PORTS / 端口」 面板中添加 端口转发)。
  2. 获取访问凭证 (Token):为了安全起见,Dashboard 首次访问必须携带 Token。如果您直接访问 遇到认证错误,请在终端执行以下命令获取带有 Token 的完整链接:

    您将看到类似如下输出:

  3. 复制上方带有 的链接,在您的本地浏览器中打开。

现在,您拥有了一个完全可视化的 Bot 管理后台,可以查看消息日志、配置技能和管理连接。

一切准备就绪!现在,让我们在 Web UI 中测试一下您的 Bot 是否能够正常工作。

  1. 在浏览器中打开 Web UI ()。
  2. 点击左侧导航栏的 "Chat" 图标,或者直接在首页找到对话框。
  3. 尝试发送一条消息,例如:"您好,请介绍一下您自己。"

如果配置正确,您应该会立即收到来自 Infini-AI 模型(如 Kimi K2.5)的回复。

OpenClaw Web UI Chat Example
GPT plus 代充 只需 145

虽然 Web UI 非常适合测试,但机器人的真正舞台在于即时通讯软件。接下来,我们将把 OpenClaw 接入飞书 (Feishu/Lark),实现团队协作场景下的自动化服务。

首先,我们需要在飞书开放平台上注册一个企业自建应用,并启用其机器人能力。

  1. 登录 飞书开放平台。
  2. 点击 "创建企业自建应用",输入名称(如 "MyOpenClaw")和描述,上传图标。
  3. 在左侧导航栏点击 "添加应用能力" -> "机器人",点击 "添加"

    添加机器人能力

为了让机器人能接收和发送消息,需要授予它相应的权限。

  1. 在左侧导航栏点击 "权限管理"

    alt text

  2. 点击 "批量数据导入",复制以下 JSON 配置并粘贴:

    这些权限主要用于接收单聊/群聊消息、读取用户信息以及发送回复。

  3. 点击 "版本管理与发布",点击 "创建版本"

    批量添加权限

  4. 输入版本号(如 ),保存并申请发布(企业自建应用通常无需审批或由管理员审批)。
  5. 发布成功后,进入 "凭证与基础信息" 页面,获取 App IDApp Secret

    发布应用并获取凭证

回到 AICoder 的终端,我们需要安装社区提供的飞书适配插件。

使用从凭证与基础信息页面获取的凭证配置 OpenClaw:

等待几秒钟后,检查状态:

确保 列表中出现了 且状态为 或 。

这一步是打通消息接收的关键。这也是 AICoder 环境在无公网 IP 情况下依然能接收消息的核心机制(原理详见文末的 网络原理)。

  1. 回到飞书开放平台,点击左侧 "事件与回调"
  2. 关键设置:在事件配置的订阅方式中,务必选择 "长连接" (Long Connection)。

    配置长连接

  3. 点击 "添加事件",搜索并添加以下事件:
    • 接收消息 (v2.0)
    • 用户和机器人的会话首次被创建(v1.0)

    添加接收消息事件

  4. 最后且最重要的一步:再次前往 "版本管理与发布",创建新版本并发布。

打开飞书 App 或 PC 端:

  1. 搜索您的机器人名称。
  2. 发送一条消息。
  3. 如果配置无误,Bot 应该会立即回复您(由 Infini-AI 模型生成的答案)。

在智算云平台的安全策略下,AICoder 实例允许自由访问外部互联网,但限制外部直接通过 HTTP 访问实例(仅开放 SSH 端口)。您可能会担心:即使部署了 Bot,外部的 IM 平台(如 Telegram, Discord)如何将消息推送给内网的 Bot 呢?

OpenClaw 的架构设计完美规避了这一限制,因为它抛弃了传统的 Webhook(被动接收)模式,转而采用了更适合内网环境的技术:

  1. Long Polling(长轮询):Bot 主动向服务器发起请求询问是否有新消息。这就像您去邮局查看信件,而不是等待邮递员上门,因此不需要您家有对外开放的投递口。Telegram Bot 默认即使用此模式。
  2. WebSocket:Bot 主动与服务器建立一条持久化的双向通道。就像您主动拨通电话并保持连线,对方通过这条电话线随时说话。Discord 和 Slack 均采用此机制。

这两种模式的核心都在于 「连接由 Bot 内部主动发起」。因此,您可以在 AICoder 这种无公网 IP 的安全容器环境中,零配置地运行高响应速度的即时通讯机器人,既安全又省心。

细心的开发者可能注意到,我们在教程中始终强调使用 PM2,而非 OpenClaw 官方文档中常见的 管理命令。这是为了适应 AICoder 的容器化架构,也是一种针对开发环境的**实践。

  1. Systemd 的缺失:AICoder 实例本质上是一个轻量级的 Docker 容器。为了保持环境的敏捷与纯净,它并未像完整虚拟机那样预装 Systemd 初始化系统。OpenClaw CLI 的原生服务命令(如 )底层强依赖 Systemd 来注册服务,因此在容器内运行会报错。
  2. PM2 的接管:PM2 在这里充当了「应用级进程管理器」。当我们执行 时,实际上是绕过了操作系统层面的服务注册,直接运行了 Gateway 的核心程序,并由 PM2 负责监控其运行状态。
  3. 操作等价性:当您运行 时,其最终效果与在标准 Linux 服务器上运行 是完全一致的——它们都是为了重启底层的 Gateway 进程。

不需要担心。如果您是付费用户(已购买包年包月资源池、弹性开发机),在该可用区的 AICoder 实例将长期存活

如果您是免费用户,AICoder 仅适用于交互式使用,非活跃会话会在 30 分钟后自动结束(但数据会保留)。

详细策略请参考 AICoder 回收策略。

慎用! 点击该按钮会重置整个 AICoder 环境。这意味着您的根文件系统(rootfs)会被清空,包括您安装的 OpenClaw 环境和配置都将丢失

仅当环境彻底损坏无法修复时才建议使用。详见 AICoder Shell - 重置 AICoder。

小讯
上一篇 2026-03-10 23:48
下一篇 2026-03-10 23:50

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/212262.html