Jetson + OpenClaw + 飞书机器人:构建一个让边缘设备成为 AI Agent 助手的远程交互系统

Jetson + OpenClaw + 飞书机器人:构建一个让边缘设备成为 AI Agent 助手的远程交互系统最近我希望在 Jetson 上部署一个本地 Openclaw 并通过飞书机器人进行远程交互 从而让闲置的边缘设备秒变我的高级 AI 助手 整体目标很简单 在 Jetson 上运行 OpenClaw 接入自己的模型 API 我使用的是阿里的 Coding Plan 通过飞书群聊 或者私聊机器人直接调用本地 Agent 最终希望实现这样的工作流 这篇文章记录一下从源码部署 OpenClaw

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



最近我希望在 Jetson 上部署一个本地 Openclaw,并通过飞书机器人进行远程交互,从而让闲置的边缘设备秒变我的高级AI助手。整体目标很简单:

  • 在 Jetson 上运行 OpenClaw
  • 接入自己的模型 API(我使用的是阿里的Coding Plan)
  • 通过飞书群聊  或者私聊机器人直接调用本地 Agent

最终希望实现这样的工作流:

 
  

这篇文章记录一下从源码部署 OpenClaw,到接通飞书机器人的完整过程,以及过程中踩到的几个关键坑。


本文使用环境如下:

Jetson 环境

GPT plus 代充 只需 145

说明

当前平台为:

  • Jetson ARM64
  • Ubuntu 20.04
  • CUDA 11.4

这点很重要,因为后续某些依赖在 ARM64 + Ubuntu 20.04 上会遇到额外兼容性问题。


OpenClaw 是一个 Node.js 项目,因此首先需要准备 Node 环境。

建议使用 Node 22。

 
    

还需要安装 :

GPT plus 代充 只需 145

安装后检查:

 
    

这一步非常重要。

如果不配置 ,后面可能出现这些问题:

  • 报错
  • OpenClaw 自动构建 UI 时提示找不到 pnpm
  • 全局命令不可用

建议将下面内容加入 :

GPT plus 代充 只需 145

保存后执行:

 
     

再验证:

GPT plus 代充 只需 145

 
      

我在安装过程中遇到的典型报错是:

GPT plus 代充 只需 145

因此需要手动升级 CMake。

安装新版 CMake

 
       

检查版本:

GPT plus 代充 只需 145

如果系统仍然找不到新版本,可临时加入 PATH:

 
       

必要时可以加入 。


在项目目录执行:

GPT plus 代充 只需 145

如果安装过程中出现原生模块编译问题,优先检查:

  • CMake 版本
  • build-essential 是否安装
  • pnpm 是否在 PATH 中

OpenClaw 通过 进行配置。

如果目录不存在,先创建:

 
         

这是本文里一个非常关键的坑。

OpenClaw 的架构不是“CLI 直接调用模型”,而是:

GPT plus 代充 只需 145

所以 CLI 其实是 Gateway 的客户端
既然是客户端连接服务端,就涉及认证。

为什么要加 token

如果只配置服务端 token,而没有配置客户端 token,就会出现:

 
          

因此需要让 gateway 服务端客户端连接配置 使用同一个 token。

通过 进行知道如下,推荐配置如下:

GPT plus 代充 只需 145

解释

  • :Gateway 服务端认证 token
  • :CLI / TUI / logs 等客户端连接 Gateway 时使用的 token

这两个必须一致。


先安装 gateway service:

 
           

然后启动:

GPT plus 代充 只需 145

检查状态:

 
           

正常情况下会看到类似输出:

GPT plus 代充 只需 145

如果配置修改过,需要重启:

 
           

如果配置正确,可以直接运行:

GPT plus 代充 只需 145

若成功,界面会显示已连接,并能直接与模型对话。

如果出现 token mismatch,基本就是 和 不一致。


第一步:创建飞书应用

进入飞书开放平台https://open.feishu.cn/?lang=zh-CN,创建一个企业自建应用。

第二步:启用机器人能力

在应用后台启用机器人。

第二步:配置权限

在左侧目录树选择“开发配置 > 权限管理”,单击“批量导入/导出权限”按钮。

加入如下内容:

 
             

在弹窗中确认权限无误后,单击“申请开通”按钮,完成操作。

第三步:发布应用

到此就可以回来Jetson去连接我们的飞书机器人了

第四步:配置 Feishu Channel

运行:

GPT plus 代充 只需 145

选择:

 
             

然后输入:

  • App ID
  • App Secret

具体过程可以选项可以参考我的

到此就基本完成了openclaw与飞书机器人的连接了,但是要实现聊天还得再继续配置。

第五步:重启Gateway

GPT plus 代充 只需 145

第六步:配置事件与回调

选择:

 
             

然后添加事件:

GPT plus 代充 只需 145

这是机器人接收消息所必需的事件。

继续配置回调

添加回调

第七步:发布应用版本

这一步非常关键。(这里参考第三步)

很多时候飞书应用配置改了但机器人无效,就是因为没有发布版本

进入:

 
             

创建版本并发布。

第八步:配置私聊飞书机器人

在飞书APP中找到开发者小助手

之后给机器人发送任何信息

将Pairing code复制然后在Jetson终端输入

GPT plus 代充 只需 145

到此,基本就实现了在飞书中直接召唤我们边缘设备干活了,回到飞书,与我们小助手聊天即可。


坑 1:Jetson 上 CMake 版本过低

会导致依赖编译失败。

坑 2:没有配置 pnpm PATH

会导致全局命令或 UI 构建异常。

坑 3:误以为需要单独安装 Feishu 插件

源码版已经内置,不需要重复安装。

坑 4:没有配置

会导致 CLI 连接 Gateway 时出现 token mismatch。

坑 5:App ID / App Secret 使用了旧应用凭证

这是我这次飞书始终接不通的根因。

坑 6:飞书应用修改后未发布版本

会导致机器人看似配置好了,但实际不生效。


完成上述配置后,可以实现:

  • 在 Jetson 上运行 OpenClaw Gateway
  • 接入自己的模型 API
  • 在飞书群中
  • 机器人调用本地 Agent 并返回回复

这为后续扩展提供了很好的基础,例如:

  • 远程查询 Jetson 状态
  • 执行自动化任务
  • 调用机器人系统接口
  • 通过飞书统一管理实验设备

这次在 Jetson 上部署 OpenClaw 并接入飞书机器人的过程,整体并不算复杂,但有几个坑非常容易卡住:

  • ARM 平台的依赖编译问题
  • pnpm 环境变量问题
  • Gateway token 机制

只要把这些关键点处理好,OpenClaw + 飞书这套链路其实是很顺的。

如果你也想在 Jetson 上搭一个可远程交互的本地 Agent,这套方案很值得尝试。


预告一下,下一期我将更新一下好用的Skills,让我们边缘设备更好的给我们干活!

小讯
上一篇 2026-03-14 11:07
下一篇 2026-03-14 11:05

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/236041.html