GitHub 上 35 万 Star 的 OpenClaw 刚完成飞书频道的生产级支持。这意味着什么?你可以在自己的机器上跑一个 AI 助手,直接通过飞书跟它对话——不用任何云服务,数据完全掌握在自己手里。
我用了一个下午把它跑通了,从安装到飞书对接大概花了 15 分钟。下面把完整过程分享出来。
- OpenClaw 是什么
- 环境准备与安装
- 运行 Onboard 向导
- 接入飞书频道
- 飞书安全与权限配置
- 实际使用体验
OpenClaw 是一个开源的个人 AI 助手,用 TypeScript 写的,MIT 协议。核心理念很简单:你自己的设备上运行一个 Gateway,然后把它连到你已经在用的聊天工具上。
它支持的消息渠道多到离谱:
- 即时通讯:WhatsApp、Telegram、Signal、iMessage、WeChat
- 团队协作:Slack、Discord、Microsoft Teams、飞书 (Feishu/Lark)
- 其他:Matrix、IRC、LINE、Mattermost、Nostr、Twitch 等 20+ 个平台
技术架构长这样:
MERMAID_BLOCK_0
Gateway 是整个系统的控制平面,所有消息渠道、客户端、工具都通过 WebSocket 连接到它。你只需要跑这一个进程,就能把所有渠道打通。
- Node.js 24(推荐)或 Node.js 22.16+
- 一个 AI 模型的 API Key(Anthropic、OpenAI、Google 等都可以)
检查 Node 版本:
node –version # v24.x.x 或 v22.16+
macOS / Linux:
curl -fsSL https://openclaw.ai/install.sh | bash
Windows PowerShell:
iwr -useb https://openclaw.ai/install.ps1 | iex
或者用 npm 手动装:
npm install -g openclaw@latest
如果你想从源码编译:
git clone https://github.com/openclaw/openclaw.git cd openclaw pnpm install pnpm ui:build pnpm build
安装好之后,运行 onboard 命令:
openclaw onboard --install-daemon
这个向导会引导你完成三件事:
- 选择模型提供商 — 比如选 Anthropic,输入你的 Claude API Key
- 配置 Gateway — 端口默认
18789,绑定到本地回环地址 - 安装守护进程 — 用 launchd (macOS) 或 systemd (Linux) 让 Gateway 开机自启
整个过程 2 分钟左右。
向导结束后,确认 Gateway 在跑:
openclaw gateway status
你应该能看到 Gateway 监听在 ws://127.0.0.1:18789。
打开 Web 控制台:
openclaw dashboard
浏览器会弹出 Control UI,在聊天框里发一条消息试试。如果 AI 回复了,说明基础配置没问题,可以继续接入飞书了。
飞书频道从 OpenClaw 2026.4.10 版本开始正式可用。先确认版本:
openclaw --version
如果版本太旧,升级一下:
openclaw update
OpenClaw 提供了一个交互式向导,一条命令搞定飞书接入:
openclaw channels login --channel feishu
运行后会弹出一个二维码,用飞书 App 扫码就行。扫码过程中 OpenClaw 会自动帮你:
- 在飞书开放平台创建应用
- 配置事件订阅
- 获取 App ID 和 App Secret
- 写入配置文件
扫码完成后,重启 Gateway:
openclaw gateway restart
去飞书里找到你的机器人,发条消息。如果收到回复,恭喜你,搞定了。
如果自动向导不好使,可以手动配置。在飞书开放平台创建一个自建应用后,编辑 OpenClaw 配置文件(通常在 ~/.openclaw/config.json):
{ "channels": { "feishu": { "enabled": true, "domain": "feishu", "connectionMode": "websocket", "accounts": { "default": { "appId": "cli_xxxxxxxxxxxx", "appSecret": "your_app_secret_here" } } } } }
配置说明:
domain 国内飞书写
feishu,海外 Lark 写
lark
connectionMode 推荐用
websocket(长连接),也可以用
webhook 模式
appId /
appSecret 飞书开放平台创建应用后获取
然后在飞书开放平台的应用配置里:
- 添加事件订阅 — 订阅
im.message.receive_v1事件 - 选择连接方式 — 选"使用长连接接收事件"(即 WebSocket)
- 添加权限 — 至少需要
im:message、im:message:send_as_bot - 发布应用 — 设置可用范围后发布
重启 Gateway 生效:
openclaw gateway restart
OpenClaw 对飞书的安全配置比较细,可以精确控制谁能跟机器人对话。
{ "channels": { "feishu": { "dmPolicy": "pairing" } } }
四种策略:
pairing 陌生人发消息会收到配对码,需你在 CLI 审批
allowlist 只允许
allowFrom 列表里的用户(默认)
open 所有人都能私聊
disabled 关闭私聊功能
审批配对请求的命令:
openclaw pairing list feishu openclaw pairing approve feishu
{ "channels": { "feishu": { "groupPolicy": "allowlist", "groupAllowFrom": ["oc_xxx", "oc_yyy"], "requireMention": true } } }
groupPolicy控制是否响应群消息requireMention控制是否必须 @机器人 才回复(默认true)groupAllowFrom是群组白名单,格式是oc_开头的 chat_id
获取群组 ID 的方法:在飞书群里点右上角菜单 → 设置,页面里会显示 chat_id。
飞书支持通过交互式卡片实现流式输出,看着像 ChatGPT 那种一个字一个字蹦出来的效果:
{ "channels": { "feishu": { "streaming": true, "blockStreaming": true } } }
默认就是开启的。如果不需要,设成 false 即可。
搭好之后,我在飞书里跟它聊了一下午。几个印象深的点:
响应速度:因为 Gateway 跑在本地,飞书消息 → Gateway → LLM API → 飞书,整个链路延迟主要取决于模型 API。用 Claude 3.5 Sonnet 的话,首 token 大概 1-2 秒,流式输出体验很流畅。
多渠道同步:我同时把 Telegram 也接上了,两个平台的对话是隔离的(不同 session),但底层跑的是同一个 Gateway。这意味着我换设备聊天,上下文不会串。
数据自主:所有对话历史、配置文件都在本地 ~/.openclaw/ 目录下。不用担心聊天记录被第三方拿到。
常用命令(在飞书里直接发文字即可):
/status 查看机器人状态
/reset 重置当前会话
/model 查看或切换 AI 模型
一个实用的场景:把 OpenClaw 的 Gateway 跑在一台小 Linux 服务器上(比如家里的树莓派或云主机),然后通过 Tailscale 从外面安全访问。这样你的 AI 助手就是 7x24 在线的,手机上的飞书随时能用。
作者: TheAIEra
来源: 公众号:AI 人工智能时代
本文首发于 AI 人工智能时代,转载请注明出处。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/262953.html