2026年(可能全网最全/长的)2万字Openclaw保姆教程

(可能全网最全/长的)2万字Openclaw保姆教程OpenClaw V3 新手起飞指南 这是一份专门为你精简提炼 的 保姆级 新手指南 我们剔除了早期不需要懂的底层配置和部署逻辑 为你找到了一条最平缓的入门曲线 Sweet Spot 从零基础 gt 拿到 API gt 成功安装 gt 接入飞书 gt 安全防泄漏 gt 学会用技能 准备好了吗 系好安全带

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



OpenClaw V3 新手起飞指南 🚀

这是一份专门为你精简提炼的“保姆级”新手指南。我们剔除了早期不需要懂的底层配置和部署逻辑,为你找到了一条最平缓的入门曲线 (Sweet Spot)

从零基础 -> 拿到 API -> 成功安装 -> 接入飞书 -> 安全防泄漏 -> 学会用技能

准备好了吗?系好安全带,我们要发车了!


前沿AI大模型技术资讯、算法交流、求职内推、算法竞赛、面试交流(校招、社招、实习)等、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度、抖音、字节、美团等名校名企开发者互动交流~

我们建了大模型算法岗技术与面试交流群, 想要进交流群、需要源码&资料、提升技术的同学,可以直接加微信号:mlc2060。加的时候备注一下:研究方向 +学校/公司+知乎,即可。然后就可以拉你进群了。

方式①、微信搜索公众号:机器学习社区,后台回复:大模型技术交流
方式②、添加微信号: mlc2060,备注:大模型技术交流、

🎯 本章目标:学完这章,你能向朋友清楚解释OpenClaw是什么、能做什么、不能做什么
⏱️ 预计时间:3分钟
  • •用一句话向朋友解释OpenClaw是什么
  • • 三个真实场景,理解它能帮你做什么
  • • 澄清常见误解,知道它不能做什么
  • • 为什么2026年它突然火了
  • • 根据你的需求,选择最适合的阅读路径

想象一下:你招了一个实习生,这个实习生特别聪明,能帮你查资料、写文档、整理数据,还能24小时在线。但你不需要给它交社保,也不用担心它跳槽。

OpenClaw就是这个实习生,只不过它住在你的电脑里。

更准确地说:

OpenClaw是一个 AI智能体平台(Agent Platform),让你能在自己的电脑上运行AI助理,并把它接入到你日常使用的工具里——比如飞书、Telegram。

几个核心概念,先混个脸熟(后面章节会详细讲):

  • Agent(智能体):能自主执行任务的AI程序,就像一个带工具箱的实习生。你告诉它”帮我整理今天的会议纪要”,它会自己决定用什么工具、分几步完成。
  • Gateway(网关):系统的总调度室,负责消息路由和协调。默认地址是127.0.0.1:18789,就是你电脑上开的一个端口。
  • Channel(渠道):连接各种聊天平台的接口,比如飞书、Telegram。
  • Tool(工具):Agent能调用的具体功能,比如读写文件、执行命令、搜索网页。
  • Skill(技能):告诉Agent什么时候用什么工具的”说明书”。

别慌,这些词现在看着陌生,用几遍就熟了。

光说概念太虚,来看三个真实的使用场景。

小王每天下班前要发日报,总结今天做了什么。以前他要翻聊天记录、看邮件、回忆一天的工作,至少花20分钟。

现在他@飞书里的OpenClaw机器人:

“帮我整理今天的日报,从项目群提取关键进展,从邮件提取待跟进事项。”

机器人自动:

  1. 1. 读取指定群聊的今日消息
  2. 2. 提取关键信息
  3. 3. 按格式生成日报
  4. 4. 发到指定文档

省下的20分钟,小王可以准时下班了。

小李需要写一篇行业分析报告,涉及大量资料搜集。以前他要在十几个网站间来回切换,复制粘贴到手软。

现在他告诉OpenClaw:

“搜索2025年AI编程助手的市场规模,整理成表格,包含数据来源。”

Agent自动:

  1. 1. 调用搜索工具查找资料
  2. 2. 访问多个网页提取信息
  3. 3. 整理成结构化表格
  4. 4. 标注数据来源

小李从”体力活”中解放出来,专注在分析和判断上。

团队群里经常有人问:

  • • “谁能查一下上个月的销售数据?”
  • • “帮忙翻译一下这个英文文档”
  • • “把这份PDF转成Markdown”

现在直接在群里@机器人:

”@小助手 把刚才发的PDF转成Markdown格式”

机器人立即处理,把结果发回群里。

不用麻烦同事,不用切换工具,在聊天中就把事办了。

OpenClaw很强大,但它不是万能的。以下几个误解,越早澄清越好。

不是。

ChatGPT是一个AI对话产品,你打开网页就能聊。OpenClaw是一个平台,让你能搭建自己的AI助理。

你可以这样理解:

  • • ChatGPT = 一个训练有素的客服
  • • OpenClaw = 一个可以训练自己客服的系统

实际上,OpenClaw可以接入ChatGPT的API,也可以接入Claude、KIMI、MiniMax等其他模型。它是模型的使用者,不是模型的竞争者

不是。

这是OpenClaw最大的特点之一:它运行在你的电脑上

  • • 你的聊天记录存在本地
  • • 你的文件处理在本地完成
  • • 你的API Key不会经过第三方服务器

对于担心数据隐私的企业和个人,这是巨大的优势。

⚠️ 注意:虽然OpenClaw本身在本地运行,但它调用AI模型时需要联网。你的消息会发送到对应的AI服务商(如OpenAI、KIMI等)。

不会。

OpenClaw的设计理念是最小权限原则。默认情况下,它什么都不能做。

  • • 想让它读写文件?你需要明确授权
  • • 想让它发邮件?你需要配置邮件工具
  • • 想让它执行命令?你需要开启沙箱并设置权限

而且,高风险操作可以设置二次确认,确保它不会”自作主张”。

AI Agent的概念不是2026年才有的,为什么现在才火?

2024年的GPT-4和Claude 3已经很强,但还不够稳定。2025-2026年的模型(Claude Opus 4.6/Sonnet 4.6、GPT-5.3-Codex、KIMI K2.5等)在理解复杂指令稳定输出格式上有了质的飞跃。

简单说:以前的AI助理经常”听不懂人话”,现在的能听懂了。

光有聪明的大脑不够,还需要:

  • • 稳定的消息收发机制
  • • 可靠的工具调用框架
  • • 安全的权限管理系统
  • • 友好的配置界面

OpenClaw把这些工程难题都解决了,让普通用户也能搭起自己的AI助理。

早期的AI Agent更多是极客的玩具,现在它们真的能解决实际工作问题

  • • 整理日报节省20分钟
  • • 查资料写报告节省2小时
  • • 自动化数据处理节省半天

当省下的时间超过学习成本时,普及就水到渠成了。

这本书有17章,但你不需要全部读完。根据你的需求,选择最适合的路径:

目标:在飞书里@AI机器人,让它帮你办事

阅读顺序

  1. 1. 第1章(本章)→ 了解是什么
  2. 2. 第2章 → 准备API Key
  3. 3. 第3章 → 安装OpenClaw
  4. 4. 第5章 → 接入飞书
  5. 5. 第6章 → 配置安全策略

预计时间:2-3小时

目标:让AI助理完成我的专属任务(如数据分析、报告生成)

阅读顺序

  1. 1. 先完成路径A(基础必须打牢)
  2. 2. 第10章 → 了解Tools能做什么
  3. 3. 第11章 → 使用现成Skills
  4. 4. 第12章 → 写第一个Skill
  5. 5. 第13章 → 进阶优化

预计时间:1-2天

目标:在服务器上稳定运行,团队共享使用

阅读顺序

  1. 1. 先完成路径A(了解基础)
  2. 2. 第7章 → 模型配置优化
  3. 3. 第8章 → 配置文件深入
  4. 4. 第9章 → 安全与沙箱
  5. 5. 第15章 → 多Workspace配置
  6. 6. 第16章 → 部署与运维

预计时间:2-3天

来,我们回顾一下:

  1. OpenClaw是什么:一个AI智能体平台,让你的电脑上运行AI助理
  2. 它能做什么:整理日报、查资料写报告、飞书里@它办事
  3. 它不能做什么:不是ChatGPT替代品、不是纯云端服务、不会擅自行动
  4. 为什么现在火了:大模型能力成熟 + 工程化工具完善 + 真正解决工作问题
  5. 怎么开始:根据你的需求选择路径A、B或C
  1. 1. 向一位朋友解释OpenClaw是什么,用本章的”带工具箱的实习生”类比
  2. 2. 思考:你日常工作中有哪些重复性任务,可能适合交给AI助理?
  3. 3. 根据1.5节的路线图,确定你要走哪条路径
🎯 本章目标:学完这章,你能确认自己具备开始的所有条件,并准备好API Key
⏱️ 预计时间:10分钟
  • • 确认你的电脑满足运行条件
  • • 理解API Key是什么,以及怎么获取
  • • 国内三家Coding Plan的详细申请步骤(KIMI/MiniMax/GLM)
  • • 备选方案(OpenRouter/Anthropic)
  • • 提前预览最终效果

很多技术书一上来就列一堆要求,看得人想放弃。咱们换个方式:

你只需要三样东西:

  1. 1. 一台能上网的电脑(Windows/Mac/Linux都行)
  2. 2. 一个API Key(别被这个词吓到,就是一串密码)
  3. 3. 10分钟时间(和一点点耐心)

没了。不需要你是程序员,不需要你懂AI,不需要买服务器。


GPT plus 代充 只需 145

简单说:只要是近5年的电脑,基本都能跑。

你需要能访问:

  • • npm registry(安装OpenClaw)
  • • 你选择的AI服务商(如KIMI、MiniMax等)

国内用户注意:OpenClaw本身不需要翻墙,但部分AI服务商可能需要。

API Key(应用编程接口密钥),听起来很高大上,其实就是一串密码

类比一下:

  • • 饭店的VIP卡 → 证明你有资格享受服务
  • • 小区的门禁卡 → 证明你有权限进入
  • • API Key → 证明你有权限调用AI服务

每次OpenClaw让AI帮你干活,都要出示这个Key。AI服务商根据Key来:

  1. 1. 确认你是谁
  2. 2. 计算你用了多少额度
  3. 3. 决定是否响应你的请求

对于国内用户,我推荐优先选择以下三家。它们都有专门针对开发者的 Coding Plan,且本章统一使用国内站口径(不使用国际站路径)。

申请步骤

  1. 1. 访问 kimi.com/code
  2. 2. 登录/注册KIMI账号
  3. 3. 点击”订阅Coding Plan”
  4. 4. 完成支付(支持支付宝/微信)
  5. 5. 进入控制台,点击”创建API Key”
  6. 6. 复制生成的Key(以sk-开头)
💡 提示:Key创建后只显示一次,务必保存好。如果丢了,只能重新创建。

申请步骤

  1. 1. 访问 platform.minimaxi.com/s
  2. 2. 注册/登录账号
  3. 3. 完成实名认证(需要身份证)
  4. 4. 订阅Coding Plan
  5. 5. 进入”API管理”页面
  6. 6. 创建API Key并复制

申请步骤

  1. 1. 访问 bigmodel.cn/glm-coding
  2. 2. 注册/登录智谱AI账号
  3. 3. 进入控制台
  4. 4. 点击”API Keys”菜单
  5. 5. 创建新的API Key
  6. 6. 复制保存
💡 说明:以上价格均按御三家国内站结算页口径记录;后续如有活动变动,请以实时页面为准。

如果上述三家都不适合你,还有以下选择:

特点:一个API对接多家模型(Claude、GPT、Llama等)
网址:https://openrouter.ai
适合:想用一个Key调用多种模型的用户
注意:国内访问可能需要代理


特点:Claude模型官方API,质量顶尖
网址:https://console.anthropic.com
适合:追求最高质量回复的用户
注意:国内访问需要代理,价格较高


这10分钟你要做什么?

保存Key的建议

  1. 不要直接保存在微信/聊天记录里
  2. 不要截图保存在相册里
  3. 推荐保存在:
  • • 密码管理器(1Password、Bitwarden等)
  • • 本地文本文件(放在安全的位置)
  • • 备忘录(如果支持加密)
⚠️ 重要:API Key就像银行卡密码,泄露了别人就能花你的钱。妥善保管!

完成本书学习后,你将拥有:

一个能在飞书里@的AI机器人

  • • 私聊问它问题
  • • 群里@它办事
  • • 让它帮你整理文档、查资料

一个可定制的AI助理

  • • 根据你的需求写Skills
  • • 连接你的常用工具
  • • 自动化重复工作

完全掌控的数据隐私

  • • 所有数据存在本地
  • • 不经过第三方服务器
  • • 企业级安全保障

来,检查一下你的准备清单:

  • • 一台能上网的电脑(Windows/Mac/Linux)
  • • 一个API Key(KIMI/MiniMax/GLM任选其一)
  • • 10分钟时间
  1. 1. 确认你的电脑系统版本符合要求
  2. 2. 选择一家Coding Plan,完成API Key申请
  3. 3. 把Key保存在安全的地方(推荐密码管理器)
  4. 4. 测试网络:访问你选择的AI服务商控制台,确认能正常打开
🎯 本章目标:学完这章,你能完成OpenClaw安装并发出第一条消息
⏱️ 预计时间:5分钟
📋 前置要求:已完成第2章(准备工作)

  • • 检查并安装Node.js环境
  • • 用一行命令安装OpenClaw
  • • 运行向导完成初始化配置
  • • 理解QuickStart和Manual的区别
  • • 配置国内三家Coding Plan
  • • 验证安装成功并发出第一条消息

Node.js是一个让JavaScript能在电脑本地运行的环境。简单说:

Node.js就像JavaScript的”翻译官”,让它能在浏览器之外的地方工作。

你不需要深入理解它,只需要确认电脑上已经安装了。

打开你的终端(Terminal),输入:

node –version

GPT plus 代充 只需 145

期望看到的结果

讯享网v22.x.x

判断标准

  • • ✅ 版本 >= v22:可以继续
  • • ❌ 版本 < v22:需要升级
  • • ❌ 提示”command not found”:需要安装
# 使用Homebrew安装(推荐) brew install node

# 如果已安装但版本低,升级 brew upgrade node

推荐方式:使用winget

讯享网winget install OpenJS.NodeJS.LTS

或者手动下载

  1. 1. 访问 https://nodejs.org
  2. 2. 下载LTS版本(长期支持版)
  3. 3. 按向导安装
💡 Windows用户注意:官方推荐在WSL2中运行OpenClaw,能避免很多奇怪问题。WSL2安装指南: docs.microsoft.com/zh-c

Ubuntu/Debian

curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash - sudo apt-get install -y nodejs

CentOS/RHEL/Fedora

讯享网sudo dnf install nodejs

安装完成后,再次检查:

node –version npm –version

两个命令都应该返回版本号。

⚠️ 常见问题:如果安装后还是提示”command not found”,尝试 重启终端重新登录系统

确认Node.js >= v22后,执行安装命令:

讯享网npm install -g openclaw@latest

这行命令在做什么?

  • npm:Node.js的包管理器
  • install:安装
  • -g:全局安装(在任何目录都能用openclaw命令)
  • openclaw@latest:安装 npm 上当前发布版(本书核验冻结点为 v2026.2.17

等待时间:取决于你的网络,通常30秒到2分钟。

openclaw –version

期望看到类似输出:

讯享网2026.2.17
如果提示”command not found”
可能原因:npm全局路径未加入系统PATH
解决方法:

  1. 1. 重启终端
  2. 2. 如果还不行,检查npm全局路径:npm prefix -g
  3. 3. 把返回的路径加入PATH环境变量

安装完成后,运行初始化向导:

openclaw onboard –install-daemon

参数说明

  • onboard:运行初始化向导
  • –install-daemon:同时安装后台服务(推荐)

启动向导后,通常会先看到:

讯享网? I understand this is powerful and inherently risky. Continue? ❯ Yes No

这里选 Yes 继续。

如果你之前装过 OpenClaw,还会看到:

Existing config detected … ? Config handling ❯ Use existing values Update values Reset

怎么选:

  • • 首次安装:通常不会出现这一段,直接进入下一步。
  • • 复装/换模型:选 Update values(推荐,保留其余稳定配置)。
  • • 完全重来:选 Reset(谨慎)。

向导会问你:

讯享网? Onboarding mode ❯ QuickStart - Minimal setup, get running fast Manual - Full control over all settings

怎么选?

我的建议:第一次选 QuickStart,后面可以随时改配置。

向导会提示你选择模型提供商:

? Which model provider would you like to use? OpenAI Anthropic ❯ KIMI MiniMax GLM Other (custom endpoint)

先选你在第2章申请的厂商(KIMI / MiniMax / GLM)。

在你选完厂商后,通常不会立刻要 Key,而是先进入该厂商的鉴权方式选择。

常见会看到类似:

讯享网? <Provider> auth method ❯ Coding Plan / OAuth API Key

国内读者建议:优先选 Coding Plan 对应项。

  • • KIMI:优先 Kimi Code API key (subscription) 路径
  • • MiniMax:优先 MiniMax OAuth(CN)路径
  • • GLM(Z.AI):优先 Coding-Plan-CN 路径
? Enter your KIMI API Key: [粘贴你的Key] ? Select model: ❯ kimi-k2.5
讯享网? Enter your MiniMax API Key: [粘贴你的Key] ? Select model: ❯ MiniMax-M2.5
? Enter your GLM API Key: [粘贴你的Key] ? Select model: ❯ glm-5
💡 提示:粘贴API Key时,终端不会显示任何字符(为了安全),这是正常的。直接粘贴后按回车即可。

在 QuickStart 路径下,向导会直接进入渠道单选列表:

讯享网? Select channel (QuickStart) … Feishu/Lark (飞书) … ❯ Skip for now (You can add channels later via </span>openclaw channels add<span class="sb">)

首次建议直接选 Skip for now

为什么先Skip?

这是多轮实测验证出的**实践:

  1. 1. 先把”TUI里能稳定对话”跑通
  2. 2. 确认模型、鉴权、Gateway都正常
  3. 3. 再接入渠道,出错时能明确判断是”渠道配置问题”还是”基础环境问题”

放心,第5章会详细讲飞书接入。

Channel 之后,向导会进入 Skills 检查与可选安装:

Skills status Eligible: … Missing requirements: … …

? Configure skills now? (recommended) ❯ Yes No

首次建议选 Yes,原因很简单:
现在就把“能自动装的依赖”装掉,后面少踩坑。

接下来常见会看到:

讯享网? Install missing skill dependencies ❯ Skip for now &lt;某个 skill 依赖项…&gt;

? Preferred node manager for skill installs ❯ npm pnpm bun

给新手的默认建议:

  1. 1. 如果你只想先跑通主线:可先 Skip for now
  2. 2. 如果你准备立刻玩 Skills:按需勾选安装项;
  3. node manager 选你本机已经在用的那个(不确定就用 npm)。

Skills 后会进入 Hooks 配置:

Hooks … ? Enable hooks? ❯ Skip for now &lt;hook 列表…&gt;

官方说明里,Hooks 用来“在某些命令触发时自动执行动作”(例如 /new 时做会话记忆整理)。

本书建议的最小策略:

  1. 1. 首次可先启用 1 个最核心 hook(最小可用,优先 session-memory,若列表里有);
  2. 2. 如果你现在还分不清 hook 的作用,也可以先 Skip for now
  3. 3. 先跑通主线,后面在第10章再系统化管理 hooks。

在收尾阶段,向导会给你一个启动入口选择:

讯享网? How do you want to hatch your bot? ❯ Hatch in TUI (recommended) Open the Web UI Do this later

怎么选:

  • Hatch in TUI (recommended):在终端里直接进入交互(最稳,推荐默认选这个)
  • Open the Web UI:打开浏览器控制台(图形化)
  • Do this later:先结束向导,稍后再进

为什么默认选 TUI:

  1. 1. 我们无法假设你一定在本机操作;很多读者是在云主机/VPS 上跑。
  2. 2. 如果是 VPS,Open the Web UI 往往还要做端口转发,对新手不友好。
  3. 3. 选 Hatch in TUI 可以立刻开始对话,不被网络与端口问题卡住。

在你完成 Hatch 选择后,向导会输出控制台访问信息与网关状态(如 Web UIGateway WSGateway: reachable)。

如果你选了 Open the Web UI,一般会直接给出带 token 的 Dashboard 链接并尝试自动打开浏览器。

如果你选了 Do this later,后续可用:

openclaw dashboard –no-open

再次获取控制台入口。

onboard 完成后,建议先在 TUI 里完成第一轮 bootstrap 对话。

官方流程会把它当成“把 Agent 变成你的 Agent”的关键动作(源码里有 Wake up, my friend! 引导)。

这一步建议你主动讲清楚下面 5 件事:

  1. 你是谁:怎么称呼你、你的时区和工作语言。
  2. 你要它扮演什么角色:比如“我的技术写作助手”。
  3. 你平时的工作场景:常用工具、文件目录、沟通方式(飞书/邮件等)。
  4. 你的偏好:回答风格、长度、是否先给结论。
  5. 你的边界:哪些操作必须先确认、哪些内容不要碰。

这一步做得越清楚,后续它越像“你自己的实例”,而不是“一个通用聊天机器人”。

💡 你也可以把这些信息落盘到工作区里的 BOOTSTRAP.md / IDENTITY.md / USER.md / SOUL.md,让后续会话更稳定。

完成 bootstrap 后,建议先发一条不依赖你工作背景的消息做冒烟测试。

推荐你先用这条:

讯享网请给我一个“今天就能执行”的 5 条待办清单(每条不超过 18 个字),并按优先级排序。

如果你想测“查询能力”,可再补一条:

请告诉我北京今天的天气,并给出穿衣建议(1 句话)。

按回车发送。

期望的回复

它应该直接给出结构化结果(清单或天气建议),而不是继续做泛泛自我介绍。

如果看到回复,恭喜你!安装成功!

症状:向导提示Gateway failed to start

可能原因

  1. 1. 端口18789被占用
  2. 2. 权限不足
  3. 3. 配置文件错误

解决方法

讯享网# 查看端口占用 lsof -i :18789

# 或者换端口启动 openclaw gateway start –port 18790

症状:消息发送后,一直显示”正在输入”但没有回复

可能原因

  1. 1. API Key错误
  2. 2. 网络不通
  3. 3. 模型服务异常

解决方法

# 检查配置 openclaw config get

# 检查模型连接 openclaw doctor

# 查看日志 openclaw logs

症状:浏览器访问127.0.0.1:18789显示无法连接

可能原因

  1. 1. Gateway没启动
  2. 2. 防火墙阻挡
  3. 3. 地址输错

解决方法

讯享网# 确认Gateway在运行 openclaw status

# 如果未运行,手动启动 openclaw gateway start

来,回顾一下今天的成果:

  1. 1. ✅ 检查了Node.js环境(&gt;= v22)
  2. 2. ✅ 安装了OpenClaw(npm install -g openclaw@latest
  3. 3. ✅ 运行了初始化向导(openclaw onboard –install-daemon
  4. 4. ✅ 配置了国内Coding Plan(KIMI/MiniMax/GLM)
  5. 5. ✅ 在收尾阶段选择了 Hatch in TUI (recommended)(默认推荐)
  6. 6. ✅ 完成了首次 bootstrap(把实例初始化成“你的实例”)
  7. 7. ✅ 发出了第一条业务消息!
  1. 1. 在 TUI 里继续对话,补充你的工作边界、偏好与禁区(完成 bootstrap)
  2. 2. 让它基于你的真实场景给出一个可执行清单(例如今天待办)
  3. 3. 如果你在本机环境,再额外打开 Dashboard/Web UI 对照体验一次
  4. 4. 如果安装过程中遇到问题,记录错误信息,对照第4章排查
🎯 本章目标:学完这章,你能在飞书里@AI机器人,让它帮你办事
⏱️ 预计时间:30分钟
📋 前置要求:已完成第3章(安装成功,并在TUI完成bootstrap首轮对话)

  • • 在飞书开放平台创建企业应用
  • • 获取App ID和App Secret
  • • 配置权限(含批量导入JSON)
  • • 理解”先发布→再配置→再开长连接”的关键时序
  • • 在OpenClaw侧配置飞书渠道
  • • 完成配对并验证收发

还记得第3章的配置向导吗?我们在Channel那一步选择了Skip。

这不是省略,而是有意为之。

实测经验告诉我们:

  • • 先把”TUI里能稳定对话”跑通,确认模型、鉴权、Gateway都正常
  • • 再做渠道接入,出错时就能明确判断是”渠道配置问题”还是”基础环境问题”
  • • 这种”两段式”路径成功率更高,也更容易排错

如果你已经完成第3章,并且在 TUI 里完成了 bootstrap 初始化,这一章就是你的下一步。

不管你接的是哪家平台,基本都遵循同一条流水线:

  1. 平台侧建应用(拿到凭证)
  2. OpenClaw侧配置渠道openclaw channels add
  3. 启动Gateway并验证收发
  4. 配对/白名单放行
  5. 再做群聊策略、提及策略和风控

你可以把这5步理解为”固定骨架”。本章先把飞书走通,其他渠道请走补充章或官方渠道文档。

本节按两段走:

  1. 第一阶段:飞书私聊机器人可稳定收发
  2. 第二阶段:飞书群聊里@机器人可回复

为什么要分两段?

排障时,私聊比群聊简单得多。先确保私聊通,再搞群聊,能大幅降低复杂度。

  1. 1. 打开飞书开放平台:open.feishu.cn/app
  2. 2. 登录你的飞书账号(需要有企业管理员权限)
  3. 3. 点击”创建企业自建应用”

创建企业应用

  1. 1. 填写应用信息:
  • 应用名称:建议用”AI助手”或”OpenClaw”
  • 应用描述:内部使用的AI助手
  • 图标:可以上传一个机器人图标

创建完成后,进入应用详情页:

  1. 1. 点击左侧”凭证与基础信息”
  2. 2. 记录以下信息:
  • App ID(形如cli_xxxxxxxxxxxxxxxx
  • App Secret(点击”查看”按钮显示)

获取凭据

⚠️ 重要:App Secret务必保密,不要截图外传,不要发到群里。泄露了别人就能控制你的机器人。

这是最容易出错的步骤,仔细跟着做。

  1. 1. 点击左侧”权限管理”
  2. 2. 点击”批量导入权限”
  3. 3. 粘贴以下内容:
{ “scopes”: {

讯享网<span class="s2">&#34;tenant&#34;</span>: <span class="o">[</span> <span class="s2">&#34;aily:file:read&#34;</span>, <span class="s2">&#34;aily:file:write&#34;</span>, <span class="s2">&#34;application:application.app_message_stats.overview:readonly&#34;</span>, <span class="s2">&#34;application:application:self_manage&#34;</span>, <span class="s2">&#34;application:bot.menu:write&#34;</span>, <span class="s2">&#34;contact:user.employee_id:readonly&#34;</span>, <span class="s2">&#34;corehr:file:download&#34;</span>, <span class="s2">&#34;event:ip_list&#34;</span>, <span class="s2">&#34;im:chat.access_event.bot_p2p_chat:read&#34;</span>, <span class="s2">&#34;im:chat.members:bot_access&#34;</span>, <span class="s2">&#34;im:message&#34;</span>, <span class="s2">&#34;im:message.group_at_msg:readonly&#34;</span>, <span class="s2">&#34;im:message.p2p_msg:readonly&#34;</span>, <span class="s2">&#34;im:message:readonly&#34;</span>, <span class="s2">&#34;im:message:send_as_bot&#34;</span>, <span class="s2">&#34;im:resource&#34;</span> <span class="o">]</span>, <span class="s2">&#34;user&#34;</span>: <span class="o">[</span> <span class="s2">&#34;aily:file:read&#34;</span>, <span class="s2">&#34;aily:file:write&#34;</span>, <span class="s2">&#34;im:chat.access_event.bot_p2p_chat:read&#34;</span> <span class="o">]</span> 

} }

  1. 1. 点击”确定”

配置权限

这些权限是做什么的?

5.4.4 启用Bot能力

  1. 1. 点击左侧”应用能力”
  2. 2. 找到”机器人”卡片,点击”启用”
  3. 3. 设置机器人名称(建议和应用名称一致)
  4. 4. 点击”保存”

启用 Bot 能力

切记:这一步必须在开启长连接之前完成!

实测经验:如果还没先发布应用就直接开启”长连接订阅”,通常会持续失败。

发布步骤

  1. 1. 点击左侧”版本管理与发布”
  2. 2. 点击”创建版本”
  3. 3. 填写版本信息:
  • 版本号:1.0.0
  • 更新说明:初始版本
  1. 4. 点击”保存”
  2. 5. 点击”申请发布”
  3. 6. 等待企业管理员审批(如果是你自己的企业,通常自动通过)
💡 提示:审批通过后,应用状态会变为”已发布”。这时候才能进行下一步。

先查看插件列表:

openclaw plugins list

如果存在feishu且状态是disabled,启用它:

讯享网openclaw plugins enable feishu
💡 提示:官方文档也给出 openclaw plugins install @openclaw/feishu。但结合本书的实测,优先启用内置插件更稳定。

运行命令:

openclaw channels add

按提示完成配置:

问题1:选择渠道类型

讯享网? Select channel type: ❯ Feishu/Lark (飞书) Telegram WebChat …

选择Feishu/Lark (飞书)

问题2:输入App ID

? Enter Feishu App ID: cli_xxxxxxxxxxxxxxxx

粘贴你在5.4.2获取的App ID

问题3:输入App Secret

讯享网? Enter Feishu App Secret: [粘贴Secret]

粘贴你在5.4.2获取的App Secret(粘贴时不显示字符,这是正常的)

问题4:选择飞书域名

? Which Feishu domain? ❯ feishu.cn (国内版) larksuite.com (国际版)

国内用户选feishu.cn

问题5:群聊策略

讯享网? Group chat policy: ❯ disabled (先不通群聊) enabled

先选disabled,等私聊通了再开群聊。

问题6:需要mention才回复?

? Require mention in group chats? ❯ yes (群里需要@才回复) no

yes,避免机器人在群里乱说话。

配置完成后,查看Channel列表:

讯享网openclaw channels list

应该显示:

NAME TYPE STATUS feishu feishu configured

正确的时序是

  1. 1. ✅ 飞书侧:创建应用 → 配置权限 → 发布应用
  2. 2. ✅ OpenClaw侧:channels add配置渠道
  3. 3. ✅ OpenClaw侧:启动Gateway
  4. 4. ✅ 飞书侧:开启事件订阅(长连接)
  5. 5. ✅ 飞书侧:配置事件订阅地址

如果顺序错了,长连接会订阅失败,表现为”消息发出去,机器人没反应”。

讯享网openclaw gateway start

确认输出:

✓ Gateway started on http://127.0.0.1:18789
  1. 1. 回到飞书开放平台
  2. 2. 点击左侧”事件与回调”
  3. 3. 在”事件订阅方式”中,选择”长连接”

配置事件订阅

  1. 1. 点击”保存”

在”订阅事件”区域,点击”添加事件”:

  1. 1. 搜索im.message.receivev1
  2. 2. 勾选并确认添加

这个事件表示”收到消息时通知我”。

data-pid=“tszSQKe”>在飞书里:

  1. 1. 搜索你的机器人名称
  2. 2. 进入私聊界面
  3. 3. 发送任意消息,比如”你好”

这时候消息还到不了 OpenClaw,因为需要先“配对”。

在默认 dmPolicy: pairing 下,机器人会在飞书私聊里直接回一条配对提示,里面包含一段配对码(Pairing code)。

这就是对用户最直观、最容易拿到 code 的路径。

让用户把飞书私聊里看到的 Pairing code 发给管理员(或你自己复制)。

然后在终端执行:

讯享网openclaw pairing approve feishu &lt;CODE&gt;

例如:

openclaw pairing approve feishu A1B2C3D4

(把 A1B2C3D4 替换成飞书私聊里看到的真实配对码)

如果你没看到私聊里的 code,或者想二次核对,再在终端运行:

讯享网openclaw pairing list feishu

应该显示:

Code ID Meta Requested A1B2C3D4 ou_xxx… {} 2026-02-18T10:10:00.000Z

再执行批准:

讯享网openclaw pairing approve feishu A1B2C3D4

(把 A1B2C3D4 换成上一步看到的真实配对码 Code

回到飞书,再次发送消息:

你好,请介绍一下你自己

期望结果:机器人回复消息!


私聊通了之后,可以开启群聊功能。

讯享网openclaw channels add –channel feishu

修改:

  • groupChat: enabled
  • requireMention: true
  1. 1. 在飞书里创建一个群
  2. 2. 点击”添加机器人”
  3. 3. 搜索你的机器人名称
  4. 4. 添加进群

在群里发送:

@AI助手 你好

期望结果:机器人回复消息!

完成本章后,你应该能:

  • • 在飞书开放平台创建并发布企业应用
  • • 获取App ID和App Secret
  • • 配置权限并启用Bot能力
  • • 在OpenClaw侧配置飞书Channel
  • • 开启长连接订阅
  • • 完成配对并批准
  • • 私聊机器人能收到回复
  • • (可选)群聊@机器人能收到回复

飞书接入的核心要点:

  1. 先发布,再开长连接 —— 时序错了会订阅失败
  2. 先私聊,再群聊 —— 降低排障复杂度
  3. 配对要批准 —— 安全第一,不让陌生人随便用
  4. 权限要配全 —— JSON批量导入最省事
  1. 1. 在飞书里和机器人私聊,测试各种功能
  2. 2. 尝试让机器人帮你整理一段文字
  3. 3. 如果公司有测试群,把机器人拉进去试试@功能
  4. 4. 记录遇到的问题,对照本章排查
🎯 本章目标:学完这章,你能掌握飞书渠道的安全配置,避免”机器人乱回”的尴尬
⏱️ 预计时间:20分钟
📋 前置要求:已完成第5章(飞书基础接入)

  • • 理解三种私聊策略的区别(pairing/allowlist/all)
  • • 掌握群聊策略配置(requireMention的重要性)
  • • 配置白名单(allowFrom/groupAllowFrom)
  • • 上线前的风控checklist
  • • 解决长连接订阅失败、消息不回、@没反应等常见问题

先讲一个”血的教训”:

某公司把OpenClaw机器人接入飞书,没做安全配置。结果机器人被拉进一个有500人的大群,有人@它问了个敏感问题,机器人直接回复了内部数据。群里瞬间炸了。

安全问题不是”会不会发生”,而是”什么时候发生”。

本章的配置,就是给你的机器人上把锁。

OpenClaw提供三种私聊策略,在配置Channel时选择:

机制:用户必须先发送消息申请配对,管理员批准后才能对话

适用场景

  • • 企业内部使用
  • • 需要控制谁能使用机器人
  • • 安全第一的场景

配置方式

讯享网openclaw channels add –channel feishu

设置privateChat: pairing

用户流程

  1. 1. 用户私聊机器人发送任意消息
  2. 2. 消息被拦截,提示”等待管理员批准”
  3. 3. 管理员先执行 openclaw pairing list feishu 获取 Code,再执行 openclaw pairing approve feishu &lt;CODE&gt;
  4. 4. 用户才能正常对话

机制:只有白名单里的用户能和机器人对话

适用场景

  • • 明确知道谁需要用机器人
  • • 人数不多的小团队

配置方式

{ “privateChat”: “allowlist”, “allowFrom”: [“”, “”] }

机制:任何人都能和机器人对话

适用场景

  • • 公开演示
  • • 内部完全信任的环境

风险

  • • 任何人都能消耗你的API额度
  • • 任何人都能看到机器人的回复

这个配置强烈建议开启!

机制:机器人在群里只回复@它的消息,无视其他消息

为什么重要?

想象这个场景:

  • • 群里500人,聊得热火朝天
  • • 机器人监听所有消息
  • • 有人随口说了句”帮我查一下上个月的销售额”
  • • 机器人以为是命令,开始执行…

配置方式

讯享网openclaw channels add –channel feishu

设置requireMention: true

即使开启了requireMention,也建议配置群聊白名单:

{ “groupChat”: “enabled”, “groupAllowFrom”: [“group1_id”, “group2_id”], “requireMention”: true }

怎么获取群ID?

在飞书群里,点击群设置 → 群信息,可以看到群ID。

在把机器人正式投入使用前,按这个清单检查:

  • 私聊策略:确认是pairing或allowlist,不是all
  • 群聊策略:确认开启了requireMention
  • 群聊白名单:确认只允许必要的群使用
  • API额度:确认有足够的余额,设置预算上限
  • 敏感工具:确认高风险工具(如执行命令)已限制或关闭
讯享网# 查看当前预算设置 openclaw config get budget.monthly 

设置月度预算上限(美元)

openclaw config set budget.monthly 50

在配置文件中,限制Agent能使用的工具:

{ “agents”: { 
讯享网&#34;default&#34;: { &#34;tools&#34;: { &#34;allow&#34;: [&#34;read_file&#34;, &#34;write_file&#34;, &#34;search_web&#34;], &#34;deny&#34;: [&#34;execute_command&#34;, &#34;send_email&#34;] } } 
} }

症状:飞书平台显示”长连接订阅失败”或”连接超时”

可能原因

  1. 1. 应用未发布就开启长连接
  2. 2. Gateway未启动
  3. 3. 网络不通

解决步骤

  1. 1. 确认应用已发布(版本管理与发布 → 状态为”已发布”)
  2. 2. 确认Gateway在运行:
    openclaw status


  3. 3. 重启长连接:
  • • 在飞书平台关闭长连接,保存
  • • 再开启长连接,保存

症状:飞书里发消息,机器人不回复

排查流程

1. 检查Gateway状态 openclaw status 
   
     
        
  1. 检查Channel状态 openclaw channels list
  2. 检查配对状态 openclaw pairing list feishu
  3. 查看日志 openclaw logs

常见原因

  • • 用户未配对(状态pending)
  • • 私聊策略是allowlist但用户不在列表里
  • • 群聊没开requireMention但用户没@机器人

症状:群里@机器人,但它不回复

排查步骤

  1. 1. 确认requireMention配置为true
  2. 2. 确认@的是正确的机器人(不是同名机器人)
  3. 3. 检查机器人是否在群里(可能被移出)
  4. 4. 查看日志确认收到消息:
    openclaw logs –follow


症状:消息发出去,要等很久才收到回复

可能原因

  1. 1. 模型响应慢
  2. 2. 网络延迟
  3. 3. Skill执行耗时

优化建议

  • • 切换到响应更快的模型(如MiniMax)
  • • 检查网络连接
  • • 简化Skill的调用链

症状:机器人在不该回复的时候回复了

立即处理

  1. 1. 临时禁用Channel:
    openclaw config set channels.feishu.enabled false


  2. 2. 检查配置:
  • • 私聊策略是否太宽松
  • • 群聊是否没开requireMention
  • • 白名单是否配置正确
  1. 3. 修复配置后重新启用: openclaw config set channels.feishu.enabled true

讯享网{ “channels”: { “feishu”: { “privateChat”: “pairing”, “groupChat”: “enabled”, “groupAllowFrom”: [“approved_group_1”, “approved_group_2”], “requireMention”: true, “maxMessageLength”: 2000, “rateLimit”: { 
<span class="s2">&#34;perUser&#34;</span>: 30, <span class="s2">&#34;perGroup&#34;</span>: <span class="m">100</span> 
} } } }
讯享网{ “channels”: { “feishu”: { “privateChat”: “pairing”, “groupChat”: “disabled”, “requireMention”: true } } }

安全配置的核心原则:

  1. 宁可多确认一次 —— pairing策略虽然麻烦,但安全
  2. 群聊必须@才回 —— requireMention是保险栓
  3. 白名单限制范围 —— 明确谁能用、在哪用
  4. 预算上限防刷爆 —— 避免一觉醒来账单惊人
  1. 1. 检查你当前的飞书配置,对照6.4的checklist
  2. 2. 如果私聊策略是all,改成pairing
  3. 3. 确认requireMention已开启
  4. 4. 设置一个月度预算上限
  5. 5. 邀请一位同事测试配对流程
🎯 本章目标:学完这章,你能根据需求选择最适合的模型,并正确配置
⏱️ 预计时间:20分钟
📋 前置要求:已完成第3章(基础安装)

  • • 国内三家Coding Plan的能力对比
  • • KIMI Coding Plan的详细配置步骤
  • • MiniMax Coding Plan的详细配置步骤
  • • GLM Coding Plan的详细配置步骤
  • • 模型切换与回退配置
  • • 成本监控方法

💡 说明:本章只使用御三家国内站口径;价格会随活动变动,购买前请以结算页实时显示为准。

先选你已开通套餐的一家(最稳妥)

先跑通、再优化,是对小白最友好的路径。先用已开通套餐的那一家完成第3章的安装和首轮对话,避免在起步阶段增加变量。

如果三家都能用,再按任务类型切:

  • • 长文档整理、长上下文问答:先试 moonshot/kimi-k2.5
  • • 响应速度优先、需要快速往返:先试 minimax/MiniMax-M2.5
  • • 通用型任务、希望策略更均衡:先试 zai/glm-5
上述建议是实操经验路径,不是官方性能排名;最终以你自己的任务实测为准。
  1. 1. 访问 kimi.com/code
  2. 2. 登录/注册KIMI账号
  3. 3. 点击”订阅Coding Plan”
  4. 4. 完成支付(支持支付宝/微信)
  5. 5. 进入控制台,点击”API管理”
  6. 6. 点击”创建API Key”
  7. 7. 复制生成的Key(以sk-开头)

方式一:通过向导配置

openclaw onboard

选择KIMI,粘贴API Key。

方式二:手动配置

讯享网# 先完成 KIMI 鉴权 openclaw onboard –auth-choice kimi-code-api-key # 设置默认模型(provider/model) openclaw models set moonshot/kimi-k2.5

推荐:日常使用选kimi-k2.5,复杂推理再切kimi-k2-thinking

  1. 1. 访问 platform.minimaxi.com/s
  2. 2. 注册/登录账号
  3. 3. 完成实名认证(按页面提示)
  4. 4. 订阅Coding Plan
  5. 5. 进入”API管理”页面
  6. 6. 创建API Key并复制

通过向导配置

openclaw onboard

选择MiniMax,粘贴API Key。

手动配置

讯享网# 先完成 MiniMax 鉴权(优先 Coding Plan/OAuth) openclaw onboard –auth-choice minimax-portal # 设置默认模型(provider/model) openclaw models set minimax/MiniMax-M2.5

推荐:默认选minimax/MiniMax-M2.5,追求速度再切 Lightning。

  1. 1. 访问 bigmodel.cn/glm-coding
  2. 2. 注册/登录智谱AI账号
  3. 3. 进入控制台
  4. 4. 点击”API Keys”菜单
  5. 5. 创建新的API Key
  6. 6. 复制保存

通过向导配置

openclaw onboard

选择GLM,粘贴API Key。

手动配置

讯享网# 先完成 Z.AI 鉴权(GLM) openclaw onboard –auth-choice zai-api-key # 设置默认模型(provider/model) openclaw models set zai/glm-5

推荐:默认选zai/glm-5,轻任务可切zai/glm-4.7-flash

OpenClaw支持配置主模型(primary)和备用模型(fallbacks):

{ “models”: { 
讯享网<span class="s2">&#34;primary&#34;</span>: <span class="o">{</span> <span class="s2">&#34;provider&#34;</span>: <span class="s2">&#34;kimi&#34;</span>, <span class="s2">&#34;model&#34;</span>: <span class="s2">&#34;kimi-k2.5&#34;</span>, <span class="s2">&#34;apiKey&#34;</span>: <span class="s2">&#34;sk-xxx&#34;</span> <span class="o">}</span>, <span class="s2">&#34;fallbacks&#34;</span>: <span class="o">[</span> <span class="o">{</span> <span class="s2">&#34;provider&#34;</span>: <span class="s2">&#34;minimax&#34;</span>, <span class="s2">&#34;model&#34;</span>: <span class="s2">&#34;MiniMax-M2.5&#34;</span>, <span class="s2">&#34;apiKey&#34;</span>: <span class="s2">&#34;xxx&#34;</span> <span class="o">}</span>, <span class="o">{</span> <span class="s2">&#34;provider&#34;</span>: <span class="s2">&#34;glm&#34;</span>, <span class="s2">&#34;model&#34;</span>: <span class="s2">&#34;glm-5&#34;</span>, <span class="s2">&#34;apiKey&#34;</span>: <span class="s2">&#34;xxx&#34;</span> <span class="o">}</span> <span class="o">]</span> 
} }

在对话中临时切换模型:

@agent 使用MiniMax回答这个问题

或在配置中设置规则:

讯享网{ “routing”: { 
<span class="s2">&#34;byTask&#34;</span>: <span class="o">{</span> <span class="s2">&#34;coding&#34;</span>: <span class="s2">&#34;kimi&#34;</span>, <span class="s2">&#34;quickReply&#34;</span>: <span class="s2">&#34;minimax&#34;</span>, <span class="s2">&#34;longDoc&#34;</span>: <span class="s2">&#34;kimi&#34;</span> <span class="o">}</span> 
} }
讯享网# 设置月度预算(美元) openclaw config set budget.monthly 50 # 设置单日预算 openclaw config set budget.daily 5

达到预算上限后,OpenClaw会:

  • • 发送警告通知
  • • 暂停非必要调用
  • • 保留紧急功能
# 查看本月使用情况 openclaw gateway usage-cost # 输出示例: # Provider Requests Tokens Cost(USD) # kimi 1,234 5.2M \(12.34</span> <span class="c1"># minimax 567 2.1M \)5.67 # Total 7.3M $18.01
  • • 简单任务用轻量模型(zai/glm-4.7-flash)
  • • 复杂任务才用强模型(moonshot/kimi-k2.5)

限制上下文长度{ “models”: { “primary”: { “maxTokens”: 4000 } } }</p><p data-pid="NakbYaXe"><b>置调用频率限制</b>” { “rateLimit”: { “perMinute”: 30, “perHour”: 500 } }

模型配置的核心要点:

  1. 长文档先试KIMI —— 长上下文任务更顺手
  2. 响应速度优先试MiniMax —— 对话往返更轻快
  3. 通用任务优先试GLM —— 作为均衡选项
  4. 配置fallbacks —— 避免单点故障
  5. 设置预算上限 —— 防止意外账单
  1. 1. 如果你还没申请Coding Plan,选择一家申请
  2. 2. 配置好你的主模型
  3. 3. 设置一个月度预算上限
  4. 4. 测试不同模型的响应速度和质量
  5. 5. (可选)配置一个fallback模型
🎯 本章目标:学完这章,你能搜索、安装、使用现成的Skills
⏱️ 预计时间:15分钟
📋 前置要求:已完成第10章(了解Tools)

  • • ClawHub是什么
  • • 搜索和安装Skills
  • • 验证Skills可用性
  • • 从安装到调用的完整流程
  • • 更新与回退处理
  • ClawHub = Skill的应用商店
  • Skill = App
  • 安装Skill = 下载App
  • 使用Skill = 打开App使用功能
  • 公共注册中心:Skills 公开可见,便于复用
  • 支持版本化:每次发布都有版本记录
  • CLI 友好:可直接搜索、安装、更新、发布
  • 可审核治理:支持举报与管理流程

网站:https://clawhub.com

讯享网# 搜索关键词(推荐带引号) openclaw skills list –eligible “daily report” openclaw skills list –eligible “github review” openclaw skills list –eligible “meeting notes”

输出示例

NAME DESCRIPTION VERSION 
   
     
        
daily-report 自动生成日报 1.2.0 daily-summary 总结一天的工作内容 1.0.5 github-pr-helper GitHub PR审查助手 2.1.0
讯享网# 安装指定 Skill 不需要手动 install,Agent 会在需要时自动检索并拉取 daily-report

如果你要安装特定版本:

不需要手动 install,Agent 会在需要时自动检索并拉取 daily-report –version 1.2.0

安装过程:

  1. 1. 从ClawHub下载Skill包
  2. 2. 解压到工作区 skills 目录
  3. 3. 记录到 .clawhub/lock.json
  4. 4. 在下一次会话中由 OpenClaw 加载
讯享网clawhub list
# 列出所有已安装Skills openclaw skills list # 输出示例: # NAME VERSION STATUS # —- ——- —— # daily-report 1.2.0 installed # github-pr-helper 2.1.0 installed
讯享网# 检查所有Skills的可用性 openclaw skills list –eligible 

输出示例:

NAME STATUS REASON

—- —— ——

daily-report ✓ eligible All requirements met

github-pr-helper ✗ missing Missing tool: github_api

eligible表示:

  • • Skill已正确安装
  • • 所有依赖的Tools都已启用
  • • 可以正常使用
openclaw skills info daily-report

输出示例

讯享网Name: daily-report Version: 1.2.0 Path: ~/.openclaw/workspace/skills/daily-report Requirements: 
   
     
        
  • read_file ✓
  • write_file ✓
  • fetch_url ✓ Inputs:
  • date: 日期(可选,默认今天)
  • sources: 数据源(如:email,calendar)
提醒:实际路径以你的 workspace 为准,通常是 &lt;workspace&gt;/skills/&lt;name&gt;/SKILL.md,默认 workspace 常见为 ~/.openclaw/workspace

我们以daily-report为例:

# 安装 不需要手动 install,Agent 会在需要时自动检索并拉取 daily-report # 验证安装 openclaw skills list –eligible

方式一:在对话中直接调用

讯享网用户:运行daily-report生成今天的日报 Agent:调用daily-report Skill,生成日报

方式二:使用命令

openclaw agent –message “调用 daily-report 生成今天的日报”

方式三:带参数调用

讯享网openclaw agent –message “调用 daily-report,日期=2026-02-18,数据源=email,calendar”

Skill执行后,会:

  1. 1. 显示执行日志
  2. 2. 返回执行结果
  3. 3. (可选)生成输出文件
✓ daily-report executed successfully Output: /home/user/reports/daily-2026-02-18.md Time: 3.2s
讯享网# 更新指定Skill clawhub update daily-report 

更新所有Skills

clawhub update –all
# 强制覆盖当前目录中的同名 Skill 不需要手动 install,Agent 会在需要时自动检索并拉取 daily-report –force

如果你要“停用”某个 Skill,建议在 OpenClaw 配置里将对应条目 enabled: false,而不是直接删除文件夹。

11.6.2 开发类

使用Skills的核心要点:

  1. ClawHub是应用商店 - 搜索、安装、更新Skills
  2. 先检查eligible - 确保Skill可以正常使用
  3. 多种调用方式 - 对话、命令、带参数
  4. 更新要可回退 - 尽量固定版本或保留变更记录
  1. 1. 搜索感兴趣的Skills
  2. 2. 安装一个Skill(推荐daily-report)
  3. 3. 检查它是否eligible
  4. 4. 尝试调用它
  5. 5. 运行一次 cawhub list 记录当前安装状态

你的 AI 助理已经准备就恭喜你!读到这里,你已经成功跨越了 OpenClaw 的新手村。

你现在不仅拥有了一个能在终端里跑的智能体,还把它成功接到了飞书里,并且学会了如何给它上“安全锁”、如何挑选最划算的国产大模型,甚至掌握了给它配置“技能”的方法。

从今天起,它不再是冷冰冰的代码,而是你专属的、7x24小时随时待命的 AI 实习生!

接下来的路,就看你如何发挥想象力,用它来解放你的双手了。如果未来你需要把它部署到服务器上,或者想自己动手写一个独一无二的 Skill,再去翻阅完整的官方文档也不迟。

小讯
上一篇 2026-03-11 19:20
下一篇 2026-03-11 19:22

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/213551.html