本文手把手带你在 Windows + WSL2 环境下部署 OpenClaw,对接 Moonshot Kimi K2.5 模型,并通过飞书机器人实现团队级 AI 助手。全程命令行可复现,一篇搞定。
以管理员身份打开 PowerShell:
安装完成后按提示设置用户名和密码,然后更新系统:
OpenClaw 依赖 Node.js 运行环境,推荐使用 nvm 管理版本。
前往 Moonshot 开放平台,注册登录后在控制台创建 API Key(格式:)。
可以通过 交互式配置,也可以直接编辑 ,写入以下关键配置:
能正常收到回复,说明模型已对接成功。
这一步分为飞书侧(创建应用)和OpenClaw 侧(安装插件+配置通道)两部分。
1. 创建企业自建应用
- 访问 飞书开放平台,登录后进入「开发者后台」
- 点击「创建企业自建应用」,填写应用名称(如 )和描述
- 创建成功后,在「凭证与基础信息」页面记录 App ID 和 App Secret
注意:App Secret 只显示一次,请务必妥善保存。丢失需重置。
2. 配置权限
进入「权限管理」,搜索并添加以下权限:
勾选后点击「批量开通」。
3. 配置事件订阅
进入「事件与回调」→「事件订阅」:
- 连接方式:选择 WebSocket(推荐,无需公网服务器)
- 订阅事件:添加 (接收消息)
4. 启用机器人
进入「机器人」菜单,打开「启用机器人」开关,填写机器人名称和描述。
5. 发布应用
进入「版本管理与发布」→「创建版本」→「申请发布」。发布范围建议先选「仅自己可见」进行测试。企业自建应用通常自动审核通过。
6. 添加机器人到对话
- 私聊:在飞书搜索框搜索机器人名称即可
- 群聊:群设置 →「群机器人」→「添加机器人」→ 搜索选择
如果搜索不到机器人,请确认:应用已发布、发布范围包含当前用户、机器人已启用。
1. 安装飞书插件
2. 配置飞书通道
运行 交互式配置,或直接编辑 ,在配置中添加:
将 和 替换为你在飞书开放平台获取的实际值。
3. 启动并验证
正常情况下应显示 Feishu 通道状态为 :
上线前建议收紧权限,避免机器人被非预期群组调用。
编辑 :
本文完成了以下工作:
- 基础环境:在 Windows 上通过 WSL2 搭建 Ubuntu 24.04 运行环境
- 运行时:安装 Node.js 22 + pnpm,全局安装 OpenClaw
- 模型对接:配置 Moonshot Kimi K2.5 作为推理后端
- 通道集成:创建飞书企业应用并通过 WebSocket 模式接入 OpenClaw
- 安全加固:通过白名单和权限限制保障生产安全
整套方案的核心优势在于:无需公网服务器(WebSocket 模式)、部署在本地 WSL 即可运行、Kimi K2.5 的 256K 上下文窗口能覆盖大多数场景。如果后续需要切换模型或接入更多通道,只需修改 配置文件即可,架构上具备良好的扩展性。
参考链接
- OpenClaw 文档
- Moonshot 开放平台
- 飞书开放平台
- WSL 官方文档
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/232837.html