<svg xmlns="http://www.w3.org/2000/svg" style="display: none;"> <path stroke-linecap="round" d="M5,0 0,2.5 5,5z" id="raphael-marker-block" style="-webkit-tap-highlight-color: rgba(0, 0, 0, 0);"></path> </svg>
GPT plus 代充 只需 145
本文基于实际部署经验,详细介绍 OpenClaw 的安装、配置 GitHub Copilot / Qwen 模型、接入钉钉、解决常见问题,以及搭建本地模型的完整流程。
- 什么是 OpenClaw
- 环境准备与安装
- 配置模型提供商
- 接入钉钉机器人
- 钉钉插件常见问题与解决方案
- 日常使用技巧
- 搭建本地模型(llama.cpp)
- 总结与资源
OpenClaw 是一个开源的 AI 助手框架,可以:
- 🤖 接入多种大模型(Claude、GPT、Qwen、本地模型等)
- 💬 连接多个消息平台(钉钉、Telegram、Discord、微信等)
- 🛠️ 执行文件操作、Shell 命令、浏览器自动化
- ⏰ 设置定时任务和提醒
- 🧠 拥有持久记忆能力
简单说,它让你拥有一个 7x24 小时在线的 AI 助手,可以通过任何聊天软件与它对话。
项目地址: https://github.com/openclaw/openclaw
官方文档: https://docs.openclaw.ai
1. 系统要求
- 操作系统: macOS、Linux 或 Windows(需要 WSL2)
- Node.js: >= 22.x
- 网络: 能访问 GitHub(配置模型时需要)
2. 安装 Node.js(如果没有)
Windows WSL / Ubuntu:
讯享网
macOS:
验证安装:
讯享网
3. 安装 OpenClaw
推荐方式(一键安装):
Linux / macOS:
Windows PowerShell:
讯享网
手动安装:
4. 运行引导程序
安装完成后会自动运行引导程序,如果跳过了,可以手动执行:
讯享网
引导程序会帮你:
- 选择运行模式(本地/云端)
- 配置默认模型
- 设置 Gateway 端口
- 安装守护进程
5. 验证安装
OpenClaw 支持多种模型提供商,这里介绍最常用的两种:
方案一:GitHub Copilot(推荐)
如果你有 GitHub Copilot 订阅(包括学生包),可以直接使用:
讯享网
执行后会显示一个链接和验证码:
- 在浏览器中打开链接
- 输入验证码
- 授权 GitHub 应用
- 等待终端显示成功
设置默认模型:
可用模型列表:
- — Claude Opus(最强)
- — Claude Sonnet(均衡)
- — GPT-4o
- — GPT-4 Turbo
方案二:Qwen(通义千问,免费)
Qwen 提供免费的 OAuth 登录,每天 2000 次请求:
1. 启用插件:
讯享网
2. 登录认证:
按提示在浏览器中完成登录。
3. 设置默认模型:
讯享网
可用模型:
- — Qwen Coder(代码增强)
- — Qwen Vision(支持图片)
方案三:其他提供商
OpenClaw 还支持:
- OpenAI — 需要 API Key
- Anthropic — 直接使用 Claude API
- Ollama — 本地模型
- OpenRouter — 模型聚合平台
详见官方文档:https://docs.openclaw.ai/providers
1. 创建钉钉应用
- 打开钉钉开放平台:https://open.dingtalk.com
- 进入「应用开发」→「企业内部开发」→「创建应用」
- 填写应用名称和描述
- 进入应用详情,获取:
- Client ID(AppKey)
- Client Secret(AppSecret)
2. 配置应用权限
在应用的「权限管理」中,申请以下权限:
- — 群会话管理
- — 机器人发送消息
- — 读取用户手机号(可选)
3. 配置消息接收地址
在「开发配置」→「事件与回调」中:
- 消息接收模式: HTTP
- 消息接收地址:
⚠️ 钉钉要求 HTTPS,本地开发可以用 ngrok 或 Cloudflare Tunnel
4. 安装钉钉插件
5. 配置 OpenClaw
编辑配置文件 :
讯享网
或者使用命令行配置:
6. 重启服务
讯享网
7. 测试连接
在钉钉中 @机器人 或私聊机器人,发送消息测试。
问题 1:消息发送失败,提示 “Unknown target”
原因: 钉钉 API 需要 userId 或 conversationId,而不是用户名。
解决方案:
- 先让用户给机器人发一条消息
- 从消息中获取 userId
- 使用 userId 发送消息
代码层面的修复:
问题 2:Webhook 签名验证失败
原因: 钉钉的签名验证机制要求时间戳在有效范围内。
解决方案:
- 确保服务器时间准确:
- 检查 Client Secret 是否正确
- 确认使用 HTTPS
问题 3:消息接收延迟或丢失
原因:
- 服务器响应超时
- 网络不稳定
- Gateway 未正常运行
解决方案:
讯享网
问题 4:无法接收群消息
原因: 未将机器人添加到群聊。
解决方案:
- 在钉钉群设置中添加「自定义机器人」
- 选择你创建的应用
- 确认机器人出现在群成员列表中
问题 5:Rate Limit 错误
原因: 钉钉 API 调用频率限制。
解决方案:
- 企业内部应用:20次/秒
- 减少不必要的 API 调用
- 使用消息合并发送
调试技巧
查看详细日志:
测试 Webhook 连通性:
讯享网
检查插件状态:
1. 常用命令
讯享网
2. 聊天中的斜杠命令
在聊天中可以使用:
- — 查看会话状态
- — 切换模型
- — 清空对话历史
- — 查看帮助
3. 设置提醒
在聊天中直接说:
OpenClaw 会自动创建 cron 任务。
4. 文件操作
在聊天中可以让 AI 帮你:
- 读取/写入文件
- 执行 Shell 命令
- 搜索文件内容
- 操作数据库
5. 多模型切换
如果你想在本地运行模型(无需 API),可以使用 llama.cpp。
1. 安装编译工具
讯享网
2. 编译 llama.cpp
3. 下载模型
讯享网
4. 启动本地 API 服务
服务启动后:
- Web 界面:http://localhost:8080
- API 端点:http://localhost:8080/v1/chat/completions
5. 在 OpenClaw 中配置本地模型
编辑 ,添加自定义 provider:
讯享网
切换到本地模型:
6. 本地模型 vs 云端模型
建议:
- 敏感数据 → 本地模型
- 复杂任务 → 云端大模型
- 日常聊天 → 本地 7B 足够
快速回顾
- 安装 OpenClaw:
- 配置模型:
- 接入钉钉: 安装 插件 + 配置 credentials
- 本地模型: llama.cpp + GGUF 模型
常用链接
进阶学习
- 自定义 Agent 行为:编辑
- 开发自定义插件:参考
- 多 Agent 协作:参考
文章整理于 2026-02-03
基于 OpenClaw 2026.2.1 版本
如有问题欢迎交流!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/212139.html