从 0 到 1:将 QQ 打造为 OpenClaw 的“一等公民”(全双工避坑指南)

从 0 到 1:将 QQ 打造为 OpenClaw 的“一等公民”(全双工避坑指南)作者 杨易 amp 赛博龙虾 环境 RackNerd VPS Linux OpenClaw Kernel Docker NapCat Docker 目标 让 OpenClaw 的 Agent 智能体 突破 Telegram 的限制 我的两个 Telegram 账号登录 PC 端后立即风控 在 PC 端使用很不方便 所以使用 小号完美接入 OpenClaw

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



宿主机 Docker 网络:搭建起隔离但互通的虚拟网络。

NapCat 容器:负责模拟 iPad/Linux 登录 小号,通过 OneBot v11 协议对外暴露 WebSocket (3001 端口)。

OpenClaw Kernel 容器:运行 Agent 大脑,内部挂载一个 Python 桥接脚本( Ears),通过 asyncio 和 websockets 与 NapCat 维持长连接,遇到消息调用 DeepSeek API 并实时返回。

Bash

OpenClaw 的 preflight 安全机制严格禁止 Agent 运行类似 cd xxx && python3 xxx & 的复合/后台命令,导致其卡死。

Bash

docker restart openclaw_kernel

DeepSeek 官方 API 已经去掉了 /v1,地址写错。

Python

2. 初始化 90 秒超长的异步 HTTP 会话

session = aiohttp.ClientSession(timeout=aiohttp.ClientTimeout(total=90))

# 3. 连接全双工 WebSocket async with websockets.connect(WS_URL, ping_interval=20) as ws:

while True: # 4. 彻底告别死循环,优雅挂起等待消息 msg = await ws.recv() data = json.loads(msg) # 5. 过滤掉心跳,只处理私聊 if data.get("post_type") == "message": user_msg = data.get("raw_message") # 6. 调用 LLM 大脑 (带上 System Prompt 人设) # ... 发送 HTTP 请求到 DeepSeek ... # 7. 通过同一条 WS 专线将回复发回  await ws.send(json.dumps({ "action": "send_private_msg", "params": {"user_id": data["user_id"], "message": llm_reply} })) 

Stay Hungry, Stay Hardcore. 🦞

小讯
上一篇 2026-04-21 09:29
下一篇 2026-04-21 09:27

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/272318.html