如果你关注过 OpenClaw 这个项目,可能会觉得它功能完整但结构相对复杂,而且不是用 Python 实现。
对于很多想快速搭建一个 本地运行的 Discord AI 助手 的开发者来说,可能更希望有一个:
- 架构更简单
- 全 Python 实现
- 不需要自己封装 OpenAI API
- 本地运行即可
这时候,我非常推荐看看这个项目:
👉 openclaw-mini
Repo: https://github.com/robotlearner001/openclaw-mini
openclaw-mini 是一个最小可用的 OpenClaw 风格 Agent,专注做三件事:
- ✅ 使用 Discord 作为输入输出通道
- ✅ 使用本地 Codex CLI 执行模型推理
- ✅ 使用 + 定义行为
没有复杂的多 Agent 管理,没有庞大的中间层抽象。
它的核心目标是:
做一个你能在一个下午完整读懂的 AI Agent 架构。
读过代码之后,你会发现整个控制流非常清晰。
- 加载环境变量
- 启动 Discord 客户端
没有额外框架,没有复杂生命周期管理。
当收到 Discord 消息时:
- 过滤 bot 自己发的消息
- 处理内置命令:
如果不是命令,则进入模型处理流程。
普通消息会被封装为一个完整 instruction,包含:
- 的内容(Agent 的人格和行为原则)
- 的所有技能卡片内容
- 用户原始消息
它的思路是:
用 Markdown 驱动行为,而不是在代码里写大量逻辑。
这是一种非常干净的“提示工程驱动架构”。
这里是最有意思的设计。
它 不在 Python 里直接调用 OpenAI API,
而是调用:
GPT plus 代充 只需 145
然后读取模型的最终输出。
也就是说:
- Python 只负责 I/O 和流程
- 模型会话由 Codex CLI 管理
- 对话状态由 Codex CLI 线程维护
每一个 Discord 会话会映射到一个:
✅ 持久化 Codex thread ID
线程信息保存在:
并支持:
- TTL 过期控制()
- 超时自动重建
- 会话持续上下文
这样做的好处是:
全部交给 Codex CLI。
对于个人开发者或小团队,这种架构有几个明显优势:
整个代码量很小,逻辑线性。
你可以在一个晚上完全理解:
- 消息如何进来
- Prompt 如何构造
- 模型如何调用
- 会话如何持久化
你只需要:
- 安装 openAI Codex CLI
- 配置 Discord Token
- 修改 Markdown 文件
改完 或某个 skill 文件,重启即可生效。
项目已经包含:
- systemd 模板
- launchd 模板
- 环境变量控制参数:
- approval 策略
- 超时时间
- 模型选择
这意味着:
它是“最小可生产部署”的结构。
如果你想做:
- 🎯 一个 Discord 专用 AI 助手
- 🧠 一个本地可控的 Agent
- 🛠 一个可以完全理解其内部机制的系统
- 🐍 一个纯 Python 技术栈项目
那么 openclaw-mini 是非常合适的起点。
openclaw-mini 做了一件很聪明的事情:
把复杂性留给 Codex CLI,把结构简化到最小。
🔗 https://github.com/robotlearner001/openclaw-mini
OpenClawAgent
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/239538.html