AI Agent 的核心差异不在于模型能力,在于记忆怎么管、技能怎么长。OpenClaw 是你教它做事,Hermes 是它自己在工作中学会做事。这个区别看起来小,跑 30 天后效果天差地别。
我花了三周读了 20 多篇 Hermes Agent 深度资料,做了交叉蒸馏。这篇把核心发现摊开讲:三代 AI 工具的本质差异、三层记忆架构的工程细节、Skill 自进化飞轮的运转逻辑。
每代的核心模型完全不同。
OpenClaw 的记忆系统很直接:你纠正它一次,它把修正存下来。问题在于所有修正都需要你手动触发。你懒得纠正的地方,它永远做错。
Hermes 走了不同的路线。每次完成任务后,Agent 自问三个问题:”用户改了哪里?值得固化什么?下次能不能自动做对?”回答完就自动生成或更新 Skill 文件。30 天并行实验数据表明,自维护系统比依赖人工调教的进化更快。
OpenClaw 有 44000 个社区 Skill 的生态,Hermes 社区还在早期。但两者解决的问题不同:OpenClaw 解决”连接”——超级网关,把所有工具串起来。Hermes 解决”成长”——自进化引擎,闭环学习。
Hermes 的记忆系统分三层,每层职责和生命周期不同。
┌─────────────────────────────────────────────┐ │ 会话记忆 (Session Memory) │ │ SQLite + FTS5 全文索引 │ │ 记录原始对话和工具调用结果 │ │ 快速追溯具体细节 │ ├─────────────────────────────────────────────┤ │ 持久记忆 (Persistent Memory) │ │ MEMORY.md: 2200 chars 硬限制 (建议 1800) │ │ USER.md: 1375 chars 硬限制 (建议 1100) │ │ Honcho 推理行为模式 │ ├─────────────────────────────────────────────┤ │ 技能记忆 (Skill Memory) │ │ ~/.hermes/skills/*.md │ │ 可复用操作知识 │ └─────────────────────────────────────────────┘
会话记忆用 SQLite 加 FTS5 全文索引,记录原始对话和工具调用结果,跨会话搜索延迟 <50ms。解决”上周二我们讨论了什么”这类问题。
持久记忆的 MEMORY.md 和 USER.md 有硬限制——2200 和 1375 字符。为什么这么小?这两块内容每次会话开始都注入系统提示词,太大会挤占模型有效上下文。设计思路是 Agent-curated:不是有啥记啥,是 Agent 筛选后的结果。只有真正需要跨会话保持的信息才放进来。
技能记忆是 ~/.hermes/skills/ 下的 Markdown 文件,每个 Skill 包含触发条件、操作步骤、注意事项、验证方法。解决”上次遇到类似任务是怎么做的”。
Hermes 的记忆不是实时写入的。它采用”冻结快照”设计——会话开始时注入快照,会话中途写入的记忆不立刻生效,到后续会话才体现。
这跟直觉相反。你以为记忆越实时越好,实际上每次注入内容变了,模型的 KV Cache 全部失效,Token 消耗直接翻倍。冻结快照用”一次延迟”换持续效率。
nudge_interval 控制记忆反思频率:标准模型建议 10,小模型 5,大上下文模型 15。
Hermes 追求”小而精”,质量高但可能遗漏。OpenClaw 追求”大而全”,不会遗漏但噪音多。各有取舍。
Skill 是 Hermes 最核心的差异化能力。
用户任务 → Agent 执行 → 自动复盘 → 生成 Skill → 下次自动调用 → …
用户完成任务 → Agent 执行 → 自问”用户改了哪里?值得固化什么?” → 生成 Skill 文件 → 下次自动调用。每转一圈,Agent 能力就厚一层。
写作风格推断。 Hermes 通过阅读已发布文章推断写作风格,生成 local-writing-canon-analysis/SKILL.md。之后所有新文章都参考这个 Skill 写。
故障恢复。 Telegram 网关故障后,Hermes 自动生成 hermes-telegram-gateway-recovery/SKILL.md。下次遇到同样问题直接按 Skill 走,不用重新排查。
路由治理。 200 行决策树替代了 20000 行 CLAUDE.md。起因是 40+ 技能中 15% 是暗技能——存在但不可达,Skill 写了但触发器描述不对,Agent 找不到它。
Skill 写了不等于永远好用。退化有三个信号:描述模糊、功能重复、过时引用。定期在对话中告诉 Hermes “检查你的所有 skills,列出需要更新或删除的”,Agent 自己做审计。
Hermes 系统提示词约 36700 字符(~10K tokens),9 层构成。
AGENTS.md 占系统提示近一半,超过 20K 上限后中间部分被截断。截断策略是头部 70% + 尾部 30%,中间直接丢。
一个配置就能优化:
hermes config set agent.cwd ~
把主 agent CWD 配为 ~ 而非仓库目录,系统提示词减少约 50%。51 个注册工具中只加载 30 个——按需筛选,比 OpenClaw 的全局加载聪明。
MEMORY.md 的 2200 字符大多数场景够用,需要更丰富的长期记忆时可以叠加外部层。
Hindsight(推荐个人用):
– 自动从每次对话中提取实体和关系
– 周一提了项目截止日期,周五新会话自动记得
– 可自建,隐私安全
mem0(推荐 Fleet 多 Agent 架构):
– 统一记忆抽象,所有 agent 共享一个 Qdrant collection
– Claude Code Stop Hook 每次对话结束自动写入
– 其他 agent 立即可读
本质区别:Hindsight 给一个 Agent 用,mem0 给一群 Agent 共享。
这是 Hermes Agent 系列的第一篇。
系列导航:
– 第二篇:Hermes Agent 实战配置:五套系统与即用配方
– 第三篇:Hermes Agent 构建第二大脑:LLM Wiki + 多 Agent 协作
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/282350.html