🧠 当前社区最受关注的 OpenClaw 插件 —— 基于 LCM 论文的 DAG 摘要系统,在 OOLONG 基准测试中得分 74.8,远超 Claude Code 的 70.3。本文完整实操:从安装到参数调优
- 为什么需要 Lossless-Claw:OpenClaw 内置压缩的致命问题
- LCM 核心原理:DAG 摘要系统 30 秒速懂
- OOLONG 基准测试:74.8 vs 70.3 的真实含义
- 安装 Lossless-Claw:三步搞定
- 核心参数详解:freshTailCount、contextThreshold、incrementalMaxDepth
- Agent 工具三件套:lcm_grep、lcm_describe、lcm_expand
- 完整工作流演示:从对话到压缩到回忆
- 参数调优实战:不同场景的最优配置
- Lossless-Claw vs 内置 Compaction:深度对比
- 高级话题:DAG 完整性检查与修复
如果你读过本系列的 Context Compaction 避坑实战, 你已经知道 OpenClaw 内置的上下文压缩机制存在一个根本性缺陷:它是有损的(lossy)。
想象一下永远不需要再运行 或 。OpenClaw 的内置 compaction 在上下文窗口填满时做一次性的摘要压缩。它作为安全网可以用,但它是有损的。
具体来说,内置压缩会:
- 把数十轮对话一股脑压成一段几百 Token 的摘要
- 不保留原始消息——压缩后细节永远丢失
- 不重新注入 session 开始时加载的项目上下文文件
- 导致 Agent 行为退化:跳过验证步骤、忽略安全规则
当 LCM 论文的作者告知 Josh Lehman 他们的工作时,Josh 立刻认为这会是 OpenClaw 的一个极棒的补充。他花了 9 天时间疯狂开发,在自己的 Agent 上运行了一周,结果令人印象深刻:“对话感觉永远不会丢失信息(因为某种程度上确实不会),始终在 30-100K Token 范围内运行,零维护。”
2.1 一句话定义
Lossless Context Management (LCM) 插件,基于同名论文。它用 DAG(有向无环图)结构的摘要系统替代 OpenClaw 内置的滑动窗口压缩机制,在保留每条消息的同时将活跃上下文控制在模型 Token 限制之内。
2.2 LCM 的五个关键操作
当对话超过模型的上下文窗口时,OpenClaw(和所有其他 Agent 一样)通常会截断旧消息。LCM 则不同——它将每条消息持久化到 SQLite 数据库,按对话组织;将旧消息分块摘要;随着摘要积累,进一步浓缩为更高层级节点,形成 DAG;每轮通过组合摘要 + 近期原始消息来组装上下文;并提供 、、 等工具,让 Agent 可以搜索和回忆已压缩历史中的细节。
2.3 架构图
GPT plus 代充 只需 145
2.4 关键创新:摘要链接回源消息
LCM 提供工具(、、)让 Agent 可以搜索和回忆已压缩历史中的细节。没有任何东西丢失——原始消息留在数据库中,摘要链接回它们的源消息。
这就是”Lossless(无损)”的含义——不是说上下文窗口无限大,而是说:
- 原始数据永远不删(存在 SQLite 中)
- 摘要保留溯源指针(可以随时展开查看原文)
- Agent 拥有工具主动回忆(不是被动等待,而是主动搜索历史)
3.1 OOLONG 是什么
OOLONG 是一个长上下文推理基准测试,要求在原子级别分析文本块,然后聚合这些分析来回答分布性问题。它分为两部分:Oolong-synth(合成的自然任务)和 Oolong-real(真实世界对话数据的推理任务)。
简单说:OOLONG 测的不是”能不能在长文本中找到一根针”(那是 NIAH),而是”能不能理解和推理整段长文本的全局信息”。这对 Agent 的上下文管理能力是终极考验。
3.2 分数对比
在 OOLONG 基准测试中,lossless-claw 得分 74.8,而 Claude Code 得分 70.3,使用的是相同模型。更重要的是,上下文越长差距越大——在所有测试的上下文长度上,lossless-claw 的得分都高于 Claude Code。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/236494.html