老板们,一定要搞定您公司的龙虾记忆分层

老板们,一定要搞定您公司的龙虾记忆分层我实践下来 OpenClaw 的记忆分层机制分为 短期 中期 长期 结构化 跨会话 五层 每层负责不同生命周期和用途的信息存储 关键词 openclaw 龙虾 memory 注意 原生是 3 层 其余 2 层是我根据实际情况新增的 memory YYYY MM DD md 是追加写入的日志文件 每次会话开始时会自动加载当天和前一天的日志 构成近期工作的上下文窗口 Gitbook 这是最轻量

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。




注意:原生是3层,其余2层是我根据实际情况新增的

memory/YYYY-MM-DD.md 是追加写入的日志文件,每次会话开始时会自动加载当天和前一天的日志,构成近期工作的上下文窗口。 Gitbook这是最轻量、最即时的记忆层,捕捉当下发生的一切。

这是经过精心整理的长期记忆文件,仅在主私人会话中加载,永远不会在群组上下文中加载,以保护敏感信息。 OpenClaw AI它存放重要决策、项目偏好、长期待办等核心内容,保持精简稳定。

sessions/YYYY-MM-DD- .md 是历史对话的时间戳存档,slug 由 LLM 自动生成。这些存档会被索引并支持检索,让 Agent 能回溯过去的完整对话。

层级 存储形式 生命周期 用途 访问范围 0️⃣ 会话上下文 当前对话历史(数组) 单次会话内 实时理解、即时决策 当前 session 1️⃣ 每日日志 memory/YYYY‑MM‑DD.md 永久(文件) 原始事件记录、原始决策、待办 当前 agent(main session) 2️⃣ 长期记忆 MEMORY.md 永久(文件) 精炼知识、经验总结、偏好、教训 仅 main session(安全隔离) 3️⃣ 结构化知识 Ontology 知识图谱(可选技能) 永久(图谱文件) 实体关系、项目依赖、跨技能状态共享 安装了 ontology 技能时 4️⃣ 跨会话索引 已索引的会话记录(内部存储) 永久(索引) 搜索历史对话、跨会话回忆 通过 memory_search 工具 5️⃣ 外部补充 Compiled‑wiki 补充资料(可注册) 永久(外部) 额外文档、知识库 memory_search corpus=wiki

OpenClaw 不依赖单一的向量相似度,而是采用加权得分融合,结合两种互补的检索方式:向量搜索(语义相似)和 BM25 搜索(词法精确匹配)。默认权重为 70% 向量 + 30% 文本。向量搜索擅长概念层面的关联,BM25 则擅长捕捉错误码、函数名等精确词元。

在写入向量索引前,OpenClaw 使用滑动窗口算法对 Markdown 进行分块:每块约 400 token(~1600 字符),相邻块之间保留 80 token 的重叠,防止边界处的上下文丢失。每个块通过 SHA-256 哈希去重,相同内容直接命中缓存,无需重新嵌入。

当会话接近自动压缩(compaction)时,OpenClaw 会触发一个静默的 Agent 轮次,提醒模型在上下文被压缩前将关键信息写入记忆文件。


• 路径: /memory/2026‑04‑29.md
• 写入时机:
• 重要事件发生后
• 完成用户任务后
• Heartbeat 检查时(可定期整理)
• 内容示例: 2026‑04‑29














  • 用户要求解读 browser‑use 仓库
  • 创建了 DeepSeek V4 博客文章
  • 更新了 TOOLS.md(新增 browser‑use 技能笔记)
    • 安全:仅在 main session(直接对话)中自动加载;群聊等共享环境不加载,防止隐私泄露。

• 路径: /MEMORY.md
• 性质:策划后的精华记忆,相当于人类的“长期记忆”。
• 内容:
• 用户偏好(例如:“主人喜欢简洁的技术总结”)
• 重要决策(例如:“选择 GLM‑4.7 作为默认模型”)
• 经验教训(例如:“避免在群聊中加载 MEMORY.md”)
• 项目上下文(例如:“blog‑demo 使用 Hugo + PaperMod 主题”)
• 维护:
• 定期(heartbeat)回顾近期的每日日志,提炼有价值的信息更新到 MEMORY.md。
• 手动编辑或让 agent 自动更新。


























🔍 常用工具对应层级

工具 主要访问层级 典型用途 memory_search 1️⃣+2️⃣+4️⃣(+5️⃣) 查找过往决策、用户偏好、历史事件 memory_get 1️⃣+2️⃣(+5️⃣) 精确读取某文件片段(避免全量加载) sessions_history 4️⃣ 查看另一个会话的完整历史 ontology 技能 3️⃣ 创建/查询实体、链接关系 直接读写文件 1️⃣+2️⃣ 手动更新日志或长期记忆

注意:Dreaming 是一个可选的后台整合机制,负责将短期记忆中值得保留的内容"晋升"到长期记忆

以agent:coder为例进行说明

维度 做法 目的 文件系统层 - 所有记忆文件 (MEMORY.md、memory/*.md) 均位于 工作区根目录 (~/.openclaw/workspace‑coder)
- 只对当前 agent(程序员1号) 及 授权的子代理 开放读写权限
- 目录权限默认 700,文件默认 600,防止其他系统用户直接访问 防止本机其他进程或用户窃取记忆 会话层级隔离 - MAIN SESSION(直接与主人对话)才会自动加载 MEMORY.md,群聊、共享会话、子代理等不加载
- memory/ 日志只在 主会话 或 显式请求 时读取 保证私人对话内容不泄露到公共群或其他会话 访问控制 - AGENTS.md、SOUL.md 只读,未授权用户无法修改
- 任何 写操作(write、edit)都必须在 当前会话 中经过 显式指令,否则会被拒绝
- 对外部 API(如 Browser‑Use Cloud、DeepSeek)使用 环境变量 / .env 存放的密钥,决不写入记忆文件 防止误把敏感凭证写进记忆 审计日志 - 每一次对 MEMORY.md、memory/*.md 的 写入 都记录在 memory/heartbeat‑state.json(或单独审计文件)
- session_status 可随时查看本轮会话使用的模型、工具、耗时等元信息 事后可追溯谁、何时、写了什么 加密(可选) - 若需要更高安全,可在 ~/.openclaw/keys/ 生成对称钥并通过 openssl 对 MEMORY.md 进行 AES‑256‑GCM 加密,解密只在 agent运行时 完成,磁盘上保存的始终是密文 防止磁盘被物理获取时泄露 内存抽象 - memory_search、memory_get 不直接返回整篇文件,而是 只返回匹配片段,并在返回前做 截断(默认 ≤ 2 KB)
- 结果会在 当前会话上下文 中立即使用,不会持久化到别的文件 减少一次性暴露完整记忆的风险 子代理隔离 - 子代理默认 sandbox(只读工作区文件),若需要写入必须在 spawn 时显式 cleanup: "keep" 并在返回后由父代理决定是否写入
- 子代理的 runtime 为 subagent,其进程拥有独立的进程空间,不能直接访问父进程的内存对象 防止子代理泄露或误修改主记忆 模型切换提醒 - 当运行时模型与系统默认模型不一致时,会在回复开头提示(如 “当前使用 GLM‑4.7(默认 MiniMax‑M2.7)”),提醒用户注意 模型泄漏(模型返回的私人信息可能被记录) 防止因为模型切换而导致意外记忆泄露 最小化持久化 - “临时”信息(如一次性计算结果)只保存在 会话上下文,不写入磁盘
- 仅对 需要长期保存(决策、偏好、项目状态)才写入 MEMORY.md 或 memory/*.md 减少不必要的永久记录




























刚刷到的朋友注意啦
点击【关注】锁定宝藏库,从此升职加薪不迷路 ✨

ai-wealth: https://vi-wealth.com

AI订阅日报:每日AI日报,支持RSS订阅 https://024news.us/daily-report

理财数据网站:http://vi-money.com/

个人博客网站:https://funkygod.vip/

复利计算:投资理财记录站

日更小说网站: https://024novel.com/

AI汇聚信息:https://info.vi-wealth.com/information

纸鹤漂流来信:https://findingx.us

时间雨:逆滩 · 时雨,https://letter.findingx.us/


方舟 Coding Plan 支持 Doubao、GLM、DeepSeek、Kimi 等模型,工具不限,现在订阅折上9折,低至8.9元,订阅越多越划算!立即订阅:https://volcengine.com/L/vd1xvW2KKgg/ 邀请码:2DSAD6JL


☁ 主机显示特惠:只要80元(3TB流量,1vcpu,50GB硬盘)
购买地址:https://my.racknerd.com/aff.php?aff=14942

CloudCone 特惠轻量云主机:购买地址:https://app.cloudcone.com/?ref=12332


小讯
上一篇 2026-05-01 11:55
下一篇 2026-05-01 11:53

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/283227.html