
注意:原生是3层,其余2层是我根据实际情况新增的
memory/YYYY-MM-DD.md 是追加写入的日志文件,每次会话开始时会自动加载当天和前一天的日志,构成近期工作的上下文窗口。 Gitbook这是最轻量、最即时的记忆层,捕捉当下发生的一切。
这是经过精心整理的长期记忆文件,仅在主私人会话中加载,永远不会在群组上下文中加载,以保护敏感信息。 OpenClaw AI它存放重要决策、项目偏好、长期待办等核心内容,保持精简稳定。
sessions/YYYY-MM-DD-

OpenClaw 不依赖单一的向量相似度,而是采用加权得分融合,结合两种互补的检索方式:向量搜索(语义相似)和 BM25 搜索(词法精确匹配)。默认权重为 70% 向量 + 30% 文本。向量搜索擅长概念层面的关联,BM25 则擅长捕捉错误码、函数名等精确词元。
在写入向量索引前,OpenClaw 使用滑动窗口算法对 Markdown 进行分块:每块约 400 token(~1600 字符),相邻块之间保留 80 token 的重叠,防止边界处的上下文丢失。每个块通过 SHA-256 哈希去重,相同内容直接命中缓存,无需重新嵌入。
当会话接近自动压缩(compaction)时,OpenClaw 会触发一个静默的 Agent 轮次,提醒模型在上下文被压缩前将关键信息写入记忆文件。
• 路径:
• 写入时机:
• 重要事件发生后
• 完成用户任务后
• Heartbeat 检查时(可定期整理)
• 内容示例: 2026‑04‑29
- 用户要求解读 browser‑use 仓库
- 创建了 DeepSeek V4 博客文章
- 更新了 TOOLS.md(新增 browser‑use 技能笔记)
• 安全:仅在 main session(直接对话)中自动加载;群聊等共享环境不加载,防止隐私泄露。
• 路径:
• 性质:策划后的精华记忆,相当于人类的“长期记忆”。
• 内容:
• 用户偏好(例如:“主人喜欢简洁的技术总结”)
• 重要决策(例如:“选择 GLM‑4.7 作为默认模型”)
• 经验教训(例如:“避免在群聊中加载 MEMORY.md”)
• 项目上下文(例如:“blog‑demo 使用 Hugo + PaperMod 主题”)
• 维护:
• 定期(heartbeat)回顾近期的每日日志,提炼有价值的信息更新到 MEMORY.md。
• 手动编辑或让 agent 自动更新。
🔍 常用工具对应层级
注意:Dreaming 是一个可选的后台整合机制,负责将短期记忆中值得保留的内容"晋升"到长期记忆
以agent:coder为例进行说明
- 只对当前 agent(程序员1号) 及 授权的子代理 开放读写权限
- 目录权限默认 700,文件默认 600,防止其他系统用户直接访问 防止本机其他进程或用户窃取记忆 会话层级隔离 - MAIN SESSION(直接与主人对话)才会自动加载 MEMORY.md,群聊、共享会话、子代理等不加载
- memory/ 日志只在 主会话 或 显式请求 时读取 保证私人对话内容不泄露到公共群或其他会话 访问控制 - AGENTS.md、SOUL.md 只读,未授权用户无法修改
- 任何 写操作(write、edit)都必须在 当前会话 中经过 显式指令,否则会被拒绝
- 对外部 API(如 Browser‑Use Cloud、DeepSeek)使用 环境变量 / .env 存放的密钥,决不写入记忆文件 防止误把敏感凭证写进记忆 审计日志 - 每一次对 MEMORY.md、memory/*.md 的 写入 都记录在 memory/heartbeat‑state.json(或单独审计文件)
- session_status 可随时查看本轮会话使用的模型、工具、耗时等元信息 事后可追溯谁、何时、写了什么 加密(可选) - 若需要更高安全,可在 ~/.openclaw/keys/ 生成对称钥并通过 openssl 对 MEMORY.md 进行 AES‑256‑GCM 加密,解密只在 agent运行时 完成,磁盘上保存的始终是密文 防止磁盘被物理获取时泄露 内存抽象 - memory_search、memory_get 不直接返回整篇文件,而是 只返回匹配片段,并在返回前做 截断(默认 ≤ 2 KB)
- 结果会在 当前会话上下文 中立即使用,不会持久化到别的文件 减少一次性暴露完整记忆的风险 子代理隔离 - 子代理默认 sandbox(只读工作区文件),若需要写入必须在 spawn 时显式 cleanup: "keep" 并在返回后由父代理决定是否写入
- 子代理的 runtime 为 subagent,其进程拥有独立的进程空间,不能直接访问父进程的内存对象 防止子代理泄露或误修改主记忆 模型切换提醒 - 当运行时模型与系统默认模型不一致时,会在回复开头提示(如 “当前使用 GLM‑4.7(默认 MiniMax‑M2.7)”),提醒用户注意 模型泄漏(模型返回的私人信息可能被记录) 防止因为模型切换而导致意外记忆泄露 最小化持久化 - “临时”信息(如一次性计算结果)只保存在 会话上下文,不写入磁盘
- 仅对 需要长期保存(决策、偏好、项目状态)才写入 MEMORY.md 或 memory/*.md 减少不必要的永久记录
⏰ 刚刷到的朋友注意啦!
点击【关注】锁定宝藏库,从此升职加薪不迷路 ✨

ai-wealth: https://vi-wealth.com
AI订阅日报:每日AI日报,支持RSS订阅 https://024news.us/daily-report

理财数据网站:http://vi-money.com/

个人博客网站:https://funkygod.vip/

复利计算:投资理财记录站

日更小说网站: https://024novel.com/

AI汇聚信息:https://info.vi-wealth.com/information

纸鹤漂流来信:https://findingx.us

时间雨:逆滩 · 时雨,https://letter.findingx.us/




方舟 Coding Plan 支持 Doubao、GLM、DeepSeek、Kimi 等模型,工具不限,现在订阅折上9折,低至8.9元,订阅越多越划算!立即订阅:https://volcengine.com/L/vd1xvW2KKgg/ 邀请码:2DSAD6JL

☁ 主机显示特惠:只要80元(3TB流量,1vcpu,50GB硬盘)
购买地址:https://my.racknerd.com/aff.php?aff=14942
CloudCone 特惠轻量云主机:购买地址:https://app.cloudcone.com/?ref=12332

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/283227.html