<p><img src="7syuM7T2zZ+KDa0RBbYG3cmJ5ULT+qz1crB9Zo+mUNPKx6vZd2QvFK7xRUZNJfpkAXDx2grIrXoVygdjDp6Vpix7VZFnHP6BizmvcF3ritI=" data-src="7syuM7T2zZ+KDa0RBbYG3cmJ5ULT+qz1crB9Zo+mUNPKx6vZd2QvFK7xRUZNJfpkAXDx2grIrXoVygdjDp6Vpix7VZFnHP6BizmvcF3ritI=" /></p><p><img src="dA8+2Mmq3jH/vcey6VFIasmJ5ULT+qz1crB9Zo+mUNNMXbHNQy9gC/uPUUAPFl51zNQBfPwa1RQsN/myTkFf189he8XWUKVBRzx+RS/Eous=" data-src="dA8+2Mmq3jH/vcey6VFIasmJ5ULT+qz1crB9Zo+mUNNMXbHNQy9gC/uPUUAPFl51zNQBfPwa1RQsN/myTkFf189he8XWUKVBRzx+RS/Eous=" /></p><p><img src="7syuM7T2zZ+KDa0RBbYG3cmJ5ULT+qz1crB9Zo+mUNNQn78bAdmTO0XlDtA7JRWxbypyp+gTOnVq42R9lRyKRJ9ydTYCq08JpaoyILtBrAc=" data-src="7syuM7T2zZ+KDa0RBbYG3cmJ5ULT+qz1crB9Zo+mUNNQn78bAdmTO0XlDtA7JRWxbypyp+gTOnVq42R9lRyKRJ9ydTYCq08JpaoyILtBrAc=" /></p><p><img src="ungULKxG7fZmEmAzXqIZ5MmJ5ULT+qz1crB9Zo+mUNOb0MzkmPZK9u+W6rWI/e5qLACsUlfYSEF0TS9Emh52KijiYcGath429jh7edAgtYs=" data-src="ungULKxG7fZmEmAzXqIZ5MmJ5ULT+qz1crB9Zo+mUNOb0MzkmPZK9u+W6rWI/e5qLACsUlfYSEF0TS9Emh52KijiYcGath429jh7edAgtYs=" /></p><p><img src="7syuM7T2zZ+KDa0RBbYG3cmJ5ULT+qz1crB9Zo+mUNNrSbPr5D3LZUku5SErx3GcMAJ4Ddi6FUvaVMu/xbT9HkCbn/PBYoOxmC5dxjTbpO8=" data-src="7syuM7T2zZ+KDa0RBbYG3cmJ5ULT+qz1crB9Zo+mUNNrSbPr5D3LZUku5SErx3GcMAJ4Ddi6FUvaVMu/xbT9HkCbn/PBYoOxmC5dxjTbpO8=" /></p><p><img src="UobGwTkesb1n2VhXTZAdSMmJ5ULT+qz1crB9Zo+mUNPMEHBj28W2M0zyhGPbmFoz8YbtxRVOocsMwX9mk8AVBgOu8I3V5g4UiYmM/DSHjl0=" data-src="UobGwTkesb1n2VhXTZAdSMmJ5ULT+qz1crB9Zo+mUNPMEHBj28W2M0zyhGPbmFoz8YbtxRVOocsMwX9mk8AVBgOu8I3V5g4UiYmM/DSHjl0=" /></p><p><img src="EPTTjIc7stRUWFVloIo6UcmJ5ULT+qz1crB9Zo+mUNMch1Y5X8zW2BlDnkDdkIKUb+6dtPIX+IGg32qaSCGz/23MXTqXmXVOIuHpYB5AVwc=" data-src="EPTTjIc7stRUWFVloIo6UcmJ5ULT+qz1crB9Zo+mUNMch1Y5X8zW2BlDnkDdkIKUb+6dtPIX+IGg32qaSCGz/23MXTqXmXVOIuHpYB5AVwc=" /></p><p>最近,最火的 Agent 项目 OpenClaw 又迎来一次大更新:支持 GPT-5.4、加入 Context Engine 插件接口、记忆系统可以热插拔,GitHub Star 也突破了 28 万。</p><p>表面看,这次更新内容很多:搜索、插件、通信渠道、容器部署、安全机制……几乎是一次全面升级。但如果只抓一个最关键的变化,其实是这一点:OpenClaw 开始重做 memory。</p><p>因为这段时间,OpenClaw 被吐槽最多的地方,其实就是“记性不太行”。你前面说过的东西,它后面可能就忘了;或者同一件事反复记、反复问,memory 越用越乱。很多人一开始以为这是模型不够聪明,后来才发现问题不完全在模型,而在它原来的记忆机制。</p><p>过去的 OpenClaw memory 更像“有事再去翻笔记”。系统会把内容写进日志文件和长期记忆文件,需要的时候再通过 memory_search 和 memory_get 这些工具去查。这其实是一种典型的 tools 逻辑:需要时再调用工具,把上下文找出来。</p><p>问题在于,这种方式看起来像“按需调用、更省资源”,但实际往往更慢、更费 token,因为每一次工具调用本身也有成本。而且它太依赖 Agent 自己先“想起来去查”,一旦没触发工具,这段记忆就等于不存在。同时,它在知识更新、时间推理、多会话上下文上的表现也不理想:写入新内容时,往往不知道旧记忆里已经有什么,结果就是重复记录、旧信息不更新。再加上它几乎不会遗忘,时间一长,memory 就容易变成一个越来越大的信息堆,什么都在,但真正重要的反而找不出来。</p><p>所以这次更新真正重要的地方,是 OpenClaw 开始从 tools 逻辑转向 hooks 逻辑。</p><p>简单说,tools 是“需要时再查”,hooks 是“在关键节点自动处理”。通过 Hook,memory 的保存和上下文补充可以在后台自动发生,而不是每次都依赖 Agent 主动调用工具。这样系统既能提取结构化记忆,也能保留原始上下文,并在需要时补充信息,还可以让长期无关的信息逐渐衰减、被清理掉。</p><p>在这个基础上,OpenClaw 又把上下文处理抽象成可插拔的 Context Engine。这意味着开发者不需要改动 Agent 本身,就可以替换不同的上下文管理策略,比如 RAG、知识图谱折叠或无损压缩等。Agent 的逻辑不变,真正变化的是“上下文怎么被组织和注入”。</p><p>所以这次更新里,最容易被忽略、但可能最重要的,其实就是 memory。 新模型、新搜索当然都很热闹,但一个 Agent 能不能真正长期好用,关键还是看它能不能把“记住、更新、遗忘”这件事做好。</p><p>整理 |Tina</p>
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/215959.html