2026年AI Agent智能体记忆综述全解(非常详细),记忆机制原理从入门到精通,收藏这一篇就够了!

AI Agent智能体记忆综述全解(非常详细),记忆机制原理从入门到精通,收藏这一篇就够了!svg xmlns http www w3 org 2000 svg style display none svg

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



    

前言,看一篇综述比从好几篇小红书传播焦虑给的哪些碎片化的知识中提炼出对自己有用的东西快多了

尤其是自己做了很多应用,尝试过一些记忆管理方式之后,现在看这个综述,收获真的非常之大

翻译后的目录在这里,如果有感兴趣的部分可以阅读原文章

以下内容非引用部分为原文,引用部分为个人思考

传统的分类方式以长期记忆和短期记忆进行分类

从形式、功能和动态三个统一的角度来审视智能体记忆

形式角度来看,我们识别出智能体记忆的三种主要实现方式,即词元级记忆、参数化记忆和潜在记忆。

从功能角度来看,我们超越了粗略的时间分类,提出了一种更精细的分类体系,区分了事实记忆、经验记忆和工作记忆。

从动态角度来看,我们分析了智能体在与环境互动过程中,记忆如何随时间形成、演化和提取

我主要偏工程一些,不太考虑模型算法的构建

所以主要想要知道有几种记忆形式可以工程化的实现在应用当中

用这三个视角看,可以理解成,成清晰的知道agent记忆都有哪些东西

先看几个概念的区分

宏观层面来看,智能体记忆几乎完全涵盖了传统意义上的逻辑学习记忆(LLM 记忆)。

最近,才开始出现一个更加统一和结构化的定义(例如,基于 LLM 的智能体 = LLM + 推理 + 规划 + 记忆 + 工具使用 + 自我改进 + 多轮交互 + 感知

另一条独立的研究路线真正关注 LLM 内部记忆:管理 Transformer 的键值(KV)缓存、设计长上下文处理机制,或修改模型架构(例如 RWKV(Peng 等人,2023)、Mamba(Gu 和 Dao,2024;Lieber 等人,2024)、基于扩散的语言模型(Nie 等人,2025))

直接干预模型内部状态的记忆机制——例如为了延长有效上下文而进行的架构修改、缓存重写策略、循环状态持久化、注意力稀疏机制或外部化键值存储扩展——更适合归类为 LLM 记忆,而非智能体记忆

最早期的langchain中就有关于对话中的长短记忆管理,当时跑过几个小应用,那个时候没有agent memory这个词,都叫llm记忆

概念层面上,智能体记忆和检索增强生成(RAG)存在显著的重叠

-传统的随机生成(RAG)技术主要通过访问静态知识源来增强逻辑逻辑模型(LLM),这些知识源可以是扁平文档库、结构化知识库,也可以是外部索引的大型语料库,以支持按需检索

-智能体记忆系统是在智能体与环境的持续交互中实例化的,它将智能体自身行为和环境反馈产生的新信息不断地整合到持久记忆库中

随着检索系统本身变得更加动态,这种界限也变得越来越模糊

一个更实用(尽管并非完全分离)的区分在于任务领域

-RAG 主要用于为逻辑学习模型(LLM)添加大量外部上下文信息,以增强其在个体推理任务中的能力

-智能体记忆系统通常在需要持续多轮交互、时间依赖性或环境驱动适应的场景中进行评估。代表性基准测试包括

长上下文对话评估

复杂问题解决和深度研究基准测试

以代码为中心的基准测试

智能体记忆管理的时候里面会有非常多的动态更新的文档,可以是md,可以是其他任何形式,召回的时候就会用到 Embedding

智能体记忆与上下文工程之间的关系最好理解为不同操作范式的交集,而非层级式的包含关系

-上下文工程是一种系统化的设计方法,它将上下文窗口视为一种受限的计算资源。它严格优化信息有效载荷(包括指令、知识、状态和记忆),以缓解海量输入容量与模型生成能力之间的不对称性(Mei et al., 2025)。

-智能体记忆侧重于对具有不断演变身份的持久实体进行认知建模,而上下文工程则遵循资源管理范式。从上下文工程的角度来看,智能体记忆仅仅是上下文组装功能中的一个变量,需要高效的调度才能最大限度地提高推理效率。反之,从智能体的角度来看,上下文工程则作为实现层,确保认知连续性保持在底层模型的物理限制之内。

个人理解,上下文工程是模型为了优化当前对话或者是下一次问答,对之前的信息进行一个取舍

Agent memory则是让这个智能体更像你的秘书,让你在意想不到的地方发现自己以前的痕迹

为了更好地梳理前人的工作,我们首先考察构成智能体记忆的最基本表征单元。我们首先尝试回答:智能体记忆可以采取哪些架构或表征形式?

我主要就想了解智能体记忆可以采取哪些架构

在不同的智能体系统中,记忆并非通过单一统一的结构来实现。相反,不同的任务场景需要不同的存储形式,每种形式都有其自身的结构属性。这些架构赋予记忆不同的功能,塑造了智能体在交互过程中积累信息以及维持行为一致性的方式。最终,它们使记忆能够在各种任务场景中发挥其预期作用。

  1. 令牌级记忆(第 3.1 节):记忆被组织成明确且离散的单元,这些单元可以被单独访问、修改和重构。这些单元始终保持外部可见,并且可以随时间以结构化的形式存储。
  2. 参数记忆(第 3.2 节):存储在模型参数中的记忆,其中信息通过参数空间的统计模式进行编码,并在正向计算期间隐式访问。
  3. 潜在记忆(3.3 节):以模型内部隐藏状态、连续表征或演化的潜在结构形式存在的记忆。它可以在推理过程中或交互周期中持续存在和更新,从而捕捉上下文相关的内部状态。

从用户信任度,还有我自己的sense看,第一种是最直接的,可以在文件夹里看到自己的记忆文件

第二种没看懂,等会往下看,怎么感觉是模型训练的东西

第三种,怎么没看出区别,都有点像是训练一个神经网络黑盒的感觉,只管输入输出,不管中间的记忆过程

  1. 平面记忆(1D):没有明确的单元间拓扑结构。记忆以单元序列或单元包的形式积累(例如,片段、轨迹、组块)。

    一维(1D)记忆以线性序列或独立簇的形式存储信息,没有明确的单元间拓扑结构,常用于数据块集、对话日志和经验池。

  2. 平面记忆(2D):一种结构化但单层的组织形式,位于同一平面内:各个单元通过图、树、表等方式相互关联,不存在跨层关系。结构清晰明确,但并非分层结构。

    平面记忆(2D)引入单层结构化布局,其中单元通过链接或结构连接以捕获关系依赖性,支持多种节点类型,例如图像和聊天记录

  3. 层级式记忆(3D):由多个层级构成,层间相互连接,形成立体或分层式记忆。

    层次记忆(3D)采用多级形式,例如或多层图,用于促进不同数据粒度(例如原始文档和合成问答)之间的垂直抽象和跨层推理。

扁平化记忆Flat Memory (1D)

  1. 扁平记忆将信息存储为离散单元的集合,而不显式地对单元间的语义或关系依赖性进行建模。这些单元可以包括文本块、用户画像、体验轨迹、它们对应的向量表示或多模态条目。这些单元之间的关系并未直接编码到记忆中。

平面记忆Planar Memory/2D

定义: 在单个结构层内建立显式拓扑关系(图、树、表等),实现从"存储"到"组织"的飞跃。

主要类型:

树结构(Tree)😗*

  • HAT:构建层次聚合树,分割长交互后逐步聚合,支持从粗到细检索
  • MemTree:推断层次模式,将具体事件总结为更高级别概念

图结构(Graph)😗*

  • Ret-LLM:抽象为可寻址的基于三元组的单元
  • 医疗领域:整合知识图谱和临床文本
  • 实时个性化:用户偏好和反馈编码为节点和边
  • PREMem:将推理负担转移到记忆构建阶段
  • TeaFarm:沿分段时间线组织对话历史
  • COMET:动态更新上下文感知人格图
  • A-Mem:标准化为卡片式单元,构建完整记忆网络
  • 多模态:统一图像、音频、文本为以实体为中心的记忆图

混合结构(Hybrid):

  • Optimus-1:分离静态知识(层次有向知识图谱)和动态交互(抽象多模态经验池)
  • D-SMART:结合结构化事实记忆(知识图谱)和基于遍历的推理树

优缺点:

  • ✅ 建立节点链接,利用集体协同,编码全面上下文知识;支持结构化键值查找和关系遍历
  • ❌ 无层次机制,所有记忆整合到单一模块;高构建和搜索成本阻碍实际部署

层次记忆Hierarchical Memory/3D

定义: 跨层组织信息,使用层间连接塑造体积结构化空间,支持不同抽象程度的表示。

主要类型:

金字塔结构(Pyramid):

  • HiAgent:以子目标为中心的层次工作记忆,保留详细轨迹并压缩已完成子目标
  • GraphRAG:通过社区检测构建多级图索引,递归聚合
  • Zep:形式化为时间知识图谱,执行社区分区
  • ILM-TR:树结构金字塔索引结合内循环机制
  • EMG-RAG:三层结构(类型索引、子类索引、实体级记忆图)
  • G-Memory:三层图层次(洞察图、查询图、交互图)

多层结构(Multi-Layer):

  • Lyfe Agents:分离显著长期记录与低价值短暂细节
  • H-Mem:按语义抽象排序的多级层次
  • HippoRAG:关联索引组件(开放知识图谱)和底层段落存储
  • AriGraph:按信息类型分离(语义知识图谱世界模型+事件级组件)
  • SGMem:在原始对话之上添加句子图记忆级别
  • CAM:增量聚类重叠语义图为层次模式结构
  • CompassMem和MAGMA:探索富含逻辑关系的层次组合策略

优缺点:

  • ✅ 多维交互和协同,编码全面深层上下文知识;支持多路径查询(关系网络内和抽象级别间),高精度检索
  • ❌ 结构复杂,密集信息组织挑战检索效率;确保语义有意义和设计最优三维布局仍是难题

感觉这种形式才更符合经验或者说直觉,先用抽象的事项做第一层,一个事项对应很多个单独的对话记忆理解。

还有一个额外的4.2

🤔2026年AI风口已来!各行各业的AI渗透肉眼可见,超多公司要么转型做AI相关产品,要么高薪挖AI技术人才,机遇直接摆在眼前!

有往AI方向发展,或者本身有后端编程基础的朋友,直接冲AI大模型应用开发转岗超合适!

就算暂时不打算转岗,了解大模型、RAG、Prompt、Agent这些热门概念,能上手做简单项目,也绝对是求职加分王🔋

在这里插入图片描述

📝给大家整理了超全最新的AI大模型应用开发学习清单和资料,手把手帮你快速入门!👇👇

学习路线:

✅大模型基础认知—大模型核心原理、发展历程、主流模型(GPT、文心一言等)特点解析
✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑
✅开发基础能力—Python进阶、API接口调用、大模型开发框架(LangChain等)实操
✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用
✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代
✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经




以上6大模块,看似清晰好上手,实则每个部分都有扎实的核心内容需要吃透!

我把大模型的学习全流程已经整理📚好了!抓住AI时代风口,轻松解锁职业新可能,希望大家都能把握机遇,实现薪资/职业跃迁~

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【】

在这里插入图片描述

小讯
上一篇 2026-03-14 23:10
下一篇 2026-03-14 23:08

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/234753.html