2026年【大模型智能体】【综述】Externalization in LLM Agents: A Unified Review of Memory, Skills, Protocols and Harness

【大模型智能体】【综述】Externalization in LLM Agents: A Unified Review of Memory, Skills, Protocols and HarnessExternalizat in LLM Agents A Unified Review of Memory Skills Protocols and Harness Engineering 大语言模型智能体外化 记忆 技能 协议与治理工程统一述评论文链接 大型语言模型 LLM 智能体的构建方式正日益从调整模型权重转向重组其运行时环境 早期系统期望模型内部实现的能力

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



大型语言模型(LLM)智能体的构建方式正日益从调整模型权重转向重组其运行时环境。早期系统期望模型内部实现的能力,如今被外化至记忆存储、可复用技能、交互协议以及确保这些模块在实践中可靠运行的周边控制框架中。本文从外化的视角审视这一转变。借鉴认知人工物的概念,我们认为智能体基础设施的重要性不仅在于其增加了辅助组件,更在于它将艰巨的认知负担转化为模型能够更可靠解决的形式。在此视角下,记忆外化了跨时间的状态,技能外化了程序性专业知识,协议外化了交互结构,而控制框架工程则作为协调层,将这些部分整合为受治理的执行流程。我们追溯从权重到上下文再到控制框架的历史演进,将记忆、技能和协议分析为三种不同但相互关联的外化形式,并探讨它们在更大智能体系统内的交互机制。我们进一步讨论了参数化能力与外化能力之间的权衡,指出了诸如自演进控制框架与共享智能体基础设施等新兴方向,并探讨了在评估、治理以及模型与外化基础设施长期协同演化方面存在的开放挑战。最终,本文提出一个系统级框架,用以解释为何实用智能体的进步日益不仅依赖于更强的模型,更取决于更优的外部认知基础设施。

认知工具的力量源于其表征功能。……认知工具不会改变人类的能力,它们改变的是任务本身。 ——唐纳德·A·诺曼

在这里插入图片描述
图1 外部化作为LLM智能体设计的组织原则。上图:人类认知外部化的演进弧线——从思维经由语言、文字、印刷到数字计算。中图:LLM智能体对应的外部化弧线——从权重经由三个外部化维度(记忆[外部化状态]、技能[外部化专长]、协议[外部化交互])到统一三者的驾驭层。下图:将代表性研究映射到权重层、上下文层与驾驭层这三个能力层级的文献图谱,展示研究脉络如何逐步向外迁移。两条弧线之间的平行关系编码了一个递归主张:LLM智能体通过沿着驱动人类认知历史的相同表征维度外部化认知负荷,从而实现可靠的主体行为能力。

人类文明史亦可解读为认知外化的历史。口语将私人思想转化为可共享的符号形式;书写将知识从脆弱的生物记忆迁移至持久的物质载体;印刷术实现了社会规模的知识复制机械化;数字计算则将算术与符号运算从神经劳动转移至可编程机器。贯穿这些变革,关键转变并非人类脱离工具便能力衰减,而是工具通过将特定认知负荷向外转移、释放有限的内部认知资源,进而重组认知系统,使其更专注于规划、抽象与创造性活动[Norman, 1993]。如今,同样的外化委托模式正在机器学习的前沿——大语言模型智能体的设计中重现。

这一观点在认知人工物的概念中有着天然的理论锚点[诺曼, 1991, 1993]。其核心见解在于:外部辅助工具并非仅仅放大了未改变的内部能力;它们通常改变了任务本身。购物清单并未扩展生物的记忆容量,而是将一个困难的回忆问题转变为了一个识别问题。地图并非简单地让导航变得更“强大”,而是将隐藏的空间关系转化为可见的结构。因此,人工物的力量在于表征性转换:它重构了问题,使得主体能够凭借其已有的能力更可靠地解决问题[诺曼, 1991]。

我们主张,同样的逻辑如今主导着基于大语言模型的智能体中最关键的设计抉择。我们的核心论点是:外化——即将认知负荷逐步从模型内部计算转移到持久、可检查、可重用的外部结构之中——正是这一转型逻辑(即解释每一次架构转变为何发生、以及它试图维护何种可靠性形式的机制)统一了近期在语言智能体的记忆、技能、协议与约束工程方面取得的进展。这不仅仅关乎工程便利性的主张,更是关于可靠智能体能力的来源:它并非仅源自日益庞大的模型,而是源于对任务需求的系统性重构,使得内部能力与外部基础设施共同覆盖所需的全方位能力范畴 [Norman, 1991, Sumers et al., 2024]。

图1总结了核心论点。上层图板描绘了人类认知外部化所遵循的熟悉弧线;中层图板展示了LLM智能体对应的外部化弧线,从权重出发,经由记忆、技能和协议这三个外部化维度,最终抵达统合三者的驾驭层;下层图板将相关文献图谱映射到权重层、上下文层和驾驭层这三个能力层级上。图3通过外部化智能体的架构概览对此视角进行了补充,其中驾驭层位于中心,三个外部化维度及其操作要素环绕运行。记忆实现了跨时间状态的外部化,技能实现了程序性专业知识的外部化,而协议则实现了交互结构的外部化。两条弧线之间的平行关系隐含着一个递归主张:LLM智能体本身是在人类最新重大外部化成果——数字计算——内部运作的造物。其共同机制在于诺曼意义上的表征转换[Norman, 1991]:回忆转化为再认,即兴生成转化为有序组合,临时协调转化为结构化契约。

这一视角对于理解当前实践尤为清晰。当代进展常被描述为追求更大模型、更好训练方法或更复杂推理链的竞赛。这些因素固然重要,但未能完全解释实际系统中观察到的模式。可靠性的许多最大提升并非源自基础模型的改变,而是源于模型运行环境的变革:增加持久化记忆、组织可复用技能、标准化工具接口、约束执行过程、对行为进行监测,以及通过显式控制逻辑调度任务 [Sumers et al., 2024, Wang et al., 2024a, Li, 2025, Luo et al., 2025]。实践中,问题已逐渐从“模型具备何种能力?”拓展为“哪些负担已被外部化,使模型无需每次在内部重新解决?”。

未经辅助的大型语言模型仍面临三个反复出现的不匹配问题,这直接对应着三个外部化维度。其上下文窗口有限且会话记忆薄弱甚至缺失,由此产生的连续性难题可通过记忆外部化解决;长流程多步骤任务常被重复推导而非稳定执行,由此产生的方差难题可通过技能外部化解决;与外部工具、服务及协作者的交互若仅依赖自由形式提示仍显脆弱,由此产生的协调难题可通过协议外部化解决[Sumers等人,2024;Packer等人,2023]。外部化之所以关键,在于它能将上述每项负担转化为模型能更可靠处理的形式。

一个具体示例有助于固化直觉。设想一个软件工程智能体被要求在大型代码库中实现功能、运行测试并提交拉取请求。若无外部化机制,模型必须在脆弱的提示中持续维护代码库结构、项目规范、工作流状态和工具交互信息。而通过外部化,持久化项目记忆能提供上下文,可复用的技能文档编码了规范与工作流,协议化的工具接口确保了正确模式,执行框架则负责步骤编排、输出验证与故障管理。基础模型可能保持不变,真正改变的是其所需解决问题的表征方式。

这种更广阔的视角也与分布式认知和延展认知背后的直觉相一致:一旦记忆、指导行动和协调互动的关键部分被委托给外部结构,智能便不再仅局限于模型内部[克拉克与查尔默斯,1998]。我们借鉴这一传统,是因其核心的工程学洞见——“智能体”与“环境”的边界是一种具有实际性能影响的设计选择——而非认同其更强的本体论主张。我们的关注点是实用性的:我们将外部化视为一种设计原则,其价值通过所构建系统的可靠性、可组合性与可治理性来衡量。

接下来我们将讨论构成"外部化约束框架"的三个维度,每个维度分别对应图1(中间面板)所强调的一种表征转换:

记忆系统将状态在时间维度外化。与仅依赖上下文窗口作为历史载体不同,记忆系统使累积的知识——用户偏好、过往交互轨迹、已解决的歧义、领域事实——能够跨越任何单次会话持续存在,并在相关时被选择性检索。其核心转变是从“回忆”到“识别”:智能体不再需要从潜在权重中重新生成过去的知识;而是从一个持久的、可检索的存储中直接获取信息 [Lewis et al., 2020, Park et al., 2023, Packer et al., 2023, Chhikara et al., 2025, Xu et al., 2025b]。

技能系统将程序性专业知识外部化。它并非依赖模型权重在每次调用时重新生成特定任务的专业技能,而是将流程、**实践和操作指南封装成可复用的构件。其核心转变在于从生成转向组合:智能体通过组装预先验证的组件来构建行为,而非每次都从头开始即兴创作步骤 [OpenAI, 2023a, Schick et al., 2023, Wang et al., 2023a, Anthropic, 2025, 2026, Jiang et al., 2026b]。

协议将交互结构外部化。与依赖工具、服务及其他智能体之间临时的提示级协调不同,协议为发现、调用、委托和权限管理定义了明确的机器可读合约。其核心转变是从临时性到结构化:模糊、脆弱的通信转变为可互操作、可治理的交换 [Anthropic, 2024, Google Cloud, 2025a, Ehtesham et al., 2025c]。

该框架是承载所有三个维度的工程层面,它提供编排逻辑、约束条件、可观测性和反馈循环,使得外化认知在实践中能够协同运作。它并非与记忆、技能和规程并列的第四种外化形式,而是这些外化形式运行与交互的实时环境。

这些维度并非孤立演化。记忆扩展可能与技能加载争夺有限的上下文容量。协议标准化可提升互操作性,同时也会制约能力封装与调用的方式。技能执行产生的轨迹将转化为记忆,而记忆检索又会影响后续技能与协议路径的选择。系统必须协调所有这些相互作用。我们在此预览这些系统级耦合关系,并在第7节进行详细分析。

这些方向各自已发展出庞大的技术生态系统。记忆研究已从简单的检索增强,演进至更具选择性、分层化的记忆架构[Lewis等人,2020;Packer等人,2023;Chhikara等人,2025;Xu等人,2025b]。技能相关的工作已从单一的函数调用和工具学习,扩展为可复用的能力包、注册机制以及渐进式功能披露体系[OpenAI,2023a;Schick等人,2023;Wang等人,2023a;Anthropic,2025、2026;Jiang等人,2026b]。协议相关工作则从定制化的工具模式与框架耦合代码,转向为智能体-工具及智能体-智能体交互建立更标准化的接口层[Anthropic,2024;Google Cloud,2025a;Ehtesham等人,2025c]。现有综述性研究已勾勒出该领域的重要剖面,包括检索增强生成[Gao等人,2024]、深度搜索[Xi等人,2025]、工具学习与应用[Qu等人,2024]、通用智能体架构[Wang等人,2024a;Li,2025;Luo等人,2025]以及协议互操作性[Ehtesham等人,2025c]。其中最接近的概念桥梁是CoALA框架[Sumers等人,2024]。目前尚未充分阐释的是:如何从"外部化"的统一视角理解这些发展方向的汇流趋势,以及这种汇流如何重塑智能体的本质定义。

因此,我们的目标并非孤立地提供另一份组件层面的综述,亦非将智能体进展简化为某个特定框架。相反,我们提出一个系统层面的综述,围绕以下四个主张展开:

  • 记忆系统将智能体的状态在时间维度外化,并将长期连续性转化为选择性检索。
  • 技能系统将程序性专业知识外化,并将隐性技能转化为显性、可复用的操作指引。
  • 协议将交互结构外化,并将模糊的通信转化为可互操作、机器可读的契约。
  • 协同工程将这些外化模块统一为一个具有约束、可观测性、反馈回路与控制点的连贯运行时环境。

本文其余部分结构如下:第二节追溯从权重到上下文再到控制框架的历史发展路径。第三至第五节分别分析了记忆、技能与协议这三种相互独立又彼此补充的外部化形式。第六节提出控制框架工程学作为外部化智能体设计的整合性学科,第七节考察各模块间主要的交叉互动机制。第八节探讨面向更自适应、可自我演化的外部化形式的未来方向,第九节总结其对智能体研究的更广泛启示。

在这里插入图片描述
图2 社区主题在三个能力层级中的演变过程。堆叠层——权重层、上下文层和赋能层——展示了LLM智能体社区的重心如何随时间由内向外迁移:从参数化知识与提示工程,逐步转向工具生态系统、协议规范、技能库及多智能体协同机制等赋能层基础设施。

LLM智能体的近期发展史可被理解为一种从模型自身向外延展的演进过程。最初,能力被视为模型权重的属性,随后被视为提示词与上下文窗口的属性,如今则日益被视为模型运行所依托的更广泛基础设施的属性。图2将这一演进轨迹可视化为三个叠加层——权重层、上下文层与驾驭层——并沿2022年至2026年的时间轴展开,显示了学界研究重点随时间的迁移。图1的下方面板通过文献全景图进一步补充该视角,将代表性研究成果对应至这三个层级。这些阶段呈层叠式而非互斥关系——即使在最依赖基础设施的系统中,权重依然重要——但每个阶段都改变了开发者放置系统可变智能的位置,并相应地决定了他们工程投入的主要方向。

图2和图1中的“权重层”对应着现代大语言模型部署的早期浪潮,该阶段几乎完全将模型能力等同于参数量。在大规模语料上进行预训练,将广泛的统计规律性、世界知识和潜在推理习惯压缩至权重之中[Brown等人,2020;Chowdhery等人,2023;Touvron等人,2023]。缩放定律揭示了参数量、数据量与损失函数之间可预测的关系,强化了“进展直接与模型规模挂钩”的直觉[Kaplan等人,2020;Hoffmann等人,2022]。当诸如GPT-4[OpenAI,2023b]、Gemini[Gemini团队等人,2023]、DeepSeek-V3[深度求索AI,2025]和Qwen2.5[Qwen团队,2025]等系统展现出广泛的多任务能力时,该领域的主流叙事普遍将更优的智能体等同于更大规模、训练更充分的模型。随后,监督微调和偏好优化通过教导模型遵循指令、掌握对话风格、形成拒绝行为以及适应特定领域规范,将这些模型塑造成更有用的助手[Ouyang等人,2022;Bai等人,2022a];而直接偏好优化则通过省去单独奖励模型的需求,进一步简化了这一对齐阶段[Rafailov等人,2023]。从这个视角看,模型改进在很大程度上意味着修改或替换模型本身。

该范式仍具基础性地位,权重空间能力具备多重优势:无需外部查询的快速推理、紧凑的部署模式,以及无需任务特定管道即可在多任务中实现强大泛化能力。同一模型既能解答医学问题,也可创作诗歌、调试程序或总结法律合同,且无需对周边系统进行任何调整。对于单次、上下文自足的任务,以权重为中心的视角通常已足够适用。

然而,权重空间编码也将知识、过程与策略过度耦合于静态实体之上。更新单一事实——例如某国现任元首——需要重新训练、知识编辑[Meng et al., 2022, Mitchell et al., 2022, Yao et al., 2023b],或通过额外对齐层进行修补,这些操作均可能对其他能力产生意外副作用。审计模型特定行为的成因十分困难,因为相关知识分布于数百亿参数中,而非以可审查的模块形式编码[Zhao et al., 2024]。个性化处理同样棘手:单一权重集需服务于数百万具有不同历史、偏好与约束的用户,却缺乏在参数层面区分这些用户的机制。

参数化知识的一个核心局限在于难以进行选择性更新、组合与管理。只要智能体被局限于单轮问答,这些弱点通常尚可管控。随着系统转向长期任务执行——状态在其中不断累积、流程需要可靠遵循、多种工具必须协调配合——在权重内部以模块化方式管理知识、技能与交互规则的困难,在操作层面上变得日益显著。这一转变促使开发者将部分负担转移到下一层架构,而非仅依赖模型参数本身。

上下文层代表了注意力从模型修改转向输入设计的关键阶段。提示工程表明,在不调整权重的情况下,通过少量示例、角色描述、思维链分解以及自我一致性追踪等方式,即可显著改变模型在相同底层任务上的行为表现[Wei et al., 2022, Wang et al., 2023b, Kojima et al., 2022]。随后涌现出更多结构化推理技术:ReAct在单次生成循环中交错进行推理轨迹与工具调用,证明仅通过提示即可产生类智能体行为而无需架构调整[Yao et al., 2023a];思维树方法将思维链推广为对中间推理状态的系统性搜索[Yao et al., 2024];自我优化框架通过多轮提示循环实现迭代式自我批判,展示了模型改进自身输出的能力[Madaan et al., 2023];自动提示优化技术利用模型自身在提示空间中进行搜索,进一步减轻了人工设计负担[Zhou et al., 2023, Pryzant et al., 2023];检索增强生成则通过动态注入外部文档,实现了更为系统化的外部知识整合机制。通过查询时的上下文注入实现 [Lewis等人,2020年;Borgeaud等人,2022年;Ram等人,2023年;Gao等人,2024年]。因此,关注点从模型内部已掌握的知识,转向了围绕每次调用的信息管道。

在这里插入图片描述
图3:受约束LLM智能体的外化架构。约束机制位于中心;三大外化维度——记忆(工作上下文、语义知识、情景经验、个性化记忆)、技能(操作流程、决策启发式、规范约束)与协议(智能体–用户、智能体–智能体、智能体–工具)围绕其运行。沙箱化、可观测性、压缩、评估、审批回路及子智能体编排等操作要素,介导了约束核心与外化模块间的交互作用。

这一阶段使智能体设计获得了极大的灵活性。开发者能够在运行时附加本地指令、领域知识、输出模式及检索证据,而无需进行任何梯度更新。上下文成为了开发者为模型搭建认知的媒介——一个工作平面,可在模型需要使用前即时整合所需信息。在许多实际系统中,迭代优化提示词和检索流程被证明比微调模型成本更低、速度更快。模型可以保持冻结状态,而周围的提示模板、检索逻辑和工具规范则快速演进。

以上下文为核心的阶段亦可通过诺曼的表征转换概念进行解读。一个困难的回忆问题——“模型是否知晓事实X?”——被转化为识别问题:“假设事实X已被置于上下文中,模型能否运用它?”这类似于人类外化进程(图1,上图)中与书写相关的从回忆到识别的转变。模型无需事先记忆答案;仅需在获得相关段落时能够识别并应用即可。在图2中,这一转变对应着上下文层中提示技术、检索增强生成、思维链及相关技术的涌现 Zhang et al. [2024], Ram et al. [2023]。

上下文中心设计也存在重要限制。上下文窗口是有限的,大规模使用时成本高昂,且当塞入大量边缘相关材料时往往嘈杂不堪。过长的提示词可能损害而非提升性能:“中间迷失”现象表明,模型对长输入的注意力分布不均,置于上下文中间的信息其检索准确率会急剧下降[Liu et al., 2024a]。尽管上下文长度已显著扩展——从2K词元增至超过100K甚至更多[Chen et al., 2023, Peng et al., 2024]——但根本矛盾依然存在:容量的增加并未消除对选择性筛选的需求。上下文还具有瞬时性:除非状态被显式外化存储,否则每个新会话都始于部分遗忘状态。随着系统日益复杂,仅靠提示词组装可能成为一种脆弱且临时的控制机制。模型可以获得更多指令,但这并不意味着系统知道如何跨会话保持状态、调度多步骤工作流、协调子代理、从部分故障中恢复或随时间推移执行行为约束。这些局限有助于解释下一步的演进方向。

约束层——图2中最顶部的带状区域及图1(下图)最右侧区域——代表了当前发展阶段,其能力已从即时指令管理扩展至持久性基础设施。随着上下文窗口趋于饱和且提示模板日益繁冗,工程关注点逐渐从“我们应告知模型什么?”转向“模型应在何种环境中运行?”。在成熟的智能体系统中,可靠性日益依赖于外部记忆存储、工具注册库、协议定义、沙箱环境、子智能体编排、压缩流水线、评估器、测试框架及审批闭环等基础设施[Wang et al., 2024a, Li, 2025, Luo et al., 2025, Xi et al., 2023]。

这一转变的早期表现形式虽简单却颇具启示性。诸如Auto-GPT [Richards, 2023]和BabyAGI [Nakajima, 2023]等项目将大语言模型置于包含任务队列、持久化存储和网络访问的循环框架中,表明即使是最简框架也能维持任何单一提示无法实现的持续行为。更具系统性的框架随之迅速涌现:AutoGen将多智能体消息交换机制形式化[Wu et al., 2023];MetaGPT引入了基于角色的协同工作与显式流程规范[Hong et al., 2023];CAMEL探索了面向任务分解的结构化对话机制[Li et al., 2023];Reflexion则实现了跨任务周期的反馈持续性存储[Shinn et al., 2023]。这些系统的共同核心在于:将负担从模型内部转移至外围架构之中。

同样的部署模式如今在各应用领域皆可见到。编程智能体将模型嵌入具备文件系统、命令行、版本控制、测试模块及可复用技能组件的开发框架中,SWE-agent与OpenHands即为典型代表[Yang et al., 2024a, Wang et al., 2024b]。研究与商业智能体则在此基础上增加检索、审批机制、网页浏览及长周期编排流程,例如Deep Research类系统[OpenAI, 2025b, Google, 2024]。具身智能与工作流系统如Voyager、LangGraph、CrewAI及OS-Copilot同样显式实现了控制流、环境访问与功能复用机制[Wang et al., 2023a, LangChain, 2024, CrewAI, 2024, Wu et al., 2024]。其中反复出现的规律是:可靠性问题正日益通过改造运行环境而非单纯依赖提示工程来解决。

如图3所示,约束集成框架包含三大外化类别——记忆、技能与协议,这正好对应其吸收的三大负担类别。记忆系统实现状态在时间维度上的外化,使连续性不再依赖于瞬息即逝的上下文。技能系统将程序性专业知识外化,使复杂工作流得以加载而非重复构建。协议将交互结构外化,使工具与智能体间的协调遵循受约束的契约而非临时指令。这些要素共同构成了约束集成框架:这一持久性基础设施包裹着模型,并将其面临的任务转化为其内部能力可更稳定处理的形式。

在此框架下,“智能体工程”日益呈现出“驾驭工程”的形态。模型仍是核心推理引擎,但已不再是智能的唯一载体。能力分布在塑造模型所见、所记、所调用及被允许执行动作的各项结构之中。

综上所述,从权重到上下文再到约束框架的演进路径,正符合诺曼意义上的外化过程[Norman, 1991]:那些难以在模型内部管理的负担,被逐步转移到模型外部的显性人造物中,模型所面对的任务也随之发生转变。易变的知识从权重迁移至检索系统和运行时上下文,将“回忆”转化为“识别”。可复用的过程从隐性习惯转变为显性技能,将“即兴生成”转化为“结构化组合”。交互规则从临时提示演变为规范协议,将“模糊协调”转化为“受管辖的契约”。而运行时的可靠性则被纳入约束框架的逻辑中,使得约束条件、可观测性和反馈循环得以显式化。

这种重新分配最好被理解为对不匹配的一种回应。大语言模型擅长对提供的信息进行灵活的合成与推理;但在稳定的长期记忆、程序可重复性以及受控的外部系统交互方面则可靠性较低。因此,外部化并非取代模型,而是围绕模型构建了一个更大的认知系统,这一观点与诸如CoALA [Sumers等人,2024年] 等认知架构理论的阐述一致。由此框架直接引申出驾驭模型的三个维度:记忆应对时间连续性,技能应对程序一致性,协议则应对交互的结构性。以下各部分将对此逐一详述。

记忆外部化解决了智能体所面临的时间负担。一个纯粹的模型必须在瞬时的提示中承载连续性、先验经验、用户特定事实以及部分完成的工作。一旦任务跨越会话、分支或中断,这种负担就会变得既不稳定又代价高昂。记忆外部化将其转化为持久状态,能够在模型之外被写入、更新和检索。

在受约束智能体中,记忆不仅是档案库。它提供了可恢复执行检查点、可提炼技能的操作轨迹、影响协议路由的统计数据,以及可供治理机制审查与约束的持久状态。为精确界定这一角色,本节提出三个相互关联的问题:记忆外部化了哪些负担、设计空间如何演化、以及记忆如何与更广泛的约束框架耦合。3.1节阐明哪些状态被外部化;3.2节考察主要架构选择;3.3节转向受约束智能体系统提出的要求;3.4节通过认知制品的视角解读记忆,以此总结本章。

记忆的本质在于将智能体随时间变化的状态与其瞬时上下文解耦。相关内容并非系统中每一个外部工件,而是那些维系连续性的记录:当前任务状态、过往执行经验、抽象化知识以及持久的用户或环境上下文。为在长周期互动中保持行为连贯性,记忆系统必须根据这些记录的时间属性与检索需求进行分类管理。借鉴人类记忆的经典分类体系并将其适配至大语言模型智能体,我们区分出以下四个外部化状态维度:

图4 作为外化状态的记忆系统。来自瞬时上下文窗口和环境反馈的原始信息被转化为四个持久性记忆维度——工作上下文、情景经验、语义知识与个性化记忆。这些维度通过渐进式管理的架构进行组织:单体式上下文、检索存储库、分层编排系统(包含提取、巩固、遗忘及操作系统风格的热/冷交换机制)以及自适应记忆系统(采用动态模块和基于反馈的策略优化,如混合专家模型、强化学习等)。在控制侧,来自技能与协议的执行轨迹流入外化记忆系统,该系统则通过直接检索和精心编排的快照,将任务相关内容反馈至智能体核心。

情节式经验。情节式经验记录了先前运行过程中发生的情况:决策点、工具调用、失败、结果与反思。其价值不仅是存档。检索到的情节可以作为具体先例,帮助智能体避免重蹈覆辙,并为后续抽象提供原始素材。Reflexion 方法通过存储失败尝试中的反思摘要作为可复用的经验,使这一模式得以明确化 [Shinn et al., 2023]。AriGraph 进一步扩展了这一理念,将陌生环境中的局部交互轨迹视为情节记忆,并以此构建更广泛的世界模型 [Anokhin et al., 2024]。

语义知识。语义知识存储着超越任何单一事件的抽象信息:领域事实、通用启发式规则、项目惯例以及稳定的世界知识。与情景记忆不同,它并非围绕特定时间和地点进行组织[Li and Li, 2024, De Brigard et al., 2022]。二者的差异不仅在于粒度,更在于功能。情景记忆记录特定案例中发生的事件;语义记忆则阐述跨案例普遍成立的规律。在当前系统中,知识库与检索增强生成(RAG)语料库是外化语义记忆最常见的形式。长期趋势则更具雄心:智能体正日益尝试从累积的行动轨迹中提炼语义指引,而非仅仅依赖静态的人工编写文档。

个性化记忆。个性化记忆负责追踪特定用户、团队或环境的稳定信息:偏好、习惯、重复性约束以及过往交互记录。此类状态不应与智能体通用的自我改进存储库混淆,因为用户特定的痕迹遵循不同的保留、检索及隐私规则 Xi et al. [2024], Lin et al. [2025a]。近期的系统已明确区分这两者:IFRAgent 通过移动环境中的演示构建用户习惯知识库 [Wu et al., 2025];网页智能体利用外部化配置文件推断隐式偏好 [Cai et al., 2025];而如 VARS 等会话系统则将跨会话偏好卡片存储于独立的用户记忆空间 [Hao et al., 2026]。因此,个性化记忆是使智能体能够随时间自适应、同时避免将长期用户建模与通用任务知识相混淆的关键层级。

这四层并未穷尽智能体后续可能利用的所有内容。重复的程序性规律最初可能以情景痕迹中的模式出现,但当协调机制将其提升为显性的可复用指导原则时,它们就不再属于严格意义上的记忆范畴。此时它们归属于技能层而非记忆层。

综上所述,这些层级表明,记忆并非外化为单一同质的数据库,而是以多重抽象层级承载着连续性的时间负担。工作上下文支持即时恢复,情景记录支持反思与回溯,语义记忆支持抽象与迁移,个性化记忆则支持跨会话的用户与环境适应。记忆系统必须对这些存储进行差异化处理,因为每一部分都改变了模型原本需要在内部重建的不同内容。

当这些层次被外部化时,核心设计问题便在于主动推理与存储状态应在多大程度上进行分离。依照Du [2026a]的分类体系,现有系统可解读为四大架构范式:单体式上下文、带检索存储的上下文、层级化记忆与编排、以及自适应记忆系统。这一演进不仅追求更大的存储容量,更在于为信息的写入、升级、检索、压缩或遗忘制定更明确的策略。

3.2.1 单体化上下文

早期系统依赖于单体上下文设计:所有相关历史记录或其摘要均直接保留在提示中。这种设计具有透明性且易于原型验证,因为无需独立的记忆服务,对于短期任务可能表现出意料之外的良好效果。但其局限是结构性的:容量扩展性差、摘要易出现漂移,且模型必须消耗稀缺的标记资源同时承载历史信息与解决当前步骤。最关键的是,状态随会话结束而消失,因此智能体无法积累持续的经验。

3.2.2 结合检索存储的上下文

主流解决方案是在上下文环境中仅保留近期工作状态,同时将长期记录存储于外部存储器,并根据需求进行检索。这种"上下文加检索存储"模式构成了大多数生产级智能副驾、助手及编程智能体的实用记忆系统基础。它解决了原始容量限制问题,却将记忆质量转化为检索准确性问题。若检索到错误记录,模型会受到干扰;若遗漏正确记录,系统表现如同从未记忆过这些信息。

近期研究从多个方向突破了这一瓶颈。GraphRAG [Edge et al., 2024] 引入了图结构与社区级检索,ENGRAM [Cheng et al., 2026] 将记忆压缩为潜在状态表征,而SYNAPSE [Zheng et al., 2023] 通过在统一的 episodic-semantic 图谱上进行扩散激活来恢复非局部的相关性。这些方法在机制上各有不同,但目标一致:用更适配长程推理任务的表征方式取代扁平的相似性搜索。

3.2.3 层级化记忆与编排

当平面检索被证明不足时,系统会转向分层记忆与编排。其核心思想在于:并非所有记忆痕迹都适用于相同的保留策略或检索路径。Mem0 [Chhikara 等人,2025]、Memory-R1 [Yan 等人,2025b] 和 Mem-α [Wang 等人,2025b] 等框架引入了针对提取、巩固和遗忘的显式操作,从而将记忆转变为受管理的生命周期,而非被动存储。该领域目前主要由两种设计趋势主导:

时空维度上的资源解耦。一个分支借鉴操作系统的逻辑,将记忆视为需要主动管理的受限资源。MemGPT [Packer 等人,2023] 和 MemoryOS [Kang 等人,2025] 将热工作状态与冷长尾存储分离,并根据任务需求的变化在层级间交换信息。其收益是在固定上下文预算下获得更高的有效容量。

认知功能维度上的语义解耦。第二个分支按功能或内容类型组织记忆,使得异构记录不会全部经由同一通道处理。Memory Bank [Zhong 等人,2024] 和 MIRIX [Wang 和 Chen,2025] 分离了事件、用户画像和世界知识;MemOS [Li 等人,2025] 区分了显性记忆与隐性记忆;而 xMemory [Hu 等人,2026] 则构建了主题-事件的层次结构。其目标不仅是清晰的分类,更在于复杂任务条件下实现更精确的检索。

3.2.4 自适应记忆系统

上述架构仍严重依赖于人工设计的启发式方法。自适应记忆系统则更进一步,通过使模块、路由决策或检索策略能够根据经验进行动态响应。两个方向尤为显著:

• 动态模块。部分系统在运行时自适应调整架构本身。MemEvolve [Zhang et al., 2025a] 将记忆生命周期分解为独立的编码、存储、检索和管理模块,这些模块可在执行过程中独立演化。MemVerse [Liu et al., 2025a] 则维护一个短期缓存和一个多模态知识图谱,同时周期性地将碎片化经验提炼为更抽象的知识和轻量级神经组件。

• 基于反馈的策略优化。其他系统保持架构相对固定,但学习更优的控制策略。MemRL [Zhang et al., 2026c] 通过非参数强化学习更新检索行为。Zhang 等人 [2025c] 提出的自适应框架使用混合专家门控机制动态路由查询,而 GAM [Yan et al., 2025a] 则在多轮交互中优化检索条件。

在这些阶段中,主要转变是从存储转向控制。单一上下文解决了存在性问题,检索存储解决了容量问题,层级系统解决了组织问题,而自适应系统则开始解决策略问题。因此,记忆不再是被动依附于提示的附属品。在成熟的智能体中,它已成为控制架构的一部分,决定着模型能够有效依据何种过去采取行动。

随着智能体演进至"驾驭"(Harness)时代,记忆系统已不再仅仅是孤立的存储模块;相反,其正演变为运行环境赖以协调连续性、过程复用与受治理交互的基础载体。核心问题不再仅局限于如何存储更多信息,而在于如何使时序状态能有选择地被规划、执行与恢复循环所解读。

因此,Harness环境要求记忆系统明确区分状态与上下文。在时间跨度极长的任务中,无限制累积会话历史可能导致模型失去对其注意力机制的跟踪。InfiAgent等框架[Yu et al., 2026]提出了以文件为中心的状态抽象,主张将文件系统作为任务状态的唯一权威记录载体——从高层规划到中间变量及工具输出,所有内容都必须实时写入文件中。在每个决策步骤中,智能体不再读取冗长的历史记录,而是读取一份精选的工作空间快照及少量近期操作。这体现了记忆核心表征作用在框架层面的表达方式:并非在提示中保留全部历史,而是将当前状态具体化为模型可操作的形式。

记忆系统还必须与技能系统相结合,但这两个层面发挥着不同的作用。记忆存储着先前执行的证据:轨迹、结果、失败以及用户或任务特定的上下文。技能仅当其中部分证据被提升为明确可复用的程序时才开始形成。相反,每一次技能执行都会产生新的轨迹,这些轨迹必须写回记忆。因此,记忆本身并非程序性指引;它是日后可从中推导出此类指引的证据库。

协议耦合提出了进一步的要求。工具结果、审批、授权事件以及外部状态转换可能通过协议化接口到达,但只有在它们被标准化并写入持久状态后,才会成为记忆。反之,记忆检索可能影响下一步应选择哪条协议路径。在成熟的测试框架中,记忆与协议通过一个受治理的读写循环相互连接,但它们在概念上保持独立:协议管辖交换,而记忆管辖跨时间的持久性。

最终,一旦多个智能体依赖于共同的外部化状态,共享与治理机制便成为强制性要求。为记忆建立读写权限、解决存储事实间的冲突、控制每个智能体对共享知识的访问配额——这些都需要类似于操作系统的底层控制能力。因此,驾驭时代下的记忆最宜被理解为托管状态基础设施:它将时间负担外部化,重塑模型必须在内部记忆的内容,并为驾驭框架的其他部分提供持久运行的底层支撑。

前文各节已对存储系统的内容、架构与Harness集成进行了全面考察。本节将回归理论层面,借鉴诺曼的认知制品理论[Norman, 1993]以及基尔什的互补策略论[Kirsh, 1995],阐释存储外化作为一种表征转换所实现的根本性意义。

现代大型语言模型是无状态的生成器:每次调用都始于全新的上下文,因此连续性必须被重构而非延续。在简短交互中,这一限制可通过提示设计来隐藏;但在长周期任务中,它便成为结构性问题。过往尝试、部分完成的工作、用户特定事实以及环境状态,若要保持全部活跃于上下文中,必然伴随成本增加、信息偏移乃至最终截断。因此,有限模型所面临的原初任务在原理上便难以实现:既要维持实质上无限的历史记录可用,又要对当前上下文进行清晰推理。

记忆外部化改变了该任务的结构。按照诺曼的术语,表征转换将内部回忆问题转化为外部识别与检索问题。模型不再需要从其参数中恢复相关信息;它必须识别并利用记忆系统已经提取出的、经过筛选的历史片段。这与诺曼关于外部列表如何改变记忆性质的分析高度相似:关键点并非额外信息的添加,而是认知任务本身的形式被重组了[诺曼,1991]。同样的转变在第2.2节中已在上下文层面被指出;记忆则将此转变扩展到了跨会话和时间范围上,这是任何单一上下文窗口都无法涵盖的。

这一解读阐明了为何检索质量比原始存储容量更为重要。拥有海量存储但检索能力薄弱的系统,仍然会向模型呈现错误的问题表征:历史虽被保存,但任务未能完成转化。相比之下,容量适中但具备强大索引、摘要和上下文选择能力的存储系统,能显著降低下游推理的难度。因此,衡量记忆系统的成功标准不应是“我们存储了多少?”,而应是“我们是否让当前决策变得清晰可辨?”。

同一视角也阐释了基尔什的"互补策略"概念:智能体提升表现不仅依靠强化内部思考,还可通过重组外部环境,将部分认知工作卸载至其中[Kirsh, 1995]。记忆系统正是沿时间维度实施了这一策略。它并非强制模型在内部承载所有相关状态,而是将持久化存储、时效性管理与相关性过滤外化,同时将语义解读与上下文判断保留给模型。这种分工形成互补:各方皆处理自身最擅长的任务环节。

认知人工物视角同样将常见故障模式解释为表征设计层面的失效,而非单纯的技术实现缺陷。陈旧记忆通过提供过时的问题表征错误地反映当下状态;过度抽象的记忆丢失了当前决策所需的操作细节;抽象不足的记忆则使提示信息被噪声淹没,反而弱化了外部化本应简化的识别任务;被污染或相互冲突的记忆通过将错误前提嵌入检索片段,进而污染后续推理过程。在每种情形中,记忆系统的失败并非由于存储内容过少或过多,而是因其未能将历史转化为可用的当下。

从这个角度看,记忆并不仅仅是为扩展有效上下文而设的工程便利。它是一种认知构件,重塑了智能体面临的时间负担。通过将无界的回忆转化为有界的、经筛选的检索,它改变了模型在每个决策点所面临的任务。正是这种转变,将本节所探讨的架构演进——从单一上下文到自适应系统——与一个根本的设计目标联系起来:在正确的时刻让正确的历史清晰可读,从而使模型固定的推理能力能够用于思考,而非用于记忆。

技能外化旨在解决智能体执行过程中的程序性负担。语言模型可能原则上知晓如何完成任务,但可靠执行仍需要在每次尝试任务时重构工作流程、默认设置和约束条件。这种负担随任务长度、环境特异性以及分支决策数量的增加而加重,并具体表现为执行方差:步骤遗漏、工具使用不稳定以及停止条件不一致。

因此,技能带来的表征转变是从重复合成转向可复用程序。技能系统并非要求模型在每次运行时都从权重或临时提示中重新生成特定任务的知识,而是将这类知识封装成可被发现、加载、修改和组合的显式构件。这并未显著扩展智能体可执行的动作集合,而是将模型在运行时面临的任务从“设计工作流”转变为“选择并执行已有工作流”[Xu and Yan, 2026b, Wang et al., 2026a]。

在受控智能体中,技能位于记忆与行动之间。它们通常根据检索到的状态信息进行选择,通过标准化接口与工具及子智能体绑定,并基于执行轨迹和事后反思进行更新。如第3节所述,记忆将随时间习得的内容外部化;技能则将这种累积经验如何转化为可复用的操作结构进行外部化 [Sumers et al., 2024, Wu and Zhang, 2026]。因此,本章聚焦于三个相互关联的问题:技能外部化了何种认知负担,技能如何重组任务执行过程,以及它们如何在更大的受控框架内变得可操作。

在这里插入图片描述
图5:技能作为外化专业知识。该图描绘了技能通过调用、选择与执行三个阶段的完整生命周期。技能获取展示了程序性知识进入系统的四条途径:由专家编写、从情景记忆与轨迹中提炼、通过环境探索与自我归纳发现,或由现有单元组合而成。技能制品将此类知识封装为操作程序、决策启发式与规范约束,并附有声明能力、前提条件与范围的清单。激活管道通过语义抽象实现基于注册的发现,提供从抽象摘要到完整指南的渐进式呈现,并执行将技能与工具、API、文件、智能体及协议绑定的组合操作。运行时展示活跃上下文与大型语言模型如何执行所选技能,而陈旧性、可移植性限制、上下文依赖性退化及不安全组合等边界条件则制约着其可靠性。

技能外部化关注的是程序性专业知识,而非孤立的操作接口。此处的专业知识指在重复出现的假设和约束条件下执行任务的可复现方法,而非模糊宣称模型“能够”完成某事。由此定义可推导出一个实用边界:工具提供操作,协议规定这些操作的描述与调用方式,而技能则编码了如何运用这些工具执行某类任务。实践中,此类专业知识包含三个相互关联的组成部分:操作流程、决策启发式与规范性约束。三者共同定义了可被外部化框架所提取的、可复用的知识单元。

4.1.1 操作程序

操作流程是任务骨架:将复杂工作分解为步骤、阶段、依赖项与终止条件。它解决了LLM智能体中的一个常见故障模式。许多错误并非源于行动层面的能力不足,而是来自流程层面的不稳定性,例如步骤跳转、操作顺序错乱或提前终止[Hsiao等人, 2025; Nandi等人, 2026]。将流程外部化,可以把这些脆弱的流程知识转化为明确的操作路径。

这一转变深植于LLM推理能力的整体演进脉络:思维链让中间推理过程显性化[Wei等人, 2023];ReAct将推理与行动相结合[Yao等人, 2023a];随后的提示链与编排系统则将重复模式封装成工程化的工作流。这些方法往往缺乏持久性——流程仅存在于当前运行过程中,尚未成为可复用的知识资产。技能系统通过将工作流结构转化为可存储、可修改、可重用的对象,弥合了这一差距[Ye等人, 2025]。

一旦流程被外部化,执行过程便减少了即兴发挥的空间。智能体能够在中断后恢复执行,在不同上下文或协作者之间交接工作,并重建状态而无需完全依靠记忆重构整个工作流程。这一点在长期任务、多智能体及生产环境中尤为重要,因为在这些场景下,流程的稳定性往往比瞬时的流畅性更为关键。

4.1.2 决策启发法

如果流程定义了执行的骨架,那么决策启发式则支配着分支处的走向。现实任务很少像固定流水线那样展开:工具会失效、观察存在噪声、多种局部可行的行动可能相互竞争。在此类条件下,良好表现依赖于从经验中提炼出的实用经验法则,而非仅依靠穷举搜索[Gigerenzer and Gaissmaier, 2011]。

将这些启发式外部化会改变推理精力的分布。系统无需迫使模型在每个决策节点重新发现局部策略,而是可以编码已被验证有效的默认选择、升级规则或偏好排序。这既降低了决策成本,也使行为更加稳定。因此,启发式并非次要的便利工具,而是一种技能捕捉专家风格的主要方式:首先尝试什么、何时退而求其次、何种证据足够充分、以及在多条路径仍可行时首选哪些权衡取舍。

4.1.3 规范性约束

第三个组成部分是规范性约束:即一个流程被视为可接受的条件。一个工作流可能在技术上有效,但仍然不合规、不安全或在操作上存在错误。在实际部署中,执行过程会受到测试要求、范围限制、访问权限、可追溯性预期以及特定领域操作规则的限制[Chen et al., 2021, Bai et al., 2022b, Wei et al., 2023, Schick et al., 2023, Madaan et al., 2023]。一旦这些约束被外化,它们就不再仅仅是事后评估标准,而成为技能本身的一部分。它们可以塑造前提条件、阻断不安全的路径分支、要求中间验证,或是定义在完成前必须生成的证据。正是这一点使得技能不仅能编码如何执行任务,还能编码如何在组织与安全边界内执行任务。在成熟的系统中,这使得技能既是能力的载体,也是治理的载体。

综上所述,操作流程提供结构框架,决策启发式提供局部策略,而规范性约束则界定可接受的边界。一项技能只有在所有这三个要素都得到充分规定,使其能够跨越不同任务、上下文和执行过程而持续有效时,才具备可复用性。这正是技能为何高于行动接口、并与记忆系统并列的原因:它们外化的不是过去的状态,也不是原始的执行原语,而是可重复的任务执行知识。

技能系统并非孤立产生,亦不应与工具使用混为一谈。从历史维度看,技能是两种早期发展的衍生产物:可靠行动调用与大规模行动选择。这些阶段扩展了智能体所能执行行动的范畴,但尚未形成对一类任务应如何反复执行的规范。只有当程序化组织本身成为明确的可复用产物时,技能才真正显现。

4.2.1 阶段一:原子执行原语

第一阶段赋予语言模型可靠的动作执行能力,例如通过结构化工具调用和函数调用接口实现。Toolformer的研究具有代表性,表明模型能够学习何时调用工具、如何构建参数以及如何整合结果[Schick et al., 2023]。此阶段的核心成就是实现了对原子动作单元的稳定调用。但其尚未提供用于完成更广泛任务类别的明确可复用流程。其基本单元是动作原语,而非技能。

4.2.2 第二阶段:大规模基元选择

随着可调用工具数量的增长,问题焦点已从调用转向选择。Gorilla、ToolLLM、ToolNet、ToolScope和AutoTool等研究工作表明,模型能够从大型工具集合中进行检索、排序和动态选择[Patil et al., 2023, Qin et al., 2023, Liu et al., 2024b, 2025b, Zou et al., 2025]。这为实现可扩展的行动选择迈出了重要一步,但其基本单元仍是工具而非流程。即使开始出现多步骤行为,完成某类任务的实践知识仍主要隐式存在于提示或参数中,未能外化为边界清晰的可复用组件。

4.2.3 第三阶段:作为封装专业知识的技能

第三阶段标志着抽象层次的进一步跃迁。核心问题不再局限于模型能否调用函数或检索合适的API,而转向探究完成一类任务所需的专业知识能否被封装成可复用的能力单元。在此阶段,能力的基本单位不再是孤立的工具调用,而是围绕可复用流程指引与执行结构构建的高层构件[Wang et al., 2025c, Chen et al., 2026b]。技能不仅描述"可执行的操作",更通过可复用的流程组织,日益承载"任务应如何执行"的规范化知识[Li et al., 2026c]。

近期研究使这一转变愈发明确。基于程序的技能归纳将基础动作编译为更高层次的可复用技能,表明智能体能力可被表征为可执行的过程抽象,而非一次性调用[Wang et al., 2025c]。在网络环境中,交互轨迹可被提炼为可复用的技能库或技能API,使智能体能够跨任务积累并优化可迁移的实践知识[Zheng et al., 2025a]。在计算机操作场景中,技能进一步被组织为参数化执行与组合图结构,其检索、参数实例化及故障恢复均在技能层面而非单个界面动作层面运行[Chen et al., 2026b]。关于SOP引导智能体的相关研究同样表明,领域专业知识可被外化为显式的过程结构,从而依据领域特定流程指导执行[Ye et al.,

与早期阶段相比,此处关键转变在于表征层面而非单纯操作层面。能力不再主要被视为对工具或API的调用权限,而是日益成为可跨任务加载、复用与组合的封装化程序性知识[Li et al., 2026c; Xu and Yan, 2026b]。在此意义上,第三阶段并非仅使工具使用复杂化,而是标志着一种将智能体能力表征为外化且可复用的程序性技术的范式转向。

技能外化并不仅限于写下指令。在成熟的智能体系统中,关键在于程序性专业知识能否以可发现、可加载、可解释、可绑定且能在运行时执行的形式进行表征。因此,技能外化既涉及表示层,也涉及运行时层。前者决定了技能如何被描述与界定,后者则决定了它能否在任务执行过程中真正作为可复用的能力发挥作用 [Xu and Yan, 2026b]。用控制框架的术语来说,只有当运行时能够决定何时加载技能、将其条件化于何种记忆、以及将其绑定到哪些工具、文件或子智能体时,技能才成为现实。这种绑定要求并不意味着技能等同于工具或协议;它仅表明程序性专业知识最终必须通过可执行的接口得以具象化。

4.3.1 规格说明

技能的外部化始于规约层。典型形式包括SKILL.md文件、指令文件、清单或其他声明式规约制品。这些制品描述了一项技能的功能、适用场景、所依赖的前提条件、必须满足的约束,以及其运行所需的输入输出条件。技能规约更类似于API文档而非API实现。其价值在于将过程性专业知识从一种不透明的内部状态,转化为一个可被检视、讨论、修改和管理的显性对象【Ling et al., 2026】。

一个规范的技能描述应至少涵盖五类信息:能力边界、适用范围、前置条件、执行约束以及正反例证。前两项明确了该技能旨在解决何种类型的问题;随后两项阐明了其可安全使用的时机及运行假设条件;最后一类则通过具体案例锚定预期使用模式,从而减少模型因描述不完整而产生的歧义。通过这种结构化描述,技能得以从非结构化的提示技巧升华为有界能力定义,进而为技能发现、加载、版本控制与治理提供基础框架。

4.3.2 研究发现

一旦技能成为显性构件,便自然引出了注册与发现问题。在实际应用中,智能体不可能为每项任务 indiscriminately 加载所有可用技能。因此,它需要某种形式的注册与发现机制来支持选择性检索。技能既可发布至本地仓库、组织级注册中心,也可发布于平台级市场;而智能体则依据任务目标、上下文状态及环境条件,搜索相关候选技能 [Zheng et al., 2025a]。

这一发现过程可能依赖于语义检索、结构化元数据、任务分解或这些策略的组合,具体取决于系统设计。关键在于,系统并非仅仅询问可以调用哪个工具,而是在探究哪种程序性专业知识单元适用于当前问题。这使得技能发现成为一个更高层面的匹配问题:它不仅需要考虑主题相似性,还必须考量任务复杂性、环境假设、操作约束及风险条件。因此,一项技能被检索不应仅因其关键词与任务描述重叠,而应基于其真正适应当前任务的语义结构与操作结构[Ross et al., 2025]。若技能仅被存储而无法在现实任务条件下被有效检索,则技能外化过程是不完整的。

4.3.3 渐进式披露

某项技能的发现并不意味着其全部内容应立即注入当前活动上下文。由于长上下文并不能可靠地转化为更好的性能,详细的指令反而可能成为推理噪声的来源而非指导依据。因此,现有技能系统通常采用渐进式披露策略:首先暴露技能的存在性,仅在需要时加载更深层的细节[Xu and Yan, 2026b]。

在当前工业实现中,这通常采用分层形式。在最简层级上,模型仅看到技能名称及简要描述,这足以表明该能力的存在。更深层级可能公开类清单信息,如适用条件、必要先决条件和主要约束。只有在最深层级,系统才会加载完整指南,包括详细流程、异常处理、示例及支持文件。这种分阶段加载的目的并非单纯压缩文档,更根本的是将"是否需要更多技能细节"这一问题本身转变为运行时决策。如此一来,技能的信息密度可与当前任务的复杂性相匹配,而非从一开始就用不必要的细节充斥上下文。这种设计在当前工业化的技能实现中尤为明显,例如Claude Code的技能系统[Anthropic, 2025]。

4.3.4 执行绑定

一项技能若未与可执行动作相关联,便仍停留在认知层面的描述。因此,实际任务的完成依赖于一个绑定过程,该过程将技能的自然语言或结构化规范转化为当前环境中的具体操作。正是在这一点上,技能、工具与规程之间的区别得以明晰。

一项技能本身通常并非动作执行器,而必须绑定到更低层级的运行时基底,例如工具、文件、API、子代理、协议端点或其他执行接口。一项技能可能要求代理搜索相关代码、运行测试并总结产生的差异,但这些动作本身是由搜索工具、文件操作、shell命令和测试运行器来执行的。因此,工具提供可执行的操作;协议规范这些操作的描述和调用方式;而技能则提供将这些操作组合成可重复任务完成的高层级策略。

这种绑定通常需要一个中间解释层,用以在当下上下文中判断:应激活哪些技能步骤、绑定哪些基础操作单元、何种条件应触发分支转换、以及哪些约束条件应具有优先权。若无此类解释与绑定过程,技能极易沦为静态的实体——原则上可被解读,实践中却难以应用。更广泛而言,基于模式(schema-based)的接口(例如MCP [Anthropic, 2024])通过使各项能力可被发现和调用,同时避免将技能简化为工具或协议本身,从而为这类运行时绑定层提供了支持。

4.3.5 成分

技能系统的价值在技能可组合时才得到最充分的实现。与原子化工具不同,技能能够参与更高层级的结构化协调,使得复杂任务可被分解为多个能力包的协作。常见的组合模式包括串行执行、并行分工、条件路由以及子技能在高层技能内的递归调用[Wang et al., 2023a]。

这种可组合性意味着,技能不仅是供模型使用的文档,更是智能体架构内部可调度的运行时单元。更重要的是,组合并非仅仅是多个程序片段的简单拼接,而是对程序性专业知识本身更高层级的复用。例如,生成数据分析报告的技能无需实现为一个端到端的单一过程,而是可以组织为数据清洗、统计分析、可视化与叙事合成等多个小型技能的协调组合。如此一来,系统不仅能获得更强的任务执行能力,还能实现更好的可维护性、可替换性与可审计性。因此,组合标志着技能真正成为一个能力层,而非孤立操作步骤的集合[Yu et al., 2025]。

总体而言,技能外化不应被简单理解为发布静态的指令文件。它是一个协调的过程,包括将程序性专业知识进行规范说明、使其可被检索、选择性披露、绑定至可执行载体,并组合成更大的能力结构。关键不仅在于技能能否被书面记录,更在于它能否作为可操作的行为单元可靠地进入智能体的运行时环境,并与检索到的状态及协议化接口实现互操作。因此,技能的外化标志着智能体系统从非正式的提示方式,转向了一个更明确的能力层。

技能体系的重要性不仅在于它能存储预设指令,更在于它为将成功行为转化为可复用专业知识提供了路径。因此,技能获取更适合被理解为一个进化过程:在此过程中,程序性知识随时间推移被撰写、提取、发现并重组【Xu and Yan, 2026b】。

人工编写。手动编写技能文档仍然是当前系统中技能输入最常见且最稳定的途径。无论是SKILL.md、AGENTS.md、项目级指令文件,还是组织级的SOP模板,这些成果物都属于人类设计的程序化能力包实例。其重要性不仅在于提供初始能力,更在于支持迭代修订。当智能体在部署中反复出现某种故障模式时,工程师可以更新相应技能文档,使观察到的故障转化为清晰的执行流程或新增的约束条件。如此,经编写的技能文档便不仅是描述性的记录。它更作为实践接口,通过它,运行经验得以逐步转化为可复用的行为结构 [Ling et al., 2026]。

蒸馏。技能亦可以从历史轨迹、实践痕迹或其他存储经验中归纳得出。片段式记录保存了智能体先前的行为以及轨迹成功或失败的原因。当某些成功的结构在不同任务中反复出现时,系统可将这些模式抽象为更稳定的程序化单元。就此意义而言,记忆保存了经验,而技能归纳则从中提取出可复用的结构。当该过程被界定为从交互痕迹中进行归纳,而非笼统地宣称记忆会自动转化为技能时,现有证据对此提供了最直接的支持。例如,技能集优化方法从具有奖励的子轨迹中提取可迁移技能[Nottingham et al., 2024]。在记忆管理场景中,MemSkill进一步表明,某些记忆操作本身亦可被重新定义为可学习、可进化的技能[Zhang et al., 2026a]。

发现。除人工编写与事后蒸馏外,智能体亦可通过环境交互自主发现新技能。Voyager在《我的世界》环境中提供了一个具有影响力的范例,其中探索、执行反馈、自我验证与课程驱动的任务选择共同构建了一个持续增长的可执行代码技能库[Wang et al., 2023a]。最新研究表明,此类发现过程亦可导向泛化能力提升。例如,PolySkill通过将抽象目标与具体实现分离,提升了技能复用效率[Yu et al., 2025]。当智能体能够识别反复成功的行为模式并将其提升为显式技能时,技能库便不仅是存储层,更成为能力增长的驱动机制。

组合。最后,技能可通过组合实现演进。许多高层级能力并非凭空创造,而是由现有低层级或中层级技能组合而成。诸如报告生成或代码修复这类复杂工作流,可能源自多个小型能力反复协调配合的涌现。此处的组合不仅作为执行策略具有重要意义,同时也是能力习得机制。当特定现有技能组合被反复验证有效后,该组合本身就能封装为新的高层级技能。通过这种方式,组合生成了新的可复用单元,并逐渐形成层次化的技能体系,而非扁平化的孤立能力列表[Wang et al., 2025c]。

总体而言,技能习得并非一次性的设计步骤,而是一个持续进行的过程,包括编写、提取、发现和重组程序性知识。因此,一个成熟的技能系统,其定义不在于存储了多少指令,而在于它如何有效地将经验转化为可重用的、外化的专业知识。在一个受控智能体中,这一进化循环本身被系统化了:记忆提供证据,评估器决定哪些值得提升,而协议化的执行表面则判定一项候选技能是否真能被部署。

技能外化提升了复用性和可管理性,但并不能保证可靠性。一旦程序性专业知识以外化的显性制品形式存在,其有效性将取决于该制品与任务、环境及运行场景的匹配程度。实践中,主要的边界条件涉及语义对齐、可移植性与时效性、不安全组合以及上下文依赖性退化。

语义对齐。技能规范以自然语言或轻量化结构化形式表达意图与指导,而实际执行依赖于具体工具、API和环境约束。因此,模型可能遵循技能的字面表述,却仍偏离任务的实际目标。现有研究表明,技能的有效性高度依赖于任务意图、技能描述与调用决策之间的对齐关系。SkillProbe指出语义行为不一致是现有技能市场的根本缺陷[Guo等人,2026]。工具使用决策的相关研究同样表明,关键难点往往不仅在于外部能力是否可被调用,更在于根据当前对任务的理解是否应当调用该能力[Ross等人,2025]。这表明外化技能仍然对描述与使用之间的错配高度敏感。

可移植性与陈旧性。即使某项技能在内部具有一致性,也不能假定其在跨环境时的有效性。网站、API、依赖项、工作流程或运行时约定的变更,可能使曾经有效的技能部分产生误导或完全过时。更广泛地说,智能体框架、工具底层和基础模型之间的异构性,意味着同一技能在不同环境下可能无法保持一致性表现。程序化技能的研究已表明,某些习得的技能可以跨网站迁移,而不兼容的技能则必须更新以适应环境变化 [Wang et al., 2025c]。SkillsBench进一步指出,技能的效用会因领域和模型-智能体配置的不同而存在显著差异 [Li et al., 2026c]。更广泛的启示在于,技能的可移植性最好被视为一种有条件的经验属性,而非外化过程固有的特征。

不安全的组合。组合使技能更强大,但也带来了新的风险。单独看似无害的技能在组合时可能产生不安全的交互,尤其是当它们捆绑了长格式指令、可执行脚本和外部依赖时。在这种情况下,问题并不局限于单个技能构件,而是产生于多个构件及连接它们的接口之间的相互作用。这是目前已获得直接证据的边界条件之一。针对公共技能生态系统的大规模实证研究报告了高比例的漏洞,包括提示注入、数据窃取、权限提升和供应链风险[Liu et al., 2026]。攻击导向的研究进一步表明,技能文件本身可能成为当前智能体现实的提示注入攻击面[Wang et al., 2026c]。因此,技能组合应被视为一个安全敏感的过程,而非纯粹良性的模块化复用形式。

上下文依赖性退化。另一个难点在于技能的执行可能随着长时间交互而逐渐劣化。即使技能文件已完成更新,智能体仍可能因残留的会话上下文、缓存的摘要信息或先前强化的行动模式而持续遵循过时的操作逻辑。与此同时,若向上下文中注入过多局部流程细节,详细的技能指南反而可能干扰全局任务跟踪。在此类场景中,模型可能精细执行指令却忽视真正的成功条件。虽然针对这些效应的直接技能证据仍然有限,但关于多轮次漂移、长周期可靠性及长上下文推理的相关研究强烈表明,这些都是现实的边界条件[Lee, 2026]。因此,技能加载不应仅被视为检索问题,更应作为上下文分配与执行稳定性的综合课题来处理。

综上所述,这些边界条件表明,技能并非一旦编写完成即保持稳定的自足模块。其有效性取决于与任务、环境、运行时条件及安全约束的持续适配。因此,技能不应被视为孤立的制品,而应被视为嵌入在更广泛工程框架中的组成部分。这正是技能设计最终超越制品本身、指向治理工程的根本原因。

上述边界条件表明,技能不能作为独立构件进行评估。其可靠性取决于它们如何被置于运行系统中。本节将探讨技能嵌入运行框架后如何变得可操作,重点分析其与记忆系统、协议规范及运行时治理机制之间的耦合关系。

基于记忆的条件化。技能的选取与参数配置依据检索到的状态进行。执行框架会查询记忆以获取任务历史、先前结果、用户特定上下文及环境约束,随后利用这些证据决定加载何种技能、实例化哪些参数以及优先选择哪些分支。若无此条件化循环,技能选择将退化为针对任务描述的关键词匹配。而有了它,同一技能可根据智能体先前所学内容进行差异化应用。因此,记忆提供了上下文证据,使技能选择具有上下文针对性,而非通用化。

通过协议实现绑定。一项技能一旦被选定,必须基于可执行操作进行落地。该落地过程需经过协议化接口:工具模式、子代理委托契约、文件操作及审批工作流。执行框架通过解析当前可用协议端点、检查权限并将技能步骤路由至相应执行基座来协调此绑定过程。因此,技能与协议构成互补关系:技能规定应执行的内容;协议则规定如何描述、调用及管控由此产生的操作。

运行时治理。在生产环境中,执行框架还会对技能执行施加治理控制。这包括敏感操作前的权限检查、高风险步骤的审批关卡、记录哪些技能被加载及其产生操作的审计日志,以及在多步骤流程中途执行失败时的回滚机制。这些控制并非技能构件本身的组成部分,而是技能运行所依托的执行框架环境的属性。一个在沙箱化开发环境中安全有效的技能,在生产部署时可能需要额外的约束条件,而执行框架正是强制执行这些约束的层级。

生命周期反馈。最后,该框架在技能执行与技能演化之间形成了闭环。执行轨迹、成功率、故障模式及用户修正都会被写回记忆库。随着时间的推移,这些证据可能触发技能修订、弃用或新候选技能的启用。因此,该框架不仅承载技能,更提供了技能得以改进的反馈基础设施。这一闭环将技能获取(第4.4节)与运行时操作相连接:已编写或已发现的技能进入框架,框架管理其执行过程,而执行结果则反馈至证据库,未来的技能正是从这一证据库中衍生而来。

下述阐释主要基于理论推演而非直接实证。其借鉴认知人工制品的经典研究,旨在解释外部化技能何以能优化程序性专长的组织方式,而非主张这些理论最初是为大型语言模型智能体所构建的。

从诺曼认知人工物理论的视角看,技能系统可被理解为能力组织维度上的一种表征转换[Norman, 1993]。若无外部化技能,模型在执行任务时须反复从内部参数中重构程序性知识;而拥有技能后,部分程序性负担便转移至明确的外部表征中,该表征可被加载、检视与遵循。这将任务执行从基于不稳定的隐性程序回忆,转向更稳定的识别适用指引并依其行动的过程。就此而言,技能文件的作用与诺曼对外部清单如何改变记忆性质的分析高度相似。关键并非仅在于额外信息的添加,而在于认知任务本身的形式已被重组。

此次重组之所以重要,是因为它改变了模型在推理时必须执行的操作。当缺乏某项技能时,模型必须在当前上下文的压力下,从其参数中概率性地恢复出合适的执行方式。而一旦该技能被外化,其程序性结构便已作为环境中的一个对象存在。模型的负担随之转向解释当前情境、判断技能是否适用、遵循相关指引以及处理局部异常。因此,程序性知识不再需要在每次运行时从头重构,它转变为可直接操作的外部对象[Li et al., 2026c; Xu and Yan, 2026b]。

这一解读也与基尔什的互补策略概念相一致。根据该概念,智能体提升表现不仅依靠内部更努力的思考,也通过重组外部环境,将部分认知工作卸载至其中[Kirsh, 1995]。大语言模型在稳定、可重复地再现冗长的多步骤程序方面通常并不特别可靠。相同的提示在不同运行中可能产生不同的步骤分解、分支决策或停止条件。相比之下,它们在理解显式指导、将其与当前上下文匹配,以及在既定约束下局部调整执行方面则相对更优。因此,一项技能可被理解为一种工程化的互补策略。它将程序定义、约束及部分**实践外化至一个制品中,而将解释、上下文匹配和异常处理留给模型本身。

一项技能并非单纯向系统添加更多信息。它改变了能力组织的方式。程序性专业知识从难以审察的黑盒参数空间转移至可检查、可修订、可组合的外部结构中。因此,技能的重要性不仅在于工程便利性,更在于对专业知识存储位置及其复用方式的深层重构。由此观之,技能不应简单理解为提示词或工具封装,而应视为在智能体系统中组织程序性能力的认知载体。在系统尺度上,技能通过将重复的工作流创造转化为运行时控制下的选择、加载与组合,从而外化了程序性负担。

协议外化了智能体的交互负担。一个基础模型可以推断应调用工具、委托子代理或向用户显示响应,但若无明确契约,其还必须临时设计消息格式、参数结构、生命周期语义、权限及恢复行为。这种负担使得每个外部动作都沦为脆弱的即时指令遵循练习。

在框架内部,该协议层是交互行为变得可治理的场所。它协调工具的发现方式、子代理的联络机制、面向用户状态的暴露方法、会话进度的呈现形式,以及权限与故障的执行机制。因此,协议并非记忆存储单元,亦非技能描述文件:它规定了状态、请求和动作跨越系统边界的交互契约。本节将依次探讨:协议将哪些交互负担外部化、外部化的意义、当前协议体系的组织结构、协议在框架内部的运作机制,以及如何通过认知人工物的视角理解由此产生的转变。第5节阐明被外部化的交互内容;第5.1节论述外部化的优势;第5.2节综述协议族系;第5.3节考察框架层级的集成;第5.4节则以认知人工物阐释作为本章结语。

若记忆外部化时间状态、技能外部化程序性专长,则协议外部化着智能体与外部实体交换信息及行为的治理契约。其表征方式从自由形式的交际推理转向结构化交换。协议并非要求模型在运行时自行构建交互的语法与语义,而是提供类型化接口、状态转换及机器可读的约束框架,供模型填充与遵循。在此意义上,协议不仅加速了通信过程,更将任务性质从临时接口协商转变为在显式契约框架内的规范化运作。

更具体而言,协议的外部化能力可沿四个维度进行组织:

调用语法。每次工具调用、API请求或委托消息都需要明确的格式规范:参数名称、类型、顺序以及返回结构。若缺乏协议,模型必须在每次调用时推断或重新构建此语法。而协议将其外部化为模式化定义与类型化接口,使模型仅需填充字段而无需猜测语法结构。

生命周期语义。多步骤交互需要协调:下一步由谁执行、允许哪些状态转换、任务何时完成或失败。协议将这些顺序规则外化为显式状态机或事件流,从而将其从模型的推理负担中移除。

权限与信任边界。现实世界中的智能体行为受限于授权对象、数据流动范围以及必须提供的证据。协议将这些约束外化为可检查的规则,由运行时系统强制执行,而非依赖模型自我约束。

发现元数据。在智能体与工具或其他智能体交互前,必须了解可用功能及其访问方式。协议将这种发现问题外化为注册表、能力卡片和模式端点,用可查询的元数据替代隐含在提示中的知识。

这四个维度并非相互独立——单个协议可能同时涵盖多个维度——但它们明确了被外部化的范围。工具对外暴露操作;技能编码了如何利用这些操作来执行各类任务;协议则规定了交互语法、生命周期、权限及发现机制,通过这套体系,操作与技能得以跨越系统边界执行。

在这里插入图片描述
图6:协议作为外化的互动形式。上部图板:智能体交互的演化轨迹——从有限模型间通信的孤立模型调用,经过硬编码API连接,发展到提供统一交互、任务分配、工具集成与安全访问的标准化协议,最终迈向去中心化、网络化的智能体网络。下部图板:该框架通过三个功能层面实现外化的交互管理:交互层(与外部API、工具及环境对接)、感知层(对环境、上下文、记忆与反馈的感知)以及协作层(与其他大语言模型、智能体及人类进行协作)。

智能体协议的重要性直接源于其外部化负担的特性:若无此类协议,每次交互都将在格式、合法性与协调方式上部分成为推断问题。其优势最易从三个维度得以呈现。

统一交互标准。协议为工具、代理和前端的发现、调用、移交和状态交换提供了一套共享语法。若缺乏这一层,生态将分裂为众多局限于本地、难以跨运行时移植的提示解析集成方案[Yang et al., 2025a]。标准化交互使互操作性成为设计属性而非侥幸产物[Ehtesham et al., 2025a]。它也是稳定多智能体协作的前提,因为委托与上下文传递必须先建立公共表征才能实现自动化。

提升安全性、治理与可审计性。当代理在真实环境中运行时,问题不仅在于其能否执行行动,更在于这些行动是否始终受约束、可检查且可恢复[Phiri, 2025]。协议通过明确权限、身份、执行轨迹、故障状态与责任边界提供助力。这将原本隐式的胶合逻辑转化为运行时可验证、操作者可审计的对象。

降低供应商依赖。开放的交互合约同时保持了架构灵活性。若系统在协议层而非供应商特定接口内积累能力,则模型、供应商和运行时组件能以更低的改造成本进行替换。因此,协议不仅是工程便利措施,更是智能体生态系统保持长期可移植性与可演进性的内在机制[Yang et al., 2025a]。

在本节中,我们根据协议设计交互对象的不同,将社区流行的智能体协议归类为智能体-工具、智能体-智能体、智能体-用户及其他协议族,并简要介绍每类中几种具有代表性且常用的协议。本综述的目的并非罗列所有新兴标准,而是为了表明:当代协议将不同层面的交互负担进行了外部化处理——有些协议稳定了工具调用,有些稳定了智能体间的委托协作,有些稳定了智能体与用户的交互边界,还有些则专注于管理高风险垂直领域的工作流程。

5.2.1 智能体-工具交互协议

智能体-工具协议是最早成熟的协议家族之一,因为工具接入是接口碎片化最先显现的领域。MCP [Anthropic, 2024] 是其最清晰的代表。该协议为智能体提供了一种标准化方式,使其能够跨异构服务发现工具、检查工具模式并调用工具。它所要解决的问题十分明确:若缺乏共享契约,每个新工具都需要定制化的集成逻辑、重复的模式定义以及针对特定提供商的适配工作。

与相邻层级的边界至关重要。MCP及相关协议规定了工具的描述和调用方式;但并未规定应遵循何种多步骤流程来使用这些工具,也不会在生成结果后自行保存跨会话的认知信息。这些职能分别由技能模块与记忆模块承担。

从架构角度看,MCP将工具访问转变为基于协议的集成,而非逐接口的工程实现。服务器通过通用结构(通常基于JSONRPC 2.0协议)暴露工具与上下文资源,客户端则依据该共享规范执行服务发现与调用。这种设计将工具生态系统与特定模型供应商的函数调用格式解耦,降低了新增功能能力的成本。其实际收益显而易见:动态能力发现、复杂外部系统的标准化访问、结构化请求/响应交换机制以及模块化可扩展性。

同样的分离机制也提升了治理效能。由于调用过程通过协议层进行中介,而非以不受约束的模型生成调用的形式直接发出,敏感数据处理、权限检查和审计边界得以更明确地管理。ToolUniverse及相关系统通过更专业化的工具模式和交互规范扩展了这一逻辑[Gao et al., 2025b,a]。其核心观点在于:智能体-工具协议将调用语法外部化,使得工具使用变得可移植、可审查、可扩展,而非定制化适配器的简单堆叠。

5.2.2 智能体间通信协议

一旦多个智能体展开协作,交互行为本身便成为一个系统性问题。智能体间协议定义了能力发现机制、任务委派方式、进展与部分状态的交换流程,以及结果如何返回至调用方。此类协议将协调逻辑显式化,避免了其隐没于提示词约定或特定框架的粘合代码之中。

A2A [Google, 2025a]是当前最引人注目的范例。它通过“智能体卡片”等组件标准化了能力发现,并支持异构智能体之间进行任务导向的通信、状态更新、协商和进度流式传输。其重要性不仅在于智能体可以相互传递消息,更在于它使任务委托变得结构化:调用方能够发现其他智能体所提供的功能,在已知契约下移交任务,并在不依赖硬编码假设的情况下追踪执行状态。

其他协议做出了不同的权衡。ACP [IBM Research, 2025] 强调通过熟悉的REST/HTTP模式实现轻量级应用,适用于与现有服务的兼容性比丰富的协商能力更为重要的场景。ANP [Chang等人,2025] 则朝着相反方向推进,其目标是实现开放、互联网规模的互操作性,支持去中心化身份、跨域发现以及安全的端到端通信。

综上所述,这些协议表明多智能体系统不仅需要消息传输,更需要标准化的委托、身份、状态与移交语义。正是这种标准化使得协调机制得以从局部编排扩展至开放的智能体生态系统[Yang et al., 2025a, Ehtesham et al., 2025b]。

5.2.3 智能体-用户协议

智能体-用户协议形式化地界定了智能体运行时系统与面向用户系统之间的边界。该协议解决的核心问题不同于工具协议或智能体间协议:其焦点不在于如何远程执行操作,而在于如何将执行状态、输出结果及界面结构暴露给人类用户,并以前端系统可呈现、用户可理解的形式进行表达[Google, 2025b, CopilotKit, 2025]。

A2UI [Google, 2025b] 代表了界面生成分支。它允许智能体以一种受限的声明式格式描述用户界面结构,宿主应用程序可凭此安全地跨平台进行渲染。该协议的重要性在于,它将界面构建本身视为受管控的产出,而非任意的类HTML文本。

AG-UI [CopilotKit, 2025] 代表了流式状态分支。它将类型化执行事件(如运行开始、文本生成、工具调用参数、工具调用结果、完成和错误)进行了标准化。前端可以订阅该事件流并渲染运行时状态,而无需学习每个框架的私有事件格式。

这两个方向互为补充。A2UI外化了界面组合过程;AG-UI则外化了支撑该界面的实时状态转换。二者共同揭示了协议化如何使人类-智能体交互在不同宿主间更具可观测性、可复用性和可移植性。

5.2.4 其他协议

除了通用交互框架,部分协议还针对高风险垂直工作流——这些场景需要超越通用接口的能力。UCP [Google, 2026] 在智能体商务领域实现了这一目标,它通过标准化商品目录、请求与结算流程,使得智能体、商户与支付服务商无需为每个商店定制集成即可实现互操作。AP2 [Google Cloud, 2025b] 则专注于支付领域,着重规范授权、签名、可审计性及可承载验证信息的交易对象(如意图授权、支付授权与支付凭据),实现了类似目标。

这些域协议之所以重要,是因为它们不仅外化了通用通信,更外化了特定工作流的治理机制。在购物、支付、身份验证或合规等垂直场景中,协议必须明确规定授权对象、需提供的证据类型,以及责任在流程中如何追踪[UCP Documentation, 2026]。所有协议族的共同模式在于,它们使协调问题显性化。工具协议外化调用语法,智能体间协议外化委托机制,智能体-用户协议外化呈现与状态流传输,而域协议则外化专业领域的治理规则。

若上述调查展示了生态系统中哪些交互负担被外部化,那么"Harness工程"则揭示了这些协议接口如何成为运行中智能体的一部分。问题不再仅限于智能体应如何与其他实体通信,而在于一旦智能体嵌入运行时,这些通信契约如何规管执行、持久化、委托与故障恢复机制。

传统LLM流水线依赖于模型自行推断格式、记忆近期交互状态并猜测外部操作应如何构建。这对于简短、松散耦合的请求或许足够,但当任务涉及多个步骤、工具、智能体或审批边界时,这种模式便会失效。Harness Engineering将这一负担外部化为协议层:模型输出被捕获为结构化意图,经过权限与生命周期状态验证,通过类型化接口路由,并作为受治理的事件(而非自由形式的猜测)反馈回运行时系统。

5.3.1 意图捕获与规范化

意图捕获与规范化是该体系的首个界面层。该层的任务是将模型生成的自然语言转化为运行时能够验证和执行显式指令或事件。若无此层,执行语义将保持隐式状态:系统需推测模型意图,细微的语言差异可能导致巨大的操作偏差。

因此,成熟的执行框架会在运行前对意图进行规范化处理:将自由文本提案映射为协议对象,依据当前上下文和权限边界进行校验,若不符合约定则拒绝或修正提案。此举并非取代模型决策,而是将交互中的脆弱环节从隐性推断转移至可审查的接口。由此实现长期执行过程中的更高可靠性、更强治理能力,以及跨工具、智能体与用户间更清晰的任务交接。

5.3.2 能力发现与工具描述

能力发现与工具描述构成了第二层交互面。在旧有系统中,可用工具的知识往往部分存在于提示词中,部分依赖于开发者的预设。协议化发现机制通过明确的元数据取代了这种模式。在会话启动或阶段转换时,运行时会通过标准化消息暴露当前可用的工具、其模式定义以及输入/输出结构。

这种转变产生双重效应:一方面,它减少了上下文膨胀,因为模型无需在提示词中携带所有工具契约;另一方面,它使能力边界变得可管控,因为权限控制、版本管理与审计功能可基于结构化元数据实施,而非从模型行为中推断。换言之,智能体不再需要猜测可调用的功能,而是开始读取已声明的能力交互面。

5.3.3 会话与生命周期管理

利用协议还需要明确的会话与生命周期管理,因为长周期智能体并非以孤立的单次调用方式运作(Chai et al. [2025])。运行时必须在多轮对话、上下文窗口和执行阶段之间保持交互状态。这里所保存的并非完整意义上的持久记忆,而是协议状态:标识符、角色、待执行操作、阶段转换以及允许的后续动作。因此,大多数长期运行系统将一次执行视作具有命名状态和转换规则的生命周期对象。协议层推进该对象的状态、发出状态变更信号,并协调检查点或恢复事件。当输出或检查点被写入持久存储时,它们便成为记忆。这里的区别至关重要:协议维持交互的连续性;记忆维持跨时间的连续性。

前文已探讨了智能体协议的内容、发展概况及其与运行框架的集成。本章最后一节将沿用前几章分析记忆与技能时采用的认知人造物框架,将协议的外部化阐释为一种表征转换。

依照诺曼的术语体系,认知人造物通过改变任务的表征结构来实现任务转换[诺曼,1993]。协议正是为交互行为实现了这种转换。若无协议,每个外部动作都需部分转化为自然语言推理问题:模型必须推断预期操作、猜测正确格式、重构可接受的约束条件,并期望接收系统能正确解读结果。协议将这种开放式的推理过程转化为边界明确、结构化的任务:填充类型化字段、遵循声明的状态转换、接收结构化反馈。模型仍需判断是否采取行动及何时行动,但不再需要在每个步骤重新构建交互的语法与语义体系。

这是智能体系统中最强大的外化形式之一,因为它将整类推理从关键路径中移除。这种转变类似于内存为时序状态带来的变化(第3.4节)以及技能为程序性知识带来的变化(第4.7节),但其作用维度不同:它关注的不是记忆什么或如何执行,而是如何沟通与协调。标准化协议减少了必须在模型内部做出的决策数量,使正确交互更容易实现而错误交互更难发生——这正是诺曼框架所预测的,当外部表征与任务高度匹配时会出现的结果。

基尔什关于互补策略的论述提供了进一步的清晰解释[Kirsh, 1995]。大语言模型擅长解读意图、在选项间做出选择以及适应上下文,但在不同接口要求下持续生成结构良好的输出方面并不可靠。协议实现了互补性分工:模型贡献判断与意图,而协议表层则贡献格式、验证和生命周期控制。两者单独均不充分;唯有结合,才能产生既灵活又规范的交互。

这一阐释也解释了为何协议能发挥不可被简化为记忆或技能的独特作用。记忆将长期习得的内容外部化;技能将任务执行方式外部化;协议则通过规范使记忆与技能作为受管控的行动进入世界时,其纪律性得以外部化。记忆需要受管控的读写路径;技能需要可绑定的接口;二者都依赖协议以可检视、可审计、可恢复的形式跨越系统边界。因此,协议并非围绕“真正”智能核心的次要管道,而是用于交互的认知载体——是使其他形式的外部化智能得以运作的表征性基础设施。

图7提供了整体框架概览:基础模型位于中心,外围由六大约束维度环绕,共同将外化认知协调为连贯的能动机体。其中三个维度——记忆、技能与协议——是前文章节(第3-5节)所分析的外化模块。其余三个维度——许可、控制与可观测性——则是运行时用于管理这些模块的访问、约束与监控的操作界面。本章将这三个界面进一步解构为六个更细粒度的分析维度,共同刻画约束系统的设计特征。先前各章节结尾均指出,各模块唯有嵌入更广泛的运行时环境才能完全运作。第3.3、4.6与5.3节分别从各模块视角提出了具体的约束需求。本章将这些线索整合统一,核心探讨:需要何种系统才能将外化记忆、技能与协议组合成连贯的能动机体,以及如何从分析层面理解该系统的设计逻辑。

在这里插入图片描述
图7 认知环境中的治理框架。基础模型(智能体核心)位于中心;六个治理维度围绕其形成协调环。三个外化模块——记忆(状态持久化、故障记录、跨会话上下文)、技能(可复用例程、分级加载、故障驱动修订)与协议(确定性接口、结构化调用、模式契约)——提供外化的认知内容。三个操作层面——权限(沙箱隔离、文件系统隔离、网络限制)、控制(递归边界、成本上限、超时机制)与可观测性(结构化日志、执行追踪、聚合度量)——在运行时管理对这些内容的访问、约束与监控。箭头表示治理环内各维度间的持续信息流。

核心论点是:认知架构并不仅仅是叠加在强大模型之上的一种实现便利。它是一个经过设计的认知环境,正是在此环境中,外化模块得以协同生效。这一框架构成本章的论述脉络:6.1 节界定了认知架构概念,并将其置于前几章模块级分析的背景中;6.2 节梳理了认知架构设计所沿循的若干核心分析维度;6.3 节考察了这些维度在当代智能体系统中的具体呈现;6.4 节通过分布式认知与认知人工物理论视角。将认知架构阐释为一种认知环境,为本章作结。

逐模块实施的外部化虽能提升局部能力,但主体性需要全局协同。记忆持续积累经验却未指明哪些轨迹对当前任务具有显著性。技能封装了高效例程但不会自动吸纳过往互动的经验教训。协议规范了调用格式却未规定工具应在何时、依据何种策略被调用。各模块已然存在,但使它们协同生效的认知循环仍缺乏明确界定。缺失的正是随时间推移协调各模块互动的原则性结构——将感知、记忆存取、行动选择、执行、监控与修正统一于单一运行框架中进行统筹。“驾驭架构”正是对这种结构的命名。该术语近期已进入实践领域,用以描述将原始模型能力转化为可靠智能体行为的支撑体系。例如OpenAI围绕Codex的工程讨论中,明确使用该术语指代使系统可用的智能体循环、执行逻辑、反馈路径及周边运行机制[OpenAI, 2025a]。由于该概念尚在凝练中,我们在此提出的界定宜理解为对当前系统中反复出现模式的综合提炼,而非封闭定义。

根据这一阐释,将实践性智能体理解为在控制框架内运行的模型,较之理解为附加了外围能力的模型更为恰当。基础模型本身保留了通用推理能力,但缺乏决定其可访问范围、行动方式、行为约束机制以及行为如何被持续观测与修正的操作结构。控制框架正提供了这种结构。它统辖着模型接触上下文、调用工具、保持状态以及对反馈作出响应的路径。因此,能动性并非仅存于模型之中,而是源于模型与外部环境的耦合——这种耦合将模型的认知组织为具体行动。

从功能角度描述,该框架包含实现此类耦合的外部系统:持久化记忆与项目级上下文、可复用技能与可执行例程、用于与工具及服务进行确定**互的协议化接口,以及使这些要素得以运行的广义运行时基础设施。关键不在于组件的具体清单——这在不同实现中存在差异且将持续演进——而在于它们的共同作用:它们创造了使模型推理足够稳定以支持持续工作的条件。这将分析关注点从单一的模型能力,转向了模型感知、决策和行动所依赖的表征性、程序性与操作性条件。因此,智能体的提升可能不仅源于更优的基础模型,还可通过更高效的知识组织、更精确的约束机制、更清晰的反饋通道以及更精心设计的执行环境来实现。

前文讨论的记忆存储、技能制品和协议接口等模块提供了外化认知的原材料,但它们本身并未规定运行时系统如何随时间协调感知、行动、约束与反馈。这种协调正是约束框架的职能范围。图7突出的三个操作层面——许可、控制与可观测性——可分解为六个反复出现的设计变体维度。每个维度针对外化模块如何组合成功能化智能体的不同方面;它们共同构成了一个用于比较不同约束框架架构的分析体系,而非具体实施清单。

6.2.1 智能体循环与控制流

智能体循环是框架的时间主链。其最简形式实现了一个感知-检索规划-执行-观察的循环周期:模型接收当前状态的结构化视图,决定采取何种行动,通过工具或协议接口执行该行动,观察结果,并据此更新内部规划[Yao et al., 2023a, Shinn et al., 2023]。实际系统的循环结构存在显著差异:单循环设计在单次生成过程中交织推理与行动;分层设计将分解目标的规划智能体与执行具体步骤的执行智能体分离;而多智能体设计则通过具备不同工具集与权限范围的专用智能体来分配子任务[Wu et al., 2023, Hong et al., 2023, LangChain, 2024]。

相对于裸循环,Harness所增加的是对终止、递归和资源消耗的管控。若缺乏显式控制,智能体循环可能无限运行,通过无限制的工具调用推高成本,或因递归生成子智能体而耗尽上下文或计算资源。因此,生产级Harness会强制实施最大步数限制、递归深度限制、单步成本上限以及超时约束。这些控制并非次要的安全措施,它们定义了智能体推理展开的操作边界。一个调优良好的循环并非通过让模型变得更智能,而是通过限制可能执行路径的空间来提升智能体的可靠性。

6.2.2 沙箱化与执行隔离

每当智能体在世界中执行操作——写入文件、执行Shell命令、调用外部API时,框架都必须决定暴露多少环境以及如何控制非预期的副作用。沙箱化便是针对这一需求的工程应对方案。它构建了一个受控的执行边界,限制智能体可读取、写入和修改的内容,并提供可重现性保障,使得故障可诊断、回滚可实施。

当代系统在不同粒度上实现隔离。Codex式代理在专用的云沙盒中运行每项任务,该沙盒拥有独立的文件系统快照、网络限制和资源配额,从而确保一次执行不会污染另一次执行[Wang et al., 2025a, Yang et al., 2024a]。Claude Code则采取一种互补方式,提供分级权限模式——从完全自主执行到每次工具调用都需用户强制批准——使得同一代理可根据任务和操作者的风险承受能力,在不同信任级别下运行[Anthropic, 2026]。在这两种情况下,沙盒不仅是一个安全围栏。它更是一种认知边界,通过消除无关状态、限制危险操作并使工作空间可审查,从而简化了代理的运行环境。因此,隔离与其他形式的外部化具有相同的表征功能:它改变了模型必须推理的内容范畴。

6.2.3 人工监督与审批节点

完全自主性很少适用于已部署的智能体。因此,大多数生产系统会在智能体循环中设置干预点,使人工操作员能够检查拟议行动、批准或拒绝它们、提供修正或重定向执行。其设计核心在于确定这些干预点的应置位置,以及在两个干预点之间应赋予多大程度的自主权限。

常见模式有三种。预执行审批在每次可能产生后果的操作前暂停智能体,并要求明确的确认。后执行审查允许智能体执行操作,但在提交或继续前会将结果呈报以供检查。升级触发机制使智能体在正常情况下自主运行,但在检测到特定风险信号时——例如涉及敏感数据的操作、不可逆变更或置信度低于阈值——会暂停并请求人工输入。钩子系统通过允许操作者将任意逻辑(如外壳脚本、验证检查、通知分发)附加到智能体循环中的特定生命周期事件(例如工具调用、文件写入或子智能体生成),从而泛化了这一模式[Lazaros等人,2026;Fernandez,2026]。因此,自主性水平并非智能体的二元属性,而是管控框架中可配置的参数,可根据任务、工具及组织策略进行调整。

6.2.4 可观测性与结构化反馈

一个行动不留可检视痕迹的智能体,即是无法被调试、审计或改进的智能体。可观测性作为约束界面,使智能体的内部运行轨迹对开发者、运维人员及智能体自身可见 Zhu and Lu [2026], Zheng et al. [2025b]。

在实现层面,可观测性通常包含以下几方面:记录每次模型调用、工具调用、内存读写和决策分支的结构化日志;将每个操作与其因果前驱相关联的执行追踪;以及诸如步骤计数、令牌消耗量、错误率和延迟分布等聚合指标。这些记录服务于两个不同目的。对外,它们支持调试、合规审计和事后分析[Phiri, 2025]。对内,它们形成了连接执行结果与产生这些结果的模块之间的反馈闭环。一次失败的工具调用可以触发记录失败上下文的内存写入;反复出现的失败模式可以标记出需要修订的技能;延迟峰值可能导致运行框架切换协议路径。若缺乏结构化可观测性,这些反馈闭环将无法运行,运行框架便只能保持为静态脚手架而非自适应系统。因此,可观测性并非辅助性的便利设施,而是运行框架从其自身运作中进行学习的核心机制。

6.2.5 配置、权限与策略编码

一种约束体系必须不仅编码智能体能够执行的操作,还应明确其在何种条件下被允许执行。这需要一个配置层,将策略与执行逻辑分离,并使治理规则变得显式化、可版本化且可审计。实践中,配置通常按多个作用域分层设定:用户级设置编码个人偏好与信任边界;项目级设置规定可用工具、可访问的文件路径以及需要审批的命令;组织级设置则施加合规性约束、成本上限及数据处理规则,这些规则不能被单个项目覆盖。这种分层模型意味着,同一基础智能体可根据其部署环境在不同策略体系下运行,而无需对模型或其加载的技能构件进行任何修改[Anthropic, 2026, Lee et al., 2026]。因此,权限和策略最好被理解为外部化治理:那些本需嵌入提示词或通过事后过滤来实施的约束,现被编码为声明性规则,由约束体系在运行时强制执行。

6.2.6 上下文预算管理

在任何智能体系统中,上下文窗口始终是最稀缺的共享资源。记忆检索、技能加载、协议架构、工具描述以及模型自身的推理轨迹,都在争夺同一有限的令牌预算。如何分配这一预算,是一个需要系统层面协调的问题,单一模块无法独立解决。

有效的上下文管理通常结合多种策略。总结将较早的对话轮次和执行历史压缩为更短的表示,在释放当前步骤所需令牌的同时保留决策相关信息 [Packer et al., 2023]。基于优先级的逐出策略会移除或降级那些与当前子任务相关性已衰减的上下文条目。分阶段加载——第4节中已针对技能进行讨论——确保详细的过程指导仅在检测到匹配的任务模式时才进入上下文,而非从会话开始就占用预算。管理框架协同编排这些策略,因为最优分配取决于执行的当前阶段:早期的规划阶段可能需要更多内存和较少的技能细节,而晚期的执行阶段可能恰恰相反。因此,上下文预算管理并非孤立的压缩问题。它是一个动态资源分配问题,其解决方案必须根据智能体当前的目标、所调用的模块以及其运行所受的约束来制定。

综上所述,这六个维度——循环控制、沙箱机制、人类监督、可观测性、配置管理与上下文管理——共同构成了分析约束架构的框架。它们本身并非外在化的表现形式,而是协调性基础设施的组成部分,使记忆、技能与协议能够作为连贯的系统运作。下一小节将运用此框架,考察当代智能体系统在实践中如何具体实现这些维度。

上述分析维度并非抽象的理论构想,它们对应着实际部署的智能体系统中可观察到的具体设计选择。当代生产级智能体——例如OpenAI Codex [OpenAI, 2025a]与Anthropic Claude Code [Anthropic, 2026]——尽管在产品形态、实现路径和目标工作流上存在显著差异,却在约束框架结构上呈现出惊人的趋同性。这种趋同在分析层面具有重要意义:它表明这六个维度并非偶然的实现策略,而是外化智能体在结构上的必然要求。下文将检视这些重复出现的模式,而不对任何单一系统进行详细追踪。

循环与控制流:成熟的智能体系统通常围绕一个显式的执行循环来统一组织运作,该循环交错进行模型推理、工具调用与环境观察。该执行框架(Harness)与底层模型相区分,其特征体现为提供核心的智能体循环、执行逻辑及反馈路径。至关重要的是,此循环包含明确的终止控制机制——包括步数限制、递归深度约束与资源上限——这些机制共同界定了模型推理展开所允许的操作范围。

沙盒机制。现有系统在不同粒度上实现了执行隔离:有的在专用云沙盒内运行每个任务,该沙盒拥有独立的文件系统快照、网络限制和资源配额;另一些则提供分级权限模式,使得同一智能体可根据上下文在不同信任级别下运行。这些设计在隔离设计空间中占据不同位置,但遵循一个共同原则:沙盒不仅作为安全边界,更充当一种认知边界——通过消除无关状态并限制危险操作,从而简化智能体的运行环境。

人员监管。与将自主性视为二元属性不同,已部署的约束框架实现了可配置的审批门控机制——这包括钩子系统(其将验证逻辑附加到特定的生命周期事件,如工具调用、文件写入或子智能体生成)以及应用层(其将高风险操作路由至审批工作流)[Lazaros et al., 2026, Fernandez, 2026]。自主性程度成为约束框架的一个可调参数,可根据任务、工具和组织策略进行调整。

可观测性。生产系统生成结构化的执行轨迹——记录每次模型调用、工具调用、内存读写和决策分支的日志——这些轨迹为调试、合规审计与事后分析提供支持 [Phiri, 2025; Zhu and Lu, 2026]。此类轨迹亦能闭合内部反馈循环:失败的工具调用可触发内存写入,重复出现的故障模式则可标记需修正的技能。因此,可观测性是系统从自身运行中学习的关键机制。

配置与治理。已部署的治理框架通常将配置在多个层面进行分层——用户、项目和组织——使得相同的基础智能体能够在不同的策略体系下运行,而无需修改模型或其技能组件。权限与策略作为外部化治理机制发挥作用:那些原本必须嵌入提示中的约束,被编码为在运行时强制执行的声明性规则[Lee et al., 2026]。

上下文预算。在任何智能体系统中,上下文窗口始终是最稀缺的共享资源。当前的控制框架通过以下方式对其进行主动管理:对早期历史进行摘要总结、采用分段加载(仅在检测到匹配任务时才载入详细技能指导),以及基于优先级淘汰相关性已衰减的条目。控制框架协同统筹这些策略,因为最优的资源分配方案取决于当前所处的执行阶段。

独立开发的系统在约束维度上趋于一致,这一事实本身具有启发性。它表明,外化智能体设计的主要挑战并非从模型中激发更优的补全结果,而是安排使补全结果转化为有效干预的操作条件。因此,约束工程既非记忆系统的同义词,亦非工具调用的重新包装。它是一门更广泛的学科,专注于构建认知与操作环境,使外化模块在其中组合成连贯的智能体。

前文已从定义、反复出现的设计维度及其在当前系统中的表现形式等方面对控制框架进行了分析。最后这一部分将回归理论层面,重新审视控制框架的本质,追问它究竟属于何种对象,而非其构建方式。

控制框架的意义超越了普通软件工程意义上的基础设施。它不仅仅是为已成型智能体提供支持,更通过决定推理展开的环境来塑造智能体的实际认知能力。它调控着何种信息能够进入智能体的感知领域、何种信息能够在多轮对话和不同会话间留存、哪些操作可供调用、哪些行动需要批准、哪些中间状态可供修正,以及哪些形式的故障可被检测与恢复。因此,控制框架设定了智能体的实践认知边界。智能体所能知晓、记忆和执行的内容,并非仅由模型权重决定,更取决于外围系统所提供的信息获取、状态持久化和行动执行的条件。

这一主张可置于诺曼关于认知制品的论述框架内[诺man, 1993]。诺曼将认知制品定义为旨在维护、展示或操作信息的人工装置,其通过改变任务结构(而非仅仅加速内部计算)来转变认知表现。约束系统正符合这一系统层级的描述:它并非简单通过增加上下文或工具来增强模型,而是重构了模型所面对的表征问题。通过外部化记忆、规范化流程、引入显式控制点以及约束执行过程,约束系统将非受限任务转化为结构化、可引导行动的环境。模型所显现的智能因此改变——这不仅源于其拥有更多资源,更因为认知负荷已被重新分配至模型外部的制品、表征和流程中。在前述章节中,我们已逐维度分析了这种重新分配:记忆将回溯转化为检索(第3.4节),技能将流程重建转化为引导式执行(第4.7节),协议将临时交互转化为结构化交换(第5.4节)。约束系统正是将这些独立转变整合为统一认知环境的系统级制品。

基尔什对空间智能运用的阐述深化了这一解读[Kirsh, 1995]。他的核心观点是:认知如何被环境的布局所塑造——空间与表征的组织方式能够分担搜索任务、简化选择并减轻内在计算负荷。对于智能体而言,约束具扮演着类似的角色。它是一个认知生态位,其中信息、工具、权限与流程被精心安排,使得期望行为更易执行,而不良行为更难产生。默认设置、触发机制、文件边界、技能调用模式以及审查关口,所有这些都构成了结构化的规则,从而缩小了可能行动的决策空间。因此,智能体的能力在某种程度上是一种生态性成就:它源于嵌入在一种能有效引导认知的环境组织结构之中。

分布式认知框架对此观点进行了概括。哈钦斯的表述摒弃了认知仅存在于个体思维中的观点,转而将认知过程定位于人群、人工制品、表征系统及协调实践之中[Hutchins, 1995]。一个配备了控制框架的智能体系统,正是以此为理解依据。其运作智能分布于模型参数、外部记忆存储、可执行技能、协议定义、工具接口、监控系统以及管理它们交互的运行时约束之中。控制框架是协调这一分布式系统的媒介。因此,将其描述为一种认知环境比单纯视作基础设施层更为准确。基础设施只是其表现形式之一;环境建构——即对认知展开条件的系统性设计——才是其更深层的功能。

三大外化模块在分析层面是彼此独立的,但实际系统的能力源自模块间的互动。第3至5节分别讨论了记忆、技能与协议模块;第6节论证了"框架"对三者的统合作用。本节将探讨当这些模块被置于同一框架后产生的系统级耦合,分析这种耦合如何在模型边界处显现,并思考在参数化能力与外化能力之间应如何划定边界。

在这里插入图片描述
图8 记忆、技能与协议间的耦合关系。六组箭头概括了三个外化模块在协同框架内如何相互强化:记忆为技能形成与协议路径选择提供依据;技能将存储经验转化为可复用程序并调用协议化操作;协议约束执行过程并将规范化结果写回记忆。

从记忆到技能:经验蒸馏。重复的轨迹可以被提炼为可复用的程序,这是累积经验转化为规范化专业知识的主要路径。TED 和 UMEM 等系统展示了如何在不修改基础模型权重的情况下,将情景记忆痕迹聚类、抽象并提升为技能构件 [Yuan et al., 2026, Ye et al., 2026]。Voyager 在终身学习中具体体现了相同的逻辑:成功的行为被保留为可复用的代码级技能,供后续重组调用 [Wang et al., 2023a, Zhang et al., 2025b]。

这一流程的交叉意义在于,记忆不仅保存过去,更提供了依据,使系统能够判定哪些经验值得转化为可重复的操作模式。蒸馏步骤的质量——即系统如何区分哪些轨迹具有普适性、哪些受情境制约——决定了下游整个技能层的可靠性。若蒸馏过程过于激进,嘈杂或依赖情境的行为将被固化为技能;若过于保守,系统则无法充分利用来之不易的经验。

技能到记忆:执行记录。该流程亦可反向运行。每一次技能执行都会生成痕迹、中间失败和运行时优化,这些信息在活动上下文窗口之外便会消失。可观测性和日志基础设施将这些轨迹捕获为持久证据,使得系统能够验证哪些技能保持可靠,哪些需要修正、拆分或施加约束[Chen et al., 2025, Wang et al., 2026f,d]。

这种流动使得技能层具备自我修正能力,而非仅仅是自我扩展。成熟的技能系统离不开记忆管理:可复用的程序只有在其实时执行记录被持续写入外部状态时才能保持可靠性。若无此记录机制,技能框架便缺乏维护技能的经验依据,从记忆到技能的提炼路径(即前述流动过程)将基于日益陈旧的证据运行。

技能到协议:能力调用。技能只有在跨越从抽象流程到受治理行动的边界时才会变得可操作。这一转变通过协议实现,协议将高层意图转化为类型化调用、生命周期事件和权限校验的交互接口[Takyar, 2025, JSON-RPC Working Group, 2010, Hou et al., 2025]。一项技能可以指定代理应搜索代码、运行测试并总结差异,但具体操作是通过协议化的接口与搜索工具、shell命令和测试运行器交互来完成的。

耦合机制对于安全性和功能实现均至关重要。OpenClaw对"致命三要素"——即敏感数据访问、不受限制的外部通信与未经验证的执行相结合——的分析表明,即使程序性指导本身是完善的,不受约束的执行仍然构成安全隐患[McKerchar, 2026]。因此,协议级验证作为一种独立于技能自身正确性的边界检查机制:即便是一个编写良好的技能,如果试图调用被禁止的操作或畸形调用,也依然可能被拦截。

协议赋能技能生成路径。一旦接口实现标准化,为接口使用编码**实践将大幅简化。OpenAPI与MCP不仅使工具可调用,更通过提供充足的结构化规范,使得系统能够将针对特定接口的专门技术封装成可复用的技能构件[OpenAPI Initiative, 2021, Hou et al., 2025]。HashiCorp智能体技能生态即为一具体例证:当基础设施管理的底层接口通过协议约定变得清晰稳定后,领域操作流程便可外化为可移植的技能文件,而无需在每次运行时临时重新推导[Baghel and Chandna, 2026]。

这一流程凸显了外部化过程中的重要不对称性。协议标准化不仅消耗技能,更积极地扩展了可编写或诱发新技能的表面积。每个新的稳定接口都是一个可复用程序族的潜在种子。因此,技能制品的生态系统增长部分取决于协议标准化的速度与质量。

记忆到协议:策略选择。存储的上下文同样能影响执行框架接下来选择的协议路径。历史成功率、用户偏好以及先前失败记录可以决定一个请求应当保持本地处理、调用外部工具,或是委托给其他智能体[Xu et al., 2026b, Zhou et al., 2025]。在具备多条可用交互路径的系统中,记忆将协议选择从静态配置转变为基于经验的路由决策。

在多智能体环境中,这种耦合关系尤为显著:执行框架必须在本地运行、通过MCP调用工具以及通过A2A委托远程智能体这三者间进行抉择。若过去针对某类任务调用特定工具的交互持续失败,路由机制便能学习转向更优路径。因此,记忆不仅影响着模型的推理内容,更决定着由何种交互通道将推理转化为行动。

协议记忆化:结果同化。最终,每次协议交互都会产生必须被保存的状态,才能成为智能体持续认知的一部分。工具输出、批准事件、错误负载以及委派结果以结构化响应的形式抵达,其格式通常比纯文本更丰富[Qin等人,2023]。执行框架必须将这些结果规范化存入记忆,以便后续推理可以依赖经过验证的外部状态,而非重建的或幻觉性的假设。

此流程完成了循环闭环。协议层提供记忆存储所依据的证据,这些证据随后制约着新技能的选择与新协议的路径规划。若缺乏可靠的结果内化,智能体的记忆将与其实际交互历史脱节,下游流程——特别是经验提炼与策略选择——将基于不可靠的前提运作。

系统级动态。上述六种流为成对关系,但若干重要动态仅出现在系统层面。首先,该循环具有自我强化特性:更好的记忆能力促进更优的技能提炼,更精进的技能产生更丰富的执行轨迹,更丰富的轨迹又能提升记忆质量,如此循环往复。这种正向反馈能够加速能力增长,但也可能放大错误。一条污染的记忆条目可能导致缺陷技能的生成,而该技能的执行轨迹会进一步污染记忆系统——这种级联效应无法通过单个模块的质量控制来阻断,必须依赖系统层面的干预才能中止。

其次,各模块竞争同一稀缺资源:模型的上下文窗口。记忆检索、技能加载和协议模式均占用令牌。扩展某一模块的上下文空间必然压缩其他模块。因此,执行框架不仅需要管理各模块的内容,还需在每一步执行中管理其相对预算分配——这一协调问题将在第6节进一步分析。

第三,各类流程在不同时间尺度上运行。协议交互通常是同步且快速的;技能加载发生在任务或子任务边界;记忆精炼与技能演化则在多个会话或更长时间跨度中展开。一个为某时间尺度(例如快速工具执行)优化的框架,可能会忽视那些决定长期能力增长的慢循环。有效的框架设计需要在快速循环的响应能力与慢循环的连贯性之间取得平衡。

另一种有用的视角是探讨各模块如何在模型边界处显现。从上下文窗口和输出表面的视角来看,这种整合机制并非简单地增加更多组件,而是将进出模型的信息重组为功能分明的层级。

记忆作为情境化输入。记忆塑造了决策时可用的历史与情境信息。检索机制并非向模型灌入完整的执行日志,而是选取与当前步骤相关的少量状态片段、过往轨迹或实体关系[Du, 2026b]。这将长程连续性问题转化为有针对性的情境构建问题,并减少了上下文浪费。这种选择的质量直接决定了模型是基于对过去的准确描绘还是扭曲描绘进行推理。

技能作为教学输入。技能塑造给予模型的流程性指导。与其将每个工作流程编码在单一系统提示中,执行框架可以在相关任务模式出现时,才加载专门的指令、示例和约束 [Jiang et al., 2026a]。因此,模型更少被要求从头开始创建流程,而更多被要求解释并遵循预设的流程。第4节讨论的风险在于,过于详尽或消耗上下文的技能文件可能挤占其他输入;其好处则是,在正确时间加载正确技能可以降低流程执行的差异性。

协议作为行动框架。协议塑造输出边界。通过强制执行结构化契约(例如JSON模式、MCP消息或符合OpenAPI规范的调用),它们约束了模型的生成空间,并使得下游执行具备足够的确定性以实现可控管理[Hasan等人,2026]。输出不再仅仅是待后续解释的语言;它转变为位于明确接口内的、机器可读的行动提案。这种约束减少了格式错误的工具调用和幻觉性参数的出现,尽管这也意味着行动表达能力受限于协议的模式定义。

这种输入/输出分解在分析上具有实用性,因为它同时厘清了劳动分工与故障分类体系。检索错误表现为输入选择错误:模型推理过程正确,但所依据的上下文存在偏差。技能失败表现为流程指导错误:模型忠实执行指令,但指令本身存在缺陷或匹配不当。协议失败表现为行动模式错误:模型意图正确,但输出结果违反了接口契约。该框架使这些故障类别充分可分离,从而能够独立进行调试、归因和优化——对于每个决策均由多模块参与的系统而言,这一特性至关重要。

从更广义的视角看,模型边界的这种三元组织架构——情境输入、指令输入与行动图式——可被理解为一种结构化的语境工程形式。该框架并未将提示词视为无差别的文本缓冲区,而是将其分离为具有不同更新频率、治理要求与失效模式的层面。各层级可独立修订而不相互干扰:改进记忆检索无需重写技能,更新技能制品无需变更协议图式,扩展协议接口亦无需调整记忆策略。这种模型边界处的模块化设计,正是外部化方法的主要实践优势之一。

核心设计问题并非智能应置于模型还是基础设施中,而是应根据各项任务的更新频率、复用模式、治理要求和执行成本,确定其具体负载的归属位置。以下维度将结构化地指导这一划分决策。

更新频率与时效衰减。快速变化的知识与操作流程是外部化的理想候选。API、组织架构及生产环境状态的时效性衰退过快,难以通过模型权重可靠维持。若试图通过持续微调保持模型时效性,将面临灾难性遗忘的风险,且在所需更新频率下往往难以实现[Cheng et al., 2024, Qiu et al., 2025, Zhang et al., 2025d, Chen et al., 2026a]。相比之下,外部存储可即时更新而无需重新训练,并能保持明确的溯源与版本管理[Oelen et al., 2025, Chinthareddy, 2026]。稳定的基础能力——语言理解、广义推理、常识推断——其衰减速率远为缓慢,仍更适合以参数化形式承载,从而受益于快速检索能力以及与模型表征结构的深度整合。

可复用性与多智能体可移植性。若某项能力在多个任务、用户或智能体间反复需要,外部化可提升其可移植性与组合性[Tagkopoulos等人,2025;Xu与Yan,2026a;Liu等人,2025d]。显式的技能、脚本及接口构件可在异构运行时环境中共享、版本化与复用,无需每个智能体重现发现或重新训练相同流程。在多智能体场景中,为某一智能体编写的技能可广播至整个集群,只要该技能对工具与协议的前提假设得到满足。一次性或高度特异性的行为可能不足以证明外部化、封装及维护所需开销的合理性[Zhao等人,2026a]。

可审计性、治理与对齐。当涉及检查、审批、回滚或策略执行时,外部化构件相比不透明的参数化行为具有明显优势[Li et al., 2026b, Lazaros et al., 2026, Lee et al., 2026, Fernandez, 2026, Zhu and Lu, 2026]。符号化接口支持断路器、模式验证和可追溯的执行记录,这是仅靠权重无法实现的。对齐微调(如RLHF)提供概率性的行为塑形,而外部化约束则在接口层面提供确定性的强制执行。因此,高风险部署推动了架构边界的外移:智能体的行动后果越重大,就越有必要使治理逻辑显式化且可审查。

延迟性、简洁性与上下文负担。外部化将计算与组织成本从模型的前向传播转移至外围系统。检索、路由、解析和工具调用均会引入延迟 [Park et al., 2026, Xu et al., 2025a]。每个检索到的信息片段都在争夺有限的上下文容量,而过度的上下文加载可能因信息过载或“中间迷失”现象导致性能下降 [Corallo and Papotti, 2026, Mishra et al., 2026, Esmi et al., 2025]。对于超高速、低方差或纯语义任务,允许模型依赖其内部参数化知识仍显著更为简洁,且通常更为可靠。

其结果并非模型智能与基础设施智能之间的零和博弈,而是一个系统划分问题。强大的外部框架将那些受益于持久化、复用和管控的负担外部化,同时将稳定、快速且通用的能力保留在模型内部。这种最优划分并非静态:随着模型能力不断增强,外部化基础设施日趋成熟,两者边界将持续动态迁移——这一动态过程将在第8.1节进一步探讨。

前文已探讨记忆、技能与协议如何外化不同的认知负荷,以及约束框架如何将其整合为可运作的智能体。这些分析描述了已完成外化的部分。本节将沿着外化本身的逻辑,通过六个关联问题追问后续发展:

后续子章节将依次探讨这些问题,从不断推移的外化边界出发,经具身化延伸,最终抵达其效益与成本的评估方法论。

前文各节反复揭示的一个核心观点是:模型内部保留的能力与外部化功能之间的界限并非固定不变。它会随着模型、任务和基础设施的共同演进而发生迁移。因此,理解这一界限并预测其下一步的移动方向,就成为智能体系统设计的核心问题。

一方面,模型性能的提升能够将能力重新内化。一个能稳定输出结构化结果的模型,其外围框架所需的格式验证逻辑就更少;拥有更大有效上下文窗口的模型,可以兼容更简单的记忆架构;具备更强内在工具使用能力的模型,则无需过于复杂的意图捕获逻辑。每一项此类进步都会使部分外部基础设施变得冗余。

另一方面,更复杂的框架也会对模型提出新要求:在结构化运行时环境中运作需要模型遵循模式规范、配合权限检查,并与分阶段上下文注入机制协同工作[Zhang et al., 2025d, Cheng et al., 2024]。因此,能力边界实际上在同时向两个方向移动,而工程实践的核心挑战就在于判断何时应进一步外化功能,何时该将能力收回模型内部。

在这一不断变化的图景中,当前仍主要以内隐形式存在的若干认知工作类别,是进一步外化的合理候选对象。

规划与目标管理。现有智能体通常通过上下文推理生成规划,其产生的任务分解具有瞬时性——仅存在于当前生成过程中,一旦上下文重置便会消失。早期智能体框架如BabyAGI已尝试采用持久化任务队列[Nakajima, 2023],而以文件为中心的状态抽象(例如InfiAgent)则将规划产物实体化于提示词系统之外[Yu et al., 2026]。这一发展方向指向将规划作为一等管控对象:具备持久化、可审查、可修订的特性,并能在智能体之间或人机之间共享。这将使规划从瞬时推理行为转变为可管理的状态产物——正如记忆系统对历史上下文已完成的概念转换。

评估与验证。当前大多数评估逻辑要么存在于模型思维链内部,要么存在于事后运行的外部基准测试框架中。将评估标准、评分细则和验证程序作为运行时框架组件外部化——而非将其隐式保留在模型判断中——可使智能体在执行过程中根据明确标准自查输出。这一方向的早期迹象已显现在以可验证性优先的工程框架[Zhu and Lu, 2026]以及将生成与评判分离的自我优化循环[Madaan et al., 2023]中。更广泛的机遇在于将评估视为外部化的质量基础设施,而非事后度量手段。

编排逻辑本身。外部化的最递归形式是将测试框架自身的配置、策略与执行逻辑转化为可供智能体审视、批判及修正的对象。一旦编排逻辑被外部化,智能体系统不仅能调整其认知与行为内容,更能重构其组织认知与行为的方式。这一方向直接衔接至下一小节。

多模态外化。迄今为止发展的外化框架均以文本为默认表征媒介:记忆存储文本痕迹,技能编码自然语言流程,协议交换结构化文本信息。随着基础模型原生支持多模态处理——在文本之外同时处理图像、视频、音频及屏幕内容——外化的每个维度都面临新的设计需求。多模态技能不仅需编码文本流程,还需编码视觉感知工作流与跨模态决策逻辑;早期案例如将图形界面交互序列封装为可复用单元的计算机使用技能[Chen et al., 2026b]。多模态记忆需索引并检索视觉与听觉经验,而非仅基于文本的情景痕迹;例如MemVerse维护着多模态知识图谱,将碎片化感官经验定期提炼为更抽象的表示[Liu et al., 2025a],而MuSEAgent则积累具状态的多模态经验以支撑未来推理[Wang et al., 2026d]。多模态推理蒸馏将技能习得循环扩展至非文本模态:TED研究表明,成功的多模态推理轨迹可被蒸馏为可复用经验而无需额外训练[Yuan et al., 2026]。更深层的影响在于,多模态外化并非简单地为现有存储添加新数据类型。它改变了技能规范、记忆索引与协议架构的设计前提,并为认知负担的外化开辟了更广阔的前沿领域[Wang et al., 2026e, Xu et al., 2026a]。

本文提出的外部化框架适用于能够读取、写入及调用API的数字智能体。一个自然的问题是:相同的架构逻辑能否延伸至具身系统——那些需要感知环境、移动并与物理世界交互的机器人。机器人学习领域的最新进展表明,这一延伸是成立的,且具身领域正在经历一种与此处分析的数字化解构惊人相似的结构分解。

单体化起点。早期具身智能研究采用端到端策略,其形态类似于外部化之前的LLM智能体。视觉-语言-动作模型[Brohan et al., 2023, Kim et al., 2024]被定位为单体化“大脑”:给定自然语言指令和视觉观察,模型直接输出连续动作序列,在单次前向传播中同时处理感知、推理、规划与运动控制。这种设计模式与早期LLM智能体试图完全通过上下文推理管理记忆、技能与任务调度的方案如出一辙,也遇到了同类局限性:复杂多步任务超出模型的规划视域;中间步骤的故障无法被诊断或恢复;高层认知与低延迟运动控制的强耦合,对推理速度与模型容量提出了难以调和的要求。

分解:大脑-小脑分离。 新兴的架构响应在全身层面复现了外部化逻辑。一个高层级机器人智能体——通常是一个LLM或多模态模型——承担了大脑的角色:它解释目标、将任务分解为子任务序列、在步骤间维持状态、处理异常,并在执行反馈表明失败时修订计划 [Ahn et al., 2022, Singh et al., 2023, Liang et al., 2023]。
与此同时,VLA模型被重新定位为小脑:每一个都成为一个可调用的技能模块,负责单一的原子化操作基元——抓取、放置、倾倒、插入——这些操作通过实时感觉运动反馈和低延迟控制来执行。VLA不再决定“做什么”;它确保“如何做”是精确、稳定的,并能自适应局部的物理扰动。

这种分解方式直接对应了本文的外部化维度。任务规划与目标管理从视觉语言模型的隐式参数推理迁移至一个显式、可检查的智能体循环中——这正是第8.1节讨论的从情境内规划到外部化规划对象的转变。每个视觉语言模型技能模块都作为外部化的技能构件运作:一个具有定义接口、可复用且可组合的单元,类似于第4节分析的技能文件与工具规范。智能体与技能之间的通信——结构化的动作请求、执行状态报告、错误代码——构成了一个协议层,使得智能体能够协调异构的运动能力而无需内嵌其实现细节。

并行何以重要。此种趋同并非偶然,数字智能体与具身智能体都面临相同的根本性张力:单一模型无法同时优化缓慢的、审慎的认知过程与快速的、反应式的执行过程。外部化通过将各类认知任务分配至最适合的载体来解决这一张力——用持久、可检视的结构处理规划与记忆;用特化的低延迟模块处理执行。在数字情境中,执行模块表现为工具调用和代码解释器;在具身情境中则体现为视觉运动策略。其核心的框架模式——即运行时环境加载上下文、调度技能、执行协议并管理状态——对二者同样适用,这表明具身智能体与数字智能体的架构最终可能不仅共享设计哲学,更将共享一套具体的工程实现栈。

开放性挑战。具身外化引入的制约条件是数字场景所不具备的。物理动作具有不可逆性,而API调用则不然:坠落的物体无法被“回滚”。实时控制所需的延迟预算比文本生成严格数个数量级。感知存在噪声干扰,模拟训练环境与实际物理部署之间的差距依然显著。这些制约条件将影响具身载具中记忆、技能与协议的设计方式,但并未改变核心论点:外化的逻辑——将单一化能力分解为专业化、可组合且可管控的外部结构——这一逻辑自然地从数字认知延伸至物理行动领域。

当前大多数智能体系统在出现故障后,仍需依赖人工修改记忆策略、重写技能构件并收紧执行逻辑。若编排逻辑本身能够外部化——正如前一小节所暗示的——那么该管控框架便能成为可通过编程方式(而非仅手动方式)适配的对象。问题的关键在于如何使这种适配过程具备可靠性。

从系统视角看,自我演进可在三个层面发生。在模块层面,系统架构保持固定,但内部策略——检索粒度、技能排序启发规则、协议路由规则等——会根据观测到的故障进行适应性调整。在系统层面,执行流水线本身会被重构:当日志暴露出局部调优无法解决的重复性瓶颈时,调度策略、执行顺序或资源分配方案将发生改变。在边界层面,管控框架的范畴会随着模型与任务的变化而伸缩——在需要时增添新的外部化组件,同时精简冗余组件,这正是第8.1节所探讨的前沿动态。

多种技术路径正在形成。强化学习能以任务成功率、延迟或资源成本等作为奖励指标,优化离散的运行策略——包括搜索深度、压缩比、重试策略等。程序合成将适配器调整视为代码修复:模型在失败轨迹后提出补丁,并通过沙盒测试验证后再部署。进化方法在适配器拓扑结构上进行搜索——即模块间连接方式与调用顺序。当探索成本过高时,模仿学习通过从人类专家或强模型中提炼执行日志来获取更强的先验知识,从而生成更优的协调模式。这些路径分别针对策略空间、程序空间、结构空间和先验经验空间,未来很可能被组合使用而非孤立应用。

自我演进因其能直接针对基础设施故障模式而颇具吸引力,但同时也放大了后续将讨论的成本与风险:缺乏有效治理的自适应适配器若发生偏移,其引入新故障模式的速度可能远超解决旧问题的速度。

随着更多认知负担向外转移,两类成本随之累积:外部化基础设施本身带来的认知负荷,以及攻击面扩大引发的安全风险。

认知开销。外部化并非没有代价[Wang et al., 2026b]。每一个额外的记忆层、API模式或安全规则都会引入延迟与推理负担;超过某个临界点后,模型在发现、解析和协调模块上耗费的精力将超过解决问题本身。在记忆方面,过度检索会将大量边缘相关的记忆痕迹充斥上下文;在技能方面,冗长或重叠的文件会争夺有限的上下文容量,可能导致模型拘泥于局部流程而忽视全局目标;在协议方面,工具泛滥会使行动选择变成不必要的消歧问题。

这些失效模式表明,设计目标应是高效且具有正向效用,而非最大化的外部化[Liu et al., 2025c]。“最小充分性”原则关注特定模块究竟减轻了模型的认知负担,还是反而增加了负担。“惰性加载”将具体指引延迟至任务结构真正需要时才激活。“预算感知路由”将上下文分配视为明确的优化变量,根据任务阶段动态调整分配给记忆、技能和协议元数据的空间[Zhang et al., 2026b, Patel et al., 2025, Sui et al., 2026]。优秀的控制框架旨在简化模型的决策问题,而非制造第二个新问题。

安全与完整性风险。认知开销属于性能成本;安全维度的影响则更为深远。一旦认知与流程负担被转移至外部载体,这些载体便成为攻击目标——威胁直接映射至三种约束维度。记忆污染可通过被破坏的情景记忆痕迹或事实存储库,悄无声息地扭曲未来的推理过程。恶意技能注入可将对抗性程序嵌入智能体的可复用技能库。协议欺骗——如伪造工具清单或操纵交互端点——可在看似合法的交互表象下引发未授权操作[Liu et al., 2026, Guo et al., 2026, Wang et al., 2026c, Lin et al., 2025b]。当外化过程具备自我演化能力时(见第8.3节),这些风险将进一步加剧:适应新任务可能导致原有任务性能衰退,累积的修补程序可能掩盖系统真实行为,而人类监督弱化时优化目标可能被扭曲。

治理即基础设施。这意味着外部化必须与治理机制相结合——不是作为事后补救,而是作为系统架构中共同设计的组成部分。关键更新的强制审查节点、记忆与技能变更的溯源追踪、确定性回滚机制以及回归测试,都将成为基础设施的一部分。因此,评估一个外部化系统的质量不仅要看它实现的功能,更要看其实现过程的透明性与可逆性。这一标准也影响着评估体系的构建,正如第8.6节所讨论的。

迄今为止描述的外部化过程在很大程度上是以智能体为中心的:记忆服务于单一智能体的连续性,技能被加载为本地程序包,协议也常常受限于特定框架。然而,随着协作链的延长,外部化开始从私有的支撑架构转向共享的基础设施[Wang和Chen, 2025, Li等人, 2026a, Nie等人, 2026]。这将分析单元从个体智能体转向了生态系统。

共享制品。最显著的标志是三个维度上均出现了可共享的制品。共享记忆将问题从“我记得什么”转向“我们知道什么”,使记忆转变为共享状态、索引和共同基础构成的交互式系统[Wegner, 1987; Zhao et al., 2026b]。共享技能将程序性专业知识转化为可跨智能体复用、分叉和维护的公共能力单元[Ling et al., 2026]。共享协议则提供了通用语法,使得此类协调能够跨平台与组织互操作[Yang et al., 2025b]。

分工与集体学习。一旦这些结构实现共享,智能体系统便能够分化角色,而非在所有节点简单复制完整的技能栈。借鉴共识主动性[Theraulaz and Bonabeau, 1999]原理,失败轨迹可在共享记忆中累积,而成功路径则固化为共享技能。学习过程随后通过外部结构扩散,而非仅仅依赖联合参数训练。

制度化及其内在张力
当记忆模式、技能规范和协议绑定被反复验证后,它们便开始逐渐褪去临时性脚手架的特征,转而愈发类似于制度:即那些在生态系统层面协调行为的共享操作流程与标准[Hutchins, 1995]。然而,共享基础设施也带来了新的治理难题[Deng et al., 2025, Liu et al., 2026, Kong et al., 2025]。基础设施漂移、恶意或低质量构件、以及过早或滞后的标准化,都可能动摇生态系统的稳定[Guo et al., 2026, Timmermans and Epstein, 2010]。因此,当外部化演变为集体行为时,第8.4节所识别的治理成本会被放大:版本控制、权限审计、溯源与回滚,不再仅仅是单个工具链的工程问题,而成为智能体系统制度设计的一部分。

当前多数基准测试主要通过固定提示词和固定模型设置下的任务完成度来评估智能体[Zhu et al., 2025, Mishra et al., 2026]。这对于比较基础模型能力固然有用,但系统性地低估了外化基础设施的贡献。一个通过改进记忆检索、提升技能加载精度或加强执行治理来提高可靠性的运行框架,仅会表现为更高的通过率,而无法将性能增益归因于其实际来源。

更丰富的评估体系应沿当前基准测试大多忽视的维度,对外化质量进行衡量。可移植性考察当底层模型被替换时,同一运行框架配置是否仍能保持其有效性——这是对外化基础设施与模型权重各自承载能力多少的直接检验。可维护性衡量当技能、记忆策略或协议模式更新时,系统性能的退化是否平缓。恢复鲁棒性测试智能体能否检测故障、回滚部分操作并从检查点恢复执行。上下文效率量化上下文预算中有多少被运行框架开销消耗,而非用于任务相关推理。治理质量评估外化系统是否满足第8.4节中明确的透明度与可逆性要求。

具体评估策略可包括:消融研究——通过移除单个约束组件并测量性能退化程度;跨模型迁移测试——在保持约束框架不变的前提下更换基础模型;以及长周期可靠性指标——追踪多轮次持续交互(而非单轮对话)中的成功率、成本与性能漂移。在此类方法成熟之前,该领域仍将持续把部分外部化设计的成果归因于模型智能。例如,《Agent Humanization Benchmark(AHB)》指出,智能体评估应超越任务完成度,延伸至用户界面边界可观测行为的人性化程度,这对在以人为本环境中运行的移动图形界面智能体尤为重要(Zhu等学者,[2026])。

综上所述,这六个方向揭示了外化逻辑在现有状态之外的持续延伸。随着新的认知负担——包括多模态感知与跨模态推理——成为外化的潜在对象,这一前沿正在不断拓展;相同的解构逻辑正从数字智能体延伸至具身系统,其中大脑-小脑的分离重现了规划与执行的二分;通过自我演化的约束机制,该过程正变得愈发自主;随着认知负荷与安全风险的累积,其权衡关系日益尖锐;其适用范围正从私有脚手架扩展至共享基础设施;由于外化的贡献在以模型为中心的基准测试中仍不可见,评估挑战变得愈发紧迫。共同的脉络在于:外化并非一次性的架构决策,而是一个持续的设计过程——其边界、机制、成本与质量标准始终随着所服务的模型和生态系统共同演化。

本文认为,外化是连接大语言模型智能体诸多重要进展的过渡逻辑。实现可靠的智能体能力日益依赖于将特定认知负担从模型内部迁移至显式基础设施中:记忆实现状态在时间维度的外化,技能实现程序性专业知识的外化,协议实现交互结构的外化,而运行框架则将这些层次协调为可工作的运行时系统。由此观之,从参数权重到上下文再到运行框架的演进,并非仅仅是工程技巧的堆砌。它标志着智能体能力组织方式的根本转变。部分负担仍适合通过参数化方式有效处理,但另一些负担一旦在模型外部实现持久化、可检视、可复用与可管控,便能获得更高的可靠性。

这些外部化形式的共同核心在于表征转换。记忆将回忆转化为检索,技能将即兴生成转化为引导式创作,协议将临时协调转化为结构化交换。其效果并非简单地在模型周围增加组件,而是改变了模型需要解决的任务。

这种重构也明确了未来的研究方向。关键问题不再仅是如何构建更强大的模型,而是如何划分模型与基础设施之间的能力边界,如何评估外部化系统的贡献,以及如何管理智能体日益依赖的共享知识载体。

更广泛的启示在于:智能体的进步将来自模型与外部基础设施的共同进化,而非任何单方面的孤立发展。从这个视角看,更优秀的智能体不仅是更强的推理者,更是更完善组织的认知系统。

小讯
上一篇 2026-04-20 09:44
下一篇 2026-04-20 09:42

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/270892.html