2026年给 OpenClaw 装了一套“学习系统”:Self-Improving + AutoSkill,Agent 开始自己进化了

给 OpenClaw 装了一套“学习系统”:Self-Improving + AutoSkill,Agent 开始自己进化了我发现了一件有意思的事情 如果给一个 OpenClaw 加上 学习能力 它就不再只是一个工具 而更像是一个会成长的系统 很多人养小龙虾的方式 其实还是典型的聊天对话的 Chat 模式 问一个问题 得到一个答案 然后结束这一轮交互 Agent 在这个过程中并不会真正 记住 什么 每一次对话几乎都是从零开始 但如果一个 Agent 能够记录自己的错误 复盘每天的交互 从中总结经验

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



我发现了一件有意思的事情:如果给一个 OpenClaw 加上“学习能力”,它就不再只是一个工具,而更像是一个会成长的系统

很多人养小龙虾的方式,其实还是典型的聊天对话的 Chat 模式:问一个问题,得到一个答案,然后结束这一轮交互。

Agent 在这个过程中并不会真正“记住”什么,每一次对话几乎都是从零开始。

但如果一个 Agent 能够记录自己的错误,复盘每天的交互,从中总结经验,并把这些经验沉淀为可复用的能力,那么它就具有了学习能力。

最近我在 OpenClaw 里体验到的两个Skill技能,正好赋予了 Agent 这种能力:self-improving-agent,和 AutoSkill

简单来说,前者让 Agent 自己学会成长,而后者让 Agent 的技能库也能够持续进化。

如果把 Agent 看成一个数字员工,这两个技能相当于给员工建立了一套完整的复盘和方法论沉淀机制

Self-Improving Agent 是一个很有意思的技能。安装完成之后,系统会自动创建一套简单但实用的学习结构。

首先,它会在系统中生成一个 目录,并在里面建立三份文档,用来记录在日常交互中的经验。

第一份是 ERRORS.md,专门用来记录各种失败和异常,例如命令执行失败、工具调用出错或者推理出现偏差。

第二份是 LEARNINGS.md,用来沉淀新的经验和**实践,比如用户纠正的信息、更加高效的解决方案,或者某个工具更好的使用方式。

第三份则是 FEATURE_REQUESTS.md,专门收集用户提出的改进建议。

很多工程团队都会维护类似的这套结构的文档:错误记录、经验总结以及需求列表。

只不过这一次,写这些文档的不再是工程师,Agent 开始像工程师一样写复盘文档了。

更有意思的是,这套系统并不是被动记录,而是带有自动触发机制

只要出现一些典型场景,例如命令执行失败、用户纠正回答,或者发现更优的解决方案,系统就会提醒记录相关经验。

随着时间推移,这些记录会逐渐形成一套属于这个 Agent 的知识沉淀。

另外,为了最后增加一个兜底的机制,我让 OpenClaw 设置了一个定时任务:每天凌晨 4 点自动进行一次自我反思。

放在凌晨 4 点考虑这个时间是资源最空闲的时候。

在这个过程中,脚本会检查当天的对话记录,并尝试从这些交互中提取有价值的经验。

例如哪些问题曾经失败、哪些解决方案更有效、是否出现了新的工具使用方式。随后这些经验会被整理并更新到核心记忆库 中,同时记录新的版本历史。

整个过程有点像一个工程团队的“日终复盘”。区别只是,这一次复盘的对象不再是人,而是一个 Agent。

很多技术团队都强调复盘文化,因为经验如果不沉淀,很快就会被遗忘。而现在,AI 也开始做同样的事情了。

某种意义上,这已经非常接近一个真实团队中的知识管理系统。

用一句话总结这个能力:让 AI 具备持续学习的能力。

ClawHub 地址:https://clawhub.ai/pskoett/self-improving-agent

如果说 Self-Improving Agent 解决的是“Agent 自己如何学习”,那么 AutoSkill 解决的是另一个的问题:

技能如何持续迭代进化。

AutoSkill 是一个来自华东师范大学和上海人工智能实验室的开源项目。它的核心思想很直接:

不是人为设计所有技能,而是让系统从真实交互中自动提炼技能

换句话说,技能不再只是 Prompt,而是从经验中长出来的能力。

AutoSkill 框架由两个紧密耦合的流程组成。

右环,即技能进化,通过提取和维护将交互体验转化为显式技能。

左环,即技能增强响应生成,利用当前的技能库,通过查询重写、技能检索和上下文注入来支持响应生成。

这样,系统通过记忆增长而非模型微调来持续改进。

在之前的系统中,技能往往是人工设计的静态或者是动态拼接的提示词 Prompt。

AutoSkill 尝试做另一件事情——观察用户和大模型的交互,然后从这些经验中抽象出可复用能力

当用户和 Agent 进行长期交互时,系统会分析这些对话和行为轨迹,从中寻找稳定的模式。

例如某些固定的写作要求、工作流程或者表达风格。当这些模式反复出现时,系统就会把它们抽象为一个可复用的技能。

这种技能会被保存为一种标准化文档形式,通常叫做 SKILL.md。技能里面不仅包含描述,还会记录触发条件、标签以及执行提示。

相比传统 Prompt,这种结构更加透明,人类也可以直接查看和编辑。

更重要的是,技能并不是一次性创建的

AutoSkill 为技能设计了版本管理机制,就像软件版本升级。

当用户在后续对话中提出新的约束或反馈时,系统不会创建新的技能,而是把新的经验合并到原有技能中,并自动升级版本号。

这样一来,技能会随着时间不断被优化,而不是越来越碎片化。

从整体流程来看,AutoSkill 的工作逻辑其实可以用三个步骤来概括: 摄取经验、提炼技能、复用能力。

首先,系统会摄取用户交互过程中的各种信号,例如对话内容、行为轨迹以及用户反馈。

这些数据本身并不直接成为技能,而只是原始学习材料。

随后系统会分析这些材料,判断其中是否存在可复用模式。

如果只是一次性的请求,例如“写一篇报告”,系统通常不会生成技能。

但如果用户反复强调某些稳定约束,比如要求保持专业语气、避免幻觉、严格保留原意,那么这些规则就会被提炼为一个技能。

最后,系统会对这些技能进行维护和管理。新的能力会被加入技能库,已有技能则可能被更新或合并,而不具备复用价值的模式则会被过滤掉。

随着时间推移,一个越来越成熟的技能库就会逐渐形成。

论文中有两个非常有意思的案例。

其中一个技能被命名为“顶级心理咨询师”。这个技能并不是人工编写的,而是系统从用户对话中总结出来的一种行为模式。

它要求 Agent 在回应心理问题时保持温暖、共情和专业的语气,同时避免给出医疗诊断或药物建议。

另一个案例是一个文本重写技能,名字叫 professional_text_rewrite

这个技能的目标是让 Agent 在重写文本时提高流畅度和专业度,但必须严格保留原意,并且不添加额外解释。

这个技能在系统中已经迭代到了 0.1.34 版本,说明它通过用户反馈被持续优化了三十多次。

这些案例说明了一件事情:

技能并不是设计出来的,而是从经验中长出来的。

AutoSkill 开源项目地址:

https://github.com/ECNU-ICALK/AutoSkill

AutoSkill 论文:

https://arxiv.org/abs/2603.01145

安装提示词:

从 Self-Improving Agent 和 AutoSkill 的设计中,其实可以看到 AI Agent 的一个重要趋势:未来的核心不只是模型能力,而是进化能力。

一个真正成熟的 Agent 至少需要具备三种能力。

首先是记忆能力,它能够记住用户的习惯和偏好。

其次是复盘能力,它可以从错误和失败中不断学习。

最后是技能沉淀能力,把一次次经验转化为稳定的解决方案。

当这三件事情结合在一起时,Agent 就会逐渐变成一种新的形态:

个人数字替身

它会慢慢理解你的写作风格,记住你的工作方式,逐渐优化你的工作流程。

时间越久,这个 Agent 就越像你自己。

过去我们使用 Agent,本质上是在使用一种工具。

Self-Improving Agent 让 Agent 学会复盘自己,而 AutoSkill 则让技能能够不断进化。

当这两种能力结合在一起时,AI 不再只是回答问题,而是开始持续积累经验、沉淀方法,并逐渐形成自己的能力体系。

某种意义上,这可能就是未来 Agent 的形态:

随着时间不断迭代的智能助手

如果你的 OpenClaw 能够持续学习、复盘并沉淀技能,你最希望它先学会哪一件事?

欢迎评论区留言。

<完>

推荐阅读:

腾讯版"小龙虾"免费用!WorkBuddy 公测上线|QClaw 也在内测中

小讯
上一篇 2026-03-18 08:39
下一篇 2026-03-18 08:37

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/242798.html