从2025年末到现在,技术圈最炸裂的事情,不是哪家大模型公司发布了什么新的万亿参数模型,而是一个叫OpenClaw的开源项目。它在GitHub上的星标数量,从零起步,仅仅用约60天的时间就超越了React积累十年的星标,成了GitHub历史上星标数最多的软件项目,截至2026年3月,星标数已超过28万。很难想象,一个开源项目能引来包括阿里云、腾讯云、华为云、火山引擎、百度智能云在内的几乎所有国内主流云厂商火速跟进,纷纷上线一键部署方案。
社区给它起了一个非常接地气的名字,叫小龙虾,或者龙虾。围绕它的一系列操作,从部署、配置到扩展,也被大家戏称为养龙虾。
OpenClaw并非传统意义上的聊天AI,而是一个统一的AI基础设施。它的核心价值在于整合了渠道接入、Agent管理、会话控制、权限隔离、多角色协作这五大能力,让用户无需在多个工具间切换,即可通过日常聊天软件调度AI完成复杂任务。
这篇博客是我在学习大佬叶小钗的公众号(https://mp.weixin..com/s/jcR6huWnQq4Wk8syKvdFDQ)后一些学习记录。博主叶小钗的拆解分了几部分,非常详细,感兴趣的朋友可以去看看。
OpenClaw解决的不是让AI更会聊天,而是把方案变成动作,把建议变成执行。传统AI助手,无论是ChatGPT、Claude还是国产的DeepSeek、豆包,本质上都是对话系统,它们能给你建议、方案、灵感,但不会动手。你说帮我整理一下今天的邮件,它只能告诉你你可以按以下步骤操作,然后你自己去点鼠标。OpenClaw的不同之处在于,它不只是给你方案,而是直接把方案变成动作,把建议变成执行。
第一,交互价值。OpenClaw把AI放进了聊天软件里。用户不需要装新App,不需要学新界面,直接在WhatsApp、Telegram、Slack、飞书、钉钉等熟悉的聊天工具里给它发指令,它就去执行。对企业来说,这意味着部署成本和培训成本更低,天然适配工单、协同、群聊这种组织形态。聊天入口可以成为通用行动入口,OpenClaw选择聊天作为入口,意味着它在定义一种新的行动界面,这层做得越顺,Agent越可能进入高频日常使用。
第二,能力价值。真正改变生产力的,是能力可以沉淀成Skill,在团队内可复用、能被审计与迭代,还能像组件一样组合。ClawHub作为OpenClaw的官方Skill注册中心,已汇聚超过13000个社区贡献的技能插件,覆盖代码开发、自动化运维、内容创作、知识管理等全场景需求。这些Skill如同乐高积木,让数字员工可规模化成为可能。过去的名字叫作梳理SOP,现在的叫法是把Know-How变成Workflow。
第三,数据价值。OpenClaw坚持本地优先原则,引擎、数据、日志均存储在自有设备上,敏感数据不出内网,隐私与合规性极强。同时它又是模型无关的,兼容GPT、Claude、Llama、Kimi、Ollama等几乎所有主流大模型。你可以自由选择用谁的模型、数据存在哪,不被任何一家厂商锁定。本地优先是一种信任策略,而非保守路线,自托管模式让用户拥有可感知的控制权,而不是抽象的安全承诺。
入口,也就是Gateway,接受各渠道的消息,做统一格式化与路由分发。大脑,也就是Agent Runner,跑Agent Loop做推理和决策。手脚,也就是本地执行器或沙箱执行环境,真正去操作文件、命令行、浏览器、API调用等,并做权限与安全控制。技能包,也就是Skills,可插拔的能力扩展模块。
整个架构的关键价值在于,将思考和动手彻底分开。大脑负责推理决策,手脚负责安全执行,互不污染,互不影响。这也是它区别于传统聊天机器人的核心设计原则。
用户接口层,包括CLI、Web UI、Mobile App、WebSocket API等入口,把用户操作转成统一的内部请求。
Gateway核心层,包含HTTP Server、WS Runtime、Channel Manager、Agent Event、Config Reloader、Health Mon等组件,负责连接管理、请求接入、配置热加载、健康监控等基础治理工作。真正让整个系统常驻运行、能接消息、能维持状态的,不是单个Agent,而是这个Gateway。
消息处理层,包括Routing System、Session Manager、Media Pipe、Agent Runner、Outbound等模块,是业务逻辑真正流转的核心。
扩展与插件层,包括Channel Plugins、Plugin System、Skill System、Tool System、Sub-Agent,构成了OpenClaw的可扩展生态。
基础设施层,包括Config、Secrets、Logging、Cron、Events、Memory、Security等底层支撑服务。
OpenClaw采用以单个网关为中心的星型架构,核心是作为控制平面的网关和在Agent Runtime上运行的代理循环。它通过插件化适配器统一接入各即时通讯渠道,并利用Webhook对接国内平台,同时通过心跳机制与Cron调度器,实现7×24小时的任务值守与主动触发。
假设你在飞书里发送了一条消息:帮我整理今天的重要邮件,提炼待办,并生成一份给老板的简报。这条消息进入OpenClaw后会经历怎样的过程?我们沿着完整链路走一遍。
每个平台的消息格式不同,有的带message_id,有的叫thread_ts,有的消息体结构极其复杂。如果核心逻辑直接处理这些异构数据,代码很快就会变成一团乱麻。所以OpenClaw的第一步,不是让Agent去理解任务,而是先做协议适配。每个外部渠道都有一个专属适配器插件,把原始消息清洗成统一的内部对象MsgContext。这一步把平台差异隔离在了网关入口,而不是污染到整个Agent执行链路。
入站后的信息虽然已经封装成MsgContext,但还要再过一个关卡。这是为了将所有入站信息的处理入口都收敛成同一个总开关,主要做两件事:最终化入站上下文,补全缺失字段、标准化格式、统一上下文表示,在进入核心处理逻辑前再做一次收束,然后交给回复分发器。
消息一进入主链路,OpenClaw不会立刻给模型,而是先做三类判断。要不要处理,有没有重复,该交给哪个Agent。
去重。Webhook可能重试,平台可能重复推送,网络抖动也可能导致同一条消息被系统收两次。如果不做幂等控制,最坏的结果不是多回复一句,而是同一任务被执行两次、同一工具被调用两次、同一笔成本被重复消耗。OpenClaw会为每条消息生成一个幂等键,只要缓存里发现这个键已经处理过,系统就直接返回,避免重复调用昂贵的LLM API,默认TTL是20分钟。
拦截。有些消息不是给Agent的,而是给系统发控制命令的,所以除了去重,系统还会做一些快速拦截,直接在网关层处理,无需大模型参与。
快速响应。对于Web请求,系统通常还会先通过WebSocket返回一个started状态,然后再异步执行后续处理。这一步看起来小,但很重要,因为模型思考、工具调用、网络请求都可能很慢,如果前端一直等最终结果,很容易超时,也容易让用户产生卡死了的感觉。
OpenClaw的路由根据通道类型,采用两套不同策略。Web内部通道,客户端通常可以直接传sessionKey,格式一般是agentId:scope。外部通道如Discord、飞书,客户端本身并不知道系统内部的会话组织方式,所以必须通过配置里的绑定规则来决定该交给哪个Agent。绑定规则按优先级从高到低匹配:精确对等体匹配,Discord服务器加角色匹配,Discord服务器匹配,通道账户级匹配,通道级匹配,默认Agent。
一旦Agent确定下来,系统就会为这次对话构建sessionKey,格式一般是agentId:scope。这个键承担两件事:会话隔离与并发控制。接着进入会话车道机制:相同sessionKey的消息必须串行执行,确保上下文连贯。如果同一会话里两条消息同时跑,很容易出现上下文错乱。除了会话级串行,系统还可以配置全局最大并发数,如果同时进来太多消息超出容量,就先进入等待队列。两层节流,会话层防止同一条对话乱序,系统层防止整个运行时被打爆。
消息终于排到了,Agent要开始跑。但跑之前,先要组装完整的上下文。组装顺序非常重要,它定义了模型的认知层级。
先知道自己是谁,通过系统提示词,包括AGENTS.md、SOUL.md、IDENTITY.md等文件。再知道自己能做什么,通过技能提示,即可用Skills列表。再知道之前发生了什么,通过对话历史,带压缩策略。最后看用户说了什么,即当前消息。
系统提示词的职责是定义Agent的角色、行为规则和安全边界。OpenClaw做得非常工程化,它不是把一整段prompt硬写死,而是通过Bootstrap文件系统来注入。这些文件位于工作区目录,包括AGENTS.md定义行为规则,SOUL.md定义个性和人格,TOOLS.md定义工具使用说明,IDENTITY.md定义身份标识信息,USER.md定义用户偏好,HEARTBEAT.md定义心跳检测提示,BOOTSTRAP.md定义初始化引导,MEMORY.md定义长期记忆。
系统提示词里还会显式包含记忆召回规则,明确告诉模型:碰到和历史决策、偏好、待办、日期等相关的问题时,先查记忆,再说话。这就把记忆从模型模糊的上下文残留,升级成了一种显式检索机制。
Skills的加载是OpenClaw最精妙的设计之一。它的核心机制是渐进式披露,平时只加载元信息,即名称加描述加路径,只有当模型决定要用某技能的时候,才加载更完整的说明,必要时再加载references。这一机制的关键作用不是节省token,虽然也省,而是降低工具的错误使用率。如果把所有技能的完整文档一次性全塞给模型,不仅prompt会炸,模型也容易在众多选项中选择错误的工具。
技能加载流程大致分四步
发现,系统从多个来源扫描技能文件,包括工作区、用户全局目录、内置目录、插件目录。加载优先级由低到高:内置,用户安装,Agents通用,项目专属,工作区本地。也就是说,你在工作区定义的skill会覆盖系统自带的。
过滤,不是所有发现的技能都能直接用,系统会根据平台、消息通道、发送者权限、黑白名单配置等多重条件过滤。
安全检查,OpenClaw对Skills做了三层策略管道,Profile过滤应用全局工具白名单,Sandbox过滤应用沙箱环境限制,Subagent过滤子代理权限继承。
生成提示词,最后系统把可用技能描述格式化为结构化文本注入系统提示词,供LLM需要时调用。
上下文组装好了,Skills加载完毕,接下来进入核心执行环节,也就是Agent Loop。这是将消息转化为操作和最终回复的权威路径,同时保持会话状态的一致性。这里的工程思路实际上和大多企业的Agent开发思路差不多,思考-执行-检查-回溯,这也是几天Claude Code的Harness工程的简单版。
OpenClaw使用SSE或WebSocket做流式输出。当LLM开始生成内容时,系统把内容块实时推送给客户端,让用户立即看到输出开始,而不是等全部完成后一次性返回。这能明显降低感知延迟,也更适合长任务。
当LLM判断需要调用工具时,系统会暂停文本流,执行对应工具,读取文件、调用API、搜索记忆等,执行完后把结果反馈给LLM,让它继续推理。整个过程严格遵循ReAct范式,基于当前状态推理,选择合适行动,观察行动结果,根据结果调整后续策略。
真实生产环境里,出错是常态。OpenClaw做了多级回退策略:限流时指数退避或切换备用模型;认证错误时轮换多个API Key;超时错误时降低thinking级别或换更快模型;上下文溢出时触发压缩或换更大上下文模型。这部分很能说明OpenClaw的工程取向,它不假设模型永远稳定,而是假设运行过程随时可能失败,所以提前把兜底路径都铺好。
Agent处理完后,系统还要做三类收尾。
响应投递,回复分发器根据消息上下文中的来源通道和目标地址,调用对应通道的出站适配器发送消息。
会话持久化,更新sessions.json的元数据,把用户消息、AI回复、工具调用等内容追加到JSONL转录文件。
资源释放,释放会话车道锁、释放全局并发配额、标记幂等键为已处理、定期清理过期会话、归档旧转录。
OpenClaw的记忆系统是它最让人惊喜的部分之一。用过的人都有这种体验,几个月前随口提过的偏好,下次聊天它还记着;上周讨论过的项目细节,这周接着聊它能无缝衔接。
OpenClaw的记忆分为三个层次。
短期记忆,每天一个仅追加的日志文件memory/YYYY-MM-DD.md,记录当天发生的事。新会话启动时,系统会自动加载今天加昨天的日志,让Agent拥有最近48小时的连续感。
近端记忆,完整的会话存档,采用JSONL格式,当对话太长被压缩时,关键信息会被冲刷到这里。
长期记忆,经过筛选的持久知识,包括你的技术栈偏好、项目决策、常用工具链。这些信息会在每次私聊时自动加载。
这套分层设计的核心思想是,模型不需要知道所有事,只需要知道此刻最相关的事。每次对话开始时,系统会固定加载五个文件:soul.md、user.md、今天的记忆、昨天的记忆,以及MEMORY.md。
光有Markdown文件不够,要在大堆文本里快速找到相关内容,必须建索引。每个Agent对应一个独立的SQLite数据库,位于~/.openclaw/memory/agentId.sqlite。数据库包含files表记录文件元数据,chunks表存储文本块,chunks_fts表提供全文搜索,chunks_vec表提供向量搜索。
搜索的时候,系统使用混合检索,BM25关键词搜索和向量语义搜索按权重融合,默认向量70%、关键词30%,然后可选地应用时间衰减,最近的笔记权重更高,和MMR去重,避免返回五条几乎相同的内容。
OpenClaw实现了BM25加向量语义的混合搜索。BM25全文检索基于SQLite FTS5引擎,擅长精确的关键词匹配,速度极快,适合搜索专有名词、错误码、代码片段这类不能改变一个字母的精确内容。向量语义搜索则能理解换一种说法的查询,比如怎么给函数加额外行为能匹配到Python装饰器。
一旦把系统提示词、技能提示、历史记录、当前消息全塞进去,上下文总有一天会爆。OpenClaw做了一整套防爆机制。
历史轮次限制,根据通道配置限制保留的历史轮数,从最新消息开始往前扫描,丢弃更早的部分。
工具结果截断,工具调用结果可能非常大,比如长文本、大JSON、多页日志,系统会自动截断,判断是否要保留尾部关键信息。
自动压缩,当上下文接近模型限制时,系统把早期历史分块,为每块生成摘要,用摘要替换早期历史,同时保留最近几轮完整对话。摘要生成时要求保留活跃任务、操作进度、已做决策、后续依赖信息。
三级压缩策略,摘要压缩最智能,截断压缩最简单,混合压缩两者结合。
容错与降级,如果压缩后仍然超限,系统会尝试切换到上下文更大的模型、降低thinking级别,最终回退为提示用户重置会话。
2026年4月5日,OpenClaw在其最新版本中正式上线了实验性功能梦境。这不只是一个浪漫的命名,而是一套像素级复刻人类睡眠逻辑的后台记忆整理系统,让智能体醒来之后记住的东西更准。
梦境系统将智能体的运行状态划分为三个逻辑阶段。
浅睡阶段,系统扫描近期的日常对话和召回痕迹,核心任务是去重,将冗余内容剔除并生成候选清单。此时系统仅在后台暂存数据,不会对核心记忆文件MEMORY.md进行任何改动。
深睡阶段,系统采用严格的加权评分机制,只有同时跨过最低评分、最低召回次数和最低独特查询次数这三道门槛的信息,才有资格通过筛选。在正式写入前,系统会再次对比最新日志以剔除过时内容,最终将高价值内容追加至MEMORY.md。
快速眼动阶段,在记忆固化之后,系统开始寻找信息间的隐秘关联,基于短期的行为痕迹构建底层逻辑模式和反思摘要,帮助智能体在处理复杂逻辑时表现得更具大局观。
评分机制包含六个维度:相关性权重30%,频率权重24%,查询多样性15%,时效性权重15%,整合度权重10%,概念丰富度权重6%。这套机制让记忆不再是简单的存取,而是一个持续筛选、沉淀、关联的认知过程。
梦境功能默认是关闭的,用户可以通过发送dreaming on命令或在配置中启用来主动选择何时以及如何让OpenClaw整合记忆。
当单一Agent承载过多任务时,记忆负担会变得极其沉重,token消耗也会急剧增加。就像公司里的组织分工一样,系统复杂度达到一定程度后,分工和专业化几乎是必然的。
持久Agent是独立存在的常驻角色,有专属配置、记忆空间与频道绑定,永久运行。每个Agent拥有专属工作区、人设、技能与模型配置,消息按规则自动路由,实现一个入口、多个专家的高效协作模式。
子Agent是从主Agent会话中临时派生的任务型角色,通过sessions_spawn工具动态创建,任务完成后自动归档。适用于单次临时任务,如专项数据处理、短期调研。
创建子Agent时,系统会做严格校验:嵌套深度检查防止无限递归,并发限制检查防止资源耗尽,允许列表检查,沙箱状态检查。通过后,系统生成唯一子会话键,并为子Agent生成专门的系统提示词,明确强调它的边界。
打破Agent隔离的关键是四种官方通信工具。
sessions_send,向指定Agent发送消息,写入双方记忆,用于持久Agent之间的数据同步。
sessions_spawn,派生临时子Agent,执行单次任务。
file_share,跨Agent共享文件,支持权限控制。
context_inherit,子Agent继承主Agent上下文。
sessions_spawn就像雇佣新员工完成任务,招募专家,分配任务,完成后自动提交报告。sessions_send则像与现有同事实时沟通,向在职同事发消息,进行多轮讨论。
OpenClaw在Agent配置上采用三级继承机制:Agent级配置优先级最高,全局默认配置次之,代码默认值兜底。这种设计让多Agent系统既灵活,又不至于配置爆炸。
截至2026年3月,OpenClaw官方技能库已突破3000个,覆盖办公自动化、开发辅助、生活服务等全场景,形成了活跃的开发者生态。ClawHub作为官方Skill注册中心,核心定位类似npm之于Node.js、App Store之于iOS,所有Skills都是公开的、开放的,所有人都可以查看、共享和复用。但Skill多,并不代表有用。很多Skill功能重复、质量不稳定、权限过大,甚至存在安全风险。真正长期可用的Skill,其实只有几十个。
OpenClaw的安全风险本质是高权限自主执行能力与薄弱安全防护体系的不匹配。根据国家信息安全漏洞库统计,仅2026年1月至3月9日期间,共采集OpenClaw相关漏洞82个,其中超危漏洞12个、高危漏洞21个、中危漏洞47个。
除了OpenClaw系统本身的漏洞,外部生态的威胁同样触目惊心:ClawHub上已发现1184个恶意技能包,另有824个恶意技能伪装成加密货币工具、YouTube工具等,通过供应链投毒方式窃取API密钥、凭证及浏览器数据。
2026年初安全社区披露过一个名为ClawJacked的漏洞,恶意网站可以在无需插件、扩展程序或任何用户操作的情况下,静默完全接管开发者的AI智能体。
工信部网络安全威胁和漏洞信息共享平台也已正式发布预警,直指OpenClaw在默认或不当配置下存在较高安全风险,易引发网络攻击、信息泄露。
安装Skill前建议做三件事。使用Skill Vetter扫描Skill代码安全性,重点检查网络请求、文件访问、shell执行。使用Security Scanner查看安全评级,红色直接删除。使用100/3原则,只安装下载量大于100、发布时间超过3个月的Skill。
对于企业场景,建议采用私有技能仓库加安全审核加最小权限加操作审计。部署时把OpenClaw与现有业务系统进行VPC、子网的隔离,或者通过安全组和ACL的配置进行精细访问控制降低风险。网关默认只绑定loopback,即127.0.0.1:18789,不要为了远程访问而粗暴地暴露端口。
2026年3月,OpenClaw密集发布了多个重要更新。
3月7日发布的测试版带来了可插拔的上下文引擎。过去在OpenClaw中,上下文管理逻辑是写死的,例如对话过长时如何压缩历史、如何拼接上下文、何时丢弃旧信息,这些都由系统内部固定实现,插件几乎无法介入。这次更新新增了ContextEngine插件插槽,提供完整的生命周期钩子,包括bootstrap、ingest、assemble、compact、afterTurn、prepareSubagentSpawn、onSubagentEnded。插件可以在上下文生成、压缩、拼接以及子Agent生命周期管理的各个阶段介入,从而实现完全不同的上下文策略。
官方重点推荐的插件lossless-claw展示了一种新的上下文管理思路。在传统Agent系统中,一旦对话过长,系统通常会直接丢弃旧内容。而在lossless-claw中,旧对话不会被删除,而是持久化到SQLite数据库,按对话组织,对旧消息块生成摘要,将摘要压缩为更高层级节点形成有向无环图,每轮对话时将摘要加最近原始消息组合成上下文,并提供工具让Agent可搜索、回溯历史。理论上,上下文永远不会丢失。
3月31日发布的版本,104位开发者联手重写底层,第一次给AI Agent装上了操作系统级的任务控制面板。这次更新把ACP、subagent、cron、后台CLI四种执行体,全部统一到一个SQLite支持的任务账本上。所有后台任务现在有统一的生命周期管理,心跳监测、丢失任务自动恢复、审计与维护全部内建。引入了task flow注册表,开发者可以用openclaw flows list、show、cancel来查看和控制任务流,多任务编排有了父记录的概念,不再是一堆散落的孤儿进程。
在安全方面,ACP的危险工具审批机制被重写了。以前的逻辑是按工具名覆盖,把工具名加进白名单就自动放行,问题显而易见,一个叫read_file的工具,背后可能挂着间接执行代码的能力,名字看不出真实风险。现在改成了按语义类别审批,只有窄范围的只读操作可以自动批准,间接具备执行能力的工具和控制平面工具,一律需要用户显式确认。插件安装现在默认fail-closed,如果内置安全扫描发现危险代码,安装直接失败。
如果你是第一次养龙虾,这里有几条经过验证的实践建议。
1. 从高频重复任务开始建Skill。不要一上来就想让Agent包揽所有工作。先找一个你最熟悉、频率最高、规则最明确的重复任务,把它变成一个Skill。成功的Skill必须要有明确的触发条件、明确的输入输出、明确的失败处理、明确的权限边界、可回放的执行日志。
2. 把Skills当资产而不是脚本。每个Skill是一个独立的能力模块,而不是一次性脚本。它应该可以被复用、被组合、被审计、被迭代。ClawHub上的上万技能虽然多,但真正长期可用的其实只有几十个。建议使用100/3原则筛选:只安装下载量大于100、发布时间超过3个月的Skill。
3. 用灰度加审计把风险降到可控。先在非生产环境跑,先做只读功能如查询、分析、报表,再逐步开放写入与执行,全程留痕、可追溯、可回滚。
OpenClaw不是一个AI神话,它的Agent范式没有升级,模型能力也没有迎来突破,本质上只是把大模型的推理能力接到了一套可控的执行系统上。用博客中大佬的一句话说,之前Workflow能做的事,OpenClaw能做;之前Workflow不能做的事,OpenClaw自然也不能做。
但它的真正价值在于,把从方案到动作这一步做得系统化、工程化、可规模化。它不是一把万能钥匙,但它是一把趁手的工具,如果你知道用它来开哪些锁。
就像任何技术一样,不要把它当作银弹,而是把它当作工具箱里新增的一把工具。用好它,需要的不是技术幻想,而是工程思维和务实态度。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/254915.html