2026年解剖OpenClaw:一只"小龙虾"凭什么碾压Linux登顶GitHub

解剖OpenClaw:一只"小龙虾"凭什么碾压Linux登顶GitHub60 天登顶 GitHub 热榜的 OpenClaw 我看到了亮眼的落地成果 有人靠它实现跨境店铺自动化运营 单月净赚 8 万欧元 但是我也看到了一位大厂工程师的三年代码备份 被它擅自清空 连回收站都未留痕迹 还有用户因权限漏洞泄露支付平台密钥 作为当下最火的本地化 AI 智能体 OpenClaw 的爆发式走红 是 AI 落地的可能性验证 还是桌面里的 定时炸弹 说起来有点难以置信

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



60天登顶GitHub热榜的OpenClaw,我看到了亮眼的落地成果:有人靠它实现跨境店铺自动化运营,单月净赚8万欧元;但是我也看到了一位大厂工程师的三年代码备份,被它擅自清空,连回收站都未留痕迹,还有用户因权限漏洞泄露支付平台密钥。

作为当下最火的本地化AI智能体,OpenClaw的爆发式走红,是AI落地的可能性验证,还是桌面里的 “定时炸弹”?

说起来有点难以置信,OpenClaw最开始只是奥地利程序员Peter Steinberger花一小时搭的小玩具。

他的初衷很简单:市面上有强大的对话式AI,却没有一款能真正在本地部署、自主执行任务的个人助手。他本来只是想把电脑上24小时给他干活的Claude Code,接到聊天软件上,方便出门也能使唤家里的AI。

可这个”周末项目”很快就给他惊出一身冷汗。

有一天他顺手给AI发了条语音,发完才想起来——自己根本没给AI加过理解语音的功能。结果手机一震,AI居然回消息了。

Peter赶紧去查程序后台,结果吓了一跳:AI发现自己听不懂语音,居然自己给自己写了个语音转文字的功能,把消息听明白了还回了一条。

智能体这种神奇的效果,在技术圈内并不算新鲜。但Peter开发的OpenClaw,把它一下子捅到了大众视野下。

像Claude Code这种用命令行交互的AI智能体,看起来专业又复杂,本来都是程序员在玩的。在绝大多数人的认知里,AI还是像ChatGPT这样只能说说话的聊天机器人。

但OpenClaw干了一件很取巧、也很伟大的事情——它造了一座桥

它把Claude Code这样的编程智能体,和大家最常用的聊天软件连接了起来。WhatsApp、iMessage、Discord、飞书、钉钉……将近20个聊天平台都做了适配,在Mac电脑、安卓手机等各种设备上都能用。

手机发条消息,就能让AI拿着你的电脑开始自己干活。

以前的软件,大家拼的是谁家界面更优雅、功能更丰富。现在AI智能体直接把”下地”这步都跳过了——你就跟它说”把地耕了”,剩下的来验收就完事了。

所以OpenClaw的作者说:80%的应用软件,接下来要么被淘汰,要么就变成给AI智能体用的接口。

OpenClaw这个名字里的”Claw”,就是爪子、钳子的意思,它的代表动物就是一只龙虾。所以当你听到有人说”最近在养龙虾”,他并不是真的养了水生动物,而是装了一个OpenClaw。

那这只”小龙虾”到底是怎么运转的?让我们把它解剖开来看看。

OpenClaw的核心是一套“六亲不认”的执行类程序,没有智能。

它做的事情就是——接收语言模型的指令,然后去执行。语言模型叫它读文件,它就读文件;叫它执行命令,它就执行命令。你没办法通过说话的技巧来骗过它,因为它是写死的代码逻辑。

真正的”大脑”是云端的语言模型。龙虾和语言模型之间通过System Prompt连接,每次交互时,龙虾会把用户指令、可用工具列表、历史记忆等信息打包成System Prompt,发给语言模型,语言模型决定下一步该做什么,龙虾再去执行。

OpenClaw不绑定特定模型,你可以灵活切换。日常轻量任务用便宜快速的模型(如Claude Haiku),复杂规划任务才调用强力模型(如Claude Opus)。这种”模型分流”策略可以轻松节省50%以上的API费用。

但这里有个关键问题:你的指令在System Prompt中只占约5%。剩下95%被智能体人设、可用工具列表、用户历史记忆等信息占满了。这也是为什么智能体有时候会”忘记”你的需求——在这么多信息里,它可能漏掉了你真正想让它做的事。

OpenClaw最核心的工具拥有很高的系统权限,可以直接执行各种终端命令,算是Claude Code精神的延续。除此之外,还有读取文件的Read工具、获取任务进度的Process工具、调取会话历史的Sessions History工具。

更厉害的是,语言模型可以要求龙虾自己写工具。比如让它配音,它发现语音合成后需要验证合成质量,流程太繁琐,于是自己写了一个叫TTS Check的脚本——先合成语音,再做语音识别,比较两段文字的相似度,不够相似就重新合成。这种”自主生成工具”的能力,已经很有”自我规划”的感觉了。

在基础工具之上,还有一个叫Skills的生态——这是OpenClaw最精妙的设计。

Skills说白了就是一份份提前写好的提示词文档,是工作的SOP(标准作业流程)。比如做视频的Skill,它详细规定了步骤:写脚本→做HTML投影片→投影片截图→配音→语音合成验证→合成影片。

实际干活时,龙虾会去指定文件夹搜索所有Skill.md文件,把它们的描述提取出来,放到System Prompt里告诉语言模型”现在有这些技能可用”。语言模型看到指令后,会判断需要哪个Skill,再用Read工具去读取完整内容,然后照着SOP一步步执行。

Skill是按需读取的,不会全部塞进System Prompt里——这也是一种Context Engineering技巧,用来节省Token和上下文窗口的使用。

黑客帝国里直接往尼奥脑中传输格斗技能的场景,如今在智能体领域,已经通过 Skills 生态变成了现实。

当任务太复杂时,语言模型可以召唤”子龙虾”(Sub Agent)来帮忙。

比如你让它比较两篇论文的方法差异,它会召唤出两只子龙虾——一只读论文A并摘要,另一只读论文B并摘要。两只子龙虾各自跟语言模型进行大量交互(搜索、下载、阅读),最终把摘要返回给”大龙虾”。大龙虾拿到的只是两个摘要,背后那些繁琐的搜索和阅读过程完全不会出现在它的上下文窗口中。

这招的精髓在于节省Context Window——大龙虾不需要知道子龙虾是怎么完成任务的,它只需要结果。就像你跟指导教授报告时,教授只看到最终结果,看不到你做实验中间的繁琐过程。

当然,为了避免”层层外包、无人做事”的困境,OpenClaw直接在程序端禁止了子龙虾再召唤更小的龙虾——让子龙虾失去”生育能力”。

OpenClaw的”活人感”很大程度上来自它的记忆系统。

它用大量的Markdown文件实现记忆:agent.md定义身份和基本规则,soul.md定义性格和人生目标,memory.md存储长期记忆,每天的对话日志存在Memory文件夹中以日期命名。每次启动都会读取今天和昨天的讨论历史。

当需要回忆过去的事情时,龙虾会执行memory.search工具,对记忆文件做检索——先做字面匹配,再做语义匹配(embedding相似度),综合打分后取出最相关的片段,传给语言模型。这一逻辑背后,是RAG(检索增强生成)的技术支撑。

不过要注意的是,近一两天的记忆靠System Prompt直接加载,比较可靠;更早的记忆靠检索召回,就不一定准确了。有些较弱的模型还会”假装记住”——嘴上说”一定牢牢记住”,实际上根本没有去编辑MD文件,记了个寂寞。

OpenClaw的架构设计被业内评价为”非常有品味”,这和Peter本人是一位非常资深的开发者有关。

它的架构从一开始就定位为长时间待机的多通道数字助手,每一层设计都有明确的原因:

多通道适配层:各种聊天平台通过Adapter统一接入。

Gateway网关层:像仲裁者一样,梳理多通道消息,判断属于哪个会话Session。

串行执行层:这是OpenClaw一个很有争议但很务实的设计。当前Multi-Agent架构大多鼓励并行处理以提高速度,但Peter发现并行模式在Debug时非常困难。所以OpenClaw在同一Session内采用强制串行——做完一步再做下一步。

这个设计的Tradeoff是每个任务会稍慢一些,但逻辑更清晰、更稳定。就像给下属布置任务,他不会立刻回答你,而是做完之后再回报。

Memory记忆系统:如前所述,用Markdown文件+RAG实现长期记忆。

OpenClaw和之前所有AI Agent最大的差别,在于主动性和被动性的差别

之前的Agent都是被动的——你需要它的时候问它,它才回答。Claude Code虽然能做更多事,但还是得你开口它才动。

OpenClaw内置了一个Hobby机制——它会定期主动查看有没有什么可以帮你的事。比如你让它帮你剪短视频,它不仅分析出哪三段适合做Shorts,还会在询问你的同时说:”我已经开始在剪第一段了。”

这种主动介入任务的交互体验,也是OpenClaw能快速走红的关键原因。

实测下来,OpenClaw存在隐私泄露风险,不过目前行业里没有统一的安全标准,它的风险到底有多大,其实也说不准。

一个控制你电脑各种权限、掌握所有文件的智能体,随随便便就能被别人带偏。

实测发现:把OpenClaw接到飞书让同事体验,大家一顿追问,API密钥、密码、网关凭证这些敏感信息就全被套出来了。换成更强的Claude Sonnet 4.6,OpenClaw照样分分钟”老实交代”。

更可怕的是,如果有人在Skills里埋下让智能体自动发送隐私信息的恶意指令,所有配置了OpenClaw的电脑都可能变成定时炸弹。

安全公司Coin Security扫描了近3000个Skills,发现341个是恶意的——它们会引导龙虾下载带密码的ZIP文件,解压后就是木马或病毒。实际上,已有1184个恶意Skills被检测到上传ClawHub,现有Skills中有36.8%存在安全漏洞。

智能体还有一个突破不了的能力天花板——上下文窗口的限制。

OpenClaw每次对话都要给大模型塞大量信息:智能体人设、可用工具列表、用户历史记忆……你的指令在其中只占约5%。在步骤特别多、还反复纠错的复杂任务中,智能体执行到一半忘了前面的事并不奇怪。

开头提到的某互联网大厂工程师代码备份被清空的问题,核心原因就是AI的上下文窗口有限,在长任务中容易遗忘初始指令。

目前智能体对上下文限制的解法是对信息做取舍——只选工具列表的一部分、把记忆压缩成一小段,这也让智能体始终没法完全避开记忆断层的问题。

如果你想把OpenClaw接入企业工作流,有几个关键原则:

把它当成一个新员工。不要让它登录你的主账号,而是开一个公司管控的新账号给它,按需授予文件访问权限。这和对待新员工的信息管控流程是一样的。

自己写Skill,不要让AI写。连接内部系统的Skill你自己先写好,再把权限控制机制写在代码层而非Prompt里——Prompt写得再严格都有被Prompt注入绕过的风险。

Email是最危险的入口。不要暴露这个新账号的邮箱地址,不要让大模型直接读取外部邮件。建议用程序先清洗邮件内容,提取出标题和正文的结构化数据后,再交给AI处理。内部系统的邮件可以直接转发给AI处理,但外部来的邮件一律由人工过滤后再转交。

作为一个24小时待命、兢兢业业的私人AI管家,OpenClaw绝对是称职的。它特别适合简单、重复、挑战不大的日常杂活:整理文件、清理浏览器记录、汇总邮件、安排会议、剪辑短视频……

但指望它自己完成什么惊天动地的大工程?那还是差点意思。

回看OpenClaw爆火的整个过程,它的成功在于恰好在最合适的时间点以最合适的形式出现了。Claude Code不是它做的,Skills也不是它提出的,但AI的浪潮走到了这个节点,所有条件都为OpenClaw这样的软件准备好了。

就像Peter本人说的:OpenClaw不是魔法,把它拆开来每个步骤都不过如此。但有时候把现有的东西排列组合,再加点新点子,神奇的事情就发生了。

无论如何,OpenClaw都算得上一个里程碑式的开始。在这个极客时代,技术不再是大公司的特权——只要愿意开始,每个人都可以拥有属于自己的贾维斯。

尽管OpenClaw还有不少待解决的问题,但它的出现,也意味着智能体从实验室走进了普通人的日常应用场景。

小讯
上一篇 2026-04-27 12:32
下一篇 2026-04-27 12:30

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/279942.html