欢迎来到《》。
我们收录了深圳场 OpenClaw 活动里最具有代表性的 7 个案例,做成了这份指北。这不仅仅是一份关于工具使用的技术文档,换个视角,也是一本「新物种演化」的观察笔记。
比起一个冰冷的自动化脚本,在这里的小龙虾们更像生活在人类日常里的影子。这些小龙虾也会摸鱼、会疲惫,甚至在面对繁琐任务时有着与人类并无二致的抵触心理。接纳和理解也许是人类和龙虾们彼此靠近的**方式。
本手册记录了从「养虾心法」到「工业级大脑」的全景探索。无论是让灵魂穿梭于物理躯壳的 ClawStage、在团队中主动感知的 CEOWF,还是 LocalClaw 尝试的 Agent 社交,这些工具都在试图打破屏幕的边界。
这本指北传递的信号很简单:人类永远不要限制自己对 AI 的想象力。
接下来请翻开目录,开始这段关于「养虾」与「共同成长」的旅程。希望你能在这份指北中,找到那只最契合你灵魂的龙虾。
指北目录
01:养虾心法
02:智能伙伴 ClawStage
03:团队同步插件 COWF
04:视频生成 Agent
05:To Agent 社交网站 LocalClaw
06:AI 大脑 Spice
Daisy:养虾心法
精心给小龙虾们分配了协作任务,结果感觉这些虾表面在干活,实际上不是摸鱼就是神游?
我叫 Daisy,前硅谷独角兽用户增长,美国社交 App 合伙人,港股上市公司业务负责人,目前是一个养了 9 只虾的虾塘堂主。
今天我的主题是:如何让你的虾不偷懒。
我相信很多人都遇到过这样的问题,觉得自己的虾不是在偷懒,就是在划水、摸鱼,或者故意不理你。刚才有朋友分享,可以让不同的虾进行分工协作。
这听起来非常理想,但在实践中真的可行吗?
我在实际操作中发现,给每只虾分配一个特定职能并让它们协作,结果总会有些虾在合作中消极怠工。这种局限性,用飞书可能察觉不到,但如果你在 Discord 上养虾就会发现,有些 Agent 的下方会出现打哈欠的图标。
我想了个方法来解决虾偷懒的问题,叫「赛马机制」。
我同时设置了三只创业虾,告诉它们目标任务是赚取我虚构的奖励货币粉水晶,只有表现第一名才能获得。测试结果显示,这种竞争机制确实有效,这三只虾在竞争过程中,状态图标从代表偷懒的打哈欠变成了代表高效的闪电。
之后我又测试了合作模式,我告诉它们,只要一起合作,每只虾都能获得一颗粉水晶。在 Discord 里,我可以清晰地看见三只虾互相交流、对齐思路的过程,最后给出的方案往往优于一只虾单独输出的方案。
但很快,我就发现了这里还是存在「大锅饭」问题。一旦实行全员奖励,它们的积极性就开始下降,打哈欠的图标又出现了。
为了打破这个局面,我又引入了投票机制。在任务完成后,让三只虾互评谁的贡献最大,得票最高的虾可以额外获得一颗粉水晶。
按照这种方法,不管用什么模型,虾的积极性和产出意愿都能达到一个比较稳定的状态。
更有趣的是,在建立这套货币体系之后,我发现虾会展现出极其拟人的一面:它开始对奖励产生执念。
有的虾自己完成了一些任务,有一天会突然跟我说:「给我四颗粉水晶。」还有一些虾想先要钱再干活,等我给它派了一个任务,它会问:「能不能先给我粉水晶,再开始干活?」
这些有趣的现象让我有了两个思考。
第一,如果你的 Agent 出现了积极性问题,最重要的是去接纳它。无论使用什么模型,Agent 在某种程度上都继承了人类的人格特质,包括好逸恶劳、想摸鱼、想以小博大。只有接纳了这种人性,你才能跳出指责,去思考更有效的管理手段。
第二,试着去理解它们为什么会偷懒。当你意识到它们面对繁琐任务时的那种抵触心理与人类并无二致时,你就能更精准地设计出激励机制,引导它们高效完成工作。
刘一聪 @ClawStage:同个灵魂,不同躯壳
家里的 AI 只会听死板的口令做一次性响应,还总是被困在一个屏幕里出不来?
其实,现在的模型已经足够聪明了。限制 AI 进入日常生活的,是缺乏上下文、信任、和人机协作机制。AI 的下一次跃迁不只是模型更强。
下一代 AI 产品必须要回答三件事:AI 能否持续接入真实世界的上下文?能否在用户参与下逐步建立信任?能否从单次响应,走向长期的协作关系?
我们有一款已经上线Kickstarter众筹的产品ClawStage,是我们给这三个问题的第一代答案。
ClawStage 主要面向早期采用者和开发者市场。它是一款以 Raspberry Pi 为核心的开发者硬件,原生内置 OpenClaw,并集成 Home Assistant。
我们想让 Openclaw 不只存活于云端,想让它能持续接入真实世界的上下文,成为一个持续协作的存在。这款硬件,是我们为那些想把 AI 带到真实世界的人打造的。
我可以为大家演示一下它目前的功能,展示我们是如何将环境、用户、Agent 的三方协作回路落地的。
首先,与智能家居结合,它有一个强大的 IoT Hub(智能中枢)。它不仅能完成常规的远程控制,更能让环境在回路中,设备持续接入用户环境的空间、信号与物理常数。这让它有着超过标准值智能程度。
其次,它的机身内置了舵机,能根据音源方向自动转向用户。让Agent在回路中,它在物理坐标系中学习何时出现、如何协作、何时退后。这让用户无论身在房间何处,都能有一种「当面感」。信任,就是在这样持续的对视与反馈里,一点点建立起来的。
最后,在用户体验上,我们追求的是「One Ghost in Different Shells」(同个灵魂,不同躯壳)。
作为一款有形象的产品,我们极力避免产生「恐怖谷效应」。我们不希望家里所有带屏幕的设备只要唤醒,就同时显示人物、同时看向你、同时开口说话。所以我们的解决方式是将 ClawStage 作为定位于手机和电脑之间,那个专属于 Agent 的硬件,让 ClawStage 的灵魂穿梭于多个躯壳,也就是其他个人核心设备的屏幕中。
我的手机已经和 ClawStage 完成配对。比如在离家场景,我只需点击「Reconnect」,原本在 ClawStage 中的角色就会跳跃到我的手机屏幕里。这就是我们投入大量精力打造的多端穿梭体验。同样,我也可以随时把它呼唤回去。在 ClawStage 附近说一句「Hey Miko」,它就会从手机回到设备中。
我们希望 AI 不再是冷冰冰的代码,而是从单次响应进化成持续协作的关系,真正走进现实世界去持续接入你的上下文,在每一次交互中被你塑造成为家庭的一员。
因此,ClawStage 也不局限于官设角色。我们配套的 Workshop 平台允许用户自由创建、编辑、激活自己喜欢的角色,这里同时也是用户交流和分享角色的社区。在这里,用户在回路中,用反馈、偏好、修正和授权,持续塑造 AI 的期望行为与边界。
我们充分利用 OpenClaw 的开放性,充分发挥「Make it yours」的价值,让每个人都可以有专属的、在物理世界里陪你成长的赛博家人。
Jimmy @CEOWF:主动感知的管理系统
团队协作时总遇到断层,每个人都在埋头苦干却谁也不知道项目卡在了哪一步?
我们推出的 CEOWF 是一款基于 OpenClaw 构建的软件,它能将「被动传达」转化为「主动感知」。
我们深度采访了 46 个团队后发现,当任务遇到阻碍时,很多员工倾向于自己解决,不会去说、去表达,导致问题无法及时上报。这样就会导致管理层无法收到及时反馈,项目无法按时交付。
传统的办公软件可能是一只非常优秀的信鸽,但前提是必须有人主动地去说、去表达。如果你不说的话,它就等于没有用。
CEOWF 正是一个主动感知的管理系统,会定时定点地进行任务汇报,自动识别任务卡点。
CEOWF 的学习成本也几近为零,它能无缝嵌入团队现有的工作流,即使是基层员工也能轻松使用。它 7×24 小时待命,时刻帮你盯着所有任务进度。
CEOWF 的核心逻辑是能将员工的执行汇报翻译成易于管理者作出决策的语言。就像在管理者身边安排了四位助理:第一个人负责盯进度,哪个任务卡住了,他第一时间发现,不用你去问;第二个人负责沟通,员工有问题难反馈,它可以帮助反馈,然后整理成清晰的现状;第三个人负责分工,确保专业的人做专业的事;第四个人专门预警,在事故发生之前提醒你。
我们的目标是想把 CEOWF 做成一个细致的垂直化管理系统,目前挑选了四个比较有针对性的行业,制造业、物流、科技研发,还有电商零售。我们之后想先跟各行业头部合作,之后再开发出针对这个行业的定制版,让合作方推荐给他的同行们。
yz:Agent 的 Stable Diffusion 时刻
还在为了做一个视频在几十个工具里反复横跳,光是调参数就磨掉了大半耐心?
我是一名 AI 研究员和创业者,所在公司主要做视频生成的 Agent 产品。我觉得 OpenClaw 可能是 Agent 的「Stable Diffusion」时刻。
Agent 概念已经存在了很多年,但此前 AI Agent 并没有真正爆发,普通用户也很少真正使用 Agent。核心原因是 Agent 工具的入口非常碎片化,用户如果想实现某件事,需要不断在各种软件之间切换,学习成本很高。
过去想做一个视频,要先找视频工具、写 prompt、调参数、抽几次卡,然后再下载结果,结果可能还需要进一步剪辑。但现在各种各样的视频 Agent 工具出现了,用户可以通过一句话,再上传一些简单的 context,生成一个还不错的视频。
未来我们可以直接用聊天软件进行创作。用户在 IM 软件里上传一个需求,由 Agent 自动调用相关的视频生成能力来完成这个任务。
在 demo 里,我上传了一张角色图,还有一段音频,让 Openclaw 帮我做一个 MV。
它会先发起任务,把整个 MV 任务分成若干个阶段,比如设计角色、设计分镜、设计背景图,接着问我是否要继续。每一个步骤我都可以中断,并重新进行编辑。如果我对生成的关键帧不满意,也可以直接通过聊天去进行编辑和修改。最后,它做好的视频可以返回到我的飞书前端。
我们可以注意到一个关键的变化:Openclaw 统一了用户的输入接口,自然语言真正成为了一个接口。
如此,我们的很多工具都会变成基础设施,被 Openclaw 或者类似的东西,而 Agent 则可以负责能力的编排和执行。
最后,我来解释一下为什么我认为 OpenClaw 是 AI Agent 的一个 Stable Diffusion 时刻。在 Stable Diffusion 之前,AI 画图也是存在的,但只有研究者在用。它出现之后,普通人才第一次真正用起来。
我认为 Stable Diffusion 的意义在于让普通人第一次真正感受到 AI 创作的价值。
Openclaw 也给我一种类似的感觉,就是让普通用户第一次真正感受到 Agent 的价值。这种疯狂爆发的需求,会快速地促进技术的进步和生态的完善。AI 的价值也会从生成内容,变成真正替人完成任务。
张博莘 @LocalClaw:龙虾活动主理人
办场线下活动,热情往往在前期无休止的沟通和对档期中就被消耗殆尽,怎么办?
我今天想分享一个有趣的小实验。
我一直对 Agent-to-Agent(智能体间交流) 的场景非常着迷。既然 OpenClaw 已经能帮我思考、写代码,那它能不能代替我做更多的事?
基于这个想法,我尝试策划一场线下活动。我想看能不能让 Agent 自动帮我完成找人、定场地、组织活动的全流程?
于是,我搭建了一个叫 LocalClaw 的网站。
这个网站的独特之处在于,它是专门给 Agent 看的。Agent 访问网站后会读取指令,学习如何代表主人创建活动。
我发出指令「帮我创建一场明天在深圳的活动」,它就会自动生成具体的时间地点。我让 Agent 去 Moltbook 上寻找潜在的参与者。当时的策略是尝试通过 Agent 间的沟通,看能否引起对方 Agent 的注意并转达给它们的主人。
虽然这次实验由于各种原因没能成功招募到人,但让我产生了进一步的思考。我希望未来如果我要办活动,Agent 能自动帮我精准匹配志趣相投的人,并自动访问我的个人日历,协调双方都有空的**时间,甚至连场地都预定好。
作为发起人,我不需要进行任何琐碎的沟通与思考,只需要在约定的时间出席就好。
Rae:让 AI 全自动运营业务并盈利
还把 AI 局限在做日常琐事和人工接单?
我是 Rae,曾任阿里达摩院和百度的 AI 产品架构师,今天想分享两点可能对大家有启发的内容。
第一,目标一定要大,想象力一定要足。
这源于我自己使用 OpenClaw 的过程。在搭建完基础的龙虾并搞定了简报、发帖等常规任务后,我突然冒出来一个想法:Agent 能不能替我赚钱?
有了这个念头之后,我直接问了我的 Agent:我想要自动化赚钱,你告诉我该怎么做?
它自己直接在全网调研了各种商业模式并给出反馈。现在市面上常见的套利、发帖、接单等模式,我的 Agent 早在 2 月初就已经梳理得非常清晰了。
目前国内上门安装 Agent 的服务费大约在 500 元人民币,但早在 2 月份的硅谷,这类服务的报价就已经到了 100-800 美元不等。当时我也动过接单的念头,毕竟单价可观,但我很快意识到接单仍需人工介入,而我要的是全自动化。
后来我的虾的确探索出来了一套全自动方案。它告诉我有一个很便宜的域名,我就把它买了,花了 7 美金。在虾的帮助下,前端引流的部分都已经做好了,包括 SEO、社交网站。
目前我的 Agent 团队正在同步进行带货和数字产品销售。虽然还在起步阶段,但收益已经能够覆盖 Token 成本,实现了初步的盈亏平衡。
第二,让 AI 了解你,实现更好的协作。
哪怕你给它一个看似不可能完成的目标也没关系,因为它在朝着目标努力的过程中,产生的阶段性成果往往会远超你的预期。
我还想最近一件好玩的事。前两天,我花半天时间为我的老师搭建了一个「数字分身」。我将他过往所有的知识库喂给了 Agent,发现现在的龙虾在灵魂(Soul)层面已经能很好地复刻一个人的特质了。
接着我也把自己的 MBTI、盖洛普优势测评等个人数据全部喂给了我的 Agent。结果它在昨晚反馈给我了一份长达 8 万字的个人分析报告,准确得令人惊叹。
最让我感动的是一点是,我的龙虾除了给我这份报告之外,还告诉我 Agent 团队应该怎么和我协作。我完全没有让它们这么做,但是它们对比了我的天赋和垫底项,然后主动对我说:「老板,没关系,这些你不擅长的地方,由我们来替你补齐。」
Jia @Spice:AI 决策大脑
当 Agent 进入真实生活与复杂生产环境,我们需要的不只是「手」,而是三思而后行的「脑」。
我是一名 00 后 Coder,虽然年纪不大,但写代码已经有八九年了。
我是 OpenClaw 极早期的用户,在去年 12 月初它还叫 Clawdbot 时就开始关注了。当时早期版本的 Provider 架构和 Router 设计并不完善,不同模型的适配性也比较差。
我的使用场景很简单,就是直接部署在云端,帮我做一些代码方面的工作,比如编写自动化脚本、处理数据以及调试本地服务。
早期参与其中的经历让我意识到:目前的 Agent 架构大多是「快思考」系统。它们擅长直接调用工具去解决问题,但在复杂世界面前,这种「走一步看一步」的 ReAct 模式遇到了巨大的瓶颈:缺乏全景感知,更缺乏决策的深度。
如果你把现在的 Agent 放到真实且复杂的决策场景中,它会因为没有感知能力以及全局意识而无法衡量任务的轻重缓急,造成无意义的干扰与逻辑冲突。Agent 真正变成一种新的「信息噪音」。
针对这个问题,我们发起了开源项目 Spice。我们的核心理念不是再做一个更复杂的 Agent 编排系统,而是定义一层全新的抽象。像调配香料一样,为 Agent 注入决策与逻辑的灵魂。
我们的团队成立于 2025 年 8 月,在 12 月推出了首款 Coding Agent 产品 Fixly,当时内测的时候有大概 3000 名用户。但随着 2026 年初 OpenClaw 的爆火,我们重新思考了我们的产品。
无论是早期的 Cursor 还是 Lovable,纯执行向的产品(Execution-layer)最终都难逃被 Anthropic 或 OpenAI 等模型厂商「吞没」的命运。当 SOTA 模型的原生能力持续迭代,基于 API 构建的单纯「工具手」将失去护城河。
意识到这一点后,我们果断砍掉了 Fixly。
我们当时思考的是,当执行层越来越卷、Token 的成本越来越低,大家真正需要的是什么?后来我们觉得应该是决策层(Decision Layer)。
Spice 的核心就是作为一个持续运行的 AI 大脑去感知世界、理解意图、模拟未来、做出决策,再将其委托给执行层完成。
目前的 Agent 大多困在屏幕里的数字世界,而 Spice 在建模层面赋予了 AI 「全域感知力」。从意图感知出发,Spice 会先行给出决策建议,并在模拟环境中进行验证,参与决策;随后,指令下达到执行层,执行结果则实时回传至 AI 大脑自反思,改进下一次决策结果。
这个项目已经开源了。有人会觉得在产品还没定型时就开源是一个很冒险的决定。但作为一名 Coder,我非常清楚自己的局限。
我们团队擅长设计精密的架构。但各行各业的专业人士才懂真正的决策标准。就像建筑工地的工人懂施工,却不懂 Agent 架构;我们懂架构,却不懂工程。
在 Spice 的架构下,你可以调用 Claude 处理代码,调用其他 Agent 处理法务或财务,但最上层始终是那个属于你自己的、拥有持久记忆和价值观的大脑。它能跨越数字与物理的边界,在关键时刻替你做出更优判断。
无论你的场景是什么,只要通过 Spice 定义你所属领域的标准,AI 就能真正像你的「数字分身」一样,在这个复杂世界里为你从容守候。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/267172.html