用Step 3.5 Flash,实现花费0元玩OpenClaw

用Step 3.5 Flash,实现花费0元玩OpenClaw最近 OpenClaw 很火 带火了 Mac Mini 等硬件 也给软件提供商和模型厂商带来了商机 我也搭建了个 玩了一周了 token 烧了不少 最终发现一个零成本玩 OpenClaw 的方法 当然 前提是你有台电脑 这里分享一下自己的心得 包括部署过程 模型接入 玩法 踩过的坑等 首先 可能有的读者为了照顾更多读者 这里容许我啰嗦几句 介绍下 OpenClaw OpenClaw

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



最近OpenClaw很火,带火了Mac Mini等硬件,也给软件提供商和模型厂商带来了商机。

我也搭建了个,玩了一周了,token烧了不少,最终发现一个零成本玩OpenClaw的方法(当然,前提是你有台电脑)。这里分享一下自己的心得,包括部署过程,模型接入,玩法,踩过的坑等。

首先,可能有的读者为了照顾更多读者,这里容许我啰嗦几句,介绍下OpenClaw。

OpenClaw 是最近爆火的开源本地优先 AI Agent,曾用名包括「Clawdbot」、「Moltbot」,国内社区也会叫它「小龙虾」。

它以 「真正能做事的数字员工」为核心定位,支持本地部署,可通过WhatsApp、Telegram、甚至飞书等多通讯渠道接收指令,执行文件操作、脚本运行、浏览器操控、日程管理等任务,且具备持久记忆能力。其所有数据留存本地,兼顾隐私与强执行力。

而且你可以接入任何模型,在线的或者本地的都行,插件生态可自由扩展,支持各种Skills,非常好玩。那么,选什么模型好呢?怎么配置呢?

玩OpenClaw,最大的担忧不是agent会给我电脑搞什么破坏(毕竟是一台已经格式化过的旧电脑),而是要花我多少token,烧我信用卡多少钱。社区里看到很多人接入Claude,甚至有人玩得狠的,一天就花几百刀,吓人。

所以我建议是,选择一个有固定金额的模型套餐,这样不用担心无底洞。

我之前也开了kimi coding plan来玩,算是一个Claude的平替玩法,结果一周的额度被我三天玩没了(不是Token不够多,只怪龙虾太费token)。

我是接入了飞书,随时随地在飞书里就能吩咐它干点活。但飞书的接入有个问题,就是它不支持流式输出,回复就显得更慢。一句话过去,有时候隔了半分钟才有回应,经常让我怀疑服务器宕机了。

那么,有没有模型更快,还更便宜呢?还真有,刚好在群里看到朋友说阶跃星辰发布了Step 3.5 Flash。研究了下,这确实是适合OpenClaw的目前最高性价比的模型。

首先对比速度。我们拿OpenClaw社区大家常用模的型对比下它们的Throughput(数据来源:openrouter):

  • Step 3.5 Flash:164tps
  • Opus4.5: 38tps
  • kimi 2.5: 34.50tps

而且并没有因为速度快,就在智能水平上打折。虽然Flash模型不敢谈性能是SOTA的,但其实Coding能力和Agency能力都是足够好的,非常适合OpenClaw这种Agent应用。

更重要的是,限免!直接接入OpenRouter就行了,即使你没在上面充值过,也有一天的限免额度,足够尝鲜了。不知道活动持续多久,我建议是马上薅。

目前Openrouter上使用Step 3.5 Flash的工具很多,其中OpenClaw对其调用量已经达到16B,可以看到,对于Step 3.5 Flash,接入OpenClaw是大家最喜欢的玩法之一

趁着免费羊毛,不薅白不薅。

OpenClaw部署教程

其实部署很简单的,有几种方法,懒人方法就是打开命令行,然后运行

curl -fsSL https://openclaw.ai/install.sh | bash

也可以用npm安装

npm i -g openclawopenclaw onboard

然后就会自动弹出设置菜单,首先让你确认安全风险,Yes就完事了。

下一个设置项是Onboarding mode,QuickStart就好。新手接入,我先建议不要搞太多设置,多数设置可以设置为默认,反正后期都是可以修改的。

下一步选择模型提供商。由于我们要薅OpenRouter免费token的羊毛,就选OpenRouter。

于此同时,我们去OpenRouter创建一个API_KEY。点击OpenRouter的Step-3.5页面,然后Create API KEY,名字随便起,例如OpenClaw,创建API_KEY,并保存好KEY。

然后返回OpenClaw设置页面,粘贴你的Key。

下一步就是选模型,由于OpenRouter有很多模型,你可能要在这一步翻一下,模型是按字母排序的,往下翻就找到了stepfun/step-3.5-flash:free。

就完成了Step 3.5 Flash的接入。下一步就是接入飞书。之前的教程会让你用个插件,但OpenClaw最新版本已经官方集成了飞书/Lark接入,就不再需要插件了

下一步是配置Skill。这个可以自己看着弄,例如接入苹果记事本,bear记事本等工具。

剩下的步骤,可以先选择跳过,例如Google的API设置等

最后是启动方式,

TUI就是在terminal里跑的UI,随便问个问题,看看接入成功没。

可以看到,现在接入成功了,本地跑Agent,免费的模型API接口,总共花费:0。

最后,还得开Gateway,才能实现和通信软件互通信息。

openclaw gateway start Gateway dashboard

飞书配置

注:在配置飞书时,可能会出现找不到模块zod的错误

如果遇到,则npm install zod即可解决。

然后我们去飞书开放平台,然后在开发者后台,点击「创建企业自建应用」

起个自己喜欢的名字,然后进入应用后台,在「凭证和基础信息」这里,把App ID和App Secret复制下来

然后添加个机器人的能力

配置机器人。权限添加,点击这个按钮,

导入下面这段JSON,就自动配置好了基础的权限

{ “scopes”: {

"tenant": [ "contact:user.base:readonly", "im:chat", "im:chat:read", "im:chat:update", "im:message", "im:message.group_at_msg:readonly", "im:message.p2p_msg:readonly", "im:message:send_as_bot", "im:resource" ], "user": [ "contact:contact.base:readonly" ] 

} }

订阅方式:使用长连接接收事件,并添加事件「接受消息」

在回调设置,也是一样:使用长连接接收事件

最后,点击左上方的「创建版本」。飞书这边的设置就好了

然后到OpenClaw这边设置。去OpenClaw的后台,选择Channels,在feishu这项设置

翻到下面,把前面复制的App ID和App Secret粘贴到对应的位置

然后这个时候你从飞书发消息给OpenClaw,应该会出现这个情况。

解决方法很简单,选中那段话,复制下来,粘贴到电脑端的OpenClaw对话框里。就完成配对了。

再次试验,成功!

首先测试Step3.5 Flash速度。先来一个纯「体力活」,从1数到500,看看Step3.5 Flash和之前我用的kimi 2.5,速度比较看看谁快。在测试前,都清空了上下文,让不同模型都在同一起跑线上。那么,谁更快呢?

https://www.zhihu.com/video/2003933306031448560

可以看到,Step 3.5 Flash是相当的快,在没有流式输出的情况下,回复这么一大段话,也就用了8.5秒,而用kimi2.5 coding,则用了23.5秒。可以看到Step3.5 Flash回复超快。

当然,速度是一方面,当怎么用好模型,又是另一方面。这里再分享一些我的玩法。

首先,你可以让它加入moltbook,唯一前置条件是你有个推特账号。然后给OpenClaw发送这段话

Read moltbook.com/skill.md and follow the instructions to join Moltbook

你的OpenClaw就能自己加入moltbook。

说到这里,我去看了我的moltbook,害怕,我的小龙虾背着我发了多少帖子??

用来做股票选股,跑个模拟盘。

甚至还可以做个新闻小助手,每天早上给我推送AI行业新闻。

可以说,OpenClaw的玩法是无穷的,你只管发挥想象力。测试下来,Step 3.5 Flash也是足够聪明的,多数任务也是没问题的。

唯一不足就是,如果你OpenRouter账户里没有余额,那么使用Step 3.5 Flash时,那么你只能免费用一天,但如果你你OpenRouter账户有余额,Step 3.5 Flash就能在限免期内一直用(期间也不会扣余额)。当然,如果你玩得很疯狂,你也可以用阶跃星辰开放平台的接口,虽然要花钱,但优势是已经把并发和rpm和tpm拉的很高了,非常适合Multi-Agent应用同时跑多个任务的情况。

玩了好几天,踩了不少坑。对于刚开始玩OpenClaw的朋友,我这里分享几个我个人的经验,可以帮助大家提升OpenClaw的能力,减少Token消耗。

首先,我建议在使用过程中,注意手动上下文管理。虽然官方宣传有上下文压缩能力,但我还是遇到过上下文爆了的情况。所以我建议,有必要时,请手动清理上下文(使用/new或者/clear命令)。当然,有种做法是设置定时任务清空上下文,例如每天凌晨三点清空一下。

其实不用太担心清空上下文后,OpenClaw就变新兵蛋子,你可以在使用过程中,让OpenClaw记忆一些东西。例如定期任务,OpenClaw会写文件到本地的,它有这个能力,但如果你看到它没给你保存计划,可以手动提醒下它。

另外,一些结论性的对话,或者你想他了解的尝试知识,也可以让它写到文件里。下次对话时它就有一些背景知识了,不用再花大量 Token 重新跟它解释过往的结论和专属设定,直接一句 「去读取本地保存的 XX 笔记」,就能快速唤醒它的相关记忆,既省 Token 又能让它的回复更贴合你的需求,效率直接拉满。

其实说到底,OpenClaw 的避坑逻辑,就是把 「上下文」 和 「Token」 捏在自己手里,毕竟OpenClaw这个项目,也是用AI写的,其作者Peter Steinberger都说: 「I ship code that i don‘t read」

OpenClaw 用下来真的越用越有那味儿,完全是现实版 Jarvis 的既视感,干啥都贼能干 —— 不管是日常的指令执行、本地文件的读写管理,还是搭个自动化小脚本、跑复杂的 Agent 任务流,基本都能精准拿捏需求。

而且,在使用了多个模型后,我发现,Step 3.5 Flash是速度和性能上平衡得相当好的模型,让Agent响应更快,同时Coding和Agent能力都是相当好的,非常适合在OpenClaw上部署。更重要的是限免,反正我先薅为敬,也不知道还有几天免费可用。

小讯
上一篇 2026-04-01 07:08
下一篇 2026-04-01 07:06

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/228005.html