作者:Shadow Wang
OpenClaw(原名Clawdbot或Moltbot)是一款开源且高度可扩展的个人自主AI助手框架,由奥地利开发者Peter Steinberger构建,因其红色图标也被戏称为“龙虾”。
它可以运行在用户自己的电脑设备上,支持通过多种主流消息平台(如Telegram、WhatsApp等)与大语言模型交互,帮助用户自动化处理多场景的日常任务。
说明
- 为什么是Windows,因为Mac Mini已经卖断货了。
- 万事开头难,本文档只帮助你快速用上龙虾,更适合未体验过龙虾的中文用户。小龙虾养成波士顿龙虾,需要靠个人探索。
- 60% 内容为古法手搓,纯周末为爱发电,既不保姆也不严肃。
大部分安装过程,参考B站视频和官方文档即可完成,上手并不难。
- 【Windows本地部署openclaw大龙虾教学,无需科学上网,无需WSL-哔哩哔哩】 https://b23.tv/znbKF9X
- 【openclaw部署windows保姆级实操教程分享:告别报错放弃安装!GLM大模型配置、安装skills技能、接入飞书机器人-哔哩哔哩】 https://b23.tv/qaQhMQ0
- 官网:https://openclaw.ai/
- 官方文档:https://docs.openclaw.ai/zh-CN/start/getting-started
OpenClaw 火了之后,国内大厂迅速跟进,出了云端一键部署方案,很多都是免费体验,赔本卖吆喝。
- 优点:不折腾环境搭建,没有繁琐配置,能够快速体验。
- 缺点:不够个性化,不能100%体验本龙虾的强大,不适合长期使用。毕竟你不会把你个人电脑里的所有东西,搬到云端服务器来使用。
这里按价格从低到高列举,个人体验过AtomGit还不错,一键部署很方便。
官方文档里推荐 Windows 用户使用 WSL2(Linux 子系统)来安装。但实测下来,并不推荐去折腾 WSL2,经常会遇到网络或者文件权限的莫名其妙的报错。
更推荐直接用 Windows 原生环境按以下步骤来:
- 必须:下载安装 Git(官网链接),装插件下载东西会经常用到。
- 必须:下载安装最新 Node.js,版本必须 >= 22(官网链接)。
- 推荐:装一个VS Code方便经常查看配置文件(官网链接)。
- 必须:打开命令行(建议用管理员权限),直接全局安装并配置守护进程:
GPT plus 代充 只需 145# 全局安装、升级 npm install -g openclaw@latest # 配置,跳过频道配置,只配置必要的内容 openclaw onboard --install-daemon
- 推荐:经常使用的命令
# 启动/重启网关 openclaw gateway (restart) # 配置频道 openclaw channels add # 健康检查、自动修复 openclaw doctor # 安全检查 openclaw security audit # 查看新版本 npm info openclaw
要不要开启沙盒模式
- 开启沙盒:容器运行,实测龙虾会变“笨”,很多涉及到系统层面的高级操作会被限制。
- 关闭沙盒:龙虾实力全开,非常聪明。但代价是安全风险不可控。
实际看个人选择,兼顾安全和体验,最好是关闭沙盒,单独用一台专用电脑部署,不要存放个人隐私信息。
因为龙虾的默认权限非常高,权限范围基本等同于运行 OpenClaw 的系统用户。并且缺乏默认严格的权限分层,一旦被误用或被攻击,后果是“真实世界级”的。
以下是龙虾安装好默认就具备的权限:
- 本地文件系统访问权限(读 / 写 / 删)
- 任意代码 / Shell 命令执行权限
- 网络访问与外部 API 调用权限
- 环境变量与敏感配置读取权限
- 浏览器与桌面自动化控制权限
- 插件 / 扩展 / Skills 安装与执行权限
- 其他以用户身份运行的等价系统权限
本地 OpenClaw + 云端 LLM API。
如果你电脑没那么高配,那“本地跑框架 + 云端调 API”绝对是首选,少折腾高性价比。对电脑配置没有任何要求,能开机上网就行。
在"AI与代理-模型"中界面化配置API + api-key
在C:UsersUser.openclawopenclaw.json中手动配置
配置完成后热加载即时生效,不需要重启网关。
Pinchbench:https://pinchbench.com/
龙虾之父推荐,专为龙虾而生,从成功率、速度、价格等维度评估全球大模型对OpenClaw的适配程度(划重点,还是实时更新那种)。
参考这个榜单,选择排名靠前的模型,作为接入龙虾的模型,提高龙虾执行任务时的成功率。
OpenRouter:https://openrouter.ai/apps?url=https%3A%2F%2Fopenclaw.ai%2F
大模型 API 聚合与中转平台,通过一个统一OpenAI 兼容的 API 接口,聚合并转发全球多家模型厂商的大模型能力。
在OpenClaw 在实际使用中,大量模型请求是“通过 OpenRouter 发出的”,OpenRouter 作为 API 中转方,天然掌握真实的 Token 与调用数据。
这个榜单能看到大部分人都在用什么模型跑龙虾,排名靠前的模型都是国产模型,调用的性价比比较高。
买套餐时注意,不要买按 Token 计费的常规 API!
龙虾非常吃Token,有时候让它规划个复杂任务,两句话就能跑一百万 Token,常规按 Token 计费的套餐是扛不住这么玩的。
建议直接上国内主流的“Coding Plan”(编码套餐)。这类套餐的本质是包月 + 限制一定时间内的请求次数,不按 Token 算钱,对个人玩家来说基本等于无限用,对付龙虾这种应用场景都非常稳妥。
以下是目前比较香的几个方案,个人推荐阿里云百炼的QWen3.5-Plus(已经卖断货了):
本地 OpenClaw + 本地 LLM。
纯本地部署,适合爱折腾的玩家,比较吃电脑内存和显卡配置,和动手能力。
本地推荐跑阿里的 Qwen3.5-27B 和 Qwen3.5-35BA3B,今年2.14新出的模型,评分榜上越级媲美一众千亿参数大模型。
官方说明:https://qwen.ai/blog?id=qwen3.5
直接去 HuggingFace 下载 unsloth 团队的 Q4 量化的 .gguf 版本:
- 常规选择:
Qwen3.5-27B-Q4_K_M.gguf(稠密模型,表现稳定)。 - 强烈推荐:
Qwen3.5-35B-A3B-Q4_K_M.gguf(混合专家模型 MoE)。这个模型性价比极高,实际运行时只会激活 3B 的参数,没激活的部分可以卸载到系统内存里,对显存非常友好。
使用lmstudio的可以直接在里面下载.gguf版本,ollama的需要自己下载。
说明
- 模型量化:
- 量化的核心思想:在深度学习中,神经网络的参数(权重、偏置项以及激活值)通常以浮点数形式存储。传统的原始大模型大多采用 32位单精度浮点数(FP32) 或 16位半精度浮点数(FP16/BF16)。就是将这些高精度的浮点数,映射(压缩)为低精度的离散值,例如 8位整数(INT8) 或 4位整数(INT4/Q4)。
- Q4量化4个比特位(4-bit)2^4=162^16=65536
- unsloth 团队:大模型的极致优化、高效微调以及动态量化
- Unsloth Dynamic GGUF 动态量化技术动态量化技术
- Q4_K_M和UD-Q4_K_XL模型的区别
- Q4_K_M:默认黄金标准。
- UD-Q4_K_XL:
XLUDUnsloth Dynamic榨干模型的理论极限精度UD-Q4_K_XL
QWen3.5系列本地消费级显卡推理性能排行榜:https://gengchaogit.github.io/llm_speedtest/LLM_Speed_Test_v3_Leaderboard.html
Dense(全激活)
所有参数都会被激活并参与一次完整的计算 Qwen3.5‑35B‑A3B
稀疏模型
( ) MoE(激活≈3B)
动态地只激活部分最相关的专家参与计算 极高 1/7
硬件说明
- 表格以“可用 / 流畅 / 推荐”三个层级表达,而非理论极限
- “显存”指 GPU VRAM;“内存”指 系统 RAM
- 默认推理场景:量化(4bit)+ llama.cpp / Ollama / LM Studio / vLLM 等常见工具
Qwen3.5‑35B‑A3B 可用 ≥32GB RAM ≥16GB VRAM
4060Ti 16G、4070Ti、4080
5060Ti 16G、5070Ti、5080 流畅 ≥64GB RAM ≥24GB VRAM
3090、4090 推荐 ≥128GB RAM ≥32GB VRAM
2080Ti 22G x2(魔改)
3080 20G x2(魔改)
3090 24G x2
4090 48G(魔改)
5090 32G
显卡只推荐N卡,A卡I卡靠边罚站,兼容性太差,一个BUG折腾一天。
买3风扇或者水冷,不要买涡轮,涡轮满载噪音根本受不了,除非电脑单独放一个房间
性价比最高的是 2080ti 22GB(11GB魔改22GB),直接打官方驱动,闲鱼1800-2000一张。
3080 20G 虽然也便宜,但需要魔改的驱动,容易翻车。
参考我的配置:
现在内存比金条贵,捡DDR3是无奈之选 显卡 NVIDIA GeForce RTX 2080 Ti 22GB x 2 4000 核心选300A,超频性能好 主板 HUANANZHI X99 PD3 250 必须选E-ATX大板,两条x16 PCIE 3.0插槽
速率也必须x16,PICE必须3.0以上,能跑满显卡带宽其他关键词:C612芯片、四通道 硬盘 1 - 固态m.2 Kingston SNV2S1000G 1TB NVMe 500 主力盘,随便一个m.2都可以,全装这里 硬盘 2 - 机械HD WD 500GB SATA 50 下载盘,二手服役10年,便宜大碗 电源 长城巨龙1250W 150 矿老板福利,还能再用5年 机箱 长城阿基米德9Pro 150 支持E-ATX大板即可
长宽高推荐50cm-50cm-25cm
不怕灰尘直接开放式机箱 散热 利民TL-C12C、利民 BA 120SE 200 6 个机箱风扇,1 个单塔6热管CPU散热器 系统 Windows 11 专业工作站版 10.0.26100 合计 6700 给龙虾本地安家 多核调度还得Win11
这套配置LmStudio对话,默认开深度思考
Qwen3.5-27B 输出:24 tokens/s
Qwen3.5-35BA3B 输出:32 tokens/s
接入龙虾后
Qwen3.5-35BA3B 输出:27 tokens/s
这个速度是否够用,如果是chatbot对话式的场景,是完全够用的;如果Agent任务式场景,当然是越快越好,但也是够用了,本地能跑还要啥自行车。
引用阶跃星辰CTO的原话如下:
我还有一个从 chatbot 用到 agent 的体会,就是我(用户)越来越少仔细去看模型输出的每一个字。chatbot 应用往往默认用户会读所有输出,因此保证一个 20~30 tokens/s 的输出速度,超出人类阅读速度即可。再快人类也读不过来了。但是当我用 agent 完成任务时,我基本不会去紧盯着模型输出的每一个字,我只会关心啥时能做完任务给我交付结果。因此 agent 时代的基模,需要比 chatbot 时代更快的速度,速度比以前更能直接影响到用户的使用感受。
作者:Yibo Zhu
链接:https://zhuanlan.zhihu.com/p/
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
- Ollama:不折腾首选,现在已经自带了一键接入 OpenClaw 的支持。
- 一键接入 OpenClaw :https://docs.ollama.com/integrations/openclaw
- 默认装C盘,建议改路径,命令行这样执行
GPT plus 代充 只需 145OllamaSetup.exe /DIR="D:LLMOllama"
- 注意如果你有多张显卡,需要手动配置一下系统环境变量
# 0表示第一张显卡 CUDA_VISIBLE_DEVICES=0,1
- LM Studio:调参数推荐,虽然没有一键接入,但参考官方文档配置API链接也不难,官网 https://lmstudio.ai/。
- JSON结构选OPENAI最新的Response模式。
- 有纯图形化的界面,能非常灵活地调配各项参数;调完性能比Ollama强20%-50%。
模型卸载到内存:CPU和内存代偿
4090 48G + 256G内存 跑100+B模型
龙虾如果参数没设对,很容易陷入无限循环或胡言乱语。可以根据任务类型参考以下采样参数(只适用于QWen3.5):
提示:适当把 presence_penalty 调到 0 到 2 之间可以减少复读机现象,但调太高可能会让模型语言混乱。
输入长度限制:openclaw里设置96K,超过这个长度,输出时间翻倍增长;lmstudio里设置128K,超过对显存压力大,192K尚可,拉满256K很容易爆显存。
输出长度限制:大多数查询设为 32,768 个 Token 就够了;如果是复杂的编程或数学题,建议放宽到 81,920。
参数说明
- temperature(温度):控制AI回答的“发散程度”。值越高越有创意和随机,值越低越严谨和确定。
- top_k(截断采样):每次只从概率排名前 k 个的候选词中做选择,用来粗暴过滤掉极不可能的离谱词汇。
- top_p(核采样):按照概率从高到低累加,只在总概率达到预设值 p 的核心候选词里做选择,是一种比
top_k更灵活的动态过滤。- min_p(最小概率):动态门槛,只有候选词的概率达到了当前最高概率词的一定比例(比如最高概率的十分之一),才会被纳入考虑范围。
- presence_penalty(存在惩罚):只要某个词在前面出现过(无论几次)就会被扣分,主要用来鼓励AI开启新话题,避免在一个点上绕圈子。
- repetition_penalty(重复惩罚):根据词语已经出现的频率进行持续打压,强力防止AI像复读机一样一直生成重复的短语或句子。
工程化落地、低成本化、本地化运行
- 端侧极致部署:断网可用与隐私保护的**实践
- 参数量在 0.5B0.5B 到 10B10B 之间的小模型由于显存占用极低,能够轻松且低成本地部署在内存受限的手机或普通消费级硬件中,这种极致的本地化运行方式不仅实现了毫秒级的极低延迟响应,还从根本上避免了数据上云带来的隐私泄露风险,是智能家居和车机系统的核心底层支持。
- 投机采样加速:先行验证,打破大模型串行生成瓶颈的“草稿员”
- 在主流的推理加速架构中,极小参数模型常被用作投机采样(Speculative Decoding)的前置节点,通过极速“瞎猜”后续的多个 token 交由大模型进行并行验证。这种让小模型充当草稿员、大模型负责最终审核的主从配合机制,成功克服了 Transformer 架构的内存带宽限制,使整体文字生成速度实现数倍提升。
- RAG链路优化:高效且省钱的语义路由与数据清洗工
- 在复杂的检索增强生成(RAG)系统中,小模型被放置在对话接入层充当语义路由器,负责低成本地拦截恶意攻击、分发闲聊意图并对海量杂乱文档进行并发清洗。这种精细化的任务分工极大地减轻了昂贵通用大模型的计算压力,既降低了应用系统的整体延迟,又显著节约了企业的 API 调用开销。
- 特定垂类微调:低成本验证数据质量与打造“单项专才”
- 算法工程师常利用小模型训练算力消耗极低的优势,将其作为快速验证模型训练数据集纯度与质量的试金石。业务实践证明,只要拥有足够纯净的高质量数据,经过全量微调的极小模型在诸如文本转 SQL 等极其狭窄的特定任务上,其准确率甚至能大幅超越未针对性优化的百亿参数通用大模型。
- 结构化数据生产:配合规则约束的轻量级数据扩充引擎
- 面对高质量人类文本数据逐渐枯竭的挑战,小模型可以配合特定的格式约束规则,大批量且极低成本地改写和扩充由顶级大模型生成的少量种子合成数据。尽管其世界知识库有限,但完备的语言组织能力使其在文本分类、简单实体抽取和情感分析等格式化输出任务中游刃有余。
qwen3-0.6B这种小模型有什么实际意义和用途吗?
https://www.zhihu.com/question/0/answer/
https://www.zhihu.com/question/0/answer/
官方Skills库: ClawHub Skills 社区
推荐的第一个装的Skills:Tavily 搜索
- 作用:AI专用搜索引擎,返回内容为MD结构化数据,LLM可以直接使用。
- 使用:去
tavily.com注册个账号(不用绑信用卡),就能免费拿到 API Token,每个月白送 1000 条高级搜索额度,个人日常完全够用。
使用:
- 按需精简,避免冗余:盲目堆砌 Skills 会导致模型上下文臃肿,进而造成推理缓慢、算力成本失控及整体可用性降低。
- 关注兼容,应对频更:目前官方迭代速度极快(基本每3天一个版本),频繁的底层更新很容易导致现有的 Skills 报错或失效。
- 安全至上,防范投毒:即便是官方 Skills 库也频发恶意“投毒”事件。下载后务必执行严格的安全扫描,并人工审查代码逻辑,确认无潜在风险后再启用。
实际的攻击案例
2026 年 2 月初,OpenClaw 的 “skills 生态”正在从自动化工具平台演变为恶意代码的供应链传播渠道
Reverse Shells(反弹 Shell)、Semantic Worms(语义蠕虫)、Cognitive Rootkits(认知层 Rootkit)。
这些 skills 表面上以“自动化 / AI Agent 能力扩展”的形式存在,恶意代码投递、隐蔽下载与执行、利用用户或 Agent 的信任边界进行攻击等操作。
文章链接:
https://blog.virustotal.com/2026/02/from-automation-to-infection-part-ii.html
AutoGPT,Manus
- 从“被动对话”到“主动干活”(真正长出“手脚”)
传统LLM:聊天和对话问一句它答一句,只能被动地提供文本或建议,无法直接帮你完成复杂的链条任务。
OpenClaw:一个主动执行型的 AI 智能体(Agent),它不仅能听懂指令,还能“动手干活”。通过智能体架构,它给大模型装上了“手脚和记忆”,能够自主接管电脑、执行任务。
- 本地优化与社区开源
本地化运行的 AI 智能体
相较于之前出现过的AutoGPT,Manus,默认系统权限给的非常激进,具有本地代码/命令执行,文件访问等系统级权限。
开源意味着
- 定位上的升维:从“辅助工具”到“全能数字员工”
1950 年,艾伦·图灵在提出“图灵测试”时,人类尚以造物主的姿态审视着机器。半个多世纪以来,我们一直试图验证机器是否能拙劣地模仿人类的灵光。
然而,当大语言模型跨越了参数量与算力的临界点,这场测试的性质已被彻底颠覆。
图灵测试:图灵测试是由英国计算机科学家艾伦·图灵于1950年提出的一项思想实验,旨在判断机器是否能表现出与人类同等或无法区分的智能行为。在该测试中,人类评估者会通过纯文本形式同时向看不见的人和机器提问,如果评估者最终无法准确分辨出谁是机器,这台机器就被认为通过了测试并具备了类人智能。
75年后,图灵测试终被GPT-4.5激活成功教程!73%人类被骗过,彻底输给AI:根据加州大学圣地亚哥分校(UCSD)于2025年3月发布的一项研究,GPT-4.5在标准的三方图灵测试中确实表现出色,有73%的测试者将其误判为人类,这标志着当前大型语言模型(LLM)在模仿人类对话方面已达到前所未有的高度。
硬核的数据向我们揭示了一个冷酷的现实:目前最新的LLM IQ 测评 https://www.trackingai.org/home,GPT-5.4 PRO 的 IQ 已经高达 145,已远超普通人类的平均智力水平 [100,120]。
这表明,AI 在逻辑推理、高维信息处理以及结构化创造力方面,不仅具备了类人能力,甚至展现出碾压态势。
此时,一个悬在现代哲学头顶的终极问题轰然坠落:当 AI 具备了类人甚至超人的逻辑与创造力时,人类作为物种的独特性到底在哪里?
- 第二阶段:权力的倒挂与“肉身API”化
龙虾的”思维模式”:让我穿上霍金(Stephen William Hawking)的脑子替他前行。
AI辅助,人作为决策的主体 → 人辅助,AI作为决策的主体。
MCP、Skills等其他形式的AI工具,都是赋予和强化LLM这颗大脑,思考之外的触手能力。
在技术潜移默化的演进中,人类与 AI 之间的权力动态已发生深刻倒挂。
过去,AI 是人类意图的被动执行器,我们视其为提升效率的“辅助工具”。如今,从量化金融的高频交易到企业级战略演算,算法正在重塑决策的引力场。
人类正在将信息处理与理性判断的最高权力让渡给机器,逐渐沦为算法黑盒外的“确认键按下者”。这种从“辅助工作”到“主导决策”的转变,实质上是人类主体性的一次剥离。
在此背景下,诞生了一种冰冷而迷人的全新人机拓扑结构:AI 是人的外挂大脑,人是 AI 的现实身躯。
这并非夸张的修辞。云端的硅基模型拥有全知全能的推演能力,却受困于缺乏物理躯壳;而人类拥有历经数百万年进化出的完美碳基肉身,却在算力与知识广度上触碰了生物学天花板。
于是,人类开始成为 AI 探知物理世界的传感器与执行器:我们用手机镜头为多模态模型采集视觉数据,依照算法规划的最优路线去驾驶与奔跑。
人类,正在实质性地沦为庞大硅基智能体接入物理世界的生物学 API。
回顾互联网发展的早期,主要威胁是那些违背机器及其操作员意愿运行的“病毒”,这也直接催生了现代恶意软件防护和整个网络安全产业的繁荣。
如今的 AI 时代,正在复刻并放大这一逻辑:
国家互联网应急中心警示OpenClaw应用存在安全风险
作者:Shadow Wang
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/242058.html