上周有个朋友问我:"OpenClaw 装好了,但选模型这步直接懵了——官方 API 太贵,DeepSeek 免费但不稳,本地跑 Ollama 又卡,到底该用哪个?"
说实话这问题我自己也纠结过。OpenClaw 刚火的时候我跟风装了,结果第一天就踩坑:直接用 Anthropic 官方 API,跑了个文件整理任务,一看账单 $12 没了。后来花了两周把市面上主流方案都试了一遍,今天把结果分享出来。
下面逐个说说踩过的坑。
这是 OpenClaw 默认推荐的配置,也是效果最好的。
openclaw config set apiProvider anthropic openclaw config set apiKey sk-ant-xxxxx openclaw config set apiModelId claude-sonnet-4-6
优点:
- 效果拉满,Sonnet 4 对 Agent 任务的理解能力确实是第一梯队
- 官方支持,文档齐全
- 延迟稳定
踩坑:
- 第一次跑的时候没设
maxTokens,一个任务直接吃了 200k token - 国内直连不了,要配代理或者用兼容 API
GPT plus 代充 只需 145// config.json 配置示例 { "llm": { "provider": "anthropic", "model": "claude-sonnet-4-6", "api_key": "sk-ant-xxxxx", "max_tokens": 8192, "temperature": 0.7 } }
成本参考: Sonnet 4 输入 3/MTok,输出15/MTok。一个中等复杂的编码任务大概消耗 50k-100k token,算下来一个任务 0.3−1.5。一天跑10个任务,月费90-450。
说实话,个人开发者用这个方案,钱包会疼。
DeepSeek-V3 的性价比是真的高,API 价格只有 Claude 的 1/10 不到。
openclaw config set apiProvider openai-compatible openclaw config set baseUrl https://api.deepseek.com/v1 openclaw config set apiKey sk-xxxxx openclaw config set apiModelId deepseek-chat
优点:
- 便宜,真的便宜
- 中文理解不错
- 代码生成能力可以
踩坑(重点):
- 高峰期直接 502 ------ 下午 2-5 点是重灾区,体感有 20% 的请求会超时
- 长上下文容易丢内容 ------ 给它一个大项目让它改代码,改着改着就"忘了"前面的文件结构
- Agent 循环 ------ DeepSeek 对工具调用的理解偶尔出 bug,我遇到过它在两个工具之间无限循环的情况
GPT plus 代充 只需 145# 我的解决方案:加重试 + 超时 import time def call_with_retry(func, max_retries=3): for i in range(max_retries): try: return func() except Exception as e: if "502" in str(e) or "timeout" in str(e): time.sleep(2 i) continue raise raise Exception("重试次数用尽")
成本参考: DeepSeek-V3 输入 ¥1/MTok,输出 ¥2/MTok,同样的任务成本不到 Claude 的 1/10。
本地跑模型的好处是完全免费(电费除外),而且数据不出本机。
# 先装 Ollama brew install ollama # macOS # 拉模型 ollama pull qwen3:32b # OpenClaw 配置 openclaw config set apiProvider ollama openclaw config set baseUrl http://localhost:11434/v1 openclaw config set apiModelId qwen3:32b
优点:
- 零 API 费用
- 数据隐私有保障
- 不依赖网络
踩坑:
- 显存是硬门槛 ------ Qwen3 32B 需要至少 20GB 显存才能流畅跑。我的 M2 Max 64GB 跑起来还行,但 16GB 的 MacBook Air 直接卡死
- 小模型效果断崖式下降 ------ 试过 7B 的模型,基本上只能做最简单的任务,稍微复杂一点就开始胡说八道
- 首次推理冷启动慢 ------ 模型加载到内存要 30-60 秒
GPT plus 代充 只需 145# 查看 Ollama 资源占用 ollama ps # 输出示例: # NAME ID SIZE PROCESSOR UNTIL # qwen3:32b a1b2c3d4 19 GB 100% GPU 4 minutes from now
我的建议: 如果你有 M2 Pro/Max 或以上的 Mac,或者有一张 3090/4090,可以本地跑 32B 的模型。否则建议别折腾。
OpenRouter 是海外比较流行的模型聚合方案。
openclaw config set apiProvider openrouter openclaw config set apiKey sk-or-xxxxx openclaw config set apiModelId anthropic/claude-sonnet-4-6
优点:
- 一个 API Key 访问几十个模型
- 可以按需切换(简单任务用便宜模型,复杂任务用 Claude)
- 有免费额度可以试用
踩坑:
- 国内访问需要代理
- 部分模型的定价比官方还贵(加了中间商费用)
- 偶尔有路由延迟
这是我目前在用的方案。国内有几家做 API 聚合的,原理是用 OpenAI 兼容协议统一封装了各家的 API。
GPT plus 代充 只需 145openclaw config set apiProvider openai-compatible openclaw config set baseUrl https://api.ofox.ai/v1 openclaw config set apiKey sk-xxxxx openclaw config set apiModelId claude-sonnet-4-6
为什么最后选了这种方案:
- 国内直连 ------ 不用配代理,延迟反而比直连 Anthropic 还低(因为用了国内云加速节点)
- 一个 Key 用所有模型 ------ Claude、GPT、Gemini、DeepSeek、Qwen 都能用,改个 model ID 就行
- OpenAI 兼容协议 ------ OpenClaw 原生支持,配置最简单
# 对比测试:同一个任务的响应时间 # Anthropic 官方(走代理): 3.2s # DeepSeek 官方: 2.8s(非高峰)/ 超时(高峰) # 聚合 API(国内节点): 1.4s
实际使用体验:
我现在的策略是:
- 日常编码任务 → Claude Sonnet 4(效果好)
- 简单的文本处理 → DeepSeek-V3(省钱)
- 需要多模态 → Gemini 2.5 Pro(图片理解强)
三个模型共用一个 API Key,只需要改 apiModelId,不用重新配置。
OpenClaw 支持在 config.json 中配置不同任务用不同模型:
GPT plus 代充 只需 145{ "llm": { "provider": "openai-compatible", "base_url": "https://api.ofox.ai/v1", "api_key": "sk-xxxxx", "model": "claude-sonnet-4-6" }, "tool_call_model": { "provider": "openai-compatible", "base_url": "https://api.ofox.ai/v1", "api_key": "sk-xxxxx", "model": "deepseek-chat" } }
这样主对话用 Claude(效果好),工具调用用 DeepSeek(省钱),实测能节省 40-60% 的 token 成本。
401 Unauthorized API Key 错误或过期 检查 Key 是否正确,注意前缀
429 Too Many Requests 触发速率限制 降低并发或换 Provider
502 Bad Gateway 上游服务不稳定 重试或切换模型
context_length_exceeded 输入太长 减少上下文或用支持长上下文的模型 模型返回空内容 部分模型不支持 tool_use 检查模型是否支持 function calling 响应突然变成英文 模型 system prompt 没设中文 在配置中加
"language": "zh-CN"
折腾了两周,我的结论是:没有完美方案,只有最适合自己的。
- 不差钱 → Anthropic 官方
- 想省钱 → DeepSeek(忍受偶尔抽风)
- 有好显卡 → 本地 Ollama
- 国内用户想要稳定+多模型 → 聚合 API
对我来说,最终选了聚合方案,主要是因为国内直连 + 多模型切换这两点太方便了。但说到底,OpenClaw 用什么模型不是最重要的,重要的是你拿它来做什么。
一个好的 Prompt 设计 + 合理的任务拆分,效果提升远大于换模型带来的提升。这个话题以后有空再聊。
如果这篇文章帮到你了,点个赞不过分吧?有其他配置问题欢迎评论区交流,我看到都会回。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/243628.html