<p>今天打开掘金热榜,清一色 OpenClaw。行吧,我也来聊聊。</p>
不过我不想写第 N 篇"什么是 OpenClaw"或者"OpenClaw 安装教程"了,这类文章已经多到能绕地球两圈。我想聊的是一个几乎所有人都会卡住的问题:API 配置。
装 OpenClaw 可能就 5 分钟的事,但配 API?我折腾了整整一个晚上 😂
如果你也在纠结 OpenClaw 用什么 API,直接看最后的配置方案。如果你和我一样喜欢踩坑,那就从头看起。
OpenClaw 默认就是用 Claude,所以第一反应当然是去 Anthropic 官网申请 API Key。
注册、绑卡、拿到 Key,运行 ,选 Anthropic,填入 Key,启动——
GPT plus 代充 只需 145
嗯。意料之中又意料之外。
国内直连 Anthropic API,延迟高到离谱,动不动就超时。用了代理勉强能连上,但体验极差:一个简单的代码补全要等 8-10 秒,复杂任务直接断掉。
而且说实话,Claude Sonnet 4.5 的官方价格不便宜,$3/M input,要是拿来当日常编程助手用,账单看了心疼。
结论:放弃。
既然 Anthropic 不行,那试试 OpenAI?GPT-5 系列的编程能力也很强。
OpenClaw 支持 OpenAI 协议,配置也简单。但问题是——
国内直连 OpenAI 的情况,你们懂的。和 Anthropic 一个德性。
而且我发现一个很尴尬的事:不同任务其实适合不同模型。写前端用 Claude 效果好,写算法逻辑 GPT 更强,简单的改改文件名之类的小活用 Claude Haiku 就够了。只绑一个模型供应商,总觉得差点意思。
结论:也放弃。
既然云端 API 都有网络问题,那本地部署总行了吧?
装了 Ollama,拉了个 Qwen 3.5 的 32B 量化版。连接倒是秒连,延迟几乎为零。
但效果嘛……怎么说呢,让它改个 React 组件,改完了代码跑不起来。让它读一个 500 行的文件,直接开始胡说八道。
本地模型受限于显存和参数量,在 OpenClaw 这种需要长上下文理解 + 精确代码生成的场景下,和云端大模型还是有明显差距。
结论:当备用方案可以,主力不行。
折腾了一圈后我换了个思路:有没有一种方案,能同时用多个模型,而且在国内网络稳定?
搜了一圈,发现了 API 聚合平台这个品类。简单说就是:一个 API Key,背后接了几十个模型,不用分别去各家注册,也不用操心网络问题。
我最后选了 ofox.ai,原因很简单:
- 国内直连低延迟——走阿里云/火山云加速节点,响应速度和调国内 API 差不多
- 支持 50+ 模型——Claude、GPT、Gemini、Qwen、DeepSeek 全都有,一个 Key 随便切
- 三协议兼容——Anthropic 协议、OpenAI 协议、Gemini 协议都支持,OpenClaw 用哪个都行
- 按量计费——不用包月,用多少付多少,偶尔周末不写代码就不花钱
配置也很简单, 选 Custom Provider,填入 ofox 的 endpoint 和 Key 就行。
核心部分长这样:
环境变量加一行:
GPT plus 代充 只需 145
然后 ,搞定。
用了一段时间后,我摸索出一套比较舒服的配置:
OpenClaw 的 agents 配置支持给不同 agent 指定不同模型,所以可以这样玩:写代码用 Sonnet,review 代码用 Opus,重命名变量用 Haiku。
一个月下来,API 费用比之前只用 Claude 官方省了差不多 40%,因为大量简单任务被 Haiku 和 Qwen 消化了。
- 首次连接可能要等几秒——聚合平台会做一次鉴权和路由,之后就正常了
- 模型 ID 格式注意——ofox 的模型 ID 是 这种格式,配置时候别写错
- 环境变量别写进代码——用 引用就好,别把 Key 硬编码到配置文件然后 push 到 GitHub(别问我怎么知道的 🤦)
- Ollama 可以留着当备用——网络万一抽风的时候,能切到本地模型保底
OpenClaw 确实是今年最值得尝试的 AI 编程工具,Skills 系统和 Gateway 的设计思路很超前。但工具再好,API 配不好等于白装。
如果你还在纠结 API 选型,我的建议是:别直连海外 API,要么用聚合平台要么用国内模型,网络稳定才是生产力的基础。
有问题评论区聊,我尽量回 👋
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/214447.html