想必大家已经知道并且玩上OpenClaw(Clawdbot)了
还不知道OpenClaw是什么?一篇文章搞懂并教你快速搭建属于自己的OpenClaw >>
现在Lighthouse已经适配了国内的im软件(、企业微信、飞书、钉钉),可以直接使用面板来完成配置。同样,面板也支持了许多主流大模型提供商,那么如果我们有其他的第三方提供商(例如七牛、硅基流动等)需要配置,这篇文章教会你如何接入这些第三方提供商。
在选择模型提供商时,请确定你的轻量应用服务器地域在模型提供商支持的地域中
只要在轻量应用服务器控制台,应用管理中将下方的自定义模型相关字段填写进去后点击保存即可完成自定义模型的配置:
MiniMax
以minimax,使用"Anthropic"协议,使用MiniMax-M2.5模型为例:
国内版 -
国际版 -
硅基流动
以硅基流动,使用"OpenAI"协议,使用DeepSeekv3.2模型为例:
Kimi Code
⚠️:在非官方(Kimi CLI)中使用Kimi Code会员权益有可能被Kimi视为滥用和违规,导致会员权益停用或账号封禁。 详围
使用Kimi Code,以Kimi-k2.5 模型为例:
Google Gemini
使用 Google Gemini API,以最新的 Gemini 3 Flash 模型为例:
OpenAI (GPT)
官方文档:
使用 OpenAI 官方 API,以最新的 GPT-5.2 模型为例:
Anthropic Claude
官方文档:
使用 Anthropic Claude API,以最新的 Claude Opus 4.6 模型为例:
xAI Grok
使用 xAI Grok API(兼容 OpenAI 协议),以最新的 Grok 4.1 模型为例:
OpenRouter
使用 OpenRouter API(兼容 OpenAI 协议),以NVIDIA: Nemotron 3 Nano 30B A3B 模型(限时免费)为例:
如果上述没有你想要的模型,可以使用以下通用模板接入任何兼容OpenAI/Anthropic协议的模型:
参数说明
报错(错误码相关)
99%的错误码都可以通过长按翻译了解原因
常见错误码
错误码因提供商不同可能略有出入,仅供参考。
模型回复慢(响应慢)
若您选择的轻量应用服务器为境外地域且使用境内通道/模型提供商可能会因跨境网络原因导致延迟较高。
若您选择深度思考模型可能因上下文过多导致模型思考时间过长,推荐您选择非思考模型/快思考模型进行替代。
Token消耗过快
OpenClaw 在调用模型时会携带较多上下文信息,以保证任务连贯性与准确性,因此 Token 消耗可能较高。建议在使用时关注 Token 用量与计费情况
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/212878.html