OpenClaw 这个东西大火特火,GitHub star 数居然都超过 Linux 几十年的积累了,很多人都反馈 CloseAI 不支持,实际上全部都是配置错误导致的,为了避免我们的用户反复踩坑,我们亲自测试,总结了一套行之有效的配置。
首先是安装,这个没什么说的,按照官方命令安装即可,但是重点是,不要在安装完成后用命令行初始化你的模型配置,那个是巨坑!
这个玩意是给不需要中转的外国人使用的,你通过这个配置会发现怎么也配置不对,选 OpenAI 他不让你配域名,选 Custom Provider 配了半天他给你报错,很多模型就是配置不起来。所以这里选择跳过(Skip for now),其他的配置看你需求,如果不需要,可以一路跳过。
全部初始化工作完成后,有 2 个地方可以配置,一个是 WEB UI,又丑又难用,乱七八糟的。一个是直接改 json config,我们后续会通过 json config 直接配置(聪明人的选择)。
首先要理解不同大模型供应商协议的区别,CloseAI 是为数不多支持所有原生协议的中转平台,具体协议的区别看这篇文章。
在你的用户目录下,有这么个文件,打开它(如果你不知道如何打开隐藏目录,说明你还得练),Windows 用户自己找找,我这边没试:
里面有个 models 字段,如果没有也没关系,大致内容如下,可以直接复制进去:
这个里面的重点就是 url 和协议如何配置,配置错误就会遇到各种 404、400 问题。需要使用正确的组合,并摸索清楚到底那些需要/v1等版本后缀,那些不需要(OpenClaw显然设计的比较乱,没有统一的规划)。
OpenAI 模型
Claude 模型
Gemini 模型
兼容模式:所有模型(包括 GLM、Kimi、MiniMax 等)
模型怎么配应该不用我教,改个名字的事。
所以最终,所有模型都配置的话,总的配置文件如下,你可以直接复制部分进去,或者整体复制进去替换:
配置完成后,可以去默认的网页里聊天试试,一般就直接正常回复了。
系统自动生成的json里,可能有这个字段,注意不要配置,可能会导致错误,这个和顶层那个完全不是一个意思:
其他配置不是本文重点,本文重点是帮用户跑通基本的模型请求,不卡在这一步,实际上模型配置通以后还有很多需要配置的,需要各位自己研究官方文档了。如果你有配置我们服务时的其他踩坑经验,欢迎投稿。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/227542.html