OpenClaw 支持同时配置多个大模型,一条命令随时换模型,哪个好用用哪个,哪个够用用哪个。
原来只用 Kimi,现在 GLM-5、GLM-4.7、GLM-4.6 随便切
一、新增大模型API(以智普的GLM为例)
(1)访问智谱AI开放平台https://open.bigmodel.cn/获取APIKEY。
(2)查看当前模型
openclaw models status
可以看到当前模型是moonshot/kimi-k2.5
(3)配置GLM模型
执行如下命令,注意替换apikey后可直接用
openclaw config set models.providers.glm ‘{ “baseUrl”: “https://open.bigmodel.cn/api/paas/v4”, “api”: “openai-completions”, “apiKey”:“上面获取的apikey”, “models”: [
{ "id": "GLM-5", "name": "GLM-5" }, { "id": "GLM-4.7", "name": "GLM-4.7" }, { "id": "GLM-4.6", "name": "GLM-4.6" }
] }’
执行成功,模型已添加
(4)重启网关
openclaw gateway restart
(5)设置默认模型
openclaw models set glm/GLM-5
设置默认模型之后,所有的会话都会切换为glm/GLM-5模型
查看当前模型,已切换为 glm/GLM-5
openclaw models status
对话窗口输入 /status 也显示 GLM-5
使用glm/GLM-5模型进行对话测试,可以正常对话
二、随时可进行切换模型
这个切换是永久的,除非再次进行切换。
(1)当前模型是glm/GLM-5
(2)把模型切换为glm/GLM-4.7
openclaw models set glm/GLM-4.7
可以看到模型已经切换为glm/GLM-4.7
三、大模型通用配置命令
这里给出不同厂商(Kimi、GLM、Qwen等)的不同版本(GLM-5、GLM-4.7、GLM-4.6等)的大模型的通用配置规则。如果同一个大模型厂商提供多个模型,那么就可以给一个厂商配置多个模型版本。
openclaw config set models.providers.
<自定义模型厂商名称>
‘{ “baseUrl”: “
<模型官网api接口调用说明中的地址>
”, “api”: “openai-completions”, “apiKey”:”
<模型对应的apikey>
”, “models”: [
模型对应的apikey>
模型官网api接口调用说明中的地址>
自定义模型厂商名称>
{ "id": "
<模型id(严格区分大小写)>
", "name": "
<自定义模型名称>
(自己记忆方便)" }, { "id": "
<模型id(严格区分大小写)>
", "name": "
<自定义模型名称>
(自己记忆方便)" }, { "id": "
<模型id(严格区分大小写)>
", "name": "
<自定义模型名称>
(自己记忆方便)" } ......
自定义模型名称>
模型id(严格区分大小写)>
自定义模型名称>
模型id(严格区分大小写)>
自定义模型名称>
模型id(严格区分大小写)>
] }’
配置之后,即可进行模型切换,命令如下
openclaw models set
<自定义模型厂商名称>
/
<模型id>模型id>
自定义模型厂商名称>
四、常用命令速查
#查看模型列表 openclaw models list #查看当前模型 openclaw models status #切换默认模型 openclaw models set 厂商/模型名 #重启网关 openclaw gateway restart
五、总结
PS:模型配置其实把APIKEY提供给OpenClaw,他自己也能进行配置。
OpenClaw 多模型 = 灵活 + 省钱 + 按需选择:
- 长文用 Kimi,推理用 GLM,省钱用本地模型
- 一条命令切换,不用重装配置
- 哪个好用用哪个,哪个够用用哪个,不被单一模型绑架
总体来说OpenClaw还是很耗Token的,有比较好的使用方式的小伙伴,欢迎评论区推荐。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/277359.html