OpenClaw 配置多模型:Kimi 不够用?一键切换 GLM

OpenClaw 配置多模型:Kimi 不够用?一键切换 GLMOpenClaw 支持同时配置多个大模型 一条命令随时换模型 哪个好用用哪个 哪个够用用哪个 原来只用 Kimi 现在 GLM 5 GLM 4 7 GLM 4 6 随便切 一 新增大模型 API 以智普的 GLM 为例 1 访问智谱 AI 开放平台 https open bigmodel cn 获取 APIKEY 2 查看当前模型 openclaw models status

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



OpenClaw 支持同时配置多个大模型,一条命令随时换模型,哪个好用用哪个,哪个够用用哪个。

原来只用 Kimi,现在 GLM-5、GLM-4.7、GLM-4.6 随便切

一、新增大模型API(以智普的GLM为例)

(1)访问智谱AI开放平台https://open.bigmodel.cn/获取APIKEY。

(2)查看当前模型

openclaw models status

可以看到当前模型是moonshot/kimi-k2.5

(3)配置GLM模型

执行如下命令,注意替换apikey后可直接用

openclaw config set models.providers.glm ‘{ “baseUrl”: “https://open.bigmodel.cn/api/paas/v4”, “api”: “openai-completions”, “apiKey”:“上面获取的apikey”, “models”: [

{ "id": "GLM-5", "name": "GLM-5" }, { "id": "GLM-4.7", "name": "GLM-4.7" }, { "id": "GLM-4.6", "name": "GLM-4.6" } 

] }’

执行成功,模型已添加

(4)重启网关

openclaw gateway restart

(5)设置默认模型

openclaw models set glm/GLM-5

设置默认模型之后,所有的会话都会切换为glm/GLM-5模型

查看当前模型,已切换为 glm/GLM-5

openclaw models status

对话窗口输入 /status 也显示 GLM-5

使用glm/GLM-5模型进行对话测试,可以正常对话

二、随时可进行切换模型

这个切换是永久的,除非再次进行切换。

(1)当前模型是glm/GLM-5

(2)把模型切换为glm/GLM-4.7

openclaw models set glm/GLM-4.7

可以看到模型已经切换为glm/GLM-4.7

三、大模型通用配置命令

这里给出不同厂商(Kimi、GLM、Qwen等)的不同版本(GLM-5、GLM-4.7、GLM-4.6等)的大模型的通用配置规则。如果同一个大模型厂商提供多个模型,那么就可以给一个厂商配置多个模型版本。

openclaw config set models.providers. 
  
    
    <自定义模型厂商名称>
      ‘{ “baseUrl”: “ 
     <模型官网api接口调用说明中的地址>
       ”, “api”: “openai-completions”, “apiKey”:” 
      <模型对应的apikey>
        ”, “models”: [ 
       
      
    

{ "id": " 
  
    
    <模型id(严格区分大小写)>
      ", "name": " 
     <自定义模型名称>
       (自己记忆方便)" }, { "id": " 
      <模型id(严格区分大小写)>
        ", "name": " 
       <自定义模型名称>
         (自己记忆方便)" }, { "id": " 
        <模型id(严格区分大小写)>
          ", "name": " 
         <自定义模型名称>
           (自己记忆方便)" } ...... 
          
         
        
       
      
    

] }’

配置之后,即可进行模型切换,命令如下

openclaw models set 
  
    
    <自定义模型厂商名称>
      / 
     <模型id> 
    

四、常用命令速查

#查看模型列表 openclaw models list #查看当前模型 openclaw models status #切换默认模型 openclaw models set 厂商/模型名 #重启网关 openclaw gateway restart

五、总结

PS:模型配置其实把APIKEY提供给OpenClaw,他自己也能进行配置。

OpenClaw 多模型 = 灵活 + 省钱 + 按需选择

  • 长文用 Kimi,推理用 GLM,省钱用本地模型
  • 一条命令切换,不用重装配置
  • 哪个好用用哪个,哪个够用用哪个,不被单一模型绑架

总体来说OpenClaw还是很耗Token的,有比较好的使用方式的小伙伴,欢迎评论区推荐。

小讯
上一篇 2026-04-22 23:07
下一篇 2026-04-22 23:05

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/277359.html