手动配置openclaw.json文件中models部分,可按以下步骤进行:
- 打开OpenClaw的配置文件,该文件通常位于
~/.openclaw/openclaw.json或~/.clawdbot/clawdbot.json。 - 找到models部分,参照以下结构进行修改:
{ "models": { "mode": "merge", "providers": { "vllm": { "baseUrl": "http://127.0.0.1:8000/v1", "apiKey": "sk-local", "api": "openai-responses", "models": [ { "id": "openai/gpt-oss-20b", "name": "GPT OSS 20B (Local)", "contextWindow": , "maxTokens": 8192 } ] } } }, "agents": { "defaults": { "model": { "primary": "vllm/openai/gpt-oss-20b" } } } }
在这个结构中,mode字段指定了模型的合并模式;providers下可配置不同的模型提供方,如这里的vllm;baseUrl是模型服务的基础URL,apiKey是访问所需的密钥,api指定了API类型;models数组中可以添加多个模型配置,每个模型配置包含id、name、contextWindow和maxTokens等信息。agents部分的primary指定了默认使用的模型。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/232870.html