2026年OpenClaw怎么换大模型?3步免费切换各种大模型配置教程

OpenClaw怎么换大模型?3步免费切换各种大模型配置教程p 一句话总结 OpenClaw 本身不内置任何大模型 而是通过灵活的配置机制对接各类模型服务 更换模型只需三步 选择目标模型获取 API Key 在配置文件中添加模型提供商 重启网关生效 支持云端模型 元宝 豆包 DeepSeek 智谱 GLM 等 p

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



 

一句话总结:OpenClaw 本身不内置任何大模型,而是通过灵活的配置机制对接各类模型服务。更换模型只需三步:选择目标模型获取 API Key、在配置文件中添加模型提供商、重启网关生效。支持云端模型(元宝、豆包、DeepSeek、智谱 GLM 等)、本地私有化模型(Ollama、LM Studio)、以及任何兼容 OpenAI API 协议的自定义模型,完全免费或低成本使用,可同时配置多个模型实现智能降级切换。

 引言:为什么要换掉你的“龙虾大脑”?

OpenClaw 被戏称为“龙虾”——它能操作文件、控制浏览器、跨应用协同、甚至操控硬件设备,是名副其实的“AI 执行引擎”。但很多人忽略了一个关键问题:OpenClaw 本身不包含任何 AI 模型。

就像一台性能再强的电脑,没有操作系统也无法工作。OpenClaw 的“大脑”完全来自你接入的大模型。这意味着:

- 用得好不好,取决于你配了什么模型

- 花钱多不多,取决于你选了免费还是付费模型

- 隐私安不安全,取决于你用云端还是本地模型

更关键的是,OpenClaw 支持同时配置多个模型,可以设置主模型和降级模型,当主模型超限或不可用时自动切换。这种“双保险”机制,让“龙虾”永不掉线。

本文将基于截至 2026 年 3 月的官方文档和社区实践,从核心原理、云端模型配置、本地私有化部署、高级配置技巧、常见问题五个维度,手把手教你为 OpenClaw 更换最合适的“大脑”。

 第一章:核心原理——OpenClaw 如何对接大模型?

 1.1 为什么需要更换模型?

OpenClaw 的核心价值在于“连接”——连接大模型的思考能力与电脑的真实操作权限。不同模型各有优劣:

| 需求场景 | 推荐模型类型 | 原因 |

|:----|:----|:----|

| 日常对话、文档处理 | 元宝、智谱 GLM | 中文理解强,免费额度充足 |

| 复杂推理、代码生成 | DeepSeek、Claude | 逻辑能力强,代码表现优异 |

| 数据隐私敏感场景 | 本地模型(Ollama/LM Studio) | 数据不出本地,完全离线可用 |

| 成本敏感、高频使用 | 元宝、豆包免费 API | 零成本或极低成本 |

| 多语言场景 | GPT、Claude | 英文及多语言能力强 |

 1.2 OpenClaw 的模型配置架构

OpenClaw 的模型配置通过一个 JSON 文件完成,默认路径为:

- Linux/MacOS:`~/.openclaw/openclaw.json`

- Windows:`C:Users用户名.openclawopenclaw.json`

核心配置结构如下:

json

{

  "models": {

    "providers": {

      "提供商ID": {

        "baseUrl": "API地址",

        "apiKey": "你的API密钥",

        "api": "openai-completions",

        "models": [

          {

            "id": "模型ID",

            "name": "显示名称",

            "contextWindow": 上下文长度,

            "maxTokens": 最大输出Token数

          }

        ]

      }

    }

  },

  "agents": {

    "defaults": {

      "model": {

        "primary": "提供商ID/模型ID",

        "fallback": "备用提供商ID/模型ID"

      }

    }

  }

}

配置逻辑解析:

- providers:定义模型供应商(可配置多个)

- baseUrl:API 接入地址,必须兼容 OpenAI API 格式

- apiKey:认证密钥,支持环境变量引用(如 `${MY_API_KEY}`)

- models:该供应商下的具体模型列表

- primary/fallback:主模型和降级模型,实现高可用

 1.3 支持的三类模型

| 类型 | 代表平台 | 接入方式 | 成本 |

|:----|:----|:----|:----|

| 云端商业模型 | 腾讯元宝、百度千帆、智谱、DeepSeek | API Key | 按量付费/免费额度 |

| 云端免费模型 | 元宝免费版、豆包、各大平台赠送额度 | API Key | 完全免费 |

| 本地私有化模型 | Ollama、LM Studio | 本地 API | 完全免费(需硬件) |

 1.4 模型切换的核心操作

OpenClaw 提供了三种切换模型的方式,适应不同使用习惯:

| 切换方式 | 命令/操作 | 适用场景 |

|:----|:----|:----|

| Web 面板切换 | 点击右上角模型选择器下拉菜单 | 日常使用,最直观 |

| 命令行切换 | `openclaw models set 提供商/模型ID` | 开发者,批量操作 |

| 对话内切换 | 输入 `/model list`、`/model 模型ID` | 快速测试对比 |

快速命令示例:

bash

# 查看所有已配置模型

openclaw models list

# 查看当前默认模型

openclaw models current

# 切换默认模型

openclaw models set yuanbao/hunyuan-turbo

# 临时切换单次对话(不改变默认)

openclaw chat --model yuanbao/hunyuan-turbo --prompt "测试"

 第二章:云端模型配置——接入主流大模型

 2.1 腾讯元宝模型配置(推荐中文场景)

腾讯元宝基于混元大模型,提供强大的中文理解和多模态能力,2026 年推出免费额度方案,大幅降低使用门槛。

第一步:获取 API Key

1. 登录腾讯云官网,进入「元宝大模型控制台」

2. 在左侧菜单找到「API 密钥管理」,点击「创建密钥」

3. 复制并妥善保存生成的 API Key(格式类似 `sk-xxx`)

>  省钱提示:腾讯元宝提供每日免费额度,适合个人开发者和中小企业测试使用。

第二步:配置 OpenClaw

编辑配置文件 `~/.openclaw/openclaw.json`:

json

{

  "models": {

    "providers": {

      "yuanbao": {

        "baseUrl": "https://yuanbao.tencentcloudapi.com/v1",

        "apiKey": "sk-你的API密钥",

        "api": "openai-completions",

        "models": [

          {

            "id": "hunyuan-turbo",

            "name": "混元 Turbo",

            "contextWindow": ,

            "maxTokens": 8192

          },

          {

            "id": "hunyuan-pro",

            "name": "混元 Pro",

            "contextWindow": ,

            "maxTokens": 16384

          },

          {

            "id": "hunyuan-lite",

            "name": "混元 Lite",

            "contextWindow": 32768,

            "maxTokens": 4096

          }

        ]

      }

    }

  },

  "agents": {

    "defaults": {

      "model": {

        "primary": "yuanbao/hunyuan-turbo"

      }

    }

  }

}

第三步:重启网关生效

bash

openclaw gateway restart

元宝免费版配置(零成本方案):

json

{

  "models": {

    "providers": {

      "yuanbao-free": {

        "baseUrl": "https://yuanbao.tencentcloudapi.com/free/v1",

        "apiKey": "你的免费版API Key",

        "api": "openai-completions",

        "models": [

          {

            "id": "hunyuan-free",

            "name": "混元免费版",

            "contextWindow": 32768,

            "maxTokens": 8192

          }

        ]

      }

    }

  }

}

 2.2 豆包模型配置

字节跳动豆包以出色的多模态能力和创意生成著称,提供免费 API 额度。

获取 API Key:

1. 访问字节火山引擎控制台

2. 进入「豆包大模型」服务

3. 创建 API Key 并复制保存

配置示例:

json

{

  "models": {

    "providers": {

      "doubao": {

        "baseUrl": "https://ark.cn-beijing.volces.com/api/v3",

        "apiKey": "你的豆包API Key",

        "api": "openai-completions",

        "models": [

          {

            "id": "doubao-pro-32k",

            "name": "豆包 Pro 32K",

            "contextWindow": 32768,

            "maxTokens": 8192

          },

          {

            "id": "doubao-lite-128k",

            "name": "豆包 Lite 128K",

            "contextWindow": ,

            "maxTokens": 16384

          }

        ]

      }

    }

  }

}

 2.3 DeepSeek 模型配置

DeepSeek 以强大的代码能力和推理能力著称,是开发者的热门选择。

获取 API Key:访问 DeepSeek 开放平台 → 注册账号 → 创建 API Key

配置示例:

json

{

  "models": {

    "providers": {

      "deepseek": {

        "baseUrl": "https://api.deepseek.com/v1",

        "apiKey": "sk-你的DeepSeek密钥",

        "api": "openai-completions",

        "models": [

          {

            "id": "deepseek-chat",

            "name": "DeepSeek Chat",

            "contextWindow": 65536,

            "maxTokens": 8192

          },

          {

            "id": "deepseek-coder",

            "name": "DeepSeek Coder",

            "contextWindow": 32768,

            "maxTokens": 8192

          }

        ]

      }

    }

  }

}

 2.4 智谱 GLM 模型配置

智谱 AI 的 GLM 系列模型中文理解优秀,提供免费额度。

获取 API Key:

1. 访问智谱 AI 开放平台,注册账号

2. 进入「控制台」→「API Keys」

3. 点击「添加新的 API Key」,复制保存

配置示例:

json

{

  "models": {

    "providers": {

      "zhipu": {

        "baseUrl": "https://open.bigmodel.cn/api/paas/v4",

        "apiKey": "你的智谱API Key",

        "api": "openai-completions",

        "models": [

          {

            "id": "glm-4-plus",

            "name": "GLM-4 Plus",

            "contextWindow": ,

            "maxTokens": 8192

          },

          {

            "id": "glm-4-flash",

            "name": "GLM-4 Flash",

            "contextWindow": 32768,

            "maxTokens": 4096

          }

        ]

      }

    }

  }

}

 2.5 百度千帆模型配置

百度千帆平台提供 ERNIE 系列模型。

配置示例:

json

{

  "models": {

    "providers": {

      "qianfan": {

        "baseUrl": "https://qianfan.baidubce.com/v2",

        "apiKey": "你的千帆API Key",

        "api": "openai-completions",

        "models": [

          {

            "id": "ERNIE-5.0",

            "name": "ERNIE 5.0",

            "contextWindow": ,

            "maxTokens": 8192

          }

        ]

      }

    }

  }

}

 2.6 自定义模型供应商(任意 OpenAI 兼容 API)

如果以上官方模型都不满足需求,OpenClaw 支持接入任何兼容 OpenAI API 协议的模型服务。

适用场景:

- 使用公司内部部署的模型服务

- 接入新兴模型平台的 API

- 使用硅基流动等聚合平台

配置格式:

json

{

  "models": {

    "providers": {

      "custom": {

        "baseUrl": "https://your-model-api.com/v1",

        "apiKey": "your_api_key",

        "api": "openai-completions",

        "models": [

          {

            "id": "your-model-id",

            "name": "Your Model Name"

          }

        ]

      }

    }

  }

}

示例:接入硅基流动 DeepSeek 模型

json

{

  "models": {

    "providers": {

      "siliconflow": {

        "baseUrl": "https://api.siliconflow.cn/v1",

        "apiKey": "你的硅基流动API Key",

        "api": "openai-completions",

        "models": [

          {

            "id": "deepseek-ai/DeepSeek-V3.2",

            "name": "DeepSeek V3.2"

          }

        ]

      }

    }

  }

}

 第三章:本地私有化模型部署——完全免费、数据隐私

对于追求数据隐私、希望完全免费的场景,本地部署是理想选择。本地模型完全离线运行,无 Token 限制、无订阅费用、数据不出设备。

 3.1 方案一:使用 Ollama 部署本地模型

Ollama 是目前最简单易用的本地模型部署工具,支持 Windows、macOS、Linux。

第一步:安装 Ollama

bash

# MacOS / Linux 一键安装

curl -fsSL https://ollama.com/install.sh | sh

# Windows(管理员PowerShell)

winget install Ollama.Ollama

第二步:下载并启动模型

bash

# 入门推荐(轻量,1GB)

ollama run qwen2.5:1.5b

# 主流推荐(综合效果,4.7GB)

ollama run qwen2.5:7b

# 推理增强版

ollama run deepseek-r1:7b

第三步:验证本地 API 服务

Ollama 默认在 `http://localhost:11434` 提供 OpenAI 兼容 API,验证命令:

bash

curl http://localhost:11434/v1/models

第四步:配置 OpenClaw

编辑配置文件 `~/.openclaw/openclaw.json`:

json

{

  "models": {

    "providers": {

      "ollama": {

        "baseUrl": "http://127.0.0.1:11434/v1",

        "apiKey": "no-key",

        "api": "openai-completions",

        "models": [

          {

            "id": "qwen2.5:7b",

            "name": "Qwen2.5 7B Local",

            "contextWindow": 32768,

            "maxTokens": 8192

          },

          {

            "id": "qwen2.5:1.5b",

            "name": "Qwen2.5 1.5B Local",

            "contextWindow": 32768,

            "maxTokens": 4096

          }

        ]

      }

    }

  },

  "agents": {

    "defaults": {

      "model": {

        "primary": "ollama/qwen2.5:7b"

      }

    }

  }

}

第五步:重启网关

bash

openclaw gateway restart

 3.2 方案二:使用 LM Studio 部署本地模型

LM Studio 提供图形化界面,适合不熟悉命令行的用户。

第一步:下载安装 LM Studio

访问 [https://lmstudio.ai/download](https://lmstudio.ai/download),根据系统下载对应版本。

第二步:下载模型

1. 打开 LM Studio,点击左侧「Model Hub」

2. 搜索「qwen2.5」或你需要的模型

3. 选择量化版本(推荐 Q4_K_M 版本,平衡性能与显存)

4. 点击「Download」下载

第三步:开启 API 服务

1. 点击左侧「Server」

2. 开启「Enable Server」和「Enable OpenAI Compatibility」

3. 默认端口为 1234,无需修改

4. 在「Advanced Settings」中设置 Context Window 为 

第四步:验证 API 服务

bash

curl http://localhost:1234/v1/models

第五步:配置 OpenClaw

json

{

  "models": {

    "providers": {

      "lmstudio": {

        "baseUrl": "http://localhost:1234/v1",

        "apiKey": "lmstudio-key",

        "api": "openai-completions",

        "models": [

          {

            "id": "qwen2.5-32b",

            "name": "Qwen2.5 32B Local",

            "contextWindow": ,

            "maxTokens": 8192,

            "cost": {

              "input": 0,

              "output": 0

            }

          }

        ]

      }

    }

  }

}

 3.3 本地模型的硬件要求参考

| 模型规模 | 显存需求 | 适用硬件 | 典型模型 |

|:----|:----|:----|:----|

| 1B-3B | 2-4GB | CPU/低端显卡 | Qwen2.5 1.5B、Phi-3 Mini |

| 7B-9B | 6-8GB | RTX 3060/4060 | Qwen2.5 7B、DeepSeek 7B |

| 27B-35B | 16-24GB | RTX 4090/5090 | Qwen2.5 32B、DeepSeek 32B |

量化版本选择建议:

- Q4_K_M:平衡性能与显存,最推荐

- Q5_K_M:精度稍高,显存增加约 20%

- Q8_0:精度接近原版,显存翻倍

 第四章:高级配置——多模型智能降级与切换

 4.1 双模型配置(主模型+降级模型)

配置主模型和降级模型后,当主模型不可用(如 API 超限、服务中断)时,OpenClaw 自动切换到备用模型,实现高可用。

json

{

  "models": {

    "mode": "fallback",

    "providers": {

      "local": {

        "baseUrl": "http://localhost:11434/v1",

        "apiKey": "no-key",

        "api": "openai-completions",

        "models": [

          {

            "id": "qwen2.5:7b",

            "name": "Qwen2.5 7B Local"

          }

        ]

      },

      "cloud": {

        "baseUrl": "https://yuanbao.tencentcloudapi.com/v1",

        "apiKey": "sk-xxx",

        "api": "openai-completions",

        "models": [

          {

            "id": "hunyuan-turbo",

            "name": "混元 Turbo"

          }

        ]

      }

    }

  },

  "agents": {

    "defaults": {

      "model": {

        "primary": "local/qwen2.5:7b",

        "fallback": "cloud/hunyuan-turbo"

      }

    }

  }

}

 4.2 环境变量管理 API Key(推荐)

为保护 API Key 安全,建议使用环境变量而非明文写入配置文件。

设置环境变量:

bash

# Linux/MacOS

export YUANBAO_API_KEY="sk-xxx"

export DEEPSEEK_API_KEY="sk-yyy"

# Windows PowerShell

$env:YUANBAO_API_KEY="sk-xxx"

配置文件引用:

json

{

  "models": {

    "providers": {

      "yuanbao": {

        "baseUrl": "https://yuanbao.tencentcloudapi.com/v1",

        "apiKey": "${YUANBAO_API_KEY}",

        "api": "openai-completions"

      }

    }

  }

}

 4.3 模型参数调优

根据模型能力,可以配置更详细的参数来优化表现:

json

{

  "models": {

    "providers": {

      "my-model": {

        "baseUrl": "http://localhost:1234/v1",

        "apiKey": "xxx",

        "models": [

          {

            "id": "qwen2.5-32b",

            "name": "Qwen2.5 32B",

            "contextWindow": ,

            "maxTokens": 8192,

            "reasoning": false,

            "input": ["text"],

            "cost": {

              "input": 0,

              "output": 0,

              "cacheRead": 0,

              "cacheWrite": 0

            }

          }

        ]

      }

    }

  }

}

参数说明:

- `contextWindow`:模型支持的最大上下文长度,影响记忆能力

- `maxTokens`:单次回答的最大 Token 数

- `reasoning`:是否支持思考过程(仅部分模型支持)

- `cost`:计费参数,本地模型设为 0

 第五章:快速配置命令汇总

 5.1 命令行方式配置

OpenClaw 提供了非交互式命令行,可在脚本中直接配置模型:

bash

# 添加自定义模型供应商

openclaw onboard 

  --auth-choice custom-api-key 

  --custom-provider-id my-model 

  --custom-base-url http://localhost:8000/v1 

  --custom-model-id qwen2.5-7b 

  --custom-api-key "no-key-needed" 

  --custom-compatibility openai

 5.2 模型管理命令速查

| 命令 | 功能 |

|:----|:----|

| `openclaw models list` | 列出所有已配置模型 |

| `openclaw models current` | 查看当前默认模型 |

| `openclaw models set 提供商/模型ID` | 切换默认模型 |

| `openclaw chat --model 模型ID` | 临时使用指定模型对话 |

| `openclaw config get models` | 查看模型配置 |

| `openclaw config set models.providers.xxx.baseUrl URL` | 修改模型 API 地址 |

 5.3 快速测试模型是否生效

bash

# 测试当前模型

openclaw chat --prompt "你是什么模型?请简要介绍自己"

# 指定模型测试

openclaw chat --model yuanbao/hunyuan-turbo --prompt "你好"

如果模型正常响应,说明配置已生效。

 第六章:常见问题与解决方案

 Q1:修改模型后无法连接怎么办?

排查步骤:

1. 检查 API Key 是否正确,注意前后是否有空格

2. 确认账号是否有足够 Token 额度(新账号需实名认证)

3. 重启 OpenClaw 服务:`openclaw gateway restart`

4. 检查网络是否能访问 API 地址:`curl -I https://api.deepseek.com/v1`

 Q2:如何确认模型配置已生效?

发送测试消息,如“你现在调用的模型是什么”,如果 AI 能正常响应并说明模型信息,说明配置成功。也可通过 `openclaw models current` 命令查看当前使用的模型。

 Q3:本地模型响应太慢怎么办?

- 选择更小的量化版本(如从 Q5_K_M 换为 Q4_K_M)

- 选择更小的模型(如从 32B 换为 7B)

- 确保 GPU 驱动正常,CPU 推理会明显变慢

- 调整 Context Window 长度,过长的上下文会消耗大量显存

 Q4:多个模型如何快速切换?

Web 面板中点击右上角模型选择器下拉菜单,或使用命令 `openclaw models set 提供商/模型ID`。对话内也可直接输入 `/model 模型ID` 快速切换。

 Q5:OpenClaw 能否同时使用多个模型?

可以。通过配置 `fallback` 降级模型实现自动切换,或通过对话内手动切换。

 Q6:云端模型和本地模型如何选择?

| 因素 | 云端模型 | 本地模型 |

|:----|:----|:----|

| 成本 | 按量付费/免费额度 | 完全免费 |

| 性能 | 响应快,算力强 | 取决于本地硬件 |

| 隐私 | 数据上传云端 | 数据不出本地 |

| 联网 | 需要网络 | 可完全离线 |

| 复杂任务能力 | 强(千亿参数) | 较弱(受硬件限制) |

建议组合:日常使用本地模型降成本,复杂任务通过 fallback 自动切换到云端模型。

 结语:选对“大脑”,龙虾才能真正干活

OpenClaw 的强大之处在于它的“开放性”——不绑定任何模型,让你自由选择最适合需求的“大脑”。无论是追求极致的代码能力(DeepSeek)、优秀的中文理解(腾讯元宝)、数据隐私保护(本地 Ollama),还是零成本长期使用(元宝免费版、豆包),都能找到匹配方案。

配置的核心三步骤:

1. 获取 API Key(云端)或部署本地服务(Ollama/LM Studio)

2. 编辑配置文件 `~/.openclaw/openclaw.json` 添加模型提供商

3. 执行 `openclaw gateway restart` 重启生效

现在,动手为你养的“龙虾”换个更聪明的大脑吧——让它在文件整理、代码生成、跨应用协同中真正“说到做到”!

---

_注:本文基于 OpenClaw 官方文档及 2026 年 3 月各云厂商***息整理。_

资源链接:

- OpenClaw GitHub:[https://github.com/openclaw-project/openclaw](https://github.com/openclaw-project/openclaw)

- 腾讯元宝:[https://yuanbao.tencent.com](https://yuanbao.tencent.com)

- Ollama 官网:[https://ollama.com](https://ollama.com)

- LM Studio 官网:[https://lmstudio.ai](https://lmstudio.ai)

 相关链接

 OpenClaw 技术专栏: 本专栏作者致力于 OpenClaw 技术的生态建设与实战落地。不同于浅层的概念科普,作者坚持 “手算 + 代码” 的深度分享模式,主张通过手动推演理解算法本质,结合生产级代码验证理论可行性。 

[https://cloud.tencent.com/developer/column/](https://cloud.tencent.com/developer/column/)

 关于作者: 专注技术落地,深耕硬核干货 本文作者致力于 OpenClaw 技术的生态建设与实战落地。不同于浅层的概念科普,作者坚持 “手算 + 代码” 的深度分享模式,主张通过手动推演理解算法本质,结合生产级代码验证理论可行性。

请关注我主页:https://cloud.tencent.com/developer/user/

小讯
上一篇 2026-04-13 11:40
下一篇 2026-04-13 11:38

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/259873.html