2026年OpenClaw 配置本地模型优先使用指南

OpenClaw 配置本地模型优先使用指南OpenClaw 配置本地模型优先使用指南 配置目标 优先使用本地 Ollama 模型 千问 3 5 4B 自动 Fallback 到云端 Qwen 模型 节省成本 提升响应速度 环境信息 项目 配置 操作系统 Windows 10 11

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



# OpenClaw 配置本地模型优先使用指南

配置目标

- ✅ 优先使用本地 Ollama 模型(千问 3.5 4B)

- ✅ 自动 Fallback 到云端 Qwen 模型

- ✅ 节省成本,提升响应速度

环境信息

| 项目 | 配置 |

|——|——|

| 操作系统 | Windows 1011 |

| 本地模型 | qwen3.5:4b |

| Ollama 服务 | http://localhost:11434 |

| 云端备用 | qwen-portal/coder-model |

| 配置时间 | 2026-03-06 |

配置步骤

第零步:下载 Ollama 和模型(国内用户)

# 1. 使用国内镜像下载 Ollama

官方下载(可能慢):

https://ollama.com/download

国内镜像/替代方案:

https://asset.cnb.cool/assets/t/0126dypWd7zOG2onvCSsFRLUbmA

Windows 安装:

1. 下载 OllamaSetup.exe

2. 双击运行安装

3. 安装完成后自动启动服务

验证安装:

bash

ollama --version

# 2. 下载使用 Qwen 3.5 4B 模型

ollama run qwen3.5:4b

# 查看已下载的模型

ollama list

# 测试模型运行

ollama run qwen3.5:4b “Hello, 你好!”

# 预期输出:模型的回复

---

第一步:确认本地模型已安装

在 PowerShell 或 CMD 中运行:

bash

ollama list

确认输出中包含 `qwen3.5:4b`,状态正常。

---

第二步:修改 OpenClaw 配置文件

配置文件位置:

C:\Users\xxxxx.openclaw\openclaw.json

# 2.1 添加 Ollama 提供商配置

在 `models.providers` 中添加 Ollama 配置:

json

“ollama”: {

“baseUrl”: “http://localhost:11434”,

“api”: “openai-completions”,

“models”: [

{

“id”: “qwen3.5:4b”,

“name”: “Qwen 3.5 4B (Local)”,

“reasoning”: false,

“input”: [“text”],

“cost”: {

“input”: 0,

“output”: 0,

“cacheRead”: 0,

“cacheWrite”: 0

},

“contextWindow”: ,

“maxTokens”: 8192

}

]

}

# 2.2 修改默认模型优先级

在 `agents.defaults.model` 中修改:

json

“model”: {

“primary”: “ollama/qwen3.5:4b”,

“fallbacks”: [

“qwen-portal/coder-model”,

“qianfan/deepseek-v3.2”

]

}

# 2.3 添加模型别名(可选)

在 `agents.defaults.models` 中添加:

json

“ollama/qwen3.5:4b”: {

“alias”: “local”

}

# 2.4 启用文件操作权限

修改 `tools` 配置:

json

“tools”: {

“profile”: “full”

}

或明确启用工具:

json

“tools”: {

“enabled”: [“exec”, “read”, “write”, “trash”, “edit”]

}

---

第三步:保存并重启

1. 保存配置文件 `openclaw.json`

2. 重启 OpenClaw Gateway:

bash

openclaw gateway restart

---

配置说明

模型优先级

| 优先级 | 模型 | 说明 |

|--------|------|------|

| 1️⃣ Primary | `ollama/qwen3.5:4b` | 本地模型,优先使用 |

| 2️⃣ Fallback 1 | `qwen-portal/coder-model` | 云端 Qwen,本地不可用时 |

| 3️⃣ Fallback 2 | `qianfan/deepseek-v3.2` | 千帆 DeepSeek,备用 |

自动 Fallback 机制

- 当本地 Ollama 服务不可用时,自动切换到云端模型

- 无需手动干预,无缝衔接

- 本地服务恢复后,自动切回本地模型

---

测试验证

测试 1:创建文件

powershell

# 在工作空间创建测试文件

echo “Hello from OpenClaw!” > C:\Users\zzzzzzz.openclaw\workspace\test.txt

测试 2:查看会话状态

bash

openclaw status

确认 Model 字段显示为 `ollama/qwen3.5:4b`

测试 3:对话测试

与 OpenClaw 进行对话,观察响应速度和模型表现。

---

常见问题

Q1: Ollama 服务未启动怎么办?

bash

# 启动 Ollama 服务

ollama serve

Q2: 如何查看当前使用的模型?

bash

openclaw status

查看 ` Model` 字段。

Q3: 如何切换回云端模型?

修改 `openclaw.json` 中的 `primary` 字段:

json

“primary”: “qwen-portal/coder-model”

然后重启 Gateway。

Q4: 本地模型响应慢怎么办?

- 检查 Ollama 服务状态:`ollama ps`

- 检查系统资源(CPU/内存)

- 考虑使用更小的模型或增加 Ollama 资源分配

---

优势总结

| 优势 | 说明 |

|------|------|

| 成本 | 本地模型免费,无 API 调用费用 |

| ⚡ 速度 | 本地响应更快,无网络延迟 |

| 隐私 | 数据不出本地,更安全 |

| 可靠 | 自动 Fallback,服务不中断 |

---

附录:完整配置示例

json

{

“models”: {

“mode”: “merge”,

“providers”: {

“ollama”: {

“baseUrl”: “http://localhost:11434”,

“api”: “openai-completions”,

“models”: [

{

“id”: “qwen3.5:4b”,

“name”: “Qwen 3.5 4B (Local)”,

“reasoning”: false,

“input”: [“text”],

“cost”: {

“input”: 0,

“output”: 0,

“cacheRead”: 0,

“cacheWrite”: 0

},

“contextWindow”: ,

“maxTokens”: 8192

}

]

}

}

},

“agents”: {

“defaults”: {

“model”: {

“primary”: “ollama/qwen3.5:4b”,

“fallbacks”: [

“qwen-portal/coder-model”,

“qianfan/deepseek-v3.2”

]

}

}

},

“tools”: {

“profile”: “full”

}

}

”`

小讯
上一篇 2026-04-23 15:31
下一篇 2026-04-23 15:29

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/276754.html