# OpenClaw 配置本地模型优先使用指南
配置目标
- ✅ 优先使用本地 Ollama 模型(千问 3.5 4B)
- ✅ 自动 Fallback 到云端 Qwen 模型
- ✅ 节省成本,提升响应速度
—
环境信息
| 项目 | 配置 |
|——|——|
| 操作系统 | Windows 10⁄11 |
| 本地模型 | qwen3.5:4b |
| Ollama 服务 | http://localhost:11434 |
| 云端备用 | qwen-portal/coder-model |
| 配置时间 | 2026-03-06 |
—
配置步骤
第零步:下载 Ollama 和模型(国内用户)
# 1. 使用国内镜像下载 Ollama
官方下载(可能慢):
https://ollama.com/download
国内镜像/替代方案:
https://asset.cnb.cool/assets/t/0126dypWd7zOG2onvCSsFRLUbmA
Windows 安装:
1. 下载 OllamaSetup.exe
2. 双击运行安装
3. 安装完成后自动启动服务
验证安装:
bash
ollama --version
—
# 2. 下载使用 Qwen 3.5 4B 模型
ollama run qwen3.5:4b
# 查看已下载的模型
ollama list
# 测试模型运行
ollama run qwen3.5:4b “Hello, 你好!”
# 预期输出:模型的回复
---
第一步:确认本地模型已安装
在 PowerShell 或 CMD 中运行:
bash
ollama list
确认输出中包含 `qwen3.5:4b`,状态正常。
---
第二步:修改 OpenClaw 配置文件
配置文件位置:
C:\Users\xxxxx.openclaw\openclaw.json
# 2.1 添加 Ollama 提供商配置
在 `models.providers` 中添加 Ollama 配置:
json
“ollama”: {
“baseUrl”: “http://localhost:11434”,
“api”: “openai-completions”,
“models”: [
{
“id”: “qwen3.5:4b”,
“name”: “Qwen 3.5 4B (Local)”,
“reasoning”: false,
“input”: [“text”],
“cost”: {
“input”: 0,
“output”: 0,
“cacheRead”: 0,
“cacheWrite”: 0
},
“contextWindow”: ,
“maxTokens”: 8192
}
]
}
# 2.2 修改默认模型优先级
在 `agents.defaults.model` 中修改:
json
“model”: {
“primary”: “ollama/qwen3.5:4b”,
“fallbacks”: [
“qwen-portal/coder-model”,
“qianfan/deepseek-v3.2”
]
}
# 2.3 添加模型别名(可选)
在 `agents.defaults.models` 中添加:
json
“ollama/qwen3.5:4b”: {
“alias”: “local”
}
# 2.4 启用文件操作权限
修改 `tools` 配置:
json
“tools”: {
“profile”: “full”
}
或明确启用工具:
json
“tools”: {
“enabled”: [“exec”, “read”, “write”, “trash”, “edit”]
}
---
第三步:保存并重启
1. 保存配置文件 `openclaw.json`
2. 重启 OpenClaw Gateway:
bash
openclaw gateway restart
---
配置说明
模型优先级
| 优先级 | 模型 | 说明 |
|--------|------|------|
| 1️⃣ Primary | `ollama/qwen3.5:4b` | 本地模型,优先使用 |
| 2️⃣ Fallback 1 | `qwen-portal/coder-model` | 云端 Qwen,本地不可用时 |
| 3️⃣ Fallback 2 | `qianfan/deepseek-v3.2` | 千帆 DeepSeek,备用 |
自动 Fallback 机制
- 当本地 Ollama 服务不可用时,自动切换到云端模型
- 无需手动干预,无缝衔接
- 本地服务恢复后,自动切回本地模型
---
测试验证
测试 1:创建文件
powershell
# 在工作空间创建测试文件
echo “Hello from OpenClaw!” > C:\Users\zzzzzzz.openclaw\workspace\test.txt
测试 2:查看会话状态
bash
openclaw status
确认 Model 字段显示为 `ollama/qwen3.5:4b`
测试 3:对话测试
与 OpenClaw 进行对话,观察响应速度和模型表现。
---
常见问题
Q1: Ollama 服务未启动怎么办?
bash
# 启动 Ollama 服务
ollama serve
Q2: 如何查看当前使用的模型?
bash
openclaw status
查看 ` Model` 字段。
Q3: 如何切换回云端模型?
修改 `openclaw.json` 中的 `primary` 字段:
json
“primary”: “qwen-portal/coder-model”
然后重启 Gateway。
Q4: 本地模型响应慢怎么办?
- 检查 Ollama 服务状态:`ollama ps`
- 检查系统资源(CPU/内存)
- 考虑使用更小的模型或增加 Ollama 资源分配
---
优势总结
| 优势 | 说明 |
|------|------|
| 成本 | 本地模型免费,无 API 调用费用 |
| ⚡ 速度 | 本地响应更快,无网络延迟 |
| 隐私 | 数据不出本地,更安全 |
| 可靠 | 自动 Fallback,服务不中断 |
---
附录:完整配置示例
json
{
“models”: {
“mode”: “merge”,
“providers”: {
“ollama”: {
“baseUrl”: “http://localhost:11434”,
“api”: “openai-completions”,
“models”: [
{
“id”: “qwen3.5:4b”,
“name”: “Qwen 3.5 4B (Local)”,
“reasoning”: false,
“input”: [“text”],
“cost”: {
“input”: 0,
“output”: 0,
“cacheRead”: 0,
“cacheWrite”: 0
},
“contextWindow”: ,
“maxTokens”: 8192
}
]
}
}
},
“agents”: {
“defaults”: {
“model”: {
“primary”: “ollama/qwen3.5:4b”,
“fallbacks”: [
“qwen-portal/coder-model”,
“qianfan/deepseek-v3.2”
]
}
}
},
“tools”: {
“profile”: “full”
}
}
”`
—
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/276754.html