OpenClaw的核心优势之一,就是不绑定特定AI模型。
你可以根据场景选择不同的模型:
- DeepSeek:性价比高,适合日常对话
- 飞桨PaddlePaddle:中文优化,适合文本处理
- 腾讯云:企业级服务,适合敏感数据
本文将详细介绍如何配置多种AI模型,实现灵活切换。
1.1 配置文件位置
OpenClaw的配置文件位于:
/.openclaw/config/preferences.json
Windows系统:
C:Users你的用户名.openclawconfigpreferences.json
macOS/Linux系统:
/.openclaw/config/preferences.json
1.2 配置文件结构
{
"agents": { "defaults": { "model": "deepseek-chat", // 默认模型 "permission": "full", // 权限模式 "thinking": "low" // 思考深度 } }, "models": { "providers": { // 各模型配置 } }
}
2.1 获取API Key
步骤:
- 访问 https://platform.deepseek.com/
- 注册/登录账号
- 点击”API Keys” → “Create New Key”
- 复制生成的Key(以
sk-开头)
注意:Key只在创建时显示一次,务必及时保存。
2.2 配置参数
{
"models": { "providers": { "deepseek": { "api_key": "sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx", "base_url": "https://api.deepseek.com" } } }
}
2.3 模型选择
DeepSeek提供两种模型:
模型 用途 特点 deepseek-chat 日常对话 快速响应,成本低 deepseek-reasoner 复杂推理 128K上下文,适合长文本分析
配置示例:
{
"agents": { "defaults": { "model": "deepseek-reasoner" // 使用推理模型 } }
}
2.4 定价参考
模型 输入价格 输出价格 deepseek-chat 2元/百万tokens 3元/百万tokens deepseek-reasoner 4元/百万tokens 8元/百万tokens
3.1 开通服务
步骤:
- 登录腾讯云控制台
- 搜索”DeepSeek API”或”腾讯云TI平台”
- 开通服务
- 获取SecretId和SecretKey
3.2 配置参数
{
"models": { "providers": { "tencent": { "secret_id": "your-secret-id", "secret_key": "your-secret-key", "base_url": "https://api.tencentcloudapi.com" } } }
}
3.3 优势
- 企业级服务:SLA保障,稳定性高
- 合规性:数据不出境,满足合规要求
- 发票支持:企业采购方便
4.1 安装依赖
# CPU版本 pip install paddlepaddle
# GPU版本 pip install paddlepaddle-gpu
4.2 获取API Key
- 访问 https://open.paddlepaddle.org/
- 注册/登录账号
- 在”API管理”中创建Key
4.3 配置参数
{
"models": { "providers": { "paddle": { "api_key": "your-paddle-api-key", "base_url": "https://open.paddlepaddle.org/api/v1" } } }
}
4.4 模型选择
飞桨提供多种中文优化模型:
模型 用途 paddle/glm-4.7 通用中文对话 paddle/ernie-bot 文本理解与生成 paddle/ernie-vilg 图文理解
配置示例:
{
"agents": { "defaults": { "model": "paddle/glm-4.7" } }
}
4.5 优势
- 中文优化:对中文语境理解更好
- 开源生态:丰富的模型库
- 本地部署:支持完全本地化
5.1 获取API Key
- 访问 https://openrouter.ai/
- 注册/登录账号
- 在”Keys”页面创建新Key
5.2 配置参数
{
"models": { "providers": { "openrouter": { "api_key": "sk-or-xxxxxxxxxxxxxxxx", "base_url": "https://openrouter.ai/api/v1" } } }
}
5.3 模型选择
OpenRouter聚合了多种模型:
模型 说明 openai/gpt-4o OpenAI最新模型 anthropic/claude-3.5-sonnet Claude模型 google/gemini-pro-1.5 Gemini模型 meta-llama/llama-3.1-70b-instruct 开源模型
配置示例:
{
"agents": { "defaults": { "model": "anthropic/claude-3.5-sonnet" } }
}
5.4 优势
- 多模型聚合:一个API访问多种模型
- 灵活计费:按实际使用付费
- 快速切换:修改配置即可切换模型
6.1 安装Ollama
macOS/Linux:
curl -fsSL https://ollama.com/install.sh | sh
Windows:
下载安装包:https://ollama.com/download
6.2 下载模型
# 下载DeepSeek本地版 ollama pull deepseek-r1:7b
# 下载Llama ollama pull llama3.1:8b
6.3 启动服务
ollama serve
默认监听端口:11434
6.4 配置OpenClaw
{
"models": { "providers": { "ollama": { "base_url": "http://localhost:11434" } } }, "agents": { "defaults": { "model": "ollama/deepseek-r1:7b" } }
}
6.5 优势
- 完全本地:数据不出电脑
- 免费使用:无API调用成本
- 隐私保护:敏感数据不外泄
7.1 场景化切换
不同场景使用不同模型:
{
"agents": { "defaults": { "model": "deepseek-chat" // 默认模型 }, "presets": { "coding": { "model": "anthropic/claude-3.5-sonnet" // 编码场景 }, "chinese": { "model": "paddle/glm-4.7" // 中文场景 }, "sensitive": { "model": "ollama/deepseek-r1:7b" // 敏感数据用本地模型 } } }
}
7.2 运行时切换
在对话中指定模型:
@coding 帮我写一段Python代码
或者:
用本地模型帮我分析这份敏感文档
8.1 性能优化
调整并发数:
{
"models": { "concurrency": 3, // 并发请求数 "timeout": 30000 // 超时时间(毫秒) }
}
启用缓存:
{
"cache": { "enabled": true, "ttl": 3600 // 缓存有效期(秒) }
}
8.2 成本优化
设置Token限制:
{
"agents": { "defaults": { "max_tokens": 2000, // 最大输出Token "temperature": 0.7 // 温度参数 } }
}
使用更便宜的模型:
- 日常对话用deepseek-chat(成本低)
- 复杂任务用deepseek-reasoner(质量高)
- 敏感数据用本地模型(免费)
9.1 模型调用失败
排查步骤:
- 检查API Key是否正确
- 检查账户余额是否充足
- 检查网络连接是否正常
- 检查配置文件格式是否正确
9.2 响应速度慢
优化建议:
- 使用更快的模型(deepseek-chat)
- 启用缓存
- 减少max_tokens设置
- 检查网络延迟
9.3 输出质量差
优化建议:
- 提高temperature参数
- 使用更强大的模型
- 提供更详细的上下文
模型 API地址 配置字段 参考价格 DeepSeek api.deepseek.com api_key 2元/百万tokens 腾讯云 api.tencentcloudapi.com secret_id, secret_key 企业定价 飞桨 open.paddlepaddle.org/api/v1 api_key 按量计费 OpenRouter openrouter.ai/api/v1 api_key 各模型不同 Ollama localhost:11434 base_url 免费
OpenClaw的多模型支持,让用户可以根据场景灵活选择AI能力。
- 追求性价比:DeepSeek
- 追求中文效果:飞桨
- 追求企业级稳定:腾讯云
- 追求隐私安全:Ollama本地模型
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/269762.html