部署好OpenClaw,第一个让人头疼的问题来了:
这么多模型,到底选哪个?
智谱GLM、通义千问、硅基流动、Claude、Gemini……价格不同、能力不同、免费额度不同,新手很容易在这里卡住。
这篇是OpenClaw模型选择的终极决策指南。直接告诉你哪个场景用哪个,怎么配置,怎么切换,怎么省钱。
这篇解决什么问题?
面对众多可接入模型,帮你建立清晰的选型框架,配置方法一步到位,并整理当前(2026年)各模型的免费额度和性价比排名。
主线逻辑:
场景需求分析(你主要用来做什么) ↓ 模型能力矩阵对比 ↓ 免费额度 & 性价比排名 ↓ 配置操作(openclaw models set) ↓ 多模型切换策略
一、智谱GLM-4.5-Air(入门首选)
为什么推荐新手从它开始:
- 新用户赠2000万Token,够用很久
- 国内节点,速度快,无需额外网络配置
- 中文理解优秀,日常对话、写作场景体验好
- 官方对OpenClaw支持好,配置文档齐全
注册和获取API Key:
- 访问:https://www.bigmodel.cn
- 注册账号 → 进入控制台 → API Keys → 创建Key
- 复制Key备用
OpenClaw配置:
openclaw models set
提供商:zhipu API Key:你的智谱API Key 模型名称:GLM-4.5-Air
适合场景: 日常对话、中文写作、飞书自动化任务、入门学习
二、硅基流动 + DeepSeek-V3(性价比之王)
为什么推荐:
硅基流动是国内最大的模型聚合平台,它的特别之处在于:一个账号,接入几十个模型,包括DeepSeek-V3、Qwen-Max、GLM等,统一API格式,按量计费,价格极低。
- DeepSeek-V3代码能力达到Claude Sonnet级别
- 价格:约¥2/百万tokens(输入),是Claude的1/10
- 注册即赠送免费额度
注册和获取API Key:
- 访问:https://cloud.siliconflow.cn
- 注册 → 控制台 → API Keys → 新建
- 复制Key
OpenClaw配置:
openclaw models set
提供商:openai-compatible(硅基使用OpenAI兼容格式) API Base URL:https://api.siliconflow.cn/v1 API Key:你的硅基API Key 模型名称:deepseek-ai/DeepSeek-V3
切换到其他模型(在硅基平台内):
只需修改模型名称,API Key不变:
Qwen/Qwen2.5-72B-Instruct(通义千问)THUDM/glm-4-9b-chat(智谱轻量版,极低成本)meta-llama/Meta-Llama-3.1-70B-Instruct(Llama)
适合场景: 代码生成、逻辑推理、需要低成本高频调用的自动化任务
三、通义千问Qwen-Max(阿里出品,中文专业场景)
为什么推荐:
- 阿里系,对中文商业场景理解深
- 长文档处理能力强
- 有免费试用额度
获取API Key:
- 访问:https://dashscope.aliyun.com
- 注册 → 控制台 → API Keys → 创建
OpenClaw配置:
openclaw models set
提供商:openai-compatible API Base URL:https://dashscope.aliyuncs.com/compatible-mode/v1 API Key:你的通义API Key 模型名称:qwen-max
适合场景: 中文长文档分析、商业报告撰写、需要深度中文理解的任务
四、Claude(顶级能力,海外节点)
参见第10篇完整配置流程。简要配置:
openclaw models set
提供商:anthropic API Key:sk-ant-xxxx 模型名称:claude-sonnet-4-6
适合场景: 复杂代码、英文处理、深度推理、200K长上下文任务
五、Gemini(Google出品,超长上下文)
特别优势: Gemini 2.5 Pro支持100万Token上下文,处理超长文档无压力,且有免费tier。
获取API Key:
- 访问:https://aistudio.google.com
- 登录Google账号 → Get API Key → 创建Key
OpenClaw配置(需海外节点):
openclaw models set
提供商:google API Key:你的Gemini API Key 模型名称:gemini-2.0-flash(轻量)或 gemini-2.5-pro(旗舰)
适合场景: 超长文档分析、多模态任务(图片+文字)、需要免费额度的场景
推荐方案:双模型配置
- 主力模型: 智谱GLM-4.5-Air 或 硅基DeepSeek-V3(日常高频任务,成本低)
- 备用模型: Claude Sonnet(遇到复杂代码、英文、深度推理时切换)
切换方式:
# 查看当前配置 openclaw models list
# 切换模型 openclaw models set
在对话中临时切换(无需重新配置):
在飞书对话里发送:
/model claude-sonnet-4-6
完成本次任务后自动恢复默认模型。
提示: 用多个邮箱注册可以叠加免费额度,但注意遵守各平台使用条款。
我自己的配置是“平时用硅基DeepSeek-V3,复杂任务切Claude”。
DeepSeek-V3的代码能力真的超出预期,写简单脚本、处理飞书自动化逻辑基本不输Claude,价格却是1/10。省下来的钱专门留给“真的需要Claude”的时刻——比如处理复杂英文文档、做深度分析报告。
新手的话,先把智谱GLM-4.5-Air的2000万Token用完再说。那个免费额度够你把OpenClaw摸透了。
下一篇:OpenClaw实操指南12|飞书机器人从0到1:创建、配置、打通OpenClaw完整流程
关键词:OpenClaw模型配置、智谱GLM、硅基流动DeepSeek、Claude接入、模型选型、AI大模型性价比、OpenClaw教程
相关阅读:OpenClaw实操指南10|海外节点部署:接入Claude / Gemini,解锁顶级大模型能力
OpenClaw实操指南09|云端部署实战:腾讯云+OpenClaw,打造7×24小时不断线AI助手
OpenClaw 实操指南 08:飞书 CLI 命令速查表,办公效率直接拉满
OpenClaw 实操指南 07:飞书 CLI 开源:让 AI 真正接管你的飞书全流程
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/252227.html