突破官方模型限制,灵活接入 DeepSeek、通义千问、智谱 GLM,让智能编码工具真正本地化
Claude Code 作为一款强大的智能编码助手,其核心能力依赖于底层大语言模型的推理能力。然而,Anthropic 官方 Claude 模型在国内的 API 访问体验并不理想,存在延迟高、稳定性差等问题。为了解决这一痛点,Claude Code 提供了灵活的模型配置体系,支持开发者无缝切换底层模型。
本文将系统梳理 Claude Code 的模型配置逻辑,从内置模型的基础用法到如何适配 DeepSeek、阿里百炼(通义千问)、智谱 GLM 等国内主流 AI 模型,帮助你解锁 Claude Code 的全场景使用能力,让智能编码真正落地国内开发环境。
Claude Code 对模型的支持采用分层设计,既提供了便捷的「模型别名」满足日常快速切换,也支持精准的「模型名称」用于固定版本或适配第三方服务商。
Claude Code 中 model 字段的配置支持两类核心标识:
- 模型别名:Anthropic 官方预设的快捷标识,无需记忆复杂的版本号,始终指向对应系列的最新版本,适合日常开发快速切换。
default
基于账户类型自动匹配推荐模型,平衡性能与成本
sonnet
最新 Sonnet 系列(当前 Sonnet 4.5),兼顾推理精度与响应速度,适合日常业务代码编写
opus
最新 Opus 系列(当前 Opus 4.6),顶尖复杂推理能力,适合架构设计、疑难 Bug 定位
haiku
Haiku 系列,响应极快、资源消耗低,适合简单代码补全、注释生成
sonnet[1m]
Sonnet 模型 + 100 万 token 上下文窗口,适配长代码库分析
opusplan
混合模式:计划阶段用 Opus,执行阶段用 Sonnet,适合复杂项目分步开发
- 精准模型名称/标识:针对不同服务商的专属命名规则,例如 Anthropic API 需填写官方完整模型名称(如
claude-opus-4-5-),AWS Bedrock 需填写推理配置文件 ARN,Google Vertex 需填写版本名称等。适用于固定版本或适配第三方服务商。
Claude Code 支持多维度配置模型,优先级从高到低依次为:
- 会话内临时切换:输入
/model <别名|精准名称>别名|精准名称>实时切换,无需重启工具,适合单次任务调整。 - 启动时指定:通过
claude --model <别名|精准名称>别名|精准名称>启动工具,本次会话默认使用该模型。 - 环境变量配置:设置
ANTHROPIC_MODEL= <别名|精准名称>别名|精准名称>,全局生效(需重启终端)。 - 配置文件永久生效:在
~/.claude/settings.json(macOS/Linux)中添加model字段:
{ "permissions": {}, "model": "opus" }
- 查看当前模型:
- 终端状态行(若配置)直接显示;
- 输入
/status命令,可查看模型信息、账户权限、API 连接状态等。
- 自定义别名映射:通过环境变量固定别名对应的精准模型,避免别名自动更新带来的不确定性。
ANTHROPIC_DEFAULT_OPUS_MODEL
自定义 opus 别名对应的模型,或 opusplan 计划阶段所用模型
ANTHROPIC_DEFAULT_SONNET_MODEL
自定义 sonnet 别名对应的模型,或 opusplan 执行阶段所用模型
ANTHROPIC_DEFAULT_HAIKU_MODEL
自定义 haiku 别名对应的模型
CLAUDE_CODE_SUBAGENT_MODEL
自定义子代理功能使用的模型
注意:旧版环境变量 ANTHROPIC_SMALL_FAST_MODEL 已弃用,统一替换为 ANTHROPIC_DEFAULT_HAIKU_MODEL。
Claude Code 默认启用 Prompt Caching,通过缓存重复提示词降低 API 调用成本、提升响应速度。可通过环境变量精细控制:
DISABLE_PROMPT_CACHING=1
全局禁用所有模型的 Prompt Caching
DISABLE_PROMPT_CACHING_HAIKU=1
仅禁用 Haiku 模型的 Prompt Caching
DISABLE_PROMPT_CACHING_SONNET=1
仅禁用 Sonnet 模型的 Prompt Caching
DISABLE_PROMPT_CACHING_OPUS=1
仅禁用 Opus 模型的 Prompt Caching
全局禁用优先级高于模型专属禁用。
针对国内开发者的需求,以下梳理 DeepSeek、阿里百炼(通义千问)、智谱 GLM 等主流模型的接入流程,核心思路均为 「替换 API 地址 + 配置专属密钥 + 适配模型名称」。
deepseek-chat、deepseek-reasoner
DeepSeek 平台
阿里百炼(通义千问)
阿里云生态,多模型兼容
qwen-max、qwen-turbo、qwen3-coder-plus
阿里百炼控制台
智谱 GLM(智谱清言)
清华系技术,编码场景优化
GLM-4、GLM-3-Turbo
智谱开放平台
MiniMax
多模态能力,音图文混合
abab5.5-chat、abab6.0-chat
MiniMax 平台
接入前置步骤:所有模型均需完成「注册账号 → 实名认证 → 创建 API Key」,具体流程参考各平台官方指引。
DeepSeek 提供了 Anthropic API 兼容接口,可直接通过环境变量配置接入。
临时配置(当前终端):
# 替换为你的 DeepSeek API Key export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic export ANTHROPIC_AUTH_TOKEN=\({DEEPSEEK_API_KEY} # 设置超时时间(建议 10 分钟以上) export API_TIMEOUT_MS= # 指定使用的 DeepSeek 模型 export ANTHROPIC_MODEL=deepseek-chat export ANTHROPIC_SMALL_FAST_MODEL=deepseek-chat # 禁用非必要流量,提升国内访问稳定性 export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1
永久配置:将上述变量写入 ~/.bashrc 或 ~/.zshrc,然后执行 source ~/.bashrc 生效。
验证接入:进入项目目录执行 claude,输入 /status 查看模型状态,或通过 /model deepseek-chat 手动切换模型。
通义千问系列同样支持 Anthropic API 兼容接口,推荐通过配置文件永久生效。
macOS/Linux 配置:
mkdir -p ~/.claude vim ~/.claude/settings.json
写入以下内容(替换 YOUR_API_KEY):
{ "env": { "ANTHROPIC_AUTH_TOKEN": "YOUR_API_KEY", "ANTHROPIC_BASE_URL": "https://coding.dashscope.aliyuncs.com/apps/anthropic", "ANTHROPIC_MODEL": "qwen3-coder-plus" } }
重启终端,执行 claude,输入 /model qwen3-coder-plus 确认切换。
Windows 配置(CMD 永久生效):
setx ANTHROPIC_AUTH_TOKEN "YOUR_API_KEY" setx ANTHROPIC_BASE_URL "https://coding.dashscope.aliyuncs.com/apps/anthropic" setx ANTHROPIC_MODEL "qwen3-coder-plus"
PowerShell 配置
[Environment]::SetEnvironmentVariable("ANTHROPIC_AUTH_TOKEN", "YOUR_API_KEY", [EnvironmentVariableTarget]::User) [Environment]::SetEnvironmentVariable("ANTHROPIC_BASE_URL", "https://coding.dashscope.aliyuncs.com/apps/anthropic", [EnvironmentVariableTarget]::User) [Environment]::SetEnvironmentVariable("ANTHROPIC_MODEL", "qwen3-coder-plus", [EnvironmentVariableTarget]::User)
验证环境变量:
# CMD echo %ANTHROPIC_AUTH_TOKEN% echo %ANTHROPIC_BASE_URL% echo %ANTHROPIC_MODEL% # PowerShell echo \)env:ANTHROPIC_AUTH_TOKEN echo \(env:ANTHROPIC_BASE_URL echo \)env:ANTHROPIC_MODEL
智谱 GLM 同样提供了 Anthropic API 兼容端点。
获取 API Key:登录 智谱 GLM Coding Plan 页面 完成实名认证,创建 API Key。
编辑配置文件:
vim ~/.claude/settings.json
写入配置(替换 your_zhipu_api_key):
{ “env”: { “ANTHROPIC_AUTH_TOKEN”: “your_zhipu_api_key”, “ANTHROPIC_BASE_URL”: “https://open.bigmodel.cn/api/anthropic”, “API_TIMEOUT_MS”: “”, “CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC”: 1 } }
验证接入:启动 Claude Code,输入 /status 查看模型状态;若未自动生效,可手动输入 /model GLM-4 切换。
- 超时配置优化:国内网络环境下建议将
API_TIMEOUT_MS设置为(5 分钟)及以上,避免因网络波动触发超时中断。 - 密钥安全管理:切勿将 API Key 直接硬编码在代码或配置文件中并提交至版本库。推荐通过环境变量或加密的配置文件管理敏感信息。
- 模型适配性验证:不同模型对编码场景的适配性存在差异。例如 DeepSeek 适合轻量化编码,通义千问
qwen3-coder-plus更适合工程化开发,建议根据实际任务选择。 - 缓存策略调整:若遇到「提示词更新但模型返回旧结果」的问题,可临时禁用 Prompt Caching(设置
DISABLE_PROMPT_CACHING=1)进行调试,完成后恢复默认配置以降低成本。 - 多模型切换技巧:通过
claude –model <别名>别名>启动或会话内/model命令可以快速切换不同模型,方便对比不同厂商的生成效果。
通过 Claude Code 灵活的模型配置体系,开发者可以轻松将底层模型替换为国内主流 AI 厂商的模型,既解决了官方模型访问不畅的问题,又能根据具体任务选择最合适的模型。掌握这些配置技巧,你将能够最大化发挥 Claude Code 的智能编码价值,让 AI 真正成为开发流程中可靠的伙伴。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/254354.html