最近,在 AI Coding 方向上,要说最火的 AI Coding 工具是哪个,那一定非 Claude code 莫属。
近一年以来,涌现了大量的 AI Coding 工具,有 Cursor、Windsurf、Trae、Kiro、Replit、Bolt、通义灵码、MiniMax Agent、Qwen Coder、Gemini CLI 等等,不论是哪些AI Coding 工具,底层用的都是通用大模型。
在AI编程方面,目前公认最强的模型就是 Claude,像 Cursor、windsurf、Trae 等 AI IDE 中优选的模型都是 Claude。当用的大模型都一样时,拼的就是工具工程化的能力,如何利用大模型更好的去解决问题。
Claude Code 的厉害之处是,Anthropic 自家已经在内部大规模用它了,不论是研发还是非研发,几乎人人都能借助它提升效率。也正因为这样,它才成了不少个人开发者的首选。
但 Claude 也并非没有缺点,缺点就是贵贵贵!而且由于 Claude 对于用户地区有非常严格的要求,稍加不注意很容易被封号,我曾经就被封号过一次
所以问题来了:如果我们不想一直绑死在 Claude 上,有没有其他选择?答案当然是有的。接下来我就带你盘点一下,Claude Code 还能接哪些模型,以及具体要怎么配置。
(不过,如果有米的话,还是强推claude)
不论是用的哪个平台,哪个模型,一开始都需要先获取 API 地址和 Key。
本篇文章涉及的大模型和平台有:Kimi、GLM、deepseek、Qwen、gemini、OpenRouter、硅基流动、Aihubmix。
提供了手动配置、Claude-code-Router两种配置方式。
以上的模型和平台几乎能覆盖到所有模型,如果要想调用本地模型,还可以调用ollama。
理论上,只要模型平台提供了兼容 Anthropic API 请求的 BASE URL,都可以进行调用,如果没有,也可以加一层代理进行转发,但这部分工作 Claude-code-Router 已经帮我们做了。
接下来,我们来看下具体配置。
这个地方就比较简单,只需要登录官网,然后获取key.
前往 moonshot 工作台(Moonshot AI 开放平台 - Kimi 大模型 API 服务)创建一个 API KEY,这个就是 AUTH_TOKEN
讯享网
BASE_URL: https://api.moonshot.cn/anthropic
Model:
- kimi-k2-0711-preview
- kimi-k2-turbo-preview
前往 bigmodel 工作台:智谱AI开放平台
创建一个 API KEY
BASE_URL: https://open.bigmodel.cn/api/anthropic
MODEL:
- GLM-4.5
- GLM-4.5-Air
前往 deepseek 的工作台:DeepSeek Platform
创建一个 API KEY
BASE_URL: https://api.deepseek.com/anthropic
MODEL:
- deepseek-chat:对应 deepseek v3.1 非思考模式
- deepseek-reasoner:对应 deepseek v3.1 思考模式
前往阿里云百炼工作台:大模型服务平台百炼控制台
创建一个 API KEY
BASE_URL: https://dashscope.aliyuncs.com/api/v2/apps/claude-code-proxy
MODEL:
- qwen3-coder-plus
官方配置文档:大模型服务平台百炼控制台
前往 google ai studio 工作台:https://aistudio.google.com/apikey
创建一个 API KEY
前往硅基流动工作台:https://cloud.siliconflow.cn/me/account/ak
创建一个 API KEY
BASE_URL: https://api.siliconflow.cn/
MODEL:(目前仅支持非思考模型)
- Pro/deepseek-ai/DeepSeek-V3.1
- deepseek-ai/DeepSeek-V3.1
- Pro/moonshotai/Kimi-K2-Instruct
- moonshotai/Kimi-K2-Instruct
- Qwen/Qwen3-Coder-30B-A3B-Instruct
- Qwen/Qwen3-Coder-480B-A35B-Instruct
- ai-org/GLM-4.5
- 其他模型
前往 OpenRouter 工作台:https://openrouter.ai/settings/keys
创建一个 API Key
前往 aihubmix 工作台:https://aihubmix.com/token
创建一个 API KEy
BASE_URL: https://aihubmix.com
大家可以参考上面这一张图,选择你想要配置的模型、平台,以及对应的配置方式
对于一些提供了兼容 anthropic api 请求的,直接打开终端,配置如下几个环境变量:
Mac 版本
# 以kimi为例: export ANTHROPIC_BASE_URL=https://api.moonshot.cn/anthropic export ANTHROPIC_AUTH_TOKEN=xxxx export ANTHROPIC_MODEL=kimi-k2-turbo-preview
讯享网
Windows( cmd) :
讯享网set ANTHROPIC_BASE_URL=https://api.moonshot.cn/anthropic set ANTHROPIC_AUTH_TOKEN=xxxx set ANTHROPIC_MODEL=kimi-k2-turbo-preview
以上的几个环境变量在 API 地址和 Key 获取那都有说明
最后在终端执行 Claude 命令
claude
执行完后,可以看到 Base URL 就会显示配置的 BASE URL
可以询问使用的是什么模型,它就会根据 MODEL 配置回答,只要能正常返回结果,就证明调用通了
其他的就不演示怎么配置了,配置方式都是一样的,只需要换一下 URL 地址、API-key、模型。
手动配置是基于大模型平台已经提供了兼容 anthropic api 请求的 URL,我们可以通过 export 直接设置环境变量。
但像豆包、GPT、gemini 这些模型,并没有提供这样的 URL,以及像 OpenRouter 的统一 API 平台。
如果我们想调用这类模型、平台的 API,要自己做的话就得自己在本地做一层代理,然后进行转发。
不过,这样的工作已经有人实现了,Claude-code-Router 是 github 上的一个项目,项目地址是:https://github.com/musistudio/claude-code-router
我们只需要把配置文件配置好,通过 router,就可以调用各个平台的大模型。
首先,安装 claude-code-router
讯享网npm install -g @musistudio/claude-code-router
然后,创建并配置~/.claude-code-router/config.json 文件
(如果是 Mac 电脑,放在~/.claude-code-router 下,Windows 电脑则是在 C:\Users\用户名.claude-code-router 下,没有的话自己创建一个)
{ “APIKEY”: “12345”, “PROXY_URL”: “http://127.0.0.1:7897", ”LOG“: true, ”API_TIMEOUT_MS“: , ”NON_INTERACTIVE_MODE“: false, ”Providers“: [
讯享网{ "name": "openrouter", "api_base_url": "https://openrouter.ai/api/v1/chat/completions", "api_key": "your_api_key", "models": [ "google/gemini-2.5-pro-preview", "openai/gpt-5" ], "transformer": { "use": ["openrouter"] } }, { "name": "gemini", "api_base_url": "https://generativelanguage.googleapis.com/v1beta/models/", "api_key": "your_api_key", "models": ["gemini-2.5-flash", "gemini-2.5-pro"], "transformer": { "use": ["gemini"] } }
], ”Router“: {
"default": "deepseek,deepseek-chat", "background": "ollama,qwen2.5-coder:latest", "think": "deepseek,deepseek-reasoner", "longContext": "openrouter,google/gemini-2.5-pro-preview", "longContextThreshold": 60000, "webSearch": "gemini,gemini-2.5-flash"
} }
配置完以后,在终端敲入:
讯享网ccr ui
就会出来如下这个页面,在这个页面中,去选择你要用的模型
我这边都选择 gemini 的 gemini-2.5-pro,然后点击右上角的保存并重启
然后,在终端中输入
ccr code
结果如下:
我们尝试着发送一个条消息
这样就成功了,为了确认是不是走了 Gemini,前往 Google AI Studio 查看用量
确实是有使用量了,这样就算配置好了
其他的就不演示啦,claude-code-router 的 github 项目里有完整的配置文件信息,不知道怎么配置的可以去查看一下
从整体来看,Claude Code 的强大不仅在于自身的体验优势,更在于它提供了一个「接口层」的可能性——让我们能够把不同的大模型灵活接入同一套工作流。正如本文所展示的,无论是 Kimi、GLM、Deepseek,还是 Qwen、Gemini、OpenRouter 等,只要提供了兼容 Anthropic API 的调用方式,开发者几乎都能无缝替换使用。这意味着,我们并不需要在 Claude 的高昂费用和账号风险之间左右为难,而是可以通过 CC + Router 的组合,构建出一个更加灵活、成本可控的 AI Coding 环境。
当然,不同模型在编程场景下的表现差异很大:有的长于推理与结构化思考,有的更擅长速度与性价比,如何选择还要结合自身项目需求。个人的建议是,Claude 依旧是“全能型”**选择,但在特定场景下,例如长上下文需求、低成本实验、或多模型混搭,完全可以尝试 Qwen、Deepseek 或 Kimi。
未来,随着更多平台加入对 Anthropic API 协议的支持,Claude Code 的生态还会继续扩展。届时,开发者完全可以把 Claude Code 视为一个“统一编程入口”,像换积木一样快速切换模型。这才是 AI Coding 工具的真正魅力所在。
好啦,今天就到这里,如果这篇文章对你有帮助,麻烦关注、点赞、收藏,后续我会继续分享更多关于AI方面的文章!!!!
夏尾 | 你专属的 AI 口袋
我相信未来,人人都能带着 AI,成为超级个体
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/209827.html