2026年盘点 Claude Code 可接入的所有大模型【附带配置教程】

盘点 Claude Code 可接入的所有大模型【附带配置教程】最近 在 AI Coding 方向上 要说最火的 AI Coding 工具是哪个 那一定非 Claude code 莫属 近一年以来 涌现了大量的 AI Coding 工具 有 Cursor Windsurf Trae Kiro Replit Bolt 通义灵码 MiniMax Agent Qwen Coder Gemini CLI 等等 不论是哪些 AI Coding 工具

大家好,我是讯享网,很高兴认识大家。



最近,在 AI Coding 方向上,要说最火的 AI Coding 工具是哪个,那一定非 Claude code 莫属。

近一年以来,涌现了大量的 AI Coding 工具,有 Cursor、Windsurf、Trae、Kiro、Replit、Bolt、通义灵码、MiniMax Agent、Qwen Coder、Gemini CLI 等等,不论是哪些AI Coding 工具,底层用的都是通用大模型。

在AI编程方面,目前公认最强的模型就是 Claude,像 Cursor、windsurf、Trae 等 AI IDE 中优选的模型都是 Claude。当用的大模型都一样时,拼的就是工具工程化的能力,如何利用大模型更好的去解决问题。

Claude Code 的厉害之处是,Anthropic 自家已经在内部大规模用它了,不论是研发还是非研发,几乎人人都能借助它提升效率。也正因为这样,它才成了不少个人开发者的首选。

但 Claude 也并非没有缺点,缺点就是贵贵贵!而且由于 Claude 对于用户地区有非常严格的要求,稍加不注意很容易被封号,我曾经就被封号过一次

所以问题来了:如果我们不想一直绑死在 Claude 上,有没有其他选择?答案当然是有的。接下来我就带你盘点一下,Claude Code 还能接哪些模型,以及具体要怎么配置。

不过,如果有米的话,还是强推claude

不论是用的哪个平台,哪个模型,一开始都需要先获取 API 地址和 Key。

本篇文章涉及的大模型和平台有:Kimi、GLM、deepseek、Qwen、gemini、OpenRouter、硅基流动、Aihubmix

提供了手动配置、Claude-code-Router两种配置方式。

以上的模型和平台几乎能覆盖到所有模型,如果要想调用本地模型,还可以调用ollama。

理论上,只要模型平台提供了兼容 Anthropic API 请求的 BASE URL,都可以进行调用,如果没有,也可以加一层代理进行转发,但这部分工作 Claude-code-Router 已经帮我们做了。

接下来,我们来看下具体配置。

这个地方就比较简单,只需要登录官网,然后获取key.

前往 moonshot 工作台(Moonshot AI 开放平台 - Kimi 大模型 API 服务)创建一个 API KEY,这个就是 AUTH_TOKEN


讯享网

BASE_URL: api.moonshot.cn/anthrop

Model:

  • kimi-k2-0711-preview
  • kimi-k2-turbo-preview

前往 bigmodel 工作台:智谱AI开放平台

创建一个 API KEY

BASE_URL: open.bigmodel.cn/api/an

MODEL:

  • GLM-4.5
  • GLM-4.5-Air

前往 deepseek 的工作台:DeepSeek Platform

创建一个 API KEY

BASE_URL: api.deepseek.com/anthro

MODEL:

  • deepseek-chat:对应 deepseek v3.1 非思考模式
  • deepseek-reasoner:对应 deepseek v3.1 思考模式

前往阿里云百炼工作台:大模型服务平台百炼控制台

创建一个 API KEY

BASE_URL: dashscope.aliyuncs.com/

MODEL:

  • qwen3-coder-plus

官方配置文档:大模型服务平台百炼控制台

前往 google ai studio 工作台:aistudio.google.com/api

创建一个 API KEY

前往硅基流动工作台:cloud.siliconflow.cn/me

创建一个 API KEY

BASE_URL: api.siliconflow.cn/

MODEL:(目前仅支持非思考模型)

  • Pro/deepseek-ai/DeepSeek-V3.1
  • deepseek-ai/DeepSeek-V3.1
  • Pro/moonshotai/Kimi-K2-Instruct
  • moonshotai/Kimi-K2-Instruct
  • Qwen/Qwen3-Coder-30B-A3B-Instruct
  • Qwen/Qwen3-Coder-480B-A35B-Instruct
  • ai-org/GLM-4.5
  • 其他模型

前往 OpenRouter 工作台:openrouter.ai/settings/

创建一个 API Key

前往 aihubmix 工作台:aihubmix.com/token

创建一个 API KEy

BASE_URL: https://aihubmix.com

大家可以参考上面这一张图,选择你想要配置的模型、平台,以及对应的配置方式

对于一些提供了兼容 anthropic api 请求的,直接打开终端,配置如下几个环境变量:

Mac 版本

# 以kimi为例: export ANTHROPIC_BASE_URL=https://api.moonshot.cn/anthropic export ANTHROPIC_AUTH_TOKEN=xxxx export ANTHROPIC_MODEL=kimi-k2-turbo-preview

讯享网

Windows( cmd) :

讯享网set ANTHROPIC_BASE_URL=https://api.moonshot.cn/anthropic set ANTHROPIC_AUTH_TOKEN=xxxx set ANTHROPIC_MODEL=kimi-k2-turbo-preview

以上的几个环境变量在 API 地址和 Key 获取那都有说明

最后在终端执行 Claude 命令

claude

执行完后,可以看到 Base URL 就会显示配置的 BASE URL

可以询问使用的是什么模型,它就会根据 MODEL 配置回答,只要能正常返回结果,就证明调用通了

其他的就不演示怎么配置了,配置方式都是一样的,只需要换一下 URL 地址、API-key、模型。

手动配置是基于大模型平台已经提供了兼容 anthropic api 请求的 URL,我们可以通过 export 直接设置环境变量。

但像豆包、GPT、gemini 这些模型,并没有提供这样的 URL,以及像 OpenRouter 的统一 API 平台。

如果我们想调用这类模型、平台的 API,要自己做的话就得自己在本地做一层代理,然后进行转发。

不过,这样的工作已经有人实现了,Claude-code-Router 是 github 上的一个项目,项目地址是:github.com/musistudio/c

我们只需要把配置文件配置好,通过 router,就可以调用各个平台的大模型。

首先,安装 claude-code-router

讯享网npm install -g @musistudio/claude-code-router

然后,创建并配置~/.claude-code-router/config.json 文件

如果是 Mac 电脑,放在~/.claude-code-router 下,Windows 电脑则是在 C:\Users\用户名.claude-code-router 下,没有的话自己创建一个

{ “APIKEY”: “12345”, “PROXY_URL”: “http://127.0.0.1:7897", ”LOG“: true, ”API_TIMEOUT_MS“: , ”NON_INTERACTIVE_MODE“: false, ”Providers“: [

讯享网{ "name": "openrouter", "api_base_url": "https://openrouter.ai/api/v1/chat/completions", "api_key": "your_api_key", "models": [ "google/gemini-2.5-pro-preview", "openai/gpt-5" ], "transformer": { "use": ["openrouter"] } }, { "name": "gemini", "api_base_url": "https://generativelanguage.googleapis.com/v1beta/models/", "api_key": "your_api_key", "models": ["gemini-2.5-flash", "gemini-2.5-pro"], "transformer": { "use": ["gemini"] } } 

], ”Router“: {

"default": "deepseek,deepseek-chat", "background": "ollama,qwen2.5-coder:latest", "think": "deepseek,deepseek-reasoner", "longContext": "openrouter,google/gemini-2.5-pro-preview", "longContextThreshold": 60000, "webSearch": "gemini,gemini-2.5-flash" 

} }

配置完以后,在终端敲入:

讯享网ccr ui

就会出来如下这个页面,在这个页面中,去选择你要用的模型

我这边都选择 gemini 的 gemini-2.5-pro,然后点击右上角的保存并重启

然后,在终端中输入

ccr code

结果如下:

我们尝试着发送一个条消息

这样就成功了,为了确认是不是走了 Gemini,前往 Google AI Studio 查看用量

确实是有使用量了,这样就算配置好了

其他的就不演示啦,claude-code-router 的 github 项目里有完整的配置文件信息,不知道怎么配置的可以去查看一下

从整体来看,Claude Code 的强大不仅在于自身的体验优势,更在于它提供了一个「接口层」的可能性——让我们能够把不同的大模型灵活接入同一套工作流。正如本文所展示的,无论是 Kimi、GLM、Deepseek,还是 Qwen、Gemini、OpenRouter 等,只要提供了兼容 Anthropic API 的调用方式,开发者几乎都能无缝替换使用。这意味着,我们并不需要在 Claude 的高昂费用和账号风险之间左右为难,而是可以通过 CC + Router 的组合,构建出一个更加灵活、成本可控的 AI Coding 环境。

当然,不同模型在编程场景下的表现差异很大:有的长于推理与结构化思考,有的更擅长速度与性价比,如何选择还要结合自身项目需求。个人的建议是,Claude 依旧是“全能型”**选择,但在特定场景下,例如长上下文需求、低成本实验、或多模型混搭,完全可以尝试 Qwen、Deepseek 或 Kimi。

未来,随着更多平台加入对 Anthropic API 协议的支持,Claude Code 的生态还会继续扩展。届时,开发者完全可以把 Claude Code 视为一个“统一编程入口”,像换积木一样快速切换模型。这才是 AI Coding 工具的真正魅力所在。

好啦,今天就到这里,如果这篇文章对你有帮助,麻烦关注、点赞、收藏,后续我会继续分享更多关于AI方面的文章!!!!

夏尾 | 你专属的 AI 口袋
我相信未来,人人都能带着 AI,成为超级个体

小讯
上一篇 2026-03-09 19:09
下一篇 2026-03-09 19:11

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/209827.html