今天打开掘金,热榜第1是教你怎么用 Claude Code 接 GLM-4.7 的。
说实话看完有点感慨——2026年了,AI Coding 工具接个模型,居然还要注册平台→申请Key→配endpoint→调格式,一通折腾?😅
我最近也在折腾 Claude Code 接不同模型,但走了条不同的路:改一个 base_url,50+ 模型随便切换。写篇踩坑记录,给同样在折腾的朋友省点时间。
热榜那篇文章思路很清晰:去智谱开放平台申请 Key,在 Claude Code 里配 GLM-4.7 的 endpoint,然后测前端生成效果。
流程没毛病,但有个很实际的问题——你只接了一个模型。
实际开发中谁只用一个模型啊?写代码用 Claude,快速原型用 GPT-4o,中文文案用 DeepSeek,便宜活用 GLM。按热榜方案,你得:
- 注册 4 个平台账号
- 管理 4 个 API Key
- 配 4 个不同 endpoint
- 处理 4 种错误格式和 rate limit
光注册充值就半天没了 🥲
先看结论,我的配置就改了这点东西:
{ "apiBaseUrl": "https://api.ofox.ai/v1", "apiKey": "一个统一的key" }
然后随便切模型:
# GLM-4.7 跑一遍 claude --model glm-4.7 # 换 Claude Opus 对比 claude --model claude-opus-4-6 # GPT-4o 也来 claude --model gpt-4o # DeepSeek 收个尾 claude --model deepseek-v4
同一个 key,同一个 endpoint,50+ 模型随便切。 就是用了个 API 聚合平台,它把各家 API 统一成了 OpenAI 兼容格式。
科普一个很多新手不知道的事:
现在几乎所有 AI Coding 工具——Claude Code、Cursor、Continue、Cline、Windsurf——底层都走 OpenAI Chat Completions 格式。意思是只要你的 API 能返回标准格式,这些工具都能直接用。
POST /v1/chat/completions { "model": "你想用的模型", "messages": [{"role": "user", "content": "..."}], "stream": true }
所以核心思路很简单:找一个 OpenAI 格式兼容的 API 中转地址,一次配好,所有工具通用。
我之前在 Cursor 里配 API 地址踩过不少坑,那个 "OpenAI API Base URL" 一直填的官方地址,国内动不动超时。换成聚合平台之后反而稳了——国内直连,不用折腾代理。
公平起见,同一个 prompt 让 4 个模型生成 React Dashboard 组件:
生成一个 React Dashboard:左侧导航栏、顶部 4 个统计卡片、中间折线图+柱状图、底部数据表格。用 Tailwind CSS,响应式布局。
国产模型差距不大,但海外模型直连基本废的。之前 Cursor 里用 Claude 写代码经常转圈 10 秒+,换了之后稳定 2 秒内,体验差距巨大。
Opus 4.6 前端生成确实第一梯队,但 GLM-4.7 进步很明显,组件拆分比上一代清晰不少。DeepSeek V4 代码规范最好,import 顺序、变量命名都很标准化。
说个有意思的细节:GLM-4.7 生成的图表组件居然自带了 loading 骨架屏,其他三个都没有。小惊喜 😄
顺便把其他工具的配置方法也说了:
Cursor:
Settings → Models → OpenAI API Key → 填聚合 key Override OpenAI Base URL → https://api.ofox.ai/v1
Continue(config.json):
{ "models": [{ "provider": "openai", "apiBase": "https://api.ofox.ai/v1", "apiKey": "你的key", "model": "claude-opus-4-6" }] }
Cline:
Settings → API Provider → OpenAI Compatible Base URL → https://api.ofox.ai/v1
改完之后在 Model Selector 里就能看到所有可用模型了。一次配好,所有工具通用,比去各家官网单独申请方便太多。
有人可能问:中间加一层会不会更贵?
实测价格基本是官方的 1:1 ~ 1.2 倍,但考虑到:
- 省了代理/VPS 成本(30-50 刀/月)
- 不用管 4 个平台的账单
- 海外模型从"用不了"变成"能用"
ROI 是正的。尤其国内没法直连 Claude 和 GPT 的情况下,API 中转基本是唯一稳定方案。
看完热榜 Claude Code 接 GLM 的教程,建议先想清楚一个问题:你是只用一个模型,还是要随时切换?
只用一个——按热榜教程配就行,没问题。
要切换——找个 OpenAI 格式兼容的 API 聚合平台,改一行 base_url,50 个模型一次搞定,别把时间浪费在配置上。
我用了一段时间 ofox.ai,体验还行,国内直连不折腾。类似平台不止一家,选顺手的就好。
重点是思路:配置工具是为了写代码,不是为了配置本身。 🚀
你们 Claude Code / Cursor 用的什么 API 方案?评论区聊聊 👇
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/273631.html