<p></p>
本文介绍如何让 Claude Code 调用 OpenAI 的 Codex 模型(如 gpt-5.3-codex)。
核心思路是通过 LiteLLM 代理层实现模型协议转换。
原因:
- Claude Code 只支持 Anthropic API
- OpenAI 使用 OpenAI API
- LiteLLM 可以做 API协议转换和模型路由
官方文档也提到:Claude Code 可以通过 LLM Gateway(例如 LiteLLM)连接其他模型提供商。 (Claude API Docs)
整体调用链如下:
GPT plus 代充 只需 145
解释:
一些开源项目已经使用这种方式让 Claude Code 调用 GPT-Codex。 (GitHub)
需要准备:
1 安装 Node.js
Claude Code 是 Node CLI:
2 安装 Claude Code
安装 CLI:
GPT plus 代充 只需 145
安装完成测试:
3 安装 LiteLLM
安装 Python 版 LiteLLM:
GPT plus 代充 只需 145
验证:
4 准备 OpenAI API Key
从 OpenAI 获取:
GPT plus 代充 只需 145
设置环境变量:
Linux / macOS:
Windows PowerShell:
GPT plus 代充 只需 145
创建文件:
内容如下:
GPT plus 代充 只需 145
解释:
这样 Claude Code 会认为自己在调用:
但实际上调用:
GPT plus 代充 只需 145
运行:
成功后会看到:
GPT plus 代充 只需 145
测试:
如果返回模型列表说明代理正常。
Claude Code 的配置文件:
GPT plus 代充 只需 145
添加:
解释:
进入项目目录:
GPT plus 代充 只需 145
Claude Code 启动后:
应该看到类似:
GPT plus 代充 只需 145
但实际调用的是:
测试:
GPT plus 代充 只需 145
如果模型生成:
- 多文件项目结构
- tests
- requirements
说明 Codex 已经工作。
原因:
Claude Code 会发送:
一些 OpenAI 模型不支持。
解决:
使用推理模型:
GPT plus 代充 只需 145
错误:
解决:
配置代理:
GPT plus 代充 只需 145
如果 CLI 已登录:
然后重新启动。
推荐的 LiteLLM 配置:
GPT plus 代充 只需 145
效果:
这样可以:
- 降低成本
- 提升稳定性
- 自动路由模型
通过 LiteLLM 可以让 Claude Code 调用任何模型,包括:
- OpenAI
- DeepSeek
- Gemini
- 本地模型
最终架构:
优点:
- 不依赖 Anthropic API
- 可自由切换模型
- 支持统一 AI Gateway
这种 “LLM Gateway 架构” 正在成为 AI 开发工具的主流实践。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/215083.html