本文详细介绍了如何在VSCode中通过Codex插件集成32ai平台,实现无需代理的GPT-5-Codex、claude-opus-4-6、gemini-3-pro-preview模型直连。即拿即用,价格比例仅为0.56:1。
- 安装 Codex 插件
- 中转平台 · 获取 API key
- 粘贴 Key · Codex 登录
- 打开配置文件 config.toml
- 写入完整配置 · 32ai 端点
- 重启 VSCode · 集成成功
- 为什么选择 32ai 平台?
在 VSCode 插件市场搜索 "codex",点击安装。

前往 ai.32zi.com,注册/登录,添加并复制 API key。

打开 Codex 登录面板,点击 Use API Key,直接粘贴密钥。

按以下方式进入 Codex 配置(两种方式示意)。


将下方 config.toml 内容完整复制(包含 provider, profiles, 自定义base_url)。
model_provider = "32ai" model = "gpt-5-codex" # Reasoning effort: minimal | low | medium | high | xhigh (default: medium; xhigh on gpt-5.2-codex and gpt-5.2) model_reasoning_effort = "medium" # Reasoning summary: auto | concise | detailed | none (default: auto) model_reasoning_summary = "auto" # Text verbosity for GPT-5 family (Responses API): low | medium | high (default: medium) model_verbosity = "medium" # Force-enable reasoning summaries for current model (default: false) model_supports_reasoning_summaries = false disable_response_storage = true preferred_auth_method = "apikey" # Optional manual model metadata... # model_context_window = # tool_output_token_limit = 10000 approval_policy = "on-request" [model_providers] [model_providers.32ai] name = "32ai" base_url = "https://ai.32zi.com/v1" wire_api = "responses" requires_openai_auth = true request_max_retries = 4 stream_max_retries = 5 stream_idle_timeout_ms = # experimental_bearer_token = "" # http_headers = { "X-Example" = "value" } [profiles] [profiles.32ai] model = "gpt-5-codex" model_provider = "32ai" approval_policy = "on-request" sandbox_mode = "read-only" # oss_provider = "ollama" model_reasoning_effort = "medium" model_reasoning_summary = "auto" model_verbosity = "medium" personality = "friendly" # chatgpt_base_url = "https://ai.32zi.com/v1" include_apply_patch_tool = false experimental_use_unified_exec_tool = false experimental_use_freeform_apply_patch = false tools.web_search = false
🔗 官方配置参考:https://developers.openai.com/codex/config-sample
重启 VSCode,即可在 Codex 面板看到模型 gpt-5-codex 已就绪。

✅ 恭喜!VSCode + Codex 已成功集成,现在可使用自定义端点 + gpt-5-codex 模型。
核心优势
- 低价 —— 惊人比例 0.56 : 1
- 稳定 · 中转延迟极低
- 直连 · 无需任何代理/魔法
- 原生兼容 · Codex 官方扩展
💎 价格 0.56:1 —— 超高性价比


通过本文的6个步骤,您可以轻松实现VSCode与32ai平台的Codex集成,享受GPT-5-Codex模型的强大功能而无需复杂的代理设置。这种集成方案具有以下特点:
- 零配置:无需魔法上网,直连使用
- 高性价比:价格比例仅为0.56:1
- 原生支持:完全兼容Codex官方扩展
- 稳定可靠:中转延迟极低,使用体验流畅
如果觉得本文对您有帮助,欢迎点赞收藏支持!欢迎在评论区交流讨论使用体验和遇到的问题。
转载请标明出处!!!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/276716.html