相关链接(仍在活跃):CLIProxyAPI Plus、OpenClaw
昨天我们已经用 Docker 一键部署了 CLIProxyAPI Plus(简称 CPA),生成了专属 API 密钥,并通过 http://你的IP:9999/v1 实现了 OpenAI 兼容端点。今天我们继续进阶:把这个代理完美对接 OpenClaw(开源个人 AI 助手,前身 Clawdbot),让 OpenClaw 通过你的 CPA 代理调用多账号 OpenAI 模型,实现 WhatsApp/Telegram/Slack 等消息渠道的自动任务执行、代码编写、邮件处理、日历管理等全自动化能力。
为什么必须结合?
OpenClaw 支持任意 OpenAI-compatible endpoint(包括你的 CPA)。核心配置只有两个环境变量:
- OPENAI_BASE_URL:指向你的 CPA 地址(必须以 /v1 结尾)。
- OPENAI_API_KEY:你在 CPA 管理面板里生成的密钥(sk- 开头)。
优先级顺序(技术深度):
- ~/.openclaw/.env(全局最推荐)
- 当前目录 .env
- 运行时环境变量
OpenClaw 内部会自动把这两个变量注入默认的 openai provider。如果你想用 CPA 里的自定义模型(如 gpt-5.2-codex),可以额外定义 models.providers(后面会教)。
端口/路径法则(和 CPA 完全一致):
- 左边(宿主机):随便改
- 右边(容器内):绝对不能动
准备好了吗?我们继续用 Docker 部署,保证和小白昨天的操作一模一样流畅!
确保你的 CPA 容器正在运行:
GPT plus 代充 只需 145docker ps | grep cli-proxy-api-plus
看到 9999:8317 且状态 Up 即可。
在浏览器打开 http://localhost:9999/management.html(或服务器 IP),登录后确认:
- 已上传 OpenAI JSON 密钥文件
- 已生成 API 密钥(复制下来,后面要用)
1.创建专属目录(可随意改路径)
以管理员 PowerShell 执行:
# 这里的 D:AI-Proxy 你可以改成任何你想放的路径! New-Item -ItemType Directory -Force -Path D:AI-Proxyauths New-Item -ItemType Directory -Force -Path D:AI-Proxylogs cd D:AI-Proxy
2.一键拉取官方 Docker 配置(最稳方式)
GPT plus 代充 只需 145# 方法1:git 克隆(推荐) git clone https://github.com/openclaw/openclaw.git .
# 方法2:如果 git 不方便,可直接下载最新 release zip 并解压到当前目录 # https://github.com/openclaw/openclaw/releases/latest
3.生成并修改 .env(最关键一步!)
Set-Content -Path .env -Value @“
=== CPA 代理核心配置(只改下面两行)===
OPENAI_BASE_URL=http://localhost:9999/v1 OPENAI_API_KEY=sk-你的CPA生成密钥在这里
可选:OpenClaw 网关令牌(onboard 会自动生成)
OPENCLAW_GATEWAY_TOKEN=your-super-secret-token
其他默认保持不动
OPENCLAW_PORT=18789 ”@
注意:
- OPENAI_BASE_URL 左边的端口/IP 随便改(对应 CPA 的左侧端口)。
- 如果你在云服务器上跑 CPA,改成 http://你的服务器公网IP:9999/v1。
- OPENAI_API_KEY 必须是 CPA 管理面板里“配置面板 → 认证配置 → 生成”的密钥。
4.启动 OpenClaw(Docker 一键)
GPT plus 代充 只需 145docker compose up -d
第一次会自动运行 onboarding(向导),浏览器会打开 http://localhost:18789。
5.完成 onboarding(5 分钟)
- 选择语言 → 设置网关令牌(复制 .env 里的)
- 连接消息渠道(推荐先连 Telegram 或 WhatsApp)
- 模型自动识别为你的 CPA 代理(会显示自定义模型列表)
# 创建目录 mkdir -p ~/openclaw && cd ~/openclaw
# 克隆并启动 git clone https://github.com/openclaw/openclaw.git . cat > .env << ‘EOF’ OPENAI_BASE_URL=http://127.0.0.1:9999/v1 OPENAI_API_KEY=sk-你的CPA密钥 OPENCLAW_GATEWAY_TOKEN=your-super-secret-token OPENCLAW_PORT=18789 EOF
# 一键启动(官方脚本最稳) ./docker-setup.sh
云服务器别忘了安全组放行 18789 端口(OpenClaw 网关)和 CPA 的 9999 端口。
默认情况下,通过 .env 设置的 OPENAI_BASE_URL 和 OPENAI_API_KEY 已经足够让 OpenClaw 使用你的 CPA 代理,并自动拉取 /v1/models 接口中 CPA 暴露的所有模型。
但是,如果你希望做到以下目标,就需要进行更精细的模型配置:
- 指定默认使用的模型(而不是让 OpenClaw 随机选第一个)
- 为特定模型设置更合适的上下文窗口、最大输出 token 等参数
- 为不同场景准备多个 provider(例如:一个走快速模型,一个走长上下文模型)
- 给模型起一个更友好的别名(如
codex-fast、deep-reason) - 明确告诉 OpenClaw 使用哪种 API 格式(responses 或 completions)
4.1 配置文件位置说明
OpenClaw 目前(2026 年主流版本)主要读取以下位置的模型配置(优先级从高到低):
./config/models.yaml(项目根目录下,手动创建最高优先)./agents/defaults.yaml(部分版本放在这里)- Web 管理界面 →「设置」→「模型提供者」→ 手动添加(会持久化到 volume 里)
推荐做法:在 OpenClaw 项目根目录(和 .env 同级)新建或编辑 config/models.yaml
4.2 完整推荐配置示例(带详细注释)
在 OpenClaw 根目录创建或编辑文件:
GPT plus 代充 只需 145# Windows PowerShell New-Item -ItemType File -Force -Path config/models.yaml
# Linux / macOS touch config/models.yaml
然后填入以下内容(根据实际情况修改模型名称、端口、密钥):
# config/models.yaml # ──────────────────────────────────────────────── # 这是 OpenClaw 可识别的模型提供者配置文件 # 所有字段均为小写 snake_case,注意不要写成 camelCase # ────────────────────────────────────────────────
models: providers:
GPT plus 代充 只需 145# 给这个 provider 起的内部代号,随意但建议有意义 cpa-main: # 必须和 .env 里的 OPENAI_BASE_URL 保持一致(或覆盖它) base_url: "http://host.docker.internal:9999/v1" # ← Windows/macOS Docker Desktop 用这个 # base_url: "http://127.0.0.1:9999/v1" # ← Linux 同机用这个 # base_url: "http://192.168.1.100:31234/v1" # ← 不同机器用实际内网IP:端口 # 必须使用你在 CPA 管理面板生成的密钥 api_key: "sk-cpa-xxxxxxxxxxxxxxxxxxxxxxxxxxxx" # CPA 目前最常用的是 openai 的 responses 格式(新版兼容性更好) # 如果你的 CPA 配置里显示使用 completions 风格,可改为 openai-completions api_format: "openai-responses" # 这里列出你希望 OpenClaw 认识的模型(可以只列部分) models: - id: "gpt-5.2-codex" # ← 必须和 CPA /v1/models 返回的 id 完全一致 name: "Codex 超级编程模型" # 显示名称,可自定义 context_window: # 建议填写真实值,避免截断 max_output_tokens: 32768 description: "擅长复杂代码生成、长文档理解、函数式编程" - id: "gpt-4o-mini-fast" name: "快速对话模型" context_window: max_output_tokens: 16384 description: "日常问答、快速响应首选"
# 默认使用的模型组合(最重要!) defaults:
# 格式:provider代号/模型id primary: "cpa-main/gpt-5.2-codex" # 开箱默认用这个模型 fallback: "cpa-main/gpt-4o-mini-fast" # 出问题时自动降级 fast: "cpa-main/gpt-4o-mini-fast" # 某些轻量任务强制走快速模型
保存文件后,重启 OpenClaw 容器 使配置生效:
GPT plus 代充 只需 145docker compose restart # 或完整重启 # docker compose down && docker compose up -d
4.3 验证自定义模型是否生效
方法一: 在浏览器打开 OpenClaw Web 界面(默认http://localhost:18789)
→ 左侧菜单「设置」→「模型」
应该能看到你刚刚定义的模型名称和描述,而不是一堆原始 id。
方法二: 直接测试指令
请用 gpt-5.2-codex 模型帮我写一个 300 行带类型注解的 FastAPI 项目模板
如果成功调用,说明配置正确。
GPT plus 代充 只需 145# 查看 OpenClaw 主容器日志(最常用) docker logs -f openclaw-gateway
# 查看所有容器状态 docker compose ps
# 进入容器内部查看文件(高级) docker compose exec openclaw-gateway bash
# 强制重新拉取镜像(当上游更新时) docker compose pull && docker compose up -d
# 完全清理重来(谨慎,会丢失部分持久化数据) docker compose down -v && docker compose up -d
1.连不上 OpenClaw?
Bashdocker logs openclaw-gateway -f
看到Gateway ready on :18789就 OK。检查防火墙/安全组。
2.模型调用报错 “invalid api key”?
- 确认
OPENAI_API_KEY完全复制(无空格) - CPA 管理面板里该密钥是否已保存并启用
3.想切换模型?
在 Telegram 里直接说:“切换到 gpt-5.2-codex” 即可(OpenClaw 支持动态切换)。
4.想让 OpenClaw 也走 CPA 的多账号自动切换?
不需要额外操作!CPA 已经在后端做了额度切换,OpenClaw 只管发请求。
- CPA 负责稳定 API
- OpenClaw 负责 24⁄7 执行任务
- 全部本地/自托管,无隐私泄露、无额度焦虑
- 尽情享受你的 AI 超级节点吧!🦞✨
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/246865.html