进阶实战:CLIProxyAPI Plus + OpenClaw 零配置结合,打造你的专属 24/7 AI 超级助手(保姆级 + 原理级教程)

进阶实战:CLIProxyAPI Plus + OpenClaw 零配置结合,打造你的专属 24/7 AI 超级助手(保姆级 + 原理级教程)svg xmlns http www w3 org 2000 svg style display none svg

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



 
  
    
     
      
     
  
    
    

相关链接(仍在活跃):CLIProxyAPI Plus、OpenClaw

昨天我们已经用 Docker 一键部署了 CLIProxyAPI Plus(简称 CPA),生成了专属 API 密钥,并通过 http://你的IP:9999/v1 实现了 OpenAI 兼容端点。今天我们继续进阶:把这个代理完美对接 OpenClaw(开源个人 AI 助手,前身 Clawdbot),让 OpenClaw 通过你的 CPA 代理调用多账号 OpenAI 模型,实现 WhatsApp/Telegram/Slack 等消息渠道的自动任务执行、代码编写、邮件处理、日历管理等全自动化能力。

为什么必须结合?

OpenClaw 支持任意 OpenAI-compatible endpoint(包括你的 CPA)。核心配置只有两个环境变量:

  • OPENAI_BASE_URL:指向你的 CPA 地址(必须以 /v1 结尾)。
  • OPENAI_API_KEY:你在 CPA 管理面板里生成的密钥(sk- 开头)。

优先级顺序(技术深度):

  1. ~/.openclaw/.env(全局最推荐)
  2. 当前目录 .env
  3. 运行时环境变量

OpenClaw 内部会自动把这两个变量注入默认的 openai provider。如果你想用 CPA 里的自定义模型(如 gpt-5.2-codex),可以额外定义 models.providers(后面会教)。

端口/路径法则(和 CPA 完全一致):

  • 左边(宿主机):随便改
  • 右边(容器内):绝对不能动

准备好了吗?我们继续用 Docker 部署,保证和小白昨天的操作一模一样流畅!


确保你的 CPA 容器正在运行:

GPT plus 代充 只需 145docker ps | grep cli-proxy-api-plus 

看到 9999:8317 且状态 Up 即可。

在浏览器打开 http://localhost:9999/management.html(或服务器 IP),登录后确认:

  • 已上传 OpenAI JSON 密钥文件
  • 已生成 API 密钥(复制下来,后面要用)

1.创建专属目录(可随意改路径)
以管理员 PowerShell 执行:

# 这里的 D:AI-Proxy 你可以改成任何你想放的路径! New-Item -ItemType Directory -Force -Path D:AI-Proxyauths New-Item -ItemType Directory -Force -Path D:AI-Proxylogs cd D:AI-Proxy 

2.一键拉取官方 Docker 配置(最稳方式)

GPT plus 代充 只需 145# 方法1:git 克隆(推荐) git clone https://github.com/openclaw/openclaw.git .

# 方法2:如果 git 不方便,可直接下载最新 release zip 并解压到当前目录 # https://github.com/openclaw/openclaw/releases/latest

3.生成并修改 .env(最关键一步!)

Set-Content -Path .env -Value @

=== CPA 代理核心配置(只改下面两行)===

OPENAI_BASE_URL=http://localhost:9999/v1 OPENAI_API_KEY=sk-你的CPA生成密钥在这里

可选:OpenClaw 网关令牌(onboard 会自动生成)

OPENCLAW_GATEWAY_TOKEN=your-super-secret-token

其他默认保持不动

OPENCLAW_PORT=18789 ”@

注意:

  • OPENAI_BASE_URL 左边的端口/IP 随便改(对应 CPA 的左侧端口)。
  • 如果你在云服务器上跑 CPA,改成 http://你的服务器公网IP:9999/v1。
  • OPENAI_API_KEY 必须是 CPA 管理面板里“配置面板 → 认证配置 → 生成”的密钥。

4.启动 OpenClaw(Docker 一键)

GPT plus 代充 只需 145docker compose up -d 

第一次会自动运行 onboarding(向导),浏览器会打开 http://localhost:18789

5.完成 onboarding(5 分钟)

  • 选择语言 → 设置网关令牌(复制 .env 里的)
  • 连接消息渠道(推荐先连 Telegram 或 WhatsApp)
  • 模型自动识别为你的 CPA 代理(会显示自定义模型列表)

# 创建目录 mkdir -p ~/openclaw && cd ~/openclaw

# 克隆并启动 git clone https://github.com/openclaw/openclaw.git . cat > .env << ‘EOF’ OPENAI_BASE_URL=http://127.0.0.1:9999/v1 OPENAI_API_KEY=sk-你的CPA密钥 OPENCLAW_GATEWAY_TOKEN=your-super-secret-token OPENCLAW_PORT=18789 EOF

# 一键启动(官方脚本最稳) ./docker-setup.sh

云服务器别忘了安全组放行 18789 端口(OpenClaw 网关)和 CPA 的 9999 端口。


默认情况下,通过 .env 设置的 OPENAI_BASE_URLOPENAI_API_KEY 已经足够让 OpenClaw 使用你的 CPA 代理,并自动拉取 /v1/models 接口中 CPA 暴露的所有模型。

但是,如果你希望做到以下目标,就需要进行更精细的模型配置:

  • 指定默认使用的模型(而不是让 OpenClaw 随机选第一个)
  • 为特定模型设置更合适的上下文窗口、最大输出 token 等参数
  • 为不同场景准备多个 provider(例如:一个走快速模型,一个走长上下文模型)
  • 给模型起一个更友好的别名(如 codex-fastdeep-reason
  • 明确告诉 OpenClaw 使用哪种 API 格式(responses 或 completions)

4.1 配置文件位置说明

OpenClaw 目前(2026 年主流版本)主要读取以下位置的模型配置(优先级从高到低):

  1. ./config/models.yaml(项目根目录下,手动创建最高优先)
  2. ./agents/defaults.yaml(部分版本放在这里)
  3. Web 管理界面 →「设置」→「模型提供者」→ 手动添加(会持久化到 volume 里)

推荐做法:在 OpenClaw 项目根目录(和 .env 同级)新建或编辑 config/models.yaml

4.2 完整推荐配置示例(带详细注释)

在 OpenClaw 根目录创建或编辑文件:

GPT plus 代充 只需 145# Windows PowerShell New-Item -ItemType File -Force -Path config/models.yaml

# Linux / macOS touch config/models.yaml

然后填入以下内容(根据实际情况修改模型名称、端口、密钥):

# config/models.yaml # ──────────────────────────────────────────────── # 这是 OpenClaw 可识别的模型提供者配置文件 # 所有字段均为小写 snake_case,注意不要写成 camelCase # ────────────────────────────────────────────────

models: providers:

GPT plus 代充 只需 145# 给这个 provider 起的内部代号,随意但建议有意义 cpa-main: # 必须和 .env 里的 OPENAI_BASE_URL 保持一致(或覆盖它) base_url: "http://host.docker.internal:9999/v1" # ← Windows/macOS Docker Desktop 用这个 # base_url: "http://127.0.0.1:9999/v1" # ← Linux 同机用这个 # base_url: "http://192.168.1.100:31234/v1" # ← 不同机器用实际内网IP:端口 # 必须使用你在 CPA 管理面板生成的密钥 api_key: "sk-cpa-xxxxxxxxxxxxxxxxxxxxxxxxxxxx" # CPA 目前最常用的是 openai 的 responses 格式(新版兼容性更好) # 如果你的 CPA 配置里显示使用 completions 风格,可改为 openai-completions api_format: "openai-responses" # 这里列出你希望 OpenClaw 认识的模型(可以只列部分) models: - id: "gpt-5.2-codex" # ← 必须和 CPA /v1/models 返回的 id 完全一致 name: "Codex 超级编程模型" # 显示名称,可自定义 context_window:  # 建议填写真实值,避免截断 max_output_tokens: 32768 description: "擅长复杂代码生成、长文档理解、函数式编程" - id: "gpt-4o-mini-fast" name: "快速对话模型" context_window:  max_output_tokens: 16384 description: "日常问答、快速响应首选" 

# 默认使用的模型组合(最重要!) defaults:

# 格式:provider代号/模型id primary: "cpa-main/gpt-5.2-codex" # 开箱默认用这个模型 fallback: "cpa-main/gpt-4o-mini-fast" # 出问题时自动降级 fast: "cpa-main/gpt-4o-mini-fast" # 某些轻量任务强制走快速模型 

保存文件后,重启 OpenClaw 容器 使配置生效:

GPT plus 代充 只需 145docker compose restart # 或完整重启 # docker compose down && docker compose up -d 
4.3 验证自定义模型是否生效

方法一: 在浏览器打开 OpenClaw Web 界面(默认http://localhost:18789
→ 左侧菜单「设置」→「模型」
应该能看到你刚刚定义的模型名称和描述,而不是一堆原始 id。
方法二: 直接测试指令







请用 gpt-5.2-codex 模型帮我写一个 300 行带类型注解的 FastAPI 项目模板 

如果成功调用,说明配置正确。


GPT plus 代充 只需 145# 查看 OpenClaw 主容器日志(最常用) docker logs -f openclaw-gateway

# 查看所有容器状态 docker compose ps

# 进入容器内部查看文件(高级) docker compose exec openclaw-gateway bash

# 强制重新拉取镜像(当上游更新时) docker compose pull && docker compose up -d

# 完全清理重来(谨慎,会丢失部分持久化数据) docker compose down -v && docker compose up -d


1.连不上 OpenClaw?

Bashdocker logs openclaw-gateway -f 

看到Gateway ready on :18789就 OK。检查防火墙/安全组。

2.模型调用报错 “invalid api key”?

  • 确认 OPENAI_API_KEY 完全复制(无空格)
  • CPA 管理面板里该密钥是否已保存并启用

3.想切换模型?
在 Telegram 里直接说:“切换到 gpt-5.2-codex” 即可(OpenClaw 支持动态切换)。

4.想让 OpenClaw 也走 CPA 的多账号自动切换?
不需要额外操作!CPA 已经在后端做了额度切换,OpenClaw 只管发请求。


  • CPA 负责稳定 API
  • OpenClaw 负责 247 执行任务
  • 全部本地/自托管,无隐私泄露、无额度焦虑
  • 尽情享受你的 AI 超级节点吧!🦞✨

小讯
上一篇 2026-03-26 15:52
下一篇 2026-03-26 15:50

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/246865.html