OpenClaw 深度解析(五):模型与提供商系统

OpenClaw 深度解析(五):模型与提供商系统你在用 OpenClaw 处理日常工作 大多数时候用 但对于某些中文任务你更喜欢 Kimi 月之暗面 你在配置文件里同时保存了两个提供商的密钥 并且希望能用 或者 来指定它们 还想在 Claude 触发速率限制时自动回退到备用模型 这个场景暴露了五个具体问题 寻址 系统怎么知道 是 月之暗面 k2p5 模型 认证 每个提供商的 API 密钥存在哪

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



你在用 OpenClaw 处理日常工作,大多数时候用 ,但对于某些中文任务你更喜欢 Kimi(月之暗面)。你在配置文件里同时保存了两个提供商的密钥,并且希望能用 或者 来指定它们,还想在 Claude 触发速率限制时自动回退到备用模型。

这个场景暴露了五个具体问题:

  1. 寻址:系统怎么知道 是”月之暗面,k2p5 模型”?
  2. 认证:每个提供商的 API 密钥存在哪、怎么取?
  3. 自动发现:不需要在配置里把每个提供商手写一遍吗?
  4. 回退:主模型失败后,系统怎么自动切换?
  5. 扩展:MiniMax 等新提供商是怎么通过 Plugin SDK 接入的?

所有的模型操作都从一个基本单元开始:

 
   

模型在所有地方都以 格式书写,例如 。 负责解析这个字符串:

GPT plus 代充 只需 145

默认值():

 
   

当用户写 (不带斜杠),系统自动补全为 并给出弃用警告,引导用户使用完整格式。

不同用户可能用不同的名称指代同一个提供商, 处理所有已知别名:

GPT plus 代充 只需 145

这让用户在配置里写 或 都能正确路由到 VolcEngine 提供商,而不用关心内部 ID。


用户在 里为每个提供商声明:

 
    

每个 包含:

  • :可以是实际密钥字符串、环境变量名(系统自动读取)、或 OAuth 占位符
  • :API 端点
  • :协议类型(、、 等)
  • :该提供商的模型列表,含上下文窗口、推理能力、输入类型等元数据

但要求用户手写每个提供商太繁琐了。 在 Gateway 启动时自动扫描:

GPT plus 代充 只需 145

这意味着用户只需要设置 环境变量,OpenClaw 下次启动时就会自动找到 Kimi 并注入它的完整模型列表——不需要改任何配置。

当隐式发现和显式配置同时存在时,(默认值)将两者合并:

 
    

这个设计解决了一个实际痛点:当 Anthropic 发布新模型时,用户不需要手动更新配置里的 值,内置目录会自动刷新——但用户自定义的 覆盖和 注入依然生效。


是对"一个可用模型"的完整描述:

GPT plus 代充 只需 145

目录通过 SDK 的 获取——这是 OpenClaw 底层的推理 SDK,内置了 Anthropic、OpenAI、Google 等主流提供商的最新模型列表。自定义提供商的模型会追加到这个目录之后。

为了支持多账户速率限制轮转,OpenClaw 不直接存储 API Key,而是使用认证档案(Auth Profile)系统。

每个 Profile 是这样的结构:

 
     

档案存储在 。用户可以为同一个提供商配置多个档案(例如两个 Anthropic 账户)。

冷却机制:当一个 Profile 触发 429(速率限制)时,系统调用 ,为该 Profile 设置冷却期。下次请求时, 会优先选择不在冷却期的 Profile——这实现了多账户之间的自动轮转,无需用户手动干预。

GPT plus 代充 只需 145

是一个双重用途的配置块:

 
      
  • 当 非空时:只有列出的模型才被允许使用——这是一个白名单。任何未在列表中的 会被拒绝()。
  • 字段:允许用户用 代替完整的 。别名解析在每次模型引用时都会检查。

白名单的例外:显式配置的 fallback 列表绕过白名单。这是合理的——用户既然配置了回退链,就是在明确授权这些模型。

GPT plus 代充 只需 145

解析时优先检查别名:

 
      

所以在 Telegram 消息里发 就能切换到 ,不需要记住完整路径。


配置 fallback 链:

GPT plus 代充 只需 145

按顺序构建候选列表,去重并过滤无效项。实际的轮转逻辑在 的外层重试循环里——我们在上一篇分析 Agent 引擎时已经看到了这个结构:

 
       

冷却中的主模型不会被永久跳过。 实现了一个探针(probe)逻辑:

  • 每隔 30 秒,即使主模型仍在冷却期,也允许发一次探针请求
  • 如果冷却过期时间在未来 2 分钟内,提前开始探针
  • 探针成功 → 主模型恢复,

这保证了速率限制解除后系统能快速恢复到主模型,而不是永远停留在降级状态。


以 MiniMax 为例。它的 OAuth 流程不是标准 API Key,而是需要一个带浏览器跳转的 Device Code 流程。这需要:

  1. 一个交互式引导用户完成 OAuth 的 方法
  2. 认证成功后,往配置写入 的
  3. 写入认证档案(access token + refresh token)

这些都通过 类型和 实现:

GPT plus 代充 只需 145

返回的 包含:

 
        

用户运行 选择 MiniMax,完成 OAuth 跳转后,这一切自动写入——从此 别名就可以使用了。


部分模型(如 Claude Sonnet 4.6 的 extended thinking 模式)支持"慢思考"——花更多 token 推理后再给出答案。OpenClaw 用 统一管理这个维度:

GPT plus 代充 只需 145

从模型目录读取 字段,自动将支持推理的模型的默认思考等级设为 :

 
         

这让用户不用手动配置"这个模型需要开启 thinking"——模型目录里的能力声明自动决定了默认行为。


模型与提供商系统的核心是一套多层次的寻址与路由机制:

层次 机制 作用 地址层 统一的”提供商/模型”坐标 归一化层 + 处理用户输入的多样性 别名层 允许用户用短名字代替完整路径 目录层 声明模型的能力(上下文、推理、输入类型) 发现层 扫描环境变量/认证档案,自动激活提供商 合并层 内置目录刷新元数据,保留用户自定义字段 认证层 Auth Profiles + 冷却机制 多账户轮转,速率限制自动规避 回退层 + 探针 主模型失败时自动降级,冷却恢复后探针恢复 扩展层 + 第三方提供商通过 Plugin SDK 注入 OAuth 流程和模型配置

下一篇,我们将进入 OpenClaw 的节点系统与 Canvas——探索 Pi 框架中的”节点”概念如何支撑多 Agent 协作,以及 Canvas 是什么。

小讯
上一篇 2026-03-15 11:01
下一篇 2026-03-15 10:59

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/233921.html