Anthropic 在 Claude API 工具箱里加入了 Advisor 策略。核心思路很简单:让便宜的模型(Sonnet/Haiku)跑全程,遇到拿不准的决策点时,自动咨询最强的模型(Opus),拿到建议后继续干活。整个过程在一次 API 请求中完成。
以往用 AI Agent 的常见困境:全程用 Opus 太贵,全程用 Sonnet 遇到复杂决策容易出错。自己搭模型路由需要写额外工程逻辑,还得处理格式兼容。
Advisor 把这个"穷人版省钱工作流"变成了官方功能,一行代码开启。
用一个类比说清楚:实习生干活,总监指点。
- Sonnet(或 Haiku)作为执行者,全程跑任务 -- 调用工具、读取结果、迭代处理
- 跑到决策拿不准时,Sonnet 主动发起一次 tool call,把当前上下文和具体问题发给 Opus
- Opus 只返回一段简短建议(通常 400-700 个 token),不参与执行
- Sonnet 收到建议,继续干活
整个过程对用户不可见,你只看到最终结果。
Anthropic 公布的测试结果:
来自实际用户的反馈:
- Bolt CEO:"复杂任务上架构决策明显更好,简单任务完全没有额外开销"
- Eve Legal ML 工程师:"结构化文档提取任务上,Haiku 通过 advisor 达到了前沿模型质量,成本降 5 倍"
Advisor 能工作的关键是:执行模型必须"知道自己什么时候不行"。
一个差的模型可能自信满满地选了错误方案,根本不会触发 advisor 调用。这时候你以为 Opus 在把控全局,实际上它从来没被叫到过。
这就是为什么目前 advisor 只支持 Sonnet 和 Haiku 作为执行者 -- 这两个模型经过训练,知道什么时候该举手提问。
生态锁定:Advisor 只支持 Claude 家族内部模型。执行者必须是 Sonnet 或 Haiku,顾问必须是 Opus。你不能用 GPT 当顾问,也不能用 Gemini 当执行者。
格式兼容性:Opus 给 Sonnet 的建议用的是 Sonnet 最容易理解和执行的格式。如果跨厂商混搭,执行精准度会打折扣 -- 就像母语者给外语很好的人下指令,大部分没问题,微妙处会有偏差。
性价比权衡:虽然帮你省钱,但花的还是美元。如果你的场景主要用国内模型,DeepSeek 的成本优势依然明显。
开发者社区很早就在做"模型路由":便宜模型处理简单任务,贵模型处理复杂任务。区别在于:
如果你已经在用 Claude API 并且追求性价比,Advisor 是最省心的选择。如果你需要跨厂商组合或完全掌控路由逻辑,自建方案更合适。
Advisor 反映了一个更大的趋势:AI 定价从"按固定智能级别付费"转向"按任务复杂度动态分配智能"。你不再需要为简单任务付 100% 的 Opus 价格,系统会根据实际需求自动调节。
对于开发者来说,这意味着在保证质量的前提下,API 调用成本有了实质性的下降空间。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/259733.html