上周三公司一个做客服机器人的项目要换模型,产品经理说想试试 Kimi K2.5,理由是”中文理解能力强,而且便宜”。我寻思也行,正好手头在用 OpenClaw 做日常开发,就花了两天把几种接入方案都跑了一遍。结果嘛……有惊喜也有坑,记录一下。
说实话一开始我以为改个 base_url 就完事了,没想到 OpenClaw 对不同 API 协议的兼容性差异还挺大的。这篇文章就把我实测的 3 种方案摆出来,延迟、稳定性、配置难度都有数据。
这次评测我关注四个指标:
配置复杂度——从拿到 Key 到跑通第一个请求要多久。延迟用 50 次连续请求取 P50 和 P95。稳定性跑了 500 次请求看成功率。价格按 Kimi K2.5 官方费率算,看各平台有没有额外加价。
测试环境:MacBook Pro M3,OpenClaw v0.9.2(4 月 20 号更新的版本),网络是香港阿里云 ECS 做跳板。
先上结论表格,急的直接看这个:
Kimi 的官方 API 域名是 api.moonshot.cn,文档写得还算清楚。但问题来了——OpenClaw 的 Provider 列表里没有 Moonshot。
得自己加一个 Custom Provider,填入 base_url 和模型名。我第一次配的时候直接写了 kimi-k2.5,结果返回了这么个东西:
{"error":{"message":"model 'kimi-k2.5' does not exist","type":"invalid_request_error","code":"model_not_found"}}
折腾了二十分钟才发现官方模型名是 moonshot-v1-k2.5,文档里藏在一个折叠区域下面,谁能想到呢。
配好之后跑通了,但延迟波动挺大。P50 在 680ms 左右还行,P95 飙到 1450ms 就有点离谱了。跑到第 300 多次请求的时候开始出 429:
HTTP 429 Too Many Requests: Rate limit reached for moonshot-v1-k2.5, limit: 3 RPM
免费档 3 RPM 的限制太狠了。升到付费档之后好一些,但整体稳定性在三个方案里垫底。
OpenRouter 内置了 Kimi K2.5,OpenClaw 也原生支持 OpenRouter 作为 Provider,所以配置最省心——选 Provider、填 Key、选模型,三步搞定。
延迟表现中规中矩,P50 520ms,P95 890ms。稳定性 99.2%,500 次里挂了 4 次,都是 timeout。
让我不太舒服的是那 5.5% 的手续费。K2.5 本身价格不贵,加完手续费其实也没多几毛钱,但如果你同时还在调 Claude Opus 4.7 这种贵的模型,一个月下来能差出好几十刀。
第三种方案是用聚合 API,我测了 OpenRouter(上面已经说了)、Together AI 和 ofox.ai。Together AI 目前还没上 Kimi K2.5,所以实际能跑的就是 ofox.ai。ofox.ai 拿了大模型云厂商官方授权,价格对齐官方不额外加价,改个 base_url 就能切过去。
OpenClaw 里的配置方式:
# OpenClaw config.yaml providers: - name: ofox type: openai-compatible base_url: https://api.ofox.ai/v1 api_key: your-ofox-key models: - kimi-k2.5
跑出来的数据确实不错。P50 410ms,P95 640ms,三个方案里最低。我猜是香港的优势,Moonshot 官方的服务器到我测试机的链路要绕一圈。
500 次请求只挂了 2 次,一次是我这边网络抖动(看了下时间戳正好是阿里云那台 ECS 在做快照),另一次返回了 502 但重试就好了。
graph LR A[OpenClaw] –>|方案一| B[api.moonshot.cn] B –> C[Kimi K2.5] A –>|方案二| D[OpenRouter] D –>|+5.5% 手续费| C A –>|方案三| E[ofox.ai 聚合网关] E –>|0% 加价| C
三种方案的核心区别就是中间这一层。直连官方理论上最短路径,但实际延迟反而最高。不确定是 Moonshot 的 API 网关本身就慢,还是跟我的测试环境有关。
除了上面提到的模型名问题,还有两个坑值得说。
OpenClaw 的 streaming 模式兼容问题。K2.5 的 SSE 返回格式跟 OpenAI 有一点点不一样——finish_reason 字段在最后一个 chunk 里的位置不同。OpenClaw v0.9.2 已经修了这个问题,但如果你用的是 0.9.0 或更早版本,streaming 模式下会报 JSON 解析错误:
Error: Unexpected token 'd' at position 0 in JSON at chunk #47
升级到 0.9.2 就好了。
K2.5 的 function calling 格式。Kimi 的 tool_choice 参数不支持 "required" 这个值,只支持 "auto" 和 "none"。我在写一个强制调用工具的场景时卡了半天,最后发现得在 system prompt 里加指令绕过去。目前没找到更干净的办法。
跑完数据我的建议:
个人开发者随便玩玩,Moonshot 官方 API 免费档够用,3 RPM 的限制忍一下就行。正经项目要上生产,走聚合 API 省心很多,不用操心限流和协议兼容。OpenRouter 胜在 OpenClaw 原生支持、配置最快,但长期用那 5.5% 手续费确实有点肉疼。
K2.5 的中文能力确实不错,我们那个客服机器人场景测下来,意图识别准确率比之前用的 Qwen3 高了大概 4 个百分点。配置上 OpenClaw 的兼容性比我预期的好,除了 streaming 那个小 bug 基本没什么大问题。
延迟这块,如果你对 P95 敏感(比如面向终端用户的实时对话),方案三表现最好。只是跑批量任务不在乎几百毫秒的差异,直连官方也够用。反正先跑个 benchmark 再决定,别光看文档里的理论值。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/282914.html