2026 年 3 月,深潮 TechFlow 写 OpenClaw 淘金热时提到一件事:倒卖 的中转站,有人单月盈利上百万。
这个数字不一定代表行业平均水平。
但它解释了一个现象:为什么最近到处都是「低价 」「满血模型」「国内直连」。
我这几天把调研了一遍,先说结论:AI 中转站赚钱,靠的不是模型能力。
它赚的是三笔钱:访问门槛的钱、额度管理的钱、以及信息不透明的钱。
真正值得讲清楚的也不是「怎么搭站」。那东西一写就容易变成灰色教程,没意思。
我更关心另一个问题:我在客户端里输入一句提示词,最后到底是不是去了 Anthropic 的 Claude 真实服务器?
中间经过了几层?
返回时又经过了谁的手?
这条路径说不清,低价就没有意义。
01
中转站卖的不是模型,是入口
官方 API 对国内很多用户有四个门槛:网络、支付、账号、协议。中转站把这四个问题包起来,给一个 base_url 和一个 sk-xxx,用户在 、Claude Code、Chatbox 或自己的脚本里一填,就能跑。
说白了就是把麻烦藏起来。
这里面第一笔钱来自支付和站内汇率。用户用人民币充值,后台用虚拟美元计价,甚至出现「1 元人民币 = 1 美刀额度」,也就是说,所谓「刀」往往不是银行汇率意义上的美元,而是站内额度单位。
第二笔钱来自额度池。轻度用户充了 100 元,只用了 10 元就停了;重度用户把 Claude Code 接到项目里跑一晚上,站长再靠限速、排队、换上游去扛。
第三笔钱来自模型和渠道的不透明。
用户买的是「我能用上 Claude」这个结果,但很少能验证背后到底是哪条通道。
02
一次提示词请求,先过的是中转站自己的账本
先把一条正常请求拆开。
我在客户端输入:
客户端不会直接去 Anthropic。
它会把请求发到中转站提供的地址,比如:
第一层是接入层。可能是 Cloudflare、Nginx、APISIX 或其他网关,负责挡掉异常流量,保持长连接,处理跨域和超时。
第二层是鉴权层。中转站会查这个 sk-relay-user-key 属于谁,余额还有多少,用户在哪个分组,能不能调用这个模型。
第三层是计费预估。系统会粗略估算输入 Token 数,检查余额,必要时先冻结一部分额度。
到这里,请求还没碰到 Claude。
很多人以为中转站就是一个反向代理:进来、转发、回来。
实际不是。
一个能赚钱的中转站,前半段最重要的是账本、分组和限流。
因为用户不会平均地用模型。有人一天问两句,有人把 AI 编程工具接到真实项目里连续跑。站长赚不赚钱,先看能不能识别这种用量差异。
03
真正分叉在
请求通过账本之后,会进入路由层。
这一步决定了钱从哪里来,也决定了风险从哪里来。
我把它拆成三种模式。
第一种是最干净的。
中转站自己持有 Anthropic、OpenAI、Azure、AWS Bedrock 等官方或准官方渠道的 Key。用户请求进来后,中转站把用户 Key 换成自己的官方 Key,再把请求转发到真实 API。
New API 和 LiteLLM 这类项目,做的就是这类网关能力:多模型接入、协议转换、路由、计费、失败重试、成本统计。
这个模式不是天然有问题。
很多企业内部也会自建 ,把 OpenAI、Claude、Gemini 统一到一个入口,方便做权限、成本和审计。
问题在于,企业自用网关的目标是可控,中转站的目标通常是便宜和可售卖。
这两个目标会冲突。
第二种是订阅账号池逆向。
站长买很多 Claude Pro、Max 或其他订阅账号,再用自动化脚本登录网页或客户端,把用户的提示词塞进去,等网页返回结果,再抓出来包装成 API 响应。
用户以为自己在调 API,其实后面可能是浏览器自动化、客户端逆向、Cookie 池、代理 IP 池。
这里有个坑:网页和客户端不是为 API 服务设计的。
它们有自己的系统提示词、频率限制、风控策略和会话状态。中转站硬把它包装成 API,就会出现奇怪的问题:同样的提示词今天能跑,明天 403;短问题能回答,长上下文突然断;Claude Code 的 tool use 表现不稳定。
这不是用户写错了。
这是中转站把非 API 通道伪装成了 API。
第三种是小中转接大中转。
我以为自己买的是某个中转站,实际上它后面又接了另一个中转站。它自己没有官方 Key,也没有稳定账号池,只是拿别人的接口再包装一层。
这类站最大的特点是解释不了故障。
用户问为什么 429,它说上游限流;问为什么模型不对,它说上游兜底;问为什么扣费异常,它说上游计费延迟。
听起来都合理,但没有任何可验证信息。
这就是我最不喜欢的一类。
因为它不只是便宜不便宜的问题,而是责任边界消失了。
04
返回路径更敏感,因为中转站看得见内容
请求到了真实模型服务器,Claude 或 OpenAI 开始生成内容。
如果是流式输出,官方会通过 SSE 返回一段一段事件。
Anthropic 的官方文档写得很清楚,创建 Message 时设置 "stream": true,就会通过 增量返回;OpenAI 的 Responses API 也是类似机制。
这解释了为什么客户端里会一个字一个字出来。
但中转站在中间,所以返回也不是「官方直接回到用户」。
真实路径大概是:
这里最敏感的是日志。
中转站理论上可以看到用户发出的 ,也可以看到模型返回的 response。
它可以选择只记录用量、状态码、耗时、Token 数,也可以把完整对话存下来。
我以前觉得「我又不写什么机密,怕什么」。
后来我想了一下,如果我把整个项目目录交给 AI 编程工具,中转站拿到的就不是一句聊天,而是一部分工作现场。
这件事性质就变了。
用户在 Claude Code 里跑项目时,提示词里可能包含 .env、客户数据、源码、数据库结构、内部文档。
哪怕我自己做了 .gitignore,也不代表 AI 工具不会在上下文里带出敏感片段。
中转站不是单纯网络代理。
它是能读到内容的中间人。
所以这里就有最离谱的赚钱方式:把信息卖给厂商。有些大量免费用 xx 模型的中转站,可能就是了。
05
常见故障,其实是在暴露上游结构
中转站日常出问题,不要只看报错文本。
要看它暴露了哪一层。
这里最值得盯的是两个信号。
第一,模型能力突然不稳定。
如果同一个模型名,上午能处理复杂代码,晚上连工具调用都乱掉,这不像正常波动,更像路由换了。
第二,站长永远用「上游问题」解释一切。
真正直连官方或自持稳定渠道的服务商,至少能告诉我是哪类错误:余额不足、RPM 限流、TPM 限流、模型维护、账号封禁、协议转换失败。只会说「上游炸了」,多半说明它自己也不知道上游是谁。
07
靠谱中转站更像网关,不像倒卖摊位
合规的 AI Gateway 和灰色中转站,表面都给一个 API 地址。
区别在运营目标。
靠谱网关关心的是:权限、成本、可观测、故障切换、日志边界、协议兼容。
灰色中转关心的是:低价、引流、充值、上游套利、尽量别被封。
这两个东西看起来都能用,但不是一个物种。
我的判断很简单:中转站如果能把调用路径讲清楚,把日志边界讲清楚,把故障归因讲清楚,它就有机会变成基础设施;
如果它只能把「低价 Claude」四个字写得很大,它大概率只是把别人的不确定性转卖给我。
AI 时代最贵的不是 Token。
是我把工作现场交出去之后,还以为自己只是省了几块钱。
当然,我自己没有做过中转站,说得不对的,还请各位评论区指教~
参考资料
[1] OpenClaw 淘金热,谁在暴富? — https://finance.sina.com.cn/wm/2026-03-11/doc-inhqrfcr5593259.shtml
[2] AI 中转站黑话大全整理 — https://www.v2ex.com/t/
[3] AI 中转站的底裤,扒给你看 — https://www.v2ex.com/t/
[4] New API 项目说明 — https://github.com/QuantumNous/new-api
[5] LiteLLM 项目说明 — https://github.com/BerriAI/litellm
[6] Anthropic Streaming Messages — https://docs.anthropic.com/claude/reference/messages-streaming
[7] OpenAI Streaming Responses — https://platform.openai.com/docs/guides/streaming-responses
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/282340.html