成本更低
统一采购降低边际成本
大揭密
AI 中转站(也叫 API 代理、LLM 网关)本质上是 API 代购与分发平台。它批量获取上游模型调用能力,再封装成统一接口转售给终端用户。
它主要解决支付门槛、网络门槛和多模型接入成本问题。
成本更低
统一采购降低边际成本
支付门槛低
支持微信/支付宝等
网络门槛低
多地接入更稳定
便利性高
一个入口聚合多个模型
满血
给用户的是官方注入 API 资源,服务稳定性通常更高。
阉割
能力被限制或缩水,常见于流速、池水、订阅包和配额策略。
翻车
站点突然失效、额度作废、账号池被批量封禁或平台跑路。
上车 / 拼车
多人分摊一个账号或订阅成本,价格低但存在较高风险。
号池 / Key Pool(密钥池)
平台维护多组 API Key,按规则分摊请求压力,减少单 Key 限流。
降智(Degraded)
用户主观感知回复变“笨”,常见于路由到低能力模型。
偷梁换柱(Bait and Switch)
收高端模型的钱,后台却转发到廉价模型,赚中间差价。
Rate Limit(RPM / TPM)
官方频率限制。RPM 为请求数,TPM 为 Token 数,超限常见 429。
官方直连
(Official Channel)
直接接入官方 API,稳定性最高,但价格和门槛更高。
云厂商渠道
(Cloud Vendor)
通过 Azure、AWS 等云平台接入,偏企业场景。
中转站 / 代理
(API Relay / Proxy)
最常见形态,聚合多上游,质量参差不齐。
逆向渠道
(Reverse Engineering)
通过逆向网页通信转 API,成本低但非常不稳定。
订阅转 API
(Sub2API)
把 ChatGPT Plus 等订阅逆向成 API,风险最高。
Base URL
请求目标地址,接入时最常改动项。
OpenAI 兼容格式
多数平台支持,通常只改 Base URL 和模型名。
Token
计费与处理单位,输入输出通常分开计费。
上下文窗口
(Context Window) 决定模型可处理内容上限。
流式输出
(Streaming / SSE) 逐字返回内容,体验更好。
温度参数
(Temperature) 控制随机性,低温稳,高温更发散。
系统提示词
(System Prompt) 定义模型角色,部分平台会注入限制。