在大模型应用快速扩张的当下,“AI 中转站”类项目正成为开发者连接多模型服务的重要基础设施。然而,开源项目 New-API 近期曝出的高危漏洞,再次为这一生态敲响警钟:一旦代理层失守,风险将直接传导至计费体系与资源滥用层面。
据披露,该漏洞允许攻击者伪造任意金额的充值请求,绕过正常支付逻辑。这类问题不仅影响单一站点的经济模型,更可能波及整个基于 API 转发的 AI 服务链路。
New-API 作为一个典型的 AI 中转站项目,其核心职责包括:
POST /v1/chat/completions)本次漏洞的关键问题,在于充值逻辑缺乏有效校验,导致攻击者可以构造请求直接修改账户余额。这意味着:
从架构角度看,这是典型的“业务层信任边界错误”,而非底层模型或推理系统问题。
相比传统 Web 应用,AI 中转站具有一些独特特征,使其更容易成为高价值攻击目标:
模型调用直接消耗成本(token 计费),一旦余额可被伪造,攻击者可以无限调用高价模型资源。
中转站通常代理多个模型厂商 API,一旦被滥用,真实费用由站长承担,形成“成本放大器”。
New-API 等项目降低了搭建门槛,但也意味着:
相比支付平台或云厂商,多数 AI 中转站缺少:
目前该漏洞已在 v0.12.10 版本中修复。对于已部署 New-API 的开发者或站长而言,升级只是第一步,更关键的是事后审计与风险控制:
如果仅升级而不审计,很可能遗漏已经发生的资源滥用或经济损失。
New-API 漏洞的出现,并非孤立事件,而是 AI 工程体系发展阶段的缩影。
随着大模型从实验走向生产,AI 基础设施逐渐呈现出以下特征:
这也意味着,安全问题从传统的“数据泄露”,扩展到“资源滥用”和“经济攻击”。
从工程角度看,类似问题可以通过以下方式降低风险:
在大模型能力不断提升的同时,围绕其构建的工具链与基础设施,正在成为新的风险集中区。New-API 的这次漏洞,提醒开发者关注一个现实问题:真正决定系统可靠性的,往往不是模型本身,而是围绕它的工程实现细节。
当 AI 从“调用接口”走向“承载业务”,安全与稳定性不再是附加项,而是系统设计的前提。