当大模型能力逼近通用智能的边界,AI 公司面临的核心问题正在从“模型是否足够强”,转向“是否有足够资本支撑其持续进化”。近期,与 被曝正考虑在未来推动大规模 IPO,以应对持续飙升的训练与推理成本。
这背后揭示出一个更深层趋势:AI 公司正在从软件公司,转型为“算力密集型基础设施公司”。
从表面看,两家公司正处于高速扩张期:
但与此同时,成本结构同样在失控扩张:
这种“收入增长越快、亏损越大”的现象,在 AI 行业中并非个例,而是由其底层技术结构决定。
在 AI 公司的支出中,主要可以拆分为两部分:
用于构建更强模型,包括:
- 超大规模 GPU / TPU 集群
- 长周期训练(weeks 到 months)
- 高带宽网络与存储系统
随着模型规模与复杂度提升(如多模态、长上下文、推理增强模型),训练成本呈指数级增长。
用于支撑用户请求,包括:
- API 调用(如 POST /v1/chat/completions)
- Agent 多轮推理与工具调用
- 实时响应延迟要求带来的资源冗余
目前,推理成本已占据两家公司收入的相当比例,甚至达到一半以上。
关键问题在于:推理是持续性支出,而非一次性投资。
以 OpenAI 为例,其核心产品 ChatGPT 拥有庞大的免费用户群,但其中付费转化率仍然有限。
这带来一个结构性矛盾:
OpenAI 的策略是:
- 将免费用户视为长期资产(数据 + 分发渠道)
- 通过订阅(Plus)、企业 API、以及潜在广告模式进行变现
相比之下,Anthropic 更偏向企业市场,其收入结构更集中在高价值客户(年消费超过百万美元的企业)。
在传统 SaaS 模式下,公司可以通过收入增长逐步实现盈利,但 AI 公司面临的是另一种曲线:
这使得风险投资(VC)难以长期单独支撑,IPO 成为必然选择。
从资本视角看:
尽管业界普遍期待“模型效率提升降低成本”,但现实更复杂:
用户需求从:
- 文本生成 → 多模态 → Agent → 长链推理
每一步都显著增加计算开销。
Agent 场景中,一次用户请求可能触发:
- 多轮模型调用
- 外部工具调用
- 状态管理与上下文维护
导致“单次请求成本”远高于传统聊天模型。
即便有更高效芯片:
- 数据中心建设周期长
- 能源供应受限
- 网络与存储成为新瓶颈
随着成本结构演化,AI 公司逐渐呈现出类似云厂商的特征:
这也解释了为何:
- 、等云厂商在 AI 竞争中占据关键位置
- 芯片公司与 AI 公司深度绑定(如 TPU、定制 ASIC)
这一轮“烧钱竞赛”对开发者意味着:
模型选择与系统设计需考虑:
- 每 token 成本
- 延迟与吞吐的权衡
- 推理链路长度
为了降低成本:
- Distillation、LoRA、Quantization 等技术将更广泛应用
- “足够好”模型在商业上更具吸引力
减少无效调用、优化工具链,将直接影响产品可行性。
OpenAI 与 Anthropic 的 IPO 计划,标志着 AI 行业进入一个新阶段:技术领先不再足够,必须有资本支撑其规模化运行。
在这一阶段:
对于整个 AI 产业而言,这意味着竞争不再局限于实验室,而是扩展到资本市场、能源体系与全球基础设施。