在大模型竞争进入“算力即生产力”的阶段之后,AI 基础设施的建设路径正在发生重要转向。最新消息显示,OpenAI 正在调整其代号为“Stargate(星际之门)”的算力计划,从以自建数据中心为主,转向更大规模依赖外部算力租赁与双边合作。
这一变化背后,不只是成本与速度的权衡,更标志着 AI 算力供给模式正在从“重资产工程”走向类似云计算的“电力化服务”。
“星际之门”原本被视为 OpenAI 构建超大规模 AI 基础设施的核心项目,目标是在全球范围内部署海量 GPU 集群,以支撑训练与推理需求。但随着模型规模与推理需求的持续增长,自建模式的瓶颈逐渐显现:
建设周期长,难以快速响应模型迭代节奏
资本开支巨大,资金占用周期过长
地理与能源约束限制扩展速度
在此背景下,OpenAI 开始引入更多“算力租赁”策略,通过与第三方算力提供商达成大规模协议,实现快速扩容。
例如,在欧洲区域,原计划中的“挪威节点”算力将通过 Nscale → Microsoft → OpenAI 的链路间接获取;而在美国市场,微软还将接手 Crusoe 位于德州阿比林的数据中心扩建项目。这种多层结构,本质上是一种“算力转售与整合”模式。
根据披露的信息,OpenAI 已锁定约 8GW 的算力资源,并计划在 2030 年前提升至 30GW。这一规模已经接近大型国家级电力项目的量级。
但真正的挑战并不只是“拿到算力”,而在于如何高效利用:
模型训练与推理的资源调度
GPU 利用率与负载均衡
不同数据中心之间的网络延迟与带宽
能源成本与碳排放约束
在这种规模下,算力管理本身已经成为一个复杂的系统工程,需要类似分布式操作系统的调度能力。这也解释了为什么 OpenAI 更倾向于通过合作而非完全自建——后者意味着不仅要建设硬件,还要承担全部调度与运维复杂性。
OpenAI 的策略调整,折射出一个更宏观的趋势:AI 算力正在向“电力化”(utility-like)演进。
这一模式具有几个典型特征:
算力按需获取,而非完全自有
多供应商并行,形成冗余与弹性
通过 API 或平台进行统一调度与调用
成本结构从资本支出转向运营支出
这与早期企业从自建机房迁移到云计算平台的路径高度类似。不同之处在于,AI 算力对能耗与硬件架构的依赖更强,使得“电力属性”更加突出。
在这一背景下,像微软这样的云厂商,正在从传统 IaaS 提供商,升级为“AI 算力中枢”。
OpenAI、微软以及第三方算力提供商之间的合作关系,也揭示了 AI 基础设施的新供应链结构:
模型公司(OpenAI):定义需求与应用场景
云平台(Microsoft):整合资源、提供调度与接口
算力供应商(如 Nscale、Crusoe):提供物理基础设施
这种分层结构,使得各方可以专注于自身优势,同时通过协议连接形成整体能力。
但与此同时,也带来新的问题:
供应链依赖风险(单一云厂商绑定)
数据与模型的跨区域合规问题
成本透明度与定价机制
对于 AI 工程团队而言,这些问题将直接影响架构设计与供应商选择。
在传统开发模式中,算力往往被视为固定资源——服务器、集群、配额。但在新的模式下,算力更像一种流动资源,可以按需扩展与收缩。
这将带来几个变化:
推理服务可以根据流量动态扩展
大规模训练任务可以临时租用超大集群
多区域部署成为常态,以降低延迟与风险
成本优化成为工程重点之一
对于 AI Agent 与实时推理应用来说,这种弹性尤为关键,因为其负载往往高度波动。
“星际之门”的调整,意味着 AI 基础设施正在从单点工程,演变为跨公司、跨区域的复杂系统。
在这个阶段,竞争的核心不再只是模型能力或单一数据中心规模,而是:
谁能更高效地整合全球算力资源
谁能构建稳定、低延迟的推理网络
谁能在成本与性能之间找到最优解
对于整个 AI 行业而言,这一转变可能与当年云计算的兴起同样深远——算力将不再是少数公司的专属资产,而是逐步成为可调度、可交易、可编排的基础资源。