当大模型能力逼近“算力上限”,AI 行业的竞争正在从模型层快速下沉至基础设施层。一系列围绕数据中心与芯片资源的交易,正在悄然改写原本由 OpenAI 主导的“星门(Stargate)叙事”。
最新进展显示,已从挪威云厂商 手中租下位于北极圈内数据中心的超大规模 GPU 资源,而这一项目最初曾是为 准备的重要算力节点。
这一“换租客”的背后,是一场正在加速展开的AI 超算基础设施争夺战。
所谓“星门计划”,原本是 OpenAI 对未来 AI 基础设施的宏大设想——通过超大规模数据中心网络支撑下一代模型训练与推理。
但现实进展正在出现偏移:
- 挪威纳尔维克项目未能落地
- 英国同类项目因能源成本与监管压力被暂停
- 部分已规划算力资源被其他厂商接手
与此同时,OpenAI 对外披露的长期资本开支预期也出现明显收缩,从此前市场预期的万亿美元级别,下调至约 6000 亿美元量级。
这一变化释放出一个清晰信号:
即便是头部模型公司,也难以独立承载超大规模算力基础设施的长期投入。
AI 产业链开始从“单点豪赌”,转向更现实的资源分配与合作模式。
在 OpenAI 收缩的同时,与 正在迅速填补空缺。
微软此次租用的,是部署 架构的大规模集群,规模达到数万卡级别。这类资源通常用于:
- 超大模型预训练(trillion-parameter scale)
- 多模态模型联合训练
- 高并发推理服务
与此同时,谷歌也接手了原属于 OpenAI 规划的英国数据中心资源,采用 平台。
这种“快速接盘”的行为,体现出当前市场的一个核心逻辑:
算力资源一旦释放,就会被立即消化。
原因很简单——在大模型时代,算力直接决定:
- 模型规模上限
- 训练迭代速度
- 推理成本结构
换句话说,算力不只是资源,而是竞争壁垒本身。
值得注意的是,这些算力布局并非随机,而是高度依赖地理与能源条件。
例如挪威纳尔维克园区的优势在于:
- 低温环境降低冷却成本
- 可再生能源(如水电)降低电力价格
- 政策相对稳定
而英国项目的暂停,则恰恰反映了相反因素:
- 能源价格较高
- 合规与监管成本上升
这意味着,AI 基础设施正在从“云资源分布”,转向“能源驱动布局”。
未来数据中心选址的关键变量,将不再只是网络延迟,而是:
- 电力成本($/kWh)
- 能源稳定性
- 气候条件
- 政策友好度
这场算力博弈还揭示了一个更深层的变化:
传统上,AI 公司与云厂商的分工相对清晰:
- AI 公司负责模型研发
- 云厂商提供算力与部署
但现在,这一边界正在被打破:
- OpenAI 尝试自建基础设施(星门)
- 微软与谷歌直接控制超大规模 GPU 集群
- 云厂商开始参与模型生态竞争
结果是,AI 行业正在形成新的三层结构:
1. 模型层(Model)
2. 平台层(Platform / Cloud)
3. 基础设施层(Compute / Energy)
而头部玩家,正在同时布局三层。
微软持续加码数据中心建设——包括新增土地储备与扩建项目——显示出其对算力需求的长期看涨预期。
但与早期“无限扩张”的叙事不同,现在的投资更强调:
- 单位算力成本(cost per FLOP)
- 能源效率(performance per watt)
- 资源利用率(utilization rate)
这与近期模型侧的发展形成呼应:
- 更高效的训练算法(如 MoE、低精度训练)
- 更优化的推理框架(如 KV cache、speculative decoding)
基础设施与模型优化,正在形成双向耦合。
综合来看,这一系列事件指向一个趋势:
AI 竞争的核心,正在从“模型能力”转向“算力供给能力”。
未来的关键变量包括:
- 谁能锁定更多高端 GPU 产能
- 谁能获得更低成本能源
- 谁能将算力转化为稳定服务能力
在这一框架下:
- 模型公司需要更深度绑定云与算力
- 云厂商需要更强模型生态
- 芯片厂商(如 NVIDIA)则成为关键枢纽
“星门”这个名字仍然存在,但它所代表的意义正在变化。
最初,它象征的是一家 AI 公司试图重构全球算力基础设施的雄心;而现在,它更像是一面旗帜,被不同玩家以不同方式举起。
在大模型时代,真正稀缺的,不只是算法与数据,而是可以持续供给的算力与能源。而围绕这一点展开的竞争,才刚刚进入深水区。