在 AI 算力成为核心生产要素的当下,硬件自研正在从互联网巨头蔓延到航天与制造领域。最新披露显示,SpaceX 在 IPO 前向投资者提示,公司将进行“大规模资本支出”,其中包括“自主生产 GPU”。这一动作与其正在推进的 Terafab 项目紧密相关——一个由 xAI、特斯拉 共同参与的 AI 芯片制造综合设施。
这一布局意味着,AI 产业链中的“算力控制权”,正在向更深层的垂直整合演进。
长期以来,AI 企业高度依赖外部 GPU 供应链(如云厂商或芯片厂商)。但随着模型规模与推理需求的爆发,算力正从“资源”转变为“瓶颈”:
在这种背景下,SpaceX 将 GPU 自研列为重大资本投入,背后逻辑与其他 AI 公司类似:通过掌控底层硬件,降低长期成本并提升系统可控性。
但不同之处在于,SpaceX 的应用场景更为特殊——不仅包括 AI 训练,还涉及航天通信、卫星网络以及潜在的“太空数据中心”。
Terafab 项目被定位为先进 AI 芯片制造设施,选址美国德州奥斯汀。从目前披露的信息看,其目标不仅是生产 GPU,还可能覆盖:
这一多场景覆盖,使 Terafab 更接近“通用 AI 计算平台”的制造中心,而非单一产品工厂。
从产业角度看,这种模式类似于:
如果落地,将显著提升资源利用率,并减少跨供应链协调成本。
尽管自研 GPU 听起来直接,但其复杂度远超表面:
目前尚不清楚在 Terafab 体系中,英特尔 将承担多大程度的制造或技术支持角色。无论如何,这一项目意味着 SpaceX 需要跨越从系统公司到半导体公司的巨大技术鸿沟。
与传统 AI 公司不同,SpaceX 的算力需求具有独特性:
这些场景对 GPU 提出不同于通用云计算的要求,例如:
因此,自研芯片不仅是成本问题,更是适配特定场景的必要路径。
SpaceX 在文件中明确提示“大量资本支出”,也反映出一个现实:AI 正在进入重资产周期。
这与此前“轻资产 + 软件驱动”的互联网模式形成鲜明对比。对于投资者而言,这既意味着更高门槛,也意味着潜在的更深护城河。
SpaceX 的布局并非孤例,而是一个更大趋势的缩影:
这一趋势正在推动 AI 产业链从“分工协作”走向“关键环节自控”。其结果可能是:
SpaceX 计划自研 GPU 与建设 Terafab,本质上是对“算力主权”的争夺。
当 AI 成为基础设施的一部分,谁掌握算力、谁控制芯片设计与制造,谁就拥有更大的主动权。对于 AI 技术社区而言,这一事件的意义不仅在于一家公司的战略选择,更在于它揭示了一个正在发生的变化:AI 竞争,正在从模型与数据,延伸到更底层的硬件与制造能力。