Elon Musk 近日披露 Tesla 下一代 AI 芯片规划:AI6 将采用 Samsung Electronics 第二代 2nm 工艺(SF2P),预计 2027 年量产、2028 年进入市场,并由其位于美国得州泰勒市的新建晶圆厂负责生产;同时,AI5 已接近设计完成,未来还将推进 AI7–AI9 系列,目标是实现“每 9 个月一代”的快速迭代节奏。
Tesla 正在构建完整 AI 芯片路线,从 AI5 → AI6 → AI7+ 持续推进,其核心目标是为自动驾驶与大规模模型训练提供定制化算力;AI6 采用 2nm 工艺,意味着更高晶体管密度与能效比,将直接提升训练吞吐与推理效率,同时强化其在端到端自动驾驶系统中的算力优势。
此次 AI6 选择 Samsung Electronics SF2P 工艺,并在美国本土工厂生产,反映出两点:一是先进制程竞争正从 3nm 向 2nm 过渡,成为 AI 芯片性能跃迁关键;二是供应链本地化趋势增强(尤其在美国),以提升稳定性与战略安全性。
尽管推进自研芯片,Elon Musk 仍明确表示将持续大规模采购 NVIDIA GPU,并高度认可 Jensen Huang;这说明在超大规模训练场景中,NVIDIA 的 CUDA 生态与软硬件一体化仍具不可替代性,自研芯片更多承担特定场景优化与长期替代路径。
马斯克提出一个重要观点:AI 的限制因素正在从“芯片”转向“能源”;随着算力规模指数级增长,数据中心功耗与电力供应成为主要约束,而如果未来拓展至太空能源(如太阳能规模化利用),瓶颈可能再次回到芯片制造能力本身。
他同时给出对全球 AI 竞争的判断:Google 可能主导西方 AI 体系,中国企业在本土与地面应用场景占优,而 SpaceX 将在太空基础设施与空间 AI 领域占据主导地位,这一划分本质上对应“算法生态—应用规模—空间资源”三种不同优势路径。
9 个月一代的目标,意味着 AI 芯片正在向类似软件的快速迭代节奏演进,强调持续优化而非单代突破。
未来算力将分为两类:
两者长期共存,而非完全替代。
随着模型规模与推理需求增长,AI 系统正在从“算力受限”转向“能源受限”,电力成本与供给能力将直接影响模型训练频率与规模。
Elon Musk 此次披露不仅是芯片路线更新,更揭示了 AI 基础设施演进的核心逻辑:
短期看芯片,中期看算力规模,长期看能源供给。
在这一框架下,谁能同时掌控芯片、算力与能源,谁就更有可能在下一阶段 AI 竞争中占据主导地位。