在大模型与自动驾驶并行演进的当下,算力不再只是云端问题,而是逐步下沉到“设备即智能体”的边缘场景。Tesla 最新公布的 AI5 芯片流片进展,正是这一趋势的集中体现。
近日,Elon Musk 对外确认,AI5 已完成流片(tape-out),进入制造阶段,预计将在 2027 年实现量产。这款芯片将成为特斯拉下一代自动驾驶系统以及人形机器人 Optimus 的核心算力底座,全面接替 AI4。
这不仅是一次芯片升级,更是特斯拉试图构建端侧 AI 统一计算平台的关键一步。
从公开信息来看,AI5 的性能提升并非线性迭代,而是典型的“架构级跃迁”:
这一组参数的意义在于:AI5 不再只是为传统感知模型服务,而是为大模型推理(LLM inference)预留空间。
尤其值得注意的是,AI5 被认为在参数规模低于 2500 亿的模型推理中具备最优效率,这直接对齐当前主流多模态模型与中大型 LLM 的落地区间。
从 AI 工程视角看,这意味着:
在 AI 训练领域,NVIDIA 依然占据主导地位,但在推理侧,尤其是实时系统中,通用 GPU 并非最优解。
特斯拉选择自研芯片,本质上是为了三件事:
自动驾驶与机器人任务具有明显特点:
这些场景并不完全适配 GPU 的通用并行计算模型,而更适合:
在车端与机器人端部署 AI,成本与功耗直接决定产品可行性:
AI5 的目标之一,是在接近高端 GPU 性能的同时,实现更优的 performance-per-watt。
特斯拉的优势在于其“全栈控制”能力:
这使其可以进行端到端优化,例如:
这种软硬一体的设计,是通用芯片厂商难以复制的。
AI5 的制造由两大代工厂共同承担:
这一布局具有明显的地缘与供应链考量:
在 AI 芯片成为战略资源的背景下,这种“双代工 + 本土生产”的模式,可能成为未来高端算力硬件的常态。
如果只把 AI5 看作自动驾驶芯片,会低估其战略意义。
特斯拉当前的 AI 路线包含三条主线:
AI5 主要承接的是前两者的“推理层”:
这两个场景的共性是:
需要一个具备环境理解与行动能力的 Agent 系统。
随着大模型引入,这种 Agent 将具备:
AI5 本质上是在为“物理世界中的 AI Agent”提供算力基础。
一个值得关注的细节是,马斯克罕见地公开表示,自己连续数月每周参与 AI5 项目推进。
这反映出两个现实:
在其表述中,AI5 被称为“关乎存亡”的项目,这并非夸张。
如果没有足够算力支撑:
随着 AI5 流片完成,特斯拉已将部分资源重新投入到 Dojo3 超级计算机处理器的研发中。
从路线图来看:
这形成了一个完整闭环:
训练(Dojo) → 模型 → 推理(AI5/AI6) → 数据回流 → 再训练
这一闭环,本质上是一个持续优化的 AI 工程系统。
AI5 的出现说明一个趋势:
而真正的竞争点,不再只是 FLOPS 或参数规模,而是:
特斯拉试图证明的是:
当 AI 走出数据中心,进入物理世界时,算力必须被重新设计。