Meta 正在进一步加码 AI 基础设施。公司宣布计划在未来几年内部署 四代自研人工智能芯片,分别是 MTIA 300、MTIA 400、MTIA 450 和 MTIA 500。这一计划预计将在 2027 年前逐步落地,成为 Meta AI 计算基础设施的重要组成部分。
这些芯片属于 Meta 的 MTIA(Meta Training and Inference Accelerator) 系列,主要用于支持公司不断增长的 AI 工作负载。
根据披露的信息,目前各代芯片的进展大致如下:
MTIA 300
MTIA 400
MTIA 450 与 MTIA 500
从节奏上看,Meta正在形成 持续迭代的 AI 芯片路线图,类似大型云厂商的自研芯片模式。
Meta 之所以投入大量资源开发自研芯片,主要有三个原因。
当前 AI 训练和推理高度依赖 GPU,而高端 GPU(尤其是 AI 训练 GPU)价格非常昂贵。
对于像 Meta 这样的大规模 AI 公司来说:
都需要 海量算力。长期完全依赖外部 GPU,成本会非常高。
自研芯片可以针对 特定 AI 工作负载进行优化,从而降低单位计算成本。
目前全球 AI 算力生态高度集中在少数几家公司,例如:
尤其是 NVIDIA,在 AI GPU 市场占据绝对优势。
通过自研芯片,Meta可以:
Meta 的 AI 工作负载具有明显特点,例如:
这些任务并不一定需要通用 GPU 的全部能力。
定制芯片可以针对:
进行优化,从而获得更高能效比。
值得注意的是,Meta并没有完全放弃外部芯片。
公司仍在持续采购 AI 硬件,并已经宣布:
这意味着 Meta 的策略并不是“替代 GPU”,而是建立一种 混合算力架构:
自研芯片 + GPU
其中:
Meta 的动作也反映了一个更大的趋势:
大型 AI 公司正在集体走向自研芯片。
例如:
原因很简单:AI 的核心瓶颈正在从 算法转向 算力基础设施。
谁能够掌握更高效、更便宜的算力,谁就能在 AI 竞争中获得更大的优势。
在未来几年,AI 竞争不仅是模型之争,也将是 芯片与数据中心的竞争。