尽管近期已经与多家顶级芯片制造商达成合作协议,Meta 仍计划继续推进 自研 AI 芯片战略。公司表示,未来将开发能够用于训练 AI 模型的专用处理器,以减少对外部芯片供应商的依赖。
Meta 首席财务官 Susan Li(苏珊·李) 在摩根士丹利举办的一场科技会议上透露,目前公司定制芯片的应用主要集中在 排序与推荐系统 等核心业务场景。这类工作负载具有高度可预测性,适合通过专门设计的硬件来优化性能和能耗。
她表示:“我们的一些工作负载实际上是根据自身需求量身定制的。因此,我们最初从排序和推荐系统开始,这也是目前大规模部署定制芯片的领域。”
不过,Meta 的目标并不局限于现有应用。公司预计随着技术成熟,将逐步 扩大自研芯片的应用范围,最终用于 训练下一代 AI 模型。
虽然 Meta 并不是像 AWS、Google Cloud 或 Microsoft Azure 那样的云计算服务提供商,但它仍然是全球 最大的 AI 数据中心运营商之一。随着生成式 AI 和大模型训练需求持续增长,自研芯片被视为降低成本并提升性能的重要策略。
近年来,越来越多的科技公司开始推动 自研 AI 芯片:
在这一趋势下,Meta 的自研芯片计划被视为其在 AI 基础设施竞争中的关键布局。随着模型规模和训练成本不断上升,拥有自主可控的算力平台正成为大型 AI 企业的重要战略优势。