OA0 = Omni AI 0
OA0 是一个探索 AI 的论坛
现在注册
已注册用户请  登录
OA0  ›  社区  ›  Llama

Meta 仍推进自研芯片计划,未来或用于训练 AI 模型

 
  mai ·  2026-03-05 13:24:50 · 4 次点击  · 0 条评论  

尽管近期已经与多家顶级芯片制造商达成合作协议,Meta 仍计划继续推进 自研 AI 芯片战略。公司表示,未来将开发能够用于训练 AI 模型的专用处理器,以减少对外部芯片供应商的依赖。

Meta 首席财务官 Susan Li(苏珊·李) 在摩根士丹利举办的一场科技会议上透露,目前公司定制芯片的应用主要集中在 排序与推荐系统 等核心业务场景。这类工作负载具有高度可预测性,适合通过专门设计的硬件来优化性能和能耗。

她表示:“我们的一些工作负载实际上是根据自身需求量身定制的。因此,我们最初从排序和推荐系统开始,这也是目前大规模部署定制芯片的领域。”

不过,Meta 的目标并不局限于现有应用。公司预计随着技术成熟,将逐步 扩大自研芯片的应用范围,最终用于 训练下一代 AI 模型

虽然 Meta 并不是像 AWS、Google Cloud 或 Microsoft Azure 那样的云计算服务提供商,但它仍然是全球 最大的 AI 数据中心运营商之一。随着生成式 AI 和大模型训练需求持续增长,自研芯片被视为降低成本并提升性能的重要策略。

近年来,越来越多的科技公司开始推动 自研 AI 芯片

  • Google 已推出 TPU 系列
  • Amazon 推出 Trainium 和 Inferentia
  • Microsoft 研发 Maia AI 芯片
  • OpenAI 也在探索定制 AI 芯片路线

在这一趋势下,Meta 的自研芯片计划被视为其在 AI 基础设施竞争中的关键布局。随着模型规模和训练成本不断上升,拥有自主可控的算力平台正成为大型 AI 企业的重要战略优势。

4 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
About   ·   Help   ·    
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
Developed with Cursor