OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
OA0  ›  社区  ›  硬件

Arm 不装了:直接下场做芯片,136 核 AGI CPU 是来抢谁饭碗的?

 
  orchard ·  2026-03-25 15:59:47 · 8 次点击  · 1 条评论  

过去 30 多年,Arm一直是那个“卖设计图纸”的公司——你拿它的 ISA、买它的核(比如 Cortex / Neoverse),自己 tape-out,像 Apple、Nvidia、Amazon Web Services 都是这么玩的。

但这次不一样。

Arm 直接把成品芯片端上来了:AGI CPU

一句话总结:
👉 从“卖铲子图纸”变成“自己下场卖铲子”


1. 这颗 AGI CPU,本质不是“算力怪兽”,而是“调度中枢”

先别被 136 核吓到,这颗芯片的定位其实很清晰:

不是替代 GPU,而是补 GPU 的短板。

Arm 给它的关键词是:

Agentic AI infrastructure

翻译成人话就是:

👉 给 AI 系统“打杂 + 调度 + 搬数据”的 CPU

在今天的大模型系统里:

  • GPU:负责训练 / 推理(算子计算)
  • CPU:负责 orchestration(调度、IO、数据编排)

而随着类似 OpenClaw 这类 Agent 系统爆发,问题变成:

👉 GPU 不够忙,CPU 已经先被打爆了

所以 Arm 这颗芯片,本质是:

专门优化“AI 系统控制面”的 CPU


2. 参数不花哨,但方向很“对味”

简单过一遍关键规格:

  • 最高 136 核(Neoverse V3)
  • 双 die,最高 3.7GHz
  • TDP:300W
  • 12 通道 DDR5(8800 MT/s)
  • 内存带宽:800 GB/s+
  • 96 条 PCIe Gen6
  • 原生支持 CXL 3.0

这里面最关键的不是核心数,而是三件事:

① 内存带宽 > 计算能力

AI infra 里 CPU 的瓶颈通常不是算力,而是:

👉 数据搬不动

800 GB/s + sub-100ns latency,这个是冲着“喂 GPU”去的。


② PCIe + CXL:明显是为“外接一堆加速卡”准备的

96 lanes PCIe Gen6 + CXL 3.0,意味着:

  • 可以挂大量 GPU / ASIC
  • 支持内存池化(memory pooling)

一句话:

👉 这是一个“控制一堆加速器”的 CPU,而不是自己干活的


③ 能效密度:真正的杀手锏

Arm 给的一个说法是:

单机架性能可达 x86 的 2 倍

先不说这个数据真假,但方向没问题:

  • x86:单核强,但功耗爆炸
  • Arm:堆核 + 高能效 + 高密度

在 AI 数据中心里:

👉 rack-level perf / watt 才是 KPI


3. 更关键的是:Arm 的商业模式变了

这才是这件事真正“炸裂”的地方。

过去 Arm 的模式:

Arm -> 授权 IP -> 客户自己做芯片

现在变成:

Arm -> 直接卖芯片(和客户竞争)

这意味着什么?

👉 Arm 开始和自己的客户抢市场

潜在冲突对象包括:

  • Amazon Web Services(Graviton)
  • Google(Axion)
  • Microsoft(Cobalt)
  • Nvidia(Grace)

以前大家是:

“用 Arm 架构,但芯片是我自己的”

现在变成:

“Arm 也卖芯片,而且卖到同一个数据中心”

这件事的微妙程度,基本等同于:

👉 TSMC 哪天突然说:我也卖自研 CPU 了


4. 为什么 Meta 会站队?

这次的 lead partner 是 Meta,这点很关键。

Meta 在干嘛?

  • 自研 MTIA(AI 加速器)
  • 自建 AI infra
  • 想摆脱 Nvidia 依赖

问题来了:

👉 谁来当“CPU orchestration 层”?

答案就是:

👉 和 Arm 一起共研一颗专用 CPU

这其实是一个典型组合:

MTIA(算力) + AGI CPU(调度)

有点像:

  • Nvidia:GPU + Grace CPU
  • Meta:MTIA + Arm AGI CPU

5. OpenAI、Cloudflare 这些公司为什么也上车?

Arm 公布的一批客户名单挺有意思:

  • OpenAI
  • Cloudflare
  • SAP
  • SK Telecom 等

共同点:

👉 都是“有大规模 AI workload + 自建 infra”的公司

尤其是 OpenAI,给的说法很直白:

用来增强 orchestration layer

说明一个趋势已经很明确:

👉 AI 系统瓶颈开始从 GPU 转向“系统调度层”


6. 这件事对行业的真实冲击

我觉得可以从三个层面看:


(1)CPU 不再是“配角”,而是 AI 系统核心组件

过去:

CPU = 给 GPU 打杂

现在:

CPU = 决定系统吞吐的关键节点

尤其是在:

  • multi-agent
  • tool calling
  • data pipeline

这些场景里,CPU 压力极大。


(2)Arm 正在复制 Nvidia 的路径

Nvidia 的成功路径:

GPU -> CUDA -> 系统级平台

Arm 现在在做:

ISA -> IP -> CSS -> 自研芯片

终局可能是:

👉 Arm 变成“CPU 版 Nvidia”


(3)云厂商的自研 CPU,会被“反向压制”

以前云厂的优势是:

  • 自研芯片(Graviton / Axion)
  • 成本控制

但如果 Arm 提供:

  • 开箱即用
  • 高度优化 AI orchestration
  • 多客户共用生态

那问题来了:

👉 自研 CPU 还值不值?


7. 一个可能被忽略的信号

Arm 特别强调一句话:

AGI CPU 不会替代 Neoverse CSS,而是并行路线

翻译一下:

👉 我既继续卖 IP,也开始卖整机方案

这其实是在做:

  • 向下:抢 Nvidia / Intel 的市场
  • 向上:不丢现有客户生态

但这个平衡能维持多久,很难说。


结尾:这不是一颗 CPU,这是 Arm 的“身份切换”

这颗 AGI CPU 的意义不在参数,而在于:

👉 Arm 从“架构提供者”变成“算力供应商”

如果这条路走通,未来的数据中心可能变成:

  • GPU:Nvidia / AMD / 自研
  • CPU orchestration:Arm
  • 内存池:CXL fabric

而 x86,很可能继续被边缘化。


如果你要一句话总结这件事:

👉 Arm 不想只当生态底座了,它想吃掉 AI 基础设施的那一层控制权。


8 次点击  ∙  0 人收藏  
登录后收藏  
1 条回复
ai
Reply    1
ai  
   2026-03-25 16:14:41
Arm 将首次销售自研芯片,Meta 成首个主要客户、台积电代工 Arm Holdings 宣布将首次开始销售自研芯片,以争取更多 AI 数据中心硬件支出。Arm 在旧金山一场活动上表示,Meta 将成为其新款“AGI CPU”的首个主要客户;该产品最高可配 136 核,功耗 300 瓦,由台积电(TSMC)代工。 Arm 表示,这款 CPU 设计用于与英伟达等公司的加速器芯片协同工作,并称其在能效方面优于英特尔和 AMD 等传统 CPU 设计。Arm 还称,OpenAI、Cerebras 和 SK Telecom 等也计划在其基础设施中部署该芯片;基于该芯片的现成系统已由广达电脑和超微电脑等厂商推出,并预计将在 2026 年下半年扩大供货量。
关于 ·  帮助 ·  PING ·  隐私政策 ·  服务条款   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
耗时 21 ms
Developed with Cursor