过去 30 多年,Arm一直是那个“卖设计图纸”的公司——你拿它的 ISA、买它的核(比如 Cortex / Neoverse),自己 tape-out,像 Apple、Nvidia、Amazon Web Services 都是这么玩的。
但这次不一样。
Arm 直接把成品芯片端上来了:AGI CPU。
一句话总结:
👉 从“卖铲子图纸”变成“自己下场卖铲子”
先别被 136 核吓到,这颗芯片的定位其实很清晰:
不是替代 GPU,而是补 GPU 的短板。
Arm 给它的关键词是:
Agentic AI infrastructure
翻译成人话就是:
👉 给 AI 系统“打杂 + 调度 + 搬数据”的 CPU
在今天的大模型系统里:
而随着类似 OpenClaw 这类 Agent 系统爆发,问题变成:
👉 GPU 不够忙,CPU 已经先被打爆了
所以 Arm 这颗芯片,本质是:
专门优化“AI 系统控制面”的 CPU
简单过一遍关键规格:
这里面最关键的不是核心数,而是三件事:
AI infra 里 CPU 的瓶颈通常不是算力,而是:
👉 数据搬不动
800 GB/s + sub-100ns latency,这个是冲着“喂 GPU”去的。
96 lanes PCIe Gen6 + CXL 3.0,意味着:
一句话:
👉 这是一个“控制一堆加速器”的 CPU,而不是自己干活的
Arm 给的一个说法是:
单机架性能可达 x86 的 2 倍
先不说这个数据真假,但方向没问题:
在 AI 数据中心里:
👉 rack-level perf / watt 才是 KPI
这才是这件事真正“炸裂”的地方。
过去 Arm 的模式:
Arm -> 授权 IP -> 客户自己做芯片
现在变成:
Arm -> 直接卖芯片(和客户竞争)
这意味着什么?
潜在冲突对象包括:
以前大家是:
“用 Arm 架构,但芯片是我自己的”
现在变成:
“Arm 也卖芯片,而且卖到同一个数据中心”
这件事的微妙程度,基本等同于:
👉 TSMC 哪天突然说:我也卖自研 CPU 了
这次的 lead partner 是 Meta,这点很关键。
Meta 在干嘛?
问题来了:
👉 谁来当“CPU orchestration 层”?
答案就是:
👉 和 Arm 一起共研一颗专用 CPU
这其实是一个典型组合:
MTIA(算力) + AGI CPU(调度)
有点像:
Arm 公布的一批客户名单挺有意思:
共同点:
👉 都是“有大规模 AI workload + 自建 infra”的公司
尤其是 OpenAI,给的说法很直白:
用来增强 orchestration layer
说明一个趋势已经很明确:
👉 AI 系统瓶颈开始从 GPU 转向“系统调度层”
我觉得可以从三个层面看:
过去:
CPU = 给 GPU 打杂
现在:
CPU = 决定系统吞吐的关键节点
尤其是在:
这些场景里,CPU 压力极大。
Nvidia 的成功路径:
GPU -> CUDA -> 系统级平台
Arm 现在在做:
ISA -> IP -> CSS -> 自研芯片
终局可能是:
👉 Arm 变成“CPU 版 Nvidia”
以前云厂的优势是:
但如果 Arm 提供:
那问题来了:
👉 自研 CPU 还值不值?
Arm 特别强调一句话:
AGI CPU 不会替代 Neoverse CSS,而是并行路线
翻译一下:
👉 我既继续卖 IP,也开始卖整机方案
这其实是在做:
但这个平衡能维持多久,很难说。
这颗 AGI CPU 的意义不在参数,而在于:
👉 Arm 从“架构提供者”变成“算力供应商”
如果这条路走通,未来的数据中心可能变成:
而 x86,很可能继续被边缘化。
如果你要一句话总结这件事:
👉 Arm 不想只当生态底座了,它想吃掉 AI 基础设施的那一层控制权。
|
ai
2026-03-25 16:14:41
Arm 将首次销售自研芯片,Meta 成首个主要客户、台积电代工
Arm Holdings 宣布将首次开始销售自研芯片,以争取更多 AI 数据中心硬件支出。Arm 在旧金山一场活动上表示,Meta 将成为其新款“AGI CPU”的首个主要客户;该产品最高可配 136 核,功耗 300 瓦,由台积电(TSMC)代工。
Arm 表示,这款 CPU 设计用于与英伟达等公司的加速器芯片协同工作,并称其在能效方面优于英特尔和 AMD 等传统 CPU 设计。Arm 还称,OpenAI、Cerebras 和 SK Telecom 等也计划在其基础设施中部署该芯片;基于该芯片的现成系统已由广达电脑和超微电脑等厂商推出,并预计将在 2026 年下半年扩大供货量。
|