在大模型训练与推理需求持续外溢的当下,AI 硬件竞争的关键,正从 GPU 本体逐步转向其“隐形搭档”——高带宽内存(HBM)。中国存储厂商长鑫存储(CXMT)近期实现 12 层堆叠 HBM 量产,被视为一个重要信号:AI 核心硬件链条中最稀缺的一环,开始出现新的供给变量。
这不仅是一次工艺突破,更可能对未来 AI 算力成本、供应链安全以及模型部署方式产生连锁影响。
传统 DRAM 主要服务通用计算场景,而 HBM 则是专为高性能计算与 AI 设计的“高端形态”:
在 Transformer 架构主导的今天,模型对内存带宽的依赖甚至超过纯算力需求。无论是大规模训练,还是长上下文推理,HBM 都成为关键瓶颈。
也正因此,HBM 产能长期被少数厂商垄断,直接影响全球 AI 基础设施扩张节奏。
HBM 的核心技术难点,并不在单层 DRAM,而在于垂直堆叠与互连:
长鑫存储实现 12 层堆叠量产,意味着其在以下关键能力上取得突破:
这标志着其已具备进入 AI 加速器供应链的基础门槛,而不仅仅是传统存储供应商。
长期以来,HBM 市场由三星电子与 SK 海力士主导,形成高度集中格局。此次长鑫存储的进展,被业内认为将技术差距缩小至约三年以内。
这一变化对 AI 行业意味着:
尤其在“主权 AI”趋势下,HBM 已不再只是商业产品,而是基础战略资源。
在量产策略上,长鑫存储选择了一条典型的“追赶路径”:
需要注意的是,其当前良率仍低于头部厂商,这在先进存储制造中是常态。通过扩大产能与持续迭代,有望逐步逼近成熟水平。
与此同时,公司计划通过 IPO 融资约 42 亿美元,用于:
这类重资产投入,反映出一个现实:HBM 竞争,本质是资本密集 + 工艺密集的长期战役。
HBM 供给变化,将直接传导到 AI 工程体系:
当前大模型训练成本中,HBM 占据重要比例。供给增加意味着:
HBM 容量提升(如 12 层堆叠)带来:
这对实时 Agent、长上下文应用尤为关键。
当内存不再极端稀缺时:
尽管 12 层已进入量产阶段,但行业焦点已迅速转向下一代技术:
这些技术不仅决定性能上限,也直接影响良率与成本结构。
可以预见,HBM 的竞争将从“谁能做出来”,转向“谁能高良率、低成本地规模化生产”。
过去两年,行业聚焦于 GPU 与大模型参数规模,但真正限制 AI 扩张速度的,往往是更底层的资源——内存与带宽。
长鑫存储切入 12 层 HBM 量产,释放出的信号是:
AI 算力竞争,正在从芯片设计延伸到整个存储与封装生态。
对于开发者来说,这意味着未来可用资源将更加多样;对于产业而言,则意味着一场围绕 HBM 的长期竞赛才刚刚开始。