OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
OA0  ›  社区  ›  硬件

HBM 战局重估:长鑫存储切入 12 层堆叠,AI 内存供给格局开始松动

 
  cut ·  2026-04-09 17:58:39 · 3 次点击  · 0 条评论  

在大模型训练与推理需求持续外溢的当下,AI 硬件竞争的关键,正从 GPU 本体逐步转向其“隐形搭档”——高带宽内存(HBM)。中国存储厂商长鑫存储(CXMT)近期实现 12 层堆叠 HBM 量产,被视为一个重要信号:AI 核心硬件链条中最稀缺的一环,开始出现新的供给变量

这不仅是一次工艺突破,更可能对未来 AI 算力成本、供应链安全以及模型部署方式产生连锁影响。


从 DRAM 到 HBM:AI 时代的存储价值跃迁

传统 DRAM 主要服务通用计算场景,而 HBM 则是专为高性能计算与 AI 设计的“高端形态”:

  • 更高带宽(TB/s 级别),满足大模型训练数据吞吐
  • 更低延迟,优化推理响应
  • 与 GPU/AI 加速器通过先进封装(如 2.5D/3D)紧密集成

在 Transformer 架构主导的今天,模型对内存带宽的依赖甚至超过纯算力需求。无论是大规模训练,还是长上下文推理,HBM 都成为关键瓶颈。

也正因此,HBM 产能长期被少数厂商垄断,直接影响全球 AI 基础设施扩张节奏。


12 层堆叠的意义:不只是“更高”,而是“能做”

HBM 的核心技术难点,并不在单层 DRAM,而在于垂直堆叠与互连

  • 多层 DRAM die 通过 TSV(Through-Silicon Via)实现垂直连接
  • 层间键合精度要求极高,任何偏差都会影响信号完整性
  • 热密度随堆叠层数增加,带来严峻散热挑战

长鑫存储实现 12 层堆叠量产,意味着其在以下关键能力上取得突破:

  • 高精度 die stacking(晶圆级堆叠)
  • 稳定的键合工艺(bonding yield 控制)
  • 基础热管理与封装协同设计能力

这标志着其已具备进入 AI 加速器供应链的基础门槛,而不仅仅是传统存储供应商。


三年追赶:HBM 产业格局出现变量

长期以来,HBM 市场由三星电子与 SK 海力士主导,形成高度集中格局。此次长鑫存储的进展,被业内认为将技术差距缩小至约三年以内。

这一变化对 AI 行业意味着:

  • 供给侧多元化:缓解单一地区或厂商的产能依赖
  • 价格博弈空间扩大:HBM 成本有望逐步松动
  • 区域算力自主性提升:支撑本土 AI 基础设施建设

尤其在“主权 AI”趋势下,HBM 已不再只是商业产品,而是基础战略资源。


产能策略:用规模换时间

在量产策略上,长鑫存储选择了一条典型的“追赶路径”:

  • 将约 20% DRAM 产能切换至 HBM
  • 目标月产能约 6 万片晶圆
  • 通过规模化生产快速积累工艺经验与良率

需要注意的是,其当前良率仍低于头部厂商,这在先进存储制造中是常态。通过扩大产能与持续迭代,有望逐步逼近成熟水平。

与此同时,公司计划通过 IPO 融资约 42 亿美元,用于:

  • 新建 HBM 专用产线
  • 升级 DRAM 制造设施
  • 优化键合与热管理技术

这类重资产投入,反映出一个现实:HBM 竞争,本质是资本密集 + 工艺密集的长期战役


对 AI 工程的实际影响:不只是“有货”,而是“能用”

HBM 供给变化,将直接传导到 AI 工程体系:

1. 训练成本结构可能重塑

当前大模型训练成本中,HBM 占据重要比例。供给增加意味着:

  • GPU 整体成本结构可能优化
  • 大规模训练门槛有望降低
  • 中型团队获得更高算力可达性

2. 推理部署更灵活

HBM 容量提升(如 12 层堆叠)带来:

  • 单卡可承载更大模型
  • 减少跨节点通信开销
  • 提升低延迟推理能力

这对实时 Agent、长上下文应用尤为关键。

3. 架构设计空间扩大

当内存不再极端稀缺时:

  • 模型可减少激进压缩策略
  • KV Cache 等机制可以更充分利用
  • 多模态与长序列模型更易落地

下一阶段:16 层与混合键合的技术竞速

尽管 12 层已进入量产阶段,但行业焦点已迅速转向下一代技术:

  • 16 层及以上堆叠:进一步提升带宽与容量密度
  • Hybrid Bonding(混合键合):替代传统微凸点,提高互连效率
  • 先进封装协同(CoWoS / SoIC):与 GPU 厂商深度耦合

这些技术不仅决定性能上限,也直接影响良率与成本结构。

可以预见,HBM 的竞争将从“谁能做出来”,转向“谁能高良率、低成本地规模化生产”。


结语:AI 基础设施的“隐形战场”正在浮出水面

过去两年,行业聚焦于 GPU 与大模型参数规模,但真正限制 AI 扩张速度的,往往是更底层的资源——内存与带宽。

长鑫存储切入 12 层 HBM 量产,释放出的信号是:
AI 算力竞争,正在从芯片设计延伸到整个存储与封装生态。

对于开发者来说,这意味着未来可用资源将更加多样;对于产业而言,则意味着一场围绕 HBM 的长期竞赛才刚刚开始。

3 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
关于 ·  帮助 ·  PING ·  隐私 ·  条款   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
耗时 21 ms
Developed with Cursor