在 AI 算力需求持续攀升的背景下,存储体系正成为继 GPU 之后的下一块关键瓶颈。近期,(美光)被曝已启动“堆叠式 GDDR(Stacked GDDR)”研发,试图在高带宽内存(HBM)与传统显存之间,开辟一条新的技术路径。
根据披露信息,美光计划在 2026 年下半年完成相关设备部署并进入工艺验证阶段,最早于 2027 年推出约 4 层堆叠的工程样品。这一时间点恰好对应 AI 推理规模化落地的关键窗口,也让“堆叠式 GDDR”成为 AI 基础设施领域一个值得关注的变量。
过去两年,AI 硬件竞争的焦点集中在训练侧,HBM 成为事实标准配置。但随着大模型逐步进入商业化部署阶段,推理负载正在快速放大,其特点是:
这带来一个结构性问题:
HBM 带宽虽高,但成本与功耗难以支撑大规模推理部署;传统 GDDR 成本低,但带宽不足以支撑复杂模型推理。
也就是说,当前 AI 硬件体系中存在一个“带宽与成本之间的断层”。
美光的堆叠式 GDDR,正是瞄准这一空白区间——
从工程角度看,堆叠式 GDDR本质上是对传统显存的一次“3D 化升级”,但其复杂度明显低于 HBM。
HBM 的核心在于:
这带来极高带宽,但也意味着:
相比之下,堆叠式 GDDR预计会采用更“温和”的路径:
换句话说:
它不是“低配版 HBM”,而是“增强版 GDDR”。
堆叠式 GDDR的性能提升,主要来自两个方向:
这意味着在不完全重构 GPU 内存控制器架构的前提下,可以实现带宽跃升。
对于 AI 推理而言,这一点尤为关键:
尽管路径相对温和,但堆叠式 GDDR依然面临多项挑战:
这些问题决定了该技术短期内更可能先以“小规模高端 SKU”形式出现,而非全面替代现有显存方案。
当前高端存储市场格局中,HBM 领域由 和 主导,两者在先进封装与客户绑定(尤其是头部 GPU 厂商)方面具备明显优势。
相比之下,美光在 HBM 赛道的切入时间较晚,规模与生态尚在追赶阶段。
堆叠式 GDDR,某种程度上是一种“绕道竞争”策略:
如果该技术能够成功商业化,其潜在应用场景包括:
从 AI 系统设计角度看,存储的重要性正在快速上升。
在大模型推理中,性能瓶颈往往不在算力,而在:
这也解释了为什么:
堆叠式 GDDR若落地,可能带来两点变化:
推理硬件分层更加清晰
- HBM:训练 + 超大模型推理
- Stacked GDDR:中等规模推理
- 普通 GDDR:轻量应用
模型优化策略发生调整
在带宽提升的前提下,一些激进的压缩策略(如极低比特量化)可能不再是唯一解。
过去几年,AI 硬件的叙事核心是算力(FLOPS)。但随着模型规模趋于稳定、推理需求爆发,新的瓶颈逐渐显现:
带宽,正在成为决定 AI 系统效率的关键变量。
美光押注堆叠式 GDDR,本质上是在回答一个问题:
如果答案是肯定的,那么未来的 AI 基础设施竞争,将不只是 GPU 与模型的竞争,还将扩展到:
而这,正是下一阶段 AI 工程体系演进的核心战场。