OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
OA0  ›  社区  ›  硬件

HBM4进入量产:美光为英伟达Vera Rubin平台提供关键算力内存

 
  cobaltix ·  2026-03-17 10:02:53 · 12 次点击  · 0 条评论  

AI算力竞赛正在推动新一代高带宽内存(HBM)快速迭代。美光宣布,已开始为英伟达下一代Vera Rubin GPU平台大规模量产HBM4(高带宽内存),标志着AI服务器核心硬件再次迎来性能跃迁。

根据美光公布的信息,此次量产的是HBM4 36GB 12-Hi堆栈版本,其引脚速率超过11 Gb/s,单堆栈带宽可达2.8 TB/s。相比上一代HBM3E同样36GB 12层堆栈配置,新一代HBM4在带宽上提升约2.3倍,同时能效提升超过20%。

HBM4成为下一代AI GPU关键组件

HBM(High Bandwidth Memory)是AI训练和推理系统的核心组件之一。随着大模型规模不断扩大,GPU不仅需要更强算力,也需要更高的数据吞吐能力。HBM通过3D堆叠和超宽接口设计,大幅提升内存带宽,从而避免GPU算力被数据传输瓶颈限制。

Vera Rubin平台被视为英伟达下一代AI计算架构的重要节点,而HBM4正是该平台的关键存储技术。相比HBM3E,HBM4进一步提升带宽密度,使AI加速卡能够在更短时间内处理更大规模的数据。

Vera Rubin生态加速形成

在2026年GTC大会上,美光还确认已经量产多款面向该平台的数据中心存储产品,包括:

  • 业界首款PCIe 6.0数据中心SSD
  • 新一代SOCAMM2内存模块
  • HBM4高带宽内存

这意味着美光成为首家同时为Vera Rubin生态提供三类关键存储产品量产供应的厂商。

随着AI基础设施持续升级,GPU、HBM内存和高速SSD正在形成新的“算力铁三角”。其中HBM的重要性不断上升,也让存储厂商在AI产业链中的地位明显提升。

AI算力竞争进一步升级

当前,AI服务器的性能瓶颈正逐渐从计算能力转向数据传输能力。HBM4的推出,将为下一代AI集群提供更高带宽和更好的能效表现,有助于提升大模型训练效率并降低数据中心能耗。

随着英伟达Vera Rubin平台逐步落地,HBM4也将成为未来AI服务器的重要标配之一。对存储厂商而言,这不仅是一次技术升级,更是AI基础设施市场争夺的重要机会。

12 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
关于 ·  帮助 ·  PING ·  隐私政策 ·  服务条款   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
耗时 14 ms
Developed with Cursor