OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
OA0  ›  社区  ›  硬件

从 HBM 挤压到移动端重构:Qualcomm 联手 ChangXin Memory Technologies,AI 算力浪潮改写手机存储格局

 
  dancer ·  2026-04-13 17:59:40 · 16 次点击  · 0 条评论  

当 AI 算力需求席卷全球,最先“失衡”的不是 GPU,而是其背后的存储体系。

最新进展显示,Qualcomm 正与国产 DRAM 厂商 ChangXin Memory Technologies(长鑫存储,CXMT)推进深度合作,计划为智能手机开发定制化移动 DRAM 方案,并预计于 2026 年下半年量产。

这一合作并非单一供应链调整,而是 AI 浪潮下存储资源再分配引发的连锁反应。


AI 吞噬 DRAM 产能:HBM 成为“黑洞”

当前 DRAM 市场的核心变化在于:HBM(高带宽内存)正在吸走几乎所有先进产能

包括 Samsung Electronics、SK Hynix、Micron Technology 在内的头部厂商,正大规模将资源转向:

  • HBM3 / HBM3E
  • 面向 AI 训练与推理的高带宽存储

直接结果是:

  • 传统 LPDDR(移动 DRAM)供给收缩
  • 手机与消费电子成为“被动让位方”

2026 年一季度数据显示,手机 DRAM 合约价格环比上涨 80%–95%,创下历史级波动。


成本结构失衡:AI 间接抬高手机价格

存储价格的剧烈波动,正在迅速传导至终端产品。

在当前手机 BOM(物料清单)中:

  • DRAM 成本占比约 35%
  • NAND 闪存约 19%
  • 合计超过 50%

这意味着:

在中低端机型中,“存储”已成为最大成本项,而非 SoC 或屏幕。

结果是,多家厂商(如小米、OPPO、vivo、荣耀)已对部分机型提价,部分涨幅超过 8%。

更深层影响在于:

  • 产品配置受限(内存容量难以上调)
  • AI 功能部署受制于本地算力与内存瓶颈
  • 厂商利润空间被进一步压缩

Qualcomm 的策略:定制 DRAM + 供应链再平衡

在这一背景下,Qualcomm 选择与 ChangXin Memory Technologies 深度合作,核心目标可以拆解为三点:

1. 构建“第二供应体系”

通过引入 CXMT:

  • 减少对传统 DRAM 巨头的依赖
  • 提升供应链稳定性
  • 对冲价格波动风险

值得注意的是,长鑫已获得 Qualcomm 内存供应认证,这意味着其产品已进入主流 SoC 生态。

2. 推进定制化存储设计

相比通用 LPDDR,定制 DRAM 可能实现:

  • 与 SoC 更紧密的协同优化(memory-controller co-design)
  • 针对 AI 推理 workload 优化带宽与延迟
  • 更优功耗表现(power-performance tradeoff)

这实际上是在向“系统级优化”演进,而非简单采购标准器件。

3. 为端侧 AI 预留空间

随着 AI 向端侧迁移(on-device AI),手机对内存提出新需求:

  • 更大容量(支持本地模型)
  • 更高带宽(支持多模态推理)
  • 更低功耗(保证续航)

定制 DRAM 将成为实现这一目标的关键环节。


连锁反应:SoC 厂商主动“踩刹车”

值得关注的是,存储供给紧张已开始反向影响 SoC 供应。

包括 MediaTek 与 Qualcomm 在内的厂商,已:

  • 下调 4nm 移动处理器出货量
  • 合计减产约 1500 万至 2000 万颗
  • 主要集中在中低端产品线

这反映出一个现实问题:

没有足够 DRAM,SoC 出货也失去意义。

换言之,AI 正在通过“存储瓶颈”反向约束整个移动芯片产业链。


对 AI 技术社区的意义:算力不只是 GPU

从 AI 工程视角来看,这一事件揭示了一个常被忽视的关键点:

1. 内存正在成为 AI 算力瓶颈

无论是训练还是推理:

  • 模型规模受限于内存容量
  • 推理速度受限于内存带宽
  • 成本受限于存储价格

HBM 的爆发,本质上是这一瓶颈的体现。

2. 端侧 AI 受制于存储体系

当前手机 AI 功能(如本地 LLM、图像生成)普遍面临:

  • 内存不足
  • 带宽瓶颈
  • 功耗约束

定制 DRAM + SoC 协同设计,可能成为破局路径。

3. “存储-计算协同”成为新优化方向

未来 AI 系统优化将不仅关注:

  • 模型结构(Transformer / MoE)
  • 算力(GPU / NPU)

还将深入到:

  • 内存层级设计(HBM / LPDDR / SRAM)
  • 数据移动成本(memory bandwidth)
  • 计算与存储耦合方式

结语:AI 正在重写半导体优先级

从 GPU 到 HBM,再到移动 DRAM,此轮变化揭示了一个更深层趋势:

AI 不只是一个应用层革命,而是在重新排序整个半导体产业链。

Qualcomm 与 ChangXin Memory Technologies 的合作,正是这种重排的一个缩影:

  • 存储不再是配角,而是核心资源
  • 供应链不再稳定,而是动态博弈
  • AI 不再局限云端,而在挤压所有算力相关资源

对于 AI 技术社区而言,这意味着一个必须正视的现实:

未来的模型能力,很大程度上将取决于你能否获得足够的“内存带宽与容量”。

16 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
关于 ·  帮助 ·  PING ·  隐私 ·  条款   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
耗时 21 ms
Developed with Cursor