当 AI 算力需求席卷全球,最先“失衡”的不是 GPU,而是其背后的存储体系。
最新进展显示,Qualcomm 正与国产 DRAM 厂商 ChangXin Memory Technologies(长鑫存储,CXMT)推进深度合作,计划为智能手机开发定制化移动 DRAM 方案,并预计于 2026 年下半年量产。
这一合作并非单一供应链调整,而是 AI 浪潮下存储资源再分配引发的连锁反应。
当前 DRAM 市场的核心变化在于:HBM(高带宽内存)正在吸走几乎所有先进产能。
包括 Samsung Electronics、SK Hynix、Micron Technology 在内的头部厂商,正大规模将资源转向:
直接结果是:
2026 年一季度数据显示,手机 DRAM 合约价格环比上涨 80%–95%,创下历史级波动。
存储价格的剧烈波动,正在迅速传导至终端产品。
在当前手机 BOM(物料清单)中:
这意味着:
在中低端机型中,“存储”已成为最大成本项,而非 SoC 或屏幕。
结果是,多家厂商(如小米、OPPO、vivo、荣耀)已对部分机型提价,部分涨幅超过 8%。
更深层影响在于:
在这一背景下,Qualcomm 选择与 ChangXin Memory Technologies 深度合作,核心目标可以拆解为三点:
通过引入 CXMT:
值得注意的是,长鑫已获得 Qualcomm 内存供应认证,这意味着其产品已进入主流 SoC 生态。
相比通用 LPDDR,定制 DRAM 可能实现:
这实际上是在向“系统级优化”演进,而非简单采购标准器件。
随着 AI 向端侧迁移(on-device AI),手机对内存提出新需求:
定制 DRAM 将成为实现这一目标的关键环节。
值得关注的是,存储供给紧张已开始反向影响 SoC 供应。
包括 MediaTek 与 Qualcomm 在内的厂商,已:
这反映出一个现实问题:
没有足够 DRAM,SoC 出货也失去意义。
换言之,AI 正在通过“存储瓶颈”反向约束整个移动芯片产业链。
从 AI 工程视角来看,这一事件揭示了一个常被忽视的关键点:
无论是训练还是推理:
HBM 的爆发,本质上是这一瓶颈的体现。
当前手机 AI 功能(如本地 LLM、图像生成)普遍面临:
定制 DRAM + SoC 协同设计,可能成为破局路径。
未来 AI 系统优化将不仅关注:
还将深入到:
从 GPU 到 HBM,再到移动 DRAM,此轮变化揭示了一个更深层趋势:
AI 不只是一个应用层革命,而是在重新排序整个半导体产业链。
Qualcomm 与 ChangXin Memory Technologies 的合作,正是这种重排的一个缩影:
对于 AI 技术社区而言,这意味着一个必须正视的现实:
未来的模型能力,很大程度上将取决于你能否获得足够的“内存带宽与容量”。