在大模型竞争逐步从“参数规模”转向“系统效率”的背景下,存储正在成为新的瓶颈资源。近期,长江存储(YMTC)被曝将新增两座晶圆厂,加上即将投产的三期项目,其整体产能将实现翻倍增长。
这一扩产动作如果落地,不只是传统半导体产能提升,更意味着 AI 基础设施中“存储层”的战略地位正在显著上升——从配套组件,转变为决定系统性能与成本的关键变量。
根据披露信息,长江存储当前在武汉已有两座晶圆厂,总月产能约 20 万片。新增规划包括:
三座新厂满产后,每座月产能约 10 万片,意味着公司整体产能将提升超过 100%。
这一规模的扩张,背后并非传统消费电子需求驱动,而更可能与 AI 场景对高性能存储的爆发式需求直接相关:
换句话说,Token 的增长不仅消耗算力,也在“吞噬”存储带宽与容量。
长江存储的核心产品集中在 3D NAND Flash,而在 AI 时代,这类存储的使用方式正在发生变化:
训练数据集、Embedding 向量、日志与缓存数据规模持续膨胀,对高密度存储提出更高要求。
AI 工作负载呈现出高并发、小粒度、随机访问特征,与传统顺序读写有明显差异。
在 GPU 算力持续提升的情况下,数据加载与 IO 成为新的限制因素,存储带宽的重要性显著上升。
因此,存储不再只是“容量问题”,而是直接影响模型训练效率与推理延迟的关键组件。
本次三期晶圆厂最受关注的技术信号,是其国产设备采购占比首次超过 50%。
这一变化意味着:
从 AI 产业视角看,这一点尤为重要。因为算力基础设施的稳定性,不仅取决于 GPU 或模型,也高度依赖:
当国产设备占比提升,意味着 AI 基础设施在供应链层面具备更强抗风险能力。
根据现有规划:
这一节奏与 AI 行业发展周期高度重叠。未来两到三年,正是:
的关键窗口期。
换句话说,这一轮存储扩产,很可能正好对应下一阶段 AI 需求的集中释放。
从工程角度看,随着模型规模与调用量增长,系统瓶颈正在发生转移:
过去:
- 主要受限于计算(GPU/TPU)
现在:
- 计算、内存与存储形成“三角约束”
典型表现包括:
因此,越来越多优化开始围绕“数据路径”展开,例如:
长江存储的扩产,本质上是在为这一系统级优化提供“物理基础”。
如果将这一事件放在全球 AI 竞争格局中,可以看到一个更清晰的趋势:
AI 竞争正在从模型层,向更上游延伸:
这意味着,未来 AI 竞争不只是算法或产品能力,而是一个完整产业体系的比拼。
在这一体系中,存储的角色正在从“配角”转变为“关键基础设施”。
大模型时代,一个常被忽视的事实是:
每一个 Token 的生成,都依赖大量数据的读写与缓存。
当调用规模进入万亿级别,存储系统本身就成为“隐形算力”的一部分。
长江存储的扩产与国产化突破,正发生在这一关键节点上——它不仅关乎半导体产业升级,也在为下一阶段 AI 规模化应用提供底层支撑。
对于技术社区而言,理解 AI,不再只是理解模型,而是理解整个从计算到存储的系统工程。