在大模型与生成式 AI 持续放量的背景下,算力供给的核心矛盾正从“GPU 不够用”逐步转向更底层的制造环节——晶圆与高性能存储。来自韩国半导体巨头的最新判断显示,这一瓶颈并非短期扰动,而可能成为未来数年的结构性问题。
韩国 SK 集团会长崔泰源近日公开表示,受人工智能需求持续高于供给的驱动,全球芯片晶圆短缺可能延续至 2030 年。这一判断背后,是 AI 基础设施建设的节奏,已经超出了传统半导体产业的扩产周期。
与以往消费电子或周期性行情不同,本轮需求增长具有更强的“确定性”:从云厂商大规模部署训练集群,到企业侧私有化模型落地,再到端侧 AI 推理扩散,算力消耗呈现指数级增长。而半导体制造,尤其是先进制程与高端封装,仍然是典型的重资产、长周期行业,供给侧难以快速响应。
在讨论 AI 芯片时,行业往往聚焦 GPU 或 ASIC,但现实是,存储正在成为决定系统性能的关键变量之一。
一方面,DRAM 产能扩张明显滞后。有行业数据显示,当前 DRAM 的提产速度仅能满足约六成市场需求,这意味着价格上涨与供给紧张将成为中期常态。对于大模型训练而言,内存带宽与容量直接影响 batch size、并行效率以及整体训练吞吐,DRAM 的短缺本质上是在限制模型训练的“数据流速”。
另一方面,高带宽内存(HBM)已成为 AI 芯片的标配。从架构上看,HBM 通过 3D 堆叠与 TSV(Through-Silicon Via)技术,大幅提升单位功耗下的带宽能力,是支撑大模型训练与推理的关键组件。当前主流 AI 加速卡(无论是 GPU 还是自研 ASIC)均高度依赖 HBM。
问题在于,HBM 的制造复杂度远高于传统 DRAM,不仅涉及先进制程,还需要与先进封装(如 CoWoS、InFO 等)深度耦合,这进一步放大了产能爬坡的难度。
从供给侧来看,头部厂商已经在加码投入,但节奏依然偏慢。
三星电子计划在韩国平泽园区启用第四座晶圆厂,但全面量产时间预计在 2027 年甚至更晚。更关键的是,该厂不仅承担内存生产,还需分配资源给逻辑芯片,这在客观上压缩了 DRAM 的扩产空间。
与此同时,面向 AI 的专用存储产能也在布局中。第五座工厂将重点投向 HBM,但其投产时间预计在 2028 年之后。这意味着,在未来 2–3 年内,HBM 供给紧张仍难缓解。
SK 海力士作为 HBM 市场的重要玩家,也在考虑通过资本市场进一步融资(例如探讨在美国上市的可能性),以支撑其在先进存储与封装领域的高强度投入。这从侧面反映出一个现实:AI 时代的半导体竞争,本质是“资本密度”的竞争。
从技术与产业结构来看,这一长期紧缺并非危言耸听,而是多重因素叠加的结果:
换句话说,AI 的增长曲线是“软件驱动的指数级”,而半导体制造仍是“物理世界的线性扩张”,两者之间的节奏错配,正在形成长期张力。
对于 AI 技术社区而言,这一趋势的影响是直接且深远的:
如果说过去两年 AI 的竞争集中在模型与算法,那么接下来,竞争的焦点将逐步转向底层基础设施——包括晶圆制造、先进封装与高性能存储。
在这个意义上,晶圆与 HBM 的长期紧缺,不只是供应链问题,更是决定 AI 发展上限的关键变量。谁能更早锁定产能、优化资源利用,谁就更有可能在下一阶段的 AI 竞赛中占据主动。