在大模型规模持续膨胀、算力需求指数级增长的背景下,先进制程的每一次迭代,实际上都在重写 AI 产业的底层成本函数。台积电 最新披露的路线图显示,其将在 2029 年量产 1.3nm(A13)工艺节点,进一步压缩晶体管尺寸与功耗边界,为 AI 芯片提供更高密度与更优能效的硬件基础。
过去,先进制程更多被视为半导体行业的“线性升级”;但在生成式 AI 时代,这一逻辑正在改变。参数规模、上下文长度、多模态推理等需求,使得芯片设计正逼近功耗与面积极限。1.3nm 节点的推进,意味着在同等性能目标下,可以用更小的芯片面积实现,从而释放更多晶体管预算给 AI 专用计算单元(如矩阵乘加、张量核心等)。
在 AI 计算中,决定系统性能的不仅是单芯片算力,还包括单位功耗下的计算密度(Performance per Watt)以及单位面积的算力承载能力(Compute per Area)。1.3nm 节点的价值,正体现在这两个维度:
对于训练级 AI 芯片而言,这意味着可以在同样机架空间内部署更多算力节点;对于推理侧,则意味着更低延迟与更高吞吐。
根据披露信息,A13(1.3nm)节点在“同等性能”条件下可减少约 6% 芯片面积。表面看是线性优化,但对 AI 芯片设计来说,这一变化具有放大效应:
在当前大模型训练中,内存带宽与缓存容量已成为瓶颈之一。更先进制程带来的面积红利,可能被优先用于扩展 HBM 接口或片上缓存结构,从而提升整体训练效率。
台积电 同时给出了明确的时间节奏:
这一连续推进的节奏,本质上是在为 AI 产业的算力需求提前“预留供给”。考虑到先进芯片从设计到量产通常需要 2–3 年周期,这些节点实际上对应的是未来一代甚至两代大模型的硬件基础。
值得注意的是,台积电当前并未计划采用 阿斯麦 的 High-NA EUV(高数值孔径极紫外光刻)设备。这一选择背后,反映的是先进制程中的工程权衡:
对于 AI 芯片厂商而言,稳定的产能与可控成本,往往比极限性能更关键。
1.3nm 节点的推进,将在多个层面影响 AI 生态:
更高的能效意味着在相同预算下可以训练更大模型,或在相同规模下降低训练时间与电力成本。
边缘设备与数据中心推理节点,将因功耗下降而更易规模化部署,推动 AI 应用落地。
随着制程进步,设计者可以更激进地探索:
当制程逼近物理极限,单纯依赖节点缩小的收益递减,行业竞争将更多转向:
尽管大模型创新频繁出现在算法与应用层,但真正决定其上限的,依然是底层算力供给。1.3nm 节点的推进,不只是半导体行业的技术里程碑,更是 AI 产业继续扩张的关键支点。
当模型规模与算力需求持续攀升,谁能在“单位瓦特算力”与“单位面积算力”上取得优势,谁就更有可能在下一轮 AI 竞争中占据主动。