在全球 AI 算力竞争逐步演变为“国家级基础设施竞赛”的背景下,日本正试图补齐长期缺失的先进制程与 AI 芯片能力。近日,宣布将开发面向服务器与高性能计算场景的 AI 专用处理器(NPU),并计划采用 1.4nm 先进制程,交由 负责制造。这一合作被视为日本在“算力自主化”路径上的关键落子。
长期以来,日本在通用计算(CPU)与高性能计算(HPC)领域具备一定积累。例如,Fujitsu 曾参与开发国家级超级计算机“富岳”(Fugaku),并持续推进其后续系统。
但在 AI 时代,算力结构正在发生根本性变化:
此次 Fujitsu 推进 NPU 研发,并计划与下一代 CPU 在同一封装中集成,意味着其正尝试构建“CPU + NPU”协同架构。这种设计在 AI 推理与混合负载场景中具有明显优势:
从系统角度看,这是一种向“AI 原生架构”演进的路径。
1.4nm 制程代表当前半导体行业的最前沿探索,但其实现难度极高,涉及:
作为日本重点扶持的新一代晶圆制造企业,其目标正是实现先进制程的本土量产能力。
不过,从工程现实来看,这一目标面临多重挑战:
因此,这一项目不仅是技术问题,更是产业体系重建问题。
此次合作的一个关键标签是“完全日本国产”。其内涵不仅是芯片设计在本土完成,还包括:
这种全链路控制,在当前全球半导体产业高度分工的背景下并不常见,但在“经济安全保障”与技术自主的大趋势下,正逐渐成为各国政策重点。
日本经济产业省的资金支持,也反映出这一项目的战略属性——不仅服务商业市场,更是国家级技术能力建设。
从 AI 技术社区视角来看,Fujitsu 与 Rapidus 的合作,意味着全球 AI 算力格局正在发生变化:
这种多极化趋势,将直接影响:
换言之,未来 AI 工程不再只需针对单一硬件平台优化,而需要适配多种架构与算力环境。
将 NPU 与 CPU 集成在同一封装中,是当前 AI 芯片设计的重要方向之一。其背后涉及几个关键技术趋势:
这些技术的共同目标,是解决 AI 系统中的核心瓶颈——数据移动成本。相比单纯提升算力,这类优化往往带来更实际的性能提升。
在过去十年中,日本在先进逻辑芯片与 AI 加速器领域相对低调。而此次 Fujitsu 与 Rapidus 的合作,标志着其试图重新进入全球算力竞争的核心舞台。
尽管 1.4nm 制程与全链路国产化仍面临诸多不确定性,但这一尝试本身已经释放出清晰信号:AI 时代的竞争,不仅是模型与算法,更是底层算力体系的全面重构。
对于开发者与企业而言,这意味着未来的 AI 技术栈,将建立在更加多元且分裂的硬件基础之上。如何在这种环境中保持性能与可移植性的平衡,将成为新的工程挑战。