当行业讨论焦点从“模型能力”转向“Agent 与应用落地”时,底层算力市场却释放出一个更原始的信号:供需失衡仍未缓解,甚至正在加剧。
最新数据显示,旗舰 GPU H100 的租赁价格在过去半年出现明显反弹,从 2025 年 10 月的每小时约 1.7 美元,上涨至今年 3 月的 2.35 美元,涨幅接近 40%。这一变化不仅意味着算力成本回升,也预示着 AI 基础设施层面的新一轮紧张周期。
H100 自 2022 年发布以来,一直是大模型训练的核心硬件之一。随着新一代 GPU(如 H200、B100 等)逐步推出,市场一度预期其价格将持续下行。
但现实却出现反转:
更值得注意的是,按需 GPU(on-demand)资源几乎全面售罄。即使价格上涨,已有算力资源的客户也不愿释放配额,形成“锁仓效应”。
这一现象说明:市场并未因新硬件出现而缓解压力,反而因需求增长而进一步收紧。
H100 的价格上涨,并非偶然,而是多重因素叠加的结果:
过去,GPU 需求主要来自训练。但随着 AI 应用爆发,推理需求正在迅速放大:
推理负载的特点是“持续占用”,导致 GPU 资源长期被锁定,而非短期使用。
尽管 NVIDIA 已推出更新架构产品,但其产能爬坡需要时间:
在此背景下,H100 作为成熟产品,反而成为“可用即稀缺”的资源。
报告显示,大量 H100 合同早在 2—3 年前签订:
这导致一个典型的结构性问题:名义供应存在,但实际可调配算力极度有限。
算力价格的变化,会直接传导至 AI 工程实践层面。
高昂的 GPU 成本,正在改变模型训练方式:
模型设计开始从“追求极限性能”,转向“性能与成本平衡”。
在推理侧,成本压力更加直接:
这些技术不再是“优化项”,而是决定产品可行性的关键。
随着 H100 成本上升,企业开始构建多层算力体系:
这种“分层算力架构”,正在成为 AI 系统设计的主流。
H100 租赁价格上涨,揭示了一个行业共识正在强化:
算力不再是可无限获取的资源,而是决定 AI 上限的硬约束。
这一点在多个层面体现:
甚至可以说,在当前阶段:
AI 的竞争,本质上是“谁能更高效地使用有限算力”。
H100 的价格反弹,并不是短期波动,而是供需结构变化的结果。
对于 AI 技术社区而言,这一信号意味着:
当 GPU 不再廉价且充足,真正的差距,将体现在谁能在同样的算力条件下,构建更高效、更稳定的智能系统。