在大模型加速进入安全领域之后,一个此前被忽视的系统性问题开始浮出水面:漏洞被发现的速度,正在超过社区的维护能力。
近期,围绕是否清理老旧网络驱动,Linux kernel community 内部展开讨论。导火索并非传统意义上的技术债,而是一个更具时代特征的变量——AI 驱动的漏洞挖掘能力,正在让“历史代码”成为持续输出风险的源头。
长期以来,Linux 内核中保留了大量面向 80~90 年代硬件的网络驱动:
这些代码之所以能长期存在,一个重要原因是:缺乏审计资源。换句话说,“没人看”在某种程度上等价于“风险未被显性化”。
但随着 AI(尤其是基于大模型的代码分析工具)介入,这一前提被彻底打破:
结果是:遗留驱动从“低关注模块”变成“漏洞高发区”。
过去,漏洞发现通常受限于:
而现在,AI 工具正在改变这一供给曲线:
这使得漏洞挖掘从“手工业”走向“半自动化流水线”。
但问题也随之而来:
发现漏洞 ≠ 能够修复漏洞
对于缺乏维护者的老旧驱动而言,每一个新发现的漏洞,都会变成社区的额外负担。
在这一背景下,Linux 社区出现了一种更为激进但现实的提议:
其核心逻辑可以概括为:
谁使用,谁维护;否则就从主干代码中剥离风险
这一策略背后,实际上是对“开源责任边界”的重新划分:
从工程角度看,这类遗留代码存在几个典型问题:
而 AI 工具的优势恰恰在于:
这使得老旧驱动在 AI 面前呈现出“高密度可利用面”。
这一事件对 AI 工程社区的意义,远不止于 Linux 内核本身。
它揭示了一个关键趋势:
AI 不仅改变了开发效率,也在重塑安全成本结构
具体体现在:
未来系统需要考虑:
这一逻辑并不局限于 Linux:
在企业 AI 系统中,同样存在类似问题:
当 AI 能够自动审计这些系统时:
Linux 社区关于删除旧驱动的讨论,本质上反映的是一个更深层的变化:
在 AI 时代,代码不会被遗忘,只会被重新发现。
当漏洞挖掘能力被规模化之后,系统的每一段历史代码,都可能成为未来的攻击入口。
对于开发者而言,这意味着:
AI 提高了软件的上限,也放大了历史遗留问题的下限。而如何在两者之间取得平衡,将成为下一阶段 AI 工程与系统架构的重要课题。