过去几个月,大模型能力的跃迁让软件开发进入一个前所未有的阶段:构建速度被指数级放大,而工程复杂度却被隐性放大。
几乎所有技术团队都在经历同一种转变——从“是否使用 AI”转向“如何驾驭 AI”。但真正的挑战,不在于模型能力,而在于:现有工程体系并未为 AI 做好准备。
这篇文章聚焦三个正在快速显现的问题:AI 生成代码的技术债、遗留系统的 AI 适配,以及 Agent 权限与安全边界。
一个广泛共识正在形成:
借助大模型,开发者可以在极短时间内生成登录页、CRUD API、数据脚本,甚至完整原型系统。但这些代码往往具备一个共同特征:
能运行,但不可维护
这标志着软件工程正在进入一个新的阶段——生成能力溢出,工程能力滞后。
AI 写代码的核心问题,并不是“对不对”,而是“有没有结构”。
典型问题包括:
这些问题叠加后,会形成一种新的工程负担,可以称为“AI Slop”。
人类写的代码,即使质量不高,通常仍然隐含:
而 AI 生成代码的逻辑来源于:
这导致一个关键问题:
当你需要修改系统时,你首先要理解“它为什么能跑”,而不是“它为什么这样设计”。
换句话说,AI 降低了“建楼”的成本,却提高了“修楼”的难度。
如果说 AI Slop 是新系统的问题,那么另一个更现实的挑战来自老系统。
绝大多数团队的现状是:
在这种环境下引入 AI,会出现一个典型现象:
AI 写出的代码“看起来对”,但在系统中“完全不合适”
AI 在生成代码时依赖:
但很多企业系统存在:
flag2、dataX) 结果是,AI 只能“猜”。
这种猜测带来的风险包括:
很多团队的第一反应是优化 prompt,但真正有效的路径是:
让系统变得 AI-ready
这意味着:
本质上,这是一次“工程规范升级”。
有意思的是,这些改进同时也会提升人类开发效率。AI 只是把问题提前暴露出来。
随着 AI 从代码生成走向 Agent(自动执行任务),问题进一步升级。
当 AI 被赋予以下能力:
一个核心问题变得不可回避:
它不该做的事,如何禁止?
通过限制 Agent 可调用的工具集合,实现权限隔离:
优点是逻辑清晰,但问题在于:
通过网络策略限制访问范围:
优点是安全性强,但缺点明显:
核心思路是:
例如:
在多 Agent 架构中:
这种模式的本质是:
从“开放执行”转向“约束执行”
权限控制之外,还有一个更复杂的问题:
数据如何流动?
关键原则正在逐渐明确:
这类似于微服务架构中的“服务隔离”,但在 Agent 体系中更加关键,因为:
回看这三个问题,其实指向同一个核心:
未来的技术竞争,将不再只是模型能力,而是:
对于技术管理者来说,一个新的命题已经出现:
系统不再只是“给人用”,而是要“给 AI 用”。
而这,意味着软件工程需要一次深层次的重构——不仅是技术层面的,更是组织与文化层面的。