据 路透社 3 月 18 日报道,来自 欧洲议会 的关键议员已表态支持,在 欧盟人工智能法案(AI Act)修订中新增禁令,明确禁止一类被称为“去衣化(undressing)”的 AI 应用。
该类应用指的是:通过生成式模型对真实人物图像进行修改,生成未经授权的裸露或露骨性内容。
相关提案计划于 3 月 26 日提交欧洲议会表决。
“去衣化 AI”并非一个严格的技术分类,而是近年来随着生成式模型(如扩散模型、GAN)发展而出现的一类应用形态,通常具备以下特征:
技术上,这类系统往往基于:
其本质属于 “非自愿深度伪造(Non-consensual Deepfake)” 的一个分支。
此次修订的一个关键信号是:监管开始从模型能力转向具体应用场景。
在 欧盟人工智能法案 早期框架中,AI系统主要按风险分级:
而“去衣化 AI”被明确纳入“应禁止”的范畴,意味着:
即使底层模型是通用模型,只要应用场景触及该用途,即可能被直接判定为非法。
这对开发者带来两个重要变化:
应用层责任上移
不仅模型提供方,应用开发者同样需要承担合规责任
API 使用不再“中性”
即便调用的是通用大模型 API,也需对最终用途负责
除了新增禁令外,议员还支持推迟部分高风险 AI 规则的实施时间:
推迟原因主要包括:
不过,这一调整仍需在欧盟成员国之间进一步谈判确认。
未来涉及图像生成的产品,需要明确增加:
一个重要趋势正在形成:
“能做” ≠ “可以做”
即:
对于开源模型(如 Stable Diffusion 类):
未来可能出现:
这类政策变化意味着:
AI 工程栈将从:
模型能力 → 推理性能 → 成本优化
演变为:
模型能力 → 安全对齐 → 合规设计 → 审计能力
“去衣化 AI”禁令的推进,标志着 AI 监管进入一个新阶段:
对开发者而言,这不仅是法律问题,更是系统设计问题。
未来的 AI 产品,不只是“能不能做”,而是:
在什么边界内做,以及如何证明自己没有越界。