OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
OA0  ›  社区  ›  AI

欧盟拟禁止“去衣化”AI应用:生成式模型合规进入深水区

 
  velvet ·  2026-03-19 10:09:43 · 4 次点击  · 0 条评论  

事件概述

据 路透社 3 月 18 日报道,来自 欧洲议会 的关键议员已表态支持,在 欧盟人工智能法案(AI Act)修订中新增禁令,明确禁止一类被称为“去衣化(undressing)”的 AI 应用。

该类应用指的是:通过生成式模型对真实人物图像进行修改,生成未经授权的裸露或露骨性内容

相关提案计划于 3 月 26 日提交欧洲议会表决。


什么是“去衣化 AI”?

“去衣化 AI”并非一个严格的技术分类,而是近年来随着生成式模型(如扩散模型、GAN)发展而出现的一类应用形态,通常具备以下特征:

  • 输入:普通人物照片(常来自社交媒体)
  • 处理:通过图像生成/重建模型进行“衣物去除”或身体重构
  • 输出:伪造的裸露或性暗示图像

技术上,这类系统往往基于:

  • 图像扩散模型(Diffusion Models)
  • 条件生成模型(Conditional GAN)
  • 多模态生成框架(Vision + Text)

其本质属于 “非自愿深度伪造(Non-consensual Deepfake)” 的一个分支。


监管重点:从“能力”走向“用途”限制

此次修订的一个关键信号是:监管开始从模型能力转向具体应用场景

在 欧盟人工智能法案 早期框架中,AI系统主要按风险分级:

  • 不可接受风险(直接禁止)
  • 高风险(严格合规)
  • 一般风险(透明度要求)

而“去衣化 AI”被明确纳入“应禁止”的范畴,意味着:

即使底层模型是通用模型,只要应用场景触及该用途,即可能被直接判定为非法。

这对开发者带来两个重要变化:

  1. 应用层责任上移
    不仅模型提供方,应用开发者同样需要承担合规责任

  2. API 使用不再“中性”
    即便调用的是通用大模型 API,也需对最终用途负责


时间线调整:高风险 AI 推迟至 2027 年

除了新增禁令外,议员还支持推迟部分高风险 AI 规则的实施时间:

  • 原定关键标准截止:8 月 2 日前定稿
  • 新建议实施时间:2027 年 12 月 2 日

推迟原因主要包括:

  • 技术标准制定滞后
  • 企业合规成本高
  • 行业执行路径不清晰

不过,这一调整仍需在欧盟成员国之间进一步谈判确认。


对技术与产业的影响

1. 产品设计:必须引入“滥用防护层”

未来涉及图像生成的产品,需要明确增加:

  • NSFW 内容检测
  • 人脸与身份保护机制
  • 使用场景限制(Use-case gating)

2. 模型能力不再等于产品能力

一个重要趋势正在形成:

“能做” ≠ “可以做”

即:

  • 模型层:仍可能具备生成能力
  • 产品层:必须主动限制输出范围

3. 开源生态将面临更大压力

对于开源模型(如 Stable Diffusion 类):

  • 模型权重难以限制用途
  • 责任界定模糊

未来可能出现:

  • 更严格的开源许可证(限制用途)
  • 平台级分发审查(如 Hugging Face 政策收紧)

4. AI 合规成为工程能力的一部分

这类政策变化意味着:

AI 工程栈将从:

模型能力 → 推理性能 → 成本优化

演变为:

模型能力 → 安全对齐 → 合规设计 → 审计能力

结语

“去衣化 AI”禁令的推进,标志着 AI 监管进入一个新阶段:

  • 从抽象风险分级 → 具体应用封禁
  • 从模型治理 → 应用与生态治理

对开发者而言,这不仅是法律问题,更是系统设计问题

未来的 AI 产品,不只是“能不能做”,而是:

在什么边界内做,以及如何证明自己没有越界。

4 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
关于 ·  帮助 ·  Ping ·   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
耗时 18 ms
Developed with Cursor