当 AI 助手逐渐取代传统搜索入口,监管框架也开始随之重构。
最新消息显示,欧盟委员会计划将 ChatGPT 归类为“超大型在线搜索引擎”(VLOSE,Very Large Online Search Engine),使其纳入《数字服务法》(DSA)最高级别监管体系。这一分类一旦落地,将意味着以 OpenAI 为代表的生成式 AI 平台,正式被视为“信息分发基础设施”,而非单纯工具。
这一变化,标志着 AI 产品在监管层面的一个关键转折点。
欧盟将 ChatGPT 纳入 VLOSE 范畴的核心逻辑,并非基于其技术形态,而是其信息获取与分发功能。
根据披露数据,ChatGPT 在欧洲月活用户已超过 1.2 亿,远高于 DSA 对“超大型平台”的 4500 万用户门槛。
更关键的是,其使用方式正在发生变化:
从监管视角看,这意味着:
ChatGPT 已具备类似搜索引擎的“信息入口控制权”。
一旦被认定为 VLOSE,OpenAI 将需要满足欧盟《数字服务法》(DSA)中最严格的要求,主要包括:
平台需要:
对于生成式 AI,这意味着模型行为将面临更高程度的“可解释性压力”。
企业需定期评估系统性风险,包括:
并提供相应的缓解措施。
平台需:
这一点将直接影响 AI 内容生成与审核策略。
监管升级不会停留在政策层面,而会反向塑造 AI 系统设计。
为了提高可追溯性与准确性,AI 系统将更多采用:
这使生成模型逐步向“搜索 + 生成”融合架构演进。
模型输出将被更多策略层(policy layer)约束,包括:
这在工程上意味着更复杂的推理路径。
未来 AI 系统需要具备:
这将推动 observability(可观测性)成为 AI 基础设施的一部分。
此次分类的真正意义,在于监管框架的迁移:
这意味着 AI 公司将面临与传统互联网平台类似的责任,例如:
而这与以往“模型中立”的技术叙事形成明显对比。
对于 AI 技术社区而言,这一变化不仅影响头部公司,也会向下传导:
即便开发者只是调用模型 API(如 POST /v1/chat/completions),也可能需要:
随着 AI Agent 能执行任务,其风险进一步扩大:
类似 GDPR 的路径可能再次出现:
将 ChatGPT 归类为超大型搜索引擎,本质上是在回答一个问题:
AI 到底是什么?工具,还是基础设施?
欧盟给出的答案显然是后者。
对于 AI 技术社区而言,这意味着一个新的现实正在到来:
当 AI 成为信息入口,其责任也随之放大。
而未来的 AI 系统,或许不只是“更聪明”,还必须是更可解释、更可监管、也更可控的系统。