在生成式AI席卷内容生产的当下,一向以开放协作著称的 Wikipedia,选择踩下刹车。
最新更新的编辑指南明确:不再允许编辑者使用人工智能直接撰写或重写百科条目。这一变化看似保守,实则释放出一个强烈信号——当AI开始大规模介入知识生产,“可信度”正在成为比“效率”更优先的变量。
维基百科的核心并不只是“内容多”,而是其长期建立的一套内容治理原则,包括:
问题在于,大模型生成内容的方式,与这些原则存在天然冲突:
AI并不“引用知识”,而是在“生成看似合理的表达”。
这意味着,即使文本表面准确,也可能:
对于强调“可追溯来源”的维基百科而言,这种不确定性是结构性风险,而非个别错误。
此次政策并非简单“一刀切”,而是对AI使用方式进行了精细化限定:
明确禁止:
有限允许:
换句话说,AI被允许作为“工具”,但不能成为“作者”。
这一边界背后,是对“知识责任归属”的重新定义:
内容必须由能够承担责任的人类生产,而不是不可追责的模型。
维基百科的选择,本质上是对整个“AI内容生产范式”的一次逆向修正。
过去两年,行业的默认假设是:
但现实正在发生反转:
对于像 Wikimedia Foundation 这样依赖社区协作与公信力的平台来说,一旦被低质量AI内容侵蚀,其长期价值将被动摇。
维基百科的政策,很可能只是一个开始。
可以预见,接下来一批内容平台会逐步采取类似策略,尤其是在以下领域:
这些领域有一个共同特点:对真实性的要求远高于对效率的要求。
与此同时,AI厂商也将面临新的挑战——不仅要提升生成能力,还需要提供:
维基百科的禁令,表面是规则更新,背后则触及一个更根本的问题:
AI究竟是“知识工具”,还是“知识主体”?
当前的答案,显然仍倾向前者。
在人类尚无法完全信任模型输出的前提下,将AI置于“辅助位置”,是一个理性的选择。但这也意味着,生成式AI在内容领域的角色,正在从“替代者”回归为“增强者”。
维基百科的决定,某种程度上是在为整个互联网“踩刹车”。
在一个内容可以被无限生成的时代,真正稀缺的,不再是表达能力,而是:
而这些,恰恰是当前AI最难提供的部分。
生成很容易,但被信任,很难。