今年 315晚会 曝出的一条调查,引发了 AI 行业的广泛讨论:
有人正在通过系统化手段 “投喂”甚至“投毒”AI大模型的数据来源,从而操控模型的推荐结果。
这条产业链背后的关键词叫 GEO(Generative Engine Optimization)。
简单来说,GEO的目标类似于传统的 SEO(搜索引擎优化),但优化对象不再是搜索引擎,而是 AI 大模型的回答结果。
根据调查,一些 GEO 服务商对客户的承诺非常直接:
只要付费,就可以让某个品牌或产品在 AI 模型回答中 排名靠前,甚至成为推荐答案。
一位从事 GEO 业务的服务商负责人表示,他们的主要工作其实很简单:
他的原话是:
“就是相当于做软文,然后让 AI 平台去刷录、输入、抓取。”
由于 AI 模型会持续更新数据来源,如果企业想长期保持推荐位置,就必须 持续不断地投喂相关内容。
调查人员还做了一次实验。
他们在电商平台购买了一款名为 “力擎 GEO 优化系统” 的软件,然后虚构了一款不存在的产品——一款“智能健康手环”。
接下来只做了三件事:
随后,他们在多个 AI 大模型中询问:
“智能健康手环推荐”
结果令人意外:
有两个 AI 大模型真的推荐了这款不存在的产品,而且排名靠前。
这意味着,如果有人大规模制造内容并投放到互联网上,确实可能 影响 AI 模型的推荐结果。
GEO 业务的核心并不是技术,而是 信息分发能力。
一些公司专门负责:
这些内容一旦被 AI 爬虫抓取、被数据集收录,就可能成为未来模型回答的一部分。
有从业者甚至直言:
“花个几百万投点毒,总行吧。”
相比动辄上亿的广告费用,一些企业认为 操控 AI 推荐的成本其实并不高。
从技术角度看,大模型并不是实时检索数据库,而是通过 训练数据学习世界知识。
如果某类信息在互联网上被大量重复传播,模型就可能把它当作“常见事实”。
这种问题在 AI 领域被称为:
数据污染(Data Poisoning)
典型表现包括:
随着 AI 问答逐渐取代传统搜索,GEO 很可能成为一种新的营销方式。
过去企业做的是:
SEO → 让搜索引擎排名靠前
现在可能变成:
GEO → 让 AI 回答优先推荐
这也意味着未来 AI 平台需要面对新的挑战:
AI 正在逐渐成为用户获取信息的重要入口。如果模型的推荐结果可以被操控,那么用户看到的内容就可能不再是客观信息,而是经过精心设计的广告。
315晚会曝光的这一案例提醒行业:
AI 的竞争不仅是模型能力的竞争,也将是信息可信度的竞争。
在 AI 搜索时代,如何确保模型不被“喂偏”,可能会成为整个行业必须解决的新问题。