在本地生活服务平台中,评价体系不仅影响用户决策,更直接关系到商家流量分配与平台生态公平性。近期,美团 对酒店业务的评价系统进行升级,引入 AI 识别虚假评价与恶意差评,并将异常处理时效压缩至 24 小时内。
这一变化表面上是“内容审核效率提升”,本质上则是将大模型与机器学习能力嵌入平台风控体系,推动评价系统从“事后处理”走向“实时治理”。
长期以来,平台评价治理依赖规则过滤与人工审核,存在响应慢、误判率高的问题。随着生成式 AI 和行为建模技术成熟,平台开始构建更智能的评价识别系统。
美团此次升级的核心,在于将 AI 模型引入到三个关键环节:
结合人工复核形成闭环,使得整体处理效率从 36 小时缩短至 24 小时以内。
从 AI 工程视角看,这类系统通常由多层模型协同构成,而非单一算法:
针对评价文本本身,模型需要判断其是否存在“刷评模板化”或“生成式内容痕迹”,可能涉及:
随着生成式 AI 普及,这一层的重要性正在迅速提升。
仅靠文本难以识别复杂作弊行为,因此需要结合行为数据:
这类问题更接近“图计算 + 异常检测”,通过构建用户-商家关系网络识别异常模式。
最终判定通常不是单一模型输出,而是多信号融合:
再通过策略引擎决定是否拦截、降权或进入人工复核。
值得注意的是,美团并未完全依赖 AI 自动决策,而是采用“AI 初筛 + 人工复核”的模式。
这种设计有两个现实考量:
同时,平台为商家提供了申诉与屏蔽机制,使治理流程具备反馈通道。这种“可申诉风控”正在成为平台治理的标准配置。
处理时效的缩短,不只是运营效率提升,更直接影响平台生态:
数据显示,该系统已实现每月自动拦截数万条恶意差评,说明其在规模化场景下具备实际效果。
这一升级背后,是生成式 AI 带来的新挑战:
因此,平台必须用“更强的 AI”对抗“AI 生成内容”,形成对抗式升级。
从更宏观视角看,美团的这一动作反映出平台治理逻辑的变化:
这一趋势同样适用于电商、社交与内容平台。
随着 AI 深度介入评价体系,平台的“信任”不再完全依赖用户共识,而是由算法与模型共同构建。
对于 AI 工程社区而言,这类系统提供了一个重要案例:
大模型不仅能生成内容,也正在成为治理内容的核心工具。
未来,随着对抗升级,评价系统很可能演变为一场持续的“模型对抗战”,而胜负将取决于谁的系统更智能、更高效。