OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
OA0  ›  论文  ›  abs/2210.08726

RARR:检索后修正生成内容,提高事实一致性与可追溯性

 
  betray ·  2026-04-05 11:01:24 · 5 次点击  · 0 条评论  

RARR: 使用语言模型研究与修订语言模型的输出

作者: Luyu Gao, Zhuyun Dai, Panupong Pasupat, Anthony Chen, Arun Tejasvi Chaganty, Yicheng Fan, Vincent Y. Zhao, Ni Lao, Hongrae Lee, Da-Cheng Juan, Kelvin Guu

提交日期: 2022年10月17日 (最后修订于2023年5月31日)

会议: ACL 2023

摘要:
语言模型(LMs)在少样本学习、问答、推理和对话等许多任务上表现出色。然而,它们有时会生成缺乏支持或具有误导性的内容。用户很难轻易判断其输出是否可信,因为大多数语言模型没有内置的机制来归因于外部证据。为了在保留近期生成模型所有强大优势的同时实现归因,本文提出了RARR(基于研究与修订的归因改造系统)。该系统能够:1)自动为任何文本生成模型的输出寻找归因依据;2)对输出进行后编辑,以修正缺乏支持的内容,同时尽可能保留原始输出。当将RARR应用于多种最先进的语言模型在多样化生成任务上的输出时,我们发现它显著改善了归因效果,同时在保留原始输入方面比之前探索的编辑模型要好得多。此外,实现RARR仅需要少量训练样本、一个大语言模型和标准的网络搜索。

主题分类:
- 计算与语言 (cs.CL)
- 人工智能 (cs.AI)
- 信息检索 (cs.IR)
- 机器学习 (cs.LG)

arXiv标识符: arXiv:2210.08726

5 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
关于 ·  帮助 ·  PING ·  隐私 ·  条款   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
耗时 16 ms
Developed with Cursor