作者: Luyu Gao, Zhuyun Dai, Panupong Pasupat, Anthony Chen, Arun Tejasvi Chaganty, Yicheng Fan, Vincent Y. Zhao, Ni Lao, Hongrae Lee, Da-Cheng Juan, Kelvin Guu
提交日期: 2022年10月17日 (最后修订于2023年5月31日)
会议: ACL 2023
摘要:
语言模型(LMs)在少样本学习、问答、推理和对话等许多任务上表现出色。然而,它们有时会生成缺乏支持或具有误导性的内容。用户很难轻易判断其输出是否可信,因为大多数语言模型没有内置的机制来归因于外部证据。为了在保留近期生成模型所有强大优势的同时实现归因,本文提出了RARR(基于研究与修订的归因改造系统)。该系统能够:1)自动为任何文本生成模型的输出寻找归因依据;2)对输出进行后编辑,以修正缺乏支持的内容,同时尽可能保留原始输出。当将RARR应用于多种最先进的语言模型在多样化生成任务上的输出时,我们发现它显著改善了归因效果,同时在保留原始输入方面比之前探索的编辑模型要好得多。此外,实现RARR仅需要少量训练样本、一个大语言模型和标准的网络搜索。
主题分类:
- 计算与语言 (cs.CL)
- 人工智能 (cs.AI)
- 信息检索 (cs.IR)
- 机器学习 (cs.LG)
arXiv标识符: arXiv:2210.08726