作者: Tianjun Zhang, Shishir G. Patil, Naman Jain, Sheng Shen, Matei Zaharia, Ion Stoica, Joseph E. Gonzalez
提交日期: 2024年3月15日
摘要:
在大规模文本语料库上预训练大语言模型(LLMs)已成为标准范式。当将这些LLMs用于许多下游应用时,通常需要通过基于检索增强生成(RAG)的提示或微调,将新知识(例如时效性新闻或私有领域知识)融入预训练模型。然而,模型获取此类新知识的最佳方法仍然是一个开放性问题。本文提出了检索增强微调(Retrieval Augmented FineTuning, RAFT),这是一种训练方法,旨在提升模型在“开卷”领域特定设置下回答问题的能力。在RAFT中,给定一个问题及一组检索到的文档,我们训练模型忽略那些对回答问题没有帮助的文档(我们称之为干扰文档)。RAFT通过逐字引用相关文档中能帮助回答问题的正确序列来实现这一点。这一点与RAFT的思维链(chain-of-thought)式响应相结合,有助于提升模型的推理能力。在领域特定的RAG中,RAFT在PubMed、HotpotQA和Gorilla数据集上持续提升了模型的性能,为改进预训练LLMs以适应领域内RAG提供了一种后训练方法。RAFT的代码和演示已在 github.com/ShishirPatil/gorilla 开源。
主题/分类:
- 计算与语言(cs.CL)
- 人工智能(cs.AI)