作者: Tianjun Zhang, Shishir G. Patil, Naman Jain, Sheng Shen, Matei Zaharia, Ion Stoica, Joseph E. Gonzalez
提交/修订日期: 2024年3月15日提交,2024年6月5日修订
主题/分类: Computation and Language (cs.CL); Artificial Intelligence (cs.AI)
摘要:
在大规模文本语料库上预训练大语言模型(LLMs)已成为标准范式。当将这些LLMs用于许多下游应用时,通常需要通过基于检索增强生成(RAG)的提示或微调,将新知识(例如,时效性强的新闻或私有领域知识)融入预训练模型。然而,模型获取此类新知识的最佳方法仍然是一个开放性问题。
本文提出了检索增强微调(Retrieval Augmented FineTuning, RAFT),这是一种训练方法,旨在提高模型在“开卷”的领域内设置下回答问题的能力。在RAFT中,给定一个问题以及一组检索到的文档,我们训练模型忽略那些对回答问题没有帮助的文档,我们称之为干扰文档。RAFT通过逐字引用相关文档中能帮助回答问题的正确序列来实现这一点。这与RAFT的思维链式响应相结合,有助于提高模型的推理能力。
在领域特定的RAG中,RAFT在PubMed、HotpotQA和Gorilla数据集上持续提升了模型的性能,为改进预训练LLMs以适应领域内RAG提供了一种后训练方法。RAFT的代码和演示已在github.com/ShishirPatil/gorilla开源。