OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
OA0  ›  论文  ›  abs/2403.10131v1

RAFT:面向领域问答的检索增强微调方法

 
  fifteen ·  2026-04-14 11:01:23 · 12 次点击  · 0 条评论  

RAFT: Adapting Language Model to Domain Specific RAG

作者: Tianjun Zhang, Shishir G. Patil, Naman Jain, Sheng Shen, Matei Zaharia, Ion Stoica, Joseph E. Gonzalez

提交日期: 2024年3月15日

摘要:
在大规模文本语料库上预训练大语言模型(LLMs)已成为标准范式。当将这些LLMs用于许多下游应用时,通常需要通过基于检索增强生成(RAG)的提示或微调,将新知识(例如时效性新闻或私有领域知识)融入预训练模型。然而,模型获取此类新知识的最佳方法仍然是一个开放性问题。本文提出了检索增强微调(Retrieval Augmented FineTuning, RAFT),这是一种训练方法,旨在提升模型在“开卷”领域特定设置下回答问题的能力。在RAFT中,给定一个问题及一组检索到的文档,我们训练模型忽略那些对回答问题没有帮助的文档(我们称之为干扰文档)。RAFT通过逐字引用相关文档中能帮助回答问题的正确序列来实现这一点。这一点与RAFT的思维链(chain-of-thought)式响应相结合,有助于提升模型的推理能力。在领域特定的RAG中,RAFT在PubMed、HotpotQA和Gorilla数据集上持续提升了模型的性能,为改进预训练LLMs以适应领域内RAG提供了一种后训练方法。RAFT的代码和演示已在 github.com/ShishirPatil/gorilla 开源。

主题/分类:
- 计算与语言(cs.CL)
- 人工智能(cs.AI)

12 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
关于 ·  帮助 ·  PING ·  隐私 ·  条款   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
耗时 20 ms
Developed with Cursor