OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
OA0  ›  论文  ›  abs/2403.10131

RAFT:面向检索增强生成的领域自适应评测基准

 
  anything ·  2026-03-30 11:01:28 · 4 次点击  · 0 条评论  

RAFT: Adapting Language Model to Domain Specific RAG

作者: Tianjun Zhang, Shishir G. Patil, Naman Jain, Sheng Shen, Matei Zaharia, Ion Stoica, Joseph E. Gonzalez

提交/修订日期: 2024年3月15日提交,2024年6月5日修订

主题/分类: Computation and Language (cs.CL); Artificial Intelligence (cs.AI)

摘要:

在大规模文本语料库上预训练大语言模型(LLMs)已成为标准范式。当将这些LLMs用于许多下游应用时,通常需要通过基于检索增强生成(RAG)的提示或微调,将新知识(例如,时效性强的新闻或私有领域知识)融入预训练模型。然而,模型获取此类新知识的最佳方法仍然是一个开放性问题。

本文提出了检索增强微调(Retrieval Augmented FineTuning, RAFT),这是一种训练方法,旨在提高模型在“开卷”的领域内设置下回答问题的能力。在RAFT中,给定一个问题以及一组检索到的文档,我们训练模型忽略那些对回答问题没有帮助的文档,我们称之为干扰文档。RAFT通过逐字引用相关文档中能帮助回答问题的正确序列来实现这一点。这与RAFT的思维链式响应相结合,有助于提高模型的推理能力。

在领域特定的RAG中,RAFT在PubMed、HotpotQA和Gorilla数据集上持续提升了模型的性能,为改进预训练LLMs以适应领域内RAG提供了一种后训练方法。RAFT的代码和演示已在github.com/ShishirPatil/gorilla开源。

4 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
关于 ·  帮助 ·  PING ·  隐私 ·  条款   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
耗时 11 ms
Developed with Cursor