数据集简介
Tulu-3-SFT-Mixture 是由 AllenAI 发布的一个用于监督式微调(SFT)的大规模文本数据集。它整合了多个高质量的指令遵循数据集,旨在训练或微调大型语言模型,以提升其遵循人类指令和完成多样化任务的能力。
主要用途
- 模型微调:专门用于对大语言模型(如 LLaMA、Tulu 系列等)进行监督式微调。
- 指令遵循训练:帮助模型学习理解和执行各种人类指令。
- 研究基准:可作为评估模型指令遵循和对话能力的基准数据。
数据类型与模态
- 模态:纯文本。
- 内容:包含高质量的指令-响应对,涵盖多种任务类型(如问答、摘要、对话、代码生成等)。
规模与统计
- 数据量:约 94 万行(样本)。
- 下载量:超过 2.4 万次。
- 社区反馈:获得 226 次点赞。
使用场景
- 大语言模型训练:作为 SFT 阶段的核心训练数据。
- 对话系统开发:构建能理解复杂指令的对话助手。
- 学术研究:用于指令微调、对齐学习等领域的研究。