OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
说明
  • 条目同步来自 Hugging Face 主要方便针对性讨论。
OA0  ›  数据集  ›  Ai2

allenai/tulu-3-sft-mixture

 
  Ai2  ·  2024-12-02 19:48:33  ·  18 次点击  ·  0 条评论  

数据集简介

Tulu-3-SFT-Mixture 是由 AllenAI 发布的一个用于监督式微调(SFT)的大规模文本数据集。它整合了多个高质量的指令遵循数据集,旨在训练或微调大型语言模型,以提升其遵循人类指令和完成多样化任务的能力。

主要用途

  • 模型微调:专门用于对大语言模型(如 LLaMA、Tulu 系列等)进行监督式微调。
  • 指令遵循训练:帮助模型学习理解和执行各种人类指令。
  • 研究基准:可作为评估模型指令遵循和对话能力的基准数据。

数据类型与模态

  • 模态:纯文本。
  • 内容:包含高质量的指令-响应对,涵盖多种任务类型(如问答、摘要、对话、代码生成等)。

规模与统计

  • 数据量:约 94 万行(样本)。
  • 下载量:超过 2.4 万次。
  • 社区反馈:获得 226 次点赞。

使用场景

  • 大语言模型训练:作为 SFT 阶段的核心训练数据。
  • 对话系统开发:构建能理解复杂指令的对话助手。
  • 学术研究:用于指令微调、对齐学习等领域的研究。
18 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
关于 ·  帮助 ·  PING ·  隐私政策 ·  服务条款   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
耗时 12 ms
Developed with Cursor