OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
说明
  • 条目同步来自 Hugging Face 主要方便针对性讨论。
OA0  ›  数据集  ›  tokyotech-llm

tokyotech-llm/Swallow-Nemotron-Post-Training-Dataset-v1

 
  tokyotech-llm  ·  2026-02-21 12:26:46  ·  24 次点击  ·  0 条评论  

数据集简介

这是一个用于大型语言模型(LLM)后训练(Post-Training)的文本数据集,由东京工业大学LLM团队发布。

主要用途

专门用于对已预训练的大型语言模型进行进一步的后训练,旨在提升模型的指令遵循、对话能力或其他特定下游任务的性能。

数据类型与模态

  • 模态:纯文本(Text)
  • 数据格式:JSON

规模与统计信息

  • 数据量:包含约 884 万条样本(8,841,026 行)

使用场景

适用于研究人员和开发者对如 Nemotron 等系列的大型语言模型进行监督微调(SFT)或后训练,以优化模型在特定领域或任务上的表现。

24 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
关于 ·  帮助 ·  PING ·  隐私 ·  条款   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
耗时 21 ms
Developed with Cursor