LLaVA-OneVision-Data 数据集简介
该数据集由 lmms-lab 发布,旨在为多模态大语言模型(特别是 LLaVA 系列模型)提供大规模、高质量的视觉-语言对齐训练数据。
主要用途
- 多模态模型训练:用于训练或微调能够理解和生成与图像相关文本的视觉-语言模型。
- 指令跟随数据:包含丰富的“图像-指令-回答”格式数据,有助于提升模型遵循复杂视觉指令的能力。
数据类型与模态
- 核心模态:图像 (
image) 与文本 (text)。
- 数据格式:数据以 Parquet 格式存储,便于高效处理与分析。
规模与统计
- 数据量:包含超过 393 万条 样本,规模庞大。
- 受欢迎程度:下载量超过 1.4 万次,获得 227 次点赞,显示出较高的社区关注度和实用性。
使用场景
适用于研究人员和开发者进行:
* 视觉语言模型的预训练或指令微调。
* 构建能够进行细粒度图像理解、视觉问答、图像描述等任务的人工智能系统。