数据集简介
该数据集由 Facebook(现 Meta)发布,主要用于评估语言模型的常识推理和知识补全能力。其核心任务是通过遮盖句子中的实体,让模型预测正确的实体,从而测试模型对世界知识的掌握程度。
主要用途
- 语言模型知识评估:测试模型在事实性知识补全方面的表现。
- 常识推理基准:作为衡量模型是否具备常识的基准数据集。
- 模型对比研究:用于比较不同语言模型在知识密集型任务上的性能。
数据类型/模态
- 模态:文本(自然语言句子)
- 数据形式:包含实体遮盖的句子,通常以“完形填空”形式呈现(例如:“巴黎是 [MASK] 的首都。”)。
规模与统计信息
- 下载量:682 次
- 点赞数:19
- 更新日期:2024年1月
使用场景
- 研究人员和开发者评估预训练语言模型(如 BERT、RoBERTa 等)的知识覆盖度。
- 作为下游任务(如问答、实体链接)的预训练或微调数据。
- 用于分析和改进模型在事实性知识方面的局限性。