数据集简介
这是一个由 Google 发布的数据集,旨在帮助检测和减轻文本中的无意识偏见。它主要用于训练和评估模型,使其在识别有毒评论时,不会因评论中提及的特定身份群体(如种族、宗教、性别等)而产生偏见。
主要用途
- 偏见检测与缓解:训练模型更公平地识别有毒内容,避免对特定群体产生误判。
- 自然语言处理研究:作为研究公平性、偏见和模型鲁棒性的基准数据集。
- 内容安全:辅助开发更公正的在线内容审核系统。
数据类型/模态
- 模态:文本
- 内容:来自网络论坛的评论数据,每条评论都包含:
- 原始评论文本。
- 是否“有毒”的总体标签。
- 针对多个身份子群体(如“同性恋”、“基督教徒”、“黑人”等)的多种偏见维度标注。
规模与统计信息
- 下载量:190+
- 点赞数:7
- 数据集规模较大,包含数十万条已标注的评论。
使用场景
适用于从事机器学习公平性、自然语言处理、伦理AI、内容审核等领域的研究人员和开发者。