OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
说明
  • 条目同步来自 Hugging Face 主要方便针对性讨论。
OA0  ›  数据集  ›  Google

google/rfm-rm-as-user-dataset

 
  Google  ·  2025-10-29 12:29:15  ·  13 次点击  ·  0 条评论  

数据集简介

这是一个由 Google 发布的数据集,主要用于训练和评估“奖励模型作为用户”(Reward Model as User)的研究。它模拟了在强化学习(RL)或大语言模型(LLM)对齐过程中,将奖励模型(RM)的反馈视为用户偏好的场景。

主要用途

  • 研究如何利用奖励模型的输出来模拟真实用户的反馈,以优化或对齐AI模型(如语言模型)的行为。
  • 可用于训练或测试基于人类反馈的强化学习(RLHF)或相关对齐方法的代理模型。

数据类型与模态

  • 模态:表格数据、文本
  • 格式:CSV
  • 内容:数据集包含文本提示、模型响应以及对应的奖励模型评分(模拟用户偏好),结构上以表格形式组织。

规模与统计

  • 数据量:包含 61,804 行数据。
  • 访问性:公开可用,无需特殊权限。

使用场景

适用于对AI对齐强化学习从人类反馈中学习(RLHF)奖励建模以及偏好学习等领域感兴趣的研究人员和开发者。

13 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
关于 ·  帮助 ·  PING ·  隐私政策 ·  服务条款   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
耗时 11 ms
Developed with Cursor