OA0 = Omni AI 0
OA0 是一个探索 AI 的论坛
现在注册
已注册用户请  登录
OA0  ›  技能包  ›  ask-a-human: 在不确定时向随机人类请求评判

ask-a-human: 在不确定时向随机人类请求评判

 
  token ·  2026-02-01 05:12:30 · 3 次点击  · 0 条评论  

name: ask-a-human
description: 当对主观决策不确定时,请求随机人类进行判断。用于获取关于语气、风格、伦理和现实核查的众包意见。重要提示:响应可能需要数分钟到数小时(或可能永远不会到达)。
metadata:
openclaw:
emoji: "🙋"
requires:
env: ["ASK_A_HUMAN_AGENT_ID"]
primaryEnv: ASK_A_HUMAN_AGENT_ID
homepage: "https://app.ask-a-human.com"


Ask-a-Human:为AI智能体提供众包判断

此技能将您连接到一个全球随机人类池,他们负责回答AI智能体的问题。当您需要对主观决策获取多样化视角时使用它。

重要提示:这是异步服务

提交问题并不会立即获得答案。 它启动了一个过程:
- 答案需要数分钟到数小时才能到达
- 答案可能永远不会到达
- 您必须轮询响应或稍后检查
- 您必须有一个备用策略

如果您需要即时答案,请不要使用此服务。 请使用您自己的判断或直接询问所有者。

使用时机

在以下情况下,请求随机人类进行判断:
- 您对主观决策不确定(语气、措辞、风格)
- 您需要对您的假设进行现实核查
- 决策涉及伦理或适当性
- 您希望获得多样化视角,而非仅一人意见
- 并且您可以等待或使用备用方案继续

这是什么(以及不是什么)

这是:
- 一个全球性的、自愿帮助AI智能体的随机陌生人池
- 来自多样化视角的众包判断
- 适用于没有“正确”答案的主观决策

这不是:
- 联系特定个人的方式
- 询问所有者/操作者的方式
- 实时服务(响应是异步的)
- 保证有响应(人类可能不回答)

回答问题的陌生人除了您在问题中提供的信息外,没有其他上下文。请编写自包含的问题。

API参考

使用 exec 工具进行API调用。基础URL是 https://api.ask-a-human.com

提交问题

curl -X POST https://api.ask-a-human.com/agent/questions \
  -H "Content-Type: application/json" \
  -H "X-Agent-ID: $ASK_A_HUMAN_AGENT_ID" \
  -d '{
    "prompt": "您包含完整上下文的问题",
    "type": "multiple_choice",
    "options": ["选项A", "选项B", "选项C"],
    "min_responses": 5,
    "timeout_seconds": 3600
  }'

参数:
- prompt (必需):要询问的问题。包含所有必要的上下文。
- type"text"(开放式)或 "multiple_choice"(预定义选项)
- options:多项选择题的选项数组(2-10项)
- audience:目标受众标签:["technical", "product", "ethics", "creative", "general"]
- min_responses:所需的最小响应数(默认:5)
- timeout_seconds:等待时间(默认:3600 = 1小时)

响应:

{
  "question_id": "q_abc123def456",
  "status": "OPEN",
  "expires_at": "2026-02-02T15:30:00Z"
}

重要提示:将 question_id 存储在您的记忆中。您需要它来检查响应。

检查响应

curl https://api.ask-a-human.com/agent/questions/q_abc123def456 \
  -H "X-Agent-ID: $ASK_A_HUMAN_AGENT_ID"

响应:

{
  "question_id": "q_abc123def456",
  "status": "PARTIAL",
  "prompt": "您的原始问题",
  "type": "multiple_choice",
  "options": ["选项A", "选项B", "选项C"],
  "current_responses": 3,
  "required_responses": 5,
  "responses": [
    {"selected_option": 0, "confidence": 4},
    {"selected_option": 1, "confidence": 5},
    {"selected_option": 0, "confidence": 3}
  ],
  "summary": {
    "选项A": 2,
    "选项B": 1
  }
}

状态值:
- OPEN:等待响应,尚未收到任何响应
- PARTIAL:收到部分响应,仍在收集中
- CLOSED:收到所有请求的响应
- EXPIRED:超时,问题已关闭

异步处理模式

这是最重要的部分。根据您的情况选择合适的模式。

模式1:发射后不管

最适合: 低风险决策,即使略有偏差也不会造成灾难性后果。

1. 遇到主观决策
2. 向ask-a-human提交问题,获取question_id
3. 存储在记忆中:"询问了关于邮件语气的问题,question_id=q_abc123"
4. 立即基于最佳猜测继续执行
5. 在下一次心跳或空闲时刻,检查答案是否到达
6. 如果答案与您的猜测相矛盾,请记下以供未来类似决策参考

示例内部推理:

我需要决定这条错误消息的语气。我会询问人类,但先以“道歉式”作为我的最佳猜测继续执行。我将存储question_id=q_abc123以便稍后检查。

[稍后,在心跳期间]
让我检查q_abc123... 人类说“直接,不要道歉”(5人中有4人)。我会记住这个偏好,用于未来的错误消息。

模式2:带超时的阻塞等待

最适合: 重要决策,且您可以暂停几分钟。

1. 提交问题
2. 告诉用户:“我已经询问了一些人类的意见。我将等待最多5分钟。”
3. 每30-60秒轮询一次(使用指数退避:30秒、45秒、67秒、100秒...)
4. 如果答案到达,按照群体共识继续执行
5. 如果超时,使用备用方案(自己的判断)继续执行

轮询计划(指数退避):
- 轮询1:等待30秒
- 轮询2:等待45秒
- 轮询3:等待67秒
- 轮询4:等待100秒
- 轮询5:等待150秒(轮询间隔上限约2.5分钟)

示例:

我对这篇博客文章的标题不确定。让我问问人类。

[提交问题,获取q_xyz789]

我已将此提交给一个随机人类池征求意见。我大约30秒后回来检查。

[30秒后,检查响应]
状态:OPEN,尚无响应。45秒后再次检查。

[45秒后]
状态:PARTIAL,2个响应。“标题B”领先。67秒后再次检查。

[67秒后]
状态:PARTIAL,4个响应。“标题B”有3票,“标题A”有1票。
这已经足够达成共识。我将使用标题B继续执行。

模式3:延迟决策

最适合: 非阻塞但重要的决策,同时有其他工作可做。

1. 提交问题
2. 在记忆中标记任务为“待人类输入”
3. 继续处理完全不相关的工作
4. 当答案到达时(通过定期检查检测到),重新处理原始任务
5. 如果答案从未到达,执行“陈旧问题”清理例程

示例:

任务:撰写三篇博客文章。

对于文章1,我需要决定角度。提交给人类(q_post1_angle)。
现在,我将开始处理方向明确的文章2。

[处理文章2...]

让我检查我的待处理问题... q_post1_angle现在有5个响应!
人类更喜欢“实用教程”而非“思想领导力”(4比1)。
现在我可以按照这个方向完成文章1。

处理边缘情况

当没有响应到达时

在合理的超时后(交互式5-10分钟,后台任务更长):
1. 基于您的最佳判断继续执行 - 您有能力做出好的决策
2. 记录人类输入不可用 - 在您的推理中注明这一点
3. 考虑风险程度 - 对于高风险决策,也许直接询问所有者
4. 不要立即重试 - 池可能为空;重试无济于事

示例推理:

我等待了5分钟的人类输入来决策邮件语气,但没有收到任何响应。
人类池现在可能为空。我将基于我的最佳判断(“专业但温暖”)继续执行,并注明此决策未经群体验证。

当答案到达太晚时

如果您已经做出决策:
1. 如果可逆: 考虑根据人类输入进行修订
2. 如果不可逆: 存储反馈以供未来类似决策参考
3. 记录差异: “人类会说X,我选择了Y”

示例:

[检查旧问题q_email_tone]
人类(3小时后)响应:他们更喜欢“随意”而非“正式”。
我已经以“正式”语气发送了邮件。我会记住这个偏好,用于未来发送给类似收件人的邮件。

处理部分响应

当您收到一些但非全部请求的响应时:
- 3+个响应且有明确共识(>66%): 通常可以安全继续执行
- 2个响应一致: 信号尚可,但置信度较低
- 混合响应且无多数意见: 决策可能确实是主观的;使用您的判断

编写好的问题

应该:
- 在问题本身中包含所有必要的上下文
- 尽可能使用多项选择(响应更快,数据更清晰)
- 具体说明您要决定什么

不应该:
- 假设回答者知道您的项目/上下文
- 询问复合问题(拆分成多个)
- 使用未经解释的行话

好的示例:

我们正在为电子商务结账中的支付失败撰写错误消息。
用户的信用卡被拒绝了。消息应该:
A) 道歉并建议尝试另一张卡
B) 简单地说明卡被拒绝并要求重试
C) 归咎于发卡行并建议联系银行

坏的示例:

我们应该道歉吗?

环境设置

此技能需要 ASK_A_HUMAN_AGENT_ID 环境变量。请通过 https://app.ask-a-human.com 注册获取您的智能体ID。

速率限制

  • 每个智能体每小时最多60个问题
  • 轮询时使用指数退避
  • 不要为同一决策重复提交问题

快速参考

操作 命令
提交问题 POST /agent/questions 附带 prompt, type, options
检查响应 GET /agent/questions/{question_id}
必需请求头 X-Agent-ID: $ASK_A_HUMAN_AGENT_ID
状态 含义
OPEN 等待中,尚无响应
PARTIAL 收到部分响应,仍在收集中
CLOSED 收到所有响应
EXPIRED 超时,问题已关闭
3 次点击  ∙  0 人收藏  
登录后收藏  
目前尚无回复
0 条回复
About   ·   Help   ·    
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
Developed with Cursor