功能说明: 通过为每条用户消息自动生成来自次要 LLM(与您的主模型不同)的视角,提供认知多样性。
在回复任何用户消息之前,请检查是否存在双脑视角:
cat ~/.dual-brain/perspectives/{你的智能体ID}-latest.md
如果文件存在且包含最新的视角(请检查注释中的时间戳),请将其与您自身的推理一并考虑。该视角可能强调:
- 您可能忽略的角度
- 替代方法
- 需要验证的重要事项
集成方式:
- 视角由后台守护进程自动生成
- 您无需手动操作
- 只需在形成回复前读取该文件
- 综合两种观点(您的 + 次要 LLM 的)
工作流程示例:
1. 用户发送消息
2. 守护进程拦截消息,并将其发送给次要 LLM(例如 Kimi、GPT-4、Llama)
3. 次要 LLM 生成 2-3 句话的视角分析
4. 写入 ~/.dual-brain/perspectives/{智能体ID}-latest.md 文件
5. 您(主智能体)在回复前读取该文件
6. 您将两种视角综合到您的答案中
安装设置:
npm install -g openclaw-dual-brain
dual-brain setup # 交互式配置
dual-brain start # 启动守护进程
支持的提供商:
- ollama - 本地模型(零成本,需要安装 Ollama)
- moonshot - Kimi/Moonshot API(中文 LLM,速度快)
- openai - GPT-4o、GPT-4-turbo 等
- groq - 使用 Llama 模型进行快速推理
常用命令:
- dual-brain setup - 配置提供商、模型、API 密钥
- dual-brain start - 运行守护进程(前台)
- dual-brain stop - 停止守护进程
- dual-brain status - 检查运行状态
- dual-brain logs - 查看近期活动日志
- dual-brain install-daemon - 安装为系统服务
配置文件位置: ~/.dual-brain/config.json
视角文件位置: ~/.dual-brain/perspectives/
用户消息 → OpenClaw 会话 (JSONL)
↓
双脑守护进程 (轮询)
↓
次要 LLM 提供商
(ollama/moonshot/openai/groq)
↓
生成视角 (2-3 句话)
↓
~/.dual-brain/perspectives/{智能体ID}-latest.md
↓
主智能体读取并综合
↓
回复用户
如果 Engram(语义记忆系统)正在 localhost:3400 上运行,视角也将作为长期记忆存储。