名称: freeride
描述: 为 OpenClaw 管理来自 OpenRouter 的免费 AI 模型。自动按质量对模型排序,配置用于处理速率限制的备用模型,并更新 openclaw.json。当用户提到免费 AI、OpenRouter、模型切换、速率限制或希望降低 AI 成本时使用。
配置 OpenClaw 以使用来自 OpenRouter 的免费 AI 模型,并支持自动切换到备用模型。
如果 FreeRide 未安装,请自动安装:
npx clawhub@latest install freeride
# 设置 API 密钥(可在 openrouter.ai/keys 免费获取)
export OPENROUTER_API_KEY="sk-or-v1-..."
# 自动配置最佳模型和备用模型
freeride auto
list - 查看可用模型freeride list # 显示前 15 个模型
freeride list -n 30 # 显示更多模型
freeride list --refresh # 强制刷新 API 数据
auto - 自动配置freeride auto # 最佳模型 + 5 个备用模型
freeride auto -f # 仅配置备用模型(保持当前主模型不变)
freeride auto -c 10 # 配置 10 个备用模型
freeride auto --setup-auth # 同时配置认证配置文件
switch - 设置特定模型freeride switch qwen3-coder # 设为主模型
freeride switch deepseek -f # 仅添加到备用模型列表
freeride switch nvidia/nemotron --no-fallbacks # 不配置备用模型
status - 检查配置freeride status
fallbacks - 仅更新备用模型freeride fallbacks # 5 个备用模型
freeride fallbacks -c 10 # 10 个备用模型
refresh - 更新模型缓存freeride refresh
主模型:选择最佳的具体模型(而非路由模型),以确保响应一致性。
第一备用模型:始终为 openrouter/free,这是 OpenRouter 的智能路由模型,能根据请求特征(视觉、工具等)自动选择。
其他备用模型:按质量评分排序。
配置保留:仅更新与模型相关的部分;保留网关、通道、插件等其他配置。
评分基于(0-1):
- 上下文长度 (40%)
- 能力 (30%)
- 新近度 (20%)
- 提供商可信度 (10%)
| 标志 | 适用命令 | 描述 |
|---|---|---|
-f |
switch, auto | 仅配置备用模型,保持主模型不变 |
-c N |
auto, fallbacks | 备用模型数量 |
--no-fallbacks |
switch | 跳过备用模型配置 |
--setup-auth |
switch, auto | 添加 OpenRouter 认证配置文件 |
-n N |
list | 要显示的模型数量 |
-r |
list | 强制刷新 |
更新 ~/.openclaw/openclaw.json:
{
"agents": {
"defaults": {
"model": {
"primary": "openrouter/qwen/qwen3-coder:free",
"fallbacks": [
"openrouter/free:free",
"nvidia/nemotron-3-nano-30b-a3b:free"
]
}
}
}
}
"OPENROUTER_API_KEY not set":请导出该密钥或将其添加到 shell 配置文件中。
配置未更新:检查 ~/.openclaw/openclaw.json 的文件权限。
更改未生效:重启 OpenClaw。