本文介绍如何在 OpenClaw 中接入 DeepSeek 官方 API,并完成模型配置与默认模型设置。
https://api.deepseek.com检查 Node 版本:
node -v
npm install -g openclaw@latest
验证安装:
openclaw --version
openclaw onboard --install-daemon --non-interactive --accept-risk
查看运行状态:
openclaw status
sk-xxxxxxxxxxxxxxxxxxxxxxxx
执行:
openclaw config set models.providers.deepseek '{
"baseUrl": "https://api.deepseek.com/v1",
"apiKey": "你的API_KEY",
"api": "openai-completions",
"models": [
{ "id": "deepseek-chat", "name": "DeepSeek Chat (V3)" },
{ "id": "deepseek-reasoner", "name": "DeepSeek Reasoner (R1)" }
]
}'
说明:
baseUrl:DeepSeek API 地址apiKey:替换为你的真实 Keyapi:兼容 OpenAI 接口openclaw config set agents.defaults.model.primary "deepseek/deepseek-chat"
openclaw models aliases add deepseek-v3 "deepseek/deepseek-chat"
openclaw models aliases add deepseek-r1 "deepseek/deepseek-reasoner"
openclaw gateway restart
openclaw agent --session-id test --message "你好,请介绍一下你自己"
如果返回 DeepSeek 模型响应内容,则配置成功。
查看模型状态:
openclaw models status
查看所有模型:
openclaw models list --all
切换模型(会话中):
/model deepseek-v3
查看实时日志:
openclaw logs --follow
openclaw models list --all | grep deepseek
在 ~/.bashrc 或 ~/.zshrc 中添加:
export DEEPSEEK_API_KEY="你的API_KEY"
重新加载:
source ~/.bashrc
完成以上步骤后,即可在 OpenClaw 中使用 DeepSeek 官方模型进行对话与推理任务。