开始使用开源模型构建。
curl -fsSL https://ollama.com/install.sh | sh
或 手动下载
irm https://ollama.com/install.ps1 | iex
或 手动下载
curl -fsSL https://ollama.com/install.sh | sh
官方 Ollama Docker 镜像 ollama/ollama 可在 Docker Hub 获取。
ollama
系统会提示您运行一个模型,或将 Ollama 连接到您现有的代理或应用程序,例如 claude、codex、openclaw 等。
启动特定的集成:
ollama launch claude
支持的集成包括 Claude Code、Codex、Droid 和 OpenCode。
使用 OpenClaw 将 Ollama 转变为跨 WhatsApp、Telegram、Slack、Discord 等平台的个人 AI 助手:
ollama launch openclaw
运行并与 Gemma 3 对话:
ollama run gemma3
查看 ollama.com/library 获取完整列表。
更多详情请参阅 快速入门指南。
Ollama 提供了用于运行和管理模型的 REST API。
curl http://localhost:11434/api/chat -d '{
"model": "gemma3",
"messages": [{
"role": "user",
"content": "Why is the sky blue?"
}],
"stream": false
}'
查看 API 文档 了解所有端点。
pip install ollama
from ollama import chat
response = chat(model='gemma3', messages=[
{
'role': 'user',
'content': 'Why is the sky blue?',
},
])
print(response.message.content)
npm i ollama
import ollama from "ollama";
const response = await ollama.chat({
model: "gemma3",
messages: [{ role: "user", content: "Why is the sky blue?" }],
});
console.log(response.message.content);
想添加您的项目?请提交 Pull Request。
上面列出的 SwiftChat、Enchanted、Maid、Ollama App、Reins 和 ConfiChat 也支持移动平台。