OA0 = Omni AI 0
OA0 是一个探索 AI 的论坛
现在注册
已注册用户请  登录
OA0  ›  代码  ›  Ollama — 在本地运行 LLM 的最简方案

Ollama — 在本地运行 LLM 的最简方案

 
  apple ·  2026-02-28 10:05:00 · 45 次点击  · 0 条评论  

ollama

Ollama

开始使用开源模型构建。

下载

macOS

curl -fsSL https://ollama.com/install.sh | sh

手动下载

Windows

irm https://ollama.com/install.ps1 | iex

手动下载

Linux

curl -fsSL https://ollama.com/install.sh | sh

手动安装说明

Docker

官方 Ollama Docker 镜像 ollama/ollama 可在 Docker Hub 获取。

社区

快速开始

ollama

系统会提示您运行一个模型,或将 Ollama 连接到您现有的代理或应用程序,例如 claudecodexopenclaw 等。

编程

启动特定的集成:

ollama launch claude

支持的集成包括 Claude CodeCodexDroidOpenCode

AI 助手

使用 OpenClaw 将 Ollama 转变为跨 WhatsApp、Telegram、Slack、Discord 等平台的个人 AI 助手:

ollama launch openclaw

与模型对话

运行并与 Gemma 3 对话:

ollama run gemma3

查看 ollama.com/library 获取完整列表。

更多详情请参阅 快速入门指南

REST API

Ollama 提供了用于运行和管理模型的 REST API。

curl http://localhost:11434/api/chat -d '{
  "model": "gemma3",
  "messages": [{
    "role": "user",
    "content": "Why is the sky blue?"
  }],
  "stream": false
}'

查看 API 文档 了解所有端点。

Python

pip install ollama
from ollama import chat

response = chat(model='gemma3', messages=[
  {
    'role': 'user',
    'content': 'Why is the sky blue?',
  },
])
print(response.message.content)

JavaScript

npm i ollama
import ollama from "ollama";

const response = await ollama.chat({
  model: "gemma3",
  messages: [{ role: "user", content: "Why is the sky blue?" }],
});
console.log(response.message.content);

支持的后端

  • llama.cpp 项目,由 Georgi Gerganov 创立。

文档

社区集成

想添加您的项目?请提交 Pull Request。

聊天界面

网页端

桌面端

  • Dify.AI - LLM 应用开发平台
  • AnythingLLM - 适用于 Mac、Windows 和 Linux 的一体化 AI 应用
  • Maid - 跨平台移动和桌面客户端
  • Witsy - 适用于 Mac、Windows 和 Linux 的 AI 桌面应用
  • Cherry Studio - 多提供商桌面客户端
  • Ollama App - 适用于桌面和移动端的跨平台客户端
  • PyGPT - 适用于 Linux、Windows 和 Mac 的 AI 桌面助手
  • Alpaca - 适用于 Linux 和 macOS 的 GTK4 客户端
  • SwiftChat - 跨平台,包括 iOS、Android 和 Apple Vision Pro
  • Enchanted - 原生 macOS 和 iOS 客户端
  • RWKV-Runner - 多模型桌面运行器
  • Ollama Grid Search - 评估和比较模型
  • macai - 适用于 Ollama 和 ChatGPT 的 macOS 客户端
  • AI Studio - 多提供商桌面 IDE
  • Reins - 参数调优和推理模型支持
  • ConfiChat - 注重隐私,支持可选加密
  • LLocal.in - Electron 桌面客户端
  • MindMac - 适用于 Mac 的 AI 聊天客户端
  • Msty - 多模型桌面客户端
  • BoltAI for Mac - 适用于 Mac 的 AI 聊天客户端
  • IntelliBar - 适用于 macOS 的 AI 助手
  • Kerlig AI - 适用于 macOS 的 AI 写作助手
  • Hillnote - 以 Markdown 为先的 AI 工作区
  • Perfect Memory AI - 通过屏幕和会议历史个性化的生产力 AI

移动端

上面列出的 SwiftChat、Enchanted、Maid、Ollama App、Reins 和 ConfiChat 也支持移动平台。

代码编辑器与开发

库 & SDK

框架 & 代理

45 次点击  ∙  0 人收藏  
登录后收藏  
目前尚无回复
0 条回复
About   ·   Help   ·    
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
Developed with Cursor