OA0 = Omni AI 0
OA0 是一个探索 AI 的论坛
现在注册
已注册用户请  登录
OA0  ›  代码  ›  Open WebUI — 宇宙最强的 LLM 本地化界面

Open WebUI — 宇宙最强的 LLM 本地化界面

 
  compliance ·  2026-02-28 11:00:00 · 131 次点击  · 0 条评论  

Open WebUI 👋

GitHub stars
GitHub forks
GitHub watchers
GitHub repo size
GitHub language count
GitHub top language
GitHub last commit
Discord

Open WebUI Banner

Open WebUI 是一个 可扩展、功能丰富、用户友好的自托管 AI 平台,设计为完全离线运行。 它支持多种 LLM 运行器,如 OllamaOpenAI 兼容的 API,并内置用于 RAG 的推理引擎,是一个强大的 AI 部署解决方案

对开源 AI 充满热情?加入我们的团队 →

Open WebUI Demo

[!TIP]
寻找 企业版方案立即联系我们的销售团队!

获取增强功能,包括自定义主题与品牌服务级别协议 (SLA) 支持长期支持 (LTS) 版本以及更多服务!

欲了解更多信息,请务必查看我们的 Open WebUI 文档

Open WebUI 主要特性 ⭐

  • 🚀 轻松安装:使用 Docker 或 Kubernetes (kubectl, kustomize 或 helm) 无缝安装,支持 :ollama:cuda 标签镜像,体验无忧。

  • 🤝 Ollama/OpenAI API 集成:轻松集成 OpenAI 兼容的 API,与 Ollama 模型一起进行多样化对话。可自定义 OpenAI API URL 以连接 LMStudio, GroqCloud, Mistral, OpenRouter 等

  • 🛡️ 细粒度权限与用户组:允许管理员创建详细的用户角色和权限,确保安全的用户环境。这种细粒度控制不仅增强了安全性,还允许定制用户体验,培养用户的归属感和责任感。

  • 📱 响应式设计:在台式机、笔记本电脑和移动设备上享受无缝体验。

  • 📱 移动端渐进式 Web 应用 (PWA):通过我们的 PWA 在移动设备上享受类似原生应用的体验,提供本地主机的离线访问和流畅的用户界面。

  • ✒️🔢 完整的 Markdown 和 LaTeX 支持:通过全面的 Markdown 和 LaTeX 功能提升您的 LLM 交互体验。

  • 🎤📹 免提语音/视频通话:体验集成的免提语音和视频通话功能,使用多种语音转文本提供商(本地 Whisper、OpenAI、Deepgram、Azure)和文本转语音引擎(Azure、ElevenLabs、OpenAI、Transformers、WebAPI),打造动态交互式聊天环境。

  • 🛠️ 模型构建器:通过 Web UI 轻松创建 Ollama 模型。创建和添加自定义角色/智能体,定制聊天元素,并通过 Open WebUI 社区 集成轻松导入模型。

  • 🐍 原生 Python 函数调用工具:在工具工作区中通过内置代码编辑器支持增强您的 LLM。只需添加纯 Python 函数即可实现“自带函数 (BYOF)”,实现与 LLM 的无缝集成。

  • 💾 持久化工件存储:内置用于工件的键值存储 API,支持跨会话的个人和共享数据范围,实现日志、追踪器、排行榜和协作工具等功能。

  • 📚 本地 RAG 集成:使用您选择的 9 种向量数据库和多种内容提取引擎(Tika、Docling、Document Intelligence、Mistral OCR、外部加载器),通过突破性的检索增强生成 (RAG) 支持,探索聊天交互的未来。将文档直接加载到聊天中,或将文件添加到您的文档库,在查询前使用 # 命令轻松访问它们。

  • 🔍 用于 RAG 的网络搜索:使用 15 种以上的提供商执行网络搜索,包括 SearXNGGoogle PSEBrave SearchKagiMojeekTavilyPerplexityserpstackserperSerplyDuckDuckGoSearchApiSerpApiBingJinaExaSougouAzure AI SearchOllama Cloud,将结果直接注入您的聊天体验。

  • 🌐 网页浏览能力:使用 # 命令后跟 URL,将网站无缝集成到您的聊天体验中。此功能允许您将网络内容直接融入对话,丰富交互的深度和广度。

  • 🎨 图像生成与编辑集成:使用多种引擎(包括 OpenAI 的 DALL-E、Gemini、ComfyUI(本地)和 AUTOMATIC1111(本地))创建和编辑图像,支持生成和基于提示的编辑工作流。

  • ⚙️ 多模型对话:轻松同时与多个模型交互,利用其独特优势以获得最佳响应。通过并行使用多样化的模型集来增强您的体验。

  • 🔐 基于角色的访问控制 (RBAC):通过限制性权限确保安全访问;只有授权人员才能访问您的 Ollama,并且独占的模型创建/拉取权限保留给管理员。

  • 🗄️ 灵活的数据库与存储选项:可从 SQLite(可选加密)、PostgreSQL 中选择,或配置云存储后端(S3、Google Cloud Storage、Azure Blob Storage)以实现可扩展部署。

  • 🔍 高级向量数据库支持:从 9 种向量数据库选项中选择,包括 ChromaDB、PGVector、Qdrant、Milvus、Elasticsearch、OpenSearch、Pinecone、S3Vector 和 Oracle 23ai,以获得最佳 RAG 性能。

  • 🔐 企业级身份验证:完全支持 LDAP/Active Directory 集成、SCIM 2.0 自动配置,以及通过可信标头与 OAuth 提供商进行的单点登录 (SSO)。通过 SCIM 2.0 协议实现企业级用户和组配置,与 Okta、Azure AD 和 Google Workspace 等身份提供商无缝集成,实现自动化用户生命周期管理。

  • ☁️ 云原生集成:原生支持 Google Drive 和 OneDrive/SharePoint 文件选取,实现从企业云存储无缝导入文档。

  • 📊 生产环境可观测性:内置 OpenTelemetry 支持,用于追踪、指标和日志,使您能够使用现有的可观测性堆栈进行全面监控。

  • ⚖️ 水平可扩展性:支持 Redis 会话管理和 WebSocket,适用于负载均衡器后的多工作进程和多节点部署。

  • 🌐🌍 多语言支持:通过我们的国际化 (i18n) 支持,以您偏好的语言体验 Open WebUI。加入我们,共同扩展支持的语言!我们正在积极寻找贡献者!

  • 🧩 流水线,Open WebUI 插件支持:使用 流水线插件框架 将自定义逻辑和 Python 库无缝集成到 Open WebUI 中。启动您的流水线实例,将 OpenAI URL 设置为流水线 URL,探索无限可能。示例 包括 函数调用、用于控制访问的用户速率限制、使用 Langfuse 等工具的使用情况监控、用于多语言支持的 LibreTranslate 实时翻译有害消息过滤等等。

  • 🌟 持续更新:我们致力于通过定期更新、修复和新功能来改进 Open WebUI。

想了解更多关于 Open WebUI 的功能?查看我们的 Open WebUI 文档 获取全面概述!


我们衷心感谢赞助商们的慷慨支持。他们的贡献帮助我们维护和改进项目,确保我们能够继续为社区提供高质量的工作。谢谢!

如何安装 🚀

通过 Python pip 安装 🐍

Open WebUI 可以使用 Python 包安装器 pip 进行安装。在继续之前,请确保您使用的是 Python 3.11 以避免兼容性问题。

  1. 安装 Open WebUI
    打开终端并运行以下命令安装 Open WebUI:

    bash pip install open-webui

  2. 运行 Open WebUI
    安装后,您可以通过执行以下命令启动 Open WebUI:

    bash open-webui serve

这将启动 Open WebUI 服务器,您可以在 http://localhost:8080 访问它。

使用 Docker 快速开始 🐳

[!NOTE]
请注意,对于某些 Docker 环境,可能需要额外的配置。如果您遇到任何连接问题,我们的详细指南 Open WebUI 文档 随时准备为您提供帮助。

[!WARNING]
使用 Docker 安装 Open WebUI 时,请确保在 Docker 命令中包含 -v open-webui:/app/backend/data。此步骤至关重要,因为它确保您的数据库正确挂载并防止任何数据丢失。

[!TIP]
如果您希望使用包含 Ollama 或 CUDA 加速的 Open WebUI,我们建议使用带有 :cuda:ollama 标签的官方镜像。要启用 CUDA,您必须在 Linux/WSL 系统上安装 Nvidia CUDA 容器工具包

使用默认配置安装

  • 如果 Ollama 在您的计算机上,请使用此命令:

bash docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

  • 如果 Ollama 在不同的服务器上,请使用此命令:
    要连接到另一台服务器上的 Ollama,请将 OLLAMA_BASE_URL 更改为该服务器的 URL:

bash docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

  • 要使用 Nvidia GPU 支持运行 Open WebUI,请使用此命令:

bash docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

仅用于 OpenAI API 的安装

  • 如果您只使用 OpenAI API,请使用此命令:

bash docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

安装捆绑 Ollama 支持的 Open WebUI

此安装方法使用单个容器镜像,将 Open WebUI 与 Ollama 捆绑在一起,允许通过单个命令进行简化设置。根据您的硬件设置选择适当的命令:

  • 使用 GPU 支持
    通过运行以下命令利用 GPU 资源:

bash docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

  • 仅使用 CPU
    如果您不使用 GPU,请改用此命令:

bash docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

这两个命令都促进了 Open WebUI 和 Ollama 的内置、无忧安装,确保您可以快速启动并运行一切。

安装后,您可以在 http://localhost:3000 访问 Open WebUI。祝您使用愉快!😄

其他安装方法

我们提供各种安装替代方案,包括非 Docker 原生安装方法、Docker Compose、Kustomize 和 Helm。请访问我们的 Open WebUI 文档 或加入我们的 Discord 社区 获取全面指导。

查看 本地开发指南 获取设置本地开发环境的说明。

故障排除

遇到连接问题?我们的 Open WebUI 文档 已为您准备好解决方案。如需进一步帮助并加入我们充满活力的社区,请访问 Open WebUI Discord

Open WebUI:服务器连接错误

如果您遇到连接问题,通常是由于 WebUI Docker 容器无法在容器内部访问位于 127.0.0.1:11434 (host.docker.internal:11434) 的 Ollama 服务器。在您的 docker 命令中使用 --network=host 标志来解决此问题。请注意,端口从 3000 变为 8080,链接变为:http://localhost:8080

Docker 命令示例

docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

保持 Docker 安装最新

查看我们 Open WebUI 文档 中提供的更新指南。

使用开发分支 🌙

[!WARNING]
:dev 分支包含最新的不稳定功能和更改。请自行承担使用风险,因为它可能存在错误或未完成的功能。

如果您想尝试最新的前沿功能并且可以接受偶尔的不稳定性,可以像这样使用 :dev 标签:

docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --add-host=host.docker.internal:host-gateway --restart always ghcr.io/open-webui/open-webui:dev

离线模式

如果您在离线环境中运行 Open WebUI,可以将 HF_HUB_OFFLINE 环境变量设置为 1,以防止尝试从互联网下载模型。

export HF_HUB_OFFLINE=1

下一步是什么? 🌟

在我们的 Open WebUI 文档 中探索路线图上的即将推出的功能。

许可证 📜

本项目包含根据多个许可证授权的代码。当前代码库包含根据 Open WebUI 许可证授权的组件,并附加了保留“Open WebUI”品牌的要求,以及根据其各自原始许可证授权的先前贡献。有关许可证变更的详细记录以及代码各部分适用的条款,请参阅 LICENSE_HISTORY。有关完整和最新的许可详细信息,请参阅 LICENSELICENSE_HISTORY 文件。

支持 💬

如果您有任何问题、建议或需要帮助,请提交问题或加入我们的
Open WebUI Discord 社区 与我们联系!🤝

Star 历史





Star History Chart


Timothy Jaeryang Baek 创建 - 让我们携手让 Open WebUI 更加出色!💪

131 次点击  ∙  0 人收藏  
登录后收藏  
目前尚无回复
0 条回复
About   ·   Help   ·    
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
Developed with Cursor