
Open WebUI 是一个 可扩展、功能丰富、用户友好的自托管 AI 平台,设计为完全离线运行。 它支持多种 LLM 运行器,如 Ollama 和 OpenAI 兼容的 API,并内置用于 RAG 的推理引擎,是一个强大的 AI 部署解决方案。
对开源 AI 充满热情?加入我们的团队 →

[!TIP]
寻找 企业版方案? – 立即联系我们的销售团队!获取增强功能,包括自定义主题与品牌、服务级别协议 (SLA) 支持、长期支持 (LTS) 版本以及更多服务!
欲了解更多信息,请务必查看我们的 Open WebUI 文档。
🚀 轻松安装:使用 Docker 或 Kubernetes (kubectl, kustomize 或 helm) 无缝安装,支持 :ollama 和 :cuda 标签镜像,体验无忧。
🤝 Ollama/OpenAI API 集成:轻松集成 OpenAI 兼容的 API,与 Ollama 模型一起进行多样化对话。可自定义 OpenAI API URL 以连接 LMStudio, GroqCloud, Mistral, OpenRouter 等。
🛡️ 细粒度权限与用户组:允许管理员创建详细的用户角色和权限,确保安全的用户环境。这种细粒度控制不仅增强了安全性,还允许定制用户体验,培养用户的归属感和责任感。
📱 响应式设计:在台式机、笔记本电脑和移动设备上享受无缝体验。
📱 移动端渐进式 Web 应用 (PWA):通过我们的 PWA 在移动设备上享受类似原生应用的体验,提供本地主机的离线访问和流畅的用户界面。
✒️🔢 完整的 Markdown 和 LaTeX 支持:通过全面的 Markdown 和 LaTeX 功能提升您的 LLM 交互体验。
🎤📹 免提语音/视频通话:体验集成的免提语音和视频通话功能,使用多种语音转文本提供商(本地 Whisper、OpenAI、Deepgram、Azure)和文本转语音引擎(Azure、ElevenLabs、OpenAI、Transformers、WebAPI),打造动态交互式聊天环境。
🛠️ 模型构建器:通过 Web UI 轻松创建 Ollama 模型。创建和添加自定义角色/智能体,定制聊天元素,并通过 Open WebUI 社区 集成轻松导入模型。
🐍 原生 Python 函数调用工具:在工具工作区中通过内置代码编辑器支持增强您的 LLM。只需添加纯 Python 函数即可实现“自带函数 (BYOF)”,实现与 LLM 的无缝集成。
💾 持久化工件存储:内置用于工件的键值存储 API,支持跨会话的个人和共享数据范围,实现日志、追踪器、排行榜和协作工具等功能。
📚 本地 RAG 集成:使用您选择的 9 种向量数据库和多种内容提取引擎(Tika、Docling、Document Intelligence、Mistral OCR、外部加载器),通过突破性的检索增强生成 (RAG) 支持,探索聊天交互的未来。将文档直接加载到聊天中,或将文件添加到您的文档库,在查询前使用 # 命令轻松访问它们。
🔍 用于 RAG 的网络搜索:使用 15 种以上的提供商执行网络搜索,包括 SearXNG、Google PSE、Brave Search、Kagi、Mojeek、Tavily、Perplexity、serpstack、serper、Serply、DuckDuckGo、SearchApi、SerpApi、Bing、Jina、Exa、Sougou、Azure AI Search 和 Ollama Cloud,将结果直接注入您的聊天体验。
🌐 网页浏览能力:使用 # 命令后跟 URL,将网站无缝集成到您的聊天体验中。此功能允许您将网络内容直接融入对话,丰富交互的深度和广度。
🎨 图像生成与编辑集成:使用多种引擎(包括 OpenAI 的 DALL-E、Gemini、ComfyUI(本地)和 AUTOMATIC1111(本地))创建和编辑图像,支持生成和基于提示的编辑工作流。
⚙️ 多模型对话:轻松同时与多个模型交互,利用其独特优势以获得最佳响应。通过并行使用多样化的模型集来增强您的体验。
🔐 基于角色的访问控制 (RBAC):通过限制性权限确保安全访问;只有授权人员才能访问您的 Ollama,并且独占的模型创建/拉取权限保留给管理员。
🗄️ 灵活的数据库与存储选项:可从 SQLite(可选加密)、PostgreSQL 中选择,或配置云存储后端(S3、Google Cloud Storage、Azure Blob Storage)以实现可扩展部署。
🔍 高级向量数据库支持:从 9 种向量数据库选项中选择,包括 ChromaDB、PGVector、Qdrant、Milvus、Elasticsearch、OpenSearch、Pinecone、S3Vector 和 Oracle 23ai,以获得最佳 RAG 性能。
🔐 企业级身份验证:完全支持 LDAP/Active Directory 集成、SCIM 2.0 自动配置,以及通过可信标头与 OAuth 提供商进行的单点登录 (SSO)。通过 SCIM 2.0 协议实现企业级用户和组配置,与 Okta、Azure AD 和 Google Workspace 等身份提供商无缝集成,实现自动化用户生命周期管理。
☁️ 云原生集成:原生支持 Google Drive 和 OneDrive/SharePoint 文件选取,实现从企业云存储无缝导入文档。
📊 生产环境可观测性:内置 OpenTelemetry 支持,用于追踪、指标和日志,使您能够使用现有的可观测性堆栈进行全面监控。
⚖️ 水平可扩展性:支持 Redis 会话管理和 WebSocket,适用于负载均衡器后的多工作进程和多节点部署。
🌐🌍 多语言支持:通过我们的国际化 (i18n) 支持,以您偏好的语言体验 Open WebUI。加入我们,共同扩展支持的语言!我们正在积极寻找贡献者!
🧩 流水线,Open WebUI 插件支持:使用 流水线插件框架 将自定义逻辑和 Python 库无缝集成到 Open WebUI 中。启动您的流水线实例,将 OpenAI URL 设置为流水线 URL,探索无限可能。示例 包括 函数调用、用于控制访问的用户速率限制、使用 Langfuse 等工具的使用情况监控、用于多语言支持的 LibreTranslate 实时翻译、有害消息过滤等等。
🌟 持续更新:我们致力于通过定期更新、修复和新功能来改进 Open WebUI。
想了解更多关于 Open WebUI 的功能?查看我们的 Open WebUI 文档 获取全面概述!
我们衷心感谢赞助商们的慷慨支持。他们的贡献帮助我们维护和改进项目,确保我们能够继续为社区提供高质量的工作。谢谢!
Open WebUI 可以使用 Python 包安装器 pip 进行安装。在继续之前,请确保您使用的是 Python 3.11 以避免兼容性问题。
安装 Open WebUI:
打开终端并运行以下命令安装 Open WebUI:
bash
pip install open-webui
运行 Open WebUI:
安装后,您可以通过执行以下命令启动 Open WebUI:
bash
open-webui serve
这将启动 Open WebUI 服务器,您可以在 http://localhost:8080 访问它。
[!NOTE]
请注意,对于某些 Docker 环境,可能需要额外的配置。如果您遇到任何连接问题,我们的详细指南 Open WebUI 文档 随时准备为您提供帮助。[!WARNING]
使用 Docker 安装 Open WebUI 时,请确保在 Docker 命令中包含-v open-webui:/app/backend/data。此步骤至关重要,因为它确保您的数据库正确挂载并防止任何数据丢失。[!TIP]
如果您希望使用包含 Ollama 或 CUDA 加速的 Open WebUI,我们建议使用带有:cuda或:ollama标签的官方镜像。要启用 CUDA,您必须在 Linux/WSL 系统上安装 Nvidia CUDA 容器工具包。
bash
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
OLLAMA_BASE_URL 更改为该服务器的 URL:bash
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
bash
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
bash
docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
此安装方法使用单个容器镜像,将 Open WebUI 与 Ollama 捆绑在一起,允许通过单个命令进行简化设置。根据您的硬件设置选择适当的命令:
bash
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
bash
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
这两个命令都促进了 Open WebUI 和 Ollama 的内置、无忧安装,确保您可以快速启动并运行一切。
安装后,您可以在 http://localhost:3000 访问 Open WebUI。祝您使用愉快!😄
我们提供各种安装替代方案,包括非 Docker 原生安装方法、Docker Compose、Kustomize 和 Helm。请访问我们的 Open WebUI 文档 或加入我们的 Discord 社区 获取全面指导。
查看 本地开发指南 获取设置本地开发环境的说明。
遇到连接问题?我们的 Open WebUI 文档 已为您准备好解决方案。如需进一步帮助并加入我们充满活力的社区,请访问 Open WebUI Discord。
如果您遇到连接问题,通常是由于 WebUI Docker 容器无法在容器内部访问位于 127.0.0.1:11434 (host.docker.internal:11434) 的 Ollama 服务器。在您的 docker 命令中使用 --network=host 标志来解决此问题。请注意,端口从 3000 变为 8080,链接变为:http://localhost:8080。
Docker 命令示例:
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
查看我们 Open WebUI 文档 中提供的更新指南。
[!WARNING]
:dev分支包含最新的不稳定功能和更改。请自行承担使用风险,因为它可能存在错误或未完成的功能。
如果您想尝试最新的前沿功能并且可以接受偶尔的不稳定性,可以像这样使用 :dev 标签:
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --add-host=host.docker.internal:host-gateway --restart always ghcr.io/open-webui/open-webui:dev
如果您在离线环境中运行 Open WebUI,可以将 HF_HUB_OFFLINE 环境变量设置为 1,以防止尝试从互联网下载模型。
export HF_HUB_OFFLINE=1
在我们的 Open WebUI 文档 中探索路线图上的即将推出的功能。
本项目包含根据多个许可证授权的代码。当前代码库包含根据 Open WebUI 许可证授权的组件,并附加了保留“Open WebUI”品牌的要求,以及根据其各自原始许可证授权的先前贡献。有关许可证变更的详细记录以及代码各部分适用的条款,请参阅 LICENSE_HISTORY。有关完整和最新的许可详细信息,请参阅 LICENSE 和 LICENSE_HISTORY 文件。
如果您有任何问题、建议或需要帮助,请提交问题或加入我们的
Open WebUI Discord 社区 与我们联系!🤝
由 Timothy Jaeryang Baek 创建 - 让我们携手让 Open WebUI 更加出色!💪