OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
OA0  ›  代码  ›  BionicGPT — 企业可私有化部署的生成式 AI 平台

BionicGPT — 企业可私有化部署的生成式 AI 平台

 
  dwell ·  2026-03-29 11:00:23 · 3 次点击  · 0 条评论  

Bionic

Bionic 是 ChatGPT 的本地化替代方案,在提供生成式 AI 优势的同时,确保严格的数据保密性。 Bionic 可以在您的笔记本电脑上运行,也可以扩展到数据中心部署。



Alt text

数秒内本地运行生成式 AI

尝试我们的 Docker Compose 安装方式。非常适合在本地运行 AI 以及进行小型试点。

熟悉的聊天体验

  • 🖥️ 直观界面:我们的聊天界面借鉴了 ChatGPT,确保用户友好的体验。
  • 🌈 主题自定义:Bionic 的主题完全可定制,允许您按喜好进行品牌化。
  • ⚡ 超快 UI:享受我们基于 Rust 的 UI 带来的快速响应性能。
  • 📜 聊天历史:轻松访问和管理您的对话历史。

AI 助手(检索增强生成)

  • 🤖 AI 助手:用户可以创建与自有数据协同工作的助手,以增强 AI 能力。
  • 🗨️ 与团队成员共享助手:在用户之间无缝生成和共享助手,增强协作与沟通。
  • 📋 智能体 RAG 流水线:助手是完整的企业级智能体 RAG 流水线,可在几分钟内启动。
  • 📑 支持任意文档:80% 的企业数据存在于难以使用的格式中,如 HTML、PDF、CSV、PNG、PPTX 等。我们支持所有这些格式。
  • 💾 无需代码:通过我们的 UI 即可配置嵌入引擎和分块算法。
  • 🗨️ 系统提示词:配置系统提示词,让 LLM 以您期望的方式回复。

团队管理

  • 👫 团队:您的公司由人员团队组成,Bionic 利用此设置实现最大效果。
  • 👫 邀请团队成员:团队可以在受控环境中自我管理。
  • 🙋 管理团队:通过您的 SSO 系统管理谁可以访问 Bionic。
  • 👬 虚拟团队:在团队内创建子团队。
  • 🚠 切换团队:在团队之间切换,同时保持数据隔离。
  • 🚓 基于角色的访问控制:使用您的 SSO 系统配置用户可访问的功能。

深度防御安全

  • 👮 SAST:静态应用程序安全测试 - 我们的 CI/CD 流水线运行 SAST,以便在代码构建前识别风险。
  • 📢 授权 RLS:我们在 Postgres 中使用行级安全策略作为另一道检查,确保数据不会在未授权用户之间泄露。
  • 🚔 CSP:我们的内容安全策略处于最高级别,可阻止各种安全威胁。
  • 🐳 最小化容器:我们尽可能从 Scratch 构建容器,以限制供应链攻击。
  • ⏳ 非 root 容器:我们以非 root 身份运行容器,以限制攻击期间的横向移动。
  • 👮 审计追踪:查看谁在何时做了什么。
  • ⏰ Postgres 角色:我们为 Postgres 连接运行最低权限级别。
  • 📣 SIEM 集成:与您的 SIEM 系统集成,进行威胁检测和调查。
  • ⌛ 抵抗时序攻击(API 密钥):即将推出。
  • 📭 SSO:我们没有构建自己的身份验证,而是使用行业领先且安全的开源 IAM 系统。

可观测性与报告

  • 📈 可观测性 API:兼容 Prometheus,用于测量负载和使用情况。
  • 🤖 仪表板:使用 Grafana 创建仪表板,全面了解您的系统。
  • 📚 监控聊天:所有问题和响应都会被记录并可在 Postgres 数据库中查询。

令牌使用限制与控制

  • 📈 公平共享资源:没有令牌限制,您的模型很容易过载。
  • 🔒 反向代理:所有模型都受到我们的反向代理保护,允许您设置限制并确保用户间的公平使用。
  • 👮 基于角色:根据用户在 IAM 系统中的角色应用令牌使用限制。

将 AI 助手转化为 API

  • 🔐 助手 API:您创建的任何助手都可以轻松转换为与 OpenAI 兼容的 API。
  • 🔑 密钥管理:用户可以为有权访问的助手创建 API 密钥。
  • 🔏 限流限制:所有 API 密钥都遵循用户的限流限制,确保对模型的公平访问。

使用 GuardRails 管理数据治理

  • 📁 批量护栏:将规则应用于我们批量数据流水线上传的文档。
  • 🏅 流式护栏:LLM 以流式方式交付结果,我们可以在数据流传输时实时应用规则。
  • 👾 提示词注入:我们可以防范提示词注入攻击以及更多威胁。

本地或远程大语言模型

  • 🤖 全面支持在本地或您数据中心运行的开源模型。
  • 🌟 多模型支持:安装和管理任意数量的模型。
  • 👾 轻松切换:在不同聊天模型之间无缝切换,实现多样化交互。
  • ⚙️ 多模型对话:轻松同时与多个模型交互,利用其独特优势获得最佳响应。通过并行利用多样化模型集来增强您的体验。

基于角色的访问控制

  • ⚠️ 可配置 UI:根据您在 IAM 系统中分配给用户的角色,授予或限制他们对某些功能的访问权限。
  • 🚦 带有限制:根据用户的角色应用令牌使用限制。
  • 🎫 完全安全:规则在我们的服务器中应用,并通过 Postgres RLS 再次进行深度防御加固。

数据集成

  • 📤 数百个数据源:通过我们的 Airbyte 集成,您可以从 Sharepoint、NFS、FTP、Kafka 等来源批量上传数据。
  • 📥 批处理:每天或每小时运行一次上传。按您想要的方式设置。
  • 📈 实时处理:实时捕获数据,确保您的模型始终使用最新数据。
  • 🚆 手动上传:用户能够手动上传数据,因此智能体 RAG 流水线可以在几分钟内建立。
  • 🍟 数据集:数据存储在数据集中,我们的安全机制确保数据不会在用户或团队之间泄露。
  • 📚 OCR:我们可以使用 OCR 处理文档,以解锁更多数据。

部署到裸机或云端

  • 🚀 轻松设置:使用 Kubernetes(k3s、Docker Desktop 或云端)无缝安装,获得无忧体验。
  • 🌟 持续更新:我们致力于通过定期更新和新功能来改进 Bionic。

试用

按照我们的指南在生产环境中运行 Bionic。

配置

APP_BASE_URL 环境变量设置为您的 Bionic 服务器的公共 URL。此值用于构建 OAuth2 回调 URL。

架构

flowchart LR
    %% 外部参与者
    User((用户))
    IdP["外部<br/>身份提供商"]
    LLM["LLM 提供商<br/>Ollama / OpenAI / Anthropic"]
    S3["S3 兼容<br/>对象存储"]

    %% Kubernetes 边界
    subgraph K8s["Kubernetes<br/>EKS · AKS · GKE · k3s"]
        direction LR

        %% Ingress 与认证
        Nginx["Nginx 路由器"]
        OAuth2["OAuth2 代理"]

        %% 核心 API
        RustServer["高性能<br/>Rust Web 服务器"]

        %% 引擎
        RAG["高性能<br/>RAG 引擎"]
        DocEngine["Rust 文档<br/>引擎"]

        %% 数据库
        Postgres["Postgres<br/>关系型数据库 & PgVector"]
    end

    %% 请求流
    User --> Nginx --> OAuth2 --> RustServer

    %% 认证流
    OAuth2 --> IdP
    IdP --> OAuth2

    %% 控制与推理
    RustServer --> RAG
    RustServer --> LLM
    RustServer --> Postgres

    %% RAG 编排
    RAG --> Postgres
    RAG --> DocEngine

    %% 对象存储访问
    RustServer --> S3

企业版

为需要更好安全性、用户管理和专业支持的公司提供

与创始人交流

涵盖内容:
- ✅ 集成协助
- ✅ 功能优先级排序
- ✅ 定制集成
- ✅ LTS(长期支持)版本
- ✅ 专业支持
- ✅ 定制 SLA
- ✅ 通过单点登录实现安全访问
- ✅ 连续批处理
- ✅ 数据流水线

支持 / 与创始人交流

可扩展至数千用户

Bionic 经过优化,可在 Kubernetes 上运行,并为潜在数千用户提供生成式 AI 服务。

Alt text

3 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
关于 ·  帮助 ·  PING ·  隐私 ·  条款   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
耗时 29 ms
Developed with Cursor