Bionic
Bionic 是 ChatGPT 的本地化替代方案,在提供生成式 AI 优势的同时,确保严格的数据保密性。
Bionic 可以在您的笔记本电脑上运行,也可以扩展到数据中心部署。

数秒内本地运行生成式 AI
尝试我们的 Docker Compose 安装方式。非常适合在本地运行 AI 以及进行小型试点。
熟悉的聊天体验
- 🖥️ 直观界面:我们的聊天界面借鉴了 ChatGPT,确保用户友好的体验。
- 🌈 主题自定义:Bionic 的主题完全可定制,允许您按喜好进行品牌化。
- ⚡ 超快 UI:享受我们基于 Rust 的 UI 带来的快速响应性能。
- 📜 聊天历史:轻松访问和管理您的对话历史。
AI 助手(检索增强生成)
- 🤖 AI 助手:用户可以创建与自有数据协同工作的助手,以增强 AI 能力。
- 🗨️ 与团队成员共享助手:在用户之间无缝生成和共享助手,增强协作与沟通。
- 📋 智能体 RAG 流水线:助手是完整的企业级智能体 RAG 流水线,可在几分钟内启动。
- 📑 支持任意文档:80% 的企业数据存在于难以使用的格式中,如 HTML、PDF、CSV、PNG、PPTX 等。我们支持所有这些格式。
- 💾 无需代码:通过我们的 UI 即可配置嵌入引擎和分块算法。
- 🗨️ 系统提示词:配置系统提示词,让 LLM 以您期望的方式回复。
团队管理
- 👫 团队:您的公司由人员团队组成,Bionic 利用此设置实现最大效果。
- 👫 邀请团队成员:团队可以在受控环境中自我管理。
- 🙋 管理团队:通过您的 SSO 系统管理谁可以访问 Bionic。
- 👬 虚拟团队:在团队内创建子团队。
- 🚠 切换团队:在团队之间切换,同时保持数据隔离。
- 🚓 基于角色的访问控制:使用您的 SSO 系统配置用户可访问的功能。
深度防御安全
- 👮 SAST:静态应用程序安全测试 - 我们的 CI/CD 流水线运行 SAST,以便在代码构建前识别风险。
- 📢 授权 RLS:我们在 Postgres 中使用行级安全策略作为另一道检查,确保数据不会在未授权用户之间泄露。
- 🚔 CSP:我们的内容安全策略处于最高级别,可阻止各种安全威胁。
- 🐳 最小化容器:我们尽可能从 Scratch 构建容器,以限制供应链攻击。
- ⏳ 非 root 容器:我们以非 root 身份运行容器,以限制攻击期间的横向移动。
- 👮 审计追踪:查看谁在何时做了什么。
- ⏰ Postgres 角色:我们为 Postgres 连接运行最低权限级别。
- 📣 SIEM 集成:与您的 SIEM 系统集成,进行威胁检测和调查。
- ⌛ 抵抗时序攻击(API 密钥):即将推出。
- 📭 SSO:我们没有构建自己的身份验证,而是使用行业领先且安全的开源 IAM 系统。
可观测性与报告
- 📈 可观测性 API:兼容 Prometheus,用于测量负载和使用情况。
- 🤖 仪表板:使用 Grafana 创建仪表板,全面了解您的系统。
- 📚 监控聊天:所有问题和响应都会被记录并可在 Postgres 数据库中查询。
令牌使用限制与控制
- 📈 公平共享资源:没有令牌限制,您的模型很容易过载。
- 🔒 反向代理:所有模型都受到我们的反向代理保护,允许您设置限制并确保用户间的公平使用。
- 👮 基于角色:根据用户在 IAM 系统中的角色应用令牌使用限制。
将 AI 助手转化为 API
- 🔐 助手 API:您创建的任何助手都可以轻松转换为与 OpenAI 兼容的 API。
- 🔑 密钥管理:用户可以为有权访问的助手创建 API 密钥。
- 🔏 限流限制:所有 API 密钥都遵循用户的限流限制,确保对模型的公平访问。
使用 GuardRails 管理数据治理
- 📁 批量护栏:将规则应用于我们批量数据流水线上传的文档。
- 🏅 流式护栏:LLM 以流式方式交付结果,我们可以在数据流传输时实时应用规则。
- 👾 提示词注入:我们可以防范提示词注入攻击以及更多威胁。
本地或远程大语言模型
- 🤖 全面支持在本地或您数据中心运行的开源模型。
- 🌟 多模型支持:安装和管理任意数量的模型。
- 👾 轻松切换:在不同聊天模型之间无缝切换,实现多样化交互。
- ⚙️ 多模型对话:轻松同时与多个模型交互,利用其独特优势获得最佳响应。通过并行利用多样化模型集来增强您的体验。
基于角色的访问控制
- ⚠️ 可配置 UI:根据您在 IAM 系统中分配给用户的角色,授予或限制他们对某些功能的访问权限。
- 🚦 带有限制:根据用户的角色应用令牌使用限制。
- 🎫 完全安全:规则在我们的服务器中应用,并通过 Postgres RLS 再次进行深度防御加固。
数据集成
- 📤 数百个数据源:通过我们的 Airbyte 集成,您可以从 Sharepoint、NFS、FTP、Kafka 等来源批量上传数据。
- 📥 批处理:每天或每小时运行一次上传。按您想要的方式设置。
- 📈 实时处理:实时捕获数据,确保您的模型始终使用最新数据。
- 🚆 手动上传:用户能够手动上传数据,因此智能体 RAG 流水线可以在几分钟内建立。
- 🍟 数据集:数据存储在数据集中,我们的安全机制确保数据不会在用户或团队之间泄露。
- 📚 OCR:我们可以使用 OCR 处理文档,以解锁更多数据。
部署到裸机或云端
- 🚀 轻松设置:使用 Kubernetes(k3s、Docker Desktop 或云端)无缝安装,获得无忧体验。
- 🌟 持续更新:我们致力于通过定期更新和新功能来改进 Bionic。
试用
按照我们的指南在生产环境中运行 Bionic。
配置
将 APP_BASE_URL 环境变量设置为您的 Bionic 服务器的公共 URL。此值用于构建 OAuth2 回调 URL。
架构
flowchart LR
%% 外部参与者
User((用户))
IdP["外部<br/>身份提供商"]
LLM["LLM 提供商<br/>Ollama / OpenAI / Anthropic"]
S3["S3 兼容<br/>对象存储"]
%% Kubernetes 边界
subgraph K8s["Kubernetes<br/>EKS · AKS · GKE · k3s"]
direction LR
%% Ingress 与认证
Nginx["Nginx 路由器"]
OAuth2["OAuth2 代理"]
%% 核心 API
RustServer["高性能<br/>Rust Web 服务器"]
%% 引擎
RAG["高性能<br/>RAG 引擎"]
DocEngine["Rust 文档<br/>引擎"]
%% 数据库
Postgres["Postgres<br/>关系型数据库 & PgVector"]
end
%% 请求流
User --> Nginx --> OAuth2 --> RustServer
%% 认证流
OAuth2 --> IdP
IdP --> OAuth2
%% 控制与推理
RustServer --> RAG
RustServer --> LLM
RustServer --> Postgres
%% RAG 编排
RAG --> Postgres
RAG --> DocEngine
%% 对象存储访问
RustServer --> S3
企业版
为需要更好安全性、用户管理和专业支持的公司提供
与创始人交流
涵盖内容:
- ✅ 集成协助
- ✅ 功能优先级排序
- ✅ 定制集成
- ✅ LTS(长期支持)版本
- ✅ 专业支持
- ✅ 定制 SLA
- ✅ 通过单点登录实现安全访问
- ✅ 连续批处理
- ✅ 数据流水线
支持 / 与创始人交流
可扩展至数千用户
Bionic 经过优化,可在 Kubernetes 上运行,并为潜在数千用户提供生成式 AI 服务。
