首页
注册
登录
OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请
登录
OA0
›
代码
›
LocalRAG — 轻量本地文档问答与私有知识库方案
LocalRAG — 轻量本地文档问答与私有知识库方案
frost
·
2026-03-30 11:00:28
· 6 次点击 ·
0
条评论
📚 Local RAG
离线、开源的 RAG 系统
使用开源大语言模型(LLMs)进行检索增强生成(RAG),支持文件内容摄取。整个过程无需依赖第三方服务,确保敏感数据不会离开您的本地网络。
核心特性:
离线嵌入与 LLM 支持
(无需 OpenAI!)
支持多种数据源
本地文件
GitHub 仓库
网站
流式响应
对话记忆
聊天记录导出
了解更多:
应用设置与部署
使用 Local RAG
RAG 处理流程
计划中的功能
故障排除
已知问题与缺陷
相关资源
贡献指南
项目地址:
https://github.com/jonfairbanks/local-rag
6 次点击 ∙ 0 人收藏
登录后收藏
0 条回复
关于
·
帮助
·
PING
·
隐私
·
条款
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
耗时 22 ms
Developed with
Cursor