CodeFuse-ChatBot:基于私有知识增强的智能助手
CodeFuse-ChatBot 是蚂蚁集团 CodeFuse 团队开发的开源 AI 智能助手,旨在简化和优化软件开发生命周期的各个环节。项目结合了多智能体(Multi-Agent)协同调度机制,并集成了丰富的工具库、代码库、知识库和沙盒环境,使大语言模型(LLM)能够在 DevOps 领域高效执行和处理复杂任务。
💡 本项目旨在通过检索增强生成(RAG)、工具学习(Tool Learning)和沙盒环境,构建覆盖软件设计、编码、测试、部署和运维全生命周期的 AI 智能助手。推动开发运维模式从传统分散的资料查询和平台操作,向基于大模型问答的智能化模式转变,改变人们的开发运维习惯。
本项目核心差异技术与功能点:
- 🧠 智能调度核心: 构建了链路完善的调度核心,支持多模式一键配置,简化操作流程。使用说明
- 💻 代码整库分析: 实现了仓库级的代码深度理解,以及项目文件级的代码编写与生成,提升开发效率。
- 📄 文档分析增强: 融合文档知识库与知识图谱,通过检索和推理增强,为文档分析提供更深层次支持。
- 🔧 垂类专属知识: 为 DevOps 领域定制的专属知识库,支持垂类知识库的自助一键构建,便捷实用。
- 🤖 垂类模型兼容: 针对 DevOps 领域的小型模型,保证与相关平台的兼容性,促进技术生态整合。
🌍 依托开源 LLM 与 Embedding 模型,本项目可实现基于开源模型的离线私有部署。同时,也支持 OpenAI API 的调用。接入 Demo
👥 核心研发团队长期专注于 AIOps + NLP 领域的研究。我们发起了 Codefuse-ai 项目,希望广泛汇集高质量的开发和运维文档,共同完善这套解决方案,以实现“让天下没有难做的开发”的目标。
为帮助您更直观地了解 Codefuse-ChatBot 的功能和使用方法,我们录制了一系列演示视频。您可以通过观看这些视频,快速了解本项目的主要特性和操作流程。
具体实现明细见:技术路线明细
项目计划跟进见:Projects
如果您需要集成特定的模型,请通过提交 issue 来告知我们您的需求。
| model_name | model_size | gpu_memory | quantize | HFhub | ModelScope |
|---|---|---|---|---|---|
| chatgpt | - | - | - | - | - |
| codellama-34b-int4 | 34b | 20g | int4 | coming soon | link |
完整文档见:CodeFuse-muAgent
pip install codefuse-muagent
请自行安装 NVIDIA 驱动程序。本项目已在 Python 3.9.18、CUDA 11.7 环境下,于 Windows 及 X86 架构的 macOS 系统中完成测试。
Docker 安装、私有化 LLM 接入及相关启动问题见:快速使用明细
对于 Apple Silicon(苹果 M 系列芯片),您可能需要首先通过 brew install qpdf 安装依赖。
# 准备 conda 环境
conda create --name devopsgpt python=3.9
conda activate devopsgpt
cd codefuse-chatbot
# python=3.9,notebook 用最新即可;python=3.8 用 notebook=6.5.6
pip install -r requirements.txt
# 完成 server_config.py 配置后,可一键启动
cd examples
bash start.sh
# 开始在页面进行相关配置,然后打开`启动对话服务`即可
或者通过 start.py 进行启动(老版启动方式)
更多 LLM 接入方法见更多细节...
非常感谢您对 Codefuse 项目感兴趣,我们非常欢迎您对 Codefuse 项目的各种建议、意见(包括批评)、评论和贡献。
您对 Codefuse 的各种建议、意见、评论可以直接通过 GitHub 的 Issues 提出。
参与 Codefuse 项目并为其作出贡献的方法有很多:代码实现、测试编写、流程工具改进、文档完善等等。任何贡献我们都会非常欢迎,并将您加入贡献者列表。详见贡献指南...
本项目基于 langchain-chatchat 和 codebox-api,在此深深感谢他们的开源贡献!