本仓库列出了 CodeFuse 的关键项目及相关演示。
CodeFuse 致力于开发代码大语言模型(Code LLMs),以支持和增强全生命周期的 AI 原生软件开发,涵盖设计需求、编码、测试、构建、部署、运维和洞察分析等关键阶段。以下是 CodeFuse 的整体框架。
** 2024.08 ** codefuse-ide: 发布基于 opensumi&CodeBlitz 的代码 IDE;CGE : 发布用于代码搜索的 D2Coder-v1 嵌入模型
** 2024.07 ** D2LLM : 发布用于代码搜索的 D2Coder-v1 嵌入模型;RepoFuse : 发布融合双重上下文的仓库级代码补全模型
** 2024.06 ** 发布 Codefuse-ai 页面,D2LLM 发布用于语义搜索的分解与蒸馏大语言模型功能,MFTCoder 发布 V0.4.2。更多详情见 发布与后续计划
** 2024.05 ** ModelCache 发布 v0.2.1,支持多模态,详见 CodeFuse-ModelCache。DevOps-Model 支持函数调用,详见 CodeFuse-DevOps-Model。更多详情见 发布与后续计划
** 2024.04 ** CodeFuse-muAgent:一个多智能体框架,更多详情见 发布与后续计划
我们根据上述生命周期阶段列出相关仓库。
| 生命周期阶段 | 项目仓库| 仓库描述 | 路线图 |
|:------------------------:|:-----------------:|:-------:|:------------------:|
| 需求与设计 |MFT-VLM | 面向视觉语言任务的指令微调 | |
| 编码 |MFTCoder | 指令微调框架 | |
| |FastTransformer4CodeFuse | 基于 FasterTransformer 的推理引擎 | |
| |CodeFuse-Eval|CodeFuse 评估套件 | |
| 测试与构建 |TestAgent | TestGPT 演示前端 | |
| 运维 (DevOps) |DevOps-Eval|DevOps 基准测试| | |
| |DevOps-Model |DevOps 模型索引| |
| 数据洞察 | 暂无 | 暂无 | |
| 基础组件 |ChatBot |CodeFuse 通用聊天机器人前端 | |
| |muAgent | 多智能体框架 | |
| |ModelCache |用于 LLM 服务的语义缓存 | |
| |CodeFuse-Query|基于查询的代码分析引擎 | |
| 其他 |CoCA|共线性注意力机制 | |
| |Awesine-Code-LLM|代码大语言模型综述| |
| |本仓库 |CodeFuse 项目总览与索引| |
| 模型名称 | 简要描述 | 模型链接 |
|---|---|---|
| CodeFuse-13B | 由 CodeFuse 从头训练 | HF ; MS |
| CodeFuse-CodeLLaMA-34B | 基于 CodeLLaMA-34B 微调 | HF ; MS |
| ** CodeFuse-CodeLLaMA-34B-4bits | 4位量化 34B 模型 | HF ; MS |
| CodeFuse-DeepSeek-33B | 基于 DeepSeek-Coder-33b 微调 | HF ; MS |
| ** CodeFuse-DeepSeek-33B-4bits | 4位量化 33B 模型 | HF ; MS |
| CodeFuse-VLM-14B | 先进的视觉语言模型 | HF ; MS |
** -- 推荐模型;
https://user-images.githubusercontent.com/103973989/267514150-21012a5d-652d-4aea-bcea-582e67855ad7.mp4

关于 CodeFuse 的更多技术细节,请参阅我们的论文 MFTCoder。
如果您觉得我们的工作对您的研究或开发有帮助,请引用我们的论文。
@article{mftcoder2023,
title={MFTCoder: Boosting Code LLMs with Multitask Fine-Tuning},
author={Bingchang Liu and Chaoyu Chen and Cong Liao and Zi Gong and Huan Wang and Zhichao Lei and Ming Liang and Dajun Chen and Min Shen and Hailian Zhou and Hang Yu and Jianguo Li},
year={2023},
journal={arXiv preprint arXiv},
archivePrefix={arXiv},
eprint={2311.02303}
}