OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
OA0  ›  代码  ›  CodeFuse — 企业级 AI 编程平台

CodeFuse — 企业级 AI 编程平台

 
  evolvex ·  2025-12-19 17:18:29 · 12 次点击  · 0 条评论  

CodeFuse 项目索引

[**简体中文**](./README_CN.md)|[**HuggingFace**](https://huggingface.co/codefuse-ai)|[**ModelScope**](https://modelscope.cn/organization/codefuse-ai)

关于本仓库

本仓库列出了 CodeFuse 的关键项目及相关演示。

关于 CodeFuse

CodeFuse 致力于开发代码大语言模型(Code LLMs),以支持和增强全生命周期的 AI 原生软件开发,涵盖设计需求、编码、测试、构建、部署、运维和洞察分析等关键阶段。以下是 CodeFuse 的整体框架。


发布更新

** 2024.08 ** codefuse-ide: 发布基于 opensumi&CodeBlitz 的代码 IDE;CGE : 发布用于代码搜索的 D2Coder-v1 嵌入模型

** 2024.07 ** D2LLM : 发布用于代码搜索的 D2Coder-v1 嵌入模型;RepoFuse : 发布融合双重上下文的仓库级代码补全模型

** 2024.06 ** 发布 Codefuse-ai 页面D2LLM 发布用于语义搜索的分解与蒸馏大语言模型功能,MFTCoder 发布 V0.4.2。更多详情见 发布与后续计划

** 2024.05 ** ModelCache 发布 v0.2.1,支持多模态,详见 CodeFuse-ModelCache。DevOps-Model 支持函数调用,详见 CodeFuse-DevOps-Model。更多详情见 发布与后续计划

** 2024.04 ** CodeFuse-muAgent:一个多智能体框架,更多详情见 发布与后续计划

CodeFuse 项目仓库列表

我们根据上述生命周期阶段列出相关仓库。
| 生命周期阶段 | 项目仓库| 仓库描述 | 路线图 |
|:------------------------:|:-----------------:|:-------:|:------------------:|
| 需求与设计 |MFT-VLM | 面向视觉语言任务的指令微调 | |
| 编码 |MFTCoder | 指令微调框架 | |
| |FastTransformer4CodeFuse | 基于 FasterTransformer 的推理引擎 | |
| |CodeFuse-Eval|CodeFuse 评估套件 | |
| 测试与构建 |TestAgent | TestGPT 演示前端 | |
| 运维 (DevOps) |DevOps-Eval|DevOps 基准测试| | |
| |DevOps-Model |DevOps 模型索引| |
| 数据洞察 | 暂无 | 暂无 | |
| 基础组件 |ChatBot |CodeFuse 通用聊天机器人前端 | |
| |muAgent | 多智能体框架 | |
| |ModelCache |用于 LLM 服务的语义缓存 | |
| |CodeFuse-Query|基于查询的代码分析引擎 | |
| 其他 |CoCA|共线性注意力机制 | |
| |Awesine-Code-LLM|代码大语言模型综述| |
| |本仓库 |CodeFuse 项目总览与索引| |

CodeFuse 主要发布模型列表

模型名称 简要描述 模型链接
CodeFuse-13B 由 CodeFuse 从头训练 HF ; MS
CodeFuse-CodeLLaMA-34B 基于 CodeLLaMA-34B 微调 HF ; MS
** CodeFuse-CodeLLaMA-34B-4bits 4位量化 34B 模型 HF ; MS
CodeFuse-DeepSeek-33B 基于 DeepSeek-Coder-33b 微调 HF ; MS
** CodeFuse-DeepSeek-33B-4bits 4位量化 33B 模型 HF ; MS
CodeFuse-VLM-14B 先进的视觉语言模型 HF ; MS

** -- 推荐模型;

演示

  • 视频演示:中文版如下,英文版正在准备中。

https://user-images.githubusercontent.com/103973989/267514150-21012a5d-652d-4aea-bcea-582e67855ad7.mp4

在线演示截图

如何获取

  • HuggingFace.
  • ModelScope.
  • WiseModel.
  • 如果您想训练或微调自己的模型,可以尝试我们的 MFTCoder,它支持多任务、多模型、多训练框架场景下的高效微调。

引用

关于 CodeFuse 的更多技术细节,请参阅我们的论文 MFTCoder

如果您觉得我们的工作对您的研究或开发有帮助,请引用我们的论文。

@article{mftcoder2023,
      title={MFTCoder: Boosting Code LLMs with Multitask Fine-Tuning},
      author={Bingchang Liu and Chaoyu Chen and Cong Liao and Zi Gong and Huan Wang and Zhichao Lei and Ming Liang and Dajun Chen and Min Shen and Hailian Zhou and Hang Yu and Jianguo Li},
      year={2023},
      journal={arXiv preprint arXiv},
      archivePrefix={arXiv},
      eprint={2311.02303}
}
12 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
关于 ·  帮助 ·  PING ·  隐私政策 ·  服务条款   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
耗时 18 ms
Developed with Cursor