


















👋 加入我们的 微信、NPU、Lab4AI、LLaMA Factory Online 用户群。
[ English | 中文 ]
微调大语言模型可以像这样简单...
https://github.com/user-attachments/assets/3991a3a8-4276-4d30-9cab-4cb0c4b9b99e
开始本地训练:
- 请参考 使用指南
开始云端训练:
- Colab (免费): https://colab.research.google.com/drive/1eRTPn37ltBbYsISy9Aw2NuI2Aq5CQrD9?usp=sharing
- PAI-DSW (免费试用): https://gallery.pai-ml.com/#/preview/deepLearning/nlp/llama_factory
- LLaMA Factory Online: https://www.llamafactory.com.cn/?utm_source=LLaMA-Factory
- Alaya NeW (云GPU优惠): https://docs.alayanew.com/docs/documents/useGuide/LLaMAFactory/mutiple/?utm_source=LLaMA-Factory
阅读技术笔记:
- 文档 (进行中): https://llamafactory.readthedocs.io/en/latest/
- 文档 (AMD GPU): https://rocm.docs.amd.com/projects/ai-developer-hub/en/latest/notebooks/fine_tune/llama_factory_llama3.html
- 官方博客: https://blog.llamafactory.net/en/
- 官方课程: https://www.lab4ai.cn/course/detail?id=7c13e60f6137474eb40f6fd3983c0f46&utm_source=LLaMA-Factory
[!NOTE]
除上述链接外,其他网站均为未经授权的第三方网站,请谨慎使用。
目录
特性
- 多种模型: LLaMA、LLaVA、Mistral、Mixtral-MoE、Qwen3、Qwen3-VL、DeepSeek、Gemma、GLM、Phi 等。
- 集成方法: (持续) 预训练、(多模态) 监督微调、奖励建模、PPO、DPO、KTO、ORPO 等。
- 可扩展资源: 16位全参数微调、冻结微调、LoRA 以及通过 AQLM/AWQ/GPTQ/LLM.int8/HQQ/EETQ 实现的 2/3/4/5/6/8 位 QLoRA。
- 先进算法: GaLore、BAdam、APOLLO、Adam-mini、Muon、OFT、DoRA、LongLoRA、LLaMA Pro、Mixture-of-Depths、LoRA+、LoftQ 和 PiSSA。
- 实用技巧: FlashAttention-2、Unsloth、Liger Kernel、KTransformers、RoPE 缩放、NEFTune 和 rsLoRA。
- 广泛任务: 多轮对话、工具调用、图像理解、视觉定位、视频识别、音频理解等。
- 实验监控: LlamaBoard、TensorBoard、Wandb、MLflow、SwanLab 等。
- 更快推理: 通过 vLLM worker 或 SGLang worker 提供 OpenAI 风格 API、Gradio UI 和 CLI。
前沿模型微调支持时效
| 支持日期 |
模型名称 |
| Day 0 |
Qwen3 / Qwen2.5-VL / Gemma 3 / GLM-4.1V / InternLM 3 / MiniCPM-o-2.6 |
| Day 1 |
Llama 3 / GLM-4 / Mistral Small / PaliGemma2 / Llama 4 |
博客
[!TIP]
我们现在为 LLaMA Factory 开设了专属博客!
网址: https://blog.llamafactory.net/en/
所有博客
- [使用 LLaMA-Factory 微调 Llama3.1-70B 进行医疗诊断](https://docs.alayanew.com/docs/documents/bestPractice/bigModel/llama70B/?utm_source=LLaMA-Factory) (中文)
- [使用 LLaMA-Factory 微调 Qwen2.5-VL 进行自动驾驶](https://docs.alayanew.com/docs/documents/useGuide/LLaMAFactory/mutiple/?utm_source=LLaMA-Factory) (中文)
- [LLaMA Factory: 微调 DeepSeek-R1-Distill-Qwen-7B 模型用于新闻分类器](https://gallery.pai-ml.com/#/preview/deepLearning/nlp/llama_factory_deepseek_r1_distill_7b) (中文)
- [基于 SageMaker 和 LLaMA-Factory 的一站式免代码模型微调与部署平台](https://aws.amazon.com/cn/blogs/china/a-one-stop-code-free-model-fine-tuning-deployment-platform-based-on-sagemaker-and-llama-factory/) (中文)
- [LLaMA Factory 多模态微调实践:微调 Qwen2-VL 作为个人旅游向导](https://gallery.pai-ml.com/#/preview/deepLearning/nlp/llama_factory_qwen2vl) (中文)
- [LLaMA Factory: 微调 Llama3 进行角色扮演](https://gallery.pai-ml.com/#/preview/deepLearning/nlp/llama_factory) (中文)
更新日志
[25/10/26] 我们通过 mcore_adapter 支持 Megatron-core 训练后端。查看 PR #9237 开始使用。
[25/08/22] 我们支持了 OFT 和 OFTv2。查看 示例 了解用法。
[25/08/20] 我们支持微调 Intern-S1-mini 模型。查看 PR #8976 开始使用。
[25/08/06] 我们支持微调 GPT-OSS 模型。查看 PR #8826 开始使用。
完整更新日志
[25/07/02] 我们支持微调 **[GLM-4.1V-9B-Thinking](https://github.com/THUDM/GLM-4.1V-Thinking)** 模型。
[25/04/28] 我们支持微调 **[Qwen3](https://qwenlm.github.io/blog/qwen3/)** 模型系列。
[25/04/21] 我们支持 **[Muon](https://github.com/KellerJordan/Muon)** 优化器。查看 [示例](examples/README.md) 了解用法。感谢 [@tianshijing](https://github.com/tianshijing) 的 PR。
[25/04/16] 我们支持微调 **[InternVL3](https://huggingface.co/OpenGVLab/InternVL3-8B)** 模型。查看 [PR #7258](https://github.com/hiyouga/LLaMA-Factory/pull/7258) 开始使用。
[25/04/14] 我们支持微调 **[GLM-Z1](https://huggingface.co/THUDM/GLM-Z1-9B-0414)** 和 **[Kimi-VL](https://huggingface.co/moonshotai/Kimi-VL-A3B-Instruct)** 模型。
[25/04/06] 我们支持微调 **[Llama 4](https://ai.meta.com/blog/llama-4-multimodal-intelligence/)** 模型。查看 [PR #7611](https://github.com/hiyouga/LLaMA-Factory/pull/7611) 开始使用。
[25/03/31] 我们支持微调 **[Qwen2.5 Omni](https://qwenlm.github.io/blog/qwen2.5-omni/)** 模型。查看 [