一个免费开源的大语言模型微调框架
quantize_moe_experts: true),可在训练 MoE 模型时大幅降低 VRAM 使用(兼容 FSDP2)。Axolotl 是一个免费开源的工具,旨在简化最新大语言模型(LLM)的后训练和微调流程。
特性:
要求:
bf16 和 Flash Attention)或 AMD GPUpip3 install -U packaging==26.0 setuptools==75.8.0 wheel ninja
pip3 install --no-build-isolation axolotl[flash-attn,deepspeed]
# 下载示例 axolotl 配置和 deepspeed 配置
axolotl fetch examples
axolotl fetch deepspeed_configs # 可选
使用 Docker 安装比在自有环境中安装更不易出错。
docker run --gpus '"all"' --rm -it axolotlai/axolotl:main-latest
其他安装方法详见此处。