大模型微调指南之 LLaMA-Factory 篇:一键启动LLaMA系列模型高效微调

发布于:2025-05-10 ⋅ 阅读:(17) ⋅ 点赞:(0)

一、简介

LLaMA-Factory 是一个用于训练和微调模型的工具。它支持全参数微调、LoRA 微调、QLoRA 微调、模型评估、模型推理和模型导出等功能。

二、如何安装

2.1 安装

# 构建虚拟环境
conda create -n llamafactory python=3.10 -y && conda activate llamafactory
# 下载仓库
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
# 安装
pip install -e .

2.2 校验

llamafactory-cli version

三、开始使用

3.1 可视化界面

# 启动可视化界面
llamafactory-cli webui

webUI
WebUI 主要分为四个界面:训练、评估与预测、对话、导出。

  • 训练:
    • 在开始训练模型之前,您需要指定的参数有:
    • 模型名称及路径
    • 训练阶段
    • 微调方法
    • 训练数据集
    • 学习率、训练轮数等训练参数
    • 微调参数等其他参数
    • 输出目录及配置路径

随后,点击 开始 按钮开始训练模型。

备注:
关于断点重连:适配器断点保存于 output_dir 目录下,请指定 检查点路径 以加载断点继续训练。
如果需要使用自定义数据集,需要在 data/data_info.json 中添加自定义数据集描述并确保 数据集格式 正确,否则可能会导致训练失败。

  • 评估预测

    • 模型训练完毕后,可以通过在评估与预测界面通过指定 模型检查点路径 在指定数据集上进行评估。
  • 对话

    • 通过在对话界面指定 模型检查点路径推理引擎 后输入对话内容与模型进行对话观察效果。
  • 导出

    • 如果对模型效果满意并需要导出模型,您可以在导出界面通过指定 模型检查点路径分块大小导出量化等级校准数据集导出设备导出目录 等参数后点击 导出 按钮导出模型。

3.2 使用命令行

3.2.1 模型微调训练

examples/train_lora 目录下有多个LoRA微调示例,以 llama3_lora_sft.yaml 为例,命令如下:

llamafactory-cli train examples/train_lora/llama3_lora_sft.yaml

备注:
LLaMA-Factory 默认使用所有可见的计算设备。根据需求可通过 CUDA_VISIBLE_DEVICESASCEND_RT_VISIBLE_DEVICES 指定计算设备。

参数说明:

名称 描述
model_name_or_path 模型名称或路径(指定本地路径,或从 huggingface 上下载)
stage 训练阶段,可选: rm(reward modeling), pt(pretrain), sft(Supervised Fine-Tuning), PPO, DPO, KTO, ORPO
do_train true用于训练, false用于评估
finetuning_type 微调方式。可选: freeze, lora, full
lora_target 采取LoRA方法的目标模块,默认值为 all。
dataset 使用的数据集,使用”,”分隔多个数据集
template 数据集模板,请保证数据集模板与模型相对应。
output_dir 输出路径
logging_steps 日志输出步数间隔
save_steps 模型断点保存间隔
overwrite_output_dir 是否允许覆盖输出目录
per_device_train_batch_size 每个设备上训练的批次大小
gradient_accumulation_steps 梯度积累步数
max_grad_norm 梯度裁剪阈值
learning_rate 学习率
lr_scheduler_type 学习率曲线,可选 linear, cosine, polynomial, constant 等。
num_train_epochs 训练周期数
bf16 是否使用 bf16 格式
warmup_ratio 学习率预热比例
warmup_steps 学习率预热步数
push_to_hub 是否推送模型到 Huggingface

目录说明:

  • examples/train_full:包含多个全参数微调示例。
  • examples/train_lora:包含多个LoRA微调示例。
  • examples/train_qlora:包含多个QLoRA微调示例。
3.2.2 模型合并

examples/merge_lora 目录下有多个模型合并示例,以 llama3_lora_sft.yaml 为例,命令如下:

llamafactory-cli export examples/merge_lora/llama3_lora_sft.yaml

adapter_name_or_path 需要与微调中的适配器输出路径 output_dir 相对应。
export_quantization_bit 为导出模型量化等级,可选 2, 3, 4, 8。

目录说明:

  • examples/merge_lora:包含多个LoRA合并示例。
3.2.3 模型推理

examples/inference 目录下有多个模型推理示例,以 llama3_lora_sft.yaml 为例,命令如下:

llamafactory-cli chat examples/inference/llama3_lora_sft.yaml

参数说明:

名称 描述
model_name_or_path 模型名称或路径(指定本地路径,或从HuggingFace Hub下载)
adapter_name_or_path 适配器检查点路径(用于LoRA等微调方法的预训练适配器)
template 对话模板(需与模型架构匹配,如LLaMA-2、ChatGLM等专用模板)
infer_backend 推理引擎(可选:vllm、transformers、lightllm等)
3.2.4 模型评估
  1. 通用能力评估

    llamafactory-cli eval examples/train_lora/llama3_lora_eval.yaml
    
  2. NLG 评估

    llamafactory-cli train examples/extras/nlg_eval/llama3_lora_predict.yaml
    

    获得模型的 BLEUROUGE 分数以评价模型生成质量。

  3. 评估相关参数

参数名称 类型 描述 默认值 可选值/备注
task str 评估任务名称 - mmlu_test, ceval_validation, cmmlu_test
task_dir str 评估数据集存储目录 “evaluation” 相对或绝对路径
batch_size int 每个GPU的评估批次大小 4 根据显存调整
seed int 随机种子(保证可复现性) 42 -
lang str 评估语言 “en” en(英文), zh(中文)
n_shot int Few-shot学习使用的示例数量 5 0表示zero-shot
save_dir str 评估结果保存路径 None None时不保存
download_mode str 数据集下载模式 DownloadMode.REUSE_DATASET_IF_EXISTS 存在则复用,否则下载

四、高级功能

4.1 分布训练

LLaMA-Factory 支持 单机多卡多机多卡 分布式训练。同时也支持 DDP , DeepSpeedFSDP 三种分布式引擎。

  • DDP (DistributedDataParallel) 通过实现模型并行和数据并行实现训练加速。 使用 DDP 的程序需要生成多个进程并且为每个进程创建一个 DDP 实例,他们之间通过 torch.distributed 库同步。
  • DeepSpeed 是微软开发的分布式训练引擎,并提供 ZeRO(Zero Redundancy Optimizer)offloadSparse Attention1 bit Adam流水线并行 等优化技术。
  • FSDP 通过全切片数据并行技术(Fully Sharded Data Parallel)来处理更多更大的模型。在 DDP 中,每张 GPU 都各自保留了一份完整的模型参数和优化器参数。而 FSDP 切分了模型参数、梯度与优化器参数,使得每张 GPU 只保留这些参数的一部分。 除了并行技术之外,FSDP 还支持将模型参数卸载至CPU,从而进一步降低显存需求。
引擎 数据切分 模型切分 优化器切分 参数卸载
DDP 支持 不支持 不支持 不支持
DeepSpeed 支持 支持 支持 支持
FSDP 支持 支持 支持 支持

4.2 DeepSpeed

由于 DeepSpeed 的显存优化技术,使得 DeepSpeed 在显存占用上具有明显优势,因此推荐使用 DeepSpeed 进行训练。
DeepSpeed 是由微软开发的一个开源深度学习优化库,旨在提高大模型训练的效率和速度。在使用 DeepSpeed 之前,您需要先估计训练任务的显存大小,再根据任务需求与资源情况选择合适的 ZeRO 阶段。

  • ZeRO-1: 仅划分优化器参数,每个GPU各有一份完整的模型参数与梯度。
  • ZeRO-2: 划分优化器参数与梯度,每个GPU各有一份完整的模型参数。
  • ZeRO-3: 划分优化器参数、梯度与模型参数。
    简单来说:从 ZeRO-1ZeRO-3,阶段数越高,显存需求越小,但是训练速度也依次变慢。此外,设置 offload_param=cpu 参数会大幅减小显存需求,但会极大地使训练速度减慢。因此,如果您有足够的显存, 应当使用 ZeRO-1,并且确保 offload_param=none
4.2.1 单机多卡

启动 DeepSpeed 引擎,命令如下:

FORCE_TORCHRUN=1 llamafactory-cli train examples/train_full/llama3_full_sft_ds3.yaml

该配置文件中配置了 deepspeed 参数,具体如下:

deepspeed: examples/deepspeed/ds_z3_config.json
4.2.2 多机多卡
FORCE_TORCHRUN=1 NNODES=2 NODE_RANK=0 MASTER_ADDR=192.168.0.1 MASTER_PORT=29500 llamafactory-cli train examples/train_lora/llama3_lora_sft_ds3.yaml
FORCE_TORCHRUN=1 NNODES=2 NODE_RANK=1 MASTER_ADDR=192.168.0.1 MASTER_PORT=29500 llamafactory-cli train examples/train_lora/llama3_lora_sft_ds3.yaml

备注

  • 关于hostfile:
    hostfile的每一行指定一个节点,每行的格式为 slots=<num_slots> , 其中 是节点的主机名, <num_slots> 是该节点上的GPU数量。下面是一个例子:

    worker-1 slots=4
    worker-2 slots=4
    

    请在 https://www.deepspeed.ai/getting-started/ 了解更多。

  • 如果没有指定 hostfile 变量, DeepSpeed 会搜索 /job/hostfile 文件。如果仍未找到,那么 DeepSpeed 会使用本机上所有可用的GPU。

五、日志分析

在训练过程中,LLaMA-Factory 会输出详细的日志信息,包括训练进度、训练参数、训练时间等。这些日志信息可以帮助我们更好地了解训练过程,并针对问题进行优化和调整。以下解释训练时的一些参数:

[INFO|trainer.py:2409] 2025-04-01 15:49:20,010 >> ***** Running training *****
[INFO|trainer.py:2410] 2025-04-01 15:49:20,010 >>   Num examples = 205
[INFO|trainer.py:2411] 2025-04-01 15:49:20,010 >>   Num Epochs = 1,000
[INFO|trainer.py:2412] 2025-04-01 15:49:20,010 >>   Instantaneous batch size per device = 8
[INFO|trainer.py:2415] 2025-04-01 15:49:20,010 >>   Total train batch size (w. parallel, distributed & accumulation) = 64
[INFO|trainer.py:2416] 2025-04-01 15:49:20,010 >>   Gradient Accumulation steps = 8
[INFO|trainer.py:2417] 2025-04-01 15:49:20,010 >>   Total optimization steps = 3,000
[INFO|trainer.py:2418] 2025-04-01 15:49:20,013 >>   Number of trainable parameters = 73,859,072

参数解释:

  1. 单设备批大小(Instantaneous batch size per device)

    • 指单个 GPU(或设备)在每次前向传播时处理的样本数量。
    • 例如,如果 instantaneous_batch_size_per_device=8,则每个 GPU 一次处理 8 条数据。
  2. 设备数(Number of devices)

    • 指并行训练的 GPU 数量(数据并行)。
    • 例如,使用 4 个 GPU 时,device_num=4
  3. 梯度累积步数(Gradient accumulation steps)

    • 由于显存限制,可能无法直接增大单设备批大小,因此通过多次前向传播累积梯度,再一次性更新参数。通过梯度累积,用较小的单设备批大小模拟大总批大小的训练效果。
    • 例如,若 gradient_accumulation_steps=2,则每 2 次前向传播后才执行一次参数更新。
  4. 总批大小(Total train batch size)

    • 参数更新时实际使用的全局批量大小。总批大小越大,梯度估计越稳定,但需调整学习率(通常按比例增大)

在 LLaMA Factory 中,总批大小(Total train batch size)单设备批大小(Instantaneous batch size per device)设备数(Number of devices)梯度累积步数(Gradient accumulation steps) 的关系可以用以下公式表示:

[
\text{总批大小} = \text{单设备批大小} \times \text{设备数} \times \text{梯度累积步数}
]

例如:

  • 单设备批大小 = 8
  • 设备数 = 4
  • 梯度累积步数 = 2
  • 则总批大小 = ( 8 \times 4 \times 2 = 64 )。

参考资料:
- Github
- README_zh.md
- 数据集文档
- 说明文档


网站公告

今日签到

点亮在社区的每一天
去签到