首页
/ LLaMA-Factory项目中LoRA训练与模型合并的关键问题解析

LLaMA-Factory项目中LoRA训练与模型合并的关键问题解析

2025-05-01 12:45:57作者:谭伦延

在LLaMA-Factory项目的最新版本0.9.3.dev0中,用户在进行Qwen2.5-VL-7B-Instruct模型的LoRA微调时遇到了一个典型问题:当配置文件中指定了additional_target: "embed_tokens,lm_head"参数后,训练过程中这些额外的目标模块(embed_tokens和lm_head)未能正确保存,导致后续模型合并阶段出现张量形状不匹配的错误。

问题现象

用户在训练配置中明确指定了需要额外保存embed_tokens和lm_head模块,但在实际训练完成后,检查点文件中这些模块的参数被保存为形状torch.Size([0])的空张量,而非预期的torch.Size([152064, 3584])。当尝试将LoRA适配器合并回基础模型时,系统报错显示无法将空张量与模型中的实际参数形状匹配。

问题根源

经过分析,这一问题与Peft库的特定版本(0.15.0)存在关联。Peft库在处理modules_to_save机制时存在缺陷,导致在保存检查点时无法正确序列化这些额外目标模块的参数。特别是在处理词汇表调整(resize_vocab)和新增特殊令牌(new_special_tokens)的情况下,这一问题表现得尤为明显。

解决方案

要解决这一问题,需要采取以下步骤:

  1. 将Peft库升级至0.15.1版本,该版本修复了相关缺陷
  2. 确保LLaMA-Factory项目代码为最新main分支版本
  3. 使用可编辑模式安装项目(pip install -e .),便于后续更新
  4. 重新进行模型训练,确保所有目标模块都能正确保存

最佳实践建议

在进行类似LoRA微调任务时,建议用户:

  1. 始终使用项目的最新稳定版本和配套库的最新兼容版本
  2. 在训练前仔细检查adapter_config.json文件,确认所有目标模块已正确配置
  3. 对于涉及词汇表修改的任务,确保resize_vocab参数已正确设置
  4. 训练完成后,立即验证检查点文件中关键模块的参数形状是否符合预期

这一问题的解决不仅修复了当前的功能缺陷,也为LLaMA-Factory项目中类似结构的模型微调任务提供了可靠的技术保障。

登录后查看全文
热门项目推荐
相关项目推荐