首页
/ LLaMA-Factory项目训练中断恢复问题分析与解决方案

LLaMA-Factory项目训练中断恢复问题分析与解决方案

2025-05-01 09:12:36作者:裘晴惠Vivianne

问题背景

在使用LLaMA-Factory进行监督微调(SFT)训练时,当训练过程中断后尝试从检查点(checkpoint)恢复训练时,系统会抛出与PyTorch权重加载相关的错误。该问题表现为无法正确加载训练状态,导致恢复训练失败。

错误现象

系统会抛出以下关键错误信息:

_pickle.UnpicklingError: Weights only load failed...
Unsupported global: GLOBAL numpy.ndarray was not an allowed global by default...

该错误表明PyTorch在尝试以安全模式(weights_only=True)加载检查点文件时,遇到了不被允许的全局对象numpy.ndarray。

问题根源

经过分析,该问题与以下几个因素相关:

  1. PyTorch版本的安全加载机制:新版本PyTorch(2.4+)默认启用了更严格的权重加载安全检查
  2. Transformers库与PyTorch的兼容性问题:某些训练状态保存的格式不符合PyTorch的安全加载要求
  3. NumPy数组的序列化问题:检查点中包含了NumPy数组,但未被显式允许

解决方案

临时解决方案

  1. 降级PyTorch版本:可以尝试降级到PyTorch 2.4或更早版本

    • 但测试表明,即使在PyTorch 2.4.1下问题仍然存在
  2. 修改加载方式:在信任检查点来源的情况下,可以修改代码以非安全模式加载权重

    • 需要修改Transformers库中的相关代码

推荐解决方案

  1. 更新Transformers库:安装包含相关修复的最新版Transformers

    • 该修复专门处理了训练状态恢复时的安全加载问题
  2. 等待官方更新:LLaMA-Factory项目可能会在后续版本中集成更完善的恢复机制

技术细节

当使用PyTorch的torch.load函数加载检查点时,新版本默认启用了weights_only=True参数,这会导致:

  • 只允许加载基本Python类型和特定允许的类
  • NumPy数组等常见科学计算类型默认不被允许
  • 需要显式调用torch.serialization.add_safe_globals添加信任的类型

最佳实践建议

  1. 定期保存检查点,减少中断带来的损失
  2. 保持训练环境的一致性,避免混合使用不同版本的库
  3. 对于关键训练任务,建议在开始前测试检查点恢复功能
  4. 考虑使用更稳定的训练环境配置

总结

LLaMA-Factory项目中的训练恢复问题反映了深度学习训练框架间兼容性的复杂性。通过理解问题本质并采取适当的解决方案,用户可以有效地恢复中断的训练过程,确保模型训练的连续性。建议用户关注项目更新,及时获取最新的修复和改进。

登录后查看全文
热门项目推荐
相关项目推荐