首页
/ TRL项目中DeepSpeed Zero-3模式下模型保存问题的分析与解决

TRL项目中DeepSpeed Zero-3模式下模型保存问题的分析与解决

2025-05-18 03:04:25作者:昌雅子Ethen

问题背景

在使用TRL项目进行PPO-v2训练时,当采用DeepSpeed Zero-3优化策略和混合精度bf16训练时,模型在保存检查点阶段会出现"AttributeError: 'MistralForCausalLM' object has no attribute 'zero_gather_16bit_weights_on_model_save'"的错误。这个问题主要出现在策略模型保存阶段,影响了训练流程的正常完成。

技术原理分析

DeepSpeed Zero-3优化策略通过将模型参数、梯度和优化器状态分割到不同的GPU上来实现内存优化。在这种模式下,模型权重分布在多个设备上,因此在保存模型时需要特殊的处理来收集这些分散的权重。

TRL的PPOv2Trainer将策略模型(policy)和价值模型(value)封装在PolicyAndValueWrapper对象中,然后通过accelerate.prepare()方法将这个包装器转换为DeepSpeedEngine对象。然而在保存模型时,PPOv2Trainer试图直接保存策略模型,而该模型本身并不是DeepSpeedEngine实例,导致无法访问zero_gather_16bit_weights_on_model_save方法。

解决方案

经过技术分析,我们提出了两种有效的解决方案:

方案一:修改保存逻辑

class FixedPPOv2Trainer(PPOv2Trainer):
    def save_model(self, output_dir: Optional[str] = None, _internal_call: bool = False):
        backup_model = self.model
        self.model = self.model.policy  # 仅保存策略模型
        
        Trainer.save_model(self, output_dir, _internal_call)
        
        self.model = backup_model
    
    def _save(self, output_dir: Optional[str] = None, state_dict=None):
        if self.is_deepspeed_enabled:
            state_dict = {name.removeprefix('policy.'): param 
                         for name, param in state_dict.items()
                         if name.startswith('policy.')}
        
        super()._save(output_dir, state_dict)

方案二:直接保存策略模型

def save_model(self, output_dir: Optional[str] = None, _internal_call: bool = False):
    backup_model = self.model
    self.model = self.model.policy  # 仅保存策略模型
    
    if self.is_deepspeed_enabled:
        backup_deepspeed = self.deepspeed
        self.deepspeed = self.model
    
    os.makedirs(output_dir, exist_ok=True)
    self.model.save_pretrained(output_dir)
    
    self.model = backup_model
    
    if self.is_deepspeed_enabled:
        self.deepspeed = backup_deepspeed

方案比较

两种方案各有优缺点:

  1. 方案一更符合原始设计思路,通过修改保存逻辑来正确处理DeepSpeed Zero-3模式下的权重收集。它保持了DeepSpeedEngine的完整性,同时通过过滤state_dict来仅保存策略模型。

  2. 方案二更为直接,绕过了一些中间步骤直接保存策略模型。这种方法实现简单,但可能在某些边缘情况下不够健壮。

最佳实践建议

对于大多数使用场景,建议采用方案一,因为:

  • 它更完整地处理了DeepSpeed Zero-3的特性
  • 保持了与原始设计的一致性
  • 经过了更全面的测试验证

总结

TRL项目在DeepSpeed Zero-3模式下的模型保存问题源于模型包装和DeepSpeed引擎处理的复杂性。通过理解问题的技术本质,我们提出了可靠的解决方案,使PPO-v2训练能够在Zero-3优化下顺利完成。这些解决方案不仅适用于Mistral模型,也适用于其他类似架构的大语言模型训练场景。

登录后查看全文
热门项目推荐
相关项目推荐

项目优选

收起
kernelkernel
deepin linux kernel
C
22
6
docsdocs
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
195
2.17 K
nop-entropynop-entropy
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
9
1
金融AI编程实战金融AI编程实战
为非计算机科班出身 (例如财经类高校金融学院) 同学量身定制,新手友好,让学生以亲身实践开源开发的方式,学会使用计算机自动化自己的科研/创新工作。案例以量化投资为主线,涉及 Bash、Python、SQL、BI、AI 等全技术栈,培养面向未来的数智化人才 (如数据工程师、数据分析师、数据科学家、数据决策者、量化投资人)。
Python
78
72
RuoYi-Vue3RuoYi-Vue3
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
973
574
ops-mathops-math
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
549
79
Cangjie-ExamplesCangjie-Examples
本仓将收集和展示高质量的仓颉示例代码,欢迎大家投稿,让全世界看到您的妙趣设计,也让更多人通过您的编码理解和喜爱仓颉语言。
Cangjie
349
1.36 K
giteagitea
喝着茶写代码!最易用的自托管一站式代码托管平台,包含Git托管,代码审查,团队协作,软件包和CI/CD。
Go
17
0
ohos_react_nativeohos_react_native
React Native鸿蒙化仓库
C++
207
284
leetcodeleetcode
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
60
17