首页
/ OpenRLHF项目中训练Yi-34B-Chat模型时遇到的Tokenizer问题解析

OpenRLHF项目中训练Yi-34B-Chat模型时遇到的Tokenizer问题解析

2025-06-03 20:45:59作者:庞队千Virginia

在基于OpenRLHF框架进行Yi-34B-Chat模型的DPO(Direct Preference Optimization)训练过程中,开发者可能会遇到一个典型的数组越界错误。该错误表现为在模型训练初期即抛出"Array out of bounds"异常,具体错误信息显示为"Assertion srcIndex < srcSelectDimSize failed"。

问题现象

当使用train_dpo_llama_34b.sh脚本对Yi-34B-Chat模型进行DPO训练时,系统会报出以下关键错误:

  1. 核心断言失败:srcIndex < srcSelectDimSize
  2. 错误发生在数据处理阶段
  3. 即使用户未修改任何Tokenizer相关代码,问题依然出现

问题根源

经过技术分析,该问题的根本原因在于HuggingFace Tokenizer的快速模式(fast mode)与Yi系列模型的兼容性问题。Yi-34B-Chat模型使用的特殊Tokenizer在快速模式下可能会产生不兼容的索引处理方式,导致在数据加载阶段出现数组越界。

解决方案

OpenRLHF项目组提供了两种等效的解决方案:

  1. 代码修改方案: 在openrlhf/utils/utils.py文件中,修改Tokenizer的初始化参数:

    tokenizer = AutoTokenizer.from_pretrained(
        pretrain, 
        trust_remote_code=True, 
        use_fast=False,  # 关键修改
        **sp_tokens
    )
    
  2. 命令行参数方案: 在运行train_dpo.py脚本时添加禁用快速Tokenizer的参数:

    --disable_fast_tokenizer
    

验证与效果

应用上述解决方案后:

  • 模型训练可以正常启动
  • 不再出现数组越界错误
  • 训练过程中的loss曲线显示正常(初期loss值在0.6左右波动属于正常现象)

技术建议

对于大模型训练中的Tokenizer相关问题,建议开发者:

  1. 优先考虑禁用快速Tokenizer模式,特别是使用非主流模型架构时
  2. 注意观察训练初期的accuracy均值(acc mean)而非仅关注loss值
  3. 对于Yi系列等国产大模型,需要特别注意其特殊的Tokenizer实现可能带来的兼容性问题

该问题的解决体现了OpenRLHF框架良好的可扩展性,能够通过简单的配置调整适配不同架构的大模型训练需求。

登录后查看全文
热门项目推荐
相关项目推荐