Diffusers项目中HunyuanVideoPipeline生成NaN问题的分析与解决
2025-05-06 07:16:24作者:廉彬冶Miranda
问题背景
在Diffusers项目的实际应用中,用户报告了一个关键问题:当使用HunyuanVideoPipeline生成视频内容时,输出结果中出现了NaN(非数值)值。这个问题在调用diffusers.utils.export_to_video()函数时尤为明显,系统会抛出警告信息"invalid value encountered in cast",表明在将图像数据转换为uint8类型时遇到了无效值。
问题表现
通过深入分析,我们发现这个问题在多种硬件配置和软件环境下都会出现:
- 在AMD MI300X GPU上运行时,无论使用PyTorch 2.5.1还是2.6.0版本,都会产生NaN输出
- 在CUDA环境下,某些PyTorch版本(如2.4.0)也会出现类似问题
- 问题表现为最终生成的视频内容全黑或包含无效数据
技术分析
经过开发团队的深入调查,发现问题根源在于Transformer模型中的注意力掩码(attention mask)处理机制。原始实现中存在两个关键缺陷:
- 注意力掩码的维度设计不合理,导致在某些情况下计算异常
- 掩码生成逻辑不够健壮,容易在特定条件下产生无效值
具体来说,原始代码创建了一个形状为[batch_size, sequence_length, sequence_length]的布尔类型注意力掩码,这种设计不仅计算效率低,而且在某些边缘情况下可能导致数值不稳定。
解决方案
开发团队提出了一个优雅的解决方案,主要修改包括:
- 简化注意力掩码的维度,从三维[batch_size, N, N]改为二维[batch_size, N]
- 优化掩码生成逻辑,确保在所有情况下都能产生有效值
- 增强数值稳定性检查,防止NaN值传播
修改后的注意力掩码处理代码如下:
attention_mask = torch.zeros(
batch_size, sequence_length, device=hidden_states.device, dtype=torch.bool
) # 从[B, N, N]改为[B, N]
effective_condition_sequence_length = encoder_attention_mask.sum(dim=1, dtype=torch.int)
effective_sequence_length = latent_sequence_length + effective_condition_sequence_length
for i in range(batch_size):
attention_mask[i, : effective_sequence_length[i]] = True
attention_mask = attention_mask.unsqueeze(1) # 最终形状为[B, 1, N]
验证与效果
该解决方案经过严格测试,验证了以下优势:
- 兼容性:在PyTorch 2.4.1到2.5.1版本上均能正常工作
- 性能:相比原始实现有约7%的性能提升(从4.16s/it降到3.89s/it)
- 稳定性:彻底解决了NaN值问题,确保输出质量
最佳实践建议
基于此次问题的解决经验,我们建议用户:
- 确保使用最新版本的Diffusers库
- 对于视频生成任务,推荐使用PyTorch 2.5.1或更高版本
- 在数据处理管道中加入NaN检查机制,如下例:
def numpy_to_pil(images: np.ndarray) -> List[PIL.Image.Image]:
# 添加NaN检查
if np.any(np.isnan(images)):
raise ValueError("图像数据包含NaN值")
if np.any(np.isinf(images)):
raise ValueError("图像数据包含无限值")
# 其余处理逻辑...
总结
此次HunyuanVideoPipeline生成NaN问题的解决,不仅修复了一个关键缺陷,还优化了模型的运行效率。这体现了Diffusers项目团队对代码质量的严格要求和持续改进的精神。对于深度学习开发者而言,这也提醒我们在设计模型时需要考虑数值稳定性问题,特别是在处理注意力机制等复杂结构时。
建议所有使用HunyuanVideoPipeline的用户更新到包含此修复的版本,以获得更稳定、高效的视频生成体验。
登录后查看全文
热门项目推荐
相关项目推荐
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust069- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
Hy3-previewHy3 preview 是由腾讯混元团队研发的2950亿参数混合专家(Mixture-of-Experts, MoE)模型,包含210亿激活参数和38亿MTP层参数。Hy3 preview是在我们重构的基础设施上训练的首款模型,也是目前发布的性能最强的模型。该模型在复杂推理、指令遵循、上下文学习、代码生成及智能体任务等方面均实现了显著提升。Python00
项目优选
收起
暂无描述
Dockerfile
687
4.45 K
Ascend Extension for PyTorch
Python
540
664
Claude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed.
Get Started
Rust
386
69
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
953
919
本项目是CANN开源社区的核心管理仓库,包含社区的治理章程、治理组织、通用操作指引及流程规范等基础信息
646
230
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
407
322
Oohos_react_native
React Native鸿蒙化仓库
C++
336
385
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.59 K
923
昇腾LLM分布式训练框架
Python
145
172
暂无简介
Dart
935
234