首页
/ vLLM项目在0.8.0版本中Qwen2.5-VL-72B模型显存占用异常问题分析

vLLM项目在0.8.0版本中Qwen2.5-VL-72B模型显存占用异常问题分析

2025-05-01 02:41:11作者:瞿蔚英Wynne

vLLM作为一个高性能的LLM推理和服务库,在0.8.0版本升级后,用户报告在使用Qwen2.5-VL-72B-Instruct多模态大模型时出现了显存占用异常的问题。本文将深入分析这一问题的技术背景和解决方案。

问题现象

用户在使用4块NVIDIA A100 40GB显卡部署Qwen2.5-VL-72B-Instruct模型时发现:

  1. 在vLLM 0.7.3版本下可以正常运行
  2. 升级到0.8.0版本后出现启动缓慢和OOM错误
  3. 主要差异在于0.8.0版本引入了torch.compile功能

技术背景

vLLM 0.8.0版本对多模态模型的处理架构进行了重大改进:

  1. 将视觉编码器和文本解码器分离运行
  2. 引入了新的V1性能分析器
  3. 默认启用torch.compile进行图优化

这些改动虽然提升了性能,但对显存管理带来了新的挑战,特别是对于Qwen2.5-VL这样的超大视觉语言模型。

根本原因

经过分析,问题主要源于以下几个方面:

  1. 新版V1性能分析器对多模态模型的内存预估不够准确
  2. torch.compile在编译阶段会产生额外的显存开销
  3. 视觉编码器和文本解码器分离运行增加了内存管理复杂度

解决方案

vLLM开发团队在后续的0.8.2版本中已经修复了相关问题:

  1. 优化了内存泄漏问题
  2. 改进了多模态模型的内存预估算法
  3. 增强了torch.compile的显存管理

对于遇到类似问题的用户,建议采取以下措施:

  1. 升级到vLLM 0.8.2或更高版本
  2. 对于超大模型,可以适当降低gpu_memory_utilization参数
  3. 在启动时添加--disable-torch-compile选项临时禁用编译优化

经验总结

大模型推理服务的部署需要特别注意:

  1. 版本升级可能带来性能特性的变化
  2. 多模态模型对显存管理有特殊要求
  3. 图优化技术虽然能提升性能,但也可能引入额外开销

vLLM团队持续优化多模态大模型的支持能力,建议用户关注项目更新日志,及时获取最新的性能改进和错误修复。

登录后查看全文
热门项目推荐
相关项目推荐