首页
/ vLLM项目在0.8.0版本中Qwen2.5-VL-72B模型显存占用异常问题分析

vLLM项目在0.8.0版本中Qwen2.5-VL-72B模型显存占用异常问题分析

2025-05-01 16:12:23作者:瞿蔚英Wynne

vLLM作为一个高性能的LLM推理和服务库,在0.8.0版本升级后,用户报告在使用Qwen2.5-VL-72B-Instruct多模态大模型时出现了显存占用异常的问题。本文将深入分析这一问题的技术背景和解决方案。

问题现象

用户在使用4块NVIDIA A100 40GB显卡部署Qwen2.5-VL-72B-Instruct模型时发现:

  1. 在vLLM 0.7.3版本下可以正常运行
  2. 升级到0.8.0版本后出现启动缓慢和OOM错误
  3. 主要差异在于0.8.0版本引入了torch.compile功能

技术背景

vLLM 0.8.0版本对多模态模型的处理架构进行了重大改进:

  1. 将视觉编码器和文本解码器分离运行
  2. 引入了新的V1性能分析器
  3. 默认启用torch.compile进行图优化

这些改动虽然提升了性能,但对显存管理带来了新的挑战,特别是对于Qwen2.5-VL这样的超大视觉语言模型。

根本原因

经过分析,问题主要源于以下几个方面:

  1. 新版V1性能分析器对多模态模型的内存预估不够准确
  2. torch.compile在编译阶段会产生额外的显存开销
  3. 视觉编码器和文本解码器分离运行增加了内存管理复杂度

解决方案

vLLM开发团队在后续的0.8.2版本中已经修复了相关问题:

  1. 优化了内存泄漏问题
  2. 改进了多模态模型的内存预估算法
  3. 增强了torch.compile的显存管理

对于遇到类似问题的用户,建议采取以下措施:

  1. 升级到vLLM 0.8.2或更高版本
  2. 对于超大模型,可以适当降低gpu_memory_utilization参数
  3. 在启动时添加--disable-torch-compile选项临时禁用编译优化

经验总结

大模型推理服务的部署需要特别注意:

  1. 版本升级可能带来性能特性的变化
  2. 多模态模型对显存管理有特殊要求
  3. 图优化技术虽然能提升性能,但也可能引入额外开销

vLLM团队持续优化多模态大模型的支持能力,建议用户关注项目更新日志,及时获取最新的性能改进和错误修复。

登录后查看全文
热门项目推荐
相关项目推荐

项目优选

收起
kernelkernel
deepin linux kernel
C
24
7
nop-entropynop-entropy
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
9
1
openHiTLSopenHiTLS
旨在打造算法先进、性能卓越、高效敏捷、安全可靠的密码套件,通过轻量级、可剪裁的软件技术架构满足各行业不同场景的多样化要求,让密码技术应用更简单,同时探索后量子等先进算法创新实践,构建密码前沿技术底座!
C
1.03 K
477
Cangjie-ExamplesCangjie-Examples
本仓将收集和展示高质量的仓颉示例代码,欢迎大家投稿,让全世界看到您的妙趣设计,也让更多人通过您的编码理解和喜爱仓颉语言。
Cangjie
375
3.21 K
pytorchpytorch
Ascend Extension for PyTorch
Python
169
190
flutter_flutterflutter_flutter
暂无简介
Dart
615
140
leetcodeleetcode
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
62
19
cangjie_compilercangjie_compiler
仓颉编译器源码及 cjdb 调试工具。
C++
126
855
cangjie_testcangjie_test
仓颉编程语言测试用例。
Cangjie
36
852
ops-mathops-math
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
647
258