首页
/ OpenCompass VLMEvalKit中Qwen2-VL-72B模型评估结果差异分析

OpenCompass VLMEvalKit中Qwen2-VL-72B模型评估结果差异分析

2025-07-03 14:37:50作者:仰钰奇

在开源多模态评估框架VLMEvalKit的最新实践中,研究者发现使用Qwen2-VL-72B-Instruct模型进行基准测试时,其评估结果与官方榜单存在显著差异。本文将从技术角度深入剖析这一现象背后的原因,并为开发者提供解决方案。

核心问题现象

当开发者按照标准流程复现Qwen2-VL-72B-Instruct模型的评估时,观察到在AI2D_TEST等关键基准测试上的得分明显低于官方报告结果。具体表现为:

  • AI2D_TEST测试集得分差距达3.9分
  • 其他多选题基准测试也存在类似差异
  • 非GPT依赖型测试(如HallusionBench)的差异在预期范围内

技术原因分析

经过深入排查,发现差异主要来源于评估流程中的关键环节——选项标签提取机制。官方评估采用了以下技术方案:

  1. GPT辅助评估机制:对于MMMU、AI2D_TEST等多选题基准,官方使用GPT-3.5-Turbo进行选项标签提取
  2. 纯模型评估限制:开发者复现时未接入GPT服务,直接使用原始模型输出
  3. 语义理解差异:GPT在选项匹配和语义理解方面表现更优,导致最终得分差异

解决方案验证

研究团队通过以下步骤验证了问题根源:

  1. 获取并对比官方评估记录
  2. 详细分析预测结果差异
  3. 确认非GPT评估结果与官方原始预测一致
  4. 确认差异完全来自GPT辅助评估环节

实践建议

对于希望准确复现评估结果的研究者,建议:

  1. 完整实现官方评估流程,包括GPT辅助评估模块
  2. 对于无法使用GPT的情况,应在论文中明确说明评估条件差异
  3. 关注非GPT依赖型测试结果作为模型能力的补充验证

该案例揭示了多模态评估中辅助工具的重要性,提醒研究者在模型对比时需确保评估条件的一致性。VLMEvalKit框架的模块化设计使得开发者可以灵活配置评估流程,但同时也需要注意各环节对最终结果的影响。

登录后查看全文
热门项目推荐