OpenCompass/VLMEvalKit 多模态大模型评测快速入门指南
项目概述
OpenCompass/VLMEvalKit 是一个专门用于评估视觉语言模型(Vision-Language Models, VLMs)性能的开源工具包。它支持对多种多模态大模型在图像和视频理解任务上的全面评测,包括但不限于图像问答、视频理解、多模态推理等任务。
环境准备
安装步骤
首先需要获取并安装 VLMEvalKit 工具包:
git clone VLMEvalKit项目地址
cd VLMEvalKit
pip install -e .
API密钥配置
使用API模型(如GPT-4v、Gemini-Pro-V等)进行推理时,需要预先配置API密钥。这些密钥可以存储在项目根目录下的.env文件中,格式如下:
# .env 文件示例
DASHSCOPE_API_KEY=your_key_here
GOOGLE_API_KEY=your_key_here
OPENAI_API_KEY=your_key_here
...
密钥配置完成后,工具包会自动加载这些密钥用于后续的推理和评估任务。
模型配置与验证
模型配置
所有支持的视觉语言模型都在vlmeval/config.py文件中进行配置。部分模型(如MiniGPT-4、LLaVA-v1-7B)需要额外的代码或权重路径配置。
模型验证
在正式评估前,建议先验证模型是否能正常运行:
vlmutil check {MODEL_NAME}
此命令会检查指定模型的配置是否正确,确保模型能够正常加载和推理。
评测执行
基本评测命令
使用run.py脚本进行评测,支持两种运行模式:
- 完整模式(all):执行推理和评估全过程
- 仅推理模式(infer):仅执行模型推理,不进行评估
基本命令格式:
python run.py --data 数据集列表 --model 模型列表 [--mode all|infer]
多GPU并行评测
对于大型模型,可以使用torchrun进行多GPU并行评测:
torchrun --nproc-per-node=GPU数量 run.py --data 数据集 --model 模型列表
评测示例
图像理解任务评测
# 使用IDEFICS-80B模型评测MMBench_DEV_EN等三个数据集
python run.py --data MMBench_DEV_EN MME SEEDBench_IMG --model idefics_80b_instruct
# 使用多GPU评测多个模型
torchrun --nproc-per-node=8 run.py --data MMBench_DEV_EN --model idefics_9b_instruct qwen_chat mPLUG-Owl2
视频理解任务评测
# 评测视频理解能力(8帧输入)
torchrun --nproc-per-node=8 run.py --data MMBench_Video_8frame_nopack --model idefics2_8
# 评测GPT-4o的视频理解能力(每秒1帧)
python run.py --data MMBench_Video_1fps_pack --model GPT4o
高级功能
自定义Prompt构建
VLMEvalKit支持针对不同评测任务自定义输入prompt的构建方式:
- 数据集级别自定义:通过修改
dataset.build_prompt()函数 - 模型级别自定义:通过实现
model.build_prompt()函数
当两者同时存在时,模型级别的自定义具有更高优先级。此外,还可以通过model.use_custom_prompt()函数灵活控制哪些评测任务使用自定义prompt。
本地评判模型部署
除了使用云端API模型作为评判者外,还可以部署本地语言模型作为评判者:
- 安装LMDeploy:
pip install lmdeploy openai
- 启动本地模型服务:
lmdeploy serve api_server internlm/internlm2-chat-1_8b --server-port 23333
- 配置环境变量:
OPENAI_API_KEY=sk-123456
OPENAI_API_BASE=http://0.0.0.0:23333/v1/chat/completions
LOCAL_LLM=获取的模型名称
模型切分与GPU资源管理
VLMEvalKit支持灵活的GPU资源分配:
- 使用
python命令时,模型默认使用所有可用GPU - 使用
torchrun时,GPU资源会根据进程数自动划分 - 可通过
CUDA_VISIBLE_DEVICES环境变量指定使用的GPU
结果分析与常见问题
结果查看
评测结果会以两种形式输出:
- 控制台日志形式直接显示
- 在工作目录下生成CSV格式的结果文件
常见问题处理
- 性能差异:不同环境下的评测结果可能存在差异,建议检查环境版本一致性
- Prompt适配:如果模型输出异常,检查是否适配了正确的prompt构建方式
- GPU内存不足:尝试减少并行进程数或使用更大的GPU显存
总结
OpenCompass/VLMEvalKit提供了一套完整的视觉语言模型评测方案,从环境配置到评测执行,再到结果分析,覆盖了评测工作的全流程。通过灵活的配置选项和丰富的功能支持,研究人员可以方便地对各种多模态大模型进行全面的性能评估。
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00- QQwen3-Coder-Next2026年2月4日,正式发布的Qwen3-Coder-Next,一款专为编码智能体和本地开发场景设计的开源语言模型。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
KuiklyUI基于KMP技术的高性能、全平台开发框架,具备统一代码库、极致易用性和动态灵活性。 Provide a high-performance, full-platform development framework with unified codebase, ultimate ease of use, and dynamic flexibility. 注意:本仓库为Github仓库镜像,PR或Issue请移步至Github发起,感谢支持!Kotlin08
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00