OpenCompass/VLMEvalKit 多模态大模型评测快速入门指南
项目概述
OpenCompass/VLMEvalKit 是一个专门用于评估视觉语言模型(Vision-Language Models, VLMs)性能的开源工具包。它支持对多种多模态大模型在图像和视频理解任务上的全面评测,包括但不限于图像问答、视频理解、多模态推理等任务。
环境准备
安装步骤
首先需要获取并安装 VLMEvalKit 工具包:
git clone VLMEvalKit项目地址
cd VLMEvalKit
pip install -e .
API密钥配置
使用API模型(如GPT-4v、Gemini-Pro-V等)进行推理时,需要预先配置API密钥。这些密钥可以存储在项目根目录下的.env文件中,格式如下:
# .env 文件示例
DASHSCOPE_API_KEY=your_key_here
GOOGLE_API_KEY=your_key_here
OPENAI_API_KEY=your_key_here
...
密钥配置完成后,工具包会自动加载这些密钥用于后续的推理和评估任务。
模型配置与验证
模型配置
所有支持的视觉语言模型都在vlmeval/config.py文件中进行配置。部分模型(如MiniGPT-4、LLaVA-v1-7B)需要额外的代码或权重路径配置。
模型验证
在正式评估前,建议先验证模型是否能正常运行:
vlmutil check {MODEL_NAME}
此命令会检查指定模型的配置是否正确,确保模型能够正常加载和推理。
评测执行
基本评测命令
使用run.py脚本进行评测,支持两种运行模式:
- 完整模式(all):执行推理和评估全过程
- 仅推理模式(infer):仅执行模型推理,不进行评估
基本命令格式:
python run.py --data 数据集列表 --model 模型列表 [--mode all|infer]
多GPU并行评测
对于大型模型,可以使用torchrun进行多GPU并行评测:
torchrun --nproc-per-node=GPU数量 run.py --data 数据集 --model 模型列表
评测示例
图像理解任务评测
# 使用IDEFICS-80B模型评测MMBench_DEV_EN等三个数据集
python run.py --data MMBench_DEV_EN MME SEEDBench_IMG --model idefics_80b_instruct
# 使用多GPU评测多个模型
torchrun --nproc-per-node=8 run.py --data MMBench_DEV_EN --model idefics_9b_instruct qwen_chat mPLUG-Owl2
视频理解任务评测
# 评测视频理解能力(8帧输入)
torchrun --nproc-per-node=8 run.py --data MMBench_Video_8frame_nopack --model idefics2_8
# 评测GPT-4o的视频理解能力(每秒1帧)
python run.py --data MMBench_Video_1fps_pack --model GPT4o
高级功能
自定义Prompt构建
VLMEvalKit支持针对不同评测任务自定义输入prompt的构建方式:
- 数据集级别自定义:通过修改
dataset.build_prompt()函数 - 模型级别自定义:通过实现
model.build_prompt()函数
当两者同时存在时,模型级别的自定义具有更高优先级。此外,还可以通过model.use_custom_prompt()函数灵活控制哪些评测任务使用自定义prompt。
本地评判模型部署
除了使用云端API模型作为评判者外,还可以部署本地语言模型作为评判者:
- 安装LMDeploy:
pip install lmdeploy openai
- 启动本地模型服务:
lmdeploy serve api_server internlm/internlm2-chat-1_8b --server-port 23333
- 配置环境变量:
OPENAI_API_KEY=sk-123456
OPENAI_API_BASE=http://0.0.0.0:23333/v1/chat/completions
LOCAL_LLM=获取的模型名称
模型切分与GPU资源管理
VLMEvalKit支持灵活的GPU资源分配:
- 使用
python命令时,模型默认使用所有可用GPU - 使用
torchrun时,GPU资源会根据进程数自动划分 - 可通过
CUDA_VISIBLE_DEVICES环境变量指定使用的GPU
结果分析与常见问题
结果查看
评测结果会以两种形式输出:
- 控制台日志形式直接显示
- 在工作目录下生成CSV格式的结果文件
常见问题处理
- 性能差异:不同环境下的评测结果可能存在差异,建议检查环境版本一致性
- Prompt适配:如果模型输出异常,检查是否适配了正确的prompt构建方式
- GPU内存不足:尝试减少并行进程数或使用更大的GPU显存
总结
OpenCompass/VLMEvalKit提供了一套完整的视觉语言模型评测方案,从环境配置到评测执行,再到结果分析,覆盖了评测工作的全流程。通过灵活的配置选项和丰富的功能支持,研究人员可以方便地对各种多模态大模型进行全面的性能评估。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00