【免费下载】 LMMs-Eval项目命令行接口与API使用指南
2026-02-04 04:51:31作者:幸俭卉
前言
LMMs-Eval是一个用于评估多模态大语言模型(Large Multimodal Models, LMMs)性能的开源工具库。本文将详细介绍该项目的命令行接口和API使用方法,帮助研究人员和开发者快速上手模型评估工作。
命令行接口详解
基础参数配置
-
模型选择与参数设置
--model:指定评估的模型类型或提供商,必须与支持的模型名称匹配--model_args:模型构造参数,格式为"arg1=val1,arg2=val2,...",例如设置预训练模型和批大小
-
任务选择
--tasks:指定评估任务或任务组,支持逗号分隔的列表- 特殊选项:
list:查看所有可用任务list_with_num:查看每个任务包含的问题数量(会下载所有数据集)
-
Few-shot设置
--num_fewshot:设置few-shot示例数量--fewshot_as_multiturn:将few-shot示例视为多轮对话(需配合--apply_chat_template使用)
评估过程控制
-
生成参数
--gen_kwargs:生成任务的参数设置,如采样温度、top_p/top_k等--batch_size:评估批大小,支持自动模式(auto)和固定值--max_batch_size:自动批大小模式下的最大批大小限制
-
设备与缓存
--device:指定运行设备(如cuda、cpu等)--use_cache:设置缓存路径,避免重复计算--cache_requests:缓存控制选项(使用/刷新/删除)
-
调试与诊断
--check_integrity:测试任务完整性--write_out:输出首个任务的提示和目标字符串--show_config:显示任务配置详情
结果输出与日志
-
输出控制
--output_path:结果保存路径--log_samples:保存每个文档的输出和输入文本--predict_only:仅生成模型输出不计算指标
-
高级日志功能
--wandb_args:Weights & Biases日志参数--hf_hub_log_args:Hugging Face Hub日志参数
API编程接口使用
简单评估模式
simple_evaluate()函数提供了简化的评估接口,适合快速集成:
import lmms_eval
# 初始化自定义模型
my_model = initialize_my_model()
# 创建LM子类实例
lmm_obj = Your_LMM(model=my_model, batch_size=16)
# 执行评估
results = lmms_eval.simple_evaluate(
model=lmm_obj,
tasks=["task1", "task2"],
num_fewshot=0,
...
)
核心评估模式
evaluate()函数提供更底层的评估控制:
import lmms_eval
from my_tasks import MyTask1
# 初始化模型和LM包装器
my_model = initialize_my_model()
lmm_obj = Your_LMM(model=my_model, batch_size=16)
# 获取任务字典
task_dict = lmms_eval.tasks.get_task_dict(
["mmlu", "my_custom_task", MyTask1],
task_manager
)
# 执行评估
results = evaluate(
lm=lmm_obj,
task_dict=task_dict,
...
)
SRT API集成使用
LMMs-Eval支持通过SRT API进行评估,需要先安装相关依赖:
-
环境准备
pip install httpx==0.23.3 pip install protobuf==3.20 pip install flashinfer -
启动评估
python3 -m lmms_eval \ --model srt_api \ --model_args modality=$MODALITY,model_version=$CKPT_PATH,tp=$TP_SIZE \ --tasks $TASK \ --batch_size 1 \ --log_samples
回归测试
项目提供了回归测试工具,确保代码修改不会导致模型性能下降:
python3 tools/regression.py
测试结果会显示各任务性能指标和运行时间比较。
最佳实践建议
- 对于初次使用,建议从
simple_evaluate()开始 - 调试时使用
--limit参数限制评估数据量 - 生产环境推荐启用缓存(
--use_cache) - 多任务评估时使用
--batch_size auto优化内存使用 - 长期实验建议集成W&B或HF Hub日志功能
通过本文介绍的命令行参数和API使用方法,用户可以灵活地配置和执行多模态大语言模型的评估任务,满足从快速验证到生产部署的各种需求场景。
登录后查看全文
热门项目推荐
相关项目推荐
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00- QQwen3-Coder-Next2026年2月4日,正式发布的Qwen3-Coder-Next,一款专为编码智能体和本地开发场景设计的开源语言模型。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
KuiklyUI基于KMP技术的高性能、全平台开发框架,具备统一代码库、极致易用性和动态灵活性。 Provide a high-performance, full-platform development framework with unified codebase, ultimate ease of use, and dynamic flexibility. 注意:本仓库为Github仓库镜像,PR或Issue请移步至Github发起,感谢支持!Kotlin08
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00
热门内容推荐
最新内容推荐
Degrees of Lewdity中文汉化终极指南:零基础玩家必看的完整教程Unity游戏翻译神器:XUnity Auto Translator 完整使用指南PythonWin7终极指南:在Windows 7上轻松安装Python 3.9+终极macOS键盘定制指南:用Karabiner-Elements提升10倍效率Pandas数据分析实战指南:从零基础到数据处理高手 Qwen3-235B-FP8震撼升级:256K上下文+22B激活参数7步搞定机械键盘PCB设计:从零开始打造你的专属键盘终极WeMod专业版解锁指南:3步免费获取完整高级功能DeepSeek-R1-Distill-Qwen-32B技术揭秘:小模型如何实现大模型性能突破音频修复终极指南:让每一段受损声音重获新生
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
537
3.75 K
暂无简介
Dart
773
191
Ascend Extension for PyTorch
Python
343
406
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.34 K
755
🍒 Cherry Studio 是一款支持多个 LLM 提供商的桌面客户端
TypeScript
1.07 K
97
React Native鸿蒙化仓库
JavaScript
303
355
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
337
179
AscendNPU-IR
C++
86
141
openJiuwen agent-studio提供零码、低码可视化开发和工作流编排,模型、知识库、插件等各资源管理能力
TSX
986
248