OpenCompass多模态评测套件中HallusionBench综合得分计算方法解析
背景介绍
OpenCompass多模态评测套件(VLMEvalKit)中的HallusionBench是一个专门用于评估多模态模型在幻觉(hallucination)和错觉(illusion)方面表现的基准测试集。该基准测试集能够全面评估模型在视觉问答任务中的准确性、鲁棒性和可靠性。
评测指标详解
HallusionBench主要包含三个核心评测指标:
-
aACC(Answer Accuracy):衡量模型回答准确性的指标,评估模型在给定问题和图像的情况下提供正确答案的能力。
-
qACC(Question Accuracy):评估模型对问题理解能力的指标,检测模型是否能够正确解析和响应不同类型的问题。
-
fACC(Failure Accuracy):专门针对模型失败情况的评估指标,用于分析模型在特定场景下的鲁棒性表现。
综合得分计算方法
虽然原始论文中没有定义"Overall Score"这一综合指标,但OpenCompass团队为了更直观地展示模型在HallusionBench上的整体表现,特别设计了综合得分计算方法:
综合得分 = (aACC + qACC + fACC) / 3
这种计算方法采用简单的算术平均,能够平衡三个不同维度的表现,为研究人员和开发者提供一个单一数值来快速比较不同模型的整体性能。
实际应用建议
在使用HallusionBench进行模型评估时,建议:
-
不仅要关注综合得分,还应该分别分析aACC、qACC和fACC三个子指标,以全面了解模型在不同方面的表现。
-
对于特定应用场景,可以根据需求调整三个指标的权重比例,例如在需要高可靠性的应用中,可以适当增加fACC的权重。
-
综合得分最适合用于模型间的横向比较,但在分析单个模型时,仍需深入各子指标的表现。
通过这种综合评估方法,研究人员可以更全面地了解多模态模型在应对幻觉和错觉方面的能力,为模型优化和改进提供明确方向。
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00- QQwen3-Coder-Next2026年2月4日,正式发布的Qwen3-Coder-Next,一款专为编码智能体和本地开发场景设计的开源语言模型。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
KuiklyUI基于KMP技术的高性能、全平台开发框架,具备统一代码库、极致易用性和动态灵活性。 Provide a high-performance, full-platform development framework with unified codebase, ultimate ease of use, and dynamic flexibility. 注意:本仓库为Github仓库镜像,PR或Issue请移步至Github发起,感谢支持!Kotlin08
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00