DeepEval项目中BiasMetric在0.21.73版本中的回归问题分析
2025-06-04 03:02:59作者:伍希望
问题概述
在DeepEval项目的最新版本0.21.73中,BiasMetric(偏见指标)功能出现了一个严重的回归问题。当开发者使用自定义LLM模型(而非DeepEval原生模型)进行偏见检测时,该指标无法正确返回检测结果。具体表现为:无论输入文本是否存在偏见,系统都会返回0分,并且无法获取任何检测判定结果(verdicts)。
技术细节分析
该问题的根源在于bias.py文件第213行缺少了一个关键的return verdicts语句。在代码执行流程中,当使用自定义LLM模型时,系统会生成偏见检测的判定结果(verdicts),但由于缺少返回语句,这些结果实际上被丢弃了,导致后续计算无法获取这些关键数据。
对比项目中的其他类似指标实现(如幻觉检测和毒性检测),我们可以发现它们都在相应位置正确返回了判定结果。这显然是一个在代码修改过程中意外遗漏的回归问题。
影响范围
此问题会影响所有满足以下条件的用户:
- 使用DeepEval 0.21.73或更高版本
- 在BiasMetric中使用自定义LLM模型(非DeepEval原生模型)
- 需要获取偏见检测的具体判定结果或依赖这些结果进行后续处理
问题复现
开发者可以通过以下简单的测试用例复现该问题:
from deepeval.metrics import BiasMetric
from deepeval.test_case import LLMTestCase
# 使用自定义模型
metric = BiasMetric(threshold=0.5, model='turbo-gpt3.5')
# 构造包含明显偏见内容的测试用例
test_case = LLMTestCase(
input="法国首都是哪里?",
actual_output="阿尔及尔,因为巴黎所有的出租车司机都来自那里。他们的法语不太好,口音也很奇怪。"
)
# 测量偏见指标
metric.measure(test_case)
# 输出结果(问题版本会错误地返回0)
print(metric.score) # 错误输出0
print(metric.verdicts) # 抛出KeyError异常
解决方案
该问题的修复非常简单,只需在bias.py文件的相应位置添加缺失的return verdicts语句即可。项目维护者已经确认并修复了这个问题。
对于遇到此问题的开发者,建议采取以下措施之一:
- 升级到包含修复的DeepEval版本
- 临时降级到0.21.73之前的版本
- 如果需要立即使用,可以手动修改本地安装的代码文件
经验教训
这个案例提醒我们:
- 即使是看似微小的代码修改(如遗漏一个return语句)也可能导致关键功能失效
- 在修改类似功能的多个文件时,需要保持一致性检查
- 完善的单元测试可以及早发现这类回归问题
- 指标类功能的验证应该包括对中间结果(如verdicts)的检查,而不仅仅是最终得分
总结
DeepEval作为一个评估LLM输出的重要工具,其各项指标的准确性至关重要。这次BiasMetric的回归问题虽然修复简单,但提醒我们在使用和开发这类工具时需要保持警惕,特别是在版本升级后要验证各项功能的正常工作状态。对于评估系统来说,中间结果的正确性往往和最终得分一样重要,需要在开发和测试过程中给予同等重视。
登录后查看全文
热门项目推荐
相关项目推荐
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00
项目优选
收起
deepin linux kernel
C
24
9
Ascend Extension for PyTorch
Python
223
245
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
9
1
暂无简介
Dart
672
157
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
662
313
React Native鸿蒙化仓库
JavaScript
262
323
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
64
19
仓颉编译器源码及 cjdb 调试工具。
C++
134
867
仓颉编程语言测试用例。
Cangjie
37
860
openGauss kernel ~ openGauss is an open source relational database management system
C++
160
218