DeepEval v2.5.9发布:自定义评估指标模板与稳定性增强
项目简介
DeepEval是一个专注于大语言模型(LLM)评估的开源框架,它提供了一套完整的工具链用于测试和验证AI模型的表现。该项目特别适合需要评估RAG(检索增强生成)系统、对话模型以及其他基于LLM的应用场景的开发者和研究人员。
核心更新内容
自定义评估指标模板
本次版本最重要的更新是引入了对RAG评估指标模板的自定义功能。在之前的版本中,DeepEval主要围绕OpenAI的提示格式设计评估指标,这在某些场景下存在局限性:
- 模型兼容性:当用户使用性能较弱或与OpenAI格式不兼容的模型时,原有的固定模板可能导致评估结果不准确
- 灵活性不足:不同应用场景可能需要特定的评估方式和提示结构
新版本允许用户覆盖默认的提示模板,同时保留原有的评估算法和逻辑。例如,在使用Answer Relevancy(答案相关性)指标时,开发者可以这样自定义模板:
from deepeval.metrics.answer_relevancy import AnswerRelevancyMetric
custom_template = """
请根据以下问题评估答案的相关性:
问题: {question}
答案: {answer}
评估标准:
1. 答案是否直接解决了问题
2. 答案是否包含无关信息
3. 答案的完整程度
请给出1-5分的评分,并简要说明理由:
"""
metric = AnswerRelevancyMetric(
threshold=0.5,
model="gpt-3.5-turbo",
include_reason=True,
prompt_template=custom_template
)
这一改进使得DeepEval能够更好地适应各种LLM评估场景,特别是当用户使用非OpenAI系列模型时。
模型提供者稳定性增强
新版本对模型提供者接口进行了多项改进:
- 增强了错误处理和重试机制
- 优化了API调用效率
- 改进了对不同模型API的兼容性
这些改进使得DeepEval在与各种模型服务集成时更加稳定可靠,减少了因网络波动或API限制导致的评估中断问题。
数据集功能扩展
数据集功能新增了save_as()方法,现在可以同时保存测试用例。这一改进使得数据管理工作更加便捷:
dataset.save_as("my_dataset.json", include_test_cases=True)
DAGMetric提示模板优化
DAG(有向无环图)评估指标的提示模板得到了改进,使其更加清晰和有效。DAGMetric用于评估模型在复杂逻辑推理和多步问题解决中的表现,新模板能够更好地引导模型进行准确的自我评估。
技术意义与应用价值
DeepEval v2.5.9的这些更新从多个维度提升了框架的实用性和灵活性:
- 评估准确性提升:自定义模板功能允许用户根据特定模型和场景优化评估过程,减少因提示格式不匹配导致的评估偏差
- 适用范围扩大:不再局限于OpenAI风格的提示格式,可以更好地支持各种开源和商业模型
- 开发效率提高:增强的稳定性和数据集管理功能减少了开发者在基础设施上的投入,使其更专注于核心评估逻辑
对于正在构建或优化LLM应用的团队来说,这些改进意味着可以更准确、更灵活地评估模型表现,从而更快地迭代和改进产品。
结语
DeepEval v2.5.9通过引入自定义评估模板和多项稳定性改进,进一步巩固了其作为LLM评估领域重要工具的地位。这些更新特别适合那些需要在多样化环境中评估模型表现的开发者,无论是使用不同的模型提供商,还是面对特殊的评估需求。随着LLM应用的不断普及和复杂化,像DeepEval这样灵活且强大的评估工具将变得越来越重要。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00