Ragas项目中的自定义评估指标实现指南
2025-05-26 21:35:35作者:何将鹤
Ragas作为一个评估RAG(检索增强生成)系统性能的开源框架,提供了多种内置评估指标。但在实际应用中,开发者可能需要根据特定需求创建自定义评估指标。本文将详细介绍在Ragas中实现自定义评估指标的技术方案。
自定义评估指标的基本原理
Ragas框架设计时就考虑了扩展性,开发者可以通过继承基础类来创建自定义指标。框架提供了三个基础类供继承:
- Metric类:最基础的指标类,适用于不需要LLM或嵌入模型的简单指标
- MetricWithLLM类:需要语言模型参与的指标
- MetricWithEmbeddings类:需要嵌入模型的指标
实现自定义指标的步骤
以下是一个实现简单指标(计算答案长度)的完整示例:
import typing as t
from datasets import Dataset
from ragas import evaluate
from ragas.metrics.base import Metric, EvaluationMode
from langchain_core.callbacks import Callbacks
from ragas.run_config import RunConfig
class AnswerLength(Metric):
"""计算答案长度的自定义指标示例"""
name: str = "answer_length"
evaluation_mode: EvaluationMode = EvaluationMode.qa
async def _ascore(
self: t.Self, row: t.Dict, callbacks: Callbacks, is_async: bool
) -> float:
return len(row["answer"])
def init(self, run_config: RunConfig):
"""初始化方法"""
pass
# 使用自定义指标
answer_length = AnswerLength()
data_samples = {
'question': ['问题1', '问题2'],
'answer': ['答案1', '更长的答案2'],
}
dataset = Dataset.from_dict(data_samples)
score = evaluate(dataset, metrics=[answer_length])
关键实现要点
-
类属性定义:
name:指标的唯一标识符evaluation_mode:指定指标适用的评估模式(如qa模式)
-
核心评分方法:
_ascore方法是异步的,必须实现- 接收数据行、回调函数和异步标志作为参数
- 返回一个浮点数评分
-
初始化方法:
init方法用于初始化指标需要的资源- 接收运行配置参数
最佳实践建议
-
指标选择:
- 优先考虑使用Ragas内置指标,它们经过充分验证
- 自定义指标适用于特殊业务场景或研究需求
-
实现注意事项:
- 保持评分逻辑简单明确
- 考虑指标的稳定性和可解释性
- 异步实现确保性能
-
测试验证:
- 对自定义指标进行充分测试
- 验证指标输出范围是否符合预期(通常0-1区间)
高级应用场景
对于更复杂的指标,如需要语言模型参与的指标,可以继承MetricWithLLM类。这类指标可以实现:
- 基于LLM的答案质量评估
- 复杂语义分析
- 多维度评分
Ragas框架的这种设计使得开发者能够灵活扩展评估能力,同时保持与核心框架的无缝集成。随着项目发展,自定义指标功能将会得到更完善的文档支持和稳定性保证。
登录后查看全文
热门项目推荐
相关项目推荐
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust098- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
项目优选
收起
deepin linux kernel
C
28
16
Claude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed.
Get Started
Rust
567
98
暂无描述
Dockerfile
708
4.51 K
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
958
955
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.61 K
942
Ascend Extension for PyTorch
Python
572
694
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
413
339
🍒 Cherry Studio 是一款支持多个 LLM 提供商的桌面客户端
TypeScript
1.42 K
116
暂无简介
Dart
951
235
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
2