Ragas项目中自定义评分量表的实现与问题分析
2025-05-26 14:54:20作者:蔡丛锟
引言
在Ragas项目的实际应用中,用户经常需要根据特定场景定制评估标准。本文深入探讨了Ragas框架中RubricsScore模块的使用方法,分析了当前版本中存在的评分范围异常问题,并提供了有效的解决方案。
自定义评分量表的基本实现
Ragas框架允许用户通过RubricsScore类创建自定义评估标准。标准的实现方式是通过字典结构定义评分等级及其描述:
rubric = {
"score1_description": "不符合关键指导原则",
"score2_description": "部分符合但存在明显遗漏或误解",
"score3_description": "完全符合指导原则"
}
理论上,这种定义方式应该产生1-3分的评分结果。然而在实际测试中,系统却输出了超出定义范围的分数(如5分甚至8分),这表明当前版本存在评分范围控制的缺陷。
问题现象与复现
多位用户报告了类似的问题现象:
- 定义3级评分标准却得到5分输出
- 定义5级评分标准却得到7分输出
- 极端情况下出现0分或8分等异常值
通过以下测试用例可以稳定复现该问题:
sample = SingleTurnSample(
user_input="西班牙的首都是哪里?",
response="西班牙的首都是马德里。",
reference="西班牙的首都是马德里。"
)
scorer = RubricsScore(rubrics=rubric, llm=evaluator_llm)
score = await scorer.single_turn_ascore(sample) # 预期3分,实际得到5分
技术分析
经过代码审查,发现问题根源在于:
- 评分标准化处理缺失:系统未对LLM输出的原始评分进行范围校验和标准化
- 提示工程不完善:给LLM的评分指令未明确限制输出范围
- 后处理逻辑不足:缺少对异常值的过滤和修正机制
解决方案
目前推荐的临时解决方案包括:
- 明确评分范围提示:在评分标准描述中显式注明范围限制
- 增加后处理校验:对输出分数进行范围检查和修正
- 使用评估数据集方式:通过evaluate方法可能获得更稳定的结果
完整示例:
rubrics = {
"score1_description": "(评分范围1-3)回答不符合参考内容的关键点",
"score2_description": "(评分范围1-3)回答部分符合但存在明显遗漏",
"score3_description": "(评分范围1-3)回答完全符合参考内容"
}
result = evaluate(
dataset=evaluation_dataset,
metrics=[RubricsScore(llm=evaluator_llm, rubrics=rubrics)],
llm=evaluator_llm,
)
最佳实践建议
- 始终在评分描述中明确标注预期范围
- 对输出结果添加合理性检查
- 考虑实现自定义分数映射函数,将异常值转换到有效范围
- 关注项目更新,该问题预计在后续版本中会得到官方修复
结论
Ragas框架的RubricsScore功能为定制化评估提供了强大支持,但当前版本在评分范围控制上存在不足。通过本文介绍的方法,用户可以有效地规避这些问题,获得符合预期的评分结果。随着项目的持续发展,期待官方能够进一步完善这一功能的稳定性和可靠性。
登录后查看全文
热门项目推荐
相关项目推荐
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust099- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
热门内容推荐
最新内容推荐
跨系统应用融合:APK Installer实现Windows环境下安卓应用运行的技术路径探索如何用OpCore Simplify构建稳定黑苹果系统?掌握这3大核心策略ComfyUI-LTXVideo实战攻略:3大核心场景的视频生成解决方案告别3小时抠像噩梦:AI如何让人人都能制作电影级视频Anki Connect:知识管理与学习自动化的API集成方案Laigter法线贴图生成工具零基础实战指南:提升2D游戏视觉效率全攻略如何用智能助手实现高效微信自动回复?全方位指南3步打造高效游戏自动化工具:从入门到精通的智能辅助方案掌握语音分割:从入门到实战的完整路径开源翻译平台完全指南:从搭建到精通自托管翻译服务
项目优选
收起
deepin linux kernel
C
28
16
Claude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed.
Get Started
Rust
570
99
暂无描述
Dockerfile
709
4.51 K
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
958
955
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.61 K
942
Ascend Extension for PyTorch
Python
572
694
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
413
339
🍒 Cherry Studio 是一款支持多个 LLM 提供商的桌面客户端
TypeScript
1.42 K
116
暂无简介
Dart
951
235
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
2