Ragas项目v0.2.14版本发布:增强评估能力与集成支持
Ragas是一个专注于评估检索增强生成(RAG)系统性能的开源框架。RAG系统结合了信息检索和文本生成的能力,在问答、对话等场景中表现优异。Ragas通过提供一系列评估指标,帮助开发者量化RAG系统的质量,包括答案相关性、事实一致性、上下文相关性等维度。
本次发布的v0.2.14版本带来了多项重要改进和新功能,主要集中在评估能力增强、多轮对话支持、以及与其他框架的集成方面。这些更新使Ragas能够更好地服务于RAG系统的开发和优化工作。
核心功能增强
多轮对话评估支持
新版本显著增强了对多轮对话场景的评估能力。在真实的对话系统中,用户往往会通过多次交互来获取完整信息,这种多轮交互的特性给评估带来了额外挑战。v0.2.14版本专门优化了这方面的支持,使得开发者能够更准确地评估系统在多轮对话中的表现。
NVIDIA端到端评估指标
本次更新引入了来自NVIDIA的三种重要评估指标:
- 端到端准确性(End-to-End Accuracy):衡量系统从问题到最终答案的整体准确性
- 相关性(Relevance):评估生成答案与问题的相关程度
- 事实基础性(Groundedness):检查答案是否基于提供的上下文信息
这些指标特别针对生产环境中的实际需求进行了优化,其中事实基础性指标还实现了5次重试的早期中断机制,提高了评估效率。
框架集成扩展
R2R框架集成
Ragas现在提供了与R2R框架的深度集成支持。R2R是一个快速发展的RAG框架,这次集成使得使用R2R构建的系统能够直接利用Ragas的评估能力,为开发者提供了更完整的工作流。
Haystack支持
新版本增加了对Haystack的LLM和嵌入模型包装器的支持。Haystack是一个流行的开源NLP框架,这次集成意味着开发者可以更方便地在Haystack生态中使用Ragas的评估功能,无需额外的适配工作。
评估质量改进
评估协议强化
v0.2.14版本对评估协议进行了强化,特别是增加了对ModeMetric协议的运行时检查。这一改进确保了评估过程的健壮性,能够在早期发现潜在的参数或配置问题,避免因配置错误导致的评估结果偏差。
语义相似度描述修正
修正了语义相似度指标中关于模型架构的描述,将原先的"cross-encoder"更正为"bi-encoder"。这一修正虽然看似微小,但对于正确理解和使用该指标具有重要意义,避免了开发者对技术实现的误解。
性能与稳定性优化
知识图谱存储优化
在知识图谱处理方面,新版本优化了存储方式,现在在保存关系时只存储节点ID而非完整节点信息。这一改变显著减少了存储空间需求,提高了处理大规模知识图谱时的效率。
噪声敏感性改进
对噪声敏感性指标进行了不必要的名称更新,使其更符合实际功能。虽然这只是命名上的调整,但有助于开发者更直观地理解该指标的作用。
数组类型处理
修复了NumPy数组数据类型相关的问题,并改进了错误信息的描述。这使得在处理数值数据时更加可靠,同时在出现问题时能够提供更清晰的调试信息。
使用体验提升
日志控制
新增了通过环境标志控制HTTP请求-响应日志的功能。开发者现在可以根据需要灵活地开启或关闭详细的HTTP通信日志,既方便调试又不会在生产环境中产生过多日志。
JSON输出修正
修复了JSON输出模式的问题,确保总是返回有效的JSON结构。这一改进使得自动化处理评估结果更加可靠,减少了后续处理中的解析错误。
余弦相似度处理
扩展了余弦相似度转换对101-500个token的文档的支持,填补了之前版本中的处理空白,使得对中等长度文档的评估更加准确。
总结
Ragas v0.2.14版本通过多项功能增强和问题修复,进一步巩固了其作为RAG系统评估首选工具的地位。特别是新增的多轮对话评估支持和NVIDIA提供的专业指标,使得它能够更好地满足复杂场景下的评估需求。同时,与R2R和Haystack等框架的深度集成,大大扩展了其应用场景和易用性。
这些改进不仅提升了评估的准确性和可靠性,也为开发者提供了更灵活、更高效的评估工作流。随着Ragas功能的不断完善,它正在成为构建高质量RAG系统不可或缺的工具之一。
ERNIE-4.5-VL-28B-A3B-ThinkingERNIE-4.5-VL-28B-A3B-Thinking 是 ERNIE-4.5-VL-28B-A3B 架构的重大升级,通过中期大规模视觉-语言推理数据训练,显著提升了模型的表征能力和模态对齐,实现了多模态推理能力的突破性飞跃Python00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
MiniMax-M2MiniMax-M2是MiniMaxAI开源的高效MoE模型,2300亿总参数中仅激活100亿,却在编码和智能体任务上表现卓越。它支持多文件编辑、终端操作和复杂工具链调用Python00
HunyuanVideo-1.5HunyuanVideo-1.5作为一款轻量级视频生成模型,仅需83亿参数即可提供顶级画质,大幅降低使用门槛。该模型在消费级显卡上运行流畅,让每位开发者和创作者都能轻松使用。本代码库提供生成创意视频所需的实现方案与工具集。00
MiniCPM-V-4_5MiniCPM-V 4.5 是 MiniCPM-V 系列中最新且功能最强的模型。该模型基于 Qwen3-8B 和 SigLIP2-400M 构建,总参数量为 80 亿。与之前的 MiniCPM-V 和 MiniCPM-o 模型相比,它在性能上有显著提升,并引入了新的实用功能Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00
GOT-OCR-2.0-hf阶跃星辰StepFun推出的GOT-OCR-2.0-hf是一款强大的多语言OCR开源模型,支持从普通文档到复杂场景的文字识别。它能精准处理表格、图表、数学公式、几何图形甚至乐谱等特殊内容,输出结果可通过第三方工具渲染成多种格式。模型支持1024×1024高分辨率输入,具备多页批量处理、动态分块识别和交互式区域选择等创新功能,用户可通过坐标或颜色指定识别区域。基于Apache 2.0协议开源,提供Hugging Face演示和完整代码,适用于学术研究到工业应用的广泛场景,为OCR领域带来突破性解决方案。00