Ragas项目中AnswerSimilarity的跨编码器实现探讨
在Ragas评估框架中,AnswerSimilarity模块用于计算答案与标准答案之间的语义相似度得分。根据文档描述,该模块应该使用跨编码器(Cross-Encoder)模型来计算语义相似度分数,但实际实现却使用了余弦相似度。
当前实现分析
目前Ragas的AnswerSimilarity模块主要采用以下两种方式计算相似度:
-
基于文档级别的余弦相似度:将整个答案和标准答案分别嵌入为一个向量,然后计算这两个向量之间的余弦相似度。
-
基于词级别的最大相似度(建议实现):将答案和标准答案分别分词,计算每个标准答案词与所有答案词之间的最大相似度,然后取平均值。
跨编码器式相似度计算原理
跨编码器模型通常会同时处理两个文本输入,通过深度交互计算它们的相似度得分。虽然严格意义上的跨编码器需要联合编码两个输入,但我们可以模拟其"深度交互"的特性。
建议的实现借鉴了ColBERT模型的"后期交互"思想,具体计算步骤如下:
- 对标准答案和预测答案分别进行分词
- 获取每个词的嵌入向量
- 计算标准答案每个词与预测答案所有词的点积相似度
- 对每个标准答案词取最大相似度
- 对所有标准答案词的最大相似度求和并归一化
这种方法的优势在于能够捕捉细粒度的语义匹配关系,而不仅仅是整体文档的相似度。
技术实现细节
在具体实现上,需要注意以下几点:
-
分词处理:使用NLTK进行英文分词,确保词级别的匹配准确性
-
嵌入获取:利用HuggingfaceEmbeddings获取每个词的嵌入表示
-
相似度计算:通过矩阵运算高效计算所有词对之间的相似度
-
归一化处理:将最终得分除以标准答案词数,保持[0,1]的得分范围
-
性能考量:词级别的计算会增加计算量,但能提供更精确的语义匹配评估
应用场景分析
这种改进后的相似度计算方法特别适用于以下场景:
- 答案长度差异较大的情况
- 答案包含多个关键事实点的评估
- 需要细粒度语义匹配的评估任务
- 标准答案和预测答案表达方式不同但语义相近的情况
总结
在Ragas评估框架中改进AnswerSimilarity模块的实现,采用词级别的深度交互相似度计算方法,能够更准确地反映答案与标准答案之间的语义相似程度。这种方法虽然计算复杂度略高,但能提供更精细的评估结果,特别适合需要严格评估答案质量的场景。未来可以考虑支持多种相似度计算策略,让用户根据具体需求选择最适合的方法。
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00- QQwen3-Coder-Next2026年2月4日,正式发布的Qwen3-Coder-Next,一款专为编码智能体和本地开发场景设计的开源语言模型。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
KuiklyUI基于KMP技术的高性能、全平台开发框架,具备统一代码库、极致易用性和动态灵活性。 Provide a high-performance, full-platform development framework with unified codebase, ultimate ease of use, and dynamic flexibility. 注意:本仓库为Github仓库镜像,PR或Issue请移步至Github发起,感谢支持!Kotlin07
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00