Ragas项目中AnswerSimilarity的跨编码器实现探讨
在Ragas评估框架中,AnswerSimilarity模块用于计算答案与标准答案之间的语义相似度得分。根据文档描述,该模块应该使用跨编码器(Cross-Encoder)模型来计算语义相似度分数,但实际实现却使用了余弦相似度。
当前实现分析
目前Ragas的AnswerSimilarity模块主要采用以下两种方式计算相似度:
-
基于文档级别的余弦相似度:将整个答案和标准答案分别嵌入为一个向量,然后计算这两个向量之间的余弦相似度。
-
基于词级别的最大相似度(建议实现):将答案和标准答案分别分词,计算每个标准答案词与所有答案词之间的最大相似度,然后取平均值。
跨编码器式相似度计算原理
跨编码器模型通常会同时处理两个文本输入,通过深度交互计算它们的相似度得分。虽然严格意义上的跨编码器需要联合编码两个输入,但我们可以模拟其"深度交互"的特性。
建议的实现借鉴了ColBERT模型的"后期交互"思想,具体计算步骤如下:
- 对标准答案和预测答案分别进行分词
- 获取每个词的嵌入向量
- 计算标准答案每个词与预测答案所有词的点积相似度
- 对每个标准答案词取最大相似度
- 对所有标准答案词的最大相似度求和并归一化
这种方法的优势在于能够捕捉细粒度的语义匹配关系,而不仅仅是整体文档的相似度。
技术实现细节
在具体实现上,需要注意以下几点:
-
分词处理:使用NLTK进行英文分词,确保词级别的匹配准确性
-
嵌入获取:利用HuggingfaceEmbeddings获取每个词的嵌入表示
-
相似度计算:通过矩阵运算高效计算所有词对之间的相似度
-
归一化处理:将最终得分除以标准答案词数,保持[0,1]的得分范围
-
性能考量:词级别的计算会增加计算量,但能提供更精确的语义匹配评估
应用场景分析
这种改进后的相似度计算方法特别适用于以下场景:
- 答案长度差异较大的情况
- 答案包含多个关键事实点的评估
- 需要细粒度语义匹配的评估任务
- 标准答案和预测答案表达方式不同但语义相近的情况
总结
在Ragas评估框架中改进AnswerSimilarity模块的实现,采用词级别的深度交互相似度计算方法,能够更准确地反映答案与标准答案之间的语义相似程度。这种方法虽然计算复杂度略高,但能提供更精细的评估结果,特别适合需要严格评估答案质量的场景。未来可以考虑支持多种相似度计算策略,让用户根据具体需求选择最适合的方法。
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
yuanrongopenYuanrong runtime:openYuanrong 多语言运行时提供函数分布式编程,支持 Python、Java、C++ 语言,实现类单机编程高性能分布式运行。Go051
pc-uishopTNT开源商城系统使用java语言开发,基于SpringBoot架构体系构建的一套b2b2c商城,商城是满足集平台自营和多商户入驻于一体的多商户运营服务系统。包含PC 端、手机端(H5\APP\小程序),系统架构以及实现案例中应满足和未来可能出现的业务系统进行对接。Vue00
ebook-to-mindmapepub、pdf 拆书 AI 总结TSX01