解决Sentence-Transformers中EmbeddingSimilarityEvaluator的KeyError问题
在使用Sentence-Transformers进行文本相似度任务时,EmbeddingSimilarityEvaluator是一个常用的评估工具,它能够计算模型在相似度任务上的表现。然而,近期有用户在Google Colab环境中遇到了一个令人困惑的问题——在评估阶段出现了KeyError,提示找不到"cosine_pearson"或"pearson_cosine"等键值。
这个问题最初出现在用户尝试使用ko-RoBERTa模型和KorSTS数据集进行微调实验时。尽管训练过程顺利完成,但在评估阶段却意外中断。深入分析后发现,这是由于评估器中指标键名的生成与检索方式不一致导致的。
问题的核心在于评估器内部对相似度指标命名的处理逻辑。在计算皮尔逊相关系数和斯皮尔曼相关系数时,评估器会将这些指标与相似度函数名称(如cosine)组合生成复合键名。然而,在某些版本中,这个组合顺序出现了不一致——有时生成的是"cosine_pearson",而检索时却尝试访问"pearson_cosine"。
这个问题在最新版本的代码库中已经得到修复。修复方案确保了键名的生成和检索遵循统一的命名规则,消除了这种不一致性。对于遇到此问题的用户,最简单的解决方案是更新到最新版本的Sentence-Transformers。
值得注意的是,这个问题在Google Colab的预装环境中尤为突出,因为Colab可能不会立即更新到包含修复的最新版本。用户可以通过手动克隆代码库并重新安装来解决这个问题。具体步骤包括:首先卸载现有版本,然后从代码库克隆最新代码,最后进行本地安装。
这个案例提醒我们,在使用开源工具时,版本兼容性问题可能会以意想不到的方式出现。当遇到类似问题时,检查最新代码库中的修复记录往往能快速找到解决方案。同时,也建议开发者在进行重要实验前,确认所使用的工具版本是否经过充分测试。
对于Sentence-Transformers的用户来说,好消息是这个特定的KeyError问题将在下一个正式版本中得到彻底解决。在此期间,用户可以选择等待官方更新,或者按照上述方法手动应用修复。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust099- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00