Keras 3中的相似性损失函数:CircleLoss的实现与思考
在深度学习领域,相似性学习(Similarity Learning)是一个重要的研究方向,它专注于学习如何度量数据样本之间的相似性。最近,Keras社区中关于在Keras 3中实现相似性损失函数的讨论引起了广泛关注,特别是关于CircleLoss的实现方案。
相似性损失函数与传统分类损失函数不同,它直接优化样本在嵌入空间中的距离关系。这类损失函数通常用于人脸识别、图像检索、推荐系统等需要度量相似度的任务。CircleLoss作为一种较新的相似性损失函数,通过自适应调整梯度,能够更有效地优化正负样本对。
在Keras 3中实现CircleLoss时,开发者提出了三种不同的技术方案:
第一种方案是直接继承Keras现有的LossFunctionWrapper。这是最直接的方式,损失函数只接收y_true和y_pred两个参数,计算局限在单个批次内。这种方式实现简单,适合大多数标准训练场景,但无法支持跨批次的正负样本挖掘。
第二种方案是引入新的MetricLossFunctionWrapper。这种设计参考了TensorFlow Similarity库中的实现,允许损失函数接收四个参数(查询嵌入、查询标签、键嵌入、键标签)。当后两个参数未提供时,默认使用前两个参数。这种方式既保持了与标准训练配置的兼容性,又为高级训练设置提供了灵活性。
第三种方案是修改损失函数本身,使其能够接收四个参数。这种方法与第二种方案类似,但不需要额外的Wrapper类。函数内部通过判断参数是否为None来自动处理标准训练和跨批次训练两种情况。
从工程实现的角度来看,第一种方案最为简单直接,适合作为Keras核心功能的初始实现。而第二和第三种方案则提供了更大的灵活性,特别是对于需要跨批次训练的高级应用场景。开发者最终选择了第一种方案作为初始实现,这既保证了功能的稳定性,也为未来的扩展留下了空间。
相似性损失函数的加入将大大增强Keras在度量学习任务中的能力。对于研究人员和工程师来说,这意味着可以在Keras框架下更方便地实现各种基于相似性的学习算法,而无需依赖额外的库。这也体现了Keras作为深度学习框架的持续演进和扩展能力。
随着CircleLoss的实现,未来可能会有更多类型的相似性损失函数被引入Keras生态系统,进一步丰富其在各种机器学习任务中的应用场景。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust099- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00