Keras 3中的相似性损失函数:CircleLoss的实现与思考
在深度学习领域,相似性学习(Similarity Learning)是一个重要的研究方向,它专注于学习如何度量数据样本之间的相似性。最近,Keras社区中关于在Keras 3中实现相似性损失函数的讨论引起了广泛关注,特别是关于CircleLoss的实现方案。
相似性损失函数与传统分类损失函数不同,它直接优化样本在嵌入空间中的距离关系。这类损失函数通常用于人脸识别、图像检索、推荐系统等需要度量相似度的任务。CircleLoss作为一种较新的相似性损失函数,通过自适应调整梯度,能够更有效地优化正负样本对。
在Keras 3中实现CircleLoss时,开发者提出了三种不同的技术方案:
第一种方案是直接继承Keras现有的LossFunctionWrapper。这是最直接的方式,损失函数只接收y_true和y_pred两个参数,计算局限在单个批次内。这种方式实现简单,适合大多数标准训练场景,但无法支持跨批次的正负样本挖掘。
第二种方案是引入新的MetricLossFunctionWrapper。这种设计参考了TensorFlow Similarity库中的实现,允许损失函数接收四个参数(查询嵌入、查询标签、键嵌入、键标签)。当后两个参数未提供时,默认使用前两个参数。这种方式既保持了与标准训练配置的兼容性,又为高级训练设置提供了灵活性。
第三种方案是修改损失函数本身,使其能够接收四个参数。这种方法与第二种方案类似,但不需要额外的Wrapper类。函数内部通过判断参数是否为None来自动处理标准训练和跨批次训练两种情况。
从工程实现的角度来看,第一种方案最为简单直接,适合作为Keras核心功能的初始实现。而第二和第三种方案则提供了更大的灵活性,特别是对于需要跨批次训练的高级应用场景。开发者最终选择了第一种方案作为初始实现,这既保证了功能的稳定性,也为未来的扩展留下了空间。
相似性损失函数的加入将大大增强Keras在度量学习任务中的能力。对于研究人员和工程师来说,这意味着可以在Keras框架下更方便地实现各种基于相似性的学习算法,而无需依赖额外的库。这也体现了Keras作为深度学习框架的持续演进和扩展能力。
随着CircleLoss的实现,未来可能会有更多类型的相似性损失函数被引入Keras生态系统,进一步丰富其在各种机器学习任务中的应用场景。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C094
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00