RDKit中CachedSmilesMolHolder内存泄漏问题分析
问题背景
在RDKit化学信息学工具包中,CachedSmilesMolHolder是一个用于存储和管理SMILES分子字符串的类,它通常与SubstructLibrary一起使用来进行子结构搜索。然而,近期发现当在循环中重复创建和使用CachedSmilesMolHolder实例时,会出现内存泄漏问题,最终可能导致程序因内存不足而崩溃。
问题现象
用户报告了一个典型的内存泄漏场景:在一个循环中反复创建CachedSmilesMolHolder实例,添加大量SMILES字符串,然后创建SubstructLibrary。随着循环的进行,程序占用的内存持续增长而不会被释放,最终导致内存耗尽。
技术分析
通过深入分析发现问题主要存在于以下几个方面:
-
对象生命周期管理:CachedSmilesMolHolder实例在被SubstructLibrary引用后,其生命周期应该与SubstructLibrary绑定。然而当前实现中,当SubstructLibrary被销毁时,未能正确释放CachedSmilesMolHolder占用的内存。
-
Python包装层问题:在Python绑定层,当C++对象被Python包装时,有时会出现引用计数管理不当的情况,导致对象无法被垃圾回收器正确回收。
-
缓存机制副作用:CachedSmilesMolHolder内部维护了一个分子对象的缓存,这个缓存在某些情况下可能不会被及时清理。
解决方案
针对这个问题,RDKit开发团队已经提出了修复方案:
-
改进引用计数管理:确保当SubstructLibrary被销毁时,所有相关的CachedSmilesMolHolder资源都能被正确释放。
-
添加显式清理方法:为CachedSmilesMolHolder类添加一个清理方法,允许用户在不再需要时手动释放资源。
-
优化缓存策略:调整内部缓存机制,确保在适当的时候释放不再需要的分子对象。
临时解决方案
对于使用较旧版本RDKit的用户,可以采取以下临时措施来缓解内存泄漏问题:
-
减少重复创建:尽量避免在循环中反复创建CachedSmilesMolHolder实例,改为复用同一个实例。
-
分批处理:将大数据集分成较小的批次进行处理,每批完成后重启程序或释放资源。
-
使用替代方案:考虑使用其他分子持有器类,如SmilesMolHolder,如果功能满足需求的话。
最佳实践
为了避免类似的内存问题,建议在使用RDKit的分子持有器类时遵循以下原则:
-
最小化实例创建:尽可能复用现有的分子持有器实例,而不是频繁创建新的实例。
-
及时释放资源:当不再需要分子持有器时,确保所有引用都被清除,以便垃圾回收器可以回收内存。
-
监控内存使用:在处理大型数据集时,定期检查程序的内存使用情况,及时发现潜在的内存泄漏。
总结
内存管理是化学信息学软件中常见的挑战之一,特别是在处理大量分子数据时。RDKit团队已经意识到CachedSmilesMolHolder的内存泄漏问题,并在最新版本中进行了修复。对于用户来说,理解这些底层机制有助于更好地使用RDKit工具包,并开发出更健壮的化学信息学应用。
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
yuanrongopenYuanrong runtime:openYuanrong 多语言运行时提供函数分布式编程,支持 Python、Java、C++ 语言,实现类单机编程高性能分布式运行。Go051
MiniCPM-SALAMiniCPM-SALA 正式发布!这是首个有效融合稀疏注意力与线性注意力的大规模混合模型,专为百万级token上下文建模设计。00
ebook-to-mindmapepub、pdf 拆书 AI 总结TSX01