YugabyteDB中引用表事务映射未清理导致的内存泄漏问题分析
问题背景
在YugabyteDB分布式数据库中,当使用外键约束时,如果父表(被引用表)没有足够的写入负载,而子表(引用表)有大量写入操作时,会出现TServer节点内存持续增长的问题。这个问题最终可能导致系统达到软内存限制而拒绝请求,或者在内存急剧增长时触发OOM killer重启yb-tserver进程。
技术原理分析
外键约束的实现机制
YugabyteDB通过以下方式实现外键约束:
- 当向子表插入记录时,系统会在子表对应的tablet上生成intents(意图记录)
- 由于插入操作引用了父表的行,系统还会在父表tablet对应的行上生成锁记录
- 事务提交后,这些intents可以应用到常规RocksDB中
事务映射的作用
在每个tablet(包括父表和子表)中,DocDB应用进程会将生成intents的事务添加到一个映射中。这个映射有两个关键用途:
- 确定tablet引导过程中需要加载的事务集合
- 确保引导过程加载所有必需的事务
该映射会随着可重试请求结构在tablet刷新时持久化。
问题根源
映射清理机制失效
当前系统存在两个关键问题导致映射无法正确清理:
-
清理时机不当:映射清理逻辑仅在tablet的WAL(预写日志)滚动时触发。如果tablet没有足够的WAL活动,即使事务已提交且不再需要引导,映射仍会持续占用内存。
-
写入条件限制:当工作负载主要在子表上产生大量写入时,父表tablet不会生成任何write_batches。导致依赖max_replicated_op_id_的现有清理逻辑无法生效,因为max_replicated_op_id_不会更新。
内存管理缺陷
目前系统没有跟踪该映射的内存使用情况。当映射无限增长时,可能导致:
- TServer达到软内存限制,工作负载被节流
- 内存急剧增长时触发OOM killer重启进程
影响范围
主要影响场景
- 外键约束场景:父表写入量少而子表写入量大的工作负载
- 可序列化隔离级别:只读事务也可能出现类似问题(相对较少见)
版本影响
该问题是2024.2.0+和2.25.0+版本中引入的回归问题。
诊断与缓解
诊断方法
可以通过以下Prometheus查询估算映射的内存开销(MB):
wal_replayable_applied_transactions{export_type="tserver_export"}*64/(1024*1024)
临时解决方案
重启TServer进程可以清理映射并回收内存。但完整解决方案需要升级到包含修复的版本。
技术深入解析
元数据保留机制
系统会保留少量最近应用事务的元数据(应用操作ID、开始混合时间),用于计算引导过程中过滤事务的min_replay_txn_start_ht。在正常情况下,这部分应该是固定开销,因为不再需要的旧条目会在更新磁盘上的tablet引导状态时从映射中移除。
父表特殊场景
在外键场景中,向子表插入记录会导致父表tablet的映射中也添加条目。但由于以下原因,父表tablet的引导状态永远不会写入:
- retryable_requests.cc中检查max_replicated_op_id_ == last_flushed_op_id_
- 由于从未向父表写入,max_replicated_op_id_永远不会更新
因此,父表tablet的映射永远不会被清理。
可能的清理条件
只有在以下情况下映射才会被清理:
- 向tablet写入行
- 触发tablet的WAL滚动(简单刷新不会触发,需要写入大于log_segment_size_mb/log_segment_size_bytes的行)
总结
YugabyteDB中的这一内存泄漏问题揭示了分布式数据库中外键实现与事务管理之间的复杂交互。问题的核心在于清理机制未能充分考虑所有可能的使用场景,特别是那些主要操作发生在引用表而非被引用表的情况。这提醒我们在设计分布式系统时,必须全面考虑各种边缘情况和交互模式,特别是在资源管理和清理机制方面。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C0100
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python059
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00