YugabyteDB中引用表事务映射未清理导致的内存泄漏问题分析
问题背景
在YugabyteDB分布式数据库中,当使用外键约束时,如果父表(被引用表)没有足够的写入负载,而子表(引用表)有大量写入操作时,会出现TServer节点内存持续增长的问题。这个问题最终可能导致系统达到软内存限制而拒绝请求,或者在内存急剧增长时触发OOM killer重启yb-tserver进程。
技术原理分析
外键约束的实现机制
YugabyteDB通过以下方式实现外键约束:
- 当向子表插入记录时,系统会在子表对应的tablet上生成intents(意图记录)
- 由于插入操作引用了父表的行,系统还会在父表tablet对应的行上生成锁记录
- 事务提交后,这些intents可以应用到常规RocksDB中
事务映射的作用
在每个tablet(包括父表和子表)中,DocDB应用进程会将生成intents的事务添加到一个映射中。这个映射有两个关键用途:
- 确定tablet引导过程中需要加载的事务集合
- 确保引导过程加载所有必需的事务
该映射会随着可重试请求结构在tablet刷新时持久化。
问题根源
映射清理机制失效
当前系统存在两个关键问题导致映射无法正确清理:
-
清理时机不当:映射清理逻辑仅在tablet的WAL(预写日志)滚动时触发。如果tablet没有足够的WAL活动,即使事务已提交且不再需要引导,映射仍会持续占用内存。
-
写入条件限制:当工作负载主要在子表上产生大量写入时,父表tablet不会生成任何write_batches。导致依赖max_replicated_op_id_的现有清理逻辑无法生效,因为max_replicated_op_id_不会更新。
内存管理缺陷
目前系统没有跟踪该映射的内存使用情况。当映射无限增长时,可能导致:
- TServer达到软内存限制,工作负载被节流
- 内存急剧增长时触发OOM killer重启进程
影响范围
主要影响场景
- 外键约束场景:父表写入量少而子表写入量大的工作负载
- 可序列化隔离级别:只读事务也可能出现类似问题(相对较少见)
版本影响
该问题是2024.2.0+和2.25.0+版本中引入的回归问题。
诊断与缓解
诊断方法
可以通过以下Prometheus查询估算映射的内存开销(MB):
wal_replayable_applied_transactions{export_type="tserver_export"}*64/(1024*1024)
临时解决方案
重启TServer进程可以清理映射并回收内存。但完整解决方案需要升级到包含修复的版本。
技术深入解析
元数据保留机制
系统会保留少量最近应用事务的元数据(应用操作ID、开始混合时间),用于计算引导过程中过滤事务的min_replay_txn_start_ht。在正常情况下,这部分应该是固定开销,因为不再需要的旧条目会在更新磁盘上的tablet引导状态时从映射中移除。
父表特殊场景
在外键场景中,向子表插入记录会导致父表tablet的映射中也添加条目。但由于以下原因,父表tablet的引导状态永远不会写入:
- retryable_requests.cc中检查max_replicated_op_id_ == last_flushed_op_id_
- 由于从未向父表写入,max_replicated_op_id_永远不会更新
因此,父表tablet的映射永远不会被清理。
可能的清理条件
只有在以下情况下映射才会被清理:
- 向tablet写入行
- 触发tablet的WAL滚动(简单刷新不会触发,需要写入大于log_segment_size_mb/log_segment_size_bytes的行)
总结
YugabyteDB中的这一内存泄漏问题揭示了分布式数据库中外键实现与事务管理之间的复杂交互。问题的核心在于清理机制未能充分考虑所有可能的使用场景,特别是那些主要操作发生在引用表而非被引用表的情况。这提醒我们在设计分布式系统时,必须全面考虑各种边缘情况和交互模式,特别是在资源管理和清理机制方面。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00