YugabyteDB中引用表事务映射未清理导致的内存泄漏问题分析
问题背景
在YugabyteDB分布式数据库中,当使用外键约束时,如果父表(被引用表)没有足够的写入负载,而子表(引用表)有大量写入操作时,会出现TServer节点内存持续增长的问题。这个问题最终可能导致系统达到软内存限制而拒绝请求,或者在内存急剧增长时触发OOM killer重启yb-tserver进程。
技术原理分析
外键约束的实现机制
YugabyteDB通过以下方式实现外键约束:
- 当向子表插入记录时,系统会在子表对应的tablet上生成intents(意图记录)
- 由于插入操作引用了父表的行,系统还会在父表tablet对应的行上生成锁记录
- 事务提交后,这些intents可以应用到常规RocksDB中
事务映射的作用
在每个tablet(包括父表和子表)中,DocDB应用进程会将生成intents的事务添加到一个映射中。这个映射有两个关键用途:
- 确定tablet引导过程中需要加载的事务集合
- 确保引导过程加载所有必需的事务
该映射会随着可重试请求结构在tablet刷新时持久化。
问题根源
映射清理机制失效
当前系统存在两个关键问题导致映射无法正确清理:
-
清理时机不当:映射清理逻辑仅在tablet的WAL(预写日志)滚动时触发。如果tablet没有足够的WAL活动,即使事务已提交且不再需要引导,映射仍会持续占用内存。
-
写入条件限制:当工作负载主要在子表上产生大量写入时,父表tablet不会生成任何write_batches。导致依赖max_replicated_op_id_的现有清理逻辑无法生效,因为max_replicated_op_id_不会更新。
内存管理缺陷
目前系统没有跟踪该映射的内存使用情况。当映射无限增长时,可能导致:
- TServer达到软内存限制,工作负载被节流
- 内存急剧增长时触发OOM killer重启进程
影响范围
主要影响场景
- 外键约束场景:父表写入量少而子表写入量大的工作负载
- 可序列化隔离级别:只读事务也可能出现类似问题(相对较少见)
版本影响
该问题是2024.2.0+和2.25.0+版本中引入的回归问题。
诊断与缓解
诊断方法
可以通过以下Prometheus查询估算映射的内存开销(MB):
wal_replayable_applied_transactions{export_type="tserver_export"}*64/(1024*1024)
临时解决方案
重启TServer进程可以清理映射并回收内存。但完整解决方案需要升级到包含修复的版本。
技术深入解析
元数据保留机制
系统会保留少量最近应用事务的元数据(应用操作ID、开始混合时间),用于计算引导过程中过滤事务的min_replay_txn_start_ht。在正常情况下,这部分应该是固定开销,因为不再需要的旧条目会在更新磁盘上的tablet引导状态时从映射中移除。
父表特殊场景
在外键场景中,向子表插入记录会导致父表tablet的映射中也添加条目。但由于以下原因,父表tablet的引导状态永远不会写入:
- retryable_requests.cc中检查max_replicated_op_id_ == last_flushed_op_id_
- 由于从未向父表写入,max_replicated_op_id_永远不会更新
因此,父表tablet的映射永远不会被清理。
可能的清理条件
只有在以下情况下映射才会被清理:
- 向tablet写入行
- 触发tablet的WAL滚动(简单刷新不会触发,需要写入大于log_segment_size_mb/log_segment_size_bytes的行)
总结
YugabyteDB中的这一内存泄漏问题揭示了分布式数据库中外键实现与事务管理之间的复杂交互。问题的核心在于清理机制未能充分考虑所有可能的使用场景,特别是那些主要操作发生在引用表而非被引用表的情况。这提醒我们在设计分布式系统时,必须全面考虑各种边缘情况和交互模式,特别是在资源管理和清理机制方面。
- DDeepSeek-V3.1-BaseDeepSeek-V3.1 是一款支持思考模式与非思考模式的混合模型Python00
- QQwen-Image-Edit基于200亿参数Qwen-Image构建,Qwen-Image-Edit实现精准文本渲染与图像编辑,融合语义与外观控制能力Jinja00
GitCode-文心大模型-智源研究院AI应用开发大赛
GitCode&文心大模型&智源研究院强强联合,发起的AI应用开发大赛;总奖池8W,单人最高可得价值3W奖励。快来参加吧~044CommonUtilLibrary
快速开发工具类收集,史上最全的开发工具类,欢迎Follow、Fork、StarJava04GitCode百大开源项目
GitCode百大计划旨在表彰GitCode平台上积极推动项目社区化,拥有广泛影响力的G-Star项目,入选项目不仅代表了GitCode开源生态的蓬勃发展,也反映了当下开源行业的发展趋势。06GOT-OCR-2.0-hf
阶跃星辰StepFun推出的GOT-OCR-2.0-hf是一款强大的多语言OCR开源模型,支持从普通文档到复杂场景的文字识别。它能精准处理表格、图表、数学公式、几何图形甚至乐谱等特殊内容,输出结果可通过第三方工具渲染成多种格式。模型支持1024×1024高分辨率输入,具备多页批量处理、动态分块识别和交互式区域选择等创新功能,用户可通过坐标或颜色指定识别区域。基于Apache 2.0协议开源,提供Hugging Face演示和完整代码,适用于学术研究到工业应用的广泛场景,为OCR领域带来突破性解决方案。00openHiTLS
旨在打造算法先进、性能卓越、高效敏捷、安全可靠的密码套件,通过轻量级、可剪裁的软件技术架构满足各行业不同场景的多样化要求,让密码技术应用更简单,同时探索后量子等先进算法创新实践,构建密码前沿技术底座!C0300- WWan2.2-S2V-14B【Wan2.2 全新发布|更强画质,更快生成】新一代视频生成模型 Wan2.2,创新采用MoE架构,实现电影级美学与复杂运动控制,支持720P高清文本/图像生成视频,消费级显卡即可流畅运行,性能达业界领先水平Python00
- GGLM-4.5-AirGLM-4.5 系列模型是专为智能体设计的基础模型。GLM-4.5拥有 3550 亿总参数量,其中 320 亿活跃参数;GLM-4.5-Air采用更紧凑的设计,拥有 1060 亿总参数量,其中 120 亿活跃参数。GLM-4.5模型统一了推理、编码和智能体能力,以满足智能体应用的复杂需求Jinja00
Yi-Coder
Yi Coder 编程模型,小而强大的编程助手HTML013
热门内容推荐
最新内容推荐
项目优选









