OpenJDK Eclipse OpenJ9 项目中虚拟线程饥饿问题的GC断言失败分析
问题背景
在OpenJDK 24版本的Eclipse OpenJ9项目中,测试用例java/lang/Thread/virtual/Starvation.java在执行时触发了GC断言失败。这个问题最初在macOS平台上被发现,随后在s390x Linux和Windows平台上也出现了类似的失败情况。
错误现象
测试执行过程中,GC子系统触发了断言失败,具体错误信息显示在HeapRegionManager.hpp文件的第283行:
** ASSERTION FAILED ** at HeapRegionManager.hpp:283: ((false && (heapAddress < _highTableEdge)))
在s390x Linux平台上,类似的断言失败出现在第282行:
** ASSERTION FAILED ** at HeapRegionManager.hpp:282: ((false && (heapAddress >= _lowTableEdge)))
根本原因分析
经过深入调查,发现问题出在Write Once Compactor的Fixup路径中缺少对虚拟栈分配对象的检查。当Compactor Fixup在扫描continuation虚拟栈时发现了栈分配对象,却错误地将其假设为堆对象,从而导致断言失败。
具体来说,这个问题发生在Balanced GC场景下,与虚拟线程(VThread)的栈处理相关。测试用例使用了VThreadPinner.runPinned()功能,该功能强制虚拟线程在同步块内恢复到原始的固定行为。
技术细节
从调用栈分析可以看出,问题发生在以下关键路径:
- 虚拟线程栈帧的扫描过程中
- 通过jitWalkStackFrames和walkContinuationStackFrames遍历栈帧
- WriteOnceCompactor尝试处理continuation对象时
- 最终在HeapRegionManager中触发断言失败
核心问题在于Compactor Fixup路径未能正确识别栈分配对象与堆对象的区别,导致对非堆内存地址进行了堆区域管理器的查询操作。
解决方案
修复方案主要是在Write Once Compactor的Fixup路径中添加对虚拟栈分配对象的检查逻辑,确保能够正确识别栈分配对象,避免将其误认为堆对象进行处理。
该修复被认为是低风险的,适用于所有仍可提交的分支。在OpenJDK 24版本中,这个问题最终在0.51分支上得到了修复。
影响范围
这个问题最初在macOS平台上被发现,但后续测试表明它影响多个平台,包括:
- x86-64 macOS
- s390x Linux
- x86-64 Windows
- aarch64 Linux
所有使用Balanced GC并且涉及虚拟线程continuation对象处理的场景都可能受到影响。
总结
这个案例展示了在GC实现中处理新型语言特性(如虚拟线程)时可能遇到的边缘情况。它强调了在内存管理子系统中,对不同类型的对象(堆对象、栈分配对象等)进行精确区分的重要性。通过这个问题的分析和修复,OpenJ9团队进一步完善了对虚拟线程和continuation对象的支持,提高了GC子系统的健壮性。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00