Harvester项目升级控制器对暂停状态管理图表的恢复机制解析
背景介绍
在Harvester项目(一个基于Kubernetes构建的开源超融合基础设施HCI解决方案)的升级过程中,系统会通过管理图表(ManagedCharts)来协调各种组件的升级。这些管理图表在升级过程中会被临时暂停(paused),以确保升级过程的原子性和一致性。然而,在某些异常情况下,特别是当升级过程被中断时,这些图表可能会保持暂停状态,导致系统功能异常。
问题本质
在Harvester v1.5.1版本之前,当升级过程被意外中断(如手动取消升级或升级过程中出现错误)时,系统无法自动恢复那些被暂停的管理图表。这会导致相关功能组件无法正常运行,需要管理员手动干预才能恢复系统完整功能。
技术实现
Harvester团队在v1.5.1版本中实现了升级控制器的增强功能,使其能够在以下情况下自动恢复被暂停的管理图表:
-
正常升级完成时:当升级成功完成所有步骤后,控制器会自动恢复所有被暂停的图表。
-
升级被取消时:如果升级过程被手动取消,控制器会检测并恢复那些仍处于暂停状态的图表。
-
升级失败时:当升级过程中出现错误导致失败时,控制器会尝试恢复图表到正常状态。
实现细节
升级控制器通过以下机制实现这一功能:
-
状态跟踪:控制器会跟踪每个管理图表的暂停状态,记录哪些图表因升级而被暂停。
-
异常处理:在检测到升级过程异常终止时,控制器会遍历所有被它暂停的图表,并将它们的spec.paused字段设置为false。
-
版本兼容性:该功能在不同版本间的行为有所不同:
- v1.4.3及更早版本:无法自动恢复暂停的图表
- v1.5.1版本:当升级被取消且Harvester Pod已升级时,可以恢复图表
- v1.6.0及以上版本:完全支持在各种异常情况下恢复图表
实际应用场景
这一增强功能特别适用于以下场景:
-
升级卡顿时:当升级过程卡在某个步骤(如upgrade_rancher)时,管理员可以安全地取消升级,系统会自动恢复图表状态。
-
资源清理:在升级被取消后,系统会清理相关资源(如repo),此时图表可能会进入错误状态(如"no chart version found"),但至少它们不会被错误地保持在暂停状态。
-
系统恢复:在升级失败后,系统能够更快地恢复到可用状态,减少管理员干预的需要。
注意事项
虽然这一增强提高了系统的健壮性,但用户仍需注意:
-
在v1.4.3升级到v1.5.1的过程中,如果升级在Harvester Pod完成升级前被取消,图表可能仍会保持暂停状态。
-
取消升级可能导致某些图表处于错误状态,特别是当apply_manifest任务被中断时,这通常是由于相关资源(如repo)已被清理而任务仍在运行导致的。
-
对于生产环境,建议在测试环境中验证升级过程,了解特定版本组合下的行为特征。
未来改进方向
Harvester团队正在考虑以下改进:
-
更精细的升级控制:可能引入对apply_manifest任务的更精细控制,使其能够响应升级取消事件。
-
状态一致性保证:探索如何保证即使在升级被取消时,系统资源也能保持一致性。
-
用户界面增强:在UI中更清晰地展示升级中断后的系统状态和需要的恢复操作。
这一改进体现了Harvester项目对系统可靠性和用户体验的持续关注,使得产品在复杂的升级场景下表现更加稳健。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00