Harvester集群升级故障分析与恢复实战
前言
在生产环境中进行Kubernetes集群升级时,经常会遇到各种意外情况。本文将以Harvester v1.3.1升级至v1.3.2过程中遇到的典型故障为例,深入分析问题原因并提供完整的恢复方案。通过这个真实案例,我们将了解如何诊断集群升级故障,以及在极端情况下如何恢复集群运行状态。
故障现象
用户报告在将三节点Harvester集群从v1.3.1升级至v1.3.2时遇到了以下问题:
- 首次升级尝试在节点1完成升级后,节点2和节点3的"Pre Draining"阶段卡住
- 尝试重新开始升级后,集群状态停留在"Images preloaded"阶段无法继续
- 操作系统镜像版本显示不一致,部分节点仍停留在v1.3.1而RKE2版本已升级至v1.28.12
问题诊断
通过对支持包的分析,我们发现以下几个关键问题点:
-
etcd集群健康状态异常:日志显示多个节点在进行etcd数据库碎片整理(defragmenting),这表明etcd可能已经失去法定人数(quorum)
-
节点通信故障:CAPI控制器管理器日志中频繁出现TLS握手错误,表明控制平面组件之间的通信存在问题
-
节点状态不一致:部分节点成功升级了RKE2版本(v1.28.12)但Harvester OS仍停留在v1.3.1,导致版本不匹配
-
升级流程中断:用户在升级进入节点排水阶段后尝试重新开始升级,这违反了升级流程的最佳实践
恢复方案
第一阶段:评估集群状态
- 确认剩余健康节点的状态
- 检查etcd集群健康状态
- 验证Kubernetes API服务器可用性
第二阶段:执行集群重置
对于仅剩一个控制平面节点的场景,我们采用RKE2集群重置方案:
-
备份关键数据:
- 使用RKE2内置快照功能备份etcd数据
- 手动备份Harvester虚拟机定义和存储配置
-
执行集群重置:
sudo rke2 server \ --cluster-reset \ --cluster-reset-restore-path=<快照路径> -
证书轮换:
sudo rm -rf /var/lib/rancher/rke2/server/tls/* sudo systemctl restart rke2-server
第三阶段:节点重新加入
-
准备新节点:
- 使用Harvester完整ISO进行全新安装
- 确保使用新的主机名避免冲突
- 配置正确的管理网络连接
-
加入集群:
sudo harvester join https://<健康节点管理IP> \ --token <集群令牌> \ --server https://<健康节点管理IP>:6443 -
验证集群状态:
- 检查所有节点Ready状态
- 验证核心组件运行状态
- 确认存储系统(Longhorn)健康状态
第四阶段:解决Bundle部署问题
在恢复过程中,可能会遇到"mcc-harvester" Bundle部署卡住的情况。这是由于部分资源同步状态不一致导致的,可以通过以下命令强制重新同步:
kubectl -n fleet-local patch bundle mcc-harvester \
--type=merge \
-p '{"spec":{"forceSyncGeneration":1}}'
经验总结与最佳实践
-
升级前检查:
- 务必运行升级预检查脚本
- 确保所有节点状态健康
- 备份关键数据和配置
-
升级过程注意事项:
- 避免在节点排水阶段中断升级
- 监控每个节点的升级进度
- 准备好回滚方案
-
集群维护建议:
- 定期检查etcd健康状况
- 监控证书过期时间
- 保持文档记录集群配置变更
-
故障处理原则:
- 优先保护数据完整性
- 逐步验证恢复步骤
- 在测试环境验证关键操作
后续升级验证
在成功恢复集群后,用户可以继续完成后续升级:
- 从v1.3.2升级至v1.4.0
- 从v1.4.0升级至v1.4.1
经过验证,后续升级过程顺利完成,且v1.4.1版本在性能上有显著提升。
结论
Harvester集群升级故障的恢复需要系统性的方法和谨慎的操作。通过本文介绍的诊断方法和恢复步骤,管理员可以有效地处理类似的升级故障场景。关键是要理解集群各组件的交互关系,并在操作前做好充分准备。记住,在生产环境中,预防胜于治疗,规范的升级流程和充分的准备工作可以避免大多数升级问题。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00