首页
/ Harvester集群升级过程中节点卡在Pre-drained状态问题分析

Harvester集群升级过程中节点卡在Pre-drained状态问题分析

2025-06-14 23:13:33作者:平淮齐Percy

问题现象

在将Harvester集群从v1.4.0版本升级到v1.4.1版本的过程中,用户遇到了第一个升级节点卡在"Pre-drained"状态的问题。该节点虽然显示已升级到v1.30.7+rke2r1版本,但状态一直停留在"Cordoned"状态无法继续后续升级流程。

环境背景

  • 集群配置:3节点Baremetal架构(非服务器级硬件)
  • 运行时长:已稳定运行超过430天
  • 存储状态:Longhorn存储卷存在不健康状态

问题分析

  1. 升级流程中断:Harvester的升级流程中,节点需要经历"Pre-drained"阶段,该阶段会执行节点隔离(cordon)和驱逐(eviction)操作,为升级做准备。

  2. 存储系统影响:从描述看,Longhorn存储卷处于不健康状态可能是导致升级卡住的关键因素。当节点被隔离时,如果存储卷无法正常迁移或重建,会导致升级流程无法继续。

  3. 手动干预影响:用户尝试手动解除节点隔离(uncordon)后,Longhorn卷能够重建并恢复健康状态,但重新隔离节点后升级流程仍无法继续,说明问题可能不仅限于存储层面。

解决方案探索

  1. 删除PDB资源:社区建议的解决方案是删除相关节点的instance-manager PodDisruptionBudget(PDB)资源。PDB是Kubernetes中用于保护应用可用性的资源,在升级过程中可能会阻止Pod的正常驱逐。

    执行命令示例:

    kubectl get pods -n longhorn-system --field-selector spec.nodeName=<nodeName> | grep instance-manager | awk '{print $1}' | xargs -I{} kubectl delete pdb {} -n longhorn-system
    
  2. 多节点考量:特别需要注意的是,在3节点配置下,存储系统的高可用性要求可能导致升级流程更加敏感。缺少见证节点(witness)的配置可能加剧这一问题。

最佳实践建议

  1. 升级前检查

    • 确保所有Longhorn卷处于健康状态
    • 检查各节点资源利用率
    • 验证备份完整性
  2. 升级过程监控

    • 实时关注Longhorn卷状态
    • 监控节点资源使用情况
    • 准备好回滚方案
  3. 故障处理流程

    • 优先检查存储系统状态
    • 按需删除阻碍升级的PDB资源
    • 必要时联系社区支持

总结

Harvester集群升级过程中的节点卡顿问题通常与存储系统状态密切相关。通过理解升级流程中各阶段的运作机制,结合系统状态分析,可以有效定位和解决问题。对于生产环境,建议在升级前进行全面检查,并准备好应急预案以确保升级过程顺利进行。

登录后查看全文
热门项目推荐
相关项目推荐