Harvester升级过程中Longhorn实例管理器检查问题分析与解决方案
2025-06-14 12:59:33作者:羿妍玫Ivan
问题背景
在Harvester集群从1.4.0版本升级到1.4.1版本的过程中,部分用户遇到了升级卡顿的问题。具体表现为:虽然管理界面显示升级已完成,但节点版本号仍停留在旧版本,且节点未按预期重启。
问题现象
升级过程中,系统日志显示如下关键错误信息:
instance-manager (aio) (image=longhornio/longhorn-instance-manager:v1.7.2) count is not 1 on node t7820, will retry...
检查实例管理器Pod状态时发现,每个节点上同时运行着两个实例管理器Pod:
longhorn-system instance-manager-e4171aea8fa55d5947f0cd505c60f3ce 1/1 Running
longhorn-system instance-manager-47d20ebaa9cab22d9dd82eb56a3eb50a 1/1 Running
问题根源
经过分析,发现该问题与Longhorn v2数据引擎功能有关:
- 当启用Longhorn v2数据引擎时,系统会为v1和v2数据引擎分别创建独立的实例管理器
- 升级检查脚本中仅预期每个节点有一个实例管理器Pod
- 实际环境中每个节点有两个实例管理器Pod(v1和v2各一个)
- 这种数量不匹配导致升级检查失败,进而阻塞了整个升级流程
解决方案
开发团队已经针对此问题提供了修复方案:
- 升级检查逻辑已修改,能够正确识别并处理同时存在的v1和v2实例管理器
- 检查脚本现在会分别验证v1和v2实例管理器的状态
- 对于单节点集群,相关检查会被适当跳过
临时解决方案
对于正在经历此问题的用户,可以采取以下临时解决方案完成升级:
- 进入Harvester管理界面
- 禁用Longhorn v2数据引擎功能
- 重新尝试升级操作
验证情况
开发团队已在多种场景下验证了修复效果:
- 双节点集群升级(未启用v2数据引擎) - 通过
- 单节点集群升级 - 通过
- 启用v2数据引擎的双节点集群升级 - 通过
验证日志显示,修复后的检查逻辑能够正确处理多个实例管理器的情况:
Checking instance-manager (aio)(v1) on node harv2 OK.
Checking instance-manager (aio)(v2) on node harv2 OK.
最佳实践建议
- 在升级前检查Longhorn v2数据引擎状态
- 对于生产环境,建议先在测试环境验证升级过程
- 确保有完整的备份后再执行升级操作
- 监控升级过程中的日志输出,及时发现潜在问题
该修复已包含在Harvester 1.5版本中,为Longhorn多数据引擎场景提供了更好的升级兼容性。
登录后查看全文
热门项目推荐
相关项目推荐
暂无数据
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
540
3.77 K
Ascend Extension for PyTorch
Python
351
415
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
889
612
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
338
185
openJiuwen agent-studio提供零码、低码可视化开发和工作流编排,模型、知识库、插件等各资源管理能力
TSX
987
253
openGauss kernel ~ openGauss is an open source relational database management system
C++
169
233
暂无简介
Dart
778
193
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.35 K
758
华为昇腾面向大规模分布式训练的多模态大模型套件,支撑多模态生成、多模态理解。
Python
115
141