Longhorn 存储卷在虚拟机迁移过程中出现 I/O 异常的深度分析
问题背景
在将 Harvester 集群从 v1.4.1 升级到 v1.4.2-rc1 版本的过程中,用户遇到了一个关键性问题:当虚拟机(VM)从一个节点迁移到另一个节点时,虚拟机最终会陷入暂停状态,原因是底层 Longhorn 存储卷出现了 I/O 异常。这个问题发生在 Longhorn v1.7.2 版本上,影响了生产环境的稳定性。
问题现象
从日志中可以观察到几个关键异常信息:
- 在快照合并过程中出现了异常行为,系统尝试将
volume-snap-fc94f64a-ed11-4025-8bc4-c864a4c73b7c.img合并到volume-snap-7ccd0136-f3ed-4271-b9ff-a9036212b3e9.img中 - 随后系统尝试替换磁盘文件,但最终失败
- 最终导致后端存储不可用,出现 I/O 异常:"no backend available"
根本原因分析
经过深入分析,我们发现问题的根源在于 Longhorn 的实时迁移机制与快照清理机制的竞态条件:
-
迁移检查不完整:虽然实时迁移有一个检查机制来确保没有正在重建的只写(WO)副本,但这个检查存在缺陷。当副本被删除并正在重建时,引擎规范中的副本地址映射(engine.spec.replicaAddressMap)可能显示有三个副本,而引擎状态中的副本模式映射(engine.status.replicaModeMap)可能只显示两个可读写(RW)副本。
-
状态不一致:这种不一致是因为实例管理器没有实时获取副本模式映射,导致系统错误地判断迁移条件。
-
快照清理的干扰:如果在添加新副本后但迁移完成前执行快照清理(SnapshotPurge),新副本会因为节点磁盘上的快照文件被更改而无法列出快照文件,最终导致所有新副本被标记为异常(ERR)状态。
技术细节
在底层实现上,这个问题涉及几个关键组件和流程:
-
副本管理:Longhorn 维护着副本的状态信息,包括地址映射和模式映射。当副本重建时,这些状态可能暂时不同步。
-
快照合并机制:系统尝试合并快照文件以提高存储效率,但在迁移过程中这种操作可能导致文件状态不一致。
-
I/O 路径:当后端存储出现问题时,I/O 操作会失败,最终导致虚拟机暂停。
解决方案
针对这个问题,Longhorn 团队提出了以下解决方案:
-
临时解决方案:在升级 Longhorn 期间,可以禁用
auto-cleanup-system-generated-snapshot设置,防止在副本重建期间执行快照清理。 -
长期解决方案:改进迁移检查机制,确保在副本重建期间不会错误地启动迁移操作。这包括:
- 加强状态一致性检查
- 优化副本模式映射的实时更新机制
- 在关键操作期间增加适当的锁机制
影响与启示
这个问题给我们几个重要的启示:
-
分布式存储系统的复杂性:在分布式环境中,状态管理是一个复杂的问题,需要仔细设计同步机制。
-
升级过程的敏感性:系统升级过程中往往容易出现边缘情况,需要特别关注。
-
监控与恢复机制:完善的监控和自动恢复机制可以减轻这类问题的影响。
结论
Longhorn 存储卷在虚拟机迁移过程中出现的 I/O 异常问题揭示了分布式存储系统在状态管理和操作时序方面的挑战。通过深入分析根本原因,我们不仅找到了临时解决方案,也为系统架构的长期改进指明了方向。这类问题的解决需要综合考虑系统设计、状态管理和异常处理等多个方面,是分布式存储系统开发中的典型挑战。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C036
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
kylin-wayland-compositorkylin-wayland-compositor或kylin-wlcom(以下简称kywc)是一个基于wlroots编写的wayland合成器。 目前积极开发中,并作为默认显示服务器随openKylin系统发布。 该项目使用开源协议GPL-1.0-or-later,项目中来源于其他开源项目的文件或代码片段遵守原开源协议要求。C00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00