Harvester集群升级1.4.2至1.5.0版本实践经验分享
升级背景与整体情况
在将Harvester集群从1.4.2版本升级至1.5.0版本的过程中,虽然整体升级流程相比之前版本有了显著改善,但仍遇到了一些值得注意的技术问题。本次升级涉及约60个虚拟机,整个升级过程耗时约4小时,相比以往24小时以上的升级时间有了大幅缩短。
主要技术问题与解决方案
PCI直通设备的虚拟机处理问题
在升级过程中,所有配置了PCI直通或特定节点调度的虚拟机都需要手动关闭。虽然理解这些虚拟机在节点处理时需要关闭,但从技术实现角度看,如果采用逐个节点升级的方式,这些虚拟机完全可以在节点处理完成后自动重启。
技术建议:升级控制器应该能够识别这类特殊配置的虚拟机,在节点升级完成后自动恢复其运行状态,而不是要求管理员预先关闭所有相关虚拟机。
虚拟机异常断电问题
升级过程中出现了约三分之二的虚拟机被异常强制断电的情况,而非正常关机。通过日志分析发现,这一问题可能与节点升级时kubelet重启有关。特别值得注意的是,某些节点由于之前进入过维护模式,可能导致升级流程判断异常,跳过了预排空(pre-drain)步骤。
技术建议:
- 升级前应确保所有节点都处于正常状态
- 加强对维护模式节点的状态检查
- 实现更可靠的预排空流程保证
Prometheus资源不足问题
升级期间Prometheus Pod频繁因OOM(内存不足)被终止。这是由于升级过程中系统活动激增,导致监控数据量大幅增加,超出了默认资源配置。
解决方案:临时调整Prometheus的内存预留配置可以缓解此问题。建议在升级前预先调整监控组件的资源配额。
Longhorn实例管理器阻塞问题
在升级第二和第三个节点时,遇到了Longhorn实例管理器阻塞升级流程的情况。这与已知的实例管理器锁定问题类似,需要手动终止特定的实例管理器进程才能继续升级。
技术建议:升级流程应该包含自动检测和处理这类阻塞情况的机制,或者实现实例管理器的自动恢复功能。
升级优化建议
-
虚拟机迁移策略优化:对于特殊配置的虚拟机,应该实现更智能的迁移和恢复策略,而非简单的关闭操作。
-
资源预配置机制:对于关键系统组件如Prometheus,升级流程应该自动调整其资源配置以适应升级期间的高负载。
-
状态检查与恢复:升级前应加强节点状态检查,特别是对曾经进入过维护模式的节点要特别处理。
-
阻塞问题自动处理:对于Longhorn等存储组件可能出现的阻塞情况,应该实现自动检测和恢复机制。
总结
Harvester 1.5.0的升级体验相比之前版本有了明显改善,特别是在迁移成功率方面。通过本文分享的技术问题和解决方案,管理员可以更好地准备和规划升级过程,避免常见陷阱。随着Harvester的持续发展,期待未来的版本能够进一步优化升级体验,特别是在自动化处理特殊场景方面。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00