Harvester项目中的存储类默认设置冲突问题分析与解决方案
问题背景
在Harvester v1.4.0至v1.4.1-rc1版本的升级过程中,部分用户遇到了一个与存储类(StorageClass)相关的升级障碍。具体表现为当集群中存在非默认存储类设置时,升级过程会被webhook拦截,提示"default storage class already exists"错误。
问题现象
在3节点见证(witness)集群环境中,当用户创建了一个自定义存储类(如名为sc2的存储类)并将其设置为默认存储类后,尝试执行Harvester版本升级时会遇到以下错误:
admission webhook "validator.harvesterhci.io" denied the request: managed chart harvester is not ready, please wait for it to be ready
进一步检查ManagedChart状态时,会发现更详细的错误信息:
cannot patch "harvester-longhorn" with kind StorageClass: admission webhook "validator.harvesterhci.io" denied the request: default storage class %!s(MISSING) already exists, please reset it first
根本原因分析
经过深入调查,发现该问题由以下几个因素共同导致:
-
Harvester chart的默认行为:Harvester chart在部署时会自动将
harvester-longhorn存储类标记为默认(default)存储类,通过设置storageclass.kubernetes.io/is-default-class: "true"注解。 -
集群扩展时的自动部署:当集群处于扩展状态(如添加新节点)时,Harvester相关部署会自动扩展,这是由于
management.cattle.io/scale-available注解的存在。 -
webhook验证冲突:当用户已经设置了其他存储类为默认存储类,而Harvester managedchart尝试重新部署并更新变更时,webhook会拦截这种冲突操作,导致升级失败。
解决方案
针对这一问题,开发团队提出了以下解决方案:
-
chart模板条件增强:在chart定义中添加更多条件判断,使用Helm的lookup功能检查是否已有其他存储类设置了默认注解。
-
控制器逻辑优化:当任何非
harvester-longhorn存储类被设置为默认时,Harvester控制器应自动将managedchart中的spec.values.storageClass.defaultStorageClass字段设置为false,避免冲突。 -
临时解决方案:在升级前手动编辑managedchart,将
spec.values.storageClass.defaultStorageClass设置为false。
技术实现细节
修复方案主要包含以下技术实现:
-
Helm模板条件判断:在harvester-storageclass.yaml模板中添加条件判断,确保只有在没有其他默认存储类时才设置
harvester-longhorn为默认。 -
webhook验证逻辑优化:修改webhook验证逻辑,正确处理存储类默认状态的变更请求。
-
超时设置修复:确保所有webhook配置都设置了适当的timeoutSeconds值,避免因超时导致的升级失败。
验证方案
为确保修复效果,建议进行以下验证步骤:
- 创建一个新存储类并将其设置为默认存储类
- 观察managedchart状态,确认没有出现存储类冲突错误
- 执行版本升级操作,验证升级过程顺利完成
- 检查升级后集群状态,确认所有组件正常运行
总结
Harvester项目中存储类默认设置的冲突问题是一个典型的配置管理挑战。通过增强chart的条件判断、优化控制器逻辑和webhook验证机制,开发团队有效解决了这一问题。这一修复不仅解决了当前版本的升级障碍,也为后续版本提供了更健壮的存储类管理机制。
对于正在使用v1.4.0版本且遇到此问题的用户,可以按照提供的临时解决方案进行操作,或者等待包含完整修复的v1.4.2版本发布。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00