Harvester项目中的第三方存储集成与优化实践
摘要
本文深入探讨了开源项目Harvester在v1.5.0版本中对第三方存储系统的集成与优化实践。作为一款基于Kubernetes构建的开源超融合基础设施(HCI)解决方案,Harvester通过一系列技术改进实现了对多种存储后端的支持,包括Longhorn v1/v2、LVM等存储系统,为用户提供了更灵活的存储选择方案。
存储集成架构设计
Harvester通过容器化数据导入器(CDI)技术实现了对不同存储后端的支持。在架构层面,系统会根据用户选择的存储类型自动配置相应的处理方式:
- 对于Longhorn v1存储,系统采用backingimage机制
- 对于其他存储类型(如Longhorn v2、LVM等),则使用CDI标准流程
这种设计使得Harvester能够在不改变用户操作习惯的前提下,实现对多种存储系统的无缝支持。
关键技术实现
镜像管理增强
在镜像创建页面中,系统会根据用户选择的存储类型自动填充spec.backend和spec.targetStorageClassName字段。这一改进使得:
- 文件上传(File)和URL下载方式都能正确适配不同存储后端
- 用户可以在存储选项卡中选择所有可用的StorageClass
- 镜像列表页面新增了存储类列,提高了管理透明度
虚拟机创建流程优化
在虚拟机创建过程中,系统现在会:
- 显示存储类和虚拟大小信息
- 当根磁盘大小小于镜像虚拟大小时,显示错误提示并禁用创建按钮
- 针对Longhorn v2数据引擎,默认启用migratable特性(基于Longhorn v1.8的实时迁移支持)
这些改进显著提升了用户体验,避免了因存储配置不当导致的创建失败问题。
存储卷管理改进
存储卷列表页面实现了以下优化:
- 过滤掉带有特定注解的PVC和卷
- 支持跨存储类的"导出镜像"操作(CDI卷除外)
- 除LHv2存储类外,其他卷类型支持"创建快照"功能
这些改进使得存储管理更加灵活,同时保持了操作的直观性。
性能考量与状态管理
在技术实现过程中,团队注意到从Longhorn v2镜像创建虚拟机时,由于CDI需要完整复制镜像,耗时明显增加。这导致了虚拟机状态显示上的挑战:
- "stopping"状态持续时间延长
- 状态转换顺序变为"Unschedule"→"Starting"
通过专门的优化工作,团队改进了状态机逻辑,确保了即使在长时间操作下,用户界面也能提供准确的状态反馈。
未来发展方向
虽然当前版本已经实现了对多种存储系统的支持,但团队已经规划了进一步的改进:
- 存储配置克隆策略的精细化控制
- 第三方存储配置的专用界面
- 更完善的存储性能监控
这些改进将在后续版本中逐步实现,为用户提供更强大的存储管理能力。
结论
Harvester通过对第三方存储系统的深度集成,成功扩展了其存储能力边界,同时保持了产品的易用性特点。这一系列改进不仅丰富了用户的选择,也为企业级存储方案提供了更多可能性,体现了Harvester作为开源超融合解决方案的技术前瞻性。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C0105
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python059
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00