Harvester v1.5.0-rc2 技术预览版深度解析
Harvester作为一款基于Kubernetes构建的开源超融合基础设施(HCI)解决方案,近日发布了v1.5.0-rc2技术预览版。这个版本标志着Harvester在存储功能、虚拟化管理以及集群稳定性方面又向前迈进了一大步。
核心组件升级
本次发布的v1.5.0-rc2版本对多个核心组件进行了重要升级:
- Longhorn升级至v1.8.1:新版Longhorn带来了更强大的数据引擎和存储管理能力,特别是在数据持久化和备份恢复方面有显著提升。
- KubeVirt升级至v1.4.0:增强了虚拟机的生命周期管理功能,为VM的创建、迁移和监控提供了更稳定的基础。
- RKE2升级至v1.32.2+rke2r1:底层Kubernetes发行版的升级为整个平台带来了更好的安全性和性能表现。
存储功能增强
v1.5.0-rc2版本在存储方面有几个值得关注的改进:
-
第三方存储支持:现在可以更灵活地集成外部存储系统,包括LVM等存储方案,为用户提供了更多存储选择。
-
Longhorn v2数据引擎:引入了对boot volume和backing image的支持,同时实现了live migration功能,显著提升了存储的灵活性和可用性。
-
存储网络配置优化:改进了存储网络的设置流程,使网络配置更加直观和可靠。
虚拟化管理改进
在虚拟机管理方面,新版本带来了多项增强:
- PCI设备直通稳定性提升:解决了之前版本中PCI设备直通后可能出现的设备不可用问题。
- vGPU分配显示优化:现在能够更准确地显示分配给VM的vGPU数量。
- EFI支持增强:增加了对EFI持久状态的配置选项,为需要EFI启动的虚拟机提供了更好的支持。
安装与升级优化
安装和升级流程也得到了一系列改进:
- 多路径配置优化:在非外部磁盘启动场景下,改进了multipath的配置方式。
- 升级控制器增强:更好地处理了升级过程中的各种错误情况,包括镜像清理失败等问题。
- ISO安装改进:修复了之前版本中ISO安装可能失败的问题,提高了安装成功率。
网络功能完善
网络相关功能在这个版本中也有显著提升:
- 自定义CA证书支持:解决了在加入集群时使用自定义CA证书可能失败的问题。
- DHCP功能增强:改进了DHCP检查机制,特别是在使用静态IP地址的场景下表现更稳定。
- 存储网络支持:现在可以更灵活地配置存储网络,包括支持untagged VLAN。
用户体验改进
在用户界面和操作体验方面:
- 卷管理界面优化:解决了删除卷后界面显示不一致的问题。
- 备份管理增强:改进了备份目标的设置和兼容性检查。
- 资源配额计算修正:更准确地计算VM的资源配额,避免资源分配不足的情况。
技术预览说明
需要注意的是,v1.5.0-rc2仍是一个技术预览版本,不建议在生产环境中使用。该版本主要面向技术爱好者和早期采用者,用于测试新功能和提供反馈。官方明确表示不支持从该版本升级到后续版本,也不建议从其他版本升级到该版本。
对于ARM64架构,此版本仍处于技术预览阶段,用户在使用时可能会遇到一些限制或问题。AMD64架构的支持相对更加成熟稳定。
总结
Harvester v1.5.0-rc2版本在存储功能、虚拟化管理和集群稳定性方面都带来了显著改进。特别是对第三方存储的支持和Longhorn v2数据引擎的引入,为未来版本的功能扩展奠定了坚实基础。虽然目前仍是预览版本,但这些改进预示着Harvester在超融合基础设施领域的持续创新和发展方向。
对于技术爱好者而言,这个版本提供了体验最新HCI技术的机会;对于企业用户,则可以开始评估这些新功能对未来生产环境部署的潜在价值。随着后续正式版的发布,这些功能将更加成熟稳定,为用户提供更强大的超融合基础设施解决方案。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00