OpenEBS Mayastor v2.9.0 发布:增强存储安全性与可靠性
OpenEBS Mayastor 是一个开源的云原生存储解决方案,专为 Kubernetes 环境设计,提供高性能的持久化存储能力。作为 OpenEBS 项目的一部分,Mayastor 采用了创新的架构设计,通过用户空间的 NVMe-oF 协议实现高效的存储访问,同时保持了与 Kubernetes 生态系统的深度集成。
存储加密新特性
在 v2.9.0 版本中,Mayastor 引入了一项重要的安全功能——静态数据加密。现在,用户可以为磁盘池配置自定义加密密钥,使卷副本在存储时自动加密。这一功能特别适合需要满足合规性要求或高安全标准的应用场景,如金融、医疗和政府等领域的数据存储。
静态加密的实现采用了行业标准的加密算法,确保数据在物理存储介质上的安全性。即使存储设备被物理获取,没有正确的加密密钥也无法访问数据内容。值得注意的是,当前版本尚不支持数据加密密钥(DEK)的轮换功能,这是未来版本中计划增强的部分。
功能增强与优化
本次版本更新带来了多项功能改进,显著提升了系统的可靠性和用户体验:
-
存储类格式化选项支持:现在可以通过存储类(StorageClass)配置格式化选项,为不同的应用场景提供更灵活的存储配置能力。
-
节点调度优化:在缩减卷副本时(如执行规模缩小操作),系统会优先选择被标记为"不可调度"(cordoned)的节点,这一改进使得节点维护操作更加顺畅。
-
设备链接限制:为了增强稳定性,现在禁止使用非持久性设备链接(如/dev/sdX)创建存储池,强制要求使用持久性设备标识符。
-
快照恢复简化:从厚配置(thick)快照恢复卷时,不再需要重新创建存储类,简化了恢复流程。
-
卷健康状态改进:新的健康状态报告机制能更准确地反映卷的实际状态,特别是能识别出"降级"(Degraded)状态,帮助管理员及时发现潜在问题。
运维工具增强
针对日常运维场景,v2.9.0 版本新增了一个实用的插件命令,用于处理采用"保留"(RETAIN)策略的卷删除问题。当持久卷(PV)被删除后,对应的卷仍然保留在系统中时,这个工具可以帮助管理员清理这些残留资源。
在数据重建方面,系统现在能更智能地处理重建失败的情况。当部分重建因达到最大重建限制而失败时,系统会避免执行完整的卷重建,减少不必要的I/O开销和系统负载。
日志监控架构升级
本次版本对日志监控组件进行了重要架构调整:
- 移除了即将停止维护的 Promtail 组件
- 引入了 Minio 作为对象存储后端
- 新增 Alloy 日志收集组件
- 支持高可用的 Loki 日志系统部署
新的架构默认配置为3个 Loki 副本和3个 Minio 副本,确保日志系统的可靠性。用户也可以选择禁用这些组件,或者配置 Loki 使用文件系统存储而非对象存储。
升级注意事项
升级到 v2.9.0 时需要注意以下行为变更:
-
卷健康状态现在会真实反映卷状况,未发布的卷(未被任何Pod挂载的卷)可能显示为"降级"状态,因为当前版本不支持对未发布卷执行重建操作。如需保持原有行为,可通过 Helm 参数
agents.core.volumeHealth=false恢复。 -
新的日志监控组件会默认安装,如果不需要这些功能,可以通过设置
loki.enabled=false和alloy.enabled=false来禁用。
已知限制与问题
虽然 v2.9.0 带来了多项改进,但仍存在一些需要注意的限制:
-
性能特性:IO引擎会完全利用所有分配的CPU核心,即使实际I/O负载很低,这可能会影响能效比。
-
存储池限制:每个磁盘池仍然只能使用单个块设备,不支持跨多设备的存储池。
-
节点故障场景:当节点异常重启且Pod没有控制器(如Deployment)管理时,可能导致卷无法正确解除挂载,影响快照操作。
-
大容量支持:超过15TiB的大容量文件系统卷在格式化时可能出现超时或挂起问题。
-
磁盘故障处理:当磁盘池的后端磁盘发生故障或被移除时,系统不能清晰反映这一状态,可能导致卷长时间处于降级状态。
测试验证情况
Mayastor v2.9.0 经过了严格的单元测试、组件测试和系统级端到端测试。目前主要测试环境为x86架构上的Linux系统,特别是Ubuntu 20.04.5 LTS(内核版本ubuntu-5.15.0-50-generic)。该版本已验证兼容Kubernetes 1.23.7至1.29.6-1.1等多个版本。
总结
OpenEBS Mayastor v2.9.0 通过引入静态数据加密、改进健康状态监控和优化运维工具,进一步提升了存储解决方案的安全性和可靠性。虽然仍存在一些功能限制,但这些改进使得Mayastor更加适合生产环境中的关键业务应用。对于注重数据安全的企业用户,新加入的加密功能提供了额外的保障;而对于运维团队,更准确的健康状态报告和新增的管理工具将大大简化日常管理工作。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00