Kubespray v2.25.1 版本发布与技术解析
Kubespray 作为 Kubernetes 集群部署的重要工具,近期发布了 v2.25.1 版本更新。本次更新包含了多项重要改进和功能增强,值得 Kubernetes 管理员和运维人员关注。
核心组件版本升级
本次版本最显著的变化是默认 Kubernetes 版本升级至 v1.29.10。同时提供了对 v1.29.6、v1.29.7 和 v1.29.9 等多个版本的支持,为用户提供了更灵活的版本选择空间。
容器运行时方面,containerd 默认版本更新至 v1.7.22,配套工具 nerdctl 升级到 1.7.7,runc 升级至 v1.1.14。这些更新带来了性能优化和安全修复,提升了容器运行时的稳定性和安全性。
在 etcd 方面,版本升级至 v3.5.16,这一更新包含了多项 bug 修复和性能改进,对于集群的键值存储稳定性至关重要。
网络组件更新
Calico 网络插件更新至 v3.27.4 版本,特别修复了由于 XDP 程序在 iptables 中导致的高 CPU 负载问题。这一修复将显著提升网络性能,特别是在高负载环境下的表现。
Ingress-Nginx 控制器升级到 1.11.2 版本,增强了入口流量的管理能力。同时新增了通过 addons.yaml 中的属性固定 ingress-nginx 服务 nodePort 的功能,为用户提供了更灵活的端口配置选项。
系统兼容性调整
随着操作系统版本的演进,本次版本移除了对 Debian 10 的支持,并停止了对 CentOS 7 和 Weave 网络的测试支持。这些调整反映了社区对现代操作系统和网络组件的倾向性选择。
对于仍在使用 CentOS 7 的用户,项目更新了 yum 仓库的 baseurl,并增加了对 CentOS-Base.repo 存在性的检查,确保在这些系统上的安装过程更加可靠。
架构灵活性增强
一个值得注意的新特性是允许用户仅部署控制平面,而无需配置工作节点。这一改进使得 Kubespray 可以更灵活地适应各种集群架构需求,特别是在需要单独扩展控制平面和工作节点的场景中。
问题修复与改进
在证书管理方面,优化了证书处理脚本的复制逻辑,确保在现有集群上能够正确应用修复。同时解决了无法通过 remove_node.yml 停止和移除所有 CRI 容器的问题,提升了节点移除过程的可靠性。
对于使用准入控制器的用户,现在当 ingress_nginx_webhook_enabled 设置为 true 时,Ingress-Nginx 控制器的准入服务会自动创建,简化了相关配置流程。
总结
Kubespray v2.25.1 版本通过核心组件升级、网络性能优化、系统兼容性调整和架构灵活性增强等多方面的改进,为 Kubernetes 集群部署和管理提供了更强大、更稳定的工具支持。建议用户根据自身环境需求评估升级计划,特别是关注网络组件和容器运行时的更新带来的性能提升。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C094
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00