Volcano项目v1.9.1版本发布:关键安全更新与功能优化
项目概述
Volcano是一个基于Kubernetes构建的批处理计算平台,专为高性能计算、机器学习、大数据分析等批处理工作负载而设计。它扩展了Kubernetes的能力,提供了作业调度、队列管理、资源配额等高级功能,使Kubernetes能够更好地支持大规模分布式计算任务。
安全增强:本次更新的核心重点
v1.9.1版本主要针对系统安全问题进行了多项重要修复,这些改进对于生产环境至关重要:
-
HTTP响应体大小限制:新增了对HTTP响应体大小的限制,防止潜在的系统资源耗尽问题,避免构造的超大响应影响系统性能。
-
安全上下文配置:增强了安全上下文配置能力,使管理员能够更精细地控制组件的权限和访问控制,提升系统安全性。
-
文件权限调整:将部分文件的执行权限移除,调整为644权限,遵循最小权限原则,提升系统安全性。
-
pprof端点控制:调度器的pprof调试端点现在默认禁用,需要通过显式配置开启。这一变化虽然可能影响调试便利性,但显著提高了生产环境的安全性。
-
TLS验证警告:当TLS证书验证被禁用时,系统会显示明确的提示信息,提醒管理员注意潜在的系统风险。
-
HTTP服务器超时:新增了HTTP服务器超时设置,防止慢速连接或慢速客户端占用服务器资源。
功能改进与问题修复
除了安全增强外,本次更新还包含多项功能改进和问题修复:
-
弹性资源处理:修复了获取作业弹性资源时可能出现的系统异常问题,提高了系统的稳定性。
-
资源分配回滚机制:当资源分配回调函数失败时,系统现在支持自动回滚操作,确保资源状态的一致性。
-
PodGroup创建逻辑优化:
- 修复了当调度器名称不匹配时创建冗余PodGroup的问题
- 解决了某些情况下PodGroup未正确创建的问题
-
任务调度改进:
- 优化了流水线任务的NominatedNodeName更新机制
- 改进了绑定错误时的Pod状态更新处理
-
测试稳定性提升:修复了测试中的不稳定因素,提高了自动化测试的可靠性。
升级注意事项
对于计划升级到v1.9.1版本的用户,需要特别注意以下几点:
-
pprof端点变更:如需使用调度器的pprof调试功能,必须通过以下方式之一显式启用:
- Helm安装时设置custom.scheduler_pprof_enable=true参数
- 手动添加--enable-pprof=true启动参数
-
安全配置审查:建议升级后重新审查安全相关配置,特别是TLS验证、HTTP超时等设置,确保符合组织的安全策略。
-
兼容性说明:该版本保持了对Kubernetes的兼容性,但建议在测试环境中验证后再部署到生产环境。
总结
Volcano v1.9.1版本虽然是一个小版本更新,但其安全增强措施使其成为一个重要的稳定版本。对于运行关键批处理工作负载的环境,特别是对安全性有严格要求的生产系统,建议尽快安排升级。同时,新引入的资源分配回滚机制和调度优化也为大规模批处理作业提供了更好的可靠性和性能。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C091
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00