Volcano调度器对PreemptionPolicy的支持实现分析
背景介绍
在Kubernetes生态系统中,Volcano作为一款面向高性能计算场景的批处理调度器,其调度能力直接影响着集群资源利用率和作业执行效率。其中,优先级抢占机制是调度器的重要功能之一,它允许高优先级任务抢占低优先级任务的资源。Kubernetes原生支持通过PriorityClass定义优先级,并在1.19版本引入了preemptionPolicy字段,用于控制是否允许抢占行为。
问题发现
在Volcano的现有实现中,虽然支持基本的优先级抢占功能,但尚未完整实现Kubernetes PriorityClass中的preemptionPolicy策略。具体表现为:
- Volcano缓存中仅将PriorityClass简化为一个数值,丢失了preemptionPolicy等附加信息
- 调度逻辑中没有考虑preemptionPolicy为Never的情况
- 对Volcano Job级别的preemptionPolicy支持不完整
技术方案设计
核心修改点
-
缓存层改造:需要扩展Volcano调度器缓存中的PriorityClass表示方式,从单纯的数值扩展为包含preemptionPolicy等完整信息的结构体。
-
调度逻辑增强:
- 在抢占逻辑中增加preemptionPolicy检查
- 当preemptionPolicy为Never时,跳过该任务的抢占行为
- 同时考虑Pod级别和Job级别的preemptionPolicy
-
控制器协调:确保vc-controller在创建Pod时正确传递Job级别的PriorityClass配置,包括preemptionPolicy。
实现细节
在抢占逻辑的关键路径上,需要添加如下判断逻辑:
if task.Pod.Spec.PreemptionPolicy != nil && *task.Pod.Spec.PreemptionPolicy == v1.PreemptNever {
// 记录日志并跳过抢占
klog.V(3).Infof("Task %s/%s is not eligible to preempt other tasks due to preemptionPolicy is Never", task.Namespace, task.Name)
return
}
应用场景
preemptionPolicy的支持为集群管理员提供了更精细的资源管控能力:
- 关键任务保护:将关键业务设置为高优先级但禁止抢占,既保证资源分配又避免影响其他服务
- 服务质量分级:实现多级服务质量保障,区分可抢占和不可抢占的工作负载
- 资源利用率优化:允许非关键业务灵活抢占,提高整体资源利用率
实现考量
在技术方案讨论过程中,社区对几个关键问题进行了深入探讨:
-
Pod级别与Job级别的支持:虽然Kubernetes原生仅支持Pod级别,但考虑到Volcano主要面向批处理场景,最终决定同时支持两个级别的preemptionPolicy。
-
优先级继承机制:确保Job中创建的Pod能够正确继承Job的PriorityClass配置,包括preemptionPolicy。
-
与现有功能兼容:保持与Volcano已有抢占、回收等功能的兼容性,确保平滑升级。
总结
Volcano对preemptionPolicy的完整支持,使其调度能力更加贴近生产环境需求,为用户提供了更灵活的资源管控手段。这一改进不仅完善了与Kubernetes的兼容性,也增强了在高性能计算场景下的调度精细度。通过合理的preemptionPolicy配置,用户可以更好地平衡资源利用率和业务稳定性,满足多样化的业务需求。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00