Spark on K8s Operator中Yunikorn任务组内存计算问题分析
问题背景
在Spark on K8s Operator项目的最新版本中,当用户为PySpark应用配置spark.executor.pyspark.memory参数时,发现了一个与Yunikorn调度器任务组内存计算相关的问题。该问题会导致Executor Pod无法被正确调度,始终处于Pending状态。
问题现象
用户在使用SparkApplication CRD提交PySpark作业时,如果设置了spark.executor.pyspark.memory配置项,会出现以下现象:
-
Executor Pod的资源请求(requests.memory)会正确包含三部分内存之和:
- 基础内存(spec.executor.memory)
- 内存开销(spec.executor.memoryOverhead)
- PySpark专用内存(spark.executor.pyspark.memory)
-
但是Yunikorn任务组注解(yunikorn.apache.org/task-groups)中的minResources.memory仅计算了前两部分,忽略了PySpark专用内存。
-
这导致Yunikorn调度器在分配资源时,发现实际Pod请求的内存大于任务组预留的内存,从而拒绝调度。
技术原理
在Spark on K8s架构中,当使用Yunikorn作为批处理调度器时,Operator会为Spark作业创建任务组(TaskGroup)注解。这个注解用于告诉Yunikorn:
- 作业需要的最小资源量(minResources)
- 各角色(Driver/Executor)的最小实例数(minMember)
对于PySpark应用,Spark会为Python进程分配额外的内存空间,这部分通过spark.executor.pyspark.memory参数配置。在资源计算时,这部分内存应该被包含在Executor的总内存需求中。
影响范围
该问题影响以下使用场景:
- 使用Spark on K8s Operator v2.0.0-rc.0版本
- 启用了Yunikorn调度器
- 运行PySpark应用
- 配置了
spark.executor.pyspark.memory参数
解决方案
项目维护者已经确认了这个问题,并正在开发修复方案。修复的核心思路是:
- 在计算Yunikorn任务组内存需求时,需要额外考虑PySpark专用内存配置
- 确保任务组minResources.memory与实际Pod请求的内存一致
临时规避方案
在官方修复发布前,用户可以采取以下临时方案:
- 将PySpark需要的内存合并到基础内存或内存开销中配置
- 暂时不使用Yunikorn的硬性Gang Scheduling特性
总结
这个问题揭示了Spark on K8s Operator在特殊场景下资源计算的不一致性。对于PySpark用户来说,理解各种内存参数的用途和计算方式非常重要。项目团队正在积极修复这个问题,预计将在下一个版本中包含相关修复。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00