Spark on K8s Operator中Yunikorn任务组内存计算问题分析
问题背景
在Spark on K8s Operator项目的最新版本中,当用户为PySpark应用配置spark.executor.pyspark.memory参数时,发现了一个与Yunikorn调度器任务组内存计算相关的问题。该问题会导致Executor Pod无法被正确调度,始终处于Pending状态。
问题现象
用户在使用SparkApplication CRD提交PySpark作业时,如果设置了spark.executor.pyspark.memory配置项,会出现以下现象:
-
Executor Pod的资源请求(requests.memory)会正确包含三部分内存之和:
- 基础内存(spec.executor.memory)
- 内存开销(spec.executor.memoryOverhead)
- PySpark专用内存(spark.executor.pyspark.memory)
-
但是Yunikorn任务组注解(yunikorn.apache.org/task-groups)中的minResources.memory仅计算了前两部分,忽略了PySpark专用内存。
-
这导致Yunikorn调度器在分配资源时,发现实际Pod请求的内存大于任务组预留的内存,从而拒绝调度。
技术原理
在Spark on K8s架构中,当使用Yunikorn作为批处理调度器时,Operator会为Spark作业创建任务组(TaskGroup)注解。这个注解用于告诉Yunikorn:
- 作业需要的最小资源量(minResources)
- 各角色(Driver/Executor)的最小实例数(minMember)
对于PySpark应用,Spark会为Python进程分配额外的内存空间,这部分通过spark.executor.pyspark.memory参数配置。在资源计算时,这部分内存应该被包含在Executor的总内存需求中。
影响范围
该问题影响以下使用场景:
- 使用Spark on K8s Operator v2.0.0-rc.0版本
- 启用了Yunikorn调度器
- 运行PySpark应用
- 配置了
spark.executor.pyspark.memory参数
解决方案
项目维护者已经确认了这个问题,并正在开发修复方案。修复的核心思路是:
- 在计算Yunikorn任务组内存需求时,需要额外考虑PySpark专用内存配置
- 确保任务组minResources.memory与实际Pod请求的内存一致
临时规避方案
在官方修复发布前,用户可以采取以下临时方案:
- 将PySpark需要的内存合并到基础内存或内存开销中配置
- 暂时不使用Yunikorn的硬性Gang Scheduling特性
总结
这个问题揭示了Spark on K8s Operator在特殊场景下资源计算的不一致性。对于PySpark用户来说,理解各种内存参数的用途和计算方式非常重要。项目团队正在积极修复这个问题,预计将在下一个版本中包含相关修复。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
LongCat-AudioDiT-1BLongCat-AudioDiT 是一款基于扩散模型的文本转语音(TTS)模型,代表了当前该领域的最高水平(SOTA),它直接在波形潜空间中进行操作。00
jiuwenclawJiuwenClaw 是一款基于openJiuwen开发的智能AI Agent,它能够将大语言模型的强大能力,通过你日常使用的各类通讯应用,直接延伸至你的指尖。Python0245- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
AtomGit城市坐标计划AtomGit 城市坐标计划开启!让开源有坐标,让城市有星火。致力于与城市合伙人共同构建并长期运营一个健康、活跃的本地开发者生态。01
HivisionIDPhotos⚡️HivisionIDPhotos: a lightweight and efficient AI ID photos tools. 一个轻量级的AI证件照制作算法。Python05