Apache DolphinScheduler中停止Spark作业失败问题分析与解决
问题背景
在使用Apache DolphinScheduler管理Spark作业时,用户发现无法通过平台成功停止运行在YARN上的Spark作业。虽然DolphinScheduler的任务实例状态显示为"已终止",但实际上Spark作业仍在继续运行。手动执行生成的.kill文件可以成功停止作业,但在平台内操作却失败。
问题现象
当用户尝试通过DolphinScheduler停止Spark作业时,日志显示YARN应用终止失败,并抛出ExitCodeException,退出码为137(表示shell执行被中断)。有趣的是,当用户切换到开发模式,保留.kill文件并手动执行时,作业却能成功停止。
深入分析
初步排查
-
权限问题:首先怀疑是文件执行权限问题,但检查发现即使用户权限不足,通过sh命令也能成功执行.kill文件。
-
环境差异:手动执行与平台执行的差异主要在于执行用户不同(平台使用租户用户执行),但测试表明租户用户确实有执行权限。
-
sudo权限:检查发现引导用户(dolphinscheduler)拥有使用sudo -u切换用户的权限,排除了这方面的问题。
关键发现
通过Arthas工具进行调试时,发现了一个关键错误信息:
ERROR: Cannot execute /usr/hdp/current/hadoop/libexec/yarn-config.sh.
这表明执行过程中系统尝试加载yarn-config.sh配置文件但失败。进一步调查发现,这是由于HADOOP_HOME环境变量配置错误导致的。
根本原因
-
环境依赖:虽然.kill文件本身只包含简单的yarn application -kill命令,但在执行过程中,YARN客户端会尝试加载yarn-config.sh来获取必要的环境变量配置。
-
配置缺失:由于HADOOP_HOME环境变量配置错误,系统无法找到yarn-config.sh文件,导致命令执行失败。
-
执行上下文差异:手动执行时可能继承了正确的环境变量,而通过DolphinScheduler执行时环境变量未被正确设置。
解决方案
-
修复HADOOP_HOME:确保HADOOP_HOME环境变量正确指向Hadoop安装目录。
-
验证配置:
- 检查/usr/hdp/current/hadoop/libexec/yarn-config.sh文件是否存在
- 确认该文件有可执行权限
- 验证Hadoop相关环境变量配置正确
-
环境变量传递:确保DolphinScheduler在执行任务时能正确传递必要的环境变量。
经验总结
-
环境一致性:分布式任务调度系统对执行环境有严格要求,必须确保所有节点环境配置一致。
-
错误排查:对于看似权限问题但实际是环境配置问题的场景,需要深入分析执行上下文差异。
-
日志分析:善用调试工具(如Arthas)可以帮助发现表面错误信息下的根本原因。
-
YARN集成:与YARN集成时,不仅需要关注命令本身,还需要注意YARN客户端所需的各种配置文件和环境变量。
这个问题展示了在复杂分布式环境中,一个小配置问题可能导致功能异常。通过系统化的排查方法,最终定位并解决了这个影响作业停止功能的配置问题。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C090
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00