Apache Pegasus手动压缩任务进度检测问题解析
背景介绍
Apache Pegasus是一个分布式键值存储系统,它提供了手动压缩(manual compact)功能来优化存储性能。在实际使用过程中,用户发现pegasus_manual_compact.sh脚本中的wait_manual_compact()函数无法正确检测手动压缩任务的执行进度,导致任务状态判断出现错误。
问题现象
当用户执行如下命令时:
sh pegasus_manual_compact.sh -c {meta_server_list} -a {table_name} --bottommost_level_compaction force
wait_manual_compact()函数会持续输出类似日志:
[35s] 0 finished, 8 not finished (0 in queue, 0 in running), estimate remaining unknown seconds. table [**] manual compaction is running now.
即使手动压缩任务已经完成,该函数仍会持续输出上述信息,导致封装工具基于此输出判断任务进度时出现超时失败。
根本原因分析
问题的根源在于wait_manual_compact()函数无法正确解析remote_command -t replica-server replica.query-compact ${app_id}命令的输出结果。该命令的输出格式在最新版本中发生了变化:
最新版本输出格式:
CALL [replica-server] [10.1.132.34:8171] succeed:
8 processed, 0 not found
4.0@10.1.132.34:8171@P : {"last_finish":"-","last_used_ms":"-","recent_enqueue_at":"-","recent_start_at":"-"}
4.1@10.1.132.34:8171@P : {"last_finish":"-","last_used_ms":"-","recent_enqueue_at":"-","recent_start_at":"-"}
...
旧版本输出格式:
CALL [replica-server] [10.1.132.36:8171] succeed: 8 processed, 0 not found
4.0@10.1.132.36:8171@P : last finish at [-]
4.1@10.1.132.36:8171@P : last finish at [-]
...
技术影响
-
进度监控失效:脚本无法准确获取各分片的压缩状态,导致无法正确判断整体任务完成情况。
-
自动化工具异常:依赖此脚本输出的自动化运维工具会出现误判,可能导致不必要的人工干预或错误的后续操作。
-
运维效率降低:管理员需要额外验证任务实际状态,增加了运维复杂度。
解决方案建议
-
输出格式适配:更新
wait_manual_compact()函数,使其能够解析新版JSON格式的输出。 -
状态判断逻辑优化:不仅检查
last_finish字段,还应考虑recent_start_at等字段来综合判断任务状态。 -
版本兼容处理:实现能够同时处理新旧两种输出格式的解析逻辑。
-
增强日志输出:在解析失败时提供更详细的错误信息,帮助快速定位问题。
最佳实践
对于正在使用此功能的用户,建议:
-
检查当前Pegasus版本,确认输出格式变化情况。
-
如果需要临时解决方案,可以考虑回退到旧版本或手动验证任务状态。
-
关注社区对此问题的修复进展,及时更新相关脚本。
总结
此问题反映了分布式系统中命令接口变化对周边工具的影响。在系统升级过程中,不仅需要关注核心功能的变更,还需要确保配套工具的兼容性。对于Pegasus用户而言,理解这一问题的本质有助于更好地规划系统升级路径和运维策略。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust099- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00