GitHub Actions Runner Controller 在 ArgoCD 中删除时的死锁问题分析
GitHub Actions Runner Controller (ARC) 是一个用于在 Kubernetes 集群中管理自托管 GitHub Actions Runner 的工具。当与 ArgoCD 结合使用时,用户报告了一个关键问题:在尝试通过 ArgoCD 卸载 AutoscalingRunnerSet 时会出现死锁情况。
问题现象
在 ArgoCD 环境中部署 ARC 的 AutoscalingRunnerSet 后,当用户尝试卸载 ArgoCD 应用时,删除操作会被阻塞。这是因为 ARC 控制器为多个资源添加了 actions.github.com/cleanup-protection 终结器(finalizer),而 ArgoCD 尝试直接删除这些资源,导致两者互相等待,形成死锁。
受影响的资源类型包括:
- AutoscalingRunnerSet
- Kube 模式的服务账户
- Kube 模式的角色和角色绑定
- RunnerSet 管理器的角色和角色绑定
问题根源分析
这个问题本质上是 Kubernetes 资源生命周期管理和 GitOps 工具工作流之间的冲突。ARC 控制器使用终结器来确保资源被正确清理,而 ArgoCD 作为声明式 GitOps 工具,会直接尝试删除它管理的所有资源。
在标准 Helm 部署中,这种冲突不会发生,因为 Helm 会按正确顺序处理资源删除。但在 ArgoCD 中,由于所有资源都是平等对待的,缺乏对资源间依赖关系的理解,导致了这种死锁情况。
解决方案探讨
社区成员提出了几种解决方案:
-
ArgoCD 注解方案
通过为资源添加特定的 ArgoCD 注解可以解决这个问题:argocd.argoproj.io/sync-options: Delete=false- 告诉 ArgoCD 不要直接删除该资源argocd.argoproj.io/sync-wave: "1"- 控制资源同步顺序
-
分离部署架构
建议将控制器和 RunnerSet 部署为独立的 ArgoCD 应用,这样可以更灵活地管理它们的生命周期。 -
手动干预方案
在紧急情况下,可以手动移除终结器:kubectl patch autoscalingrunnerset <name> --type=json -p='[{"op": "remove", "path": "/metadata/finalizers"}]'
项目维护者立场
GitHub 官方维护团队表示目前没有足够资源正式支持 ArgoCD 集成。他们建议用户在需要特定 ArgoCD 支持时维护自己的 Helm Chart 分支。
最佳实践建议
对于生产环境使用 ARC 和 ArgoCD 的用户,建议采用以下架构:
- 将控制器部署为一个独立的 ArgoCD 应用
- 每个 RunnerSet 也作为独立的 ArgoCD 应用
- 为 RunnerSet 相关资源添加适当的 ArgoCD 注解
- 考虑使用同步波(sync-wave)来控制资源创建和删除顺序
这种架构既保持了 GitOps 的优势,又避免了资源删除时的死锁问题。
未来展望
虽然目前官方不直接支持 ArgoCD 集成,但社区可以继续探索更通用的解决方案,例如通过 Helm values 暴露资源注解配置,这样用户可以根据自己的部署工具需求自定义注解,而不需要维护 Chart 分支。这种方案对其他 GitOps 工具(如 Flux)用户也会有益处。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00