Kubernetes Kueue与LeaderWorkerSet集成中的Webhook证书冲突问题分析
问题背景
在Kubernetes生态系统中,Kueue作为一个作业队列管理系统,与LeaderWorkerSet(LWS)工作负载控制器集成时,用户报告了一个关于Webhook证书验证的异常问题。具体表现为当同时部署这两个组件时,系统间歇性出现TLS证书验证失败的错误,提示证书主体名称不匹配。
问题现象
用户在部署环境中观察到以下典型错误信息:
failed calling webhook "vleaderworkerset.kb.io": failed to call webhook: Post "https://lws-webhook-service.namespace.svc:443/validate-leaderworkerset-x-k8s-io-v1-leaderworkerset?timeout=10s": tls: failed to verify certificate: x509: certificate is valid for kueue-webhook-service.namespace.svc, not lws-webhook-service.namespace.svc
该问题表现出明显的间歇性特征,有时操作能成功执行,有时则会失败。这种不稳定性使得问题更加难以排查和定位。
根本原因分析
经过深入调查,发现问题源于Kubernetes服务选择器的配置不当。具体来说:
-
服务选择器过于宽泛:LeaderWorkerSet的Webhook服务(lws-webhook-service)仅使用了
control-plane=controller-manager作为选择器,而没有包含更具体的标签匹配条件。 -
命名空间共享:当Kueue和LWS部署在同一命名空间时,宽泛的选择器会导致服务端点(Endpoint)同时包含两个控制器的Pod实例。
-
证书不匹配:当API服务器尝试调用LWS的Webhook时,负载均衡可能将请求路由到Kueue的Pod实例,而该实例提供的证书是针对kueue-webhook-service签发的,自然无法验证lws-webhook-service的域名。
解决方案
针对这一问题,社区提出了以下解决方案:
-
完善服务选择器:LeaderWorkerSet应该效仿Kueue的做法,在服务选择器中加入应用特定的标签,例如:
selector: app.kubernetes.io/instance: lws app.kubernetes.io/name: lws control-plane: controller-manager -
命名空间隔离:虽然技术上支持共享命名空间,但在实际部署中,建议将不同的控制器部署到独立的命名空间中,这是一种更为清晰和安全的做法。
-
证书管理优化:对于使用内部证书管理的场景,确保每个Webhook服务都有独立的CA和证书配置,避免任何可能的交叉污染。
经验总结
这个案例为我们提供了几个重要的实践经验:
-
Kubernetes服务选择器的设计需要足够精确,特别是在共享命名空间的场景下,避免因选择器过于宽泛而导致的服务端点混淆。
-
Webhook证书管理是Kubernetes扩展开发中的关键环节,必须确保每个Webhook服务都有正确的SAN(Subject Alternative Name)配置和独立的证书链。
-
集成测试应该覆盖组件共存的场景,特别是当多个第三方组件需要协同工作时,需要验证它们在共享命名空间下的兼容性。
-
错误排查时,检查服务端点(Endpoint)资源是一个快速定位服务选择问题的有效方法。
通过这个案例,我们不仅解决了一个具体的技术问题,更重要的是加深了对Kubernetes服务发现和Webhook机制的理解,为今后开发更健壮的Kubernetes扩展组件积累了宝贵经验。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust098- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00