MicroK8s中Cert-manager的HTTP-01挑战失败问题分析与解决方案
问题背景
在MicroK8s环境中使用Cert-manager进行Let's Encrypt证书签发时,HTTP-01挑战验证失败是一个常见问题。本文将以一个实际案例为基础,深入分析问题原因并提供完整的解决方案。
环境配置
案例中的环境配置如下:
- 单节点MicroK8s集群
- 使用Nginx Ingress Controller
- 通过pfSense路由器进行端口转发
- 部署了Cert-manager用于自动化证书管理
问题现象
当尝试通过HTTP-01挑战方式获取Let's Encrypt证书时,系统报告404错误而非预期的200响应。具体表现为:
- 从外部网络可以正常访问网站
- 访问/.well-known/acme-challenge/路径时返回404错误
- Cert-manager日志显示"wrong status code '404', expected '200'"
根本原因分析
经过深入排查,发现问题主要由以下因素导致:
-
网络架构问题:集群位于LAN内部,通过pfSense进行NAT转发。默认情况下,pfSense不允许LAN设备通过WAN IP访问LAN服务,导致集群内部的自我检查失败。
-
Ingress Class配置不一致:Cert-manager创建的挑战解析Ingress与主Ingress使用了不同的Ingress Class,可能导致路由规则冲突。
-
路径匹配问题:主Ingress配置了精确路径匹配(Exact)和前缀匹配(Prefix),但没有为/.well-known/acme-challenge/路径预留特殊处理。
解决方案
1. 解决网络访问问题
对于pfSense环境,需要启用"NAT回环"功能,允许内部网络通过公网IP访问内部服务:
- 登录pfSense管理界面
- 导航到系统 > 高级 > 防火墙/NAT
- 启用"NAT回环"选项
- 保存设置并应用更改
2. 统一Ingress Class配置
确保Cert-manager和主Ingress使用相同的Ingress Class:
apiVersion: cert-manager.io/v1
kind: ClusterIssuer
metadata:
name: letsencrypt-issuer
spec:
acme:
email: your-email@example.com
server: https://acme-v02.api.letsencrypt.org/directory
accountKeySecretRef:
name: issuer-account-key
solvers:
- http01:
ingress:
ingressClassName: public
ingressTemplate:
metadata:
annotations:
kubernetes.io/ingress.class: "public"
3. 优化Ingress路径配置
确保主Ingress不会拦截ACME挑战请求:
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
name: main-ingress
annotations:
cert-manager.io/cluster-issuer: "letsencrypt-issuer"
spec:
ingressClassName: public
tls:
- hosts:
- example.com
secretName: example-com-tls
rules:
- host: example.com
http:
paths:
- path: /
pathType: Exact
backend:
service:
name: web-service
port:
number: 80
4. 验证配置
完成上述修改后,可以通过以下步骤验证配置:
- 删除现有的Certificate资源
- 重新创建Certificate资源
- 观察Cert-manager日志
- 检查Challenge资源状态
最佳实践建议
-
生产环境考虑:对于生产环境,建议使用DNS-01挑战方式,它更可靠且不需要开放HTTP端口。
-
测试环境验证:在正式申请证书前,先使用Let's Encrypt的staging环境进行测试。
-
监控与告警:设置监控告警,及时发现证书续期失败的情况。
-
资源清理:定期清理失败的Challenge资源,避免资源浪费。
总结
MicroK8s环境中Cert-manager的HTTP-01挑战失败通常由网络配置和Ingress规则冲突导致。通过正确配置网络设备、统一Ingress Class以及优化路径匹配规则,可以解决大多数验证失败问题。理解这些底层机制有助于更好地管理和维护Kubernetes中的证书自动化管理流程。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00