Caddy v2.8.0 版本中 ZeroSSL 签发器的重大变更解析
Caddy 服务器在最新发布的 v2.8.0 版本中对 ZeroSSL 证书签发器的实现方式进行了重大调整,这一变更直接影响到了使用 ZeroSSL 进行 TLS 证书管理的用户配置方式。本文将详细解析这一变更的技术背景、影响范围以及正确的迁移方案。
变更核心内容
在 Caddy v2.8.0 之前,ZeroSSL 签发器实际上是基于 ACME 协议实现的,只是通过 ZeroSSL 的 API 来获取 EAB (External Account Binding) 凭证。这种方式允许用户继续使用 ACME 相关的各种配置选项,包括 DNS 挑战覆盖域等特性。
然而在 v2.8.0 版本中,Caddy 彻底重构了 ZeroSSL 签发器的实现方式,现在直接使用 ZeroSSL 的原生 API 进行证书签发,而不再通过 ACME 协议。这一变更带来了更高的效率,但也意味着所有 ACME 特有的配置选项都不再适用。
配置变更影响
对于升级到 v2.8.0 版本的用户,最直接的影响就是原先在 ZeroSSL 签发器配置块中使用的 dns_challenge_override_domain 等 ACME 相关参数将不再有效。系统会直接报错提示"unrecognized zerossl issuer property"。
这种变更特别影响到那些使用域名委托(Domain Delegation)功能的用户。在 ACME 协议下,域名委托是通过 DNS 查询来验证域所有权,但在新的 API 实现中,这一机制不再适用。
迁移方案建议
对于需要继续使用 ZeroSSL 服务的用户,有以下两种可行的迁移路径:
-
继续使用 ACME 协议:可以通过标准的
acme模块配置,将 CA 设置为 ZeroSSL 的 ACME 终端节点,并使用 EAB 进行认证。这种方式可以保留原有的 ACME 功能特性。 -
适应新的 API 实现:如果选择使用新的 ZeroSSL API 实现,则需要移除所有 ACME 特有的配置选项。对于域名验证,现在应该使用 ZeroSSL API 支持的其他验证方式。
技术决策考量
这一变更反映了 Caddy 项目对 API 直接集成的偏好,相比通过 ACME 协议的间接方式,直接 API 调用通常能提供更好的性能和可靠性。同时,这也与 ZeroSSL 自身服务的发展方向保持一致,他们的 API 已经足够成熟和稳定。
对于高级用户而言,这一变更可能需要重新评估证书管理策略,特别是那些依赖 ACME 高级功能的场景。但从长期来看,直接 API 集成将为用户带来更简洁、更可靠的证书管理体验。
总结
Caddy v2.8.0 对 ZeroSSL 集成方式的变更是项目发展过程中的重要里程碑。虽然短期内可能需要用户调整配置,但从技术架构角度看,这一变更使得证书签发流程更加直接和高效。用户应当根据自身需求选择适当的迁移路径,确保 TLS 证书管理的平稳过渡。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00