Nginx-Proxy 1.7.0 版本发布:增强代理功能与IPv6支持
Nginx-Proxy 是一个基于 Docker 的轻量级反向代理解决方案,它能够自动为多个 Docker 容器配置 Nginx 反向代理。通过监听 Docker 事件,nginx-proxy 可以动态地生成 Nginx 配置,使得在 Docker 环境中部署 Web 应用变得更加简单和高效。最新发布的 1.7.0 版本带来了一系列重要的功能增强和问题修复。
核心功能改进
默认启用 Keepalive 连接
1.7.0 版本默认启用了 HTTP Keepalive 功能。这项改进通过复用 TCP 连接来减少建立新连接的开销,显著提高了代理性能。在高并发场景下,这可以降低服务器负载并减少延迟。对于现代 Web 应用来说,Keepalive 已经成为标准配置,此次默认启用使得 nginx-proxy 更加符合最佳实践。
默认证书信任机制
新版本引入了对默认证书的信任机制。当配置了默认证书时,nginx-proxy 会优先使用该证书,而不是自动生成的证书。这一改变提高了安全性,同时也为管理员提供了更大的灵活性,可以预先配置好受信任的证书而无需为每个子域名单独配置。
IPv6 支持增强
1.7.0 版本实现了对 IPv6 Docker 网络的基本支持。随着 IPv6 的普及,这一改进使得 nginx-proxy 能够更好地适应现代网络环境。代理现在可以正确处理 IPv6 地址,为部署在 IPv6 网络中的容器提供服务。
协议与重定向改进
多端口协议支持
VIRTUAL_HOST_MULTIPORTS 环境变量现在支持协议指定。这意味着用户可以更灵活地定义不同端口上的服务协议(HTTP/HTTPS),而不必依赖默认设置。例如,可以明确指定某些端口使用 HTTPS,而其他端口使用 HTTP。
HTTP 方法重定向优化
对于非 GET 方法的请求(如 POST、PUT 等),重定向现在使用 308(永久重定向)状态码替代原来的 301。308 状态码明确表示请求方法和主体不应改变,而 301 则允许浏览器将 POST 请求转换为 GET 请求。这一改变确保了 API 调用的正确性,避免了潜在的数据丢失问题。
安全修复与证书处理
通配符证书范围限制
修复了一个安全问题,确保通配符证书(如 *.example.com)只匹配一级子域名。这意味着 *.example.com 将匹配 a.example.com 但不匹配 a.b.example.com。这一改变符合证书颁发机构的惯例,防止了证书被用于非预期的域名。
测试与代码质量提升
1.7.0 版本包含了大量的测试改进和代码重构。测试套件现在更加完善,能够覆盖更多的使用场景。代码重构使得模板处理更加清晰,便于未来的维护和扩展。此外,测试环境现在支持在 macOS/Darwin 系统上本地运行,方便开发者在不同平台上进行测试。
依赖项更新
项目依赖的多个组件已更新至最新版本:
- Nginx 升级到 1.27.3 版本
- docker-gen 升级到 0.14.4 版本
- Python 测试依赖更新以支持 Python 3.12+
总结
Nginx-Proxy 1.7.0 版本在性能、安全性和功能完备性方面都有显著提升。默认的 Keepalive 设置优化了连接处理,IPv6 支持扩展了应用场景,而证书处理和重定向机制的改进则增强了安全性和兼容性。这些改进使得 nginx-proxy 继续保持为 Docker 环境下最简单高效的反向代理解决方案之一。对于正在使用或考虑使用 nginx-proxy 的用户,升级到 1.7.0 版本将获得更好的性能和更丰富的功能支持。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00