Nginx-Proxy 1.7.0 版本发布:增强代理功能与IPv6支持
Nginx-Proxy 是一个基于 Docker 的轻量级反向代理解决方案,它能够自动为多个 Docker 容器配置 Nginx 反向代理。通过监听 Docker 事件,nginx-proxy 可以动态地生成 Nginx 配置,使得在 Docker 环境中部署 Web 应用变得更加简单和高效。最新发布的 1.7.0 版本带来了一系列重要的功能增强和问题修复。
核心功能改进
默认启用 Keepalive 连接
1.7.0 版本默认启用了 HTTP Keepalive 功能。这项改进通过复用 TCP 连接来减少建立新连接的开销,显著提高了代理性能。在高并发场景下,这可以降低服务器负载并减少延迟。对于现代 Web 应用来说,Keepalive 已经成为标准配置,此次默认启用使得 nginx-proxy 更加符合最佳实践。
默认证书信任机制
新版本引入了对默认证书的信任机制。当配置了默认证书时,nginx-proxy 会优先使用该证书,而不是自动生成的证书。这一改变提高了安全性,同时也为管理员提供了更大的灵活性,可以预先配置好受信任的证书而无需为每个子域名单独配置。
IPv6 支持增强
1.7.0 版本实现了对 IPv6 Docker 网络的基本支持。随着 IPv6 的普及,这一改进使得 nginx-proxy 能够更好地适应现代网络环境。代理现在可以正确处理 IPv6 地址,为部署在 IPv6 网络中的容器提供服务。
协议与重定向改进
多端口协议支持
VIRTUAL_HOST_MULTIPORTS 环境变量现在支持协议指定。这意味着用户可以更灵活地定义不同端口上的服务协议(HTTP/HTTPS),而不必依赖默认设置。例如,可以明确指定某些端口使用 HTTPS,而其他端口使用 HTTP。
HTTP 方法重定向优化
对于非 GET 方法的请求(如 POST、PUT 等),重定向现在使用 308(永久重定向)状态码替代原来的 301。308 状态码明确表示请求方法和主体不应改变,而 301 则允许浏览器将 POST 请求转换为 GET 请求。这一改变确保了 API 调用的正确性,避免了潜在的数据丢失问题。
安全修复与证书处理
通配符证书范围限制
修复了一个安全问题,确保通配符证书(如 *.example.com)只匹配一级子域名。这意味着 *.example.com 将匹配 a.example.com 但不匹配 a.b.example.com。这一改变符合证书颁发机构的惯例,防止了证书被用于非预期的域名。
测试与代码质量提升
1.7.0 版本包含了大量的测试改进和代码重构。测试套件现在更加完善,能够覆盖更多的使用场景。代码重构使得模板处理更加清晰,便于未来的维护和扩展。此外,测试环境现在支持在 macOS/Darwin 系统上本地运行,方便开发者在不同平台上进行测试。
依赖项更新
项目依赖的多个组件已更新至最新版本:
- Nginx 升级到 1.27.3 版本
- docker-gen 升级到 0.14.4 版本
- Python 测试依赖更新以支持 Python 3.12+
总结
Nginx-Proxy 1.7.0 版本在性能、安全性和功能完备性方面都有显著提升。默认的 Keepalive 设置优化了连接处理,IPv6 支持扩展了应用场景,而证书处理和重定向机制的改进则增强了安全性和兼容性。这些改进使得 nginx-proxy 继续保持为 Docker 环境下最简单高效的反向代理解决方案之一。对于正在使用或考虑使用 nginx-proxy 的用户,升级到 1.7.0 版本将获得更好的性能和更丰富的功能支持。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C091
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00