Nginx-Proxy 1.7.0 版本发布:增强代理功能与IPv6支持
Nginx-Proxy 是一个基于 Docker 的轻量级反向代理解决方案,它能够自动为多个 Docker 容器配置 Nginx 反向代理。通过监听 Docker 事件,nginx-proxy 可以动态地生成 Nginx 配置,使得在 Docker 环境中部署 Web 应用变得更加简单和高效。最新发布的 1.7.0 版本带来了一系列重要的功能增强和问题修复。
核心功能改进
默认启用 Keepalive 连接
1.7.0 版本默认启用了 HTTP Keepalive 功能。这项改进通过复用 TCP 连接来减少建立新连接的开销,显著提高了代理性能。在高并发场景下,这可以降低服务器负载并减少延迟。对于现代 Web 应用来说,Keepalive 已经成为标准配置,此次默认启用使得 nginx-proxy 更加符合最佳实践。
默认证书信任机制
新版本引入了对默认证书的信任机制。当配置了默认证书时,nginx-proxy 会优先使用该证书,而不是自动生成的证书。这一改变提高了安全性,同时也为管理员提供了更大的灵活性,可以预先配置好受信任的证书而无需为每个子域名单独配置。
IPv6 支持增强
1.7.0 版本实现了对 IPv6 Docker 网络的基本支持。随着 IPv6 的普及,这一改进使得 nginx-proxy 能够更好地适应现代网络环境。代理现在可以正确处理 IPv6 地址,为部署在 IPv6 网络中的容器提供服务。
协议与重定向改进
多端口协议支持
VIRTUAL_HOST_MULTIPORTS 环境变量现在支持协议指定。这意味着用户可以更灵活地定义不同端口上的服务协议(HTTP/HTTPS),而不必依赖默认设置。例如,可以明确指定某些端口使用 HTTPS,而其他端口使用 HTTP。
HTTP 方法重定向优化
对于非 GET 方法的请求(如 POST、PUT 等),重定向现在使用 308(永久重定向)状态码替代原来的 301。308 状态码明确表示请求方法和主体不应改变,而 301 则允许浏览器将 POST 请求转换为 GET 请求。这一改变确保了 API 调用的正确性,避免了潜在的数据丢失问题。
安全修复与证书处理
通配符证书范围限制
修复了一个安全问题,确保通配符证书(如 *.example.com)只匹配一级子域名。这意味着 *.example.com 将匹配 a.example.com 但不匹配 a.b.example.com。这一改变符合证书颁发机构的惯例,防止了证书被用于非预期的域名。
测试与代码质量提升
1.7.0 版本包含了大量的测试改进和代码重构。测试套件现在更加完善,能够覆盖更多的使用场景。代码重构使得模板处理更加清晰,便于未来的维护和扩展。此外,测试环境现在支持在 macOS/Darwin 系统上本地运行,方便开发者在不同平台上进行测试。
依赖项更新
项目依赖的多个组件已更新至最新版本:
- Nginx 升级到 1.27.3 版本
- docker-gen 升级到 0.14.4 版本
- Python 测试依赖更新以支持 Python 3.12+
总结
Nginx-Proxy 1.7.0 版本在性能、安全性和功能完备性方面都有显著提升。默认的 Keepalive 设置优化了连接处理,IPv6 支持扩展了应用场景,而证书处理和重定向机制的改进则增强了安全性和兼容性。这些改进使得 nginx-proxy 继续保持为 Docker 环境下最简单高效的反向代理解决方案之一。对于正在使用或考虑使用 nginx-proxy 的用户,升级到 1.7.0 版本将获得更好的性能和更丰富的功能支持。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00