Coolify v4.0.0-beta.399版本发布:全面数据库SSL支持与多项新特性
Coolify是一个开源的、自托管的云部署平台,它允许开发者在自己的基础设施上轻松部署和管理应用程序、数据库和其他服务。作为一个现代化的DevOps工具,Coolify简化了从代码到生产的整个流程,支持多种编程语言、框架和数据库。
数据库SSL全面支持
本次更新的核心特性是为所有数据库服务提供了完整的SSL支持。这意味着现在用户可以为PostgreSQL、MySQL、MongoDB等数据库配置SSL/TLS加密连接,确保数据在传输过程中的安全性。实现这一功能的技术原理是通过自动生成和配置SSL证书,同时确保数据库容器能够正确加载这些证书。
对于企业级应用来说,这一改进尤为重要。它满足了金融、医疗等对数据安全要求严格行业的需求,使得Coolify在这些领域的适用性大大提升。开发团队还优化了数据库代理容器的命名规则,解决了之前版本中可能出现的一些命名冲突问题。
新增服务模板
v4.0.0-beta.399版本引入了三个新的服务模板,进一步扩展了Coolify的应用生态:
-
Wakapi:一个开源的、自托管的工作时间跟踪工具,特别适合开发团队使用。它可以帮助团队分析时间分配情况,提高工作效率。
-
DenoKV:基于Deno运行时的高性能键值存储解决方案。它为需要快速数据访问的应用提供了轻量级存储选项,特别适合现代JavaScript/TypeScript应用。
-
Freescout:一个功能完善的开源客户支持系统。企业可以使用它来管理客户服务流程,包括工单系统、知识库等功能。
这些新服务的加入使得Coolify能够覆盖更广泛的应用场景,从开发工具到业务系统一应俱全。
安装与配置增强
本次更新对安装过程和系统配置进行了多项改进:
-
新增了自定义Docker网络池配置功能。用户现在可以在安装过程中通过环境变量定义特定的Docker网络配置,这对于有特殊网络需求的企业环境特别有用。
-
增加了REGISTRY_URL配置选项。默认情况下Coolify使用GitHub容器注册表(ghcr.io),但现在用户可以将其更改为其他容器注册表或其他私有注册表。这一改变提高了部署灵活性,特别是在网络受限或需要私有镜像的环境中。
-
改进了Nginx默认配置,现在能够正确处理自定义404页面。这一看似小的改进实际上提升了用户体验,特别是在部署单页应用(SPA)时。
安全与运维改进
在安全方面,本次更新包含了几项重要改进:
-
密码重置功能现在会自动使所有现有会话失效。这一安全措施防止了密码重置后旧会话可能带来的安全隐患。
-
用户可以选择禁用Discord通知中的@here提及功能。虽然这看起来是个小功能,但对于大型团队来说,避免了在关键事件发生时产生过多的通知干扰。
-
备份系统得到了增强,现在可以更清晰地显示备份的可用位置。同时修复了混合使用不同保留策略时可能出现的备份记录不一致问题。
其他改进与修复
除了上述主要特性外,本次更新还包括:
-
对多个现有服务模板的更新,包括Foundry VTT、Plane和Glance等。
-
解决了API服务创建过程中的一些命名问题。
-
修正了Keycloak服务模板中已弃用的凭据环境变量。
-
改进了容器重启时的清理逻辑,使系统更加稳定可靠。
总结
Coolify v4.0.0-beta.399版本带来了多项重要更新,特别是在数据库安全、服务多样性和系统配置灵活性方面。这些改进使得Coolify更加适合企业级应用场景,同时也提升了开发者和运维人员的使用体验。随着新服务的不断加入和现有功能的持续优化,Coolify正在成长为一个功能全面、安全可靠的云部署平台。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C0134
let_datasetLET数据集 基于全尺寸人形机器人 Kuavo 4 Pro 采集,涵盖多场景、多类型操作的真实世界多任务数据。面向机器人操作、移动与交互任务,支持真实环境下的可扩展机器人学习00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python059
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7-FlashGLM-4.7-Flash 是一款 30B-A3B MoE 模型。作为 30B 级别中的佼佼者,GLM-4.7-Flash 为追求性能与效率平衡的轻量化部署提供了全新选择。Jinja00
AgentCPM-ReportAgentCPM-Report是由THUNLP、中国人民大学RUCBM和ModelBest联合开发的开源大语言模型智能体。它基于MiniCPM4.1 80亿参数基座模型构建,接收用户指令作为输入,可自主生成长篇报告。Python00