borgmatic 2.0.5版本发布:数据库密码传输优化与归档策略增强
borgmatic是一个基于BorgBackup的自动化备份工具,它通过简单的YAML配置文件来管理备份、验证、归档清理等操作,大大简化了BorgBackup的使用流程。borgmatic的目标是让用户能够轻松设置和维护可靠的备份系统,而无需深入了解BorgBackup的所有复杂选项。
近日,borgmatic发布了2.0.5版本,这个版本带来了几项重要的功能改进和问题修复,主要集中在数据库备份的密码传输安全性、归档保留策略的灵活性以及一些使用体验的优化上。让我们一起来看看这些新特性。
数据库密码传输方式自定义
在2.0.5版本中,borgmatic为MariaDB和MySQL数据库备份钩子新增了"password_transport"选项。这个选项允许用户自定义数据库客户端接收密码的方式,提高了备份过程中密码传输的安全性。
在之前的版本中,borgmatic在备份MySQL或MariaDB数据库时,密码通常是通过命令行参数或环境变量传递的,这可能会在某些情况下带来安全隐患。新版本中,用户可以选择更安全的密码传输方式,例如通过临时文件或标准输入。
更灵活的归档保留策略
borgmatic 2.0.5扩展了其归档保留策略选项,新增了两个实用的保留周期设置:
- "keep_3monthly":保留每三个月一次的归档
- "keep_13weekly":保留每13周一次的归档
这些新选项与现有的保留策略(如每日、每周、每月等)一起,为用户提供了更精细的控制能力,可以根据业务需求定制更符合实际场景的备份保留方案。
性能优化与功能增强
新版本还包含了几项性能优化和使用体验改进:
-
新增"use_chunks_archive"选项,用于控制Borg是否使用其块缓存目录。这个选项可以帮助用户在特定场景下优化备份性能。
-
在"compact"操作中,现在支持将"--dry-run"参数传递给Borg,允许用户在真正执行压缩操作前进行模拟运行,查看可能的结果。
-
修复了一个监控日志级别的问题。在之前的版本中,默认的监控详细程度被错误地设置为0(仅警告),导致监控服务(如Healthchecks)无法接收到borgmatic执行步骤的信息日志。现在已恢复为默认级别1,确保监控服务能够正常接收操作信息。
项目生态变化
值得注意的是,borgmatic项目在本次版本发布的同时,也宣布了一些生态变化:
- 项目已从Fosstodon迁移到FLOSS.social平台
- 项目不再接受GitHub上的Pull Request,但提供了替代的贡献方式
这些变化反映了开源项目在协作方式和社区建设上的持续演进。
总结
borgmatic 2.0.5版本虽然在版本号上是一个小版本更新,但它带来的功能改进却非常有价值。特别是数据库密码传输安全性的增强和归档保留策略的扩展,使得borgmatic在数据保护和长期归档方面更加专业和灵活。对于依赖borgmatic进行关键数据备份的用户来说,升级到这个版本将能够获得更好的安全性和控制能力。
对于新用户,borgmatic 2.0.5提供了更友好的默认配置和更清晰的监控日志;而对于高级用户,新增的配置选项则提供了更多调优空间。无论是简单的个人备份需求,还是复杂的企业级备份方案,borgmatic都在持续进化以满足不同场景下的备份需求。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00