borgmatic 2.0.0 版本发布:更灵活的备份管理工具升级
borgmatic 是一个基于 BorgBackup 的自动化备份工具,它通过简单的 YAML 配置文件来管理复杂的备份流程。borgmatic 2.0.0 版本带来了多项重要更新,特别是在命令钩子、配置灵活性和新功能方面有显著改进。
命令钩子系统的全面革新
2.0.0 版本对命令钩子系统进行了彻底重构,引入了更灵活的"commands:"配置选项来替代原有的"before_"、"after_"和"on_error"钩子。这一变化使得用户能够更精细地控制备份流程中的各个阶段。
新系统的一个关键改进是:现在即使备份过程中发生错误,"after"钩子也会被执行。这意味着用户可以确保清理步骤总能执行,与"before"准备步骤形成完整的配对。例如,如果你在备份前创建了一个临时目录,现在可以确保无论备份是否成功,都能在之后删除这个目录。
此外,所有命令钩子现在都会尊重"working_directory"配置选项,确保命令在指定目录下执行。这一改进特别适合需要特定工作环境的脚本。
配置灵活性的显著提升
2.0.0 版本极大地增强了配置的灵活性:
-
新增了"default_actions"选项,允许用户定义当不带命令行参数运行borgmatic时执行哪些默认操作。
-
为几乎所有命令行标志添加了对应的配置选项,这意味着用户可以将常用选项直接写入配置文件,而无需每次都在命令行中指定。例如,现在可以在配置文件中直接设置日志详细程度,而不必每次都使用"-v"标志。
-
虽然保留了"--override"标志,但已将其标记为弃用,推荐使用直接的命令行标志来覆盖配置选项。这一变化使得配置覆盖更加直观和类型安全。
新增功能亮点
-
密钥导入功能:新增的"key import"操作允许用户从备份中恢复仓库密钥,这在密钥丢失或需要迁移备份时非常有用。
-
档案重建功能:新增的"recreate"操作让用户可以重新创建现有档案,例如用于事后排除某些文件。这在需要调整备份内容而不影响备份历史时特别有价值。
-
数据库备份增强:SQLite和MongoDB钩子现在支持自定义命令,为用户提供了更多控制权。文档中还新增了关于使用临时数据库客户端容器的用例说明。
兼容性说明
虽然2.0.0版本几乎完全向后兼容,但用户需要注意以下几点:
-
所有"before_"、"after_"和"on_error"命令钩子已被标记为弃用,建议迁移到新的"commands:"系统。
-
"--override"标志已被标记为弃用,建议使用直接命令行标志替代。
-
当使用Borg 2时,"borg prune"命令不再接收"--stats"标志。
错误修复与改进
2.0.0版本还包含多项错误修复和细节改进:
-
修复了在同时使用远程仓库和"working_directory"时的"extract"操作错误。
-
解决了systemd凭证钩子在凭证名称包含"."字符时的问题。
-
修复了ZFS、Btrfs和LVM钩子在处理位于不同设备/文件系统上的嵌套目录时的"no such file or directory"错误。
-
修复了当档案包含符号链接时"spot"检查失败的问题。
-
KeePassXC凭证钩子新增了"key-file"和"yubikey"选项,并支持主目录扩展。
这些更新使borgmatic成为一个更加强大、灵活且可靠的备份解决方案,特别适合需要精细控制备份流程的高级用户。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00