Barman 3.13.0 版本发布:WAL管理优化与恢复流程增强
Barman 是 EnterpriseDB 公司开发的一款开源 PostgreSQL 数据库备份与恢复管理工具,它提供了完整的备份策略管理、时间点恢复(PITR)和灾难恢复解决方案。作为 PostgreSQL DBA 的得力助手,Barman 能够自动化处理数据库备份和恢复的复杂流程,大大简化了数据库运维工作。
WAL 元数据管理优化
本次 3.13.0 版本引入了一个重要的架构改进——新增了 xlogdb_directory 配置选项。这个参数允许管理员为 WAL 元数据文件指定独立的存储位置,该文件记录了已归档 WAL 文件的关键信息。
在之前的版本中,WAL 元数据文件(原名为 xlog.db)必须与 WAL 文件本身存储在同一个目录中。现在,管理员可以根据存储规划需求,将这个元数据文件单独存放。此外,文件命名也进行了改进,增加了服务器名前缀,使得在多服务器环境下更容易识别。
这一改进特别适合以下场景:
- 当 WAL 目录位于高性能存储设备上时,可以将元数据文件放在普通存储上
- 需要将元数据文件与 WAL 文件分开管理以满足特定合规要求
- 在多服务器环境中更清晰地组织文件结构
备份恢复流程增强
3.13.0 版本对恢复流程进行了重大改进,使恢复操作更加智能和灵活。传统上,执行恢复时必须明确指定要使用的备份 ID,这在某些紧急恢复场景下可能不够直观。
新版本引入了智能备份选择机制:
- 当用户明确知道要恢复的备份时,仍可指定备份 ID
- 当不指定备份 ID 时,系统会自动选择最新的可用备份
- 结合恢复目标参数时,系统能智能选择最合适的备份:
- 使用
target_time参数时,选择最接近指定时间点的备份 - 使用
target_lsn参数时,选择最接近指定 LSN 位置的备份 - 使用
target_tli参数时,选择符合指定时间线的最新备份
- 使用
这一改进显著简化了灾难恢复流程,特别是在需要执行时间点恢复的场景下,管理员不再需要手动确定哪个备份最适合作为恢复起点。
其他重要改进
WAL 归档处理优化
新版本改进了 barman-wal-archive 脚本对重复 WAL 文件的处理逻辑。当 PostgreSQL 尝试重复归档同一个 WAL 文件时(可能由于网络中断等原因),脚本现在会检查文件校验和。如果文件内容一致,则静默忽略;如果不一致,则将新文件移至错误目录并记录警告,同时仍返回成功状态,避免 PostgreSQL 因归档失败而阻塞。
恢复过程 WAL 目录配置
新增了 --staging-wal-directory 选项,允许在 PITR 恢复过程中指定 WAL 文件的临时存放位置。这为存储规划提供了更大的灵活性,例如可以将 WAL 文件放在单独的存储设备上,避免占用主数据目录空间。
Azure 认证支持扩展
增强了 Azure 云存储的认证选项,现在可以显式指定使用 Azure 的 DefaultAzureCredential 认证方式,为 Azure 环境下的备份管理提供了更多选择。
性能优化与问题修复
本次版本还包含多项性能优化和问题修复:
- 改进了 WAL 文件删除逻辑,现在会尝试删除整个目录而非逐个文件删除,显著提升了在 ZFS 等文件系统上的性能
- 修复了 AWS profile 参数处理中的变量引用问题
- 修正了
barman-cloud-wal-archive中 Zstandard 压缩选项无效的问题 - 修复了仅使用
--target-tli参数时恢复信号文件未正确创建的问题
诊断与监控增强
- 在
barman status和barman show-server命令输出中增加了当前活动配置模型信息 - 改进了诊断命令中保留策略信息的显示方式,使其更加用户友好
- 完善了文档中关于清除 WAL 归档失败检查的说明
Barman 3.13.0 版本的这些改进进一步巩固了其作为 PostgreSQL 专业备份解决方案的地位,特别是在大规模生产环境中的可靠性和易用性方面有了显著提升。对于依赖 PostgreSQL 的企业来说,升级到这个版本将带来更灵活的备份管理选项和更顺畅的灾难恢复体验。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C036
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
kylin-wayland-compositorkylin-wayland-compositor或kylin-wlcom(以下简称kywc)是一个基于wlroots编写的wayland合成器。 目前积极开发中,并作为默认显示服务器随openKylin系统发布。 该项目使用开源协议GPL-1.0-or-later,项目中来源于其他开源项目的文件或代码片段遵守原开源协议要求。C00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00