pgBackRest多存储库配置与WAL归档优化实践
背景介绍
pgBackRest作为PostgreSQL的高性能备份工具,支持多种存储后端和灵活的备份策略配置。在实际生产环境中,我们经常需要针对不同用途配置不同的备份存储策略,比如短期灾难恢复和长期归档保存。本文将详细介绍如何通过pgBackRest实现多存储库配置,并优化WAL归档策略以节省存储空间。
多存储库配置方案
pgBackRest支持在一个stanza(对应一个PostgreSQL集群)下配置多个存储库(repository)。这种设计比使用多个stanza更符合pgBackRest的架构理念。以下是推荐的配置方式:
[global]
log-level-console=info
log-level-file=debug
start-fast=y
compress-type=zst
process-max=4
# 异步归档设置
archive-async=y
archive-push-queue-max=360GB
spool-path=/var/spool/pgbackrest
archive-get-queue-max=1GB
# 灾难恢复存储库(28天保留期)
repo1-gcs-bucket=gcp-disasterrecovery
repo1-retention-full=28
repo1-retention-full-type=time
# 长期归档存储库(1000天保留期)
repo2-gcs-bucket=gcp-archive
repo2-retention-full=1000
repo2-retention-full-type=time
[my_stanza_name]
pg1-path=/var/lib/postgresql/14/main/
这种配置下,archive-push命令会同时将WAL段推送到两个存储库中,确保数据冗余。
WAL归档优化策略
对于长期归档存储库,我们通常不需要保留完整的WAL归档历史,只需要保证备份的一致性即可。pgBackRest提供了repo-retention-archive参数来控制WAL归档的保留策略。
repo2-retention-archive=1
这个配置表示只保留最近一次备份所需的WAL文件。实际测试表明,在每周备份的情况下,WAL文件会在备份完成后被清理,仅保留最近一周的WAL归档。
关键技术点解析
-
备份一致性保障:pgBackRest会始终保留使备份一致所需的最小WAL文件集,无论
repo-retention-archive如何配置。 -
恢复能力差异:
- 灾难恢复存储库(repo1)保留完整WAL历史,支持28天内的任意时间点恢复(PITR)
- 长期归档存储库(repo2)仅支持恢复到备份时间点
-
恢复优先级:
archive-get命令会按存储库顺序查找WAL文件,可以利用这一点将高频访问的存储库配置为repo1以获得更快的恢复速度。
实施建议
-
备份调度:为长期归档存储库设置合理的备份频率(如每周全备),平衡存储成本和恢复粒度。
-
监控日志:关注expire日志中的
remove archive条目,确认WAL清理策略按预期工作。 -
恢复测试:定期测试从两个存储库恢复数据的能力,验证配置的正确性。
-
容量规划:根据WAL生成速率和备份频率计算长期归档存储库的容量需求。
总结
通过合理配置pgBackRest的多存储库功能和WAL归档策略,我们可以在保证数据安全的同时,有效控制长期归档的存储成本。这种方案特别适合有合规性存储要求的场景,能够在满足长期保留要求的同时避免不必要的存储开销。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C0105
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python059
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00