libarchive项目中bsdtar工具对Zstd压缩包校验和的支持问题
在文件压缩和归档领域,校验和(checksum)是一项重要的数据完整性保障机制。近期在libarchive项目中发现了一个关于bsdtar工具生成Zstandard(.zst)压缩包时缺失校验和的问题,这个问题影响了使用libarchive库的各种工具(如file-roller等)生成的Zstd压缩包。
问题背景
Zstandard(Zstd)是一种现代的高效压缩算法,由Facebook开发并开源。它支持多种校验和算法,默认使用XXH64哈希算法来验证数据完整性。然而,当使用bsdtar工具(基于libarchive)创建.tar.zst归档文件时,生成的压缩包中缺少了这项重要的校验信息。
技术细节分析
通过对比测试可以清楚地观察到这个问题:
- 直接使用bsdtar创建Zstd压缩包时,生成的归档文件没有校验和
- 通过管道将bsdtar输出传递给zstd命令行工具时,生成的归档文件包含XXH64校验和
根本原因在于libarchive的Zstd压缩过滤器(archive_write_add_filter_zstd.c)没有正确设置ZSTD_c_checksumFlag参数。这个参数控制着Zstd压缩过程中是否生成并嵌入校验和。
解决方案实现
libarchive开发团队迅速响应并解决了这个问题。解决方案的关键点包括:
- 在Zstd压缩初始化阶段设置校验和标志
- 不需要提供配置选项,直接默认启用校验和功能
- 保持与zstd命令行工具的行为一致
实现上,主要修改了archive_write_add_filter_zstd.c文件,在适当的位置设置了ZSTD_c_checksumFlag参数。这个修改确保了所有通过libarchive生成的Zstd压缩包都会包含校验和信息。
验证与影响
修改后的验证测试显示:
- bsdtar生成的Zstd压缩包现在正确包含XXH64校验和
- 文件大小略有增加(从127B增加到131B),这是加入校验和的正常开销
- 使用file-roller等图形界面工具生成的Zstd压缩包也同样受益
这项改进增强了数据完整性验证能力,使得通过libarchive生成的Zstd压缩包与直接使用zstd工具生成的文件具有相同的校验特性。对于依赖数据完整性的应用场景(如软件包分发、备份等)来说,这是一个重要的质量提升。
总结
libarchive项目团队快速响应并解决了Zstd校验和缺失的问题,展现了开源社区高效协作的优势。这个改进使得基于libarchive的工具链生成的Zstd压缩包更加可靠,与生态系统中的其他工具保持了一致性。对于用户而言,这意味着更好的数据安全保障,无需额外操作即可获得完整的数据校验能力。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00