Duplicati项目中的上传限速功能问题分析与解决方案
2025-05-18 06:06:18作者:庞队千Virginia
背景介绍
Duplicati是一款开源的备份软件,提供了强大的数据备份和恢复功能。在2.1.0版本中,用户报告了一个关于上传限速(throttle-upload)功能失效的问题。这个问题主要出现在使用Backblaze B2等云存储后端时,上传速度无法被有效限制在指定范围内。
问题现象
用户在使用Duplicati 2.1.0版本时发现,即使设置了上传限速参数(如300KB/s),实际上传速度仍然可以达到20Mbit/s(约2.5MB/s)的全速状态。这一问题在以下配置下尤为明显:
- 使用Backblaze B2作为存储后端
- 设置了单线程上传模式
- 启用了同步上传选项
从用户提供的网络传输图可以看出,上传过程呈现出明显的"脉冲"模式:短时间内全速上传,随后长时间停顿,而不是预期的平稳限速状态。
技术分析
经过开发团队深入调查,发现问题根源在于限速算法的实现方式与部分后端服务的特性存在冲突。
限速算法原理
Duplicati的限速机制基于"带宽配额"概念:
- 系统以纳秒级精度计时
- 根据设定的限速值(如1MB/s)计算允许传输的数据量
- 每次传输请求会消耗相应的配额
- 当配额耗尽时,传输会被暂停
- 暂停期间会累积新的配额(最多累积2.5秒的配额)
这种设计理论上可以:
- 支持多流共享带宽
- 允许短时间内的突发传输
- 保持长期平均速度符合设定值
问题根源
问题主要出现在需要预先计算内容哈希的后端服务(如Backblaze B2)上。这些后端在实际上传前需要:
- 读取整个数据流计算签名/哈希
- 哈希计算过程意外触发了限速机制
- 实际传输时流已被完全读取,不再受限速控制
而开发团队最初测试使用的本地文件和SSH后端不需要预计算签名,因此未能发现这一问题。
解决方案
开发团队采取了以下改进措施:
-
缓冲区大小限制:防止单个请求获取过大带宽配额
- 将大请求分割为多个小请求(不超过带宽限制的10%)
- 避免因长时间累积配额导致的突发传输
-
后端服务适配:
- 识别需要预计算签名的后端类型
- 对这些后端调整限速机制的应用时机
- 确保哈希计算不影响实际上传的限速
-
算法优化:
- 改进配额累积机制
- 增强多流共享的公平性
- 提高定时器精度
实际效果验证
改进后的版本在不同环境下进行了测试:
-
本地文件测试:
- 设置100KB/s限速
- 观察到稳定在33KB/s的平均速度(3个并行流)
- 动态调整限速值能实时生效
-
远程SSH测试:
- 设置1MB/s限速
- 传输监测显示平稳的1.1MB/s传输速度
- 无明显的脉冲式传输现象
用户建议
对于遇到类似问题的用户,建议:
- 确保使用最新版本的Duplicati
- 对于需要预计算哈希的后端(如B2),适当调整限速值
- 监测实际网络传输,而不仅依赖软件报告的速度
- 可以尝试结合
--asynchronous-concurrent-upload-limit参数控制并发数
总结
Duplicati的上传限速功能经过此次优化,能够更精确地控制各种后端服务的上传速度。这一改进特别有利于需要稳定带宽占用的网络环境,以及需要避免云服务商速率限制的场景。开发团队将继续关注该功能的实际表现,并根据用户反馈进一步优化。
登录后查看全文
热门项目推荐
相关项目推荐
ERNIE-4.5-VL-28B-A3B-ThinkingERNIE-4.5-VL-28B-A3B-Thinking 是 ERNIE-4.5-VL-28B-A3B 架构的重大升级,通过中期大规模视觉-语言推理数据训练,显著提升了模型的表征能力和模态对齐,实现了多模态推理能力的突破性飞跃Python00
unified-cache-managementUnified Cache Manager(推理记忆数据管理器),是一款以KV Cache为中心的推理加速套件,其融合了多类型缓存加速算法工具,分级管理并持久化推理过程中产生的KV Cache记忆数据,扩大推理上下文窗口,以实现高吞吐、低时延的推理体验,降低每Token推理成本。Python03
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
Spark-Prover-X1-7BSpark-Prover 是由科大讯飞团队开发的专用大型语言模型,专为 Lean4 中的自动定理证明而设计。该模型采用创新的三阶段训练策略,显著增强了形式化推理能力,在同等规模的开源模型中实现了最先进的性能。Python00
MiniCPM-V-4_5MiniCPM-V 4.5 是 MiniCPM-V 系列中最新且功能最强的模型。该模型基于 Qwen3-8B 和 SigLIP2-400M 构建,总参数量为 80 亿。与之前的 MiniCPM-V 和 MiniCPM-o 模型相比,它在性能上有显著提升,并引入了新的实用功能Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00
GOT-OCR-2.0-hf阶跃星辰StepFun推出的GOT-OCR-2.0-hf是一款强大的多语言OCR开源模型,支持从普通文档到复杂场景的文字识别。它能精准处理表格、图表、数学公式、几何图形甚至乐谱等特殊内容,输出结果可通过第三方工具渲染成多种格式。模型支持1024×1024高分辨率输入,具备多页批量处理、动态分块识别和交互式区域选择等创新功能,用户可通过坐标或颜色指定识别区域。基于Apache 2.0协议开源,提供Hugging Face演示和完整代码,适用于学术研究到工业应用的广泛场景,为OCR领域带来突破性解决方案。00
项目优选
收起
deepin linux kernel
C
24
7
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
309
2.71 K
本仓将收集和展示高质量的仓颉示例代码,欢迎大家投稿,让全世界看到您的妙趣设计,也让更多人通过您的编码理解和喜爱仓颉语言。
Cangjie
362
2.96 K
暂无简介
Dart
600
135
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.07 K
616
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
638
241
🍒 Cherry Studio 是一款支持多个 LLM 提供商的桌面客户端
TypeScript
774
74
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
9
1
仓颉编程语言命令行工具,包括仓颉包管理工具、仓颉格式化工具、仓颉多语言桥接工具及仓颉语言服务。
C++
56
826
旨在打造算法先进、性能卓越、高效敏捷、安全可靠的密码套件,通过轻量级、可剪裁的软件技术架构满足各行业不同场景的多样化要求,让密码技术应用更简单,同时探索后量子等先进算法创新实践,构建密码前沿技术底座!
C
1.03 K
466