iperf3 3.19版本发布:新增MPTCP支持与性能优化
iperf3作为网络性能测试领域的标杆工具,在3.19版本中带来了一系列重要更新。作为一款开源的网络带宽测量工具,iperf3广泛应用于数据中心、云计算和网络设备测试等场景,能够精确测量TCP/UDP的吞吐量、延迟抖动等关键指标。
核心功能升级
多路径TCP支持
本次更新最引人注目的特性是新增了对Multi-Path TCP(MPTCPv1)协议的支持。MPTCP作为TCP的扩展协议,允许单个TCP连接同时使用多个网络路径传输数据,在移动设备多网卡、数据中心多链路等场景下能显著提升带宽利用率和连接可靠性。
用户只需在命令行添加-m或--mptcp参数即可启用这一功能。这项特性目前仅在Linux平台可用,需要内核支持MPTCP协议栈。对于网络研究人员和运营商而言,这提供了测试MPTCP性能的标准方法。
控制连接保活机制
新增的--cntl-ka选项解决了长期存在的控制连接稳定性问题。在跨公网或复杂网络环境测试时,控制连接可能因中间设备超时而中断。启用TCP keepalive后,系统会定期检测连接状态,确保长时间测试的可靠性。
高性能接收优化
针对超高带宽测试场景(如100Gbps及以上网络),新增的--skip-rx-copy选项采用了MSG_TRUNC接收模式。这种技术通过避免将网络数据完整复制到用户空间,减少了CPU开销,理论上可以提升极限吞吐量。需要注意的是,这属于高级优化选项,普通用户通常无需启用。
重要问题修复
突发传输模式修正
修复了当同时设置比特率和突发参数时,比特率设置被忽略的问题。这个bug影响了需要精确控制流量模式的测试场景,如评估网络设备突发处理能力或QoS策略时。
拥塞控制协议重置
改进了拥塞控制协议的处理逻辑,现在能正确地在不同测试之间重置拥塞控制设置。这对于对比不同拥塞算法性能的研究工作尤为重要。
信号处理优化
调整了信号处理逻辑,现在当进程收到SIGTERM、SIGHUP或SIGINT信号时,会以0状态码退出。这一改变使得iperf3能更好地集成到自动化测试系统中。
开发者相关改进
编程接口增强
新增了JSON输出回调函数支持,允许开发者更灵活地处理测试结果。这一改进使得将iperf3集成到自定义监控系统或数据分析平台变得更加便捷。
代码质量提升
修复了多个内存泄漏问题,增强了代码健壮性。特别是改进了JSON消息解析时的错误处理,现在能提供更有价值的警告信息,帮助开发者快速定位配置问题。
构建系统更新
适配了最新的gcc-15编译器,确保项目能在现代开发环境中顺利构建。CI配置也同步更新,使用更现代的测试运行环境。
使用建议
对于需要测试MPTCP性能的用户,建议在支持MPTCP的内核上验证新功能。网络设备厂商可以关注MSG_TRUNC优化带来的性能提升潜力。所有用户都建议升级以获取更稳定的测试体验,特别是在使用突发传输或需要长时间运行的测试场景中。
这个版本体现了iperf3项目对前沿网络技术的快速响应能力,同时也持续改进基础功能的可靠性和易用性,巩固了其作为网络性能测试标准工具的地位。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C092
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00