fwupd项目中的文件描述符泄漏问题分析与解决方案
问题背景
在Linux系统的固件更新管理工具fwupd中,近期发现了一个严重的资源泄漏问题。该问题表现为系统日志中频繁出现"Too many open files"错误,最终导致fwupd守护进程崩溃。这一问题自2025年2月15日开始出现,主要影响长时间运行的fwupd服务。
问题现象分析
当fwupd守护进程运行时,系统管理员可以观察到以下典型症状:
-
系统日志中出现大量类似错误:
failed to open /sys/devices/pci0000:00/0000:00:08.1/uevent: Too many open files -
进程最终崩溃并生成核心转储文件
-
通过检查进程文件描述符可以发现异常:
ls /proc/`pidof fwupd`/fd/ | wc -l结果显示文件描述符数量异常增多(通常超过100个)
根本原因
经过深入分析,发现问题源于fwupd对USB设备描述符文件的不当处理。具体表现为:
-
当系统中有USB集线器设备(特别是通过显示器内置的USB集线器)时,fwupd会持续监控这些设备
-
在显示器进入DPMS节能模式并唤醒时,USB设备会经历多次断开和重连过程
-
fwupd在处理这些USB设备事件时,未能正确关闭已打开的设备描述符文件(位于/sys/devices/下的文件)
-
每次设备连接都会累积新的文件描述符,最终达到系统限制(通常为1024个)
技术细节
从核心转储分析可以看出,崩溃发生在GLib库尝试创建新的管道时失败。这是因为系统资源(文件描述符)已被耗尽。进一步检查发现,泄漏的文件描述符主要指向:
- /sys/devices/pci*/usb*/descriptors
- /sys/devices/pci*/usb*/*/descriptors
- /sys/devices/pci*/usb*///descriptors
这些文件是Linux内核提供的USB设备信息接口,fwupd通过读取它们来获取USB设备详情。
解决方案
fwupd开发团队已经针对此问题发布了修复补丁,主要改进包括:
-
实现了更严格的资源管理机制,确保所有打开的文件描述符都能被正确关闭
-
优化了USB设备监控逻辑,减少不必要的文件操作
-
增加了资源使用监控,防止类似泄漏再次发生
用户应对措施
对于遇到此问题的用户,建议:
-
升级到包含修复补丁的fwupd版本
-
临时解决方案可以定期重启fwupd服务:
systemctl restart fwupd -
对于嵌入式或资源受限环境,可以考虑调整系统文件描述符限制:
echo "fs.file-max = 65536" >> /etc/sysctl.conf sysctl -p
总结
文件描述符泄漏是系统级软件常见的资源管理问题。fwupd作为系统关键服务,其稳定性直接影响用户体验。此次问题的发现和解决过程展示了开源社区响应问题的效率,也提醒开发者需要特别注意系统资源的生命周期管理。对于终端用户而言,保持软件更新是避免此类问题的最佳实践。
对于开发者而言,这个案例也提供了宝贵的经验:在涉及频繁设备连接/断开的场景下,必须实现完善的资源清理机制,并考虑增加资源使用监控,以提前发现问题。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00