liburing项目中io_uring导致的系统冻结问题分析与修复
近期在Linux内核的io_uring子系统中发现了一个严重的系统冻结问题,该问题在用户同时挂起多个使用libuv库的Neovim实例时会被触发。本文将深入分析该问题的成因、影响范围以及最终的解决方案。
问题现象
当用户在Arch Linux或Fedora Rawhide系统上运行两个或多个Neovim实例,并通过Ctrl+Z挂起这些进程时,整个系统会进入近乎完全冻结的状态。具体表现为:
- 无法在终端输入任何命令
- 无法启动新的shell会话
- 部分简单命令(如通过SSH执行ls)仍可运行
- 系统日志中出现任务hung超过120秒的警告
问题定位
通过排查发现,该问题与io_uring子系统密切相关。当通过以下任一方式禁用io_uring功能时,问题不再出现:
- 设置环境变量UV_USE_IO_URING=0
- 通过sysctl设置kernel.io_uring_disabled=1
进一步分析表明,问题源于io_uring在进程退出时的资源清理机制。当多个使用io_uring的进程同时被挂起时,会导致工作队列(workqueue)的死锁情况。
技术原理
io_uring是现代Linux提供的高性能异步I/O接口,libuv等I/O库会利用它来提升性能。在进程退出时,io_uring需要通过工作队列来异步清理资源。原始实现中使用了system_unbound_wq作为工作队列。
问题发生时,系统出现了以下依赖链:
- 控制台输出需要等待工作队列刷新
- io_uring的退出操作需要工作队列执行
- 但工作队列本身可能被其他io_uring操作阻塞
这种循环依赖导致了系统级的死锁,特别是当多个进程同时触发io_uring清理时,问题更加明显。
解决方案
内核开发者Jens Axboe提出了针对性的修复方案,主要改动包括:
- 为io_uring退出操作创建专用的工作队列(iou_wq)
- 将io_uring的退出工作项提交到这个专用队列而非共享的system_unbound_wq
这种隔离措施有效避免了工作队列资源的竞争和死锁可能。修复补丁已被合并到Linux 6.9-rc3及后续版本中,并会反向移植到稳定分支。
影响评估
该问题影响所有使用io_uring的应用程序,当它们被批量挂起或终止时可能触发系统冻结。特别是:
- 使用libuv的应用程序(如Node.js、Neovim等)
- 直接使用io_uring接口的高性能服务器程序
- 多任务并行退出的场景
用户建议
对于无法立即升级内核的用户,可以采取以下临时解决方案:
- 禁用io_uring功能:
sysctl kernel.io_uring_disabled=1 - 对特定应用禁用io_uring支持:
UV_USE_IO_URING=0
长期解决方案是升级到包含修复补丁的Linux内核版本(6.9-rc3或更高版本)。
该案例展示了Linux内核异步I/O子系统的复杂性,也体现了开源社区快速响应和解决问题的效率。通过专用资源隔离来解决共享资源竞争问题,是系统编程中常见且有效的设计模式。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust078- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
Hy3-previewHy3 preview 是由腾讯混元团队研发的2950亿参数混合专家(Mixture-of-Experts, MoE)模型,包含210亿激活参数和38亿MTP层参数。Hy3 preview是在我们重构的基础设施上训练的首款模型,也是目前发布的性能最强的模型。该模型在复杂推理、指令遵循、上下文学习、代码生成及智能体任务等方面均实现了显著提升。Python00