UTM虚拟机中CentOS Stream 9升级后启动失败问题分析
问题现象
在UTM虚拟机环境中运行CentOS Stream 9系统的用户报告了一个严重问题:当系统执行dnf upgrade更新并重启后,虚拟机无法正常启动,系统在到达GRUB引导程序之前就会崩溃。类似的问题也出现在其他基于RHEL 9的发行版中,包括Rocky Linux 9.4、AlmaLinux 9.4、Oracle Linux 9.3/9.4以及Fedora 39等。
技术背景
这个问题与QEMU虚拟化环境中的一个已知bug有关。具体表现为系统启动时出现"Synchronous Exception"错误,导致引导过程中断。值得注意的是,即使不更新内核包,仅更新其他系统组件也会触发此问题,这表明问题根源可能不仅限于内核层面。
影响范围
经过多位用户的测试验证,此问题主要影响以下Linux发行版:
- CentOS Stream 9
- Rocky Linux 9.x系列
- AlmaLinux 9.x系列
- Oracle Linux 9.x系列
- Fedora 39
而Fedora 40、Ubuntu 22.04/24.04以及Debian 11/12等发行版则不受此问题影响。
根本原因分析
从技术角度看,这个问题与QEMU在ARM架构下的页表处理机制有关。当这些受影响的RHEL系发行版执行系统更新后,某些组件(可能是引导加载程序或固件)会尝试使用特定的内存页大小配置,而QEMU的当前实现无法正确处理这种配置变更,导致系统在引导早期阶段就触发同步异常。
解决方案
目前有以下几种可行的解决方案:
-
切换虚拟化后端: 将虚拟机的虚拟化后端从QEMU切换为Apple Virtualization框架。多位用户报告这种方法可以完全规避此问题。对于已存在的虚拟机,可以通过以下步骤迁移:
- 将原有虚拟磁盘转换为RAW格式
- 创建新的Apple Virtualization虚拟机配置
- 导入转换后的磁盘映像
-
使用替代引导加载程序: 对于无法切换虚拟化后端的用户,可以尝试使用发行版安装介质中的原始grubx64.efi文件替换更新后的引导加载程序。具体操作包括:
- 从安装ISO中提取grubx64.efi
- 将其放置到/boot/efi/efi/[发行版名称]/目录下
- 通过OVMF引导管理器添加新的引导项
-
暂时避免系统更新: 对于关键业务环境,在QEMU修复此问题前,可以暂时避免执行完整的系统更新,特别是涉及引导相关组件的更新。
长期展望
这个问题已经引起了QEMU开发团队的关注,预计未来的QEMU版本将会包含针对此问题的修复。建议用户关注UTM和QEMU的更新日志,在确认问题修复后再考虑切换回QEMU后端(如果需要使用QEMU特有的功能)。
技术建议
对于需要在UTM中运行RHEL 9系发行版的用户,建议:
- 新虚拟机优先使用Apple Virtualization后端创建
- 定期备份重要虚拟机,特别是在执行系统更新前
- 关注UTM和QEMU的版本更新,及时获取问题修复
- 对于开发测试环境,可以考虑使用不受此问题影响的替代发行版
这个问题再次提醒我们,在虚拟化环境中运行操作系统时,虚拟化层与客户机操作系统之间的兼容性是需要特别关注的重点,特别是在ARM架构下运行x86_64系统时,各种模拟和转换层可能会引入意想不到的问题。
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
yuanrongopenYuanrong runtime:openYuanrong 多语言运行时提供函数分布式编程,支持 Python、Java、C++ 语言,实现类单机编程高性能分布式运行。Go051
MiniCPM-SALAMiniCPM-SALA 正式发布!这是首个有效融合稀疏注意力与线性注意力的大规模混合模型,专为百万级token上下文建模设计。00
ebook-to-mindmapepub、pdf 拆书 AI 总结TSX01