EMBA固件分析工具中的QEMU模拟输出限制优化
2025-06-27 19:18:33作者:俞予舒Fleming
问题背景
在嵌入式固件安全分析工具EMBA中,S115用户模式模拟器模块负责使用QEMU对固件中的可执行文件进行模拟运行。在实际使用过程中,我们发现当模拟某些特定程序(如yes、nettle-lfib-stream等)时,会产生异常庞大的输出文件,单个文件甚至可能达到数十GB。
这种情况主要发生在模拟那些会持续输出重复内容或随机数据的程序时,例如:
yes程序会不断输出"y"字符nettle-lfib-stream会持续生成随机数env或printenv会输出环境变量
技术挑战
原有的EMBA实现虽然设置了20秒的运行时间限制,但存在以下技术问题:
-
文件大小限制失效:虽然代码中设计了文件大小检查机制,但由于文件名解析逻辑错误,导致无法正确识别需要终止的进程。
-
进程识别问题:从文件名提取二进制名称时,错误地将
qemu_tmp_yes.coreutils.txt解析为"tmp"而不是"yes",导致无法匹配到实际运行的QEMU进程。 -
strace输出未受控:strace模式的模拟输出没有纳入大小限制检查范围。
-
进程终止竞争条件:大小检查仅在启动新模拟时执行,最后几个运行的进程可能逃过检查。
解决方案
最新修复方案主要包含以下改进:
-
文件名解析修正:
- 正确处理
stracer_、qemu_tmp和qemu_initx_等前缀 - 改进对包含特殊字符(如点号)的二进制名称的处理
- 正确处理
-
可配置大小限制:
- 通过
QEMU_KILL_SIZE参数可配置最大输出大小 - 默认值从无限制改为10MB(可根据需求调整为1-5MB)
- 通过
-
全面覆盖检查:
- 将strace模式的输出也纳入大小限制
- 确保所有模拟进程都能被正确监控
技术实现细节
核心改进在于优化了进程识别和终止逻辑:
- 精确进程匹配:
# 改进后的文件名解析逻辑
basename % 2>/dev/null | sed -r 's/^(stracer|qemu|qemu_init|qemu_tmp)_//' | cut -d\. -f1
-
进程终止机制:
- 定期检查日志文件大小
- 当文件超过阈值时,精确终止对应的QEMU进程
- 避免误杀其他正在运行的模拟进程
-
资源管理:
- 结合时间限制(默认20秒)和空间限制(默认10MB)
- 双重保障防止资源耗尽
实际应用建议
对于EMBA用户,建议:
- 对于常规固件分析,保持默认的10MB限制即可
- 如果分析特定固件时需要更多输出,可通过扫描配置文件调整:
# 在scan-profile中设置
export QEMU_KILL_SIZE=20480 # 设置为20MB
- 对于性能敏感环境,可考虑降低到5MB或更小
总结
EMBA通过这次改进,有效解决了用户模式模拟中输出文件过大的问题。新的实现既保证了分析结果的完整性,又避免了磁盘空间和I/O资源的浪费。这种时间+空间的双重限制机制为嵌入式固件的自动化安全分析提供了更可靠的保障。
登录后查看全文
热门项目推荐
相关项目推荐
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust0119- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
SenseNova-U1-8B-MoT-SFTenseNova U1 是一系列全新的原生多模态模型,它在单一架构内实现了多模态理解、推理与生成的统一。 这标志着多模态AI领域的根本性范式转变:从模态集成迈向真正的模态统一。SenseNova U1模型不再依赖适配器进行模态间转换,而是以原生方式在语言和视觉之间进行思考与行动。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
项目优选
收起
暂无描述
Dockerfile
718
4.6 K
Ascend Extension for PyTorch
Python
588
729
deepin linux kernel
C
29
16
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
980
965
Claude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed.
Get Started
Rust
791
119
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
420
366
Oohos_react_native
React Native鸿蒙化仓库
C++
341
390
昇腾LLM分布式训练框架
Python
155
183
华为昇腾面向大规模分布式训练的多模态大模型套件,支撑多模态生成、多模态理解。
Python
142
226
暂无简介
Dart
963
240