解决MinerU在Atlas 910B多卡环境下的NPU显存分配问题
在使用Atlas 910B 8卡环境部署MinerU时,用户可能会遇到NPU显存分配错误的问题。具体表现为,尽管已经通过Docker容器指定了使用第6和第7号算卡,但MinerU仍然默认使用了第0号算卡,导致显存不足而报错。本文将深入分析这一问题,并提供有效的解决方案。
问题背景
在Atlas 910B的多卡环境中,用户通常需要将不同的计算任务分配到不同的NPU上,以优化资源利用和避免显存冲突。例如,用户可能希望将前6张卡用于运行deepseek、embed和reranker等模型,而将最后两张卡(第6和第7号)专门用于运行MinerU。
然而,即使用户在启动Docker容器时通过--device参数明确指定了使用第6和第7号算卡,MinerU仍然可能错误地选择第0号算卡运行。这通常是由于MinerU内部的设备选择逻辑与Docker的设备映射不完全一致所致。
错误分析
当MinerU错误地使用了第0号算卡时,可能会遇到如下错误信息:
RuntimeError: NPU out of memory. Tried to allocate 18.00 MiB (NPU 0; 60.97 GiB total capacity; 1.70 GiB already allocated; 1.70 GiB current active; 20.04 MiB free; 1.82 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation.
这一错误明确指出了NPU 0的显存不足,而用户期望的NPU 6和7却未被使用。通过npu-smi info命令可以进一步验证这一情况,显示NPU 0上有MinerU的相关进程,而NPU 6和7上没有运行任何进程。
解决方案
要解决这一问题,用户需要通过修改MinerU的配置文件来明确指定使用的NPU设备。具体步骤如下:
1. 定位配置文件
MinerU的配置文件通常位于/root/magic-pdf.json。用户需要编辑该文件,找到与设备设置相关的部分。
2. 修改设备配置
在配置文件中,将设备设置从默认的npu修改为npu:X,其中X代表用户希望使用的具体NPU编号。例如,如果希望使用第6号NPU,则应修改为:
{
"device": "npu:6"
}
3. 重启MinerU服务
修改配置文件后,需要重启MinerU服务以使更改生效。可以通过重启Docker容器或重新运行MinerU命令来实现。
4. 验证配置
重启后,再次运行npu-smi info命令,确认MinerU的进程是否运行在指定的NPU上。例如,如果指定了NPU 6,则应该看到类似以下的输出:
+---------------------------+---------------+--------------------------------------------------+
| NPU Chip | Process id | Process name | Process memory(MB) |
+===========================+===============+===========+
| 6 0 | [进程ID] | python3 | [内存使用] |
+===========================+===============+===========+
深入理解
Docker设备映射与NPU设备选择
Docker的--device参数用于将宿主机的设备映射到容器中,但这并不直接控制应用程序内部的设备选择逻辑。MinerU作为基于PyTorch的应用程序,其设备选择通常由PyTorch的NPU后端和配置文件共同决定。
PyTorch NPU后端的设备指定
在PyTorch中,可以通过torch.npu.set_device()函数或环境变量来指定使用的NPU设备。MinerU的配置文件实际上是对这些底层API的封装,因此修改配置文件是最直接有效的方法。
多卡支持与局限性
目前,MinerU主要通过配置文件指定单个NPU设备运行。对于需要多卡并行推理的场景,用户可能需要等待后续版本的功能增强,或者通过自定义代码实现多卡分配。
最佳实践
- 明确设备需求:在部署前,明确每张NP卡的用途,避免资源冲突。
- 定期监控:使用
npu-smi info定期监控各NPU的使用情况,及时发现异常。 - 版本兼容性:确保MinerU版本与NPU驱动和PyTorch版本的兼容性,避免因版本不匹配导致的设备识别问题。
- 日志分析:遇到问题时,详细分析日志文件,定位错误根源。
结论
通过修改MinerU的配置文件,用户可以精确控制其使用的NPU设备,避免显存分配错误。这一方法简单有效,适用于大多数单卡部署场景。对于更复杂的多卡需求,建议关注MinerU的后续版本更新或社区讨论,以获取更多技术支持。
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
GLM-4.7-FlashGLM-4.7-Flash 是一款 30B-A3B MoE 模型。作为 30B 级别中的佼佼者,GLM-4.7-Flash 为追求性能与效率平衡的轻量化部署提供了全新选择。Jinja00
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
KuiklyUI基于KMP技术的高性能、全平台开发框架,具备统一代码库、极致易用性和动态灵活性。 Provide a high-performance, full-platform development framework with unified codebase, ultimate ease of use, and dynamic flexibility. 注意:本仓库为Github仓库镜像,PR或Issue请移步至Github发起,感谢支持!Kotlin07
compass-metrics-modelMetrics model project for the OSS CompassPython00