ONNX Runtime中OpenVINO与DirectML执行提供器的兼容性问题解析
2025-05-13 16:33:51作者:宣利权Counsellor
问题背景
在ONNX Runtime深度学习推理框架中,执行提供器(Execution Provider, EP)是支持不同硬件加速后端的关键组件。近期有开发者在Windows平台上构建了集成OpenVINO和DirectML(DML)两种执行提供器的ONNX Runtime 1.19.0版本,虽然构建过程顺利完成,但在实际使用中遇到了一个特殊的技术问题。
现象描述
开发者成功构建了包含OpenVINO 2024.3和DirectML的ONNX Runtime版本,并通过Python wheel包进行安装。系统能够正确识别并注册这两个执行提供器,但在尝试同时使用它们时出现了"Execution type OpenVINOExecutionProvider doesn't support memcpy"的错误。
具体表现为:
- 单独使用DirectML执行提供器时工作正常
- OpenVINO执行提供器也能被正确识别
- 但当尝试在同一个推理会话(InferenceSession)中同时指定这两个提供器时,系统抛出内存拷贝(memcpy)不支持的异常
技术分析
经过深入排查,发现问题源于ONNX Runtime执行提供器的协同工作机制。虽然ONNX Runtime文档中说明可以通过优先级列表指定多个执行提供器,让系统自动选择最合适的提供器执行每个节点,但这种机制在OpenVINO和DirectML这两个特定提供器之间存在兼容性问题。
根本原因可能涉及以下几个方面:
- 内存管理差异:OpenVINO和DirectML可能采用了不同的内存分配和管理策略,导致在尝试在两者之间传输数据时出现不兼容
- 执行上下文隔离:这两个提供器可能要求完全独立的执行上下文,不能很好地共享内存资源
- 架构限制:早期版本中可能存在过于严格的检查机制,限制了跨提供器的内存操作
解决方案
开发者最终找到了有效的解决方法:
- 单独使用执行提供器:为OpenVINO和DirectML分别创建独立的推理会话
# OpenVINO专用会话
openvino_options = [{'device_type': 'GPU', 'cache_dir': 'cachedir'}]
openvino_session = onnxruntime.InferenceSession(
"model.onnx",
providers=['OpenVINOExecutionProvider'],
provider_options=openvino_options
)
# DirectML专用会话
dml_session = onnxruntime.InferenceSession(
"model.onnx",
providers=['DmlExecutionProvider']
)
- 避免混合使用:不要在同一个会话中同时指定这两个提供器
最佳实践建议
- 版本选择:考虑使用更新的ONNX Runtime版本,因为后续版本可能已经修复了这个问题
- 性能考量:如果需要切换不同硬件后端,建议预先创建多个会话实例,而不是依赖执行提供器的自动切换
- 错误处理:在代码中添加适当的异常处理,当首选提供器不可用时优雅地回退到备用方案
- 资源管理:注意不同提供器可能对GPU资源有不同的占用方式,避免资源冲突
总结
这个案例展示了深度学习框架中多后端支持可能遇到的底层兼容性问题。虽然ONNX Runtime设计上支持多执行提供器的协同工作,但在实际实现中,特定硬件后端的组合可能需要特殊处理。理解这些底层机制有助于开发者更好地利用框架的强大功能,同时避免潜在的陷阱。
对于需要同时支持多种硬件加速方案的应用程序,建议采用明确的、分离的后端选择策略,而不是依赖框架的自动选择机制,这样可以获得更可靠和可预测的行为。
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
jiuwenclawJiuwenClaw 是一款基于openJiuwen开发的智能AI Agent,它能够将大语言模型的强大能力,通过你日常使用的各类通讯应用,直接延伸至你的指尖。Python0168- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
AtomGit城市坐标计划AtomGit 城市坐标计划开启!让开源有坐标,让城市有星火。致力于与城市合伙人共同构建并长期运营一个健康、活跃的本地开发者生态。01
hotgoHotGo 是一个基于 vue 和 goframe2.0 开发的全栈前后端分离的开发基础平台和移动应用平台,集成jwt鉴权,动态路由,动态菜单,casbin鉴权,消息队列,定时任务等功能,提供多种常用场景文件,让您把更多时间专注在业务开发上。Go03
热门内容推荐
最新内容推荐
Degrees of Lewdity中文汉化终极指南:零基础玩家必看的完整教程Unity游戏翻译神器:XUnity Auto Translator 完整使用指南PythonWin7终极指南:在Windows 7上轻松安装Python 3.9+终极macOS键盘定制指南:用Karabiner-Elements提升10倍效率Pandas数据分析实战指南:从零基础到数据处理高手 Qwen3-235B-FP8震撼升级:256K上下文+22B激活参数7步搞定机械键盘PCB设计:从零开始打造你的专属键盘终极WeMod专业版解锁指南:3步免费获取完整高级功能DeepSeek-R1-Distill-Qwen-32B技术揭秘:小模型如何实现大模型性能突破音频修复终极指南:让每一段受损声音重获新生
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
596
4 K
Ascend Extension for PyTorch
Python
433
524
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
915
755
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
365
243
暂无简介
Dart
841
204
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.45 K
814
昇腾LLM分布式训练框架
Python
130
154
AscendNPU-IR是基于MLIR(Multi-Level Intermediate Representation)构建的,面向昇腾亲和算子编译时使用的中间表示,提供昇腾完备表达能力,通过编译优化提升昇腾AI处理器计算效率,支持通过生态框架使能昇腾AI处理器与深度调优
C++
111
166
华为昇腾面向大规模分布式训练的多模态大模型套件,支撑多模态生成、多模态理解。
Python
128
173