首页
/ Stable Diffusion WebUI DirectML 项目中的 ONNX/Olive 使用问题解析与解决方案

Stable Diffusion WebUI DirectML 项目中的 ONNX/Olive 使用问题解析与解决方案

2025-07-04 16:20:35作者:董灵辛Dennis

问题背景

在使用 Stable Diffusion WebUI DirectML 项目时,部分用户遇到了无法通过 ONNX Runtime 和 Olive 优化生成图像的问题。具体表现为当启用 ONNX Runtime 并选择 DmlExecutionProvider 执行器后,系统抛出"OnnxRawPipeline is not callable"的错误提示。

问题分析

这个问题主要出现在2024年2月项目重构之后,影响了使用 Olive 优化模型进行图像生成的功能。从技术层面来看,这是由于:

  1. 项目重构后部分接口调用方式发生了变化
  2. 运行环境依赖库版本不兼容
  3. 缓存数据可能造成干扰

解决方案

经过项目维护者的确认,以下是完整的解决方案:

  1. 首先确保拉取项目最新代码
  2. 清理并重新配置 Python 虚拟环境
  3. 安装正确版本的依赖库

具体操作步骤如下:

# 激活虚拟环境
.\venv\Scripts\activate

# 卸载现有相关库
pip uninstall torch torchvision torch-directml onnxruntime onnxruntime-directml -y

# 安装稳定版本的 PyTorch 和 ONNX Runtime
pip install torch torchvision onnxruntime

# 安装 DirectML 版本的 ONNX Runtime
pip install onnxruntime-directml
  1. 启动 WebUI 时使用以下参数:
--use-cpu-torch

技术原理

这个解决方案的核心在于:

  1. 使用 --use-cpu-torch 参数确保 PyTorch 运行在 CPU 模式,避免与 ONNX Runtime 产生冲突
  2. 安装标准版 ONNX Runtime 作为基础,再安装 DirectML 版本提供 GPU 加速支持
  3. 清理旧版本库和缓存确保环境纯净

注意事项

  1. 不需要再使用 --use-directml 参数
  2. 如果问题仍然存在,建议清理以下缓存目录:
    • 虚拟环境缓存
    • 用户目录下的 .cache 文件夹
  3. 确保所有操作在虚拟环境中进行

性能对比

成功解决问题后,用户可以获得显著的性能提升:

  • 使用 Olive 优化后:约 8 it/s
  • 未使用优化前:约 1.15 it/s

这个解决方案已经过多个用户验证有效,能够恢复 ONNX Runtime 和 Olive 优化功能,显著提升图像生成效率。

登录后查看全文
热门项目推荐
相关项目推荐