首页
/ 解决stable-diffusion-webui-directml项目中AMD显卡无法识别的问题

解决stable-diffusion-webui-directml项目中AMD显卡无法识别的问题

2025-07-04 00:19:27作者:傅爽业Veleda

问题背景

在使用stable-diffusion-webui-directml项目时,许多AMD显卡用户(特别是RX 7800 XT、RX 6600等型号)遇到了"Torch is not able to use GPU"的错误提示。这个问题主要出现在Windows系统环境下,Linux系统通常可以正常工作。

问题表现

当用户尝试启动stable-diffusion-webui时,控制台会显示以下错误信息:

RuntimeError: Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check

根本原因

这个问题源于PyTorch无法正确识别AMD显卡的DirectML支持。项目需要特定的配置才能让AMD显卡在Windows环境下正常工作。

解决方案

方法一:添加DirectML支持

  1. 编辑requirements_versions.txt文件,添加或确保包含以下内容:
torch-directml
  1. 在项目根目录下打开命令提示符,执行以下命令:
.\venv\scripts\activate
pip install -r requirements.txt
  1. 如果遇到httpx相关错误,可以尝试:
pip install httpx==0.24.1
  1. 修改webui-user.bat文件,在COMMANDLINE_ARGS中添加:
--use-directml

方法二:完整配置示例

对于AMD RX 6650XT等显卡,以下配置已被证实有效:

set COMMANDLINE_ARGS=--use-directml --medvram --no-half --precision full --no-half-vae --opt-sub-quad-attention --opt-split-attention-v1 --autolaunch

方法三:针对特定硬件的优化配置

对于AMD Ryzen 7900X CPU和RX 6700显卡的组合,可以使用以下配置:

set COMMANDLINE_ARGS=--opt-sub-quad-attention --lowvram --disable-nan-check --use-directml

注意事项

  1. 确保项目文件夹名称为stable-diffusion-webui-directml,而不是stable-diffusion-webui,这有助于避免混淆。

  2. 如果遇到DLL加载错误(如"Could not load library cudnn_cnn_infer64_8.dll"),这可能是由于系统环境问题导致的,建议检查系统路径和依赖项。

  3. 对于新手用户,建议按照以下步骤操作:

    • 下载正确的项目版本
    • 修改requirements_versions.txt文件
    • 通过命令提示符安装依赖
    • 修改webui-user.bat启动参数
    • 重新启动程序

技术原理

DirectML是微软提供的跨厂商GPU加速机器学习API,它允许在AMD、Intel和NVIDIA显卡上运行机器学习工作负载。通过添加--use-directml参数,我们告诉PyTorch使用DirectML后端而不是CUDA后端,这使得AMD显卡能够在Windows环境下正常工作。

总结

通过正确配置DirectML支持,大多数AMD显卡用户都可以解决GPU识别问题。关键步骤包括添加torch-directml依赖、修改启动参数以及可能的额外优化参数。对于不同型号的AMD显卡,可能需要调整内存管理参数以获得最佳性能。

登录后查看全文
热门项目推荐
相关项目推荐