首页
/ 解决stable-diffusion-webui-directml项目中AMD显卡无法识别的问题

解决stable-diffusion-webui-directml项目中AMD显卡无法识别的问题

2025-07-04 12:58:40作者:胡唯隽

在stable-diffusion-webui-directml项目中,许多AMD显卡用户遇到了"Torch is not able to use GPU"的错误提示。这个问题主要出现在Windows系统下,特别是使用RX 7800 XT、RX 6800、RX 6600等较新AMD显卡的用户。本文将详细介绍问题的原因和多种解决方案。

问题现象

当用户尝试启动stable-diffusion-webui-directml时,系统会报错提示Torch无法使用GPU,并建议添加--skip-torch-cuda-test参数来跳过检查。这个问题的根源在于PyTorch无法正确识别AMD显卡的DirectML支持。

解决方案

方法一:添加DirectML支持参数

最简单的解决方案是在webui-user.bat文件中添加--use-directml参数:

  1. 打开webui-user.bat文件
  2. 找到COMMANDLINE_ARGS=这一行
  3. 修改为:set COMMANDLINE_ARGS=--use-directml
  4. 保存文件并重新启动

方法二:手动安装torch-directml

如果上述方法无效,可以尝试手动安装torch-directml:

  1. 编辑requirements_versions.txt文件
  2. 添加一行:torch-directml
  3. 打开命令提示符
  4. 导航到项目目录
  5. 运行:.\venv\scripts\activate
  6. 然后运行:pip install -r requirements.txt

方法三:完整修复流程

对于更复杂的情况,可以尝试以下完整修复流程:

  1. 确保项目文件夹名称为"stable-diffusion-webui-directml"
  2. 按照方法二安装torch-directml
  3. 在webui-user.bat中添加--use-directml参数
  4. 可选的额外参数(适用于显存较小的显卡):
    set COMMANDLINE_ARGS=--use-directml --medvram --no-half --precision full --no-half-vae --opt-sub-quad-attention --opt-split-attention-v1
    

常见问题排查

  1. 参数位置错误:确保--use-directml参数紧跟在COMMANDLINE_ARGS=后面,中间不要有其他内容
  2. 文件夹名称错误:确认项目文件夹名称包含"-directml"后缀
  3. 依赖冲突:如果遇到httpx冲突,可以尝试运行:pip install httpx==0.24.1
  4. 参数变更:注意旧参数--backend=directml已改为--use-directml

性能优化建议

成功解决问题后,可以根据显卡性能调整参数:

  • 大显存显卡(如RX 7800 XT):可以移除--medvram和--lowvram参数
  • 中等显存显卡(如RX 6700 XT):保留--medvram
  • 小显存显卡(如RX 6600):使用--lowvram

通过以上方法,大多数AMD显卡用户应该能够成功在Windows系统下运行stable-diffusion-webui-directml项目。如果问题仍然存在,建议检查显卡驱动是否为最新版本,并确认系统环境配置正确。

登录后查看全文
热门项目推荐
相关项目推荐