AllTalk TTS 在 Text Generation WebUI 中的 CUDA 配置问题解决方案
2025-07-09 21:39:53作者:何举烈Damon
问题背景
在使用 AllTalk TTS 作为 Text Generation WebUI 的扩展时,用户遇到了 CUDA 不可用的问题。虽然独立版本的 AllTalk TTS 可以正常工作,但在 Text Generation WebUI 环境中运行时,系统显示"CUDA is not available",而用户的硬件配置是 NVIDIA GeForce RTX 4060 Ti 16GB。
根本原因分析
这个问题主要源于 Text Generation WebUI 的 Python 环境中 PyTorch 安装时没有正确配置 CUDA 支持。当用户安装 Text Generation WebUI 时,可能选择了默认安装选项,导致安装的是 CPU 版本的 PyTorch (2.2.1+cpu),而不是支持 CUDA 的版本。
解决方案一:手动更新 PyTorch 版本
- 首先通过
cmd_windows.bat启动 Text Generation WebUI 环境 - 清理 pip 缓存以确保下载完整的 PyTorch 包:
pip cache purge - 卸载现有的 PyTorch 及相关组件:
pip uninstall torch torchaudio torchvision - 安装支持 CUDA 12.1 的 PyTorch 版本:
pip install torch==2.2.1+cu121 torchaudio>=2.2.1+cu121 torchvision --upgrade --force-reinstall --extra-index-url https://download.pytorch.org/whl/cu121
解决方案二:完全重建环境
如果手动更新遇到问题,可以采用更彻底的解决方案:
- 删除 Text Generation WebUI 目录下的
installer_files文件夹 - 重新运行
start_windows.bat启动安装过程 - 在安装过程中,当询问是否使用 Nvidia GPU 时,选择"Y"确认
- 对于后续的 PyTorch 安装选项,选择"N"以确保安装支持 CUDA 的版本
- 安装完成后,按照标准流程重新配置 AllTalk TTS 扩展
技术要点说明
- PyTorch 有多个发布版本,包括 CPU-only 和 CUDA 支持版本,必须选择与系统 CUDA 版本匹配的 PyTorch 版本
- 在 Windows 系统上,推荐使用 CUDA 12.1 版本,这是目前最稳定的选择
- 环境隔离是 Python 项目管理的常见做法,Text Generation WebUI 使用独立环境,因此需要单独配置
- 清理 pip 缓存可以避免使用旧的缓存包,确保下载最新正确的版本
最佳实践建议
- 在安装任何 AI 相关工具前,先确认系统 CUDA 版本
- 优先使用官方推荐的安装命令和参数
- 对于复杂的 Python 环境,考虑使用虚拟环境隔离不同项目的依赖
- 遇到类似问题时,首先检查 PyTorch 是否识别 CUDA:
import torch; print(torch.cuda.is_available())
通过以上方法,用户应该能够成功在 Text Generation WebUI 中启用 AllTalk TTS 的 CUDA 加速功能,充分发挥 NVIDIA GPU 的性能优势。
登录后查看全文
热门项目推荐
相关项目推荐
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust099- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
项目优选
收起
暂无描述
Dockerfile
710
4.51 K
Claude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed.
Get Started
Rust
578
99
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
958
955
deepin linux kernel
C
28
16
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.61 K
942
Ascend Extension for PyTorch
Python
573
694
🍒 Cherry Studio 是一款支持多个 LLM 提供商的桌面客户端
TypeScript
1.43 K
116
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
414
339
暂无简介
Dart
952
235
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
2