首页
/ 3分钟上手Docker部署ChatTTS-ui:GPU/CPU版本零门槛配置指南

3分钟上手Docker部署ChatTTS-ui:GPU/CPU版本零门槛配置指南

2026-02-05 04:33:49作者:戚魁泉Nursing

你是否还在为ChatTTS-ui的环境配置烦恼?CUDA版本不兼容、依赖包冲突、GPU资源无法利用?本文将通过Docker容器化方案,让你无需复杂配置,一键部署支持GPU加速和纯CPU运行的ChatTTS-ui服务,无论新手还是资深用户都能快速上手。

为什么选择Docker部署

Docker容器化部署相比传统方式具有显著优势:

  • 环境隔离:避免系统依赖冲突,保持主机环境清洁
  • 版本控制:容器镜像版本固定,确保部署一致性
  • 资源优化:GPU版本自动配置CUDA环境,CPU版本精简资源占用
  • 快速迁移:一次构建,多环境运行,轻松实现服务器/本地无缝切换

项目提供完整的Docker配置文件:

部署准备工作

硬件要求

部署类型 最低配置 推荐配置
CPU版本 4核CPU + 8GB内存 8核CPU + 16GB内存
GPU版本 NVIDIA显卡(4GB显存) NVIDIA显卡(8GB+显存,支持CUDA11.8+)

软件依赖

  1. 安装Docker Engine和Docker Compose

    • 官方安装指南:Docker文档
    • GPU版本需额外安装nvidia-docker运行时
  2. 克隆项目仓库

git clone https://gitcode.com/GitHub_Trending/ch/ChatTTS-ui.git chat-tts-ui
cd chat-tts-ui

CPU版本一键部署

配置文件解析

docker-compose.cpu.yaml核心配置:

services:
  chat-tts-ui:
    build:
      context: .
      dockerfile: Dockerfile.cpu
    container_name: chat-tts-ui
    restart: always
    volumes:
      - "./:/app"
    ports:
      - 9966:9966
    environment:
      LOG_LEVEL: DEBUG
      WEB_ADDRESS: 0.0.0.0:9966
    command: python3 app.py

部署步骤

  1. 启动服务
docker compose -f docker-compose.cpu.yaml up -d
  1. 查看部署日志
docker compose -f docker-compose.cpu.yaml logs -f
  1. 访问服务 打开浏览器访问 http://localhost:9966 即可使用ChatTTS-ui界面

GPU版本加速部署

配置文件解析

docker-compose.gpu.yaml相比CPU版本增加了GPU资源配置:

environment:
  NVIDIA_VISIBLE_DEVICES: all
deploy:
  resources:
    reservations:
      devices:
        - driver: nvidia
          capabilities: [gpu]

部署步骤

  1. 启动GPU加速服务
docker compose -f docker-compose.gpu.yaml up -d
  1. 验证GPU是否正常工作 查看日志中是否包含类似信息:
GPU detected: NVIDIA GeForce RTX 3090
CUDA version: 11.8
  1. 性能对比 在相同文本合成任务下,GPU版本比CPU版本平均提速3-5倍,长文本合成效率提升更明显。

模型下载与配置

自动下载

首次启动时,服务会自动从国内源下载模型文件到asset/目录。若下载失败,可手动下载:

  1. asset/模型下载说明.txt获取下载链接
  2. 将下载的模型文件解压到项目根目录的asset文件夹
  3. 重启容器:docker compose -f docker-compose.gpu.yaml restart

音色配置

0.96版本后需使用转换脚本处理音色文件:

# 进入容器
docker exec -it chat-tts-ui bash

# 执行转换脚本
python cover-pt.py

转换脚本会自动处理speaker/目录下的音色文件,生成兼容的格式。

常见问题解决

服务无法访问

  1. 检查容器是否正常运行:
docker ps | grep chat-tts-ui
  1. 查看端口映射是否正确:
netstat -tuln | grep 9966
  1. 检查防火墙设置,确保9966端口开放

GPU版本无法使用显卡

  1. 确认nvidia-docker是否正确安装:
docker run --rm --gpus all nvidia/cuda:11.8.0-base nvidia-smi
  1. 检查Dockerfile.gpu中的基础镜像是否与本地CUDA版本匹配

更多问题解决方案请参考常见问题与报错解决方法

升级与维护

版本更新

# 拉取最新代码
git pull origin main

# 重建并重启容器
docker compose -f docker-compose.gpu.yaml up -d --build

数据备份

重要数据位于以下目录,建议定期备份:

部署架构说明

graph TD
    A[用户] -->|HTTP请求| B[Docker容器]
    B --> C{部署类型}
    C -->|GPU| D[CUDA运行时]
    C -->|CPU| E[Python环境]
    D --> F[ChatTTS核心]
    E --> F
    F --> G[模型文件]
    F --> H[音频输出]

ChatTTS-ui通过Docker容器对外提供Web服务,根据部署类型自动选择GPU加速或CPU计算,所有模型和配置文件通过卷挂载方式持久化存储。

API接口使用

部署完成后,可通过API接口集成到其他应用:

import requests

res = requests.post('http://localhost:9966/tts', data={
  "text": "欢迎使用ChatTTS-ui",
  "voice": "3333",
  "temperature": 0.3
})
print(res.json())

完整API文档参见README.md中的API调用部分。

通过Docker部署ChatTTS-ui,不仅简化了环境配置流程,还能充分发挥硬件性能。无论是个人学习、企业部署还是二次开发,这种方式都能提供稳定高效的服务运行环境。立即尝试,体验AI语音合成的魅力!

登录后查看全文
热门项目推荐
相关项目推荐