ChatTTS-ui离线工作模式:无网络环境下的语音合成方案
你是否遇到过需要在断网环境下使用语音合成功能的情况?无论是野外作业、涉密环境还是网络不稳定的场景,离线工作能力都至关重要。本文将详细介绍如何配置ChatTTS-ui的离线工作模式,让你在没有网络连接的情况下也能顺畅使用语音合成功能。
离线工作原理与准备
ChatTTS-ui的离线工作模式核心在于提前下载并配置好所有必要的模型文件和依赖项。与在线模式不同,离线模式不会尝试从网络获取任何资源,所有操作都在本地完成。

-
文件部署结构
解压后将得到的所有.pt文件复制到项目的asset目录下,确保目录结构符合配置要求:asset/ ├── Vocos.pt ├── DVAE_full.pt ├── GPT.pt ├── Decoder.pt └── tokenizer.pt模型路径配置可参考ChatTTS/config/config.py中的
Path类定义:@dataclass(repr=False, eq=False) class Path: vocos_ckpt_path: str = "asset/Vocos.pt" dvae_ckpt_path: str = "asset/DVAE_full.pt" gpt_ckpt_path: str = "asset/GPT.pt" decoder_ckpt_path: str = "asset/Decoder.pt" tokenizer_path: str = "asset/tokenizer.pt"
离线模式配置修改
完成模型部署后,需修改启动配置以禁用网络请求,确保程序仅使用本地资源:
-
修改模型加载路径
打开主程序文件app.py,定位模型下载相关代码(约35行):# 原代码 CHATTTS_DIR = snapshot_download('pzc163/chatTTS', cache_dir=MODEL_DIR) # 修改为 CHATTTS_DIR = MODEL_DIR + "/pzc163/chatTTS"此修改将强制程序从本地路径加载模型,而非尝试网络下载。
-
验证模型完整性
启动程序前,确认关键模型文件存在:# 检查asset目录下的模型文件 ls -l asset/*.pt若缺少文件,参考asset/模型下载说明.txt进行补充。
-
启动参数优化
为避免启动时的网络检测,可添加--offline参数(需0.96+版本支持):python app.py --offline若使用Docker部署,修改docker-compose.cpu.yaml或docker-compose.gpu.yaml,添加环境变量:
environment: - OFFLINE_MODE=1
离线使用注意事项
-
首次运行要求
离线配置需在有网络环境下完成首次部署,确保所有依赖包安装完成:# 创建虚拟环境 python -m venv venv source venv/bin/activate # Linux/Mac # 或 .\venv\scripts\activate (Windows) # 安装依赖 pip install -r requirements.txt # 安装CUDA支持(可选) pip install torch==2.2.0 torchaudio==2.2.0 --index-url https://download.pytorch.org/whl/cu118 -
常见问题处理
- 模型路径错误:参考faq.md第14条"如何离线使用"进行排查
- 文件缺失报错:确保ChatTTS/config/config.py中定义的路径与实际文件匹配
- 性能优化:低配置设备可修改
.env文件,设置compile=false禁用模型编译加速
-
功能验证
启动服务后,通过API或Web界面测试合成功能:# API调用示例(无需网络) import requests res = requests.post('http://127.0.0.1:9966/tts', data={ "text": "这是离线语音合成测试", "voice": "3333", "temperature": 0.3 }) print(res.json())成功响应将返回本地生成的音频文件路径,如
listen-speaker/目录下的.wav文件。
离线环境维护
-
模型更新
定期从官方渠道获取模型更新包,替换asset目录下的文件即可,无需重新配置环境。 -
依赖管理
在有网络环境下执行pip freeze > requirements-offline.txt,保存依赖版本信息,便于离线环境重建。 -
迁移备份
完整离线环境可通过复制以下目录实现迁移:- 项目根目录(含配置文件)
venv虚拟环境目录asset模型文件目录
通过以上配置,ChatTTS-ui可在完全断网环境下提供语音合成服务,适用于涉密场景、野外作业或网络不稳定环境。实际部署时建议根据硬件条件调整config.py中的模型参数,平衡合成质量与性能消耗。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00