Higgs-Audio部署指南:本地环境与云端服务的高效搭建方案
Higgs-Audio是一款由Boson AI开发的文本-音频基础模型,能够实现高质量的语音合成、语音克隆和多 speaker 对话生成等功能。本指南将帮助你快速在本地环境或云端服务中部署Higgs-Audio,让你轻松体验这款强大的音频生成工具。
为什么选择Higgs-Audio?
Higgs-Audio v2在情感表达和多语言支持方面表现卓越,在EmergentTTS-Eval评测中,其情感表达能力以75.7%的胜率超过GPT-4o-mini-tts,展现出强大的音频生成能力。
Higgs-Audio v2在情感表达能力上超越了多个主流TTS模型
Higgs-Audio的核心优势在于其创新的架构设计,包括语义编码器、音频编码器和双FFN结构,能够同时捕捉语义和声学特征,实现更自然、更富有表现力的音频生成。
Higgs-Audio v2架构图展示了文本和音频处理的完整流程
准备工作
在开始部署Higgs-Audio之前,请确保你的环境满足以下要求:
- Python 3.10或更高版本
- CUDA支持的NVIDIA GPU(推荐24GB以上显存)
- 至少50GB可用磁盘空间
本地环境部署步骤
1. 克隆代码仓库
首先,克隆Higgs-Audio的代码仓库到本地:
git clone https://gitcode.com/gh_mirrors/hi/higgs-audio
cd higgs-audio
2. 选择安装方式
Higgs-Audio提供多种安装方式,你可以根据自己的需求选择:
选项1:直接安装
pip install -r requirements.txt
pip install -e .
选项2:使用venv虚拟环境
python3 -m venv higgs_audio_env
source higgs_audio_env/bin/activate
pip install -r requirements.txt
pip install -e .
选项3:使用conda环境
conda create -y --prefix ./conda_env --override-channels --strict-channel-priority --channel "conda-forge" "python==3.10.*"
conda activate ./conda_env
pip install -r requirements.txt
pip install -e .
选项4:使用uv(快速Python包管理器)
uv venv --python 3.10
source .venv/bin/activate
uv pip install -r requirements.txt
uv pip install -e .
基础使用示例
1. 零样本语音生成
生成具有特定语音特征的音频:
python examples/serve_engine/run_hf_example.py zero_shot
2. 语音克隆
从参考音频中克隆语音:
python examples/serve_engine/run_hf_example.py voice_clone
3. 简单文本转语音
使用Python代码生成音频:
from boson_multimodal.serve.serve_engine import HiggsAudioServeEngine
from boson_multimodal.data_types import ChatMLSample, Message
MODEL_PATH = "bosonai/higgs-audio-v2-generation-3B-base"
AUDIO_TOKENIZER_PATH = "bosonai/higgs-audio-v2-tokenizer"
system_prompt = "Generate audio following instruction.\n\n<|scene_desc_start|>\nAudio is recorded from a quiet room.\n<|scene_desc_end|>"
messages = [
Message(role="system", content=system_prompt),
Message(role="user", content="Hello, this is a test of Higgs-Audio text-to-speech generation."),
]
serve_engine = HiggsAudioServeEngine(MODEL_PATH, AUDIO_TOKENIZER_PATH, device="cuda")
output = serve_engine.generate(
chat_ml_sample=ChatMLSample(messages=messages),
max_new_tokens=1024,
temperature=0.3,
top_p=0.95
)
# 保存生成的音频
import torchaudio
import torch
torchaudio.save("output.wav", torch.from_numpy(output.audio)[None, :], output.sampling_rate)
高级部署:使用vLLM提升性能
对于需要更高吞吐量的场景,Higgs-Audio提供了基于vLLM引擎的OpenAI兼容API服务器。具体部署方法请参考examples/vllm目录下的说明文档。
多 speaker 对话生成
Higgs-Audio支持多 speaker 对话生成,你可以使用以下命令生成对话音频:
# 自动分配语音
python3 examples/generation.py \
--transcript examples/transcript/multi_speaker/en_argument.txt \
--seed 12345 \
--out_path generation.wav
# 指定参考语音
python3 examples/generation.py \
--transcript examples/transcript/multi_speaker/en_argument.txt \
--ref_audio belinda,broom_salesman \
--ref_audio_in_system_message \
--chunk_method speaker \
--seed 12345 \
--out_path generation.wav
故障排除与常见问题
如果在部署或使用过程中遇到问题,请参考以下资源:
总结
通过本指南,你已经了解了如何在本地环境部署Higgs-Audio,并尝试了基本的音频生成功能。Higgs-Audio的强大之处在于其先进的架构设计和高质量的音频输出,无论是单 speaker 语音合成还是多 speaker 对话生成,都能满足你的需求。
Higgs-Audio tokenizer架构展示了语义和声学特征的处理流程
现在,你可以开始探索Higgs-Audio的更多高级功能,如语音克隆、情感控制等,创造出更加丰富和自然的音频内容。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust086- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
Hy3-previewHy3 preview 是由腾讯混元团队研发的2950亿参数混合专家(Mixture-of-Experts, MoE)模型,包含210亿激活参数和38亿MTP层参数。Hy3 preview是在我们重构的基础设施上训练的首款模型,也是目前发布的性能最强的模型。该模型在复杂推理、指令遵循、上下文学习、代码生成及智能体任务等方面均实现了显著提升。Python00