一、模型介绍

强大的小样本语音转换和文本转语音 WebUI。

具有以下特征:

  • 零样本 TTS: 输入 5 秒的声音样本并体验即时文本到语音的转换。
  • 少量样本 TTS: 仅使用 1 分钟的训练数据对模型进行微调,以提高语音相似度和真实感。
  • 跨语言支持:使用不同于训练数据集的语言进行推理,目前支持英语、日语、韩语、粤语和中文。
  • WebUI 工具: 集成工具包括语音伴奏分离、自动训练集分割、中文 ASR 和文本标注,帮助初学者创建训练数据集和 GPT/SoVITS 模型。

二、部署流程

测试环境

  • Python 3.9、CUDA 12.1
1.克隆
git clone https://github.com/RVC-Boss/GPT-SoVITS.git
cd /GPT-SoVITS/
2.创建虚拟环境并安装
conda create -n GPTSoVits python=3.9
conda activate GPTSoVits
bash install.sh
3.安装ffmpeg
conda install ffmpeg
4.安装依赖项
pip install -r requirements.txt
5.预训练模型

用户可以在这里下载所有这些模型

  1. 从 GPT-SoVITS 模型下载预训练模型并将其放置在 GPT_SoVITS/pretrained_models
  2. 下载 G2PW 模型G2PWModel_1.1.zip,解压并重命名为 G2PWModel,然后将其放置在 GPT_SoVITS/text。(仅支持中文 TTS)
  3. 对于 UVR5(此外还有人声/伴奏分离和混响消除),从UVR5 Weights下载模型并将其放入 tools/uvr5/uvr5_weights
  4. 对于中文 ASR(另外),从Damo ASR 模型Damo VAD 模型Damo Punc 模型下载模型并将它们放置在 中 tools/asr/models
  5. 对于英语或日语 ASR(另外),请从Faster Whisper Large V3下载模型并将其放入 tools/asr/models。此外,其他模型可能具有类似的效果,但磁盘占用空间更小。

也可从modelscope下载:

git lfs install
git clone https://www.modelscope.cn/AI-ModelScope/GPT-SoVITS.git

image.png

6.数据集格式

TTS 注释.list 文件格式:

vocal_path|speaker_name|language|text

语言词典:

  • ‘zh’:中文
  • ‘ja’:日语
  • ‘en’:英语
  • ‘ko’:韩语
  • ‘粤’:粤语

三、推理

python webui.py 

image.png

四、页面演示

image.png

更多推荐