前言:

最近好久没有研究AI大模型了,2025年九月底看到哔哩哔哩网站推出了一个语言类的大模型IndexTTS 2.0,看着确实还不错的样子,因此见猎心喜,刚好十一假期上手试用了一下,感觉该系统确实不错

本文使用Windows10平台+4060Ti显卡+cuda+python3.10+conda-310+魔当平台,急速本地部署IndexTTS 2.0语言生成大模型,大概部署时间为20分钟,非常迅速啊,就可以体验到自主可控的IndexTTS 2.0语言生成大模型

主要介绍如何快速利用魔当系统部署本地IndexTTS 2.0语言生成大模型,现将需要用到的网址放在下面:

1、魔当社区系统下载地址

https://seemts.com/zh/

2、miniconda下载地址

https://repo.anaconda.com/miniconda/

本例中使用的是Miniconda3-py310_25.5.1-1-Windows-x86_64.exe

3、IndexTTS 2.0部署文档网址

cuda的下载和安装在这个文档内

https://seemts.com/zh/lm-downloader-index-tts-v2.html

🆗,下面开始介绍如何部署安装Index TTS 2.0

一、环境检查

主要检查系统,硬件配置是否符合

1、Windows10 或者11操作系统

版本最好是专业版,右键我的电脑即可看到,本例如下:

可以看到,cpu为i7 13代,物理内存为32G,最低10G,完全符合

2、显卡和显存

打开任务管理器,性能选项卡,可以看到是独立显卡,N卡4060ti,显存为8G,也是符合的


 

🆗,以上硬件条件应该要满足,然后下面可以进入正式安装阶段

正式安装

1、安装魔当

这个没什么好说的,windows下就是下一步下一步,我这里使用的是lm-downloader-1.3.4-setup.exe

第一次打开后,打开魔当右上角的设置,建议设置一下数据存储位置,本例是在D盘创建了目录modang,全路径不能有中文即可

剩下的不需要改动,基本都是国内化的设置,不需要科学上网

2、安装cuda

https://seemts.com/zh/install-cuda.html

各芯片厂家的工具介绍

  • NVIDIA的CUDA:CUDA是NVIDIA在2006年推出的通用并行计算架构,专门用于解决GPU上的并行计算问题。它提供了一套完整的开发工具和库,让开发者能够方便地利用NVIDIA GPU的并行计算能力来加速程序运行。CUDA生态系统成熟,广泛应用于学术研究和工业界,支持众多深度学习框架和科学计算库。不过,CUDA只能用于NVIDIA的GPU。
  • AMD的ROCm:ROCm是AMD在2015年为对标CUDA生态而开发的开源软件开发平台,主要为HPC和超大规模GPU计算提供支持。它包含开发工具、软件框架、库、编译工具和编程模型等。ROCm支持AMD的GPU,并且正在向其他厂商的硬件开放,其生态系统虽然相对较新,但发展迅速,也支持多种深度学习框架。
  • Intel的OpenVINO,oneAPI,IPEX:Intel推出了酷睿Ultra系列处理器,如酷睿Ultra 200系列,它们提供了强大的AI处理能力,包括高达120 TOPS的算力,足以支持本地部署的大规模AI模型。Intel 作为 x86 处理器龙头,需兼容 Windows/Linux、PyTorch/TensorFlow 等多元生态,因此采用开放标准 + 模块化工具的策略:
    • OpenVINO™:基于开放 VPU API,支持跨品牌硬件(如 Intel/AMD/ARM 的 NPU);
    • oneAPI:遵循开放编程模型(如 SYCL),兼容 CPU/GPU/FPGA 等异构设备;
    • IPEX/Neural Compressor:作为框架扩展,适配 PyTorch/TensorFlow 的原生接口。

加速推理原理

  • CUDA:NVIDIA的GPU具有大量的核心,可以同时处理多个计算任务。CUDA通过将计算任务分解为多个小任务,分配到不同的GPU核心上并行执行,大大提高了计算效率。例如,在AI大模型的训练和推理过程中,涉及到大量的矩阵运算,CUDA可以利用GPU的并行性快速完成这些运算,相比CPU串行计算要快得多。

这里主要是选择cuda版本的问题,根据实际情况来,本例是4060Ti,那么应该如何选择呢?

查看显卡驱动版本

桌面空白处,选择nVidia控制面板,点击系统信息,即可看到现在的显卡驱动版本

点击组件标签页,选择NVCUDA64.dll,可以看到cuda版本是12.8.51,这里就是最适配的cuda版本

https://developer.nvidia.com/cuda-12-8-0-download-archive?target_os=Windows&target_arch=x86_64&target_version=10&target_type=exe_local

下载local,方便以后的卸载重装,双击后,不停下一步就可以了

打开cmd,输入nvcc --version 可以看到输出,并且版本是12.8即可,cuda简简单单就安装完毕了,不需要任何设置:

3、安装miniconda

这个没什么好说的,下载这个Miniconda3-py310_25.5.1-1-Windows-x86_64.exe,下一步下一步就完事了

需要注意的是,魔当第一次打开会提示你安装miniconda,不要在魔当里点安装,必须自己下载,否则魔当会给你安装python13版本,大模型会跑不起来的,大概报错如下:

use ./venv to start app.Xfound hf models in D:\modang/apps/index-tts2/tmp_hf_home_by_modelscopeXX
use ./venv to start app.Xfound hf models in D:\modang/apps/index-tts2/tmp_hf_home_by_modelscopeXX
use ./venv to start app.Xfound hf models in D:\modang/apps/index-tts2/tmp_hf_home_by_modelscopeXX
use ./venv to start app.Xfound hf models in D:\modang/apps/index-tts2/tmp_hf_home_by_modelscopeXX
XXX
Patch applied: hf_hub_download
Traceback (most recent call last):X  File "D:\modang\apps\index-tts2\run.py", line 4, in <module>
    runpy.run_module('webui', run_name='__main__')X  File "D:\modang\apps\index-tts2\venv\lib\runpy.py", line 227, in run_moduleX    return _run_code(code, {}, init_globals, run_name, mod_spec)X
  File "D:\modang\apps\index-tts2\venv\lib\runpy.py", line 86, in _run_codeX
    exec(code, run_globals)X  File "D:\modang\apps\index-tts2\webui.py", line 51, in <module>X
    from indextts.infer_v2 import IndexTTS2X
  File "D:\modang\apps\index-tts2\indextts\infer_v2.py", line 20, in <module>X
    from indextts.gpt.model_v2 import UnifiedVoiceX
  File "D:\modang\apps\index-tts2\indextts\gpt\model_v2.py", line 9, in <module>X
    from indextts.gpt.transformers_gpt2 import GPT2PreTrainedModel, GPT2ModelX
  File "D:\modang\apps\index-tts2\indextts\gpt\transformers_gpt2.py", line 34, in <module>X
    from indextts.gpt.transformers_modeling_utils import PreTrainedModelX
  File "D:\modang\apps\index-tts2\indextts\gpt\transformers_modeling_utils.py", line 52, in <module>X    from transformers.loss.loss_utils import LOSS_MAPPINGX
  File "D:\modang\apps\index-tts2\venv\lib\site-packages\transformers\loss\loss_utils.py", line 21, in <module>X
    from .loss_d_fine import DFineForObjectDetectionLossX
  File "D:\modang\apps\index-tts2\venv\lib\site-packages\transformers\loss\loss_d_fine.py", line 21, in <module>X
    from .loss_for_object_detection import (X
  File "D:\modang\apps\index-tts2\venv\lib\site-packages\transformers\loss\loss_for_object_detection.py", line 32, in <module>X
    from transformers.image_transforms import center_to_corners_formatX  File "D:\modang\apps\index-tts2\venv\lib\site-packages\transformers\image_transforms.py", line 21, in <module>X    from .image_utils import (X
  File "D:\modang\apps\index-tts2\venv\lib\site-packages\transformers\image_utils.py", line 59, in <module>X    from torchvision.transforms import InterpolationModeX  File "D:\modang\apps\index-tts2\venv\lib\site-packages\torchvision\__init__.py", line 10, in <module>X
    from torchvision import _meta_registrations, datasets, io, models, ops, transforms, utils  # usort:skipX  File "D:\modang\apps\index-tts2\venv\lib\site-packages\torchvision\_meta_registrations.py", line 164, in <module>X    def meta_nms(dets, scores, iou_threshold):X
  File "D:\modang\apps\index-tts2\venv\lib\site-packages\torch\library.py", line 1069, in registerX
    use_lib._register_fake(X  File "D:\modang\apps\index-tts2\venv\lib\site-packages\torch\library.py", line 219, in _register_fakeX
    handle = entry.fake_impl.register(X  File "D:\modang\apps\index-tts2\venv\lib\site-packages\torch\_library\fake_impl.py", line 50, in registerX
    if torch._C._dispatch_has_kernel_for_dispatch_key(self.qualname, "Meta"):XRuntimeError: operator torchvision::nms does not existXX
ERROR conda.cli.main_run:execute(127): `conda run python run.py --port 7860 --model_dir checkpoints --fp16` failed. (See above for error)
X
RuntimeError: operator torchvision::nms does not existXERROR conda.cli.main_run:execute(127): `conda run python run.py --port 7860 --model_dir checkpoints --fp16` failed. (See above for error)       X
RuntimeError: operator torchvision::nms does not existXERROR conda.cli.main_run:execute(127): `conda run python run.py --port 7860 --model_dir checkpoints --fp16` failed. (See above for error)       X

4、

安装IndexTTS 2.0

打开魔当后,搜索index2.0然后安装即可,在安装的时候可以看看日志,监控是否出错

只有这个界面有显卡加速还是cpu什么的,当web页面准备好后,会自动给你打开网页

安装成功的日志如下:

翻看这个AI模型以及根据日志,可以看到,该大模型底层调用的是ffmpeg来处理音频文件以及生成音频文件

5、Index TTS 2.0简单使用

标红处是马宝国老师的声音,在真正的日本。。。。。这些是要生成的内容,点击生成语音就可以很快得到马老师读的这段话,进度在日志内查看

本次生成的文件在D:\modang\apps\index-tts2\outputs 目录下,wav格式,也可以在web界面试听

经过反复测试,音色方面确实是和马老师极为相似,基本可以说是做到了以假乱真

生成语音速度方面,如果文字比较长,可能会比较慢,观察GPU使用率,波动不算太大,专用GPU内存基本在生成期间是吃满的(上面的黑色图片显示生成21.43秒的音频花费了140.34秒)

最后一点,如何根据日志判断大概生成的速度?以下面这段话为例,可以看到分词是两个部分,那么,必定要两个进度条(这里说的是日志的进度条)走完,才算生成完

分词情况,在高级那就可以实时看到

Logo

更多推荐