|
--- |
|
tags: |
|
- DiffSVC |
|
- pre-trained_model |
|
- basemodel |
|
- diff-svc |
|
license: "gpl" |
|
datasets: |
|
- 512rc_50k |
|
- 512rc_80k |
|
- 512rc_100k |
|
--- |
|
[English](./README.md) | **简体中文** |
|
# DiffSVCBaseModel |
|
|
|
任何类型的音色都能用的大型底模! |
|
|
|
## 先康康效果 |
|
|
|
| 原始音频 | 用纳西妲模型推理的 | |
|
| -------------- | ------------------------------------ | |
|
| [点击播放](https://huggingface.co/HuanLin/DiffSVCBaseModel/resolve/main/gouzhiqishi.wav) | [点击播放](https://huggingface.co/HuanLin/DiffSVCBaseModel/resolve/main/gouzhiqishi_-4key_nahida_384_20_348k_0x.flac) | |
|
|
|
|
|
## 这玩意咋用? |
|
|
|
1. 按照你的数据挑选一个zip包,保存到你的电脑上 |
|
|
|
2. 填好你的配置,把数据集丢到```(diffsvc 根目录)/data/raw/{角色名称}/``` |
|
|
|
3. 把底模(仅丢 .ckpt 文件)丢到 ```(diffsvc 根目录)/checkpoints/{角色名称}``` |
|
|
|
4. 向原仓库一样预处理和训练数据集,如果不是从step1开始,那就成功了 |
|
|
|
## 我用了多少数据集? |
|
|
|
两份开源数据集(opencpop ,m4singer),40多个小时的音频 |
|
|
|
## 我想演自己炼底模! |
|
|
|
邢,自己下载 [这个已预处理过的文件](./BaseModelBinary.tar.gz). |
|
|
|
## 下载专区 |
|
|
|
** 选一个符合自己配置文件中 rc 值的模型 ** |
|
|
|
| 版本 | 下载传送门 | lr参考值 |
|
| -------------- | ---------------------------------- | --- | |
|
| 384rc,50k_step | [传送](./384rc_50k_step.zip) | 0.0016 | |
|
| 384rc,80k_step | [传送](./384rc_80k_step.zip) | 0.0032 | |
|
| 384rc,100k_step | [传送](./384rc_100k_step.zip) | 0.0032 | |
|
|
|
更多版本还在路上 |
|
|
|
> rc: 就是配置里的 residual_channels(中文特供翻译: 网格宽度, 简称网宽) |
|
|
|
## 涉及仓库 |
|
|
|
| 仓库 | 传送门 | |
|
| --------------- | ---------------------------------------------------- | |
|
| Diff-SVC | [传送](https://github.com/prophesier/diff-svc) | |
|
| 44.1KHz声码器 | [传送](https://openvpi.github.io/vocoders) | |
|
| M4Singer | [传送](https://github.com/M4Singer/M4Singer) | |
|
| OpenCPOP | [传送](https://github.com/wenet-e2e/opencpop) | |
|
| Pre-trained_Models(有更多RC版本的) | [传送](https://huggingface.co/Erythrocyte/Pre-trained_Models) | |
|
|