colab运行记录仅供参考
免费用户的使用,会员的不适用
【资料图】
红色需要注意/蓝色是目录位置
diffsingerdatsaet模型歌手名称
#@title 查看是否显卡是否在gpu模式
!nvidia-smi
#第1步谷歌云盘加载
from import drive
('/content/drive')
#DiffSinger直接安装到网盘只第一次使用。之后不更新不要使用
#用完删除推荐需要更新在用,不然有文件或者目录更新无法使用很麻烦
%cd /content/drive/MyDrive
!git clone /openvpi/
#第2步安装依赖
%cd /content/drive/MyDrive/DiffSinger
!pip install -r -i /simple
#预处理数据集config_提前编辑
#这步第一次运行有了binary不需要每次都运行
%cd /content/drive/MyDrive/DiffSinger
!python scripts/ --config /content/drive/MyDrive/DiffSinger/data/diffsingerdatsaet/config_
使用你自己的config_目录位置
我把config_保存到数据集diffsingerdatsaet目录了
预处理后在diffsingerdatsaet里会生成binary文件夹
# 第3步启动训练
%cd /content/drive/MyDrive/DiffSinger
# 下面是可视化训练数据
tensorboard_on = True #@param {type:"boolean"}
if tensorboard_on:
%load_ext tensorboard
%tensorboard --logdir /content/drive/MyDrive/DiffSinger/checkpoints/diffsingerdatsaet/lightning_logs
!python scripts/ --config /content/drive/MyDrive/diff/DiffSinger/data/diffsingerdatsaet/config_ --exp_name diffsingerdatsaet_acoustic --reset
这样应该就在训练声音模型了
之后在次继续训练只需要
1安装网盘
2安装依赖
3训练
不要运行其他
安装到网盘会产生模型每次自动删除都在回收站需要清理我的免费账户就3-4小时没几个文件,如果空间不够可以新建个免费账户共享一下DiffSinger这个目录给自己另一个号,然后在共享里把文件夹放到相同目录就可以,共享文件只保存在上传者网盘,不影响新号空间,共享文件夹删除文件在根目录每次删除就可以,这样123这3步,可以每个新号共享,有风险慎用过多。
#我的config_仅供参考
base_config: configs/
raw_data_dir:
- data/diffsingerdatsaet/raw
speakers:
- diffsingerdatsaet
spk_ids: []
test_prefixes:
- 2001000001 #修改你自己音频名
- 2001000002
- 2001000003
- 2001000004
- 2001000005
dictionary: dictionaries/
binary_data_dir: data/diffsingerdatsaet/binary
binarization_args:
num_workers: 0
use_spk_id: false
num_spk: 1 #几个人声
use_energy_embed: false
use_breathiness_embed: false
use_key_shift_embed: ture
use_speed_embed: ture
augmentation_args:
random_pitch_shifting:
enabled: ture
range: [-5., 5.]
scale:
fixed_pitch_shifting:
enabled: false
targets: [-5., 5.]
scale:
random_time_stretching:
enabled: ture
range: [, 2.]
domain: log # or linear
scale:
residual_channels: 512
residual_layers: 20
optimizer_args:
lr:
lr_scheduler_args:
scheduler_cls: _
step_size: 5000
gamma:
max_batch_frames: 100000 #根据数据和设备调整越大越好,感觉数据少于反倒太高运行不了3000条数据可以调100000但300条只能调70000
max_batch_size: 64 #bs,较⼤的bs在训练时消耗更多的 GPU 内存,不能太小,我看默认是48
max_updates: 32000000 # 即截至step
num_valid_plots: 10
val_with_vocoder: true
val_check_interval: 1000 #每多少保存一次
num_ckpt_keep: 2 #模型保存个数
permanent_ckpt_start: 100 #永久ckpt 保存起始step
permanent_ckpt_interval: 40000
pl_trainer_devices: 'auto'
pl_trainer_precision: '16-mixed' #精度选择 ,默认的是32-true可选
关键词:
版权与免责声明:
1 本网注明“来源:×××”(非商业周刊网)的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责,本网不承担此类稿件侵权行为的连带责任。
2 在本网的新闻页面或BBS上进行跟帖或发表言论者,文责自负。
3 相关信息并未经过本网站证实,不对您构成任何投资建议,据此操作,风险自担。
4 如涉及作品内容、版权等其它问题,请在30日内同本网联系。