download_data
目录是用来下载公开数据集和制作训练数据列表及词汇表的,本项目提供了下载公开的中文普通话语音数据集,分别是Aishell,Free ST-Chinese-Mandarin-Corpus,THCHS-30 这三个数据集,总大小超过28G。下载这三个数据只需要执行一下代码即可,当然如果想快速训练,也可以只下载其中一个。注意:noise.py
可下载可不下载,这是用于训练时数据增强的,如果不想使用噪声数据增强,可以不用下载。
cd download_data/
python aishell.py
python free_st_chinese_mandarin_corpus.py
python thchs_30.py
python noise.py
注意: 这样下载慢,可以获取程序中的DATA_URL
单独下载,用迅雷等下载工具,这样下载速度快很多。然后把download()
函数改为文件的绝对路径,如下,我把aishell.py
的文件单独下载,然后替换download()
函数,再执行该程序,就会自动解压文件文本生成数据列表。
# 把这行代码
filepath = download(url, md5sum, target_dir)
# 修改为
filepath = "D:\\Download\\data_aishell.tgz"
- 如果开发者有自己的数据集,可以使用自己的数据集进行训练,当然也可以跟上面下载的数据集一起训练。自定义的语音数据需要符合以下格式,另外对于音频的采样率,本项目默认使用的是16000Hz,在
create_data.py
中也提供了统一音频数据的采样率转换为16000Hz,只要is_change_frame_rate
参数设置为True就可以。- 语音文件需要放在
dataset/audio/
目录下,例如我们有个wav
的文件夹,里面都是语音文件,我们就把这个文件存放在dataset/audio/
。 - 然后把数据列表文件存在
dataset/annotation/
目录下,程序会遍历这个文件下的所有数据列表文件。例如这个文件下存放一个my_audio.txt
,它的内容格式如下。每一行数据包含该语音文件的相对路径和该语音文件对应的标注内容,他们之间用\t
隔开。要注意的是该中文文本只能包含纯中文,不能包含标点符号、阿拉伯数字以及英文字母。
- 语音文件需要放在
中文的格式:
dataset/audio/wav/0175/H0175A0171.wav 我需要把空调温度调到二十度
dataset/audio/wav/0175/H0175A0377.wav 出彩中国人
dataset/audio/wav/0175/H0175A0470.wav 据克而瑞研究中心监测
dataset/audio/wav/0175/H0175A0180.wav 把温度加大到十八
英文的格式:
dataset/audio/LibriSpeech/dev-clean/1272/135031/1272-135031-0004.flac the king has fled in disgrace and your friends are asking for you
dataset/audio/LibriSpeech/dev-clean/1272/135031/1272-135031-0005.flac i begged ruggedo long ago to send him away but he would not do so
dataset/audio/LibriSpeech/dev-clean/1272/135031/1272-135031-0006.flac i also offered to help your brother to escape but he would not go
dataset/audio/LibriSpeech/dev-clean/1272/135031/1272-135031-0007.flac he eats and sleeps very steadily replied the new king
dataset/audio/LibriSpeech/dev-clean/1272/135031/1272-135031-0008.flac i hope he doesn't work too hard said shaggy
- 最后执行下面的数据集处理程序,详细参数请查看该程序。这个程序是把我们的数据集生成三个JSON格式的数据列表,分别是
manifest.test、manifest.train、manifest.noise
。然后建立词汇表,把所有出现的字符都存放子在vocabulary.txt
文件中,一行一个字符。最后计算均值和标准差用于归一化,默认使用全部的语音计算均值和标准差,并将结果保存在mean_istd.json
中。以上生成的文件都存放在dataset/
目录下。数据划分说明,如果dataset/annotation
存在test.txt
,那全部测试数据都使用这个数据,否则使用全部数据的1/500的数据,直到指定的最大测试数据量。
python create_data.py
针对超大数据的情况,例如有数万小时乃至数十万小时的语音数据,因为音频大多数都是一些短语音频,所以音频文件数量会超级多,如果是机械进键盘的话,大量的小文件会影响硬盘的数据读取,所以本项目提供了一种可以把多段短语音合成一个较长的音频文件,大幅度减少音频数量。
使用方法如下,在创建数据列表的时候。指定参数is_merge_audio
为True
,这样的话就会把长语音合成短语音。默认的参数是合成10分钟的长语音。以平均每条音频10秒来计算的话,音频文件数量就会少60倍。但是并不会影响模型的训练,因为在模型训练的时候也是按照一个短语音片段裁剪出来进行训练的。
python create_data.py --is_merge_audio=True
默认的数据列表是文本格式的,如果文件大小比较小的话,影响倒没什么,但是当该文件的该文件特别大的时候,就会影响到机器的性能,因为在读取数据的时候需要把全部的数据列表都加入到内存中,这样会很消耗内存。所以本项目提一种解决解决办法,就是把数据列表转化成二进制,在读取列表的时候,只需要加载较小的数据列表索引就可以。这样可以减少4~8倍的内存占用,一定程度上也提高了数据的读取速度。
使用方法如下,修改配置文件中的manifest_type
参数,指定 其值为binary
,这样在执行create_data.py
创建数据列表的时候,就会多生成一份对应的二进制的数据列表,.data
后缀的是数据列表的二进制文件,.header
后缀是二进制数据列表的索引文件。然后在训练的时候也会只读取这个二进制的数据列表。
# 数据集参数
dataset_conf:
# 数据列表类型,支持txt、binary
manifest_type: 'binary'
数据集 | 语言 | 时长 | 大小 | 下载地址 |
---|---|---|---|---|
THCHS30 | 普通话 | 40h | 6.01G | data_thchs30.tgz |
ST-CMDS | 普通话 | 100h | 7.67G | ST-CMDS-20170001_1-OS.tar.gz |
AIShell-1 | 普通话 | 178h | 14.51G | data_aishell.tgz |
Primewords | 普通话 | 100h | 8.44G | primewords_md_2018_set1.tar.gz |
aidatatang_200zh | 普通话 | 200h | 17.47G | aidatatang_200zh.tgz |
MagicData | 普通话 | 755h | 52G/1.0G/2.2G | train_set.tar.gz / dev_set.tar.gz / test_set.tar.gz |
WenetSpeech | 普通话 | 10000h | 315G | 下载教程 |