语音识别是人工智能中的一个领域,它允许计算机理解人类语音并将其转换为文本。wav2vec2、Conformer 和 Hubert 等最先进模型的最新发展极大地推动了语音识别领域的发展。这些模型采用无需人工标记数据即可从原始音频中学习的技术,从而使它们能够有效地使用未标记语音的大型数据集。
Whisper 模型介绍
使用数据集:
Whisper模型是在68万小时标记音频数据的数据集上训练的,其中包括11.7万小时96种不同语言的演讲和12.5万小时从”任意语言“到英语的翻译数据。该模型利用了互联网生成的文本,这些文本是由其他自动语音识别系统(ASR)生成而不是人类创建的。该数据集还包括一个在VoxLingua107上训练的语言检测器,这是从YouTube视频中提取的短语音片段的集合,并根据视频标题和描述的语言进行标记,并带有额外的步骤来去除误报。
模型:
主要采用的结构是编码器-解码器结构。
重采样:16000 Hz
特征提取方法:使用25毫秒的窗口和10毫秒的步幅计算80通道的log Mel谱图表示。
特征归一化:输入在全局内缩放到-1到1之间,并且在预训练数据集上具有近似为零的平均值。
编码器/解码器:该模型的编码器和解码器采用Transformers。
编码器的过程:
编码器首先使用一个包含两个卷积层(滤波器宽度为3)的词干处理输入表示,使用GELU激活函数。
第二个卷积层的步幅为 2。
然后将正弦位置嵌入添加到词干的输出中,然后应用编码器 Transformer 块。
Transformers使用预激活残差块,编码器的输出使用归一化层进行归一化。
解码的过程:
在解码器中,使用了学习位置嵌入和绑定输入输出标记表示。
编码器和解码器具有相同的宽度和数量的Transformers块。
训练
为了改进模型的缩放属性,它在不同的输入大小上进行了训练。
通过 FP16、动态损失缩放,并采用数据并行来训练模型。
使用AdamW和梯度范数裁剪,在对前 2048 次更新进行预热后,线性学习率衰减为零。
使用 256 个批大小,并训练模型进行 220次更新,这相当于对数据集进行两到三次前向传递。
由于模型只训练了几个轮次,过拟合不是一个重要问题,并且没有使用数据增强或正则化技术。这反而可以依靠大型数据集内的多样性来促进泛化和鲁棒性。
Whisper 在之前使用过的数据集上展示了良好的准确性,并且已经针对其他最先进的模型进行了测试。
优点:
- Whisper 已经在真实数据以及其他模型上使用的数据以及弱监督下进行了训练。
- 模型的准确性针对人类听众进行了测试并评估其性能。
- 它能够检测清音区域并应用 NLP 技术在转录本中正确进行标点符号的输入。
- 模型是可扩展的,允许从音频信号中提取转录本,而无需将视频分成块或批次,从而降低了漏音的风险。
- 模型在各种数据集上取得了更高的准确率。
Whisper在不同数据集上的对比结果,相比wav2vec取得了目前最低的词错误率
Whisper 模型进行语音识别
语料采用TIMIT 阅读语音语料库是语音数据的集合,它专门用于声学语音研究以及自动语音识别系统的开发和评估。
安装:
!pip install git+https://github.com/openai/whisper.git
!pip install jiwer
!pip install datasets==1.18.3
第一条命令将安装whisper模型所需的所有依赖项。jiwer是用来下载文字错误率包的datasets是hugface提供的数据集包,可以下载timit数据集。
导入库
importwhisper
frompytubeimportYouTube
fromglobimportglob
importos
importpandasaspd
fromtqdm.notebookimporttqdm
加载timit数据集
fromdatasetsimportload_dataset, load_metric
timit=load_dataset("timit_asr")
要使用Whisper,我们就要先了解不同模型的的参数,大小和速度。
加载模型
model=whisper.load_model('tiny')
tiny可以替换为上面提到的模型名称。
定义语言检测器的函数
deflan_detector(audio_file):
print('reading the audio file')
audio=whisper.load_audio(audio_file)
audio=whisper.pad_or_trim(audio)
mel=whisper.log_mel_spectrogram(audio).to(model.device)
_, probs=model.detect_language(mel)
ifmax(probs, key=probs.get) =='en':
returnTrue
returnFalse
转换语音到文本的函数
defspeech2text(audio_file):
text=model.transcribe(audio_file)
returntext["text"]
在不同模型大小下运行上面的函数,timit训练和测试得到的单词错误率如下:
从u2b上转录语音
与其他语音识别模型相比,Whisper 不仅能识别语音,还能解读一个人语音中的标点语调,并插入适当的标点符号,我们下面使用u2b的视频进行测试。
这里就需要一个包pytube,它可以轻松的帮助我们下载和提取音频
defyoutube_audio(link):
youtube_1=YouTube(link)
videos=youtube_1.streams.filter(only_audio=True)
name=str(link.split('=')[-1])
out_file=videos[0].download(name)
link=name.split('=')[-1]
new_filename=link+".wav"
print(new_filename)
os.rename(out_file, new_filename)
print(name)
returnnew_filename,link
获得wav文件后,我们就可以应用上面的函数从中提取文本。
发表评论
取消回复