谷歌和Idiap研究所的研究人员训练了两个独立的神经网络,能够显著降低多说话者信号的语音识别词错误率。
把一个人的声音从嘈杂的人群中分离出来是大多数人潜意识里都会做的事情——这就是所谓的鸡尾酒会效应。像谷歌Home和亚马逊的Echo这样的智能扬声器实现分离人群中的声音可能还要再经历一段时间,但多亏了AI,它们或许有一天能够像人类一样过滤掉声音。
谷歌和位于Switerzland的Idiap研究所的研究人员发表在Arxiv上的一篇论文中描述了一种新的解决方案。他们训练了两个独立的神经网络——说话者识别网络(a speaker recognition network)和声谱掩码网络(a spectrogram masking network)——这两个网络一起“显著”降低了多说话者信号的语音识别词错误率(WER)。
他们的工作建立在麻省理工学院计算机科学和人工智能实验室今年早些时候发表的一篇论文的基础上,该论文描述了一个名为PixelPlayer的系统,该系统能够将单个乐器的声音从YouTube视频中分离出来。
论文:
VoiceFilter: Targeted Voice Separation by Speaker-Conditioned Spectrogram Masking
论文地址:
https://arxiv.org/pdf/1810.04826.pdf
在最新的论文中,研究人员写道:“我们的任务是将一部分感兴趣的说话者的声音与所有其他说话者和声音的共性分离开来。例如,这样的子集可以由一个目标扬声器对个人移动设备发出语音查询,或者由一个家庭成员对一个共享的家庭设备进行交谈而形成。”
研究人员的语音过滤系统分为两部分,包括LSTM模型和卷积神经网络(只有一个LSTM层)。第一个采用预处理的语音采样和输出扬声器嵌入(即矢量形式的声音表示)作为输入,而后者预测来自嵌入的软掩模或滤波器以及根据噪声音频计算的幅度谱图。掩模用于生成增强幅度谱图,当与噪声音频的相位(声波)组合并变换时,产生增强的波形。
AI系统被训练以便最大限度地减少屏蔽幅度频谱图与从干净音频计算的目标幅度频谱图之间的差异。
该团队为训练样本提供了两个数据集:(1)来自13.8万名演讲者的大约3400万个匿名语音查询日志;(2)开源语音库LibriSpeech、VoxCeleb和VoxCeleb2的汇编。VoiceFilter网络对来自CSTR VCTK数据集(由爱丁堡大学维护的一组语音数据)和LibriSpeech的2338个贡献者的语音样本进行了训练,并使用来自73名演讲者的话语进行评估。
在测试中,VoiceFilter在双扬声器方案中将字错误率从55.9%降低到23.4%。
研究人员写道:“我们已经证明了使用经过专门训练的扬声器编码器来调整语音分离任务的有效性。这样的系统更适用于真实场景,因为它不需要事先知道扬声器的数量……我们的系统完全依赖于音频信号,可以很容易地通过使用具有高度代表性的嵌入向量来推广到未知的扬声器。”
-
谷歌
+关注
关注
27文章
6141浏览量
105086 -
神经网络
+关注
关注
42文章
4762浏览量
100535 -
语音识别
+关注
关注
38文章
1721浏览量
112541
原文标题:谷歌神经网络人声分离技术再突破!词错率低至23.4%
文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论