CN108463848B - 用于多声道语音识别的自适应音频增强 - Google Patents

用于多声道语音识别的自适应音频增强 Download PDF

Info

Publication number
CN108463848B
CN108463848B CN201680079040.7A CN201680079040A CN108463848B CN 108463848 B CN108463848 B CN 108463848B CN 201680079040 A CN201680079040 A CN 201680079040A CN 108463848 B CN108463848 B CN 108463848B
Authority
CN
China
Prior art keywords
channel
filter
audio data
neural network
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201680079040.7A
Other languages
English (en)
Other versions
CN108463848A (zh
Inventor
李博
R.J.韦斯
M.A.U.巴基亚尼
T.N.塞纳特
K.W.威尔逊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Priority to CN201911174845.1A priority Critical patent/CN111081231B/zh
Publication of CN108463848A publication Critical patent/CN108463848A/zh
Application granted granted Critical
Publication of CN108463848B publication Critical patent/CN108463848B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0224Processing in the time domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Telephonic Communication Services (AREA)
  • Machine Translation (AREA)

Abstract

公开了用于多声道语音识别的神经网络自适应波束成形的方法、***和设备,包括编码在计算机存储介质上的计算机程序。一方面,一种方法包括以下动作:接收与话语相对应的音频数据的第一声道以及与所述话语相对应的音频数据的第二声道。所述动作进一步包括:基于所述音频数据的第一声道和所述音频数据的第二声道而生成第一滤波器的第一组滤波器参数;并且基于所述第一声道的音频数据和所述第二声道的音频数据而生成第二滤波器的第二组滤波器参数。所述动作进一步包括生成音频数据的单个组合声道。所述动作进一步包括将所述音频数据输入到神经网络。所述动作进一步包括为所述话语提供转录。

Description

用于多声道语音识别的自适应音频增强
相关申请的交叉引用
本申请要求于2016年3月23日提交的美国专利申请序列号62/312,053的优先权,所述美国专利申请的内容通过引用以其全文结合在此。
技术领域
本申请涉及处理多声道音频波形。
背景技术
可以使用各种技术来识别语音。一些技术使用接收从音频数据导出的声学特征的声学模型。
发明内容
在一些实施方式中,语音识别***可以执行自适应音频增强技术以例如通过改善其鲁棒性和/或精度来改进多声道语音识别。例如,自适应波束成形可以使用神经网络来执行。可以将多个声道的音频(例如来自不同麦克风的音频信息)提供给神经网络模块,所述神经网络模块自适应地改变用于执行音频增强(例如,空间滤波或波束成形)的滤波器。在一些实施方式中,***可以使用神经网络为每个输入帧动态地估计一组滤波器。例如,原始波形多声道信号可以传递到滤波器预测(FP)长短期记忆(LSTM)模块,以便为每个声道生成时域滤波器。然后将这些滤波器与各个声道的音频数据进行卷积并相加在一起形成单声道增强语音,所述单声道增强语音被提供给用于执行语音识别的声学模型。
尽管在某些情况下(例如,当用户靠近麦克风时)某些自动语音识别(ASR)***可能合理执行,但此类ASR***的性能可能会在用户与麦克风之间距离较远的远场条件下(例如,当说话者向电视机或恒温器提供命令时)降级。在这类条件下,语音信号由于混响和附加噪声而受到降级。这些***通常使用多个麦克风来提高识别精度、增强语音信号、并降低混响和噪音造成的影响。
一些多声道ASR***利用两个单独的模块来执行识别。首先,通常通过波束成形来应用麦克风阵列语音增强。增强的信号然后传递到声学模型。技术通常包括延迟求和波束成形,其涉及从不同麦克风接收信号以调整从目标说话者到每个麦克风的延迟。然后对时间对准的信号求和以增强来自目标方向的信号并减弱来自其他方向的噪声。其他形式的信号增强包括最小方差无失真响应(MVDR)和多声道维纳滤波(MWF)。
将增强视为与声学建模不相交的方法可能不会导致提高ASR性能的最佳解决方案。另外,许多增强技术涉及需要针对声学模型和/或音频增强模型的迭代参数优化的基于模型的方法。例如,这些方法通常首先估计波束成形参数,并且然后估计声学模型参数。这些迭代方法不容易与不使用迭代训练的其他类型的模型相结合。例如,基于神经网络的声学模型通常使用梯度学习算法进行优化,而不是与高斯混合模型(GMM)和其他模型一起使用的迭代训练技术。
通过共同学习空间滤波器和声学模型参数可以增强语音识别***。一种用于执行音频增强的技术使用多声道“时间卷积”滤波器,这些滤波器中的每一个独立地对输入的每个声道进行滤波,并且然后在类似于滤波求和波束成形的过程中对输出进行求和。其他技术可以学习多个空间滤波器以适应到达不同空间方向的目标信号,但计算复杂度大幅增大。尽管这两种方法都比传统的延迟求和和滤波求和技术有所改进,但是一个缺点是在训练期间确定的所估计空间滤波器和频谱滤波器被固定用于解码。也就是说,在用于语音识别时,滤波器不会改变或适应。因此,对于固定滤波器的方法,固定滤波器可能不适用于用户相对于麦克风的实际位置。
因此,本申请中描述的主题的创新方面涉及一种自动语音识别***,所述自动语音识别***可以在接收到语音数据时调整用于音频增强的滤波器。例如,当检测到语音时,语音识别***可以动态地改变用于执行空间滤波的滤波器的参数。在一些实施方式中,滤波器被适配用于每个输入语音帧。而且,可以使用关于多个音频声道的信息来确定每个滤波器。而不是基于单个音频声道独立地确定被确定的每个滤波器,可以使用来自所有音频声道的输入来确定每个音频声道的滤波器。
语音识别***可以使用一个或多个神经网络来执行自适应音频增强。例如,语音识别***可以包括两个神经网络,一个自适应地生成空间滤波器,另一个用作声学模型。第一神经网络基于与话语相对应的多个音频数据声道来生成滤波器参数。滤波器参数指定多个滤波器的特性,例如,每个音频数据声道对应一个滤波器。每个声道的滤波器参数都提供给不同的滤波器。然后,将每个滤波器应用于其相应的音频数据声道,并将每个声道的结果相加在一起。将求和的滤波器输出提供给先前已经训练以识别话语的声学音素的第二神经网络。***然后可以使用经识别的音素来生成话语的竞争转录(transcription)。
根据本申请中描述的主题的创新方面,一种用于多声道语音识别的自适应音频增强的方法包括以下动作:接收与话语相对应的音频数据的第一声道以及与所述话语相对应的音频数据的第二声道;使用经训练递归神经网络,(i)基于所述音频数据的第一声道和所述音频数据的第二声道而生成第一滤波器的第一组滤波器参数,并且(ii)基于所述音频数据的第一声道和所述音频数据的第二声道而生成第二滤波器的第二组滤波器参数;通过组合(i)已经使用所述第一滤波器滤波的所述第一声道的音频数据和(ii)已经使用所述第二滤波器滤波的所述第二声道的音频数据来生成单个组合音频数据声道;将所述单个组合声道的所述音频数据输入到被训练为声学模型的神经网络;以及为所述话语提供至少基于所述神经网络响应于接收到组合卷积输出而提供的输出而确定的转录。
这种实施方式和其他实施方式可以包括以下可选特征中的一个或多个。所述递归神经网络包括一个或多个长短期记忆层。所述递归神经网络包括:第一长短期记忆层,接收第一音频声道和第二音频声道两者;以及与所述第一声道相对应的第二长短期记忆层和与所述第二声道相对应的第三长短期记忆层,所述第二长短期记忆层和所述第三长短期记忆层各自接收所述第一长短期记忆层的输出并且提供所述相应声道的一组滤波器参数。所述长短期记忆层具有在训练过程期间已经学习的参数,所述训练过程共同训练所述长短期记忆层和被训练为声学模型的神经网络。所述动作进一步包括:为音频数据的每个输入帧改变或生成新的滤波器参数。所述动作进一步包括:对于所述话语的音频帧序列中的每个音频帧,生成一组新的滤波器参数并将所述帧的音频数据与具有所述新的一组滤波器参数的滤波器进行卷积。所述第一滤波器和所述第二滤波器是有限脉冲响应滤波器。所述第一滤波器和所述第二滤波器具有不同的参数。
不同的麦克风输出与不同的滤波器进行卷积。所述音频数据的第一声道和所述音频数据的第二声道是所述话语的第一音频波形数据声道和第二音频波形数据声道。所述第一音频波形声道和所述第二音频波形声道是由彼此间隔开的不同麦克风对所述话语的记录。被训练为声学模型的所述神经网络包括卷积层、一个或多个长短期记忆层、以及多个隐藏层。被训练为声学模型的所述神经网络的所述卷积层被配置用于执行时域卷积。被训练为声学模型的所述神经网络被配置为使得所述卷积层的输出被池化以生成一组池化值。被训练为声学模型的所述神经网络被配置用于将所述池化值输入到被训练为声学模型的所述神经网络内的一个或多个长短期记忆层。所述第一滤波器和所述第二滤波器被配置用于执行空间滤波和频谱滤波两者。所述动作进一步包括:将所述第一声道的所述音频数据与具有所述第一组滤波器参数的第一滤波器进行卷积以生成第一卷积输出;将所述第二声道的所述音频数据与具有所述第二组滤波器参数的第二滤波器进行卷积以生成第二卷积输出;以及将所述第一卷积输出与所述第二卷积输出组合。
本方面的其他实施例包括相应的***、设备、以及记录在计算机存储装置上的计算机程序,每个计算机程序被配置用于执行所述方法的操作。
在一些实施方式中,可以实施本文所描述的技术以实现以下优点中的一个或多个。例如,语音识别***可以动态地改变用于音频增强的滤波器参数,这可以导致语音识别中更强的鲁棒性和精度。如本文所讨论的,改进的音频增强可以向声学模型提供更清晰的语音数据,从而允许改进的语音识别精度。语音识别***可以生成与用户的实际位置相对应的、与固定的预定滤波器相比更精确地滤波器。另外,例如,当用户在说话时在房间周围走动时,滤波器的适配可以适应用户相对于麦克风的位置的变化。在一些实施方式中,当与试图适应从多个不同的预定空间方向到达的信号的模型相比时,使用下面的神经网络***降低了音频增强的计算复杂度。通过下面讨论的其他技术也可以获得改进的语音识别精度,这些技术包括使用声学模型共同训练滤波器预测模型,使用来自声学模型的反馈来训练滤波器预测模型。在一些实施方式中,使用多任务学习策略来设置多个训练目标,诸如准确预测声学模型状态和干净的音频特征两者。使用多任务学习可以提高识别噪声音频的精度,并且还可以改进滤波器预测和正则化训练。
在本说明书中描述的主题的一个或多个实施例的细节在附图和下面的描述中进行阐述。本主题的其他特征、方面和优点将从描述、附图和权利要求书中变得显而易见。
附图说明
图1展示了用于自适应音频增强的示例架构。
图2展示了示例波束成形器响应。
图3展示了使用神经网络进行语音识别的***的示例。
图4展示了用于多声道语音识别的自适应音频增强的示例过程。
图5展示了计算装置和移动计算装置的示例。
在附图中,相同的附图标记始终表示相应的部分。
具体实施方式
使用神经网络的联合多声道增强和声学建模可以被用来执行语音识别。在一些以前的方法中,在训练期间学习的滤波器被固定用于解码,这潜在地影响这些模型适应先前看不见或变化的条件的能力。本申请中描述的主题描述了用于解决这种问题的神经网络自适应波束成形(NAB)技术。代替在训练阶段期间学习特定滤波器,可以训练神经网络模型以在语音识别期间接收到音频数据时动态地生成滤波器参数。这允许***执行不限于预定数量的固定信号到达方向的更准确的波束成形。
在一些实施方式中,语音识别***使用长短期记忆(long short-term memory,LSTM)层来预测每个输入帧处的时域波束成形滤波器系数。滤波器与成帧的时域输入信号进行卷积并且跨声道来求和,实质上使用动态适应的滤波器来执行有限脉冲响应(FIR)滤波与求和波束成形。波束成形器的输出被传递到与滤波器预测LSTM层一起训练的卷积的长短期记忆深度神经网络(CLDNN)声学模型。在一个示例中,具有所提出的NAB模型的语音识别***相对于单声道模型实现了12.7%的误字率(word error rate,WER)的相对改善,并且达到与利用若干固定空间滤波器的“因子化(factored)”模型架构类似的性能,并且计算成本降低17.9%。
尽管近年来自动语音识别(ASR)的性能显著提高,特别是随着深度学习的出现,但在现实嘈杂场景和远场场景下的性能仍然远远落后于干净的语音条件。为了提高鲁棒性,麦克风阵列通常用于增强语音信号并消除不必要的噪声和混响。
语音识别***可以使用多声道信号处理技术,其是延迟求和(delay-and-sum,DS)波束成形,其中来自不同麦克风的信号在时间上被对齐以调整从目标说话者到每个麦克风的传播延迟,并且然后被混合到单声道。这具有增强来自目标方向的信号并衰减来自其他方向的噪声的效果。然而,准确估计混响环境中到达的时间延迟可能是困难的,并且DS波束成形不考虑空间相关噪声的影响。有可能使用更一般的滤波与求和(filter-and-sum,FS)技术来提高性能,其中,在求和之前将线性滤波器应用于每个声道。这种滤波器通常被选择用于优化与声学模型(AM)的训练目标不同的信号电平目标,比如SNR。
增强阶段和AM阶段的联合训练提高了高斯混合模型和神经网络声学模型两者的性能。例如,在一些实施方式中,语音识别***可以使用单层多声道“时间卷积”FIR滤波器来训练神经网络以直接对多声道波形进行操作,所述滤波器中的每一个独立地对输入的每个声道进行滤波,并且然后在类似于FS波束成形的过程中对输出进行求和。在训练之后,这个多声道滤波器组中的滤波器进行学习以共同执行空间滤波和频谱滤波,其中,典型的滤波器具有频率带通响应,但***控以增强或减弱从不同方向到达的信号。在一些实施方式中,语音识别***可以使用因子化的多声道波形模型,所述因子化的多声道波形模型将空间和频谱滤波行为分离成单独的层,并且提高性能,但是可能增加计算复杂度。尽管这两种架构都比传统的DS和FS信号处理技术有所改进,但一个缺点是所估计的空间和频谱滤波器在解码期间是固定的。
为了解决上述模型的有限适应性和降低计算复杂度,本申请中描述的主题包括神经网络自适应波束成形(NAB)模型,所述NAB模型使用神经网络在每个输入帧处重新估计一组空间滤波器系数。具体而言,原始多声道波形信号被传递到滤波器预测(FP)LSTM,所述滤波器预测LSTM的输出被用作空间滤波器系数。然后将用于每个声道的这些空间滤波器与相应的波形输入进行卷积,并将输出相加在一起以形成包含增强语音信号的单声道输出波形。所产生的单声道信号被传递到与FP LSTM层一起训练的原始波形声学模型。在一些实施方式中,与处理时域信号相反,可以在频域中执行滤波。本公开展示了在时域中执行NAB需要估计更少的滤波器系数,并且与频域滤波器预测相比产生更好的WER。
另外,本申请中描述的主题包括对NAB模型的其他改进。首先,本公开明确地描述了从先前的时间步长提供声学模型的上层激活(其捕获关于声学状态的高级信息)作为FP层的附加输入。进一步采用门控机制来减弱这些预测中的潜在错误。所述门控机制分析预测以及输入和模型状态,以输出在必要时缩小反馈向量的置信度分数。其次,本公开描述了结合多任务学习(MTL)策略来正则化训练并辅助滤波器预测。这通过训练NAB模型来共同预测声学模型状态和干净特征来工作,这可以改善在噪声数据上训练的声学模型。
图1中描绘了神经网络自适应波束成形(NAB)模型的示例,其包括滤波器预测(FP)块、滤波求和(FS)波束成形块、声学建模(AM)块和多任务学习(MTL)块。示出了两个声道,但是可以使用更多数量的声道。在每个时间帧k处,***从C声道输入中为每个声道c取M个波形样本的小窗口,表示为x1(k)[t],x2(k)[t],……,xC(k)[t],其中,t∈{1,……,M}。
自适应空间滤波可以如下执行。有限脉冲响应(FIR)滤波求和波束成形器可以写为:
其中,hc[n]为与麦克风c相关联的滤波器的第n个抽头,xc[t]是在时刻t由麦克风c接收到的信号,τc是在由麦克风接收到的信号中为了所述信号与其他阵列声道对齐而引入的控制延迟(steering delay),并且y[t]是输出信号。N是滤波器的长度。
对方程1进行优化的增强算法可能需要对控制延迟τc的估计,所述估计可以从一个单独的位置模型获得。滤波器系数可以通过优化信号电平目标来获得。在NAB模型中,***通过直接最小化交叉熵或序列损失函数来联合AM参数估计滤波器系数。而不是显式地估计每个麦克风的控制延迟,τc可以被隐式地吸收到所估计的滤波器系数中。在每个时间帧k处产生的自适应滤波由方程2给出,其中hc(k)[t]是时间帧k处的声道c的所估计滤波器。
为了估计hc(k)[t],***训练FP LSTM以预测每个声道的N个滤波器系数。FP模块的输入是来自所有声道的原始输入样本xc(k)[t]的帧的串联,并且还可以包括用于定位的特征,比如互相关特征。
以下公开内容更详细地描述了FP模块架构。在方程2之后,对于每个声道,将所估计的滤波器系数hc(k)[t]与输入样本xc(k)[t]进行卷积。卷积的输出例如在FS块中跨声道进行求和以产生单声道信号y(k)[t]。
然后使用AM块来执行声学建模。单声道增强信号y(k)[t]被传递给图1中所示的AM模块。单声道波形被传递到“时间卷积”层,表示为tConv,所述时间卷积层充当包含多个滤波器的时域滤波器组。例如,可以使用128个滤波器。在输入帧的长度上通过最大池化(max-pooling)而对tConv输出在时间上抽取十分之一。在一些实施方式中,在时间上对频谱输出进行最大池化有助于丢弃短时间信息。最后,将修正器非线性度和稳定对数压缩应用于每个滤波器输出,以在帧k处产生帧级特征向量。
在一些实施方式中,所述***不包括频率卷积层。由时间卷积层生成的特征向量直接传递给具有832个单元(cell)的三个LSTM层和一个512维投影层,然后是完全连接的具有1024个隐藏单元的DNN层。在softmax层之前使用512维线性输出低等级投影层,以减少对所使用的13,522个依赖于上下文的状态输出目标进行分类所需的参数数量。处理完帧k之后,***将整个输入信号的窗口移动10ms的跳并且重复此过程。
AM模块和FP模块可以共同训练。在一些实施方式中,FS块没有可训练参数。所述模型被展开20个时间步长,以便使用截断的反向传播通过时间进行训练。输出状态标签被延迟5帧,因为使用关于未来帧的信息通常会改善当前帧的预测。
可以使用门控反馈来增强训练过程。来自声学模型的识别信息反映了语音的内容,并且被认为可以帮助早期的网络层。利用前一帧的预测来增强每帧的网络输入可以提高性能。为了研究NAB模型中反馈的益处,帧k-1处的AM预测可以在时间帧k(图1中最右边的竖直线)处传回FP模型。由于softmax预测的维数很高,因此***会将softmax之前的低等级激活反馈给FP模块以限制模型参数的增加。
此反馈连接为FP模块提供关于信号的音素内容的高级信息,以辅助估计波束成形滤波器系数。例如,所述连接可以在信号中提供可能的依赖于上下文的状态信息,以在生成波束成形滤波器时使用。然而,这种反馈包括可能包含错误的模型预测(尤其是在训练初期),并且因此可能导致较差的模型训练。因此将门控机制引入所述连接以调节反馈的程度。与独立控制每个维度的传统LSTM门不同,我们使用全局标量门(global scalar gate)来缓和反馈。时间帧k处的门gfb(k)是根据输入波形样本x(k)、第一FP LSTM层s(k-1)的状态、以及反馈向量v(k-1)来计算的,如下:
其中wx、ws和wv是相应的权重向量,σ是元素非线性度。所述***使用输出范围[0,1]中的值的关于σ的逻辑函数,其中,0切断反馈连接,1直接穿过反馈。因此,有效的FP输入是[hx(k),gfb(k)v(k-1)]。
多任务学习可能会提高鲁棒性。所述***在训练期间通过配置网络以具有两个输出而包括MTL模块,预测CD状态的一个识别输出和重建从底层干净信号导出的128个对数梅尔特征的第二个去噪输出。去噪输出仅用于训练以正则化模型参数;相关联的层在推断期间被丢弃。在NAB模型中,MTL模块从AM模块的第一LSTM层中分支出来,如图1所示。MTL模块由两个完全连接的DNN层组成,然后是预测干净特征的线性输出层。在训练期间,从这两个输出反向传播的梯度分别通过用于识别和去噪输出的α和1-α来加权。
本公开描述了对包括300万英语话语的约2000小时的嘈杂训练数据进行的实验。这个数据集是通过使用房间模拟器人为地破坏干净的话语、增加了不同程度的噪音和混响而创建的。干净的话语是匿名且手工抄写的话音搜索查询,并且是互联网话音搜索业务的代表。包括从视频共享网站采样的音乐和环境噪声以及“日常生活”环境的录音的噪声信号,以范围从0dB到20dB(平均为约12dB)的SNR被添加到干净话语。使用具有从100个可能的房间配置中随机采样的房间尺寸和麦克风阵列位置的图像模型,以范围从400ms到900ms(平均为约600ms)的T60s来模拟混响。使用具有14cm的麦克风间距的8声道线性麦克风阵列的第一个声道和最后一个声道。噪音位置和目标说话者的位置两者因话语而异;声源与麦克风阵列之间的距离在1米至4米之间选择。对于每个噪声话语,语音方位角和噪声方位角分别从±45度和±90度的范围均匀采样。噪音位置和说话者位置的变化有助于提高***的鲁棒性。
评估集合包括约30,000个话语(超过200小时)的单独集合。所述评估集合的创建与类似SNR和混响设置下的训练集合类似。在一些实施方式中,评估集合中的房间配置、SNR值、T60时间以及目标说话者位置和噪声位置与训练集合中的不同,但训练集合与测试集合之间的麦克风阵列的几何结构有时是相同的。
原始波形模型的输入特征使用35ms的输入窗口大小来计算,其中,帧之间的跳为10ms。除非另有说明,否则所有网络均使用异步随机梯度下降(ASGD),利用128个tConv滤波器并利用交叉熵准则来进行训练。序列训练实验还可以使用分布式ASGD,所述分布式ASGD在[29]中有更详细的概述。所有网络都有13,522个CD输出目标。CNN层和DNN层的权重使用Glorot-Bengio策略进行初始化,而所有LSTM参数被统一初始化以位于-0.02至0.02之间。我们使用指数衰减的学习速率,其从4e-3开始并且在150亿帧上具有0.1的衰减率。
在一个示例中,基线NAB模型包括原始波形CLDNN AM和FP模块,而没有MTL和反馈。FP模块具有两个512单元的LSTM层和一个线性输出层,以便每个输入声道生成5ms的滤波器系数(例如,16kHz采样率下的81个抽头)。这给出了22.2%的误字率(WER),而单声道原始波形CLDNN为23.5%。以下部分描述了使用此基线的变体来找到改进的FP设置的实验。
FP模块可以使用几种不同的架构(例如,图1)。每个FP模块具有第一个S“共享的”512单元LSTM层,然后是P“分离的”声道相关的256单元LSTM层的分离堆栈,以鼓励针对每个声道学习独立的滤波器预测模型。然后添加声道相关的线性输出层以生成滤波器系数。因此,基线具有S=2和P=0。
使用一个共享的LSTM层和一个声道相关的LSTM层可以获得改进的性能。在一些实施方式中,不管配置如何,进一步增加LSTM层的总数可能不会提高性能。
互相关特征可以用于定位,并且可以用于预测频域波束成形滤波器。因此,这些互相关特征可以提供给FP块。为了比较,将从具有10ms移位的100ms帧中提取的未加权互相关特征作为输入传递至FP模块的双声道NAB模型也被训练。在相同的基线结构(S=2,P=0)下,此模型的WER为22.3%,这与使用波形样本作为输入获得的22.2%类似。以互相关特征的形式提供更加明确的定位信息并不能提供帮助,这表明FP模块能够直接从波形样本中学习良好的空间滤波器。
相距14cm的两个麦克风之间的最大延迟可以小于0.5ms,这表明不小于0.5ms的滤波器应当足以使这两个声道对齐。本部分描述了利用基线FP模块(S=2和P=0)来改变预测滤波器的长度。使用1.5ms滤波器可以获得改进的性能。也可以看出,使滤波器尺寸太大会影响性能。
NAB模型可以使用多任务学***衡这两个目标。使用MTL,基线NAB(S=2,P=0和5.0ms滤波器)将WER从22.2%降低至21.2%。为了进一步提高性能,添加了门控反馈连接,所述门控反馈连接导致另一个0.2%的绝对减少,以产生21.0%的最终WER。
具有改进配置的最终NAB模型具有:a)S=1和P=1的FP结构;b)原始波形输入;c)输出滤波器大小为1.5毫秒;d)α=0.9的MTL目标插值权重;e)门控反馈连接。代替针对频谱滤波层(图1中的tConv)使用128个滤波器,所述***使用了256个滤波器,因为它已经显示出进一步的改进。在最终配置下,NAB模型实现了20.5%的WER,相比没有这些修改的22.2%的原始NAB模型,具有7.7%的相对改善。其中,MTL和门控反馈一起给出最多的错误减少。图2展示了所预测的波束成形滤波器在目标语音方向和干扰噪声方向上的频率响应。换言之,图2展示了对于嘈杂(第一)语音频谱和干净(第二)语音频谱,在目标语音方向(第三)和干扰噪声方向(第四)上,所预测的波束成形器响应在不同频率(Y轴)跨时间(X轴)的视觉展现。
在图2的示例中话语的SNR是12dB。在目标语音方向上的响应具有与在噪声方向上的响应相比更多的语音相关的变化。这可能指示所预测的滤波器正在处理语音信号。此外,在高语音能量区域的响应通常低于其他区域,这表明所预测的滤波器的自动增益控制效果。
由于自适应波束成形有时在频域中执行,因此可以考虑在时域和频域两者中使用NAB模型。在频域NAB设置中,存在为这两个声道预测复数FFT(CFFT)滤波器的LSTM。给定257点的FFT输入,这相当于为2个声道的实部和虚部预测4×257个频点。在针对每个声道预测复数滤波器之后,利用每个声道的输入的FFT完成逐元素乘积,等同于在时域中方程2的卷积。其输出被赋予频域中的单声道CLDNN,所述单声道CLDNN既利用复数线性投影(CLP)进行频谱分解,又进行声学建模。虽然使用CFFT特征大大降低了计算复杂度,但在一些实施方式中,性能可能比原始波形模型更差。这可能是因为CFFT需要预测更高维的滤波器。
NAB模型的性能还可以与非因子化和因子化的原始波形模型相当,这些模型已被证明可以为单声道模型和其他信号处理技术(如DS和FS)提供优越的性能。与非因子化模型相比,如以上所讨论的,预测每个时间帧的滤波器以处理数据中的不同空间方向可以提高性能。虽然分解的模型可以通过枚举空间滤波层中的许多观察方向来潜在地处理不同的方向,但自适应模型可以以较少的计算复杂度实现类似的性能。
如上所述,用于多声道波形信号的NAB架构可以与AM训练联合实施自适应滤波与求和波束成形。与先前的***不同,波束成形滤波器适配当前的输入信号,并且还通过门控反馈连接而考虑到AM的先前预测。为了改进模型的推广,可以采用MTL来正则化所述训练。实验结果示出,结合显式FS结构是有益的,并且所提出的NAB具有与因子化模型类似的性能,但具有较低的计算成本。
回到附图,图1展示了用于神经网络自适应波束成形(NAB)的示例***100。简而言之,并且如以下更详细描述的,***100接收可以从不同的麦克风接收的多个声道的音频数据103和106。***100通过滤波器预测级109、滤波与求和级112、声学模型级115、以及多任务学习级118来处理音频数据103和106,以识别音频数据103和106的音素。
在滤波器预测级109期间,***100接收多个声道的音频数据103和106。尽管***100示出了接收两个音频数据声道,但是***100可以接收将与音频数据103和106类似地方式分别处理的附加音频声道。滤波器预测级109包括生成滤波与求和级112的滤波器参数的两个LSTM层。第一LSTM层121跨这两个声道的音频数据103和106共享。第一LSTM层121用于波束成形并且受益于来自这两个声道的音频数据103和106的数据。来自一个声道的数据影响另一个声道的波束成形。具有LSTM层124和127的第二LSTM层是声道相关的。LSTM层124和127生成调整后续滤波器的维度的参数。
在滤波与求和级112期间,***100使用两个滤波器130和133,并且然后在加法器136中对来自这两个滤波器的输出进行求和。滤波器130从LSTM层124接收音频数据103和滤波器参数。滤波器参数被应用于然后与音频数据103进行卷积的滤波器。类似地,滤波器133从LSTM层127接收音频数据106和滤波器参数。滤波器参数被应用于然后与音频数据106进行卷积的滤波器。在一些实施方式中,滤波器130和133是有限脉冲响应滤波器。在一些实施方式中,滤波器130和133的长度是固定的,并且可以彼此相同或不同。在一些实施方式中,滤波器130和133的系数基于从LSTM层130和133接收的参数。来自这两个滤波器130和133的输出在加法器136中相加在一起。加法器输出139被提供给声学模型层115。
在声学模型级115期间,***100使用时间卷积层142、后处理层145、多个LSTM层148、151和154、以及深度神经网络157。时间卷积层142接收加法器输出139,并通过去除高频来清洁并进一步滤波信号。在一些实施方式中,***100仅执行时间卷积并且不执行频率卷积。时间卷积层142可以包括具有多个特征图的一个卷积层。例如,时间卷积层142可以包括256个特征图。与时间卷积层142相关联的池化策略可以包括非重叠的最大池化并且例如池化大小为3。
时间卷积层142的输出被提供给后处理器145。在一些实施方式中,后处理器145在输出信号的整个长度上对时间卷积层142的输出信号进行最大池化。后处理器145然后应用经修正的非线性度,随后是稳定的对数表达式以产生帧级特征向量。在修正期间,后处理器145用零值替代负值并保留正值。在一些实施方式中,后处理器145降低特征向量的维度。降低维度降低了对附加的后续LSTM层的需求。
后处理器145的输出被传递到LSTM层148、151和154,它们适于关于时间对信号进行建模。在一些实施方式中,可以使用三个LSTM层来对信号进行建模。在一些实施方式中,每个LSTM层可以包括832个单元和512个单元投影层以降低维度。在一些实施方式中,可以替代地使用多于三个的包括更少单元的LSTM层。LSTM层148、151和154的输出被提供给一个或多个深度神经网络(DNN)层157。
DNN 157的输出160表示声学模型的输出。所述输出可以表示各种声学模型状态中的每一个的概率分数,例如音素或音素的隐马尔可夫模型(HMM)状态。当经训练的***用于执行语音识别时,输出160指示哪些音素是最可能的,并且此信息用于转录与音频数据103和106相对应的话语。例如,可以将此信息提供给语言模型或其他模型以确定与可能的音素最佳对应的单词和短语。
包括在一个或多个DNN层157中的层可以是完全连接的,并且在一些实施方式中可以各自具有1024个隐藏单元。***100的其他层可以与声学模型139一起训练。
在训练期间,可以将声学模型139展开20个时间步长,以便使用截断的反向传播通过时间(BPTT)进行训练。在一些实施方式中,输出状态标签可以延迟一个或多个帧,因为关于未来帧的信息可以增强与当前帧相关联的预测精度。在训练期间,输出目标可以被设置为输出160并且用于反向传播。
***100包括门控反馈机制163。通常,门控反馈仅在训练期间使用。门控反馈163将输出目标的高级语言信息提供给滤波器预测级109。利用所述语言信息,滤波器预测层109可以基于先前的音素来调整后续的滤波器参数。在一些实施方式中,门控反馈信号包括置信度值。如果置信度值未满足阈值,则门控反馈163不会影响后续的滤波器参数。如果置信度值满足阈值,则门控反馈163确实会影响后续的滤波器参数。例如,如果阈值是0.5,则在置信度值为一的情况下,滤波器预测级109将使用输出目标160来调整滤波器参数。如果置信度值为零,则滤波器预测级109将不使用输出目标160来调整滤波器参数。
所述***包括多任务学***的噪声。
图3是展示了用于使用神经网络进行语音识别的示例***300的框图。***300包括客户端装置310、计算***320和网络330。在示例中,计算***320向神经网络323提供关于话语的信息和附加信息。计算***320使用来自神经网络327的输出来识别话语的转录。
在***300中,客户端装置310可以是例如台式计算机、膝上型计算机、平板计算机、可穿戴计算机、蜂窝电话、智能电话、音乐播放器、电子书阅读器、导航***或任何其他适当的计算装置。由计算***320执行的功能可以由单独的计算机***执行或者可以跨多个计算机***而分布。网络330可以是有线或无线的或这两者的组合,并且可以包括互联网。
在一些实施方式中,计算***320接收一组音频波形样本321。这些样本321可以包括用于多个音频声道的样本,例如,来自在同一时间由不同麦克风检测到的音频的样本。计算***320使用样本321来生成用于空间滤波的滤波器参数。然后将空间滤波的输出提供给声学模型,例如,神经网络327。计算***320可以基于神经网络327的至少一个输出来确定话语的候选转录。
在所示示例中,客户端装置310的用户302说话,并且客户端装置310记录包括语音的音频。客户端装置310在检测到语音时记录多个声道的音频。客户端装置310通过网络330将多个声道的所记录的音频数据312发送到计算***320。
计算***320接收音频数据312并获得音频波形样本321。例如,计算***320可以识别表示在特定时间段期间(例如,在音频信号312的25ms时段期间)的音频的一组音频波形样本321。这些音频波形样本可以类似于以上已经参照图1描述的那些样本。
计算***320可以将音频波形样本321提供给用作滤波器预测模型的神经网络323。如结合图1所描述的,神经网络323可以对应于滤波器预测级109。如此,神经网络323可以是已经被训练以基于音频波形样本321生成滤波器参数的递归神经网络。
计算***320可以将神经网络323的输出提供给滤波与求和模块325。如结合图1所描述的,滤波与求和模块325可以对应于滤波与求和级112。如此,滤波与求和模块325可以将具有从神经网络323接收的滤波器参数的滤波器应用于音频波形样本321并对输出进行求和。
在所示示例中,计算***320将滤波与求和模块325的输出提供给神经网络327。神经网络327已经被训练以用作声学模型。例如,神经网络327指示当时频特征表示由滤波器模块325输出并且基于音频波形样本321时,时频特征表示与不同语音单元相对应的似然性。如结合图1所描述的,例如,神经网络327可以对应于滤波器预测级115。在一些实施方式中,神经网络327还可以包括最初处理来自滤波器模块325的输出的初始时间卷积层和后处理层。
神经网络327产生神经网络输出329,计算***320使用所述神经网络输出329来识别音频信号312的转录330。神经网络输出329指示特定窗口中的语音与特定语音单元相对应的似然性。在一些实施方式中,所使用的语音单位(phonetic unit)是音子(phone)或音子的分量,也被称为音素(phoneme)。在本示例中,潜在的音子被称为s0…sm。这些音子可以是语音中的各种音子中的任何一种,诸如“ah”音子、“ae”音子、“zh”音子等。音子s0…sm可以包括可能在音频波形样本321中出现的所有可能的音子,或者少于可能出现的所有音子。每个音子可以分为三种声学状态。
给定包括在音频波形样本322中的数据,神经网络输出327可以提供声学状态的预测或概率。神经网络输出329可以为每个音子的每个状态提供一个值,所述值指示声学特征向量v1表示该特定音子的特定状态的概率。例如,给定在音频波形样本321处提供的一组输入X,对于第一个音子s0,神经网络输出329可以提供指示概率P(s0_1|X)的第一值,其表明窗口w1包括音子s0的第一声学状态的概率。给定在音频波形样本321处提供的一组输入X,对于第一个音子s1,神经网络输出329可以提供指示概率P(s0_2|X)的第二值,其表明窗口w1包括音子s0的第二声学状态的概率。可以为所有音子s0…sm的所有状态提供类似的输出。
计算***320向神经网络327提供不同样本集321以接收不同窗口中的声学状态的预测或概率。计算***320可以提供表示话语的不同时间窗口的一个接一个地输入序列。通过顺序地将每个音频数据帧输入到***中,计算***320获得对在话语期间可能已经出现的音素的估计。
计算***320可以将神经网络输出329提供给例如近似隐马尔可夫模型(HMM)的加权有限状态变换器,所述加权有限状态变换器可以包括关于词典的信息,所述信息指示单词的语音单位、语法、以及指示可能的单词序列的语言模型。HMM的输出可以是可以从其导出转录330的词网格(wordlattice)。计算***320然后通过网络330将转录330提供给客户端装置310。
可以如以上所讨论的来执行对神经网络323、327的训练。通过神经网络327的前向传播在神经网络的输出层产生输出。所述输出可以与指示正确或期望的输出的数据进行比较,所述正确或期望的输出指示接收到的时频特征表示与已知声学状态相对应。确定神经网络的实际输出与正确或期望的输出之间的误差度量。所述误差然后通过神经网络被反向传播以更新神经网络327内的权重。滤波器预测神经网络323可以与神经网络327一起训练。
对于针对一组训练数据中的多个不同话语的音频波形样本生成的时频特征表示数据,可以重复此训练过程。在训练期间,被选择用于训练的帧可以从大集合中随机选择,以使得来自相同话语的帧不被连续处理。
在一些实施方式中,可以在最初检测到或记录语音的装置上执行语音识别***的处理。例如,在一些实施方式中,被描述为由计算装置320执行的处理可以在用户装置310上执行,而不通过网络发送音频数据。
图4展示了用于多声道语音识别的神经网络自适应波束成形的示例过程400。一般而言,过程400接收话语并使用神经网络识别与话语的单词相对应的可能音素。过程400将被描述为由包括一个或多个计算机的计算机***来执行,例如,图1中所示的***100或如图3中所示的***300。
所述***接收与话语相对应的音频数据的第一声道以及与所述话语相对应的音频数据的第二声道(410)。在一些实施方式中,所述***通过不同的麦克风接收第一声道和第二声道。例如,所述***可以具有在***右侧的一个麦克风以及在***右侧与第一个麦克风相距约五厘米的第二个麦克风。当用户说话时,这两个麦克风收到的用户语音的音频略有不同。在一些实施方式中,所述***可以具有多于两个的麦克风,每个麦克风都在用户讲话时接收音频数据。
使用经训练的递归神经网络,所述***(i)基于所述音频数据的多个声道而生成第一组滤波器参数,并且(ii)基于所述音频数据的多个声道而生成第二组滤波器参数(420)。在一些实施方式中,经训练的递归神经网络包括一个或多个LSTM层。在一些实施方式中,一个LSTM层从这些声道的每一个中接收音频数据。例如,第一LSTM层从第一声道和第二声道接收数据。在一些实施方式中,声道特定的LSTM层接收从每个声道接收数据的LSTM层的输出。在这种情况下,第一个LSTM分析来自这两个声道的数据以便进行波束成形。在一些实施方式中,声道特定的LSTM层的输出是用于对应的音频声道的滤波器参数。在一些实施方式中,每个声道特定的LSTM层生成不同的滤波器参数。在一些实施方式中,***将音频数据分割成多个帧并且为每个帧生成新的且有时不同的滤波器参数。
所述***将所述第一声道的所述音频数据与具有所述第一组滤波器参数的第一滤波器进行卷积以生成第一卷积输出(430)。所述***将所述第二声道的所述音频数据与具有所述第二组滤波器参数的第二滤波器进行卷积以生成第二卷积输出(440)。在所述***将音频数据分割成不同帧的一些实施方式中,***将音频数据的每一帧与对应的参数进行卷积。在一些实施方式中,第一滤波器和第二滤波器是有限脉冲响应滤波器。在所述***接收到多个音频声道的一些实施方式中,所述***根据其各自的滤波器参数来对每个音频声道进行滤波。在一些实施方式中,第一滤波器和第二滤波器执行空间滤波和频谱滤波两者。
所述***将所述第一卷积输出与所述第二卷积输出组合(450)。在一些实施方式中,所述***添加第一卷积输出和第二卷积输出。在所述***接收多个音频声道的一些实施方式中,所述***添加来自多个滤波器的多个卷积输出。
所述***将经组合的卷积输出输入到被训练为声学模型的神经网络(460)。在一些实施方式中,声学模型识别与话语相对应的音素。在一些实施方式中,被训练为声学模型的神经网络包括多个LSTM层,例如,三个LSTM层。在一些实施方式中,被训练为声学模型的神经网络包括卷积层和多个隐藏层。在一些实施方式中,卷积层执行时间卷积。在一些实施方式中,所述***不执行频率卷积。在一些实施方式中,***对卷积层的输出进行池化以生成一组池化值。在一些实施方式中,所述***将所述一组池化值提供给被训练为声学模型的神经网络的LSTM层。所述***为所述话语提供转录,所述转录是至少基于所述神经网络响应于接收到组合的卷积输出而提供的输出来确定的(470)。
在一些实施方式中,所述***将反馈机制从被训练为声学模型的神经网络的输出提供到递归神经网络。所述反馈机制允许所述***使用先前音素的信息来影响滤波器参数。在一些实施方式中,在只有音素的置信度值满足阈值时反馈才被传递到递归神经网络的意义上,反馈被门控。
在一些实施方式中,所述***包括所述***在训练阶段使用的多任务学习级。多任务学习级接收来自被训练为声学模型的神经网络的LSTM层(例如,第一LSTM层)的数据。在一些实施方式中,多任务学习级包括多个深度神经网络层(例如,两个深度神经网络层),并且可以包括多个隐藏层。多任务学习级生成干净的特征以供在作为声学模型和递归神经网络训练的神经网络的训练阶段使用。
图5示出了可以用于实施这里描述的技术的计算装置500和移动计算装置550的示例。计算装置500旨在表示各种形式的数字计算机,诸如膝上计算机、台式计算机、工作站、个人数字助理、服务器、刀片式服务器、大型机、以及其他合适的计算机。移动计算装置550旨在表示各种形式的移动装置,诸如个人数字助理、蜂窝电话、智能电话以及其他类似的计算装置。这里所示的部件、它们的连接和关系以及它们的功能仅意在作为示例,并不意味着限制。
计算装置500包括处理器502、存储器504、存储装置506、连接到存储器504和多个高速扩展端口510的高速接口508、以及连接到低速扩展端口514和存储装置506的低速接口512。处理器502、存储器504、存储装置506、高速接口508、高速扩展端口510、以及低速接口512中的每一个使用各种总线互连,并且可以安装在共同的母板上或视情况而定以其他方式安装。处理器502可以处理用于在计算装置500内执行的指令,所述指令包括存储在存储器504中或存储装置506上以在外部输入/输出装置(比如耦合到高速接口508的显示器516)上显示GUI的图形信息的指令。在其他实施方式中,可以适当地使用多个处理器和/或多个总线以及多个存储器和多种类型的存储器。而且,可以连接多个计算装置,其中,每个装置提供必要操作的一部分(例如,作为服务器组、一组刀片服务器或多处理器***)。
存储器504在计算装置500内存储信息。在一些实施方式中,存储器504是一个或多个易失性存储器单元。在一些实施方式中,存储器504是一个或多个非易失性存储器单元。存储器504还可以是另一种形式的计算机可读介质,比如磁盘或光盘。
存储装置506能够为计算装置500提供大容量存储。在一些实施方式中,存储装置506可以是或包含计算机可读介质,诸如软盘装置、硬盘装置、光盘装置或磁带装置、闪存或其他类似的固态存储器装置、或者包括存储区域网络或其他配置中的装置的装置阵列。指令可以存储在信息载体中。这些指令在由一个或多个处理装置(例如,处理器502)运行时执行一种或多种方法,诸如上述那些方法。指令还可以由诸如计算机或机器可读介质(例如,存储器504、存储装置506或处理器502上的存储器)等一个或多个存储装置来存储。
高速接口508管理计算装置500的带宽密集型操作,而低速接口512管理较低带宽密集型操作。这种功能分配只是一个示例。在一些实施方式中,高速接口508耦合到存储器504、显示器516(例如,通过图形处理器或加速器)、并且耦合到可以接受各种扩展卡的高速扩展端口510。在本实施方式中,低速接口512耦合到存储装置506和低速扩展端口514。可以包括各种通信端口(例如,USB、蓝牙、以太网、无线以太网)的低速扩展端口514可以例如通过网络适配器耦合到一个或多个输入/输出装置,诸如键盘、定点装置、扫描仪、或诸如交换机或路由器之类的网络装置。
如图所示,计算装置500可以以多种不同的形式来实施。例如,所述计算设备可以被实施为标准服务器520,或者在一组这样的服务器中被多次实施。另外,所述计算设备可以在诸如膝上型计算机522等个人计算机中实施。所述计算设备还可以被实施为机架式服务器***524的一部分。可替代地,来自计算装置500的部件可以与移动装置(比如移动计算装置550)中的其他部件组合。这些装置中的每一个可以包含计算装置500和移动计算装置550中的一个或多个,并且整个***可以由彼此通信的多个计算装置组成。
除其他部件之外,移动计算装置550包括处理器552、存储器564、诸如显示器554等输入/输出装置、通信接口566、以及收发器568。移动计算装置550还可以设置有诸如微型驱动器或其他装置等存储装置以便提供附加存储。处理器552、存储器564、显示器554、通信接口566和收发器568中的每一个使用各种总线互连,并且这些部件中的几个可以安装在共同的母板上或视情况而定以其他方式安装。
处理器552可以执行移动计算装置550内的指令,包括存储在存储器564中的指令。处理器552可以被实施为包括分离的和多个模拟处理器和数字处理器的芯片的芯片组。处理器552可以例如提供移动计算装置550的其他部件的协调,诸如用户界面的控制、由移动计算装置550运行的应用、以及移动计算装置550进行的无线通信。
处理器552可以通过耦合到显示器554的控制接口558和显示器接口556与用户通信。显示器554可以是例如TFT(薄膜晶体管液晶显示器)显示器或OLED(有机发光二极管)显示器或其他适当的显示技术。显示器接口556可以包括用于驱动显示器554以向用户呈现图形和其他信息的适当电路***。控制界面558可以接收来自用户的命令并对其进行转换以提交给出理器552。另外,外部接口562可以提供与处理器552的通信,以便实现移动计算装置550与其他装置的近区域通信。外部接口562可以例如在一些实施方式中提供有线通信,或者在其他实施方式中提供无线通信,并且还可以使用多个接口。
存储器564在移动计算装置550内存储信息。存储器564可以被实施为一个或多个计算机可读介质、一个或多个易失性存储器单元、或一个或多个非易失性存储器单元中的一者或多者。扩展存储器574还可以被提供并且通过扩展接口572连接到移动计算装置550,所述扩展接口可以包括例如SIMM(单列直插式存储器模块)卡接口。扩展存储器574可以为移动计算装置550提供额外的存储空间,或者还可以为移动计算装置550存储应用或其他信息。具体而言,扩展存储器574可以包括用于执行或补充上述过程的指令,并且还可以包括安全信息。因此,例如,扩展存储器574可以作为用于移动计算装置550的安全模块来提供,并且可以用允许安全使用移动计算装置550的指令来编程。另外,可以经由SIMM卡提供安全应用以及附加信息,比如以不可破解的方式在SIMM卡上放置识别信息。
如以下所讨论的,存储器可以包括例如闪存和/或NVRAM存储器(非易失性随机存取存储器)。在一些实施方式中,指令被存储在信息载体中。这些指令在由一个或多个处理装置(例如,处理器552)执行时执行一种或多种方法,诸如上述那些方法。指令还可以由诸如一个或多个计算机或机器可读介质(例如,存储器564、扩展存储器574或处理器552上的存储器)等一个或多个存储装置来存储。在一些实施方式中,可以例如通过收发器568或外部接口562在所传播的信号中接收指令。
移动计算装置550可以通过通信接口566进行无线通信,所述通信接口在必要时可以包括数字信号处理电路***。通信接口566可以在各种模式或协议下提供通信,诸如GSM话音呼叫(全球移动通信***)、SMS(短消息服务)、EMS(增强型消息服务)、或MMS消息(多媒体消息服务)、CDMA(码分多址)、TDMA(时分多址)、PDC(个人数字蜂窝)、WCDMA(宽带码分多址)、CDMA2000或GPRS(通用分组无线业务)等。这种通信可以例如通过使用射频的收发器568而发生。另外,短距离通信可以比如使用蓝牙、Wi-Fi或其他此类收发器而发生。另外,GPS(全球定位***)接收器模块570可以向移动计算装置550提供附加的导航相关和位置相关的无线数据,所述无线数据可以由在移动计算装置550上运行的应用在适当时使用。
移动计算装置550还可以使用音频编解码器560可听地通信,所述音频编解码器可以从用户接收口头信息并将其转换为可用的数字信息。同样地,音频编解码器560可以比如通过(例如在移动计算装置550的手持装置中的)扬声器为用户生成可听声音。这种声音可以包括来自语音电话呼叫的声音,可以包括所记录的声音(例如,话音消息、音乐文件等),并且还可以包括由在移动计算装置550上操作的应用生成的声音。
如图所示,移动计算装置550可以以多种不同的形式来实施。例如,所述移动计算设备可以被实现为蜂窝电话580。所述移动计算装置还可以被实施为智能电话582、个人数字助理或其他类似移动装置的一部分。
可以在数字电子电路***、集成电路***、专门设计的ASIC(专用集成电路)、计算机硬件、固件、软件和/或其组合中实现这里描述的***和技术的各种实施方式。这些不同的实施方式可以包括在可编程***上可执行和/或可翻译的一个或多个计算机程序中的实施方式,所述可编程***包括至少一个可编程处理器,所述至少一个可编程处理器可以是专用或通用目的、被耦合用于从存储***、至少一个输入装置和至少一个输出装置接收数据和指令并且向其传输数据和指令。
这些计算机程序(也被称为程序、软件、软件应用、或代码)包括用于可编程处理器的机器指令,并且可以通过高级程序语言和/或面对对象的编程语言和/或通过汇编/机器语言来实施。如在本文中所使用的,术语机器可读介质和计算机可读介质指的是用于将机器指令和/或数据提供给可编程处理器(包括将机器指令接收作为机器可读信号的机器可读介质)的任何计算机程序产品、设备和/或装置,例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)。术语机器可读信号指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,在此所描述的***和技术可以在具有用于向用户显示信息的显示器装置(例如,CRT(阴极射线管)或LCD(液晶显示器)监视器)以及通过其用户可以向计算机提供输入的键盘和定点装置(例如,鼠标或轨迹球)的计算机上实施。还可以使用其他种类的装置来提供与用户的交互;例如,提供给用户的反馈可以是任何形式的感官反馈(例如,视觉反馈、听觉反馈或触觉反馈);并且可以以任何形式(包括声音、语音或触觉输入)接收来自用户的输入。
在此所描述的***和技术可以在计算***中实施,所述计算***包括后端部件(例如,作为数据服务器)或包括中间件部件(例如,应用服务器)、或包括前端部件(例如,具有图形用户接口或Web浏览器的客户端计算机,用户可以通过其与在此所描述的***和技术的实施方式交互)、或这种后端部件、中间部件、或前端部件的任何组合。***的部件可以通过数字数据通信(例如,通信网络)的任何形式或介质来进行互连。通信网络的示例包括局域网(LAN)、广域网(WAN)和互联网。
计算***可以包括客户端和服务器。客户端和服务器通常远离彼此并且通常通过通信网络交互。客户端与服务器的关系借助于在各自的计算机上运行并且彼此具有客户端-服务器关系的计算机程序产生。
尽管以上已经详细描述了一些实施方式,但其他的修改是可能的。例如,尽管客户端应用被描述为访问(多个)代理,但是在其他实现中,(多个)代理可以被由一个或多个处理器实施的其他应用(比如在一个或多个服务器上执行的应用)使用。此外,在附图中描绘的逻辑流程不需要所示出的特定顺序或相继顺序来实现所希望的结果。另外,可以从所描述的流程提供其他动作或者可以消除动作,并且可以将其他部件添加到所描述的***或从所描述的***移除。因此,其他实施方式在以下权利要求书的范围内。

Claims (22)

1.一种计算机实施的方法,包括:
接收与话语相对应的音频数据的第一声道以及与所述话语相对应的音频数据的第二声道;
使用经训练的递归神经网络,(i)基于所述音频数据的第一声道和所述音频数据的第二声道而生成第一滤波器的第一组滤波器参数,并且(ii)基于所述音频数据的第一声道和所述音频数据的第二声道而生成第二滤波器的第二组滤波器参数;
通过组合(i)已经使用所述第一滤波器滤波的所述第一声道的音频数据和(ii)已经使用所述第二滤波器滤波的所述第二声道的音频数据来生成音频数据的单个组合声道;
将所述单个组合声道的音频数据输入到被训练为声学模型的神经网络;以及
为所述话语提供转录,所述转录是至少基于所述神经网络响应于接收到所述单个组合声道的音频数据而提供的输出来确定的,
其中,所述递归神经网络包括一个或多个长短期记忆层。
2.如权利要求1所述的方法,其中,所述递归神经网络包括:
第一长短期记忆层,其接收音频的第一声道和音频的第二声道两者;以及
与所述第一声道相对应的第二长短期记忆层和与所述第二声道相对应的第三长短期记忆层,所述第二长短期记忆层和所述第三长短期记忆层各自接收所述第一长短期记忆层的输出并且向相应声道提供一组滤波器参数。
3.如权利要求2所述的方法,其中,所述长短期记忆层具有在训练过程期间已经学习的参数,所述训练过程共同训练所述长短期记忆层和被训练为声学模型的神经网络。
4.如权利要求1所述的方法,包括:
为音频数据的每个输入帧改变或生成新的滤波器参数。
5.如权利要求1所述的方法,包括:
针对所述话语的音频帧序列中的每个音频帧,生成新的一组滤波器参数并将所述帧的音频数据与具有所述新的一组滤波器参数的滤波器进行卷积。
6.如权利要求1所述的方法,其中,所述第一滤波器和所述第二滤波器是有限脉冲响应滤波器。
7.如权利要求1所述的方法,其中,所述第一滤波器和所述第二滤波器具有不同的参数。
8.如权利要求1所述的方法,其中,不同的麦克风输出与不同的滤波器进行卷积。
9.如权利要求1所述的方法,其中,所述音频数据的第一声道和第二声道是所述话语的音频波形数据的第一声道和第二声道,
其中,所述音频波形的第一声道和第二声道是由彼此间隔开的不同麦克风对所述话语的记录。
10.如权利要求1所述的方法,其中,被训练为声学模型的所述神经网络包括卷积层、一个或多个长短期记忆层、以及多个隐藏层。
11.如权利要求10所述的方法,其中,被训练为声学模型的所述神经网络的所述卷积层被配置用于执行时域卷积。
12.如权利要求10所述的方法,其中,被训练为声学模型的所述神经网络被配置为使得所述卷积层的输出被池化以生成一组池化值。
13.如权利要求12所述的方法,其中,被训练为声学模型的所述神经网络被配置用于将所述池化值输入到被训练为声学模型的所述神经网络内的一个或多个长短期记忆层。
14.如权利要求1所述的方法,其中,所述第一滤波器和所述第二滤波器被配置用于执行空间滤波和频谱滤波两者。
15.如权利要求1所述的方法,包括:
将所述第一声道的音频数据与具有所述第一组滤波器参数的第一滤波器进行卷积以生成第一卷积输出;
将所述第二声道的音频数据与具有所述第二组滤波器参数的第二滤波器进行卷积以生成第二卷积输出;以及
将所述第一卷积输出与所述第二卷积输出组合。
16.如权利要求1所述的方法,其中第一滤波器和第二滤波器是时域滤波器。
17.一种用于处理多声道音频数据的***,包括:
一个或多个计算机以及存储有可操作指令的一个或多个存储装置,所述指令在由所述一个或多个计算机运行时使所述一个或多个计算机执行包括以下各项的操作:
接收与话语相对应的音频数据的第一声道以及与所述话语相对应的音频数据的第二声道;
使用经训练的递归神经网络,(i)基于所述音频数据的第一声道和所述音频数据的第二声道而生成第一滤波器的第一组滤波器参数,并且(ii)基于所述音频数据的第一声道和所述音频数据的第二声道而生成第二滤波器的第二组滤波器参数;
通过组合(i)已经使用所述第一滤波器滤波的所述第一声道的音频数据和(ii)已经使用所述第二滤波器滤波的所述第二声道的音频数据来生成音频数据的单个组合声道;
将所述单个组合声道的音频数据输入到被训练为声学模型的神经网络;以及
为所述话语提供转录,所述转录是至少基于所述神经网络响应于接收到所述单个组合声道的音频数据而提供的输出来确定的,
其中,所述递归神经网络包括一个或多个长短期记忆层。
18.如权利要求17所述的***,其中,所述递归神经网络包括:
第一长短期记忆层,接收音频的第一声道和第二声道两者;以及
与所述第一声道相对应的第二长短期记忆层和与所述第二声道相对应的第三长短期记忆层,所述第二长短期记忆层和所述第三长短期记忆层各自接收所述第一长短期记忆层的输出并且为相应声道提供一组滤波器参数。
19.如权利要求17所述的***,其中,所述操作进一步包括:
将所述第一声道的音频数据与具有所述第一组滤波器参数的第一滤波器进行卷积以生成第一卷积输出;
将所述第二声道的音频数据与具有所述第二组滤波器参数的第二滤波器进行卷积以生成第二卷积输出;以及
将所述第一卷积输出与所述第二卷积输出组合。
20.如权利要求17所述的***,其中第一滤波器和第二滤波器是时域滤波器。
21.一种非暂时性计算机可读介质,其存储包括一个或多个计算机可运行的指令的软件,当所述指令运行时,使所述一个或多个计算机执行操作,所述操作包括:
接收与话语相对应的音频数据的第一声道以及与所述话语相对应的音频数据的第二声道;
使用经训练的递归神经网络,(i)基于所述音频数据的第一声道和所述音频数据的第二声道而生成第一滤波器的第一组滤波器参数,并且(ii)基于所述音频数据的第一声道和所述音频数据的第二声道而生成第二滤波器的第二组滤波器参数;
通过组合(i)已经使用所述第一滤波器滤波的所述第一声道的音频数据和(ii)已经使用所述第二滤波器滤波的所述第二声道的音频数据来生成音频数据的单个组合声道;
将所述单个组合声道的音频数据输入到被训练为声学模型的神经网络;以及
为所述话语提供转录,所述转录是至少基于所述神经网络响应于接收到所述单个组合声道的音频数据而提供的输出来确定的,
其中,所述递归神经网络包括一个或多个长短期记忆层。
22.如权利要求21所述的非暂时性计算机可读介质,其中第一滤波器和第二滤波器是时域滤波器。
CN201680079040.7A 2016-03-23 2016-12-28 用于多声道语音识别的自适应音频增强 Active CN108463848B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911174845.1A CN111081231B (zh) 2016-03-23 2016-12-28 用于多声道语音识别的自适应音频增强

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662312053P 2016-03-23 2016-03-23
US62/312,053 2016-03-23
PCT/US2016/068800 WO2017164954A1 (en) 2016-03-23 2016-12-28 Adaptive audio enhancement for multichannel speech recognition

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201911174845.1A Division CN111081231B (zh) 2016-03-23 2016-12-28 用于多声道语音识别的自适应音频增强

Publications (2)

Publication Number Publication Date
CN108463848A CN108463848A (zh) 2018-08-28
CN108463848B true CN108463848B (zh) 2019-12-20

Family

ID=57799910

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201911174845.1A Active CN111081231B (zh) 2016-03-23 2016-12-28 用于多声道语音识别的自适应音频增强
CN201680079040.7A Active CN108463848B (zh) 2016-03-23 2016-12-28 用于多声道语音识别的自适应音频增强

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201911174845.1A Active CN111081231B (zh) 2016-03-23 2016-12-28 用于多声道语音识别的自适应音频增强

Country Status (7)

Country Link
US (4) US9886949B2 (zh)
EP (3) EP4235646A3 (zh)
JP (1) JP6480644B1 (zh)
KR (1) KR102151682B1 (zh)
CN (2) CN111081231B (zh)
RU (1) RU2698153C1 (zh)
WO (1) WO2017164954A1 (zh)

Families Citing this family (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
DE212014000045U1 (de) 2013-02-07 2015-09-24 Apple Inc. Sprach-Trigger für einen digitalen Assistenten
US9721562B2 (en) 2013-12-17 2017-08-01 Google Inc. Generating representations of acoustic sequences
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10403269B2 (en) * 2015-03-27 2019-09-03 Google Llc Processing audio waveforms
NL2015087B1 (en) * 2015-06-05 2016-09-09 Univ Amsterdam Deep receptive field networks.
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10339921B2 (en) 2015-09-24 2019-07-02 Google Llc Multichannel raw-waveform neural networks
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
KR102151682B1 (ko) * 2016-03-23 2020-09-04 구글 엘엘씨 다중채널 음성 인식을 위한 적응성 오디오 강화
US10224058B2 (en) * 2016-09-07 2019-03-05 Google Llc Enhanced multi-channel acoustic models
US10546575B2 (en) * 2016-12-14 2020-01-28 International Business Machines Corporation Using recurrent neural network for partitioning of audio data into segments that each correspond to a speech feature cluster identifier
US11133011B2 (en) * 2017-03-13 2021-09-28 Mitsubishi Electric Research Laboratories, Inc. System and method for multichannel end-to-end speech recognition
US10540961B2 (en) * 2017-03-13 2020-01-21 Baidu Usa Llc Convolutional recurrent neural networks for small-footprint keyword spotting
CN106920545B (zh) * 2017-03-21 2020-07-28 百度在线网络技术(北京)有限公司 基于人工智能的语音特征提取方法和装置
CN107068161B (zh) * 2017-04-14 2020-07-28 百度在线网络技术(北京)有限公司 基于人工智能的语音降噪方法、装置和计算机设备
CN107103903B (zh) * 2017-05-05 2020-05-29 百度在线网络技术(北京)有限公司 基于人工智能的声学模型训练方法、装置及存储介质
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
TWI767000B (zh) * 2017-05-20 2022-06-11 英商淵慧科技有限公司 產生波形之方法及電腦儲存媒體
CN107240395B (zh) * 2017-06-16 2020-04-28 百度在线网络技术(北京)有限公司 一种声学模型训练方法和装置、计算机设备、存储介质
US10381020B2 (en) * 2017-06-16 2019-08-13 Apple Inc. Speech model-based neural network-assisted signal enhancement
US11011155B2 (en) * 2017-08-01 2021-05-18 Texas Instruments Incorporated Multi-phrase difference confidence scoring
CN107785029B (zh) * 2017-10-23 2021-01-29 科大讯飞股份有限公司 目标语音检测方法及装置
US10839822B2 (en) * 2017-11-06 2020-11-17 Microsoft Technology Licensing, Llc Multi-channel speech separation
CN110444214B (zh) * 2017-11-24 2021-08-17 深圳市腾讯计算机***有限公司 语音信号处理模型训练方法、装置、电子设备及存储介质
US10546593B2 (en) * 2017-12-04 2020-01-28 Apple Inc. Deep learning driven multi-channel filtering for speech enhancement
CN108154229B (zh) * 2018-01-10 2022-04-08 西安电子科技大学 基于fpga加速卷积神经网络框架的图片处理方法
CN108108357B (zh) * 2018-01-12 2022-08-09 京东方科技集团股份有限公司 口音转换方法及装置、电子设备
JP6925995B2 (ja) * 2018-01-23 2021-08-25 株式会社東芝 信号処理装置、音声強調装置、信号処理方法およびプログラム
EP3680895B1 (en) * 2018-01-23 2021-08-11 Google LLC Selective adaptation and utilization of noise reduction technique in invocation phrase detection
US10522167B1 (en) * 2018-02-13 2019-12-31 Amazon Techonlogies, Inc. Multichannel noise cancellation using deep neural network masking
KR102235568B1 (ko) 2018-03-21 2021-04-05 한국과학기술원 합성곱 신경망 기반 환경음 인식 방법 및 시스템
US10957337B2 (en) 2018-04-11 2021-03-23 Microsoft Technology Licensing, Llc Multi-microphone speech separation
WO2019210237A1 (en) 2018-04-27 2019-10-31 Alibaba Group Holding Limited Method and system for performing machine learning
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US20190348062A1 (en) * 2018-05-08 2019-11-14 Gyrfalcon Technology Inc. System and method for encoding data using time shift in an audio/image recognition integrated circuit solution
JP7352291B2 (ja) * 2018-05-11 2023-09-28 クレプシードラ株式会社 音響装置
US10872602B2 (en) 2018-05-24 2020-12-22 Dolby Laboratories Licensing Corporation Training of acoustic models for far-field vocalization processing systems
WO2019231516A1 (en) * 2018-05-29 2019-12-05 The Trustees Of Princeton University System and method for compact, fast, and accurate lstms
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US10991379B2 (en) * 2018-06-22 2021-04-27 Babblelabs Llc Data driven audio enhancement
US10433086B1 (en) * 2018-06-25 2019-10-01 Biamp Systems, LLC Microphone array with automated adaptive beam tracking
CN109273021B (zh) * 2018-08-09 2021-11-30 厦门亿联网络技术股份有限公司 一种基于rnn的实时会议降噪方法及装置
WO2020047298A1 (en) 2018-08-30 2020-03-05 Dolby International Ab Method and apparatus for controlling enhancement of low-bitrate coded audio
KR20200028168A (ko) * 2018-09-06 2020-03-16 삼성전자주식회사 컨볼루셔널 뉴럴 네트워크를 이용하는 컴퓨팅 장치 및 그 동작 방법
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
CN109171774B (zh) * 2018-09-30 2021-07-06 合肥工业大学 基于多通道数据的人格分析方法和***
US11869482B2 (en) 2018-09-30 2024-01-09 Microsoft Technology Licensing, Llc Speech waveform generation
US11475898B2 (en) * 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
CN109378010A (zh) * 2018-10-29 2019-02-22 珠海格力电器股份有限公司 神经网络模型的训练方法、语音去噪方法及装置
US10887467B2 (en) 2018-11-20 2021-01-05 Shure Acquisition Holdings, Inc. System and method for distributed call processing and audio reinforcement in conferencing environments
KR102418887B1 (ko) * 2018-11-20 2022-07-11 한국전자통신연구원 음성 인식을 위한 음향 모델 학습 장치 및 그 학습 방법
JP7407580B2 (ja) * 2018-12-06 2024-01-04 シナプティクス インコーポレイテッド システム、及び、方法
CN109658949A (zh) * 2018-12-29 2019-04-19 重庆邮电大学 一种基于深度神经网络的语音增强方法
CN111476257A (zh) * 2019-01-24 2020-07-31 富士通株式会社 信息处理方法和信息处理装置
CN111627425B (zh) * 2019-02-12 2023-11-28 阿里巴巴集团控股有限公司 一种语音识别方法及***
US10971168B2 (en) * 2019-02-21 2021-04-06 International Business Machines Corporation Dynamic communication session filtering
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11670292B2 (en) * 2019-03-29 2023-06-06 Sony Corporation Electronic device, method and computer program
EP3726529A1 (en) * 2019-04-16 2020-10-21 Fraunhofer Gesellschaft zur Förderung der Angewand Method and apparatus for determining a deep filter
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
KR20200132613A (ko) * 2019-05-16 2020-11-25 삼성전자주식회사 웨이크 언 보이스(Wake on Voice, WoV) 기술을 이용한 음성 인식 수행 방법 및 장치
WO2020231151A1 (en) * 2019-05-16 2020-11-19 Samsung Electronics Co., Ltd. Electronic device and method of controlling thereof
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
CN110288981B (zh) * 2019-07-03 2020-11-06 百度在线网络技术(北京)有限公司 用于处理音频数据的方法和装置
CN110610715B (zh) * 2019-07-29 2022-02-22 西安工程大学 一种基于cnn-dnn混合神经网络的降噪方法
US11659332B2 (en) 2019-07-30 2023-05-23 Dolby Laboratories Licensing Corporation Estimating user location in a system including smart audio devices
JP7290507B2 (ja) * 2019-08-06 2023-06-13 本田技研工業株式会社 情報処理装置、情報処理方法、認識モデルならびにプログラム
CN110517703B (zh) * 2019-08-15 2021-12-07 北京小米移动软件有限公司 一种声音采集方法、装置及介质
JP7191793B2 (ja) * 2019-08-30 2022-12-19 株式会社東芝 信号処理装置、信号処理方法、及びプログラム
CN110600017B (zh) * 2019-09-12 2022-03-04 腾讯科技(深圳)有限公司 语音处理模型的训练方法、语音识别方法、***及装置
CN112598107A (zh) * 2019-10-01 2021-04-02 创鑫智慧股份有限公司 数据处理***及其数据处理方法
CN111446997B (zh) * 2019-10-21 2021-09-14 清华大学 基于深度学习的自适应数字波束合成方法
CN110867192A (zh) * 2019-10-23 2020-03-06 北京计算机技术及应用研究所 基于门控循环编解码网络的语音增强方法
KR20210053020A (ko) * 2019-11-01 2021-05-11 삼성전자주식회사 전자 장치 및 그 동작 방법
US11508388B1 (en) * 2019-11-22 2022-11-22 Apple Inc. Microphone array based deep learning for time-domain speech signal extraction
CN110992974B (zh) * 2019-11-25 2021-08-24 百度在线网络技术(北京)有限公司 语音识别方法、装置、设备以及计算机可读存储介质
CN111178398B (zh) * 2019-12-13 2023-08-22 天翼商业保理有限公司 检测身份证图像信息篡改的方法、***、存储介质及装置
US11064294B1 (en) 2020-01-10 2021-07-13 Synaptics Incorporated Multiple-source tracking and voice activity detections for planar microphone arrays
WO2021205494A1 (ja) * 2020-04-06 2021-10-14 日本電信電話株式会社 信号処理装置、信号処理方法、およびプログラム
US11740268B2 (en) * 2020-05-01 2023-08-29 University Of South Carolina Predictive zero phase filtering
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
KR102366939B1 (ko) * 2020-06-02 2022-02-24 주식회사 다온아시아 언어변환 기능을 갖는 플랫폼 제공방법
US11410652B2 (en) * 2020-07-06 2022-08-09 Tencent America LLC Multi-look enhancement modeling and application for keyword spotting
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
CN111916101B (zh) * 2020-08-06 2022-01-21 大象声科(深圳)科技有限公司 一种融合骨振动传感器和双麦克风信号的深度学习降噪方法及***
RU2754920C1 (ru) * 2020-08-17 2021-09-08 Автономная некоммерческая организация поддержки и развития науки, управления и социального развития людей в области разработки и внедрения искусственного интеллекта "ЦифровойТы" Способ синтеза речи с передачей достоверного интонирования клонируемого образца
CN112435652A (zh) * 2020-09-29 2021-03-02 江苏清微智能科技有限公司 一种基于图卷积神经网络的语音关键词识别***及方法
US11694692B2 (en) 2020-11-11 2023-07-04 Bank Of America Corporation Systems and methods for audio enhancement and conversion
CN112491442B (zh) * 2020-11-17 2021-12-28 中山大学 一种自干扰消除方法及装置
US11900902B2 (en) * 2021-04-12 2024-02-13 Adobe Inc. Deep encoder for performing audio processing
US11514927B2 (en) * 2021-04-16 2022-11-29 Ubtech North America Research And Development Center Corp System and method for multichannel speech detection
CN113362847A (zh) * 2021-05-26 2021-09-07 北京小米移动软件有限公司 音频信号处理方法及装置、存储介质
US11805360B2 (en) * 2021-07-21 2023-10-31 Qualcomm Incorporated Noise suppression using tandem networks
CN113744751B (zh) * 2021-08-16 2024-05-17 清华大学苏州汽车研究院(相城) 一种应用于麦克风阵列的多通道语音信号增强方法
CN113823311B (zh) * 2021-08-19 2023-11-21 广州市盛为电子有限公司 基于音频增强的语音识别方法及装置
CN113724733B (zh) * 2021-08-31 2023-08-01 上海师范大学 生物声音事件检测模型训练方法、声音事件的检测方法
CN113724713A (zh) * 2021-09-07 2021-11-30 科大讯飞股份有限公司 一种语音识别方法、装置、设备及存储介质
US11785409B1 (en) * 2021-11-18 2023-10-10 Amazon Technologies, Inc. Multi-stage solver for acoustic wave decomposition
CN114374912B (zh) * 2021-12-10 2023-01-06 北京百度网讯科技有限公司 语音输入的方法、装置、电子设备和介质
EP4207812A1 (en) * 2021-12-29 2023-07-05 Sonova AG Method for audio signal processing on a hearing system, hearing system and neural network for audio signal processing
CN117690435A (zh) * 2024-02-04 2024-03-12 深圳市索迪新创科技有限公司 用于窗帘控制的智能语音识别电开关

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103811010A (zh) * 2010-02-24 2014-05-21 弗劳恩霍夫应用研究促进协会 产生增强下混频信号的装置、产生增强下混频信号的方法以及计算机程序

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10274994A (ja) * 1997-01-30 1998-10-13 Seiko Epson Corp 類似単語識別方法およびその装置
JP2996926B2 (ja) * 1997-03-11 2000-01-11 株式会社エイ・ティ・アール音声翻訳通信研究所 音素シンボルの事後確率演算装置及び音声認識装置
US6202049B1 (en) * 1999-03-09 2001-03-13 Matsushita Electric Industrial Co., Ltd. Identification of unit overlap regions for concatenative speech synthesis system
EP1450350A1 (en) * 2003-02-20 2004-08-25 Sony International (Europe) GmbH Method for Recognizing Speech with attributes
US20070083365A1 (en) * 2005-10-06 2007-04-12 Dts, Inc. Neural network classifier for separating audio sources from a monophonic audio signal
JP4532576B2 (ja) * 2008-05-08 2010-08-25 トヨタ自動車株式会社 処理装置、音声認識装置、音声認識システム、音声認識方法、及び音声認識プログラム
US10354650B2 (en) * 2012-06-26 2019-07-16 Google Llc Recognizing speech with mixed speech recognition models to generate transcriptions
US9263036B1 (en) * 2012-11-29 2016-02-16 Google Inc. System and method for speech recognition using deep recurrent neural networks
US9984675B2 (en) * 2013-05-24 2018-05-29 Google Technology Holdings LLC Voice controlled audio recording system with adjustable beamforming
US9269350B2 (en) * 2013-05-24 2016-02-23 Google Technology Holdings LLC Voice controlled audio recording or transmission apparatus with keyword filtering
US9196246B2 (en) 2013-06-14 2015-11-24 Mitsubishi Electric Research Laboratories, Inc. Determining word sequence constraints for low cognitive speech recognition
US9159317B2 (en) 2013-06-14 2015-10-13 Mitsubishi Electric Research Laboratories, Inc. System and method for recognizing speech
US10438581B2 (en) * 2013-07-31 2019-10-08 Google Llc Speech recognition using neural networks
US10867597B2 (en) * 2013-09-02 2020-12-15 Microsoft Technology Licensing, Llc Assignment of semantic labels to a sequence of words using neural network architectures
US9286883B1 (en) * 2013-09-26 2016-03-15 Amazon Technologies, Inc. Acoustic echo cancellation and automatic speech recognition with random noise
US9286897B2 (en) * 2013-09-27 2016-03-15 Amazon Technologies, Inc. Speech recognizer with multi-directional decoding
US9239828B2 (en) * 2013-12-05 2016-01-19 Microsoft Technology Licensing, Llc Recurrent conditional random fields
US9721562B2 (en) * 2013-12-17 2017-08-01 Google Inc. Generating representations of acoustic sequences
US20150228277A1 (en) * 2014-02-11 2015-08-13 Malaspina Labs (Barbados), Inc. Voiced Sound Pattern Detection
US9390712B2 (en) * 2014-03-24 2016-07-12 Microsoft Technology Licensing, Llc. Mixed speech recognition
US9477895B2 (en) 2014-03-31 2016-10-25 Mitsubishi Electric Research Laboratories, Inc. Method and system for detecting events in an acoustic signal subject to cyclo-stationary noise
US10181098B2 (en) * 2014-06-06 2019-01-15 Google Llc Generating representations of input sequences using neural networks
CN106537489B (zh) 2014-07-22 2020-01-17 三菱电机株式会社 用于识别包括单词序列的语音的方法和***
US9582753B2 (en) 2014-07-30 2017-02-28 Mitsubishi Electric Research Laboratories, Inc. Neural networks for transforming signals
US9881631B2 (en) 2014-10-21 2018-01-30 Mitsubishi Electric Research Laboratories, Inc. Method for enhancing audio signal using phase information
CN104538028B (zh) * 2014-12-25 2017-10-17 清华大学 一种基于深度长短期记忆循环神经网络的连续语音识别方法
CN104700828B (zh) * 2015-03-19 2018-01-12 清华大学 基于选择性注意原理的深度长短期记忆循环神经网络声学模型的构建方法
US9697826B2 (en) * 2015-03-27 2017-07-04 Google Inc. Processing multi-channel audio waveforms
US9865265B2 (en) * 2015-06-06 2018-01-09 Apple Inc. Multi-microphone speech recognition systems and related techniques
US9368110B1 (en) 2015-07-07 2016-06-14 Mitsubishi Electric Research Laboratories, Inc. Method for distinguishing components of an acoustic signal
US9842106B2 (en) 2015-12-04 2017-12-12 Mitsubishi Electric Research Laboratories, Inc Method and system for role dependent context sensitive spoken and textual language understanding with neural networks
US10176799B2 (en) 2016-02-02 2019-01-08 Mitsubishi Electric Research Laboratories, Inc. Method and system for training language models to reduce recognition errors
KR102151682B1 (ko) * 2016-03-23 2020-09-04 구글 엘엘씨 다중채널 음성 인식을 위한 적응성 오디오 강화
US10224058B2 (en) * 2016-09-07 2019-03-05 Google Llc Enhanced multi-channel acoustic models
US10140980B2 (en) * 2016-12-21 2018-11-27 Google LCC Complex linear projection for acoustic modeling

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103811010A (zh) * 2010-02-24 2014-05-21 弗劳恩霍夫应用研究促进协会 产生增强下混频信号的装置、产生增强下混频信号的方法以及计算机程序

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Deep beamforming networks for multi-channel speech recognition";XIAO XIONG ET AL;《2016 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS,SPEECH AND SIGNAL PROCESSING (ICASSP) IEEE(2016-03-20), XP032901704, DOI: 10.1109/ICASSP.2016.7472778》;20160320;5745-5749 *
Speaker location and microphone spacing invariant acoustic modeling from raw multichannel waveforms;SAINATH TARA N ET AL;《2015 IEEE WORKSHOP ON AUTOMATIC SPEECH RECOGNITION AND UNDERSTANDING (ASRU), IEEE, (2015-12-13), XP032863568,DOI: 10.1109/ASRU.2015.7404770》;20151213;全文 *

Also Published As

Publication number Publication date
US20170278513A1 (en) 2017-09-28
CN111081231A (zh) 2020-04-28
US9886949B2 (en) 2018-02-06
JP6480644B1 (ja) 2019-03-13
JP2019508730A (ja) 2019-03-28
EP4235646A3 (en) 2023-09-06
US11756534B2 (en) 2023-09-12
US10515626B2 (en) 2019-12-24
EP4235646A2 (en) 2023-08-30
EP3381033B1 (en) 2020-08-12
KR20180095886A (ko) 2018-08-28
CN111081231B (zh) 2023-09-05
US20200118553A1 (en) 2020-04-16
KR102151682B1 (ko) 2020-09-04
WO2017164954A1 (en) 2017-09-28
US11257485B2 (en) 2022-02-22
EP3381033A1 (en) 2018-10-03
RU2698153C1 (ru) 2019-08-22
US20180197534A1 (en) 2018-07-12
US20220148582A1 (en) 2022-05-12
EP3739574A1 (en) 2020-11-18
EP3739574B1 (en) 2023-09-13
CN108463848A (zh) 2018-08-28

Similar Documents

Publication Publication Date Title
CN108463848B (zh) 用于多声道语音识别的自适应音频增强
US9697826B2 (en) Processing multi-channel audio waveforms
US11783849B2 (en) Enhanced multi-channel acoustic models
US10930270B2 (en) Processing audio waveforms
Qian et al. Speech Enhancement Using Bayesian Wavenet.
Delcroix et al. Strategies for distant speech recognitionin reverberant environments
Weninger et al. Feature enhancement by deep LSTM networks for ASR in reverberant multisource environments
Xiao et al. Speech dereverberation for enhancement and recognition using dynamic features constrained deep neural networks and feature adaptation
US11699453B2 (en) Adaptive multichannel dereverberation for automatic speech recognition
Aroudi et al. Dbnet: Doa-driven beamforming network for end-to-end reverberant sound source separation
Sainath et al. Raw multichannel processing using deep neural networks
US11521635B1 (en) Systems and methods for noise cancellation
Himawan et al. Feature mapping using far-field microphones for distant speech recognition
Krueger et al. Bayesian Feature Enhancement for ASR of Noisy Reverberant Real-World Data.
Martín Doñas Online multichannel speech enhancement combining statistical signal processing and deep neural networks
Takahashi et al. Soft missing-feature mask generation for simultaneous speech recognition system in robots.
Novoa et al. On combining features for single-channel robust speech recognition in reverberant environments
Wakabayashi et al. Dereverberation using denoising deep auto encoder with harmonic structure
Kleinschmidt et al. A likelihood-maximizing framework for enhanced in-car speech recognition based on speech dialog system interaction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant