CN108564963B - 用于增强语音的方法和装置 - Google Patents
用于增强语音的方法和装置 Download PDFInfo
- Publication number
- CN108564963B CN108564963B CN201810367680.9A CN201810367680A CN108564963B CN 108564963 B CN108564963 B CN 108564963B CN 201810367680 A CN201810367680 A CN 201810367680A CN 108564963 B CN108564963 B CN 108564963B
- Authority
- CN
- China
- Prior art keywords
- channel
- domain speech
- frequency domain
- speech
- time domain
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000002708 enhancing effect Effects 0.000 title claims abstract description 123
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000010606 normalization Methods 0.000 claims abstract description 40
- 238000012545 processing Methods 0.000 claims abstract description 27
- 230000000873 masking effect Effects 0.000 claims description 86
- 238000012549 training Methods 0.000 claims description 28
- 239000011159 matrix material Substances 0.000 claims description 21
- 230000003595 spectral effect Effects 0.000 claims description 19
- 230000009466 transformation Effects 0.000 claims description 14
- 238000001914 filtration Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 3
- 238000001228 spectrum Methods 0.000 claims description 3
- 239000004568 cement Substances 0.000 abstract description 6
- 230000006854 communication Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000005291 magnetic effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000005314 correlation function Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000017105 transposition Effects 0.000 description 2
- 241000209140 Triticum Species 0.000 description 1
- 235000021307 Triticum Nutrition 0.000 description 1
- 238000005311 autocorrelation function Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0224—Processing in the time domain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0212—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L2021/02082—Noise filtering the noise being echo, reverberation of the speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L2021/02161—Number of inputs available containing the signal or the noise to be suppressed
- G10L2021/02166—Microphone arrays; Beamforming
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
本申请实施例公开了用于增强语音的方法和装置。该方法的一具体实施方式包括:获取麦克风阵列采集的多个通道的时域语音;基于多个通道的时域语音,生成至少一个通道的频域语音;对至少一个通道的频域语音进行分析,得到至少一个通道的频域语音的归一化增强系数;利用至少一个通道的频域语音的归一化增强系数对至少一个通道的频域语音进行增强处理,得到至少一个通道的增强频域语音;对至少一个通道的增强频域语音进行逆傅立叶变换,得到至少一个通道的增强时域语音。该实施方式实现了富于针对性地语音增强,有助于消除语音中的噪声和室内混响,提高语音识别的准确度。
Description
技术领域
本申请实施例涉及计算机技术领域,具体涉及用于增强语音的方法和装置。
背景技术
随着现代科学的蓬勃发展,通信或信息交换已成为人类社会存在的必要条件,而语音作为语言的声学表现,是人类交流信息最自然、最有效、最方便的手段之一。
然而,在语音通信过程中,不可避免地会受到来自周围环境、传媒介质引入的噪声、室内混响、乃至其他讲话者的干扰。这些噪声会使语音的质量和可懂度受到影响,因此在许多通话应用中都需要进行有效的语音增强处理,以抑制噪声,去除室内混响,提高语音清晰度、可懂度和舒适度。
目前常用的语音增强方法是基于延迟-加和(delay-sum)的语音增强方法。利用多个麦克风接收语音信号,采用延迟-加和方法进行时延补偿,形成具有指向性的空间波束,对指定方向上的语音进行增强。
发明内容
本申请实施例提出了用于增强语音的方法和装置。
第一方面,本申请实施例提供了一种用于增强语音的方法,包括:获取麦克风阵列采集的多个通道的时域语音;基于多个通道的时域语音,生成至少一个通道的频域语音;对至少一个通道的频域语音进行分析,得到至少一个通道的频域语音的归一化增强系数;利用至少一个通道的频域语音的归一化增强系数对至少一个通道的频域语音进行增强处理,得到至少一个通道的增强频域语音;对至少一个通道的增强频域语音进行逆傅立叶变换,得到至少一个通道的增强时域语音。
在一些实施例中,基于多个通道的时域语音,生成至少一个通道的频域语音,包括:对多个通道的时域语音进行滤波,得到至少一个通道的时域语音;对至少一个通道的时域语音进行傅立叶变换,得到至少一个通道的频域语音。
在一些实施例中,对多个通道的时域语音进行滤波,得到至少一个通道的时域语音,包括:计算多个通道中的通道与其他通道之间的距离之和;基于所计算出的和对多个通道的时域语音进行滤波,得到至少一个通道的时域语音。
在一些实施例中,对至少一个通道的时域语音进行傅立叶变换,得到至少一个通道的频域语音,包括:对于至少一个通道的时域语音中的每个通道的时域语音,对该通道的时域语音进行加窗分帧处理,得到该通道的时域语音的多帧时域语音段,对该通道的时域语音的多帧时域语音段进行短时傅立叶变换,得到至少一个通道的频域语音。
在一些实施例中,对至少一个通道的频域语音进行分析,得到至少一个通道的频域语音的归一化增强系数,包括:对至少一个通道的频域语音进行掩蔽阈值估计,得到至少一个通道的频域语音的掩蔽阈值;对至少一个通道的频域语音的掩蔽阈值进行分析,生成至少一个通道的频域语音中的信号和噪声的功率谱密度矩阵;利用至少一个通道的频域语音中的信号和噪声的功率谱密度矩阵极小化与多个通道的时域语音对应的输出语音的信噪比,得到至少一个通道的频域语音的增强系数;对至少一个通道的频域语音的增强系数进行归一化处理,得到至少一个通道的频域语音的归一化增强系数。
在一些实施例中,对至少一个通道的频域语音进行掩蔽阈值估计,得到至少一个通道的频域语音的掩蔽阈值,包括:将至少一个通道的频域语音依次输入至预先训练的掩蔽阈值预估模型,得到至少一个通道的频域语音的掩蔽阈值,其中,掩蔽阈值预估模型用于预估频域语音的掩蔽阈值。
在一些实施例中,掩蔽阈值预估模型包括两个一维卷积层、两个门控循环单元和一个全连接层。
在一些实施例中,掩蔽阈值预估模型是通过如下步骤训练得到的:获取训练样本集合,其中,训练样本包括样本频域语音和样本频域语音的掩蔽阈值;将训练样本集合中的样本频域语音作为输入,将输入的样本频域语音的掩蔽阈值作为输出,训练得到掩蔽阈值预估模型。
第二方面,本申请实施例提供了一种用于增强语音的装置,包括:获取单元,被配置成获取麦克风阵列采集的多个通道的时域语音;变换单元,被配置成基于多个通道的时域语音,生成至少一个通道的频域语音;分析单元,被配置成对至少一个通道的频域语音进行分析,得到至少一个通道的频域语音的归一化增强系数;增强单元,被配置成利用至少一个通道的频域语音的归一化增强系数对至少一个通道的频域语音进行增强处理,得到至少一个通道的增强频域语音;逆变换单元,被配置成对至少一个通道的增强频域语音进行逆傅立叶变换,得到至少一个通道的增强时域语音。
在一些实施例中,变换单元包括:滤波子单元,被配置成对多个通道的时域语音进行滤波,得到至少一个通道的时域语音;变换子单元,被配置成对至少一个通道的时域语音进行傅立叶变换,得到至少一个通道的频域语音。
在一些实施例中,滤波子单元包括:计算模块,被配置成计算多个通道中的通道与其他通道之间的距离之和;滤波模块,被配置成基于所计算出的和对多个通道的时域语音进行滤波,得到至少一个通道的时域语音。
在一些实施例中,变换子单元进一步被配置成:对于至少一个通道的时域语音中的每个通道的时域语音,对该通道的时域语音进行加窗分帧处理,得到该通道的时域语音的多帧时域语音段,对该通道的时域语音的多帧时域语音段进行短时傅立叶变换,得到至少一个通道的频域语音。
在一些实施例中,分析单元包括:估计子单元,被配置成对至少一个通道的频域语音进行掩蔽阈值估计,得到至少一个通道的频域语音的掩蔽阈值;分析子单元,被配置成对至少一个通道的频域语音的掩蔽阈值进行分析,生成至少一个通道的频域语音中的信号和噪声的功率谱密度矩阵;极小化子单元,被配置成利用至少一个通道的频域语音中的信号和噪声的功率谱密度矩阵极小化与多个通道的时域语音对应的输出语音的信噪比,得到至少一个通道的频域语音的增强系数;归一化子单元,被配置成对至少一个通道的频域语音的增强系数进行归一化处理,得到至少一个通道的频域语音的归一化增强系数。
在一些实施例中,估计子单元进一步被配置成:将至少一个通道的频域语音依次输入至预先训练的掩蔽阈值预估模型,得到至少一个通道的频域语音的掩蔽阈值,其中,掩蔽阈值预估模型用于预估频域语音的掩蔽阈值。
在一些实施例中,掩蔽阈值预估模型包括两个一维卷积层、两个门控循环单元和一个全连接层。
在一些实施例中,掩蔽阈值预估模型是通过如下步骤训练得到的:获取训练样本集合,其中,训练样本包括样本频域语音和样本频域语音的掩蔽阈值;将训练样本集合中的样本频域语音作为输入,将输入的样本频域语音的掩蔽阈值作为输出,训练得到掩蔽阈值预估模型。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括:一个或多个处理器;存储装置,其上存储有一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本申请实施例提供的用于增强语音的方法和装置,通过对麦克风阵列采集的多个通道的时域语音进行变换,从而得到至少一个通道的频域语音;之后,对至少一个通道的频域语音进行分析,以得到至少一个通道的频域语音的归一化增强系数;然后,利用至少一个通道的频域语音的归一化增强系数对至少一个通道的频域语音进行增强处理,以得到至少一个通道的增强频域语音;最后,对至少一个通道的增强频域语音进行逆傅立叶变换,从而得到至少一个通道的增强时域语音。实现了富于针对性地语音增强,有助于消除语音中的噪声和室内混响,提高语音识别的准确度。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性***架构;
图2是根据本申请的用于增强语音的方法的一个实施例的流程图;
图3是图2所提供的用于增强语音的方法的一个应用场景的流程图;
图4是根据本申请的用于增强语音的方法的又一个实施例的流程图;
图5是根据本申请的用于增强语音的装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的电子设备的计算机***的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于增强语音的方法或用于增强语音的装置的实施例的示例性***架构100。
如图1所示,***架构100中可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
终端设备101、102、103可以通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是内置有麦克风阵列的各种电子设备,包括但不限于智能音箱、智能手机、平板电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上传的语音进行增强的语音增强服务器。语音增强服务器可以对接收到的麦克风阵列采集的多个通道的时域语音等进行分析等处理,并生成处理结果(例如至少一个通道的增强时域语音)。
需要说明的是,服务器105可以是硬件,也可以是软件。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器105为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本申请实施例所提供的用于增强语音的方法一般由服务器105执行,相应地,用于增强语音的装置一般设置于服务器105中。特殊情况下,本申请实施例所提供的用于增强语音的方法还可以由终端设备101、102、103执行,相应地,用于增强语音的装置设置于终端设备101、102、103中。此时,***架构100中可以不设置服务器105。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,其示出了根据本申请的用于增强语音的方法的一个实施例的流程200。该用于增强语音的方法,包括以下步骤:
步骤201,获取麦克风阵列采集的多个通道的时域语音。
在本实施例中,用于增强语音的方法的执行主体(例如图1所示的服务器105)可以通过有线连接方式或者无线连接方式从终端设备(例如图1所示的终端设备101、102、103)获取其内置的麦克风阵列采集的多个通道的时域语音。其中,麦克风阵列(MicrophoneArray)可以是由一定数目的声学传感器(一般是麦克风)组成,用来对声场的空间特性进行采样并处理的***。通常,一个麦克风可以采集一个通道的时域语音。时域语音可以描述语音信号对时间的关系。例如,一个语音信号的时域波形可以表达语音信号随着时间的变化。
步骤202,基于多个通道的时域语音,生成至少一个通道的频域语音。
在本实施例中,基于步骤201所获取的多个通道的时域语音信号,上述执行主体可以生成至少一个通道的频域语音。这里,上述执行主体可以首先从多个通道的时域语音中过滤掉效果不好的通道的时域语音,然后对保留的通道的时域语音进行傅立叶变换,从而生成保留的通道的频域语音。当然,上述执行主体也可以对多个通道的时域信号直接进行傅立叶变换,从而生成多个通道的频域语音。其中,一个通道的时域语音可以变换为一个通道的频域语音。频域语音是描述语音信号在频率方面特性时用到的一种坐标系。语音信号从时间域变换到频率域主要通过傅立叶级数和傅立叶变换实现。周期信号靠傅立叶级数,非周期信号靠傅立叶变换。通常,语音信号的时域越宽,其频域越短。
步骤203,对至少一个通道的频域语音进行分析,得到至少一个通道的频域语音的归一化增强系数。
在本实施例中,上述执行主体可以对至少一个通道的频域语音进行分析,从而得到至少一个通道的频域语音的归一化增强系数。例如,上述执行主体可以对至少一个通道中的每个通道的频域语音的频率、振幅、相位等进行分析,从而确定出每个通道的频域语音的所具有的特征;对每个通道的频域语音所具有的特征进行分析,从而确定音源的方位;根据音源的方位与麦克风阵列中的麦克风的方位的相对位置关系,确定每个通道的频域语音的归一化增强系数。通常情况下,一个通道的频域语音的归一化增强系数与采集该通道的时域语音的麦克风的方位存在一定的关系。例如,若一个麦克风的方位正对音源的方位,那么这个麦克风所对应的通道的频域语音的归一化增强系数就比较大;若一个麦克风的方位背对音源的方位,那么这个麦克风所对应的通道的频域语音的归一化增强系数就比较小。
步骤204,利用至少一个通道的频域语音的归一化增强系数对至少一个通道的频域语音进行增强处理,得到至少一个通道的增强频域语音。
在本实施例中,上述执行主体可以利用至少一个通道的频域语音的归一化增强系数对至少一个通道的频域语音进行增强处理,从而得到至少一个通道的增强频域语音。作为示例,对于至少一个通道中的每个通道,上述执行主体可以将该通道的频域语音的归一化增强系数作用于该通道的频域语音(例如归一化增强系数乘以频域语音),从而得到该通道的增强频域语音。
步骤205,对至少一个通道的增强频域语音进行逆傅立叶变换,得到至少一个通道的增强时域语音。
在本实施例中,对于至少一个通道中的每个通道的增强频域语音进行逆傅立叶变换,从而得到每个通道的增强时域语音。其中,一个通道的频域语音可以变换为一个通道的时域语音。语音信号从频率域变换到时间域主要通过逆傅立叶变换实现。
继续参见图3,图3是根据本实施例的用于增强语音的方法的应用场景的一个流程300。在图3的应用场景中,如301所示,用户在房间内向智能音箱说出语音“播放歌曲名为《AA》的歌曲”;如302所示,智能音箱内置的麦克风阵列采集用户发出的语音,转换为多个通道的时域语音;如303所示,智能音箱对多个通道的时域语音进行傅立叶变换,得到多个通道的频域语音;如304所示,智能音箱对多个通道的频域语音所具有的特征进行分析,得到多个通道的频域语音的归一化增强系数;如305所示,智能音箱利用多个通道的频域语音的归一化增强系数对多个通道的频域语音进行增强处理,得到多个通道的增强频域语音;如306所示,智能音箱对多个通道的增强频域语音进行逆傅立叶变换,得到多个通道的增强时域语音;如307所示,智能音箱对多个通道的增强时域语音进行语音识别,准确地识别出用户说出的语音“播放歌曲名为《AA》的歌曲”;如308所示,智能音箱播放歌曲名为《AA》的歌曲。
本申请实施例提供的用于增强语音的方法和装置,通过对麦克风阵列采集的多个通道的时域语音进行变换,从而得到至少一个通道的频域语音;之后,对至少一个通道的频域语音进行分析,以得到至少一个通道的频域语音的归一化增强系数;然后,利用至少一个通道的频域语音的归一化增强系数对至少一个通道的频域语音进行增强处理,以得到至少一个通道的增强频域语音;最后,对至少一个通道的增强频域语音进行逆傅立叶变换,从而得到至少一个通道的增强时域语音。实现了富于针对性地语音增强,有助于消除语音中的噪声和室内混响,提高语音识别的准确度。
进一步参考图4,其示出了根据本申请的用于增强语音的方法的又一个实施例的流程400。该用于增强语音的方法,包括以下步骤:
步骤401,获取麦克风阵列采集的多个通道的时域语音。
在本实施例中,步骤401的具体操作与图2所示的实施例中步骤201的操作基本相同,在此不再赘述。
步骤402,对多个通道的时域语音进行滤波,得到至少一个通道的时域语音。
在本实施例中,用于增强语音的方法的执行主体(例如图1所示的服务器105)可以对麦克风阵列采集的多个通道的时域语音进行滤波,过滤掉效果不好的通道的时域语音,保留效果较好的至少一个通道的时域语音。其中,滤波(Wave filtering)是将信号中特定波段频率滤除的操作,是抑制和防止干扰的一项重要措施。通常,不在特定波段频率的通道的时域语音是效果不好的通道的时域语音;在特定波段频率的通道的时域语音是效果较好的通道的时域语音。
在本实施例的一些可选的实现方式中,上述执行主体可以将多个通道的时域语音输入维纳滤波器,从而输出至少一个通道的时域语音。其中,维纳滤波器(wiener filter)是一种以最小平方为最优准则的线性滤波器。这种滤波器的输出与期望输出之间的均方误差最小,因此,它是一个最佳滤波***。它可用于提取被平稳噪声所污染的信号。通常,为使均方误差最小,关键在于求冲激响应。如果能够满足维纳-霍夫方程,就可使维纳滤波器达到最佳。根据维纳-霍夫方程,最佳维纳滤波器的冲激响应,完全由输入自相关函数以及输入与期望输出的互相关函数所决定。作为示例,上述执行主体可以首先将两个通道之间的距离定义为互相关函数;之后计算多个通道中的任意两个通道之间的距离;然后计算多个通道中的每个通道与其他通道之间的距离之和;最后基于所计算出的和对多个通道的时域语音进行滤波,从而得到至少一个通道的时域语音。通常,若一个通道与其他通道之间的距离之和越大,该通道的时域语音的质量越高。因此,可以预先设置需要过滤掉的通道的数目,然后按照所计算的和的大小对多个通道的时域语音进行排序,最后从所计算的和较小的一侧开始,删除掉预设数目个通道的时域语音,从而保留至少一个通道的时域语音。
步骤403,对至少一个通道的时域语音进行傅立叶变换,得到至少一个通道的频域语音。
在本实施例中,上述执行主体可以对至少一个通道的时域语音进行傅立叶变换,从而得到至少一个通道的频域语音。
在本实施例的一些可选的实现方式中,对于至少一个通道的时域语音中的每个通道的时域语音,上述执行主体可以首先对该通道的时域语音进行加窗分帧处理,从而得到该通道的时域语音的多帧时域语音段;然后对该通道的时域语音的多帧时域语音段进行短时傅立叶变换,从而得到至少一个通道的频域语音。例如,可以按照帧长400个采样点,步长160个采样点进行分帧处理。可以利用汉明窗(hamming)进行加窗处理。
步骤404,对至少一个通道的频域语音进行掩蔽阈值估计,得到至少一个通道的频域语音的掩蔽阈值。
在本实施例中,上述执行主体可以对至少一个通道的频域语音进行掩蔽阈值估计,从而得到至少一个通道的频域语音的掩蔽阈值(mask)。这里,上述执行主体可以通过分析频域语音的听觉掩蔽效应,从而确定频域语音的掩蔽阈值。其中,掩蔽效应是指由于出现多个同一类别(如声音、图像)的刺激,导致被试不能完整接受全部刺激的信息。听觉中的掩蔽效应指人的耳朵只对最明显的声音反应敏感,而对于不明显的声音,反应则较不为敏感。听觉掩蔽效应主要包括噪声、人耳、频域、时域和时间掩蔽效应。
在本实施例的一些可选的实现方式中,上述执行主体可以将至少一个通道的频域语音依次输入至预先训练的掩蔽阈值预估模型,从而得到至少一个通道的频域语音的掩蔽阈值。其中,掩蔽阈值预估模型可以用于预估频域语音的掩蔽阈值。通常,掩蔽阈值预估模型可以是利用各种机器学习方法和训练样本对现有的神经网络进行有监督训练而得到的。利用神经网络来区分信号和噪声,增加了鲁棒性。例如,掩蔽阈值预估模型可以包括两个一维卷积层(Conv1D)、两个门控循环单元(Gated Recurrent Unit,GRU)和一个全连接层(Full-connect)。具体地,上述执行主体可以首先获取训练样本集合,然后将训练样本集合中的样本频域语音作为输入,将输入的样本频域语音的掩蔽阈值作为输出,对初始掩蔽阈值预估模型进行训练,从而得到掩蔽阈值预估模型。其中,训练样本集合中的每个训练样本可以包括样本频域语音和样本频域语音的掩蔽阈值。初始掩蔽阈值预估模型可以是未经训练或未训练完成的掩蔽阈值预估模型。
步骤405,对至少一个通道的频域语音的掩蔽阈值进行分析,生成至少一个通道的频域语音中的信号和噪声的功率谱密度矩阵。
在本实施例中,上述执行主体可以对至少一个通道的频域语音的掩蔽阈值进行分析,生成至少一个通道的频域语音中的信号和噪声的功率谱密度矩阵(power spectraldensity,PSD)。其中,功率谱密度矩阵是一个方针,若对N(N为正整数)个通道的频域语音的掩蔽阈值进行分析,那么所生成N个通道的频域语音中的信号和噪声的功率谱密度矩阵是一个N行N列的方阵。
例如,上述执行主体可以通过如下公式计算功率谱密度矩阵ΦY:
其中,t是时域语音的时间点,T是时域语音的总时间点,且1≤t≤T,M是频域语音的掩蔽阈值,f是频域语音的频点,Y(t,f)是语音的频谱,Y(t,f)H是Y(t,f)的共轭转置。
步骤406,利用至少一个通道的频域语音中的信号和噪声的功率谱密度矩阵极小化与多个通道的时域语音对应的输出语音的信噪比,得到至少一个通道的频域语音的增强系数。
在本实施例中,上述执行主体可以利用至少一个通道的频域语音中的信号和噪声的功率谱密度矩阵极小化与多个通道的时域语音对应的输出语音的信噪比,从而得到至少一个通道的频域语音的增强系数。
例如,上述执行主体可以通过如下公式计算最优化系数C来得到至少一个通道的频域语音的增强系数F:
其中,max是求最大值的函数,FH是F的共轭转置,ΦX是信号的功率谱密度矩阵,ΦN是噪声的功率谱密度矩阵。
步骤407,对至少一个通道的频域语音的增强系数进行归一化处理,得到至少一个通道的频域语音的归一化增强系数。
在本本实施例中,上述执行主体可以对至少一个通道的频域语音的增强系数进行归一化处理,从而得到至少一个通道的频域语音的归一化增强系数。其中,归一化是一种简化计算的方式,即将有量纲的表达式,经过变换,化为无量纲的表达式,成为标量。
步骤408,利用至少一个通道的频域语音的归一化增强系数对至少一个通道的频域语音进行增强处理,得到至少一个通道的增强频域语音。
步骤409,对至少一个通道的增强频域语音进行逆傅立叶变换,得到至少一个通道的增强时域语音。
在本实施例中,步骤408-409的具体操作与图2所示的实施例中步骤204-205的操作基本相同,在此不再赘述。
从图4中可以看出,与图2对应的实施例相比,本实施例中的用于增强语音的方法的流程400突出了生成至少一个通道的频域语音的归一化增强系数的步骤。由此,本实施例描述的方案中利用掩蔽阈值所生成的功率谱密度矩阵来优化频域语音中的信噪比,以此来估计音源的方位,更加注重音源的信息,避免了噪声干扰带来的对角度敏感度过高的问题。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种用于增强语音的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用于增强语音的装置500可以包括:获取单元501、变换单元502、分析单元503、增强单元504和逆变换单元505。其中,获取单元501,被配置成获取麦克风阵列采集的多个通道的时域语音;变换单元502,被配置成基于多个通道的时域语音,生成至少一个通道的频域语音;分析单元503,被配置成对至少一个通道的频域语音进行分析,得到至少一个通道的频域语音的归一化增强系数;增强单元504,被配置成利用至少一个通道的频域语音的归一化增强系数对至少一个通道的频域语音进行增强处理,得到至少一个通道的增强频域语音;逆变换单元505,被配置成对至少一个通道的增强频域语音进行逆傅立叶变换,得到至少一个通道的增强时域语音。
在本实施例中,用于增强语音的装置500中:获取单元501、变换单元502、分析单元503、增强单元504和逆变换单元505的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤201、步骤202、步骤203、步骤204和步骤205的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,变换单元502可以包括:滤波子单元(图中未示出),被配置成对多个通道的时域语音进行滤波,得到至少一个通道的时域语音;变换子单元(图中未示出),被配置成对至少一个通道的时域语音进行傅立叶变换,得到至少一个通道的频域语音。
在本实施例的一些可选的实现方式中,滤波子单元可以包括:计算模块(图中未示出),被配置成计算多个通道中的通道与其他通道之间的距离之和;滤波模块(图中未示出),被配置成基于所计算出的和对多个通道的时域语音进行滤波,得到至少一个通道的时域语音。
在本实施例的一些可选的实现方式中,变换子单元可以进一步被配置成:对于至少一个通道的时域语音中的每个通道的时域语音,对该通道的时域语音进行加窗分帧处理,得到该通道的时域语音的多帧时域语音段,对该通道的时域语音的多帧时域语音段进行短时傅立叶变换,得到至少一个通道的频域语音。
在本实施例的一些可选的实现方式中,分析单元503可以包括:估计子单元(图中未示出),被配置成对至少一个通道的频域语音进行掩蔽阈值估计,得到至少一个通道的频域语音的掩蔽阈值;分析子单元(图中未示出),被配置成对至少一个通道的频域语音的掩蔽阈值进行分析,生成至少一个通道的频域语音中的信号和噪声的功率谱密度矩阵;极小化子单元(图中未示出),被配置成利用至少一个通道的频域语音中的信号和噪声的功率谱密度矩阵极小化与多个通道的时域语音对应的输出语音的信噪比,得到至少一个通道的频域语音的增强系数;归一化子单元(图中未示出),被配置成对至少一个通道的频域语音的增强系数进行归一化处理,得到至少一个通道的频域语音的归一化增强系数。
在本实施例的一些可选的实现方式中,估计子单元可以进一步被配置成:将至少一个通道的频域语音依次输入至预先训练的掩蔽阈值预估模型,得到至少一个通道的频域语音的掩蔽阈值,其中,掩蔽阈值预估模型用于预估频域语音的掩蔽阈值。
在本实施例的一些可选的实现方式中,掩蔽阈值预估模型可以包括两个一维卷积层、两个门控循环单元和一个全连接层。
在本实施例的一些可选的实现方式中,掩蔽阈值预估模型是通过如下步骤训练得到的:获取训练样本集合,其中,训练样本集合中的每个训练样本包括样本频域语音和样本频域语音的掩蔽阈值;将训练样本集合中的样本频域语音作为输入,将输入的样本频域语音的掩蔽阈值作为输出,训练得到掩蔽阈值预估模型。
下面参考图6,其示出了适于用来实现本申请实施例的电子设备(例如图1所示的服务器105或终端设备101、102、103)的计算机***600的结构示意图。图6示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机***600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有***600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读介质或者是上述两者的任意组合。计算机可读介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,所述程序设计语言包括面向目标的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、变换单元、分析单元、增强单元和逆变换单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取麦克风阵列采集的多个通道的时域语音的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取麦克风阵列采集的多个通道的时域语音;基于多个通道的时域语音,生成至少一个通道的频域语音;对至少一个通道的频域语音进行分析,得到至少一个通道的频域语音的归一化增强系数;利用至少一个通道的频域语音的归一化增强系数对至少一个通道的频域语音进行增强处理,得到至少一个通道的增强频域语音;对至少一个通道的增强频域语音进行逆傅立叶变换,得到至少一个通道的增强时域语音。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (16)
1.一种用于增强语音的方法,包括:
获取麦克风阵列采集的多个通道的时域语音;
基于所述多个通道的时域语音,生成至少一个通道的频域语音;
对所述至少一个通道的频域语音进行分析,得到所述至少一个通道的频域语音的归一化增强系数;
利用所述至少一个通道的频域语音的归一化增强系数对所述至少一个通道的频域语音进行增强处理,得到至少一个通道的增强频域语音;
对所述至少一个通道的增强频域语音进行逆傅立叶变换,得到至少一个通道的增强时域语音;
其中,所述对所述至少一个通道的频域语音进行分析,得到所述至少一个通道的频域语音的归一化增强系数,包括:
对所述至少一个通道的频域语音进行掩蔽阈值估计,得到所述至少一个通道的频域语音的掩蔽阈值;
对所述至少一个通道的频域语音的掩蔽阈值进行分析,生成所述至少一个通道的频域语音中的信号和噪声的功率谱密度矩阵;
利用所述至少一个通道的频域语音中的信号和噪声的功率谱密度矩阵极小化与所述多个通道的时域语音对应的输出语音的信噪比,得到所述至少一个通道的频域语音的增强系数;
对所述至少一个通道的频域语音的增强系数进行归一化处理,得到所述至少一个通道的频域语音的归一化增强系数。
2.根据权利要求1所述的方法,其中,所述基于所述多个通道的时域语音,生成至少一个通道的频域语音,包括:
对所述多个通道的时域语音进行滤波,得到至少一个通道的时域语音;
对所述至少一个通道的时域语音进行傅立叶变换,得到至少一个通道的频域语音。
3.根据权利要求2所述的方法,其中,所述对所述多个通道的时域语音进行滤波,得到至少一个通道的时域语音,包括:
计算所述多个通道中的通道与其他通道之间的距离之和;
基于所计算出的和对所述多个通道的时域语音进行滤波,得到至少一个通道的时域语音。
4.根据权利要求2所述的方法,其中,所述对所述至少一个通道的时域语音进行傅立叶变换,得到至少一个通道的频域语音,包括:
对于所述至少一个通道的时域语音中的每个通道的时域语音,对该通道的时域语音进行加窗分帧处理,得到该通道的时域语音的多帧时域语音段,对该通道的时域语音的多帧时域语音段进行短时傅立叶变换,得到至少一个通道的频域语音。
5.根据权利要求1所述的方法,其中,所述对所述至少一个通道的频域语音进行掩蔽阈值估计,得到所述至少一个通道的频域语音的掩蔽阈值,包括:
将所述至少一个通道的频域语音依次输入至预先训练的掩蔽阈值预估模型,得到所述至少一个通道的频域语音的掩蔽阈值,其中,所述掩蔽阈值预估模型用于预估频域语音的掩蔽阈值。
6.根据权利要求5所述的方法,其中,所述掩蔽阈值预估模型包括两个一维卷积层、两个门控循环单元和一个全连接层。
7.根据权利要求5或6所述的方法,其中,所述掩蔽阈值预估模型是通过如下步骤训练得到的:
获取训练样本集合,其中,训练样本包括样本频域语音和所述样本频域语音的掩蔽阈值;
将所述训练样本集合中的样本频域语音作为输入,将输入的样本频域语音的掩蔽阈值作为输出,训练得到所述掩蔽阈值预估模型。
8.一种用于增强语音的装置,包括:
获取单元,被配置成获取麦克风阵列采集的多个通道的时域语音;
变换单元,被配置成基于所述多个通道的时域语音,生成至少一个通道的频域语音;
分析单元,被配置成对所述至少一个通道的频域语音进行分析,得到所述至少一个通道的频域语音的归一化增强系数;
增强单元,被配置成利用所述至少一个通道的频域语音的归一化增强系数对所述至少一个通道的频域语音进行增强处理,得到至少一个通道的增强频域语音;
逆变换单元,被配置成对所述至少一个通道的增强频域语音进行逆傅立叶变换,得到至少一个通道的增强时域语音;
其中,所述分析单元包括:
估计子单元,被配置成对所述至少一个通道的频域语音进行掩蔽阈值估计,得到所述至少一个通道的频域语音的掩蔽阈值;
分析子单元,被配置成对所述至少一个通道的频域语音的掩蔽阈值进行分析,生成所述至少一个通道的频域语音中的信号和噪声的功率谱密度矩阵;
极小化子单元,被配置成利用所述至少一个通道的频域语音中的信号和噪声的功率谱密度矩阵极小化与所述多个通道的时域语音对应的输出语音的信噪比,得到所述至少一个通道的频域语音的增强系数;
归一化子单元,被配置成对所述至少一个通道的频域语音的增强系数进行归一化处理,得到所述至少一个通道的频域语音的归一化增强系数。
9.根据权利要求8所述的装置,其中,所述变换单元包括:
滤波子单元,被配置成对所述多个通道的时域语音进行滤波,得到至少一个通道的时域语音;
变换子单元,被配置成对所述至少一个通道的时域语音进行傅立叶变换,得到至少一个通道的频域语音。
10.根据权利要求9所述的装置,其中,所述滤波子单元包括:
计算模块,被配置成计算所述多个通道中的通道与其他通道之间的距离之和;
滤波模块,被配置成基于所计算出的和对所述多个通道的时域语音进行滤波,得到至少一个通道的时域语音。
11.根据权利要求9所述的装置,其中,所述变换子单元进一步被配置成:
对于所述至少一个通道的时域语音中的每个通道的时域语音,对该通道的时域语音进行加窗分帧处理,得到该通道的时域语音的多帧时域语音段,对该通道的时域语音的多帧时域语音段进行短时傅立叶变换,得到至少一个通道的频域语音。
12.根据权利要求8所述的装置,其中,所述估计子单元进一步被配置成:
将所述至少一个通道的频域语音依次输入至预先训练的掩蔽阈值预估模型,得到所述至少一个通道的频域语音的掩蔽阈值,其中,所述掩蔽阈值预估模型用于预估频域语音的掩蔽阈值。
13.根据权利要求12所述的装置,其中,所述掩蔽阈值预估模型包括两个一维卷积层、两个门控循环单元和一个全连接层。
14.根据权利要求12或13所述的装置,其中,所述掩蔽阈值预估模型是通过如下步骤训练得到的:
获取训练样本集合,其中,训练样本包括样本频域语音和所述样本频域语音的掩蔽阈值;
将所述训练样本集合中的样本频域语音作为输入,将输入的样本频域语音的掩蔽阈值作为输出,训练得到所述掩蔽阈值预估模型。
15.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
16.一种计算机可读介质,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现如权利要求1-7中任一所述的方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810367680.9A CN108564963B (zh) | 2018-04-23 | 2018-04-23 | 用于增强语音的方法和装置 |
JP2018247789A JP6889698B2 (ja) | 2018-04-23 | 2018-12-28 | 音声を増幅する方法及び装置 |
US16/235,787 US10891967B2 (en) | 2018-04-23 | 2018-12-28 | Method and apparatus for enhancing speech |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810367680.9A CN108564963B (zh) | 2018-04-23 | 2018-04-23 | 用于增强语音的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108564963A CN108564963A (zh) | 2018-09-21 |
CN108564963B true CN108564963B (zh) | 2019-10-18 |
Family
ID=63536046
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810367680.9A Active CN108564963B (zh) | 2018-04-23 | 2018-04-23 | 用于增强语音的方法和装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10891967B2 (zh) |
JP (1) | JP6889698B2 (zh) |
CN (1) | CN108564963B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10770063B2 (en) * | 2018-04-13 | 2020-09-08 | Adobe Inc. | Real-time speaker-dependent neural vocoder |
CN109697978B (zh) * | 2018-12-18 | 2021-04-20 | 百度在线网络技术(北京)有限公司 | 用于生成模型的方法和装置 |
CN109727605B (zh) * | 2018-12-29 | 2020-06-12 | 苏州思必驰信息科技有限公司 | 处理声音信号的方法及*** |
CN109448751B (zh) * | 2018-12-29 | 2021-03-23 | 中国科学院声学研究所 | 一种基于深度学习的双耳语音增强方法 |
CN111862961A (zh) * | 2019-04-29 | 2020-10-30 | 京东数字科技控股有限公司 | 识别语音的方法和装置 |
CN110534123B (zh) * | 2019-07-22 | 2022-04-01 | 中国科学院自动化研究所 | 语音增强方法、装置、存储介质、电子设备 |
JP7472575B2 (ja) * | 2020-03-23 | 2024-04-23 | ヤマハ株式会社 | 処理方法、処理装置、及びプログラム |
US11264017B2 (en) * | 2020-06-12 | 2022-03-01 | Synaptics Incorporated | Robust speaker localization in presence of strong noise interference systems and methods |
CN111883166B (zh) * | 2020-07-17 | 2024-05-10 | 北京百度网讯科技有限公司 | 一种语音信号处理方法、装置、设备以及存储介质 |
CN112420073B (zh) * | 2020-10-12 | 2024-04-16 | 北京百度网讯科技有限公司 | 语音信号处理方法、装置、电子设备和存储介质 |
CN112669870B (zh) * | 2020-12-24 | 2024-05-03 | 北京声智科技有限公司 | 语音增强模型的训练方法、装置和电子设备 |
CN113808607A (zh) * | 2021-03-05 | 2021-12-17 | 北京沃东天骏信息技术有限公司 | 基于神经网络的语音增强方法、装置及电子设备 |
CN113030862B (zh) * | 2021-03-12 | 2023-06-02 | 中国科学院声学研究所 | 一种多通道语音增强方法及装置 |
CN113421582B (zh) * | 2021-06-21 | 2022-11-04 | 展讯通信(天津)有限公司 | 麦克语音增强方法及装置、终端和存储介质 |
CN114283832A (zh) * | 2021-09-09 | 2022-04-05 | 腾讯科技(深圳)有限公司 | 用于多通道音频信号的处理方法及装置 |
CN114898767B (zh) * | 2022-04-15 | 2023-08-15 | 中国电子科技集团公司第十研究所 | 基于U-Net的机载语音噪音分离方法、设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101777349A (zh) * | 2009-12-08 | 2010-07-14 | 中国科学院自动化研究所 | 基于听觉感知特性的信号子空间麦克风阵列语音增强方法 |
CN105427859A (zh) * | 2016-01-07 | 2016-03-23 | 深圳市音加密科技有限公司 | 一种用于对说话人识别的前端语音增强方法 |
CN107393547A (zh) * | 2017-07-03 | 2017-11-24 | 桂林电子科技大学 | 子带谱减与广义旁瓣抵消的双微阵列语音增强方法 |
CN107863099A (zh) * | 2017-10-10 | 2018-03-30 | 成都启英泰伦科技有限公司 | 一种新型双麦克风语音检测和增强方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6549586B2 (en) * | 1999-04-12 | 2003-04-15 | Telefonaktiebolaget L M Ericsson | System and method for dual microphone signal noise reduction using spectral subtraction |
JP2001144656A (ja) * | 1999-11-16 | 2001-05-25 | Nippon Telegr & Teleph Corp <Ntt> | 多チャンネル反響消去方法及び装置並びにそのプログラムを記録した記録媒体 |
US7617099B2 (en) * | 2001-02-12 | 2009-11-10 | FortMedia Inc. | Noise suppression by two-channel tandem spectrum modification for speech signal in an automobile |
US7158933B2 (en) * | 2001-05-11 | 2007-01-02 | Siemens Corporate Research, Inc. | Multi-channel speech enhancement system and method based on psychoacoustic masking effects |
EP1425738A2 (en) * | 2001-09-12 | 2004-06-09 | Bitwave Private Limited | System and apparatus for speech communication and speech recognition |
US7171008B2 (en) * | 2002-02-05 | 2007-01-30 | Mh Acoustics, Llc | Reducing noise in audio systems |
US20080130914A1 (en) * | 2006-04-25 | 2008-06-05 | Incel Vision Inc. | Noise reduction system and method |
EP1947642B1 (en) * | 2007-01-16 | 2018-06-13 | Apple Inc. | Active noise control system |
JP5293305B2 (ja) * | 2008-03-27 | 2013-09-18 | ヤマハ株式会社 | 音声処理装置 |
JP5172580B2 (ja) * | 2008-10-02 | 2013-03-27 | 株式会社東芝 | 音補正装置及び音補正方法 |
US8660281B2 (en) * | 2009-02-03 | 2014-02-25 | University Of Ottawa | Method and system for a multi-microphone noise reduction |
WO2011054860A2 (en) | 2009-11-04 | 2011-05-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for calculating driving coefficients for loudspeakers of a loudspeaker arrangement and apparatus and method for providing drive signals for loudspeakers of a loudspeaker arrangement based on an audio signal associated with a virtual source |
US8538035B2 (en) * | 2010-04-29 | 2013-09-17 | Audience, Inc. | Multi-microphone robust noise suppression |
TWI419149B (zh) * | 2010-11-05 | 2013-12-11 | Ind Tech Res Inst | 抑制雜訊系統與方法 |
US8983833B2 (en) * | 2011-01-24 | 2015-03-17 | Continental Automotive Systems, Inc. | Method and apparatus for masking wind noise |
CN103325380B (zh) * | 2012-03-23 | 2017-09-12 | 杜比实验室特许公司 | 用于信号增强的增益后处理 |
FR2992459B1 (fr) * | 2012-06-26 | 2014-08-15 | Parrot | Procede de debruitage d'un signal acoustique pour un dispositif audio multi-microphone operant dans un milieu bruite. |
-
2018
- 2018-04-23 CN CN201810367680.9A patent/CN108564963B/zh active Active
- 2018-12-28 US US16/235,787 patent/US10891967B2/en active Active
- 2018-12-28 JP JP2018247789A patent/JP6889698B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101777349A (zh) * | 2009-12-08 | 2010-07-14 | 中国科学院自动化研究所 | 基于听觉感知特性的信号子空间麦克风阵列语音增强方法 |
CN105427859A (zh) * | 2016-01-07 | 2016-03-23 | 深圳市音加密科技有限公司 | 一种用于对说话人识别的前端语音增强方法 |
CN107393547A (zh) * | 2017-07-03 | 2017-11-24 | 桂林电子科技大学 | 子带谱减与广义旁瓣抵消的双微阵列语音增强方法 |
CN107863099A (zh) * | 2017-10-10 | 2018-03-30 | 成都启英泰伦科技有限公司 | 一种新型双麦克风语音检测和增强方法 |
Also Published As
Publication number | Publication date |
---|---|
US10891967B2 (en) | 2021-01-12 |
JP2019191558A (ja) | 2019-10-31 |
JP6889698B2 (ja) | 2021-06-18 |
CN108564963A (zh) | 2018-09-21 |
US20190325889A1 (en) | 2019-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108564963B (zh) | 用于增强语音的方法和装置 | |
CN103426435B (zh) | 具有移动约束的通过独立分量分析的源分离 | |
Vaseghi | Multimedia signal processing: theory and applications in speech, music and communications | |
CN110459241B (zh) | 一种用于语音特征的提取方法和*** | |
CN110503971A (zh) | 用于语音处理的基于神经网络的时频掩模估计和波束形成 | |
US20210193149A1 (en) | Method, apparatus and device for voiceprint recognition, and medium | |
CN103426437A (zh) | 使用利用混合多元概率密度函数的独立分量分析的源分离 | |
US9484044B1 (en) | Voice enhancement and/or speech features extraction on noisy audio signals using successively refined transforms | |
CN109801635A (zh) | 一种基于注意力机制的声纹特征提取方法及装置 | |
Hansen | Signal subspace methods for speech enhancement | |
US9530434B1 (en) | Reducing octave errors during pitch determination for noisy audio signals | |
CN111402917A (zh) | 音频信号处理方法及装置、存储介质 | |
CN111696520A (zh) | 智能配音方法、装置、介质及电子设备 | |
Shankar et al. | Efficient two-microphone speech enhancement using basic recurrent neural network cell for hearing and hearing aids | |
US9208794B1 (en) | Providing sound models of an input signal using continuous and/or linear fitting | |
CN114898762A (zh) | 基于目标人的实时语音降噪方法、装置和电子设备 | |
Malek et al. | Block‐online multi‐channel speech enhancement using deep neural network‐supported relative transfer function estimates | |
He et al. | Towards Bone-Conducted Vibration Speech Enhancement on Head-Mounted Wearables | |
Zheng et al. | Noise-robust blind reverberation time estimation using noise-aware time–frequency masking | |
CN110176243A (zh) | 语音增强方法、模型训练方法、装置和计算机设备 | |
CN108962226A (zh) | 用于检测语音的端点的方法和装置 | |
CN113035216B (zh) | 麦克风阵列语音的增强方法、及其相关设备 | |
Mamun et al. | CFTNet: Complex-valued frequency transformation network for speech enhancement | |
CN111755021A (zh) | 基于二元麦克风阵列的语音增强方法和装置 | |
CN114783455A (zh) | 用于语音降噪的方法、装置、电子设备和计算机可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |