CN114898762A - 基于目标人的实时语音降噪方法、装置和电子设备 - Google Patents
基于目标人的实时语音降噪方法、装置和电子设备 Download PDFInfo
- Publication number
- CN114898762A CN114898762A CN202210490036.7A CN202210490036A CN114898762A CN 114898762 A CN114898762 A CN 114898762A CN 202210490036 A CN202210490036 A CN 202210490036A CN 114898762 A CN114898762 A CN 114898762A
- Authority
- CN
- China
- Prior art keywords
- noise reduction
- voice signal
- target
- real
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000009467 reduction Effects 0.000 title claims abstract description 114
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000001228 spectrum Methods 0.000 claims abstract description 91
- 238000013528 artificial neural network Methods 0.000 claims abstract description 31
- 238000000605 extraction Methods 0.000 claims abstract description 21
- 238000012805 post-processing Methods 0.000 claims abstract description 18
- 238000007781 pre-processing Methods 0.000 claims abstract description 16
- 238000012545 processing Methods 0.000 claims abstract description 16
- 230000006870 function Effects 0.000 claims description 27
- 238000010606 normalization Methods 0.000 claims description 22
- 230000008447 perception Effects 0.000 claims description 7
- 230000002776 aggregation Effects 0.000 claims description 6
- 238000004220 aggregation Methods 0.000 claims description 6
- 230000002441 reversible effect Effects 0.000 claims description 4
- 125000004122 cyclic group Chemical group 0.000 claims description 3
- 238000009432 framing Methods 0.000 claims description 3
- 230000004931 aggregating effect Effects 0.000 claims description 2
- 230000009466 transformation Effects 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 10
- 238000010586 diagram Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 9
- 238000004590 computer program Methods 0.000 description 9
- 230000015654 memory Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000037433 frameshift Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Soundproofing, Sound Blocking, And Sound Damping (AREA)
Abstract
本公开的实施例公开了基于目标人的实时语音降噪方法、装置和电子设备。该方法的一具体实施方式包括:获取目标语音信号和目标说话人语音信号;对目标说话人语音信号进行特征提取,得到目标说话人的声纹特征;对目标语音信号进行预处理,得到目标语音信号的频率谱特征;将目标语音信号的频率谱特征和目标说话人的声纹特征输入至预先训练的降噪神经网络,得到目标语音信号的降噪参数特征;根据降噪参数特征对目标语音信号进行后处理,得到降噪语音信号。该实施方式实现了更加轻量级的降噪处理以及更好的去噪效果。
Description
技术领域
本公开的实施例涉及计算机技术领域,具体涉及一种基于目标人的实时语音降噪方法、装置和电子设备。
背景技术
随着通信技术的日益成熟,语音信号/视频通话的业务量也在不断提高,且用户使用的终端也呈现多样化,如个人电脑、手机以及拾音器等边缘设备。然而,由于用户所处的环境多种多样,各种背景噪声的出现对于语音信号通话的质量会产生很大影响,如室内空调风机的声音、敲击键盘的声音,户外车声、鸟鸣声等等。
此外,当用户的通信环境有其他人时,其他人的说话声音也会对语音信号通话造成干扰。为了听到的语音信号更加清晰,需要对采集的含噪语音信号进行降噪处理,滤除背景噪声及其他人的说话声音。
发明内容
本公开的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本公开的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开的一些实施例提出了基于目标人的实时语音降噪方法、装置、存储介质及设备,来解决以上背景技术部分提到的技术问题。
第一方面,本公开的一些实施例提供了一种基于目标人的实时语音降噪方法,该方法包括:获取目标语音信号和目标说话人语音信号;对上述目标说话人语音信号进行特征提取,得到目标说话人的声纹特征;对上述目标语音信号进行预处理,得到上述目标语音信号的频率谱特征;将所述目标语音信号的频率谱特征和所述目标说话人的声纹特征输入至预先训练的降噪神经网络,得到所述目标语音信号的降噪参数特征;根据上述参数特征对上述目标语音信号进行后处理,得到降噪语音信号。
第二方面,本公开的一些实施例提供了一种基于目标人的实时语音降噪装置,装置包括:获取单元,被配置成获取目标语音信号和目标说话人语音信号;提取单元,被配置成对上述目标说话人语音信号进行特征提取,得到目标说话人的声纹特征;预处理单元,被配置成对上述目标语音信号进行预处理,得到上述目标语音信号的频率谱特征;生成单元,被配置成将所述目标语音信号的频率谱特征和所述目标说话人的声纹特征输入至预先训练的降噪神经网络,得到所述目标语音信号的降噪参数特征;后处理单元,被配置成根据上述参数特征对上述目标语音信号进行后处理,得到降噪语音信号。
第三方面,本申请实施例提供了一种电子设备,该网络设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本公开的上述各个实施例中的一个实施例具有如下有益效果:首先获取目标语音信号和目标说话人语音信号,之后对上述目标说话人语音信号进行特征提取,得到目标说话人的声纹特征,再对上述目标语音信号进行预处理,得到上述目标语音信号的频率谱特征,进而将上述频率谱特征和上述声纹特征输入至预先训练的降噪神经网络,得到降噪参数特征,最后根据上述参数特征对上述目标语音信号进行后处理,得到降噪语音信号。从而通过对目标语音信号的处理,使得到的降噪语音信号中消除了背景噪声与其他人声的干扰,实现了更加轻量级的降噪处理以及更好的去噪效果。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,元件和元素不一定按照比例绘制。
图1是根据本公开一些实施例的基于目标人的实时语音降噪方法的一个应用场景的示意图;
图2是根据本公开的基于目标人的实时语音降噪方法的一些实施例的流程图;
图3是根据本公开的一些实施例的降噪神经网络结构的示意图;
图4是根据本公开的一些实施例的自注意力模块结构的示意图;
图5是根据本公开的一些实施例的卷积模块结构的示意图;
图6是根据本公开的基于目标人的实时语音降噪装置的一些实施例的结构示意图;
图7是适于用来实现本公开的一些实施例的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
下面将参考附图并结合实施例来详细说明本公开。
图1是根据本公开一些实施例的基于目标人的实时语音降噪方法的一个应用场景的示意图。
如图1所示,执行主体服务器101可以获取目标语音信号103和目标说话人语音信号102,之后对上述目标说话人语音信号102进行特征提取,得到目标说话人的声纹特征104,再对上述目标语音信号103进行预处理,得到特征105和频率谱特征106,然后将上述频率谱特征105和上述声纹特征106输入至预先训练的降噪神经网络,得到降噪参数特征107,最后根据上述参数特征107对上述频率谱特征106进行后处理,得到降噪语音信号108。
可以理解的是,基于目标人的实时语音降噪方法可以是由终端设备来执行,或者也可以是由服务器101来执行,上述方法的执行主体还可以包括上述终端设备与上述服务器101通过网络相集成所构成的设备,或者还可以是各种软件程序来执行。其中,终端设备可以是具有信息处理能力的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机和台式计算机等等。执行主体也可以体现为服务器101、软件等。当执行主体为软件时,可以安装在上述所列举的电子设备中。其可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的服务器数目仅仅是示意性的。根据实现需要,可以具有任意数目的服务器。
继续参考图2,示出了根据本公开的基于目标人的实时语音降噪方法的一些实施例的流程200。该基于目标人的实时语音降噪方法,包括以下步骤:
步骤201,获取目标语音信号和目标说话人语音信号。
在一些实施例中,基于目标人的实时语音降噪方法的执行主体(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式获取目标语音信号和目标说话人语音信号。需要指出的是,获取的位置可以是本地存储设备。另外,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
在这里,上述目标语音信号通常是指带有噪音和目标说话人声音的语音信号。上述目标说话人语音信号通常是指带有目标说话人的声音的语音信号。上述目标说话人通常是由用户提前选择的。
步骤202,对目标说话人语音信号进行特征提取,得到目标说话人的声纹特征。
在一些实施例中,基于步骤201中得到的目标说话人语音信号,上述执行主体(例如图1所示的服务器)可以对上述目标说话人语音信号进行特征提取,以得到目标说话人的声纹特征。在这里,特征提取的方式有多种,在此不再赘述。
在一些实施例的一些可选的实现方式中,上述执行主体可以将上述目标说话人语音信号输入至预先训练的声纹特征提取网络,得到上述目标说话人的声纹特征,其中,上述频率谱特征声纹特征提取网络包括深度残差层和局部聚合向量层。在这里,上述深度残差层(ResNet)用于提取分段语音信号的特征,上述局部聚合向量层(NetVLAD)用于将分段特征聚合。
纹特征提取网络使用了ResNet网络提取分段语音特征,并使用了自动训练参数的NetVLAD对分段特征进行聚合,最终所提取出的声纹特征具有抗干扰性强的特点。即使目标人在稍微嘈杂的环境中,依然可以准确的提取出声纹信息。
步骤203,对目标语音信号进行预处理,得到目标语音信号的频率谱特征。
在一些实施例中,上述执行主体可以对目标语音信号进行预处理,得到目标语音信号的频率谱特征。在这里,上述预处理操作通常是指包含对目标语音信号进行特征提取和确定目标语音信号频率谱特征的操作。上述频率谱特征提取的方式和确定语音信号频率谱特征的方式有多种,在此不再赘述。
在一些实施例的一些可选的实现方式中,上述执行主体对上述目标语音信号进行分帧、加窗处理以及短时傅立叶变换,得到上述目标语音信号的频率谱的实部和虚部。在这里,上述加窗处理通常使用汉宁(Hanning)窗函数。
接着,根据上述实部和虚部,得到能量谱和相位谱。作为示例,上述能量谱可以根据以下公式确定:
PCEN(t,f)=(E(t,f)/(M(t,f)+ε)α+δ)r-δr,其中,PCEN(t,f)表示对每个频带通道进行能量归一化,t表示时域序列,f表示频域序列,ε表示一个微小的常数,(作为示例ε可以是10-8),α表示能量归一化系数,δ和指数r表示动态范围系数,E(t,f)表示能量谱,M(t,f)表示平滑能量谱,根据以下公式确定:M(t,f)=(1-s)·M(t-1,f)+s·E(t,f),在这里,s表示平滑系数。
之后,上述执行主体可以确定相位谱。作为示例,上述执行主体可以将修正系数确定为-2πthv,其中,h表示帧移,v表示归一化频率,将经过补偿后的相位移动到(-π,π)的范围内,以得到经过修正的相位谱。至此,通过对相位谱进行修正补偿,解决了消除正弦波的相位随着频率间隔和帧移而改变的问题。
最后将上述实部、虚部、能量谱和相位谱确定为上述目标语音信号的特征。
这样一来,在预处理阶段不仅使用了语音频谱,而且加入了可训练的每通道能量归一化与相位补偿作为网络的输入。每通道能量归一化,对梅尔谱进行了自动增益控制与动态范围控制,补充了更多的过去时间轴信息,同时,其参数可训练的特点,也更好的对降噪神经网络进行了适配,有益于提高整体的语音降噪效果。相位补偿消除了正弦波的相位随着频率间隔和帧移而改变的问题,为神经网络提供了更准确的相位信息。
步骤204,将频率谱特征和声纹特征输入至预先训练的降噪神经网络,得到降噪参数特征。
在一些实施例中,上述执行主体可以将上述频率谱特征和声纹特征输入至预先训练的降噪神经网络,得到降噪参数特征,。
在这里,上述降噪神经网络通常用于表征特征和声纹特征与参数特征的对应关系。具体的,上述参数特征可以是幅度掩膜参数、噪声掩膜参数、增益参数和/或角度系数等。
作为示例,上述降噪神经网络可以是研究人员基于大量数据确定的对应关系表,对应关系表中有大量样本特征和样本声纹特征以及与样本特征、样本声纹特征对应的样本参数特征,上述执行主体可以找到与上述频率谱特征和声纹特征相似或相同的样本特征与样本声纹特征,并将对应的样本参数特征确定为参数特征。
作为又一示例,上述降噪神经网络可以根据以下步骤训练得到的:获取训练样本集,其中,上述训练样本集包括样本特征和样本声纹特征以及与样本特征和样本声纹特征对应的参数特征;将上述样本特征和样本声纹特征输入至待训练模型,得到样本参数特征;根据预设的损失函数对上述参数特征和上述样本参数特征进行对比,确定损失值;响应于上述损失值满足预设条件,确定上述待训练模型训练完成,将上述待训练模型确定为降噪神经网络。响应于上述损失值未满足预设条件,调整待训练模型中的相关参数。
在一些实施例的一些可选的实现方式中,所述降噪神经网络包括顺序连接的卷积模块、自注意力模块、门控循环单元模块和反卷积模块。
如图3所示,上述降噪神经网络可以是由卷积模块301、自注意力模块302、门控循环单元模块303和反卷积模块304组成的神经网络。
其中,卷积模块301如图4所示。卷积模块301由6个结构相同,参数不同的卷积单元构成。每个卷积单元依次由点卷积层401(PConv)、批标准化层402(BatchNorm)、线性整流函数层403(ReLU)、深度卷积层404(DSConv)、批标准化层405(BatchNorm)、线性整流函数层406(ReLU)构成。每个卷积单元的最后一个线性整流函数层(Linear rectificationfunction,ReLU)的输出既被送到网络下一层,又被送到反卷积模块407的对应反卷积单元作为部分输入。每个卷积单元的点卷积层的卷积核均为1,步长均为1。各个卷积单元的深度卷积层的卷积核分别为5、3、5、3、5、3,步长分别分2、1、2、1、2、2。
自注意力模块302如图5所示。自注意力模块由多头自注意力层502MultiheadAttention)、标准化层503LayerNorm)、点卷积层504PConv)、批标准化层505BatchNorm)、线性整流函数层506ReLU)构成。首先将卷积模块的输出与目标说话人语音信号的声纹特征501拼接,送入多头自注意力层502(MultiheadAttention),再经过层标准化层503(LayerNorm)后,进入点卷积层504(PConv),最后经过批标准化层505(BatchNorm)、线性整流函数层506(ReLU)处理,送入下一个模块。
门控循环单元模块303由门控循环单元层(GRU)、点卷积层(PConv)、批标准化层(BatchNorm)与线性整流函数层(ReLU)构成。首先将自注意力模块的输出与目标说话人语音信号的声纹特征拼接,送入门控循环单元层(GRU),再依次通过点卷积层(PConv)、批标准化层(BatchNorm)与线性整流函数层(ReLU)。
反卷积模块304由6个结构相同,参数不同的反卷积单元构成。每个反卷积单元依次由点卷积层(PConv)、批标准化层(BatchNorm)、线性整流函数层(ReLU)、反卷积层(ConvT)、批标准化层(BatchNorm)、线性整流函数层(ReLU)构成。每个反卷积单元第一个PConV的输入既接收自网络上一层,也接收卷积模块的对应卷积单元的最后一个RuLU层,并将两部分拼接作为整体输入。每个反卷积单元的点卷积层的卷积核均为1,步长均为1。各个反卷积单元的反卷积层的卷积核分别为3、5、3、5、3、5,步长分别分2、2、1、2、1、2。
在一些实施例的一些可选的实现方式中,所述自注意力模块包括多头自注意力层、标准化层、点卷积层、批标准化层和/或线性整流函数层。
在一些实施例的一些可选的实现方式中,所述门控循环单元模块包括门控循环单元层、点卷积层、批标准化层和/或线性整流函数层。
在这里,降噪神经网络的卷积模块起到压缩频谱维度的作用。使用了点卷积与深度卷积,与标准的一步卷积相比,降低了卷积的参数量与运算量。使用的自注意力模块综合了卷积模块提取的频域特征。使用自注意力网络,而非循环神经网络,是因为自注意力网络更加能够捕捉到全局信息。门控循环单元用来处理各个前后语音帧之间的关系,建立时间轴的信息流,用门控循环单元而不是长短期记忆网络,可以进一步减少网络的计算量。在自注意力模块和门控循环单元模块分别额外加入目标说话人的声纹特征向量,使网络有针对性的学习到保留目标说话人的语音,而消除其他人声和噪声。反卷积模块将压缩的频域特征恢复为原始的频谱维度以输出频域掩膜。反卷积模块采用了与卷积模块对称的结构,输入不仅接收网络上一层的输出,也直接接收了卷积模块对应单元的输出,可以在网络训练时使梯度变化更稳定,更容易训练出效果好的网络模型。同时,整体的神经网络具有轻量化的特点,除了声纹提取器,需要实时运行的部分网络参数仅约为700k,参数量少,计算量小,***资源占用低,降噪效果好。
步骤205,根据参数特征对目标语音信号进行后处理,得到降噪语音信号。
在一些实施例中,上述执行主体可以基于步骤204得到的参数特征,对上述目标语音信号进行后处理,以得到降噪语音信号。在这里,上述后处理通常是指利用参数特征对频率谱特征进行优化并还原成语音信号的操作。
在一些实施例的一些可选的实现方式中,上述执行主体可以根据上述参数特征确定相位感知掩膜增益系数。在这里,相位感知掩膜增益系数通常是指语音信号幅度掩膜增益系数和语音信号相位掩膜增益系数。
作为示例,上述参数特征可以是幅度掩膜参数z、噪声掩膜参数z_n、增益参数φβ、角度系数φ1和角度系数φ2。上述执行主体可以由由增益系数φβ计算幅度掩膜增益倍数的下限:再为幅度掩膜增益倍数设置上限,得到实际幅度掩膜增益倍数β=min(βs,1/|sigmoid(z-z_n)-sigmoid(z_n-z)|),其中sigmoid函数表示为sigmoid(x)=1/(1+e-x)。进而可计算出语音信号幅度掩膜M=β·sigmoid(z-z_n),噪声幅度掩膜M_n=β·sigmoid(z_n-z)。根据余弦定理,计算出绝对相位差的余弦表达cos(Δθ)=(1+|M|2-|M_n|2)/(2|M|)。再由角度系数φ1、角度系数φ2计算出方向系数方向系数然后计算出角度方向于是计算出语音信号相位掩膜ejθ=cos(Δθ)+jξsin(Δθ)。
之后,根据上述相位感知掩膜增益系数、上述能量谱和上述相位谱,生成降噪能量谱和降噪相位谱。作为示例,上述执行主体可以利用语音信号幅度掩膜增益系数与语音信号相位掩膜增益系数分别将其作用于幅度谱与相位谱,得到降噪语音信号的幅度谱与相位谱。
接着,根据上述降噪能量谱和降噪相位谱确定降噪频率谱特征的降噪实部和降噪虚部,再对上述降噪实部和降噪虚部进行加窗处理和反短时傅里叶变换,得到降噪语音信号。
相位感知掩膜是一种复数掩膜,不仅作用在幅度谱上,也作用在相位谱上,提供的相位信息可以帮助更好的恢复纯净语音。并且相位感知掩膜中的幅度掩膜没有对范围进行限制,可以覆盖更多不同信噪比的场景。
本公开的上述各个实施例中的一个实施例具有如下有益效果:首先获取目标语音信号和目标说话人语音信号,之后对上述目标说话人语音信号进行特征提取,得到目标说话人的声纹特征,再对上述目标语音信号进行预处理,得到上述目标语音信号的频率谱特征,进而将上述频率谱特征和上述声纹特征输入至预先训练的降噪神经网络,得到降噪参数特征,最后根据上述参数特征对上述目标语音信号进行后处理,得到降噪语音信号。从而通过对目标语音信号的处理,使得到的降噪语音信号中消除了背景噪声与其他人声的干扰,实现了更加轻量级的降噪处理以及更好的去噪效果。
进一步参考图6,作为对上述各图所示方法的实现,本公开提供了一种基于目标人的实时语音降噪装置的一些实施例,这些装置实施例与图2所示的那些方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,一些实施例的基于目标人的实时语音降噪装置600包括:获取单元601、提取单元602、预处理单元603、生成单元604和后处理单元605。其中,获取单元601,被配置成获取目标语音信号和目标说话人语音信号;提取单元602,被配置成对上述目标说话人语音信号进行特征提取,得到目标说话人的声纹特征;预处理单元603,被配置成对上述目标语音信号进行预处理,得到上述目标语音信号的频率谱特征;生成单元604,被配置成将上述频率谱特征和上述声纹特征输入至预先训练的降噪神经网络,得到降噪参数特征,其中,所述降噪神经网络包括顺序连接的卷积模块、自注意力模块、门控循环单元模块和/或反卷积模块;后处理单元605,被配置成根据上述参数特征对上述目标语音信号进行后处理,得到降噪语音信号。
在一些实施例的一些可选的实现方式中,所述降噪神经网络包括顺序连接的卷积模块、自注意力模块、门控循环单元模块和反卷积模块。
在一些实施例的可选实现方式中,所述自注意力模块包括多头自注意力层、标准化层、点卷积层、批标准化层和/或线性整流函数层。
在一些实施例的可选实现方式中,所述门控循环单元模块包括门控循环单元层、点卷积层、批标准化层和/或线性整流函数层。
在一些实施例的可选实现方式中,预处理单元被进一步的配置用于:对所述目标语音信号进行分帧、加窗处理以及短时傅立叶变换,得到所述目标语音信号的频率谱的实部和虚部;根据所述目标语音信号的频率谱的实部和虚部,得到能量谱和相位谱;将所述目标语音信号的能量谱、相位谱、频率谱的实部和虚部作为所述目标语音信号的频率谱特征。
在一些实施例的可选实现方式中,后处理单元被进一步的配置用于:根据上述参数特征确定相位感知掩膜增益系数;根据上述相位感知掩膜增益系数、上述能量谱和上述相位谱,生成降噪能量谱和降噪相位谱;根据上述降噪能量谱和降噪相位谱确定降噪频率谱特征的降噪实部和降噪虚部;对上述降噪实部和降噪虚部进行加窗处理和反短时傅里叶变换,得到降噪语音信号。
在一些实施例的可选实现方式中,提取单元被进一步的配置用于:将所述目标说话人语音信号输入至预先训练的声纹特征提取网络,得到所述目标说话人的声纹特征,其中,所述声纹特征提取网络包括深度残差层和局部聚合向量层,所述深度残差层用于提取分段语音信号特征,所述局部聚合向量层用于对分段语音信号特征进行聚合。
可以理解的是,该装置600中记载的诸单元与参考图2描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置600及其中包含的单元,在此不再赘述。
本公开的上述各个实施例中的一个实施例具有如下有益效果:首先获取目标语音信号和目标说话人语音信号,之后对上述目标说话人语音信号进行特征提取,得到目标说话人的声纹特征,再对上述目标语音信号进行预处理,得到上述目标语音信号的频率谱特征,进而将上述频率谱特征和上述声纹特征输入至预先训练的降噪神经网络,得到降噪参数特征,最后根据上述参数特征对上述目标语音信号进行后处理,得到降噪语音信号。从而通过对目标语音信号的处理,使得到的降噪语音信号中消除了背景噪声与其他人声的干扰,实现了更加轻量级的降噪处理以及更好的去噪效果。
下面参考图7,其示出了适于用来实现本公开的一些实施例的电子设备(例如图1中的服务器)700的结构示意图。图7示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图7所示,电子设备700可以包括处理装置(例如中央处理器、图形处理器等)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储装置708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有电子设备700操作所需的各种程序和数据。处理装置701、ROM 702以及RAM703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
通常,以下装置可以连接至I/O接口705:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置706;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置707;以及通信装置709。通信装置709可以允许电子设备700与其他设备进行无线或有线通信以交换数据。虽然图7示出了具有各种装置的电子设备700,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图7中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置709从网络上被下载和安装,或者从存储装置708被安装,或者从ROM 702被安装。在该计算机程序被处理装置701执行时,执行本公开的一些实施例的方法中限定的上述功能。
需要说明的是,本公开的一些实施例上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是—但不限于—电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的一些实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取目标语音信号和目标说话人语音信号;对上述目标说话人语音信号进行特征提取,得到目标说话人的声纹特征;对上述目标语音信号进行预处理,得到上述目标语音信号的频率谱特征;将上述频率谱特征和上述声纹特征输入至预先训练的降噪神经网络,得到降噪参数特征,其中,所述降噪神经网络包括顺序连接的卷积模块、自注意力模块、门控循环单元模块和/或反卷积模块;根据上述参数特征对上述目标语音信号进行后处理,得到降噪语音信号。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的一些实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的一些实施例中的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、提取单元、预处理单元、生成单元和后处理单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,接收单元还可以被描述为“获取目标语音信号和目标说话人语音信号的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上***(SOC)、复杂可编程逻辑设备(CPLD)等等。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述频率谱特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (10)
1.一种基于目标人的实时语音降噪方法,包括:
获取目标语音信号和目标说话人语音信号;
对所述目标说话人语音信号进行特征提取,得到目标说话人的声纹特征;
对所述目标语音信号进行预处理,得到所述目标语音信号的频率谱特征;
将所述目标语音信号的频率谱特征和所述目标说话人的声纹特征输入至预先训练的降噪神经网络,得到所述目标语音信号的降噪参数特征;
根据所述降噪参数特征对所述目标语音信号进行后处理,得到降噪语音信号。
2.根据权利要求1所述的实时语音降噪方法,其中,所述降噪神经网络包括顺序连接的卷积模块、自注意力模块、门控循环单元模块和反卷积模块。
3.根据权利要求2所述的实时语音降噪方法,其中,所述自注意力模块包括多头自注意力层、标准化层、点卷积层、批标准化层和/或线性整流函数层。
4.根据权利要求2所述的实时语音降噪方法,其中,所述门控循环单元模块包括门控循环单元层、点卷积层、批标准化层和/或线性整流函数层。
5.根据权利要求1所述的实时语音降噪方法,其中,所述对所述目标语音信号进行预处理包括:
对所述目标语音信号进行分帧、加窗处理以及短时傅立叶变换,得到所述目标语音信号的频率谱的实部和虚部;
根据所述目标语音信号的频率谱的实部和虚部,得到能量谱和相位谱;
将所述目标语音信号的能量谱、相位谱、频率谱的实部和虚部作为所述目标语音信号的频率谱特征。
6.根据权利要求5所述的实时语音降噪方法,其中,所述根据所述降噪参数特征对所述目标语音信号进行后处理,包括:
根据所述降噪参数特征确定相位感知掩膜增益系数;
根据所述相位感知掩膜增益系数、能量谱和相位谱,生成降噪能量谱和降噪相位谱;
根据所述降噪能量谱和降噪相位谱确定降噪频率谱的实部和虚部;
对所述降噪频率谱的实部和虚部进行加窗处理和反短时傅里叶变换,得到降噪语音信号。
7.根据权利要求1所述的实时语音降噪方法,其中,所述对所述目标说话人语音信号进行特征提取包括:
将所述目标说话人语音信号输入至预先训练的声纹特征提取网络,得到所述目标说话人的声纹特征,其中,所述声纹特征提取网络包括深度残差层和局部聚合向量层,所述深度残差层用于提取分段语音信号特征,所述局部聚合向量层用于对分段语音信号特征进行聚合。
8.一种基于目标人的实时语音降噪装置,包括:
获取单元,被配置成获取目标语音信号和目标说话人语音信号;
提取单元,被配置成对所述目标说话人语音信号进行特征提取,得到目标说话人的声纹特征;
预处理单元,被配置成对所述目标语音信号进行预处理,得到所述目标语音信号的频率谱特征;
降噪单元,被配置成将所述目标语音信号的频率谱特征和所述目标说话人的声纹特征输入至预先训练的降噪神经网络,得到所述目标语音信号的降噪参数特征;
后处理单元,被配置成根据所述降噪参数特征对所述目标语音信号进行后处理,得到降噪语音信号。
9.根据权利要求8所述的实时语音降噪装置,其中,所述降噪神经网络包括顺序连接的卷积模块、自注意力模块、门控循环单元模块和反卷积模块。
10.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210490036.7A CN114898762A (zh) | 2022-05-07 | 2022-05-07 | 基于目标人的实时语音降噪方法、装置和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210490036.7A CN114898762A (zh) | 2022-05-07 | 2022-05-07 | 基于目标人的实时语音降噪方法、装置和电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114898762A true CN114898762A (zh) | 2022-08-12 |
Family
ID=82720053
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210490036.7A Pending CN114898762A (zh) | 2022-05-07 | 2022-05-07 | 基于目标人的实时语音降噪方法、装置和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114898762A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115394310A (zh) * | 2022-08-19 | 2022-11-25 | 中邮消费金融有限公司 | 一种基于神经网络的背景人声去除方法及*** |
CN116229986A (zh) * | 2023-05-05 | 2023-06-06 | 北京远鉴信息技术有限公司 | 一种针对声纹鉴定任务的语音降噪方法及装置 |
WO2024082928A1 (zh) * | 2022-10-21 | 2024-04-25 | 腾讯科技(深圳)有限公司 | 语音处理方法、装置、设备和介质 |
-
2022
- 2022-05-07 CN CN202210490036.7A patent/CN114898762A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115394310A (zh) * | 2022-08-19 | 2022-11-25 | 中邮消费金融有限公司 | 一种基于神经网络的背景人声去除方法及*** |
CN115394310B (zh) * | 2022-08-19 | 2023-04-07 | 中邮消费金融有限公司 | 一种基于神经网络的背景人声去除方法及*** |
WO2024082928A1 (zh) * | 2022-10-21 | 2024-04-25 | 腾讯科技(深圳)有限公司 | 语音处理方法、装置、设备和介质 |
CN116229986A (zh) * | 2023-05-05 | 2023-06-06 | 北京远鉴信息技术有限公司 | 一种针对声纹鉴定任务的语音降噪方法及装置 |
CN116229986B (zh) * | 2023-05-05 | 2023-07-21 | 北京远鉴信息技术有限公司 | 一种针对声纹鉴定任务的语音降噪方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108564963B (zh) | 用于增强语音的方法和装置 | |
CN114898762A (zh) | 基于目标人的实时语音降噪方法、装置和电子设备 | |
WO2021196905A1 (zh) | 语音信号去混响处理方法、装置、计算机设备和存储介质 | |
US20180190268A1 (en) | Speech recognizing method and apparatus | |
CN110600017A (zh) | 语音处理模型的训练方法、语音识别方法、***及装置 | |
Karthik et al. | Efficient speech enhancement using recurrent convolution encoder and decoder | |
US20240038252A1 (en) | Sound signal processing method and apparatus, and electronic device | |
US10141008B1 (en) | Real-time voice masking in a computer network | |
WO2021057239A1 (zh) | 语音数据的处理方法、装置、电子设备及可读存储介质 | |
WO2022183806A1 (zh) | 基于神经网络的语音增强方法、装置及电子设备 | |
CN111597825B (zh) | 语音翻译方法、装置、可读介质及电子设备 | |
CN112786069B (zh) | 语音提取方法、装置和电子设备 | |
CN111462727A (zh) | 用于生成语音的方法、装置、电子设备和计算机可读介质 | |
CN110827808A (zh) | 语音识别方法、装置、电子设备和计算机可读存储介质 | |
CN112750444A (zh) | 混音方法、装置及电子设备 | |
WO2022213825A1 (zh) | 基于神经网络的端到端语音增强方法、装置 | |
CN116403594B (zh) | 基于噪声更新因子的语音增强方法和装置 | |
CN111276134B (zh) | 语音识别方法、装置和计算机可读存储介质 | |
CN114783455A (zh) | 用于语音降噪的方法、装置、电子设备和计算机可读介质 | |
CN116959469A (zh) | 语音增强模型的训练方法、装置、电子设备和存储介质 | |
CN113284504A (zh) | 姿态检测方法、装置、电子设备及计算机可读存储介质 | |
CN111312224A (zh) | 语音分割模型的训练方法、装置和电子设备 | |
CN117496990A (zh) | 语音去噪方法、装置、计算机设备及存储介质 | |
CN112687284B (zh) | 混响语音的混响抑制方法及装置 | |
CN113763976B (zh) | 音频信号的降噪方法、装置、可读介质和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |