CN114267368A - 音频降噪模型的训练方法、音频降噪方法及装置 - Google Patents

音频降噪模型的训练方法、音频降噪方法及装置 Download PDF

Info

Publication number
CN114267368A
CN114267368A CN202111581604.6A CN202111581604A CN114267368A CN 114267368 A CN114267368 A CN 114267368A CN 202111581604 A CN202111581604 A CN 202111581604A CN 114267368 A CN114267368 A CN 114267368A
Authority
CN
China
Prior art keywords
audio
noise
noise reduction
noisy
original
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111581604.6A
Other languages
English (en)
Other versions
CN114267368B (zh
Inventor
赵情恩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202111581604.6A priority Critical patent/CN114267368B/zh
Priority claimed from CN202111581604.6A external-priority patent/CN114267368B/zh
Publication of CN114267368A publication Critical patent/CN114267368A/zh
Application granted granted Critical
Publication of CN114267368B publication Critical patent/CN114267368B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Soundproofing, Sound Blocking, And Sound Damping (AREA)

Abstract

本公开提出一种音频降噪模型的训练方法、音频降噪方法及装置,涉及人工智能技术领域,尤其涉及深度学习和音频技术领域。其中,音频降噪模型的训练方法包括:采用音频生成算法对原始含噪音频进行采样,得到具有相似特征的第一含噪音频和第二含噪音频;确定所述原始含噪音频的原始含噪频谱特征和所述第一含噪音频的第一含噪频谱特征;采用音频降噪模型分别对所述原始含噪频谱特征和所述第一含噪频谱特征进行降噪处理,得到原始降噪音频和第一降噪音频;利用所述原始降噪音频、所述第一降噪音频和所述第二含噪音频构建损失函数;根据所述损失函数对所述音频降噪模型的参数进行调整。采用本公开能够降低对音频降噪模型的训练难度。

Description

音频降噪模型的训练方法、音频降噪方法及装置
技术领域
本公开涉及人工智能技术领域,尤其涉及深度学习和音频技术领域,具体涉及一种音频降噪模型的训练方法、音频降噪方法和装置。
背景技术
音频降噪,又称为语音降噪或语音增强,是指当语音信号被各种各样的背景噪声干扰、甚至淹没后,尽可能地从含噪音频中提取出有用音频(或称纯净音频或降噪音频),抑制或降低噪声干扰的技术。音频降噪的主要作用是降低背景噪声干扰,改善语音质量,提升听者的舒适感,并提高语音信息传达的可懂度。
目前出现了深度学习技术应用于音频降噪的方法,这种方法获取训练样本的难度大,导致对音频降噪模型训练的难度较大。
发明内容
本公开提出了一种音频降噪模型的训练方法和音频降噪方法,能够降低对音频降噪模型的训练难度。
第一方面,本公开提供了一种音频降噪模型的训练方法,包括:
采用音频生成算法对原始含噪音频进行采样,得到具有相似特征的第一含噪音频和第二含噪音频;
确定原始含噪音频的原始含噪频谱特征和第一含噪音频的第一含噪频谱特征;
采用音频降噪模型分别对原始含噪频谱特征和第一含噪频谱特征进行降噪处理,得到原始降噪音频和第一降噪音频;
利用原始降噪音频、第一降噪音频和第二含噪音频构建损失函数;
根据损失函数对音频降噪模型的参数进行调整。
第二方面,本公开提供了一种音频降噪方法,包括:
将待处理音频输入预先训练的音频降噪模型;
获取音频降噪模型输出的结果音频;其中,预先训练的音频降噪模型采用第一方面的方法训练得到。
第三方面,本公开提供了.一种音频降噪模型的训练装置,包括:
采样模块,用于采用音频生成算法对原始含噪音频进行采样,得到具有相似特征的第一含噪音频和第二含噪音频;
确定模块,用于确定所述原始含噪音频的原始含噪频谱特征和所述第一含噪音频的第一含噪频谱特征;
处理模块,用于采用所述音频降噪模型分别对所述原始含噪频谱特征和所述第一含噪频谱特征进行降噪处理,得到原始降噪音频和第一降噪音频;
构建模块,用于利用所述原始降噪音频、所述第一降噪音频和所述第二含噪音频构建损失函数;
调整模块,用于根据所述损失函数对所述音频降噪模型的参数进行调整。
第四方面,本公开提供了一种音频降噪装置,包括:
输入模块,用于将待处理音频输入预先训练的音频降噪模型;
获取模块,用于所述音频降噪模型输出的结果音频;
其中,所述预先训练的音频降噪模型采用第三方面所述的装置训练得到。
第五方面,本公开提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述第一方面或第二方面所提供的方法。
第六方面,本公开提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行上述第一方面或第二方面所提供的方法。
第七方面,本公开提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据执行上述第一方面或第二方面所提供的方法。
本公开提供的技术方案至少包括以下有益效果:
本公开提出的音频降噪模型训练方法,仅需要采用含噪音频作为样本文件,而无需构造含噪音频和降噪音频配对的样本文件,因此能够方便地获取到样本文件,从而大大降低了训练音频降噪模型的难度。
根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1为根据本公开一实施例的音频降噪模型训练方法的实现流程图;
图2为根据本公开一实施例的音频降噪模型训练方法中,生成两条相似音频的实现方式示意图;
图3为根据本公开一实施例的音频降噪模型训练方法中,对原始含噪音频进行采样,得到第一含噪音频和第二含噪音频的实现方式示意图;
图4为根据本公开一实施例的音频降噪模型训练方法中,构建损失函数的实现方式示意图;
图5为根据本公开一实施例的音频降噪模型训练方法的输入、输出数据及损失函数构建方式示意图;
图6为根据本公开一实施例的音频降噪模型训练方法中,音频降噪模型的结构示意图;
图7为根据本公开一实施例的音频降噪模型训练方法中,音频降噪模型中的的转换单元的结构示意图;
图8为根据本公开一实施例的音频降噪模型训练方法中,Transformer模型的结构示意图;
图9为根据本公开一实施例的音频降噪方法的实现流程图;
图10为根据本公开一实施例的音频降噪模型训练装置1000的结构示意图;
图11为根据本公开一实施例的音频降噪模型训练装置1100的结构示意图;
图12为根据本公开一实施例的音频降噪装置1200的结构示意图;
图13为根据本公开一实施例的电子设备1300的结构框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
音频降噪对于降低背景噪声干扰、改善语音质量、提升听者的舒适感、提高语音信息传达的可懂度、提高语音转换的准确度等具有重要作用。目前出现了采用深度学习技术进行音频降噪的方法,这种方法大多需要大量含噪音频和降噪音频配对的音频文件作为样本文件,而构造含噪音频和降噪音频配对的音频文件是较为困难的,导致对音频降噪模型训练的难度较大。
图1为根据本公开一实施例的音频降噪模型训练方法的实现流程图。该方法包括以下步骤:
S110:采用音频生成算法对原始含噪音频进行采样,得到具有相似特征的第一含噪音频和第二含噪音频;
S120:确定该原始含噪音频的原始含噪频谱特征和该第一含噪音频的第一含噪频谱特征;
S130:采用音频降噪模型分别对该原始含噪频谱特征和该第一含噪频谱特征进行降噪处理,得到原始降噪音频和第一降噪音频;
S140:利用该原始降噪音频、该第一降噪音频和该第二含噪音频构建损失函数;
S150:根据该损失函数对该音频降噪模型的参数进行调整。
由上述过程可见,本公开提出的音频降噪模型的训练方法是一种基于深度学习的自监督训练方法,不需要人工构造含噪音频和降噪音频配对的样本文件,仅需要含噪音频即可训练任意音频降噪模型。本公开主要涉及训练策略,可以训练任意降噪网络而无需改造网络结构、无需估计噪声参数,也无需对输出音频进行复杂的后处理。
在本公开实施方式中,将真实场景采集到的包含噪声的音频、或者人工添加噪声合成的音频称为原始含噪音频。在上述步骤S110中,采用本公开实施方式提出的音频生成算法,可以采用该原始含噪音频生成两条具有相似特征的音频文件,称为第一含噪音频和第二含噪音频。
在一些可能的实施方式中,上述步骤S110中生成第一含噪音频和第二含噪音频的方式过程可以包括:
将原始含噪音频进行分帧,得到多个帧;
将上述多个帧进行分组处理,得到多个块;每个块包括K个帧,K为正偶数;
对上述各个块进行采样,得到每个块对应的两个音频片段,其中一个音频片段由该块中的序列号为奇数的帧依次连接而成,另一个音频片段由该块中的序列号为偶数的帧依次连接而成;
分别提取各个块对应的一个音频片段,将提取的音频片段依次连接,得到上述第一含噪音频;并将提取之后各个块剩余的另一个音频片段依次连接,得到上述第二含噪音频。
以图2为例,图2为根据本公开一实施例的音频降噪模型训练方法中,生成两条相似音频的实现方式示意图。如图2中,x表示原始含噪音频,首先对x进行分帧。在分帧时,往往设置在相邻两帧之间有一部分重叠,帧移是指相邻两帧起点之间的时间间隔。例如,在本公开实施方式中,分帧后每个帧的长度为64ms,帧移为16ms,则相邻两帧之间的重叠部分长度为48ms。一个长度为10s的音频可以被分为600多帧。
之后,将这些帧进行分组处理,也就是将分帧后的音频连续切割成多个块,每个块包含K(K为偶数)个帧。图2中示出了原始含噪音频x被切割成的两个块,其中一个块记为块1,块1包括序列号为i到(i+K-1)的K个帧;另一个块记为块2,块2包括序列号为(i+K)到(i+2K-1)的K个帧(其他块在图2中未示出)。为便于清晰显示,图2中未示出相邻帧之间的重叠部分;但需明确的是,分帧之后相邻帧之间存在重叠部分。之后,分别将各个块进行采样,得到各个块对应的两个音频片段。如图2中,从块1中提取序列号为奇数的帧并依次连接,得到一个音频片段,记为l11;将块1中序列号为偶数的帧依次连接,得到另一个音频片段,记为l12。从块2中提取序列号为奇数的帧并依次连接,得到一个音频片段,记为l21;将块2中序列号为偶数的帧依次连接,得到另一个音频片段,记为l22。按照同样的方式,将其它块做同样的采样操作,并得到每个块对应的两个音频片段。
最后,分别从每个块对应的两个音频片段中提取出一个,将抽取出的音频片段依次连接,得到第一含噪音频。例如,提取块1对应的音频片段l11、块2对应的音频片段l21、以及其它各个块对应的一个音频片段,将提取出的音频片段依次连接,得到第一含噪音频(图2中用s1(x)表示)。将块1对应的另一个音频片段l12、块2对应的另一个音频片段l22、以及其它各个块对应的另一个音频片段依次连接,得到第二含噪音频(图2中用s2(x)表示)。
需要说明的是,本公开实施例在提取音频片段时,并不限制提取哪一个音频片段。例如,本公开实施例也可以将块1对应的音频片段l11、块2对应的音频片段l22、以及其它各个块对应的一个音频片段依次连接,得到第一含噪音频,并将块1对应的另一个音频片段l12、块2对应的另一个音频片段l21、以及其它各个块对应的另一个音频片段依次连接,得到第二含噪音频。
可以看出,由于对一个块进行采样得到的两个音频片段中的各个对应帧是相邻的(一个序列号为奇数、另一个系列号为偶数),因此这两个音频片段相似而不相同。在此基础上,从各个块对应的两个音频片段中再提取并连接,得到的第一含噪音频和第二含噪音频也是相似而不相同的。例如,原始含噪音频包含系列号为1、2、3、4、5、6…的多个帧,采样之后,可以得到包含帧1、3、5、…的第一含噪音频、以及包含帧2、4、6…的第二含噪音频,第一含噪音频和第二含噪音频具有相似特征。
本公开实施方式还可以采用其他方式生成第一含噪音频和第二含噪音频。例如,在将原始音频分帧之后,直接提取序列号为奇数的帧连接成第一含噪音频,并提取序列号为偶数的帧连接成第二含噪音频。
由于采用采样的方式构造出相似而不相同的音频片段作为训练样本,避免了人工采集或构造含噪音频和降噪音频构成的样本对,因此大大简化了训练样本的获取/生成过程,从而能够从整体上降低对音频降噪模型的训练难度。
在一种可能的实现方式中,上述步骤S120可以采用时频转换方法得到原始含噪音频的原始含噪频谱特征和第一含噪音频的第一含噪频谱特征。例如,采用短时傅里叶变换(STFT,Short-Time Fourier Transform)、傅里叶变换(TFT)等方式,对原始含噪音频进行处理,得到原始含噪音频的原始含噪频谱特征;并采用短时傅里叶变换、傅里叶变换等方式,对第一含噪音频进行处理,得到第一含噪音频的第一含噪频谱特征。
相应地,上述步骤S130中音频降噪模型输出的处理结果是频谱特征,之后,可以将该降噪模型输出的频谱特征进行频域到时域的转换,得到音频文件。
可见,在本公开实施例中,音频降噪模型的处理对象是频谱特征,在对频谱特征进行处理之后,得到处理后的频谱特征;再对处理后的频谱特征进行转换,最终得到音频文件。这种对频谱特征进行处理的方式便于实现,能够简化对音频降噪模型的训练过程。
如图3所示,在一种可能的实现方式中,上述步骤S130中可以包括:
S310:将原始含噪频谱特征和第一含噪频谱特征分别输入降噪模型,得到原始降噪频谱特征和第一降噪频谱特征;
S320:分别对该原始降噪频谱特征和该第一降噪频谱特征进行频域到时域的转换,得到原始降噪音频和第一降噪音频。
例如,采用逆短时傅里叶变换(ISTFT,Inverse Short-Time FourierTransform)、逆傅里叶变换(ITFT)等方式,分别对原始降噪频谱特征和该第一降噪频谱特征进行转换,得到对应的原始降噪音频和第一降噪音频。
在构建损失函数时,可以采用与步骤S110中相同的音频生成算法,对上述原始降噪音频进行采样,得到两个具有相似特征的音频片段。
例如,将原始降噪音频进行分帧,得到多个帧;
将上述多个帧进行分组处理,得到多个块;每个块包括偶数个帧;
对上述各个块进行采样,得到每个块对应的两个音频片段;其中一个音频片段由该块中的序列号为奇数的帧依次连接而成,另一个音频片段由该块中的序列号为偶数的帧依次连接而成;
分别提取各个块对应的一个音频片段,将提取的音频片段依次连接,得到上述第一音频;并将提取之后各个块剩余的另一个音频片段依次连接,得到上述第二音频。
具体示例可以参照上述采用音频生成算法对原始含噪音频进行采样的实施方式,在此不再赘述。
如图4所示,在一种可能的实现方式中,上述步骤S140中构建损失函数的方式可以包括以下步骤:
S410:利用第一降噪音频、第一降噪频谱特征、第二含噪音频和第二含噪音频的第二含噪频谱特征,构建所述损失函数的第一部分;
S420:采用所述音频生成算法对所述原始降噪音频进行采样,得到具有相似特征的第一音频和第二音频;
S430:利用所述第一音频、所述第二音频、所述第二含噪音频和所述第一降噪音频,构建所述损失函数的第二部分;
S440:将所述第一部分和所述第二部分组成所述损失函数。
其中,上述步骤S410用于构建损失函数的第一部分,步骤S420和步骤S430用于构建损失函数的第二部分,二者之间没有执行顺序限制,二者可以一先一后执行、或同步执行。
上述损失函数的第一部分可以认为是损失函数的基础部分,第二部分可以认为是损失函数的正则项部分,正则项部分主要用于避免训练得到的降噪模型产生过度平滑的问题。
在一些实施方式中,上述损失函数的第一部分可以包括频域部分和时域部分,上述步骤S410可以包括:
利用第一降噪频谱特征和第二含噪频谱特征,确定第一部分的频域部分;并且,利用第一降噪音频和第二含噪音频,确定第一部分的时域部分;
确定该频域部分和该时域部分的加权和,得到该损失函数的第一部分。
图5为根据本公开一实施例的音频降噪模型训练方法的输入、输出数据及损失函数构建方式示意图。
如图5所示,采用音频生成算法对原始含噪音频(图5中用x表示)进行采样,得到两条具有相似特征的第一含噪音频(图5中用s1(x)表示)和第二含噪音频(图5中用s2(x)表示)。分别对原始含噪音频、第一含噪音频、第二含噪音频进行时频转换(如STFT),得到对应的原始含噪频谱特征(图5中用X表示)、第一含噪频谱特征(图5中用s1(X)表示)和第二含噪频谱特征(图5中用s2(X)表示)。
将X和s1(X)分别输入降噪模型(图5中用fθ表示),得到原始降噪频谱特征(图5中用fθ(X)表示)和第一降噪频谱特征(图5中用fθ(s1(X))表示)。
分别对fθ(X)和fθ(s1(X))进行频域到时域的转换(如ISTFT),得到对应的原始降噪音频(图5中用fθ(x)表示)和第一降噪音频(图5中用fθ(s1(x))表示)。
采用音频生成算法对fθ(x)进行采样,得到两条具有相似特征的第一音频(图5中用s1(fθ(x))表示)和第二音频(图5中用s2(fθ(x))表示)。
为了便于区分,在上述表示符号中,采用小写字母x表示时域的音频文件,采用大写字母X表示频域的频谱特征。
为了更好地刻画声谱振幅与相位之间的关系,进而用于重建去噪后的音频声谱,在一些实施方式中,将上述频谱特征(如原始含噪频谱特征、第一含噪频谱特征、原始降噪频谱特征、第一降噪频谱特征)以及降噪模型的参数采用复数表示,可以拆解出实部和虚部。
例如,上述降噪模型的参数矩阵可以包括实部分量和虚部分量;
原始含噪频谱特征可以表征为包括实部分量和虚部分量的原始含噪特征矩阵;
第一含噪频谱特征可以表征为包括实部分量和虚部分量的第一含噪特征矩阵。
相应地,上述将原始含噪频谱特征和第一含噪频谱特征分别输入降噪模型,得到原始降噪频谱特征和第一降噪频谱特征,可以包括:
采用降噪模型的参数矩阵分别对原始含噪特征矩阵和第一含噪特征矩阵进行卷积处理,得到原始降噪频谱特征和第一降噪频谱特征。
原始降噪频谱特征也可以表征为包括实部分量和虚部分量的原始降噪特征矩阵;
第一降噪频谱特征也可以表征为包括实部分量和虚部分量的第一降噪特征矩阵。
在进行上述卷积处理时,本公开实施方式可以采用将上述特征矩阵和/或参数矩阵拆解成实部和虚部,并分别进行计算。例如,采用W表示降噪模型的参数矩阵;采用M表示输入降噪模型的特征矩阵,M可以指代原始含噪特征矩阵或第一含噪特征矩阵等。其中,
W=Wr+jWi;Wr表示W的实部(Real)分量,Wi表示W的虚部(Imaginary)分量;
M=Mr+jMi;Mr表示M的实部分量,Mi表示M的虚部分量。
采用以下式子(1)确定降噪模型对输入的特征矩阵进行卷积处理之后的结果:
M*W=(Mr*Wr-Mi*Wi)+j(Mr*Wi-Mi*Wr) (1)
即,采用降噪模型对输入的特征矩阵进行卷积处理之后,输出也是一个包含实部分量和虚部分量的特征矩阵,该特征矩阵的实部分量为Mr*Wr-Mi*W,虚部分量为Mr*Wi-Mi*Wr。这种卷积计算方式便于实现、数据处理量小。
以下采用上述数据构建损失函数:
在一些实施方式中,利用第一降噪音频fθ(s1(x))、第一降噪频谱特征fθ(s1(X))、第二含噪音频s2(x)、第二含噪频谱特征s2(X)构建损失函数的第一部分,该部分作为损失函数的基础部分,如采用式子(2)确定损失函数的第一部分:
Lbasic=α×lossF+(1-α)×lossT (2)
其中,上述Lbasic表示损失函数的第一部分;
上述lossF表示损失函数的第一部分的频域部分;
上述lossT表示损失函数的第一部分的时域部分;
α表示超参数,一般取经验值;例如取值为0.2。
其中,上述lossF利用第一降噪频谱特征fθ(s1(X))和第二含噪频谱特征s2(X)来确定,例如采用式子(3)确定:
Figure BDA0003427235330000111
其中,Xr(t,f)表示s2(X)的实部分量中,对应第t个块的数据中的第f个频谱间隔的取值;
Xi(t,f)表示s2(X)的虚部分量中,对应第t个块的数据中的第f个频谱间隔的取值;
Figure BDA0003427235330000112
表示fθ(s1(X))的实部分量中,对应第t个块的数据中的第f个频谱间隔的取值;
Figure BDA0003427235330000113
表示fθ(s1(X))的虚部分量中,对应第t个块的数据中的第f个频谱间隔的取值;
T表示s2(X)或fθ(s1(X))对应的块数;
F表示s2(X)或fθ(s1(X))对应的频谱间隔数。
上述lossT可以利用第一降噪音频fθ(s1(x))和第二含噪音频s2(x)来确定,例如采用式子(4)确定:
Figure BDA0003427235330000114
其中,xi表示s2(x)第i个时间点的取值;
Figure BDA0003427235330000115
表示fθ(s1(x))的第i个时间点的取值;
N表示s2(X)或fθ(s1(X))的时间点的数量。
上述实施方式中,将损失函数的第一部分划分为频域部分和时域部分来分别计算,能够从频域和时域两个角度确定信号差异,从而更为全面地表示出音频降噪模型对信号的影响,提高模型训练效果。
在一些实施方式中,利用第一音频s1(fθ(x))、第二音频s2(fθ(x))、第二含噪音频s2(x)和第一降噪音频fθ(s1(x)),构建损失函数的第二部分,该部分作为损失函数的正则项,例如:
确定第一降噪音频fθ(s1(x))与第二含噪音频s2(x)的第一差值,并确定第一音频s1(fθ(x))与第二音频s2(fθ(x))的第二差值;
确定该第一差值与该第二差值的差;
确定该第一差值与该第二差值的差的L2范数;
根据该L2范数确定损失函数的第二部分。
在一些实施方式中,采用式子(5)确定损失函数的第二部分:
Figure BDA0003427235330000121
其中,Lreg表示损失函数的第二部分;
符号“|| ||2”表示L2范数,L2范数表示求向量内各元素的平方和然后求平方根;
本公开实施例可以确定上述fθ(s1(x))-s2(x)-s1fθ(x)+s2fθ(x)的L2范数的平方,得到损失函数的第二部分。
采用式子(6),可以将上述损失函数的第一部分和第二部分组成损失函数:
L=Lbaisc+r×Lreg (6)
其中,L表示损失函数;
Lbasic表示损失函数的第一部分;
Lreg表示损失函数的第二部分;
r表示超参数,用于调整第一部分和第二部分的比重,一般取经验值;例如取值为0.8。
利用上述损失函数调整降噪模型的参数,以实现对降噪模型的训练。例如,在计算出损失函数后,采用随机梯度下降(SGD,Stochastic Gradient Descent)准则反向更新降噪模型的参数;之后再进行下一批(batch)音频迭代,直到降噪模型的网络收敛即可,这样就得到一个具备一定降噪效果的降噪。
以上介绍了构建相似的含噪音频、并设计损失函数对降噪模型进行训练的一些具体方式。通过设计音频生成算法对单个含噪音频中的帧进行采样,能够由单个含噪音频构造出相似含噪音频,实现了仅需要含噪音频即可训练任意降噪网络。并且,本公开实施方式通过在损失函数中引入正则项的方式,解决了采样过程中相似含噪音频采样位置不同而导致的重构音频过于平滑的问题。
本公开实施方式提出的模型训练方法中,还提出一种降噪模型的结构。图6为根据本公开一实施例的音频降噪模型训练方法中,降噪模型的结构示意图。如图6所示,该降噪模型可以包括编码单元(Encoder)、转换单元和解码单元(Decoder);其中,
编码单元可以包括N1个由二维卷积层(Conv2D)、归一化层(Layer-norm)和线性整流单元(ReLU)构成的结构,N1为正整数;
转换单元包括两阶段融合的转换模型(TSTM,Two Stage Transformer Model);
解码单元包括N2个由二维卷积层(Conv2D)、归一化层(Layer-norm)和线性整流单元(ReLU)构成的结构,N2为正整数。
以图6为例,上述N1和N2相等,N1和N2取值均为3。在一些实施方式中,编码单元和解码单元之间可以存在跳跃连接(skip connections)。以图6为例,编码单元(Encoder)包括的3个{Conv2D+Layer-norm+ReLU}结构分别与解码单元(Decoder)包括的3个{Conv2D+Layer-norm+ReLU}结构连接,这样构成U型网络,一方面可以解决训练过程中梯度***和梯度消失问题,另一方面也有利于传递低级特征,对提取多级别多层次的特征更有帮助。
如图6所示,在一些实施方式中,整个降噪模型的输入是含噪音频的频谱特征(如通过STFT提取),降噪模型的Decoder的输出为进行降噪处理后的梅尔谱特征;再利用含噪音频的频谱特征对该梅尔谱特征进行处理,得到去噪音频的频谱特征;之后对去噪音频的频谱特征进行频域到时域的转换(如ISTFT),得到去噪音频。
图7为根据本公开一实施例的音频降噪模型训练方法中,降噪模型中的的转换单元的结构示意图。如图7所示,该转换单元可以为两阶段融合的转换模型(TSTM,Two StageTransformer Model),包括局部转换(Local Transformer)模型和全局转换(GlobalTransformer)模型。TSTM能够更好地挖掘特征中局部与全局的上下文信息,通过改变输入来使各个Transformer学习到不同位置的信息,如Local Transformer模型对编码单元(Encoder)处理后的数据中对应各个块的数据进行独立处理,Global Transformer模型对编码单元(Encoder)处理后的数据中不同块的同一位置的数据进行处理。这样,前者能学习到的是当前这个块的信息,后者是跨越了不同块,全视角去学习。
与上述整个降噪模型的参数矩阵类似,TSTM模型的参数矩阵也可以包括实部分量和虚部分量,输入TSTM模型中的特征信息可以为包括实部分量和虚部分量的特征矩阵;采用TSTM的参数矩阵对输入的特征矩阵进行特征处理,得到处理后的特征矩阵,该处理后的特征矩阵包括实部分量和虚部分量。
例如,在进行上述卷积处理时,本公开实施方式可以采用将上述特征矩阵和/或参数矩阵拆解成实部和虚部,并分别进行计算。例如,采用P表示TSTM模型的参数矩阵;采用N表示输入TSTM模型的特征矩阵,其中,
P=TSTMr+jTSTMi;TSTMr表示TSTM模型的参数矩阵的实部分量,TSTMi表示TSTM模型的参数矩阵的虚部分量;
N=Nr+jNi;Nr表示N的实部分量,Ni表示N的虚部分量。
采用以下式子(7)确定TSTM模型对输入的特征矩阵进行卷积处理之后的结果:
N*P=(Nr*TSTMr-Ni*TSTMi)+j(Nr*TSTMi-Ni*TSTMr) (7)
即,采用TSTM模型对输入的特征矩阵进行卷积处理之后,输出也是一个包含实部分量和虚部分量的特征矩阵,该特征矩阵的实部分量为Nr*TSTMr-Ni*TSTMi,虚部分量为Nr*TSTMi-Ni*TSTMr
此外,对于上述TSTM模型中的各个Transformer模型,如局部转换模型和全局转换模型,本公开实施方式可以包括多头注意力层(Multi-Head Attention)、第一归一化层(Layer Norm)、前馈网络(Feed-forward Network)和第二归一化层(Layer Norm);其中,前馈网络可以包括门控循环单元(GRU,Gate Recurrent Unit)、ReLU和线性层(Linear)。图8为根据本公开一实施例的音频降噪模型训练方法中,Transformer模型的结构示意图,如图8所示,在Transformer模型的前馈网络中采用GRU来替代传统的长短期记忆(LSTM,LongShort Term Memory)层,可以在学习时序信息,以及相对位置信息等方面更加准确,并且参数量更少,更容易使模型收敛。
需要强调的是,以上仅为本公开实施方式使用的一种音频降噪模型的示例,本公开实施方式提出的音频降噪模型的训练方法可以适用于对任何音频降噪模型的训练,本公开对音频降噪模型的结构不做限制。
本公开实施例还提出一种音频降噪方法,图9为根据本公开一实施例的音频降噪方法的实现流程图,包括:
S910:将待处理音频输入预先训练的音频降噪模型;
S920:获取该音频降噪模型输出的结果音频;其中,该预先训练的音频降噪模型采用前述音频降噪模型的训练方法训练得到。
这样,包含噪声的待处理音频经过音频降噪模型处理之后,能够降低或消除待处理音频中的噪声,得到降噪后的音频文件,从而可以改善音频质量,提升听者的舒适感;如果该音频文件为语音文件,还可以提升语音信息传达的可懂度,并为提升语音识别的准确度创造有利条件。
该音频降噪模型的训练方式在以上实施方式中已有介绍,在此不再赘述。
本公开实施方式还提出一种音频降噪模型的训练装置,图10为根据本公开一实施例的音频降噪模型训练装置1000的结构示意图,包括:
采样模块1010,用于采用音频生成算法对原始含噪音频进行采样,得到具有相似特征的第一含噪音频和第二含噪音频;
确定模块1020,用于确定所述原始含噪音频的原始含噪频谱特征和所述第一含噪音频的第一含噪频谱特征;
处理模块1030,用于采用所述音频降噪模型分别对所述原始含噪频谱特征和所述第一含噪频谱特征进行降噪处理,得到原始降噪音频和第一降噪音频;
构建模块1040,用于利用所述原始降噪音频、所述第一降噪音频和所述第二含噪音频构建损失函数;
调整模块1050,用于根据所述损失函数对所述音频降噪模型的参数进行调整。
本公开实施方式还提出一种音频降噪模型的训练装置,图11为根据本公开一实施例的音频降噪模型训练装置1100的结构示意图,如图11所示,在一种可能的实现方式中,上述采样模块1010包括:
分帧子模块1011,用于将所述原始含噪音频进行分帧,得到多个帧;
分组子模块1012,用于将所述多个帧进行分组处理,得到多个块;每个所述块包括偶数个所述帧;
采样连接子模块1013,用于对各个所述块进行采样,得到每个所述块对应的两个音频片段,其中一个音频片段由所述块中的序列号为奇数的帧依次连接而成,另一个音频片段由所述块中的序列号为偶数的帧依次连接而成;
提取连接子模块1014,用于分别提取各个块对应的一个音频片段,将提取的音频片段依次连接,得到所述第一含噪音频;并将提取之后各个块剩余的另一个音频片段依次连接,得到所述第二含噪音频。
如图11所示,在一种可能的实现方式中,上述处理模块1030包括:
输入子模块1031,用于将所述原始含噪频谱特征和所述第一含噪频谱特征分别输入所述音频降噪模型,得到原始降噪频谱特征和第一降噪频谱特征;
转换子模块1032,用于分别对所述原始降噪频谱特征和所述第一降噪频谱特征进行频域到时域的转换,得到所述原始降噪音频和所述第一降噪音频。
在一种可能的实现方式中,上述构建模块1040用于:
利用所述第一降噪音频、所述第一降噪频谱特征、所述第二含噪音频和所述第二含噪音频的第二含噪频谱特征,构建所述损失函数的第一部分;
采用所述音频生成算法对所述原始降噪音频进行采样,得到具有相似特征的第一音频和第二音频;
利用所述第一音频、所述第二音频、所述第二含噪音频和所述第一降噪音频,构建所述损失函数的第二部分;
将所述第一部分和所述第二部分组成所述损失函数。
在一种可能的实现方式中,上述构建模块1040用于:
将所述原始降噪音频进行分帧,得到多个帧;
将所述多个帧进行分组处理,得到多个块;每个所述块包括偶数个所述帧;
对各个所述块进行采样,得到每个所述块对应的两个音频片段;其中一个音频片段由所述块中的序列号为奇数的帧依次连接而成,另一个音频片段由所述块中的序列号为偶数的帧依次连接而成;
分别提取各个块对应的一个音频片段,将提取的音频片段依次连接,得到所述第一音频;并将提取之后各个块剩余的另一个音频片段依次连接,得到所述第二音频。
在一种可能的实现方式中,上述音频降噪模型的参数矩阵包括实部分量和虚部分量;
所述原始含噪频谱特征表征为包括实部分量和虚部分量的原始含噪特征矩阵;
所述第一含噪频谱特征表征为包括实部分量和虚部分量的第一含噪特征矩阵。
在一种可能的实现方式中,上述输入子模块1031,用于采用所述音频降噪模型的参数矩阵分别对所述原始含噪特征矩阵和所述第一含噪特征矩阵进行卷积处理,得到所述原始降噪频谱特征和所述第一降噪频谱特征。
在一种可能的实现方式中,上述构建模块1040用于:
利用所述第一降噪频谱特征和所述第二含噪频谱特征,确定所述第一部分的频域部分;并且,利用所述第一降噪音频和所述第二含噪音频,确定所述第一部分的时域部分;
确定所述频域部分和所述时域部分的加权和,得到所述损失函数的第一部分。
在一种可能的实现方式中,上述第一降噪频谱特征表征为包括实部分量和虚部分量的第一降噪特征矩阵;
所述第二含噪频谱特征表征为包括实部分量和虚部分量的第二含噪特征矩阵。
在一种可能的实现方式中,上述构建模块1040用于:
利用所述第一降噪特征矩阵的实部分量与所述第二含噪特征矩阵的实部分量的差值、以及所述第一降噪特征矩阵的虚部分量与所述第二含噪特征矩阵的虚部分量的差值,确定所述第一部分的频域部分。
在一种可能的实现方式中,上述构建模块1040用于:利用所述第一降噪音频和所述第二含噪音频在各个对应时刻上的差值,确定所述第一部分的时域部分。
在一种可能的实现方式中,上述构建模块1040用于:
确定所述第一降噪音频与所述第二含噪音频的第一差值,并确定所述第一音频与所述第二音频的第二差值;
确定所述第一差值与所述第二差值的差;
确定所述第一差值与所述第二差值的差的L2范数;
根据所述L2范数确定所述损失函数的第二部分。
在一种可能的实现方式中,上述音频降噪模型包括编码单元、转换单元和解码单元;其中,
所述编码单元包括N1个由二维卷积层、归一化层和线性整流单元ReLU构成的结构,所述N1为正整数;
所述转换单元包括两阶段融合的转换模型;
所述解码单元包括N2个由二维卷积层、归一化层和ReLU构成的结构,所述N2为正整数。
在一种可能的实现方式中,上述两阶段融合的转换模型中的每个转换模型包括多头注意力层、第一归一化层、前馈网络和第二归一化层;
所述前馈网络包括门控循环单元GRU、ReLU和线性层。
在一种可能的实现方式中,上述N1与所述N2相等,所述编码单元和所述解码单元之间存在跳跃连接。
本公开实施方式还提出一种音频降噪装置,图12为根据本公开一实施例的音频降噪装置1200的结构示意图,包括:
输入模块1210,用于将待处理音频输入预先训练的音频降噪模型;
获取模块1220,用于所述音频降噪模型输出的结果音频;
其中,预先训练的音频降噪模型采用本公开提出的音频降噪模型训练方法中的任意方式训练得到。
本公开装置实施例中各模块和/或单元的功能可以参见本公开上述方法实施例中的相关描述,在此不在赘述。
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图13示出了可以用来实施本公开的实施例的示例电子设备1300的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图13所示,设备1300包括计算单元1301,其可以根据存储在只读存储器(ROM)1302中的计算机程序或者从存储单元1308加载到随机访问存储器(RAM)1303中的计算机程序,来执行各种适当的动作和处理。在RAM 1303中,还可存储设备1300操作所需的各种程序和数据。计算单元1301、ROM 1302以及RAM 1303通过总线1304彼此相连。输入/输出(I/O)接口1305也连接至总线1304。
设备1300中的多个部件连接至I/O接口1305,包括:输入单元1306,例如键盘、鼠标等;输出单元1307,例如各种类型的显示器、扬声器等;存储单元1308,例如磁盘、光盘等;以及通信单元1309,例如网卡、调制解调器、无线通信收发机等。通信单元1309允许设备1300通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1301可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1301的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1301执行上文所描述的各个方法和处理,例如音频降噪模型的训练方法或音频降噪方法。例如,在一些实施例中,音频降噪模型的训练方法或音频降噪方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1308。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1302和/或通信单元1309而被载入和/或安装到设备1300上。当计算机程序加载到RAM 1303并由计算单元1301执行时,可以执行上文描述的音频降噪模型的训练方法或音频降噪方法的一个或多个步骤。备选地,在其他实施例中,计算单元1301可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行音频降噪模型的训练方法或音频降噪方法。
本文中以上描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入、或者触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式***的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (25)

1.一种音频降噪模型的训练方法,包括:
采用音频生成算法对原始含噪音频进行采样,得到具有相似特征的第一含噪音频和第二含噪音频;
确定所述原始含噪音频的原始含噪频谱特征和所述第一含噪音频的第一含噪频谱特征;
采用音频降噪模型分别对所述原始含噪频谱特征和所述第一含噪频谱特征进行降噪处理,得到原始降噪音频和第一降噪音频;
利用所述原始降噪音频、所述第一降噪音频和所述第二含噪音频构建损失函数;
根据所述损失函数对所述音频降噪模型的参数进行调整。
2.根据权利要求1所述的方法,其中,所述采用音频生成算法对原始含噪音频进行采样,得到具有相似特征的第一含噪音频和第二含噪音频,包括:
将所述原始含噪音频进行分帧,得到多个帧;
将所述多个帧进行分组处理,得到多个块;每个块包括K个所述帧,所述K为正偶数;
对各个块进行采样,得到每个块对应的两个音频片段,其中一个音频片段由该块中的序列号为奇数的帧依次连接而成,另一个音频片段由该块中的序列号为偶数的帧依次连接而成;
分别提取各个块对应的一个音频片段,将提取的音频片段依次连接,得到所述第一含噪音频,并将提取之后各个块剩余的另一个音频片段依次连接,得到所述第二含噪音频。
3.根据权利要求1所述的方法,其中,所述采用音频降噪模型分别对所述原始含噪频谱特征和所述第一含噪频谱特征进行降噪处理,得到原始降噪音频和第一降噪音频,包括:
将所述原始含噪频谱特征和所述第一含噪频谱特征分别输入所述音频降噪模型,得到原始降噪频谱特征和第一降噪频谱特征;
分别对所述原始降噪频谱特征和所述第一降噪频谱特征进行频域到时域的转换,得到所述原始降噪音频和所述第一降噪音频。
4.根据权利要求3所述的方法,其中,所述利用所述原始降噪音频、所述第一降噪音频和所述第二含噪音频构建损失函数,包括:
利用所述第一降噪音频、所述第一降噪频谱特征、所述第二含噪音频和所述第二含噪音频的第二含噪频谱特征,构建所述损失函数的第一部分;
采用所述音频生成算法对所述原始降噪音频进行采样,得到具有相似特征的第一音频和第二音频;
利用所述第一音频、所述第二音频、所述第二含噪音频和所述第一降噪音频,构建所述损失函数的第二部分;
将所述第一部分和所述第二部分组成所述损失函数。
5.根据权利要求4所述的方法,其中,所述采用所述音频生成算法对所述原始降噪音频进行采样,得到具有相似特征的第一音频和第二音频,包括:
将所述原始降噪音频进行分帧,得到多个帧;
将所述多个帧进行分组处理,得到多个块;每个块包括L个所述帧,所述L为正整数;
对各个块进行采样,得到每个块对应的两个音频片段,其中一个音频片段由该块中的序列号为奇数的帧依次连接而成,另一个音频片段由该块中的序列号为偶数的帧依次连接而成;
分别提取各个块对应的一个音频片段,将提取的音频片段依次连接,得到所述第一音频,并将提取之后各个块剩余的另一个音频片段依次连接,得到所述第二音频。
6.根据权利要求3至5中任一所述的方法,其中,
所述音频降噪模型的参数矩阵包括实部分量和虚部分量;
所述原始含噪频谱特征表征为包括实部分量和虚部分量的原始含噪特征矩阵;
所述第一含噪频谱特征表征为包括实部分量和虚部分量的第一含噪特征矩阵。
7.根据权利要求3至6中任一所述的方法,其中,所述将所述原始含噪频谱特征和所述第一含噪频谱特征分别输入所述音频降噪模型,得到原始降噪频谱特征和第一降噪频谱特征,包括:
采用所述音频降噪模型的参数矩阵分别对所述原始含噪特征矩阵和所述第一含噪特征矩阵进行卷积处理,得到所述原始降噪频谱特征和所述第一降噪频谱特征。
8.根据权利要求4所述的方法,其中,所述利用所述第一降噪音频、所述第一降噪频谱特征、所述第二含噪音频和所述第二含噪音频的第二含噪频谱特征,构建所述损失函数的第一部分,包括:
利用所述第一降噪频谱特征和所述第二含噪频谱特征,确定所述第一部分的频域部分,并且,利用所述第一降噪音频和所述第二含噪音频,确定所述第一部分的时域部分;
确定所述频域部分和所述时域部分的加权和,得到所述损失函数的第一部分。
9.根据权利要求8所述的方法,其中,
所述第一降噪频谱特征表征为包括实部分量和虚部分量的第一降噪特征矩阵;
所述第二含噪频谱特征表征为包括实部分量和虚部分量的第二含噪特征矩阵。
10.根据权利要求9所述的方法,其中,所述利用所述第一降噪频谱特征和所述第二含噪频谱特征,确定所述第一部分的频域部分,包括:
利用所述第一降噪特征矩阵的实部分量与所述第二含噪特征矩阵的实部分量的差值、以及所述第一降噪特征矩阵的虚部分量与所述第二含噪特征矩阵的虚部分量的差值,确定所述第一部分的频域部分。
11.根据权利要求8至10中任一所述的方法,其中,所述利用所述第一降噪音频和所述第二含噪音频,确定所述第一部分的时域部分,包括:
利用所述第一降噪音频和所述第二含噪音频在各个对应时刻上的差值,确定所述第一部分的时域部分。
12.根据权利要求4至11中任一所述的方法,其中,所述利用所述第一音频、所述第二音频、所述第二含噪音频和所述第一降噪音频,构建所述损失函数的第二部分,包括:
确定所述第一降噪音频与所述第二含噪音频的第一差值,并确定所述第一音频与所述第二音频的第二差值;
确定所述第一差值与所述第二差值的差;
确定所述第一差值与所述第二差值的差的L2范数;
根据所述L2范数确定所述损失函数的第二部分。
13.根据权利要求1至12中任一所述的方法,其中,所述音频降噪模型包括编码单元、转换单元和解码单元;其中,
所述编码单元包括N1个由二维卷积层、归一化层和线性整流单元ReLU构成的结构,所述N1为正整数;
所述转换单元包括两阶段融合的转换模型;
所述解码单元包括N2个由二维卷积层、归一化层和ReLU构成的结构,所述N2为正整数。
14.根据权利要求13所述的方法,其中,所述两阶段融合的转换模型中的每个转换模型包括多头注意力层、第一归一化层、前馈网络和第二归一化层;
所述前馈网络包括门控循环单元GRU、ReLU和线性层。
15.根据权利要求13或14所述的方法,其中,所述N1与所述N2相等,和/或,所述编码单元和所述解码单元之间存在跳跃连接。
16.一种音频降噪方法,包括:
将待处理音频输入预先训练的音频降噪模型;
获取所述音频降噪模型输出的结果音频;其中,所述预先训练的音频降噪模型采用权利要求1至15中任一所述的方法训练得到。
17.一种音频降噪模型的训练装置,包括:
采样模块,用于采用音频生成算法对原始含噪音频进行采样,得到具有相似特征的第一含噪音频和第二含噪音频;
确定模块,用于确定所述原始含噪音频的原始含噪频谱特征和所述第一含噪音频的第一含噪频谱特征;
处理模块,用于采用音频降噪模型分别对所述原始含噪频谱特征和所述第一含噪频谱特征进行降噪处理,得到原始降噪音频和第一降噪音频;
构建模块,用于利用所述原始降噪音频、所述第一降噪音频和所述第二含噪音频构建损失函数;
调整模块,用于根据所述损失函数对所述音频降噪模型的参数进行调整。
18.根据权利要求17所述的装置,其中,所述采样模块包括:
分帧子模块,用于将所述原始含噪音频进行分帧,得到多个帧;
分组子模块,用于将所述多个帧进行分组处理,得到多个块;每个块包括K个所述帧,所述K为正偶数;
采样连接子模块,用于对各个块进行采样,得到每个块对应的两个音频片段,其中一个音频片段由该块中的序列号为奇数的帧依次连接而成,另一个音频片段由该块中的序列号为偶数的帧依次连接而成;
提取连接子模块,用于分别提取各个块对应的一个音频片段,将提取的音频片段依次连接,得到所述第一含噪音频,并将提取之后各个块剩余的另一个音频片段依次连接,得到所述第二含噪音频。
19.根据权利要求17所述的装置,其中,所述处理模块包括:
输入子模块,用于将所述原始含噪频谱特征和所述第一含噪频谱特征分别输入所述音频降噪模型,得到原始降噪频谱特征和第一降噪频谱特征;
转换子模块,用于分别对所述原始降噪频谱特征和所述第一降噪频谱特征进行频域到时域的转换,得到所述原始降噪音频和所述第一降噪音频。
20.根据权利要求19所述的装置,其中,所述构建模块用于:
利用所述第一降噪音频、所述第一降噪频谱特征、所述第二含噪音频和所述第二含噪音频的第二含噪频谱特征,构建所述损失函数的第一部分;
采用所述音频生成算法对所述原始降噪音频进行采样,得到具有相似特征的第一音频和第二音频;
利用所述第一音频、所述第二音频、所述第二含噪音频和所述第一降噪音频,构建所述损失函数的第二部分;
将所述第一部分和所述第二部分组成所述损失函数。
21.根据权利要求20所述的装置,其中,所述构建模块用于:
将所述原始降噪音频进行分帧,得到多个帧;
将所述多个帧进行分组处理,得到多个块;每个所述块包括L个所述帧,所述L为正偶数;
对各个所述块进行采样,得到每个所述块对应的两个音频片段;其中一个音频片段由所述块中的序列号为奇数的帧依次连接而成,另一个音频片段由所述块中的序列号为偶数的帧依次连接而成;
分别提取各个块对应的一个音频片段,将提取的音频片段依次连接,得到所述第一音频;并将提取之后各个块剩余的另一个音频片段依次连接,得到所述第二音频。
22.一种音频降噪装置,包括:
输入模块,用于将待处理音频输入预先训练的音频降噪模型;
获取模块,用于所述音频降噪模型输出的结果音频;
其中,所述预先训练的音频降噪模型采用权利要求17至21中任一所述的装置训练得到。
23.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至16中任一项所述的方法。
24.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1至16中任一项所述的方法。
25.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1至16中任一项所述的方法。
CN202111581604.6A 2021-12-22 音频降噪模型的训练方法、音频降噪方法及装置 Active CN114267368B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111581604.6A CN114267368B (zh) 2021-12-22 音频降噪模型的训练方法、音频降噪方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111581604.6A CN114267368B (zh) 2021-12-22 音频降噪模型的训练方法、音频降噪方法及装置

Publications (2)

Publication Number Publication Date
CN114267368A true CN114267368A (zh) 2022-04-01
CN114267368B CN114267368B (zh) 2024-07-26

Family

ID=

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005114656A1 (en) * 2004-05-14 2005-12-01 Loquendo S.P.A. Noise reduction for automatic speech recognition
US20190318755A1 (en) * 2018-04-13 2019-10-17 Microsoft Technology Licensing, Llc Systems, methods, and computer-readable media for improved real-time audio processing
CN111554321A (zh) * 2020-04-20 2020-08-18 北京达佳互联信息技术有限公司 降噪模型训练方法、装置、电子设备及存储介质
CN111883164A (zh) * 2020-06-22 2020-11-03 北京达佳互联信息技术有限公司 模型训练方法、装置、电子设备及存储介质
CN112735456A (zh) * 2020-11-23 2021-04-30 西安邮电大学 一种基于dnn-clstm网络的语音增强方法
CN113470684A (zh) * 2021-07-23 2021-10-01 平安科技(深圳)有限公司 音频降噪方法、装置、设备及存储介质
TW202143215A (zh) * 2020-05-08 2021-11-16 元智大學 應用深度學習的語音增強系統
CN113808602A (zh) * 2021-01-29 2021-12-17 北京沃东天骏信息技术有限公司 语音增强方法、模型训练方法以及相关设备

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005114656A1 (en) * 2004-05-14 2005-12-01 Loquendo S.P.A. Noise reduction for automatic speech recognition
US20190318755A1 (en) * 2018-04-13 2019-10-17 Microsoft Technology Licensing, Llc Systems, methods, and computer-readable media for improved real-time audio processing
CN111554321A (zh) * 2020-04-20 2020-08-18 北京达佳互联信息技术有限公司 降噪模型训练方法、装置、电子设备及存储介质
TW202143215A (zh) * 2020-05-08 2021-11-16 元智大學 應用深度學習的語音增強系統
CN111883164A (zh) * 2020-06-22 2020-11-03 北京达佳互联信息技术有限公司 模型训练方法、装置、电子设备及存储介质
CN112735456A (zh) * 2020-11-23 2021-04-30 西安邮电大学 一种基于dnn-clstm网络的语音增强方法
CN113808602A (zh) * 2021-01-29 2021-12-17 北京沃东天骏信息技术有限公司 语音增强方法、模型训练方法以及相关设备
CN113470684A (zh) * 2021-07-23 2021-10-01 平安科技(深圳)有限公司 音频降噪方法、装置、设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
时文华;张雄伟;邹霞;孙蒙;: "利用深度全卷积编解码网络的单通道语音增强", 信号处理, no. 04, 25 April 2019 (2019-04-25) *

Similar Documents

Publication Publication Date Title
CN111653285B (zh) 丢包补偿方法及装置
CN111081268A (zh) 一种相位相关的共享深度卷积神经网络语音增强方法
CN109767783A (zh) 语音增强方法、装置、设备及存储介质
CN105788607A (zh) 应用于双麦克风阵列的语音增强方法
US20210233550A1 (en) Voice separation device, voice separation method, voice separation program, and voice separation system
WO2022161277A1 (zh) 语音增强方法、模型训练方法以及相关设备
CN110875049B (zh) 语音信号的处理方法及装置
CN112767959B (zh) 语音增强方法、装置、设备及介质
CN113345460B (zh) 音频信号处理方法、装置、设备及存储介质
CN113808607B (zh) 基于神经网络的语音增强方法、装置及电子设备
CN112259119B (zh) 基于堆叠沙漏网络的音乐源分离方法
CN115223583A (zh) 一种语音增强方法、装置、设备及介质
Qi et al. Exploring deep hybrid tensor-to-vector network architectures for regression based speech enhancement
CN110097892B (zh) 一种语音频信号的处理方法和装置
CN114360571A (zh) 基于参考的语音增强方法
CN114267368B (zh) 音频降噪模型的训练方法、音频降噪方法及装置
Park et al. Unsupervised speech domain adaptation based on disentangled representation learning for robust speech recognition
CN114267368A (zh) 音频降噪模型的训练方法、音频降噪方法及装置
Yu et al. Audio signal denoising with complex wavelets and adaptive block attenuation
Liu et al. Speech enhancement based on discrete wavelet packet transform and Itakura-Saito nonnegative matrix factorisation
CN115662461A (zh) 降噪模型训练方法、装置以及设备
US20240021210A1 (en) Method and apparatus for neural network based processing of audio using sinusoidal activation
Yaseen et al. Noisy signal filtration using complex wavelet basis sets
CN113744754B (zh) 语音信号的增强处理方法和装置
US20240161766A1 (en) Robustness/performance improvement for deep learning based speech enhancement against artifacts and distortion

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant