CN113870893A - 一种多通道双说话人分离方法及*** - Google Patents
一种多通道双说话人分离方法及*** Download PDFInfo
- Publication number
- CN113870893A CN113870893A CN202111134595.6A CN202111134595A CN113870893A CN 113870893 A CN113870893 A CN 113870893A CN 202111134595 A CN202111134595 A CN 202111134595A CN 113870893 A CN113870893 A CN 113870893A
- Authority
- CN
- China
- Prior art keywords
- speaker
- audio
- sound source
- target
- source position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000926 separation method Methods 0.000 title claims abstract description 40
- 238000001228 spectrum Methods 0.000 claims abstract description 71
- 238000000034 method Methods 0.000 claims abstract description 30
- 238000012545 processing Methods 0.000 claims abstract description 20
- 238000012549 training Methods 0.000 claims description 73
- 230000000873 masking effect Effects 0.000 claims description 68
- 230000006870 function Effects 0.000 claims description 31
- 230000002452 interceptive effect Effects 0.000 claims description 31
- 239000013598 vector Substances 0.000 claims description 26
- 238000009432 framing Methods 0.000 claims description 11
- 230000009977 dual effect Effects 0.000 claims description 10
- 230000002457 bidirectional effect Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 5
- 238000011176 pooling Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Stereophonic System (AREA)
Abstract
本申请涉及一种多通道双说话人分离方法及***,其中所述方法包括:对混合语音音频进行处理,得到每帧音频的频谱;根据所述每帧音频和声源位置估计网络获得估计的帧级别笛卡尔坐标和对应权重;根据所述每帧音频的频谱得到第一对数能量谱和第一正余弦通道间相位差;根据所述估计的帧级别笛卡尔坐标和对应权重,得到所述混合语音音频中目标说话人的笛卡尔坐标估计;根据所述目标说话人的笛卡尔坐标得到第一角度特征;根据所述第一对数能量谱、第一正余弦通道间相位差、第一角度特征和说话人掩蔽估计网络得到目标说话人和第一估计的说话人掩蔽;基于所述目标说话人、所述第一估计的说话人掩蔽和所述混合语音音频,得到所述至少两个说话人的分离语音。
Description
技术领域
本申请实施例涉及语音分离领域,具体涉及一种多通道双说话人分离方法及***。
背景技术
语音分离的目标是将不同说话人从带有混响和噪声的混合语音音频中分离出来,得到干净的单独说话人的语音。语音分离作为语音识别***、语音日志等技术的前端,在教学环境、会议环境等多种环境下都有广泛的应用。
深度聚类是一种传统的语音分离方法。它通过训练目标说话人在混合语音音频上的理想二值掩蔽,得到目标说话人的分离语音。在训练过程中,需要对每一个时频单元进行向量化,进而将距离相近的时频单元聚类在一起。但对于不同语音环境的影响,深度聚类的性能十分有限。
近年来,基于深度神经网络的语音分离模型在语音分离领域迅速发展,性能已远超传统方法。但目前,大多数实验研究的仍然是基于完全重叠的混合语音音频的语音分离,对于会议等单个说话人占主导的语音环境有所忽略。研究显示,在会议环境下,说话人重叠的比例一般不高于20%,因此,对于不同低说话人重叠比例的语音分离,鲁棒性能仍有待提升。另一方面,对于不同说话人重叠比例的混合语音音频,无法预先得知目标说话人在语音中的具***置,神经网络训练的输入只能是整个语音。这种情况下,如果使用平均池化,干扰说话人语音以及静音帧会严重影响目标说话人位置信息的估计,进而使语音分离的性能降低。
发明内容
本申请实施例的目的在于对于低说话人重叠比例的混合语音音频减小目标说话人位置估计产生的偏差,提升语音分离的鲁棒性和分离性能。
第一方面,本申请实施例提供了一种多通道双说话人分离方法包括:对混合语音音频进行分帧、加窗和傅里叶变换处理,得到每帧音频的频谱;所述混合语音音频为包括不同说话人重叠比例的混合语音音频;根据所述每帧音频和声源位置估计网络获得估计的帧级别笛卡尔坐标和对应权重;根据所述每帧音频的频谱得到第一对数能量谱和第一正余弦通道间相位差;根据所述估计的帧级别笛卡尔坐标和对应权重,得到所述混合语音音频中目标说话人的笛卡尔坐标估计,所述目标说话人的笛卡尔坐标估计指示加权的所述目标说话人的声源位置估计;根据所述目标说话人的笛卡尔坐标得到第一角度特征;根据所述第一对数能量谱、第一正余弦通道间相位差、第一角度特征和说话人掩蔽估计网络得到第一目标说话人掩蔽和第一干扰说话人掩蔽;基于所述第一目标说话人掩蔽和第一干扰说话人掩蔽和所述混合语音音频,得到目标说话人语音和干扰说话人语音。
在一个可行的实施方式中,所述方法还包括:确定混合语音音频的训练集,基于所述混合语音音频的训练集确定训练语音音频及标签;所述标签包括声源位置向量、第二目标说话人语音和第二干扰说话人语音;根据所述训练语音音频训练声源位置估计网络;训练说话人掩蔽估计网络;联合训练声源位置估计网络和说话人掩蔽估计网络,获得训练好的声源位置估计网络和说话人掩蔽估计网络。
在一个可行的实施方式中,所述标签包括声源位置向量,根据所述训练语音音频训练声源位置估计网络,包括:对所述训练语音音频进行分帧、加窗和傅里叶变换处理,得到所述训练语音音频的频谱;所述训练语音音频的频谱包括实部和虚部;以所述实部和虚部拼接后的数据为所述声源位置估计网络的输入,以声源位置向量估计为输出,计算第一损失函数的值,所述第一损失函数为声源位置的均方误差;以所述第一损失函数的值在第一阈值以内为目标进行训练,得到训练好的所述声源位置估计网络和对应的权重向量;所述声源位置估计网络包括3层卷积模块、2层双向长短时记忆网络和2层全连接层。
在一个可行的实施方式中,所述训练说话人掩蔽估计网络,包括:根据所述训练语音音频和所述声源位置向量确定第二角度特征、第二对数能量谱和第二正余弦通道间相位差;以所述第二角度特征、第二对数能量谱和第二正余弦通道间相位差为输入,以第二目标说话人掩蔽和第二干扰说话人掩蔽为输出,计算所述第二目标说话人掩蔽与所述训练语音音频相乘的积,得到估计说话人语音信号;计算所述第二干扰说话人掩蔽与训练语音音频相乘的积,得到估计干扰说话人语音信号;计算第二损失函数的值,所述第二损失函数的值为估计语音信号与目标语音信号损失比值的对数值;所述估计语音信号包括估计说话人语音信号和估计干扰说话人语音信号;所述目标语音信号包括第二目标说话人语音和第二干扰说话人语音;以第二损失函数的值在第二阈值以内为目标进行训练,得到训练好的所述说话人掩蔽估计网络,所述说话人掩蔽估计网络包括3层双向长短时记忆网络和2个单独的全连接层。
在一个可行的实施方式中,所述标签包括声源位置向量、第二目标说话人语音和第二干扰说话人语音,所述联合训练声源位置估计网络和说话人掩蔽估计网络,包括:组合声源位置估计网络和说话人掩蔽估计网络,损失函数设定为声源位置估计的均方误差和尺度不变-信损比误差之和,所述尺度不变-信损比为说话人分离结果的尺度不变的比值,对两个网络进行联合训练微调。其中,所述估计语音信号为所述第二目标说话人掩蔽和第二干扰说话人掩蔽与所述训练语音音频相乘的积;所述目标语音信号为所述第二目标说话人语音和第二干扰说话人语音。
在一个可行的实施方式中,所述根据估计的帧级别笛卡尔坐标和对应权重,得到所述混合语音音频中目标说话人的笛卡尔坐标估计,包括:根据所述估计的帧级别笛卡尔坐标和对应权重进行softmax操作,计算加权的声源位置估计,得到所述混合语音音频中目标说话人的笛卡尔坐标。
在一个可行的实施方式中,所述根据所述目标说话人笛卡尔坐标得到第一角度特征,包括:根据所述目标说话人笛卡尔坐标与麦克风拓扑结构的笛卡尔坐标的差值确定目标说话人的导向矢量;所述麦克风拓扑结构的笛卡尔坐标基于麦克风阵列的坐标系得到;根据所述目标说话人的导向矢量和M个通道混合语音音频的频谱计算得到角度特征,M取值为自然数。
第二方面,本申请实施例提供了一种多通道双说话人分离***,所述***包括:信号处理模块,用于对混合语音音频进行分帧、加窗和傅里叶变换处理,得到每帧的频谱;所述混合语音音频至少包括两个说话人语音;特征提取模块,用于根据所述每帧音频和声源位置估计网络获得估计的帧级别笛卡尔坐标和对应权重;根据所述每帧音频的频谱得到第一对数能量谱和第一正余弦通道间相位差;声源位置加权处理模块,用于根据估计的帧级别笛卡尔坐标和对应权重,得到所述混合语音音频中目标说话人的笛卡尔坐标估计,所述目标说话人的笛卡尔坐标估计指示加权的所述目标说话人的声源位置估计;角度特征计算模块,用于根据所述目标说话人的笛卡尔坐标得到第一角度特征;说话人分离模块,用于根据所述第一对数能量谱、第一正余弦通道间相位差、第一角度特征和说话人掩蔽估计网络得到第一目标说话人掩蔽和第一干扰说话人掩蔽;基于所述第一目标说话人掩蔽、第一干扰说话人掩蔽和所述混合语音音频,得到得到目标说话人语音和干扰说话人语音。
第三方面,本申请实施例提供了一种电子装置,包括存储器和处理器;所述处理器用于执行所述存储器所存储的计算机执行指令,所述处理器运行所述计算机执行指令执行第一方面任意一项所述方法。
第四方面,本申请实施例提供了一种存储介质,包括可读存储介质和存储在所述可读存储介质中的计算机程序,所述计算机程序用于实现第一方面任意一项所述方法。
附图说明
为了更清楚地说明本说明书披露的多个实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书披露的多个实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本申请实施例实施例提供的一种多通道双说话人分离方法流程图;
图2为本申请实施例一种多通道双说话人分离方法中神经网络模块训练流程图。
图3为本申请实施例一种多通道双说话人分离***框图;
图4为本申请实施例提供的电子装置示意图。
具体实施方式
下面通过附图和实施例,对本申请实施例的技术方案做进一步的详细描述。
角度特征对说话人分离***具有十分重要的作用。提取角度特征的前提是需要知道目标说话人的位置信息,但大多数情况下,这一信息是未知的。因此,对位置信息的有效估计是必要的。
基于此本申请实施例实施例提出一种多通道双说话人分离方法,对于低说话人重叠比例的混合语音音频,基于加权声源位置估计识别双说话人语音,该方法包括S11-S17。
S11,获得混合语音音频,混合语音音频包括两个说话人语音;对混合语音音频进行分帧、加窗和傅里叶变换处理,得到混合语音音频每帧音频的频谱;该混合语音音频为包括低说话人重叠比例的混合语音音频。
S12,根据每帧音频的频谱和声源位置估计网络获得估计的帧级别笛卡尔坐标和对应权重。
S13,根据估计的帧级别笛卡尔坐标和对应权重,加权计算得到所述混合语音音频中目标说话人的笛卡尔坐标估计,所述笛卡尔坐标估计为加权的声源位置估计。
S14,根据所述目标说话人笛卡尔坐标提取角度特征,可以将此角度特征记为第一角度特征。
S15,根据所述混合语音音频的频谱提取对数能量谱和正余弦通道间相位差。其中,对数能量谱由中心点麦克风的频谱计算得到,代表了语音信号的标准谱特征;通道间相位差能够捕捉声源传递到不同麦克风间的微小变化,是一个有用的空间信息,通道间相位差计算过程为:
可以将该对数能量谱和正余弦通道间相位差分别记为第一对数能量谱和第一正余弦通道间相位差。
S16,根据所述角度特征、对数能量谱和正余弦通道间相位差和说话人掩蔽估计网络计算得到目标说话人掩蔽估计和干扰说话人掩蔽估计;可以将该目标说话人掩蔽估计记为第一目标说话人掩蔽,将干扰说话人掩蔽估计记为第一干扰说话人掩蔽。
S17,基于目标说话人掩蔽估计、干扰说话人掩蔽估计和混合语音音频进行语音分离,得到目标说话人语音和干扰说话人语音。
在本申请实施例提出的一种多通道双说话人语音分离方法中,神经网络模块包括声源位置估计神经网络和说话人掩蔽估计神经网络;对声源位置估计神经网络和说话人掩蔽估计神经网络先分别训练,再进行联合训练,训练的流程包括以下步骤S21-S24。
S21,基于混合语音音频训练集确定训练语音音频及标签;获得训练语音频谱。
在一个可行的实施方式中,建立混合语音音频训练集,标签用于记录该训练语音音频的声源位置向量、说话人语音和干扰说话人语音;可以将说话人语音和干扰说话人语音记为第二目标说话人语音和第二干扰说话人语音。确定训练语音音频及标签,对训练语音音频进行分帧、加窗和傅里叶变换处理,得到训练语音频谱;训练语音频谱包括实部和虚部。
S22,根据训练语音频谱训练声源位置估计网络。
在一个可行的实施方式中,以训练语音频谱的实部和虚部拼接后的数据为声源位置估计网络的输入,以声源位置向量估计为输出,计算声源位置的均方误差;以所述均方误差的值在设定的阈值以内为目标进行训练,得到训练好的声源位置估计网络和对应的权重向量。
可以将声源位置的均方误差记为第一损失函数。声源位置的均方误差可以根据网络输出的声源位置向量估计与标签记录的声源位置向量的均方误差计算获得。将该设定的阈值记为第一阈值。
声源位置估计网络的输入是训练语音音频经傅里叶变换后得到的频谱的实部和虚部的拼接。声源位置估计网络包括3层卷积模块、2层双向长短时记忆网络和2层全连接层。其中每层卷积模块包括二维卷积层、线性整流函数、批归一化处理层和最大值池化层。二维卷积层的输出节点数为64,卷积核大小、步幅和填充分别为(3,3),(1,1)和(1,1)。最大值池化层的窗口大小分别为(8,1),(4,1)和(4,1)。双向长短时记忆网络的隐藏层节点数为64。全连接层的输出节点数分别为429和4。网络最终的输出数据的维度为B×T×4,B表示输出数据的大小,T表示输出数据的语音帧数。输出数据为估计的帧级别的声源位置向量和对应的权重向量。
S23,训练说话人掩蔽估计网络。
在一个可行的实施方式中,可以根据标签记录的声源位置向量确定第二角度特征,根据训练语音频谱得到第二对数能量谱和第二正余弦通道间相位差;以第二角度特征、第二对数能量谱和第二正余弦通道间相位差为输入,以说话人掩蔽估计和干扰说话人掩蔽估计为输出,并计算估计语音信号,该估计语音信号为说话人掩蔽估计和干扰说话人掩蔽估计分别与所述训练语音音频相乘的积。在训练过程中计算尺度不变-信损比误差,通过训练得到训练好的说话人掩蔽估计网络,说话人掩蔽估计网络包括3层双向长短时记忆网络和2个单独的全连接层。
式(2)中s为目标语音信号,目标语音信号是已知值,是标签记录的组成训练语音音频的两条单独的语音,也是网络的训练目标;表示估计语音信号,估计语音信号由估计的掩蔽与输入的训练语音音频(即网络的输入语音)相乘得到;α为尺度因子,为确保信损比的尺度α不变形,尺度因子α为:
loss=-|Ltgt-Lest| (4)
式(4)中Ltgt为目标语音信号的尺度不变-信损比,Lest为估计语音信号的尺度不变-信损比,loss为尺度不变-信损比误差。
可以将该说话人掩蔽估计记为第二目标说话人掩蔽,该干扰说话人掩蔽估计记为第二干扰说话人掩蔽,将尺度不变-信损比误差记为第二损失函数。
在一个可行的实施方式中,可以计算第二目标说话人掩蔽与训练语音音频相乘的积,得到估计说话人语音信号;计算第二干扰说话人掩蔽与训练语音音频相乘的积,得到估计干扰说话人语音信号;计算尺度不变-信损比误差;其中估计语音信号包括估计说话人语音信号和估计干扰说话人语音信号,目标语音信号包括第二目标说话人语音和第二干扰说话人语音;以第二损失函数的值在第二阈值以内为目标进行训练,得到训练好的说话人掩蔽估计网络。
S24,联合训练声源位置估计网络和说话人掩蔽估计网络,对两个网络进行微调,使得损失函数的值最小。
在一个可行的实施方式中,组合训练好的声源位置估计网络和训练好的说话人掩蔽估计网络,损失函数设定为声源位置的均方误差和尺度不变-信损比误差之和,对两个网络进行微调,直至损失函数的值最小。可以将该损失函数记为第三损失函数。
训练结束后得到理想的声源位置估计网络和说话人掩蔽估计网络可以用于多通道双说话人语音分离。下面通过一个实施例对本申请实施例提出的一种多通道双说话人语音分离方法进行说明。
实施例1
基于上述理想的声源位置估计网络和说话人掩蔽估计网络,本申请实施例提供的一种多通道双说话人分离方法,该方法包括:
S31,获得包括两个说话人语音的混合语音音频,对混合语音音频进行分帧、加窗和傅里叶变换处理,得到每帧音频的频谱。
在一个可行的实施方式中,包括以下步骤S311-S313:
S311,对待分离的混合语音音频进行分帧,每帧25毫秒,帧移6.25毫秒;
S312,对每帧进行加窗,窗函数为汉明窗;
S313,对每帧音频做512点傅里叶变换,得到每帧音频的频谱。
在一个可行的实施方式中,对估计的帧级别位置信息和对应权重进行softmax操作,计算加权的声源位置估计:
S34,根据估计的目标说话人笛卡尔坐标计算角度特征,该角度特征记为第一角度特征。
在一个可行的实施方式中,根据估计的目标说话人笛卡尔坐标计算角度特征为:
式(6)M为通道数量,表示混合语音音频在时间t和频率单元f处通道m下的频谱;表示频率单元f处通道m下目标说话人的导向矢量,取值为估计的目标说话人笛卡尔坐标与麦克风拓扑结构的笛卡尔坐标的差值;在训练和测试过程中,麦克风阵列是固定不变的,这是一个已知量。可以以0号麦克风为原点,0号和1号麦克风的连线为x轴,即可建立坐标系,进而得到每个麦克风的笛卡尔坐标。
示例性地,通道数量M取值为4,包括通道0、通道1、通道2、通道3。
S35,根据混合语音频谱计算对数能量谱和正余弦通道间相位差。将该对数能量谱记为第一对数能量谱,正余弦通道间相位差记为第一正余弦通道间相位差。
需要理解的是,傅里叶变换针对的是整条语音,混合语音频谱是连续的每一帧语音音频组成的频谱。
在一个可行的实施方式中,根据混合语音频谱计算可以得到257维的对数能量谱和正余弦通道间相位差。
示例性地,通道数量为4个,通道0、通道1、通道2、通道3,4个通道间相位差采取的通道对为(0,1)、(0,2)和(0,3)。
S36,将第一角度特征、第一对数能量谱和第一正余弦通道间相位差输入训练好的说话人掩蔽估计网络,得到目标说话人掩蔽估计和干扰说话人掩蔽估计。其中,说话人掩蔽估计表示一个与输入混合语音音频维度相同的向量,其中每个元素在0到1之间,表示在每一个时频点上,说话人在输入混合语音音频中占有的成分比例。此处可以得到目标说话人掩蔽估计和干扰说话人掩蔽估计共2个说话人掩蔽估计。
在一个可行的实施方式中,将步骤S35、S36得到的角度特征、对数能量谱和正余弦通道间相位差输入训练好的说话人掩蔽估计网络中。该说话人掩蔽估计网络包括3层双向长短时记忆网络和2个单独的全连接层。双向长短时记忆网络的隐藏层节点数为512,dropout比率为0.4。全连接层的输出节点数为256。2个单独的全连接层分别输出目标说话人掩蔽估计和干扰说话人掩蔽估计。
S37,基于目标说话人掩蔽估计、干扰说话人掩蔽估计和混合语音音频,得到两个分离语音。
在一个可行的实施方式中,根据步骤S37中的目标说话人掩蔽估计和干扰说话人掩蔽估计,与混合语音音频的频谱进行逐元素的乘积,得到两个说话人在频域上的分离信号。对这两个分离信号进行逆傅里叶变换,得到最终估计的两个说话人时域上的分离语音。
需要理解的是,实验目标为说话人分离,当混合语音中包含两个说话人如目标说话人和干扰说话人时,需要分别得到这两个说话人语音掩蔽,与原输入混合语音信号相乘,得到估计的两个说话人时域上的分离语音。
本申请实施例的***基于加权声源位置估计,降低了混合语音音频中干扰说话人和静音帧对声源位置估计的影响;基于加权声源位置估计和多通道双说话人分离的联合训练增强了对于不同重叠比例的双说话人语音分离的鲁棒性,提升语音分离***的性能。
本申请实施例中的方法和***是针对双说话人的,对于更多说话人,具有可扩展性,也依然适用,但需要对神经网络输出节点数进行对应的修改,且性能可能会下降。
如图3所示,本申请实施例提出了一种多通道双说话人分离***,该***包括:信号处理模块41、特征提取模块42、神经网络模块43、声源位置加权处理模块44、角度特征计算模块45、说话人分离模块46。
其中,信号处理模块41获得混合语音音频,该混合语音音频包括两个说话人语音;对该混合语音音频进行分帧、加窗和傅里叶变换处理,得到每帧音频的频谱。该混合语音音频为时域信号。
特征提取模块42将每帧音频的频谱输入训练好的声源位置估计网络,输出为估计的帧级别笛卡尔坐标和对应权重向量;根据所述混合语音音频的频谱得到第一对数能量谱和第一正余弦通道间相位差。
声源位置加权处理模块43将声源位置估计神经网络输出的帧级别的笛卡尔坐标和对应权重进行softmax操作,得到估计目标说话人的笛卡尔坐标;该估计目标说话人的笛卡尔坐标用于指示声源位置信息。
角度特征计算模块44将估计目标说话人的笛卡尔坐标转换为第一角度特征。
说话人分离模块45根据第一角度特征、第一对数能量谱和第一正余弦通道间相位差和说话人掩蔽估计网络得到目标说话人和第一估计的说话人掩蔽;基于目标说话人、第一估计的说话人掩蔽和混合语音音频,得到分离语音。
本申请实施例提出的一种多通道双说话人语音分离方法和***,对于不同低说话人重叠比例的语音分离,具有较好的鲁棒性。本申请的方法采用角度特征对说话人分离,通过获取目标说话人的位置信息提取角度特征,对位置信息进行了有效估计。对于不同说话人重叠比例的混合语音音频,可以预先得知目标说话人在语音中的具***置,能够有效避免传统神经网络由于使用平均池化,干扰说话人语音以及静音帧对目标说话人位置信息的严重偏差导致的语音分离的性能降低问题。本申请实施例提出的一种多通道双说话人语音分离方法大大提高语音分离的性能。
如图4所示,本申请实施例提供一种电子装置1100,包括处理器1101和存储器1102;处理器1101用于执行所述存储器1102所存储的计算机执行指令,处理器1101运行计算机执行指令执行上述任意实施例所述的方法。
本申请实施例提供一种存储介质1103,包括可读存储介质和存储在所述可读存储介质中的计算机程序,所述计算机程序用于实现上述任意实施例所述方法。
本领域普通技术人员应该还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执轨道,取决于技术方案的特定应用和设计约束条件。本领域普通技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以用硬件、处理器执轨道的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上所述的具体实施方式,对本申请实施例的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本申请实施例的具体实施方式而已,并不用于限定本申请实施例的保护范围,凡在本申请实施例的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请实施例的保护范围之内。
Claims (10)
1.一种多通道双说话人分离方法,其特征在于,所述方法包括:
对混合语音音频进行分帧、加窗和傅里叶变换处理,得到每帧音频的频谱;所述混合语音音频包括不同说话人重叠比例的混合语音音频;
根据所述每帧音频的频谱和声源位置估计网络获得估计的帧级别笛卡尔坐标和对应权重;
根据所述每帧音频的频谱得到第一对数能量谱和第一正余弦通道间相位差;
根据所述估计的帧级别笛卡尔坐标和对应权重,得到所述混合语音音频中目标说话人的笛卡尔坐标估计,所述目标说话人的笛卡尔坐标估计指示加权的所述目标说话人的声源位置估计;
根据所述目标说话人的笛卡尔坐标得到第一角度特征;
根据所述第一对数能量谱、第一正余弦通道间相位差、第一角度特征和说话人掩蔽估计网络得到第一目标说话人掩蔽和第一干扰说话人掩蔽;
基于所述第一目标说话人掩蔽和第一干扰说话人掩蔽和所述混合语音音频,得到目标说话人语音和干扰说话人语音。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
确定混合语音音频的训练集,基于所述混合语音音频的训练集确定训练语音音频及标签;所述标签包括声源位置向量、第二目标说话人语音和第二干扰说话人语音;
根据所述训练语音音频训练所述声源位置估计网络;
训练所述说话人掩蔽估计网络;
联合训练所述声源位置估计网络和所述说话人掩蔽估计网络,获得训练好的声源位置估计网络和说话人掩蔽估计网络。
3.根据权利要求2所述的方法,其特征在于,根据所述训练语音音频训练所述声源位置估计网络,包括:
对所述训练语音音频进行分帧、加窗和傅里叶变换处理,得到所述训练语音音频的频谱;所述训练语音音频的频谱包括实部和虚部;
以所述实部和虚部拼接后的数据为所述声源位置估计网络的输入,以声源位置向量估计为输出,计算第一损失函数的值,所述第一损失函数为声源位置的均方误差;
以所述第一损失函数的值在第一阈值以内为目标进行训练,得到训练好的所述声源位置估计网络和对应的权重向量;所述声源位置估计网络包括3层卷积模块、2层双向长短时记忆网络和2层全连接层。
4.根据权利要求2所述的方法,其特征在于,所述训练所述说话人掩蔽估计网络,包括:
根据所述训练语音音频和所述声源位置向量确定第二角度特征、第二对数能量谱和第二正余弦通道间相位差;
以所述第二角度特征、第二对数能量谱和第二正余弦通道间相位差为输入,以第二目标说话人掩蔽和第二干扰说话人掩蔽为输出,计算所述第二目标说话人掩蔽与所述训练语音音频相乘的积,得到估计说话人语音信号;
计算所述第二干扰说话人掩蔽与训练语音音频相乘的积,得到估计干扰说话人语音信号;
计算第二损失函数的值,所述第二损失函数的值为估计语音信号与目标语音信号损失比值的对数值;所述估计语音信号包括估计说话人语音信号和估计干扰说话人语音信号;所述目标语音信号包括第二目标说话人语音和第二干扰说话人语音;
以第二损失函数的值在第二阈值以内为目标进行训练,得到训练好的所述说话人掩蔽估计网络,所述说话人掩蔽估计网络包括3层双向长短时记忆网络和2个单独的全连接层。
5.根据权利要求2所述的方法,其特征在于,所述联合训练所述声源位置估计网络和所述说话人掩蔽估计网络,包括:
组合所述声源位置估计网络和所述说话人掩蔽估计网络,计算第三损失函数的值,所述第三损失函数的值为第一损失函数的值和第二损失函数的值之和;所述第一损失函数的值为声源位置的均方误差值;所述第二损失函数的值为估计语音信号与目标语音信号损失比值的对数值;
以所述第三损失函数的值最小为目标对声源位置估计网络和说话人掩蔽估计网络进行微调,得到训练好的声源位置估计网络和说话人掩蔽估计网络。
6.根据权利要求1所述的方法,其特征在于,所述根据估计的帧级别笛卡尔坐标和对应权重,得到所述混合语音音频中目标说话人的笛卡尔坐标估计,包括:
根据所述估计的帧级别笛卡尔坐标和对应权重进行softmax操作,计算加权的声源位置估计,得到所述混合语音音频中目标说话人的笛卡尔坐标。
7.根据权利要求1所述的方法,其特征在于,所述根据所述目标说话人笛卡尔坐标得到第一角度特征,包括:
根据所述目标说话人笛卡尔坐标与麦克风拓扑结构的笛卡尔坐标的差值确定目标说话人的导向矢量;所述麦克风拓扑结构的笛卡尔坐标基于麦克风阵列的坐标系得到;
根据所述目标说话人的导向矢量和M个通道混合语音音频的频谱计算得到第一角度特征,M取值为自然数。
8.一种多通道双说话人分离***,其特征在于,所述***包括:
信号处理模块,用于对混合语音音频进行分帧、加窗和傅里叶变换处理,得到每帧的频谱;所述混合语音音频至少包括两个说话人语音;
特征提取模块,用于根据所述每帧音频和声源位置估计网络获得估计的帧级别笛卡尔坐标和对应权重;根据所述每帧音频的频谱得到第一对数能量谱和第一正余弦通道间相位差;
声源位置加权处理模块,用于根据估计的帧级别笛卡尔坐标和对应权重,得到所述混合语音音频中目标说话人的笛卡尔坐标估计,所述目标说话人的笛卡尔坐标估计指示加权的所述目标说话人的声源位置估计;
角度特征计算模块,用于根据所述目标说话人的笛卡尔坐标得到第一角度特征;
说话人分离模块,用于根据所述第一对数能量谱、第一正余弦通道间相位差、第一角度特征和说话人掩蔽估计网络得到第一目标说话人掩蔽和第一干扰说话人掩蔽;基于所述第一目标说话人掩蔽、第一干扰说话人掩蔽和所述混合语音音频,得到得到目标说话人语音和干扰说话人语音。
9.一种电子装置,其特征在于,包括存储器和处理器;所述处理器用于执行所述存储器所存储的计算机执行指令,所述处理器运行所述计算机执行指令执行权利要求1-7任意一项所述方法。
10.一种存储介质,其特征在于,包括可读存储介质和存储在所述可读存储介质中的计算机程序,所述计算机程序用于实现权利要求1-7任意一项所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111134595.6A CN113870893A (zh) | 2021-09-27 | 2021-09-27 | 一种多通道双说话人分离方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111134595.6A CN113870893A (zh) | 2021-09-27 | 2021-09-27 | 一种多通道双说话人分离方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113870893A true CN113870893A (zh) | 2021-12-31 |
Family
ID=78991114
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111134595.6A Pending CN113870893A (zh) | 2021-09-27 | 2021-09-27 | 一种多通道双说话人分离方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113870893A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114446316A (zh) * | 2022-01-27 | 2022-05-06 | 腾讯科技(深圳)有限公司 | 音频分离方法、音频分离模型的训练方法、装置及设备 |
WO2024055751A1 (zh) * | 2022-09-13 | 2024-03-21 | 腾讯科技(深圳)有限公司 | 音频数据处理方法、装置、设备、存储介质及程序产品 |
-
2021
- 2021-09-27 CN CN202111134595.6A patent/CN113870893A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114446316A (zh) * | 2022-01-27 | 2022-05-06 | 腾讯科技(深圳)有限公司 | 音频分离方法、音频分离模型的训练方法、装置及设备 |
CN114446316B (zh) * | 2022-01-27 | 2024-03-12 | 腾讯科技(深圳)有限公司 | 音频分离方法、音频分离模型的训练方法、装置及设备 |
WO2024055751A1 (zh) * | 2022-09-13 | 2024-03-21 | 腾讯科技(深圳)有限公司 | 音频数据处理方法、装置、设备、存储介质及程序产品 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhao et al. | Two-stage deep learning for noisy-reverberant speech enhancement | |
KR100486736B1 (ko) | 두개의 센서를 이용한 목적원별 신호 분리방법 및 장치 | |
Tan et al. | Neural spectrospatial filtering | |
Chazan et al. | Multi-microphone speaker separation based on deep DOA estimation | |
US8880396B1 (en) | Spectrum reconstruction for automatic speech recognition | |
Zhao et al. | A two-stage algorithm for noisy and reverberant speech enhancement | |
US8693287B2 (en) | Sound direction estimation apparatus and sound direction estimation method | |
EP3387648A1 (en) | Localization algorithm for sound sources with known statistics | |
Wang et al. | Robust TDOA Estimation Based on Time-Frequency Masking and Deep Neural Networks. | |
Zhang et al. | Multi-channel multi-frame ADL-MVDR for target speech separation | |
Wang et al. | Mask weighted STFT ratios for relative transfer function estimation and its application to robust ASR | |
CN113870893A (zh) | 一种多通道双说话人分离方法及*** | |
Martinez et al. | DNN-based performance measures for predicting error rates in automatic speech recognition and optimizing hearing aid parameters | |
Nesta et al. | A flexible spatial blind source extraction framework for robust speech recognition in noisy environments | |
CN113707136B (zh) | 服务型机器人语音交互的音视频混合语音前端处理方法 | |
EP2745293B1 (en) | Signal noise attenuation | |
Parada et al. | Reverberant speech recognition exploiting clarity index estimation | |
Li et al. | Speech enhancement algorithm based on sound source localization and scene matching for binaural digital hearing aids | |
Pfeifenberger et al. | Blind speech separation and dereverberation using neural beamforming | |
Riaz et al. | Adaptive blind moving source separation based on intensity vector statistics | |
CN115620739A (zh) | 指定方向的语音增强方法及电子设备和存储介质 | |
CN111192569B (zh) | 双麦语音特征提取方法、装置、计算机设备和存储介质 | |
CN114242104A (zh) | 语音降噪的方法、装置、设备及存储介质 | |
Li et al. | Speech separation based on reliable binaural cues with two-stage neural network in noisy-reverberant environments | |
Li et al. | Low complex accurate multi-source RTF estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |