CN115588438B - 一种基于双线性分解的wls多通道语音去混响方法 - Google Patents
一种基于双线性分解的wls多通道语音去混响方法 Download PDFInfo
- Publication number
- CN115588438B CN115588438B CN202211587593.7A CN202211587593A CN115588438B CN 115588438 B CN115588438 B CN 115588438B CN 202211587593 A CN202211587593 A CN 202211587593A CN 115588438 B CN115588438 B CN 115588438B
- Authority
- CN
- China
- Prior art keywords
- sub
- filter
- formula
- equation
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000354 decomposition reaction Methods 0.000 title claims abstract description 27
- 238000000034 method Methods 0.000 title claims abstract description 26
- 239000013598 vector Substances 0.000 claims abstract description 89
- 239000011159 matrix material Substances 0.000 claims abstract description 38
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000009795 derivation Methods 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 abstract description 8
- 238000007476 Maximum Likelihood Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005389 magnetism Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000017105 transposition Effects 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000037433 frameshift Effects 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 238000013485 heteroscedasticity test Methods 0.000 description 1
- 230000002427 irreversible effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0224—Processing in the time domain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/26—Pre-filtering or post-filtering
- G10L19/265—Pre-filtering, e.g. high frequency emphasis prior to encoding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L2021/02082—Noise filtering the noise being echo, reverberation of the speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L2021/02161—Number of inputs available containing the signal or the noise to be suppressed
- G10L2021/02166—Microphone arrays; Beamforming
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
本发明公开了一种基于双线性分解的WLS多通道语音去混响方法,包括如下步骤:S1.采集混响语音时域信号;S2.以混响语音时域信号为基础描述参考麦克风信号模;S3.计算期望信号;S4.进行双线性分解:利用克罗内克乘积将预测滤波器系数向量分解为两个子滤波器;S5.求解预测滤波器系数向量;S6.正则化滤波器系数向量;S7.计算出去除混响之后的期望信号。本发明利用加权最小二乘方法,将最大似然估计问题转换为最小二乘问题进行处理。同时,由于矩阵在求逆过程中的计算复杂度较高,为了进一步降低计算量,引入了克罗内克积分解,将一个长的滤波器分解为两个短的子滤波器进行处理,从而使得算法在具有良好去混响性能的同时还拥有较低的计算复杂度。
Description
技术领域
本发明属于智能语音技术领域,涉及语音技术,具体涉及一种基于双线性分解的WLS多通道语音去混响方法。
背景技术
依据各类标准,语音去混响技术可以被划分为多个类别。其中一种分类标准是按照语音接收端麦克风的数量,可以将去混响方法分为单通道去混响方法和多通道去混响方法。由于单通道去混响技术对硬件设备的要求低,只需要单个麦克风,拥有较低的成本,因此也赢得了广泛的关注。然而,单个麦克风在接收语音信号时,无法获得语音信号传播过程中的空间信息,相比于多个麦克风而言,能够利用的信息更少。在此基础上,多通道去混响技术应运而生。
加权预测误差(WPE)方法是迄今为止最有效的去混响算法之一,它是一种经典的基于多通道线性预测的语音去混响方法,对于提高语音质量非常有效。该方法基于时变高斯模型对语音信号进行建模,利用最大似然估计来估计线性预测滤波器,通过方差与滤波器系数两者交替迭代计算得出去混响之后的语音信号。加权最小二乘法(WLS)是对原模型进行加权,使之成为一个新的不存在异方差性的模型,WLS直接应用于语音去混响,算力需求较高,限制了在自适应滤波领域的应用。
发明内容
为将去混响问题引入自适应滤波领域,本发明公开了一种基于双线性分解的WLS多通道语音去混响方法。
本发明所述基于双线性分解的WLS多通道语音去混响方法,如图1所示,包括如下步骤:
S1.利用麦克风阵列采集语音信号并转化为数字信号形式的混响语音时域信号xm(n),表示为:
xm(n)=hm(n)*s(n)+vm(n);
式中*表示线性卷积,s(n)表示纯净语音信号,hm(n)表示的是声源与第m个麦克风之间的房间脉冲响应且其长度为Lh,vm(n)表示背景噪声,m和n分别表示第m个麦克风和第n个离散时间;
S2.令麦克风阵列中第一个麦克风为参考麦克风,假设背景噪声为零,以混响语音时域信号xm(n)为基础,将参考麦克风信号模型以公式3描述:
公式3中上标T和*分别表示矩阵的转置和共轭运算,d1(k)表示参考麦克风在时频域的期望信号,g(k)为预测滤波器系数向量,其上标^、*分别表示待估计量和共轭运算,Xτ(k)是在第k个频率处,经过时间延迟τ帧后的输入信号构成的矩阵,下标τ表示输入信号经过了τ帧的线性延迟;
S3. 利用公式3 ,得到期望信号d1(k)等于参考麦克风接收到的信号减去估计出来的中晚期混响分量:
S4. 进行双线性分解:利用克罗内克乘积将预测滤波器系数向量g(k)分解为两个子滤波器如下:
下标中的分量序号ps表示的是子滤波器系数向量中第ps个分量,分量序号ps=1,2,…,P;P是分解之后每个子滤波器所含滤波器系数的个数;
根据公式5,将公式4分解可得
其中当i=1时表示第一子滤波器构成的期望信号向量d1,1(k),取2时则表示第二子滤波器构成的期望信号d1,2(k),x1(k)为参考麦克风信号模型,*表示共轭计算,子滤波器系数向量由公式8表示:
S5. 预测滤波器系数向量的求解,
分别求解公式7中的第一子滤波器和第二子滤波器,通过期望信号时频域代价函数的最小化来估计获得,
--公式9
式中上标^表示待估计量,上标H表示共轭转置,表示当括号里的表达式F(f)取最小值时,F(f)中变量f的值,||2表示求解绝对值的平方,为输入混响语音信号与第一子滤波器构成的双线性分解矩阵的内部向量,d1,1(k)为第一子滤波器构成的期望信号向量;
加权矩阵,diag[]表示对角阵,其中的对角线元素a1(n,k)是一个N维列向量,N为总帧数,即a1(n,k)=[w1(1,k), w1(2,k),... w1(N,k)]T;式中w1(n,k),n=1,2...N是第一子滤波器在第n帧第k个频率处的加权系数;
式中[]-1表示矩阵求逆运算,
同理,可以得到第二子滤波器系数向量
优选的,S5步骤之后还包括S6步骤,具体为:
S6.对公式91和公式92进行正则化,长度为L1的第一子滤波器系数向量改写为
所述S7步骤中,以公式93和公式94分别替换公式91和公式92进行计算。
本发明利用加权最小二乘方法,将最大似然估计问题转换为最小二乘问题进行处理。同时,由于矩阵在求逆过程中的计算复杂度较高,为了进一步降低计算量,引入了Kronecker积分解,将一个长的滤波器分解为两个短的子滤波器进行处理,从而使得算法在具有良好去混响性能的同时还拥有较低的计算复杂度。
附图说明
图1为本发明所述去混响方法的一种具体实施方式示意图;
图2为本发明一个具体实施例中未处理前的原始混响语音对应的波形图和语谱图;
图3为对图2所示原始混响语音采用现有技术进行处理得到的波形图和语谱图;
图4为对图2所示原始混响语音采用本发明进行处理得到的波形图和语谱图;
图2至图4中的(a)部分为原始混响语音对应的波形图,(b)部分为原始混响语音对应的语谱图;
图5为现有技术和本发明的算力对比示意图。
具体实施方式
下面对本发明的具体实施方式作进一步的详细说明。
本发明所述去混响方法,包括如下步骤:
S1. 利用麦克风阵列采集声源发出的语音信号,经过数模转换之后处理为数字信号形式的混响语音时域信号xm(n),表示为:
xm(n)=hm(n)*s(n)+vm(n);
式中*表示线性卷积,s(n)表示纯净语音信号,hm(n)表示的是声源与第m个麦克风之间的房间脉冲响应且长度为Lh,vm(n)表示背景噪声,m和n分别表示第m个麦克风和第n个离散时间;
S2.利用短时傅里叶变换,将混响语音分为不同的频带进行处理:
对麦克风阵列设置预测滤波器,将第一个麦克风当作参考麦克风,参考麦克风最终矩阵形式的信号模型:
公式3中上标T和*分别表示矩阵的转置和共轭运算,d1(k)表示参考麦克风在第k个频率处的期望信号,Xτ(k)表示麦克风阵列的全部M个麦克风的阵列输入矩阵,下标τ表示输入信号经过了τ帧的线性延迟,g(k)为预测滤波器系数向量;
S3. 利用公式3,可以得到参考麦克风在时频域的期望信号d1(k)等于参考麦克风接收到的信号x1(k)减去估计出来的中晚期混响分量,即:
S4.利用克罗内克乘积将预测滤波器系数向量g(k)分解为两个子滤波器如下:
子滤波器系数向量
i取不同的值1,2表示不同的子滤波器,i=1,即表示第一子滤波器系数向量,i=2即则是第二子滤波器系数向量,上标^表示待估计量,gi,1(k)表示第i子滤波器在第k个频率处的第一个分量,其余以此类推,上标T表示转置;
并将公式4改写成
其中当i=1时表示第一子滤波器构成的期望信号向量d1,1(k),取2时则表示第二子滤波器构成的期望信号d1,2(k),两个期望信号都是由N个元素构成的列向量,在第n帧和第k个频率处的元素表示为d1,i(n,k),n=1,2...N ,x1(k)为参考麦克风接收到的信号;
的列向量构成,n-τ表示信号经过了τ帧的线性延迟:
第一列向量
第二列向量
式中上标H表示共轭转置运算符,上标^表示待估计量,g1,ps(k)和g2,ps(k)分别表示两个子滤波器系数向量的其中第ps个分量,和则表示的是维度分别为L1和L2单位矩阵,符号表示的是克罗内克乘积运算,x(n-τ,k)表示经过了τ帧线性延迟的输入的混响语音信号。
而x(n-τ,k)是由M个Lg维的列向量构成,M是麦克风总个数,Lg是原始预测滤波器总长度;
对于向量x(n-τ,k)中的每个Lg维的列向量由Lg个元素构成,以第m(m=1,2,…,M)个麦克风处的信号向量xm(n-τ,k)为例,其形式如下所示:
xm(n-τ,k)=[ xm(n-τ,k), xm(n-τ-1,k),... xm(n-τ-Lg+1,k)]T;
S5.预测滤波器系数向量的求解
--公式9
式中上标^表示待估计量,上标H表示共轭转置,表示当括号里的表达式F(f)取最小值时,F(f)中变量f的值,||2表示求解绝对值的平方,为输入混响语音信号与第一子滤波器构成的双线性分解矩阵的内部向量,d1,1(k)为第一子滤波器构成的期望信号向量;
加权矩阵,diag[]表示对角阵,其中的对角线元素a1(n,k)是一个N维列向量,N为总帧数,即a1(n,k)=[w1(1,k), w1(2,k),... w1(N,k)]T;式中w1(n,k),n=1,2...N是第一子滤波器在第n帧第k个频率处的加权系数;
式中[]-1表示矩阵求逆运算,
同理,可以得到第二子滤波器系数向量
S6.为了避免在矩阵求逆过程中出现不可逆,需要对自相关矩阵R1进行正则化,于是公式91改写为
式中δ是正则化因子,通常是一个很小的正常数。
同理,公式92改写如下:
式中自相关矩阵,而互相关向量。
S7. 利用步骤S5中的公式91和公式92,或改写的公式93和公式94 ,可以求得两个子滤波器系数向量和;结合公式5和公式8, 计算得到滤波器系数向量;带入公式4便可以计算出去除混响之后的期望信号d1(k)。
带入公式8:
一个具体实施方式为:
S1. 利用麦克风阵列采集语音信号,通过模数转换可以得到数字化后的语音信号。
S2. 由于语音信号的短时平稳特性,采用短时傅里叶变换将语音信号从时域变换到时频域进行分析,利用分帧加窗的思想,将信号划分为不同的频带进行处理。
每一帧语音的长度设置为32 ms,帧移为8 ms,窗函数选择汉宁窗,预测滤波器的长度设置为Lg为24,采用512点的傅里叶变换,考虑到语音信号进行快速傅里叶变换之后的频谱具有共轭对称性,因此为了提高计算效率只选取一半的频点进行计算,即K=256。
S3. 设置预测延迟τ=2,对每一个频带分别进行去混响处理,最后再将所有处理后的数据进行合成,从而输出去除混响之后的语音信号。
由于造成语音质量下降的主要原因是中晚期混响成分,而早期混响成分不仅不会对语音质量带来显著的影响,相反其有助于提高语音的清晰度,因此在进行去混响处理时,往往将早期混响与直达语音成分整合在一起,于是需要去除的便是中晚期混响分量。因此在处理过程中需要进行一个延迟线性预测,保留早期混响。
S4.利用延迟预测滤波器对中晚期混响成分进行估计,然后将该成分从参考语音信号中减去,便可以得到最终去除混响之后的信号,为了方便,将第一个麦克风接收到的信号x1(k)作为参考信号。
S5.分别求解公式7中的第一子滤波器和第二子滤波器,通过期望信号时频域代价函数的最小化来估计获得,
式中上标^表示待估计量,上标H表示共轭转置,表示当括号里的表达式F(f)取最小值时,F(f)中变量f的值,||2表示求解绝对值的平方,为输入混响语音信号与第一子滤波器构成的双线性分解矩阵的内部向量,d1,1(k)为第一子滤波器构成的期望信号向量;
加权矩阵,diag[]表示对角阵,其中的对角线元素a1(n,k)是一个N维列向量,N为总帧数,即a1(n,k)=[w1(1,k), w1(2,k),... w1(N,k)]T;式中w1(1,k),n=1,2...N是第一子滤波器在第n帧第k个频率处的加权系数;
式中[]-1表示矩阵求逆运算,
同理,可以得到第二子滤波器系数向量
S7. 将得到的期望信号进行短时傅里叶逆变换,从而将每一个去混响之后的子带信号进行合成,转换成时域信号进行输出。
如图2至图5所示给出了本发明一个具体实施例。图2是一段原始混响语音对应的波形图和语谱图,而图3和图4则分别表示的是在混响时间为300 ms的环境中,麦克风个数M为8,滤波器长度Lg为24时,去混响前后的波形图和语谱图对比。对比图2至图4可以发现,混响被去除,且图3和图4显示现有技术和本发明对原始混响语音去混响效果相当。
图5则是双线性分解前后两种算法的计算复杂度对比情况。图中横坐标P表示的是分解之后每个子滤波器所含滤波器系数的个数,纵坐标则是计算复杂度。图5种的计算复杂度是指算法中所涉及的实数乘法次数。定义两个实数相乘涉及一次乘法,一个实数与一个复数之间做乘积运算涉及2次乘法,而两个复数之间做乘积则需要4次乘法运算。纵坐标所示数值为以指数函数对乘法次数进行表示,均为无量纲单位。图例中的WLS表示现有技术的算法,D-WLS表示的是经过本发明所述双线性分解之后的WLS算法,括号中的内容指的是两个子滤波器的长度。以M=8(32-6)为例,其含义为麦克风个数为8,两个子滤波器长度分别为32和6。
结合图3和图4分析可知,分解之后的WLS算法不仅拥有良好的去混响效果,同时其计算复杂度也有显著降低。
前文所述的为本发明的各个优选实施例,各个优选实施例中的优选实施方式如果不是明显自相矛盾或以某一优选实施方式为前提,各个优选实施方式都可以任意叠加组合使用,所述实施例以及实施例中的具体参数仅是为了清楚表述发明人的发明验证过程,并非用以限制本发明的专利保护范围,本发明的专利保护范围仍然以其权利要求书为准,凡是运用本发明的说明书及附图内容所作的等同结构变化,同理均应包含在本发明的保护范围内。
Claims (2)
1.基于双线性分解的WLS多通道语音去混响方法,其特征在于,包括如下步骤:
S1.利用麦克风阵列采集语音信号并转化为数字信号形式的混响语音时域信号xm(n),表示为:
xm(n)=hm(n)*s(n)+vm(n);
式中*表示线性卷积,s(n)表示纯净语音信号,hm(n)表示的是声源与第m个麦克风之间的房间脉冲响应且其长度为Lh,vm(n)表示背景噪声,m和n分别表示第m个麦克风和第n个离散时间;
S2.令麦克风阵列中第一个麦克风为参考麦克风,假设背景噪声为零,以混响语音时域信号xm(n)为基础,将参考麦克风信号模型以公式3描述:
公式3中上标T和*分别表示矩阵的转置和共轭运算,d1(k)表示参考麦克风在时频域的期望信号,g(k)为预测滤波器系数向量, 其上标^、*分别表示待估计量和共轭运算,Xτ(k)是在第k个频率处,经过时间延迟τ帧后的输入信号构成的矩阵,下标τ表示输入信号经过了τ帧的线性延迟;
S3. 利用公式3 ,得到期望信号d1(k)等于参考麦克风接收到的信号减去估计出来的中晚期混响分量:
S4. 进行双线性分解:利用克罗内克乘积将预测滤波器系数向量g(k)分解为两个子滤波器如下:
下标中的分量序号ps表示的是子滤波器系数向量中第ps个分量,分量序号ps=1,2,…,P;P是分解之后每个子滤波器所含滤波器系数的个数;
根据公式5,将公式4分解可得
其中当i=1时表示第一子滤波器构成的期望信号向量d1,1(k),取2时则表示第二子滤波器构成的期望信号d1,2(k),x1(k)为参考麦克风信号模型,*表示共轭计算,子滤波器系数向量由公式8表示:
S5. 预测滤波器系数向量的求解,
分别求解公式7中的第一子滤波器和第二子滤波器,通过期望信号时频域代价函数的最小化来估计获得,
--公式9
式中上标^表示待估计量,上标H表示共轭转置,表示当括号里的表达式F(f)取最小值时,F(f)中变量f的值,||2表示求解绝对值的平方,为输入混响语音信号与第一子滤波器构成的双线性分解矩阵的内部向量,d1,1(k)为第一子滤波器构成的期望信号向量;
加权矩阵,diag[]表示对角阵,其中的对角线元素a1(n,k)是一个N维列向量,N为总帧数,即a1(n,k)=[w1(1,k), w1(2,k),... w1(N,k)]T;式中w1(n,k),n=1,2...N是第一子滤波器在第n帧第k个频率处的加权系数;
式中[]-1表示矩阵求逆运算,
同理,得到第二子滤波器系数向量
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211587593.7A CN115588438B (zh) | 2022-12-12 | 2022-12-12 | 一种基于双线性分解的wls多通道语音去混响方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211587593.7A CN115588438B (zh) | 2022-12-12 | 2022-12-12 | 一种基于双线性分解的wls多通道语音去混响方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115588438A CN115588438A (zh) | 2023-01-10 |
CN115588438B true CN115588438B (zh) | 2023-03-10 |
Family
ID=84783065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211587593.7A Active CN115588438B (zh) | 2022-12-12 | 2022-12-12 | 一种基于双线性分解的wls多通道语音去混响方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115588438B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2437257A1 (en) * | 2006-10-16 | 2012-04-04 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for multi-channel parameter transformation |
CN108141691A (zh) * | 2015-10-14 | 2018-06-08 | 华为技术有限公司 | 自适应混响消除*** |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9692939B2 (en) * | 2013-05-29 | 2017-06-27 | Yeda Research And Development Co. Ltd. | Device, system, and method of blind deblurring and blind super-resolution utilizing internal patch recurrence |
WO2021229197A1 (en) * | 2020-05-12 | 2021-11-18 | Queen Mary University Of London | Time-varying and nonlinear audio processing using deep neural networks |
CN115019818A (zh) * | 2022-05-26 | 2022-09-06 | 重庆金美通信有限责任公司 | 基于渐进式混响感知网络的语音去混响方法、装置及设备 |
-
2022
- 2022-12-12 CN CN202211587593.7A patent/CN115588438B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2437257A1 (en) * | 2006-10-16 | 2012-04-04 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for multi-channel parameter transformation |
CN108141691A (zh) * | 2015-10-14 | 2018-06-08 | 华为技术有限公司 | 自适应混响消除*** |
Also Published As
Publication number | Publication date |
---|---|
CN115588438A (zh) | 2023-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108172231B (zh) | 一种基于卡尔曼滤波的去混响方法及*** | |
Gannot et al. | Subspace methods for multimicrophone speech dereverberation | |
JP5124014B2 (ja) | 信号強調装置、その方法、プログラム及び記録媒体 | |
JP4567655B2 (ja) | 音声信号中の暗騒音を抑制する方法及び装置、並びに反響消去を伴う対応する装置 | |
US8467538B2 (en) | Dereverberation apparatus, dereverberation method, dereverberation program, and recording medium | |
JP5435204B2 (ja) | 雑音抑圧の方法、装置、及びプログラム | |
JP2008203879A (ja) | 雑音抑圧の方法及び装置並びにコンピュータプログラム | |
JP2007526511A (ja) | 周波数領域で多重経路多チャネル混合信号のブラインド分離のための方法及びその装置 | |
JP6987075B2 (ja) | オーディオ源分離 | |
CN110111802B (zh) | 基于卡尔曼滤波的自适应去混响方法 | |
US9078077B2 (en) | Estimation of synthetic audio prototypes with frequency-based input signal decomposition | |
JP7348812B2 (ja) | 雑音抑制装置、雑音抑制方法及び音声入力機器 | |
CN115588438B (zh) | 一种基于双线性分解的wls多通道语音去混响方法 | |
EP2630812B1 (en) | Estimation of synthetic audio prototypes | |
EP2730026B1 (en) | Low-delay filtering | |
Shamsa et al. | Noise reduction using multi-channel FIR warped Wiener filter | |
CN109074811B (zh) | 音频源分离 | |
CN114220453B (zh) | 基于频域卷积传递函数的多通道非负矩阵分解方法及*** | |
KR100863184B1 (ko) | 간섭 및 반향신호 제거를 위한 다단계 암묵 디콘볼루션방법 | |
WO2022215199A1 (ja) | 情報処理装置、出力方法、及び出力プログラム | |
JP4714892B2 (ja) | 耐高残響ブラインド信号分離装置及び方法 | |
Masuyama et al. | Causal and Relaxed-Distortionless Response Beamforming for Online Target Source Extraction | |
CN117877503A (zh) | 一种基于自适应多通道线性预测的低复杂度语音去混响方法 | |
Gaubitch et al. | Subband method for multichannel least squares equalization of room transfer functions | |
CN114550739A (zh) | 语音增强方法、相关设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |