JP7291190B2 - 音声処理方法、装置及び音声処理モデルの生成方法、装置 - Google Patents
音声処理方法、装置及び音声処理モデルの生成方法、装置 Download PDFInfo
- Publication number
- JP7291190B2 JP7291190B2 JP2021175751A JP2021175751A JP7291190B2 JP 7291190 B2 JP7291190 B2 JP 7291190B2 JP 2021175751 A JP2021175751 A JP 2021175751A JP 2021175751 A JP2021175751 A JP 2021175751A JP 7291190 B2 JP7291190 B2 JP 7291190B2
- Authority
- JP
- Japan
- Prior art keywords
- speech
- signal
- frequency band
- signals
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 198
- 238000000034 method Methods 0.000 title claims description 68
- 238000003672 processing method Methods 0.000 title claims description 27
- 230000005236 sound signal Effects 0.000 claims description 118
- 238000002592 echocardiography Methods 0.000 claims description 50
- 238000000354 decomposition reaction Methods 0.000 claims description 46
- 238000002372 labelling Methods 0.000 claims description 30
- 238000003062 neural network model Methods 0.000 claims description 30
- 238000012549 training Methods 0.000 claims description 29
- 230000015654 memory Effects 0.000 claims description 18
- 238000010606 normalization Methods 0.000 claims description 17
- 238000000605 extraction Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 10
- 230000004927 fusion Effects 0.000 claims description 9
- 238000012937 correction Methods 0.000 claims description 6
- 230000003993 interaction Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000001364 causal effect Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 101100167439 Arabidopsis thaliana CLPC1 gene Proteins 0.000 description 2
- 101100509022 Arabidopsis thaliana IRM1 gene Proteins 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 101100269850 Caenorhabditis elegans mask-1 gene Proteins 0.000 description 1
- 208000032368 Device malfunction Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000003116 impacting effect Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/038—Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L2021/02082—Noise filtering the noise being echo, reverberation of the speech
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Artificial Intelligence (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Cable Transmission Systems, Equalization Of Radio And Reduction Of Echo (AREA)
- Circuit For Audible Band Transducer (AREA)
- Telephone Function (AREA)
Description
本願の第6の態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムは、コンピュータに上記一態様の実施例に記載の音声処理方法を実行させるか、又は上記一態様の実施例に記載の音声処理モデルの生成方法を実行させる。
本願の実施例によれば、本願は、コンピュータプログラムを提供し、コンピュータプログラムは、コンピュータに本願によって提供される音声処理方法又は音声処理モデルの生成方法を実行させる。
Claims (19)
- 音声処理方法であって、
処理対象のM個の音声信号及びN個の参照信号を取得するステップであって、M及びNはそれぞれ1以上の正の整数であるステップと、
各前記音声信号及び参照信号に対してそれぞれサブバンド分解を行って、各前記音声信号及び参照信号の各周波数帯域成分を取得するステップと、
エコーキャンセルモデルを使用して各前記音声信号及び参照信号の各周波数帯域成分を処理して、各前記音声信号の各周波数帯域における前記N個の参照信号の対応する理想的な比率マスク(IRM)を取得するステップと、
各前記音声信号の各周波数帯域における前記N個の参照信号の対応するIRMに基づいて、各前記音声信号の各周波数帯域成分に対してエコーキャンセルを行って、エコーキャンセルされたM個の音声信号を取得するステップと、を含み、
前記エコーキャンセルモデルを使用して各前記音声信号及び参照信号の各周波数帯域成分を処理して、各前記音声信号の各周波数帯域における前記N個の参照信号の対応する理想的な比率マスク(IRM)を取得するステップは、
前記音声信号及び参照信号の各周波数帯域成分に対して多粒度特徴抽出を行って、各前記音声信号及び参照信号の各周波数帯域成分の特徴を取得するステップと、
各前記音声信号及び参照信号の各周波数帯域成分の特徴に対して特徴融合を行って、各前記音声信号の各周波数帯域における前記N個の参照信号の対応するIRMを取得するステップと、を含む、
ことを特徴とする音声処理方法。 - 前記各前記音声信号及び参照信号に対してそれぞれサブバンド分解を行うステップは、
音声処理機器のタイプに基づいて、サブバンド分解モードを決定するステップと、
前記分解モードで、各前記音声信号及び参照信号に対してそれぞれサブバンド分解を行うステップと、を含む、
ことを特徴とする請求項1に記載の方法。 - 前記エコーキャンセルモデルを使用して各前記音声信号及び参照信号の各周波数帯域成分を処理するステップの前に、
各前記音声信号及び参照信号の各周波数帯域成分に対して正規化処理を行うステップをさらに含む、
ことを特徴とする請求項1に記載の方法。 - 前記エコーキャンセルされたM個の音声信号を取得するステップの後に、
前記M個の音声信号を音声認識モデルに入力して、前記M個の音声信号に対応する認識結果を取得するステップをさらに含む、
ことを特徴とする請求項1~3のいずれかに記載の方法。 - 音声処理モデルの生成方法であって、
トレーニングデータセットを取得するステップであって、前記トレーニングデータセットの各組のトレーニングデータには、参照信号、エコー付きの音声信号及びラベリング理想的な比率マスク(IRM)を含むステップと、
各組の前記参照信号及びエコー付きの音声信号に対してそれぞれサブバンド分解を行って、各組の前記参照信号及びエコー付きの音声信号の各周波数帯域成分を取得するステップと、
初期ニューラルネットワークモデルを使用して、各組の前記参照信号及びエコー付きの音声信号の各周波数帯域成分を処理して、前記エコー付きの音声信号の各周波数帯域における各組の前記参照信号の対応する予測IRMを取得するステップと、
各組の前記予測IRMと対応するラベリングIRMとの差に基づいて、前記初期ニューラルネットワークモデルに対して誤差逆伝播補正を行って、トレーニングされた音声処理モデルを生成するステップと、を含み、
初期ニューラルネットワークモデルを使用して、各組の前記参照信号及びエコー付きの音声信号の各周波数帯域成分を処理して、前記エコー付きの音声信号の各周波数帯域における各組の前記参照信号の対応する予測IRMを取得するステップは、
前記音声信号及び参照信号の各周波数帯域成分に対して多粒度特徴抽出を行って、各前記音声信号及び参照信号の各周波数帯域成分の特徴を取得するステップと、
各前記音声信号及び参照信号の各周波数帯域成分の特徴に対して特徴融合を行って、各前記音声信号の各周波数帯域における前記N個の参照信号の対応するIRMを取得するステップと、を含む、
ことを特徴とする音声処理モデルの生成方法。 - 前記トレーニングデータセットを取得するステップは、
複数組の標準音声信号、参照信号及び対応するエコー信号を取得するステップと、
各組の前記エコー信号と前記標準音声信号とを融合して、エコー付きの音声信号を生成するステップと、
各組の標準音声信号及びエコー付きの音声信号に対してサブバンド分解を行って、各組の前記標準音声信号及びエコー付きの音声信号の各周波数帯域成分を取得するステップと、
各組の前記標準音声信号及びエコー付きの音声信号の各周波数帯域成分に基づいて、各組の前記エコー付きの音声信号に対応するラベリングIRMを決定するステップと、を含む、
ことを特徴とする請求項5に記載の方法。 - 前記各組の前記エコー信号と前記標準音声信号とを融合して、エコー付きの音声信号を生成するステップは、
異なる信号対雑音比に基づいて、各組の前記エコー信号と前記標準音声信号とを融合して、複数組のエコー付きの音声信号を生成するステップを含む、
ことを特徴とする請求項6に記載の方法。 - 前記初期ニューラルネットワークモデルを使用して、各組の前記参照信号及びエコー付きの音声信号の各周波数帯域成分を処理するステップの前に、
各組の前記音声信号及び参照信号の各周波数帯域成分に対して正規化処理を行うステップをさらに含む、
ことを特徴とする請求項5~7のいずれかに記載の方法。 - 音声処理装置であって、
処理対象のM個の音声信号及びN個の参照信号を取得するための取得モジュールであって、M及びNはそれぞれ1以上の正の整数である取得モジュールと、
各前記音声信号及び参照信号に対してそれぞれサブバンド分解を行って、各前記音声信号及び参照信号の各周波数帯域成分を取得するための第1処理モジュールと、
エコーキャンセルモデルを使用して各前記音声信号及び参照信号の各周波数帯域成分を処理して、各前記音声信号の各周波数帯域における前記N個の参照信号の対応する理想的な比率マスク(IRM)を取得するための第2処理モジュールと、
各前記音声信号の各周波数帯域における前記N個の参照信号の対応するIRMに基づいて、各前記音声信号の各周波数帯域成分に対してエコーキャンセルを行って、エコーキャンセルされたM個の音声信号を取得するための第3処理モジュールと、を含み、
前記第2処理モジュールが、
前記音声信号及び参照信号の各周波数帯域成分に対して多粒度特徴抽出を行って、各前記音声信号及び参照信号の各周波数帯域成分の特徴を取得するための特徴抽出ユニットと、
各前記音声信号及び参照信号の各周波数帯域成分の特徴に対して特徴融合を行って、各前記音声信号の各周波数帯域における前記N個の参照信号の対応するIRMを取得するための特徴融合ユニットと、を含む、
ことを特徴とする音声処理装置。 - 前記第1処理モジュールが、
音声処理機器のタイプに基づいて、サブバンド分解モードを決定し、
前記分解モードで、各前記音声信号及び参照信号に対してそれぞれサブバンド分解を行う、
ことを特徴とする請求項9に記載の装置。 - エコーキャンセルモデルを使用して各前記音声信号及び参照信号の各周波数帯域成分を処理する前に、各前記音声信号及び参照信号の各周波数帯域成分に対して正規化処理を行うための第4処理モジュールをさらに含む、
ことを特徴とする請求項9に記載の装置。 - エコーキャンセルされたM個の音声信号が取得された後、前記M個の音声信号を音声認識モデルに入力して、前記M個の音声信号に対応する認識結果を取得するための入力モジュールをさらに含む、
ことを特徴とする請求項9~11のいずれかに記載の装置。 - 音声処理モデルの生成装置であって、
トレーニングデータセットを取得するための第2取得モジュールであって、前記トレーニングデータセットの各組のトレーニングデータには、参照信号、エコー付きの音声信号及びラベリング理想的な比率マスク(IRM)を含む第2取得モジュールと、
各組の前記参照信号及びエコー付きの音声信号に対してそれぞれサブバンド分解を行って、各組の前記参照信号及びエコー付きの音声信号の各周波数帯域成分を取得するための第5処理モジュールと、
初期ニューラルネットワークモデルを使用して、各組の前記参照信号及びエコー付きの音声信号の各周波数帯域成分を処理して、前記エコー付きの音声信号の各周波数帯域における各組の前記参照信号の対応する予測IRMを取得するための第6処理モジュールと、
各組の前記予測IRMと対応するラベリングIRMとの差に基づいて、前記初期ニューラルネットワークモデルに対して誤差逆伝播補正を行って、トレーニングされた音声処理モデルを生成するための第7処理モジュールと、を含み、
初期ニューラルネットワークモデルを使用して、各組の前記参照信号及びエコー付きの音声信号の各周波数帯域成分を処理して、前記エコー付きの音声信号の各周波数帯域における各組の前記参照信号の対応する予測IRMを取得することは、
前記音声信号及び参照信号の各周波数帯域成分に対して多粒度特徴抽出を行って、各前記音声信号及び参照信号の各周波数帯域成分の特徴を取得することと、
各前記音声信号及び参照信号の各周波数帯域成分の特徴に対して特徴融合を行って、各前記音声信号の各周波数帯域における前記N個の参照信号の対応するIRMを取得することと、を含む、
ことを特徴とする音声処理モデルの生成装置。 - 前記第2取得モジュールが、
複数組の標準音声信号、参照信号及び対応するエコー信号を取得し、
各組の前記エコー信号と前記標準音声信号とを融合して、エコー付きの音声信号を生成し、
各組の標準音声信号及びエコー付きの音声信号に対してサブバンド分解を行って、各組の前記標準音声信号及びエコー付きの音声信号の各周波数帯域成分を取得し、
各組の前記標準音声信号及びエコー付きの音声信号の各周波数帯域成分に基づいて、各組の前記エコー付きの音声信号に対応するラベリングIRMを決定する、
ことを特徴とする請求項13に記載の装置。 - 前記第2取得モジュールが、
異なる信号対雑音比に基づいて、各組の前記エコー信号と前記標準音声信号とを融合して、複数組のエコー付きの音声信号を生成する、
ことを特徴とする請求項14に記載の装置。 - 各組の前記音声信号及び参照信号の各周波数帯域成分に対して正規化処理を行うための第8処理モジュールをさらに含む、
ことを特徴とする請求項13~15のいずれかに記載の装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令は、前記少なくとも1つのプロセッサが請求項1~4のいずれかに記載の音声処理方法、又は請求項5~8のいずれかに記載の音声処理モデルの生成方法を実行できるように、前記少なくとも1つのプロセッサによって実行される、
ことを特徴とする電子機器。 - コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令は、コンピュータに請求項1~4のいずれかに記載の音声処理方法、又は請求項5~8のいずれかに記載の音声処理モデルの生成方法を実行させる、
ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。 - コンピュータプログラムであって、
前記コンピュータプログラムは、コンピュータに請求項1~4のいずれかに記載の音声処理方法、又は請求項5~8のいずれかに記載の音声処理モデルの生成方法を実行させる、
ことを特徴とするコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011164617.9A CN112466318B (zh) | 2020-10-27 | 2020-10-27 | 语音处理方法、装置及语音处理模型的生成方法、装置 |
CN202011164617.9 | 2020-10-27 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022020055A JP2022020055A (ja) | 2022-01-31 |
JP7291190B2 true JP7291190B2 (ja) | 2023-06-14 |
Family
ID=74835699
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021175751A Active JP7291190B2 (ja) | 2020-10-27 | 2021-10-27 | 音声処理方法、装置及び音声処理モデルの生成方法、装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220044678A1 (ja) |
JP (1) | JP7291190B2 (ja) |
KR (1) | KR102577513B1 (ja) |
CN (1) | CN112466318B (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112786028B (zh) * | 2021-02-07 | 2024-03-26 | 百果园技术(新加坡)有限公司 | 声学模型处理方法、装置、设备和可读存储介质 |
CN113077812A (zh) * | 2021-03-19 | 2021-07-06 | 北京声智科技有限公司 | 语音信号生成模型训练方法、回声消除方法和装置及设备 |
CN114242098B (zh) * | 2021-12-13 | 2023-08-29 | 北京百度网讯科技有限公司 | 一种语音增强方法、装置、设备以及存储介质 |
CN114512136B (zh) * | 2022-03-18 | 2023-09-26 | 北京百度网讯科技有限公司 | 模型训练、音频处理方法、装置、设备、存储介质及程序 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150012752A (ko) | 2013-07-26 | 2015-02-04 | 삼성전자주식회사 | 비선형 음향 에코 소거 장치 및 그 방법 |
US20190318757A1 (en) | 2018-04-11 | 2019-10-17 | Microsoft Technology Licensing, Llc | Multi-microphone speech separation |
CN110956976A (zh) | 2019-12-17 | 2020-04-03 | 苏州科达科技股份有限公司 | 一种回声消除方法、装置、设备及可读存储介质 |
CN111048061A (zh) | 2019-12-27 | 2020-04-21 | 西安讯飞超脑信息科技有限公司 | 回声消除滤波器的步长获取方法、装置及设备 |
CN111292759A (zh) | 2020-05-11 | 2020-06-16 | 上海亮牛半导体科技有限公司 | 一种基于神经网络的立体声回声消除方法及*** |
CN111696580A (zh) | 2020-04-22 | 2020-09-22 | 广州多益网络股份有限公司 | 一种语音检测方法、装置、电子设备及存储介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10726859B2 (en) * | 2015-11-09 | 2020-07-28 | Invisio Communication A/S | Method of and system for noise suppression |
WO2018098230A1 (en) * | 2016-11-22 | 2018-05-31 | Massachusetts Institute Of Technology | Systems and methods for training neural networks |
US10283140B1 (en) * | 2018-01-12 | 2019-05-07 | Alibaba Group Holding Limited | Enhancing audio signals using sub-band deep neural networks |
US10672414B2 (en) * | 2018-04-13 | 2020-06-02 | Microsoft Technology Licensing, Llc | Systems, methods, and computer-readable media for improved real-time audio processing |
US10573301B2 (en) * | 2018-05-18 | 2020-02-25 | Intel Corporation | Neural network based time-frequency mask estimation and beamforming for speech pre-processing |
CN109841226B (zh) * | 2018-08-31 | 2020-10-16 | 大象声科(深圳)科技有限公司 | 一种基于卷积递归神经网络的单通道实时降噪方法 |
CN109841206B (zh) * | 2018-08-31 | 2022-08-05 | 大象声科(深圳)科技有限公司 | 一种基于深度学习的回声消除方法 |
EP3942547A4 (en) * | 2019-03-20 | 2022-12-28 | Research Foundation Of The City University Of New York | METHOD OF SPEECH EXTRACTION FROM DEGRADED SIGNALS BY PREDICTING THE INPUTS OF A SPEECH VOCODER |
CN110867181B (zh) * | 2019-09-29 | 2022-05-06 | 北京工业大学 | 基于scnn和tcnn联合估计的多目标语音增强方法 |
CN111370016B (zh) * | 2020-03-20 | 2023-11-10 | 北京声智科技有限公司 | 一种回声消除方法及电子设备 |
-
2020
- 2020-10-27 CN CN202011164617.9A patent/CN112466318B/zh active Active
-
2021
- 2021-09-03 KR KR1020210117561A patent/KR102577513B1/ko active IP Right Grant
- 2021-10-21 US US17/507,437 patent/US20220044678A1/en active Pending
- 2021-10-27 JP JP2021175751A patent/JP7291190B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150012752A (ko) | 2013-07-26 | 2015-02-04 | 삼성전자주식회사 | 비선형 음향 에코 소거 장치 및 그 방법 |
US20190318757A1 (en) | 2018-04-11 | 2019-10-17 | Microsoft Technology Licensing, Llc | Multi-microphone speech separation |
CN110956976A (zh) | 2019-12-17 | 2020-04-03 | 苏州科达科技股份有限公司 | 一种回声消除方法、装置、设备及可读存储介质 |
CN111048061A (zh) | 2019-12-27 | 2020-04-21 | 西安讯飞超脑信息科技有限公司 | 回声消除滤波器的步长获取方法、装置及设备 |
CN111696580A (zh) | 2020-04-22 | 2020-09-22 | 广州多益网络股份有限公司 | 一种语音检测方法、装置、电子设备及存储介质 |
CN111292759A (zh) | 2020-05-11 | 2020-06-16 | 上海亮牛半导体科技有限公司 | 一种基于神经网络的立体声回声消除方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN112466318A (zh) | 2021-03-09 |
JP2022020055A (ja) | 2022-01-31 |
US20220044678A1 (en) | 2022-02-10 |
KR20210116372A (ko) | 2021-09-27 |
KR102577513B1 (ko) | 2023-09-12 |
CN112466318B (zh) | 2024-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7291190B2 (ja) | 音声処理方法、装置及び音声処理モデルの生成方法、装置 | |
US9916840B1 (en) | Delay estimation for acoustic echo cancellation | |
WO2016146301A1 (en) | Correlation-based two microphone algorithm for noise reduction in reverberation | |
US8693713B2 (en) | Virtual audio environment for multidimensional conferencing | |
JP7214798B2 (ja) | 音声信号処理方法、音声信号処理装置、電子機器及び記憶媒体 | |
JP7355776B2 (ja) | 音声認識方法、音声認識装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム | |
CN112489668B (zh) | 去混响方法、装置、电子设备和存储介质 | |
US20240046955A1 (en) | Voice extraction method and apparatus, and electronic device | |
US11475869B2 (en) | Hybrid noise suppression for communication systems | |
US20210390970A1 (en) | Multi-modal framework for multi-channel target speech seperation | |
CN112799017B (zh) | 声源定位方法、装置、存储介质及电子设备 | |
WO2022005615A1 (en) | Speech enhancement | |
CN111383661B (zh) | 基于车载多音区的音区判决方法、装置、设备和介质 | |
CN112466327B (zh) | 语音处理方法、装置和电子设备 | |
Gao et al. | An order-aware scheme for robust direction of arrival estimation in the spherical harmonic domain | |
CN111505583B (zh) | 声源定位方法、装置、设备和可读存储介质 | |
WO2023244256A1 (en) | Techniques for unified acoustic echo suppression using a recurrent neural network | |
JP2022028670A (ja) | 表示される認識テキストの決定方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラム | |
CN115516554A (zh) | 用于语音分离和增强的全深度学习最小方差无失真响应波束形成器 | |
Ye et al. | Audio-visual underdetermined blind source separation algorithm based on Gaussian potential function | |
CN116472578A (zh) | Adl-ufe:全深度学习统一前端*** | |
CN114630240B (zh) | 方向滤波器的生成方法、音频处理方法、装置及存储介质 | |
JP7270869B2 (ja) | 情報処理装置、出力方法、及び出力プログラム | |
CN117577124B (zh) | 基于知识蒸馏的音频降噪模型的训练方法、装置及设备 | |
US20230298612A1 (en) | Microphone Array Configuration Invariant, Streaming, Multichannel Neural Enhancement Frontend for Automatic Speech Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211027 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220913 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221213 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230419 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230419 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230427 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230523 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230602 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7291190 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |