JP7258182B2 - 音声処理方法、装置、電子機器及びコンピュータプログラム - Google Patents
音声処理方法、装置、電子機器及びコンピュータプログラム Download PDFInfo
- Publication number
- JP7258182B2 JP7258182B2 JP2021560990A JP2021560990A JP7258182B2 JP 7258182 B2 JP7258182 B2 JP 7258182B2 JP 2021560990 A JP2021560990 A JP 2021560990A JP 2021560990 A JP2021560990 A JP 2021560990A JP 7258182 B2 JP7258182 B2 JP 7258182B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- speech
- audio
- text
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 20
- 238000004590 computer program Methods 0.000 title claims description 8
- 238000012545 processing Methods 0.000 claims description 99
- 238000012549 training Methods 0.000 claims description 64
- 238000000034 method Methods 0.000 claims description 34
- 230000009467 reduction Effects 0.000 claims description 28
- 238000013528 artificial neural network Methods 0.000 claims description 17
- 230000006403 short-term memory Effects 0.000 claims description 16
- 238000001228 spectrum Methods 0.000 claims description 16
- 238000009826 distribution Methods 0.000 claims description 14
- 230000015654 memory Effects 0.000 claims description 13
- 239000000203 mixture Substances 0.000 claims description 9
- 238000005516 engineering process Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 238000013473 artificial intelligence Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 239000000284 extract Substances 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 230000009286 beneficial effect Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011022 operating instruction Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000005316 response function Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L2021/02082—Noise filtering the noise being echo, reverberation of the speech
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Quality & Reliability (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Telephonic Communication Services (AREA)
- Machine Translation (AREA)
Description
処理対象である音声情報を収集するステップと、
処理対象である音声情報に基づき、第1音声特徴及び第1テキストボトルネック特徴を決定するステップと、
第1音声特徴及び第1テキストボトルネック特徴に基づき、第1組み合わせ特徴ベクトルを決定するステップと、
第1組み合わせ特徴ベクトルをトレーニング済みの単一方向長短期記憶(LSTM)モデルに入力し、第1組み合わせ特徴ベクトルに対して音声処理を行うことで、雑音低減後の音声情報を得て、雑音低減後の前記音声情報を他の電子機器に送信して再生させるステップと、を含む。
処理対象である音声情報に対してフレーム分割処理及び窓掛け処理を行うステップと、
フレーム分割処理及び窓掛け処理を行った後の前記処理対象である音声情報から、前記第1音声特徴を抽出するステップであって、第1音声特徴は、対数パワースペクトル特徴、メル周波数ケプストラム係数(MFCC)特徴の少なくとも一つを含む、ステップと、を含む。
処理対象である音声情報から、N次元のフィルタバンク(filter-bank)特徴及びM次元のピッチ(pitch)特徴を抽出するステップであって、N及びMは共に正の整数である、ステップと、
N次元のfilter-bank特徴とM次元のpitch特徴を結合し、第2音声特徴を得るステップと、
第2音声特徴をトレーニング済みの自動音声認識(ASR)ネットワークに入力し、トレーニング済みのASRネットワークのボトルネックの線形層から、第1テキストボトルネック特徴を抽出するステップと、を含む。
トレーニング済みの単一方向LSTMモデルによって、第1組み合わせ特徴ベクトルに対して音声強調処理を行うステップと、
処理結果に対して特徴逆変換を行い、音声情報を周波数領域から時間領域に変換し、前記雑音低減後の音声情報を得るステップと、を含む。
トレーニングステップであって、
ガウス混合モデル(GMM)によって、コーパスに含まれるテキストアノテーションとテキストアノテーションに対応するオーディオファイルをアライメントし、第1テキスト特徴を得て、前記コーパスはASRネットワークをトレーニングするために用いられ、
オーディオファイルから、N次元のフィルタバンク(filter-bank)特徴及びM次元のピッチ(pitch)特徴を抽出し、
N次元のfilter-bank特徴とM次元のpitch特徴を結合し、第3音声特徴を得て、
第3音声特徴をASRネットワークに入力してASRネットワークをトレーニングし、ASRネットワークの出力層から出力される第2テキスト特徴を得て、
第1テキスト特徴の値及び第2テキスト特徴の値に基づき、ASRネットワークのクロスエントロピー(CE)の値を決定する、トレーニングステップと、
トレーニングステップを繰り返して実行し、ASRネットワークをトレーニングして得られたASRネットワークのクロスエントロピー(CE)の値と前回のASRネットワークをトレーニングして得られたASRネットワークのクロスエントロピー(CE)の値との差が第1閾値範囲内に収まる場合、トレーニング済みのASRネットワークを得るステップと、を含む。
雑音低減トレーニング用コーパスに含まれる雑音付き音声及び雑音を含まない音声を収集するステップと、
雑音付き音声から第4音声特徴及び第2テキストボトルネック特徴を抽出し、雑音を含まない音声から第5音声特徴を抽出するステップと、
第4音声特徴と第2テキストボトルネック特徴を組み合わせて、第2組み合わせ特徴ベクトルを得るステップと、
第2組み合わせ特徴ベクトルを単一方向LSTMモデルに入力し、単一方向LSTMモデルをトレーニングし、単一方向LSTMモデルから出力される参考値と第5音声特徴値との間の最小平均二乗誤差が第2閾値以下になる場合、トレーニング済みの単一方向LSTMモデルを得るステップと、を含む。
処理対象である音声情報を収集するように構成される第1処理モジュールと、
処理対象である音声情報に基づき、第1音声特徴及び第1テキストボトルネック特徴を決定するように構成される第2処理モジュールと、
第1音声特徴及び第1テキストボトルネック特徴に基づき、第1組み合わせ特徴ベクトルを決定するように構成される第3処理モジュールと、
第1組み合わせ特徴ベクトルをトレーニング済みの単一方向長短期記憶(LSTM)モデルに入力し、第1組み合わせ特徴ベクトルに対して音声処理を行うことで、雑音低減後の音声情報を得て、雑音低減後の前記音声情報を他の電子機器に送信して再生させるように構成される第4処理モジュールと、を含む。
バスはプロセッサとメモリを接続するために用いられ、
メモリは動作命令を記憶するために用いられ、
プロセッサは、動作命令を呼び出すことで、本願の実施例に記載の音声処理方法を実行するために用いられる。
動物ニューラルネットワーク行動特徴を擬似し、分散型並列情報処理を行うアルゴリズム数学モデルである。このようなネットワークは、システムの複雑さに依存して内部の多くのノード間の相互接続関係を調整することにより、情報を処理する目的を達成する。
DNN(Deep Neural Networks:ディープニューラルネットワーク)とは、少なくとも一つの隠れ層を有し、活性化関数で非線形化を行い、クロスエントロピーを損失関数として使用し、逆伝播最適化アルゴリズム(例えば、確率的勾配降下法、バッチ勾配降下法)を用いて学習やトレーニングを行う(ニューロン間の重みを調整して更新する)フィードフォワードニューラルネットワークである。
ASR(Automatic Speech Recognition:自動音声認識)技術は、コンピュータが様々な人から話した連続的な音声をディクテーションできるようにすること、つまり、一般的に知られているディクテーションマシンを実現することを目標としており、音声からテキストへの変換を可能にするための技術である。自動音声認識は、音声認識(Speech Recognition)又はコンピュータ音声認識(Computer Speech Recognition)とも呼ばれる。
MFCC(Mel Frequency Cepstrum Coefficient:メル周波数ケプストラム係数)は、人間の聴覚特徴を考慮し、線性スペクトルを聴覚感知に基づくメルMel非線形スペクトルにマッピングしてからケプストラム上に変換したものである。メル周波数は、耳の聴覚特性に基づいて提案されたものであり、Hz周波数と非線形対応関係を呈しており、メル周波数ケプストラム係数は、それらの間のこのような関係を利用して算出したHzスペクトル特徴であり、主に音声データ特徴の抽出及び計算次元の削減に用いられる。
softmax層の出力は、合計が1になる一連の正数であり、つまり、softmax層から得られる出力は確率分布と見なすことができる。softmax層はニューラルネットワークの出力を確率分布に変換する。
音声信号が様々な雑音により干渉され、ひいては埋もれた場合、雑音背景から有用な音声信号を抽出し、雑音干渉を抑制し、低減する技術であり、雑音付き音声から可能な限りクリーンなオリジナル音声を抽出するものである。
CE(Cross Entropy:クロスエントロピー)は、確率分布q(x)によって確率分布p(x)を表す難易度と見なすことができる。クロスエントロピーは二つの確率分布q(x)とp(x)の距離を表し、つまり、クロスエントロピーの値が小さいほど(相対エントロピーの値が小さいほど)、二つの確率分布q(x)とp(x)が近い。クロスエントロピー損失関数は、分類課題、特にニューラルネットワークの分類課題によく用いられ、クロスエントロピーは、各カテゴリの確率の計算に関するため、ニューラルネットワークにおいて、softmax関数と密に関連している。
LSTM(Long Short-Term Memory)長短期記憶ネットワークは、時系列における間隔と遅延が相対的に長い重要なイベントの処理や予測に適する時間回帰ニューラルネットワークであり、LSTMは、回帰型ニューラルネットワークRNNの構造に存在する勾配減少の問題を解決するために提案される特別な回帰型ニューラルネットワークである。LSTMはLSTMブロック(blocks)を含有する人工ニューラルネットワークであり、LSTMブロックは、インテリジェントネットワークユニットであってよく、非固定時間長の値を記憶することができるものであり、且つ、入力inputが記憶できるほど重要であるか否か、及び出力outputできるか否かを決定可能なゲートgateが存在しているものである。
ガウスモデルとは、ガウス確率密度関数(正規分布曲線)で事物を正確に定量化し、一つの事物をガウス確率密度関数(正規分布曲線)に基づいて形成される複数のモデルに分解するものである。画像背景に対してガウスモデルを確立する原理及びプロセスにおいて、画像階調ヒストグラムは画像に特定の階調値が現れる頻度を表すものであり、画像階調確率密度に対する推定と考えられてもよい。GMM(Gaussian mixture model:ガウス混合モデル)はK個のガウスモデルを使用して画像内の各画素点の特徴を表し、Kは正の整数であり、新たな1フレームの画像を取得すると、ガウス混合モデルを更新し、現在の画像内の各画素点をガウス混合モデルとマッチングさせ、成功すれば、この点を背景点として判定し、そうでなければ前景点と判定する。ガウスモデル全体から見れば、それは主に分散と平均値の二つのパラメータによって決められ、平均値と分散への学習に採用する学習メカニズムにより、モデルの安定性、精度及び収束性に直接影響が及ぼされる。
処理対象である音声情報のフレーム分割処理及び窓掛け処理を行うステップと、フレーム分割処理及び窓掛け処理を行った後の前記処理対象である音声情報から、第1音声特徴を抽出するステップであって、第1音声特徴は、対数パワースペクトル特徴、メル周波数ケプストラム係数(MFCC)特徴の少なくとも一つを含むステップと、を含む。
処理対象である音声情報から、N次元のフィルタバンク(filter-bank)特徴及びM次元のピッチ(pitch)特徴を抽出するステップであって、N及びMは共に正の整数であるステップと、
N次元のfilter-bank特徴とM次元のpitch特徴を結合し、第2音声特徴を得るステップと、
第2音声特徴をトレーニング済みの自動音声認識(ASR)ネットワークに入力し、トレーニング済みのASRネットワークのボトルネック(bottleneck)の線形層から、第1テキストbottleneck特徴を抽出するステップと、を含む。
トレーニング済みの単一方向LSTMモデルによって、第1組み合わせ特徴ベクトルに対して音声強調処理を行うステップと、
処理結果に対して特徴逆変換を行い、音声情報を周波数領域から時間領域に変換し、処理後の音声情報を得るステップと、を含む。
トレーニングステップであって、
ガウス混合モデル(GMM)によって、ASRネットワークをトレーニングするためのコーパスに含まれるテキストアノテーションとテキストアノテーションに対応するオーディオファイルとをアライメントし、第1テキスト特徴を得て、
オーディオファイルから、N次元のフィルタバンク(filter-bank)特徴及びM次元のピッチ(pitch)特徴を抽出し、
N次元のfilter-bank特徴とM次元のpitch特徴を結合し、第3音声特徴を得て、
第3音声特徴をASRネットワークに入力してASRネットワークをトレーニングし、ASRネットワークの出力層から出力される第2テキスト特徴を得て、
第1テキスト特徴値及び第2テキスト特徴の値に基づき、ASRネットワークのクロスエントロピー(CE)の値を決定する、トレーニングステップと、
トレーニングステップを繰り返して実行し、ASRネットワークをトレーニングして得られたASRネットワークのクロスエントロピー(CE)の値と前回のASRネットワークをトレーニングして得られたASRネットワークのクロスエントロピー(CE)の値との差が第1閾値範囲内に収まる場合、トレーニング済みのASRネットワークを得るステップと、を含む。
雑音低減トレーニング用コーパスに含まれる雑音付き音声及び雑音を含まない音声を収集するステップと、
雑音付き音声から、第4音声特徴及び第2テキストbottleneck特徴を抽出し、雑音を含まない音声から第5音声特徴を抽出するステップと、
第4音声特徴と第2テキストbottleneck特徴を組み合わせて、第2組み合わせ特徴ベクトルを得るステップと、
第2組み合わせ特徴ベクトルを単一方向LSTMモデルに入力し、単一方向LSTMモデルをトレーニングし、単一方向LSTMモデルから出力される参考値と第5音声特徴値との間の最小平均二乗誤差が第2閾値以下になる場合、トレーニング済みの単一方向LSTMモデルを得るステップと、を含む。
第2処理モジュール602は、処理対象である音声情報に基づき、第1音声特徴及び第1テキストボトルネック(bottleneck)特徴を決定するように構成され、
第3処理モジュール603は、第1音声特徴及び第1テキストbottleneck特徴に基づき、第1組み合わせ特徴ベクトルを決定するように構成され、
第4処理モジュール604は、第1組み合わせ特徴ベクトルをトレーニング済みの単一方向長短期記憶(LSTM)モデルに入力し、第1組み合わせ特徴ベクトルの音声処理を行うことで、雑音低減後の音声情報を得て、雑音低減後の前記音声情報を他の電子機器に送信して再生させるように構成される。
トレーニングステップであって、
ガウス混合モデル(GMM)によって、ASRネットワークをトレーニングするためのコーパスに含まれるテキストアノテーションとテキストアノテーションに対応するオーディオファイルをアライメントし、第1テキスト特徴を得て、
オーディオファイルから、N次元のフィルタバンク(filter-bank)特徴及びM次元のピッチ(pitch)特徴を抽出し、
N次元のfilter-bank特徴とM次元のpitch特徴を結合し、第3音声特徴を得て、
第3音声特徴をASRネットワークに入力してASRネットワークをトレーニングし、ASRネットワークの出力層から出力される第2テキスト特徴を得て、
第1テキスト特徴値及び第2テキスト特徴の値に基づき、ASRネットワークのクロスエントロピー(CE)の値を決定する、トレーニングステップと、
トレーニングステップを繰り返して実行し、ASRネットワークをトレーニングして得られたASRネットワークのクロスエントロピー(CE)の値と前回のASRネットワークをトレーニングして得られたASRネットワークのクロスエントロピー(CE)の値との差が第1閾値範囲内に収まる場合、トレーニング済みのASRネットワークを得るステップと、を含む。
雑音低減トレーニング用コーパスに含まれる雑音付き音声及び雑音を含まない音声を収集するステップと、
雑音付き音声から、第4音声特徴及び第2テキストbottleneck特徴を抽出し、雑音を含まない音声から第5音声特徴を抽出するステップと、
第4音声特徴と第2テキストbottleneck特徴を組み合わせて、第2組み合わせ特徴ベクトルを得るステップと、
第2組み合わせ特徴ベクトルを単一方向LSTMモデルに入力し、単一方向LSTMモデルをトレーニングし、単一方向LSTMモデルから出力される参考値と第5音声特徴値との間の最小平均二乗誤差が第2閾値以下になる場合、トレーニング済みの単一方向LSTMモデルを得るステップと、を含む。
12 ネットワーク
13 ユーザ端末
60 音声処理装置
601 第1処理モジュール
602 第2処理モジュール
603 第3処理モジュール
604 第4処理モジュール
6000 電子機器
6001 プロセッサ
6002 メモリ
6003 バス
Claims (11)
- 電子機器が実行する、音声処理方法であって、
処理対象である音声情報を取得するステップと、
前記処理対象である音声情報に基づき、第1音声特徴及び第1テキストボトルネック特徴を決定するステップと、
前記第1音声特徴及び前記第1テキストボトルネック特徴に基づき、第1組み合わせ特徴ベクトルを決定するステップと、
前記第1組み合わせ特徴ベクトルをトレーニング済みの単一方向長短期記憶(LSTM)モデルに入力し、前記第1組み合わせ特徴ベクトルに対して音声処理を行うことで、雑音低減後の音声情報を得て、雑音低減後の前記音声情報を他の電子機器に送信して再生させるステップと、を含み、
前記処理対象である音声情報に基づき、第1テキストボトルネック特徴を決定するステップは、
前記処理対象である音声情報から、N次元のフィルタバンク(filter-bank)特徴及びM次元のピッチ(pitch)特徴を抽出するステップであって、N及びMは共に正の整数である、ステップと、
前記N次元のfilter-bank特徴と前記M次元のpitch特徴を結合し、第2音声特徴を得るステップと、
前記第2音声特徴をトレーニング済みの自動音声認識(ASR)ネットワークに入力し、前記トレーニング済みのASRネットワークのボトルネックの線形層から前記第1テキストボトルネック特徴を抽出するステップと、を含み、
前記ASRネットワークをトレーニングする方法は、
トレーニングステップであって、
ガウス混合モデル(GMM)によって、コーパスに含まれるテキストアノテーションと前記テキストアノテーションに対応するオーディオファイルとをアライメントし、第1テキスト特徴を得るステップであって、前記コーパスは前記ASRネットワークをトレーニングするために用いられる、ステップと、
前記オーディオファイルから、N次元のフィルタバンク(filter-bank)特徴及びM次元のピッチ(pitch)特徴を抽出するステップと、
前記M次元のfilter-bank特徴と前記M次元のpitch特徴を結合し、第3音声特徴を得るステップと、
前記第3音声特徴を前記ASRネットワークに入力し、前記ASRネットワークをトレーニングし、前記ASRネットワークの出力層から出力される第2テキスト特徴を得るステップと、
前記第1テキスト特徴の値及び前記第2テキスト特徴の値に基づき、前記ASRネットワークのクロスエントロピー(CE)の値を決定するステップと、を含むトレーニングステップと、
前記トレーニングステップを繰り返して実行し、前記ASRネットワークをトレーニングして得られたASRネットワークのクロスエントロピー(CE)の値と、前回の前記ASRネットワークをトレーニングして得られたASRネットワークのクロスエントロピー(CE)の値との差が第1閾値範囲内に収まる場合、前記トレーニング済みのASRネットワークを得るステップと、を含む、ことを特徴とする方法。 - 前記処理対象である音声情報に基づき、第1音声特徴を決定するステップは、
前記処理対象である音声情報に対してフレーム分割処理及び窓掛け処理を行うステップと、
フレーム分割処理及び窓掛け処理を行った後の前記処理対象である音声情報から、前記第1音声特徴を抽出するステップであって、前記第1音声特徴は、対数パワースペクトル特徴、メル周波数ケプストラム係数(MFCC)特徴の少なくとも一つを含む、ステップと、を含むことを特徴とする
請求項1に記載の方法。 - 前記ASRネットワークは、入力層としての4層の隠れ層のディープニューラルネットワーク(DNN)、1層のボトルネックの線形層、及び出力層としての確率分布層(softmax層)を含むことを特徴とする
請求項1に記載の方法。 - 前記第1組み合わせ特徴ベクトルをトレーニング済みの単一方向長短期記憶(LSTM)モデルに入力し、前記第1組み合わせ特徴ベクトルに対して音声処理を行うことで、雑音低減後の音声情報を得るステップは、
前記トレーニング済みの単一方向LSTMモデルによって前記第1組み合わせ特徴ベクトルに対して音声強調処理を行うステップと、
処理結果に対して特徴逆変換を行い、音声情報を周波数領域から時間領域に変換し、前記雑音低減後の音声情報を得るステップと、を含むことを特徴とする
請求項1に記載の方法。 - 前記単一方向LSTMモデルをトレーニングする方法は、
雑音低減トレーニング用コーパスに含まれる雑音付き音声及び雑音を含まない音声を収集するステップと、
前記雑音付き音声から第4音声特徴及び第2テキストボトルネック特徴を抽出し、前記雑音を含まない音声から第5音声特徴を抽出するステップと、
前記第4音声特徴と前記第2テキストボトルネック特徴を組み合わせて、第2組み合わせ特徴ベクトルを得るステップと、
前記第2組み合わせ特徴ベクトルを前記単一方向LSTMモデルに入力し、前記単一方向LSTMモデルをトレーニングし、前記単一方向LSTMモデルから出力される参考値と前記第5音声特徴の値との間の最小平均二乗誤差が第2閾値以下になる場合、前記トレーニング済みの単一方向LSTMモデルを得るステップと、を含むことを特徴とする
請求項1に記載の方法。 - 音声処理装置であって、
処理対象である音声情報を取得するように構成される第1処理モジュールと、
前記処理対象である音声情報に基づき、第1音声特徴及び第1テキストボトルネック特徴を決定するように構成される第2処理モジュールと、
前記第1音声特徴及び前記第1テキストボトルネック特徴に基づき、第1組み合わせ特徴ベクトルを決定するように構成される第3処理モジュールと、
前記第1組み合わせ特徴ベクトルをトレーニング済みの単一方向長短期記憶(LSTM)モデルに入力し、前記第1組み合わせ特徴ベクトルに対して音声処理を行うことで、雑音低減後の音声情報を得て、雑音低減後の前記音声情報を他の電子機器に送信して再生させるように構成される第4処理モジュールと、を含み、
前記第2処理モジュールは、
前記処理対象である音声情報から、N次元のフィルタバンク(filter-bank)特徴及びM次元のピッチ(pitch)特徴を抽出ステップであって、N及びMは共に正の整数である、ステップと、
前記N次元のfilter-bank特徴と前記M次元のpitch特徴を結合し、第2音声特徴を得るステップと、
前記第2音声特徴をトレーニング済みの自動音声認識(ASR)ネットワークに入力し、前記トレーニング済みのASRネットワークのボトルネックの線形層から前記第1テキストボトルネック特徴を抽出するステップと、を実行するようにも構成され、
前記第2処理モジュールは、前記ASRネットワークをトレーニングするようにも構成され、前記ASRネットワークをトレーニングする方法は、
トレーニングステップであって、
ガウス混合モデル(GMM)によって、コーパスに含まれるテキストアノテーションと前記テキストアノテーションに対応するオーディオファイルとをアライメントし、第1テキスト特徴を得るステップであって、前記コーパスは前記ASRネットワークをトレーニングするために用いられる、ステップと、
前記オーディオファイルから、N次元のフィルタバンク(filter-bank)特徴及びM次元のピッチ(pitch)特徴を抽出するステップと、
前記N次元のfilter-bank特徴と前記M次元のpitch特徴を結合し、第3音声特徴を得るステップと、
前記第3音声特徴を前記ASRネットワークに入力し、前記ASRネットワークをトレーニングし、前記ASRネットワークの出力層から出力される第2テキスト特徴を得るステップと、
前記第1テキスト特徴の値及び前記第2テキスト特徴の値に基づき、前記ASRネットワークのクロスエントロピー(CE)の値を決定するステップと、を含むトレーニングステップと、
前記トレーニングステップを繰り返して実行し、前記ASRネットワークをトレーニングして得られたASRネットワークのクロスエントロピー(CE)の値と、前回の前記ASRネットワークをトレーニングして得られたASRネットワークのクロスエントロピー(CE)の値との差が第1閾値範囲内に収まる場合、前記トレーニング済みのASRネットワークを得るステップと、を含む、ことを特徴とする装置。 - 前記第2処理モジュールは、
前記処理対象である音声情報に対してフレーム分割処理及び窓掛け処理を行うステップと、
フレーム分割処理及び窓掛け処理を行った後の前記処理対象である音声情報から、前記第1音声特徴を抽出するステップであって、前記第1音声特徴は対数パワースペクトル特徴、メル周波数ケプストラム係数(MFCC)特徴の少なくとも一つを含む、ステップと、を実行するようにも構成される
請求項6に記載の装置。 - 前記第4処理モジュールは、
前記トレーニング済みの単一方向LSTMモデルによって前記第1組み合わせ特徴ベクトルの音声強調処理を行うステップと、
処理結果に対して特徴逆変換を行い、音声情報を周波数領域から時間領域に変換し、処理後の音声情報を得るステップと、を実行するようにも構成される
請求項6に記載の装置。 - 前記第4処理モジュールは、前記単一方向LSTMモデルをトレーニングするようにも構成され、前記単一方向LSTMモデルをトレーニングする方法は、
雑音低減トレーニング用コーパスに含まれる雑音付き音声及び雑音を含まない音声を収集するステップと、
前記雑音付き音声から第4音声特徴及び第2テキストボトルネック特徴を抽出し、前記雑音を含まない音声から第5音声特徴を抽出するステップと、
前記第4音声特徴と前記第2テキストボトルネック特徴を組み合わせて、第2組み合わせ特徴ベクトルを得るステップと、
前記第2組み合わせ特徴ベクトルを前記単一方向LSTMモデルに入力し、前記単一方向LSTMモデルをトレーニングし、前記単一方向LSTMモデルから出力される参考値と前記第5音声特徴の値との間の最小平均二乗誤差が第2閾値以下になる場合、前記トレーニング済みの単一方向LSTMモデルを得るステップと、を含む
請求項6に記載の装置。 - プロセッサ及びメモリを含み、
前記メモリは、コンピュータプログラムを記憶するために用いられ、
前記プロセッサは、前記コンピュータプログラムを呼び出して、請求項1から5のいずれか一項に記載の方法を実行するために用いられる、電子機器。 - コンピュータに、請求項1から5のいずれか一項に記載の方法を実行させるコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910838192.6 | 2019-09-05 | ||
CN201910838192.6A CN110379412B (zh) | 2019-09-05 | 2019-09-05 | 语音处理的方法、装置、电子设备及计算机可读存储介质 |
PCT/CN2020/101602 WO2021042870A1 (zh) | 2019-09-05 | 2020-07-13 | 语音处理的方法、装置、电子设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022529641A JP2022529641A (ja) | 2022-06-23 |
JP7258182B2 true JP7258182B2 (ja) | 2023-04-14 |
Family
ID=68261527
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021560990A Active JP7258182B2 (ja) | 2019-09-05 | 2020-07-13 | 音声処理方法、装置、電子機器及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (2) | US11948552B2 (ja) |
EP (1) | EP3933829B1 (ja) |
JP (1) | JP7258182B2 (ja) |
CN (1) | CN110379412B (ja) |
WO (1) | WO2021042870A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110379412B (zh) | 2019-09-05 | 2022-06-17 | 腾讯科技(深圳)有限公司 | 语音处理的方法、装置、电子设备及计算机可读存储介质 |
CN112786001B (zh) * | 2019-11-11 | 2024-04-09 | 北京地平线机器人技术研发有限公司 | 语音合成模型训练方法、语音合成方法和装置 |
CN112786016B (zh) * | 2019-11-11 | 2022-07-19 | 北京声智科技有限公司 | 一种语音识别方法、装置、介质和设备 |
CN110875037A (zh) * | 2019-11-19 | 2020-03-10 | 腾讯科技(深圳)有限公司 | 语音数据处理方法、装置及电子设备 |
CN111460094B (zh) * | 2020-03-17 | 2023-05-05 | 云知声智能科技股份有限公司 | 一种基于tts的音频拼接优化的方法及其装置 |
CN111583919B (zh) * | 2020-04-15 | 2023-10-13 | 北京小米松果电子有限公司 | 信息处理方法、装置及存储介质 |
WO2022027423A1 (zh) * | 2020-08-06 | 2022-02-10 | 大象声科(深圳)科技有限公司 | 一种融合骨振动传感器和双麦克风信号的深度学习降噪方法及*** |
CN112289299B (zh) * | 2020-10-21 | 2024-05-14 | 北京大米科技有限公司 | 语音合成模型的训练方法、装置、存储介质以及电子设备 |
US11922963B2 (en) * | 2021-05-26 | 2024-03-05 | Microsoft Technology Licensing, Llc | Systems and methods for human listening and live captioning |
CN113593598B (zh) * | 2021-08-09 | 2024-04-12 | 深圳远虑科技有限公司 | 音频放大器在待机状态下的降噪方法、装置和电子设备 |
CN113763987A (zh) * | 2021-09-06 | 2021-12-07 | 中国科学院声学研究所 | 一种语音转换模型的训练方法及装置 |
CN113674735B (zh) * | 2021-09-26 | 2022-01-18 | 北京奇艺世纪科技有限公司 | 声音转换方法、装置、电子设备及可读存储介质 |
CN114283794A (zh) * | 2021-12-14 | 2022-04-05 | 达闼科技(北京)有限公司 | 噪音过滤方法、装置、电子设备和计算机可读存储介质 |
CN113921023B (zh) * | 2021-12-14 | 2022-04-08 | 北京百瑞互联技术有限公司 | 一种蓝牙音频啸叫抑制方法、装置、介质及蓝牙设备 |
CN114267345B (zh) * | 2022-02-25 | 2022-05-17 | 阿里巴巴达摩院(杭州)科技有限公司 | 模型训练方法、语音处理方法及其装置 |
CN114743012B (zh) * | 2022-04-08 | 2024-02-06 | 北京金堤科技有限公司 | 一种文本识别方法及装置 |
CN114863940B (zh) * | 2022-07-05 | 2022-09-30 | 北京百瑞互联技术有限公司 | 音质转换的模型训练方法、提升音质的方法、装置及介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109065067A (zh) | 2018-08-16 | 2018-12-21 | 福建星网智慧科技股份有限公司 | 一种基于神经网络模型的会议终端语音降噪方法 |
JP2019522810A (ja) | 2016-06-13 | 2019-08-15 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | ニューラルネットワークベースの声紋情報抽出方法及び装置 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008076897A2 (en) * | 2006-12-14 | 2008-06-26 | Veoh Networks, Inc. | System for use of complexity of audio, image and video as perceived by a human observer |
US20110035215A1 (en) * | 2007-08-28 | 2011-02-10 | Haim Sompolinsky | Method, device and system for speech recognition |
JP6499095B2 (ja) * | 2016-01-29 | 2019-04-10 | 日本電信電話株式会社 | 信号処理方法、信号処理装置及び信号処理プログラム |
US9984683B2 (en) * | 2016-07-22 | 2018-05-29 | Google Llc | Automatic speech recognition using multi-dimensional models |
CN108447490B (zh) * | 2018-02-12 | 2020-08-18 | 阿里巴巴集团控股有限公司 | 基于记忆性瓶颈特征的声纹识别的方法及装置 |
CN108461085A (zh) * | 2018-03-13 | 2018-08-28 | 南京邮电大学 | 一种短时语音条件下的说话人识别方法 |
US10672414B2 (en) * | 2018-04-13 | 2020-06-02 | Microsoft Technology Licensing, Llc | Systems, methods, and computer-readable media for improved real-time audio processing |
CN108682418B (zh) * | 2018-06-26 | 2022-03-04 | 北京理工大学 | 一种基于预训练和双向lstm的语音识别方法 |
CN109841226B (zh) * | 2018-08-31 | 2020-10-16 | 大象声科(深圳)科技有限公司 | 一种基于卷积递归神经网络的单通道实时降噪方法 |
CN109785852A (zh) * | 2018-12-14 | 2019-05-21 | 厦门快商通信息技术有限公司 | 一种增强说话人语音的方法及*** |
US11069352B1 (en) * | 2019-02-18 | 2021-07-20 | Amazon Technologies, Inc. | Media presence detection |
CN109859767B (zh) * | 2019-03-06 | 2020-10-13 | 哈尔滨工业大学(深圳) | 一种用于数字助听器的环境自适应神经网络降噪方法、***及存储介质 |
US11158307B1 (en) * | 2019-03-25 | 2021-10-26 | Amazon Technologies, Inc. | Alternate utterance generation |
US10923111B1 (en) * | 2019-03-28 | 2021-02-16 | Amazon Technologies, Inc. | Speech detection and speech recognition |
CN110379412B (zh) * | 2019-09-05 | 2022-06-17 | 腾讯科技(深圳)有限公司 | 语音处理的方法、装置、电子设备及计算机可读存储介质 |
-
2019
- 2019-09-05 CN CN201910838192.6A patent/CN110379412B/zh active Active
-
2020
- 2020-07-13 EP EP20860732.5A patent/EP3933829B1/en active Active
- 2020-07-13 JP JP2021560990A patent/JP7258182B2/ja active Active
- 2020-07-13 WO PCT/CN2020/101602 patent/WO2021042870A1/zh active Application Filing
-
2021
- 2021-08-30 US US17/460,924 patent/US11948552B2/en active Active
-
2024
- 2024-01-29 US US18/425,381 patent/US20240169975A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019522810A (ja) | 2016-06-13 | 2019-08-15 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | ニューラルネットワークベースの声紋情報抽出方法及び装置 |
CN109065067A (zh) | 2018-08-16 | 2018-12-21 | 福建星网智慧科技股份有限公司 | 一种基于神经网络模型的会议终端语音降噪方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2021042870A1 (zh) | 2021-03-11 |
EP3933829B1 (en) | 2024-06-12 |
US11948552B2 (en) | 2024-04-02 |
EP3933829A4 (en) | 2022-06-08 |
CN110379412A (zh) | 2019-10-25 |
JP2022529641A (ja) | 2022-06-23 |
US20240169975A1 (en) | 2024-05-23 |
CN110379412B (zh) | 2022-06-17 |
EP3933829A1 (en) | 2022-01-05 |
US20210390946A1 (en) | 2021-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7258182B2 (ja) | 音声処理方法、装置、電子機器及びコンピュータプログラム | |
Zhao et al. | Monaural speech dereverberation using temporal convolutional networks with self attention | |
Qian et al. | Speech Enhancement Using Bayesian Wavenet. | |
CN110600018B (zh) | 语音识别方法及装置、神经网络训练方法及装置 | |
KR100908121B1 (ko) | 음성 특징 벡터 변환 방법 및 장치 | |
CN110085245B (zh) | 一种基于声学特征转换的语音清晰度增强方法 | |
KR101807961B1 (ko) | Lstm 및 심화신경망 기반의 음성 신호 처리 방법 및 장치 | |
Zhao et al. | Late reverberation suppression using recurrent neural networks with long short-term memory | |
WO2020039571A1 (ja) | 音声分離装置、音声分離方法、音声分離プログラム、及び音声分離システム | |
CN114267372A (zh) | 语音降噪方法、***、电子设备和存储介质 | |
CN114338623B (zh) | 音频的处理方法、装置、设备及介质 | |
CN111986679A (zh) | 一种应对复杂声学环境的说话人确认方法、***及存储介质 | |
WO2023216760A1 (zh) | 语音处理方法、装置、存储介质、计算机设备及程序产品 | |
Kothapally et al. | Skipconvgan: Monaural speech dereverberation using generative adversarial networks via complex time-frequency masking | |
Saeki et al. | Real-Time, Full-Band, Online DNN-Based Voice Conversion System Using a Single CPU. | |
Zhang et al. | Personalized acoustic echo cancellation for full-duplex communications | |
CN114373473A (zh) | 通过低延迟深度学习实现同时降噪和去混响 | |
CN112634912A (zh) | 丢包补偿方法及装置 | |
US20230186943A1 (en) | Voice activity detection method and apparatus, and storage medium | |
CN113763978B (zh) | 语音信号处理方法、装置、电子设备以及存储介质 | |
Chen et al. | CITISEN: A Deep Learning-Based Speech Signal-Processing Mobile Application | |
Romaniuk et al. | Efficient low-latency speech enhancement with mobile audio streaming networks | |
Li et al. | Robust voice activity detection using an auditory-inspired masked modulation encoder based convolutional attention network | |
Chun et al. | Comparison of cnn-based speech dereverberation using neural vocoder | |
KR102505653B1 (ko) | 심화신경망을 이용한 에코 및 잡음 통합 제거 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211014 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211014 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220815 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230313 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230404 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7258182 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |