WO2009116291A1 - 雑音抑圧装置および雑音抑圧方法 - Google Patents
雑音抑圧装置および雑音抑圧方法 Download PDFInfo
- Publication number
- WO2009116291A1 WO2009116291A1 PCT/JP2009/001224 JP2009001224W WO2009116291A1 WO 2009116291 A1 WO2009116291 A1 WO 2009116291A1 JP 2009001224 W JP2009001224 W JP 2009001224W WO 2009116291 A1 WO2009116291 A1 WO 2009116291A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- time
- information
- estimated value
- noise suppression
- calculated
- Prior art date
Links
- 230000001629 suppression Effects 0.000 title claims abstract description 275
- 238000000034 method Methods 0.000 title claims description 348
- 239000013598 vector Substances 0.000 claims description 217
- 238000004364 calculation method Methods 0.000 claims description 201
- 238000012545 processing Methods 0.000 claims description 149
- 239000011159 matrix material Substances 0.000 claims description 146
- 230000005236 sound signal Effects 0.000 claims description 72
- 230000007704 transition Effects 0.000 claims description 59
- 230000008569 process Effects 0.000 claims description 53
- 230000001605 fetal effect Effects 0.000 claims description 41
- 238000004458 analytical method Methods 0.000 claims description 31
- 238000001514 detection method Methods 0.000 claims description 22
- 230000002159 abnormal effect Effects 0.000 claims description 20
- 210000002458 fetal heart Anatomy 0.000 claims description 8
- 238000004891 communication Methods 0.000 claims description 7
- 238000007689 inspection Methods 0.000 claims description 7
- 238000007796 conventional method Methods 0.000 description 161
- 238000004422 calculation algorithm Methods 0.000 description 95
- 238000010586 diagram Methods 0.000 description 75
- 238000011156 evaluation Methods 0.000 description 33
- 238000004088 simulation Methods 0.000 description 33
- 238000005070 sampling Methods 0.000 description 25
- 238000012804 iterative process Methods 0.000 description 21
- 238000006243 chemical reaction Methods 0.000 description 12
- 230000000694 effects Effects 0.000 description 10
- 238000007781 pre-processing Methods 0.000 description 10
- 230000014509 gene expression Effects 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 7
- 239000002131 composite material Substances 0.000 description 7
- 210000003754 fetus Anatomy 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000005856 abnormality Effects 0.000 description 6
- 238000012360 testing method Methods 0.000 description 6
- 230000009467 reduction Effects 0.000 description 5
- 102100036848 C-C motif chemokine 20 Human genes 0.000 description 4
- 230000000593 degrading effect Effects 0.000 description 4
- 102100029860 Suppressor of tumorigenicity 20 protein Human genes 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000009795 derivation Methods 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000009984 peri-natal effect Effects 0.000 description 2
- 238000013441 quality evaluation Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 240000006890 Erythroxylum coca Species 0.000 description 1
- 101000713099 Homo sapiens C-C motif chemokine 20 Proteins 0.000 description 1
- 101001139126 Homo sapiens Krueppel-like factor 6 Proteins 0.000 description 1
- 101000661816 Homo sapiens Suppression of tumorigenicity 18 protein Proteins 0.000 description 1
- 101000585359 Homo sapiens Suppressor of tumorigenicity 20 protein Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000035606 childbirth Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 108090000237 interleukin-24 Proteins 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000008774 maternal effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20182—Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L2021/02161—Number of inputs available containing the signal or the noise to be suppressed
- G10L2021/02163—Only one microphone
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/06—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients
Definitions
- this algorithm requires an AR coefficient, it has a problem that the noise suppression capability (that is, the performance of the Kalman filter algorithm) greatly depends on the estimation accuracy of the AR coefficient. That is, when the AR coefficient is not accurately estimated, not only the noise cannot be completely suppressed, but in some cases, the voice signal may be suppressed in addition to the noise. These can be a cause of deterioration of the sound quality of the sound signal in which noise is suppressed.
- Non-Patent Document 4 the noise suppression method described in Non-Patent Document 4 in order to solve the problems of the conventional noise suppression method based on the Kalman filter (see Non-Patent Document 3).
- the AR coefficient is estimated using linear prediction, and then the Kalman filter is executed using the result.
- noise suppression is realized by a new prediction method composed of state equations and observation equations.
- a new state space model state equation and observation equation
- the state equation is obtained using only a clear signal from an information source, that is, a desired signal (for example, a speech signal).
- the observation equation is constructed using the clear signal and noise.
- 1 includes an input unit 110, a sampling unit 120, an A / D conversion unit 130, a buffer 140, a noise suppression processing unit 150, and an output unit 160.
- noise suppression refers to estimating a desired signal (for example, a speech signal) only from an observation signal
- noise removal in which noise is estimated and the desired signal is estimated by subtraction. Is a completely different concept in that no subtraction is performed.
- noise usually means all unnecessary information other than desired information as described above, in other words, all signals other than the desired signal among all signals included in the observation signal. Signal.
- the output unit 160 outputs the estimation signal input from the noise suppression processing unit 150 to the outside in a predetermined form.
- the output unit 160 includes, for example, a speaker, a display, a communication unit, a storage device, and the like.
- FIG. 3 is a diagram showing a model assumed by the present invention.
- the observation signal r (n) input to the noise suppression processing unit 150 includes noise v (n) in addition to a clear signal (desired signal) (for example, audio signal) d (n) from the information source, The following expression (1) is satisfied.
- step ST40 it is determined whether or not to end the process. This determination is made, for example, by determining whether the time n has reached a predetermined number N of samples. As a result of this determination, when the time n has not reached the predetermined number of samples N (ST40: NO), the process proceeds to step ST42, and when the time n has reached the predetermined number of samples N (ST40: YES), Proceed to step ST46.
- the criterion for determination is not limited to the above example. For example, when processing is performed in real time, the processing may be terminated when there are no more samples even if the time n has not reached the predetermined number of samples N.
- an optimum estimated value calculation unit 158 as a second optimum estimated value calculating unit calculates an optimum estimated value (vector) of a state quantity (desired signal) of (n + 1) ⁇ (n + 1) (ST1400). Specifically, the optimum estimated value calculation unit 158 calculates the optimum estimated value vector x p1 (n + 1
- This calculation is performed by the following equation (56) using the weighting coefficient k p2 (n + 1) [1, 1] calculated in step ST2200 and the observation signal y p2 (n + 1) at time n + 1.
- This step ST2300 corresponds to procedure 3 of the iterative process of FIG.
- the calculation amount of the inventive method 1 and the inventive method 2 is further reduced as compared with the conventional method 3, as shown in FIG.
- the memory capacity is also greatly reduced as described above by reducing the amount of calculation.
- FIG. 33F shows a waveform of an estimated speech signal when noise suppression by the conventional method 2 is performed on a combined waveform of A-1) and noise (B-1), and FIG. 33F shows speech (A-1) and noise (B -1) shows the waveform of the estimated speech signal when noise suppression by the conventional method 3 is performed on the synthesized waveform of FIG. 1G, and FIG. 33G shows the synthesized waveform of speech (A-1) and noise (B-1).
- FIG. 33H shows the waveform of the estimated speech signal when noise suppression is performed by the inventive method 1
- FIG. 33H shows the noise suppression by the inventive method 2 on the synthesized waveform of the speech (A-1) and the noise (B-1).
- the waveform of the estimated speech signal when performed is shown.
- the inventive method 1 and the inventive method 2 are different from the conventional method 3 in any of the four cases. Compared to the case of comparison, it can be said that the noise suppression capability is higher than that of the conventional method 2.
- Conventional method 2 requires the setting of a parameter specialized for speech, but the result of this experiment shows that the parameter setting is very difficult in an actual environment.
- noise suppression device and the noise suppression method according to the present invention can be applied to various technical fields.
- FIG. 45 is a block diagram showing a configuration of the fetal heartbeat detecting apparatus according to the second embodiment of the present invention.
- the computer main body 410 temporarily stores the observed audio signal output to the interface unit 411 in the main memory 414 of the storage unit 412, and then performs noise suppression processing in units of a predetermined audio frame (sampling number). Then, it is stored again in the main memory 414.
- the noise suppression processing is performed by calling and executing software stored in the main memory 414 or the recording device 413 to the noise suppression processing unit 417 via the interface unit 411.
- FIG. 46 is a block diagram showing a configuration of the mobile terminal apparatus according to Embodiment 3 of the present invention.
- the portable terminal device 500 has the same basic configuration as that of the fetal heartbeat detecting device 400 shown in FIG. 45, and the same components are denoted by the same reference numerals, and the description including the options is given. Omitted.
- unnecessary sound is suppressed from the observed sound signal (including noise) from the microphone 420 as the preprocessing of the speech recognition processing unit 610, and the sound signal is cleared. Since it can be acquired as a simple signal (desired signal), the voice recognition capability of the voice recognition processing unit 610 can be maximized, and the car navigation can be reliably operated by voice recognition. In particular, this effect is very remarkable during driving because there is a lot of noise other than voice instructions.
- the seventh embodiment is a case where the noise suppression device according to the first embodiment is applied to an image processing device, particularly an image restoration device.
- An image restoration apparatus 900 shown in FIG. 50 is an apparatus for restoring an image deteriorated due to blur and noise, for example, and includes an image restoration processing unit 910.
- an image restoration apparatus 900 has a configuration that suppresses blur and noise included in an image read by a digital scanner (hereinafter simply referred to as “scanner”) 920 and outputs a clean image.
- the noise suppression processing unit 417 has a function as preprocessing of the image restoration processing unit 910.
- blur and noise suppression can be performed only for the image in the designated area by designating a specific area of the image read by the scanner 920.
- the designation of the specific area of the image is performed via the operation unit 440. Accordingly, blur and noise can be suppressed only for a part of the image read by the scanner 920, and the image of that part can be restored.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Computational Linguistics (AREA)
- Circuit For Audible Band Transducer (AREA)
- Noise Elimination (AREA)
Abstract
Description
J.R. Deller, J.G. Proakis, J.H.L. Hansen, "Discrete-Time Processing of Speech Signals," Macmillan Press, 1993 A. Kawamura, K. Fujii, Y. Itoh and Y. Fukui, "A Noise Reduction Method Based on Linear Prediction Analysis," IEICE Trans. Fundamentals, vol.J85-A, no.4, pp.415-423, May 2002 W. Kim and H. Ko, "Noise Variance Estimation for Kalman Filtering of Noise Speech," IEICE Trans. Inf. & syst., vol.E84-D, no.1, pp.155-160, Jan 2001 N. Tanabe, T. Inoue, K. Sueyoshi, T. Furukawa, H. Kubota, H. Matsue, and S. Tsujii, "Robust Noise Suppression Algorithm using Kalman Filter Theory with Colored Driving Source," IEICE Technical Report, EA2007-125, pp.79-84, Mar. 2008
図1は、本発明の実施の形態1に係る雑音抑圧装置の構成を示すブロック図である。
まず、従来手法1について説明する。
次に、従来手法3について説明する。
次に、発明手法について説明する。
図14および図15は、従来手法3の問題点を視覚的にまとめた説明図である。
δp1(n+1)[i,j]の値を、次の式(32)に示すようにそれぞれ設定する。
上記のように、発明手法1は、従来手法3と比べて、非常に少ない演算量で雑音抑圧を実現することができる。しかし、発明手法1のアルゴリズムを精査してみると、発明手法1のアルゴリズムは、今まだ余分な計算を含んでいる、つまり、計算する必要のない部分についても演算を行っている。このことは、演算量の増加や不必要な演算誤差などを引き起こす原因になる可能性がある。
図33は、各手法の音声波形シミュレーションの第1の例を説明するための図、図34は、各手法の音声波形シミュレーションの第2の例を説明するための図、図35は、各手法の音声波形シミュレーションの第3の例を説明するための図、図36は、各手法の音声波形シミュレーションの第4の例を説明するための図である。
p=50の条件における各種波形を示している。具体的には、図34Aは、音声(A-2)の波形を示し、図34Bは、雑音(B-1)の波形を示し、図34Cは、音声(A-2)と雑音(B-1)の合成波形(観測信号)を示している。また、図34Dは、音声(A-2)と雑音(B-1)の合成波形に対して従来手法1による雑音抑圧を行った場合の推定音声信号の波形を示し、図34Eは、音声(A-2)と雑音(B-1)の合成波形に対して従来手法2による雑音抑圧を行った場合の推定音声信号の波形を示し、図34Fは、音声(A-2)と雑音(B-1)の合成波形に対して従来手法3による雑音抑圧を行った場合の推定音声信号の波形を示し、図34Gは、音声(A-2)と雑音(B-1)の合成波形に対して発明手法1による雑音抑圧を行った場合の推定音声信号の波形を示し、図34Hは、音声(A-2)と雑音(B-1)の合成波形に対して発明手法2による雑音抑圧を行った場合の推定音声信号の波形を示している。
図37は、各手法の雑音抑圧能力の数値シミュレーションの第1の例の結果を示す図、図38は、各手法の雑音抑圧能力の数値シミュレーションの第2の例の結果を示す図、図39は、各手法の雑音抑圧能力の数値シミュレーションの第3の例の結果を示す図、図40は、各手法の雑音抑圧能力の数値シミュレーションの第4の例の結果を示す図である。
図41は、各手法の主観的評価の第1の例の結果を示す図、図42は、各手法の主観的評価の第2の例の結果を示す図、図43は、各手法の主観的評価の第3の例の結果を示す図、図44は、各手法の主観的評価の第4の例の結果を示す図である。
実施の形態2は、実施の形態1に係る雑音抑圧装置を胎児心拍検出装置に適用した場合である。なお、ここで「心拍」とは、上記のように、広く心臓の動きを意味し、例えば、心音や心電図なども含まれる。
実施の形態3は、実施の形態1に係る雑音抑圧装置を携帯電話などの携帯端末装置に適用した場合である。
実施の形態4は、実施の形態1に係る雑音抑圧装置をカーナビゲーション装置に適用した場合である。カーナビゲーション装置として、ドライバが運転に集中しながら情報を入力できるよう、つまり、音声で操作できるよう、音声認識機能を搭載したものがある。本実施の形態は、このような音声認識機能を有するカーナビゲーション装置において、当該カーナビゲーションに必要不可欠な音声認識装置の前処理としての雑音抑圧装置への適用例である。
実施の形態5は、実施の形態1に係る雑音抑圧装置を音声認識装置に適用した場合である。
実施の形態6は、実施の形態1に係る雑音抑圧装置を異常検出装置に適用した場合である。
実施の形態7は、実施の形態1に係る雑音抑圧装置を画像処理装置、特に画像復元装置に適用した場合である。
Claims (17)
- 所望の情報に雑音が混在した観測情報のみから前記所望情報を推定する雑音抑圧装置であって、
時刻nのみの観測情報に対して、時刻nまたは時刻n+1までの情報により前記所望情報を含む時刻n+1のシステムの状態量を推定した場合の推定誤差の相関値を算出する相関演算部と、
時刻nのみの観測情報に対して、前記相関演算部によって算出された相関値を用いて、時刻n+1までの情報による当該時刻での前記状態量の最適推定値と、時刻nまでの情報による時刻n+1での前記状態量の最適推定値と、前記観測情報を含む観測量の推定誤差と、の関係を規定するための重み係数を算出する重み係数算出部と、
時刻nのみの観測情報に対して、前記重み係数算出部によって算出された重み係数を用いて、時刻nまたは時刻n+1までの情報による当該時刻での前記状態量の最適推定値を算出する最適推定値算出部と、
を有する雑音抑圧装置。 - 前記相関演算部は、
時刻nのみの観測情報に対して、時刻nまでの情報により前記所望情報を含む時刻n+1のシステムの状態量を推定した場合の推定誤差の相関値をスカラー量として算出し、
前記重み係数算出部は、
時刻nのみの観測情報に対して、前記相関演算部によって算出された前記推定誤差の相関値のスカラー量を用いて、時刻n+1までの情報による当該時刻での前記状態量の最適推定値と、時刻nまでの情報による時刻n+1での前記状態量の最適推定値と、前記観測情報を含む観測量の推定誤差と、の関係を規定するための重み係数をスカラー量として算出し、
前記最適推定値算出部は、
時刻nのみの観測情報に対して、前記重み係数算出部によって算出された前記重み係数のスカラー量を用いて、時刻n+1までの情報による当該時刻での前記状態量の最適推定値をスカラー量として算出する、
請求項1記載の雑音抑圧装置。 - 前記相関演算部は、
与えられた駆動源の共分散のスカラー量を用いて、前記推定誤差の相関値のスカラー量の算出を行い、
前記重み係数算出部は、
与えられた雑音の共分散のスカラー量および前記相関演算部によって算出された前記推定誤差の相関値のスカラー量を用いて、前記重み係数のスカラー量の算出を行い、
前記最適推定値算出部は、
前記重み係数算出部によって算出された前記重み係数のスカラー量および時刻n+1のみにおける観測量を用いて、前記状態量の最適推定値のスカラー量の算出を行う、
請求項2記載の雑音抑圧装置。 - 前記相関演算部は、第1の相関演算部および第2の相関演算部を有し、
前記最適推定値算出部は、第1の最適推定値算出部および第2の最適推定値算出部を有し、
前記第1の相関演算部は、
時刻nのみの観測情報に対して、時刻nまでの情報により前記所望情報を含む時刻n+1のシステムの状態量を推定した場合の推定誤差の相関値を行列として算出し、
前記重み係数算出部は、
時刻nのみの観測情報に対して、前記第1の相関演算部によって算出された前記推定誤差の相関値の行列を用いて、時刻n+1までの情報による当該時刻での前記状態量の最適推定値と、時刻nまでの情報による時刻n+1での前記状態量の最適推定値と、前記観測情報を含む観測量の推定誤差と、の関係を規定するための重み係数をベクトル量として算出し、
前記第1の最適推定値算出部は、
時刻nのみの観測情報に対して、時刻nまでの情報による時刻n+1での前記状態量の最適推定値をベクトル量として算出し、
前記第2の最適推定値算出部は、
時刻nのみの観測情報に対して、前記重み係数算出部によって算出された前記重み係数のベクトル量を用いて、時刻n+1までの情報による当該時刻での前記状態量の最適推定値をベクトル量として算出し、
前記第2の相関演算部は、
時刻nのみの観測情報に対して、時刻n+1までの情報により当該時刻の前記状態量を推定した場合の推定誤差の相関値を行列として算出する、
請求項1記載の雑音抑圧装置。 - 前記第1の相関演算部は、
所定の状態遷移行列、与えられた駆動源ベクトルの共分散の要素値、および与えられたまたは前回前記第2の相関演算部によって算出された前記推定誤差の相関値の行列を用いて、前記推定誤差の相関値の行列の算出を行い、
前記重み係数算出部は、
前記第1の相関演算部によって算出された前記推定誤差の相関値の行列、与えられた観測遷移ベクトル、および与えられた雑音の共分散のスカラー量を用いて、前記重み係数のベクトル量の算出を行い、
前記第1の最適推定値算出部は、
前記状態遷移行列、および、与えられたまたは前回前記第2の最適推定値算出部によって算出された前記状態量の最適推定値のベクトル量を用いて、前記状態量の最適推定値のベクトル量の算出を行い、
前記第2の最適推定値算出部は、
前記第1の最適推定値算出部によって算出された前記状態量の最適推定値のベクトル量、前記重み係数算出部によって算出された前記重み係数のベクトル量、前記観測遷移ベクトル、および時刻n+1のみにおける観測量を用いて、前記状態量の最適推定値のベクトル量の算出を行い、
前記第2の相関演算部は、
前記重み係数算出部によって算出された前記重み係数のベクトル量、前記観測遷移ベクトル、および前記第1の相関演算部によって算出された前記推定誤差の相関値の行列を用いて、前記推定誤差の相関値の行列の算出を行う、
請求項4記載の雑音抑圧装置。 - 所望の情報に雑音が混在した観測情報のみから前記所望情報を推定する雑音抑圧方法であって、
時刻nのみの観測情報に対して、時刻nまたは時刻n+1までの情報により前記所望情報を含む時刻n+1のシステムの状態量を推定した場合の推定誤差の相関値を算出する相関演算工程と、
時刻nのみの観測情報に対して、前記相関演算工程で算出した相関値を用いて、時刻n+1までの情報による当該時刻での前記状態量の最適推定値と、時刻nまでの情報による時刻n+1での前記状態量の最適推定値と、前記観測情報を含む観測量の推定誤差と、の関係を規定するための重み係数を算出する重み係数算出工程と、
時刻nのみの観測情報に対して、前記重み係数算出工程で算出した重み係数を用いて、時刻nまたは時刻n+1までの情報による当該時刻での前記状態量の最適推定値を算出する最適推定値算出工程と、
を有する雑音抑圧方法。 - 前記相関演算工程は、
時刻nのみの観測情報に対して、時刻nまでの情報により前記所望情報を含む時刻n+1のシステムの状態量を推定した場合の推定誤差の相関値をスカラー量として算出し、
前記重み係数算出工程は、
時刻nのみの観測情報に対して、前記相関演算工程で算出した前記推定誤差の相関値のスカラー量を用いて、時刻n+1までの情報による当該時刻での前記状態量の最適推定値と、時刻nまでの情報による時刻n+1での前記状態量の最適推定値と、前記観測情報を含む観測量の推定誤差と、の関係を規定するための重み係数をスカラー量として算出し、
前記最適推定値算出工程は、
時刻nのみの観測情報に対して、前記重み係数算出工程で算出した前記重み係数のスカラー量を用いて、時刻n+1までの情報による当該時刻での前記状態量の最適推定値をスカラー量として算出する、
請求項6記載の雑音抑圧方法。 - 前記相関演算工程は、第1の相関演算工程および第2の相関演算工程を有し、
前記最適推定値算出部工程、第1の最適推定値算出工程および第2の最適推定値算出工程を有し、
前記第1の相関演算工程は、
時刻nのみの観測情報に対して、時刻nまでの情報により前記所望情報を含む時刻n+1のシステムの状態量を推定した場合の推定誤差の相関値を行列として算出し、
前記重み係数算出工程は、
時刻nのみの観測情報に対して、前記第1の相関演算工程で算出した前記推定誤差の相関値の行列を用いて、時刻n+1までの情報による当該時刻での前記状態量の最適推定値と、時刻nまでの情報による時刻n+1での前記状態量の最適推定値と、前記観測情報を含む観測量の推定誤差と、の関係を規定するための重み係数をベクトル量として算出し、
前記第1の最適推定値算出工程は、
時刻nのみの観測情報に対して、時刻nまでの情報による時刻n+1での前記状態量の最適推定値をベクトル量として算出し、
前記第2の最適推定値算出工程は、
時刻nのみの観測情報に対して、前記重み係数算出工程で算出した前記重み係数のベクトル量を用いて、時刻n+1までの情報による当該時刻での前記状態量の最適推定値をベクトル量として算出し、
前記第2の相関演算工程は、
時刻nのみの観測情報に対して、時刻n+1までの情報により当該時刻の前記状態量を推定した場合の推定誤差の相関値を行列として算出する、
請求項6記載の雑音抑圧方法。 - 所望の情報に雑音が混在した観測情報のみから前記所望情報を推定するための雑音抑圧プログラムであって、
コンピュータに、
時刻nのみの観測情報に対して、時刻nまたは時刻n+1までの情報により前記所望情報を含む時刻n+1のシステムの状態量を推定した場合の推定誤差の相関値を算出する相関演算工程と、
時刻nのみの観測情報に対して、前記相関演算工程で算出した相関値を用いて、時刻n+1までの情報による当該時刻での前記状態量の最適推定値と、時刻nまでの情報による時刻n+1での前記状態量の最適推定値と、前記観測情報を含む観測量の推定誤差と、の関係を規定するための重み係数を算出する重み係数算出工程と、
時刻nのみの観測情報に対して、前記重み係数算出工程で算出した重み係数を用いて、時刻nまたは時刻n+1までの情報による当該時刻での前記状態量の最適推定値を算出する最適推定値算出工程と、
を実行させるための雑音抑圧プログラム。 - 前記相関演算工程は、
時刻nのみの観測情報に対して、時刻nまでの情報により前記所望情報を含む時刻n+1のシステムの状態量を推定した場合の推定誤差の相関値をスカラー量として算出し、
前記重み係数算出工程は、
時刻nのみの観測情報に対して、前記相関演算工程で算出した前記推定誤差の相関値のスカラー量を用いて、時刻n+1までの情報による当該時刻での前記状態量の最適推定値と、時刻nまでの情報による時刻n+1での前記状態量の最適推定値と、前記観測情報を含む観測量の推定誤差と、の関係を規定するための重み係数をスカラー量として算出し、
前記最適推定値算出工程は、
時刻nのみの観測情報に対して、前記重み係数算出工程で算出した前記重み係数のスカラー量を用いて、時刻n+1までの情報による当該時刻での前記状態量の最適推定値をスカラー量として算出する、
請求項9記載の雑音抑圧プログラム。 - 前記相関演算工程は、第1の相関演算工程および第2の相関演算工程を有し、
前記最適推定値算出部工程、第1の最適推定値算出工程および第2の最適推定値算出工程を有し、
前記第1の相関演算工程は、
時刻nのみの観測情報に対して、時刻nまでの情報により前記所望情報を含む時刻n+1のシステムの状態量を推定した場合の推定誤差の相関値を行列として算出し、
前記重み係数算出工程は、
時刻nのみの観測情報に対して、前記第1の相関演算工程で算出した前記推定誤差の相関値の行列を用いて、時刻n+1までの情報による当該時刻での前記状態量の最適推定値と、時刻nまでの情報による時刻n+1での前記状態量の最適推定値と、前記観測情報を含む観測量の推定誤差と、の関係を規定するための重み係数をベクトル量として算出し、
前記第1の最適推定値算出工程は、
時刻nのみの観測情報に対して、時刻nまでの情報による時刻n+1での前記状態量の最適推定値をベクトル量として算出し、
前記第2の最適推定値算出工程は、
時刻nのみの観測情報に対して、前記重み係数算出工程で算出した前記重み係数のベクトル量を用いて、時刻n+1までの情報による当該時刻での前記状態量の最適推定値をベクトル量として算出し、
前記第2の相関演算工程は、
時刻nのみの観測情報に対して、時刻n+1までの情報により当該時刻の前記状態量を推定した場合の推定誤差の相関値を行列として算出する、
請求項9記載の雑音抑圧プログラム。 - 胎児の心拍を検出して得られた信号を観測情報として、所望情報としての胎児の心拍を推定する、請求項1から請求項5のいずれかに記載の雑音抑圧装置と、
前記雑音抑圧装置によって推定された胎児の心拍を出力する出力手段と、
を有する胎児心音検出装置。 - 使用者の音声を電気的な音声信号として検出するマイクロホンと、
無線送信された通信相手の音声信号を受信する受信手段と、
前記マイクロホンによって検出された音声信号または前記受信手段によって受信された音声信号を観測情報として、所望情報としての使用者または通信相手の音声信号を推定する、請求項1から請求項5のいずれかに記載の雑音抑圧装置と、
前記雑音抑圧装置によって推定された使用者の音声信号を無線送信する送信手段と、
前記雑音抑圧装置によって推定された通信相手の音声信号を出力するスピーカと、
を有する携帯端末装置。 - 使用者の音声を電気的な音声信号として検出するマイクロホンと、
前記マイクロホンによって検出された音声信号を観測情報として、所望情報としての使用者の音声信号を推定する、請求項1から請求項5のいずれかに記載の雑音抑圧装置と、
前記雑音抑圧装置によって推定された使用者の音声信号を入力して音声認識処理を行う音声認識手段と、
前記音声認識手段の認識結果を操作指示として、カーナビゲーション処理を実行するカーナビゲーション処理手段と、
を有するカーナビゲーション装置。 - 使用者の音声を検出して得られた音声信号を観測情報として、所望情報としての使用者の音声信号を推定する、請求項1から請求項5のいずれかに記載の雑音抑圧装置と、
前記雑音抑圧装置によって推定された使用者の音声信号を入力して音声認識処理を行う音声認識手段と、
前記音声認識手段の認識結果を出力する出力手段と、
を有する音声認識装置。 - 検査対象が発する音を検出して得られた信号を観測情報として、所望情報を検査対象の情報として推定する、請求項1から請求項5のいずれかに記載の雑音抑圧装置と、
前記雑音抑圧装置によって推定された所望情報を正常音と比較して異常音を検出する異常音解析手段と、
前記異常音解析手段の解析結果を出力する出力手段と、
を有する異常検出装置。 - 画像信号を入力する画像入力手段と、
前記画像入力手段によって入力された画像信号を観測情報として、所望情報としての原画像を推定する、請求項1から請求項5のいずれかに記載の雑音抑圧装置と、
前記雑音抑圧装置によって推定された原画像を出力する出力手段と、
を有する画像処理装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/746,416 US8527266B2 (en) | 2008-03-21 | 2009-03-18 | Noise suppression device and noise suppression method |
JP2010503784A JP5721098B2 (ja) | 2008-03-21 | 2009-03-18 | 雑音抑圧装置および雑音抑圧方法 |
EP09722185.7A EP2254112B1 (en) | 2008-03-21 | 2009-03-18 | Noise suppression devices and noise suppression methods |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008074691 | 2008-03-21 | ||
JP2008-074691 | 2008-03-21 | ||
JP2008-168835 | 2008-06-27 | ||
JP2008168835 | 2008-06-27 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2009116291A1 true WO2009116291A1 (ja) | 2009-09-24 |
Family
ID=41090706
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2009/001224 WO2009116291A1 (ja) | 2008-03-21 | 2009-03-18 | 雑音抑圧装置および雑音抑圧方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8527266B2 (ja) |
EP (1) | EP2254112B1 (ja) |
JP (1) | JP5721098B2 (ja) |
WO (1) | WO2009116291A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011165013A (ja) * | 2010-02-10 | 2011-08-25 | Tokyo Univ Of Science | 画像復元装置および画像復元方法 |
JP2013531275A (ja) * | 2010-06-30 | 2013-08-01 | インテル・コーポレーション | 発話音声処理 |
JP2015143805A (ja) * | 2014-01-31 | 2015-08-06 | ブラザー工業株式会社 | 雑音抑圧装置、雑音抑圧方法、及びプログラム |
WO2022049741A1 (ja) * | 2020-09-04 | 2022-03-10 | 公立大学法人公立諏訪東京理科大学 | 打音診断支援装置、打音診断支援方法、打音診断支援システム、及びプログラム |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010016263A1 (ja) * | 2008-08-08 | 2010-02-11 | 学校法人東京理科大学 | 画像復元装置および画像復元方法 |
US8145483B2 (en) * | 2009-08-05 | 2012-03-27 | Tze Fen Li | Speech recognition method for all languages without using samples |
KR101657215B1 (ko) * | 2009-09-08 | 2016-09-19 | 삼성디스플레이 주식회사 | 터치 패널 장치를 포함하는 표시 장치 및 커플링 노이즈 제거 방법 |
US20120116764A1 (en) * | 2010-11-09 | 2012-05-10 | Tze Fen Li | Speech recognition method on sentences in all languages |
JP5761988B2 (ja) * | 2010-12-20 | 2015-08-12 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
US8909685B2 (en) * | 2011-12-16 | 2014-12-09 | Sap Se | Pattern recognition of a distribution function |
US9943712B2 (en) * | 2012-09-24 | 2018-04-17 | Dolores Speech Products Llc | Communication and speech enhancement system |
US10093194B2 (en) | 2013-09-30 | 2018-10-09 | Elwha Llc | Communication and control system and method regarding electric vehicle for wireless electric vehicle electrical energy transfer |
US10011180B2 (en) | 2013-09-30 | 2018-07-03 | Elwha, Llc | Communication and control system and method regarding electric vehicle charging equipment for wireless electric vehicle electrical energy transfer |
US20150091503A1 (en) * | 2013-09-30 | 2015-04-02 | Elwha Llc | Communication and Control System and Method Regarding Electric Vehicle Charging Equipment for Wireless Electric Vehicle Electrical Energy Transfer |
CN107507623A (zh) * | 2017-10-09 | 2017-12-22 | 维拓智能科技(深圳)有限公司 | 基于麦克风阵列语音交互的自助服务终端 |
US10972201B2 (en) * | 2019-05-03 | 2021-04-06 | Samsung Electronics Co., Ltd | Method and apparatus for providing enhanced reference signal received power estimation |
CN112035787B (zh) * | 2020-08-31 | 2023-02-28 | 成都航空职业技术学院 | 一种基于ude估计器的噪声估计方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008074691A (ja) | 2006-09-25 | 2008-04-03 | Hitachi Metals Ltd | 単結晶の製造方法 |
JP2008168835A (ja) | 2007-01-15 | 2008-07-24 | Masao Kimura | キャスター |
JP2008236270A (ja) * | 2007-03-19 | 2008-10-02 | Tokyo Univ Of Science | 雑音抑圧装置および雑音抑圧方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4630305A (en) * | 1985-07-01 | 1986-12-16 | Motorola, Inc. | Automatic gain selector for a noise suppression system |
US5774846A (en) * | 1994-12-19 | 1998-06-30 | Matsushita Electric Industrial Co., Ltd. | Speech coding apparatus, linear prediction coefficient analyzing apparatus and noise reducing apparatus |
US7035790B2 (en) * | 2000-06-02 | 2006-04-25 | Canon Kabushiki Kaisha | Speech processing system |
US7103541B2 (en) * | 2002-06-27 | 2006-09-05 | Microsoft Corporation | Microphone array signal enhancement using mixture models |
JP4617497B2 (ja) * | 2005-07-01 | 2011-01-26 | 株式会社国際電気通信基礎技術研究所 | 雑音抑圧装置、コンピュータプログラム、及び音声認識システム |
JP4690912B2 (ja) * | 2005-07-06 | 2011-06-01 | 日本電信電話株式会社 | 目的信号区間推定装置、目的信号区間推定方法、プログラム及び記録媒体 |
JP4685735B2 (ja) * | 2006-09-04 | 2011-05-18 | 日本電信電話株式会社 | 音響信号区間検出方法、装置、プログラム及びその記録媒体 |
JP5070591B2 (ja) * | 2007-05-25 | 2012-11-14 | 株式会社国際電気通信基礎技術研究所 | 雑音抑圧装置、コンピュータプログラム、及び音声認識システム |
-
2009
- 2009-03-18 JP JP2010503784A patent/JP5721098B2/ja active Active
- 2009-03-18 WO PCT/JP2009/001224 patent/WO2009116291A1/ja active Application Filing
- 2009-03-18 EP EP09722185.7A patent/EP2254112B1/en not_active Not-in-force
- 2009-03-18 US US12/746,416 patent/US8527266B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008074691A (ja) | 2006-09-25 | 2008-04-03 | Hitachi Metals Ltd | 単結晶の製造方法 |
JP2008168835A (ja) | 2007-01-15 | 2008-07-24 | Masao Kimura | キャスター |
JP2008236270A (ja) * | 2007-03-19 | 2008-10-02 | Tokyo Univ Of Science | 雑音抑圧装置および雑音抑圧方法 |
Non-Patent Citations (5)
Title |
---|
A. KAWAMURA; K. FUJII; Y. ITOH; Y. FUKUI: "A Noise Reduction Method Based on Linear Prediction Analysis", IEICE TRANS. FUNDAMENTALS, vol. J85-A, no. 4, May 2002 (2002-05-01), pages 415 - 423 |
N. TANABE; T. INOUE; K. SUEYOSHI; T. FURUKAWA; H. KUBOTA; H. MATSUE; S. TSUJII: "Robust Noise Suppression Algorithm using Kalman Filter Theory with Colored Driving Source", IEICE TECHNICAL REPORT, March 2008 (2008-03-01), pages 79 - 84 |
NARI TANABE ET AL.: "Yushokusei Kudo Zatsuon o Koryo shita Kalman Filter o Mochiita Zatsuon Yokuatsuho, Noise Suppression with High Performance using Kalman Filter", IEICE TECHNICAL REPORT, 29 February 2008 (2008-02-29), pages 79 - 84, XP008138071 * |
See also references of EP2254112A4 |
W. KIM; H. KO: "Noise Variance Estimation for Kalman Filtering of Noise Speech", IEICE TRANS. INF. & SYST., vol. E84-D, no. 1, January 2001 (2001-01-01), pages 155 - 160 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011165013A (ja) * | 2010-02-10 | 2011-08-25 | Tokyo Univ Of Science | 画像復元装置および画像復元方法 |
JP2013531275A (ja) * | 2010-06-30 | 2013-08-01 | インテル・コーポレーション | 発話音声処理 |
US8725506B2 (en) | 2010-06-30 | 2014-05-13 | Intel Corporation | Speech audio processing |
JP2015143805A (ja) * | 2014-01-31 | 2015-08-06 | ブラザー工業株式会社 | 雑音抑圧装置、雑音抑圧方法、及びプログラム |
WO2022049741A1 (ja) * | 2020-09-04 | 2022-03-10 | 公立大学法人公立諏訪東京理科大学 | 打音診断支援装置、打音診断支援方法、打音診断支援システム、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP2254112A1 (en) | 2010-11-24 |
US8527266B2 (en) | 2013-09-03 |
EP2254112B1 (en) | 2017-12-20 |
US20100262425A1 (en) | 2010-10-14 |
JPWO2009116291A1 (ja) | 2011-07-21 |
EP2254112A4 (en) | 2012-03-28 |
JP5721098B2 (ja) | 2015-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5721098B2 (ja) | 雑音抑圧装置および雑音抑圧方法 | |
JP5124014B2 (ja) | 信号強調装置、その方法、プログラム及び記録媒体 | |
US7720679B2 (en) | Speech recognition apparatus, speech recognition apparatus and program thereof | |
CN107393550B (zh) | 语音处理方法及装置 | |
RU2595636C2 (ru) | Система и способ для генерации аудиосигнала | |
JP5115952B2 (ja) | 雑音抑圧装置および雑音抑圧方法 | |
US20040064307A1 (en) | Noise reduction method and device | |
JP2010282193A (ja) | 残響抑圧装置、及び残響抑圧方法 | |
CN102551726A (zh) | 呼吸信号处理装置、呼吸信号处理方法和程序 | |
CN109979476A (zh) | 一种语音去混响的方法及装置 | |
KR20100072838A (ko) | 비터비 디코더와 이를 이용한 음성 인식 방법 | |
Parmar et al. | Effectiveness of cross-domain architectures for whisper-to-normal speech conversion | |
CN106331969A (zh) | 基于统计语音和噪声模型的有噪声语音的增强 | |
CN115223583A (zh) | 一种语音增强方法、装置、设备及介质 | |
JP4348393B2 (ja) | 信号歪み除去装置、方法、プログラム及びそのプログラムを記録した記録媒体 | |
CN113053400A (zh) | 音频信号降噪模型的训练方法、音频信号降噪方法及设备 | |
JP5219499B2 (ja) | 風雑音低減装置 | |
JP5228903B2 (ja) | 信号処理装置および方法 | |
KR20190037867A (ko) | 잡음이 섞인 음성 데이터로부터 잡음을 제거하는 장치, 방법 및 컴퓨터 프로그램 | |
US11004463B2 (en) | Speech processing method, apparatus, and non-transitory computer-readable storage medium for storing a computer program for pitch frequency detection based upon a learned value | |
JP2019045527A (ja) | 音声処理プログラム、音声処理方法および音声処理装置 | |
Zhang et al. | Speech Enhancement with Topology-Enhanced Generative Adversarial Networks (GANs). | |
Uraguchi et al. | Evaluation of smart devices in the IoT segment using medical healthcare technology MIMOSYS | |
CN113724692B (zh) | 一种基于声纹特征的电话场景音频获取与抗干扰处理方法 | |
Abutalebi et al. | Speech dereverberation in noisy environments using an adaptive minimum mean square error estimator |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 09722185 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2010503784 Country of ref document: JP Kind code of ref document: A |
|
WWE | Wipo information: entry into national phase |
Ref document number: 12746416 Country of ref document: US |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2009722185 Country of ref document: EP |
|
NENP | Non-entry into the national phase |
Ref country code: DE |