JP4616529B2 - Blind signal separation processing device - Google Patents

Blind signal separation processing device Download PDF

Info

Publication number
JP4616529B2
JP4616529B2 JP2001266095A JP2001266095A JP4616529B2 JP 4616529 B2 JP4616529 B2 JP 4616529B2 JP 2001266095 A JP2001266095 A JP 2001266095A JP 2001266095 A JP2001266095 A JP 2001266095A JP 4616529 B2 JP4616529 B2 JP 4616529B2
Authority
JP
Japan
Prior art keywords
signal
separated
separation
matrix
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001266095A
Other languages
Japanese (ja)
Other versions
JP2003078423A (en
Inventor
数学 丁
照夫 新妻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2001266095A priority Critical patent/JP4616529B2/en
Publication of JP2003078423A publication Critical patent/JP2003078423A/en
Application granted granted Critical
Publication of JP4616529B2 publication Critical patent/JP4616529B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Complex Calculations (AREA)
  • Noise Elimination (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、背景雑音、反射、マルチパス等が存在する実環境において混合された電波、光、音等の被分離信号をブラインド分離処理するブラインド信号分離処理装置に関する。
【0002】
【従来の技術】
従来、ブラインド信号分離処理では、以下に説明する原理に従って行われている。
【0003】
今、N個の信号源からの信号s1(t),s2(t),…sN(t)からなる信号群s(t)を以下に記載するベクトルで表す。
【0004】
(t)=(s1(t),s2(t),・・・,sN(t))T (1)
ただし、(t)の平均値は0であり、各信号(ベクトルの成分)は互いに独立であるとする。ここで、記号(…)Tはベクトルとマトリクスの転置を表すものとする。ブラインド信号分離処理の対象はディジタル化された信号であり、時間は離散値をとる。このため、時間tはサンプリングの順番を表す番号と一致し、
ここでは、 t=0,1,2・・・ (2)
であるとする。
また、信号s(t)に対する観測信号を、
x(t)=(x1(t),x2(t),・・・,xN(t))T (3)
と表す。
【0005】
ここで、観測信号x(t)の各成分はそれぞれ、0,1,2,・・・,Nのセンサーで観測された各観測信号に対応する。一般には、センサーの個数と信号源の個数とは必ずしも一致しないが、ここでは一致しているものと仮定する。
【0006】
ブラインド信号分離処理では、s(t)とx(t)との間に、
x(t)=A(t)*s(t)、 (4)
なる線形関係を仮定する。ただし、A(t)はN×Nの未知の伝達関数を表す行列で、符号「*」は畳み込み積分を表す。
【0007】
ここでいう「畳み込み」とは、伝搬路で入力信号が遅延されて、所定の係数が乗算された後、加算される操作をいう。図1はその畳み込み混合の簡単な例を示すもので、源信号s(t)、s(t)は、伝達関数が行列A(t)で表される伝搬路を介して、観測信号x(t)、x(t)としてセンサー1、センサー2に到達する。ここで、伝搬路の伝達関数A(t)の要素はA11、A12、A21、A22である。図1には、源信号s(t)はA11及びA21と、源信号s(t)は、 12 及びA 22 と畳み込み積分された後、s(t)*A11とs(t)*A12が加算されて、センサー1で観測される信号x(t)が生成され、s(t)*A21とs(t)*A22が加算されてセンサー2で観測される信号xが生成された状態が示されている。
【0008】
行列A(t)や源信号(t)に関する事前情報を利用せずに、観測した信号(t)から、その観測信号のみを使って源信号を分離する処理が、ブラインド信号処理と呼ばれている。
【0009】
分離処理は信号源から発生した信号が観測されるまでの間に受けた伝搬路上の影響をN×Nの行列で表される関数として予測し、その逆行列B(t)を求め、
u(t)=B(t)*x(t)、 (5)
で求まる各成分の互いに独立な時間領域分離信号u(t)を再構成することにある。
【0010】
行列A(t)の各成分が実数である場合、式(4)による混合は単純な線形混合であり、実数以外の場合は畳み込み線形混合である。また、信号が伝搬する環境を表すため、行列A(t)の各成分をFIR(Finite Impulse Response)フィルターと仮定する手段がよく使われる。この場合、式(4)は、式(6)を用いて表せる。
【0011】
【数1】

Figure 0004616529
【0012】
このような観測データから元の信号源の信号を復元する手段の代表が、このFIRの係数をブラインドで推定し、逆フィルターを構成して分離する手法である。
【0013】
FIRの係数をブラインドで推定する問題を簡略化するため、式(6)をWindowed Fourier変換(ウインドウフーリエ変換)する。ωを周波数、tsを窓関数の位置、s(t)、x(t)、A(t)の変換対象をそれぞれ
s(ω,ts),x(ω,ts),A(ω)とすると、(8)式が成り立つ。
【0014】
【数2】
Figure 0004616529
【0015】
ただし、任意の時間関数f(t)のWindowed Fourier変換f(ω,ts)の定義は以下の通りである。
【0016】
【数3】
Figure 0004616529
【0017】
ここで、Mは離散Fourier変換の点数、w(t)は窓関数であり、ΔTは窓関数の移動時間である。
【0018】
時間−周波数領域での混合行列A(ω)の要素は以下に記載する(10)式で表わされる。
【0019】
【数4】
Figure 0004616529
【0020】
ここでHm,n(ω)は伝達関数の振幅を表し、τm,nはn番目の原信号がm番目のセンサーに到達するまでの遅延時間を表す。
【0021】
以上のように、Windowed Fourier 変換後の任意の周波数成分に対して、式(8)の右辺は単純な複素数の行列の積となっており、ブラインド分離処理が簡略化されることがわかる。
【0022】
ある周波数ωに対して混合行列A(ω)の推定を行い、分離行列W(ω)を求め、時間−周波数領域での信号を以下の(11)式に記載するように分離したとする。ここで、分離行列W(ω)は混合行列A(ω)の逆行列である。
【0023】
【数5】
Figure 0004616529
【0024】
この結果得られたu (ω,ts)をすべての周波数で集め、時系列信号に戻すことによって、信号分離が完了する。
【0025】
A(ω)の推定に関してはいくつかのアルゴリズムが適用できる(参考文献[1-7]参照)が、大別して2つの手法がある。
【0026】
1つは確率分布の独立性に基づく分離Infomax(参考文献[2]参照)等がある。もう一つは、時間相関に基づく分離法で、例として、TDD(Time Dilayed Deconvolution 参考文献[5,6]参照)等がある。
【0027】
【発明が解決しようとする課題】
ところで、ブラインド分離手法を実際の環境に応用する場合、以下に説明する2つの問題がある。参考文献[9]、[10]はその実環境への適用を提案している。
(1)チャネルの入れ違い問題
式(11)を用いて信号を分離したとき、分離された信号 (ω,ts)の各成分の順番はBSS(Blind Source Separation(ブラインド分離手法))だけでは決まらず、曖昧さが生じる。このため、ある周波数ω1での分離信号 (ω1,ts)の各成分の順番が、他の周波数ω2で分離した順番と一致するとは限らない。これが、各周波数における入れ違い(チャネルの入れ違い)問題と呼ばれる現象である。
【0028】
この入れ違い問題を解決するため、参考文献[9]では、信号の各周波数成分の長スケールでの類似性を利用する方法を提案している。
【0029】
一方、参考文献[10]では、信号の各周波数成分と対応する伝達関数のCoherencyを利用する手法が提案されている。
【0030】
しかし、実際にはいずれの手法も、入れ違い問題の解決には不十分であり、誤った順番の周波数成分が残るという問題がある。また、従来の技術ではこの入れ違い問題を解決する計算処理が複雑であり、膨大な数の信号処理を行わなければならないために処理が遅延し、このため実時間処理が不可能であった。
(2)背景雑音に関する問題
更に、従来技術では、背景雑音がある場合、この処理についての検討も不十分である。背景雑音については、参考文献[10]によるサブスペース法を利用する手法等があるが、必要とするセンサーの個数が多く実用的ではないという問題があった。
【0031】
本発明は、上記事情に鑑みて為されたもので、背景雑音が存在しかつ畳み込み混合された実環境での信号(音声、画像、電波などの信号)から、源信号をブラインドで分離することが可能なブラインド信号分離処理装置を提供する。
【0032】
【課題を解決するための手段】
請求項1に記載のブラインド信号分離処理装置は、複数の信号源から発せられた被分離信号を複数の観測手段で観測してそれらの観測信号のみを使って源信号を分離するブラインド信号分離処理装置において、
前記被分離信号を検出する複数個のセンサーと、
各センサーが検出した被分離信号を保存する被分離信号格納部と、
該被分離信号格納部から信号を取り出して被分離信号を各信号源の信号に分離する処理を行う信号処理部と、
該信号処理部で分離した被分離信号を格納する分離信号格納部とからなり、
前記信号格納部は、
前記被分離信号をウインドウフーリエ変換により離散フーリエ変換して時間−周波数領域の成分に変換するDFFT処理と、
前記DFFT処理後の信号に基づき混合行列を各周波数成分ごとに推定する混合行列推定処理部と、
前記周波数成分ごとに推定した混合行列に基づき各周波数成分ごとに分離行列を算出し、前記分離行列と前記DFFT処理後の信号の積を各周波数成分ごとに算出する信号分離処理部と、
前記信号分離処理部で得られた全ての周波数成分についての分離行列とDFFT処理後の信号との積に基づき離散逆フーリエ変換の演算を行って前記被分離信号を分離・再生するI−DFFT処理部と、
から構成され、前記混合行列推定処理部は、各周波数成分における混合行列を推定する際の設定初期値として、目的周波数成分と隣接する周波数成分の混合行列の推定値を用いることを特徴とする。
【0033】
請求項2に記載のブラインド信号分離処理装置は、前記各センサーがマイクロフォンであり、前記被分離信号が複数の音源からの音信号であって、複数の音源からの音信号を各音源の信号に分離することを特徴とする。
【0036】
【発明の実施の形態】
(本発明の原理)
本発明は、チャネルの入れ違い問題の対策として隣接周波数での分離行列(式(11)のW(ω))のリレー処理を適用する。このリレー処理を行うために、複素数化されたFastICA(参考文献の[7][8]参照)を利用する。
【0037】
以下、これらについて説明する。
(1)周波数における分離行列のリレー処理
任意の2つの周波数における混合行列の間の関係は以下の(12)式を用いて表すことができる。
【0038】
【数6】
Figure 0004616529
【0039】
ここで、T(ω2,ω1)は回転行列である。隣接周波数ω1とω2を考えれば、ω2=ω1+Δωの関係がある。Windowed Fourier変換のサンプル数が十分大きい場合、この周波数の差Δωは十分小さく、この両者のCoherencyは非常に高いと考えられる。
【0040】
すなわち、(13)式又は(14)式が成り立つと考えられる。
【0041】
【数7】
Figure 0004616529
【0042】
今、周波数ω1での混合行列の推定結果をA(ω1)と表現することとする。また、この推定値によって分離された信号の順番をP1と表すことにする。そして、周波数ω2での混合行列を推定するために、周波数ω2における推定の初期値をA initial(ω2)=A(ω1)と設定する。推定結果A(ω1)の精度が十分高ければ、式(13),(14)に示されるように、この推定値は周波数ω2においてもP1と同じ順番を得るための混合行列の真の値に十分近づくことになる。
【0043】
すなわち、隣接する周波数での混合行列の推定結果を次の周波数での推定の初期値とすることにより、分離信号に関して同じ順番を得るための混合行列の最適推定値が得られる。ここでは、この手法を「隣接周波数における分離行列のリレー処理」ということにする。
(2)FastICAの複素数化
「隣接周波数における分離行列のリレー処理」を適用するためには、推定処理アルゴリズムとしてFastICAを利用する必要がある。ただし、本発明ではFastICAを時間−周波数領域で利用するため、FastICAを複素数化しなければならない。
【0044】
FastICAを利用することによる効果としては、大きな背景雑音が存在する場合でも、混合行列の推定における演算が安定して収束し、背景雑音に対するロバスト性が得られる。また、上記「隣接周波数における分離行列のリレー処理」による入れ違い問題の対策では、乗法や加法計算を殆ど必要としないため、演算処理部を極めて簡単にできる。
【0045】
更に、隣接周波数での最終推定値を次の周波数における推定処理の初期値として利用するため収束速度が極めて速い上に、採用したFastICAは、この混合行列の推定速度を更に改善する効果もある。
(実施例)
図2に本発明に係わるブラインド分離処理装置のブロック回路図を示す。その図2において、1は被分離信号(観測信号ともいう)を検出するセンサー(観測手段ともいう)である。ここでは、センサー1の個数はN個であり、順番に番号づけられている。各センサー1が検出した被分離信号は被分離信号格納部2に保存される。その被分離信号格納部2に保存されている被分離信号は信号処理部3に入力される。
【0046】
信号処理部3は被分離信号格納部2に保存されている被分離信号を取り出してこの被分離信号を各信号源の信号に分離する処理を行う。
【0047】
信号処理部3は、その被分離信号をWindowed FFT(Windowed Fourier変換)で離散フーリエ変換して時間−周波数領域の成分に変換するDFFT処理部4と、そのDFFT処理後の信号に基づき混合行列を各周波数成分ごとに推定する混合行列推定処理部5と、
周波数成分ごとに推定した混合行列に基づき各周波数成分ごとに分離行列を算出して、分離行列とDFFT処理後の信号との積を各周波数成分ごとに算出する信号分離処理部6と、信号分離処理部6により得られた全ての周波数成分についての分離行列とDFFT処理後の信号の積に基づき離散逆フーリエ変換の演算を行って被分離信号を分離・再生するI−DFFT処理部7とから構成されている。
【0048】
その混合行列推定処理部5は、各周波数成分における混合行列を推定する際の設定初期値として、目的周波数成分に隣接する周波数成分の混合行列の推定値を用いる。その混合行列推定処理部5における混合行列の推定アルゴリズムは、複素数化されたFastICAのアルゴリズムである。
その信号処理部3で分離された被分離信号は分離信号格納部8に出力され、各信号源からの信号が後段の回路に出力される。
【0049】
図3は本発明に係わるブラインド分離信号処理装置の作用を説明するためのフローチャートを示し、まず、被分離信号x(t)をWindowedFFTで離散フーリエ変換し、時間一周波数領域の成分 (ωk,ts)を得る(S.1、S.2)。次いで、k=1のときには、A=Aconstと設定する(S.3)。
【0050】
次に、各周波数成分毎に複素数化されたFastICAによる混合行列の推定処理を行う。
【0051】
ここで、最初の周波数成分に関しては、混合行列を推定するための初期値を任意に選択することになる。ここでは、混合行列の初期値として、
initialk)=Aconstを用いる(S.4)。
【0052】
引き続く周波数成分については、その初期値として前の周波数において推定した混合行列の値を利用する「隣接周波数における分離行列のリレー処理」を適用する。
【0053】
この実施例では、周波数が増加する順番に処理する場合が示されており、混合行列のリレー関係は下記の式(15)を用いて表すことができる。
【0054】
【数8】
Figure 0004616529
【0055】
ただし、kは周波数成分ωの順番を示し、周波数成分ωはkを用いて下記の式(16)で表される。
【0056】
【数9】
Figure 0004616529
【0057】
FastICAを用いた学習過程を通して推定された混合行列A(ωk)を用い(S.5)、その逆行列A(ωk-1として得られる分離行列B(ωk)を利用することによって(S.6)、混合信号から元の独立の信号を分離することができる。すなわち、分離信号u(ωk)を成分 (ωk,ts)と分離行列B(ωk)との積を用いて求め(S.7)、kがkmax(=M−1)よりも大きいか小さいかを判定し(S.8)、kがkmaxよりも小さいときには前回求められた推定混合行列A(ωk)を今回求める推定混合行列Aの初期値として設定すると共に、順番kに「+1」を加えて(S.9)、S.4に戻り、再び、S.4からS.7までの処理をkmax(N個のセンサ)まで繰り返し、S.8において、kがkmaxを越えたときには、分離信号u(ωk)を離散逆フーリ工変換(Windowed IFET)処理によって(S.10)、目的の信号、すなわち、時間領域分離信号u(t)を得て分離信号格納部に保存する(S.11)。
【0058】
図4〜図7は、この実施例に係わるブラインド信号処理装置を音響信号の分離に適用した場合のシミュレーションを示すものである。
【0059】
ここでは、図4に示すように、独立の信号としては2人の人間20、21から発生された音声と背景雑音とを想定している。図1に示す伝搬路に対応する式(17)に従う混合条件によりセンサ1としてのマイク22に入力される混合信号を作成している。
11(n)=1.0−0.7n-1+0.1n-2
12(n)=0.1+0.8n-1+0.3n-2
21(n)=0.0−0.1n-1+0.6n-2 (17)
22(n)=1.0+0.5n-1−0.3n-2
なお、nはサンプリングの番号(n-1は1サンプル後の値、n-2は2サンプル後の値)を示し、雑音のタイプは白色加法性雑音、信号と背景雑音とのSNRは15.0dBである。想定した2つマイク間の距離10.0cmである。更に、FastICAの非線形タイプは、G(y)=(a+y)1/2である。
【0060】
その図4では、2つのマイク22により採取した混合音が入力としてブラインド信号分離処理装置に入力される。
【0061】
図5(a)は人間20による混合前の音声波形を示し、図5(b)は人間21による混合前の音声波形を示し、図6(a)は一方のマイク22に入力される混合信号の音波形を示し、図6(b)は他方のマイク22に入力される混合信号の音波形を示し、これは式(17)に従って作成されたものである。
【0062】
また、図7(a)、(b)はブラインド信号分離処理装置を用いて分離された音声信号波形(シミュレーションによる)を示し、図7(a)は一方のマイクに入力された混合信号の分離波形を示し、図7(b)は他方のマイクに入力された混合信号の分離波形を示しており、図6、図7に示すブラインド分離処理前後の波形の比較から明らかなように、背景雑音が存在する環境においても入れ違いの問題を生じることなく独立の音声を忠実に分離することが可能であることが分かる。
【0063】
なお、明細書中で用いた記号 、A、B、s、fは下記の記号を意味する。
【0064】
【数10】
Figure 0004616529
【0065】
また、なお、発明の詳細な説明に使用した参考文献を表1に示す。
【0066】
【表1】
Figure 0004616529
【0067】
【発明の効果】
本発明によれば、背景雑音が存在しかつ畳み込み混合された実環境での信号(音声、画像、電波など)から、源信号をブラインドで分離することが可能である。
【0068】
また、信号が伝搬路において受ける影響を表す混合行列の推定にFastICAを利用しているので、大きな背景雑音が存在する場合でも混合行列の推定演算が安定して収束し、背景雑音に対する高いロバスト性が得られる。
【0069】
また、「隣接周波数における分離行列のリレー処理」による入れ違い問題の対策には、乗法や加法計算をほとんど必要としないので、演算処理部を極めて簡単にできる。更に、リレー処理では、最終推定値を次の周波数における推定処理の初期値として利用するので、収束速度が極めて速いという効果もある。
【図面の簡単な説明】
【図1】 たたみ込み混合の一例を示す模式図である。
【図2】 本発明に係わるブラインド信号分離処理装置のブロック回路図である。
【図3】 本発明に係わるブラインド信号分離処理装置の作用を説明するためのフローチャートである。
【図4】 音声をブラインド信号分離処理装置で分離する場合の説明図である。
【図5】 図4に示す音声源の音声波形を示し、(a)は一方の人間の音声波形を示し、(b)は他方の人間の音声波形を示す。
【図6】 図4に示すマイクロホンに到達するまでの伝送路において畳み込み混合された音声波形を示し、(a)は一方のマイクロホンに入力される混合信号波形を示し、(b)は他方のマイクロホンに入力される混合信号波形を示している。
【図7】 図4に示すブラインド信号分離処理装置によって分離された音声信号波形を示し、(a)は図5(a)に示す音声波形に対応し、(b)は図5(b)に示す音声波形に対応し、ブラインド信号処理装置から分離された音声波形が後段のスピーカー装置にそれぞれ分離出力された状態が示されている。
【符号の説明】
1…センサー
2…被分離信号格納部
3…信号処理部
4…DFFT処理部
5…混合行列推定処理部
6…信号分離処理部
7…I−DFFT処理部
8…信号格納部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a blind signal separation processing device that performs blind separation processing on separated signals such as radio waves, light, and sound mixed in an actual environment where background noise, reflection, multipath, and the like exist.
[0002]
[Prior art]
Conventionally, blind signal separation processing is performed according to the principle described below.
[0003]
Now, the signal s 1 from the N signal sources (t), s 2 (t), represented by a vector describing ... s N (t) and a signal group s (t) to below.
[0004]
s (t) = (s 1 (t), s 2 (t), ..., s N (t)) T (1)
However, it is assumed that the average value of s (t) is 0 and each signal (vector component) is independent of each other. Here, the symbol (...) T represents transposition of a vector and a matrix. The object of the blind signal separation process is a digitized signal, and the time takes a discrete value. For this reason, time t coincides with the number representing the sampling order,
Here, t = 0, 1, 2 ... (2)
Suppose that
In addition, the observation signal for the signal s (t) is
x (t) = (x 1 (t), x 2 (t), ..., x N (t)) T (3)
It expresses.
[0005]
Here, each component of the observation signal x (t) corresponds to each observation signal observed by sensors 0, 1, 2,. In general, the number of sensors and the number of signal sources do not necessarily match, but it is assumed here that they match.
[0006]
In blind signal separation processing, between s (t) and x (t),
x (t) = A (t) * s (t), (4)
The following linear relationship is assumed. Here, A (t) is a matrix representing an N × N unknown transfer function, and the sign “*” represents a convolution integral.
[0007]
Here, “convolution” refers to an operation in which an input signal is delayed in a propagation path, multiplied by a predetermined coefficient, and then added. FIG. 1 shows a simple example of the convolution mixing. The source signals s 1 (t) and s 2 (t) are transmitted through a propagation path whose transfer function is represented by a matrix A (t). The sensors 1 and 2 are reached as x 1 (t) and x 2 (t). Here, elements of the transfer function A (t) of the channel is A 11, A 12, A 21 , A 22. In FIG. 1, the source signal s 1 (t) is convolved with A 11 and A 21 and the source signal s 2 (t) is integrated with A 12 and A 22 and then s 1 (t) * A 11 s 2 (t) * A 12 is added to generate a signal x 1 (t) observed by the sensor 1, and s 1 (t) * A 21 and s 2 (t) * A 22 are added. state signal x 2 is generated, which is observed by the sensor 2 is shown.
[0008]
The process of separating the source signal from the observed signal x (t) using only the observed signal without using the prior information on the matrix A (t) and the source signal s (t) is called blind signal processing. It is.
[0009]
The separation process predicts the influence on the propagation path received until the signal generated from the signal source is observed as a function represented by an N × N matrix, and obtains its inverse matrix B (t),
u (t) = B (t) * x (t), (5)
In other words, the time domain separation signal u (t) independent of each other is reconstructed.
[0010]
When each component of the matrix A (t) is a real number, the mixture according to Equation (4) is a simple linear mixture, and when it is not a real number, it is a convolutional linear mixture. In addition, in order to represent an environment in which a signal propagates, means for assuming each component of the matrix A (t) as a FIR (Finite Impulse Response) filter is often used. In this case, equation (4) can be expressed using equation (6).
[0011]
[Expression 1]
Figure 0004616529
[0012]
A representative means for restoring the signal of the original signal source from such observation data is a method of estimating the FIR coefficient blindly and forming an inverse filter to separate them.
[0013]
In order to simplify the problem of estimating the FIR coefficient blindly, Equation (6) is subjected to Windowed Fourier transform (window Fourier transform). frequency omega, the position of the window function to t s, s (t), x (t), respectively converted to A (t)
s ~ (ω, t s) , x ~ (ω, t s), and the A ~ (ω), (8 ) expression holds.
[0014]
[Expression 2]
Figure 0004616529
[0015]
However, Windowed Fourier transform f ~ of any of the time function f (t) (ω, t s) the definition of is as follows.
[0016]
[Equation 3]
Figure 0004616529
[0017]
Here, M is the discrete Fourier transform score, w (t) is the window function, and ΔT is the window function moving time.
[0018]
Time - the elements of the mixing matrix A ~ in the frequency domain (omega) is expressed by the following described (10).
[0019]
[Expression 4]
Figure 0004616529
[0020]
Here, H m, n (ω) represents the amplitude of the transfer function, and τ m, n represents the delay time until the nth original signal reaches the mth sensor.
[0021]
As described above, for the arbitrary frequency component after the Windowed Fourier transform, the right side of Equation (8) is a product of a simple complex matrix, which indicates that the blind separation process is simplified.
[0022]
Assume that the mixing matrix A to (ω) is estimated for a certain frequency ω, the separation matrix W (ω) is obtained, and the signal in the time-frequency domain is separated as described in the following equation (11). . Here, the separation matrix W (ω) is an inverse matrix of the mixing matrices A to (ω).
[0023]
[Equation 5]
Figure 0004616529
[0024]
The resulting u ~ (ω, t s) collected at all frequencies, by returning to the time-series signal, the signal separation is completed.
[0025]
Several algorithms can be applied to estimate A ~ (ω) (see Reference [1-7]), but there are roughly two methods.
[0026]
One is separation Infomax (see reference [2]) based on the independence of probability distributions. The other is a separation method based on time correlation, such as TDD (see Time Dilayed Deconvolution References [5, 6]).
[0027]
[Problems to be solved by the invention]
By the way, when the blind separation method is applied to an actual environment, there are two problems described below. References [9] and [10] propose their application in real environments.
(1) When the signal is separated using the channel misplacement problem equation (11), the order of each component of the separated signals u to (ω, t s ) is only BSS (Blind Source Separation (blind separation technique)). Then, ambiguity arises. For this reason, the order of the components of the separated signal u to1 , t s ) at a certain frequency ω 1 does not always match the order of separation at the other frequency ω 2 . This is a phenomenon called a misplacement (channel misplacement) problem at each frequency.
[0028]
In order to solve this misplacement problem, Reference [9] proposes a method that uses the similarity in the long scale of each frequency component of the signal.
[0029]
On the other hand, the reference [10] proposes a method that uses the coherency of the transfer function corresponding to each frequency component of the signal.
[0030]
However, in actuality, none of the methods is sufficient to solve the misplacement problem, and there is a problem that frequency components in the wrong order remain. Further, in the conventional technique, the calculation process for solving this misplacement problem is complicated, and a large number of signal processes must be performed, so that the process is delayed, so that real-time processing is impossible.
(2) Problems related to background noise Furthermore, in the prior art, when there is background noise, this process is not sufficiently studied. Regarding background noise, there is a method using the subspace method according to the reference [10], but there is a problem that the number of sensors required is large and not practical.
[0031]
The present invention has been made in view of the above circumstances, and blindly separates a source signal from a signal (audio, image, radio wave, etc.) in a real environment in which background noise exists and is convoluted and mixed. Provided is a blind signal separation processing apparatus capable of
[0032]
[Means for Solving the Problems]
The blind signal separation processing apparatus according to claim 1, wherein a separated signal emitted from a plurality of signal sources is observed by a plurality of observation means, and the source signal is separated using only those observation signals. In the device
A plurality of sensors for detecting the separated signal;
A separated signal storage unit for storing the separated signal detected by each sensor;
A signal processing unit that performs processing to extract a signal from the separated signal storage unit and separate the separated signal into signals of respective signal sources;
A separated signal storage unit for storing a signal to be separated separated by the signal processing unit,
The signal storage unit
A FFT processing unit for converting the separated signal into a time-frequency domain component by performing a discrete Fourier transform by window Fourier transform;
A mixing matrix estimation processing unit that estimates a mixing matrix for each frequency component based on the signal after the DFFT processing;
A signal separation processing unit that calculates a separation matrix for each frequency component based on a mixing matrix estimated for each frequency component, and calculates a product of the separation matrix and the signal after the DFFT processing for each frequency component;
I-DFFT processing for performing separation inverse Fourier transform on the basis of the product of the separation matrix for all frequency components obtained by the signal separation processing unit and the signal after DFFT processing to separate and reproduce the separated signal And
Consists, the mixing matrix estimation processing unit, as the initial setting value in estimating the mixing matrix in each frequency component, and wherein the Rukoto using an estimate of the mixing matrix of the frequency components adjacent to the target frequency component .
[0033]
Blind signal separation processing apparatus according to claim 2, wherein each sensor is a microphone, the object separation signal is a sound signal from a plurality of sound sources, the sound signals from a plurality of sound sources to the signal of each sound source separation be characterized by Rukoto.
[0036]
DETAILED DESCRIPTION OF THE INVENTION
(Principle of the present invention)
The present invention applies a relay process of a separation matrix (W (ω) in the equation (11)) at an adjacent frequency as a countermeasure for a channel inconsistency problem. In order to perform this relay processing, FastICA converted into complex numbers (see [7] and [8] in the reference) is used.
[0037]
Hereinafter, these will be described.
(1) Relay processing of separation matrix at frequency The relationship between the mixing matrix at any two frequencies can be expressed using the following equation (12).
[0038]
[Formula 6]
Figure 0004616529
[0039]
Here, T (ω 2 , ω 1 ) is a rotation matrix. Considering the adjacent frequencies ω 1 and ω 2 , there is a relationship of ω 2 = ω 1 + Δω. When the number of samples of the windowed Fourier transform is sufficiently large, this frequency difference Δω is sufficiently small, and the coherency between the two is considered to be very high.
[0040]
That is, it is considered that Expression (13) or Expression (14) holds.
[0041]
[Expression 7]
Figure 0004616529
[0042]
Now, the estimation result of the mixing matrix at the frequency ω 1 is expressed as A to1 ). Further, the order of the signals separated by this estimated value is represented as P 1 . Then, in order to estimate the mixing matrix at the frequency ω 2 , the initial value of the estimation at the frequency ω 2 is set as A to initial2 ) = A to1 ). If the accuracy of the estimation results A to1 ) is sufficiently high, as shown in the equations (13) and (14), this estimation value is a mixture matrix for obtaining the same order as P 1 at the frequency ω 2 . It will be close enough to the true value.
[0043]
That is, by using the estimation result of the mixing matrix at the adjacent frequency as the initial value of the estimation at the next frequency, the optimum estimation value of the mixing matrix for obtaining the same order with respect to the separated signal can be obtained. Here, this method is referred to as “relay matrix relay processing at adjacent frequencies”.
(2) In order to apply FastICA complexization “relay matrix relay processing at adjacent frequencies”, FastICA must be used as an estimation processing algorithm. However, in the present invention, since FastICA is used in the time-frequency domain, FastICA must be complexized.
[0044]
As an effect of using FastICA, even in the presence of large background noise, the calculation in the estimation of the mixing matrix converges stably, and robustness against the background noise is obtained. Further, the countermeasure against the misplacement problem by the above “relay processing of the separation matrix at the adjacent frequency” requires very little multiplication or addition calculation, so that the arithmetic processing unit can be extremely simplified.
[0045]
Further, since the final estimated value at the adjacent frequency is used as the initial value of the estimation process at the next frequency, the convergence speed is extremely fast, and the adopted FastICA has the effect of further improving the estimated speed of the mixing matrix.
(Example)
FIG. 2 is a block circuit diagram of the blind separation processing apparatus according to the present invention. In FIG. 2, reference numeral 1 denotes a sensor (also referred to as observation means) that detects a signal to be separated (also referred to as an observation signal). Here, the number of sensors 1 is N, and they are numbered in order. The separated signal detected by each sensor 1 is stored in the separated signal storage unit 2. The separated signal stored in the separated signal storage unit 2 is input to the signal processing unit 3.
[0046]
The signal processing unit 3 extracts the separated signal stored in the separated signal storage unit 2 and performs a process of separating the separated signal into signals from the signal sources.
[0047]
The signal processing unit 3 performs a discrete Fourier transform on the separated signal by a windowed FFT (Windowed Fourier transform) and converts it into a time-frequency domain component, and a mixing matrix based on the signal after the DFFT processing. A mixing matrix estimation processing unit 5 for estimating each frequency component;
A signal separation processing unit 6 that calculates a separation matrix for each frequency component based on a mixing matrix estimated for each frequency component, and calculates a product of the separation matrix and the signal after DFFT processing for each frequency component; and signal separation From the I-DFFT processing unit 7 that performs discrete inverse Fourier transform based on the product of the separation matrix for all frequency components obtained by the processing unit 6 and the signal after DFFT processing to separate and reproduce the separated signal It is configured.
[0048]
The mixing matrix estimation processing unit 5 uses the estimated value of the mixing matrix of the frequency component adjacent to the target frequency component as a setting initial value when estimating the mixing matrix in each frequency component. The mixing matrix estimation algorithm in the mixing matrix estimation processing unit 5 is a complex FastICA algorithm.
The separated signal separated by the signal processing unit 3 is output to the separated signal storage unit 8, and the signal from each signal source is output to the subsequent circuit.
[0049]
FIG. 3 is a flowchart for explaining the operation of the blind separated signal processing apparatus according to the present invention. First, the signal to be separated x (t) is subjected to discrete Fourier transform by WindowedFFT, and components x tok , t s ) (S.1, S.2). Then, when k = 1 is set as A ~ = A const (S.3) .
[0050]
Next, the mixing matrix is estimated by FastICA that is complexized for each frequency component.
[0051]
Here, for the first frequency component, an initial value for estimating the mixing matrix is arbitrarily selected. Here, as the initial value of the mixing matrix,
A to initialk ) = A const is used (S.4).
[0052]
For subsequent frequency components, “separation matrix relay processing at adjacent frequencies” using the value of the mixing matrix estimated at the previous frequency as its initial value is applied.
[0053]
In this embodiment, the case of processing in the order of increasing frequency is shown, and the relay relationship of the mixing matrix can be expressed using the following equation (15).
[0054]
[Equation 8]
Figure 0004616529
[0055]
However, k shows the order of the frequency component ω, and the frequency component ω is expressed by the following equation (16) using k.
[0056]
[Equation 9]
Figure 0004616529
[0057]
Using the mixing matrix A ~k ) estimated through the learning process using FastICA (S.5) and using the separation matrix B ~k ) obtained as its inverse matrix A ~k ) -1 (S.6), the original independent signal can be separated from the mixed signal. That is, the separation signals u tok ) are obtained using the product of the components x tok , t s ) and the separation matrix B tok ) (S.7), and k is k max (= M -1) is larger or smaller (S.8), and when k is smaller than k max, the estimated mixed matrix A ~k ) obtained last time is the initial value of the estimated mixed matrix A ~ obtained this time. And “+1” is added to the order k (S.9). 4 and again S.I. 4 to S.M. 7 is repeated until k max (N sensors). 8, when k exceeds k max , the separation signal u tok ) is subjected to discrete inverse Fourier transform (Windowed IFET) processing (S.10), and the target signal, that is, the time domain separation signal u ( t) is obtained and stored in the separated signal storage unit (S.11).
[0058]
4 to 7 show simulations when the blind signal processing apparatus according to this embodiment is applied to separation of acoustic signals.
[0059]
Here, as shown in FIG. 4, it is assumed that the independent signals are voices generated from two persons 20 and 21 and background noise. A mixed signal input to the microphone 22 as the sensor 1 is created under the mixing condition according to the equation (17) corresponding to the propagation path shown in FIG.
A 11 (n) = 1.0−0.7n −1 + 0.1n −2
A 12 (n) = 0.1 + 0.8 n −1 +0.3 n −2
A 21 (n) = 0.0−0.1n −1 + 0.6n −2 (17)
A 22 (n) = 1.0 + 0.5n −1 −0.3n −2
Here, n sampling number (n -1 is the value after one sample, n -2 values after 2 samples) shows the noise of the type white additive noise, the SNR of the signal and the background noise 15. 0 dB. The distance between two assumed microphones is 10.0 cm. Furthermore, the nonlinear type of FastICA is G (y) = (a + y) 1/2 .
[0060]
In FIG. 4, the mixed sound collected by the two microphones 22 is input as an input to the blind signal separation processing device.
[0061]
5A shows a speech waveform before mixing by the human 20, FIG. 5B shows a speech waveform before mixing by the human 21, and FIG. 6A shows a mixed signal input to one microphone 22. FIG. 6B shows the sound waveform of the mixed signal input to the other microphone 22, which is created according to the equation (17).
[0062]
FIGS. 7A and 7B show the sound signal waveforms separated by the blind signal separation processing apparatus (by simulation), and FIG. 7A shows the separation of the mixed signal input to one microphone. FIG. 7B shows a separated waveform of the mixed signal input to the other microphone. As is clear from the comparison of the waveforms before and after the blind separation processing shown in FIGS. It can be seen that it is possible to faithfully separate independent voices even in an environment where there is an error without causing a misplacement problem.
[0063]
In addition, the symbols u to , X to , A to , B to , s to , and f to used in the specification mean the following symbols.
[0064]
[Expression 10]
Figure 0004616529
[0065]
References used for detailed description of the invention are shown in Table 1.
[0066]
[Table 1]
Figure 0004616529
[0067]
【The invention's effect】
According to the present invention, it is possible to blindly separate a source signal from a signal (sound, image, radio wave, etc.) in a real environment in which background noise exists and is convolution mixed.
[0068]
In addition, because FastICA is used to estimate the mixing matrix that represents the influence of the signal on the propagation path, the estimation of the mixing matrix converges stably even in the presence of large background noise, and it is highly robust against background noise. Is obtained.
[0069]
Further, since the countermeasure for the misplacement problem by the “relay processing of the separation matrix at the adjacent frequency” hardly requires multiplication or addition calculation, the arithmetic processing unit can be extremely simplified. Further, in the relay process, since the final estimated value is used as the initial value of the estimation process at the next frequency, there is an effect that the convergence speed is extremely fast.
[Brief description of the drawings]
FIG. 1 is a schematic diagram showing an example of convolutional mixing.
FIG. 2 is a block circuit diagram of a blind signal separation processing apparatus according to the present invention.
FIG. 3 is a flowchart for explaining the operation of the blind signal separation processing device according to the present invention;
FIG. 4 is an explanatory diagram when audio is separated by a blind signal separation processing device.
5 shows the speech waveform of the speech source shown in FIG. 4, where (a) shows the speech waveform of one person and (b) shows the speech waveform of the other person.
6 shows a voice waveform that is convoluted and mixed in the transmission path up to the microphone shown in FIG. 4, wherein (a) shows a mixed signal waveform input to one microphone, and (b) shows the other microphone. 2 shows a mixed signal waveform input to the.
7 shows a speech signal waveform separated by the blind signal separation processing device shown in FIG. 4, wherein (a) corresponds to the speech waveform shown in FIG. 5 (a), and (b) shows in FIG. 5 (b). Corresponding to the audio waveform shown, the audio waveform separated from the blind signal processing device is separately output to the subsequent speaker device.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Sensor 2 ... Separated signal storage part 3 ... Signal processing part 4 ... DFFT processing part 5 ... Mixing matrix estimation processing part 6 ... Signal separation processing part 7 ... I-DFFT processing part 8 ... Signal storage part

Claims (2)

複数の信号源から発せられた被分離信号を複数の観測手段で観測してそれらの観測信号のみを使って源信号を分離するブラインド信号分離処理装置において、
前記被分離信号を検出する複数個のセンサーと、
各センサーが検出した被分離信号を保存する被分離信号格納部と、
該被分離信号格納部から信号を取り出して被分離信号を各信号源の信号に分離する処理を行う信号処理部と、
該信号処理部で分離した被分離信号を格納する分離信号格納部とからなり、
前記信号格納部は、
前記被分離信号をウインドウフーリエ変換により離散フーリエ変換して時間−周波数領域の成分に変換するDFFT処理部と、
前記DFFT処理後の信号に基づき混合行列を各周波数成分ごとに推定する混合行列推定処理部と、
前記周波数成分ごとに推定した混合行列に基づき各周波数成分ごとに分離行列を算出し、前記分離行列と前記DFFT処理後の信号の積を各周波数成分ごとに算出する信号分離処理部と、
前記信号分離処理部で得られた全ての周波数成分についての分離行列とDFFT処理後の信号との積に基づき離散逆フーリエ変換の演算を行って前記被分離信号を分離・再生するI−DFFT処理部と、
から構成され、前記混合行列推定処理部は、各周波数成分における混合行列を推定する際の設定初期値として、目的周波数成分と隣接する周波数成分の混合行列の推定値を用いることを特徴とするブラインド信号分離処理装置。
In the blind signal separation processing apparatus that separates the source signal using only the observation signals by observing the separated signals emitted from the plurality of signal sources with a plurality of observation means,
A plurality of sensors for detecting the separated signal;
A separated signal storage unit for storing the separated signal detected by each sensor;
A signal processing unit that performs processing to extract a signal from the separated signal storage unit and separate the separated signal into signals of respective signal sources;
A separated signal storage unit for storing a signal to be separated separated by the signal processing unit,
The signal storage unit
A FFT processing unit for converting the separated signal into a time-frequency domain component by performing a discrete Fourier transform by window Fourier transform;
A mixing matrix estimation processing unit that estimates a mixing matrix for each frequency component based on the signal after the DFFT processing;
A signal separation processing unit that calculates a separation matrix for each frequency component based on a mixing matrix estimated for each frequency component, and calculates a product of the separation matrix and the signal after the DFFT processing for each frequency component;
I-DFFT processing for performing separation inverse Fourier transform on the basis of the product of the separation matrix for all frequency components obtained by the signal separation processing unit and the signal after DFFT processing to separate and reproduce the separated signal And
Consists, the mixing matrix estimation processing unit, as the initial setting value in estimating the mixing matrix in each frequency component, and wherein the Rukoto using an estimate of the mixing matrix of the frequency components adjacent to the target frequency component Blind signal separation processing device.
前記各センサーがマイクロフォンであり、前記被分離信号が複数の音源からの音信号で
あって、複数の音源からの音信号を各音源の信号に分離することを特徴とする請求項1に記載のブラインド信号分離処理装置。
Each sensor is a microphone, and the separated signal is a sound signal from a plurality of sound sources.
There, the blind signal separation processing apparatus according to claim 1, characterized that you separate the sound signals from a plurality of sound sources to the signal of each sound source.
JP2001266095A 2001-09-03 2001-09-03 Blind signal separation processing device Expired - Fee Related JP4616529B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001266095A JP4616529B2 (en) 2001-09-03 2001-09-03 Blind signal separation processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001266095A JP4616529B2 (en) 2001-09-03 2001-09-03 Blind signal separation processing device

Publications (2)

Publication Number Publication Date
JP2003078423A JP2003078423A (en) 2003-03-14
JP4616529B2 true JP4616529B2 (en) 2011-01-19

Family

ID=19092452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001266095A Expired - Fee Related JP4616529B2 (en) 2001-09-03 2001-09-03 Blind signal separation processing device

Country Status (1)

Country Link
JP (1) JP4616529B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4525071B2 (en) * 2003-12-22 2010-08-18 日本電気株式会社 Signal separation method, signal separation system, and signal separation program
KR100600313B1 (en) 2004-02-26 2006-07-14 남승현 Method and apparatus for frequency domain blind separation of multipath multichannel mixed signal
KR100653173B1 (en) 2005-11-01 2006-12-05 한국전자통신연구원 Multi-channel blind source separation mechanism for solving the permutation ambiguity
JP4772627B2 (en) * 2006-09-12 2011-09-14 株式会社東芝 Mixed signal separation and extraction device
CN105807135A (en) * 2016-03-15 2016-07-27 东南大学 Single-channel conducted-electromagnetic-interference-noise separation method
CN107607342B (en) * 2017-09-22 2020-05-26 沈阳工业大学 Healthy energy efficiency detection method for air conditioner room equipment group
CN110749374B (en) * 2019-10-22 2021-09-17 国网湖南省电力有限公司 Sound transmission separation method and device for transformer structure in building
CN112116922B (en) * 2020-09-17 2024-04-12 集美大学 Noise blind source signal separation method, terminal equipment and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09251299A (en) * 1996-03-15 1997-09-22 Toshiba Corp Microphone array input type voice recognition device and its method
JPH10313497A (en) * 1996-09-18 1998-11-24 Nippon Telegr & Teleph Corp <Ntt> Sound source separation method, system and recording medium
JP2000181499A (en) * 1998-12-10 2000-06-30 Nippon Hoso Kyokai <Nhk> Sound source signal separation circuit and microphone device using the same
JP2000242624A (en) * 1999-02-18 2000-09-08 Retsu Yamakawa Signal separation device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09251299A (en) * 1996-03-15 1997-09-22 Toshiba Corp Microphone array input type voice recognition device and its method
JPH10313497A (en) * 1996-09-18 1998-11-24 Nippon Telegr & Teleph Corp <Ntt> Sound source separation method, system and recording medium
JP2000181499A (en) * 1998-12-10 2000-06-30 Nippon Hoso Kyokai <Nhk> Sound source signal separation circuit and microphone device using the same
JP2000242624A (en) * 1999-02-18 2000-09-08 Retsu Yamakawa Signal separation device

Also Published As

Publication number Publication date
JP2003078423A (en) 2003-03-14

Similar Documents

Publication Publication Date Title
CN109243483B (en) Method for separating convolution blind source of noisy frequency domain
US20210089967A1 (en) Data training in multi-sensor setups
US9668066B1 (en) Blind source separation systems
US20170140771A1 (en) Information processing apparatus, information processing method, and computer program product
EP1993320A1 (en) Reverberation removal device, reverberation removal method, reverberation removal program, and recording medium
US20090222262A1 (en) Systems And Methods For Blind Source Signal Separation
CN111899756B (en) Single-channel voice separation method and device
JP6677662B2 (en) Sound processing device, sound processing method and program
JP6225245B2 (en) Signal processing apparatus, method and program
JP4616529B2 (en) Blind signal separation processing device
Al-Karawi et al. Early reflection detection using autocorrelation to improve robustness of speaker verification in reverberant conditions
Zhang et al. Deep AHS: A deep learning approach to acoustic howling suppression
KR101529647B1 (en) Sound source separation method and system for using beamforming
JP2004302122A (en) Method, device, and program for target signal extraction, and recording medium therefor
KR100653173B1 (en) Multi-channel blind source separation mechanism for solving the permutation ambiguity
JP6644356B2 (en) Sound source separation system, method and program
Oliinyk et al. Center weighted median filter application to time delay estimation in non-Gaussian noise environment
JP2015049406A (en) Acoustic signal analyzing device, method, and program
Shin et al. New Generalized Sidelobe Canceller with Denoising Auto-Encoder for Improved Speech Enhancement
JP3831220B2 (en) Noise suppression method and apparatus, noise suppression program, and program recording medium
JP2007178590A (en) Object signal extracting device and method therefor, and program
Zhang et al. Blind estimation of reverberation time in occupied rooms
JP4714892B2 (en) High reverberation blind signal separation apparatus and method
CN114822579B (en) Signal estimation method based on first-order differential microphone array
JP4173469B2 (en) Signal extraction method, signal extraction device, loudspeaker, transmitter, receiver, signal extraction program, and recording medium recording the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101019

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101022

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131029

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131029

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees