JP3925734B2 - 対象音検出方法、信号入力遅延時間検出方法及び音信号処理装置 - Google Patents
対象音検出方法、信号入力遅延時間検出方法及び音信号処理装置 Download PDFInfo
- Publication number
- JP3925734B2 JP3925734B2 JP2005504296A JP2005504296A JP3925734B2 JP 3925734 B2 JP3925734 B2 JP 3925734B2 JP 2005504296 A JP2005504296 A JP 2005504296A JP 2005504296 A JP2005504296 A JP 2005504296A JP 3925734 B2 JP3925734 B2 JP 3925734B2
- Authority
- JP
- Japan
- Prior art keywords
- sound
- inclination
- microphones
- frequency
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000005236 sound signal Effects 0.000 title claims description 158
- 238000012545 processing Methods 0.000 title claims description 111
- 238000001514 detection method Methods 0.000 title claims description 104
- 238000001228 spectrum Methods 0.000 claims description 140
- 230000002194 synthesizing effect Effects 0.000 claims description 17
- 239000012141 concentrate Substances 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 description 54
- 238000000034 method Methods 0.000 description 34
- 230000015572 biosynthetic process Effects 0.000 description 15
- 238000003786 synthesis reaction Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 14
- 238000004458 analytical method Methods 0.000 description 13
- 230000000694 effects Effects 0.000 description 11
- 238000009432 framing Methods 0.000 description 11
- 230000001360 synchronised effect Effects 0.000 description 9
- 238000000605 extraction Methods 0.000 description 8
- 230000003111 delayed effect Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 230000001934 delay Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 229920006310 Asahi-Kasei Polymers 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L2021/02161—Number of inputs available containing the signal or the noise to be suppressed
- G10L2021/02166—Microphone arrays; Beamforming
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Circuit For Audible Band Transducer (AREA)
Description
【発明の属する技術分野】
本発明は、検出対象音を検出する対象音検出方法、複数のマイクロホンに入力される音信号間の遅延時間を検出する信号入力遅延時間検出方法、入力された音信号を処理する音信号処理装置、並びに発話音を検出し、その発話音について音声認識処理を行う音声認識装置に関する。
【0002】
【従来の技術】
音声は、人間の用いる種々の通信の形態の中でも最も根源的であると同時に、他のどの情報送出方法よりも高速度に情報を送り出すことのできる優れた通信手段である。このよ
うなことから、音声は、古くから現在に至るまで人間の通信手段の根幹を担ってきた。
【0003】
また、そのような音声を認識するための音声認識技術がある。音声認識とは、その音声に含まれる情報の中で、最も基本的な意味内容に関する情報、つまり音韻情報をコンピュータなどにより抽出し、その抽出内容を判定することである。近年では、計算機プロセッサ技術の飛躍的な発達と、インターネットに代表される高度な情報ネットワークの構築により、様々な分野においてマン・マシンインタフェースとしての音声認識技術の適用が試みられている。
現在の音声認識システムの認識性能は、確率・統計的手法により格段に向上しており、理想的な環境下での音声や接話マイクロホンで収録された近距離音声などでは、非常に高い認識率が得られるようになっている。
【0004】
【発明が解決しようとする課題】
ところで、実環境下の音声認識は、学習データと観測データとの間の環境、発話内容などのミスマッチにより、その認識率が劣化する。また、受音系となる接話マイクヘッドセットの装着によりユーザが受ける負担や不快感は大きく、音声認識システム実用化の大きな障害のひとつになっている。
【0005】
また、S/N比の低下や背景雑音、室内残響の影響などにより認識が困難な遠隔音声に関し、複数の遠隔マイクロホンを用いた音声認識手法の研究が多くなされている。その代表的なものとして、マイクロホンアレーを用いる手法が挙げられる。この手法では、音源位置検出処理、目的音強調処理、雑音抑制処理、の3つの空間的な信号処理を行なうことができる。このような手法により遠隔音声の音声認識が盛んに研究されている。
しかし、この手法は、正確な話者方向同定処理のために複数のマイクロホンを一定間隔にて固定配置する必要があり、小型化、携帯化が困難であるため、様々な環境・状況下での音声入力への応用が難しく、用途が限定されるという問題がある。
【0006】
ここで、いつでもどこでも音声入力を可能にするユビキタスな受音系として、(1)小型・軽量で脱着が容易、(2)接話マイクとほぼ同等の近距離音声を確保することができる、(3)接話マイクヘッドセットに比べ、装着時のユーザの負担や不快感を軽減できる、という点で、衣服や眼鏡などに取り付けることができる装着型マイクロホンが期待されている。
本発明は、前述の問題に鑑みてなされたものであり、複数の装着型マイクロホンを用いた環境変動に対してもロバストな受音系の構築を可能にする対象音検出方法、信号入力遅延時間検出方法、音信号処理装置、音声認識装置の提供を目的とする。
【0007】
【課題を解決するための手段】
本発明に係る対象音検出方法は、検出対象音源から出力された検出対象音が複数のマイクロホンに入力されており、前記複数のマイクロホンに入力された音信号間のクロススペクトルの位相を検出し、前記検出対象音源と前記複数のマイクロホンとの間のそれぞれの距離に起因して発生する前記クロススペクトルの位相の周波数に対する傾きを検出し、その傾きに基づいて、当該複数のマイクロホンが受音した前記検出対象音を検出することを特徴とする。
【0008】
また、前記対象音検出方法において、前記周波数を帯域分割して、その分割した帯域毎の前記傾きに基づいて、前記検出対象音を検出することを特徴とする。
また、前記対象音検出方法において、前記帯域毎のそれぞれの傾きが特定の傾きに集中する傾向が強くなったときに検出対象音を検出することを特徴とする。
また、前記対象音検出方法において、複数のマイクロホンに入力された音信号を所定時間ごとに区切り、各区間の音信号毎に前記クロススペクトルの位相を検出していることを
特徴とする。
【0009】
また、本発明に係る信号入力遅延時間検出方法は、音源から出力された音が複数のマイクロホンに入力されており、前記複数のマイクロホンに入力された音信号間のクロススペクトルの位相を検出し、前記音源と前記複数のマイクロホンとの間のそれぞれの距離に起因して発生する前記クロススペクトルの位相の周波数に対する傾きを検出し、その傾きに基づいて、前記複数のマイクロホン間での前記音源からの受音の遅延時間を検出することを特徴とする。
【0010】
また、前記信号入力遅延時間検出方法において、前記周波数を帯域分割して、その分割した帯域毎の前記傾きに基づいて、前記受音の遅延時間を検出することを特徴とする。
また、前記信号入力遅延時間検出方法において、前記帯域毎のそれぞれの傾きが特定の傾きに集中する傾向が強くなったときに、前記受音の遅延時間を検出することを特徴とする。
【0011】
また、前記信号入力遅延時間検出方法において、複数のマイクロホンに入力された音信号を所定時間ごとに区切り、各区間の音信号毎に前記クロススペクトルの位相を検出していることを特徴とする。
また、本発明に係る音信号処理装置は、複数のマイクロホンに入力された音信号間のクロススペクトルの位相を検出するクロススペクトル位相検出手段と、前記クロススペクトル位相検出手段が検出したクロススペクトルの位相の周波数に対する傾きを検出する傾き検出手段と、前記傾き検出手段が検出した前記周波数に対する傾きに基づいて、前記複数のマイクロホンが受音した検出対象音源から出力された検出対象音を検出する対象音検出手段と、を備えたことを特徴とする。
【0012】
また、前記音信号処理装置において、前記傾き検出手段は、前記クロススペクトルの位相の周波数を帯域分割し、分割した帯域毎に傾きを検出しており、前記対象音検出手段は、前記傾き検出手段が検出した前記帯域毎の傾きに基づいて、前記検出対象音を検出することを特徴とする。
また、前記音信号処理装置において、前記帯域毎のそれぞれの傾きが特定の傾きに集中する傾向が強くなったときに検出対象音を検出することを特徴とする。
【0013】
また、本発明に係る音信号処理装置は、音源から出力された音が複数のマイクロホンに入力され、前記複数のマイクロホンに入力された音を処理する音信号処理装置において、前記複数のマイクロホンに入力された音信号間のクロススペクトルの位相を検出するクロススペクトル位相検出手段と、前記クロススペクトル位相検出手段が検出したクロススペクトルの位相の周波数に対する傾きを検出する傾き検出手段と、前記傾き検出手段が検出した前記周波数に対する傾きに基づいて、前記複数のマイクロホン間での前記音源からの受音の遅延時間を検出する遅延時間検出手段と、前記遅延時間検出手段が検出した遅延時間に基づいて、前記複数のマイクロホンに入力された音信号同士を合成する音信号合成手段と、を備えたことを特徴とする。
【0014】
また、前記音信号処理装置において、前記傾き検出手段は、前記クロススペクトルの位相を帯域分割し、分割した帯域毎に傾きを検出しており、前記遅延時間検出手段は、前記傾き検出手段が検出した前記帯域毎の傾きに基づいて、前記受音の遅延時間を検出することを特徴とする。
また、前記音信号処理装置において、前記帯域毎のそれぞれの傾きが特定の傾きに集中する傾向が強くなったときに前記受音の遅延時間を検出することを特徴とする。
【0015】
また、本発明に係る音信号処理装置は、検出対象音源から出力された検出対象音が複数
のマイクロホンに入力され、前記複数のマイクロホンに入力された検出対象音を処理する音信号処理装置において、前記複数のマイクロホンに入力された音信号間のクロススペクトルの位相を検出するクロススペクトル位相検出手段と、前記クロススペクトル位相検出手段が検出したクロススペクトルの位相の周波数に対する傾きを検出する傾き検出手段と、前記傾き検出手段が検出した前記周波数に対する傾きに基づいて、前記複数のマイクロホン間での前記検出対象音源からの受音の遅延時間を検出する遅延時間検出手段と、前記遅延時間検出手段が検出した遅延時間に基づいて、前記複数のマイクロホンに入力された音信号同士を合成する音信号合成手段と、前記傾き検出手段が検出した前記周波数に対する傾きに基づいて、前記音信号合成手段が合成した合成音信号中の前記検出対象音を検出する対象音検出手段と、を備えたことを特徴とする。
【0016】
また、前記音信号処理装置おいて、前記傾き検出手段は、前記クロススペクトルの位相を帯域分割し、分割した帯域毎に傾きを検出しており、前記遅延時間検出手段は、前記傾き検出手段が検出した前記帯域毎の傾きに基づいて、前記受音の遅延時間を検出し、前記対象音検出手段は、前記傾き検出手段が検出した前記帯域毎の傾きに基づいて、前記検出対象音を検出することを特徴とする。
また、前記音信号処理装置において、前記帯域毎のそれぞれの傾きが特定の傾きに集中する傾向が強くなったときに前記受音の遅延時間を検出し、かつ前記帯域毎のそれぞれの傾きが特定の傾きに集中する傾向が強くなったときに検出対象音を検出することを特徴とする。
【0017】
また、本発明に係る音声認識装置は、発話源から出力された発話音が複数のマイクロホンに入力され、前記複数のマイクロホンに入力された発話音を処理する音声認識装置において、前記複数のマイクロホンに入力された音信号間のクロススペクトルの位相を検出するクロススペクトル位相検出手段と、前記クロススペクトル位相検出手段が検出したクロススペクトルの位相の周波数に対する傾きを検出する傾き検出手段と、前記傾き検出手段が検出した前記周波数に対する傾きに基づいて、前記複数のマイクロホンが受音した前記発話音を検出する発話音検出手段と、前記発話音検出手段が検出した前記発話音について、音声認識処理を行う音声認識処理手段と、を備えたことを特徴とする。
【0018】
また、前記音声認識装置において、前記傾き検出手段は、前記クロススペクトルの位相の周波数を帯域分割し、分割した帯域毎に傾きを検出しており、前記発話音検出手段は、前記傾き検出手段が検出した前記帯域毎の傾きに基づいて、前記発話音を検出することを特徴とする。
また、前記音声認識装置において、前記帯域毎のそれぞれの傾きが特定の傾きに集中する傾向が強くなったときに発話音を検出することを特徴とする。
【0019】
また、本発明に係る音声認識装置は、発話源から出力された発話音が複数のマイクロホンに入力され、前記複数のマイクロホンに入力された発話音を処理する音声認識装置において、前記複数のマイクロホンに入力された音信号間のクロススペクトルの位相を検出するクロススペクトル位相検出手段と、前記クロススペクトル位相検出手段が検出したクロススペクトルの位相の周波数に対する傾きを検出する傾き検出手段と、前記傾き検出手段が検出した前記周波数に対する傾きに基づいて、前記複数のマイクロホン間での前記発話源からの受音の遅延時間を検出する遅延時間検出手段と、前記遅延時間検出手段が検出した遅延時間に基づいて、前記複数のマイクロホンに入力された音信号同士を合成する音信号合成手段と、前記傾き検出手段が検出した前記周波数に対する傾きに基づいて、前記音信号合成手段が合成した合成音信号中の前記発話音を検出する発話音検出手段と、前記発話音検出手段が検出した前記発話音について、音声認識処理を行う音声認識処理手段と、を備えたことを特徴とする。
【0020】
また、前記音声認識装置において、前記傾き検出手段は、前記クロススペクトルの位相を帯域分割し、分割した帯域毎に傾きを検出しており、前記遅延時間検出手段は、前記傾き検出手段が検出した前記帯域毎の傾きに基づいて、前記受音の遅延時間を検出し、前記発話音検出手段は、前記傾き検出手段が検出した前記帯域毎の傾きに基づいて、前記発話音を検出することを特徴とする。
【0021】
また、前記音声認識装置において、前記帯域毎のそれぞれの傾きが特定の傾きに集中する傾向が強くなったときに前記受音の遅延時間を検出し、かつ前記帯域毎のそれぞれの傾きが特定の傾きに集中する傾向が強くなったときに発話音を検出することを特徴とする。
ここで、複数のマイクロホンで受音した複数の音信号のクロススペクトルの位相をみた場合、音源と各マイクロホンとの間のそれぞれの距離の差に対応して、その位相の周波数に対する傾きが一定になる。そして、音源と各マイクロホンとの間のそれぞれの距離の差は、複数のマイクロホン間での受音の遅延時間として現れる。さらに、複数のマイクロホンで受音した音声のS/N比が高ければ、そのように傾きが一定となる傾向が顕著になる。本発明はこのような関係を利用したものである。
【0022】
すなわち、本発明では、複数のマイクロホンに入力された音信号間のクロススペクトルの位相を検出し、音源と前記複数のマイクロホンとの間のそれぞれの距離に起因して発生する前記クロススペクトルの位相の周波数に対する傾きを検出し、その傾きに基づいて、当該複数のマイクロホンが受音した検出対象音や発話音を検出している。なお、検出対象音には、人間が発する発話音の他、物体が発する音も含まれる。
【0023】
この発明は、複数のマイクロホンで受音した複数の音信号のクロススペクトルの位相をみた場合、音源から各マイクロホンとの距離の差に対応して、その位相の周波数に対する傾きが一定になり、その一方で、複数のマイクロホンで受音した音のS/Nが高ければ、そのように傾きが一定となる傾向が顕著になること、を原理としたものである。
また、本発明では、複数のマイクロホンに入力された音信号間のクロススペクトルの位相を検出し、音源と前記複数のマイクロホンとの間のそれぞれの距離の差に起因して発生する前記クロススペクトルの位相の周波数に対する傾きを検出し、その傾きに基づいて、前記複数のマイクロホン間での受音の遅延時間を検出している。
【0024】
この発明は、複数のマイクロホンで受音した複数の音信号のクロススペクトルの位相をみた場合、音源と各マイクロホンとの間のそれぞれの距離の差に対応して、その位相の周波数に対する傾きが一定になり、その一方で、音源と各マイクロホンとの間のそれぞれの距離の差が、複数のマイクロホン間での受音の遅延時間として現れること、を原理とするものである。
また、本発明では、クロススペクトルの位相の周波数を帯域分割し、分割した帯域毎の前記傾きに基づいて処理を行っている。これにより、精度を上げて前記傾きを検出している。
【0025】
【発明の効果】
本発明によれば、装着型マイクロホンを用いた環境変動に対してもロバストな受音系の構築を可能にすることができる。
【0026】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照しながら詳細に説明する。この実施の形態は、図1に示すように、2つのマイク1,2で受音した音声信号を処理する音声信号処理装置10である。ここで、第1及び第2マイク1,2は音源(ユーザ)自体に比較的自由度を持たせた位置に装着可能な装着型マイクである。
【0027】
図2は、第1の実施の形態の音声信号処理装置10の構成を示す。図2に示すように、音声信号処理装置10は、第1及び第2フレーム化部11,12と、第1及び第2周波数分析部13,14と、クロススペクトル計算部15と、位相抽出処理部16と、位相unwrap処理部17と、主計算部30と、音入力オン/オフ制御部18とを備えている。また、主計算部30については、周波数帯域分割部31と、第1乃至第N傾き計算部321〜3
2Nと、ヒストグラム等計算部33と、音声/非音声判定部34とを備えている。以下、
各部の処理内容を説明する。
【0028】
第1及び第2マイク1,2から入力された2chの音声信号はそれぞれ、第1及び第2フレーム化部11,12に入力される。また、第1マイク1から入力された音声信号は、音入力オン/オフ制御部18に入力される。
第1及び第2フレーム化部11,12、第1及び第2周波数分析部13,14及びクロススペクトル計算部15により、第1及び第2マイク1,2から入力された2chの音声信号のクロススペクトルを算出する。
【0029】
例えば、第1マイク1と第2マイク2といった複数のマイクで受音した音声信号を時間軸上でみた場合、受音した音声信号間に位相差が生じる。これは、音源から各マイク1,2までの距離の違いにより、音源から各マイク1,2までの音声信号の到達時間に差が生じた結果である。
ここで、第1マイク1と第2マイク2とにより受音した音声信号間の遅延時間を計測し、その計測した遅延時間に基づいて位相を同相化し、その後、第1マイク1と第2マイクとでそれぞれ受音した音声信号を加算して同期加算音声を得る場合を考える。例えば、M.Omologo,P.Svaizerらの文献「"Acoustic event loocalization using a crosspower-spectruum phase based technique",Proc.ICASSP94,pp.274-276,(1994)」に、そのように同期加算音声を得る技術が記載されている。
【0030】
ここで、2つのマイク1,2で受音した音声信号をそれぞれx1(t),x2(t)とし、これらx1(t),x2(t)をフーリエ変換して得られる周波数関数をX1(ω),X2(ω)とする。ここで、x2(t)は、下記(1)式のようにx1(t)の時間移動波形であると仮定する。
x2(t)=x1(t-t0) ・・・(1)
【0031】
このように仮定した場合、周波数関数X1(ω)と周波数関数X2(ω)との関係は下記(2)式のようになる。
X2(ω)=e-jωt0X1(ω) ・・・(2)
【0032】
そして、この周波数関数X1(ω)と周波数関数X2(ω)とからクロススペクトルG12(ω)が下記(3)式として得られる。
G12(ω)=X1(ω)X2 *(ω)=X1(ω)ejωt0X1 *(ω)=|X1|2ejωt0 ・・・(3)
【0033】
ここで、クロススペクトルG12(ω)の指数項はスペクトル領域のチャネル間の時間遅れに対応する。したがって、 周波数関数X2に遅延項ejωt0をかけたX2(ω)ejωt0
は、周波数関数X1と同相化され、 これにより、X1(ω)+X2(ω)ejωt0の逆フー
リエ変換をチャネル同期加算音声として扱うことができるようになる。
クロススペクトル計算部15により、このようなクロススペクトルG12(ω)を得る。
【0034】
そのため、先ず、第1フレーム化部11では、後段の第1周波数分析部13のために、第1マイク1から入力される音声信号をフレーム化(或いはフレーム分割)して、当該第1周波数分析部13に出力する。また、第2フレーム化部12では、後段の第2周波数分
析部14のために、第2マイク2から入力される音声信号をフレーム化(或いはフレーム分割)して、当該第2周波数分析部14に出力する。第1及び第2フレーム化部11,12は、所定のサンプル数を1フレームとして、入力されてくる音声信号を次々にフレーム化していく。
【0035】
例えば、マイク1,2に音声が入力(発話入力)されていない場合には、フレームは、音声の入力されていない非音声区間フレームとなり、マイク1,2に音声が入力されている場合には、フレームは、音声の入力(発話入力)されている音声区間フレームとなる。
第1周波数分析部13は、第1フレーム化部11からの音声信号をフーリエ変換して周波数関数X1(ω)を算出して、後段のクロススペクトル計算部15に出力する。また、
第2周波数分析部14は、第2フレーム化部12からの音声信号をフーリエ変換して周波数関数X2(ω)を算出して、後段のクロススペクトル計算部15に出力する。ここで、
第1及び第2周波数分析部13,14は、フレーム毎に音声信号をフーリエ変換する。
【0036】
クロススペクトル計算部15は、第1及び第2周波数分析部13,14からの周波数関数X1(ω)、X2(ω)に基づいて、前記(3)式によりクロススペクトルG12(ω)を算出する。
なお、図3には、1フレームについての音声信号のクロススペクトルの位相を示しており、図3中(A)は自動車内で発した音声について得たクロススペクトルの位相であり、図3中(B)はオフィススペース内で発した音声について得たクロススペクトルの位相であり、図3中(C)は防音室内で発した音声について得たクロススペクトルの位相であり、図3中(D)は歩道(屋外)で発した音声について得たクロススペクトルの位相である。この図3に示すように、フレーム内で、すなわち局所的に、音源と第1マイク1までの距離と音源と第2マイク2までの距離との差に対応して、クロススペクトルの位相が周波数に対してほぼ一定の傾きを示すことがわかる。すなわち、音源と第1マイク1までの距離と音源と第2マイク2までの距離との差に対応して、クロススペクトルの位相成分が一定の傾きを有している。
【0037】
また、第1及び第2マイク1,2で受音した音声信号のS/N比が高ければ、そのように傾きが一定となる傾向は顕著になるのである。ここで、第1及び第2マイク1,2が装着型マイクなので、第1及び第2マイク1,2により音声を受音した場合のその音声信号はS/N比が高くなり、このようなことから、明らかに一定の傾きを示すものになっている。
クロススペクトル計算部15は、このような特性を有するクロススペクトルG12(ω)を位相抽出部16に出力する。
【0038】
位相抽出部16では、クロススペクトル計算部15からのクロススペクトルG12(ω)から位相を抽出(検出)して、その抽出結果を位相unwrap処理部17に出力する。
位相unwrap処理部17では、位相抽出部16の位相抽出結果に基づいて、クロススペクトルG12(ω)をunwrap処理して、主計算部30の周波数帯域分割部31に出力する。
周波数帯域分割部31は、帯域分割(セグメント分割)した位相を第1乃至第N傾き計算部321〜32Nそれぞれに出力する。
【0039】
ここで、音声の入力されていない非音声区間フレームと音声が入力されている音声区間フレームとで、クロススペクトルの位相成分に大きな違いがある。すなわち、音声区間フレームでは、前述したようにクロススペクトルの位相が周波数に対してほぼ一定の傾きを示すが、非音声区間フレームでは、そのようにはならない。ここで、図4を用いて説明する。
【0040】
図4はクロススペクトル(CRS)の位相を示しており、図4中(A)は、音声区間フレ
ームのクロススペクトルの位相であり、図4中(B)は、非音声区間フレームのクロススペクトルの位相である。
この図4中(A)と図4中(B)との比較からもかわるように、非音声区間フレームでは、クロススペクトルの位相は、周波数に対して特定のトレンドをもたないのである。すなわち、周波数に対してクロススペクトルの位相が一定の傾きを持つ結果とはならない。これは、ノイズの位相がランダムだからである。
【0041】
これに対して、音声区間フレームでは、周波数に対してクロススペクトルの位相が一定の傾きをもつようになる。そして、この傾きは、音源から各マイク1,2までの距離の差に対応した大きさになる。
このように、音声の入力されていない非音声区間フレームと音声が入力されている音声区間フレームとでは、クロススペクトルの位相成分に大きな違いがある。
【0042】
このようなことから、位相の回転が生じた場合にも正確にトレンドを追随するために、周波数帯域分割部31により、位相成分を小さな周波数セグメントに分割(或いは帯域分割)し、後段の第1乃至第N傾き計算部321〜32Nで、最小2乗法を適用することでセグメント毎に傾きを計算している。この第1乃至第N傾き計算部321〜32Nはそれぞれ、算出した傾きをヒストグラム等計算部33に出力する。
【0043】
ここで、最小2乗法によりセグメント毎に傾きを求める手法は、公知の技術であり、例えば、『「信号処理」「画像処理」のための入門工学社,高井信勝著,工学社,(2000)』にその技術が記載されている。
ヒストグラム等計算部33は、第1乃至第N傾き計算部321〜32Nが算出した前記傾きについて、ヒストグラムを得る。
【0044】
図5は、ヒストグラム等計算部33が得たヒストグラムで、セグメント毎に得た傾きについてのヒストグラムを示している。すなわち、この図5は、位相の傾きの分布を示し、全セグメントに対する、各傾きのセグメント数の割合、すなわち頻度を縦軸にとっている。ここで、図5中(A)は、音声区間フレームについてのヒストグラムを示し、図5中(B)は、非音声区間フレームについてのヒストグラムを示す。
【0045】
この図5中(A)と図5中(B)との比較からもかわるように、音声区間フレームでは、ヒストグラムに明らかにピーク値があり、すなわち傾きがごく狭い範囲に局在して、これにより、ある傾きについて頻度が高くなっている。すなわち、帯域毎のそれぞれの傾きが特定の傾きに集中する傾向が強くなっている。一方、非音声区間フレームでは、ヒストグラムが平滑となり、傾きが広い範囲にわたって分布している。
このヒストグラム等計算部33は、このようなヒストグラム化して得た頻度を音声/非音声判定部34に出力する。なお、このヒストグラム等計算部33の処理については後で具体例を説明する。
【0046】
音声/非音声判定部34は、ヒストグラム等計算部33からの前記頻度に基づいて、音声区間と非音声区間とを判定する。例えば、前記頻度の平均値周辺の所定の範囲に含まれる傾きの出現頻度が所定の閾値以上の場合、音声区間と判定し、頻度が所定の閾値未満の場合、非音声区間と判定する。
なお、ここでは、前段の処理がフレーム単位の処理となっているので、当該フレームが、音声区間フレーム又は非音声区間フレームのいずれかであるかを判定する。音声/非音声判定部34は、その判定結果を音入力オン/オフ制御部18に出力する。
【0047】
音入力オン/オフ制御部18には、第1マイク1からの音声信号が入力されており、音入力オン/オフ制御部18は、音声/非音声判定部34の判定結果に基づいて、その第1
マイク1からの音声信号の後段への出力をオンとオフとを切り換える。具体的には、音声/非音声判定部34が音声区間と判定した場合、音入力オン/オフ制御部18は、オンにして音声信号を後段に出力して、音声/非音声判定部34が非音声区間と判定した場合、音入力オン/オフ制御部18は、オフにして音声信号を後段に出力しないようにする。
【0048】
なお、前段の処理がフレーム単位の処理となっているので、音入力オン/オフ制御部18は、判定対象のフレームに対応した第1マイク1からの音声信号の部位を単位としてオンとオフとを切り換える。
ヒストグラム等計算部33の処理の具体例を説明する。図6は、その処理を実現するヒストグラム等計算部33の構成を示す。
【0049】
ヒストグラム等計算部33は、第1乃至第N傾き計算部321〜32Nが算出した前記傾きのうちから頻度が高い(最頻度の)傾きを算出する構成として、第1スイッチ33S1、第2スイッチ33S2及び最頻値計算部33Cを備えている。これにより、第1スイッチ33S1を一定時間オン(閉)にして、第1乃至第N傾き計算部321〜32Nが算出した一定時間の前記傾きのデータ(或いはデータベース)33D1を作成する。このとき、第2スイッチ33S2については、オフ(開)にしておく。そして、データ33D1を作成したら、第2スイッチ33S2をオン(閉)にして、そのデータ33D1を最頻値計算部33Cに出力する。
【0050】
最頻値計算部33Cでは、データ33D1から前記図5に示すような前記傾きについてのヒストグラムを作成して、そのヒストグラム中の最頻度の傾き(以下、最頻傾きという。)τ0を算出する。なお、最頻度の傾きを算出するようにしてもよいが、平均値の傾きτ0を算出したり、或いは最頻度の傾きと傾きの平均値とを組み合わせた傾きτ0を算出するようにしてもよい。これにより、各帯域の傾きが特定の傾きに集中する傾向が強くなったとき、当該特定の傾きの値そのもの或いはそれに近い傾きの値を得ることができる。なお、本実施の形態では、最頻値計算部33Cが最頻傾きτ0を算出しているものとする。
【0051】
そして、最頻値計算部33Cは、算出した最頻傾きτ0を前記音声/非音声判定部34に出力する。ここで、最頻傾きτ0をデータ33D2として前記音声/非音声判定部34に出力する。
以上がヒストグラム等計算部33の処理の具体例である。
前記音声/非音声判定部34では、ヒストグラム等計算部33からの最頻傾きτ0に基づいて、音声区間と非音声区間とを判定する。
【0052】
なお、先の説明では、音声/非音声判定部34がヒストグラム等計算部33からの前記頻度に基づいて音声区間と非音声区間とを判定する場合について説明した。ここでは、音声/非音声判定部34は、ヒストグラム等計算部33からの最頻傾きτ0と第1乃至第N傾き計算部321〜32Nが算出した前記傾き(各帯域の傾き)τiに基づいて、音声区
間と非音声区間とを判定しており、これに対応して、音声/非音声判定部34に、第1乃至第N傾き計算部321〜32Nが算出した前記傾きが入力されるようになっている。
【0053】
すなわち、音声/非音声判定部34は、第1乃至第N傾き計算部321〜32Nが算出した前記傾きτiと最頻傾きτ0とを下記(4)式により比較する。
|τi−τ0|<δ ・・・(4)
ここで、δは判定用の閾値(傾き閾値)である。
【0054】
音声/非音声判定部34は、この(4)式の条件が満たされていることが所定の割合を超えた場合(YES)、音声区間と判定し、そうでない場合(NO)、非音声区間と判定
する。そして、音声/非音声判定部34は、その判定結果を音入力オン/オフ制御部18に出力する。
【0055】
以上のように構成した音声信号処理装置10の一連の動作は次のようになる。
先ず、第1及び第2フレーム化部11,12、第1及び第2周波数分析部13,14及びクロススペクトル計算部15が、第1及び第2マイク1,2から入力された2chの音声信号のクロススペクトルG12(ω)を算出する。
そして、位相抽出部16、位相unwrap処理部17及び周波数帯域分割部31が、そのように算出したクロススペクトルG12(ω)の位相を帯域分割(セグメント分割)して、第1乃至第N傾き計算部321〜32Nが、帯域毎(セグメント毎)の位相の傾きを算出する。
【0056】
そして、ヒストグラム等計算部33が、第1乃至第N傾き計算部321〜32Nそれぞれが算出した前記帯域毎(セグメント毎)の傾きからヒストグラムを生成して、音声/非音声判定部34が、そのヒストグラムから得られる頻度と最頻傾きτ0に基づいて、音声区間と非音声区間とを判定する。この判定結果に基づいて、音入力オン/オフ制御部18では、第1マイク1からの音声信号の後段への出力をオンとオフとを切り換える。具体的には、音声/非音声判定部34が音声区間と判定した場合、音入力オン/オフ制御部18は、オンにして音声信号を後段に出力して、音声/非音声判定部34が非音声区間と判定した場合、音入力オン/オフ制御部18は、オフにして音声信号を後段に出力しないようにする。
【0057】
このように、音声信号処理装置10は、第1マイク1,2が受音した音声中の発話区間(音声区間)を検出することができる。
例えば、第1マイク1,2と音声アプリケーションとの間にこのような音声信号処理装置10を備えることで、音声アプリケーションは、確実に発話区間についての処理を行うことができる。ここで、音声アプリケーションとしては、音声認識システム、放送システム、携帯電話及びトランシーバが挙げられる。例えば、音声アプリケーションが音声認識システムであるとすれば、音声認識システムは、音声信号処理装置10が出力する発話区間の音声信号に基づいて音声認識することができるようになる。
【0058】
次に効果を説明する。
前述したように、第1及び第2マイク1,2に入力された音信号間のクロススペクトルの位相を検出し、その検出したクロススペクトルの位相の周波数に対する傾きに基づいて、当該複数のマイクロホンが受音した音声信号中の発話区間を検出している。すなわち、音声が入力(発話入力)されていない音声信号と音声が入力(発話入力)されている音声信号とをクロススペクトルでみた場合に、そのクロススペクトルの位相成分に大きな違いがあることを利用して、当該複数のマイクロホンが受音した音声信号中の発話区間を検出している。
【0059】
具体的には、クロススペクトルの位相を帯域分割(セグメント分割)し、帯域毎(セグメント毎)の位相の傾きからヒストグラムを生成し、そのヒストグラムから頻度(具体的には最頻値)を得て、その頻度に基づいて、発話区間を検出している。
これにより、精度よく発話区間を検出することができる。そして、このように音声信号処理装置10が検出した発話区間の音声信号を利用することにより、音声認識システムでは、高認識率、低誤認識率の音声認識が可能になり、また、携帯電話やトランシーバでは、信頼性の高いハンズフリー半二重通信が可能になり、放送システムでは、通信システムの送信電力低減が可能になる。
また、マイクの取り付け位置等の環境の変化や、話者の移動や姿勢の変化等の音源の移動に対しても、ロバストな音声入力を実現することができる。
【0060】
前述したように、クロススペクトルの位相の周波数に対する傾きは、音源と第1マイク1までの距離と音源と第2マイク2までの距離との差に対応して変化する値になっている。これにより、例えば、音源に対する第1及び第2マイク1,2の取り付け位置を変更した場合、クロススペクトルの位相の周波数に対する傾きはその位置の変更に対応して変化するようになる。その一方で、前述したように、クロススペクトルの位相を帯域分割(セグメント分割)し、帯域毎(セグメント毎)の位相の傾きからヒストグラムを生成し、そのヒストグラムから頻度(具体的には最頻度)を得て、その頻度に基づいて、発話区間を検出している。すなわち、クロススペクトルの位相の傾きの大きさ自体に拠ることなく、つまり、音源とマイク1,2との間の距離に左右されることなく、最終的に、発話区間の検出を行っている。よって、音源に対する第1及び第2マイク1,2の取り付け位置を変更した場合でも、発話区間の検出結果への影響はない。
【0061】
このようなことから、マイクの取り付け位置等の環境の変化や、話者の移動や姿勢の変化等の音源の移動に対しても、ロバストな音声入力を実現することができる。すなわち、マイクの位置の自由度を高くしつつ、ロバストな音声入力を実現することができる。
以上のように、小型・軽量で脱着が容易であり、接話マイクとほぼ同等の近距離音声を確保することができ、接話マイクヘッドセットに比べ、装着時のユーザの負担や不快感を軽減できる装着型マイクを用いることを前提としつつも、前述した種々の効果を得ることができる。
【0062】
(実施例(第1の実施の形態))
本発明を適用したシステムにより音声の発話区間の検出を行った。各文章間に1秒程度の無発話区間を含む合計40文をサンプルの使用音声とした。実験環境は、防音室内、自動車内、オフィススペース内及び歩道上といった環境とした。評価方法は、(1)無音声区間フレームを音声区間フレームであると誤判別した場合、(2)発話区間の始端・終端において、発話区間を無発話区間であると誤判別した場合、このような(1)や(2)に該当する場合のフレームをエラーフレームとした。また、比較対象(従来例)として、平均ゼロ交差回数と対数パワーとを変数としたフィッシャーの線形判別関数による手法を用いた。
【0063】
図7は、その結果を示す。この図7は、総フレームに対するエラーフレームの割合の百分率(発話区間誤検出率)を示す。図7中、LDFの値は、前記線形判別関数による手法の値であり、CRSの値はクロススペクトルを用いた手法(本発明)の値である。
この図7に示すように、防音室内やオフィススペース内においては、発話区間誤検出率の結果に、平均ゼロ交差回数と対数パワーによる方法と本発明による手法とで大きな差はみられない。しかし、自動車内や歩道では、発話区間誤検出率の結果が本発明による手法により改善される結果を示すようになった。このように、本発明は、特に雑音環境下において有効に作用する。
【0064】
次に第2の実施の形態を説明する。
図8は、この第2の実施の形態の音声信号処理装置10の構成を示す。この第2の実施の形態では、第1マイク1と第2マイク2とで受音した音声信号を合成して後段の音声アプリケーションに出力する構成になっている。このため、この第2の実施の形態では、遅延処理部51と波形合成部52とを備え、遅延処理部51で第2マイク2からの音声信号を遅延させて波形合成部52に出力して、波形合成部52で、遅延処理部51で遅延されて入力された第2マイク2の音声信号と第1マイク1からの音声信号とを合成して出力している。
【0065】
第1マイク1と第2マイク2といった複数のマイクで受音した音声信号間には、音源か
ら各マイク1,2までの距離の違いに起因する位相差が生じる。このようなことから、第1マイク1と第2マイク2といった複数のマイクで受音した音声信号を合成しようとする場合には、音源から各マイク1,2までの音声信号の到達時間差を補正し、位相を同相化したのちに音声信号を加算する、という遅延和処理が必要になる。このようなことから、前述したように、第2の実施の形態では、遅延処理部51と波形合成部52とを備えている。
【0066】
そして、前述の第1の実施の形態では(図6参照)では、最頻値計算部33Cがヒストグラムから最頻傾きτ0を算出しているが、第2の実施の形態では、そのような最頻傾きτ0に基づいて、遅延処理部51で遅延処理しているのである。以下に具体的に説明する。
前記図3や図4中(A)に示すように音声区間ではクロススペクトルの位相成分が一定の傾きを有するが、この傾きは、第1マイク1と第2マイク2とのチャネル間の遅延時間を示すものとなる。
【0067】
このような関係を利用して、遅延処理部51では、ヒストグラム等計算部33が算出した前記最頻傾きτ0に基づいて、遅延処理している。具体的には、図6に示すように、最頻値計算部33Cから遅延処理部51に最頻傾きτ0が出力されており、遅延処理部51は、入力されたこの最頻傾きτ0に基づいて遅延処理している。
τ0=x/n=2π・n0/N [rad/point] ・・・(5)
ここで、x,nの単位はそれぞれラジアン、周波数ポイント(point)であり、Nは、
FFTポイント数であり、n0は遅延サンプリングポイント数である。
【0068】
この関係から、下記(6)式として、最頻傾きτ0を変数とした遅延サンプリングポイント数n0を得ることができる。
n0=τ0/(2π/N) [point] ・・・(6)
【0069】
そして、この遅延サンプリングポイント数n0を用いて、下記(7)式により、遅延時
間t0を得ることができる。
t0=n0/Fs ・・・(7)
ここで、Fsは、サンプリング周波数であり、例えば16kHzである。
【0070】
遅延処理部51では、このようにして得た遅延時間t0に基づいて、入力される第2マ
イク2の音声信号を遅延して、波形合成部52に出力する。
波形合成部52は、遅延処理部51で遅延されて入力された第2マイク2の音声信号と第1マイク1からの音声信号とを合成して出力する。
なお、音声信号の合成信号を次のようにして得ることもできる。
【0071】
前述したように、周波数関数X2に遅延項ejωt0をかけたX2(ω)ejωt0は、周波数関数X1と同相化され、 これにより、X1(ω)+X2(ω)ejωt0の逆フーリエ変換を
チャネル同期加算音声として扱うことができる。この関係を利用して、音声信号の合成信号を得る。
すなわち、先ず遅延時間t0を用いることで、下記(8)式により、周波数軸上でチャ
ネル同期加算音声X1(ω)+X2(ω)ejωt0を得る。ここで、遅延時間t0は、前記(6)式及び(7)式に示すように最頻傾きτ0を変数とする値である。
【0072】
X1(ω)+X2(ω)ejωt0={Re[X1(ω)]+jIm[X1(ω)]}+{Re[X2(ω)](cosωt0+jsinωt0)+jIm[X2(ω)](cosωt0+jsinωt0)} ・・・(8)
ここで、チャンネル同期音声スペクトルは、実部、虚部にそれぞれ
Re:Re[X2(ω)]cosωt0−Im[X2(ω)]sinωt0+Re[X1(ω)]
Im:Re[X2(ω)]sinωt0+Im[X2(ω)]cosωt0+Re[X1(ω)]
を持つ複素スペクトルになる。この処理をフレーム毎に施し、それぞれのフレーム毎にIFFT(インバースFFT)をし、同期加算音声のフレーム列を得る。
【0073】
そして、そのようにして得たフレーム列にオーバーラップアッド法(Overlap-add method)を適用して同期加算音声、すなわち第1マイク1の音声信号と第2マイク2の音声信号との合成信号を得る。
ここで、オーバーラップアッド法とは、図9に示すように、入力データ列sn(t)を重
ね合わせながら加算する方法である。ここで、 sn(t)はn番目の合成音声波形フレーム
を示す。また、図中Lは定数である。
【0074】
以上のように音声信号処理装置10を構成することで、遅延処理部51が第2マイク2からの音声信号を遅延させて波形合成部52に出力して、波形合成部52が、遅延処理部51により遅延されて入力された第2マイク2からの音声信号と第1マイク1からの音声信号とを合成して出力する。
【0075】
これによる効果は次のようになる。
前述の第1の実施の形態で説明したように、クロススペクトルの位相の周波数に対する傾きは、音源と第1マイク1までの距離と音源と第2マイク2までの距離との差に対応して変化する値である。このようなクロススペクトルの位相の周波数に対する傾きから前記遅延時間を推定している。そして、実際に推定の際に用いる値を、最頻傾きτ0としている。このように最頻傾きτ0を用いて、遅延時間を推定しているので、精度を高くして遅延時間の推定を行うことができる。
【0076】
そして、このような遅延時間に基づいて、第1マイクと第2マイクとの音声信号を合成することで、高品質の合成音声信号を提供することができる。例えば、このような合成音声信号を利用した場合、音声認識システムでは、高認識率、低誤認識率の音声認識が可能になり、また、携帯電話やトランシーバでは、高品質の音声による通話が可能になり、放送システムでは、高品質の放送や録音が可能になる。
【0077】
また、遅延時間を推定に用いる前記傾きを、最頻傾きτ0とした結果、前述の第1の実施の形態と同様に、マイクの取り付け位置等の環境の変化や、話者の移動や姿勢の変化等の音源の移動に対しても、ロバストな音声入力を実現することができる。すなわち、マイクの位置の自由度を高くしつつ、ロバストな音声入力を実現することができる。
以上のように、小型・軽量で脱着が容易であり、接話マイクとほぼ同等の近距離音声を確保することができ、接話マイクヘッドセットに比べ、装着時のユーザの負担や不快感を軽減できる装着型マイクを用いることを前提としつつも、前述した種々の効果を得ることができる。
【0078】
(実施例(第2の実施の形態))
本発明を適用したシステムにより生成した同期加算音声(合成音声信号)を用いて、音響モデルによる音声認識の実験をした。
音響モデルによる音声認識実験では、先ず、同期加算音声による学習データにより、音響モデルを作成した。作成した音響モデルは次のようになる。
(1)収録環境毎に作成した4種類の収録環境依存型HMM(hidden Markov model)
(2)すべて環境の収録音声により学習した収録環境非依存型HMM
ここで、前記収録環境とは、前記防音室内、自動車内、オフィススペース内及び歩道上である。
【0079】
そして、作成した音響モデルを用いて、音声認識実験を行った。
認識タスクは連続音声認識であり、評価用データ(評価用音声)は学習時と異なる音声としている。図10は、その音声認識実験で得た認識率の結果を示す。ここで、比較対象(従来例)として、第1マイク1と第2マイク2とからの単チャンネル音声による認識率の結果も示す。例えば、第1マイク1は眼鏡マイクであり、第2マイク2は胸元マイクである。ここで、眼鏡マイクとは、眼鏡のフレームに装着したマイクである。
【0080】
この図10に示すように、車内以外の、 防音室内、歩道上及びすべての環境で、本発
明により得た同期加算音声による認識率が、単チャネル音声の認識率を上回る結果となっている。これにより、実環境においても、本発明を適用したシステムが生成した同期加算音声が高品質であることがわかる。
【0081】
次に第3の実施の形態を説明する。
図11は、この第3の実施の形態の音声信号処理装置10の構成を示す。この第2の実施の形態の音声信号処理装置10は、前述の第1の実施の形態の音声信号処理装置10の構成と、第2の実施の形態の音声信号処理装置10の構成とを組み合わせた構成になっている。すなわち、第3の実施の形態の音声信号処理装置10は、音声/非音声判定部34、遅延処理部51、波形合成部52及び音声入力オン/オフ制御部18を同時に備えている。
【0082】
このように構成することで、第3の実施の形態の音声信号処理装置10は以下のように動作する。なお、特に言及しない部分については、前述の第1の実施の形態の音声信号処理装置10や第2の実施の形態の音声信号処理装置10と同様に動作するものとする。
遅延処理部51が、ヒストグラム等計算部33(最頻値計算部33C)が算出した最頻傾きτ0に基づいて、第2マイク2の音声信号を遅延し、波形合成部52が、遅延処理部51で遅延されて入力された第2マイク2からの音声信号と第1マイク1からの音声信号とを合成して、合成音声信号を音入力オン/オフ制御部18に出力する。
【0083】
一方、音声/非音声判定部34が、ヒストグラム等計算部33が得た頻度に基づいて、音声区間と非音声区間とを判定し、音入力オン/オフ制御部18では、その判定結果に基づいて、波形合成部52から出力される音声信号(同期加算音声信号)の出力をオン又はオフする。
このように構成することで、第3の実施の形態の音声信号処理装置10は、前述の第1の実施の形態の音声信号処理装置10が有する効果と、第2の実施の形態の音声信号処理装置10が有する効果とを発揮することができる。
【0084】
すなわち、高品質の合成音声信号を生成するとともに、その合成音声信号中の発話区間を精度よく検出することができる。さらに、マイクの取り付け位置等の環境の変化や、話者の移動や姿勢の変化等の音源の移動に対しても、ロバストな音声入力を実現することができる。すなわち、マイクの位置の自由度を高くしつつ、ロバストな音声入力を実現することができる。
【0085】
以上、本発明の実施の形態について説明した。しかし、本発明は、前述の実施の形態として実現されることに限定されるものではない。
例えば、図12に示すように、前記音声/非音声判定部34が、第1乃至第N傾き計算部321〜32Nが算出した前記傾きτiと最頻傾きτ0とを下記(9)式により比較する。
|τi−τ0|<ασ ・・・(9)
【0086】
ここで、αは係数であり、σは前記判定用の閾値(傾き閾値)δに物理的に内包される
値である。例えば、 δとασとを用意した意味は、δを固定値とし、 ασをリアルタイム学習により随時更新する変数とし、これにより、各値による音声区間の検出の効果の違いを区別するためである。
【0087】
ασのσを更新することで、 静粛な環境では、音声区間判定条件を厳しくし、より非
音声区間の誤判定を防止することができる。すなわち、バックグランドノイズのある環境では判定条件を甘くすることで、音声区間を安定して検出することが可能になる。仮に、バックグランドノイズのある環境にもかかわらず静粛環境のσを用いてしまうと、この場合固定値のδを用いることと等価となるが、この場合には、ノイズと音声とが重なっているようなとき、音声区間が棄却されてしまうおそれがある。
【0088】
すなわち、固定値としてのδは、その値を設定した条件に近い環境での音声区間を検出に用いるときに当該音声区間の検出に有効に作用し、変数であるασは、環境の変化に対し動的に対応するシステムに用いるときに音声区間の検出に有効に作用する。
また、係数αを変更することでも、判定を厳しくしたり、甘くしたりすることもできる。
【0089】
また、前述の実施の形態では、前記帯域毎の傾きをヒストグラム化することで、帯域毎のそれぞれの傾きが特定の傾きに集中する傾向をみている。しかし、他の手法により、帯域毎のそれぞれの傾きが特定の傾きに集中する傾向をみるようにしてもよい。
また、前述の実施形態では、検出対象音が人間が発する発話音である場合を説明したが、検出対象音は、人間以外の物体が発する音でもよい。
【0090】
また、前述の実施の形態の説明において、第1及び第2フレーム化部11,12、第1及び第2周波数分析部13,14及びクロススペクトル計算部15が、複数のマイクロホンに入力された音信号間のクロススペクトルの位相を検出するクロススペクトル位相検出手段を実現しており、位相抽出部16、位相unwrap処理部17、周波数帯域分割部31及び第1乃至第N傾き計算部321〜32Nが、前記クロススペクトル位相検出手段が検出したクロススペクトルの位相の周波数に対する傾きを検出する傾き検出手段を実現しており、ヒストグラム等計算部33及び音声/非音声判定部34が、前記傾き検出手段が検出した前記周波数に対する傾きに基づいて、当該複数のマイクロホンが受音した発話音の発話区間を検出する発話音検出手段を実現している。
【0091】
また、ヒストグラム等計算部33及び遅延処理部51が、前記傾き検出手段が検出した前記周波数に対する傾きに基づいて、前記複数のマイクロホン間での受音の遅延時間を検出する遅延時間検出手段を実現しており、波形合成部52が、前記遅延時間検出手段が検出した遅延時間に基づいて、前記複数のマイクロホンに入力された音信号同士を合成する音信号合成手段を実現している。
【0092】
また、前述の実施形態の音声信号処理装置10を音声認識装置に適用することができる。この場合、音声認識装置は、前述したような音声信号処理装置10の構成に加えて、音声信号処理装置10が検出した発話区間の音声信号(発話音)について音声認識処理をする音声認識処理手段を備える。
ここで、音声認識技術としては、例えば、旭化成株式会社が提供する音声認識技術「VORERO」(商標)(http://www.asahi-kasei.co.jp/vorero/jp/vorero/feature.html参照)等があり、このような音声認識技術の用いた音声認識装置に適用することもできる。
【0093】
また、前述の実施形態の音声信号処理装置10をコンピュータで実現することができる。そして、前述したような音声信号処理装置10の処理内容をコンピュータが所定のプログラムにより実現する。この場合、プログラムは、検出対象音源から出力された検出対象音が複数のマイクロホンに入力されており、前記複数のマイクロホンに入力された音信号間のクロススペクトルの位相を検出し、前記検出対象音源と前記複数のマイクロホンとの間のそれぞれの距離に起因して発生する前記クロススペクトルの位相の周波数に対する傾きを検出し、その傾きに基づいて、当該複数のマイクロホンが受音した前記検出対象音源から出力された検出対象音を検出する処理をコンピュータに実行させるプログラムになる。又は、プログラムは、音源から出力された音が複数のマイクロホンに入力されており、前記複数のマイクロホンに入力された音信号間のクロススペクトルの位相を検出し、前記音源と前記複数のマイクロホンとの間のそれぞれの距離に起因して発生する前記クロススペクトルの位相の周波数に対する傾きを検出し、その傾きに基づいて、前記複数のマイクロホン間での前記音源からの受音の遅延時間を検出する処理をコンピュータに実行させるプログラムになる。
【図面の簡単な説明】
【0094】
【図1】本発明の実施の形態の音声信号処理装置を含むシステム全体の構成を示すブロック図である。
【図2】本発明の第1の実施の形態の音声信号処理装置の構成を示すブロック図である。
【図3】各環境のクロススペクトルの位相を示す特性図である。
【図4】クロススペクトルの位相を示す特性図であり、(A)は、音声区間フレームのクロススペクトルの位相を示す特性図であり、(B)は、非音声区間フレームのクロススペクトルの位相を示す特性図である。
【図5】クロススペクトルの位相に基づいて得たヒストグラムを示す特性図であり、(A)は、音声区間フレームのヒストグラムを示す特性図であり、(B)は、非音声区間フレームのヒストグラムを示す特性図である。
【図6】音声信号処理装置のヒストグラム等計算部などの構成を示すブロック図である。
【図7】第1の実施の形態の音声信号処理装置の効果の説明に用いた特性図である。
【図8】本発明の第2の実施の形態の音声信号処理装置の構成を示すブロック図である。
【図9】合成信号を生成するためのオーバーラップアッド法の説明に用いた図である。
【図10】第2の実施の形態の音声信号処理装置の効果の説明に用いた特性図である。
【図11】本発明の第3の実施の形態の音声信号処理装置の構成を示すブロック図である。
【図12】音声信号処理装置の音声/非音声判定部の他の構成を示すブロック図である。
【符号の説明】
【0095】
1,2 マイク、10 音声信号処理装置、11,12 フレーム化部、13,14 周波数分析部、15 クロススペクトル計算部、16 位相抽出処理部、17 位相unwrap処理部、18 音入力オン/オフ制御部、30 主計算部、31 周波数大域分割部、321〜32N 傾き計算部、33 ヒストグラム等計算部、33C 最頻値計算部、33S1,33S2 スイッチ、34 音声/非音声判定部、51 遅延処理部、52 波形合成部
Claims (9)
- 検出対象音源から出力された検出対象音が複数のマイクロホンに入力されており、前記複数のマイクロホンに入力された音信号間のクロススペクトルの位相を検出し、前記検出対象音源と前記複数のマイクロホンとの間のそれぞれの距離に起因して発生する前記クロススペクトルの位相の周波数に対する傾きを検出し、その傾きに基づいて、当該複数のマイクロホンが受音した前記検出対象音を検出しており、
前記クロススペクトルの位相の周波数を帯域分割し、その分割した帯域毎の周波数それぞれに対する傾きを検出し、その検出した帯域毎の周波数それぞれに対する傾きが特定の傾きに集中する傾向が強くなったときに、当該複数のマイクロホンが受音した前記検出対象音を検出することを特徴とする対象音検出方法。 - 複数のマイクロホンに入力された音信号を所定時間ごとに区切り、各区間の音信号毎に前記クロススペクトルの位相を検出していることを特徴とする請求項1に記載の対象音検出方法。
- 音源から出力された音が複数のマイクロホンに入力されており、前記複数のマイクロホンに入力された音信号間のクロススペクトルの位相を検出し、前記音源と前記複数のマイクロホンとの間のそれぞれの距離に起因して発生する前記クロススペクトルの位相の周波数に対する傾きを検出し、その傾きに基づいて、前記複数のマイクロホン間での前記音源からの受音の遅延時間を検出しており、
前記クロススペクトルの位相の周波数を帯域分割し、その分割した帯域毎の周波数それぞれに対する傾きを検出し、その検出した帯域毎の周波数それぞれに対する傾きが特定の傾きに集中する傾向が強くなったときに、前記複数のマイクロホン間での前記音源からの受音の遅延時間を検出することを特徴とする信号入力遅延時間検出方法。 - 複数のマイクロホンに入力された音信号を所定時間ごとに区切り、各区間の音信号毎に前記クロススペクトルの位相を検出していることを特徴とする請求項3に記載の信号入力遅延時間検出方法。
- 複数のマイクロホンに入力された音信号間のクロススペクトルの位相
を検出するクロススペクトル位相検出手段と、
前記クロススペクトル位相検出手段が検出したクロススペクトルの位相の周波数に対する傾きを検出する傾き検出手段と、
前記傾き検出手段が検出した前記周波数に対する傾きに基づいて、前記複数のマイクロホンが受音した検出対象音源から出力された検出対象音を検出する対象音検出手段と、
を備え、
前記傾き検出手段は、前記クロススペクトル位相検出手段が検出したクロススペクトルの位相の周波数を帯域分割し、その分割した帯域毎の周波数それぞれに対する傾きを検出し、前記対象音検出手段は、前記傾き検出手段が検出した帯域毎の周波数それぞれに対する傾きが特定の傾きに集中する傾向が強くなったときに、前記複数のマイクロホンが受音した検出対象音源から出力された検出対象音を検出することを特徴とする音信号処理装置。 - 音源から出力された音が複数のマイクロホンに入力され、前記複数のマイクロホンに入力された音を処理する音信号処理装置において、
前記複数のマイクロホンに入力された音信号間のクロススペクトルの位相を検出するクロススペクトル位相検出手段と、
前記クロススペクトル位相検出手段が検出したクロススペクトルの位相の周波数に対する傾きを検出する傾き検出手段と、
前記傾き検出手段が検出した前記周波数に対する傾きに基づいて、前記複数のマイクロホン間での前記音源からの受音の遅延時間を検出する遅延時間検出手段と、
前記遅延時間検出手段が検出した遅延時間に基づいて、前記複数のマイクロホンに入力された音信号同士を合成する音信号合成手段と、
を備え、
前記傾き検出手段は、前記クロススペクトル位相検出手段が検出したクロススペクトル の位相の周波数を帯域分割し、その分割した帯域毎の周波数それぞれに対する傾きを検出し、前記遅延時間検出手段は、前記傾き検出手段が検出した帯域毎の周波数それぞれに対する傾きが特定の傾きに集中する傾向が強くなったときに、前記複数のマイクロホン間での前記音源からの受音の遅延時間を検出することを特徴とする音信号処理装置。 - 検出対象音源から出力された検出対象音が複数のマイクロホンに入力され、前記複数のマイクロホンに入力された検出対象音を処理する音信号処理装置において、
前記複数のマイクロホンに入力された音信号間のクロススペクトルの位相を検出するクロススペクトル位相検出手段と、
前記クロススペクトル位相検出手段が検出したクロススペクトルの位相の周波数に対する傾きを検出する傾き検出手段と、
前記傾き検出手段が検出した前記周波数に対する傾きに基づいて、前記複数のマイクロホン間での前記検出対象音源からの受音の遅延時間を検出する遅延時間検出手段と、
前記遅延時間検出手段が検出した遅延時間に基づいて、前記複数のマイクロホンに入力された音信号同士を合成する音信号合成手段と、
前記傾き検出手段が検出した前記周波数に対する傾きに基づいて、前記音信号合成手段が合成した合成音信号中の前記検出対象音を検出する対象音検出手段と、
を備え、
前記傾き検出手段は、前記クロススペクトル位相検出手段が検出したクロススペクトルの位相の周波数を帯域分割し、その分割した帯域毎の周波数それぞれに対する傾きを検出し、前記遅延時間検出手段は、前記傾き検出手段が検出した帯域毎の周波数それぞれに対する傾きが特定の傾きに集中する傾向が強くなったときに、前記複数のマイクロホン間での前記検出対象音源からの受音の遅延時間を検出し、前記対象音検出手段は、前記傾き検出手段が検出した帯域毎の周波数それぞれに対する傾きが特定の傾きに集中する傾向が強くなったときに、前記音信号合成手段が合成した合成音信号中の前記検出対象音を検出することを特徴とする音信号処理装置。 - 発話源から出力された発話音が複数のマイクロホンに入力され、前記複数のマイクロホンに入力された発話音を処理する音声認識装置において、
前記複数のマイクロホンに入力された音信号間のクロススペクトルの位相を検出するクロススペクトル位相検出手段と、
前記クロススペクトル位相検出手段が検出したクロススペクトルの位相の周波数に対する傾きを検出する傾き検出手段と、
前記傾き検出手段が検出した前記周波数に対する傾きに基づいて、前記複数のマイクロホンが受音した前記発話音を検出する発話音検出手段と、
前記発話音検出手段が検出した前記発話音について、音声認識処理を行う音声認識処理手段と、
を備え、
前記傾き検出手段は、前記クロススペクトル位相検出手段が検出したクロススペクトルの位相の周波数を帯域分割し、その分割した帯域毎の周波数それぞれに対する傾きを検出し、前記発話音検出手段は、前記傾き検出手段が検出した帯域毎の周波数それぞれに対する傾きが特定の傾きに集中する傾向が強くなったときに、前記複数のマイクロホンが受音した前記発話音を検出することを特徴とする音声認識装置。 - 発話源から出力された発話音が複数のマイクロホンに入力され、前記複数のマイクロホンに入力された発話音を処理する音声認識装置において、
前記複数のマイクロホンに入力された音信号間のクロススペクトルの位相を検出するクロススペクトル位相検出手段と、
前記クロススペクトル位相検出手段が検出したクロススペクトルの位相の周波数に対する傾きを検出する傾き検出手段と、
前記傾き検出手段が検出した前記周波数に対する傾きに基づいて、前記複数のマイクロホン間での前記発話源からの受音の遅延時間を検出する遅延時間検出手段と、
前記遅延時間検出手段が検出した遅延時間に基づいて、前記複数のマイクロホンに入力された音信号同士を合成する音信号合成手段と、
前記傾き検出手段が検出した前記周波数に対する傾きに基づいて、前記音信号合成手段が合成した合成音信号中の前記発話音を検出する発話音検出手段と、
前記発話音検出手段が検出した前記発話音について、音声認識処理を行う音声認識処理手段と、
を備え、
前記傾き検出手段は、前記クロススペクトル位相検出手段が検出したクロススペクトルの位相の周波数を帯域分割し、その分割した帯域毎の周波数それぞれに対する傾きを検出し、前記遅延時間検出手段は、前記傾き検出手段が検出した帯域毎の周波数それぞれに対する傾きが特定の傾きに集中する傾向が強くなったときに、前記複数のマイクロホン間での前記発話源からの受音の遅延時間を検出し、前記発話音検出手段は、前記傾き検出手段が検出した帯域毎の周波数それぞれに対する傾きが特定の傾きに集中する傾向が強くなったときに、前記音信号合成手段が合成した合成音信号中の前記発話音を検出することを特徴とする音声認識装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003072451 | 2003-03-17 | ||
JP2003072451 | 2003-03-17 | ||
PCT/JP2004/003524 WO2004084187A1 (ja) | 2003-03-17 | 2004-03-17 | 対象音検出方法、信号入力遅延時間検出方法及び音信号処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2004084187A1 JPWO2004084187A1 (ja) | 2006-06-29 |
JP3925734B2 true JP3925734B2 (ja) | 2007-06-06 |
Family
ID=33027720
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005504296A Expired - Fee Related JP3925734B2 (ja) | 2003-03-17 | 2004-03-17 | 対象音検出方法、信号入力遅延時間検出方法及び音信号処理装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20080120100A1 (ja) |
JP (1) | JP3925734B2 (ja) |
WO (1) | WO2004084187A1 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1686561B1 (en) * | 2005-01-28 | 2012-01-04 | Honda Research Institute Europe GmbH | Determination of a common fundamental frequency of harmonic signals |
JP4910568B2 (ja) * | 2006-08-25 | 2012-04-04 | 株式会社日立製作所 | 紙擦れ音除去装置 |
JP4907494B2 (ja) * | 2007-11-06 | 2012-03-28 | 日本電信電話株式会社 | 位相自動補正機能付き複数チャンネル音声転送システム、方法、プログラム、および位相ずれ自動調整方法 |
US8249867B2 (en) * | 2007-12-11 | 2012-08-21 | Electronics And Telecommunications Research Institute | Microphone array based speech recognition system and target speech extracting method of the system |
WO2009150894A1 (ja) * | 2008-06-10 | 2009-12-17 | 日本電気株式会社 | 音声認識システム、音声認識方法および音声認識用プログラムが格納された記憶媒体 |
WO2010070839A1 (ja) * | 2008-12-17 | 2010-06-24 | 日本電気株式会社 | 音声検出装置、音声検出プログラムおよびパラメータ調整方法 |
JP2011033717A (ja) * | 2009-07-30 | 2011-02-17 | Secom Co Ltd | 雑音抑圧装置 |
FR2950461B1 (fr) * | 2009-09-22 | 2011-10-21 | Parrot | Procede de filtrage optimise des bruits non stationnaires captes par un dispositif audio multi-microphone, notamment un dispositif telephonique "mains libres" pour vehicule automobile |
FR2976710B1 (fr) * | 2011-06-20 | 2013-07-05 | Parrot | Procede de debruitage pour equipement audio multi-microphones, notamment pour un systeme de telephonie "mains libres" |
US8818800B2 (en) * | 2011-07-29 | 2014-08-26 | 2236008 Ontario Inc. | Off-axis audio suppressions in an automobile cabin |
JP2013104938A (ja) * | 2011-11-11 | 2013-05-30 | Sony Corp | 情報処理装置、および情報処理方法、並びにプログラム |
KR101381469B1 (ko) * | 2013-08-21 | 2014-04-04 | 한국원자력연구원 | 매설배관 누설 탐지용 상호상관함수기법의 정확도 향상을 위한 기계 잡음 제거 방법 |
CN105976829B (zh) * | 2015-03-10 | 2021-08-20 | 松下知识产权经营株式会社 | 声音处理装置、声音处理方法 |
CN111226278B (zh) * | 2017-08-17 | 2023-08-25 | 塞伦妮经营公司 | 低复杂度的浊音语音检测和基音估计 |
JP7400364B2 (ja) * | 2019-11-08 | 2023-12-19 | 株式会社リコー | 音声認識システム及び情報処理方法 |
US20220406310A1 (en) * | 2021-06-18 | 2022-12-22 | The Boeing Company | Speech detection using image classification |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS51132803A (en) * | 1975-04-17 | 1976-11-18 | Nippon Hoso Kyokai <Nhk> | Sound field expander |
US5172597A (en) * | 1990-11-14 | 1992-12-22 | General Electric Company | Method and application for measuring sound power emitted by a source in a background of ambient noise |
IT1257164B (it) * | 1992-10-23 | 1996-01-05 | Ist Trentino Di Cultura | Procedimento per la localizzazione di un parlatore e l'acquisizione diun messaggio vocale, e relativo sistema. |
JPH09196900A (ja) * | 1996-01-19 | 1997-07-31 | Hitachi Ltd | 表面層特性の測定方法および装置 |
US6130949A (en) * | 1996-09-18 | 2000-10-10 | Nippon Telegraph And Telephone Corporation | Method and apparatus for separation of source, program recorded medium therefor, method and apparatus for detection of sound source zone, and program recorded medium therefor |
US6618073B1 (en) * | 1998-11-06 | 2003-09-09 | Vtel Corporation | Apparatus and method for avoiding invalid camera positioning in a video conference |
US6469732B1 (en) * | 1998-11-06 | 2002-10-22 | Vtel Corporation | Acoustic source location using a microphone array |
JP3195920B2 (ja) * | 1999-06-11 | 2001-08-06 | 科学技術振興事業団 | 音源同定・分離装置及びその方法 |
JP3999689B2 (ja) * | 2003-03-17 | 2007-10-31 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 音源位置取得システム、音源位置取得方法、該音源位置取得システムに使用するための音反射要素および該音反射要素の形成方法 |
-
2004
- 2004-03-17 WO PCT/JP2004/003524 patent/WO2004084187A1/ja active Application Filing
- 2004-03-17 US US10/509,520 patent/US20080120100A1/en not_active Abandoned
- 2004-03-17 JP JP2005504296A patent/JP3925734B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPWO2004084187A1 (ja) | 2006-06-29 |
WO2004084187A1 (ja) | 2004-09-30 |
US20080120100A1 (en) | 2008-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Parchami et al. | Recent developments in speech enhancement in the short-time Fourier transform domain | |
JP3925734B2 (ja) | 対象音検出方法、信号入力遅延時間検出方法及び音信号処理装置 | |
CN110556103B (zh) | 音频信号处理方法、装置、***、设备和存储介质 | |
US8724829B2 (en) | Systems, methods, apparatus, and computer-readable media for coherence detection | |
CN102461203B (zh) | 用于对多信道信号进行基于相位的处理的***、方法及设备 | |
US9165567B2 (en) | Systems, methods, and apparatus for speech feature detection | |
US8897455B2 (en) | Microphone array subset selection for robust noise reduction | |
US8326611B2 (en) | Acoustic voice activity detection (AVAD) for electronic systems | |
CN106663445A (zh) | 声音处理装置、声音处理方法及程序 | |
US20140126743A1 (en) | Acoustic voice activity detection (avad) for electronic systems | |
CN112424863A (zh) | 语音感知音频***及方法 | |
WO2022027423A1 (zh) | 一种融合骨振动传感器和双麦克风信号的深度学习降噪方法及*** | |
WO2015125567A1 (ja) | 音信号処理装置、および音信号処理方法、並びにプログラム | |
JP2023159381A (ja) | 音声認識オーディオシステムおよび方法 | |
TW202147862A (zh) | 強烈雜訊干擾存在下穩健的揚聲器定位系統與方法 | |
US11627413B2 (en) | Acoustic voice activity detection (AVAD) for electronic systems | |
Han et al. | Robust GSC-based speech enhancement for human machine interface | |
JP2005227512A (ja) | 音信号処理方法及びその装置、音声認識装置並びにプログラム | |
Oh et al. | Improvement of speech detection using ERB feature extraction | |
Ichikawa et al. | DOA estimation with local-peak-weighted CSP | |
Delcroix et al. | Multichannel speech enhancement approaches to DNN-based far-field speech recognition | |
Wang et al. | A reverberation robust target speech detection method using dual-microphone in distant-talking scene | |
Potamitis et al. | Speech activity detection and enhancement of a moving speaker based on the wideband generalized likelihood ratio and microphone arrays | |
US11741934B1 (en) | Reference free acoustic echo cancellation | |
Stolbov et al. | Dual-microphone speech enhancement system attenuating both coherent and diffuse background noise |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070221 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3925734 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100309 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110309 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110309 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110309 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110309 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120309 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120309 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130309 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130309 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140309 Year of fee payment: 7 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |