JP2003337594A - 音声認識装置、その音声認識方法及びプログラム - Google Patents

音声認識装置、その音声認識方法及びプログラム

Info

Publication number
JP2003337594A
JP2003337594A JP2002272318A JP2002272318A JP2003337594A JP 2003337594 A JP2003337594 A JP 2003337594A JP 2002272318 A JP2002272318 A JP 2002272318A JP 2002272318 A JP2002272318 A JP 2002272318A JP 2003337594 A JP2003337594 A JP 2003337594A
Authority
JP
Japan
Prior art keywords
voice
sound source
sound
memory
recorded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002272318A
Other languages
English (en)
Other versions
JP4195267B2 (ja
Inventor
Osamu Ichikawa
治 市川
Masafumi Nishimura
雅史 西村
Tetsuya Takiguchi
哲也 滝口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Priority to JP2002272318A priority Critical patent/JP4195267B2/ja
Priority to US10/386,726 priority patent/US7478041B2/en
Publication of JP2003337594A publication Critical patent/JP2003337594A/ja
Priority to US12/236,588 priority patent/US7720679B2/en
Application granted granted Critical
Publication of JP4195267B2 publication Critical patent/JP4195267B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • G10L21/028Voice signal separating using properties of sound source

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

(57)【要約】 【課題】 高精度の音声認識を実現するため、目的方向
音源以外の背景雑音を効率良く除去する方法及びこれを
用いたシステムを提供する。 【解決手段】 マイクロフォン・アレイの指向性を、想
定される種々の音源方向に向けて観測した角度別パワー
分布が、基準音を用いて事前に測定済みの目的音源方向
の基準角度別パワー分布および無指向性の背景音の基準
角度別パワー分布の係数倍の和で近似できることを用
い、雑音抑圧処理部において、目的音源方向の成分のみ
を抽出する。また、上記目的音源方向が不明の時に、音
源位置探索部において、種々の音源方向の基準角度別パ
ワー分布の中から、上記近似残差を最小にするものを選
択することにより、目的音源方向を推定する。さらに、
これらの処理を経た音源方向の成分の音声データと、こ
の音声データに対し所定のモデル化を行って得られる音
声モデルとを用いて最尤推定を行い、得られた推定値に
基づいて音声認識を行う。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、音声認識システム
に関し、特にマイクロフォン・アレイを用いて雑音除去
を行う方法に関する。
【0002】
【従来の技術】今日、音声認識プログラムの性能の向上
に伴い、多くの場面で音声認識が利用されるようになっ
てきた。しかし、話者にヘッドセットマイクなどの装着
を義務づけることなく、すなわちマイクと話者の間に距
離がある環境で、高精度の音声認識を実現しようとする
場合、背景雑音の除去は重要な課題となる。マイクロフ
ォン・アレイを用いて雑音除去を行う方法は、最も有効
な手段の一つと考えられている。図18は、マイクロフ
ォン・アレイを使用した従来の音声認識システムの構成
を概略的に示した図である。図18を参照すると、マイ
クロフォン・アレイを使用した音声認識システムは、音
声入力部181と、音源位置探索部182と、雑音抑圧
処理部183と、音声認識部184とを備える。
【0003】音声入力部181は、複数のマイクロフォ
ンで構成されたマイクロフォン・アレイである。音源位
置探索部182は、音声入力部181による入力に基づ
いて音源の方向(位置)を推定する。音源方向を推定す
る方式として最も良く行われるのは、遅延和法マイクロ
フォン・アレイの出力パワーを縦軸に、指向性を向ける
方向を横軸にとった角度別パワー分布の最大ピークを音
源の到来方向と推定する方式である。より鋭いピークを
得るためには、縦軸にMusic Powerという仮想的なパワ
ーを設定することもある。また、マイクロフォン本数が
3本以上の場合、音源の方向だけでなく距離も推定する
ことができる。
【0004】雑音抑圧処理部183は、音源位置探索部
182にて推定された音源の方向(位置)に基づいて、
入力した音に対して雑音抑圧を行い、音声を強調する。
雑音を抑圧する手法としては、通常、以下の手法のいず
れかが使用されることが多い。
【0005】〔遅延和法〕マイクロフォン・アレイにお
ける個々のマイクロフォンからの入力を、それぞれの遅
延量で遅延させてから和を取ることにより、目的方向か
ら到来する音声のみを同相化して強化する手法である。
この遅延量で、指向性を向ける方向が決まる。目的方向
以外から到来する音声は、位相がずれるために相対的に
弱められる。〔Griffiths Jim法〕遅延和法による出力
から、「雑音成分が主成分となる信号」を差し引く手法
である。マイクロフォンが2本の場合、この信号は、次
のようにして生成される。まず、目的音源に対して同相
化した信号の組の片側の位相を反転して足し合わせ、目
的音声成分をキャンセルする。そして、これを雑音区間
において、雑音が最小になるように適応フィルタを学習
させる。 〔遅延和法と2チャンネルのスペクトラムサブトラクシ
ョンとを併用する方法〕目的音源からの音声を主に出力
する主ビームフォーマの出力から、主に雑音成分を出力
する副ビーム・フォーマの出力を減算処理(Spectrum S
ubtraction)する手法である(例えば、非特許文献1、
2参照。)。 〔最小分散法〕方向性のある雑音源に対して、指向性の
死角を形成するように、フィルタ設計を行う手法である
(例えば、非特許文献3参照。)。
【0006】音声認識部184は、雑音抑圧処理部18
3にて雑音成分が極力除去された信号から音声特徴量を
作成し、かかる音声特徴量の時間履歴を、辞書と時間伸
張とを考慮してパターン照合することにより、音声認識
を行う。
【0007】
【非特許文献1】布田・永田・安倍、「2チャンネル音
声検出を用いた非定常雑音下の音声認識」、電子情報通
信学会技術研究報告SP2001-25
【非特許文献2】水町・赤木、「マイクロフォン対を用
いたスペクトラムサブトラクションによる雑音除去
法」、電子情報通信学会論文誌 A Vol. J82-A No. 4 pp
503-512, 1999
【非特許文献3】浅野・速水・山田・中村、「サブスペ
ース法を用いた音声強調法の音声認識への応用」、電子
情報通信学会技術研究報告 EA97-17
【非特許文献4】永田・安倍、「話者追尾2チャネルマ
イクロホンアレーに関する検討」、電子情報通信学会論
文誌 A Vol. J82-A No. 4 pp503-512, 1999
【0008】
【発明が解決しようとする課題】上述したように、音声
認識技術において、マイクと話者の間に距離がある環境
で、高精度の音声認識を実現しようとする場合、背景雑
音の除去は重要な課題となる。そして、マイクロフォン
・アレイを用いて音源方向を推定し、雑音除去を行う方
法は、最も有効な手段の一つと考えられている。しか
し、マイクロフォン・アレイで雑音抑圧性能を高めるた
めには、一般的には多数のマイクを必要とし、多チャン
ネル同時入力が可能な特殊ハードウェアを必要とする。
一方、少ないマイク数(例えば2チャンネル・ステレオ
入力)でマイクロフォン・アレイを構成すると、マイク
ロフォン・アレイが持つ指向性のビームは緩やかに広が
ったものとなり、目的音源方向に十分に絞ったものとは
ならないため、周囲から雑音が混入する割合が高い。
【0009】そのため、音声認識の性能を高めるために
は、混入する雑音成分を推定し減算するような何らかの
処理が必要となる。しかし、上記従来の雑音抑圧処理の
手法(遅延和法、最小分散法など)には、混入する雑音
成分を推定し、積極的に減算する機能はなかった。ま
た、遅延和法に2チャンネルのスペクトラムサブトラク
ションとを併用する方法は、雑音成分を推定してパワー
スペクトル減算を行うため、ある程度背景雑音を抑圧で
きるが、雑音自体は「点」で推定されるので、背景雑音
の推定精度は必ずしも高くなかった。
【0010】一方、マイクロフォン・アレイでマイク数
を少なくした場合に生じる(特に2チャンネル・ステレ
オ入力で顕著となる)問題として、雑音源の方向に対応
した特定の周波数で、雑音成分の推定精度が悪化するエ
イリアシングの問題がある。このエイリアシングの影響
を抑制する方策としては、マイクロフォン間隔を狭くす
る方法や、マイクロフォンを傾けて配置する方法が考え
られる(例えば、非特許文献4参照。)。
【0011】しかし、マイクロフォン間隔を狭くする
と、低周波数域を中心とした指向特性を劣化させ、ま
た、話者方向識別の精度を低下させてしまう。このた
め、2チャンネル・スペクトラムサブトラクションなど
のビームフォーマにおいては、マイクロフォン間隔をあ
る程度以上に狭くすることができず、エイリアシングの
影響を抑制する能力にも限界がある。マイクロフォンを
傾けて配置する方法は、2本のマイクロフォンにおい
て、斜め方向から到来する音波に感度の差を設けること
によって、正面から来る音波とはゲインバランスの異な
る音波となるようにすることができる。しかし、通常の
マイクロフォンでは感度の差はわずかであるため、この
方法でも、エイリアシングの影響を抑制する能力には限
界がある。
【0012】そこで本発明は、高精度の音声認識を実現
するため、目的方向音源以外の背景雑音を効率良く除去
する方法及びこれを用いたシステムを提供することを目
的とする。また、本発明は、ビームフォーマにおけるエ
イリアシングの影響のような避けがたい雑音を効果的に
抑制する方法及びこれを用いたシステムを提供すること
を目的とする。
【0013】
【課題を解決するための手段】上記の目的を達成する本
発明は、次のように構成された音声認識装置として実現
される。すなわち、この音声認識装置は、音声を収録す
るマイクロフォン・アレイと、想定される種々の音源方
向から発せられた基準音の特性及び無指向性の背景音の
特性を格納したデータベースと、マイクロフォン・アレ
イにて収録された音声の音源方向を推定する音源位置探
索部と、この音源位置探索部にて推定された音源方向と
データベースに格納された基準音の特性及び背景音の特
性とを用いて、収録された音声における推定された音源
方向の成分の音声データを抽出する雑音抑圧処理部と、
音源方向の成分の音声データの認識処理を行う音声認識
部とを備えることを特徴とする。ここで、この雑音抑圧
処理部は、より詳しくは、収録された音声の特性と基準
音の特性及び背景音の特性とを比較し、比較結果に基づ
いて収録された音声の特性を音源方向の音の成分と無指
向性の背景音の成分とに分解し、音源方向の音の成分の
音声データを抽出する。なお、この音源位置探索部は、
音源方向を推定するとしたが、マイクロフォン・アレイ
が3個以上のマイクロフォンからなる場合は、音源まで
の距離を推定することも可能である。以下、音源方向あ
るいは音源位置という場合は、主として音源方向を意味
するものとして説明するが、必要に応じて音源までの距
離についても考慮し得ることは言うまでもない。
【0014】また、本発明による他の音声認識装置は、
上記と同様のマイクロフォン・アレイと、データベース
とを備えると共に、マイクロフォン・アレイにて収録さ
れた音声の特性とデータベースに格納された基準音の特
性及び背景音の特性とを比較することにより、収録され
た音声の音源方向を推定する音源位置探索部と、この音
源位置探索部にて推定された音源方向の成分の音声デー
タの認識処理を行う音声認識部とを備えることを特徴と
する。ここで、この音源位置認識部は、さらに詳しく
は、所定の音声入力方向ごとに、前記基準音の特性及び
前記背景音の特性と合成して得られた特性と前記収録さ
れた音声の特性とを比較し、比較結果に基づいて所定の
基準音の音源位置を当該収録された音声の音源方向とし
て推定する。
【0015】本発明によるさらに他の音声認識装置は、
音声を収録するマイクロフォン・アレイと、このマイク
ロフォン・アレイにて収録された収録音声の音源方向を
推定する音源位置探索部と、収録音声から音源位置探索
部にて推定された音源方向以外の成分を除去する雑音抑
圧処理部と、この雑音抑圧処理部にて処理された収録音
声と、この収録音声に対し所定のモデル化を行って得ら
れる音声モデルとを用いて最尤推定を行う最尤推定部
と、この最尤推定部にて推定された最尤推定値を用いて
音声の認識処理を行う音声認識部とを含むことを特徴と
する。ここで、この最尤推定部は、収録音声の音声モデ
ルとして、この収録音声の所定の音声フレームに対して
周波数方向のサブバンドごとに隣接サブバンド数点にわ
たって信号パワーを平均化したスムージング解を用いる
ことができる。また、雑音抑圧部にて処理された収録音
声の雑音区間に関して観測誤差の分散を計測し、収録音
声の音声区間に関してモデル化におけるモデル化誤差の
分散を計測する分散計測部をさらに備え、最尤推定部
は、この分散計測部にて計測された観測誤差の分散また
はモデル化誤差の分散を用いて最尤推定値を計算する。
【0016】また、上記の目的を達成する他の本発明
は、コンピュータを制御して、マイクロフォン・アレイ
を用いて収録された音声を認識する、次のような音声認
識方法として実現される。すなわち、この音声認識方法
は、マイクロフォン・アレイを用いて音声を収録し、音
声データをメモリに格納する音声入力ステップと、メモ
リに格納された音声データに基づいて、収録された音声
の音源方向を推定し、推定結果をメモリに格納する音源
位置探索ステップと、メモリに格納された推定結果に基
づいて、収録された音声の特性を、推定された音源位置
から発せられた音の成分と、無指向性の背景音の成分と
に分解処理し、処理結果に基づいて収録された音声にお
ける推定された音源方向の成分の音声データを抽出して
メモリに格納する雑音抑圧ステップと、メモリに格納さ
れた音源方向の成分の音声データに基づいて、収録され
た音声を認識する音声認識ステップとを含むことを特徴
とする。ここで、この雑音抑圧ステップは、さらに詳し
くは、想定される種々の音源方向から発せられた基準音
の特性及び無指向性の背景音の特性を格納した記憶装置
から、音源方向の推定結果に合致する音源方向から発せ
られた基準音の特性及び背景音の特性を読み出すステッ
プと、読み出された特性を適当な重み付けを施して合成
し、収録された音声の特性に近似させるステップと、近
似によって得られた基準音及び背景音の特性に関する情
報に基づいて、メモリに格納された音声データのうち、
推定された音源方向から発せられた成分を推定し抽出す
るステップとを含む。
【0017】また、本発明の他の音声認識方法は、マイ
クロフォン・アレイを用いて音声を収録し、音声データ
をメモリに格納する音声入力ステップと、メモリに格納
された音声データに基づいて、収録された音声の音源方
向を推定し、推定結果をメモリに格納する音源位置探索
ステップと、メモリに格納された推定結果と予め測定さ
れた所定の音声の特性に関する情報とに基づいて、収録
された音声の特性を、推定された音源方向から発せられ
た音の成分と、無指向性の背景音の成分とに分解し、収
録された音声からこの背景音の成分を除去した音声デー
タをメモリに格納する雑音抑圧ステップと、メモリに格
納された背景音の成分を除去した音声データに基づい
て、収録された音声を認識する音声認識ステップとを含
むことを特徴とする。ここで、この雑音抑圧ステップ
は、より好ましくは、特定の方向から雑音が発せられる
ことが想定される場合に、この特定の方向における音の
成分を、収録された音声の特性からさらに分解し除去す
るステップを含む。
【0018】本発明によるさらに他の音声認識方法は、
マイクロフォン・アレイを用いて音声を収録し、音声デ
ータをメモリに格納する音声入力ステップと、予め測定
された特定の音源方向から発せられた基準音の特性と無
指向性の背景音の特性とを合成して得られる特性を種々
の音声入力方向に対して求め、メモリに格納された音声
データから得られる収録された音声の特性と比較するこ
とにより、収録された音声の音源方向を推定し、推定結
果をメモリに格納する音源位置探索ステップと、メモリ
に格納された音源方向の推定結果と音声データとに基づ
いて、収録された音声における推定された音源方向の成
分の音声データを抽出してメモリに格納する雑音抑圧ス
テップと、メモリに格納された背景音の成分を除去した
音声データに基づいて、収録された音声を認識する音声
認識ステップとを含むことを特徴とする。ここで、この
音源位置探索ステップは、さらに詳しくは、想定される
種々の音源方向から発せられた基準音の特性及び無指向
性の背景音の特性を格納した記憶装置から、音声入力方
向ごとに基準音の特性及び背景音の特性を読み出すステ
ップと、音声入力方向ごとに、読み出された特性を適当
な重み付けを施して合成し、収録された音声の特性に近
似させるステップと、合成により得られた特性と収録さ
れた音声の特性とを比較し、誤差の小さい合成により得
られた特性に対応する基準音の音源方向を、収録された
音声の音源方向として推定するステップとを含む。
【0019】本発明によるさらに他の音声認識方法は、
マイクロフォン・アレイを用いて音声を収録し、音声デ
ータをメモリに格納する音声入力ステップと、メモリに
格納された音声データに基づいて、収録された音声の音
源方向を推定し、推定結果をメモリに格納する音源位置
探索ステップと、メモリに格納された音源方向の推定結
果と音声データとに基づいて、収録された音声における
推定された音源方向の成分の音声データを抽出してメモ
リに格納する雑音抑圧ステップと、メモリに格納された
音源方向の成分の音声データと、この音声データに対し
所定のモデル化を行って得られる音声モデルとを用いて
最尤推定値を算出しメモリに格納する最尤推定ステップ
と、メモリに格納された最尤推定値に基づいて、収録さ
れた音声を認識する音声認識ステップとを含むことを特
徴とする。
【0020】また、本発明によるさらに他の音声認識方
法は、マイクロフォン・アレイを用いて音声を収録し、
音声データをメモリに格納する音声入力ステップと、メ
モリに格納された音声データに基づいて、収録された音
声の音源方向を推定し、推定結果をメモリに格納する音
源位置探索ステップと、メモリに格納された音源方向の
推定結果と音声データとに基づいて、収録された音声に
おける推定された音源方向の成分の音声データを抽出し
てメモリに格納する雑音抑圧ステップと、メモリに格納
された音源方向の成分の音声データに関して、所定の音
声フレームに対して周波数方向のサブバンドごとに隣接
サブバンド数点にわたって信号パワーを平均化してスム
ージング解を求め、メモリに格納するステップと、メモ
リに格納されたスムージング解に基づいて、収録された
音声を認識する音声認識ステップとを含むことを特徴と
する。
【0021】さらにまた、本発明は、コンピュータを制
御して、上述した音声認識装置の各機能を実現させるプ
ログラム、あるいは上述した音声認識方法の各ステップ
に対応する処理を実行させるためのプログラムとして実
現される。これらのプログラムは、磁気ディスクや光デ
ィスク、半導体メモリ、その他の記録媒体に格納して配
布したり、ネットワークを介して配信したりすることに
より提供することができる。
【0022】
【発明の実施の形態】以下、添付図面に示す第1、第2
の実施の形態に基づいて、この発明を詳細に説明する。
以下に説明する第1の実施の形態は、種々の音源方向か
ら発せられた基準音の特性及び無指向性の背景音の特性
を予め取得し保持しておく。そして、マイクロフォン・
アレイにて音声を収録した際に、収録された音声の音源
方向と保持されている基準音の特性及び背景音の特性と
を用いて、収録された音声における推定された音源方向
の成分の音声データを抽出する。また、収録された音声
の特性と保持されている準音の特性及び背景音の特性と
を比較することにより、収録された音声の音源方向を推
定する。これらの手法により、目的方向音源以外の背景
雑音が効率良く除去される。第2の実施の形態は、収録
音声に関してエイリアシングの影響のような大きな観測
誤差が含まれることが避けられない場合を対象として、
音声データをモデル化した上で最尤推定を行う。そし
て、このモデル化による音声モデルとして、音声フレー
ムに対して周波数方向のサブバンドごとに隣接サブバン
ド数点にわたって信号パワーを平均化したスムージング
解を用いる。最尤推定を行う対象となる音声データは、
前段階で収録音声から雑音成分が抑圧されたものを用い
るが、この雑音成分の抑圧は、第1の実施の形態に示す
手法による他、2チャンネル・スペクトラムサブトラク
ションの手法によっても良い。
【0023】〔第1の実施の形態〕第1の実施の形態で
は、所定の基準音及び背景音の特性(Profile)を予め
用意し、収録された音声における音源方向の成分の抽出
や音源方向の推定の処理に用いる。この手法をプロファ
イル・フィッティングと呼ぶ。図1は、第1の実施の形
態による音声認識システム(装置)を実現するのに好適
なコンピュータ装置のハードウェア構成の例を模式的に
示した図である。図1に示すコンピュータ装置は、演算
手段であるCPU(Central ProcessingUnit:中央処理
装置)101と、M/B(マザーボード)チップセット
102及びCPUバスを介してCPU101に接続され
たメインメモリ103と、同じくM/Bチップセット1
02及びAGP(Accelerated Graphics Port)を介し
てCPU101に接続されたビデオカード104と、P
CI(Peripheral Component Interconnect)バスを介
してM/Bチップセット102に接続されたハードディ
スク105及びネットワークインターフェイス106
と、さらにこのPCIバスからブリッジ回路107及び
ISA(Industry Standard Architecture)バスなどの
低速なバスを介してM/Bチップセット102に接続さ
れたフロッピー(登録商標)ディスクドライブ108及
びキーボード/マウス109とを備える。また、処理対
象である音声を入力し、音声データに変換してCPU1
01へ供給するためのサウンドカード(サウンドチッ
プ)110及びマイクロフォン・アレイ111を備え
る。なお、図1は本実施の形態を実現するコンピュータ
装置のハードウェア構成を例示するに過ぎず、本実施の
形態を適用可能であれば、他の種々の構成を取ることが
できる。例えば、ビデオカード104を設ける代わり
に、ビデオメモリのみを搭載し、CPU101にてイメ
ージデータを処理する構成としても良いし、ATA(AT
Attachment)などのインターフェイスを介してCD−
ROM(CompactDisc Read Only Memory)やDVD−R
OM(Digital Versatile Disc Read Only Memory)の
ドライブを設けても良い。
【0024】図2は、図1に示したコンピュータ装置に
て実現される本実施の形態による音声認識システムの構
成を示す図である。図2に示すように、本実施の形態に
よる音声認識システムは、音声入力部10と、音源位置
探索部20と、雑音抑圧処理部30と、音声認識部40
と、空間特性データベース50とを備えている。上記の
構成において、音源位置探索部20、雑音抑圧処理部3
0及び音声認識部40は、図1に示したメインメモリ1
03に展開されたプログラムにてCPU101を制御す
ることにより実現される仮想的なソフトウェアブロック
である。また、空間特性データベース50は、メインメ
モリ103やハードディスク105にて実現される。C
PU101を制御してこれらの機能を実現させる当該プ
ログラムは、磁気ディスクや光ディスク、半導体メモ
リ、その他の記憶媒体に格納して配布したり、ネットワ
ークを介して配信したりすることにより提供される。本
実施の形態では、図1に示したネットワークインターフ
ェイス106やフロッピーディスクドライブ108、図
示しないCD−ROMドライブなどを介して当該プログ
ラムを入力し、ハードディスク105に格納する。そし
て、ハードディスク105に格納されたプログラムをメ
インメモリ103に読み込んで展開し、CPU101に
て実行することにより、図2に示した各構成要素の機能
を実現する。なお、プログラム制御されたCPU101
にて実現される各構成要素の間でのデータの受け渡し
は、当該CPU101のキャッシュメモリやメインメモ
リ103を介して行われる。
【0025】音声入力部10は、N個のマイクロフォン
により構成されたマイクロフォン・アレイ111及びサ
ウンドカード110にて実現され、音声を収録する。収
録された音声は、電気的な音声データに変換されて音源
位置探索部20へ渡される。音源位置探索部20は、音
声入力部10にて同時収録されたN個の音声データか
ら、目的音声の音源位置(音源方向)を推定する。音源
位置探索部20で推定された音源位置情報と音声入力部
10から取得したN個の音声データとは、雑音抑圧処理
部30へ渡される。雑音抑圧処理部30は、音源位置探
索部20から受け取った音源位置情報とN個の音声デー
タとを用いて、目的音声以外の音源位置から到来する音
声を極力排除(雑音抑圧)した1個の音声データを出力
する。雑音抑圧された1個の音声データは、音声認識部
40へ渡される。音声認識部40は、雑音抑圧された1
個の音声データを用いて、音声を文字に変換し、その文
字を出力する。なお、音声認識部40での音声処理は、
周波数領域(Frequency Domain)で行われるのが一般的
である。一方で、音声入力部10の出力は時間領域(Ti
me Domain)であるのが一般的である。そのため、音源
位置探索部20または雑音抑圧処理部30のいずれかに
おいて、音声データの周波数領域から時間領域への変換
が行われる。空間特性データベース50は、本実施の形
態における雑音抑圧処理部30または音源位置探索部2
0の処理において使用される空間特性を格納している。
空間特性については後述する。
【0026】本実施の形態では、目的方向音源に対する
マイクロフォン・アレイ111の空間特性と、無指向性
背景音に対するマイクロフォン・アレイ111の空間特
性という2種類のマイクロフォン特性を利用して、目的
方向音源以外の背景雑音を効率良く除去する。具体的に
は、音声認識システムにおける目的方向音源に対するマ
イクロフォン・アレイ111の空間特性と無指向性背景
音に対するマイクロフォン・アレイ111の空間特性と
を、予めホワイトノイズなどを用いて全周波数帯域に対
して推定しておく。そして、実際に雑音のある環境下で
観測された発話データから推定されるマイクロフォン・
アレイ111の空間特性と、上記2つのマイクロフォン
特性の和との差分が最小となるように、上記2つのマイ
クロフォン特性の混合重みを推定する。この操作を、周
波数別に行うことにより、観測データに含まれる目的方
向の発話成分(周波数別の強度)を推定し、音声を再構
成することができる。図2に示した音声認識システムに
おいては、雑音抑圧処理部30の機能として上記の手法
を実現することができる。また、観測データに含まれる
目的方向の発話成分を推定する操作を、音声入力部10
であるマイクロフォン・アレイ111の周囲の様々な方
向に関して行い、結果を比較することにより、観測デー
タの音源方向を特定することができる。図2に示した音
声認識システムにおいては、音源位置探索部20の機能
として上記の手法を実現することができる。これらの機
能は独立しており、いずれか一方を使用することもでき
るし、両方を併用することもできる。以下、まず雑音抑
圧処理部30の機能について説明し、次いで音源位置探
索部20の機能について説明する。
【0027】図3は、本実施の形態の音声認識システム
における雑音抑圧処理部30の構成を示す図である。図
3を参照すると、雑音抑圧処理部30は、遅延和処理部
31と、フーリエ変換部32と、プロファイル・フィッ
ティング部33と、スペクトル再構成部34とを備え
る。また、プロファイル・フィッティング部33は、後
述する成分分解処理に用いられる音源位置情報及び空間
特性を格納した空間特性データベース50に接続されて
いる。空間特性データベース50には、後述するよう
に、様々な音源位置からホワイトノイズ等を鳴らして観
測された空間特性が音源位置ごとに格納されている。ま
た、音源位置探索部20にて推定された音源位置の情報
も格納されている。
【0028】遅延和処理部31は、音声入力部10にて
入力された音声データを、予め設定された所定の遅延時
間で遅延させ、足し合わせる。図3には、設定された遅
延時間(最小遅延時間、・・・、−Δθ、0、+Δθ、
・・・、最大遅延時間)ごとに遅延和処理部31が複数
記載されている。例えば、マイクロフォン・アレイ11
1におけるマイクロフォンどうしの間隔が一定であり、
遅延時間を+Δθとした場合、n番目のマイクロフォン
にて収録された音声データは、(n-1)×Δθだけ遅延さ
せる。そして、N個の音声データを同様に遅延させた上
で、足し合わせる。この処理を、最小遅延時間から最大
遅延時間までの予め設定された各遅延時間について行
う。なお、この遅延時間は、マイクロフォン・アレイ1
11の指向性を向ける方向に相当する。したがって、遅
延和処理部31の出力は、マイクロフォン・アレイ11
1の指向性を最小角度から最大角度まで段階的に変化さ
せたときの、各段階における音声データとなる。遅延和
処理部31から出力された音声データは、フーリエ変換
部32へ渡される。
【0029】フーリエ変換部32は、短時間音声フレー
ムごとの時間領域の音声データをフーリエ変換し、周波
数領域の音声データに変換する。そしてさらに、周波数
領域の音声データを、周波数帯域ごとの音声パワー分布
(パワースペクトル)に変換する。図3には、遅延和処
理部31に対応してフーリエ変換部32が複数記載され
ている。フーリエ変換部32は、マイクロフォン・アレ
イ111の指向性を向ける角度ごとに、言い換えれば図
3に記載された個々の遅延和処理部31の出力ごとに、
周波数帯域ごとの音声パワー分布を出力する。フーリエ
変換部32から出力された音声パワー分布のデータは、
周波数帯域ごとに整理されてプロファイル・フィッティ
ング部33へ渡される。図4は、プロファイル・フィッ
ティング部33へ渡される音声パワー分布の例を示す図
である。
【0030】プロファイル・フィッティング部33は、
フーリエ変換部32から周波数帯域ごとに受け取った音
声パワー分布のデータ(以下、この角度別音声パワー分
布を空間特性(Profile)と呼ぶ)を、既知の空間特性
に近似的に成分分解する。図3には、周波数帯域ごとに
複数記載されている。プロファイル・フィッティング部
33にて使用される既知の空間特性は、音源位置探索部
20で推定された音源位置情報と一致するものを、空間
特性データベース50から選択して取得する。
【0031】ここで、プロファイル・フィッティング部
33による成分分解について、さらに詳細に説明する。
まず、予めホワイトノイズなどの基準音を用いて、音声
認識に用いられる範囲の様々な周波数(理想的にはあら
ゆる周波数)ωに対し、方向性音源方向をθ0とした際
のマイクロフォン・アレイ111の空間特性(P
ω0,θ):以下、この空間特性を方向性音源空間特性
と呼ぶ)を、想定される種々の音源方向(理想的にはあ
らゆる音源方向)θ0に対して求めておく。一方、無指
向性の背景音に対する空間特性(Qω(θ))も同様に求
めておく。これらの特性は、マイクロフォン・アレイ1
11自身の持つ特性を示すものであって、雑音や音声の
音響的な特徴を示しているものではない。次に、実際に
観測される音声が、方向性の無い背景雑音と方向性のあ
る目的音声との和から構成されると仮定すると、観測さ
れた音声に対して得られる空間特性Xω(θ)は、ある方
向θ0からの音源に対する方向性音源空間特性Pω0,
θ)と、無指向性背景音に対する空間特性Qω(θ)をそ
れぞれある係数倍したものの和で近似することができ
る。
【0032】図5は、この関係を模式的に表した図であ
る。この関係は次の数1式で表される。
【数1】 ここで、αωは目的方向の方向性音源空間特性の重み係
数、βωは無指向性背景音空間特性の重み係数である。
これらの係数は、次の数2式に示す評価関数Φ ωを最小
化するように定められる。
【数2】 この最小値を与えるαωとβωとは、次の数3式により
求められる。
【数3】 ただし、αω≧0、βω≧0でなければならない。
【0033】係数が求まれば、雑音成分が含まれない目
的音源のみのパワーを求めることができる。その周波数
ωにおけるパワーは、αω・Pω00)と与えられ
る。また、音声を収録する環境において、雑音源が背景
雑音だけでなく、特定の方向から所定の雑音(方向性雑
音)が発せられることが想定され、その到来方向を推定
することができる場合には、その方向性雑音に対する方
向性音源空間特性を空間特性データベース50から取得
し、上記数1式の右辺の分解要素として付け加えること
もできる。なお、実音声に対して観測される空間特性
は、音声フレーム(通常は10ms〜20ms)ごとに
時系列的に得られるが、安定な空間特性を得るために、
成分分解を行う前段階の処理として、複数の音声フレー
ムのパワー分布をまとめて平均化する処理(時間方向の
平滑化処理)を行っても良い。以上の結果、プロファイ
ル・フィッティング部33は、雑音成分が含まれない目
的音源のみの周波数ωごとの音声パワーを、αω・Pω
00)と推定する。推定された周波数ωごとの音声
パワーは、スペクトル再構成部34へ渡される。
【0034】スペクトル再構成部34は、プロファイル
・フィッティング部33にて推定された全周波数帯域分
の音声パワーを集めて、雑音成分が抑圧された周波数領
域の音声データを構成する。なお、プロファイル・フィ
ッティング部33において平滑化処理を行った場合は、
スペクトル再構成部34で、平滑化の逆フィルタとして
構成される逆平滑化を行い、時間変動を先鋭化しても良
い。また、Zωを逆平滑化の出力(パワースペクトル)
とすると、逆平滑化の際の過剰な変動を抑えるために、
0≦Zω及びZω≦Xω0)に変動を制限するリミッ
タを入れても良い。このリミッタには、逆フィルタの各
段階で制限をかける逐次処理と、逆フィルタをかけおわ
った後で制限をかける後処理との2種類の処理が考えら
れるが、0≦Zωを逐次処理、Zω≦Xω0) を後処
理とするのが好適であることが、経験的にわかってい
る。
【0035】図6は、上記のように構成された雑音抑圧
処理部30による処理の流れを説明するフローチャート
である。図6を参照すると、まず音声入力部10にて入
力された音声データが雑音抑圧処理部30に入力され
(ステップ601)、遅延和処理部31による遅延和処
理が行われる(ステップ602)。ここでは、N本のマ
イクロフォンにて構成されたマイクロフォン・アレイ1
11(音声入力部10)のn番目のマイクロフォンにお
けるt番目のサンプリングのPCM(Pulse Coded Modu
lation)音声データを、変数s(n,t)に格納するものと
する。
【0036】遅延和処理部31は、遅延量をサンプル点
数で表現する。この遅延量にサンプリング周波数を掛け
たものが実際の遅延時間となる。変化させる遅延量の刻
み幅をΔθサンプルとし、正の方向および負の方向それ
ぞれにM段階に変化させるとすると、最大遅延量はM×
Δθサンプル、最小遅延量は−M×Δθサンプルとな
る。この場合、m段階目の遅延和出力は、次の数4式で
表される値となる。
【数4】 (m=−M〜+Mの整数) ただし、上記数4式では、音声の収録環境としてマイク
ロフォン間隔一定、遠距離音場を想定している。これ以
外の場合は、公知の遅延和マイクロフォン・アレイ11
1の理論により、指向性方向を片側M段階に変化させた
ときのm番目の遅延和出力をx(m,t)に構成するよう
にする。
【0037】次に、フーリエ変換部32によるフーリエ
変換処理が行われる(ステップ603)。フーリエ変換
部32は、時間領域の音声データx(m,t)を、短時間
の音声フレーム間隔ごとに切り出し、フーリエ変換によ
り周波数領域の音声データに変換する。そしてさらに、
周波数領域の音声データを周波数帯域ごとのパワー分布
Xω,i(m)に変換する。ここで、添え字ωは各周波数帯
域の代表周波数を表している。また、添え字iは音声フ
レームの番号を表す。サンプリング点数で表した音声フ
レーム間隔をframe_sizeとすると、t=i×frame_size
の関係がある。
【0038】観測された空間特性Xω,i(m)は、プロフ
ァイル・フィッティング部33に渡されるが、プロファ
イル・フィッティング部33での前処理として時間方向
の平滑化を行う場合には、平滑化前の空間特性をX*
ω,i(m)、フィルタ幅をW、フィルタ係数をCjとして、
次の数5式で表される値となる。
【数5】 次に、プロファイル・フィッティング部33による成分
分解処理が行われる(ステップ604)。かかる処理の
ために、プロファイル・フィッティング部33には、フ
ーリエ変換部32から取得した、観測された空間特性X
ω,i(m)、音源位置探索部20で推定された音源位置情
報m0、方向m0で表される方向からの音源に対する既知
の方向性音源空間特性Pω(m0,m)、及び無指向性背景
音に対する既知の空間特性Qω(m)が入力される。ここ
では、既知の空間特性も観測された空間特性と同様に方
向のパラメータmを片側M段階のサンプリング点数単位
で採っている。
【0039】目的方向の方向性音源空間特性の重み係数
αω、無指向性背景音空間特性の重み係数βωを、次の
数6式にて求める。ただし、式中で、添え字ω、iは省
略されている。処理は、周波数帯域ωごと、及び音声フ
レームiごとに実行する。
【数6】 ただし、αとβは負の数であってはならないので、 α<0ならば、α=0、β=a4/a0 β<0ならば、β=0、α=a3/a1 とする。
【0040】次に、スペクトル再構成部34によるスペ
クトル再構成処理が行われる(ステップ605)。スペ
クトル再構成部34は、プロファイル・フィッティング
部33による成分分解の結果に基づいて、雑音が抑圧さ
れた周波数領域の音声出力データZω,iを次のように求
める。まず、プロファイル・フィッティング部33にお
いて平滑化処理を行わなかった場合は、そのまま、Z
ω,i=Yω,iとなる。 Yω,i=αω,i・Pω,i(m0,m0) 一方、プロファイル・フィッティング部33において平
滑化処理を行った場合は、次の数7式で表される変動制
限付きの逆平滑化を行ってZω,iを求める。
【数7】 この音声出力データZω,iは、処理結果として音声認識
部40へ出力される(ステップ606)。
【0041】さて、上述した雑音抑圧処理部30では、
時間領域の音声データを入力として処理を行っていた
が、周波数領域の音声データを入力として処理を行うこ
とも可能である。図7は、周波数領域の音声データを入
力とする場合の雑音抑圧処理部30の構成を示す図であ
る。図7に示すように、この場合、雑音抑圧処理部30
には、図2に示した時間領域の処理を行う遅延和処理部
31に代えて、周波数領域の処理を行う遅延和処理部3
6が設けられる。遅延和処理部36にて周波数領域の処
理が行われるので、フーリエ変換部32は不要となる。
遅延和処理部36は、周波数領域の音声データを受け取
り、予め設定された所定の位相遅延量で遅延させ、足し
会わせる。図7には、設定された位相遅延量(最小位相
遅延量、・・・、−Δθ、0、+Δθ、・・・、最大位
相遅延量)ごとに遅延和処理部36が複数記載されてい
る。例えば、マイクロフォン・アレイ111におけるマ
イクロフォンどうしの間隔が一定であり、位相遅延量を
+Δθとした場合、n番目のマイクロフォンにて収録さ
れた音声データは、(n-1)×Δθだけ位相を遅延させ
る。そして、N個の音声データを同様に遅延させた上
で、足し合わせる。この処理を、最小位相遅延量から最
大位相遅延量までの予め設定された各位相遅延量につい
て行う。なお、この位相遅延量は、マイクロフォン・ア
レイ111の指向性を向ける方向に相当する。したがっ
て、遅延和処理部36の出力は、図3に示した構成の場
合と同様に、マイクロフォン・アレイ111の指向性を
最小角度から最大角度まで段階的に変化させたときの、
各段階における音声データとなる。
【0042】また、遅延和処理部36は、指向性を向け
る角度ごとに、周波数帯域ごとの音声パワー分布を出力
する。この出力は、周波数帯域ごとに整理してプロファ
イル・フィッティング部33に渡される。以下、プロフ
ァイル・フィッティング部33及びスペクトル再構成部
34の処理は、図3に示した雑音抑圧処理部30の場合
と同様である。
【0043】次に、本実施の形態における音源位置探索
部20について説明する。図8は、本実施の形態の音声
認識システムにおける音源位置探索部20の構成を示す
図である。図8を参照すると、音源位置探索部20は、
遅延和処理部21と、フーリエ変換部22と、プロファ
イル・フィッティング部23と、残差評価部24とを備
える。また、プロファイル・フィッティング部23は、
空間特性データベース50に接続されている。これらの
構成のうち、遅延和処理部21及びフーリエ変換部22
の機能は,図3に示した雑音抑圧処理部30における遅
延和処理部31及びフーリエ変換部32と同様である。
また、空間特性データベース50には、様々な音源位置
からホワイトノイズ等を鳴らして観測された空間特性
が、音源位置ごとに格納されている。
【0044】プロファイル・フィッティング部23は、
フーリエ変換部22から渡された音声パワー分布を短時
間平均し、周波数ごとに空間特性の観測値を作成する。
そして、得られた観測値を、既知の空間特性に近似的に
成分分解する。この際、方向性音源空間特性Pω0,
θ)として、空間特性データベース50に格納されてい
る全ての方向性音源空間特性を順番に選択して適用し、
数2式を中心とする上述の手法により、係数αωとβω
とを求める。係数αωとβωとが求まれば、数2式に代
入することにより、評価関数Φωの残差を求めることが
できる。得られた周波数帯域ωごとの評価関数Φωの残
差は、残差評価部24へ渡される。
【0045】残差評価部24は、プロファイル・フィッ
ティング部23から受け取った周波数帯域ωごとの評価
関数Φωの残差を合計する。その際、音源位置探索の精
度を高めるために高周波帯域に重みをかけて合計しても
良い。この合計残差が最小になる時に選択された既知の
方向性音源空間特性が、推定された音源位置を表してい
る。すなわち、この既知の方向性音源空間特性を測定し
た時の音源位置が、ここで推定すべき音源位置である。
【0046】図9は、上記のように構成された音源位置
探索部20による処理の流れを説明するフローチャート
である。図9を参照すると、まず音声入力部10にて入
力された音声データが音源位置探索部20に入力され
(ステップ901)、遅延和処理部21による遅延和処
理、フーリエ変換部22によるフーリエ変換処理が行わ
れる(ステップ902、903)。これらの処理は、図
6を参照して説明した音声データの入力(ステップ60
1)、遅延和処理(ステップ602)及びフーリエ変換
処理(ステップ603)と同様であるので、ここでは説
明を省略する。
【0047】次に、プロファイル・フィッティング部2
3による処理が行われる。プロファイル・フィッティン
グ部23は、まず、成分分解で使用する既知の方向性音
源空間特性として、空間特性データベース50に格納さ
れている既知の方向性音源空間特性の中から順に異なる
ものを選択する(ステップ904)。具体的には、方向
0からの音源に対する既知の方向性音源空間特性P
ω(m0,m)のm0を変えることに相当する。そして、選
択された既知の方向性音源空間特性について成分分解処
理が行われる(ステップ905、906)。
【0048】プロファイル・フィッティング部23によ
る成分分解処理では、図6を参照して説明した成分分解
処理(ステップ604)と同様の処理により、目的方向
の方向性音源空間特性の重み係数αω、無指向性背景音
空間特性の重み係数βωが求められる。そして、求まっ
た目的方向の方向性音源空間特性の重み係数αω、無指
向性背景音空間特性の重み係数βωを用い、次の数8式
により評価関数の残差が求められる(ステップ90
7)。
【数8】 この残差は、現在選択されている既知の方向性音源空間
特性と関係付けられて、空間特性データベース50に保
管される。
【0049】ステップ904乃至ステップ907の処理
を繰り返し、空間特性データベース50に格納されてい
る全ての既知の方向性音源空間特性を試したならば、次
に、残差評価部24による残差評価処理が行われる(ス
テップ905、908)。具体的には、次の数9式によ
り、空間特性データベース50に保管されている残差を
周波数帯域ごとに重みをつけて合計する。
【数9】 ここで、C(ω)は重み係数である。簡単には全て1で良
い。そして、このΦALLを最小にする既知の方向性音源
空間特性が選択され、位置情報として出力される(ステ
ップ909)。
【0050】上述したように、雑音抑圧処理部30の機
能と、音源位置探索部20の機能とは独立しているの
で、音声認識システムを構成するに当たり、両方を上述
した本実施の形態による構成としても良いし、どちらか
一方のみを上述した本実施の形態による構成要素とし、
他方は従来の技術を用いても良い。いずれか一方を本実
施の形態による構成要素とする場合、例えば上述した雑
音抑圧処理部30を用いる場合は、収録音声を音源から
の音の成分と背景雑音による音の成分とに分解して音源
からの音の成分を抽出し、音声認識部40による認識が
行われることにより、音声認識の精度の向上を図ること
ができる。また、本実施の形態の音源位置探索部20を
用いる場合は、背景雑音を考慮して特定の音源位置から
の音における空間特性と収録音声の空間特性とを比較す
ることにより、正確な音源位置の推定を行うことができ
る。さらに、本実施の形態の音源位置探索部20及び雑
音抑圧処理部30を両方用いる場合は、正確な音源位置
の推定と音声認識の精度向上とを期待できるのみなら
ず、空間特性データベース50と、遅延和処理部21、
31やフーリエ変換部22、32を共用できることとな
り効率的である。
【0051】本実施の形態による音声認識システムは、
話者とマイクロフォンとの間に距離がある環境でも雑音
を効率的に除去して高精度な音声認識を実現するのに寄
与するため、コンピュータやPDA、携帯電話などの電
子情報機器に対する音声入力や、ロボットその他の機械
装置との音声による対話など、多くの音声入力環境で使
用することができるものである。
【0052】〔第2の実施の形態〕第2の実施の形態で
は、収録音声に関してエイリアシングの影響のような大
きな観測誤差が含まれることが避けられない場合を対象
として、音声データをモデル化した上で最尤推定を行う
ことにより、雑音の減少を図る。本実施の形態の構成及
び動作の説明に先立って、エイリアシングの問題につい
て具体的に説明する。図17は、2チャンネル・マイク
ロフォン・アレイでエイリアスの発生する状況を説明す
る図である。図17に示すように、2本のマイクロフォ
ン1711、1712を約30cmの間隔で配置し、正
面0°に信号音源1720を配置し、右約40°に雑音
源1730を1個配置したケースを考える。この場合、
使用するビームフォーマとして2チャンネル・スペクト
ラムサブトラクション法を想定すると、理想的には、主
ビームフォーマでは、信号音源1720の音波は同相化
されて強化されるのに対し、左右のマイクロフォン17
11、1712に同時に到達しない雑音源1730の音
波は、同相化されずに弱化される。また、副ビームフォ
ーマでは、信号音源1720の音波は、逆位相で足し合
わされるためにキャンセルされ、ほとんど残らないのに
対し、雑音源1730の音波は、元々同相化されていな
いものを逆位相で足し合わせるので、キャンセルされず
に出力に残る。
【0053】しかし、特定の周波数では、異なる状況と
なる場合がある。図17のような構成では、雑音源17
30の音波は左のマイクロフォン1712に約0.5ミ
リ秒遅れて到達する。したがって、約2000(=1÷
0.0005)Hzの音波は、ちょうど一周期遅れて、
同相化されることとなる。すなわち、主ビームフォーマ
で、その雑音成分は弱化されず、また、副ビームフォー
マの出力で残るべき雑音成分が残らなくなってしまうこ
の現象は、その特定周波数(この場合は2000Hz)
の倍音(=N×2000Hz)でも発生する。これによ
り、抽出される音声データにエイリアス(ノイズ)が含
まれてしまう。本実施の形態では、このエイリアスが発
生する特定の周波数で、より精度の高い、雑音成分の推
定を実現する。第2の実施の形態による音声認識システ
ム(装置)は、第1の実施の形態と同様に、図1に示す
ようなコンピュータ装置にて実現される。
【0054】図10は、本実施の形態による音声認識シ
ステムの構成を示す図である。図10に示すように、本
実施の形態による音声認識システムは、音声入力部21
0と、音源位置探索部220と、雑音抑圧処理部230
と、分散計測部240と、最尤推定部250と、音声認
識部260とを備えている。上記の構成において、音源
位置探索部220、雑音抑圧処理部230、分散計測部
240、最尤推定部250及び音声認識部260は、図
1に示したメインメモリ103に展開されたプログラム
にてCPU101を制御することにより実現される仮想
的なソフトウェアブロックである。CPU101を制御
してこれらの機能を実現させる当該プログラムは、磁気
ディスクや光ディスク、半導体メモリ、その他の記憶媒
体に格納して配布したり、ネットワークを介して配信し
たりすることにより提供される。本実施の形態では、図
1に示したネットワークインターフェイス106やフロ
ッピーディスクドライブ108、図示しないCD−RO
Mドライブなどを介して当該プログラムを入力し、ハー
ドディスク105に格納する。そして、ハードディスク
105に格納されたプログラムをメインメモリ103に
読み込んで展開し、CPU101にて実行することによ
り、図10に示した各構成要素の機能を実現する。な
お、プログラム制御されたCPU101にて実現される
各構成要素の間でのデータの受け渡しは、当該CPU1
01のキャッシュメモリやメインメモリ103を介して
行われる。
【0055】音声入力部210は、N個のマイクロフォ
ンにより構成されたマイクロフォン・アレイ111及び
サウンドカード110にて実現され、音声を収録する。
収録された音声は、電気的な音声データに変換されて音
源位置探索部220へ渡される。なお、エイリアシング
の問題が、マイクロフォンの数が2個の場合に顕著に現
れることから、以下では音声入力部210が2個のマイ
クロフォンを備える(すなわち、2個の音声データが収
録される)ものとして説明する。音源位置探索部220
は、音声入力部10にて同時収録された2個の音声デー
タから、目的音声の音源位置(音源方向)を推定する。
音源位置探索部220で推定された音源位置情報と音声
入力部210から取得した2個の音声データとは、雑音
抑圧処理部230へ渡される。雑音抑圧処理部230
は、収録音声の中から所定の雑音成分を推定して減算す
る種類のビームフォーマである。すなわち、音源位置探
索部220から受け取った音源位置情報と2個の音声デ
ータとを用いて、目的音声以外の音源位置から到来する
音声を極力排除(雑音抑圧)した1個の音声データを出
力する。ビームフォーマの種類としては、第1の実施の
形態に示したプロファイル・フィッティングにより雑音
成分を除去するものでも良いし、従来から用いられてい
る2チャンネル・スペクトラムサブトラクションにより
雑音成分を除去するものでも良い。雑音抑圧された1個
の音声データは、分散計測部240及び最尤推定部25
0へ渡される。
【0056】分散計測部240は、雑音抑圧処理部23
0にて処理された音声データを入力し、雑音抑圧された
当該入力音声が雑音区間(音声フレーム中で目的音声の
ない区間)である場合は観測誤差分散を計測する。ま
た、当該入力音声が音声区間(音声フレーム中で目的音
声のある区間)である場合はモデル化誤差分散を計測す
る。観測誤差分散、モデル化誤差分散及びこれらの計測
方法の詳細については後述する。最尤推定部250は、
分散計測部240から観測誤差分散及びモデル化誤差分
散を入力し、雑音抑圧処理部230にて処理された音声
データを入力して、最尤推定値を算出する。最尤推定値
及びその計算方法の詳細については後述する。算出され
た最尤推定値は、音声認識部260へ渡される。音声認
識部260は、最尤推定部250にて算出された最尤推
定値を用いて、音声を文字に変換し、その文字を出力す
る。なお、本実施の形態では、各構成要素間の音声デー
タの受け渡しに周波数領域のパワー値(パワースペクト
ラム)を想定している。
【0057】次に、本実施の形態における、収録音声に
対するエイリアシングの影響を減少させる手法について
説明する。第1の実施の形態に示したプロファイル・フ
ィッティング法や、従来から用いられている2チャンネ
ル・スペクトラムサブトラクション法をはじめとする、
雑音成分を推定してスペクトル減算を行うタイプのビー
ムフォーマの出力では、エイリアシングの問題が起こる
特定の周波数のパワーを中心に、時間方向に平均がゼロ
で大きな分散の誤差を含んでいる。そこで、所定の音声
フレームについて、周波数方向のサブバンドごとに、隣
接サブバンド数点に渡って信号パワーを平均化した解を
考える。この解をスムージング解と呼ぶ。音声のスペク
トラム包絡は連続的に変化すると考えられるので、この
周波数方向の平均化により、混入する誤差は平均化され
て小さくなると期待できる。しかし、このスムージング
解は、上記の定義から、スペクトラム分布が鈍るという
性質を持つため、スペクトラムの構造を正確に表現して
いるとは言いがたい。すなわち、スムージング解そのも
のを音声認識に用いたとしても、良い音声認識結果は得
られない。
【0058】そこで、本実施の形態は、収録音声の観測
値そのものと、上述したスムージング解との線形補間を
考える。そして、観測誤差が小さい周波数では観測値寄
りの値を使用し、観測誤差が大きい周波数ではスムージ
ング解寄りの値を使用する。このときに使用する値とし
て推定される値が最尤推定値である。したがって、最尤
推定値としては、信号に雑音がほとんど含まれていない
S/N(信号・ノイズ比)の高いケースでは、ほぼ全周
波数領域で、観測値に極めて近い値が使用されることに
なる。また、雑音が多く含まれるS/Nの低いケースで
は、エイリアシングが起こる特定の周波数を中心に、ス
ムージング解に近い値が使用されることになる。
【0059】以下、この最尤推定値を算出する処理の詳
細な内容を定式化する。所定の対象を観測する際に大き
な観測誤差が避けられない場合に備え、観測対象を何ら
かの形でモデル化した上で、最尤推定を行う。本実施の
形態では、観測対象の音声モデルとして「スペクトラム
包絡は連続的に変化する」という性質を利用し、スペク
トラムの周波数方向のスムージング解を定義する。状態
方程式を次の数10式のように定める。
【数10】 ここで、S ̄は、主ビームフォーマに含まれる目的音声
のパワーSを隣接サブバンド数点にわたって平均化した
スムージング解である。Yは、スムージング解からの誤
差であり、モデル化誤差と呼ぶ。また、ωは周波数、T
は音声フレームの時系列番号である。
【0060】観測値であるビームフォーマの出力(パワ
ースペクトル)をZとすると、観測方程式は、次の数1
1式のように定義される。
【数11】 ここで、Vは観測誤差である。この観測誤差は、エイリ
アスが発生する周波数で大きい。観測値Zが得られたと
き、目的音声のパワーSにおける条件付確率分布P(S
|Z)は、ベイズの公式により、次の数12式で与えら
れる。
【数12】 この時、観測誤差Vが大きい場合は、モデルによる推定
値S ̄を使い、観測誤差Vが小さい場合は、観測値Zそ
のものを使うのが合理的な推定となる。
【0061】そのようなSの最尤推定値は、次の数13
式乃至数16式にて与えられる。
【数13】
【数14】
【数15】
【数16】 ここで、qはモデル化誤差Yの分散、rは観測誤差Vの
分散である。なお、数15、16式において、Y、Vの
平均値はゼロと仮定した。ここで、E[]ω,Tは、分散
計測の範囲を例示する図11に示すように、ω、Tの周
りのm×n点の期待値を取る操作を表す。ωi、Tjは、
m×n中の各点を表している。
【0062】数13式では、スムージング解S ̄は直接
求まらないが、観測誤差Vのスムージング解V ̄は、平
均化によりゼロに近い値になると仮定し、次の数17式
のように、観測値Zのスムージング解Z ̄で代用する。
【数17】 観測誤差分散rについては、まず定常であることを仮定
し、r(ω)とする。雑音区間では目的音声のパワーSが
ゼロであるので、観測値Zを観測することにより、数1
1、16式から求めることができる。この場合、分散を
計測する操作の範囲は、図11の範囲(a)のようにな
る。モデル化誤差分散qについては、モデル化誤差Yが
直接観測できないので、次の数18式で与えられるfを
観測することにより推定する。
【数18】 ここでは、モデル化誤差Y、観測誤差Vが無相関である
と仮定した。既に観測誤差分散rが求まっているので、
音声区間でfを観測することにより、数18式からモデ
ル化誤差分散qを求めることができる。この場合、分散
を計測する操作の範囲は、図11の範囲(b)のように
なる。
【0063】本実施の形態では、以上の処理を、分散計
測部240及び最尤推定部250により行う。図12
は、分散計測部240の動作を説明するフローチャート
である。図12に示すように、分散計測部240は、雑
音抑圧処理部230から音声フレームTの雑音抑圧処理
後のパワースペクトルZ(ω,T)を取得すると(ステッ
プ1201)、当該音声フレームTが音声区間に属する
のか雑音区間に属するのか判断する(ステップ120
2)。音声フレームTに対する判断は、従来から公知の
方法を用いて行うことができる。入力した音声フレーム
Tが雑音区間であった場合、分散計測部240は、上述
した数11、16式により、観測誤差分散r(ω)を過去
の履歴と合わせて再計算(更新)する(ステップ120
3)。一方、入力した音声フレームTが音声区間であっ
た場合、分散計測部240は、まず数17式により観測
値であるパワースペクトルZ(ω,T)からスムージング
解S ̄(ω,T)を作成する(ステップ1204)。そし
て、数18式により、モデル化誤差分散q(ω,T)を再
計算(更新)する。更新された観測誤差分散r(ω)、ま
たは更新されたモデル化誤差分散q(ω,T)及び作成さ
れたスムージング解S ̄(ω,T)は、最尤推定部250
へ渡される(ステップ1206)。
【0064】図13は、最尤推定部250の動作を説明
するフローチャートである。図13に示すように、最尤
推定部250は、雑音抑圧処理部230から音声フレー
ムTの雑音抑圧処理後のパワースペクトルZ(ω,T)を
取得し(ステップ1301)、さらに分散計測部240
から当該音声フレームTにおける観測誤差分散r(ω)、
モデル化誤差分散q(ω,T)及びスムージング解S ̄
(ω,T)を取得する(ステップ1302)。そして、最
尤推定部250は、取得した各データを用いて、数13
式により、最尤推定値S^(ω,T)を算出する(ステップ
1303)。算出された最尤推定値S^(ω,T)は、音声
認識部260へ渡される(ステップ1304)。
【0065】図14は、音声認識システムとして、2チ
ャンネル・スペクトラムサブトラクション・ビームフォ
ーマを用い、これに本実施の形態を適用した構成を示す
図である。図14に示す2チャンネル・スペクトラムサ
ブトラクション・ビームフォーマは、重みを適応的にか
ける方法である2チャンネル・アダプティブ・スペクト
ラムサブトラクション(2 Channel Adaptive Spectrum
Subtraction)法を使用するビームフォーマである。図
14において、2つのマイクロフォン(図ではマイクと
表記)1401、1402が図10に示した音声入力部
210に対応し、主ビームフォーマ1403、副ビーム
フォーマ1404が音源位置探索部220及び雑音抑圧
処理部230としての機能を実現する。すなわち、この
2チャンネル・スペクトラムサブトラクション・ビーム
フォーマは、2つのマイクロフォン1401、1402
によって収録された音声に関し、目的音源方向に指向性
を向けた主ビームフォーマ1403の出力から目的音源
方向に死角を構成した副ビームフォーマ1404の出力
をスペクトルサブトラクション(減算)する。副ビーム
フォーマ1404は、目的音源の音声信号が含まれてい
ない雑音成分のみの信号を出力するとみなされる。主ビ
ームフォーマ1403の出力と副ビームフォーマ140
4の出力とは、それぞれ高速フーリエ変換(FFT:Fast
Fourier Transform)され、所定の重み(Weight(ω):
W(ω))を着けて減算が行われた後、分散計測部24
0、最尤推定部250による処理を経て、逆高速フーリ
エ変換(I-FFT:Inverse Fast Fourier Transform)さ
れて音声認識部260へ出力される。当然ながら、音声
認識部260が周波数領域のデータを入力として受け付
ける場合には、この逆高速フーリエ変換は省略すること
ができる。
【0066】主ビームフォーマ1403の出力パワース
ペクトルをM(ω,T)、副ビームフォーマ1404
の出力パワースペクトルをM(ω,T)とする。主ビ
ームフォーマ1403に含まれる信号パワーをS、雑音
パワーをN、副ビームフォーマに含まれる雑音パワー
をNとすると、次のような関係がある。 M1(ω,T)=S(ω,T)+N1(ω,T) M2(ω,T)=N2(ω,T) ここでは、信号と雑音は無相関であると仮定している。
【0067】主ビームフォーマ1403の出力から副ビ
ームフォーマ1404の出力を、重み係数W(ω)を掛け
て減算すると、その出力Zは、 Z(ω,T)=M1(ω,T)−W(ω)・M2(ω,T) =S(ω,T)+{N1(ω,T)−W(ω)・N2(ω,T)} と表される。重みW(ω)は、E[ ]を期待値操作とし
て、 E[[N1(ω,T)−W(ω)・N2(ω,T)]2] を最小とするように学習される。図15は、例として、
雑音源を右40°に1個配置した時の学習済みの重み係
数W(ω)を示す図である。図15を参照すると、特定の
周波数で、特に大きな値を持つことがわかる。このよう
な周波数では、上式で期待される雑音成分のキャンセル
の精度が著しく低下する。すなわち、観測される主ビー
ムフォーマ1403の出力パワーS(ω,T)の値に大き
な誤差を伴うこととなる。
【0068】そこで、上述した数10、11式のように
状態方程式及び観測方程式を定める。この時、観測誤差
V(ω,T)は、次のように定義される。 V(ω,T)=N1(ω,T)・W(ω)・N2(ω,T) そして、分散計測部240及び最尤推定部250が、上
述した数13乃至数16式により最尤推定値を算出す
る。これにより、主ビームフォーマ1403の出力パワ
ーS(ω,T)の値に大きな誤差を伴わない場合、すなわ
ち、収録音声に信号にエイリアシングによる雑音がほと
んど含まれていない場合には、観測値に近い最尤推定値
が逆高速フーリエ変換されて音声認識部260へ出力さ
れる。一方、主ビームフォーマ1403の出力パワーS
(ω,T)の値に大きな誤差を伴う場合、すなわち、収録
音声に信号にエイリアシングによる雑音が多く含まれて
いる場合には、当該エイリアシングが起こる特定の周波
数を中心としてスムージング解に近い最尤推定値が逆高
速フーリエ変換されて音声認識部260へ出力される。
【0069】図16は、音声認識システムとして、図1
4に示した2チャンネル・スペクトラムサブトラクショ
ン・ビームフォーマを備えたコンピュータ装置の外観を
例示する図である。図16に示すコンピュータ装置は、
ディスプレイ(LCD)1610の上部にステレオマイ
クロフォン1621、1622が設けられている。この
ステレオマイクロフォン1621、1622は、図14
に示したマイクロフォン1401、1402に相当し、
これを図10に示した音声入力部210として用いる。
そして、プログラム制御されたCPUにより、音源位置
探索部220及び雑音抑圧処理部230として機能する
主ビームフォーマ1403、副ビームフォーマ1404
と、分散計測部240及び最尤推定部250の機能とを
実現する。これにより、エイリアシングの影響を極力減
少させた音声認識が可能となる。
【0070】なお、上記において本実施の形態は、特に
2チャンネルのビームフォーマにおいて顕著に発生する
エイリアシングによる雑音を減少させる場合を例として
説明したが、本実施の形態によるスムージング解及び最
尤推定を用いた雑音除去の技術は、その他、2チャンネ
ル・スペクトラムサブトラクションや第1の実施の形態
によるプロファイル・フィッティング等の手法でも除去
できない種々の雑音を減少させるためにも用いることが
できるのは言うまでもない。
【0071】
【発明の効果】以上説明したように、本発明によれば、
収録音声から目的方向音源以外の背景雑音を効率良く除
去し、高精度の音声認識を実現することができる。ま
た、本発明によれば、ビームフォーマにおけるエイリア
シングの影響のような避けがたい雑音を効果的に抑制す
る方法及びこれを用いたシステムを提供することができ
る。
【図面の簡単な説明】
【図1】 第1の実施の形態による音声認識システムを
実現するのに好適なコンピュータ装置のハードウェア構
成の例を模式的に示した図である。
【図2】 図1に示したコンピュータ装置にて実現され
る第1の実施の形態による音声認識システムの構成を示
す図である。
【図3】 第1の実施の形態の音声認識システムにおけ
る雑音抑圧処理部の構成を示す図である。
【図4】 第1の実施の形態で用いられる音声パワー分
布の例を示す図である。
【図5】 予め測定された方向性音源空間特性及び無指
向性背景音に対する空間特性と収録音声の空間特性との
関係を模式的に表す図である。
【図6】 第1の実施の形態における雑音抑圧処理部に
よる処理の流れを説明するフローチャートである。
【図7】 周波数領域の音声データを入力とする場合の
雑音抑圧処理部の構成を示す図である。
【図8】 第1の実施の形態の音声認識システムにおけ
る音源位置探索部の構成を示す図である。
【図9】 第1の実施の形態における音源位置探索部に
よる処理の流れを説明するフローチャートである。
【図10】 第2の実施の形態による音声認識システム
の構成を示す図である。
【図11】 第2の実施の形態による分散計測の範囲を
例示する図である。
【図12】 第2の実施の形態における分散計測部の動
作を説明するフローチャートである。
【図13】 第2の実施の形態における最尤推定部25
0の動作を説明するフローチャートである。
【図14】 第2の実施の形態による音声認識システム
を2チャンネル・スペクトラムサブトラクション・ビー
ムフォーマに適用した構成を示す図である。
【図15】 第2の実施の形態において、雑音源を右4
0°に1個配置した時の学習済みの重み係数W(ω)を示
す図である。
【図16】 図14に示した2チャンネル・スペクトラ
ムサブトラクション・ビームフォーマを備えたコンピュ
ータ装置の外観を例示する図である。
【図17】 2チャンネル・マイクロフォン・アレイで
エイリアスの発生する状況を説明する図である。
【図18】 マイクロフォン・アレイを使用した従来の
音声認識システムの構成を概略的に示した図である。
【符号の説明】
10、210…音声入力部、20、220…音源位置探
索部、21、31、36…遅延和処理部、22、32…
フーリエ変換部、23、33…プロファイル・フィッテ
ィング部、24…残差評価部、30、230…雑音抑圧
処理部、34…スペクトル再構成部、40、260…音
声認識部、50…空間特性データベース、101…CP
U、102…M/Bチップセット、103…メインメモ
リ、105…ハードディスク、110…サウンドカー
ド、111…マイクロフォン・アレイ、240…分散計
測部、250…最尤推定部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 市川 治 神奈川県大和市下鶴間1623番地14 日本ア イ・ビー・エム株式会社 東京基礎研究所 内 (72)発明者 西村 雅史 神奈川県大和市下鶴間1623番地14 日本ア イ・ビー・エム株式会社 東京基礎研究所 内 (72)発明者 滝口 哲也 神奈川県大和市下鶴間1623番地14 日本ア イ・ビー・エム株式会社 東京基礎研究所 内 Fターム(参考) 5D015 DD02 EE05

Claims (28)

    【特許請求の範囲】
  1. 【請求項1】 音声を収録するマイクロフォン・アレイ
    と、 想定される種々の音源方向から発せられた基準音の特性
    及び無指向性の背景音の特性を格納したデータベース
    と、 前記マイクロフォン・アレイにて収録された音声の音源
    方向を推定する音源位置探索部と、 前記音源位置探索部にて推定された前記音源方向と前記
    データベースに格納された前記基準音の特性及び前記背
    景音の特性とを用いて、前記収録された音声における前
    記推定された音源方向の成分の音声データを抽出する雑
    音抑圧処理部と、 前記音源方向の成分の音声データの認識処理を行う音声
    認識部とを備えることを特徴とする音声認識装置。
  2. 【請求項2】 前記雑音抑圧処理部は、前記収録された
    音声の特性と前記基準音の特性及び前記背景音の特性と
    を比較し、比較結果に基づいて前記収録された音声の特
    性を前記音源方向の音の成分と無指向性の背景音の成分
    とに分解し、前記音源方向の音の成分の音声データを抽
    出することを特徴とする請求項1に記載の音声認識装
    置。
  3. 【請求項3】 音声を収録するマイクロフォン・アレイ
    と、 想定される種々の音源方向から発せられた基準音の特性
    及び無指向性の背景音の特性を格納したデータベース
    と、 前記マイクロフォン・アレイにて収録された音声の特性
    と前記データベースに格納された前記基準音の特性及び
    前記背景音の特性とを比較することにより、前記収録さ
    れた音声の音源方向を推定する音源位置探索部と、 前記音源位置探索部にて推定された音源方向の成分の音
    声データの認識処理を行う音声認識部とを備えることを
    特徴とする音声認識装置。
  4. 【請求項4】 前記音源位置探索部は、所定の音声入力
    方向ごとに、前記基準音の特性及び前記背景音の特性と
    合成して得られた特性と前記収録された音声の特性とを
    比較し、比較結果に基づいて所定の基準音の音源位置を
    当該収録された音声の音源方向として推定することを特
    徴とする請求項3に記載の音声認識装置。
  5. 【請求項5】 音声を収録するマイクロフォン・アレイ
    と、 前記マイクロフォン・アレイにて収録された収録音声の
    音源方向を推定する音源位置探索部と、 前記収録音声から前記音源位置探索部にて推定された音
    源方向以外の成分を除去する雑音抑圧処理部と、 前記雑音抑圧処理部にて処理された前記収録音声と、当
    該収録音声に対し所定のモデル化を行って得られる音声
    モデルとを用いて最尤推定を行う最尤推定部と、 前記最尤推定部にて推定された最尤推定値を用いて音声
    の認識処理を行う音声認識部とを含むことを特徴とする
    音声認識装置。
  6. 【請求項6】 前記最尤推定部は、前記収録音声の音声
    モデルとして、当該収録音声の所定の音声フレームに対
    して周波数方向のサブバンドごとに隣接サブバンド数点
    にわたって信号パワーを平均化したスムージング解を用
    いることを特徴とする請求項5に記載の音声認識装置。
  7. 【請求項7】 前記雑音抑圧処理部にて処理された前記
    収録音声の雑音区間に関して観測誤差の分散を計測し、
    当該収録音声の音声区間に関して前記モデル化における
    モデル化誤差の分散を計測する分散計測部をさらに備
    え、 前記最尤推定部は、前記分散計測部にて計測された前記
    観測誤差の分散または前記モデル化誤差の分散を用いて
    前記最尤推定値を計算することを特徴とする請求項5に
    記載の音声認識装置。
  8. 【請求項8】 コンピュータを制御して、マイクロフォ
    ン・アレイを用いて収録された音声を認識する音声認識
    方法において、 前記マイクロフォン・アレイを用いて音声を収録し、音
    声データをメモリに格納する音声入力ステップと、 前記メモリに格納された音声データに基づいて、収録さ
    れた音声の音源方向を推定し、推定結果をメモリに格納
    する音源位置探索ステップと、 前記メモリに格納された推定結果に基づいて、前記収録
    された音声の特性を、推定された音源位置から発せられ
    た音の成分と、無指向性の背景音の成分とに分解処理
    し、処理結果に基づいて前記収録された音声における前
    記推定された音源方向の成分の音声データを抽出してメ
    モリに格納する雑音抑圧ステップと、 前記メモリに格納された前記音源方向の成分の音声デー
    タに基づいて、前記収録された音声を認識する音声認識
    ステップとを含むことを特徴とする音声認識方法。
  9. 【請求項9】 前記雑音抑圧ステップは、 想定される種々の音源方向から発せられた基準音の特性
    及び無指向性の背景音の特性を格納した記憶装置から、
    前記音源方向の推定結果に合致する音源方向から発せら
    れた基準音の特性及び背景音の特性を読み出すステップ
    と、 読み出された前記特性を適当な重み付けを施して合成
    し、前記収録された音声の特性に近似させるステップ
    と、 近似によって得られた前記基準音及び前記背景音の特性
    に関する情報に基づいて、前記メモリに格納された音声
    データのうち、前記推定された音源方向から発せられた
    成分を推定し抽出するステップとを含むことを特徴とす
    る請求項8に記載の音声認識方法。
  10. 【請求項10】 コンピュータを制御して、マイクロフ
    ォン・アレイを用いて収録された音声を認識する音声認
    識方法において、 前記マイクロフォン・アレイを用いて音声を収録し、音
    声データをメモリに格納する音声入力ステップと、 前記メモリに格納された音声データに基づいて、収録さ
    れた音声の音源方向を推定し、推定結果をメモリに格納
    する音源位置探索ステップと、 前記メモリに格納された推定結果と予め測定された所定
    の音声の特性に関する情報とに基づいて、前記収録され
    た音声の特性を、推定された音源方向から発せられた音
    の成分と、無指向性の背景音の成分とに分解し、前記収
    録された音声から当該背景音の成分を除去した音声デー
    タをメモリに格納する雑音抑圧ステップと、 前記メモリに格納された前記背景音の成分を除去した音
    声データに基づいて、前記収録された音声を認識する音
    声認識ステップとを含むことを特徴とする音声認識方
    法。
  11. 【請求項11】 前記雑音抑圧ステップは、特定の方向
    から雑音が発せられることが想定される場合に、当該特
    定の方向における音の成分を、前記収録された音声の特
    性からさらに分解し除去するステップを含むことを特徴
    とする請求項10に記載の音声認識方法。
  12. 【請求項12】 コンピュータを制御して、マイクロフ
    ォン・アレイを用いて収録された音声を認識する音声認
    識方法において、 前記マイクロフォン・アレイを用いて音声を収録し、音
    声データをメモリに格納する音声入力ステップと、 予め測定された特定の音源方向から発せられた基準音の
    特性と無指向性の背景音の特性とを合成して得られる特
    性を種々の音声入力方向に対して求め、前記メモリに格
    納された音声データから得られる収録された音声の特性
    と比較することにより、収録された音声の音源方向を推
    定し、推定結果をメモリに格納する音源位置探索ステッ
    プと、 前記メモリに格納された音源方向の推定結果と前記音声
    データとに基づいて、前記収録された音声における前記
    推定された音源方向の成分の音声データを抽出してメモ
    リに格納する雑音抑圧ステップと、 前記メモリに格納された前記背景音の成分を除去した音
    声データに基づいて、前記収録された音声を認識する音
    声認識ステップとを含むことを特徴とする音声認識方
    法。
  13. 【請求項13】 前記音源位置探索ステップは、 想定される種々の音源方向から発せられた基準音の特性
    及び無指向性の背景音の特性を格納した記憶装置から、
    前記音声入力方向ごとに前記基準音の特性及び前記背景
    音の特性を読み出すステップと、 前記音声入力方向ごとに、読み出された前記特性を適当
    な重み付けを施して合成し、前記収録された音声の特性
    に近似させるステップと、 前記合成により得られた特性と前記収録された音声の特
    性とを比較し、誤差の小さい当該合成により得られた特
    性に対応する基準音の音源方向を、当該収録された音声
    の音源方向として推定するステップとを含むことを特徴
    とする請求項12に記載の音声認識方法。
  14. 【請求項14】 コンピュータを制御して、マイクロフ
    ォン・アレイを用いて収録された音声を認識する音声認
    識方法において、 前記マイクロフォン・アレイを用いて音声を収録し、音
    声データをメモリに格納する音声入力ステップと、 前記メモリに格納された音声データに基づいて、収録さ
    れた音声の音源方向を推定し、推定結果をメモリに格納
    する音源位置探索ステップと、 前記メモリに格納された音源方向の推定結果と前記音声
    データとに基づいて、前記収録された音声における前記
    推定された音源方向の成分の音声データを抽出してメモ
    リに格納する雑音抑圧ステップと、 前記メモリに格納された音源方向の成分の音声データ
    と、当該音声データに対し所定のモデル化を行って得ら
    れる音声モデルとを用いて最尤推定値を算出しメモリに
    格納する最尤推定ステップと、 前記メモリに格納された前記最尤推定値に基づいて、前
    記収録された音声を認識する音声認識ステップとを含む
    ことを特徴とする音声認識方法。
  15. 【請求項15】 前記最尤推定ステップは、 前記収録された音声の雑音区間に関して観測誤差の分散
    を計測し、当該収録された音声の音声区間に関して前記
    モデル化におけるモデル化誤差の分散を計測するステッ
    プと、 計測された前記観測誤差の分散または前記モデル化誤差
    の分散を用いて前記最尤推定値を計算するステップとを
    含むことを特徴とする請求項14に記載の音声認識方
    法。
  16. 【請求項16】 コンピュータを制御して、マイクロフ
    ォン・アレイを用いて収録された音声を認識する音声認
    識方法において、 前記マイクロフォン・アレイを用いて音声を収録し、音
    声データをメモリに格納する音声入力ステップと、 前記メモリに格納された音声データに基づいて、収録さ
    れた音声の音源方向を推定し、推定結果をメモリに格納
    する音源位置探索ステップと、 前記メモリに格納された音源方向の推定結果と前記音声
    データとに基づいて、前記収録された音声における前記
    推定された音源方向の成分の音声データを抽出してメモ
    リに格納する雑音抑圧ステップと、 前記メモリに格納された音源方向の成分の音声データに
    関して、所定の音声フレームに対して周波数方向のサブ
    バンドごとに隣接サブバンド数点にわたって信号パワー
    を平均化してスムージング解を求め、メモリに格納する
    ステップと、 前記メモリに格納された前記スムージング解に基づい
    て、前記収録された音声を認識する音声認識ステップと
    を含むことを特徴とする音声認識方法。
  17. 【請求項17】 コンピュータを制御して、マイクロフ
    ォン・アレイを用いて収録された音声を認識するプログ
    ラムにおいて、 前記マイクロフォン・アレイを用いて音声を収録し、音
    声データをメモリに格納する音声入力処理と、 前記メモリに格納された音声データに基づいて、収録さ
    れた音声の音源方向を推定し、推定結果をメモリに格納
    する音源位置探索処理と、 前記メモリに格納された推定結果に基づいて、前記収録
    された音声の特性を、推定された音源方向から発せられ
    た音の成分と、無指向性の背景音の成分とに分解処理
    し、処理結果に基づいて前記収録された音声における前
    記推定された音源方向の成分の音声データを抽出してメ
    モリに格納する雑音抑圧処理と、 前記メモリに格納された前記音源方向の成分の音声デー
    タに基づいて、前記収録された音声を認識する音声認識
    処理とを前記コンピュータに実行させることを特徴とす
    るプログラム。
  18. 【請求項18】 前記プログラムによる前記雑音抑圧処
    理は、 想定される種々の音源方向から発せられた基準音の特性
    及び無指向性の背景音の特性を格納した記憶装置から、
    前記音源方向の推定結果に合致する音源方向から発せら
    れた基準音の特性及び背景音の特性を読み出す処理と、 読み出された前記特性を適当な重み付けを施して合成
    し、前記収録された音声の特性に近似させる処理と、 近似によって得られた前記基準音及び前記背景音の特性
    に関する情報に基づいて、前記メモリに格納された音声
    データのうち、前記推定された音源方向から発せられた
    成分を推定し抽出する処理とを含むことを特徴とする請
    求項17に記載のプログラム。
  19. 【請求項19】 コンピュータを制御して、マイクロフ
    ォン・アレイを用いて収録された音声を認識するプログ
    ラムにおいて、 前記マイクロフォン・アレイを用いて音声を収録し、音
    声データをメモリに格納する音声入力処理と、 前記メモリに格納された音声データに基づいて、収録さ
    れた音声の音源方向を推定し、推定結果をメモリに格納
    する音源位置探索処理と、 前記メモリに格納された推定結果と予め測定された所定
    の音声の特性に関する情報とに基づいて、前記収録され
    た音声の特性を、推定された音源方向から発せられた音
    の成分と、無指向性の背景音の成分とに分解し、前記収
    録された音声から当該背景音の成分を除去した音声デー
    タをメモリに格納する雑音抑圧処理と、前記メモリに格
    納された前記背景音の成分を除去した音声データに基づ
    いて、前記収録された音声を認識する音声認識処理とを
    前記コンピュータに実行させることを特徴とするプログ
    ラム。
  20. 【請求項20】 前記プログラムによる前記雑音抑圧処
    理は、特定の位置から雑音が発せられることが想定され
    る場合に、当該特定の方向における音の成分を、前記収
    録された音声の特性からさらに分解し除去する処理を含
    むことを特徴とする請求項19に記載のプログラム。
  21. 【請求項21】 コンピュータを制御して、マイクロフ
    ォン・アレイを用いて収録された音声を認識するプログ
    ラムにおいて、 前記マイクロフォン・アレイを用いて音声を収録し、音
    声データをメモリに格納する音声入力処理と、 予め測定された特定の音源方向から発せられた基準音の
    特性と無指向性の背景音の特性とを合成して得られる特
    性を種々の音声入力方向に対して求め、前記メモリに格
    納された音声データから得られる収録された音声の特性
    と比較することにより、収録された音声の音源方向を推
    定し、推定結果をメモリに格納する音源位置探索処理
    と、 前記メモリに格納された音源方向の推定結果と前記音声
    データとに基づいて、前記収録された音声における前記
    推定された音源方向の成分の音声データを抽出してメモ
    リに格納する雑音抑圧処理と、 前記メモリに格納された前記背景音の成分を除去した音
    声データに基づいて、前記収録された音声を認識する音
    声認識処理とを前記コンピュータに実行させることを特
    徴とするプログラム。
  22. 【請求項22】 前記音源位置探索処理は、 想定される種々の音源方向から発せられた基準音の特性
    及び無指向性の背景音の特性を格納した記憶装置から、
    前記音声入力方向ごとに前記基準音の特性及び前記背景
    音の特性を読み出す処理と、 前記音声入力方向ごとに、読み出された前記特性を適当
    な重み付けを施して合成し、前記収録された音声の特性
    に近似させる処理と、 前記合成により得られた特性と前記収録された音声の特
    性とを比較し、誤差の小さい当該合成により得られた特
    性に対応する基準音の音源方向を、当該収録された音声
    の音源方向として推定する処理とを含むことを特徴とす
    る請求項21に記載のプログラム。
  23. 【請求項23】 コンピュータを制御して、マイクロフ
    ォン・アレイを用いて収録された音声を認識するプログ
    ラムにおいて、 前記マイクロフォン・アレイを用いて音声を収録し、音
    声データをメモリに格納する音声入力処理と、 前記メモリに格納された音声データに基づいて、収録さ
    れた音声の音源方向を推定し、推定結果をメモリに格納
    する音源位置探索処理と、 前記メモリに格納された音源方向の推定結果と前記音声
    データとに基づいて、 前記収録された音声における前記推定された音源方向の
    成分の音声データを抽出してメモリに格納する雑音抑圧
    処理と、 前記メモリに格納された音源方向の成分の音声データ
    と、当該音声データに対し所定のモデル化を行って得ら
    れる音声モデルとを用いて最尤推定値を算出しメモリに
    格納する最尤推定処理と、 前記メモリに格納された前記最尤推定値に基づいて、前
    記収録された音声を認識する音声認識処理とを含むこと
    を特徴とするプログラム。
  24. 【請求項24】 前記プログラムによる最尤推定処理
    は、 前記収録された音声の雑音区間に関して観測誤差の分散
    を計測し、当該収録された音声の音声区間に関して前記
    モデル化におけるモデル化誤差の分散を計測する処理
    と、 計測された前記観測誤差の分散または前記モデル化誤差
    の分散を用いて前記最尤推定値を計算する処理とを含む
    ことを特徴とする請求項23に記載のプログラム。
  25. 【請求項25】 コンピュータを制御して、マイクロフ
    ォン・アレイを用いて収録された音声を認識するプログ
    ラムにおいて、 前記マイクロフォン・アレイを用いて音声を収録し、音
    声データをメモリに格納する音声入力処理と、 前記メモリに格納された音声データに基づいて、収録さ
    れた音声の音源方向を推定し、推定結果をメモリに格納
    する音源位置探索処理と、 前記メモリに格納された音源方向の推定結果と前記音声
    データとに基づいて、前記収録された音声における前記
    推定された音源方向の成分の音声データを抽出してメモ
    リに格納する雑音抑圧処理と、 前記メモリに格納された音源方向の成分の音声データに
    関して、所定の音声フレームに対して周波数方向のサブ
    バンドごとに隣接サブバンド数点にわたって信号パワー
    を平均化してスムージング解を求め、メモリに格納する
    処理と、 前記メモリに格納された前記スムージング解に基づい
    て、前記収録された音声を認識する音声認識処理とを含
    むことを特徴とするプログラム。
  26. 【請求項26】 コンピュータを制御してマイクロフォ
    ン・アレイを用いて収録された音声を認識するプログラ
    ムを、当該コンピュータが読み取り可能に記録した記録
    媒体において、 前記プログラムは、 前記マイクロフォン・アレイを用いて音声を収録し、音
    声データをメモリに格納する音声入力処理と、 前記メモリに格納された音声データに基づいて、収録さ
    れた音声の音源方向を推定し、推定結果をメモリに格納
    する音源位置探索処理と、 前記メモリに格納された推定結果に基づいて、前記収録
    された音声の特性を、推定された音源方向から発せられ
    た音の成分と、無指向性の背景音の成分とに分解処理
    し、処理結果に基づいて前記収録された音声における前
    記推定された音源方向の成分の音声データを抽出してメ
    モリに格納する雑音抑圧処理と、 前記メモリに格納された前記音源方向の成分の音声デー
    タに基づいて、前記収録された音声を認識する音声認識
    処理とを前記コンピュータに実行させることを特徴とす
    る記録媒体。
  27. 【請求項27】 コンピュータを制御してマイクロフォ
    ン・アレイを用いて収録された音声を認識するプログラ
    ムを、当該コンピュータが読み取り可能に記録した記録
    媒体において、 前記プログラムは、 前記マイクロフォン・アレイを用いて音声を収録し、音
    声データをメモリに格納する音声入力処理と、 予め測定された特定の音源方向から発せられた基準音の
    特性と無指向性の背景音の特性とを合成して得られる特
    性を種々の音声入力方向に対して求め、前記メモリに格
    納された音声データから得られる収録された音声の特性
    と比較することにより、収録された音声の音源方向を推
    定し、推定結果をメモリに格納する音源位置探索処理
    と、 前記メモリに格納された音源方向の推定結果と前記音声
    データとに基づいて、前記収録された音声における前記
    推定された音源方向の成分の音声データを抽出してメモ
    リに格納する雑音抑圧処理と、 前記メモリに格納された前記背景音の成分を除去した音
    声データに基づいて、前記収録された音声を認識する音
    声認識処理とを前記コンピュータに実行させることを特
    徴とする記録媒体。
  28. 【請求項28】 コンピュータを制御して、マイクロフ
    ォン・アレイを用いて収録された音声を認識するプログ
    ラムを、当該コンピュータが読み取り可能に記録した記
    録媒体において、 前記プログラムは、 前記マイクロフォン・アレイを用いて音声を収録し、音
    声データをメモリに格納する音声入力処理と、 前記メモリに格納された音声データに基づいて、収録さ
    れた音声の音源方向を推定し、推定結果をメモリに格納
    する音源位置探索処理と、 前記メモリに格納された音源方向の推定結果と前記音声
    データとに基づいて、前記収録された音声における前記
    推定された音源方向の成分の音声データを抽出してメモ
    リに格納する雑音抑圧処理と、 前記メモリに格納された音源方向の成分の音声データ
    と、当該音声データに対し所定のモデル化を行って得ら
    れる音声モデルとを用いて最尤推定値を算出しメモリに
    格納する最尤推定処理と、 前記メモリに格納された前記最尤推定値に基づいて、前
    記収録された音声を認識する音声認識処理とを前記コン
    ピュータに実行させることを特徴とする記録媒体。
JP2002272318A 2002-03-14 2002-09-18 音声認識装置、その音声認識方法及びプログラム Expired - Lifetime JP4195267B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2002272318A JP4195267B2 (ja) 2002-03-14 2002-09-18 音声認識装置、その音声認識方法及びプログラム
US10/386,726 US7478041B2 (en) 2002-03-14 2003-03-12 Speech recognition apparatus, speech recognition apparatus and program thereof
US12/236,588 US7720679B2 (en) 2002-03-14 2008-09-24 Speech recognition apparatus, speech recognition apparatus and program thereof

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002070194 2002-03-14
JP2002-70194 2002-03-14
JP2002272318A JP4195267B2 (ja) 2002-03-14 2002-09-18 音声認識装置、その音声認識方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2003337594A true JP2003337594A (ja) 2003-11-28
JP4195267B2 JP4195267B2 (ja) 2008-12-10

Family

ID=28043711

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002272318A Expired - Lifetime JP4195267B2 (ja) 2002-03-14 2002-09-18 音声認識装置、その音声認識方法及びプログラム

Country Status (2)

Country Link
US (2) US7478041B2 (ja)
JP (1) JP4195267B2 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2005048239A1 (ja) * 2003-11-12 2007-11-29 本田技研工業株式会社 音声認識装置
JP2008067854A (ja) * 2006-09-13 2008-03-27 National Institute Of Advanced Industrial & Technology 電動車椅子搭載用音声入力装置
JP2008216111A (ja) * 2007-03-06 2008-09-18 Mitsubishi Electric Corp 測距装置及び測位装置並びに測距方法及び測位方法
WO2009038136A1 (ja) * 2007-09-19 2009-03-26 Nec Corporation 雑音抑圧装置、その方法及びプログラム
JP2010072164A (ja) * 2008-09-17 2010-04-02 Nippon Telegr & Teleph Corp <Ntt> 目的信号区間推定装置、目的信号区間推定方法、目的信号区間推定プログラム及び記録媒体
JP2010517047A (ja) * 2007-01-26 2010-05-20 マイクロソフト コーポレーション マルチセンサ音源定位
JP2012058360A (ja) * 2010-09-07 2012-03-22 Sony Corp 雑音除去装置および雑音除去方法
JP2012149906A (ja) * 2011-01-17 2012-08-09 Mitsubishi Electric Corp 音源位置推定装置、音源位置推定方法および音源位置推定プログラム
JP2013504829A (ja) * 2009-09-16 2013-02-07 ラルス フォルスベリ, 手を洗うように人々を動機付け、及び/又は促すためのシステム及び方法
KR101296757B1 (ko) * 2008-09-11 2013-08-14 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 마이크로폰 신호를 기반으로 공간 큐의 세트를 제공하는 장치, 방법 및 컴퓨터 프로그램과, 2채널 오디오 신호 및 공간 큐의 세트를 제공하는 장치
JP2014090353A (ja) * 2012-10-31 2014-05-15 Nippon Telegr & Teleph Corp <Ntt> 音源位置推定装置
US8812312B2 (en) 2007-08-31 2014-08-19 International Business Machines Corporation System, method and program for speech processing
KR101442172B1 (ko) * 2008-05-14 2014-09-18 삼성전자주식회사 검색 공간 클러스터링 방법을 이용한 실시간srp-phat 음원 위치 탐색 시스템 및 제어방법
US9183839B2 (en) 2008-09-11 2015-11-10 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus, method and computer program for providing a set of spatial cues on the basis of a microphone signal and apparatus for providing a two-channel audio signal and a set of spatial cues
US20190324117A1 (en) * 2018-04-24 2019-10-24 Mediatek Inc. Content aware audio source localization
JP2021081746A (ja) * 2017-03-20 2021-05-27 ボーズ・コーポレーションBose Corporation ノイズ低減のためのオーディオ信号処理

Families Citing this family (117)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4000095B2 (ja) * 2003-07-30 2007-10-31 株式会社東芝 音声認識方法、装置及びプログラム
US7613532B2 (en) * 2003-11-10 2009-11-03 Microsoft Corporation Systems and methods for improving the signal to noise ratio for audio input in a computing system
DE102004010850A1 (de) * 2004-03-05 2005-09-22 Siemens Ag Bedien- und Beobachtungssystem mit Klanggenerator zur Erzeugung von kontinuierlichen Klangmustern
JP4873913B2 (ja) * 2004-12-17 2012-02-08 学校法人早稲田大学 音源分離システムおよび音源分離方法、並びに音響信号取得装置
JP4204541B2 (ja) * 2004-12-24 2009-01-07 株式会社東芝 対話型ロボット、対話型ロボットの音声認識方法および対話型ロボットの音声認識プログラム
ATE400474T1 (de) * 2005-02-23 2008-07-15 Harman Becker Automotive Sys Spracherkennungssytem in einem kraftfahrzeug
JP4761506B2 (ja) * 2005-03-01 2011-08-31 国立大学法人北陸先端科学技術大学院大学 音声処理方法と装置及びプログラム並びに音声システム
DE602006018897D1 (de) * 2005-05-05 2011-01-27 Sony Computer Entertainment Inc Videospielsteuerung mittels Joystick
KR20060127452A (ko) * 2005-06-07 2006-12-13 엘지전자 주식회사 로봇청소기 상태알림장치 및 방법
US7689248B2 (en) * 2005-09-27 2010-03-30 Nokia Corporation Listening assistance function in phone terminals
US7813923B2 (en) * 2005-10-14 2010-10-12 Microsoft Corporation Calibration based beamforming, non-linear adaptive filtering, and multi-sensor headset
US7565288B2 (en) * 2005-12-22 2009-07-21 Microsoft Corporation Spatial noise suppression for a microphone array
WO2007080886A1 (ja) * 2006-01-11 2007-07-19 Nec Corporation 音声認識装置、音声認識方法、および音声認識プログラム、ならびに妨害軽減装置、妨害軽減方法、および妨害軽減プログラム
US7903825B1 (en) * 2006-03-03 2011-03-08 Cirrus Logic, Inc. Personal audio playback device having gain control responsive to environmental sounds
JP2007318438A (ja) * 2006-05-25 2007-12-06 Yamaha Corp 音声状況データ生成装置、音声状況可視化装置、音声状況データ編集装置、音声データ再生装置、および音声通信システム
JP5070873B2 (ja) * 2006-08-09 2012-11-14 富士通株式会社 音源方向推定装置、音源方向推定方法、及びコンピュータプログラム
DE602006005493D1 (de) * 2006-10-02 2009-04-16 Harman Becker Automotive Sys Sprachsteuerung von Fahrzeugelementen von außerhalb einer Fahrzeugkabine
US8280731B2 (en) * 2007-03-19 2012-10-02 Dolby Laboratories Licensing Corporation Noise variance estimator for speech enhancement
JP5156260B2 (ja) * 2007-04-27 2013-03-06 ニュアンス コミュニケーションズ,インコーポレイテッド 雑音を除去して目的音を抽出する方法、前処理部、音声認識システムおよびプログラム
JP4962572B2 (ja) * 2007-08-03 2012-06-27 富士通株式会社 受音装置
US8538492B2 (en) * 2007-08-31 2013-09-17 Centurylink Intellectual Property Llc System and method for localized noise cancellation
US8194871B2 (en) * 2007-08-31 2012-06-05 Centurylink Intellectual Property Llc System and method for call privacy
US8335308B2 (en) * 2007-10-31 2012-12-18 Centurylink Intellectual Property Llc Method, system, and apparatus for attenuating dual-tone multiple frequency confirmation tones in a telephone set
KR101415026B1 (ko) * 2007-11-19 2014-07-04 삼성전자주식회사 마이크로폰 어레이를 이용한 다채널 사운드 획득 방법 및장치
US8150054B2 (en) * 2007-12-11 2012-04-03 Andrea Electronics Corporation Adaptive filter in a sensor array system
US9392360B2 (en) 2007-12-11 2016-07-12 Andrea Electronics Corporation Steerable sensor array system with video input
US8249867B2 (en) * 2007-12-11 2012-08-21 Electronics And Telecommunications Research Institute Microphone array based speech recognition system and target speech extracting method of the system
WO2009076523A1 (en) 2007-12-11 2009-06-18 Andrea Electronics Corporation Adaptive filtering in a sensor array system
JP4926091B2 (ja) * 2008-02-19 2012-05-09 株式会社日立製作所 音響ポインティングデバイス、音源位置のポインティング方法及びコンピュータシステム
US8190440B2 (en) * 2008-02-29 2012-05-29 Broadcom Corporation Sub-band codec with native voice activity detection
US8300801B2 (en) * 2008-06-26 2012-10-30 Centurylink Intellectual Property Llc System and method for telephone based noise cancellation
JP5334037B2 (ja) * 2008-07-11 2013-11-06 インターナショナル・ビジネス・マシーンズ・コーポレーション 音源の位置検出方法及びシステム
US8073634B2 (en) * 2008-09-22 2011-12-06 University Of Ottawa Method to extract target signals of a known type from raw data containing an unknown number of target signals, interference, and noise
US8442829B2 (en) * 2009-02-17 2013-05-14 Sony Computer Entertainment Inc. Automatic computation streaming partition for voice recognition on multiple processors with limited memory
US8442833B2 (en) * 2009-02-17 2013-05-14 Sony Computer Entertainment Inc. Speech processing with source location estimation using signals from two or more microphones
US8788256B2 (en) 2009-02-17 2014-07-22 Sony Computer Entertainment Inc. Multiple language voice recognition
KR101041039B1 (ko) * 2009-02-27 2011-06-14 고려대학교 산학협력단 오디오 및 비디오 정보를 이용한 시공간 음성 구간 검출 방법 및 장치
US8248885B2 (en) * 2009-07-15 2012-08-21 National Semiconductor Corporation Sub-beam forming receiver circuitry for ultrasound system
FR2948484B1 (fr) * 2009-07-23 2011-07-29 Parrot Procede de filtrage des bruits lateraux non-stationnaires pour un dispositif audio multi-microphone, notamment un dispositif telephonique "mains libres" pour vehicule automobile
US9154730B2 (en) * 2009-10-16 2015-10-06 Hewlett-Packard Development Company, L.P. System and method for determining the active talkers in a video conference
US8924220B2 (en) * 2009-10-20 2014-12-30 Lenovo Innovations Limited (Hong Kong) Multiband compressor
CN102549661B (zh) * 2009-10-21 2013-10-09 松下电器产业株式会社 音响处理装置、音响处理方法及助听器
DE102009051508B4 (de) * 2009-10-30 2020-12-03 Continental Automotive Gmbh Vorrichtung, System und Verfahren zur Sprachdialogaktivierung und -führung
CN102483918B (zh) * 2009-11-06 2014-08-20 株式会社东芝 声音识别装置
US9838784B2 (en) 2009-12-02 2017-12-05 Knowles Electronics, Llc Directional audio capture
US20110153320A1 (en) * 2009-12-18 2011-06-23 Electronics And Telecommunications Research Institute Device and method for active noise cancelling and voice communication device including the same
US8798290B1 (en) 2010-04-21 2014-08-05 Audience, Inc. Systems and methods for adaptive signal equalization
US9558755B1 (en) * 2010-05-20 2017-01-31 Knowles Electronics, Llc Noise suppression assisted automatic speech recognition
US8768406B2 (en) * 2010-08-11 2014-07-01 Bone Tone Communications Ltd. Background sound removal for privacy and personalization use
US20120045068A1 (en) * 2010-08-20 2012-02-23 Korea Institute Of Science And Technology Self-fault detection system and method for microphone array and audio-based device
US20140163671A1 (en) * 2011-04-01 2014-06-12 W. L. Gore & Associates, Inc. Leaflet and valve apparatus
GB2493327B (en) 2011-07-05 2018-06-06 Skype Processing audio signals
CN102387273B (zh) * 2011-07-08 2013-08-28 歌尔声学股份有限公司 一种抑制残留回声的方法和装置
US20130034237A1 (en) * 2011-08-04 2013-02-07 Sverrir Olafsson Multiple microphone support for earbud headsets
GB2495130B (en) 2011-09-30 2018-10-24 Skype Processing audio signals
GB2495472B (en) 2011-09-30 2019-07-03 Skype Processing audio signals
GB2495128B (en) 2011-09-30 2018-04-04 Skype Processing signals
GB2495278A (en) * 2011-09-30 2013-04-10 Skype Processing received signals from a range of receiving angles to reduce interference
GB2495131A (en) 2011-09-30 2013-04-03 Skype A mobile device includes a received-signal beamformer that adapts to motion of the mobile device
GB2495129B (en) 2011-09-30 2017-07-19 Skype Processing signals
GB2496660B (en) 2011-11-18 2014-06-04 Skype Processing audio signals
GB201120392D0 (en) 2011-11-25 2012-01-11 Skype Ltd Processing signals
JP6267860B2 (ja) * 2011-11-28 2018-01-24 三星電子株式会社Samsung Electronics Co.,Ltd. 音声信号送信装置、音声信号受信装置及びその方法
GB2497343B (en) 2011-12-08 2014-11-26 Skype Processing audio signals
KR101305373B1 (ko) 2011-12-16 2013-09-06 서강대학교산학협력단 관심음원 제거방법 및 그에 따른 음성인식방법
US9111542B1 (en) * 2012-03-26 2015-08-18 Amazon Technologies, Inc. Audio signal transmission techniques
US9305567B2 (en) * 2012-04-23 2016-04-05 Qualcomm Incorporated Systems and methods for audio signal processing
US9767828B1 (en) * 2012-06-27 2017-09-19 Amazon Technologies, Inc. Acoustic echo cancellation using visual cues
US9640194B1 (en) 2012-10-04 2017-05-02 Knowles Electronics, Llc Noise suppression for speech processing based on machine-learning mask estimation
US9423490B2 (en) * 2013-01-18 2016-08-23 Syracuse University Spatial localization of intermittent noise sources by acoustic antennae
US20140278393A1 (en) 2013-03-12 2014-09-18 Motorola Mobility Llc Apparatus and Method for Power Efficient Signal Conditioning for a Voice Recognition System
US20140270249A1 (en) * 2013-03-12 2014-09-18 Motorola Mobility Llc Method and Apparatus for Estimating Variability of Background Noise for Noise Suppression
JP2014219467A (ja) * 2013-05-02 2014-11-20 ソニー株式会社 音信号処理装置、および音信号処理方法、並びにプログラム
KR102282366B1 (ko) 2013-06-03 2021-07-27 삼성전자주식회사 음성 향상 방법 및 그 장치
US9530407B2 (en) 2014-06-11 2016-12-27 Honeywell International Inc. Spatial audio database based noise discrimination
US10269343B2 (en) * 2014-08-28 2019-04-23 Analog Devices, Inc. Audio processing using an intelligent microphone
DE112015003945T5 (de) 2014-08-28 2017-05-11 Knowles Electronics, Llc Mehrquellen-Rauschunterdrückung
US9953646B2 (en) 2014-09-02 2018-04-24 Belleau Technologies Method and system for dynamic speech recognition and tracking of prewritten script
DE112015004185T5 (de) 2014-09-12 2017-06-01 Knowles Electronics, Llc Systeme und Verfahren zur Wiederherstellung von Sprachkomponenten
KR102351366B1 (ko) * 2015-01-26 2022-01-14 삼성전자주식회사 음성 인식 방법 및 장치
US9668048B2 (en) 2015-01-30 2017-05-30 Knowles Electronics, Llc Contextual switching of microphones
KR102444061B1 (ko) * 2015-11-02 2022-09-16 삼성전자주식회사 음성 인식이 가능한 전자 장치 및 방법
US9898847B2 (en) * 2015-11-30 2018-02-20 Shanghai Sunson Activated Carbon Technology Co., Ltd. Multimedia picture generating method, device and electronic device
CN107437420A (zh) * 2016-05-27 2017-12-05 富泰华工业(深圳)有限公司 语音信息的接收方法、***及装置
JP6703460B2 (ja) * 2016-08-25 2020-06-03 本田技研工業株式会社 音声処理装置、音声処理方法及び音声処理プログラム
CN106708041B (zh) * 2016-12-12 2020-12-29 西安Tcl软件开发有限公司 智能音箱、智能音箱定向移动方法及装置
CN106782591B (zh) * 2016-12-26 2021-02-19 惠州Tcl移动通信有限公司 一种在背景噪音下提高语音识别率的装置及其方法
CN107146614B (zh) * 2017-04-10 2020-11-06 北京猎户星空科技有限公司 一种语音信号处理方法、装置及电子设备
WO2019002831A1 (en) 2017-06-27 2019-01-03 Cirrus Logic International Semiconductor Limited REPRODUCTIVE ATTACK DETECTION
GB201713697D0 (en) 2017-06-28 2017-10-11 Cirrus Logic Int Semiconductor Ltd Magnetic detection of replay attack
GB2563953A (en) 2017-06-28 2019-01-02 Cirrus Logic Int Semiconductor Ltd Detection of replay attack
GB201801532D0 (en) 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Methods, apparatus and systems for audio playback
GB201801528D0 (en) 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Method, apparatus and systems for biometric processes
GB201801526D0 (en) * 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Methods, apparatus and systems for authentication
GB201801527D0 (en) 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Method, apparatus and systems for biometric processes
KR102338376B1 (ko) 2017-09-13 2021-12-13 삼성전자주식회사 디바이스 그룹을 지정하기 위한 전자 장치 및 이의 제어 방법
GB2567503A (en) 2017-10-13 2019-04-17 Cirrus Logic Int Semiconductor Ltd Analysing speech signals
GB201801663D0 (en) 2017-10-13 2018-03-21 Cirrus Logic Int Semiconductor Ltd Detection of liveness
GB201801874D0 (en) 2017-10-13 2018-03-21 Cirrus Logic Int Semiconductor Ltd Improving robustness of speech processing system against ultrasound and dolphin attacks
GB201804843D0 (en) 2017-11-14 2018-05-09 Cirrus Logic Int Semiconductor Ltd Detection of replay attack
GB201801664D0 (en) 2017-10-13 2018-03-21 Cirrus Logic Int Semiconductor Ltd Detection of liveness
GB201803570D0 (en) 2017-10-13 2018-04-18 Cirrus Logic Int Semiconductor Ltd Detection of replay attack
GB201801661D0 (en) 2017-10-13 2018-03-21 Cirrus Logic International Uk Ltd Detection of liveness
GB201801659D0 (en) 2017-11-14 2018-03-21 Cirrus Logic Int Semiconductor Ltd Detection of loudspeaker playback
CN110035355B (zh) * 2018-01-12 2022-06-07 北京京东尚科信息技术有限公司 麦克风阵列输出声源的方法、***、设备及存储介质
US11735189B2 (en) 2018-01-23 2023-08-22 Cirrus Logic, Inc. Speaker identification
US11264037B2 (en) 2018-01-23 2022-03-01 Cirrus Logic, Inc. Speaker identification
US11475899B2 (en) 2018-01-23 2022-10-18 Cirrus Logic, Inc. Speaker identification
US10692490B2 (en) 2018-07-31 2020-06-23 Cirrus Logic, Inc. Detection of replay attack
US10915614B2 (en) 2018-08-31 2021-02-09 Cirrus Logic, Inc. Biometric authentication
US11037574B2 (en) 2018-09-05 2021-06-15 Cirrus Logic, Inc. Speaker recognition and speaker change detection
US11501761B2 (en) 2019-04-05 2022-11-15 Samsung Electronics Co., Ltd. Method and apparatus for speech recognition
CN112216295B (zh) * 2019-06-25 2024-04-26 大众问问(北京)信息科技有限公司 一种声源定位方法、装置及设备
CN112565531B (zh) * 2020-12-12 2021-08-13 深圳波导智慧科技有限公司 一种应用于多人语音会议的录音方法和设备
CN112727704B (zh) * 2020-12-15 2021-11-30 北京天泽智云科技有限公司 一种叶片前缘腐蚀的监测方法及***
CN112837703A (zh) * 2020-12-30 2021-05-25 深圳市联影高端医疗装备创新研究院 医疗成像设备中语音信号获取方法、装置、设备和介质
CN112992140B (zh) * 2021-02-18 2021-11-16 珠海格力电器股份有限公司 智能设备的控制方法、装置、设备及存储介质

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6262399A (ja) * 1985-09-13 1987-03-19 株式会社日立製作所 音声高能率符号化方式
US5400434A (en) * 1990-09-04 1995-03-21 Matsushita Electric Industrial Co., Ltd. Voice source for synthetic speech system
IT1257164B (it) * 1992-10-23 1996-01-05 Ist Trentino Di Cultura Procedimento per la localizzazione di un parlatore e l'acquisizione diun messaggio vocale, e relativo sistema.
JP3424757B2 (ja) * 1992-12-22 2003-07-07 ソニー株式会社 音源信号推定装置
US5335011A (en) * 1993-01-12 1994-08-02 Bell Communications Research, Inc. Sound localization system for teleconferencing using self-steering microphone arrays
US5704007A (en) * 1994-03-11 1997-12-30 Apple Computer, Inc. Utilization of multiple voice sources in a speech synthesizer
US5574824A (en) * 1994-04-11 1996-11-12 The United States Of America As Represented By The Secretary Of The Air Force Analysis/synthesis-based microphone array speech enhancer with variable signal distortion
US5737431A (en) * 1995-03-07 1998-04-07 Brown University Research Foundation Methods and apparatus for source location estimation from microphone-array time-delay estimates
US5828997A (en) * 1995-06-07 1998-10-27 Sensimetrics Corporation Content analyzer mixing inverse-direction-probability-weighted noise to input signal
JP3522954B2 (ja) * 1996-03-15 2004-04-26 株式会社東芝 マイクロホンアレイ入力型音声認識装置及び方法
US6987856B1 (en) * 1996-06-19 2006-01-17 Board Of Trustees Of The University Of Illinois Binaural signal processing techniques
US6151575A (en) * 1996-10-28 2000-11-21 Dragon Systems, Inc. Rapid adaptation of speech models
JP3795610B2 (ja) 1997-01-22 2006-07-12 株式会社東芝 信号処理装置
DE19712632A1 (de) * 1997-03-26 1998-10-01 Thomson Brandt Gmbh Verfahren und Vorrichtung zur Sprachfernsteuerung von Geräten
FI114422B (fi) * 1997-09-04 2004-10-15 Nokia Corp Lähteen puheaktiviteetin tunnistus
US6137887A (en) * 1997-09-16 2000-10-24 Shure Incorporated Directional microphone system
JP4163294B2 (ja) 1998-07-31 2008-10-08 株式会社東芝 雑音抑圧処理装置および雑音抑圧処理方法
JP2001075594A (ja) 1999-08-31 2001-03-23 Pioneer Electronic Corp 音声認識システム
US6219645B1 (en) * 1999-12-02 2001-04-17 Lucent Technologies, Inc. Enhanced automatic speech recognition using multiple directional microphones
JP3582712B2 (ja) 2000-04-19 2004-10-27 日本電信電話株式会社 収音方法および収音装置
JP3514714B2 (ja) 2000-08-21 2004-03-31 日本電信電話株式会社 収音方法およびその装置
US7206418B2 (en) * 2001-02-12 2007-04-17 Fortemedia, Inc. Noise suppression for a wireless communication device
US7617099B2 (en) * 2001-02-12 2009-11-10 FortMedia Inc. Noise suppression by two-channel tandem spectrum modification for speech signal in an automobile
DE60104091T2 (de) * 2001-04-27 2005-08-25 CSEM Centre Suisse d`Electronique et de Microtechnique S.A. - Recherche et Développement Verfahren und Vorrichtung zur Sprachverbesserung in verrauschte Umgebung
WO2003036614A2 (en) * 2001-09-12 2003-05-01 Bitwave Private Limited System and apparatus for speech communication and speech recognition
JP3940662B2 (ja) * 2001-11-22 2007-07-04 株式会社東芝 音響信号処理方法及び音響信号処理装置及び音声認識装置
US20030125959A1 (en) * 2001-12-31 2003-07-03 Palmquist Robert D. Translation device with planar microphone array

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2005048239A1 (ja) * 2003-11-12 2007-11-29 本田技研工業株式会社 音声認識装置
JP4516527B2 (ja) * 2003-11-12 2010-08-04 本田技研工業株式会社 音声認識装置
JP2008067854A (ja) * 2006-09-13 2008-03-27 National Institute Of Advanced Industrial & Technology 電動車椅子搭載用音声入力装置
JP4660740B2 (ja) * 2006-09-13 2011-03-30 独立行政法人産業技術総合研究所 電動車椅子搭載用音声入力装置
JP2010517047A (ja) * 2007-01-26 2010-05-20 マイクロソフト コーポレーション マルチセンサ音源定位
JP2008216111A (ja) * 2007-03-06 2008-09-18 Mitsubishi Electric Corp 測距装置及び測位装置並びに測距方法及び測位方法
JP4623027B2 (ja) * 2007-03-06 2011-02-02 三菱電機株式会社 測距装置及び測位装置並びに測距方法及び測位方法
US8812312B2 (en) 2007-08-31 2014-08-19 International Business Machines Corporation System, method and program for speech processing
JP5483000B2 (ja) * 2007-09-19 2014-05-07 日本電気株式会社 雑音抑圧装置、その方法及びプログラム
WO2009038136A1 (ja) * 2007-09-19 2009-03-26 Nec Corporation 雑音抑圧装置、その方法及びプログラム
JPWO2009038136A1 (ja) * 2007-09-19 2011-01-06 日本電気株式会社 雑音抑圧装置、その方法及びプログラム
KR101442172B1 (ko) * 2008-05-14 2014-09-18 삼성전자주식회사 검색 공간 클러스터링 방법을 이용한 실시간srp-phat 음원 위치 탐색 시스템 및 제어방법
KR101296757B1 (ko) * 2008-09-11 2013-08-14 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 마이크로폰 신호를 기반으로 공간 큐의 세트를 제공하는 장치, 방법 및 컴퓨터 프로그램과, 2채널 오디오 신호 및 공간 큐의 세트를 제공하는 장치
KR101392546B1 (ko) 2008-09-11 2014-05-08 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 마이크로폰 신호를 기반으로 공간 큐의 세트를 제공하는 장치, 방법 및 컴퓨터 프로그램과, 2채널 오디오 신호 및 공간 큐의 세트를 제공하는 장치
US9183839B2 (en) 2008-09-11 2015-11-10 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus, method and computer program for providing a set of spatial cues on the basis of a microphone signal and apparatus for providing a two-channel audio signal and a set of spatial cues
JP2010072164A (ja) * 2008-09-17 2010-04-02 Nippon Telegr & Teleph Corp <Ntt> 目的信号区間推定装置、目的信号区間推定方法、目的信号区間推定プログラム及び記録媒体
JP2013504829A (ja) * 2009-09-16 2013-02-07 ラルス フォルスベリ, 手を洗うように人々を動機付け、及び/又は促すためのシステム及び方法
JP2012058360A (ja) * 2010-09-07 2012-03-22 Sony Corp 雑音除去装置および雑音除去方法
JP2012149906A (ja) * 2011-01-17 2012-08-09 Mitsubishi Electric Corp 音源位置推定装置、音源位置推定方法および音源位置推定プログラム
JP2014090353A (ja) * 2012-10-31 2014-05-15 Nippon Telegr & Teleph Corp <Ntt> 音源位置推定装置
JP2021081746A (ja) * 2017-03-20 2021-05-27 ボーズ・コーポレーションBose Corporation ノイズ低減のためのオーディオ信号処理
JP7098771B2 (ja) 2017-03-20 2022-07-11 ボーズ・コーポレーション ノイズ低減のためのオーディオ信号処理
US11594240B2 (en) 2017-03-20 2023-02-28 Bose Corporation Audio signal processing for noise reduction
US20190324117A1 (en) * 2018-04-24 2019-10-24 Mediatek Inc. Content aware audio source localization

Also Published As

Publication number Publication date
US20090076815A1 (en) 2009-03-19
US20030177006A1 (en) 2003-09-18
JP4195267B2 (ja) 2008-12-10
US7478041B2 (en) 2009-01-13
US7720679B2 (en) 2010-05-18

Similar Documents

Publication Publication Date Title
JP4195267B2 (ja) 音声認識装置、その音声認識方法及びプログラム
US10504539B2 (en) Voice activity detection systems and methods
US7313518B2 (en) Noise reduction method and device using two pass filtering
US10741192B2 (en) Split-domain speech signal enhancement
US9485597B2 (en) System and method of processing a sound signal including transforming the sound signal into a frequency-chirp domain
US6377637B1 (en) Sub-band exponential smoothing noise canceling system
Goh et al. Kalman-filtering speech enhancement method based on a voiced-unvoiced speech model
US8654990B2 (en) Multiple microphone based directional sound filter
US20170330582A1 (en) Spatio-temporal speech enhancement technique based on generalized eigenvalue decomposition
JP4469882B2 (ja) 音響信号処理方法及び装置
CN108172231B (zh) 一种基于卡尔曼滤波的去混响方法及***
US20170140771A1 (en) Information processing apparatus, information processing method, and computer program product
EP1607938A1 (en) Gain-constrained noise suppression
US7957964B2 (en) Apparatus and methods for noise suppression in sound signals
US10515650B2 (en) Signal processing apparatus, signal processing method, and signal processing program
JP2005249816A (ja) 信号強調装置、方法及びプログラム、並びに音声認識装置、方法及びプログラム
JP2002062348A (ja) 信号処理装置及び信号処理方法
JPH0667691A (ja) 雑音除去装置
Neo et al. Enhancement of noisy reverberant speech using polynomial matrix eigenvalue decomposition
CN115223583A (zh) 一种语音增强方法、装置、设备及介质
KR101537653B1 (ko) 주파수 또는 시간적 상관관계를 반영한 잡음 제거 방법 및 시스템
JP7159928B2 (ja) 雑音空間共分散行列推定装置、雑音空間共分散行列推定方法、およびプログラム
JP6679881B2 (ja) 雑音推定装置、プログラム及び方法、並びに、音声処理装置
Novoa et al. Exploring the robustness of features and enhancement on speech recognition systems in highly-reverberant real environments
Yoshioka et al. Statistical models for speech dereverberation

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050530

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060602

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060721

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20061110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080822

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

RD14 Notification of resignation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7434

Effective date: 20080917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080925

R150 Certificate of patent or registration of utility model

Ref document number: 4195267

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111003

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111003

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111003

Year of fee payment: 3

S202 Request for registration of non-exclusive licence

Free format text: JAPANESE INTERMEDIATE CODE: R315201

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111003

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121003

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131003

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

EXPY Cancellation because of completion of term