JP2003337594A - 音声認識装置、その音声認識方法及びプログラム - Google Patents
音声認識装置、その音声認識方法及びプログラムInfo
- Publication number
- JP2003337594A JP2003337594A JP2002272318A JP2002272318A JP2003337594A JP 2003337594 A JP2003337594 A JP 2003337594A JP 2002272318 A JP2002272318 A JP 2002272318A JP 2002272318 A JP2002272318 A JP 2002272318A JP 2003337594 A JP2003337594 A JP 2003337594A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- sound source
- sound
- memory
- recorded
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 118
- 230000008569 process Effects 0.000 claims abstract description 47
- 238000012545 processing Methods 0.000 claims description 128
- 230000001629 suppression Effects 0.000 claims description 75
- 238000007476 Maximum Likelihood Methods 0.000 claims description 60
- 238000009499 grossing Methods 0.000 claims description 37
- 238000012935 Averaging Methods 0.000 claims description 7
- 230000015572 biosynthetic process Effects 0.000 claims description 5
- 238000003786 synthesis reaction Methods 0.000 claims description 5
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000013139 quantization Methods 0.000 claims 1
- 238000009826 distribution Methods 0.000 abstract description 21
- 238000001228 spectrum Methods 0.000 description 41
- 238000010586 diagram Methods 0.000 description 26
- 230000006870 function Effects 0.000 description 22
- 238000005259 measurement Methods 0.000 description 12
- 238000011156 evaluation Methods 0.000 description 11
- 238000000354 decomposition reaction Methods 0.000 description 8
- 230000003111 delayed effect Effects 0.000 description 7
- 239000006185 dispersion Substances 0.000 description 5
- 238000005070 sampling Methods 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 238000011410 subtraction method Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 239000013256 coordination polymer Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L2021/02161—Number of inputs available containing the signal or the noise to be suppressed
- G10L2021/02166—Microphone arrays; Beamforming
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
- G10L21/028—Voice signal separating using properties of sound source
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
音源以外の背景雑音を効率良く除去する方法及びこれを
用いたシステムを提供する。 【解決手段】 マイクロフォン・アレイの指向性を、想
定される種々の音源方向に向けて観測した角度別パワー
分布が、基準音を用いて事前に測定済みの目的音源方向
の基準角度別パワー分布および無指向性の背景音の基準
角度別パワー分布の係数倍の和で近似できることを用
い、雑音抑圧処理部において、目的音源方向の成分のみ
を抽出する。また、上記目的音源方向が不明の時に、音
源位置探索部において、種々の音源方向の基準角度別パ
ワー分布の中から、上記近似残差を最小にするものを選
択することにより、目的音源方向を推定する。さらに、
これらの処理を経た音源方向の成分の音声データと、こ
の音声データに対し所定のモデル化を行って得られる音
声モデルとを用いて最尤推定を行い、得られた推定値に
基づいて音声認識を行う。
Description
に関し、特にマイクロフォン・アレイを用いて雑音除去
を行う方法に関する。
に伴い、多くの場面で音声認識が利用されるようになっ
てきた。しかし、話者にヘッドセットマイクなどの装着
を義務づけることなく、すなわちマイクと話者の間に距
離がある環境で、高精度の音声認識を実現しようとする
場合、背景雑音の除去は重要な課題となる。マイクロフ
ォン・アレイを用いて雑音除去を行う方法は、最も有効
な手段の一つと考えられている。図18は、マイクロフ
ォン・アレイを使用した従来の音声認識システムの構成
を概略的に示した図である。図18を参照すると、マイ
クロフォン・アレイを使用した音声認識システムは、音
声入力部181と、音源位置探索部182と、雑音抑圧
処理部183と、音声認識部184とを備える。
ンで構成されたマイクロフォン・アレイである。音源位
置探索部182は、音声入力部181による入力に基づ
いて音源の方向(位置)を推定する。音源方向を推定す
る方式として最も良く行われるのは、遅延和法マイクロ
フォン・アレイの出力パワーを縦軸に、指向性を向ける
方向を横軸にとった角度別パワー分布の最大ピークを音
源の到来方向と推定する方式である。より鋭いピークを
得るためには、縦軸にMusic Powerという仮想的なパワ
ーを設定することもある。また、マイクロフォン本数が
3本以上の場合、音源の方向だけでなく距離も推定する
ことができる。
182にて推定された音源の方向(位置)に基づいて、
入力した音に対して雑音抑圧を行い、音声を強調する。
雑音を抑圧する手法としては、通常、以下の手法のいず
れかが使用されることが多い。
ける個々のマイクロフォンからの入力を、それぞれの遅
延量で遅延させてから和を取ることにより、目的方向か
ら到来する音声のみを同相化して強化する手法である。
この遅延量で、指向性を向ける方向が決まる。目的方向
以外から到来する音声は、位相がずれるために相対的に
弱められる。〔Griffiths Jim法〕遅延和法による出力
から、「雑音成分が主成分となる信号」を差し引く手法
である。マイクロフォンが2本の場合、この信号は、次
のようにして生成される。まず、目的音源に対して同相
化した信号の組の片側の位相を反転して足し合わせ、目
的音声成分をキャンセルする。そして、これを雑音区間
において、雑音が最小になるように適応フィルタを学習
させる。 〔遅延和法と2チャンネルのスペクトラムサブトラクシ
ョンとを併用する方法〕目的音源からの音声を主に出力
する主ビームフォーマの出力から、主に雑音成分を出力
する副ビーム・フォーマの出力を減算処理(Spectrum S
ubtraction)する手法である(例えば、非特許文献1、
2参照。)。 〔最小分散法〕方向性のある雑音源に対して、指向性の
死角を形成するように、フィルタ設計を行う手法である
(例えば、非特許文献3参照。)。
3にて雑音成分が極力除去された信号から音声特徴量を
作成し、かかる音声特徴量の時間履歴を、辞書と時間伸
張とを考慮してパターン照合することにより、音声認識
を行う。
声検出を用いた非定常雑音下の音声認識」、電子情報通
信学会技術研究報告SP2001-25
いたスペクトラムサブトラクションによる雑音除去
法」、電子情報通信学会論文誌 A Vol. J82-A No. 4 pp
503-512, 1999
ース法を用いた音声強調法の音声認識への応用」、電子
情報通信学会技術研究報告 EA97-17
イクロホンアレーに関する検討」、電子情報通信学会論
文誌 A Vol. J82-A No. 4 pp503-512, 1999
認識技術において、マイクと話者の間に距離がある環境
で、高精度の音声認識を実現しようとする場合、背景雑
音の除去は重要な課題となる。そして、マイクロフォン
・アレイを用いて音源方向を推定し、雑音除去を行う方
法は、最も有効な手段の一つと考えられている。しか
し、マイクロフォン・アレイで雑音抑圧性能を高めるた
めには、一般的には多数のマイクを必要とし、多チャン
ネル同時入力が可能な特殊ハードウェアを必要とする。
一方、少ないマイク数(例えば2チャンネル・ステレオ
入力)でマイクロフォン・アレイを構成すると、マイク
ロフォン・アレイが持つ指向性のビームは緩やかに広が
ったものとなり、目的音源方向に十分に絞ったものとは
ならないため、周囲から雑音が混入する割合が高い。
は、混入する雑音成分を推定し減算するような何らかの
処理が必要となる。しかし、上記従来の雑音抑圧処理の
手法(遅延和法、最小分散法など)には、混入する雑音
成分を推定し、積極的に減算する機能はなかった。ま
た、遅延和法に2チャンネルのスペクトラムサブトラク
ションとを併用する方法は、雑音成分を推定してパワー
スペクトル減算を行うため、ある程度背景雑音を抑圧で
きるが、雑音自体は「点」で推定されるので、背景雑音
の推定精度は必ずしも高くなかった。
を少なくした場合に生じる(特に2チャンネル・ステレ
オ入力で顕著となる)問題として、雑音源の方向に対応
した特定の周波数で、雑音成分の推定精度が悪化するエ
イリアシングの問題がある。このエイリアシングの影響
を抑制する方策としては、マイクロフォン間隔を狭くす
る方法や、マイクロフォンを傾けて配置する方法が考え
られる(例えば、非特許文献4参照。)。
と、低周波数域を中心とした指向特性を劣化させ、ま
た、話者方向識別の精度を低下させてしまう。このた
め、2チャンネル・スペクトラムサブトラクションなど
のビームフォーマにおいては、マイクロフォン間隔をあ
る程度以上に狭くすることができず、エイリアシングの
影響を抑制する能力にも限界がある。マイクロフォンを
傾けて配置する方法は、2本のマイクロフォンにおい
て、斜め方向から到来する音波に感度の差を設けること
によって、正面から来る音波とはゲインバランスの異な
る音波となるようにすることができる。しかし、通常の
マイクロフォンでは感度の差はわずかであるため、この
方法でも、エイリアシングの影響を抑制する能力には限
界がある。
するため、目的方向音源以外の背景雑音を効率良く除去
する方法及びこれを用いたシステムを提供することを目
的とする。また、本発明は、ビームフォーマにおけるエ
イリアシングの影響のような避けがたい雑音を効果的に
抑制する方法及びこれを用いたシステムを提供すること
を目的とする。
発明は、次のように構成された音声認識装置として実現
される。すなわち、この音声認識装置は、音声を収録す
るマイクロフォン・アレイと、想定される種々の音源方
向から発せられた基準音の特性及び無指向性の背景音の
特性を格納したデータベースと、マイクロフォン・アレ
イにて収録された音声の音源方向を推定する音源位置探
索部と、この音源位置探索部にて推定された音源方向と
データベースに格納された基準音の特性及び背景音の特
性とを用いて、収録された音声における推定された音源
方向の成分の音声データを抽出する雑音抑圧処理部と、
音源方向の成分の音声データの認識処理を行う音声認識
部とを備えることを特徴とする。ここで、この雑音抑圧
処理部は、より詳しくは、収録された音声の特性と基準
音の特性及び背景音の特性とを比較し、比較結果に基づ
いて収録された音声の特性を音源方向の音の成分と無指
向性の背景音の成分とに分解し、音源方向の音の成分の
音声データを抽出する。なお、この音源位置探索部は、
音源方向を推定するとしたが、マイクロフォン・アレイ
が3個以上のマイクロフォンからなる場合は、音源まで
の距離を推定することも可能である。以下、音源方向あ
るいは音源位置という場合は、主として音源方向を意味
するものとして説明するが、必要に応じて音源までの距
離についても考慮し得ることは言うまでもない。
上記と同様のマイクロフォン・アレイと、データベース
とを備えると共に、マイクロフォン・アレイにて収録さ
れた音声の特性とデータベースに格納された基準音の特
性及び背景音の特性とを比較することにより、収録され
た音声の音源方向を推定する音源位置探索部と、この音
源位置探索部にて推定された音源方向の成分の音声デー
タの認識処理を行う音声認識部とを備えることを特徴と
する。ここで、この音源位置認識部は、さらに詳しく
は、所定の音声入力方向ごとに、前記基準音の特性及び
前記背景音の特性と合成して得られた特性と前記収録さ
れた音声の特性とを比較し、比較結果に基づいて所定の
基準音の音源位置を当該収録された音声の音源方向とし
て推定する。
音声を収録するマイクロフォン・アレイと、このマイク
ロフォン・アレイにて収録された収録音声の音源方向を
推定する音源位置探索部と、収録音声から音源位置探索
部にて推定された音源方向以外の成分を除去する雑音抑
圧処理部と、この雑音抑圧処理部にて処理された収録音
声と、この収録音声に対し所定のモデル化を行って得ら
れる音声モデルとを用いて最尤推定を行う最尤推定部
と、この最尤推定部にて推定された最尤推定値を用いて
音声の認識処理を行う音声認識部とを含むことを特徴と
する。ここで、この最尤推定部は、収録音声の音声モデ
ルとして、この収録音声の所定の音声フレームに対して
周波数方向のサブバンドごとに隣接サブバンド数点にわ
たって信号パワーを平均化したスムージング解を用いる
ことができる。また、雑音抑圧部にて処理された収録音
声の雑音区間に関して観測誤差の分散を計測し、収録音
声の音声区間に関してモデル化におけるモデル化誤差の
分散を計測する分散計測部をさらに備え、最尤推定部
は、この分散計測部にて計測された観測誤差の分散また
はモデル化誤差の分散を用いて最尤推定値を計算する。
は、コンピュータを制御して、マイクロフォン・アレイ
を用いて収録された音声を認識する、次のような音声認
識方法として実現される。すなわち、この音声認識方法
は、マイクロフォン・アレイを用いて音声を収録し、音
声データをメモリに格納する音声入力ステップと、メモ
リに格納された音声データに基づいて、収録された音声
の音源方向を推定し、推定結果をメモリに格納する音源
位置探索ステップと、メモリに格納された推定結果に基
づいて、収録された音声の特性を、推定された音源位置
から発せられた音の成分と、無指向性の背景音の成分と
に分解処理し、処理結果に基づいて収録された音声にお
ける推定された音源方向の成分の音声データを抽出して
メモリに格納する雑音抑圧ステップと、メモリに格納さ
れた音源方向の成分の音声データに基づいて、収録され
た音声を認識する音声認識ステップとを含むことを特徴
とする。ここで、この雑音抑圧ステップは、さらに詳し
くは、想定される種々の音源方向から発せられた基準音
の特性及び無指向性の背景音の特性を格納した記憶装置
から、音源方向の推定結果に合致する音源方向から発せ
られた基準音の特性及び背景音の特性を読み出すステッ
プと、読み出された特性を適当な重み付けを施して合成
し、収録された音声の特性に近似させるステップと、近
似によって得られた基準音及び背景音の特性に関する情
報に基づいて、メモリに格納された音声データのうち、
推定された音源方向から発せられた成分を推定し抽出す
るステップとを含む。
クロフォン・アレイを用いて音声を収録し、音声データ
をメモリに格納する音声入力ステップと、メモリに格納
された音声データに基づいて、収録された音声の音源方
向を推定し、推定結果をメモリに格納する音源位置探索
ステップと、メモリに格納された推定結果と予め測定さ
れた所定の音声の特性に関する情報とに基づいて、収録
された音声の特性を、推定された音源方向から発せられ
た音の成分と、無指向性の背景音の成分とに分解し、収
録された音声からこの背景音の成分を除去した音声デー
タをメモリに格納する雑音抑圧ステップと、メモリに格
納された背景音の成分を除去した音声データに基づい
て、収録された音声を認識する音声認識ステップとを含
むことを特徴とする。ここで、この雑音抑圧ステップ
は、より好ましくは、特定の方向から雑音が発せられる
ことが想定される場合に、この特定の方向における音の
成分を、収録された音声の特性からさらに分解し除去す
るステップを含む。
マイクロフォン・アレイを用いて音声を収録し、音声デ
ータをメモリに格納する音声入力ステップと、予め測定
された特定の音源方向から発せられた基準音の特性と無
指向性の背景音の特性とを合成して得られる特性を種々
の音声入力方向に対して求め、メモリに格納された音声
データから得られる収録された音声の特性と比較するこ
とにより、収録された音声の音源方向を推定し、推定結
果をメモリに格納する音源位置探索ステップと、メモリ
に格納された音源方向の推定結果と音声データとに基づ
いて、収録された音声における推定された音源方向の成
分の音声データを抽出してメモリに格納する雑音抑圧ス
テップと、メモリに格納された背景音の成分を除去した
音声データに基づいて、収録された音声を認識する音声
認識ステップとを含むことを特徴とする。ここで、この
音源位置探索ステップは、さらに詳しくは、想定される
種々の音源方向から発せられた基準音の特性及び無指向
性の背景音の特性を格納した記憶装置から、音声入力方
向ごとに基準音の特性及び背景音の特性を読み出すステ
ップと、音声入力方向ごとに、読み出された特性を適当
な重み付けを施して合成し、収録された音声の特性に近
似させるステップと、合成により得られた特性と収録さ
れた音声の特性とを比較し、誤差の小さい合成により得
られた特性に対応する基準音の音源方向を、収録された
音声の音源方向として推定するステップとを含む。
マイクロフォン・アレイを用いて音声を収録し、音声デ
ータをメモリに格納する音声入力ステップと、メモリに
格納された音声データに基づいて、収録された音声の音
源方向を推定し、推定結果をメモリに格納する音源位置
探索ステップと、メモリに格納された音源方向の推定結
果と音声データとに基づいて、収録された音声における
推定された音源方向の成分の音声データを抽出してメモ
リに格納する雑音抑圧ステップと、メモリに格納された
音源方向の成分の音声データと、この音声データに対し
所定のモデル化を行って得られる音声モデルとを用いて
最尤推定値を算出しメモリに格納する最尤推定ステップ
と、メモリに格納された最尤推定値に基づいて、収録さ
れた音声を認識する音声認識ステップとを含むことを特
徴とする。
法は、マイクロフォン・アレイを用いて音声を収録し、
音声データをメモリに格納する音声入力ステップと、メ
モリに格納された音声データに基づいて、収録された音
声の音源方向を推定し、推定結果をメモリに格納する音
源位置探索ステップと、メモリに格納された音源方向の
推定結果と音声データとに基づいて、収録された音声に
おける推定された音源方向の成分の音声データを抽出し
てメモリに格納する雑音抑圧ステップと、メモリに格納
された音源方向の成分の音声データに関して、所定の音
声フレームに対して周波数方向のサブバンドごとに隣接
サブバンド数点にわたって信号パワーを平均化してスム
ージング解を求め、メモリに格納するステップと、メモ
リに格納されたスムージング解に基づいて、収録された
音声を認識する音声認識ステップとを含むことを特徴と
する。
御して、上述した音声認識装置の各機能を実現させるプ
ログラム、あるいは上述した音声認識方法の各ステップ
に対応する処理を実行させるためのプログラムとして実
現される。これらのプログラムは、磁気ディスクや光デ
ィスク、半導体メモリ、その他の記録媒体に格納して配
布したり、ネットワークを介して配信したりすることに
より提供することができる。
の実施の形態に基づいて、この発明を詳細に説明する。
以下に説明する第1の実施の形態は、種々の音源方向か
ら発せられた基準音の特性及び無指向性の背景音の特性
を予め取得し保持しておく。そして、マイクロフォン・
アレイにて音声を収録した際に、収録された音声の音源
方向と保持されている基準音の特性及び背景音の特性と
を用いて、収録された音声における推定された音源方向
の成分の音声データを抽出する。また、収録された音声
の特性と保持されている準音の特性及び背景音の特性と
を比較することにより、収録された音声の音源方向を推
定する。これらの手法により、目的方向音源以外の背景
雑音が効率良く除去される。第2の実施の形態は、収録
音声に関してエイリアシングの影響のような大きな観測
誤差が含まれることが避けられない場合を対象として、
音声データをモデル化した上で最尤推定を行う。そし
て、このモデル化による音声モデルとして、音声フレー
ムに対して周波数方向のサブバンドごとに隣接サブバン
ド数点にわたって信号パワーを平均化したスムージング
解を用いる。最尤推定を行う対象となる音声データは、
前段階で収録音声から雑音成分が抑圧されたものを用い
るが、この雑音成分の抑圧は、第1の実施の形態に示す
手法による他、2チャンネル・スペクトラムサブトラク
ションの手法によっても良い。
は、所定の基準音及び背景音の特性(Profile)を予め
用意し、収録された音声における音源方向の成分の抽出
や音源方向の推定の処理に用いる。この手法をプロファ
イル・フィッティングと呼ぶ。図1は、第1の実施の形
態による音声認識システム(装置)を実現するのに好適
なコンピュータ装置のハードウェア構成の例を模式的に
示した図である。図1に示すコンピュータ装置は、演算
手段であるCPU(Central ProcessingUnit:中央処理
装置)101と、M/B(マザーボード)チップセット
102及びCPUバスを介してCPU101に接続され
たメインメモリ103と、同じくM/Bチップセット1
02及びAGP(Accelerated Graphics Port)を介し
てCPU101に接続されたビデオカード104と、P
CI(Peripheral Component Interconnect)バスを介
してM/Bチップセット102に接続されたハードディ
スク105及びネットワークインターフェイス106
と、さらにこのPCIバスからブリッジ回路107及び
ISA(Industry Standard Architecture)バスなどの
低速なバスを介してM/Bチップセット102に接続さ
れたフロッピー(登録商標)ディスクドライブ108及
びキーボード/マウス109とを備える。また、処理対
象である音声を入力し、音声データに変換してCPU1
01へ供給するためのサウンドカード(サウンドチッ
プ)110及びマイクロフォン・アレイ111を備え
る。なお、図1は本実施の形態を実現するコンピュータ
装置のハードウェア構成を例示するに過ぎず、本実施の
形態を適用可能であれば、他の種々の構成を取ることが
できる。例えば、ビデオカード104を設ける代わり
に、ビデオメモリのみを搭載し、CPU101にてイメ
ージデータを処理する構成としても良いし、ATA(AT
Attachment)などのインターフェイスを介してCD−
ROM(CompactDisc Read Only Memory)やDVD−R
OM(Digital Versatile Disc Read Only Memory)の
ドライブを設けても良い。
て実現される本実施の形態による音声認識システムの構
成を示す図である。図2に示すように、本実施の形態に
よる音声認識システムは、音声入力部10と、音源位置
探索部20と、雑音抑圧処理部30と、音声認識部40
と、空間特性データベース50とを備えている。上記の
構成において、音源位置探索部20、雑音抑圧処理部3
0及び音声認識部40は、図1に示したメインメモリ1
03に展開されたプログラムにてCPU101を制御す
ることにより実現される仮想的なソフトウェアブロック
である。また、空間特性データベース50は、メインメ
モリ103やハードディスク105にて実現される。C
PU101を制御してこれらの機能を実現させる当該プ
ログラムは、磁気ディスクや光ディスク、半導体メモ
リ、その他の記憶媒体に格納して配布したり、ネットワ
ークを介して配信したりすることにより提供される。本
実施の形態では、図1に示したネットワークインターフ
ェイス106やフロッピーディスクドライブ108、図
示しないCD−ROMドライブなどを介して当該プログ
ラムを入力し、ハードディスク105に格納する。そし
て、ハードディスク105に格納されたプログラムをメ
インメモリ103に読み込んで展開し、CPU101に
て実行することにより、図2に示した各構成要素の機能
を実現する。なお、プログラム制御されたCPU101
にて実現される各構成要素の間でのデータの受け渡し
は、当該CPU101のキャッシュメモリやメインメモ
リ103を介して行われる。
により構成されたマイクロフォン・アレイ111及びサ
ウンドカード110にて実現され、音声を収録する。収
録された音声は、電気的な音声データに変換されて音源
位置探索部20へ渡される。音源位置探索部20は、音
声入力部10にて同時収録されたN個の音声データか
ら、目的音声の音源位置(音源方向)を推定する。音源
位置探索部20で推定された音源位置情報と音声入力部
10から取得したN個の音声データとは、雑音抑圧処理
部30へ渡される。雑音抑圧処理部30は、音源位置探
索部20から受け取った音源位置情報とN個の音声デー
タとを用いて、目的音声以外の音源位置から到来する音
声を極力排除(雑音抑圧)した1個の音声データを出力
する。雑音抑圧された1個の音声データは、音声認識部
40へ渡される。音声認識部40は、雑音抑圧された1
個の音声データを用いて、音声を文字に変換し、その文
字を出力する。なお、音声認識部40での音声処理は、
周波数領域(Frequency Domain)で行われるのが一般的
である。一方で、音声入力部10の出力は時間領域(Ti
me Domain)であるのが一般的である。そのため、音源
位置探索部20または雑音抑圧処理部30のいずれかに
おいて、音声データの周波数領域から時間領域への変換
が行われる。空間特性データベース50は、本実施の形
態における雑音抑圧処理部30または音源位置探索部2
0の処理において使用される空間特性を格納している。
空間特性については後述する。
マイクロフォン・アレイ111の空間特性と、無指向性
背景音に対するマイクロフォン・アレイ111の空間特
性という2種類のマイクロフォン特性を利用して、目的
方向音源以外の背景雑音を効率良く除去する。具体的に
は、音声認識システムにおける目的方向音源に対するマ
イクロフォン・アレイ111の空間特性と無指向性背景
音に対するマイクロフォン・アレイ111の空間特性と
を、予めホワイトノイズなどを用いて全周波数帯域に対
して推定しておく。そして、実際に雑音のある環境下で
観測された発話データから推定されるマイクロフォン・
アレイ111の空間特性と、上記2つのマイクロフォン
特性の和との差分が最小となるように、上記2つのマイ
クロフォン特性の混合重みを推定する。この操作を、周
波数別に行うことにより、観測データに含まれる目的方
向の発話成分(周波数別の強度)を推定し、音声を再構
成することができる。図2に示した音声認識システムに
おいては、雑音抑圧処理部30の機能として上記の手法
を実現することができる。また、観測データに含まれる
目的方向の発話成分を推定する操作を、音声入力部10
であるマイクロフォン・アレイ111の周囲の様々な方
向に関して行い、結果を比較することにより、観測デー
タの音源方向を特定することができる。図2に示した音
声認識システムにおいては、音源位置探索部20の機能
として上記の手法を実現することができる。これらの機
能は独立しており、いずれか一方を使用することもでき
るし、両方を併用することもできる。以下、まず雑音抑
圧処理部30の機能について説明し、次いで音源位置探
索部20の機能について説明する。
における雑音抑圧処理部30の構成を示す図である。図
3を参照すると、雑音抑圧処理部30は、遅延和処理部
31と、フーリエ変換部32と、プロファイル・フィッ
ティング部33と、スペクトル再構成部34とを備え
る。また、プロファイル・フィッティング部33は、後
述する成分分解処理に用いられる音源位置情報及び空間
特性を格納した空間特性データベース50に接続されて
いる。空間特性データベース50には、後述するよう
に、様々な音源位置からホワイトノイズ等を鳴らして観
測された空間特性が音源位置ごとに格納されている。ま
た、音源位置探索部20にて推定された音源位置の情報
も格納されている。
入力された音声データを、予め設定された所定の遅延時
間で遅延させ、足し合わせる。図3には、設定された遅
延時間(最小遅延時間、・・・、−Δθ、0、+Δθ、
・・・、最大遅延時間)ごとに遅延和処理部31が複数
記載されている。例えば、マイクロフォン・アレイ11
1におけるマイクロフォンどうしの間隔が一定であり、
遅延時間を+Δθとした場合、n番目のマイクロフォン
にて収録された音声データは、(n-1)×Δθだけ遅延さ
せる。そして、N個の音声データを同様に遅延させた上
で、足し合わせる。この処理を、最小遅延時間から最大
遅延時間までの予め設定された各遅延時間について行
う。なお、この遅延時間は、マイクロフォン・アレイ1
11の指向性を向ける方向に相当する。したがって、遅
延和処理部31の出力は、マイクロフォン・アレイ11
1の指向性を最小角度から最大角度まで段階的に変化さ
せたときの、各段階における音声データとなる。遅延和
処理部31から出力された音声データは、フーリエ変換
部32へ渡される。
ムごとの時間領域の音声データをフーリエ変換し、周波
数領域の音声データに変換する。そしてさらに、周波数
領域の音声データを、周波数帯域ごとの音声パワー分布
(パワースペクトル)に変換する。図3には、遅延和処
理部31に対応してフーリエ変換部32が複数記載され
ている。フーリエ変換部32は、マイクロフォン・アレ
イ111の指向性を向ける角度ごとに、言い換えれば図
3に記載された個々の遅延和処理部31の出力ごとに、
周波数帯域ごとの音声パワー分布を出力する。フーリエ
変換部32から出力された音声パワー分布のデータは、
周波数帯域ごとに整理されてプロファイル・フィッティ
ング部33へ渡される。図4は、プロファイル・フィッ
ティング部33へ渡される音声パワー分布の例を示す図
である。
フーリエ変換部32から周波数帯域ごとに受け取った音
声パワー分布のデータ(以下、この角度別音声パワー分
布を空間特性(Profile)と呼ぶ)を、既知の空間特性
に近似的に成分分解する。図3には、周波数帯域ごとに
複数記載されている。プロファイル・フィッティング部
33にて使用される既知の空間特性は、音源位置探索部
20で推定された音源位置情報と一致するものを、空間
特性データベース50から選択して取得する。
33による成分分解について、さらに詳細に説明する。
まず、予めホワイトノイズなどの基準音を用いて、音声
認識に用いられる範囲の様々な周波数(理想的にはあら
ゆる周波数)ωに対し、方向性音源方向をθ0とした際
のマイクロフォン・アレイ111の空間特性(P
ω(θ0,θ):以下、この空間特性を方向性音源空間特性
と呼ぶ)を、想定される種々の音源方向(理想的にはあ
らゆる音源方向)θ0に対して求めておく。一方、無指
向性の背景音に対する空間特性(Qω(θ))も同様に求
めておく。これらの特性は、マイクロフォン・アレイ1
11自身の持つ特性を示すものであって、雑音や音声の
音響的な特徴を示しているものではない。次に、実際に
観測される音声が、方向性の無い背景雑音と方向性のあ
る目的音声との和から構成されると仮定すると、観測さ
れた音声に対して得られる空間特性Xω(θ)は、ある方
向θ0からの音源に対する方向性音源空間特性Pω(θ0,
θ)と、無指向性背景音に対する空間特性Qω(θ)をそ
れぞれある係数倍したものの和で近似することができ
る。
る。この関係は次の数1式で表される。
数、βωは無指向性背景音空間特性の重み係数である。
これらの係数は、次の数2式に示す評価関数Φ ωを最小
化するように定められる。
求められる。
的音源のみのパワーを求めることができる。その周波数
ωにおけるパワーは、αω・Pω(θ0,θ0)と与えられ
る。また、音声を収録する環境において、雑音源が背景
雑音だけでなく、特定の方向から所定の雑音(方向性雑
音)が発せられることが想定され、その到来方向を推定
することができる場合には、その方向性雑音に対する方
向性音源空間特性を空間特性データベース50から取得
し、上記数1式の右辺の分解要素として付け加えること
もできる。なお、実音声に対して観測される空間特性
は、音声フレーム(通常は10ms〜20ms)ごとに
時系列的に得られるが、安定な空間特性を得るために、
成分分解を行う前段階の処理として、複数の音声フレー
ムのパワー分布をまとめて平均化する処理(時間方向の
平滑化処理)を行っても良い。以上の結果、プロファイ
ル・フィッティング部33は、雑音成分が含まれない目
的音源のみの周波数ωごとの音声パワーを、αω・Pω
(θ0,θ0)と推定する。推定された周波数ωごとの音声
パワーは、スペクトル再構成部34へ渡される。
・フィッティング部33にて推定された全周波数帯域分
の音声パワーを集めて、雑音成分が抑圧された周波数領
域の音声データを構成する。なお、プロファイル・フィ
ッティング部33において平滑化処理を行った場合は、
スペクトル再構成部34で、平滑化の逆フィルタとして
構成される逆平滑化を行い、時間変動を先鋭化しても良
い。また、Zωを逆平滑化の出力(パワースペクトル)
とすると、逆平滑化の際の過剰な変動を抑えるために、
0≦Zω及びZω≦Xω(θ0)に変動を制限するリミッ
タを入れても良い。このリミッタには、逆フィルタの各
段階で制限をかける逐次処理と、逆フィルタをかけおわ
った後で制限をかける後処理との2種類の処理が考えら
れるが、0≦Zωを逐次処理、Zω≦Xω(θ0) を後処
理とするのが好適であることが、経験的にわかってい
る。
処理部30による処理の流れを説明するフローチャート
である。図6を参照すると、まず音声入力部10にて入
力された音声データが雑音抑圧処理部30に入力され
(ステップ601)、遅延和処理部31による遅延和処
理が行われる(ステップ602)。ここでは、N本のマ
イクロフォンにて構成されたマイクロフォン・アレイ1
11(音声入力部10)のn番目のマイクロフォンにお
けるt番目のサンプリングのPCM(Pulse Coded Modu
lation)音声データを、変数s(n,t)に格納するものと
する。
数で表現する。この遅延量にサンプリング周波数を掛け
たものが実際の遅延時間となる。変化させる遅延量の刻
み幅をΔθサンプルとし、正の方向および負の方向それ
ぞれにM段階に変化させるとすると、最大遅延量はM×
Δθサンプル、最小遅延量は−M×Δθサンプルとな
る。この場合、m段階目の遅延和出力は、次の数4式で
表される値となる。
ロフォン間隔一定、遠距離音場を想定している。これ以
外の場合は、公知の遅延和マイクロフォン・アレイ11
1の理論により、指向性方向を片側M段階に変化させた
ときのm番目の遅延和出力をx(m,t)に構成するよう
にする。
変換処理が行われる(ステップ603)。フーリエ変換
部32は、時間領域の音声データx(m,t)を、短時間
の音声フレーム間隔ごとに切り出し、フーリエ変換によ
り周波数領域の音声データに変換する。そしてさらに、
周波数領域の音声データを周波数帯域ごとのパワー分布
Xω,i(m)に変換する。ここで、添え字ωは各周波数帯
域の代表周波数を表している。また、添え字iは音声フ
レームの番号を表す。サンプリング点数で表した音声フ
レーム間隔をframe_sizeとすると、t=i×frame_size
の関係がある。
ァイル・フィッティング部33に渡されるが、プロファ
イル・フィッティング部33での前処理として時間方向
の平滑化を行う場合には、平滑化前の空間特性をX*
ω,i(m)、フィルタ幅をW、フィルタ係数をCjとして、
次の数5式で表される値となる。
分解処理が行われる(ステップ604)。かかる処理の
ために、プロファイル・フィッティング部33には、フ
ーリエ変換部32から取得した、観測された空間特性X
ω,i(m)、音源位置探索部20で推定された音源位置情
報m0、方向m0で表される方向からの音源に対する既知
の方向性音源空間特性Pω(m0,m)、及び無指向性背景
音に対する既知の空間特性Qω(m)が入力される。ここ
では、既知の空間特性も観測された空間特性と同様に方
向のパラメータmを片側M段階のサンプリング点数単位
で採っている。
αω、無指向性背景音空間特性の重み係数βωを、次の
数6式にて求める。ただし、式中で、添え字ω、iは省
略されている。処理は、周波数帯域ωごと、及び音声フ
レームiごとに実行する。
クトル再構成処理が行われる(ステップ605)。スペ
クトル再構成部34は、プロファイル・フィッティング
部33による成分分解の結果に基づいて、雑音が抑圧さ
れた周波数領域の音声出力データZω,iを次のように求
める。まず、プロファイル・フィッティング部33にお
いて平滑化処理を行わなかった場合は、そのまま、Z
ω,i=Yω,iとなる。 Yω,i=αω,i・Pω,i(m0,m0) 一方、プロファイル・フィッティング部33において平
滑化処理を行った場合は、次の数7式で表される変動制
限付きの逆平滑化を行ってZω,iを求める。
部40へ出力される(ステップ606)。
時間領域の音声データを入力として処理を行っていた
が、周波数領域の音声データを入力として処理を行うこ
とも可能である。図7は、周波数領域の音声データを入
力とする場合の雑音抑圧処理部30の構成を示す図であ
る。図7に示すように、この場合、雑音抑圧処理部30
には、図2に示した時間領域の処理を行う遅延和処理部
31に代えて、周波数領域の処理を行う遅延和処理部3
6が設けられる。遅延和処理部36にて周波数領域の処
理が行われるので、フーリエ変換部32は不要となる。
遅延和処理部36は、周波数領域の音声データを受け取
り、予め設定された所定の位相遅延量で遅延させ、足し
会わせる。図7には、設定された位相遅延量(最小位相
遅延量、・・・、−Δθ、0、+Δθ、・・・、最大位
相遅延量)ごとに遅延和処理部36が複数記載されてい
る。例えば、マイクロフォン・アレイ111におけるマ
イクロフォンどうしの間隔が一定であり、位相遅延量を
+Δθとした場合、n番目のマイクロフォンにて収録さ
れた音声データは、(n-1)×Δθだけ位相を遅延させ
る。そして、N個の音声データを同様に遅延させた上
で、足し合わせる。この処理を、最小位相遅延量から最
大位相遅延量までの予め設定された各位相遅延量につい
て行う。なお、この位相遅延量は、マイクロフォン・ア
レイ111の指向性を向ける方向に相当する。したがっ
て、遅延和処理部36の出力は、図3に示した構成の場
合と同様に、マイクロフォン・アレイ111の指向性を
最小角度から最大角度まで段階的に変化させたときの、
各段階における音声データとなる。
る角度ごとに、周波数帯域ごとの音声パワー分布を出力
する。この出力は、周波数帯域ごとに整理してプロファ
イル・フィッティング部33に渡される。以下、プロフ
ァイル・フィッティング部33及びスペクトル再構成部
34の処理は、図3に示した雑音抑圧処理部30の場合
と同様である。
部20について説明する。図8は、本実施の形態の音声
認識システムにおける音源位置探索部20の構成を示す
図である。図8を参照すると、音源位置探索部20は、
遅延和処理部21と、フーリエ変換部22と、プロファ
イル・フィッティング部23と、残差評価部24とを備
える。また、プロファイル・フィッティング部23は、
空間特性データベース50に接続されている。これらの
構成のうち、遅延和処理部21及びフーリエ変換部22
の機能は,図3に示した雑音抑圧処理部30における遅
延和処理部31及びフーリエ変換部32と同様である。
また、空間特性データベース50には、様々な音源位置
からホワイトノイズ等を鳴らして観測された空間特性
が、音源位置ごとに格納されている。
フーリエ変換部22から渡された音声パワー分布を短時
間平均し、周波数ごとに空間特性の観測値を作成する。
そして、得られた観測値を、既知の空間特性に近似的に
成分分解する。この際、方向性音源空間特性Pω(θ0,
θ)として、空間特性データベース50に格納されてい
る全ての方向性音源空間特性を順番に選択して適用し、
数2式を中心とする上述の手法により、係数αωとβω
とを求める。係数αωとβωとが求まれば、数2式に代
入することにより、評価関数Φωの残差を求めることが
できる。得られた周波数帯域ωごとの評価関数Φωの残
差は、残差評価部24へ渡される。
ティング部23から受け取った周波数帯域ωごとの評価
関数Φωの残差を合計する。その際、音源位置探索の精
度を高めるために高周波帯域に重みをかけて合計しても
良い。この合計残差が最小になる時に選択された既知の
方向性音源空間特性が、推定された音源位置を表してい
る。すなわち、この既知の方向性音源空間特性を測定し
た時の音源位置が、ここで推定すべき音源位置である。
探索部20による処理の流れを説明するフローチャート
である。図9を参照すると、まず音声入力部10にて入
力された音声データが音源位置探索部20に入力され
(ステップ901)、遅延和処理部21による遅延和処
理、フーリエ変換部22によるフーリエ変換処理が行わ
れる(ステップ902、903)。これらの処理は、図
6を参照して説明した音声データの入力(ステップ60
1)、遅延和処理(ステップ602)及びフーリエ変換
処理(ステップ603)と同様であるので、ここでは説
明を省略する。
3による処理が行われる。プロファイル・フィッティン
グ部23は、まず、成分分解で使用する既知の方向性音
源空間特性として、空間特性データベース50に格納さ
れている既知の方向性音源空間特性の中から順に異なる
ものを選択する(ステップ904)。具体的には、方向
m0からの音源に対する既知の方向性音源空間特性P
ω(m0,m)のm0を変えることに相当する。そして、選
択された既知の方向性音源空間特性について成分分解処
理が行われる(ステップ905、906)。
る成分分解処理では、図6を参照して説明した成分分解
処理(ステップ604)と同様の処理により、目的方向
の方向性音源空間特性の重み係数αω、無指向性背景音
空間特性の重み係数βωが求められる。そして、求まっ
た目的方向の方向性音源空間特性の重み係数αω、無指
向性背景音空間特性の重み係数βωを用い、次の数8式
により評価関数の残差が求められる(ステップ90
7)。
特性と関係付けられて、空間特性データベース50に保
管される。
を繰り返し、空間特性データベース50に格納されてい
る全ての既知の方向性音源空間特性を試したならば、次
に、残差評価部24による残差評価処理が行われる(ス
テップ905、908)。具体的には、次の数9式によ
り、空間特性データベース50に保管されている残差を
周波数帯域ごとに重みをつけて合計する。
い。そして、このΦALLを最小にする既知の方向性音源
空間特性が選択され、位置情報として出力される(ステ
ップ909)。
能と、音源位置探索部20の機能とは独立しているの
で、音声認識システムを構成するに当たり、両方を上述
した本実施の形態による構成としても良いし、どちらか
一方のみを上述した本実施の形態による構成要素とし、
他方は従来の技術を用いても良い。いずれか一方を本実
施の形態による構成要素とする場合、例えば上述した雑
音抑圧処理部30を用いる場合は、収録音声を音源から
の音の成分と背景雑音による音の成分とに分解して音源
からの音の成分を抽出し、音声認識部40による認識が
行われることにより、音声認識の精度の向上を図ること
ができる。また、本実施の形態の音源位置探索部20を
用いる場合は、背景雑音を考慮して特定の音源位置から
の音における空間特性と収録音声の空間特性とを比較す
ることにより、正確な音源位置の推定を行うことができ
る。さらに、本実施の形態の音源位置探索部20及び雑
音抑圧処理部30を両方用いる場合は、正確な音源位置
の推定と音声認識の精度向上とを期待できるのみなら
ず、空間特性データベース50と、遅延和処理部21、
31やフーリエ変換部22、32を共用できることとな
り効率的である。
話者とマイクロフォンとの間に距離がある環境でも雑音
を効率的に除去して高精度な音声認識を実現するのに寄
与するため、コンピュータやPDA、携帯電話などの電
子情報機器に対する音声入力や、ロボットその他の機械
装置との音声による対話など、多くの音声入力環境で使
用することができるものである。
は、収録音声に関してエイリアシングの影響のような大
きな観測誤差が含まれることが避けられない場合を対象
として、音声データをモデル化した上で最尤推定を行う
ことにより、雑音の減少を図る。本実施の形態の構成及
び動作の説明に先立って、エイリアシングの問題につい
て具体的に説明する。図17は、2チャンネル・マイク
ロフォン・アレイでエイリアスの発生する状況を説明す
る図である。図17に示すように、2本のマイクロフォ
ン1711、1712を約30cmの間隔で配置し、正
面0°に信号音源1720を配置し、右約40°に雑音
源1730を1個配置したケースを考える。この場合、
使用するビームフォーマとして2チャンネル・スペクト
ラムサブトラクション法を想定すると、理想的には、主
ビームフォーマでは、信号音源1720の音波は同相化
されて強化されるのに対し、左右のマイクロフォン17
11、1712に同時に到達しない雑音源1730の音
波は、同相化されずに弱化される。また、副ビームフォ
ーマでは、信号音源1720の音波は、逆位相で足し合
わされるためにキャンセルされ、ほとんど残らないのに
対し、雑音源1730の音波は、元々同相化されていな
いものを逆位相で足し合わせるので、キャンセルされず
に出力に残る。
なる場合がある。図17のような構成では、雑音源17
30の音波は左のマイクロフォン1712に約0.5ミ
リ秒遅れて到達する。したがって、約2000(=1÷
0.0005)Hzの音波は、ちょうど一周期遅れて、
同相化されることとなる。すなわち、主ビームフォーマ
で、その雑音成分は弱化されず、また、副ビームフォー
マの出力で残るべき雑音成分が残らなくなってしまうこ
の現象は、その特定周波数(この場合は2000Hz)
の倍音(=N×2000Hz)でも発生する。これによ
り、抽出される音声データにエイリアス(ノイズ)が含
まれてしまう。本実施の形態では、このエイリアスが発
生する特定の周波数で、より精度の高い、雑音成分の推
定を実現する。第2の実施の形態による音声認識システ
ム(装置)は、第1の実施の形態と同様に、図1に示す
ようなコンピュータ装置にて実現される。
ステムの構成を示す図である。図10に示すように、本
実施の形態による音声認識システムは、音声入力部21
0と、音源位置探索部220と、雑音抑圧処理部230
と、分散計測部240と、最尤推定部250と、音声認
識部260とを備えている。上記の構成において、音源
位置探索部220、雑音抑圧処理部230、分散計測部
240、最尤推定部250及び音声認識部260は、図
1に示したメインメモリ103に展開されたプログラム
にてCPU101を制御することにより実現される仮想
的なソフトウェアブロックである。CPU101を制御
してこれらの機能を実現させる当該プログラムは、磁気
ディスクや光ディスク、半導体メモリ、その他の記憶媒
体に格納して配布したり、ネットワークを介して配信し
たりすることにより提供される。本実施の形態では、図
1に示したネットワークインターフェイス106やフロ
ッピーディスクドライブ108、図示しないCD−RO
Mドライブなどを介して当該プログラムを入力し、ハー
ドディスク105に格納する。そして、ハードディスク
105に格納されたプログラムをメインメモリ103に
読み込んで展開し、CPU101にて実行することによ
り、図10に示した各構成要素の機能を実現する。な
お、プログラム制御されたCPU101にて実現される
各構成要素の間でのデータの受け渡しは、当該CPU1
01のキャッシュメモリやメインメモリ103を介して
行われる。
ンにより構成されたマイクロフォン・アレイ111及び
サウンドカード110にて実現され、音声を収録する。
収録された音声は、電気的な音声データに変換されて音
源位置探索部220へ渡される。なお、エイリアシング
の問題が、マイクロフォンの数が2個の場合に顕著に現
れることから、以下では音声入力部210が2個のマイ
クロフォンを備える(すなわち、2個の音声データが収
録される)ものとして説明する。音源位置探索部220
は、音声入力部10にて同時収録された2個の音声デー
タから、目的音声の音源位置(音源方向)を推定する。
音源位置探索部220で推定された音源位置情報と音声
入力部210から取得した2個の音声データとは、雑音
抑圧処理部230へ渡される。雑音抑圧処理部230
は、収録音声の中から所定の雑音成分を推定して減算す
る種類のビームフォーマである。すなわち、音源位置探
索部220から受け取った音源位置情報と2個の音声デ
ータとを用いて、目的音声以外の音源位置から到来する
音声を極力排除(雑音抑圧)した1個の音声データを出
力する。ビームフォーマの種類としては、第1の実施の
形態に示したプロファイル・フィッティングにより雑音
成分を除去するものでも良いし、従来から用いられてい
る2チャンネル・スペクトラムサブトラクションにより
雑音成分を除去するものでも良い。雑音抑圧された1個
の音声データは、分散計測部240及び最尤推定部25
0へ渡される。
0にて処理された音声データを入力し、雑音抑圧された
当該入力音声が雑音区間(音声フレーム中で目的音声の
ない区間)である場合は観測誤差分散を計測する。ま
た、当該入力音声が音声区間(音声フレーム中で目的音
声のある区間)である場合はモデル化誤差分散を計測す
る。観測誤差分散、モデル化誤差分散及びこれらの計測
方法の詳細については後述する。最尤推定部250は、
分散計測部240から観測誤差分散及びモデル化誤差分
散を入力し、雑音抑圧処理部230にて処理された音声
データを入力して、最尤推定値を算出する。最尤推定値
及びその計算方法の詳細については後述する。算出され
た最尤推定値は、音声認識部260へ渡される。音声認
識部260は、最尤推定部250にて算出された最尤推
定値を用いて、音声を文字に変換し、その文字を出力す
る。なお、本実施の形態では、各構成要素間の音声デー
タの受け渡しに周波数領域のパワー値(パワースペクト
ラム)を想定している。
対するエイリアシングの影響を減少させる手法について
説明する。第1の実施の形態に示したプロファイル・フ
ィッティング法や、従来から用いられている2チャンネ
ル・スペクトラムサブトラクション法をはじめとする、
雑音成分を推定してスペクトル減算を行うタイプのビー
ムフォーマの出力では、エイリアシングの問題が起こる
特定の周波数のパワーを中心に、時間方向に平均がゼロ
で大きな分散の誤差を含んでいる。そこで、所定の音声
フレームについて、周波数方向のサブバンドごとに、隣
接サブバンド数点に渡って信号パワーを平均化した解を
考える。この解をスムージング解と呼ぶ。音声のスペク
トラム包絡は連続的に変化すると考えられるので、この
周波数方向の平均化により、混入する誤差は平均化され
て小さくなると期待できる。しかし、このスムージング
解は、上記の定義から、スペクトラム分布が鈍るという
性質を持つため、スペクトラムの構造を正確に表現して
いるとは言いがたい。すなわち、スムージング解そのも
のを音声認識に用いたとしても、良い音声認識結果は得
られない。
値そのものと、上述したスムージング解との線形補間を
考える。そして、観測誤差が小さい周波数では観測値寄
りの値を使用し、観測誤差が大きい周波数ではスムージ
ング解寄りの値を使用する。このときに使用する値とし
て推定される値が最尤推定値である。したがって、最尤
推定値としては、信号に雑音がほとんど含まれていない
S/N(信号・ノイズ比)の高いケースでは、ほぼ全周
波数領域で、観測値に極めて近い値が使用されることに
なる。また、雑音が多く含まれるS/Nの低いケースで
は、エイリアシングが起こる特定の周波数を中心に、ス
ムージング解に近い値が使用されることになる。
細な内容を定式化する。所定の対象を観測する際に大き
な観測誤差が避けられない場合に備え、観測対象を何ら
かの形でモデル化した上で、最尤推定を行う。本実施の
形態では、観測対象の音声モデルとして「スペクトラム
包絡は連続的に変化する」という性質を利用し、スペク
トラムの周波数方向のスムージング解を定義する。状態
方程式を次の数10式のように定める。
のパワーSを隣接サブバンド数点にわたって平均化した
スムージング解である。Yは、スムージング解からの誤
差であり、モデル化誤差と呼ぶ。また、ωは周波数、T
は音声フレームの時系列番号である。
ースペクトル)をZとすると、観測方程式は、次の数1
1式のように定義される。
アスが発生する周波数で大きい。観測値Zが得られたと
き、目的音声のパワーSにおける条件付確率分布P(S
|Z)は、ベイズの公式により、次の数12式で与えら
れる。
値S ̄を使い、観測誤差Vが小さい場合は、観測値Zそ
のものを使うのが合理的な推定となる。
式乃至数16式にて与えられる。
分散である。なお、数15、16式において、Y、Vの
平均値はゼロと仮定した。ここで、E[]ω,Tは、分散
計測の範囲を例示する図11に示すように、ω、Tの周
りのm×n点の期待値を取る操作を表す。ωi、Tjは、
m×n中の各点を表している。
求まらないが、観測誤差Vのスムージング解V ̄は、平
均化によりゼロに近い値になると仮定し、次の数17式
のように、観測値Zのスムージング解Z ̄で代用する。
し、r(ω)とする。雑音区間では目的音声のパワーSが
ゼロであるので、観測値Zを観測することにより、数1
1、16式から求めることができる。この場合、分散を
計測する操作の範囲は、図11の範囲(a)のようにな
る。モデル化誤差分散qについては、モデル化誤差Yが
直接観測できないので、次の数18式で与えられるfを
観測することにより推定する。
と仮定した。既に観測誤差分散rが求まっているので、
音声区間でfを観測することにより、数18式からモデ
ル化誤差分散qを求めることができる。この場合、分散
を計測する操作の範囲は、図11の範囲(b)のように
なる。
測部240及び最尤推定部250により行う。図12
は、分散計測部240の動作を説明するフローチャート
である。図12に示すように、分散計測部240は、雑
音抑圧処理部230から音声フレームTの雑音抑圧処理
後のパワースペクトルZ(ω,T)を取得すると(ステッ
プ1201)、当該音声フレームTが音声区間に属する
のか雑音区間に属するのか判断する(ステップ120
2)。音声フレームTに対する判断は、従来から公知の
方法を用いて行うことができる。入力した音声フレーム
Tが雑音区間であった場合、分散計測部240は、上述
した数11、16式により、観測誤差分散r(ω)を過去
の履歴と合わせて再計算(更新)する(ステップ120
3)。一方、入力した音声フレームTが音声区間であっ
た場合、分散計測部240は、まず数17式により観測
値であるパワースペクトルZ(ω,T)からスムージング
解S ̄(ω,T)を作成する(ステップ1204)。そし
て、数18式により、モデル化誤差分散q(ω,T)を再
計算(更新)する。更新された観測誤差分散r(ω)、ま
たは更新されたモデル化誤差分散q(ω,T)及び作成さ
れたスムージング解S ̄(ω,T)は、最尤推定部250
へ渡される(ステップ1206)。
するフローチャートである。図13に示すように、最尤
推定部250は、雑音抑圧処理部230から音声フレー
ムTの雑音抑圧処理後のパワースペクトルZ(ω,T)を
取得し(ステップ1301)、さらに分散計測部240
から当該音声フレームTにおける観測誤差分散r(ω)、
モデル化誤差分散q(ω,T)及びスムージング解S ̄
(ω,T)を取得する(ステップ1302)。そして、最
尤推定部250は、取得した各データを用いて、数13
式により、最尤推定値S^(ω,T)を算出する(ステップ
1303)。算出された最尤推定値S^(ω,T)は、音声
認識部260へ渡される(ステップ1304)。
ャンネル・スペクトラムサブトラクション・ビームフォ
ーマを用い、これに本実施の形態を適用した構成を示す
図である。図14に示す2チャンネル・スペクトラムサ
ブトラクション・ビームフォーマは、重みを適応的にか
ける方法である2チャンネル・アダプティブ・スペクト
ラムサブトラクション(2 Channel Adaptive Spectrum
Subtraction)法を使用するビームフォーマである。図
14において、2つのマイクロフォン(図ではマイクと
表記)1401、1402が図10に示した音声入力部
210に対応し、主ビームフォーマ1403、副ビーム
フォーマ1404が音源位置探索部220及び雑音抑圧
処理部230としての機能を実現する。すなわち、この
2チャンネル・スペクトラムサブトラクション・ビーム
フォーマは、2つのマイクロフォン1401、1402
によって収録された音声に関し、目的音源方向に指向性
を向けた主ビームフォーマ1403の出力から目的音源
方向に死角を構成した副ビームフォーマ1404の出力
をスペクトルサブトラクション(減算)する。副ビーム
フォーマ1404は、目的音源の音声信号が含まれてい
ない雑音成分のみの信号を出力するとみなされる。主ビ
ームフォーマ1403の出力と副ビームフォーマ140
4の出力とは、それぞれ高速フーリエ変換(FFT:Fast
Fourier Transform)され、所定の重み(Weight(ω):
W(ω))を着けて減算が行われた後、分散計測部24
0、最尤推定部250による処理を経て、逆高速フーリ
エ変換(I-FFT:Inverse Fast Fourier Transform)さ
れて音声認識部260へ出力される。当然ながら、音声
認識部260が周波数領域のデータを入力として受け付
ける場合には、この逆高速フーリエ変換は省略すること
ができる。
ペクトルをM1(ω,T)、副ビームフォーマ1404
の出力パワースペクトルをM2(ω,T)とする。主ビ
ームフォーマ1403に含まれる信号パワーをS、雑音
パワーをN1、副ビームフォーマに含まれる雑音パワー
をN2とすると、次のような関係がある。 M1(ω,T)=S(ω,T)+N1(ω,T) M2(ω,T)=N2(ω,T) ここでは、信号と雑音は無相関であると仮定している。
ームフォーマ1404の出力を、重み係数W(ω)を掛け
て減算すると、その出力Zは、 Z(ω,T)=M1(ω,T)−W(ω)・M2(ω,T) =S(ω,T)+{N1(ω,T)−W(ω)・N2(ω,T)} と表される。重みW(ω)は、E[ ]を期待値操作とし
て、 E[[N1(ω,T)−W(ω)・N2(ω,T)]2] を最小とするように学習される。図15は、例として、
雑音源を右40°に1個配置した時の学習済みの重み係
数W(ω)を示す図である。図15を参照すると、特定の
周波数で、特に大きな値を持つことがわかる。このよう
な周波数では、上式で期待される雑音成分のキャンセル
の精度が著しく低下する。すなわち、観測される主ビー
ムフォーマ1403の出力パワーS(ω,T)の値に大き
な誤差を伴うこととなる。
状態方程式及び観測方程式を定める。この時、観測誤差
V(ω,T)は、次のように定義される。 V(ω,T)=N1(ω,T)・W(ω)・N2(ω,T) そして、分散計測部240及び最尤推定部250が、上
述した数13乃至数16式により最尤推定値を算出す
る。これにより、主ビームフォーマ1403の出力パワ
ーS(ω,T)の値に大きな誤差を伴わない場合、すなわ
ち、収録音声に信号にエイリアシングによる雑音がほと
んど含まれていない場合には、観測値に近い最尤推定値
が逆高速フーリエ変換されて音声認識部260へ出力さ
れる。一方、主ビームフォーマ1403の出力パワーS
(ω,T)の値に大きな誤差を伴う場合、すなわち、収録
音声に信号にエイリアシングによる雑音が多く含まれて
いる場合には、当該エイリアシングが起こる特定の周波
数を中心としてスムージング解に近い最尤推定値が逆高
速フーリエ変換されて音声認識部260へ出力される。
4に示した2チャンネル・スペクトラムサブトラクショ
ン・ビームフォーマを備えたコンピュータ装置の外観を
例示する図である。図16に示すコンピュータ装置は、
ディスプレイ(LCD)1610の上部にステレオマイ
クロフォン1621、1622が設けられている。この
ステレオマイクロフォン1621、1622は、図14
に示したマイクロフォン1401、1402に相当し、
これを図10に示した音声入力部210として用いる。
そして、プログラム制御されたCPUにより、音源位置
探索部220及び雑音抑圧処理部230として機能する
主ビームフォーマ1403、副ビームフォーマ1404
と、分散計測部240及び最尤推定部250の機能とを
実現する。これにより、エイリアシングの影響を極力減
少させた音声認識が可能となる。
2チャンネルのビームフォーマにおいて顕著に発生する
エイリアシングによる雑音を減少させる場合を例として
説明したが、本実施の形態によるスムージング解及び最
尤推定を用いた雑音除去の技術は、その他、2チャンネ
ル・スペクトラムサブトラクションや第1の実施の形態
によるプロファイル・フィッティング等の手法でも除去
できない種々の雑音を減少させるためにも用いることが
できるのは言うまでもない。
収録音声から目的方向音源以外の背景雑音を効率良く除
去し、高精度の音声認識を実現することができる。ま
た、本発明によれば、ビームフォーマにおけるエイリア
シングの影響のような避けがたい雑音を効果的に抑制す
る方法及びこれを用いたシステムを提供することができ
る。
実現するのに好適なコンピュータ装置のハードウェア構
成の例を模式的に示した図である。
る第1の実施の形態による音声認識システムの構成を示
す図である。
る雑音抑圧処理部の構成を示す図である。
布の例を示す図である。
向性背景音に対する空間特性と収録音声の空間特性との
関係を模式的に表す図である。
よる処理の流れを説明するフローチャートである。
雑音抑圧処理部の構成を示す図である。
る音源位置探索部の構成を示す図である。
よる処理の流れを説明するフローチャートである。
の構成を示す図である。
例示する図である。
作を説明するフローチャートである。
0の動作を説明するフローチャートである。
を2チャンネル・スペクトラムサブトラクション・ビー
ムフォーマに適用した構成を示す図である。
0°に1個配置した時の学習済みの重み係数W(ω)を示
す図である。
ムサブトラクション・ビームフォーマを備えたコンピュ
ータ装置の外観を例示する図である。
エイリアスの発生する状況を説明する図である。
音声認識システムの構成を概略的に示した図である。
索部、21、31、36…遅延和処理部、22、32…
フーリエ変換部、23、33…プロファイル・フィッテ
ィング部、24…残差評価部、30、230…雑音抑圧
処理部、34…スペクトル再構成部、40、260…音
声認識部、50…空間特性データベース、101…CP
U、102…M/Bチップセット、103…メインメモ
リ、105…ハードディスク、110…サウンドカー
ド、111…マイクロフォン・アレイ、240…分散計
測部、250…最尤推定部
Claims (28)
- 【請求項1】 音声を収録するマイクロフォン・アレイ
と、 想定される種々の音源方向から発せられた基準音の特性
及び無指向性の背景音の特性を格納したデータベース
と、 前記マイクロフォン・アレイにて収録された音声の音源
方向を推定する音源位置探索部と、 前記音源位置探索部にて推定された前記音源方向と前記
データベースに格納された前記基準音の特性及び前記背
景音の特性とを用いて、前記収録された音声における前
記推定された音源方向の成分の音声データを抽出する雑
音抑圧処理部と、 前記音源方向の成分の音声データの認識処理を行う音声
認識部とを備えることを特徴とする音声認識装置。 - 【請求項2】 前記雑音抑圧処理部は、前記収録された
音声の特性と前記基準音の特性及び前記背景音の特性と
を比較し、比較結果に基づいて前記収録された音声の特
性を前記音源方向の音の成分と無指向性の背景音の成分
とに分解し、前記音源方向の音の成分の音声データを抽
出することを特徴とする請求項1に記載の音声認識装
置。 - 【請求項3】 音声を収録するマイクロフォン・アレイ
と、 想定される種々の音源方向から発せられた基準音の特性
及び無指向性の背景音の特性を格納したデータベース
と、 前記マイクロフォン・アレイにて収録された音声の特性
と前記データベースに格納された前記基準音の特性及び
前記背景音の特性とを比較することにより、前記収録さ
れた音声の音源方向を推定する音源位置探索部と、 前記音源位置探索部にて推定された音源方向の成分の音
声データの認識処理を行う音声認識部とを備えることを
特徴とする音声認識装置。 - 【請求項4】 前記音源位置探索部は、所定の音声入力
方向ごとに、前記基準音の特性及び前記背景音の特性と
合成して得られた特性と前記収録された音声の特性とを
比較し、比較結果に基づいて所定の基準音の音源位置を
当該収録された音声の音源方向として推定することを特
徴とする請求項3に記載の音声認識装置。 - 【請求項5】 音声を収録するマイクロフォン・アレイ
と、 前記マイクロフォン・アレイにて収録された収録音声の
音源方向を推定する音源位置探索部と、 前記収録音声から前記音源位置探索部にて推定された音
源方向以外の成分を除去する雑音抑圧処理部と、 前記雑音抑圧処理部にて処理された前記収録音声と、当
該収録音声に対し所定のモデル化を行って得られる音声
モデルとを用いて最尤推定を行う最尤推定部と、 前記最尤推定部にて推定された最尤推定値を用いて音声
の認識処理を行う音声認識部とを含むことを特徴とする
音声認識装置。 - 【請求項6】 前記最尤推定部は、前記収録音声の音声
モデルとして、当該収録音声の所定の音声フレームに対
して周波数方向のサブバンドごとに隣接サブバンド数点
にわたって信号パワーを平均化したスムージング解を用
いることを特徴とする請求項5に記載の音声認識装置。 - 【請求項7】 前記雑音抑圧処理部にて処理された前記
収録音声の雑音区間に関して観測誤差の分散を計測し、
当該収録音声の音声区間に関して前記モデル化における
モデル化誤差の分散を計測する分散計測部をさらに備
え、 前記最尤推定部は、前記分散計測部にて計測された前記
観測誤差の分散または前記モデル化誤差の分散を用いて
前記最尤推定値を計算することを特徴とする請求項5に
記載の音声認識装置。 - 【請求項8】 コンピュータを制御して、マイクロフォ
ン・アレイを用いて収録された音声を認識する音声認識
方法において、 前記マイクロフォン・アレイを用いて音声を収録し、音
声データをメモリに格納する音声入力ステップと、 前記メモリに格納された音声データに基づいて、収録さ
れた音声の音源方向を推定し、推定結果をメモリに格納
する音源位置探索ステップと、 前記メモリに格納された推定結果に基づいて、前記収録
された音声の特性を、推定された音源位置から発せられ
た音の成分と、無指向性の背景音の成分とに分解処理
し、処理結果に基づいて前記収録された音声における前
記推定された音源方向の成分の音声データを抽出してメ
モリに格納する雑音抑圧ステップと、 前記メモリに格納された前記音源方向の成分の音声デー
タに基づいて、前記収録された音声を認識する音声認識
ステップとを含むことを特徴とする音声認識方法。 - 【請求項9】 前記雑音抑圧ステップは、 想定される種々の音源方向から発せられた基準音の特性
及び無指向性の背景音の特性を格納した記憶装置から、
前記音源方向の推定結果に合致する音源方向から発せら
れた基準音の特性及び背景音の特性を読み出すステップ
と、 読み出された前記特性を適当な重み付けを施して合成
し、前記収録された音声の特性に近似させるステップ
と、 近似によって得られた前記基準音及び前記背景音の特性
に関する情報に基づいて、前記メモリに格納された音声
データのうち、前記推定された音源方向から発せられた
成分を推定し抽出するステップとを含むことを特徴とす
る請求項8に記載の音声認識方法。 - 【請求項10】 コンピュータを制御して、マイクロフ
ォン・アレイを用いて収録された音声を認識する音声認
識方法において、 前記マイクロフォン・アレイを用いて音声を収録し、音
声データをメモリに格納する音声入力ステップと、 前記メモリに格納された音声データに基づいて、収録さ
れた音声の音源方向を推定し、推定結果をメモリに格納
する音源位置探索ステップと、 前記メモリに格納された推定結果と予め測定された所定
の音声の特性に関する情報とに基づいて、前記収録され
た音声の特性を、推定された音源方向から発せられた音
の成分と、無指向性の背景音の成分とに分解し、前記収
録された音声から当該背景音の成分を除去した音声デー
タをメモリに格納する雑音抑圧ステップと、 前記メモリに格納された前記背景音の成分を除去した音
声データに基づいて、前記収録された音声を認識する音
声認識ステップとを含むことを特徴とする音声認識方
法。 - 【請求項11】 前記雑音抑圧ステップは、特定の方向
から雑音が発せられることが想定される場合に、当該特
定の方向における音の成分を、前記収録された音声の特
性からさらに分解し除去するステップを含むことを特徴
とする請求項10に記載の音声認識方法。 - 【請求項12】 コンピュータを制御して、マイクロフ
ォン・アレイを用いて収録された音声を認識する音声認
識方法において、 前記マイクロフォン・アレイを用いて音声を収録し、音
声データをメモリに格納する音声入力ステップと、 予め測定された特定の音源方向から発せられた基準音の
特性と無指向性の背景音の特性とを合成して得られる特
性を種々の音声入力方向に対して求め、前記メモリに格
納された音声データから得られる収録された音声の特性
と比較することにより、収録された音声の音源方向を推
定し、推定結果をメモリに格納する音源位置探索ステッ
プと、 前記メモリに格納された音源方向の推定結果と前記音声
データとに基づいて、前記収録された音声における前記
推定された音源方向の成分の音声データを抽出してメモ
リに格納する雑音抑圧ステップと、 前記メモリに格納された前記背景音の成分を除去した音
声データに基づいて、前記収録された音声を認識する音
声認識ステップとを含むことを特徴とする音声認識方
法。 - 【請求項13】 前記音源位置探索ステップは、 想定される種々の音源方向から発せられた基準音の特性
及び無指向性の背景音の特性を格納した記憶装置から、
前記音声入力方向ごとに前記基準音の特性及び前記背景
音の特性を読み出すステップと、 前記音声入力方向ごとに、読み出された前記特性を適当
な重み付けを施して合成し、前記収録された音声の特性
に近似させるステップと、 前記合成により得られた特性と前記収録された音声の特
性とを比較し、誤差の小さい当該合成により得られた特
性に対応する基準音の音源方向を、当該収録された音声
の音源方向として推定するステップとを含むことを特徴
とする請求項12に記載の音声認識方法。 - 【請求項14】 コンピュータを制御して、マイクロフ
ォン・アレイを用いて収録された音声を認識する音声認
識方法において、 前記マイクロフォン・アレイを用いて音声を収録し、音
声データをメモリに格納する音声入力ステップと、 前記メモリに格納された音声データに基づいて、収録さ
れた音声の音源方向を推定し、推定結果をメモリに格納
する音源位置探索ステップと、 前記メモリに格納された音源方向の推定結果と前記音声
データとに基づいて、前記収録された音声における前記
推定された音源方向の成分の音声データを抽出してメモ
リに格納する雑音抑圧ステップと、 前記メモリに格納された音源方向の成分の音声データ
と、当該音声データに対し所定のモデル化を行って得ら
れる音声モデルとを用いて最尤推定値を算出しメモリに
格納する最尤推定ステップと、 前記メモリに格納された前記最尤推定値に基づいて、前
記収録された音声を認識する音声認識ステップとを含む
ことを特徴とする音声認識方法。 - 【請求項15】 前記最尤推定ステップは、 前記収録された音声の雑音区間に関して観測誤差の分散
を計測し、当該収録された音声の音声区間に関して前記
モデル化におけるモデル化誤差の分散を計測するステッ
プと、 計測された前記観測誤差の分散または前記モデル化誤差
の分散を用いて前記最尤推定値を計算するステップとを
含むことを特徴とする請求項14に記載の音声認識方
法。 - 【請求項16】 コンピュータを制御して、マイクロフ
ォン・アレイを用いて収録された音声を認識する音声認
識方法において、 前記マイクロフォン・アレイを用いて音声を収録し、音
声データをメモリに格納する音声入力ステップと、 前記メモリに格納された音声データに基づいて、収録さ
れた音声の音源方向を推定し、推定結果をメモリに格納
する音源位置探索ステップと、 前記メモリに格納された音源方向の推定結果と前記音声
データとに基づいて、前記収録された音声における前記
推定された音源方向の成分の音声データを抽出してメモ
リに格納する雑音抑圧ステップと、 前記メモリに格納された音源方向の成分の音声データに
関して、所定の音声フレームに対して周波数方向のサブ
バンドごとに隣接サブバンド数点にわたって信号パワー
を平均化してスムージング解を求め、メモリに格納する
ステップと、 前記メモリに格納された前記スムージング解に基づい
て、前記収録された音声を認識する音声認識ステップと
を含むことを特徴とする音声認識方法。 - 【請求項17】 コンピュータを制御して、マイクロフ
ォン・アレイを用いて収録された音声を認識するプログ
ラムにおいて、 前記マイクロフォン・アレイを用いて音声を収録し、音
声データをメモリに格納する音声入力処理と、 前記メモリに格納された音声データに基づいて、収録さ
れた音声の音源方向を推定し、推定結果をメモリに格納
する音源位置探索処理と、 前記メモリに格納された推定結果に基づいて、前記収録
された音声の特性を、推定された音源方向から発せられ
た音の成分と、無指向性の背景音の成分とに分解処理
し、処理結果に基づいて前記収録された音声における前
記推定された音源方向の成分の音声データを抽出してメ
モリに格納する雑音抑圧処理と、 前記メモリに格納された前記音源方向の成分の音声デー
タに基づいて、前記収録された音声を認識する音声認識
処理とを前記コンピュータに実行させることを特徴とす
るプログラム。 - 【請求項18】 前記プログラムによる前記雑音抑圧処
理は、 想定される種々の音源方向から発せられた基準音の特性
及び無指向性の背景音の特性を格納した記憶装置から、
前記音源方向の推定結果に合致する音源方向から発せら
れた基準音の特性及び背景音の特性を読み出す処理と、 読み出された前記特性を適当な重み付けを施して合成
し、前記収録された音声の特性に近似させる処理と、 近似によって得られた前記基準音及び前記背景音の特性
に関する情報に基づいて、前記メモリに格納された音声
データのうち、前記推定された音源方向から発せられた
成分を推定し抽出する処理とを含むことを特徴とする請
求項17に記載のプログラム。 - 【請求項19】 コンピュータを制御して、マイクロフ
ォン・アレイを用いて収録された音声を認識するプログ
ラムにおいて、 前記マイクロフォン・アレイを用いて音声を収録し、音
声データをメモリに格納する音声入力処理と、 前記メモリに格納された音声データに基づいて、収録さ
れた音声の音源方向を推定し、推定結果をメモリに格納
する音源位置探索処理と、 前記メモリに格納された推定結果と予め測定された所定
の音声の特性に関する情報とに基づいて、前記収録され
た音声の特性を、推定された音源方向から発せられた音
の成分と、無指向性の背景音の成分とに分解し、前記収
録された音声から当該背景音の成分を除去した音声デー
タをメモリに格納する雑音抑圧処理と、前記メモリに格
納された前記背景音の成分を除去した音声データに基づ
いて、前記収録された音声を認識する音声認識処理とを
前記コンピュータに実行させることを特徴とするプログ
ラム。 - 【請求項20】 前記プログラムによる前記雑音抑圧処
理は、特定の位置から雑音が発せられることが想定され
る場合に、当該特定の方向における音の成分を、前記収
録された音声の特性からさらに分解し除去する処理を含
むことを特徴とする請求項19に記載のプログラム。 - 【請求項21】 コンピュータを制御して、マイクロフ
ォン・アレイを用いて収録された音声を認識するプログ
ラムにおいて、 前記マイクロフォン・アレイを用いて音声を収録し、音
声データをメモリに格納する音声入力処理と、 予め測定された特定の音源方向から発せられた基準音の
特性と無指向性の背景音の特性とを合成して得られる特
性を種々の音声入力方向に対して求め、前記メモリに格
納された音声データから得られる収録された音声の特性
と比較することにより、収録された音声の音源方向を推
定し、推定結果をメモリに格納する音源位置探索処理
と、 前記メモリに格納された音源方向の推定結果と前記音声
データとに基づいて、前記収録された音声における前記
推定された音源方向の成分の音声データを抽出してメモ
リに格納する雑音抑圧処理と、 前記メモリに格納された前記背景音の成分を除去した音
声データに基づいて、前記収録された音声を認識する音
声認識処理とを前記コンピュータに実行させることを特
徴とするプログラム。 - 【請求項22】 前記音源位置探索処理は、 想定される種々の音源方向から発せられた基準音の特性
及び無指向性の背景音の特性を格納した記憶装置から、
前記音声入力方向ごとに前記基準音の特性及び前記背景
音の特性を読み出す処理と、 前記音声入力方向ごとに、読み出された前記特性を適当
な重み付けを施して合成し、前記収録された音声の特性
に近似させる処理と、 前記合成により得られた特性と前記収録された音声の特
性とを比較し、誤差の小さい当該合成により得られた特
性に対応する基準音の音源方向を、当該収録された音声
の音源方向として推定する処理とを含むことを特徴とす
る請求項21に記載のプログラム。 - 【請求項23】 コンピュータを制御して、マイクロフ
ォン・アレイを用いて収録された音声を認識するプログ
ラムにおいて、 前記マイクロフォン・アレイを用いて音声を収録し、音
声データをメモリに格納する音声入力処理と、 前記メモリに格納された音声データに基づいて、収録さ
れた音声の音源方向を推定し、推定結果をメモリに格納
する音源位置探索処理と、 前記メモリに格納された音源方向の推定結果と前記音声
データとに基づいて、 前記収録された音声における前記推定された音源方向の
成分の音声データを抽出してメモリに格納する雑音抑圧
処理と、 前記メモリに格納された音源方向の成分の音声データ
と、当該音声データに対し所定のモデル化を行って得ら
れる音声モデルとを用いて最尤推定値を算出しメモリに
格納する最尤推定処理と、 前記メモリに格納された前記最尤推定値に基づいて、前
記収録された音声を認識する音声認識処理とを含むこと
を特徴とするプログラム。 - 【請求項24】 前記プログラムによる最尤推定処理
は、 前記収録された音声の雑音区間に関して観測誤差の分散
を計測し、当該収録された音声の音声区間に関して前記
モデル化におけるモデル化誤差の分散を計測する処理
と、 計測された前記観測誤差の分散または前記モデル化誤差
の分散を用いて前記最尤推定値を計算する処理とを含む
ことを特徴とする請求項23に記載のプログラム。 - 【請求項25】 コンピュータを制御して、マイクロフ
ォン・アレイを用いて収録された音声を認識するプログ
ラムにおいて、 前記マイクロフォン・アレイを用いて音声を収録し、音
声データをメモリに格納する音声入力処理と、 前記メモリに格納された音声データに基づいて、収録さ
れた音声の音源方向を推定し、推定結果をメモリに格納
する音源位置探索処理と、 前記メモリに格納された音源方向の推定結果と前記音声
データとに基づいて、前記収録された音声における前記
推定された音源方向の成分の音声データを抽出してメモ
リに格納する雑音抑圧処理と、 前記メモリに格納された音源方向の成分の音声データに
関して、所定の音声フレームに対して周波数方向のサブ
バンドごとに隣接サブバンド数点にわたって信号パワー
を平均化してスムージング解を求め、メモリに格納する
処理と、 前記メモリに格納された前記スムージング解に基づい
て、前記収録された音声を認識する音声認識処理とを含
むことを特徴とするプログラム。 - 【請求項26】 コンピュータを制御してマイクロフォ
ン・アレイを用いて収録された音声を認識するプログラ
ムを、当該コンピュータが読み取り可能に記録した記録
媒体において、 前記プログラムは、 前記マイクロフォン・アレイを用いて音声を収録し、音
声データをメモリに格納する音声入力処理と、 前記メモリに格納された音声データに基づいて、収録さ
れた音声の音源方向を推定し、推定結果をメモリに格納
する音源位置探索処理と、 前記メモリに格納された推定結果に基づいて、前記収録
された音声の特性を、推定された音源方向から発せられ
た音の成分と、無指向性の背景音の成分とに分解処理
し、処理結果に基づいて前記収録された音声における前
記推定された音源方向の成分の音声データを抽出してメ
モリに格納する雑音抑圧処理と、 前記メモリに格納された前記音源方向の成分の音声デー
タに基づいて、前記収録された音声を認識する音声認識
処理とを前記コンピュータに実行させることを特徴とす
る記録媒体。 - 【請求項27】 コンピュータを制御してマイクロフォ
ン・アレイを用いて収録された音声を認識するプログラ
ムを、当該コンピュータが読み取り可能に記録した記録
媒体において、 前記プログラムは、 前記マイクロフォン・アレイを用いて音声を収録し、音
声データをメモリに格納する音声入力処理と、 予め測定された特定の音源方向から発せられた基準音の
特性と無指向性の背景音の特性とを合成して得られる特
性を種々の音声入力方向に対して求め、前記メモリに格
納された音声データから得られる収録された音声の特性
と比較することにより、収録された音声の音源方向を推
定し、推定結果をメモリに格納する音源位置探索処理
と、 前記メモリに格納された音源方向の推定結果と前記音声
データとに基づいて、前記収録された音声における前記
推定された音源方向の成分の音声データを抽出してメモ
リに格納する雑音抑圧処理と、 前記メモリに格納された前記背景音の成分を除去した音
声データに基づいて、前記収録された音声を認識する音
声認識処理とを前記コンピュータに実行させることを特
徴とする記録媒体。 - 【請求項28】 コンピュータを制御して、マイクロフ
ォン・アレイを用いて収録された音声を認識するプログ
ラムを、当該コンピュータが読み取り可能に記録した記
録媒体において、 前記プログラムは、 前記マイクロフォン・アレイを用いて音声を収録し、音
声データをメモリに格納する音声入力処理と、 前記メモリに格納された音声データに基づいて、収録さ
れた音声の音源方向を推定し、推定結果をメモリに格納
する音源位置探索処理と、 前記メモリに格納された音源方向の推定結果と前記音声
データとに基づいて、前記収録された音声における前記
推定された音源方向の成分の音声データを抽出してメモ
リに格納する雑音抑圧処理と、 前記メモリに格納された音源方向の成分の音声データ
と、当該音声データに対し所定のモデル化を行って得ら
れる音声モデルとを用いて最尤推定値を算出しメモリに
格納する最尤推定処理と、 前記メモリに格納された前記最尤推定値に基づいて、前
記収録された音声を認識する音声認識処理とを前記コン
ピュータに実行させることを特徴とする記録媒体。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002272318A JP4195267B2 (ja) | 2002-03-14 | 2002-09-18 | 音声認識装置、その音声認識方法及びプログラム |
US10/386,726 US7478041B2 (en) | 2002-03-14 | 2003-03-12 | Speech recognition apparatus, speech recognition apparatus and program thereof |
US12/236,588 US7720679B2 (en) | 2002-03-14 | 2008-09-24 | Speech recognition apparatus, speech recognition apparatus and program thereof |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002070194 | 2002-03-14 | ||
JP2002-70194 | 2002-03-14 | ||
JP2002272318A JP4195267B2 (ja) | 2002-03-14 | 2002-09-18 | 音声認識装置、その音声認識方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003337594A true JP2003337594A (ja) | 2003-11-28 |
JP4195267B2 JP4195267B2 (ja) | 2008-12-10 |
Family
ID=28043711
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002272318A Expired - Lifetime JP4195267B2 (ja) | 2002-03-14 | 2002-09-18 | 音声認識装置、その音声認識方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (2) | US7478041B2 (ja) |
JP (1) | JP4195267B2 (ja) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2005048239A1 (ja) * | 2003-11-12 | 2007-11-29 | 本田技研工業株式会社 | 音声認識装置 |
JP2008067854A (ja) * | 2006-09-13 | 2008-03-27 | National Institute Of Advanced Industrial & Technology | 電動車椅子搭載用音声入力装置 |
JP2008216111A (ja) * | 2007-03-06 | 2008-09-18 | Mitsubishi Electric Corp | 測距装置及び測位装置並びに測距方法及び測位方法 |
WO2009038136A1 (ja) * | 2007-09-19 | 2009-03-26 | Nec Corporation | 雑音抑圧装置、その方法及びプログラム |
JP2010072164A (ja) * | 2008-09-17 | 2010-04-02 | Nippon Telegr & Teleph Corp <Ntt> | 目的信号区間推定装置、目的信号区間推定方法、目的信号区間推定プログラム及び記録媒体 |
JP2010517047A (ja) * | 2007-01-26 | 2010-05-20 | マイクロソフト コーポレーション | マルチセンサ音源定位 |
JP2012058360A (ja) * | 2010-09-07 | 2012-03-22 | Sony Corp | 雑音除去装置および雑音除去方法 |
JP2012149906A (ja) * | 2011-01-17 | 2012-08-09 | Mitsubishi Electric Corp | 音源位置推定装置、音源位置推定方法および音源位置推定プログラム |
JP2013504829A (ja) * | 2009-09-16 | 2013-02-07 | ラルス フォルスベリ, | 手を洗うように人々を動機付け、及び/又は促すためのシステム及び方法 |
KR101296757B1 (ko) * | 2008-09-11 | 2013-08-14 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 마이크로폰 신호를 기반으로 공간 큐의 세트를 제공하는 장치, 방법 및 컴퓨터 프로그램과, 2채널 오디오 신호 및 공간 큐의 세트를 제공하는 장치 |
JP2014090353A (ja) * | 2012-10-31 | 2014-05-15 | Nippon Telegr & Teleph Corp <Ntt> | 音源位置推定装置 |
US8812312B2 (en) | 2007-08-31 | 2014-08-19 | International Business Machines Corporation | System, method and program for speech processing |
KR101442172B1 (ko) * | 2008-05-14 | 2014-09-18 | 삼성전자주식회사 | 검색 공간 클러스터링 방법을 이용한 실시간srp-phat 음원 위치 탐색 시스템 및 제어방법 |
US9183839B2 (en) | 2008-09-11 | 2015-11-10 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Apparatus, method and computer program for providing a set of spatial cues on the basis of a microphone signal and apparatus for providing a two-channel audio signal and a set of spatial cues |
US20190324117A1 (en) * | 2018-04-24 | 2019-10-24 | Mediatek Inc. | Content aware audio source localization |
JP2021081746A (ja) * | 2017-03-20 | 2021-05-27 | ボーズ・コーポレーションBose Corporation | ノイズ低減のためのオーディオ信号処理 |
Families Citing this family (117)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4000095B2 (ja) * | 2003-07-30 | 2007-10-31 | 株式会社東芝 | 音声認識方法、装置及びプログラム |
US7613532B2 (en) * | 2003-11-10 | 2009-11-03 | Microsoft Corporation | Systems and methods for improving the signal to noise ratio for audio input in a computing system |
DE102004010850A1 (de) * | 2004-03-05 | 2005-09-22 | Siemens Ag | Bedien- und Beobachtungssystem mit Klanggenerator zur Erzeugung von kontinuierlichen Klangmustern |
JP4873913B2 (ja) * | 2004-12-17 | 2012-02-08 | 学校法人早稲田大学 | 音源分離システムおよび音源分離方法、並びに音響信号取得装置 |
JP4204541B2 (ja) * | 2004-12-24 | 2009-01-07 | 株式会社東芝 | 対話型ロボット、対話型ロボットの音声認識方法および対話型ロボットの音声認識プログラム |
ATE400474T1 (de) * | 2005-02-23 | 2008-07-15 | Harman Becker Automotive Sys | Spracherkennungssytem in einem kraftfahrzeug |
JP4761506B2 (ja) * | 2005-03-01 | 2011-08-31 | 国立大学法人北陸先端科学技術大学院大学 | 音声処理方法と装置及びプログラム並びに音声システム |
DE602006018897D1 (de) * | 2005-05-05 | 2011-01-27 | Sony Computer Entertainment Inc | Videospielsteuerung mittels Joystick |
KR20060127452A (ko) * | 2005-06-07 | 2006-12-13 | 엘지전자 주식회사 | 로봇청소기 상태알림장치 및 방법 |
US7689248B2 (en) * | 2005-09-27 | 2010-03-30 | Nokia Corporation | Listening assistance function in phone terminals |
US7813923B2 (en) * | 2005-10-14 | 2010-10-12 | Microsoft Corporation | Calibration based beamforming, non-linear adaptive filtering, and multi-sensor headset |
US7565288B2 (en) * | 2005-12-22 | 2009-07-21 | Microsoft Corporation | Spatial noise suppression for a microphone array |
WO2007080886A1 (ja) * | 2006-01-11 | 2007-07-19 | Nec Corporation | 音声認識装置、音声認識方法、および音声認識プログラム、ならびに妨害軽減装置、妨害軽減方法、および妨害軽減プログラム |
US7903825B1 (en) * | 2006-03-03 | 2011-03-08 | Cirrus Logic, Inc. | Personal audio playback device having gain control responsive to environmental sounds |
JP2007318438A (ja) * | 2006-05-25 | 2007-12-06 | Yamaha Corp | 音声状況データ生成装置、音声状況可視化装置、音声状況データ編集装置、音声データ再生装置、および音声通信システム |
JP5070873B2 (ja) * | 2006-08-09 | 2012-11-14 | 富士通株式会社 | 音源方向推定装置、音源方向推定方法、及びコンピュータプログラム |
DE602006005493D1 (de) * | 2006-10-02 | 2009-04-16 | Harman Becker Automotive Sys | Sprachsteuerung von Fahrzeugelementen von außerhalb einer Fahrzeugkabine |
US8280731B2 (en) * | 2007-03-19 | 2012-10-02 | Dolby Laboratories Licensing Corporation | Noise variance estimator for speech enhancement |
JP5156260B2 (ja) * | 2007-04-27 | 2013-03-06 | ニュアンス コミュニケーションズ,インコーポレイテッド | 雑音を除去して目的音を抽出する方法、前処理部、音声認識システムおよびプログラム |
JP4962572B2 (ja) * | 2007-08-03 | 2012-06-27 | 富士通株式会社 | 受音装置 |
US8538492B2 (en) * | 2007-08-31 | 2013-09-17 | Centurylink Intellectual Property Llc | System and method for localized noise cancellation |
US8194871B2 (en) * | 2007-08-31 | 2012-06-05 | Centurylink Intellectual Property Llc | System and method for call privacy |
US8335308B2 (en) * | 2007-10-31 | 2012-12-18 | Centurylink Intellectual Property Llc | Method, system, and apparatus for attenuating dual-tone multiple frequency confirmation tones in a telephone set |
KR101415026B1 (ko) * | 2007-11-19 | 2014-07-04 | 삼성전자주식회사 | 마이크로폰 어레이를 이용한 다채널 사운드 획득 방법 및장치 |
US8150054B2 (en) * | 2007-12-11 | 2012-04-03 | Andrea Electronics Corporation | Adaptive filter in a sensor array system |
US9392360B2 (en) | 2007-12-11 | 2016-07-12 | Andrea Electronics Corporation | Steerable sensor array system with video input |
US8249867B2 (en) * | 2007-12-11 | 2012-08-21 | Electronics And Telecommunications Research Institute | Microphone array based speech recognition system and target speech extracting method of the system |
WO2009076523A1 (en) | 2007-12-11 | 2009-06-18 | Andrea Electronics Corporation | Adaptive filtering in a sensor array system |
JP4926091B2 (ja) * | 2008-02-19 | 2012-05-09 | 株式会社日立製作所 | 音響ポインティングデバイス、音源位置のポインティング方法及びコンピュータシステム |
US8190440B2 (en) * | 2008-02-29 | 2012-05-29 | Broadcom Corporation | Sub-band codec with native voice activity detection |
US8300801B2 (en) * | 2008-06-26 | 2012-10-30 | Centurylink Intellectual Property Llc | System and method for telephone based noise cancellation |
JP5334037B2 (ja) * | 2008-07-11 | 2013-11-06 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 音源の位置検出方法及びシステム |
US8073634B2 (en) * | 2008-09-22 | 2011-12-06 | University Of Ottawa | Method to extract target signals of a known type from raw data containing an unknown number of target signals, interference, and noise |
US8442829B2 (en) * | 2009-02-17 | 2013-05-14 | Sony Computer Entertainment Inc. | Automatic computation streaming partition for voice recognition on multiple processors with limited memory |
US8442833B2 (en) * | 2009-02-17 | 2013-05-14 | Sony Computer Entertainment Inc. | Speech processing with source location estimation using signals from two or more microphones |
US8788256B2 (en) | 2009-02-17 | 2014-07-22 | Sony Computer Entertainment Inc. | Multiple language voice recognition |
KR101041039B1 (ko) * | 2009-02-27 | 2011-06-14 | 고려대학교 산학협력단 | 오디오 및 비디오 정보를 이용한 시공간 음성 구간 검출 방법 및 장치 |
US8248885B2 (en) * | 2009-07-15 | 2012-08-21 | National Semiconductor Corporation | Sub-beam forming receiver circuitry for ultrasound system |
FR2948484B1 (fr) * | 2009-07-23 | 2011-07-29 | Parrot | Procede de filtrage des bruits lateraux non-stationnaires pour un dispositif audio multi-microphone, notamment un dispositif telephonique "mains libres" pour vehicule automobile |
US9154730B2 (en) * | 2009-10-16 | 2015-10-06 | Hewlett-Packard Development Company, L.P. | System and method for determining the active talkers in a video conference |
US8924220B2 (en) * | 2009-10-20 | 2014-12-30 | Lenovo Innovations Limited (Hong Kong) | Multiband compressor |
CN102549661B (zh) * | 2009-10-21 | 2013-10-09 | 松下电器产业株式会社 | 音响处理装置、音响处理方法及助听器 |
DE102009051508B4 (de) * | 2009-10-30 | 2020-12-03 | Continental Automotive Gmbh | Vorrichtung, System und Verfahren zur Sprachdialogaktivierung und -führung |
CN102483918B (zh) * | 2009-11-06 | 2014-08-20 | 株式会社东芝 | 声音识别装置 |
US9838784B2 (en) | 2009-12-02 | 2017-12-05 | Knowles Electronics, Llc | Directional audio capture |
US20110153320A1 (en) * | 2009-12-18 | 2011-06-23 | Electronics And Telecommunications Research Institute | Device and method for active noise cancelling and voice communication device including the same |
US8798290B1 (en) | 2010-04-21 | 2014-08-05 | Audience, Inc. | Systems and methods for adaptive signal equalization |
US9558755B1 (en) * | 2010-05-20 | 2017-01-31 | Knowles Electronics, Llc | Noise suppression assisted automatic speech recognition |
US8768406B2 (en) * | 2010-08-11 | 2014-07-01 | Bone Tone Communications Ltd. | Background sound removal for privacy and personalization use |
US20120045068A1 (en) * | 2010-08-20 | 2012-02-23 | Korea Institute Of Science And Technology | Self-fault detection system and method for microphone array and audio-based device |
US20140163671A1 (en) * | 2011-04-01 | 2014-06-12 | W. L. Gore & Associates, Inc. | Leaflet and valve apparatus |
GB2493327B (en) | 2011-07-05 | 2018-06-06 | Skype | Processing audio signals |
CN102387273B (zh) * | 2011-07-08 | 2013-08-28 | 歌尔声学股份有限公司 | 一种抑制残留回声的方法和装置 |
US20130034237A1 (en) * | 2011-08-04 | 2013-02-07 | Sverrir Olafsson | Multiple microphone support for earbud headsets |
GB2495130B (en) | 2011-09-30 | 2018-10-24 | Skype | Processing audio signals |
GB2495472B (en) | 2011-09-30 | 2019-07-03 | Skype | Processing audio signals |
GB2495128B (en) | 2011-09-30 | 2018-04-04 | Skype | Processing signals |
GB2495278A (en) * | 2011-09-30 | 2013-04-10 | Skype | Processing received signals from a range of receiving angles to reduce interference |
GB2495131A (en) | 2011-09-30 | 2013-04-03 | Skype | A mobile device includes a received-signal beamformer that adapts to motion of the mobile device |
GB2495129B (en) | 2011-09-30 | 2017-07-19 | Skype | Processing signals |
GB2496660B (en) | 2011-11-18 | 2014-06-04 | Skype | Processing audio signals |
GB201120392D0 (en) | 2011-11-25 | 2012-01-11 | Skype Ltd | Processing signals |
JP6267860B2 (ja) * | 2011-11-28 | 2018-01-24 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 音声信号送信装置、音声信号受信装置及びその方法 |
GB2497343B (en) | 2011-12-08 | 2014-11-26 | Skype | Processing audio signals |
KR101305373B1 (ko) | 2011-12-16 | 2013-09-06 | 서강대학교산학협력단 | 관심음원 제거방법 및 그에 따른 음성인식방법 |
US9111542B1 (en) * | 2012-03-26 | 2015-08-18 | Amazon Technologies, Inc. | Audio signal transmission techniques |
US9305567B2 (en) * | 2012-04-23 | 2016-04-05 | Qualcomm Incorporated | Systems and methods for audio signal processing |
US9767828B1 (en) * | 2012-06-27 | 2017-09-19 | Amazon Technologies, Inc. | Acoustic echo cancellation using visual cues |
US9640194B1 (en) | 2012-10-04 | 2017-05-02 | Knowles Electronics, Llc | Noise suppression for speech processing based on machine-learning mask estimation |
US9423490B2 (en) * | 2013-01-18 | 2016-08-23 | Syracuse University | Spatial localization of intermittent noise sources by acoustic antennae |
US20140278393A1 (en) | 2013-03-12 | 2014-09-18 | Motorola Mobility Llc | Apparatus and Method for Power Efficient Signal Conditioning for a Voice Recognition System |
US20140270249A1 (en) * | 2013-03-12 | 2014-09-18 | Motorola Mobility Llc | Method and Apparatus for Estimating Variability of Background Noise for Noise Suppression |
JP2014219467A (ja) * | 2013-05-02 | 2014-11-20 | ソニー株式会社 | 音信号処理装置、および音信号処理方法、並びにプログラム |
KR102282366B1 (ko) | 2013-06-03 | 2021-07-27 | 삼성전자주식회사 | 음성 향상 방법 및 그 장치 |
US9530407B2 (en) | 2014-06-11 | 2016-12-27 | Honeywell International Inc. | Spatial audio database based noise discrimination |
US10269343B2 (en) * | 2014-08-28 | 2019-04-23 | Analog Devices, Inc. | Audio processing using an intelligent microphone |
DE112015003945T5 (de) | 2014-08-28 | 2017-05-11 | Knowles Electronics, Llc | Mehrquellen-Rauschunterdrückung |
US9953646B2 (en) | 2014-09-02 | 2018-04-24 | Belleau Technologies | Method and system for dynamic speech recognition and tracking of prewritten script |
DE112015004185T5 (de) | 2014-09-12 | 2017-06-01 | Knowles Electronics, Llc | Systeme und Verfahren zur Wiederherstellung von Sprachkomponenten |
KR102351366B1 (ko) * | 2015-01-26 | 2022-01-14 | 삼성전자주식회사 | 음성 인식 방법 및 장치 |
US9668048B2 (en) | 2015-01-30 | 2017-05-30 | Knowles Electronics, Llc | Contextual switching of microphones |
KR102444061B1 (ko) * | 2015-11-02 | 2022-09-16 | 삼성전자주식회사 | 음성 인식이 가능한 전자 장치 및 방법 |
US9898847B2 (en) * | 2015-11-30 | 2018-02-20 | Shanghai Sunson Activated Carbon Technology Co., Ltd. | Multimedia picture generating method, device and electronic device |
CN107437420A (zh) * | 2016-05-27 | 2017-12-05 | 富泰华工业(深圳)有限公司 | 语音信息的接收方法、***及装置 |
JP6703460B2 (ja) * | 2016-08-25 | 2020-06-03 | 本田技研工業株式会社 | 音声処理装置、音声処理方法及び音声処理プログラム |
CN106708041B (zh) * | 2016-12-12 | 2020-12-29 | 西安Tcl软件开发有限公司 | 智能音箱、智能音箱定向移动方法及装置 |
CN106782591B (zh) * | 2016-12-26 | 2021-02-19 | 惠州Tcl移动通信有限公司 | 一种在背景噪音下提高语音识别率的装置及其方法 |
CN107146614B (zh) * | 2017-04-10 | 2020-11-06 | 北京猎户星空科技有限公司 | 一种语音信号处理方法、装置及电子设备 |
WO2019002831A1 (en) | 2017-06-27 | 2019-01-03 | Cirrus Logic International Semiconductor Limited | REPRODUCTIVE ATTACK DETECTION |
GB201713697D0 (en) | 2017-06-28 | 2017-10-11 | Cirrus Logic Int Semiconductor Ltd | Magnetic detection of replay attack |
GB2563953A (en) | 2017-06-28 | 2019-01-02 | Cirrus Logic Int Semiconductor Ltd | Detection of replay attack |
GB201801532D0 (en) | 2017-07-07 | 2018-03-14 | Cirrus Logic Int Semiconductor Ltd | Methods, apparatus and systems for audio playback |
GB201801528D0 (en) | 2017-07-07 | 2018-03-14 | Cirrus Logic Int Semiconductor Ltd | Method, apparatus and systems for biometric processes |
GB201801526D0 (en) * | 2017-07-07 | 2018-03-14 | Cirrus Logic Int Semiconductor Ltd | Methods, apparatus and systems for authentication |
GB201801527D0 (en) | 2017-07-07 | 2018-03-14 | Cirrus Logic Int Semiconductor Ltd | Method, apparatus and systems for biometric processes |
KR102338376B1 (ko) | 2017-09-13 | 2021-12-13 | 삼성전자주식회사 | 디바이스 그룹을 지정하기 위한 전자 장치 및 이의 제어 방법 |
GB2567503A (en) | 2017-10-13 | 2019-04-17 | Cirrus Logic Int Semiconductor Ltd | Analysing speech signals |
GB201801663D0 (en) | 2017-10-13 | 2018-03-21 | Cirrus Logic Int Semiconductor Ltd | Detection of liveness |
GB201801874D0 (en) | 2017-10-13 | 2018-03-21 | Cirrus Logic Int Semiconductor Ltd | Improving robustness of speech processing system against ultrasound and dolphin attacks |
GB201804843D0 (en) | 2017-11-14 | 2018-05-09 | Cirrus Logic Int Semiconductor Ltd | Detection of replay attack |
GB201801664D0 (en) | 2017-10-13 | 2018-03-21 | Cirrus Logic Int Semiconductor Ltd | Detection of liveness |
GB201803570D0 (en) | 2017-10-13 | 2018-04-18 | Cirrus Logic Int Semiconductor Ltd | Detection of replay attack |
GB201801661D0 (en) | 2017-10-13 | 2018-03-21 | Cirrus Logic International Uk Ltd | Detection of liveness |
GB201801659D0 (en) | 2017-11-14 | 2018-03-21 | Cirrus Logic Int Semiconductor Ltd | Detection of loudspeaker playback |
CN110035355B (zh) * | 2018-01-12 | 2022-06-07 | 北京京东尚科信息技术有限公司 | 麦克风阵列输出声源的方法、***、设备及存储介质 |
US11735189B2 (en) | 2018-01-23 | 2023-08-22 | Cirrus Logic, Inc. | Speaker identification |
US11264037B2 (en) | 2018-01-23 | 2022-03-01 | Cirrus Logic, Inc. | Speaker identification |
US11475899B2 (en) | 2018-01-23 | 2022-10-18 | Cirrus Logic, Inc. | Speaker identification |
US10692490B2 (en) | 2018-07-31 | 2020-06-23 | Cirrus Logic, Inc. | Detection of replay attack |
US10915614B2 (en) | 2018-08-31 | 2021-02-09 | Cirrus Logic, Inc. | Biometric authentication |
US11037574B2 (en) | 2018-09-05 | 2021-06-15 | Cirrus Logic, Inc. | Speaker recognition and speaker change detection |
US11501761B2 (en) | 2019-04-05 | 2022-11-15 | Samsung Electronics Co., Ltd. | Method and apparatus for speech recognition |
CN112216295B (zh) * | 2019-06-25 | 2024-04-26 | 大众问问(北京)信息科技有限公司 | 一种声源定位方法、装置及设备 |
CN112565531B (zh) * | 2020-12-12 | 2021-08-13 | 深圳波导智慧科技有限公司 | 一种应用于多人语音会议的录音方法和设备 |
CN112727704B (zh) * | 2020-12-15 | 2021-11-30 | 北京天泽智云科技有限公司 | 一种叶片前缘腐蚀的监测方法及*** |
CN112837703A (zh) * | 2020-12-30 | 2021-05-25 | 深圳市联影高端医疗装备创新研究院 | 医疗成像设备中语音信号获取方法、装置、设备和介质 |
CN112992140B (zh) * | 2021-02-18 | 2021-11-16 | 珠海格力电器股份有限公司 | 智能设备的控制方法、装置、设备及存储介质 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6262399A (ja) * | 1985-09-13 | 1987-03-19 | 株式会社日立製作所 | 音声高能率符号化方式 |
US5400434A (en) * | 1990-09-04 | 1995-03-21 | Matsushita Electric Industrial Co., Ltd. | Voice source for synthetic speech system |
IT1257164B (it) * | 1992-10-23 | 1996-01-05 | Ist Trentino Di Cultura | Procedimento per la localizzazione di un parlatore e l'acquisizione diun messaggio vocale, e relativo sistema. |
JP3424757B2 (ja) * | 1992-12-22 | 2003-07-07 | ソニー株式会社 | 音源信号推定装置 |
US5335011A (en) * | 1993-01-12 | 1994-08-02 | Bell Communications Research, Inc. | Sound localization system for teleconferencing using self-steering microphone arrays |
US5704007A (en) * | 1994-03-11 | 1997-12-30 | Apple Computer, Inc. | Utilization of multiple voice sources in a speech synthesizer |
US5574824A (en) * | 1994-04-11 | 1996-11-12 | The United States Of America As Represented By The Secretary Of The Air Force | Analysis/synthesis-based microphone array speech enhancer with variable signal distortion |
US5737431A (en) * | 1995-03-07 | 1998-04-07 | Brown University Research Foundation | Methods and apparatus for source location estimation from microphone-array time-delay estimates |
US5828997A (en) * | 1995-06-07 | 1998-10-27 | Sensimetrics Corporation | Content analyzer mixing inverse-direction-probability-weighted noise to input signal |
JP3522954B2 (ja) * | 1996-03-15 | 2004-04-26 | 株式会社東芝 | マイクロホンアレイ入力型音声認識装置及び方法 |
US6987856B1 (en) * | 1996-06-19 | 2006-01-17 | Board Of Trustees Of The University Of Illinois | Binaural signal processing techniques |
US6151575A (en) * | 1996-10-28 | 2000-11-21 | Dragon Systems, Inc. | Rapid adaptation of speech models |
JP3795610B2 (ja) | 1997-01-22 | 2006-07-12 | 株式会社東芝 | 信号処理装置 |
DE19712632A1 (de) * | 1997-03-26 | 1998-10-01 | Thomson Brandt Gmbh | Verfahren und Vorrichtung zur Sprachfernsteuerung von Geräten |
FI114422B (fi) * | 1997-09-04 | 2004-10-15 | Nokia Corp | Lähteen puheaktiviteetin tunnistus |
US6137887A (en) * | 1997-09-16 | 2000-10-24 | Shure Incorporated | Directional microphone system |
JP4163294B2 (ja) | 1998-07-31 | 2008-10-08 | 株式会社東芝 | 雑音抑圧処理装置および雑音抑圧処理方法 |
JP2001075594A (ja) | 1999-08-31 | 2001-03-23 | Pioneer Electronic Corp | 音声認識システム |
US6219645B1 (en) * | 1999-12-02 | 2001-04-17 | Lucent Technologies, Inc. | Enhanced automatic speech recognition using multiple directional microphones |
JP3582712B2 (ja) | 2000-04-19 | 2004-10-27 | 日本電信電話株式会社 | 収音方法および収音装置 |
JP3514714B2 (ja) | 2000-08-21 | 2004-03-31 | 日本電信電話株式会社 | 収音方法およびその装置 |
US7206418B2 (en) * | 2001-02-12 | 2007-04-17 | Fortemedia, Inc. | Noise suppression for a wireless communication device |
US7617099B2 (en) * | 2001-02-12 | 2009-11-10 | FortMedia Inc. | Noise suppression by two-channel tandem spectrum modification for speech signal in an automobile |
DE60104091T2 (de) * | 2001-04-27 | 2005-08-25 | CSEM Centre Suisse d`Electronique et de Microtechnique S.A. - Recherche et Développement | Verfahren und Vorrichtung zur Sprachverbesserung in verrauschte Umgebung |
WO2003036614A2 (en) * | 2001-09-12 | 2003-05-01 | Bitwave Private Limited | System and apparatus for speech communication and speech recognition |
JP3940662B2 (ja) * | 2001-11-22 | 2007-07-04 | 株式会社東芝 | 音響信号処理方法及び音響信号処理装置及び音声認識装置 |
US20030125959A1 (en) * | 2001-12-31 | 2003-07-03 | Palmquist Robert D. | Translation device with planar microphone array |
-
2002
- 2002-09-18 JP JP2002272318A patent/JP4195267B2/ja not_active Expired - Lifetime
-
2003
- 2003-03-12 US US10/386,726 patent/US7478041B2/en active Active
-
2008
- 2008-09-24 US US12/236,588 patent/US7720679B2/en not_active Expired - Fee Related
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2005048239A1 (ja) * | 2003-11-12 | 2007-11-29 | 本田技研工業株式会社 | 音声認識装置 |
JP4516527B2 (ja) * | 2003-11-12 | 2010-08-04 | 本田技研工業株式会社 | 音声認識装置 |
JP2008067854A (ja) * | 2006-09-13 | 2008-03-27 | National Institute Of Advanced Industrial & Technology | 電動車椅子搭載用音声入力装置 |
JP4660740B2 (ja) * | 2006-09-13 | 2011-03-30 | 独立行政法人産業技術総合研究所 | 電動車椅子搭載用音声入力装置 |
JP2010517047A (ja) * | 2007-01-26 | 2010-05-20 | マイクロソフト コーポレーション | マルチセンサ音源定位 |
JP2008216111A (ja) * | 2007-03-06 | 2008-09-18 | Mitsubishi Electric Corp | 測距装置及び測位装置並びに測距方法及び測位方法 |
JP4623027B2 (ja) * | 2007-03-06 | 2011-02-02 | 三菱電機株式会社 | 測距装置及び測位装置並びに測距方法及び測位方法 |
US8812312B2 (en) | 2007-08-31 | 2014-08-19 | International Business Machines Corporation | System, method and program for speech processing |
JP5483000B2 (ja) * | 2007-09-19 | 2014-05-07 | 日本電気株式会社 | 雑音抑圧装置、その方法及びプログラム |
WO2009038136A1 (ja) * | 2007-09-19 | 2009-03-26 | Nec Corporation | 雑音抑圧装置、その方法及びプログラム |
JPWO2009038136A1 (ja) * | 2007-09-19 | 2011-01-06 | 日本電気株式会社 | 雑音抑圧装置、その方法及びプログラム |
KR101442172B1 (ko) * | 2008-05-14 | 2014-09-18 | 삼성전자주식회사 | 검색 공간 클러스터링 방법을 이용한 실시간srp-phat 음원 위치 탐색 시스템 및 제어방법 |
KR101296757B1 (ko) * | 2008-09-11 | 2013-08-14 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 마이크로폰 신호를 기반으로 공간 큐의 세트를 제공하는 장치, 방법 및 컴퓨터 프로그램과, 2채널 오디오 신호 및 공간 큐의 세트를 제공하는 장치 |
KR101392546B1 (ko) | 2008-09-11 | 2014-05-08 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 마이크로폰 신호를 기반으로 공간 큐의 세트를 제공하는 장치, 방법 및 컴퓨터 프로그램과, 2채널 오디오 신호 및 공간 큐의 세트를 제공하는 장치 |
US9183839B2 (en) | 2008-09-11 | 2015-11-10 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Apparatus, method and computer program for providing a set of spatial cues on the basis of a microphone signal and apparatus for providing a two-channel audio signal and a set of spatial cues |
JP2010072164A (ja) * | 2008-09-17 | 2010-04-02 | Nippon Telegr & Teleph Corp <Ntt> | 目的信号区間推定装置、目的信号区間推定方法、目的信号区間推定プログラム及び記録媒体 |
JP2013504829A (ja) * | 2009-09-16 | 2013-02-07 | ラルス フォルスベリ, | 手を洗うように人々を動機付け、及び/又は促すためのシステム及び方法 |
JP2012058360A (ja) * | 2010-09-07 | 2012-03-22 | Sony Corp | 雑音除去装置および雑音除去方法 |
JP2012149906A (ja) * | 2011-01-17 | 2012-08-09 | Mitsubishi Electric Corp | 音源位置推定装置、音源位置推定方法および音源位置推定プログラム |
JP2014090353A (ja) * | 2012-10-31 | 2014-05-15 | Nippon Telegr & Teleph Corp <Ntt> | 音源位置推定装置 |
JP2021081746A (ja) * | 2017-03-20 | 2021-05-27 | ボーズ・コーポレーションBose Corporation | ノイズ低減のためのオーディオ信号処理 |
JP7098771B2 (ja) | 2017-03-20 | 2022-07-11 | ボーズ・コーポレーション | ノイズ低減のためのオーディオ信号処理 |
US11594240B2 (en) | 2017-03-20 | 2023-02-28 | Bose Corporation | Audio signal processing for noise reduction |
US20190324117A1 (en) * | 2018-04-24 | 2019-10-24 | Mediatek Inc. | Content aware audio source localization |
Also Published As
Publication number | Publication date |
---|---|
US20090076815A1 (en) | 2009-03-19 |
US20030177006A1 (en) | 2003-09-18 |
JP4195267B2 (ja) | 2008-12-10 |
US7478041B2 (en) | 2009-01-13 |
US7720679B2 (en) | 2010-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4195267B2 (ja) | 音声認識装置、その音声認識方法及びプログラム | |
US10504539B2 (en) | Voice activity detection systems and methods | |
US7313518B2 (en) | Noise reduction method and device using two pass filtering | |
US10741192B2 (en) | Split-domain speech signal enhancement | |
US9485597B2 (en) | System and method of processing a sound signal including transforming the sound signal into a frequency-chirp domain | |
US6377637B1 (en) | Sub-band exponential smoothing noise canceling system | |
Goh et al. | Kalman-filtering speech enhancement method based on a voiced-unvoiced speech model | |
US8654990B2 (en) | Multiple microphone based directional sound filter | |
US20170330582A1 (en) | Spatio-temporal speech enhancement technique based on generalized eigenvalue decomposition | |
JP4469882B2 (ja) | 音響信号処理方法及び装置 | |
CN108172231B (zh) | 一种基于卡尔曼滤波的去混响方法及*** | |
US20170140771A1 (en) | Information processing apparatus, information processing method, and computer program product | |
EP1607938A1 (en) | Gain-constrained noise suppression | |
US7957964B2 (en) | Apparatus and methods for noise suppression in sound signals | |
US10515650B2 (en) | Signal processing apparatus, signal processing method, and signal processing program | |
JP2005249816A (ja) | 信号強調装置、方法及びプログラム、並びに音声認識装置、方法及びプログラム | |
JP2002062348A (ja) | 信号処理装置及び信号処理方法 | |
JPH0667691A (ja) | 雑音除去装置 | |
Neo et al. | Enhancement of noisy reverberant speech using polynomial matrix eigenvalue decomposition | |
CN115223583A (zh) | 一种语音增强方法、装置、设备及介质 | |
KR101537653B1 (ko) | 주파수 또는 시간적 상관관계를 반영한 잡음 제거 방법 및 시스템 | |
JP7159928B2 (ja) | 雑音空間共分散行列推定装置、雑音空間共分散行列推定方法、およびプログラム | |
JP6679881B2 (ja) | 雑音推定装置、プログラム及び方法、並びに、音声処理装置 | |
Novoa et al. | Exploring the robustness of features and enhancement on speech recognition systems in highly-reverberant real environments | |
Yoshioka et al. | Statistical models for speech dereverberation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050530 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20060307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060602 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20060721 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20061110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080822 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
RD14 | Notification of resignation of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7434 Effective date: 20080917 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080925 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4195267 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111003 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111003 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111003 Year of fee payment: 3 |
|
S202 | Request for registration of non-exclusive licence |
Free format text: JAPANESE INTERMEDIATE CODE: R315201 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111003 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121003 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131003 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
EXPY | Cancellation because of completion of term |