JP3803029B2 - 音声認識装置 - Google Patents

音声認識装置 Download PDF

Info

Publication number
JP3803029B2
JP3803029B2 JP2000569386A JP2000569386A JP3803029B2 JP 3803029 B2 JP3803029 B2 JP 3803029B2 JP 2000569386 A JP2000569386 A JP 2000569386A JP 2000569386 A JP2000569386 A JP 2000569386A JP 3803029 B2 JP3803029 B2 JP 3803029B2
Authority
JP
Japan
Prior art keywords
speech
network
recognition
label
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000569386A
Other languages
English (en)
Inventor
誠 庄境
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Asahi Kasei Corp
Original Assignee
Asahi Kasei Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asahi Kasei Corp filed Critical Asahi Kasei Corp
Application granted granted Critical
Publication of JP3803029B2 publication Critical patent/JP3803029B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • G10L15/144Training of HMMs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Telephonic Communication Services (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Machine Translation (AREA)

Description

【0001】
【技術分野】
本発明は、特定話者に固有の登録語と不特定話者に共通の固定語が混在した語彙に対し、音声認識が可能な音声認識装置および方法に関するものである。
【0002】
【背景技術】
特定話者に固有の登録語を認識する技術を一般に特定話者音声認識と呼ぶ。特定話者音声認識においては、特定話者が予め音声認識させたい単語の音声を登録するという作業が発生する。この作業は具体的には、特定話者が予め発声した単語の音声サンプルをある特徴パラメータの系列(テンプレートと呼ぶ)に変換し、その系列を単語のラベルとともにメモリーやハードディスクなどの記憶装置に蓄積する。音声サンプルをある特徴パラメータの系列に変換する方法としては、ケプストラム分析や線形予測分析などが知られており、「音声・音情報のディジタル信号処理」(鹿野清宏、中村哲、伊勢史郎共著、(株)昭晃堂)にも詳述されている。特定話者音声認識においては、記憶装置に蓄積された特徴パラメータの系列と入力された音声から変換された特徴パラメータの系列とを比較し、入力された音声から変換された特徴パラメータの系列に最も類似した特徴パラメータの系列を持つ単語のラベルを認識結果として出力する。
【0003】
記憶装置に蓄積された特徴パラメータの系列と入力された音声から変換された特徴パラメータの系列とを比較する方法としては、動的計画法(dynamic programming) による時間軸伸縮マッチング(Dynamic Time Warping,DTW)が広く用いられており、上記「音声・音情報のディジタル信号処理」にも詳しく述べられている。
【0004】
一方、不特定話者に共通の固定語を認識する技術を一般に不特定話者音声認識と呼ぶ。不特定話者音声認識においては、不特定話者に共通の固定語の特徴パラメータに関する情報が予め記憶装置に蓄積されているため、特定話者音声認識のようにユーザーが音声認識させたい単語を登録するという作業は発生しない。音声サンプルをある特徴パラメータの系列に変換する方法としては、特定話者音声認識と同様にケプストラム分析や線形予測分析などが知られている。また、不特定話者に共通の固定語の特徴パラメータに関する情報の作成およびその情報と入力された音声から変換された特徴パラメータの系列との比較には、隠れマルコフモデル(Hidden Markov Model,HMM)による方法が一般に用いられている。
【0005】
HMMによる不特定話者音声認識についても、上記「音声・音情報のディジタル信号処理」に詳しく述べられている。例えば、日本語の場合、音声単位を上記「音声・音情報のディジタル信号処理」の第2章に記載されている音韻のセットとし、各音韻がHMMによりモデル化されているとする。表1に音韻のセットのラベルの一覧を示す。
【0006】
【表1】
Figure 0003803029
【0007】
この時、例えば「CD(シーディー)」は図2Aのような話者に共通の音韻ラベルのネットワーク(固定語ラベル系列と呼ぶ)でモデル化することができる。
【0008】
また、例えば「MD(エムディー)」は図2Bのような固定語ラベル系列でモデル化することができる。HMMによる音韻モデルのデータと固定語ラベル系列を用意すれば、上記「音声・音情報のディジタル信号処理」の第4章に記載されているViterbiアルゴリズムにより、当業者は不特定話者音声認識装置を構成することができる。
【0009】
音声認識装置において、特定話者に固有の登録語と不特定話者に共通の固定語が混在した語彙に対し、認識が可能であるという機能を提供したいというニーズがある。例えば、カーオーディオ装置においては、安全上の理由から「CD」、「MD」などの各機器の制御を音声で行いたいというニーズがある。これらの機器の名前は、不特定多数の話者で共通に設定することができるため、不特定話者音声認識技術で実現することができる。これにより、特定話者音声認識技術で必要な登録の作業を回避することができ、ユーザーインタフェースの面で好ましい。
【0010】
一方で、例えば、CDチェンジャーに挿入された複数のCDを声で選択し再生するというニーズが存在する。この場合、CDチェンジャーに挿入されるCDのタイトル名、歌手名などはユーザーにより異なると考えられる。従って、従来の不特定話者音声認識技術ではなく、特定話者音声認識技術の適用が必要となる。すなわち、ユーザーがCDチェンジャーに挿入するCDのタイトル名、歌手名などを予め声により登録するという作業が必要となる。「CD」、「MD」などの各機器の名前とCDのタイトル名、歌手名などが混在した語彙に対し、音声認識を行うことが可能であれば、「CD」、「MD」などの不特定話者に共通の固定語を認識できるモードとCDのタイトル名、歌手名などの特定話者に固有の登録語を認識できるモードを切り替える必要がなく、ユーザーに対してより使いやすい音声認識機能を提供できると考えられる。
【0011】
これまで、特定話者音声認識には、DTWによる方法が広く用いられてきた。また、不特定話者音声認識には、HMMによる方法が広く用いられてきた。上記ニーズを実現する1つの方法として、DTWによる特定話者音声認識とHMMによる不特定話者音声認識を併用する方法が考えられる。この2つの方法で入力音声のパラメータ系列と記憶装置に記憶された語彙単語のパラメータ系列の情報とを比較する際に用いる尺度は一般に異なっている。従って、DTWによる特定話者音声認識により最も入力音声に近いと判断された特定話者に固有の登録語とHMMによる不特定話者音声認識により最も入力音声に近いと判断された不特定話者に共通の固定語のいずれかが入力音声により近いのかを判断するのは容易ではない。
【0012】
DTWによる特定話者音声認識において、固定語に対し多数の話者の音声を用いて複数のテンプレートを記憶装置に記憶させることにより、不特定話者音声認識を実現することも可能である。これにより、DTWを用いて上記ニーズを実現することができる。しかしながら、この方法では、各固定語のテンプレートを複数持つことによる記憶装置の容量の増加、複数のテンプレートとのDTWによる照合時間の増加、固定語を変更する際にあらためて多数話者の音声を収集する必要があるなどの不具合がある。
【0013】
以上を要約すると、たとえば、カーオーディオ装置に音声認識装置を搭載する場合、不特定話者用の音声認識装置は、製造会社にとっては多数のユーザの声を個々に登録する必要がないので好都合である反面、個々のユーザにとっては、認識精度が特定話者の認識精度よりも若干落ちるというデメリットがある。
【0014】
また、特定話者用の音声認識装置は認識精度において優れるものの、製造会社にとっては、個々のユーザの音声から特徴パラメータを取り出し、音声認識装置に予め記憶させることは至難である。ユーザ自身が自己の音声を登録するにしても、たとえば、多くの単語を登録するには多大の労力を必要とする。
【0015】
さらに従来の特定話者の音声認識に使用する方法と不特定話者の音声認識に使用する方法は種類内容が異なるので両方の音声認識方法を1つの装置に組み込みすると装置が大型化してしまうという問題がある。
【0016】
【発明の開示】
本発明の目的は、このような点を考慮して、不特定話者の音声を認識する音声認識方法を使用した場合でも、特定話者の発声する登録語を精度よく認識することができる音声認識装置および方法を提供することにある。
【0017】
本発明によれば、入力音声を、単語より短い長さの音声単位のモデルの情報を用いて、単語認識を行う音声認識装置であって、不特定話者の入力音声の単語認識のために共通使用する固定語に対する、前記音声単位のラベル系列を蓄積しておく語彙ラベルネットワーク蓄積手段と、特定話者の入力音声から登録語に対する前記音声単位のラベル系列を作成する登録語ラベル系列抽出手段と、当該作成された登録語のラベル系列を前記語彙ラベルネットワーク蓄積手段に追加登録する登録手段とを具え、前記音声単位が音韻の隠れマルコフモデルの各状態を分割して生成した音響イベントである音声認識装置が提供される。
【0018】
本発明によれば、入力音声を、単語より短い長さの音声単位のモデルの情報を用いて、単語認識を行う音声認識装置であって、不特定話者の入力音声の単語認識のために共通使用する固定語に対する、前記音声単位のラベル系列を蓄積しておく語彙ラベルネットワーク蓄積手段と、前記音声単位の接続に関する制約条件を記述したネットワークを用いて、特定話者の登録語の入力音声から、前記音声単位の接続の制約条件を満足する、前記音声単位のラベル系列の中で最も高い確からしさを持つラベル系列を作成する登録語ラベル系列抽出手段と、前記不特定話者の入力音声の単語認識のために共通使用する固定語に対する、音声単位のラベル系列と当該作成された登録語のラベル系列を並列ネットワークの形態で前記語彙ラベルネットワーク蓄積手段に記憶する登録手段とを具え、前記音声単位が音韻の隠れマルコフモデルの各状態を遷移確率と出力確率の値と状態数を変更することなく分割して生成した音響イベントである音声認識装置が提供される。
【0019】
本発明によれば、音声認識装置は前記固定語を前記語彙ラベルネットワーク蓄積手段に登録する手段をさらに具えてもよい。
【0020】
本発明によれば、音声認識装置の製造会社では、多数の不特定のユーザを対象にした固定語のラベル系列を音声認識用データとして提供すればよく、ユーザは所望の単語について自己の音声を登録することができる。換言すると、不特定話者方式の音声認識方法に特定話者の音声認識機能を加味することが可能となる。これにより、ユーザおよび製造会社双方に好適な音声認識装置および方法を提供することが可能となる。
【0021】
【発明を実施するための最良の形態】
本発明は、従来不特定話者音声認識に用いられてきたHMMを用いて、特定話者に固有の登録語と不特定話者に共通の固定語が混在した語彙に対し、認識が可能な音声認識装置を提供するものである。HMMを用いた不特定話者音声認識においては、音声単位(音節、半音節、音韻、音響イベントなど)のモデルデータ、不特定話者に共通の固定語に対応する音声単位のラベル系列および各固定語のラベル系列相互の接続情報を用いて、先述のViterbiアルゴリズムにより、入力音声に含まれる固定語の認識を行う。
【0022】
特定話者に固有の登録語に対応する音声単位のラベル系列を何らかの手段で得られれば、そのラベル系列を上記ラベル系列相互の接続情報に付加することにより、先述のViterbiアルゴリズムを用いて、特定話者に固有の登録語と不特定話者に共通の固定語が混在した語彙に対する認識を行うことが可能であると考えられる。
【0023】
特定話者に固有の登録語に対応する音声単位のラベル系列を得る方法としては、各固定語のラベル系列相互の接続情報の代わりに音声単位が任意の順番で任意の長さで接続可能な接続情報を用いて、Viterbiアルゴリズムにより、入力音声に含まれる全ての音声単位の系列を取得することにより実現できる。
【0024】
以下、図面を参照して、本発明の実施形態を詳細に説明する。図1は本発明実施形態の基本構成を示す。
【0025】
図1において、マイクロホン(不図示)から入力されたアナログ音声信号11はADコンバータによる入力手段aによりデジタル信号22に変換される。デジタル信号22は変換手段bにより一定のフレーム周期で音響パラメータ33に変換される。音響(特徴)パラメータとしては、上記「音声・音情報のディジタル信号処理」にも記述されているケプストラムなどを用いればよい。
【0026】
(特定話者の単語登録)
特定話者に固有の登録語を登録する場合には、音声認識装置の不図示のスイッチにより単語登録を指示し、変換手段bを登録語ラベル系列抽出手段dに接続する。特定話者、すなわち、音声認識装置が接続されたカーオーディオのユーザ(特定話者)は登録したい音声をマイクロホンに入力する。
【0027】
マイクロホンで発生したアナロク音声信号11は変換手段bにより音響パラメータ33に変換される。音響パラメータ33が登録語ラベル系列抽出手段dに送られる。登録語ラベル系列抽出手段dはハードディスクやメモリ等の認識用データ蓄積手段cに蓄積された認識用データ44を参照しながら、音声単位のラベル系列の認識を行い、音響パラメータ33を登録語ラベル系列55に変換する。認識用データ蓄積手段cに蓄積された認識用データ44としては、隠れマルコフモデルでモデル化された音声単位のモデルのデータおよび音響パラメータ33を登録語ラベル系列55に変換するための音声単位のモデルのネットワークデータの2つが蓄積されている。
【0028】
先行特許であるUSP5,732,187号に述べられているように,音声単位としては、音節,半音節,音韻が考えられる。
【0029】
以下では、音韻を例にとって、不特定話者に共通の固定語と特定話者に固有の登録語が混在した語彙を認識する音声認識装置および方法について説明する。音響パラメータ33を登録語ラベル系列55に変換するための音声単位(今の場合は省略)のモデルのネットワークデータとは、許容される音韻の接続を表現したネットワークのことである。
【0030】
例えば、図3の音韻ネットワークの場合、表1の27種類の音韻が任意の順序で任意の長さで接続しうることを示している。このネットワークデータとHMMによる音韻モデルのデータを用いれば、上記Viterbiアルゴリズムにより、特定話者に固有の登録語の音声を音韻ラベルの系列に変換することができる。図4Aに、ある話者が登録のために発声した「ジャズ」の入力信号から得られる音韻ラベルのネットワークの例を示す。音韻の認識率が100%であれば、「ジャズ」と発声した音声からは、j+a+z+uという音韻ラベル系列が得られるはずであるが、この例では、最後のuが無声化して得られていない。
【0031】
図4Bに、ある話者が登録のために発声した「ポップス」の入力信号から得られる音韻ラベルのネットワークの例を示す。音韻の認識率が100%であれば「ポップス」と発声した音声からは、p+o+p+u+s+uという音韻ラベル系列が得られるはずであるが、p、t、kの識別は一般に困難であるため、2つ目のpがkに置き換わっている。こうして、登録語ラベル系列抽出手段dにより得られた音韻ラベルのネットワークを登録語ラベル系列55と呼ぶことにする。登録語ラベル系列55は登録手段iにより、ハードディスクやメモリ等の語彙ラベルネットワーク蓄積手段fに追加登録され、記憶される。
【0032】
(不特定話者に共通の固定語の登録)
一方、不特定話者に共通の固定語のスペルから予めあるルールに従って音韻ラベルのネットワークを抽出することができる。あるいは、固定語に対する1つ以上の不特定話者の音声サンプルから前記(特定話者の単語登録)と同様にして1つ以上の音韻ラベルネットワークを作成することもできる。これらのネットワークを固定語ラベル系列66と呼び、そのデータを語彙ラベルネットワーク蓄積手段fに転送するために一時記憶する手段、例えば、CPUおよびRAMを固定語ラベル系列記憶手段eと呼ぶことにする。例えば、固定語「CD」、「MD」に対しては、図2A、図2Bに示される固定語ラベル系列を得ることができる。固定語ラベル系列についてのデータはフロッピーディスクやCD等の記録媒体に製造会社側で記録しておき、この記録媒体から音声認識装置内の固定語レベル系列記憶手段eに引き渡せばよい。固定語レベル系列記憶手段eを介して語彙ラベルネットワーク蓄積手段fに蓄積(記憶)することにより不特定話者についての固定語ラベル系列を登録する。
【0033】
登録語ラベル系列抽出手段dから抽出され、登録手段iにより語彙ラベルネットワーク蓄積手段fに追加登録される、登録語ラベル系列55と固定語ラベル系列記憶手段eにより記憶された固定語ラベル系列66から語彙ネットワーク蓄積手段fに蓄積される語彙ラベルネットワーク77を構成する方法としては、以下の3つの方法が考えられる。
【0034】
まず、1つ目は、登録語ラベル系列55と固定語ラベル系列66の両方を含むネットワークを形成し、それを語彙ラベルネットワーク77とする方法である。図5に「CD」、「MD」の固定語ラベル系列と「ジャズ」、「ポップス」の登録語ラベル系列を接続した語彙ラベルネットワークを示す。
【0035】
このネットワークにより、「CD」、「MD」の固定語と「ジャズ」、「ポップス」の登録語の4つの単語の内、いずれでも認識できる音声認識装置を実現することができる。
【0036】
2つ目の方法は、固定語ラベル系列66のみを含むネットワークを形成し、それを語彙ラベルネットワーク77とする方法である。図6に「CD」、「MD」の固定語ラベル系列を接続した語彙ラベルネットワークを示す。このネットワークにより、「CD」、「MD」の固定語の2つの単語の内、いずれかを認識できる不特定話者音声認識装置を実現することができる。
【0037】
3つ目の方法は、登録語ラベル系列55のみを含むネットワークを形成し、それを語彙ラベルネットワーク77とする方法である。図7に「ジャズ」、「ポップス」の登録語ラベル系列を接続した語彙ラベルネットワークを示す。このネットワークにより、「ジャズ」、「ポップス」の登録語の2つの単語の内、いずれかを認識できる特定話者音声認識装置を実現することができる。
【0038】
なお、音声によりCDチェンジャーに動作指示を与える場合には、予め不特定話者の固定語のラベル系列と動作命令を関連づけておけばよい。もし、認識精度が十分に高くない場合には、特定話者(ユーザー)の入力音声から上記の方法により得られた登録語ラベル系列と動作命令を関連づけるとよい。たとえば、このための方法としては、予め、表示器に選択可能な動作指示内容を表示させた後、カーソルキー等で表示の動作指示を選択した後、この動作指示に関連付ける単語を音声でマイクロホンから入力して、登録語ラベル系列抽出手段dにより抽出された登録語ラベル系列55を登録手段iにより語彙ラベルネットワーク蓄積手段fに登録する。また、動作指示内容を示すコードと、対応する登録語ラベル系列とをテーブル(関連付けテーブル)形態でハードディスク等に保存しておくと、以後、音声による動作指示が可能となる。この関連付けテーブルには製造会社が用意した固定語ラベル系列と、それらに対応する動作指示コードをも記憶してもよいことは勿論である。
【0039】
(音声認識処理)
ユーザは不図示のモード指示スイッチにより音声認識モードを指示すると、変換手段bと認識手段gに接続が切り替わる。入力手段aから入力され、変換手段bで変換されて出力された音響パラメータ33と認識用データ蓄積手段cに蓄積された音韻モデルのデータからなる認識用データ45と、語彙ラベルネットワーク蓄積手段fに蓄積された語彙ラベルネットワーク77を用いて、認識手段gにおいて上述のViterbiアルゴリズムにより、単語についての認識結果88を得る。認識結果88は、スピーカーやディスプレイなどの出力手段hにより、音声や画面による出力結果99として話者に出力される。また、音声によりCDチェンジャーなどに対して動作の指示を与える場合には、上述の関連付けテーブルにより音声認識結果に対応する動作指示の内容が判別されて動作指示に対応する制御プログラム等が実行される。
【0040】
以上のシステム構成により、ユーザは頻繁に使用する動作指示については自己の音声で単語形態で登録しておくことで、より精度よく、動作指示を行うことができる。このシステムのメリットは、ユーザ(特定話者)が登録した登録語ラベル系列がラベル認識(認識用データを使用した音響パラメータからラベルへの変換)において誤認識されても、影響がないという点である。
【0041】
音声認識装置では、誤認識結果のラベル系列のままで、動作指示が登録され、音声認識モードで特定話者がその動作指示を音声で入力した場合にも、音声認識装置は同じ内容で誤認識を行うので、かならず、予め関連付けられた動作指示が選択される。
【0042】
一方、不特定話者用の固定語ラベル系列を音声認識に使用した場合には、ラベル認識に誤認識が生じると、動作指示に対応するラベル系列と上記誤認識の結果が一致しないので、音声の動作指示が正しく認識されない場合がある。このため、製造会社が用意する固定語レベル系列の中の特定のものと同じ内容の動作指示を特定話者が音声で登録することができる、また、特定話者の登録語ラベル系列により音声認識モードにおいて、正しく音声認識を行うことができる。
【0043】
本実施形態では音声単位として音韻から分解されて生成された不特定話者用の音響イベントのモデルを用いることにより、特定話者の発声する登録語を言語に依らず、精度良く認識する。
【0044】
以下では、音韻よりも小さな音声単位として、音韻HMMを構成する状態を用いた場合について説明を加える。言語や音韻の種類を問わず、一般に音韻は図8に示される4つの状態からなるHMMでモデル化されることが多い。
【0045】
状態1は初期状態であり、状態遷移は必ず状態1から開始される。状態4は最終状態であり、この状態に遷移するとそれ以上状態遷移は発生しない。aijは状態iから状態jへの遷移する確率を表し、遷移確率と呼ばれる。j=i+1とすると、aii+aij=1.0である。
【0046】
bi(x)は状態iから状態遷移する際に、観測ベクトルxが出力される確率を表し、出力確率と呼ばれる。観測ベクトルは、図1の音響パラメータ33に対応し、ケプストラムがよく用いられる。出力確率bi(x)は1個以上の正規分布の重ね合わせで表現される。また、出力確率は状態iへ状態遷移する際に、観測ベクトルxが出力される確率bi(x)として定式化される場合や、状態iから状態jへ状態遷移する際に、観測ベクトルxが出力される確率bij(x)として定式化される場合もある。
【0047】
出力確率bi(x)が1個以上の正規分布の重ね合わせで定式化される場合、HMMを連続HMMと呼ぶ。その他に、半連続HMMや離散HMMで音韻をモデル化する場合があるが、本発明は同様に適用が可能である。
【0048】
Rabiner et al,Fundamentals of Speech Recognition,New Jersey,Prentice−Hall,1993,ISBNO−13−015157−2,p.441−447などの文献からも周知の方法により、図8に示される4状態の音韻HMMを遷移確率と出力確率の値と状態数を変更することなく、図9、図10、図11の3つの2状態からなるHMMに分割する。これらを音響イベントHMMと呼ぶこととし、状態番号に合わせて、*.1、*.2、*.3と表すこととする。ここで、*は表1の音韻ラベルを表す。
【0049】
これらの新しく生成されたHMMは音韻の中の音響的なイベントを表現しているものと考えることができるため、音響イベントHMMと呼ぶことにする。これらの音響イベントHMMが任意の順番で任意の長さで接続しうるネットワークを図12に示す。このネットワークを無制約音響イベントネットワークと呼ぶ。この無制約音響イベントネットワークは、図3の音韻ネットワークに比べて、音響的なイベントの系列の自由度が高く、その分、音響的なイベント系列の表現能力が高いと考えられる。
【0050】
従って、図3の音韻ネットワークを用いてViterbiアルゴリズムにより得られる音韻系列に比べて、図12の無制約音響イベントネットワークを用いてViterbiアルゴリズムにより得られる音響イベント系列の方が、特定話者に固有の登録語の発声をより精度良く近似するものと期待できる。
【0051】
そこで、無制約音響イベントネットワークを用いてViterbiアルゴリズムにより得られる音響イベント系列を図1の登録語ラベル系列55として用いることにより、登録語に対してより高い認識性能が得られると思われる。
【0052】
一方、図12の無制約音響イベントネットワークでは、特定話者に固有の登録語の発声を近似する音響イベント系列の候補が数多く存在するため、その選択に多くの処理時間を要することも考えられる。
【0053】
そこで、図13に示すような状態の位置に関する制約を設けたネットワークを使用することも処理時間を削減する上で有効であると考えられる。図13のネットワークを位置制約つき音響イベントネットワークと呼ぶことにする。このネットワークでは、図12の無制約音響イベントネットワークに比べて、接続しうる音響イベントの数が3分の1になっているため、特定話者に固有の登録語を近似する音響イベント系列の候補数が少なくなっており、若干の認識性能の低下は起こるかも知れないが、特定話者に固有の登録語を近似する音響イベント系列を求める処理時間もそれに応じて短縮できると考えられる。
【0054】
実際に、音韻系列と音響イベント系列で特定話者の登録語の認識性能の比較実験を行った。
【0055】
日本語の音韻HMMと図3の音韻ネットワークを用いて、Viterbiアルゴリズムにより128単語の音韻系列を求め、それを認識語彙として、日本語、英語、仏語、独語、伊語についての特定話者単語認識を行うための男女各2名を選んだ。また、その時の音声認識の平均認識率および最低認識率を表2に示す。音声と雑音の比率はいずれも10dBである。
【0056】
(表2)
言語 日本語 英語 仏語 独語 伊語
平均認識率 93.6% 86.9% 88.7% 92.2% 91.4%
最低認識率 92.2% 82.8% 83.6% 85.2% 87.5%
音韻ネットワークを用いた場合の
特定話者単語認識性能
【0057】
次に日本語の音韻HMMから上述の方法により分解されて生成された音響イベントHMMと図13の位置制約つき音響イベントネットワークを用いてViterbiアルゴリズムにより128単語の音響イベント系列を求め、それを認識対象とした場合の日本語、英語、仏語、独語、伊語についての特定話者単語認識の平均認識率および最低認識率を表3に示す。
【0058】
(表3)
言語 日本語 英語 仏語 独語 伊語
平均認識率 97.5% 92.9% 94.0% 94.0% 93.6%
最低認識率 96.1% 91.1% 92.2% 91.4% 91.4%
位置制約つき音響イベントネットワークを用いた場合の
特定話者単語認識性能
【0059】
表2と表3を比較すると言語に依らず、音韻系列を使用するよりも音響イベント系列を使用する方が平均認識率が2−6%程度向上していることが分る。また、最低認識率も4−8%向上していることが分る。これらの結果から図3の音韻ネットワークを用いてViterbiアルゴリズムにより得られる音韻系列を使用した場合に比べ、図13の位置制約つき音響イベントネットワークを用いてViterbiアルゴリズムにより得られる音響イベント系列を使用した方が、特定話者に固有の登録語に対してより高い性能が得られることが明らかになった。この音響イベント系列の優位性は、図13の位置制約つき音響イベントネットワークのような制約のある音響イベントネットワークを用いたとしても音響イベント系列の方が音韻系列よりも特定話者に固有の登録語の近似精度が高いことによると考えられる。また、JP、7−104678、B2(三洋電機株式会社)13.11月.1995(13.11.95)(ファミリーなし)には、特定話者の入力音声から音声単位のラベル系列を生成し、それを追加登録する音声認識装置が記載されている。しかしながら、この文献は、音声単位が音節であり、かつ、「実施例」の項に述べられているように、まず最初に音声単位である音節(「あ」、「い」など)の標準パターンを登録し、その後、登録された音節の標準パターンを用いることにより、任意単語の音声登録を行う方法について開示している。言い換えれば、特定話者の音節の標準パターンの登録が前提となっており、それがなくては、高い認識性能を発揮するのに十分な精度で、任意単語を音節のラベル系列の形態で登録することができないという不具合をかかえている。
【0060】
これに対し、本願発明によれば、表3の結果から、図9〜図11に示すような、遷移確率と出力確率の値および状態数を変更しない簡単な方法で作成された音響イベントを用いるだけで、日本語、外国語を問わず、不特定話者の音声認識装置において、特定話者の任意の登録語を音声で登録することが可能で、かつ高い認識性能が得られるとの結論に達し、この点が先述の従来技術に対する本願発明の進歩性の根幹をなす。
【0061】
上述の実施形態については以下の形態が実施できる。
1)図1に示したシステム構成は、デジタル回路で構成してもよい、マイクロコンピュータやパーソナルコンピュータのソフトウェア処理で実現することもできる。この場合、変換手段b、登録語ラベル系列抽出手段d,認識手段gについてCPUがソフトウェアプログラムを実行することによりそれらの機能が実現される。どのような回路構成とするかは、音声認識装置の用途に応じて適宜決定すればよい。たとえば、パーソンナルコンピュータにおいて文字入力および制御キー入力を音声で行う場合には、パーソナルコンピュータに搭載されたCPU,ハードディスクを使用して図1のシステムを実現するとよい。
2)上述の実施形態では、不特定話者に共通の固定語ラベル系列をCDROM等から音声認識装置に登録可能としているが、音声認識装置に内蔵のEEPROM等の不揮発性書き込み可能メモリに記憶してもよいことは勿論である。この場合には不足する単語、あるいはより認識精度を高めたい単語を特定話者により音声で登録する。
【図面の簡単な説明】
【図1】 図1は本発明実施形態のシステム構成を示すブロック図である。
【図2A】 図2Aは「CD(シーディー)」の固定語ラベル系列を示す説明図である。
【図2B】 図2Bは「MD(エムディー)」の固定語ラベル系列を示す説明図である。
【図3】 図3は音韻ネットワークの内容を示す説明図である。
【図4A】 図4Aは「ジャズ」の登録語ラベル系列を示す説明図である。
【図4B】 図4Bは「ポップス」の登録語ラベル系列を示す説明図である。
【図5】 図5は固定語と登録語が混在した語彙ラベルネットワークを示す説明図である。
【図6】 図6は固定語だけの語彙ラベルネットワークを示す説明図である。
【図7】 図7は登録語だけの語彙ラベルネットワークを示す説明図である。
【図8】 図8は音韻HMMの構造を示す説明図である。
【図9】 図9は音響イベントHMM *.1の構造を示す説明図である。
【図10】 図10は音響イベントHMM *.2の構造を示す説明図である。
【図11】 図11は音響イベントHMM *.3の構造を示す説明図である。
【図12】 図12は無制約音響イベントネットワークを示す説明図である。
【図13】 図13は位置制約つき音響イベントネットワークを示す説明図である。

Claims (10)

  1. 入力音声を、単語より短い長さの音声単位のモデルの情報を用いて、単語認識を行う音声認識装置において、
    不特定話者の入力音声の単語認識のために共通使用する固定語に対する、前記音声単位のラベル系列を蓄積しておく語彙ラベルネットワーク蓄積手段と、
    特定話者の入力音声から登録語に対する前記音声単位のラベル系列を作成する登録語ラベル系列抽出手段と、
    前記不特定話者の入力音声の単語認識のために共通使用する固定語に対する、音声単位のラベル系列と前記作成された登録語のラベル系列を並列ネットワークの形態で前記語彙ラベルネットワーク蓄積手段に記憶する登録手段と、
    隠れマルコフモデルでモデル化された前記音声単位のモデルのデータと、当該音声単位のモデルのネットワークデータとを認識用データとして蓄積しておく認識用データ蓄積手段と、
    前記語彙ラベルネットワーク蓄積手段に記憶された並列ネットワークの形態を有する語彙ラベルネットワークと、前記認識用データを用いて入力音声を認識する認識手段と、
    を具え、前記音声単位が、音韻の隠れマルコフモデルの各状態を遷移確率と出力確率の値と状態数を変更することなく分割して生成した音響イベントであることを特徴とする音声認識装置。
  2. 前記登録語ラベル系列抽出手段は、前記音声単位の接続に関する制約条件を記述したネットワークを用いて、特定話者の登録語の入力音声から、前記音声単位の接続の制約条件を満足する、前記音声単位のラベル系列の中で最も高い確からしさを持つラベル系列を作成することを特徴とする請求項1に記載の音声認識装置。
  3. 請求項1または請求項2に記載の音声認識装置において、前記固定語を前記語彙ラベルネットワーク蓄積手段に登録する手段をさらに具えたことを特徴とする音声認識装置。
  4. 前記ネットワークデータは、前記音響イベントを並列に接続したものと、終点から始点へ直接帰還する経路とを併せ持つ無制約音響イベントネットワークであることを特徴とする請求項1乃至請求項3の何れか1項に記載の音声認識装置。
  5. 前記ネットワークデータは、前記音響イベントの状態番号ごとに並列に接続したものを当該状態番号の順番で直列に接続したものと、終点から始点へ直接帰還する経路とを併せ持つ位置制約つき音響イベントネットワークであることを特徴とする請求項1乃至請求項3の何れか1項に記載の音声認識装置。
  6. 入力音声を、単語より短い長さの音声単位のモデルの情報を用いて、単語認識を行う音声認識方法において、
    不特定話者の入力音声の単語認識のために共通使用する固定語に対する、前記音声単位のラベル系列を語彙ラベルネットワーク蓄積手段に蓄積する語彙ラベルネットワーク蓄積ステップと、
    特定話者の入力音声から登録語に対する前記音声単位のラベル系列を作成する登録語ラベル系列抽出ステップと、
    前記不特定話者の入力音声の単語認識のために共通使用する固定語に対する、音声単位のラベル系列と前記作成された登録語のラベル系列を並列ネットワークの形態で前記語彙ラベルネットワーク蓄積手段に記憶する登録ステップと、
    隠れマルコフモデルでモデル化された前記音声単位のモデルのデータと、当該音声単位のモデルのネットワークデータとを認識用データとして蓄積しておく認識用データ蓄積ステップと、
    前記語彙ラベルネットワーク蓄積手段に記憶された並列ネットワークの形態を有する語彙ラベルネットワークと、前記認識用データを用いて認識手段により入力音声を認識する認識ステップと、
    を備え、前記音声単位が、音韻の隠れマルコフモデルの各状態を遷移確率と出力確率の値と状態数を変更することなく分割して生成した音響イベントであることを特徴とする音声認識方法。
  7. 前記登録語ラベル系列抽出ステップは、前記音声単位の接続に関する制約条件を記述したネットワークを用いて、特定話者の登録語の入力音声から、前記音声単位の接続の制約条件を満足する、前記音声単位のラベル系列の中で最も高い確からしさを持つラベル系列を作成することを特徴とする請求項6に記載の音声認識方法。
  8. 請求項6または請求項7に記載の音声認識方法において、前記固定語を前記語彙ラベルネットワーク蓄積手段に登録可能とすることを特徴とする音声認識方法。
  9. 前記ネットワークデータは、前記音響イベントを並列に接続したものと、終点から始点へ直接帰還する経路とを併せ持つ無制約音響イベントネットワークであることを特徴とする請求項6乃至請求項8の何れか1項に記載の音声認識方法。
  10. 前記ネットワークデータは、前記音響イベントの状態番号ごとに並列に接続したものを当該状態番号の順番で直列に接続したものと、終点から始点へ直接帰還する経路とを併せ持つ位置制約つき音響イベントネットワークであることを特徴とする請求項6乃至請求項8の何れか1項に記載の音声認識方法。
JP2000569386A 1998-09-09 1999-09-08 音声認識装置 Expired - Fee Related JP3803029B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP25519698 1998-09-09
PCT/JP1999/004885 WO2000014723A1 (fr) 1998-09-09 1999-09-08 Dispositif de reconnaissance de la parole

Publications (1)

Publication Number Publication Date
JP3803029B2 true JP3803029B2 (ja) 2006-08-02

Family

ID=17275371

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000569386A Expired - Fee Related JP3803029B2 (ja) 1998-09-09 1999-09-08 音声認識装置

Country Status (13)

Country Link
US (1) US6868382B2 (ja)
EP (1) EP1126438B1 (ja)
JP (1) JP3803029B2 (ja)
KR (1) KR100415217B1 (ja)
CN (1) CN1280783C (ja)
AU (1) AU5647899A (ja)
BR (1) BR9913524A (ja)
DE (1) DE69939124D1 (ja)
HK (1) HK1040312A1 (ja)
ID (1) ID27346A (ja)
MX (1) MXPA01002514A (ja)
RU (1) RU2223554C2 (ja)
WO (1) WO2000014723A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2701120C1 (ru) * 2018-05-14 2019-09-24 Федеральное государственное казенное военное образовательное учреждение высшего образования "Военный учебно-научный центр Военно-Морского Флота "Военно-морская академия имени Адмирала флота Советского Союза Н.Г. Кузнецова" Устройство для обработки речевого сигнала

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100423495B1 (ko) * 2001-06-21 2004-03-18 삼성전자주식회사 음성인식에 의한 휴대용 기기의 동작제어 장치 및 방법
US7080013B2 (en) * 2002-06-06 2006-07-18 International Business Machines Corporation Categorization and recall methodology for physical media in large carousel systems
DE102004063552A1 (de) * 2004-12-30 2006-07-13 Siemens Ag Verfahren zur Ermittlung von Aussprachevarianten eines Wortes aus einem vorgebbaren Vokabular eines Spracherkennungssystems
US7979718B2 (en) * 2005-03-31 2011-07-12 Pioneer Corporation Operator recognition device, operator recognition method and operator recognition program
CN1889171B (zh) * 2005-06-29 2010-09-01 诺基亚(中国)投资有限公司 用于识别字符/字符串的语音识别方法和***
US7970613B2 (en) 2005-11-12 2011-06-28 Sony Computer Entertainment Inc. Method and system for Gaussian probability data bit reduction and computation
US8010358B2 (en) * 2006-02-21 2011-08-30 Sony Computer Entertainment Inc. Voice recognition with parallel gender and age normalization
US7778831B2 (en) * 2006-02-21 2010-08-17 Sony Computer Entertainment Inc. Voice recognition with dynamic filter bank adjustment based on speaker categorization determined from runtime pitch
US20080256613A1 (en) * 2007-03-13 2008-10-16 Grover Noel J Voice print identification portal
US8442829B2 (en) * 2009-02-17 2013-05-14 Sony Computer Entertainment Inc. Automatic computation streaming partition for voice recognition on multiple processors with limited memory
US8442833B2 (en) * 2009-02-17 2013-05-14 Sony Computer Entertainment Inc. Speech processing with source location estimation using signals from two or more microphones
US8788256B2 (en) * 2009-02-17 2014-07-22 Sony Computer Entertainment Inc. Multiple language voice recognition
US20110093266A1 (en) * 2009-10-15 2011-04-21 Tham Krister Voice pattern tagged contacts
US9153235B2 (en) 2012-04-09 2015-10-06 Sony Computer Entertainment Inc. Text dependent speaker recognition with long-term feature based on functional data analysis
WO2014025282A1 (en) 2012-08-10 2014-02-13 Khitrov Mikhail Vasilevich Method for recognition of speech messages and device for carrying out the method
CN103784255A (zh) * 2012-10-29 2014-05-14 赵士星 听力辅助***
CN103077714B (zh) 2013-01-29 2015-07-08 华为终端有限公司 信息的识别方法和装置
KR101610151B1 (ko) * 2014-10-17 2016-04-08 현대자동차 주식회사 개인음향모델을 이용한 음성 인식장치 및 방법
JP2022001967A (ja) * 2018-09-11 2022-01-06 ソニーグループ株式会社 音響イベント認識装置
US11283586B1 (en) 2020-09-05 2022-03-22 Francis Tiong Method to estimate and compensate for clock rate difference in acoustic sensors

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58106329A (ja) * 1981-12-17 1983-06-24 Matsushita Electric Ind Co Ltd 加熱装置
US4718094A (en) * 1984-11-19 1988-01-05 International Business Machines Corp. Speech recognition system
JPS6332596A (ja) * 1986-07-25 1988-02-12 日本電信電話株式会社 音声認識装置
US4817156A (en) * 1987-08-10 1989-03-28 International Business Machines Corporation Rapidly training a speech recognizer to a subsequent speaker given training data of a reference speaker
US5054074A (en) * 1989-03-02 1991-10-01 International Business Machines Corporation Optimized speech recognition system and method
US5025471A (en) * 1989-08-04 1991-06-18 Scott Instruments Corporation Method and apparatus for extracting information-bearing portions of a signal for recognizing varying instances of similar patterns
US5182773A (en) * 1991-03-22 1993-01-26 International Business Machines Corporation Speaker-independent label coding apparatus
KR930014258A (ko) * 1991-12-30 1993-07-22 이헌조 음성인식시스템에서의 음성인식 등록 선택 제어방법
JPH05232989A (ja) * 1992-02-20 1993-09-10 Nippon Telegr & Teleph Corp <Ntt> 音響モデルの話者適応化法
JPH0782348B2 (ja) * 1992-03-21 1995-09-06 株式会社エイ・ティ・アール自動翻訳電話研究所 音声認識用サブワードモデル生成方法
JP3422541B2 (ja) * 1992-12-17 2003-06-30 ゼロックス・コーポレーション キーワードのモデル化方法及び非キーワードhmmの提供方法
JP2912513B2 (ja) 1992-12-18 1999-06-28 沖電気工業株式会社 ヒドン・マルコフ・モデルの学習方法
US5732187A (en) 1993-09-27 1998-03-24 Texas Instruments Incorporated Speaker-dependent speech recognition using speaker independent models
JP3076702B2 (ja) 1993-10-08 2000-08-14 三菱電機株式会社 表示素子の保持装置
JPH0869297A (ja) * 1994-08-30 1996-03-12 Aqueous Res:Kk 音声認識装置
JP2980228B2 (ja) * 1994-10-25 1999-11-22 日本ビクター株式会社 音声認識用音響モデル生成方法
JPH08221090A (ja) * 1995-02-15 1996-08-30 Nippon Telegr & Teleph Corp <Ntt> 音声認識方法
JP3968133B2 (ja) * 1995-06-22 2007-08-29 セイコーエプソン株式会社 音声認識対話処理方法および音声認識対話装置
JPH0997096A (ja) * 1995-09-28 1997-04-08 Victor Co Of Japan Ltd 音声認識用音響モデル生成方法
JP2871561B2 (ja) * 1995-11-30 1999-03-17 株式会社エイ・ティ・アール音声翻訳通信研究所 不特定話者モデル生成装置及び音声認識装置
CN1237259A (zh) * 1996-09-10 1999-12-01 西门子公司 隐含式-马而科夫-发音模型在语音识别***中的匹配方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2701120C1 (ru) * 2018-05-14 2019-09-24 Федеральное государственное казенное военное образовательное учреждение высшего образования "Военный учебно-научный центр Военно-Морского Флота "Военно-морская академия имени Адмирала флота Советского Союза Н.Г. Кузнецова" Устройство для обработки речевого сигнала

Also Published As

Publication number Publication date
BR9913524A (pt) 2001-06-05
WO2000014723A1 (fr) 2000-03-16
HK1040312A1 (zh) 2002-05-31
EP1126438A1 (en) 2001-08-22
US20020116192A1 (en) 2002-08-22
CN1280783C (zh) 2006-10-18
AU5647899A (en) 2000-03-27
RU2223554C2 (ru) 2004-02-10
KR100415217B1 (ko) 2004-01-16
EP1126438B1 (en) 2008-07-16
MXPA01002514A (es) 2003-09-10
ID27346A (id) 2001-04-05
EP1126438A4 (en) 2005-04-06
DE69939124D1 (de) 2008-08-28
CN1323436A (zh) 2001-11-21
KR20010086402A (ko) 2001-09-10
US6868382B2 (en) 2005-03-15

Similar Documents

Publication Publication Date Title
JP3803029B2 (ja) 音声認識装置
EP1936606B1 (en) Multi-stage speech recognition
US7630878B2 (en) Speech recognition with language-dependent model vectors
US6910012B2 (en) Method and system for speech recognition using phonetically similar word alternatives
EP2048655B1 (en) Context sensitive multi-stage speech recognition
JP4845118B2 (ja) 音声認識装置、音声認識方法、および、音声認識プログラム
US7299179B2 (en) Three-stage individual word recognition
US20130090921A1 (en) Pronunciation learning from user correction
JP4224250B2 (ja) 音声認識装置、音声認識方法および音声認識プログラム
US20050091054A1 (en) Method and apparatus for generating and displaying N-Best alternatives in a speech recognition system
US20020082831A1 (en) Method for adding phonetic descriptions to a speech recognition lexicon
JP5200712B2 (ja) 音声認識装置、音声認識方法及びコンピュータプログラム
JP2000122691A (ja) 綴り字読み式音声発話の自動認識方法
JP2003316386A (ja) 音声認識方法および音声認識装置および音声認識プログラム
JP3459712B2 (ja) 音声認識方法及び装置及びコンピュータ制御装置
WO2004047075A1 (ja) 音声処理装置および方法、記録媒体並びにプログラム
JP3790038B2 (ja) サブワード型不特定話者音声認識装置
JP4930014B2 (ja) 音声認識装置、および音声認識方法
JP5315976B2 (ja) 音声認識装置、音声認識方法、および、プログラム
JP4226273B2 (ja) 音声認識装置、音声認識方法および音声認識プログラム
JP2003345384A (ja) 音声認識装置、音声認識方法および音声認識プログラム
JP4236502B2 (ja) 音声認識装置
JP4054610B2 (ja) 音声認識装置および音声認識方法、音声認識プログラム、並びに、プログラム記録媒体
JP3231365B2 (ja) 音声認識装置
JP4881625B2 (ja) 音声検出装置及び音声検出プログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060501

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090512

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100512

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100512

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100512

Year of fee payment: 4

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100512

Year of fee payment: 4

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100512

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100512

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110512

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110512

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120512

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120512

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130512

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130512

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140512

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees