JP2007206239A - 音声認識装置および音声認識方法 - Google Patents

音声認識装置および音声認識方法 Download PDF

Info

Publication number
JP2007206239A
JP2007206239A JP2006023229A JP2006023229A JP2007206239A JP 2007206239 A JP2007206239 A JP 2007206239A JP 2006023229 A JP2006023229 A JP 2006023229A JP 2006023229 A JP2006023229 A JP 2006023229A JP 2007206239 A JP2007206239 A JP 2007206239A
Authority
JP
Japan
Prior art keywords
recognition
likelihood
voice
reverse
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006023229A
Other languages
English (en)
Other versions
JP5037018B2 (ja
Inventor
Takashi Akasaka
貴志 赤坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Motor Co Ltd
Original Assignee
Yamaha Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Motor Co Ltd filed Critical Yamaha Motor Co Ltd
Priority to JP2006023229A priority Critical patent/JP5037018B2/ja
Publication of JP2007206239A publication Critical patent/JP2007206239A/ja
Application granted granted Critical
Publication of JP5037018B2 publication Critical patent/JP5037018B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】認識対象(単語、発話単位など)間の認識確率の不均一を低減し、より確実な音声認識を実現する。
【解決手段】音声認識装置11は、音声信号を入力時系列に従う順方向に認識する順方向認識処理部20と、音声信号を逆方向に再生する逆再生部15と、この逆再生部15が出力する音声信号を認識する逆方向認識処理部30と、認識処理部20,30の処理結果を統合して判定する統合判定部40とを含む。順方向認識処理部20および逆方向認識処理部30は、音声分析部21,31と、音響ライブラリ22,32と、照合部23,33とを含む。照合部23,33は、入力音声信号が、音響ライブラリ22,32に登録された単語(認識候補)である尤もらしさを表す順方向尤度および逆方向尤度をそれぞれ生成する。統合判定部40は、それらを総合的に判定して、認識結果を生成する。
【選択図】図2

Description

この発明は、音声信号から単語等の有意な認識対象を認識する音声認識装置および音声認識方法に関する。また、この発明は、そのような音声認識装置を備えた音声指示装置、情報機器および車両システムに関する。
自動車に搭載されるカーナビゲーション装置には、音声指示装置(音声入力インタフェース)を備えているものがある。音声指示装置は、運転者の音声を認識する音声認識装置と、認識された音声に対応した指示コマンドを生成するコマンド生成部とを含む。このコマンド生成部によって生成された指示コマンドに従って、カーナビゲーション装置は、目的地の設定、ルート検索その他の動作を実行する。
音声指示装置は、アイズフリーおよびハンズフリーのインタフェースであるため、運転者は、自動車の安全な運転を阻害されることなくカーナビゲーション装置の操作を行える。
自動車に限らず、自動二輪車においても、ナビゲーション装置その他の情報機器を利用したいという要求がある。この場合にも、自動車の場合と同様に、アイズフリーおよびハンズフリーのインタフェースが必要であり、前述のような音声指示装置はその最有力候補である。
一般的な単語の音声認識装置は、入力された被認識音声を、順次、音響的特徴パラメータに変換する音声分析部と、得られた音響的特徴パラメータを、予め作成しておいた単語毎の標準的音響的特徴の集合である音響ライブラリ(認識辞書)と比較し、入力された音声が表す単語を特定する照合部とを含む。
一般に、音響ライブラリの作成にあたっては、多くの発話者の発話データが収録される。その収録されたデータを学習データとして用いた学習により、照合部で採用される認識アルゴリズムに適合した様式の音響ライブラリが作成される。
特開2003−114696号公報 特開2005−134436号公報
しかし、起こりうるすべての状況を網羅した学習データを収集することは不可能である。また、採用する特徴パラメータや認識(照合)アルゴリズムに応じて、認識処理に一種の“癖”が生じることも避けられない。そのため、全ての単語を一様な確率で認識することは不可能であり、どうしても、認識しやすい単語、認識しにくい単語ができてしまう。
そこで、この発明の目的は、認識対象(単語、発話単位など)間の認識確率の不均一を低減し、より確実な音声認識を実現する音声認識装置および音声認識方法を提供することである。
また、この発明の他の目的は、そのような音声認識装置を備えた音声指示装置、情報機器および車両システムを提供することである。
上記の目的を達成するための請求項1記載の発明は、音声信号を入力時系列に従う順方向に認識する順方向認識手段と、音声信号を入力時系列とは逆の逆時系列に従う逆方向に認識する逆方向認識手段とを含む、音声認識装置である。
この構成によれば、音声信号を入力時系列に従う順方向に認識するだけでなく、入力時系列とは逆の時系列に従う逆方向に関しても認識するので、認識対象間の認識確率の不均一を低減できる。これにより、より確実な音声認識処理が可能になる。
順方向および逆方向認識手段は、たとえば、それぞれ、入力音声信号の特徴系列を生成する音声分析手段と、認識辞書(音響ライブラリ:音響モデル、単語辞書など)と、照合手段とを含む。認識辞書は、複数の認識候補に関して、予め作成した標準的な特徴系列を記憶している。照合手段は、音声分析によって得られた特徴系列と個々の認識候補に関して認識辞書に格納されている標準的な特徴系列とを比較して、入力音声信号が個々の認識候補を表す尤もらしさを表す尤度情報を生成する。より具体的には、照合手段は、DPマッチング法(動的計画法)、ニューラルネットワーク法、ベイズ識別関数法、ベクトル量子化法などの認識アルゴリズムに従って尤度情報を求める。尤度情報とは、音声分析によって得られた特徴系列と認識辞書に記憶されている認識候補の標準的な特徴系列との類似度を表す情報であり、照合手段が実行する認識アルゴリズムに依存する形式の情報である。尤度、特徴系列ベクトル間の距離などがその例である。
認識辞書は、予め収録した音声データを学習データとして用いる学習によって作成することができる。この場合、順方向認識処理手段のための認識辞書は、音声データの入力時系列に従った特徴系列を用いた学習によって作成し、逆方向認識手段のための認識辞書は、音声データの入力時系列とは反対の時系列に従った特徴系列を用いた学習によって作成する必要がある。
請求項2記載の発明は、音声信号を入力時系列とは逆の時系列に従って再生し、前記逆方向認識手段に入力する逆再生手段をさらに含む、請求項1記載の音声認識装置である。この構成により、逆方向認識手段において、入力時系列とは逆の時系列に従って音声信号の認識処理を行える。より具体的には、逆方向認識手段は、逆再生手段によって逆方向再生された音声信号を分析してその特徴系列を出力する音声分析手段と、認識辞書と、音声分析手段が出力する特徴系列を認識辞書の内容と照合する照合手段とを含む構成とすることができる。この場合の認識辞書は、学習データを逆再生手段によって逆再生させ、その出力を音声分析手段によって分析させて特徴系列を得るプロセスを用いた学習によって作成することが好ましい。
請求項3記載の発明は、前記逆方向認識手段は、音声信号を入力時系列に従って分析し、入力時系列に従う特徴系列を生成する音声分析手段と、この音声分析手段が生成する特徴系列を、入力時系列とは逆の時系列に従う特徴系列に変換して前記逆方向認識手段に入力する特徴系列反転手段とを含むものである、請求項1記載の音声認識装置である。この構成により、逆方向認識手段において、入力時系列とは逆の時系列に従って音声信号の認識処理を行える。より具体的には、逆方向認識手段は、前記音声分析手段と、前記特徴系列反転手段と、認識辞書と、特徴系列反転手段が出力する特徴系列を認識辞書の内容と照合する照合手段とを含む構成とすることができる。この場合の認識辞書は、学習データを入力時系列に従って音声分析手段によって分析させ、これを特徴系列反転手段によって時間軸上で反転させるプロセスを用いた学習によって作成することが好ましい。
なお、この構成の場合、音声分析処理は、順方向および逆方向認識処理手段の両方に共通の処理となるので、これらによって音声分析手段を共有することとしてもよい。
請求項4記載の発明は、前記順方向認識手段および逆方向認識手段の出力を統合して、入力音声信号に対応する認識結果を生成する統合判定手段をさらに含む、請求項1ないし3のいずれかに記載の音声認識装置である。この構成により、順方向および逆方向の認識処理結果を総合的に判定して認識結果を生成できるので、認識対象間でばらつきの少ない認識確率を実現でき、より確実な認識処理が可能になる。
請求項5記載の発明は、前記順方向認識手段は、(たとえば、複数の認識候補のそれぞれに関して)入力音声信号が認識候補に該当する尤もらしさを表す順方向尤度情報を生成するものであり、前記逆方向認識手段は、(たとえば、複数の認識候補のそれぞれに関して)入力音声信号が認識候補に該当する尤もらしさを表す逆方向尤度情報を生成するものであり、前記統合判定手段は、前記順方向認識手段および逆方向認識手段がそれぞれ生成する順方向尤度情報および逆方向尤度情報を結合して、入力音声信号が認識候補に該当する尤もらしさを表す結合尤度情報を生成する尤度情報結合手段と、この尤度情報結合手段が生成する結合尤度情報を評価して認識結果を求める認識結果判定手段とを含むものである、請求項4記載の音声認識装置である。
この構成により、順方向尤度情報および逆方向尤度情報を結合した結合尤度情報を評価することによって認識結果が求められるので、順方向および逆方向の認識処理結果を反映した認識結果が得られる。これにより、複数の認識対象に対する認識確率のばらつきを低減して、より確実な音声認識処理が可能になる。
請求項6記載の発明は、前記尤度情報結合手段は、順方向尤度情報および逆方向尤度情報にそれぞれ重み付けして結合する重み付け結合手段を含む、請求項5記載の音声認識装置である。この構成により、順方向および逆方向の認識処理結果に適切な重み付けをすることができ、より一層認識確率を向上できる。
前記尤度情報結合手段は、前記順方向尤度情報および逆方向尤度情報を線形結合(一次結合)するものであってもよいし、非線形結合(たとえば、尤度情報の2乗以上の巾乗項を含む結合)するものであってもよい。
請求項7記載の発明は、前記重み付け結合手段は、認識候補に依存する重みを順方向尤度情報および/または逆方向尤度情報に付与して結合する認識候補適応重み付け結合手段を含む、請求項6記載の音声認識装置である。この構成により、認識候補毎に適切な重みを付与することができるので、認識候補間の認識確率のばらつきをより一層低減でき、より確実な音声認識が可能になる。認識候補毎の重みは、たとえば、学習によって、認識確率のばらつきが低減されるように予め定めておき、認識候補に対応付けて認識辞書に登録しておくことが好ましい。
請求項8記載の発明は、前記統合判定手段は、前記順方向認識手段および逆方向認識手段の少なくともいずれか一方による単独処理結果が、所定以上の尤もらしさを有する認識候補の存在を示しているかどうかを判定する一方向認識判定手段と、この一方向認識判定手段によって、前記単独処理結果が所定以上の尤もらしさを有する認識候補の存在を示していると判定されたときに、その認識候補を認識結果として出力する手段とを含むものである、請求項4〜7のいずれかに記載の音声認識装置である。
この構成によれば、順方向認識手段または逆方向認識手段の単独処理結果を用いて認識結果を出力できる場合があるので、処理を簡単かつ高速にすることができる。
請求項9記載の発明は、前記一方向認識判定手段は、認識候補に依存する重みを前記単独処理結果に付与して、当該単独処理結果が所定以上の尤もらしさを有する認識候補の存在を示しているかどうかを判定する重み付け判定手段を含むものである、請求項8記載の音声認識装置である。この構成により、認識候補毎に適切な重みを付与しておくことによって、単独処理結果に基づく認識処理の確率を高めることができる。認識候補毎の重みは、学習によって予め求めておき、認識候補に対応付けて認識辞書内に予め登録しておくことが好ましい。
請求項10記載の発明は、請求項1〜9のいずれかに記載の音声認識装置と、この音声認識装置に音声信号を入力するための音声信号入力手段と、前記音声認識装置による認識結果を所定の機器に入力するための指示コマンドデータに変換するコマンドデータ生成手段とを含む、音声指示装置である。この構成では、認識候補間の認識確率のばらつきが低減される結果、使用者の意図に該当する指示コマンドデータが生成される確率が高まる。これにより、優れた音声入力インタフェースを提供できる。
請求項11記載の発明は、請求項10記載の音声指示装置と、前記コマンドデータ生成手段によって生成された指示コマンドデータに応じて動作するコマンド処理手段とを含む、情報機器である。この構成により、音声指示によって情報機器を快適に操作できる。
請求項12記載の発明は、請求項11記載の情報機器の少なくとも一部を車体に搭載した車両システムである。この構成により、車載用情報機器を音声指示によって快適に操作することができる車両システムを提供できる。
請求項13記載の発明は、音声信号を入力時系列に従う順方向に認識する順方向認識ステップと、音声信号を入力時系列とは逆の逆時系列に従う逆方向に認識する逆方向認識ステップとを含む、音声認識方法である。この方法により、請求項1の発明に関連して説明した効果を達成できる。
請求項14記載の発明は、前記順方向認識ステップおよび逆方向認識ステップの結果を統合して、入力音声信号に対応する認識結果を生成する統合判定ステップをさらに含む、請求項13記載の音声認識方法である。この方法により、請求項4の発明に関連して説明した効果を達成できる。
むろん、音声認識方法の発明に関しても、音声認識装置の発明と同様な変形を施すことができる。
以下では、この発明の実施の形態を、添付図面を参照して詳細に説明する。
図1は、この発明の一実施形態に係る車両システムの全体構成を示す。この車両システムは、車両の一例としての二輪車両の車体1と、この車体1に取り付けられた音声指示装置本体10Aと、前記車体1に取り付けられ、音声指示装置本体10Aからの指令(コマンド)を受けて動作するコマンド処理手段としての情報処理部51と、乗員2(通常は運転者であるが、同乗者であってもよい。)が装着するヘルメット3に備えられたマイクロフォン5と、同じくヘルメット3に取り付けられたスピーカ6とを備えている。マイクロフォン5は、音声指示装置本体10Aに対して音声信号を入力する音声信号入力手段としての機能を担う。このマイクロフォン5および音声指示装置本体10Aにより、音声指示装置10が構成されている。そして、この音声指示装置10および情報処理部51などにより、車載用情報機器50が構成されている。音声指示装置本体10Aおよび情報処理部51は、一体化されていてもよいし、別装置とされていてもよい。
このように、車載用情報機器50は、音声による指示操作が可能な情報機器である。このような情報機器の例としては、ナビゲーション装置(好ましくは、音声案内が可能なもの)、移動電話機、音再生装置(たとえば、MDプレーヤ、CDプレーヤその他のオーディオ装置)を挙げることができる。
マイクロフォン5は、ヘルメット3の口元部分に設けられ、スピーカ6は、ヘルメット3の耳元部分に設けられている。マイクロフォン5は、乗員が発する音声を検出し、その音声に対応した電気信号である音声信号を音声指示装置本体10Aに入力する。スピーカ6は、情報処理部51からの音声信号を受けて、その音声信号を音に変換する。これにより、車両の乗員は、音声によって車載用情報機器50に音声による指示を与えることができるとともに、車載用情報機器50が生成する音情報を聴取することができる。こうして、ハンズフリーおよびアイズフリーのインタフェースが構築されている。
音声指示装置本体10Aは、ヘルメット3に装備されてもよいが、ヘルメット3の付属品を可能な限り少なくするためには、乗員の着衣等に保持される携帯型装置として構成したり、車両側に取り付けられる車載用装置として構成したりすることが好ましい。
マイクロフォン5と音声指示装置本体10Aとの間の接続は、ハーネス7に含まれるケーブルを用いた有線接続により行ってもよいし、音声指示装置本体10Aを車載用装置として構成する場合には、無線通信によってそれらの間を接続することもできる。スピーカ6と情報処理部51との間の接続も同様に、ハーネス7に含まれるケーブルを用いた有線接続により行ってもよいし、無線通信接続によって行ってもよい。無線通信の方式としては、たとえば、ブルーツゥース、赤外線通信その他の短距離無線通信方式を採用することができる。
図2は、車載用情報機器50の電気的構成を示すブロック図である。音声指示装置本体10Aは、マイクロフォン5から入力される音声信号を認識する音声認識装置11と、この音声認識装置11による認識結果をコマンドデータに変換するコマンドデータ生成部12(コマンドデータ生成手段)とを備えている。コマンドデータ生成部12は、車載用情報機器50に入力可能な形式のコマンドデータを生成し、このコマンドデータを車載用情報機器50の情報処理部51に与える。
音声認識装置11は、たとえば、HMM(隠れマルコフモデル)単語認識アルゴリズムに従って入力音声の認識処理を行う一対の認識処理部、すなわち、順方向認識処理部20(順方向認識手段)および逆方向認識処理部30(逆方向認識手段)を備えている。さらに、音声認識装置11は、音声信号を時間軸上で反転して再生する逆再生部15(逆再生手段)と、順方向および逆方向認識処理部20,30の出力を統合して認識結果を出力する統合判定部40(統合判定手段)とを備えている。認識対象の音声信号は、時間軸に従う順方向波形で順方向認識処理部20に入力される。一方、逆再生部15によって時間軸上で反転された逆方向波形の音声信号は、逆方向認識処理部30に入力されるようになっている。
順方向認識処理部20は、音声分析部21(音声分析手段)と、音響ライブラリ22(認識辞書)と、照合部23(照合手段)とを備えている。同様に、逆方向認識処理部30は、音声分析部31(音声分析手段と、音響ライブラリ32(認識辞書)と、照合部33(照合手段)とを備えている。
音声分析部21は、マイクロフォン5から入力される音声信号(順方向波形)を分析してその音響的特徴を表す特徴パラメータ系列(たとえば、MFCC(メル周波数ケプストラム係数))を抽出する。同様に、音声分析部31は、逆再生部15から入力される音声信号(逆方向波形)を分析してその音響的特徴を表す特徴パラメータ系列(たとえばMFCC)を抽出する。
音響ライブラリ22は、音響モデル24と、単語辞書(言語モデル)25とを備えている。同様に、音響ライブラリ32は、音響モデル34と、単語辞書(言語モデル)35とを備えている。音響モデル24,34は、音声の所定単位(たとえば単語)ごとに標準音声パターンの音響的特徴をモデル化したものであり、入力音声パターンとの音響的な類似性の評価を行うための参照情報である。また、単語辞書25,35は、音響モデルの接続に関する制約を与えるための情報である。このような情報の典型は、或る単語(音素)に引き続いて別の単語(音素)が出現する確率である。
音響モデル24,34および単語辞書25,35は、事前に収録した学習データを用いた学習によって作成される。学習データは、たとえば、多数の話者の様々な状況における発話を収録した音声データである。ただし、順方向認識処理部20の音響モデル24および単語辞書25は、順方向波形の音声データ(たとえば、「yamaha」、「hoNda」、「suzuki」など)を学習データとして用いた学習によって作成されるのに対して、逆方向認識処理部30の音響モデル34および単語辞書35は、逆方向波形の音声データ(すなわち、時間軸上で反転して再生した音声データ。たとえば、前記の例を反転した「ahamay」、「adNoh」、「ikuzus」など)を学習データとして用いた学習によって作成される。
照合部23,33は、音声分析部21,31によって抽出された特徴パラメータ系列と音響ライブラリ22,32の認識候補とを照合して、HMMアルゴリズムによって、認識候補の尤もらしさを表す尤度を生成する。
統合判定部40は、順方向認識処理部20および逆方向認識処理部30の出力を総合的に判定して、認識結果を出力し、コマンドデータ生成部12に引き渡す。
図3は、統合判定部40における第1の処理例を説明するためのフローチャートである。
順方向認識処理部20は、単語辞書25に登録されているi番目の単語(認識候補)に対して順方向尤度LFiを生成する。同様に、逆方向認識処理部30は、単語辞書35に登録されているi番目の単語(認識候補)に対して逆方向尤度LRiを生成する。ただし、単語辞書25,35には、共通の複数の単語が同じ順序で登録されているものとする。
この場合に、統合判定部40は、順方向および逆方向尤度LFi,LRiを線形結合した結合尤度Liを次式(1)に従って演算する(ステップS1:尤度情報結合手段。重み付け結合手段)。
Li=αLFi+βLRi …… (1)
ただし、重み付け係数α,βは実数(定数)であり、α≠0,β≠0である。これらの重み付け係数α,βを適切に定めることによって、順方向認識結果および逆方向認識結果を適切に結合でき、妥当な認識結果を得ることができる。重み付け係数α,βは、学習によって予め定めることとしてもよい。
また、重み付け係数α,βは、単語毎に予め定めた値αi,βiとしてもよい。この場合の重み付け係数αi,βiは、単語辞書25,35に、認識候補の単語とともに格納しておけばよい。この場合には、ステップS1では、次式(1a)による演算に従って結合尤度Liが求められる(認識候補適応重み付け結合手段)。
Li=αi・LFi+βi・LRi …… (1a)
次に、統合判定部40は、次式(2)を満たすkを見いだす(ステップS2)。
k=argimax(Li) …… (2)
すなわち、k番目の単語は、結合尤度Liが最大となる単語である。
そして、さらに、統合判定部40は、最大の結合尤度Lkが、次式(3)の条件を満たすかどうかを判断する(ステップS3)。
Lk > Θ …… (3)
閾値Θは実数であり、定数であってもよいし、単語に応じて異なる値(Θk)としてもよい。
前記式(3)の条件が満たされれば、すなわち、結合尤度Lkが所定の閾値Θを超えているならば、統合判定部40は、k番目の単語を認識結果とし、この単語を表すデータを出力する(ステップS4)。さもなければ、認識結果を棄却し、いずれの単語を表すデータをも出力しない)ステップS5)。
このようにして、この例では、順方向認識処理および逆方向認識処理によって得られる順方向および逆方向尤度LFi,LRiを重み付け係数α,βで重み付けして線形結合することによって結合尤度Liが求められる。そして、この結合尤度Liに基づいて、認識結果が求められる。こうして、順方向および逆方向の認識結果を結合して用いることによって、認識しやすさに関するばらつきを抑制できる。
図4は、統合判定部40における第2の処理例を説明するためのフローチャートである。この図4において、図3に示された各ステップと同様の処理が行われるステップには、図3の場合と同一の参照符号を付して示す。この例では、統合判定部40は、一対の認識処理部20,30のうちの一方である順方向認識処理部20の出力を優先的に用いた判定を行う。すなわち、統合判定部40は、まず、順方向認識処理部20が生成する順方向尤度LFiを用いて、次式(4)を満たすjを見いだす(ステップS10)。
j=argimax(LFi) …… (4)
すなわち、j番目の単語は、順方向尤度LFiが最大となる単語である。
そして、さらに、統合判定部40は、最大の順方向尤度LFjが、次式(5)の条件を満たすかどうかを判断する(ステップS11。一方向認識判定手段)。
LFj > θ …… (5)
閾値θは実数であり、定数であってもよいし、単語に応じて異なる値(θj)としてもよい。
前記式(5)の条件が満たされれば、すなわち、順方向尤度LFjが所定の閾値θを超えているならば、統合判定部40は、j番目の単語を認識結果とする(ステップS12)。さもなければ、前述の図3を参照して説明した処理(ステップS1〜S5)を実行し、結合尤度Liに基づく認識処理を実行する。
このようにして、順方向認識処理部20の単独処理結果のみに基づいて判定が可能な場合には、結合尤度Liを用いた処理を省くことができるので、認識処理を高速化でき、音声認識装置11を構成する処理装置の演算負荷を軽減できる。
むろん、逆方向認識処理部30の単独処理結果を優先的に用いて同様の処理を行うことも可能である。
図5は、統合判定部40における第3の処理例を説明するためのフローチャートである。この図5において、図4に示された各ステップと同様の処理が行われるステップには、図4の場合と同一の参照符号を付して示す。
この例では、ステップS11において最大順方向尤度LFjが閾値θ(またはθi)を超えていると判断されたときに、さらに、次式(6)による判断が行われる(ステップS15。一方向認識判定手段)。
LFi ≦θ(またはθi) for ∀i≠j …… (6)
すなわち、j以外の任意のiに対して、順方向尤度LFiが閾値θ(またはθi)以下であることを条件に、j番目の単語を認識結果とする(ステップS12)。つまり、閾値θ(またはθi)を超える順方向尤度LFiを有する単語がただ一つに定まるときに、結合尤度Liによる判定を行うことなく、j番目の単語が認識単語として出力される。
前記式(6)の条件が満たされない場合(ステップS15:NO)、すなわち、閾値θ(またはθi)を超える順方向尤度を持つ単語が二つ以上存在する場合には、前述の図3を参照して説明した処理(ステップS1〜S5)を実行し、結合尤度Liに基づく認識処理を実行する。
ただし、この場合、結合尤度Liに基づく認識処理(ステップS1〜S5)は、LFi>θ(またはθi)を満たすiの範囲で行うことが好ましい。これにより、結合尤度Liに基づく判定処理を簡単にすることができるから、処理速度を高めることができるとともに、音声認識装置11を構成する処理装置の演算負荷を一層軽減できる。
このようにして、この処理例でも、順方向認識処理部20の単独処理結果のみに基づいて判定が可能な場合には、結合尤度Liを用いた処理を省くことができる。それに加えて、順方向尤度LFiに基づいてただ一つの単語を特定できる場合にのみ、順方向認識処理部20の単独処理結果のみに基づく単語認識を許容しているので、認識結果の確実性を高めることができる。
むろん、図4の処理例の場合と同じく、逆方向認識処理部30の単独処理結果を優先的に用いて同様の処理を行うことも可能である。
なお、図5において二点鎖線で示すように、ステップS11において、順方向最大尤度LFjが閾値θ(またはθj)を超えていない場合には、結合尤度Liに基づく判定処理を行うことなく、認識結果を棄却(ステップS5)することとしてもよい。
図6は、統合判定部40における第4の処理例を説明するためのフローチャートである。この図6において、図5に示された各ステップと同様の処理が行われるステップには、図5の場合と同一の参照符号を付して示す。
この例では、図5のステップS15の判定に代えて、次式(7)による判断が行われる(ステップS16。一方向認識判定手段)。
LFj−LFi >Δ for ∀i≠j …… (7)
ただし、閾値Δは実数(ここではΔ>0)であり、予め定める定数である。閾値Δとして、単語iごとの閾値Δiを用いるようにしてもよい。
前記式(7)は、最大順方向尤度LFjと他の任意の順方向尤度LFiとの差が閾値Δ(またはΔi)を超えるという条件を表している。換言すれば、最大順方向尤度LFjと、これに次いで大きな順方向尤度との差が閾値Δ(または閾値Δi)を超えている、すなわち、最大順方向尤度LFjが他と比較して突出しているという条件である。
この条件が満たされている場合には(ステップS16のYES)、結合尤度Liによる判定を行うことなく、j番目の単語が認識単語として出力される(ステップS12)。
前記式(7)の条件が満たされない場合(ステップS15:NO)、すなわち、閾値θ(またはθi)を超える順方向尤度LFiを持つ単語が二つ以上存在する場合には、前述の図3を参照して説明した処理(ステップS1〜S5)を実行し、結合尤度Liに基づく認識処理を実行する。
ただし、この場合、結合尤度Liに基づく認識処理(ステップS1〜S5)は、LFi>θ(またはθi)を満たすiの範囲で行うことが好ましい。これにより、結合尤度Liに基づく判定処理を簡単にすることができるから、処理速度を高めることができるとともに、音声認識装置11を構成する処理装置の演算負荷を一層軽減できる。
このようにして、この処理例でも、順方向認識処理部20の単独処理結果のみに基づいて判定が可能な場合には、結合尤度Liを用いた処理を省くことができる。それに加えて、最大順方向尤度LFjが他と比較して突出していると認められる場合にのみ、順方向認識処理部20の単独処理結果のみに基づく単語認識を許容しているので、認識結果の確実性を高めることができる。
むろん、図4の処理例の場合と同じく、逆方向認識処理部30の単独処理結果を優先的に用いて同様の処理を行うことも可能である。
なお、図5の処理例の場合と同じく、図6において二点鎖線で示すように、ステップS11において、順方向最大尤度LFjが閾値θ(またはθj)を超えていない場合には、結合尤度Liに基づく判定処理を行うことなく、認識結果を棄却(ステップS5)することとしてもよい。
図7は、統合判定部40における第5の処理例を説明するためのフローチャートである。この図7において、図4に示された各ステップと同様の処理が行われるステップには、図4の場合と同一の参照符号を付して示す。
この例では、順方向認識処理部20による単独処理結果に基づく判定を優先的に行うに当たって、単語ごとに重み付けγiを付与した重み付き順方向尤度γi・LFiが用いられる。すなわち、重み付き順方向尤度γi・LFiが最大となる単語(j番目の単語)が求められる(ステップS20)。すなわち、
j=argimax(γj・LFi) …… (8)
である。
そして、最大の重み付き順方向尤度γj・LFjが次式(9)を満たすかどうかが判断される(ステップS21。一方向認識判定手段。重み付け判定手段)。
γj・LFj > θ …… (9)
閾値θは実数であり、定数である。閾値θを単語に応じて異なる値θjとしてもよいが、尤度LFiに重み付けを行っているので、閾値θに対してまで重み付けする実益はない。なお、重み付け係数γiは、たとえば、学習によって予め求め、単語辞書25に個々の単語毎に格納しておけばよい。
前記式(9)の条件が満たされれば、すなわち、重み付け順方向尤度γj・LFjが所定の閾値θを超えているならば、統合判定部40は、j番目の単語を認識結果とする(ステップS12)。さもなければ、前述の図3を参照して説明した処理(ステップS1〜S5)を実行し、結合尤度Liに基づく認識処理を実行する。
このように、図4のステップS10,11の処理を前述のステップS20,21の処理に置き換えることにより、単語毎の重みγiを付与した重み付き順方向尤度γi・LFiによる認識を行うことができる。
同様の変形は、図5および図6に示された処理に対しても適用することができる。
図8は、この発明の第2の実施形態に係る音声指示装置の構成を説明するためのブロック図である。この図8において、前述の図2に示された各部に対応する部分には、図2の場合と同一の参照符号を付して示す。
前述の第1の実施形態では、入力音声データを時間軸上で反転して再生出力する逆再生部15が設けられていて、この逆再生部15によって逆再生された逆方向音声データに対して音声分析処理が行われるようになっている。
これに対して、この実施形態では、音声分析処理は、順方向音声データに対してのみ行うこととし、音声分析結果を時間軸上で反転して逆方向認識処理部30の照合部33に引き渡すようにしている。
より具体的には、マイクロフォン5からの音声信号は、順方向認識処理部20の音声分析部21および逆方向認識処理部30の音声分析部31に与えられる。順方向認識処理部20の構成は、前述の第1の実施形態の場合と同様である。
逆方向認識処理部30は、音声分析部31が生成する特徴パラメータ系列を時間軸上で反転し、逆方向特徴パラメータ系列に変換する時間軸上反転部37を備えている。この時間軸上反転部37が生成する逆方向特徴パラメータ系列が照合部33に与えられる。逆方向認識処理部30のその他の構成は、前述の第1の実施形態の場合と同様である。
このような構成によっても、第1の実施形態の場合と同様に、順方向認識処理および逆方向認識処理を併用して、単語辞書25,35に登録された単語(認識候補)間の認識確率のばらつきを抑制できる。
ただし、逆方向認識処理部30の音響ライブラリ32を構成する音響モデル34および単語辞書35を作成する際の学習は、認識処理時と同様の処理手順(音声分析後に時間軸反転する手順)で行う必要がある。
なお、この実施形態では、順方向認識処理部20および逆方向認識処理部30にそれぞれ音声分析部21,31を設けているが、一つの音声分析部を順方向および逆方向認識処理部20,30で共有することとしてもよい。
[実験例]
図9は、音声データを順方向および逆方向の両方で再生し、それぞれについて単語認識実験を行った場合の認識率を示す図である。順方向再生音声データに対する認識では、「単語6」および「単語9」で認識率が低いのに対し、逆方向再生音声データに対する認識では、それらの単語に対して、いずれも80%を超える認識率が得られた。逆に、「単語11」では、順方向再生音声データに対する認識のほうが、逆方向再生音声データに対する認識よりも、やや認識率が良い。
この実験結果から、単語によって順方向認識および逆方向認識の適/不適があり、順方向認識および逆方向認識を組み合わせて単語認識処理を行う前述の実施形態によって、単語認識率の均一性を向上できることが理解される。
[変形例]
前述の実施形態では、HMM単語認識を例に挙げたが、認識アルゴリズムは、DPマッチング方式、ニューラルネットワーク方式、ベイズ識別関数方式、ベクトル量子化方式など、任意の方式を適用できる。この場合、尤度情報としては、尤度ではなく、特徴ベクトル間の「距離」などが用いられる場合もあり、前記の条件式(3)(5)(6)(7)(9)などにおいて、適宜不等号の向きを反対にする必要があり得る。
また、単語認識でなくても、連続音声認識に対してもこの発明を同様に適用できる。この場合、認識対象は、「単語」の代わりに、「文字」、「音節」等の発話単位になる。
さらに、前述の実施形態では、結合尤度Liを順方向尤度LFiおよび逆方向尤度LRiの線形結合としたが、これらの非線形結合によって結合尤度Liを表してもよく、一般に、結合尤度Liは、順方向尤度LFiおよび逆方向尤度LRiの関数fによって、次式(9)のように表すことができる。
Li=f(LFi,LRi) …… (9)
順方向および逆方向尤度LFi,LRiの非線形結合によって結合尤度Liを定める場合の例は、次の式(10)および(11)のとおりである。
Li=a・LFi2+b・LFi+c・LRi2+d・LRi ……(10)
Li=m・LFi3+n・LFi2+p・LFi+q・LRi3+r・LRi2+s・LRi ……(11)
ただし、a,b,c,d,m,n,p,q,r,sは、係数(実数)であり、定数であってもよいし、認識候補(単語)毎に予め異なる値を設定しておいてもよい。
また、前述の実施形態では、いずれの場合にも、順方向認識処理および逆方向認識処理の両方が行われるが、図4〜図7に示した処理のように、順方向認識処理結果を優先する場合に、逆方向認識に関連する処理(音声分析および照合処理。図8の構成の場合にはさらに時間軸上反転処理)を後回し処理(ステップS11,S15,S16,S21で否定判定がされた場合に初めて行う処理)にしてもよい。むろん、逆方向認識処理結果を優先する場合も同様であり、順方向認識に関連する処理(音声分析および照合処理)を後回し処理としてもよい。
さらに、前述の実施形態では、結合尤度Liを用いて判定を行う例について説明したが、結合尤度Liを必ずしも用いる必要はない。たとえば、単語ごとに順方向認識および逆方向認識のいずれが適しているかは予め調べることができる。そこで、単語によって、順方向認識を行うか逆方向認識を行うかを分けるようにしてもよい。より具体的には、個々の単語について、順方向尤度LFiおよび逆方向尤度LRiの一方のみが選択的に参照され、選択された尤度LFi,LRiの最大値に基づいて、入力された単語を判定すればよい。
また、前述の図4〜7の処理例では、結合尤度Liを用いた判定の前に、順方向尤度LFiおよび逆方向尤度LRiのうちの一方に関する判定のみを行っているが、これらの両方に関する判定を行うようにしてもよい。そして、いずれかの尤度LFi,LRiが十分に大きな値を有する単語が見つかったこと、所定の閾値以上の尤度LFi,LRiを有する単語がただ一つに定まること、他の単語に比較して十分に尤度LFi,LRiが大きいこと、などを条件として認識結果を確定し、その後の結合尤度Liに基づく判定処理を省くようにしてもよい。
さらに、前述の実施形態では、車載用情報機器50のための音声指示装置10を例にとったが、この発明は、車載用情報機器に限らず、他の情報機器に対する音声指示のために適用することもできる。
その他、「課題を解決するための手段」の項で説明した各種の変形に加え、特許請求の範囲に記載された事項の範囲で種々の設計変更を施すことが可能である。
この発明の一実施形態に係る車両システムの全体構成を示す図である。 前記車両システムの電気的構成を示すブロック図である。 統合判定部における第1の処理例を説明するためのフローチャートである。 統合判定部における第2の処理例を説明するためのフローチャートである。 統合判定部における第3の処理例を説明するためのフローチャートである。 統合判定部における第4の処理例を説明するためのフローチャートである。 統合判定部における第5の処理例を説明するためのフローチャートである。 この発明の第2の実施形態に係る音声指示装置の構成を説明するためのブロック図である。 音声データを順方向および逆方向の両方で再生し、それぞれについて単語認識実験を行った場合の認識率を示す図である。
符号の説明
1 車体
2 乗員
3 ヘルメット
5 マイクロフォン
6 スピーカ
7 ハーネス
10 音声指示装置10
10A 音声指示装置本体
11 音声認識装置
12 コマンドデータ生成部
15 逆再生部
20 順方向認識処理部
21 音声分析部
22 音響ライブラリ
23 照合部
24 音響モデル
25 単語辞書
30 逆方向認識処理部
31 音声分析部
32 音響ライブラリ
33 照合部
34 音響モデル
35 単語辞書
37 時間軸上反転部
40 統合判定部
50 車載用情報機器
51 情報処理部

Claims (14)

  1. 音声信号を入力時系列に従う順方向に認識する順方向認識手段と、
    音声信号を入力時系列とは逆の逆時系列に従う逆方向に認識する逆方向認識手段とを含む、音声認識装置。
  2. 音声信号を入力時系列とは逆の時系列に従って再生し、前記逆方向認識手段に入力する逆再生手段をさらに含む、請求項1記載の音声認識装置。
  3. 前記逆方向認識手段は、
    音声信号を入力時系列に従って分析し、入力時系列に従う特徴系列を生成する音声分析手段と、
    この音声分析手段が生成する特徴系列を、入力時系列とは逆の時系列に従う特徴系列に変換して前記逆方向認識手段に入力する特徴系列反転手段とを含むものである、請求項1記載の音声認識装置。
  4. 前記順方向認識手段および逆方向認識手段の出力を統合して、入力音声信号に対応する認識結果を生成する統合判定手段をさらに含む、請求項1ないし3のいずれかに記載の音声認識装置。
  5. 前記順方向認識手段は、入力音声信号が認識候補に該当する尤もらしさを表す順方向尤度情報を生成するものであり、
    前記逆方向認識手段は、入力音声信号が認識候補に該当する尤もらしさを表す逆方向尤度情報を生成するものであり、
    前記統合判定手段は、前記順方向認識手段および逆方向認識手段がそれぞれ生成する順方向尤度情報および逆方向尤度情報を結合して、入力音声信号が認識候補に該当する尤もらしさを表す結合尤度情報を生成する尤度情報結合手段と、この尤度情報結合手段が生成する結合尤度情報を評価して認識結果を求める認識結果判定手段とを含むものである、請求項4記載の音声認識装置。
  6. 前記尤度情報結合手段は、順方向尤度情報および逆方向尤度情報にそれぞれ重み付けして結合する重み付け結合手段を含む、請求項5記載の音声認識装置。
  7. 前記重み付け結合手段は、認識候補に依存する重みを順方向尤度情報および/または逆方向尤度情報に付与して結合する認識候補適応重み付け結合手段を含む、請求項6記載の音声認識装置。
  8. 前記統合判定手段は、
    前記順方向認識手段および逆方向認識手段の少なくともいずれか一方による単独処理結果が、所定以上の尤もらしさを有する認識候補の存在を示しているかどうかを判定する一方向認識判定手段と、
    この一方向認識判定手段によって、前記単独処理結果が所定以上の尤もらしさを有する認識候補の存在を示していると判定されたときに、その認識候補を認識結果として出力する手段とを含むものである、請求項4〜7のいずれかに記載の音声認識装置。
  9. 前記一方向認識判定手段は、認識候補に依存する重みを前記単独処理結果に付与して、当該単独処理結果が所定以上の尤もらしさを有する認識候補の存在を示しているかどうかを判定する重み付け判定手段を含むものである、請求項8記載の音声認識装置。
  10. 請求項1〜9のいずれかに記載の音声認識装置と、
    この音声認識装置に音声信号を入力するための音声信号入力手段と、
    前記音声認識装置による認識結果を所定の機器に入力するための指示コマンドデータに変換するコマンドデータ生成手段とを含む、音声指示装置。
  11. 請求項10記載の音声指示装置と、
    前記コマンドデータ生成手段によって生成された指示コマンドデータに応じて動作するコマンド処理手段とを含む、情報機器。
  12. 請求項11記載の情報機器の少なくとも一部を車体に搭載した車両システム。
  13. 音声信号を入力時系列に従う順方向に認識する順方向認識ステップと、
    音声信号を入力時系列とは逆の逆時系列に従う逆方向に認識する逆方向認識ステップとを含む、音声認識方法。
  14. 前記順方向認識ステップおよび逆方向認識ステップの結果を統合して、入力音声信号に対応する認識結果を生成する統合判定ステップをさらに含む、請求項13記載の音声認識方法。
JP2006023229A 2006-01-31 2006-01-31 音声認識装置および音声認識方法 Active JP5037018B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006023229A JP5037018B2 (ja) 2006-01-31 2006-01-31 音声認識装置および音声認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006023229A JP5037018B2 (ja) 2006-01-31 2006-01-31 音声認識装置および音声認識方法

Publications (2)

Publication Number Publication Date
JP2007206239A true JP2007206239A (ja) 2007-08-16
JP5037018B2 JP5037018B2 (ja) 2012-09-26

Family

ID=38485782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006023229A Active JP5037018B2 (ja) 2006-01-31 2006-01-31 音声認識装置および音声認識方法

Country Status (1)

Country Link
JP (1) JP5037018B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006189862A (ja) * 2004-12-29 2006-07-20 Samsung Electronics Co Ltd 時系列信号のパターン認識可能性の判断方法及びその装置
JP2009294704A (ja) * 2008-06-02 2009-12-17 Mitsubishi Heavy Ind Ltd ナンバー認識装置およびナンバー認識方法
JP2021024415A (ja) * 2019-08-05 2021-02-22 治幸 岩田 自動車の加速制御システム、方法、プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09212190A (ja) * 1996-02-02 1997-08-15 Oki Electric Ind Co Ltd 音声認識装置及び文認識装置
JP2003114696A (ja) * 2001-10-03 2003-04-18 Denso Corp 音声認識装置、プログラム及びナビゲーションシステム
JP2005134436A (ja) * 2003-10-28 2005-05-26 Nissan Motor Co Ltd 音声認識装置
JP2006189862A (ja) * 2004-12-29 2006-07-20 Samsung Electronics Co Ltd 時系列信号のパターン認識可能性の判断方法及びその装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09212190A (ja) * 1996-02-02 1997-08-15 Oki Electric Ind Co Ltd 音声認識装置及び文認識装置
JP2003114696A (ja) * 2001-10-03 2003-04-18 Denso Corp 音声認識装置、プログラム及びナビゲーションシステム
JP2005134436A (ja) * 2003-10-28 2005-05-26 Nissan Motor Co Ltd 音声認識装置
JP2006189862A (ja) * 2004-12-29 2006-07-20 Samsung Electronics Co Ltd 時系列信号のパターン認識可能性の判断方法及びその装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006189862A (ja) * 2004-12-29 2006-07-20 Samsung Electronics Co Ltd 時系列信号のパターン認識可能性の判断方法及びその装置
JP2009294704A (ja) * 2008-06-02 2009-12-17 Mitsubishi Heavy Ind Ltd ナンバー認識装置およびナンバー認識方法
JP2021024415A (ja) * 2019-08-05 2021-02-22 治幸 岩田 自動車の加速制御システム、方法、プログラム

Also Published As

Publication number Publication date
JP5037018B2 (ja) 2012-09-26

Similar Documents

Publication Publication Date Title
KR102643501B1 (ko) 대화 처리 장치, 이를 포함하는 차량 및 대화 처리 방법
JP3479691B2 (ja) 実時間作動での音声対話又は音声命令による1つ又は複数の機器の自動制御方法及びこの方法を実施する装置
JP4260788B2 (ja) 音声認識機器制御装置
US11211047B2 (en) Artificial intelligence device for learning deidentified speech signal and method therefor
JP5154363B2 (ja) 車室内音声対話装置
JPH11126090A (ja) 音声認識方法及び音声認識装置並びに音声認識装置を動作させるためのプログラムが記録された記録媒体
US20200051566A1 (en) Artificial intelligence device for providing notification to user using audio data and method for the same
US20200058290A1 (en) Artificial intelligence apparatus for correcting synthesized speech and method thereof
JP2007500367A (ja) 音声認識方法およびコミュニケーション機器
WO2002007146A1 (fr) Dispositif de reconnaissance vocale et procede de reconnaissance vocale
JPH07334184A (ja) 音響カテゴリ平均値計算装置及び適応化装置
JP2017090612A (ja) 音声認識制御システム
KR20200105589A (ko) 음성 감정 인식 방법 및 시스템
US20180358013A1 (en) Apparatus for selecting at least one task based on voice command, vehicle including the same, and method thereof
JP2004325936A (ja) 音声認識装置、音声認識方法、並びに、音声認識プログラムおよびそれを記録した記録媒体
WO2020044543A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP5037018B2 (ja) 音声認識装置および音声認識方法
Loh et al. Speech recognition interactive system for vehicle
JP4608670B2 (ja) 音声認識装置および音声認識方法
CN115113739A (zh) 用于生成表情符号的装置、车辆和用于生成表情符号的方法
JP7274901B2 (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
EP2107554A1 (en) Multilingual codebooks for speech recognition
US20230395078A1 (en) Emotion-aware voice assistant
CN112585674B (zh) 信息处理装置、信息处理方法和存储介质
JP7280074B2 (ja) エージェント装置、エージェント装置の制御方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120628

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120704

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150713

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5037018

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250