JPH08123472A - 音声認識装置及び該装置の構文制御グラフの生成方法 - Google Patents

音声認識装置及び該装置の構文制御グラフの生成方法

Info

Publication number
JPH08123472A
JPH08123472A JP6265278A JP26527894A JPH08123472A JP H08123472 A JPH08123472 A JP H08123472A JP 6265278 A JP6265278 A JP 6265278A JP 26527894 A JP26527894 A JP 26527894A JP H08123472 A JPH08123472 A JP H08123472A
Authority
JP
Japan
Prior art keywords
phoneme
syllable
graph
phonological
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6265278A
Other languages
English (en)
Other versions
JP3668992B2 (ja
Inventor
Yoshiharu Abe
芳春 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP26527894A priority Critical patent/JP3668992B2/ja
Publication of JPH08123472A publication Critical patent/JPH08123472A/ja
Application granted granted Critical
Publication of JP3668992B2 publication Critical patent/JP3668992B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】 音声データとしてあり得ない3以上の長さの
音韻列が認識されることを防止し、スペクトルの変動と
音節内の音韻構造の変動をモデル化可能で、音韻境界の
推定精度を改善した音声認識装置を提供することを目的
とする。 【構成】 テキストデータベースから音節構文グラフを
抽出する過程と、音声データベースから音節内音韻グラ
フを抽出する過程と、音節構文グラフ中の枝に音節内音
韻グラフを代入する過程によって、構文制御グラフとし
ての音韻構文グラフを生成する。この音韻構文グラフ
と、入力音声中の音韻境界の尤度情報に基づいて、音韻
モデル間の遷移を制限して、入力音声を最適な音韻系列
に変換する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は連続音声を認識し、音韻
系列に変換する音声認識装置に関する。
【0002】
【従来の技術】連続音声を音韻の連結したものとみな
し、音韻モデルの連結である音韻モデル系列に従って入
力音声を分析し、入力音声に当てはまる最適な音韻モデ
ル系列をモデル演算手段によって求め、入力音声を、こ
うして得られる最適な音韻モデル系列の音韻の系列に変
換する音声認識装置において、音韻モデル系列の当ては
めの演算とは別に、音韻の境界を直接入力音声中より検
出し、音韻モデル系列の当てはめ時に、音韻モデル間の
遷移を検出された音韻境界付近に限定することで、認識
精度を改善する音声認識装置が平成5年10月発行の日
本音響学会講演論文集1−8−5「状態間遷移束縛型H
MMによる音韻記述」に述べられている。さらに、平成
6年3月発行の日本音響学会講演論文集2−P−11
「境界尤度の信頼度を考慮した状態間遷移束縛型HMM
による音韻記述」には、音韻境界の検出法として共通コ
ードブックを用いる方法が述べられている。
【0003】図10は、この種の状態間遷移束縛型HM
M(HMM/BT)による音声認識装置の構成図であ
る。以下図10の各部を説明する。音声区間検出手段1
は、入力音声の短区間パワーの変化形状により音声区間
を検出し、この音声区間内の音声信号R1を切り出して
特徴抽出手段2に送る。特徴抽出手段2は、音声区間内
の音声信号R1中から長さ25.6msの時間窓を用い
た15次線形予測メルケプストラム分析によって10m
s毎に0〜10次のメルケプストラム係数からなる特徴
パラメータ時系列R2を抽出し、境界尤度計算手段3、
及び、モデル演算手段としてのHMM演算手段5aに送
る。
【0004】境界尤度計算手段3は、音韻境界パラメー
タ記憶手段4に記憶されている音韻境界パラメータR4
を参照して、特徴パラメータ時系列R2より時刻t=
1,2,…,Tについて、時刻tを中心に時間幅10フ
レームの範囲の0〜7次のメルケプストラム係数合計8
0(=10フレーム×8次元)個を1つの80次元ベク
トル(以後、固定長セグメントと呼ぶ)として抽出し、
これら固定長セグメントの中心に入力音声中の音韻境界
が存在する尤度(境界尤度)を計算する。中心時刻tの
固定長セグメント(以後、Btと記す)の中央に音韻i
とjの間の音韻境界ijが存在する境界尤度(以後、Cij
(Bt)と記す)は式(1)に従って計算される。ここ
で、式(1)の分母は固定長セグメントBtの中央に音
韻ijの境界が存在しないとする時の尤度で、分子は固定
長セグメントBtの中央に音韻ijの境界が存在するとす
る時の尤度に対応し、式(1)は全体として、音韻ijの
時刻tにおける境界尤度を表す。但し式中、Mbは共通要
素分布の数(共通コードブックのサイズ)、N(Bt|μ
m,Σm)は第m番目の要素分布の平均μm及び分散Σmの
多次元正規確率密度関数、Pmij及びQmijは音韻境界ij
について予め学習によって求められた多項式係数であ
る。
【0005】
【数1】
【0006】つぎに、HMM演算手段5aについて説明
する。図11はHMM演算手段5aの演算対象とする音
韻系列HMMの構造を摸式的に示したものである。本H
MMは状態数が丁度音韻数(nとする)と同じで、n状
態(n=音韻数)からなり、各状態は、1つの音韻に対
応づけられている。状態iから状態jへの遷移確率は、
aijで、また、時刻tの特徴パラメータxtの状態jに
おける出力確率は、bj(xt)で示されている。出力確率
bj(xt)は、全音韻共通のM個の共通要素分布の混合ガ
ウス分布で表されており、第m番目の平均ベクトルμm
及び共分散行列Σmの要素ガウス分布の確率密度関数N
(xt|μm,Σm)、及び、音韻jの分岐確率λmjとから式
(2)で計算される。
【0007】
【数2】
【0008】HMM演算手段5aは境界尤度計算手段3
出力の境界尤度R3及びHMMパラメータ記憶手段6に
記憶されているHMMパラメータR6を参照しビタビア
ルゴリズムに基づく漸化式である式(3)と式(4)を
初期条件を与える式(5)の下で計算する。ここで、α
(j,t)は、時刻tにおいて、状態jに留まる確率(前向き
確率)を表し、β(j,t)は時刻tに状態jに至る一つ前の
最適な状態番号を表すバックポインタである。
【0009】
【数3】
【0010】上記漸化式で示されたように、HMM演算
手段5aは、時刻tで音韻モデル間の遷移に対応する状
態iから状態jへの状態間遷移に際して、音韻の境界尤
度Cij(Bt)を参照して、音韻境界ijに依存した閾値
θijと比較し、音韻の境界尤度が本閾値θijより大きい
(Cij(Bt)>θijである)時だけ、状態間の遷移を
許すようにしたため、状態間の遷移が入力音声中に推定
される音韻境界でだけ状態遷移が起こるようになり、挿
入誤りを減少することができる。なお、同一音韻内の状
態の遷移(i=jのとき)については、境界尤度Cij
(Bt)による制限は設けていない。
【0011】音韻系列変換手段としての最適状態系列検
出手段7aは、HMM演算結果R5として得られる前向
確率α(j,t)及びバックポインタβ(j,t)の値から、最適
状態系列R7(以後、β^(1),β^(2),…,β^(T)と記
す)を出力する。最適状態系列R7は漸化式(式
(6))を初期条件(式(7))の下で計算することで
得る。なお、最適状態系列R7は認識結果の音韻系列を
状態の番号の系列で表したものである。
【0012】
【数4】
【0013】以上述べた構成の従来の状態間遷移束縛型
HMM(HMM/BT)による音声認識装置は、音韻間
の遷移に対応する状態間の遷移を入力音声より統計的に
推定される音韻境界付近に制限するものであり、入力音
声より直接得られる音韻境界情報により音韻境界以外で
の状態遷移が押さえられ、結果として挿入誤りが抑制さ
れる。このため、比較的高い認識精度が得られるが、多
少の認識誤りがまだ生じる。これらの、認識誤りを解析
すると、認識結果に、言語的には、音声データとしてあ
りえない音韻の列、例えば、[k,ts,sh,ts,sh]
(以後、音韻の列をこのように音韻を[]で挾んで表す)
が含まれていることが分かる。従って、言語的な知識に
よって、このような音韻の列を抑制できれば、認識性能
をさらに改善することが可能である。
【0014】
【発明が解決しようとする課題】従来のHMM/BTに
よる音声認識装置では、2音韻の列について、このよう
な制限をすることは容易である。すなわち、例えばある
音韻pのモデルの状態iから別の音韻qのモデルの状態
jへの遷移の結果である音韻の列[p,q]が言語的に音
声データとしてあり得ないとすれば、境界尤度Cij(B
t)に対する閾値θijを∞に設定することで、このような
遷移を禁止することが簡単にできる。しかし、この方法
では、「クツ」、「クシ」、「シツ」などの発声で第1
母音が無声化したデータ[k,ts]、[k,sh]、[sh,
ts]等の音韻列を認識する必要から、[k,ts]、[t
s,sh]、[sh,ts]等の音韻の列に対応する状態間
遷移を禁止することはできないので、上記の音韻列、例
えば、[k,ts,sh,ts,sh]が認識結果として生じ
得る。この様に上記従来のHMM/BTによる音声認識
装置では、長さ3以上の音韻列について、言語的に音声
データとしてあり得ない音韻の列が認識されることを禁
止することができないという問題があった。
【0015】従来より、言語モデルとして、音素や音節
等の言語記号の列についての統計的言語モデルやオート
マトン制御を用いると共に、音響モデルとして、音素や
音節など認識単位の音響モデルを用いる音声認識方法が
ある。この種の音声認識方法として、言語記号としての
音素の生起順序に関する統計的言語モデルを用い、か
つ、音響モデルとして音素のHMMを用いる方法、ま
た、言語記号として仮名、及び漢字の生起順序に関する
統計的言語モデルを用い、音響モデルとして仮名に対応
する音節のHMM、及び漢字の読みに対応するHMMを
用いる方法(例えば、特開平4−73694)、さら
に、言語モデルとして、日本語に対応する音節の列を許
すように予め設計された音節のオートマトンで言語記号
としての音素の生起順序を規定する有向グラフを、音響
モデルとして音素HMMを用いる方法(例えば、平成2
年3月発行の音響学会講演論文集2−P−26「音節オ
ートマトンと話者適応を用いたHMMによる音素認
識」)が提案されている。また、言語記号としての音節
連鎖の統計的言語モデルと、音響モデルとして音素HM
Mを用いる方法(例えば、平成2年3月発行の日本音響
学会講演論文集3−3−9「HMM音韻認識における音
節連鎖統計情報の利用」)が提案されている。特にこの
音節連鎖の言語モデルを用いる方法は、タスク依存性が
少なく強い制限が期待できる。
【0016】ところで、以上の技術では、音素のHM
M、音節のHMM、あるいは、漢字の読みに対するHM
Mが音響モデルとして用いられ、かつ、これらのHMM
に対応した言語記号の列の言語モデルが用いられてい
る。また、音響モデルとしてのHMMは予め状態数や状
態間の遷移の構造が決められたものが用いられている。
一方、連続音声中では、言語記号としての音節が音響音
声学的な音韻特徴の時系列構造として実現されるとき、
音声環境や個人差によって、各音韻特徴区間のスペクト
ルが変動すると共に、母音の無声化やバズバーの脱落な
どの音韻特徴区間の欠落により、音節内の音韻特徴系列
が構成する音節の音韻構造自体が変動することが知られ
ている(例えば、昭和59年発行の音声研究会資料S8
4−69「連続音節認識のための音節の変動の検
討」)。従って、以後、上記の音韻特徴区間を音韻区
間、またそのラベルを音韻記号と呼ぶことにすれば、音
節や音素の音響モデルを、従来例のように予め決められ
た状態遷移の構造で表すよりも、音声環境や個人差に対
応した、音韻のネットワーク構造で表すことが妥当であ
ると考えられる。
【0017】例えば、連続音声中の音節「つ」(音素表
記では/cu/)が、どのような音韻列として実現され
るかを音声データベース中に観察すると、母音の脱落や
子音閉鎖区間の脱落(あるいは先行音韻との融合)など
によって、音韻の列として、[ts],[ts, u] ,[c
l,ts],[cl,ts,u]などとして実現されることが
分かる。しかし、上記の音節のHMMを用いる方法で
は、このような構造変動を有するデータに対しても所定
の状態数のグラフ構造を持ったHMMを学習する。この
ため、例えば、音節「つ」(音素列としては/cu/)
が音声データベース中の音韻列として、[ts],[ts,
u],[cl,ts],[cl,ts,u]と実現されていて
も、これに対して、所定の状態数のグラフ構造を持った
音節HMMを学習する。この結果、スペクトルの変動だ
けではなく音韻の脱落などによる音節内の音韻構造が変
化した未知音声に対しては音響モデル(音節HMM)の
精度が低下するという問題があった。これは、音素のH
MMを用いても同様である。例えば、「つ」の子音部を
表す音素/c/は、音声データベース中の音韻列とし
て、[ts],[cl,ts]などと実現されていても、こ
れに対して、所定の状態数のグラフ構造を持った音素H
MMを学習するため、スペクトルの変動だけではなく、
音韻の脱落などによる音素内の音韻構造の変形を受けた
未知音声に対しては音響モデル(音素HMM)の精度が
低下する。即ち従来の音素あるいは音節のHMMとその
言語モデルを用いる音声認識方法では、音響モデルとし
て予め所定の状態遷移構造の音素や音節のHMMを用い
ているため、音素や音節の内部の音韻のスペクトルの変
動と共に音韻の脱落などによる音節や音素の内部の音韻
構造が変動した未知音声に対して、モデルの精度が低下
するという問題があった。
【0018】本発明は、上記のような問題点を解消する
ためになされたもので、第1の目的は、入力音声に音韻
モデル系列を当てはめ入力音声を最適な音韻系列に変換
する際、音韻モデル間の遷移時刻を入力音声中より推定
された音韻境界付近に束縛する音声認識装置において、
長さ3以上の音韻列に対して音韻の生起順序についての
制限を導入し、音声データとしてあり得ない音韻の列が
認識されることを防止すると共に、入力音声に対して仮
定する音韻境界の種類を限定し音韻境界の推定精度を向
上し、認識精度の改善された音声認識装置を提供するす
ることである。また、本発明の第2の目的は、入力音声
に構文制御グラフに従って音韻モデル系列を当てはめ入
力音声を最適な音韻系列に変換する音声認識装置の構文
制御グラフの生成方法として、音素や音節内の音韻区間
のスペクトルの変動と音韻の脱落などによる音節や音素
内の音韻構造の変動の両者をモデル化した構文制御グラ
フの生成方法を提供することである。
【0019】
【課題を解決するための手段】本発明の請求項1の音声
認識装置は、入力音声から音韻の境界尤度を算出する境
界尤度算出手段と、前記音韻の境界尤度が所定の値より
大きく、かつ、長さ3以上の音韻列についての制約を満
たす時だけ、最適な音韻モデルを選択するモデル演算手
段とを備えた。
【0020】本発明の請求項2の音声認識装置は、入力
音声から音韻境界の種類に応じて、音韻の境界尤度を算
出する境界尤度計算手段と、前記音韻の境界尤度がその
音韻境界の種類に応じて設定された値より大きく、か
つ、音韻列中の長さ3以上の音韻の生起順序を規定する
構文制御グラフに規定される音韻の生起順序に従う時に
限り、最適な音韻モデルを選択するモデル演算手段とを
備えた。
【0021】本発明の請求項3の音声認識装置の構文制
御グラフの生成方法は、テキストデータベースから音節
の生起順序を規定する音節構文グラフを求める過程と、
音声データベースから音節内の音韻の生起順序を規定す
る音節内音韻グラフを求める過程と、前記音節構文グラ
フの音節相当部分に前記音節内音韻グラフを代入する過
程を有する。
【0022】本発明の請求項4の音声認識装置の構文制
御グラフの生成方法は、入力音声を分析し、前記入力音
声を音韻モデルの連結と見なして、前記入力音声に構文
制御グラフの規定に従って音韻モデルの系列を当ては
め、前記入力音声を最適な音韻列に変換する音声認識装
置の前記構文制御グラフの生成方法として、テキストデ
ータベースから音節とその音節を囲む音節文脈とを音節
データとして抽出しこれら音節データの生起順序を規定
する音節構文グラフを求める過程と、音声データベース
から前記音節データの音節文脈毎に音節内の音韻の生起
順序を規定する音節内音韻グラフを求める過程と、前記
音節構文グラフの前記音節データ相当部分には前記該音
節データの音節文脈と一致する音節文脈から求められた
前記音節内音韻グラフを代入する過程を有する。
【0023】本発明の請求項5の音声認識装置における
モデル演算手段は、請求項3又は4に記載の構文制御グ
ラフの生成方法に基づいて生成された構文制御グラフを
用いるものである。
【0024】
【作用】本発明の請求項1の音声認識装置において、境
界尤度算出手段は入力音声から音韻の境界尤度を算出す
る。また、モデル演算手段は前記境界尤度算出手段の算
出した音韻の境界尤度が所定の値より大きく、かつ、選
択する音韻モデルが長さ3以上の音韻列についての制約
を満たす時だけ、最適な音韻モデルを選択する。
【0025】本発明の請求項2の音声認識装置におい
て、境界尤度計算手段は入力音声から音韻境界の種類に
応じた音韻の境界尤度を算出する。また、モデル演算手
段は前記境界尤度計算手段が算出した音韻境界の種類に
応じた音韻の境界尤度と音韻境界の種類に応じて設定さ
れた値より大きく、かつ、選択する音韻モデルが長さ3
以上の音韻列についての制約を満たす時に限り、最適な
音韻モデルを選択する。
【0026】本発明の請求項3の音声認識装置の構文制
御グラフの生成方法において、音節構文グラフを求める
過程はテキストデータベースから音節の生起順序を規定
する音節のオートマトンに相当する音節構文グラフを求
める。また、音節内音韻グラフを求める過程は、音声デ
ータベース中の音節区間の音韻列を抽出し音節内の音韻
の生起順序を規定する音韻のオートマトンに相当する音
節内音韻グラフを求める。さらに、最後の過程は前記音
節構文グラフの音節相当部分に前記音節内音韻グラフを
代入する。
【0027】本発明の請求項4の音声認識装置の構文制
御グラフの生成方法において、音節構文グラフを求める
過程はテキストデータベースから音節とその音節を囲む
音節文脈とを音節データとして抽出しこれら音節データ
のオートマトンに相当する音節構文グラフを求める。ま
た、音節内音韻グラフを求める過程は音声データベース
から前記音節データの音節文脈毎に音節区間の音韻列を
抽出し音節文脈毎の音節内の音韻グラフを求める。さら
に、最後の過程は前記音節構文グラフの前記音節データ
相当部分に前記該音節データの音節文脈と一致する音節
文脈から求められた前記音節内音韻グラフを代入する。
【0028】本発明の請求項5の音声認識装置におい
て、前記モデル演算手段は、請求項3又は4に記載の構
文制御グラフの生成方法に基づいて生成された構文制御
グラフを用いる。
【0029】
【実施例】以下この発明の一実施例を説明する。この実
施例においては、音響モデルとして、1音韻を1状態で
表す音韻のHMM(音韻HMM)を用い、ある入力音声
はこれらの音韻HMMの列で表される。また、音韻は、
子音閉鎖区間を子音破裂部とは別音韻と見なした、図2
に示す29種類の音韻からなる体系を用いており、各音
韻はこの図のように番号付けされている。以後、音韻は
この番号で参照される。また、本実施例では、音響モデ
ルとして、1音韻を1状態で表す音韻HMMを用いてい
るため、音韻境界の生成は、音韻HMMの状態間の遷移
として現れる。なお、1音韻に複数状態を有する音韻H
MMを用いるときでも本発明は適用可能であることは言
うまでもなく、この場合、音韻境界の生成は、音韻HM
M間の遷移に対応する状態間の遷移として現れる。ま
た、本実施例では、モデル演算手段として、通常のトレ
リスアルゴリズムに基づくHMM演算における和の演算
を最大化の演算に置き換えたビタビのアルゴリズムに基
づくHMM演算手段を用いている。なお、通常のトレリ
スアルゴリズムに基づくHMM演算においても本発明が
適用できることは言うまでもない。
【0030】図1は、この発明の一実施例の音声認識装
置の構成図である。以下図1の各部を説明する。音声区
間検出手段1は、入力音声の短区間パワーの変化形状に
より音声区間を検出し、この音声区間内の音声信号R1
を切り出して特徴抽出手段2に送る。特徴抽出手段2
は、音声区間内の音声信号R1中から長さ25.6ms
の時間窓を用いた15次線形予測メルケプストラム分析
によって10ms毎に0〜10次のメルケプストラム係
数からなる特徴パラメータ時系列R2を抽出し境界尤度
計算手段3、及び、モデル演算手段としてのHMM演算
手段5に送る。
【0031】境界尤度計算手段3は、音韻境界パラメー
タ記憶手段4に記憶されている音韻境界パラメータR4
を参照して、特徴パラメータ時系列R2より時刻t=
1,2,…,Tについて、時刻tを中心に時間幅10フ
レームの範囲の0〜7次のメルケプストラム係数合計8
0(=10フレーム×8次元)個を1つの80次元ベク
トル(以後、固定長セグメントと呼ぶ)として抽出し、
これら固定長セグメントの中心に入力音声中の音韻境界
が存在する尤度(境界尤度)を計算する。中心時刻tの
固定長セグメント(以後、Btと記す)の中央に音韻i
とjの間の音韻境界ijが存在する境界尤度(以後、Cij
(Bt)と記す)は式(1)に従って計算される。ここ
で、式(1)の分母は固定長セグメントBtの中央に音
韻ijの境界が存在しないとする時の尤度で、分子は固定
長セグメントBtの中央に音韻ijの境界が存在するとす
る時の尤度に対応し、式(1)は全体として、音韻ijの
時刻tにおける境界尤度を表す。但し式中、Mbは共通要
素分布の数(共通コードブックのサイズ)、N(Bt|μ
m,Σm)は第m番目の要素分布の平均μm及び分散Σmの
多次元正規確率密度関数、Pmij及びQmijは音韻境界ij
について予め学習によって求められた多項式係数であ
る。
【0032】次に、HMM演算手段5について説明す
る。図3はHMM演算手段5が演算対象とするHMMの
構造を模式的に示したものである。本HMM全体は、1
音韻当たり1状態で表された音響モデルとしての音韻H
MM(本例では全部で29種類ある)を構文制御グラフ
としての音韻構文グラフに従って状態間遷移で連結した
ものである。即ち、本HMM中の状態を遷移して得られ
る状態の系列は音韻構文グラフに従って生成され得るあ
る音韻の列に対応している。(音韻構文グラフの生成方
法は後で説明する。) 特に、本図は、HMM演算手段5の漸化式計算を説明す
るため、状態pから状態qへの状態遷移の様子を示す。
音韻構文グラフの各状態は、ある1つの音韻に対応づけ
られていて、例えば図3では状態qは音韻jに対応付け
られていて、状態qにおける時刻tの特徴パラメータx
tの出力確率は音韻jのパラメータを用いてbj(xt)と
して計算される。状態pから状態qへの遷移は、音韻i
から音韻jの音韻境界パラメータに基づく境界尤度Cij
(Bt)が閾値θijより大きく、かつ、構文制御グラフで
状態pから状態qへの状態間の遷移が許される(これ
は、漸化式中δpq=1で示される)時、可能である。ま
た、状態pから状態qへの遷移確率は、apqで示されて
いる。出力確率bj(xt)は、全部でM個の共通ガウス分
布の混合分布で表されており、第m番目の共通ガウス分
布の平均ベクトルμm及び共分散行列Σm、及び、音韻j
の分岐確率λmjをパラメータとして、式(8)で計算さ
れる。式中、N(xt|μm,Σm)は平均μm、分散Σmの正
規確率密度関数を表す。上記出力確率計算用のパラメー
タはHMMパラメータ記憶手段6に記憶されている。
【0033】
【数5】
【0034】HMM演算手段5は境界尤度計算手段3出
力の境界尤度R3及びHMMパラメータR6及び構文制
御手段8に記憶された構文制御情報R8を参照しビタビ
アルゴリズムに基づくHMM演算を行う。構文制御情報
R8は構文制御グラフとしての音韻構文グラフを変換し
た結果として、各状態に対応する音韻番号の情報と、状
態間の接続を表す情報からなる。状態は全部で、n状態
あり、状態qに対応する音韻番号jはqの関数としてj
=f(q)のごとく与えられる。また、状態pから状態q
への遷移の可能性はδpq=1で示される。HMM演算手
段5におけるHMM演算は、式(9)および式(10)
の漸化式を式(11)の初期条件の下で計算する。ここ
で、nは音韻構文グラフの状態数、α(q,t)は、時刻t
において、状態qに留まる確率(前向き確率)を表し、β
(q,t)は時刻tに状態qに至る一つ前の最適な状態番号
を表すバックポインタである。
【0035】
【数6】
【0036】上記漸化式で示されたように、HMM演算
手段5は、時刻tで音韻モデル間の遷移に対応する状態
iから状態jへの状態間遷移に際して、音韻の境界尤度
Cij(Bt)を参照して、音韻境界ijに依存した閾値θi
jと比較し、音韻の境界尤度が本閾値θijより大きく
(Cij(Bt)>θijであり)、かつ、音韻構文グラフ
中の遷移として許される(δpq=1である)時だけ、状
態間の遷移を許すようにしたため、状態間の遷移が入力
音声中に推定される音韻境界でだけ状態遷移が起こるよ
うになり、非音韻境界での状態遷移が減少するため認識
結果中の音韻の挿入誤りを減少すると共に、音韻構文グ
ラフ中の遷移として許されない音韻の列が状態系列とし
て選択されることが防止され、言語的に音声データとし
てあり得ない音韻列が認識されることが防止される。な
お、同一音韻内の状態の遷移(i=jのとき)について
は、境界尤度Cij(Bt)および音韻構文グラフによる
選択の制限は設けていない。
【0037】音韻系列変換手段としての最適状態系列検
出手段7は、HMM演算結果R5として得られる前向確
率α(q,t)及びバックポインタβ(q,t)の値から、最適状
態系列R7(以後、β^(1),β^(2),…,β^(T)と記す)
を出力する。最適状態系列R7は漸化式である式(1
2)を初期条件を示す式(13)の設定の下で計算する
ことで得る。なお、最適状態系列R7は認識結果の音韻
列を音韻構文グラフ中の音韻の状態の番号の系列で表し
たものであり、最適状態系列R7から音韻列への変換は
簡単な1対1の関数関係により実現される。
【0038】
【数7】
【0039】以上で、音声認識装置の構成の説明を終わ
り、以下、本実施例の音声認識装置で用いれれている音
韻構文グラフの作成方法について説明する。図4は、本
実施例における音韻構文グラフの生成過程の説明図であ
る。音韻構文グラフの生成過程は、全体として図のよう
に過程I〜IIIからなる。
【0040】過程Iでは、図中音節連鎖抽出において、
大量のテキストデータベースから音節の列を抽出し、抽
出されたすべての音節の列を受け入れるような音節を枝
とする有向グラフ(音節構文グラフ)を作成する。この音
節構文グラフは、言語制約を強く表現し、しかも、でき
るだけタスクに依存せず任意の文を受理するようにする
ため、例えば音節のトライグラム(三つ組)の列を受理
するように構成する。図5は音節のテキストデータか
ら、3音節連鎖を受理するような音節構文グラフを生成
する過程を例示したものである。テキストデータが「ε
#サイタサイタ#サクラガサイタ#ε」とあるとき、こ
のテキストデータから、前後1つの音節環境に依存する
三つ組として、(ε)#(サ),(#)サ(イ),(サ)イ(タ),
(イ)タ(サ),(タ)サ(イ),(サ)イ(タ),(イ)タ(#),(タ)#
(サ),(#)サ(ク),(サ)ク(ラ),(ク)ラ(ガ),(ラ)ガ(サ),
(ガ)サ(イ),(サ)イ(タ),(イ)タ(#),(タ)#(ε)が抽出
でき、これらの中で共通な三つ組を除くことで、図の中
央に示すような音節の三つ組の集合が得られる。これら
の三つ組の集合を、音声環境(音節の前後の文脈)の一
致を条件として、接続することにより、音節の有向グラ
フ(音節構文グラフ)として、図の下のようなグラフが
生成される。ここで、「ε」及び「#」はそれぞれ空白
文字、及び、文または単語の境界を示す。また、音節の
三つ組の表記で左右の()内の音節は中央の音節の環境
(音節の文脈)を示す。
【0041】過程IIでは、まず、音韻単位にラベル付け
された既知の大量の音声データから、音節に対応する区
間の音韻ラベルの列(音韻列)を抽出し、音節と音韻列
の対応関係を求める。次に、この対応関係から音節毎に
音節の内部がどのような音韻列で実現されるかを網羅し
た表現として音韻を枝とする有向グラフ(音節内音韻グ
ラフ)を作成する。ここで、音節の文脈毎に音節と音韻
系列の対応関係を求めることで、音節の環境(音節文
脈)に依存した音節内音韻グラフが得られる。図6は例
えば「#ウツクシク#ツツム#」という文章発声に対す
る音声データベース中の記述から音節内音韻グラフを抽
出する様子を示したものである。まず、図上段の「音声
データベース」の枠内の「音節列」で示される各音節の
区間と、その下の「音韻列」の部分音韻列との対応を求
め、音節毎に対応する部分音韻列の集合を求める(図中
段)。つぎに、これら音節内音韻列集合中の共通部分を
共通の枝とするなどして、各音節を音韻を枝とする有向
グラフ(音節内音韻グラフ)に変換する(図下段)。音
節文脈を考慮しない場合、音節「ツ」の音節内音韻グラ
フは、図下段中央に示すような4状態5枝の有向グラフ
として抽出される。また、前後1音節の音節文脈を考慮
した場合、例えば、音節「(ウ)ツ(ク)」は図最下段左に
示すような3状態2枝の音節内音韻グラフとして抽出さ
れる。
【0042】過程IIIでは、過程Iで得られた音節構文グ
ラフ中のすべての音節の枝に対して、過程IIで得られた
音節内音韻グラフを代入することで、音韻構文グラフを
得る。図7は前後1音節の音節文脈を考慮した音節構文
グラフの一部分の枝について、音節内音韻グラフを代入
する様子を示したものである。この例では、状態s1と
s2を結ぶ枝に新たに状態s12が挿入された音韻構文グ
ラフが生成される。この音韻構文グラフは音韻列とし
て、(ウ)ツ(ク)という音節文脈中の音節「ツ」に対
応して音韻列として、[cl,ts]だけが許される。一
方、前後の音節文脈を考慮しない場合、音節構文グラフ
中の音節「ツ」に対応する枝に、図6の下段中央に示し
た音節「ツ」の音節内音韻グラフが代入され、生成され
る音韻構文グラフは、音節「ツ」に対して、[ts]、
[cl,ts]、[cl,ts,u]、等の音韻列が許される
ことになる。このように、音韻構文グラフの生成に当た
り、音節文脈を考慮する方が、同じ音節に対して、認識
すべき音韻列の種類が少なくなるため、より認識性能を
向上するという効果が期待できる。(この効果は後で述
べる実験で示される。)
【0043】以上の過程I〜IIIで得られた音韻構文グラ
フを、前記構成の音声認識装置に基づく連続音声認識シ
ステムに適用することで、この装置に未知音声を入力し
た場合認識結果の音韻系列としての音韻記述中に現れる
音韻列は、テキストデータベース中の音節の生起順序に
従い、かつ、音声データベース中の音節内部の音韻列と
して観測されたものだけに限定される。この結果、言語
的に音節列としてあり得ず、かつその音声データとして
あり得ない音韻列、例えば、[k,ts,sh,ts,sh]
が認識されることを防止できる。なお、本実施例の音声
認識装置は、音韻HMMを音響モデルとした、One Pass
DP法(例えば、中川聖一著「確率モデルによる音声認
識」)を構文制御に用いた音声認識装置と構成上類似し
ている。しかし、本実施例の音声認識装置では、構文制
御のために、テキストデータベース中の音節の生起順序
に従って生成された音節構文グラフにつき、この音節構
文グラフ中の音節相当部分に、音声データベース中で観
測された音節内部の音韻列の変動を表現する音節内音韻
グラフを代入して生成された音韻構文グラフが用いられ
ている。また、音響モデルとしての音韻モデル間の状態
遷移において、その遷移時刻が入力音声から直接得られ
る音韻境界の推定値情報(境界尤度)に基づいて束縛さ
れている。従って、本実施例の音声認識装置は、音節列
の言語知識と音節内の音韻構造の変動の知識の作用で、
入力音声に対して仮定する音韻境界の種類が削減し、そ
の結果の音韻境界の推定精度が向上する。また、逆に、
入力音声の音韻境界は前後の音韻の種類に依存している
ため、音韻列の生成において音韻境界の前後の音韻の種
類が考慮された音韻列が認識されるという特長があり、
認識精度が向上するという効果を有する。
【0044】次に本実施例の音声認識装置について行っ
た評価実験について述べる。ここでは、音韻および音韻
境界に対してセミ連続分布モデルを用いたHMM/BT
を用いて不特定話者の音韻記述実験を行った。共通の実
験条件を図8に示す。言語データは、一般のテキストデ
ータを用いることもできるが、ここでは、学習用音声デ
ータである音韻バランス文からなる4024文の発声テ
キスト(音声記述)を用いた。音節構文グラフの生成に
おける音節文脈としては文脈を考慮しない場合、音節の
バイグラム(2つ組)を用いる場合、および、音節のト
ライグラム(三つ組)を用いる場合について実験を行っ
た。音節内音韻グラフの抽出およびそれの音節構文グラ
フへの代入時の音節文脈に対する依存性を変えた複数の
言語制約付き音韻グラフを作成し、それぞれについて音
韻ベースの構文制御付きHMM/BT連続音声認識シス
テムにより音韻認識性能を求めた。また、HMM/BT
の音韻境界束縛をしない従来のHMM(1音韻1状態)
を用いる場合についても実験を行った。
【0045】図9は実験結果を示す。図では音韻境界の
束縛を行うHMM(HMM/BT)と、音韻境界の束縛
を行わないHMM(HMM without BT)につい
て、各種の実験条件における音韻誤り率が示されてい
る。(HMM/BTにおいて、境界尤度の閾値(θij)
を音韻境界の種類に無関係に一定値(θ)にした場合に
ついて示す)。音韻誤り率は合計の誤り率と共に、内訳
として置換、脱落、挿入の各誤り率が示されている。音
韻誤り率は入力の音韻数に対して、それぞれの誤り形態
の音韻認識の誤りが発生した割合として算出されてい
る。また、音節内音韻グラフの抽出の際考慮した音節文
脈依存性は先行音節数及び後続音節数の欄に示されてい
る。さらに、音節構文グラフをテキストデータから抽出
する際の音節構文グラフの音節を囲む音節文脈として
は、図の左の第1欄に示されるように音節のバイグラム
(bigram)および音節のトライグラム(trigram)の場
合について実験結果が示されている。またさらに、参考
のために、音節構文グラフ及び音韻構文グラフのテスト
セットパープレキシティが示されている。なお、一般
に、テストセットパープレキシティが大きいほど構文に
よる限定が小さい(構文の自由度が大きい)ことを意味
する。実験結果から、音節構文グラフの生成において、
音節構文グラフの音節を囲む音節文脈として音節バイグ
ラム及び音節トライグラムのいずれを用いても、音節文
脈に依存しない(即ち先行音節数及び後続音節数が共に
0の)文脈独立の音節内音韻グラフよりも、音節文脈に
依存したの音節内音韻グラフを用いた方が音韻認識の誤
りが少なくなっており、音節文脈に依存して音節内音韻
グラフを用いる方法の方が認識性能がよい。これは音節
内音韻グラフを音節文脈依存とすることで音節が音韻系
列として実現される変動の幅が狭まるため、認識対象と
して仮定される音韻列の数が実質的に削減され、認識性
能が向上したことによると考えられる。この考え方は、
実際、音節文脈依存の場合の音韻パープレキシティが音
節文脈に依存しない場合よりも小さく、従って構文自由
度が減少していることからも説明される。また、HMM
/BTとHMM(BTなし)との比較では、HMM/B
Tの方が圧倒的に認識誤りが少なく、音節構文グラフの
音節を囲む音節文脈として後続音節数を2とした音節ト
ライグラムを用いたとき、最小の音韻誤り率合計10.
0%(最下行)が得られている。これは、HMM/BT
に従来の音韻トライグラムによる構文グラフを用いる場
合の54.0%(上から2行目)に対して、大幅な認識
誤りの改善である。
【0046】
【発明の効果】以上のように請求項1の発明によれば、
入力音声を分析し、前記入力音声を音韻モデルの連結と
見なして、前記入力音声に音韻モデルの系列を当ては
め、前記入力音声を最適な音韻列に変換する音声認識装
置において、前記入力音声から音韻の境界尤度を算出す
る境界尤度計算手段と、前記音韻の境界尤度が所定の値
より大きく、かつ、音韻列中の長さ3以上の音韻の生起
順序を規定する構文制御グラフに規定される音韻の生起
順序に従う時に限り、最適な音韻モデルを選択するモデ
ル演算手段とを備えたので、構文制御グラフに規定され
ていない音韻列が認識されることを防止すると共に、入
力音声に対して仮定する音韻境界の種類が構文制御グラ
フに規定された音韻列中の音韻境界に限定される結果、
音韻境界の推定精度が向上し、認識精度が向上した音声
認識装置を提供するという効果がある。
【0047】請求項2の発明によれば、入力音声を分析
し、前記入力音声を音韻モデルの連結と見なして、前記
入力音声に音韻モデルの系列を当てはめ、前記入力音声
を最適な音韻列に変換する音声認識装置において、前記
入力音声から音韻境界の種類に応じて、音韻の境界尤度
を算出する境界尤度計算手段と、前記音韻の境界尤度が
その音韻境界の種類に応じて設定された値より大きく、
かつ、音韻列中の長さ3以上の音韻の生起順序を規定す
る構文制御グラフに規定される音韻の生起順序に従う時
に限り、最適な音韻モデルを選択するモデル演算手段と
を備えたので、構文制御グラフに規定されていない音韻
列が認識されることを防止すると共に、入力音声に対し
て仮定する音韻境界の種類が構文制御グラフに規定され
た音韻列中の音韻境界に限定され、さらに、音韻境界の
種類に応じて適切な音韻境界推定が行える結果、音韻境
界の推定精度が向上し、認識精度が向上した音声認識装
置を提供するという効果がある。
【0048】請求項3の発明によれば、前記構文制御グ
ラフの生成方法として、テキストデータベースより音節
の生起順序を規定する音節構文グラフを求める過程と、
音声データベースから音節内の音韻の生起順序を規定す
る音節内音韻グラフを求める過程と、前記音節構文グラ
フの各枝に前記音節内音韻グラフを代入する過程を有す
る構文制御グラフの生成方法を用いたので、音節の生起
順序と共に、音節内の音韻構造の変動が考慮された構文
制御グラフを提供し、音韻のスペクトルの変動と音節内
の音韻構造の変動の両者のモデル化が可能な音声認識装
置を提供するという効果がある。
【0049】請求項4の発明によれば、前記構文制御グ
ラフの生成方法として、テキストデータベースから音節
をその音節を囲む音節文脈と共に文脈付き音節として抽
出しこれら文脈付き音節の生起順序を規定する音節構文
グラフを求める過程と、音声データベースから前記文脈
付き音節の音節文脈毎に音節内の音韻の生起順序を規定
する音節内音韻グラフを求める過程と、前記音節構文グ
ラフの前記文脈付き音節相当部分に前記文脈付き音節の
音節文脈と一致する音節文脈から求められた前記音節内
音韻グラフを代入する過程を有する構文制御グラフの生
成方法を用いたので、音節の生起順序と共に、音節文脈
に依存した音節内の音韻構造の変動を考慮した構文制御
グラフを提供し、音韻のスペクトルの変動と音節文脈に
依存した音節内の音韻構造の変動の両者のモデル化が可
能な音声認識装置を提供するという効果がある。
【0050】請求項5の発明によれば、前記モデル演算
手段は、請求項3又は4に記載の構文制御グラフの生成
方法に基づいて生成された構文制御グラフを用いるの
で、音節の生起順序に従い、しかも、音節内の音韻の生
起順序に従った音韻モデル系列だけが認識の対象となる
ため、入力音声に対して仮定する音韻境界の種類が限定
される。この結果、音韻境界の推定精度が向上し、認識
精度が向上された音声認識装置を提供するという効果が
ある。
【図面の簡単な説明】
【図1】この発明の一実施例の音声認識装置の構成図で
ある。
【図2】この発明の一実施例の音韻体系の説明図であ
る。
【図3】この発明の一実施例のHMMの構造を示す図で
ある。
【図4】この発明の一実施例の音韻構文グラフの全体の
生成過程を示す図である。
【図5】この発明の一実施例の音韻構文グラフの生成過
程Iを例示する図である。
【図6】この発明の一実施例の音韻構文グラフの生成過
程IIを例示する図である。
【図7】この発明の一実施例の音韻構文グラフの生成過
程IIIを例示する図である。
【図8】この発明の一実施例を評価する際の条件を示す
図である。
【図9】この発明の一実施例の評価結果を示す図であ
る。
【図10】従来の音声認識装置の構成図である。
【図11】従来の音声認識装置におけるHMMの構造を
示す図である。
【符号の説明】
1 音声区間検出手段 2 特徴抽出手段 3 境界尤度計算手段 4 音韻境界パラメータ記憶手段 5 HMM演算手段 6 HMMパラメータ記憶手段 7 最適状態系列検出手段 8 構文制御情報記憶手段

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 入力音声を分析し、前記入力音声を音韻
    モデルの連結と見なして、前記入力音声に音韻モデルの
    系列を当てはめ、前記入力音声を最適な音韻列に変換す
    る音声認識装置において、前記入力音声から音韻の境界
    尤度を算出する境界尤度計算手段と、前記音韻の境界尤
    度が所定の値より大きく、かつ、音韻列中の長さ3以上
    の音韻の生起順序を規定する構文制御グラフに規定され
    る音韻の生起順序に従う時に限り、最適な音韻モデルを
    選択するモデル演算手段とを備えたことを特徴とする音
    声認識装置。
  2. 【請求項2】 入力音声を分析し、前記入力音声を音韻
    モデルの連結と見なして、前記入力音声に音韻モデルの
    系列を当てはめ、前記入力音声を最適な音韻列に変換す
    る音声認識装置において、前記入力音声から音韻境界の
    種類に応じて、音韻の境界尤度を算出する境界尤度計算
    手段と、前記音韻の境界尤度がその音韻境界の種類に応
    じて設定された値より大きく、かつ、音韻列中の長さ3
    以上の音韻の生起順序を規定する構文制御グラフに規定
    される音韻の生起順序に従う時に限り、最適な音韻モデ
    ルを選択するモデル演算手段とを備えたことを特徴とす
    る音声認識装置。
  3. 【請求項3】 入力音声を分析し、前記入力音声を音韻
    モデルの連結と見なして、前記入力音声に構文制御グラ
    フの規定に従って音韻モデルの系列を当てはめ、前記入
    力音声を最適な音韻列に変換する音声認識装置の前記構
    文制御グラフの生成方法として、テキストデータベース
    から音節の生起順序を規定する音節構文グラフを求める
    過程と、音声データベースから音節内の音韻の生起順序
    を規定する音節内音韻グラフを求める過程と、前記音節
    構文グラフの音節相当部分に前記音節内音韻グラフを代
    入する過程とを有することを特徴とする音声認識装置の
    構文制御グラフの生成方法。
  4. 【請求項4】 入力音声を分析し、前記入力音声を音韻
    モデルの連結と見なして、前記入力音声に構文制御グラ
    フの規定に従って音韻モデルの系列を当てはめ、前記入
    力音声を最適な音韻列に変換する音声認識装置の前記構
    文制御グラフの生成方法として、テキストデータベース
    から音節をその音節を囲む音節文脈と共に文脈付き音節
    として抽出しこれら文脈付き音節の生起順序を規定する
    音節構文グラフを求める過程と、音声データベースから
    前記文脈付き音節の音節文脈毎に音節内の音韻の生起順
    序を規定する音節内音韻グラフを求める過程と、前記音
    節構文グラフの前記文脈付き音節相当部分に前記文脈付
    き音節の音節文脈と一致する音節文脈から求められた前
    記音節内音韻グラフを代入する過程とを有することを特
    徴とする音声認識装置の構文制御グラフの生成方法。
  5. 【請求項5】 前記モデル演算手段は、請求項3又は4
    に記載の構文制御グラフの生成方法に基づいて生成され
    た構文制御グラフを用いることを特徴とする請求項1又
    は2に記載の音声認識装置。
JP26527894A 1994-10-28 1994-10-28 音声認識装置の構文制御グラフの生成方法 Expired - Lifetime JP3668992B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26527894A JP3668992B2 (ja) 1994-10-28 1994-10-28 音声認識装置の構文制御グラフの生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26527894A JP3668992B2 (ja) 1994-10-28 1994-10-28 音声認識装置の構文制御グラフの生成方法

Publications (2)

Publication Number Publication Date
JPH08123472A true JPH08123472A (ja) 1996-05-17
JP3668992B2 JP3668992B2 (ja) 2005-07-06

Family

ID=17415007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26527894A Expired - Lifetime JP3668992B2 (ja) 1994-10-28 1994-10-28 音声認識装置の構文制御グラフの生成方法

Country Status (1)

Country Link
JP (1) JP3668992B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039468A (ja) * 2009-08-14 2011-02-24 Korea Electronics Telecommun 電子辞書で音声認識を用いた単語探索装置及びその方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039468A (ja) * 2009-08-14 2011-02-24 Korea Electronics Telecommun 電子辞書で音声認識を用いた単語探索装置及びその方法

Also Published As

Publication number Publication date
JP3668992B2 (ja) 2005-07-06

Similar Documents

Publication Publication Date Title
US10360898B2 (en) Method and system for predicting speech recognition performance using accuracy scores
KR101056080B1 (ko) 음운 기반의 음성 인식 시스템 및 방법
US7657430B2 (en) Speech processing apparatus, speech processing method, program, and recording medium
US20180137109A1 (en) Methodology for automatic multilingual speech recognition
EP0689192A1 (en) A speech synthesis system
EP2888669B1 (en) Method and system for selectively biased linear discriminant analysis in automatic speech recognition systems
US7181391B1 (en) Method, apparatus, and system for bottom-up tone integration to Chinese continuous speech recognition system
KR20060050361A (ko) 음성 분류 및 음성 인식을 위한 은닉 조건부 랜덤 필드모델
EP1460615B1 (en) Voice processing device and method, recording medium, and program
JPH06167993A (ja) 音声認識の境界推定方法及び音声認識装置
EP2891147B1 (en) Method and system for predicting speech recognition performance using accuracy scores
KR101424193B1 (ko) 타 언어권 화자음성에 대한 음성인식 시스템의 성능 향상을위한 비직접적 데이터 기반 발음변이 모델링 시스템 및방법
Krishna et al. A new prosodic phrasing model for indian language telugu.
JP2004177551A (ja) 音声認識用未知発話検出装置及び音声認識装置
JP3668992B2 (ja) 音声認識装置の構文制御グラフの生成方法
JP3299170B2 (ja) 音声登録認識装置
JPH08314490A (ja) ワードスポッティング型音声認識方法と装置
JPH09114482A (ja) 音声認識のための話者適応化方法
WO2008038994A1 (en) Method for converting pronunciation using boundary pause intensity and text-to-speech synthesis system based on the same
WO2004114279A1 (en) Language modeling method of speech recognition system
Keri et al. Pause prediction from lexical and syntax information
JP2005534968A (ja) 漢字語の読みの決定
Razik et al. Local word confidence measure using word graph and n-best list.
JPH09160586A (ja) ヒドン・マルコフ・モデルの学習方法
JPS6180298A (ja) 音声認識装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040414

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20040721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050404

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080422

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090422

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100422

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100422

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110422

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120422

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120422

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130422

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130422

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140422

Year of fee payment: 9

EXPY Cancellation because of completion of term