JP4048473B2 - 音声処理装置および音声処理方法、並びにプログラムおよび記録媒体 - Google Patents
音声処理装置および音声処理方法、並びにプログラムおよび記録媒体 Download PDFInfo
- Publication number
- JP4048473B2 JP4048473B2 JP2002072718A JP2002072718A JP4048473B2 JP 4048473 B2 JP4048473 B2 JP 4048473B2 JP 2002072718 A JP2002072718 A JP 2002072718A JP 2002072718 A JP2002072718 A JP 2002072718A JP 4048473 B2 JP4048473 B2 JP 4048473B2
- Authority
- JP
- Japan
- Prior art keywords
- word
- unknown word
- unknown
- recognition result
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【発明の属する技術分野】
本発明は、音声処理装置および音声処理方法、並びにプログラムおよび記録媒体に関し、特に、連続して入力される音声信号を音声認識している最中に、その入力音声信号に含まれる未知語を抽出し、簡単に登録することができるようにした音声処理装置および音声処理方法、並びにプログラムおよび記録媒体に関する。
【0002】
【従来の技術】
対話システムにおいて、何かの名前を音声で登録するという場面は、多く発生する。例えば、ユーザが自分の名前を登録したり、対話システムに名前をつけたり、地名や店名を入力したりするという場面である。
【0003】
従来、このような音声登録を簡単に実現する方法としては、何かのコマンドによって登録モードに移行して、登録が終了したら通常の対話モードに戻るというものがある。この場合、例えば、「ユーザ名登録」という音声コマンドによって登録モードに移行して、その後でユーザが名前を発生したらそれが登録され、その後、通常モードに戻る処理が行われる。
【0004】
【発明が解決しようとする課題】
しかしながら、このような音声登録の方法では、コマンドによるモード切換えをしなければならず、対話としては不自然であり、ユーザにとっては煩わしいという課題がある。また、名付ける対象が複数存在する場合、コマンドの数が増えるため、いっそう煩わしくなる。
【0005】
さらに、登録モード中に、ユーザが名前以外の単語(例えば、「こんにちは」)を話してしまった場合、それも名前として登録されてしまう。また、例えば、「太郎」という名前だけではなく、「私の名前は太郎です。」といったように、ユーザが名前以外の言葉を付加して話した場合、全体(「私の名前は太郎です。」)が名前として登録されてしまう。
【0006】
本発明はこのような状況に鑑みてなされたものであり、通常の対話の中で、ユーザに登録モードを意識させることなく、単語を登録できるようにすることを目的とする。
【0007】
【課題を解決するための手段】
本発明の音声処理装置は、連続する入力音声を認識する認識手段と、認識手段により認識された認識結果に、未知語が含まれているか否かを判定する未知語判定手段と、未知語判定手段により、未知語が含まれていると判定された場合、その未知語を獲得する獲得手段と、未知語判定手段により認識結果に未知語が含まれていると判定された場合、その認識結果が、未知語を含む単語列であるパターンにマッチするか否かを判定するパターン判定手段と、パターン判定手段により、認識結果がパターンにマッチしていると判定された場合、そのパターンにおいて未知語に対応付けられているカテゴリを、獲得手段により獲得された未知語に関連付けて登録する登録手段とを備え、認識手段は、入力音声の所定の区間について、既知語でマッチングさせた場合と音韻タイプライタで認識させた場合の、認識結果の候補と入力音声の音の近さを表す音響スコアを比較する比較手段を備え、比較手段は、音韻タイプライタで認識させた場合の音響スコアの方が優れている場合、その区間を未知語であると推定し、優れていない場合、その区間を既知語であると推定することを特徴とする。
【0009】
未知語判定手段により、未知語が含まれていないと判定された場合、または、パターン判定手段により、認識結果がパターンにマッチしていないと判定された場合、入力音声に対応する応答を生成する応答生成手段をさらに備えることができる。
【0012】
獲得手段は、未知語のクラスタを生成することで、その未知語を獲得することができる。
【0014】
比較手段は、既知語でマッチングさせた場合の音響スコアに対して、音韻タイプライタで認識させた場合の音響スコアに補正をかけた上で比較を行うことができる。
認識手段は、認識結果の候補としての、推定された未知語または既知語を含む単語列を生成する単語列生成手段と、単語列生成手段により生成された単語列と入力音声の音の近さを表す音響スコアを計算する音響計算手段と、単語列生成手段により生成された単語列のふさわしさを表す言語スコアを計算する言語計算手段と、音響スコアと言語スコアに基づいて、単語列生成手段により生成された単語列から認識結果を選択する選択手段とをさらに備えることができる。
【0015】
本発明の音声処理方法は、連続する入力音声を認識する認識ステップと、認識ステップの処理により認識された認識結果に、未知語が含まれているか否かを判定する未知語判定ステップと、未知語判定ステップの処理により、未知語が含まれていると判定された場合、その未知語を獲得する獲得ステップと、未知語判定ステップの処理により認識結果に未知語が含まれていると判定された場合、その認識結果が、未知語を含む単語列であるパターンにマッチするか否かを判定するパターン判定ステップと、パターン判定ステップの処理により、認識結果がパターンにマッチしていると判定された場合、そのパターンにおいて未知語に対応付けられているカテゴリを、獲得ステップの処理により獲得された未知語に関連付けて登録する登録ステップとを含み、認識ステップは、入力音声の所定の区間について、既知語でマッチングさせた場合と音韻タイプライタで認識させた場合の、認識結果の候補と入力音声の音の近さを表す音響スコアを比較する比較ステップを含み、比較ステップの処理は、音韻タイプライタで認識させた場合の音響スコアの方が優れている場合、その区間を未知語であると推定し、優れていない場合、その区間を既知語であると推定することを特徴とする。
【0016】
本発明の記録媒体のプログラムは、連続する入力音声を認識する認識ステップと、認識ステップの処理により認識された認識結果に、未知語が含まれているか否かを判定する未知語判定ステップと、未知語判定ステップの処理により、未知語が含まれていると判定された場合、その未知語を獲得する獲得ステップと、未知語判定ステップの処理により認識結果に未知語が含まれていると判定された場合、その認識結果が、未知語を含む単語列であるパターンにマッチするか否かを判定するパターン判定ステップと、パターン判定ステップの処理により、認識結果がパターンにマッチしていると判定された場合、そのパターンにおいて未知語に対応付けられているカテゴリを、獲得ステップの処理により獲得された未知語に関連付けて登録する登録ステップとを含み、認識ステップは、入力音声の所定の区間について、既知語でマッチングさせた場合と音韻タイプライタで認識させた場合の、認識結果の候補と入力音声の音の近さを表す音響スコアを比較する比較ステップを含み、比較ステップの処理は、音韻タイプライタで認識させた場合の音響スコアの方が優れている場合、その区間を未知語であると推定し、優れていない場合、その区間を既知語であると推定することを特徴とする。
【0017】
本発明のプログラムは、連続する入力音声を認識する認識ステップと、認識ステップの処理により認識された認識結果に、未知語が含まれているか否かを判定する未知語判定ステップと、未知語判定ステップの処理により、未知語が含まれていると判定された場合、その未知語を獲得する獲得ステップと、未知語判定ステップの処理により認識結果に未知語が含まれていると判定された場合、その認識結果が、未知語を含む単語列であるパターンにマッチするか否かを判定するパターン判定ステップと、パターン判定ステップの処理により、認識結果がパターンにマッチしていると判定された場合、そのパターンにおいて未知語に対応付けられているカテゴリを、獲得ステップの処理により獲得された未知語に関連付けて登録する登録ステップとを含み、認識ステップは、入力音声の所定の区間について、既知語でマッチングさせた場合と音韻タイプライタで認識させた場合の、認識結果の候補と入力音声の音の近さを表す音響スコアを比較する比較ステップを含み、比較ステップの処理は、音韻タイプライタで認識させた場合の音響スコアの方が優れている場合、その区間を未知語であると推定し、優れていない場合、その区間を既知語であると推定することを特徴とする。
【0018】
本発明においては、連続する入力音声の所定の区間について、既知語でマッチングさせた場合と音韻タイプライタで認識させた場合の、認識結果の候補と入力音声の音の近さを表す音響スコアが比較され、音韻タイプライタで認識させた場合の音響スコアの方が優れている場合、その区間が未知語であると推定され、優れていない場合、その区間が既知語であると推定される。そして、認識結果に未知語が含まれている場合、その未知語が獲得され、その認識結果が、未知語を含む単語列であるパターンにマッチするか否かが判定され、認識結果がパターンにマッチしていると判定された場合、そのパターンにおいて未知語に対応付けられているカテゴリが、未知語に関連付けて登録される。
【0019】
【発明の実施の形態】
以下、本発明の実施の形態について、図面を参照して説明する。図1は、本発明を適用した対話システムの一実施形態の構成例を示している。
【0020】
この対話システムは、ユーザ(人間)と音声により対話を行うシステムであり、例えば、音声が入力されると、その音声から名前が取り出され、登録されるようになっている。
【0021】
即ち、音声認識部1には、ユーザからの発話に基づく音声信号が入力されるようになっており、音声認識部1は、入力された音声信号を認識し、その音声認識の結果としてのテキスト、その他付随する情報を、対話制御部3と単語獲得部4に必要に応じて出力する。
【0022】
単語獲得部4は、音声認識部1が有する認識用辞書に登録されていない単語について、音響的特徴を自動的に記憶し、それ以降、その単語の音声を認識できるようにする。
【0023】
即ち、単語獲得部4は、入力音声に対応する発音を音韻タイプライタによって求め、それをいくつかのクラスタに分類する。各クラスタはIDと代表音韻系列を持ち、IDで管理される。このときのクラスタの状態を、図2を参照して説明する。
【0024】
例えば、「あか」、「あお」、「みどり」という3回の入力音声があったとする。この場合、単語獲得部4は、3回の音声を、それぞれに対応した「あか」クラスタ21、「あお」クラスタ22、「みどり」クラスタ23の、3つのクラスタに分類し、各クラスタには、代表となる音韻系列(図2の例の場合、"a/k/a, “a/o", “m/i/d/o/r/I")とID(図2の例の場合、「1」、「2」、「3」)を付加する。
【0025】
ここで再び、「あか」という音声が入力されると、対応するクラスタが既に存在するので、単語獲得部4は、入力音声を「あか」クラスタ21に分類し、新しいクラスタは生成しない。これに対して、「くろ」という音声が入力された場合、対応するクラスタが存在しないので、単語獲得部4は、「くろ」に対応したクラスタ24を新たに生成し、そのクラスタには、代表的な音韻系列(図2の例の場合、"k/u/r/o")とID(図2の例の場合、「4」)を付加する。
【0026】
したがって、入力音声が未獲得の語であるか否かは、新たなクラスタが生成されたかどうかによって判定できる。なお、このような単語獲得処理の詳細は、本出願人が先に提案した特願2001−97843号に開示されている。
【0027】
連想記憶部2は、登録した名前(未知語)がユーザ名であるか、キャラクタ名であるかといったカテゴリ等の情報を記憶する。例えば、図3の例では、クラスタIDとカテゴリ名とが対応して記憶されている。図3の例の場合、例えば、クラスタID「1」、「3」、「4」は「ユーザ名」のカテゴリに対応され、クラスタID「2」は、「キャラクタ名」のカテゴリに対応されている。
【0028】
対話制御部3は、音声認識部1の出力からユーザの発話の内容を理解し、その理解の結果に基づいて、名前(未知語)の登録を制御する。また、対話制御部3は、連想記憶部2に記憶されている登録済みの名前の情報に基づいて、登録済みの名前を認識できるように、それ以降の対話を制御する。
【0029】
図4は、音声認識部1の構成例を示している。
【0030】
ユーザの発話は、マイクロホン41に入力され、マイクロホン41では、その発話が、電気信号としての音声信号に変換される。この音声信号は、AD(Analog Digital)変換部42に供給される。AD変換部42は、マイクロホン41からのアナログ信号である音声信号をサンプリングし、量子化し、ディジタル信号である音声データに変換する。この音声データは、特徴量抽出部43に供給される。
【0031】
特徴量抽出部43は、AD変換部42からの音声データについて、適当なフレームごとに、例えば、スペクトル、パワー線形予測係数、ケプストラム係数、線スペクトル対等の特徴パラメータを抽出し、マッチング部44および音韻タイプライタ部45に供給する。
【0032】
マッチング部44は、特徴量抽出部43からの特徴パラメータに基づき、音響モデルデータベース51、辞書データベース52、および言語モデルデータベース53を必要に応じて参照しながら、マイクロホン41に入力された音声(入力音声)に最も近い単語列を求める。
【0033】
音響モデルデータベース51は、音声認識する音声の言語における個々の音韻や音節などの音響的な特徴を表す音響モデルを記憶している。音響モデルとしては、例えば、HMM(Hidden Markov Model)などを用いることができる。辞書データベース52は、認識対象の各単語(語句)について、その発音に関する情報が記述された単語辞書や、音韻や音節の連鎖関係を記述したモデルを記憶している。
【0034】
なお、ここにおける単語とは、認識処理において1つのまとまりとして扱ったほうが都合の良い単位のことであり、言語学的な単語とは必ずしも一致しない。例えば、「タロウ君」は、それ全体を1単語として扱ってもよいし、「タロウ」、「君」という2単語として扱ってもよい。さらに、もっと大きな単位である「こんにちはタロウ君」等を1単語として扱ってもよい。
【0035】
また、音韻とは、音響的に1つの単位として扱った方が処理上都合のよいもののことであり、音声学的な音韻や音素とは必ずしも一致しない。例えば、「東京」の「とう」の部分を"t/o/u"という3個の音韻記号で表してもよいし、"o"の長音である"o:"という記号を用いて"t/o:"と表してもよい。または、"t/o/o"と表すことも可能である。他にも、無音を表す記号を用意したり、さらにそれを「発話前の無音」、「発話に挟まれた短い無音区間」、「発話語の無音」、「「っ」の部分の無音」のように細かく分類してそれぞれに記号を用意してもよい。
【0036】
言語モデルデータベース53は、辞書データベース52の単語辞書に登録されている各単語がどのように連鎖する(接続する)かに関する情報を記述している。
【0037】
音韻タイプライタ部45は、特徴量抽出部43から供給された特徴パラメータに基づいて、入力された音声に対応する音韻系列を取得する。例えば、「私の名前は太郎です。」という音声から"w/a/t/a/sh/i/n/o/n/a/m/a/e/w/a/t/a/r/o:/d/e/s/u"という音韻系列を取得する。この音韻タイプライタには、既存のものを用いることができる。
【0038】
なお、音韻タイプライタ以外でも、任意の音声に対して音韻系列を取得できるものであれば代わりに用いることができる。例えば、日本語の音節(あ・い・う…か・き…・ん)を単位とする音声認識や、音韻よりも大きく、単語よりは小さな単位であるサブワードを単位とする音声認識等を用いることも可能である。
【0039】
制御部46は、AD変換部42、特徴量抽出部43、マッチング部44、音韻タイプライタ部45の動作を制御する。
【0040】
次に、図5のフローチャートを参照して、本発明の対話システムの処理について説明する。
【0041】
ステップS21において、ユーザがマイクロホン41に音声を入力すると、マイクロホン41は、その発話を、電気信号としての音声信号に変換する。そして、ステップS22において、音声認識部1は、音声認識処理を実行する。
【0042】
音声認識処理の詳細について、図6を参照して説明する。マイクロホン41で生成された音声信号は、ステップS41において、AD変換部42により、ディジタル信号である音声データに変換され、特徴量抽出部43に供給される。
【0043】
ステップS42において、特徴量抽出部43は、AD変換部42からの音声データを受信する。そして、特徴量抽出部43は、ステップS43に進み、適当なフレームごとに、例えば、スペクトル、パワー、それらの時間変化量等の特徴パラメータを抽出し、マッチング部44に供給する。
【0044】
ステップS44において、マッチング部44は、辞書データベース52に格納されている単語モデルのうちのいくつかを連結して、単語列を生成する。なお、この単語列を構成する単語には、辞書データベース52に登録されている既知語だけでなく、登録されていない未知語を表わすシンボルである“<OOV>”も含まれている。この単語列生成処理について、図7を参照して詳細に説明する。
【0045】
ステップS61において、マッチング部44は、入力音声の或る区間について、両方の場合の音響スコアを計算する。即ち、辞書データベース52に登録されている既知語とマッチングさせた結果の音響スコアと、音韻タイプライタ部45により得られた結果(今の場合、"w/a/t/a/sh/i/n/o/n/a/m/a/e/w/a/t/a/r/o:/d/e/s/u"の中の一部区間)の音響スコアが、それぞれ計算される。音響スコアは、音声認識結果の候補である単語列と入力音声とが音としてどれだけ近いかを表す。
【0046】
次に、入力音声の一部区間と辞書データベース52に登録されている既知語とをマッチングさせた結果の音響スコアと、音韻タイプライタ部45による結果の音響スコアを比較させるのであるが、既知語とのマッチングは単語単位で行われ、音韻タイプライタ部45でのマッチングは音韻単位で行われ、尺度が異なっているので、そのままでは比較することが困難である(一般的には、音韻単位の音響スコアの方が大きな値となる)。そこで、尺度を合わせて比較できるようにするために、マッチング部44は、ステップS62において、音韻タイプライタ部45により得られた結果の音響スコアに補正をかける。
【0047】
例えば、音韻タイプライタ部45からの音響スコアに係数を掛けたり、一定の値やフレーム長に比例した値などを減じたりする処理が行われる。勿論、この処理は相対的なものなので、既知語とマッチングさせた結果の音響スコアに対して行うこともできる。なお、この処理の詳細は、例えば、文献「"EUROSPEECH99 Volume 1, Page 49-52"」に「OOV-Detection in Large Vocabulary System Using Automatically Defined Word-Fragments as Fillers」として開示されている。
【0048】
マッチング部44は、ステップS63において、この2つの音響スコアを比較する(音韻タイプライタ部45で認識させた結果の音響スコアの方が高い(優れている)か否かを判定する)。音韻タイプライタ部45で認識させた結果の音響スコアの方が高い場合、ステップS64に進み、マッチング部44は、その区間を<OOV>(Out Of Vocabulary)(未知語)であると推定する。
【0049】
ステップS63において、既知語とマッチングさせた結果の音響スコアに対して、音韻タイプライタ部45で認識された結果の音響スコアの方が低いと判定された場合、ステップS66に進み、マッチング部44は、その区間を既知語であると推定する。
【0050】
即ち、例えば、「たろう」に相当する区間について、音韻タイプライタ部45の出力した"t/a/r/o:"の音響スコアと、既知語でマッチングさせた場合の音響スコアを比較して、"t/a/r/o:"の音響スコアの方が高い場合は、その音声区間に相当する単語として「<OOV>(t/a/r/o:)」が出力され、既知語の音響スコアの方が高い場合は、その既知語が音声区間に相当する単語として出力される。
【0051】
ステップS65において、音響スコアが高くなると推測される単語列(いくつかの単語モデルを連結したもの)を優先的にn個を生成する。
【0052】
図6に戻って、ステップS45において、音韻タイプライタ部45はステップS44の処理とは独立して、ステップS43の処理で抽出された特徴パラメータに対して音韻を単位とする認識を行ない、音韻系列を出力する。例えば、「私の名前は太郎(未知語)です。」という音声が入力されると、音韻タイプライタ部45は、"w/a/t/a/sh/i/n/o/n/a/m/a/e/w/a/t/a/r/o:/d/e/s/u"という音韻系列を出力する。
【0053】
ステップS46において、マッチング部44は、ステップS44で生成された単語列ごとに音響スコアを計算する。<OOV>(未知語)を含まない単語列に対しては既存の方法、すなわち各単語列(単語モデルを連結したもの)に対して音声の特徴パラメータを入力することで尤度を計算するという方法を用いる。一方、<OOV>を含む単語列については、既存の方法では<OOV>に相当する音声区間の音響スコアを求めることができない(<OOV>に対応する単語モデルは事前には存在しないため)。そこで、その音声区間については、音韻タイプライタの認識結果の中から同区間の音響スコアを取り出し、その値に補正をかけたものを<OOV>の音響スコアとして採用する。さらに、他の既知語部分の音響スコアと統合し、それをその単語列の音響スコアとする。
【0054】
ステップS47において、マッチング部44は、音響スコアの高い単語列を上位m個(m≦n)残し、候補単語列とする。ステップS48において、マッチング部44は、言語モデルデータベース53を参照して、候補単語列毎に、言語スコアを計算する。言語スコアは、認識結果の候補である単語列が言葉としてどれだけふさわしいかを表す。ここで、この言語スコアを計算する方法を詳細に説明する。
【0055】
本発明の音声認識部1は未知語も認識するため、言語モデルは未知語に対応している必要がある。例として、未知語に対応した文法または有限状態オートマトン(FSA:Finite State Automaton)を用いた場合と、同じく未知語に対応したtri-gram(統計言語モデルの1つである)を用いた場合とについて説明する。
【0056】
文法の例を図8を参照して説明する。この文法61はBNF(Backus Naur Form)で記述されている。図8において、"$A"は「変数」を表し、"A|B"は「AまたはB」という意味を表す。また、"[A]"は「Aは省略可能」という意味を表し、{A}は「Aを0回以上繰り返す」という意味を表す。
【0057】
<OOV>は未知語を表すシンボルであり、文法中に<OOV>を記述しておくことで、未知語を含む単語列に対しても対処することができる。"$ACTION"は図8では定義されていないが、実際には、例えば、「起立」、「着席」、「お辞儀」、「挨拶」等の動作の名前が定義されている。
【0058】
この文法61では、「<先頭>/こんにちは/<終端>」(“/”は単語間の区切り)、「<先頭>/さようなら/<終端>」、「<先頭>/私/の/名前/は/<OOV>/です/<終端>」のように、データベースに記憶されている文法に当てはまる単語列は受理される(この文法で解析される)が、「<先頭>/君/の/<OOV>/名前/<終端>」といった、データベースに記憶されている文法に当てはまらない単語列は受理されない(この文法で解析されない)。なお、「<先頭>」と「<終端>」はそれぞれ発話前と後の無音を表す特殊なシンボルである。
【0059】
この文法を用いて言語スコアを計算するために、パーザ(解析機)が用いられる。パーザは、単語列を、文法を受理できる単語列と、受理できない単語列に分ける。即ち、例えば、受理できる単語列には言語スコア1が与えられて、受理できない単語列には言語スコア0が与えられる。
【0060】
したがって、例えば、「<先頭>/私/の/名前/は/<OOV>(t/a/r/o:)/です/<終端>」と、「<先頭>/私/の/名前/は/<OOV>(j/i/r/o:)/です/<終端>」という2つの単語列があった場合、いずれも「<先頭>/私/の/名前/は/<OOV>/です/<終端>」に置き換えられた上で言語スコアが計算されて、ともに言語スコア1(受理)が出力される。
【0061】
また、単語列の文法が受理できるか否かの判定は、事前に文法を等価(近似でも良い)な有限状態オートマトン(以下、FSAと称する)に変換しておき、各単語列がそのFSAで受理できるか否かを判定することによっても実現できる。
【0062】
図8の文法を等価なFSAに変換した例が、図9に示されている。FSAは状態(ノード)とパス(アーク)とからなる有向グラフである。図9に示されるように、S1は開始状態、S16は終了状態である。また、"$ACTION"には、図8と同様に、実際には動作の名前が登録されている。
【0063】
パスには単語が付与されていて、所定の状態から次の状態に遷移する場合、パスはこの単語を消費する。ただし、"ε"が付与されているパスは、単語を消費しない特別な遷移(以下、ε遷移と称する)である。即ち、例えば、「<先頭>/私/は/<OOV>/です/<終端>」においては、初期状態S1から状態S2に遷移して、<先頭>が消費され、状態S2から状態S3へ遷移して、「私」が消費されるが、状態S3から状態S5への遷移は、ε遷移なので、単語は消費されない。即ち、状態S3から状態S5へスキップして、次の状態S6へ遷移することができる。
【0064】
所定の単語列がこのFSAで受理できるか否かは、初期状態S1から出発して、終了状態S16まで到達できるか否かで判定される。
【0065】
即ち、例えば、「<先頭>/私/の/名前/は/<OOV>/です/<終端>」においては、初期状態S1から状態S2へ遷移して、単語「<先頭>」が消費される。次に、状態S2から状態S3へ遷移して、単語「私」が消費される。以下、同様に、状態S3から状態S4へ、状態S4から状態S5へ、状態S5から状態S6へ、状態S6から状態S7へ順次遷移して、「の」、「名前」、「は」、「<00V>」、が次々に消費される。さらに、状態S7から状態S15へ遷移して、「です」が消費され、状態S15から状態S16に遷移して、「<終端>」が消費され、結局、終了状態S16へ到達する。したがって、「<先頭>/私/の/名前/は/<OOV>/です/<終端>」はFSAで受理される。
【0066】
しかしながら、「<先頭>/君/の/<OOV>/名前/<終端>」は、状態S1から状態S2へ、状態S2から状態S8へ、状態S8から状態S9までは遷移して、「<先頭>」、「君」、「の」までは消費されるが、その先には遷移できないので、終了状態S16へ到達することはできない。したがって、「<先頭>/君/の/<OOV>/名前/<終端>」は、FSAで受理されない(不受理)。
【0067】
さらに、言語モデルとして、統計言語モデルの1つであるtri-gramを用いた場合の言語スコアを計算する例を、図10を参照して説明する。統計言語モデルとは、その単語列の生成確率を求めて、それを言語スコアとする言語モデルである。即ち、例えば、図10の言語モデル71の「<先頭>/私/の/名前/は/<OOV>/です/<終端>」の言語スコアは、第2行に示されるように、その単語列の生成確率で表される。これはさらに、第3行乃至第6行で示されるように、条件付き確率の積として表される。なお、例えば、「P(の|<先頭> 私)」は、「の」の直前の単語が「私」で、「私」の直前の単語が「<先頭>」であるという条件の下で、「の」が出現する確率を表す。
【0068】
さらに、tri-gramでは、図10の第3行乃至第6行で示される式を、第7行乃至第9行で示されるように、連続する3単語の条件付き確率で近似させる。これらの確率値は、図11に示されるようなtri-gramデータベース81を参照して求められる。このtri-gramデータベース81は、予め大量のテキストを分析して求められたものである。
【0069】
図11の例では、3つの連続する単語w1,w2,w3の確率P(w3|w1w2)が表されている。例えば、3つの単語w1,w2,w3が、それぞれ、「<先頭>」、「私」、「の」である場合、確率値は0.12とされ、「私」、「の」、「名前」である場合、確率値は0.01とされ、「<OOV>」、「です」、「<終端>」である場合、確率値は、0.87とされている。
【0070】
勿論、「P(W)」及び「P(w2|w1)」についても、同様に、予め求めておく。
【0071】
このようにして、言語モデル中に<OOV>について、エントリ処理をしておくことで、<OOV>を含む単語列に対して、言語スコアを計算することができる。したがって、認識結果に<OOV>というシンボルを出力することができる。
【0072】
また、他の種類の言語モデルを用いる場合も、<OOV>についてのエントリ処理をすることによって、同様に<OOV>を含む単語列に対して、言語スコアを計算することができる。
【0073】
さらに、<OOV>のエントリが存在しない言語モデルを用いた場合でも、<OOV>を言語モデル中の適切な単語にマッピングする機構を用いることで、言語スコアの計算ができる。例えば、「P(<OOV>|私 は)」が存在しないtri-gramデータベースを用いた場合でも、「P(太郎|私 は)」でデータベースをアクセスして、そこに記述されている確率を「P(<OOV>|私 は)」の値とみなすことで、言語スコアの計算ができる。
【0074】
図6に戻って、マッチング部44は、ステップS49において、音響スコアと言語スコアを統合する。ステップS50において、マッチング部44は、ステップS49において求められた音響スコアと言語スコアの両スコアを統合したスコアに基づいて、最もよいスコアをもつ候補単語列を選択して、認識結果として出力する。
【0075】
なお、言語モデルとして、有限状態オートマトンを使用している場合は、ステップS49の統合処理を、言語スコアが0の場合は単語列を消去し、言語スコアが0以外の場合はそのまま残すという処理にしてもよい。
【0076】
図5に戻って、以上のようにしてステップS22で音声認識処理が実行された後、ステップS23において、音声認識部1の制御部46は認識された単語列に未知語が含まれているか否かを判定する。未知語が含まれていると判定された場合、制御部46は、単語獲得部4を制御し、ステップS24において、単語獲得処理を実行させ、その未知語を獲得させる。
【0077】
単語獲得処理の詳細について、図12を参照して説明する。ステップS91において、単語獲得部4は、音声認識部1から未知語(<OOV>)の特徴パラメータを抽出する。ステップS92において、単語獲得部4は、未知語が既獲得のクラスタに属するか否かを判定する。既獲得のクラスタに属さないと判定された場合、単語獲得部4は、ステップS93において、その未知語に対応する、新しいクラスタを生成する。そして、ステップS94において、単語獲得部4は、未知語の属するクラスタのIDを音声認識部1のマッチング部44に出力する。
【0078】
ステップS92において、未知語が既獲得のクラスタに属すると判定された場合、新しいクラスタを生成する必要がないので、単語獲得部4はステップS93の処理をスキップして、ステップS94に進み、未知語の属する既獲得のクラスタのIDをマッチング部44に出力する。
【0079】
なお、図12の処理は各未知語毎に行われる。
【0080】
図5に戻って、ステップS24の単語獲得処理終了後、ステップS25において、対話制御部3は、ステップS24の処理で獲得された単語列が、テンプレートにマッチしているかどうかを判定する。即ち、認識結果の単語列が何かの名前の登録を意味するものかどうかの判定がここで行われる。そして、ステップS25において、認識結果の単語列がテンプレートにマッチしていると判定された場合、ステップS26において、対話制御部3は、連想記憶部2に、名前のクラスタIDとカテゴリを対応させて記憶させる。
【0081】
対話制御部3がマッチングさせるテンプレートの例を図13を参照して説明する。なお、図13において、"/A/"は「文字列Aが含まれていたら」という意味を表し、"A|B"は「AまたはB」という意味を表す。また、"."は「任意の文字」を表し、"A+"は「Aの1回以上の繰り返し」という意味を表し、"(.)+"は「任意の文字列」を表す。
【0082】
このテンプレート91は、認識結果の単語列が図の左側の正規表現にマッチした場合、図の右側の動作を実行させることを表している。例えば、認識結果が「<先頭>/私/の/名前/は/<OOV>(t/a/r/o:)/です/<終端>」という単語列である場合、この認識結果から生成された文字列「私の名前は<OOV>です」は、図13の第2番目の正規表現にマッチする。したがって、対応する動作である「<OOV>に対応するクラスタIDをユーザ名として登録する」処理が実行される。即ち、「<OOV>(t/a/r/o:)」のクラスタIDが「1」である場合、図3に示されるように、クラスタID「1」のカテゴリ名が「ユーザ名」として登録される。
【0083】
また、例えば、認識結果が、「<先頭>/君/の/名前/は/<OOV>(a/i/b/o)/だよ/<終端>」である場合、そこから生成される文字列「君の名前は<OOV>だよ」は図13の第1番目の正規表現にマッチするので、「<OOV>(a/i/b/o)」がクラスタID「2」であれば、クラスタID「2」のカテゴリは、「キャラクタ名」として登録される。
【0084】
なお、対話システムによっては、登録する単語が1種類しかない(例えば、「ユーザ名」のみ)場合もあり、その場合は、テンプレート91と連想記憶部2は簡略化することができる。例えば、テンプレート91の内容を「認識結果に<OOV>が含まれていたら、そのIDを記憶する」として、連想記憶部2にそのクラスタIDのみを記憶させることができる。
【0085】
対話制御部3は、このようにして連想記憶部2に登録された情報を、以後の対話の判断処理に反映させる。例えば、対話システムの側で、「ユーザの発話の中に、対話キャラクタの名前が含まれているかどうかを判定する。含まれている場合は『呼びかけられた』と判断して、それに応じた返事をする」という処理や、「対話キャラクタがユーザの名前をしゃべる」という処理が必要になった場合に、対話制御部3は連想記憶部2の情報を参照することで、対話キャラクタに相当する単語(カテゴリ名が「キャラクタ名」であるエントリ)やユーザ名に相当する単語(カテゴリ名が「ユーザ名」であるエントリ)を得ることができる。
【0086】
一方、ステップS23において、認識結果に未知語が含まれていないと判定された場合、またはステップS25において、認識結果がテンプレートにマッチしていないと判定された場合、ステップS27において、対話制御部3は、入力音声に対応する応答を生成する。すなわち、この場合には、名前(未知語)の登録処理は行われず、ユーザからの入力音声に対応する所定の処理が実行される。
【0087】
ところで、言語モデルとして文法を用いる場合、文法の中に音韻タイプライタ相当の記述も組み込むことができる。この場合の文法の例が図14に示されている。この文法101において、第1行目の変数"$PHONEME"は、全ての音韻が「または」を意味する"|"で繋がれているので、音韻記号の内のどれか1つを意味する。変数"OOV"は"$PHONEME"を0回以上繰り返すことを表している。即ち、「任意の音韻記号を0回以上接続したもの」を意味し、音韻タイプライタに相当する。したがって、第3行目の「は」と「です」の間の"$OOV"は、任意の発音を受け付けることができる。
【0088】
この文法101を用いた場合の認識結果では、"$OOV"に相当する部分が複数のシンボルで出力される。例えば、「私の名前は太郎です」の認識結果が「<先頭>/私/の/名前/は/t/a/r/o:/です/<終端>」となる。この結果を「<先頭>/私/の/名前/は/<OOV>(t/a/r/o:)/です」に変換すると、図5のステップS23以降の処理は、音韻タイプライタを用いた場合と同様に実行することができる。
【0089】
以上においては、未知語に関連する情報として、カテゴリを登録するようにしたが、その他の情報を登録するようにしてもよい。
【0090】
図15は、上述の処理を実行するパーソナルコンピュータ110の構成例を示している。このパーソナルコンピュータ110は、CPU(Central Processing Unit)111を内蔵している。CPU111にはバス114を介して、入出力インタフェース115が接続されている。バス114には、ROM(Read Only Memory)112およびRAM(Random Access Memory)113が接続されている。
【0091】
入出力インターフェース115には、ユーザが操作するマウス、キーボード、マイクロホン、AD変換器等の入力デバイスで構成される入力部117、およびディスプレイ、スピーカ、DA変換器等の出力デバイスで構成される出力部116が接続されている。さらに、入出力インターフェース115には、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部118、並びにインタネットに代表されるネットワークを介してデータを通信する通信部119が接続されている。
【0092】
入出力インターフェース115には、磁気ディスク131、光ディスク132、光磁気ディスク133、半導体メモリ134などの記録媒体に対してデータを読み書きするドライブ120が必要に応じて接続される。
【0093】
このパーソナルコンピュータ110に本発明を適用した音声処理装置としての動作を実行させる音声処理プログラムは、磁気ディスク131(フロッピディスクを含む)、光ディスク132(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク133(MD(Mini Disc)を含む)、もしくは半導体メモリ134に格納された状態でパーソナルコンピュータ110に供給され、ドライブ120によって読み出されて、記憶部118に内蔵されるハードディスクドライブにインストールされる。記憶部118にインストールされた音声処理プログラムは、入力部117に入力されるユーザからのコマンドに対応するCPU111の指令によって、記憶部118からRAM113にロードされて実行される。
【0094】
上述した一連の処理は、ハードウエアにより実行させることもできるが、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
【0095】
この記録媒体は、図15に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディス131、光ディスク132、光磁気ディスク133、もしくは半導体メモリ134などよりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM112や、記憶部118に含まれるハードディスクなどで構成される。
【0096】
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0097】
また、本明細書において、システムとは、複数の装置が論理的に集合したものをいい、各構成の装置が同一筐体中にあるか否かは問わない。
【0098】
【発明の効果】
以上のように、本発明によれば、単語を音声で登録することができる。またその登録を、ユーザに登録モードを意識させることなく実行できる。さらに、既知語と未知語を含む連続する入力音声の中から未知語を容易に登録することが可能となる。さらに、登録した単語を、以降の対話で反映させることが可能となる。
【図面の簡単な説明】
【図1】本発明を適用した対話システムの一実施の形態の構成例を示すブロック図である。
【図2】クラスタの状態の例を示す図である。
【図3】単語の登録を示す図である。
【図4】図1の音声認識部の構成例を示すブロック図である。
【図5】図1の対話システムの動作を説明するためのフローチャートである。
【図6】図5のステップS22の音声認識処理の詳細を説明するためのフローチャートである。
【図7】図6のステップS44の単語列を生成する動作の詳細を説明するためのフローチャートである。
【図8】言語モデルデータベースで用いられる文法の例を示す図である。
【図9】有限状態オートマトンによる言語モデルの例を示す図である。
【図10】 tri-gramを用いた言語スコアの計算の例を示す図である。
【図11】 tri-gramデータベースの例を示す図である。
【図12】図5のステップS24の単語獲得処理の詳細を説明するためのフローチャートである。
【図13】テンプレートの例を示す図である。
【図14】音韻タイプライタを組み込んだ文法の例を示す図である。
【図15】本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
【符号の説明】
1 音声認識部, 2 連想記憶部, 3 対話制御部, 4 単語獲得部,41 マイクロホン, 42 AD変換部, 43 特徴量抽出部, 44 マッチング部, 45 音韻タイプライタ部, 46 制御部, 51 音響モデルデータベース, 52 辞書データベース, 53 言語モデルデータベース
Claims (8)
- 入力音声を処理し、その処理結果に基づいて、前記入力音声に含まれる単語を登録する音声処理装置であって、
連続する前記入力音声を認識する認識手段と、
前記認識手段により認識された認識結果に、未知語が含まれているか否かを判定する未知語判定手段と、
前記未知語判定手段により、前記未知語が含まれていると判定された場合、その未知語を獲得する獲得手段と、
前記未知語判定手段により前記認識結果に前記未知語が含まれていると判定された場合、その認識結果が、前記未知語を含む単語列であるパターンにマッチするか否かを判定するパターン判定手段と、
前記パターン判定手段により、前記認識結果が前記パターンにマッチしていると判定された場合、そのパターンにおいて前記未知語に対応付けられているカテゴリを、前記獲得手段により獲得された前記未知語に関連付けて登録する登録手段と
を備え、
前記認識手段は、
前記入力音声の所定の区間について、既知語でマッチングさせた場合と音韻タイプライタで認識させた場合の、前記認識結果の候補と前記入力音声の音の近さを表す音響スコアを比較する比較手段
を備え、
前記比較手段は、前記音韻タイプライタで認識させた場合の前記音響スコアの方が優れている場合、その区間を前記未知語であると推定し、優れていない場合、その区間を前記既知語であると推定する
ことを特徴とする音声処理装置。 - 前記未知語判定手段により、前記未知語が含まれていないと判定された場合、または、前記パターン判定手段により、前記認識結果が前記パターンにマッチしていないと判定された場合、前記入力音声に対応する応答を生成する応答生成手段
をさらに備えることを特徴とする請求項1に記載の音声処理装置。 - 前記獲得手段は、前記未知語のクラスタを生成することで、その未知語を獲得する
ことを特徴とする請求項1に記載の音声処理装置。 - 前記比較手段は、前記既知語でマッチングさせた場合の音響スコアに対して、前記音韻タイプライタで認識させた場合の音響スコアに補正をかけた上で比較を行う
ことを特徴とする請求項1に記載の音声処理装置。 - 前記認識手段は、
前記認識結果の候補としての、推定された前記未知語または前記既知語を含む単語列を生成する単語列生成手段と、
前記単語列生成手段により生成された前記単語列と前記入力音声の音の近さを表す音響スコアを計算する音響計算手段と、
前記単語列生成手段により生成された前記単語列のふさわしさを表す言語スコアを計算する言語計算手段と、
前記音響スコアと前記言語スコアに基づいて、前記単語列生成手段により生成された前記単語列から前記認識結果を選択する選択手段と
をさらに備える請求項1に記載の音声処理装置。 - 入力音声を処理し、その処理結果に基づいて、前記入力音声に含まれる単語を登録する音声処理装置の音声処理方法において、
連続する前記入力音声を認識する認識ステップと、
前記認識ステップの処理により認識された認識結果に、未知語が含まれているか否かを判定する未知語判定ステップと、
前記未知語判定ステップの処理により、前記未知語が含まれていると判定された場合、その未知語を獲得する獲得ステップと、
前記未知語判定ステップの処理により前記認識結果に前記未知語が含まれていると判定された場合、その認識結果が、前記未知語を含む単語列であるパターンにマッチするか否かを判定するパターン判定ステップと、
前記パターン判定ステップの処理により、前記認識結果が前記パターンにマッチしていると判定された場合、そのパターンにおいて前記未知語に対応付けられているカテゴリを、前記獲得ステップの処理により獲得された前記未知語に関連付けて登録する登録ステップと
を含み、
前記認識ステップは、
前記入力音声の所定の区間について、既知語でマッチングさせた場合と音韻タイプライタで認識させた場合の、前記認識結果の候補と前記入力音声の音の近さを表す音響スコアを比較する比較ステップを含み、
前記比較ステップの処理は、前記音韻タイプライタで認識させた場合の前記音響スコアの方が優れている場合、その区間を前記未知語であると推定し、優れていない場合、その区間を前記既知語であると推定する
ことを特徴とする音声処理方法。 - 入力音声を処理し、その処理結果に基づいて、前記入力音声に含まれる単語を登録する音声処理装置のプログラムであって、
連続する前記入力音声を認識する認識ステップと、
前記認識ステップの処理により認識された認識結果に、未知語が含まれているか否かを判定する未知語判定ステップと、
前記未知語判定ステップの処理により、前記未知語が含まれていると判定された場合、その未知語を獲得する獲得ステップと、
前記未知語判定ステップの処理により前記認識結果に前記未知語が含まれていると判定された場合、その認識結果が、前記未知語を含む単語列であるパターンにマッチするか否かを判定するパターン判定ステップと、
前記パターン判定ステップの処理により、前記認識結果が前記パターンにマッチしていると判定された場合、そのパターンにおいて前記未知語に対応付けられているカテゴリを、前記獲得ステップの処理により獲得された前記未知語に関連付けて登録する登録ステップと
を含み、
前記認識ステップは、
前記入力音声の所定の区間について、既知語でマッチングさせた場合と音韻タイプライタで認識させた場合の、前記認識結果の候補と前記入力音声の音の近さを表す音響スコアを比較する比較ステップを含み、
前記比較ステップの処理は、前記音韻タイプライタで認識させた場合の前記音響スコアの方が優れている場合、その区間を前記未知語であると推定し、優れていない場合、その区間を前記既知語であると推定する
ことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。 - 入力音声を処理し、その処理結果に基づいて、前記入力音声に含まれる単語を登録する音声処理装置を制御するコンピュータに実行させるプログラムにおいて、
連続する前記入力音声を認識する認識ステップと、
前記認識ステップの処理により認識された認識結果に、未知語が含まれているか否かを判定する未知語判定ステップと、
前記未知語判定ステップの処理により、前記未知語が含まれていると判定された場合、その未知語を獲得する獲得ステップと、
前記未知語判定ステップの処理により前記認識結果に前記未知語が含まれていると判定された場合、その認識結果が、前記未知語を含む単語列であるパターンにマッチするか否かを判定するパターン判定ステップと、
前記パターン判定ステップの処理により、前記認識結果が前記パターンにマッチしていると判定された場合、そのパターンにおいて前記未知語に対応付けられているカテゴリを、前記獲得ステップの処理により獲得された前記未知語に関連付けて登録する登録ステップと
を含み、
前記認識ステップは、
前記入力音声の所定の区間について、既知語でマッチングさせた場合と音韻タイプライタで認識させた場合の、前記認識結果の候補と前記入力音声の音の近さを表す音響スコアを比較する比較ステップを含み、
前記比較ステップの処理は、前記音韻タイプライタで認識させた場合の前記音響スコアの方が優れている場合、その区間を前記未知語であると推定し、優れていない場合、その区間を前記既知語であると推定する
ことを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002072718A JP4048473B2 (ja) | 2002-03-15 | 2002-03-15 | 音声処理装置および音声処理方法、並びにプログラムおよび記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002072718A JP4048473B2 (ja) | 2002-03-15 | 2002-03-15 | 音声処理装置および音声処理方法、並びにプログラムおよび記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003271180A JP2003271180A (ja) | 2003-09-25 |
JP4048473B2 true JP4048473B2 (ja) | 2008-02-20 |
Family
ID=29202636
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002072718A Expired - Fee Related JP4048473B2 (ja) | 2002-03-15 | 2002-03-15 | 音声処理装置および音声処理方法、並びにプログラムおよび記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4048473B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11488603B2 (en) * | 2019-06-06 | 2022-11-01 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for processing speech |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005208483A (ja) * | 2004-01-26 | 2005-08-04 | Neikusu:Kk | 音声認識装置、音声認識プログラム、言語モデル生成方法、及び言語モデル生成装置 |
JP4245530B2 (ja) * | 2004-08-19 | 2009-03-25 | 三菱電機株式会社 | 言語モデル作成装置及び方法並びにプログラム |
JP6301647B2 (ja) * | 2013-12-24 | 2018-03-28 | 株式会社東芝 | 探索装置、探索方法およびプログラム |
JP6807611B2 (ja) * | 2019-10-15 | 2021-01-06 | 株式会社ユピテル | システム及びプログラム |
-
2002
- 2002-03-15 JP JP2002072718A patent/JP4048473B2/ja not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11488603B2 (en) * | 2019-06-06 | 2022-11-01 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for processing speech |
Also Published As
Publication number | Publication date |
---|---|
JP2003271180A (ja) | 2003-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4301102B2 (ja) | 音声処理装置および音声処理方法、プログラム、並びに記録媒体 | |
JP4351385B2 (ja) | 連続および分離音声を認識するための音声認識システム | |
JP3762327B2 (ja) | 音声認識方法および音声認識装置および音声認識プログラム | |
US8019602B2 (en) | Automatic speech recognition learning using user corrections | |
JP3716870B2 (ja) | 音声認識装置および音声認識方法 | |
CN100371926C (zh) | 通过响应输入语句而输出应答语句的交互对话装置和方法 | |
US20160379638A1 (en) | Input speech quality matching | |
JP2001215993A (ja) | 対話処理装置および対話処理方法、並びに記録媒体 | |
JP4072718B2 (ja) | 音声処理装置および方法、記録媒体並びにプログラム | |
WO2002101719A1 (en) | Voice recognition apparatus and voice recognition method | |
JP2008293019A (ja) | 言語理解装置 | |
JP2001188781A (ja) | 会話処理装置および方法、並びに記録媒体 | |
CN112435654A (zh) | 通过帧***对语音数据进行数据增强 | |
JP2004333543A (ja) | 音声対話システム及び音声対話方法 | |
US20040006469A1 (en) | Apparatus and method for updating lexicon | |
JP2000029492A (ja) | 音声翻訳装置、音声翻訳方法、音声認識装置 | |
JP4048473B2 (ja) | 音声処理装置および音声処理方法、並びにプログラムおよび記録媒体 | |
JP5184467B2 (ja) | 適応化音響モデル生成装置及びプログラム | |
JP4581549B2 (ja) | 音声処理装置および方法、記録媒体、並びにプログラム | |
JP4461557B2 (ja) | 音声認識方法および音声認識装置 | |
JP3472101B2 (ja) | 音声入力解釈装置及び音声入力解釈方法 | |
JPH1097293A (ja) | 音声認識用単語辞書作成装置及び連続音声認識装置 | |
JP2001255887A (ja) | 音声認識装置、音声認識方法及び音声認識方法を記録した媒体 | |
JP2731133B2 (ja) | 連続音声認識装置 | |
JP4054610B2 (ja) | 音声認識装置および音声認識方法、音声認識プログラム、並びに、プログラム記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070523 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070801 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070928 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071102 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071115 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101207 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |