JP2004145014A - 自動音声応答装置及び自動音声応答方法 - Google Patents
自動音声応答装置及び自動音声応答方法 Download PDFInfo
- Publication number
- JP2004145014A JP2004145014A JP2002310066A JP2002310066A JP2004145014A JP 2004145014 A JP2004145014 A JP 2004145014A JP 2002310066 A JP2002310066 A JP 2002310066A JP 2002310066 A JP2002310066 A JP 2002310066A JP 2004145014 A JP2004145014 A JP 2004145014A
- Authority
- JP
- Japan
- Prior art keywords
- reading
- recognition
- voice
- speech
- speech synthesis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
【解決手段】音声認識処理部1、プロンプト情報を作成する対話処理部2、音声合成処理を行なう音声合成処理部3及び複数の単語が音声認識用読み及び音声合成用読みと共に登録されている共通読みデータベース12とで自動音声応答装置を構成する。音声認識処理部1に、共通読みデータベース12に登録された単語の音声合成用読みを特定するための識別子が含まれた認識情報を作成させる。対話処理部2に、識別子に基づいて、認識した単語の音声合成用読みを抽出させ、抽出した音声合成用読みが含まれたプロンプト情報を作成させる。
【選択図】 図1
Description
【発明の属する技術分野】
本発明は、音声認識処理と音声合成処理とを行なって、入力された音声に自動で応答を行なう自動音声応答装置、及び自動音声応答方法に関する。
【0002】
【従来の技術】
近年、音声認識技術や音声合成技術の発達により、利用者からの音声に自動で応答する自動音声応答装置が実用化されている(例えば特許文献1参照)。自動音声応答装置は、音声ポータルやカーナビゲーションシステムといった自動応答サービスが必要とされる種々の分野で利用されている。
【0003】
図4は、従来の自動音声応答装置の構成を示す図である。図4に示すように、自動音声応答装置は、主に、音声認識処理部21と、対話処理部22と、音声合成処理部23とで構成されている。
【0004】
音声認識処理部21は、音声が入力されると、音響情報を保持する音響モデル24と文法情報部25とを利用して音声認識処理を行なう。また、音声認識処理部21は、認識した単語とこれに対応するスロット情報とを認識情報として、対話処理部22に出力する。なお、音響モデル24と文法情報部25とを利用した音声認識処理は、音声認識処理の一例であるが、近年最も利用されている。
【0005】
音響モデル24は、ある音声がいずれの文字に対応するかを決定するために参照される音響情報が登録されたデータベースである。文法情報部25は、音声認識用の文法を登録した文法辞書であり、ユーザが発声すると予想される単語又は単語列を登録している。単語列が登録されている場合は、文法情報部25には、単語の順番情報が状態遷移情報として更に登録される。
【0006】
また、文法情報部25には、単語毎に設定されたスロット情報が登録されている。スロット情報は、ある単語が発声された場合に音声認識の結果として返される戻り値であり、後述するアプリケーションデータベース26の識別子として利用される。
【0007】
対話処理部22は、スロット情報が入力されると、音声認識処理部21の識別結果に応じたプロンプトを決定し、プロンプトデータベース27から、決定されたプロンプトに対応するプロンプ文を抽出する。更に、対話処理部22は、アプリケーションデータベース26を参照して、このプロンプト文に含まれる変数を認識結果に対応する具体的な値に置き換える。プロンプト文はテキストデータであり、音声合成処理部23に入力される。
【0008】
音声合成処理部23は、ユーザ読み辞書28、基本読み辞書29、波形辞書30及び言語辞書31を備えている。音声合成処理部23は、プロンプト文が入力されると、出力音声を作成する。具体的には、音声合成処理部23は、言語辞書31を用いてプロンプト文を形態素解析し、基本読み辞書29及びユーザ読み辞書28を参照してプロンプト文に抑揚情報やポーズ情報、アクセント情報を付与し、更に、波形辞書に登録されている音声データを抽出して出力音声を作成する。
【0009】
なお、基本読み辞書29及びユーザ読み辞書28には、下記の表5に示すように、テキスト(主に単語)、それに対応するアクセント記号付きの発音、及び品詞情報が格納されている。
【0010】
【表5】
【0011】
なお、基本読み辞書は29、一般的なテキスト(主に単語)が登録された辞書であり、音声合成の開発者から予め提供される。また、ユーザ読み辞書28は、基本読み辞書に登録されていないテキストが登録された辞書であり、ユーザが個別な事情に対応して作成する。通常、音声合成処理部23は、ユーザ読み辞書28を、基本読み辞書29よりも優先して参照する。
【0012】
【特許文献1】
特開2000−242289号公報
【0013】
【発明が解決しようとする課題】
しかしながら、上記図4で示す自動音声応答装置を用いた自動応答サービスでは、入力された音声を認識し、これを音声出力するためには、音声認識用の文法情報部25と音声合成用の基本読み辞書29又はユーザ読み辞書28とに、認識させたい音声を登録する必要がある。
【0014】
例えば、「富士通研(フジツウケン)」を音声認識させたい場合、音声認識用の文法情報部25に、読みである単語「フジツウケン」を登録し、更に、ユーザ読み辞書28に、文字「富士通研」と読み「フジツーケン」とを登録する必要がある。なお、基本読み辞書29に、「富士通研」が既に登録されている場合は、ユーザ読み辞書28に登録する必要はないと考えられるが、音声合成処理部23による音声出力の正確さを高める点からは、ユーザ読み辞書28にも登録する必要がある。
【0015】
このように、上記図4で示す自動音声応答装置を用いて自動応答サービスを行なう場合は、運用管理上、辞書を二重に管理しなければならないという問題がある。
【0016】
また、上記図4で示す自動音声応答装置を用いた自動応答サービスでは、漢字の読み間違えの問題もある。例えば、人名の「長田さん」は、「ナガタさん」、「オサダさん」の二通りの読み方があるが、上記図4で示す自動音声応答装置では、その構成上、一つの漢字に対して一つの読みしか、基本読み辞書28又はユーザ読み辞書29に登録できないこととなっている。また、基本読み辞書28とユーザ読み辞書29それぞれに違う読みを登録しても、ユーザ読み辞書が優先されてしまう。
【0017】
このため、ユーザが「長田(ナガタ)さん」と発声し、音声認識処理部21で「ナガタさん」と認識されても、ユーザ読み辞書28に「長田さん(オサダさん)と登録されていれば、音声合成処理部23で「オサダさん」と出力されてしまう。
【0018】
また、上記図4で示す自動音声応答装置では、音声認識処理部21と音声合成処理部23との間では直接情報のやり取りは行なわれておらず、これらの間には対話処理部22が介在している。
【0019】
このため、ユーザが「長田(ナガタ)さん」と発声し、音声認識処理で「ナガタさん」と認識されても、対話処理部22が、アプリケーションデータベース26を参照してプロンプト文に含まれる変数を置き換える際に、「長田さん」と置き換えてしまうと、「オサダさん」と出力される場合がある。
【0020】
本発明の目的は、文法と辞書の管理を容易に行なうことができ、且つ、入力された音声に忠実に音声応答を行ない得る自動音声応答装置及び自動音声応答方法を提供することにある。
【0021】
【課題を解決するための手段】
上記目的を達成するために本発明にかかる自動音声応答装置は、音声認識処理を行なって、認識情報を出力する音声認識処理部と、前記認識情報に対応するプロンプトを決定し、前記認識情報と決定した前記プロンプトからプロンプト情報を作成する対話処理部と、前記プロンプト情報に基づいて音声合成処理を行なう音声合成処理部と、一又は複数の単語が音声認識用読み及び音声合成用読みと共に登録されている共通読みデータベースとを少なくとも有し、前記音声認識処理部は、前記共通読みデータベースに登録された単語を認識した場合に、前記認識した単語の音声合成用読みを前記共通読みデータベースの中から特定するための識別子が含まれた前記認識情報を出力し、前記対話処理部は、前記識別子に基づいて、前記認識した単語の音声合成用読みを抽出し、抽出した音声合成用読みが含まれたプロンプト情報を作成することを特徴とする。
【0022】
上記本発明にかかる自動音声応答装置においては、前記音声認識処理部が、前記認識した単語の音声合成用読みを前記共通読みデータベースの中から特定するための識別子が含まれた認識情報を出力する代わりに、前記認識した単語の音声合成用読みを含んだ前記認識情報を出力し、前記対話処理部が、前記認識した単語の音声合成用読みを抽出し、抽出した音声合成用読みが含まれたプロンプト情報を作成する代わりに、前記認識情報に含まれた単語の音声合成用読みを含んだプロンプト情報を作成する態様とすることもできる。
【0023】
また、上記本発明にかかる自動音声応答装置は、前記共通読みデータベースに登録されている音声認識用読みを用いて音声認識用の文法を作成し、前記音声認識用読みに対応する音声合成用読みを前記共通読みデータベースの中から特定するための識別子を前記文法に付加する文法生成部を有し、音声認識処理部が、前記文法生成部が生成した文法を用いることによって、前記認識した単語の音声合成用読みを前記共通読みデータベースの中から特定するための識別子が含まれた前記認識情報を作成する態様とすることもできる。
【0024】
更に、前記共通読みデータベースに登録されている音声認識用読みを用いて音声認識用の文法を作成し、前記音声認識用読みに対応する音声合成用読みを前記文法に付加する文法生成部を有し、音声認識処理部が、前記文法生成部が生成した文法を用いることによって、前記認識した単語の音声合成用読みを含んだ前記認識情報を作成する態様とすることもできる。
【0025】
また、上記本発明にかかる自動音声応答装置においては、前記共通読みデータベースの内容を編集するための編集手段を有しているのが好ましい。
【0026】
次に、上記目的を達成するために本発明にかかる自動音声応答方法は、音声認識処理を行ない、前記音声認識処理によって得られた認識情報に対応するプロンプトを決定し、前記認識情報と決定した前記プロンプトからプロンプト情報を作成し、前記プロンプト情報に基づいて音声合成処理を行なう自動音声応答方法であって、(a)前記音声認識処理において認識された単語が、一又は複数の単語が音声認識用読み及び音声合成用読みと共に登録されている共通読みデータベースに登録された単語である場合に、前記音声認識処理において認識された単語の音声合成用読みを前記共通読みデータベースの中から特定するための識別子が含まれた前記認識情報を出力する工程と、(b)前記識別子に基づいて、前記音声認識処理において認識された単語の音声合成用読みを抽出し、抽出した音声合成用読みが含まれたプロンプト情報を作成する工程とを少なくとも有することを特徴とする。
【0027】
上記本発明にかかる自動音声応答方法においては、前記(a)の工程において、前記音声認識処理において認識された単語の音声合成用読みを前記共通読みデータベースの中から特定するための識別子が含まれた認識情報を出力する代わりに、前記音声認識処理において認識された単語の音声合成用読みを含んだ認識情報を出力し、前記(b)の工程において、前記認識した単語の音声合成用読みを抽出し、抽出した音声合成用読みが含まれたプロンプト情報を作成する代わりに、前記認識情報に含まれた単語の音声合成用読みを含んだプロンプト情報を作成する態様とすることもできる。
【0028】
本発明は、上記の本発明にかかる自動音声応答方法を具現化するためのプログラムであっても良い。このプログラムをコンピュータにインストールして実行することにより、本発明にかかる案内仲介方法を実行できる。
【0029】
このように、上記本発明にかかる自動音声応答装置及び自動音声応答方法においては、音声認識用の文法と、音声合成用の辞書を一本化するテーブル、即ち共通読みデータベースを用意することで、上記問題の解決を図っている。ここで、共通読みデータベースについて説明する。共通読みデータベースの内容の一例を下記の表1に示す。
【0030】
【表1】
【0031】
上記表1に示す共通読みデータベースは、識別番号毎の複数の名称で構成されており、名称i(1≦i≦N)は、テキスト▲1▼、音声認識用読み▲2▼、音声合成用読み▲3▼で構成されている。音声認識用読み▲2▼は、テキスト▲1▼の音声認識用の文法に記載する読みを記述したものである。音声合成用読み▲3▼は、テキスト▲1▼の音声合成用読みを記述したものである。
【0032】
日本語の場合は、音声認識用読み▲2▼はひらがな又はカタカナで記述される。また、音声合成用読み▲3▼は、アクセント記号と共にひらがな又はカタカナで記述される。英語の場合は、音声認識用読み▲2▼は、IPA(International Phonetic Alphabet)等で記述される。また、音声合成用読み▲3▼は、アクセント記号と共にIPAで記述される。
【0033】
また、識別番号1〜3から分るように、共通読みデータベースにおいては、テキスト▲1▼が同じであっても、音声認識用読み▲2▼が異なる場合は、名称を分けて記述される。一方、識別番号3から分るように、音声認識用読み▲2▼は複数登録(例:ぶちょう、ぶっちょう)が可能であるが、音声合成用読み▲3▼は一つ(ブチョー)しか登録できないようになっている。
【0034】
なお、通常は、一つの単語に対して、音声認識用読み▲2▼と音声合成用読み▲3▼との両方が登録される。但し、一般に自動音声応答装置が備えている基本読み辞書に登録されている音声合成用読みと、音声合成用読み▲3▼とが同じである場合は、識別番号1の名称2のように、音声合成用読み▲3▼の欄は空欄として、基本読み辞書に登録された読みが登録されているとみなされる。
【0035】
【発明の実施の形態】
以下、本発明の自動音声応答装置及び自動音声応答方法の一例について、図面を参照しながら説明する。最初に、図1を用いて本発明の自動音声応答装置の構成を説明する。図1は、本発明の自動音声応答装置の一例を示す構成図である。
【0036】
図1に示すように、本発明の自動音声応答装置は、音声認識処理部1、対話処理部2及び音声合成処理部3を有しており、この点で従来の自動音声応答装置と同様である。また、本発明の自動音声応答装置は、音響モデル4、文法情報部5、アプリケーションデータベース6、プロンプトデータベース7、波形辞書9、基本読み辞書8及び言語辞書10を有している点でも、従来の自動音声応答装置と同様である。
【0037】
但し、本発明の自動音声応答装置は、ユーザ読み辞書の代わりに、共通読みデータベース12と、編集手段11と、文法生成部13とを有しており、この点で、従来の自動音声応答装置と異なっている。また、このために、音声認識処理部1及び対話処理部2における処理も、従来の自動音声応答装置と異なっている。
【0038】
共通読みデータベース12は、上記表1で示したように、テキスト、音声認識用読み及び音声合成用読みで構成されている。編集手段11は、共通読みデータベース12の内容を編集するための手段である。自動音声応答装置の管理者は、対話例を想定し、編集手段11を用いて共通読みデータベース12の内容の追加、削除及び修正を行なう。
【0039】
文法生成部13は、共通読みデータベース12に登録された内容に基づいて文法を生成し、これを文法情報部5に登録する。なお、文法生成部13で行なわれる処理については後述の図2で具体的に説明する。
【0040】
次に、本発明の自動音声応答装置における処理及び本発明の自動音声応答方法について、具体的な対話例を挙げて説明する。なお、本発明の自動音声応答方法は、図1に示す自動音声応答装置を動作させることによって実行することができる。また、以下の説明では適宜図1を参照する。
【0041】
対話例は以下の通りである。
[対話例]
自動音声応答装置:「どなたの連絡先ですか? 名前をおっしゃってください。」
ユーザ :「長田(ながた)さん」
自動音声応答装置:「はい、長田(ながた)さんの連絡先は、○○○−△△△△−□□□□です。」
上記の対話例を実現するために、予め、自動音声応答装置の管理者は、編集手段11を用いて、以下の表2に示すテキスト▲1▼、音声認識用読み▲2▼及び音声合成用読み▲3▼を共通読みデータベース12に入力する。
【0042】
【表2】
【0043】
文法生成部13は、表1に示す内容に基づいて、文法を作成し、作成した文法を文法情報部5に登録する。この点について図2を用いて説明する。図2は、本発明の自動音声応答装置を構成する文法生成部における処理の一例を示す図である。
【0044】
図2に示すように、最初に、文法生成部13は、共通読みデータベース12から、名称1〜2及び識別番号1〜3に対応する音声認識用読みを抽出し、エントリ情報を設定する(ステップS1)。
【0045】
エントリ情報は、抽出した音声認識用読みに対応する音声合成用読みを、共通読みデータベースの中から特定するための識別子である。本例では、エントリ情報は、共通読みデータベース12の名前、名称番号及び識別番号を組み合わせて設定している。
【0046】
次に、文法生成部13は、抽出した音声認識用読みを音声認識処理で使用する単語として文法情報部5に登録し、更に、エントリ情報をこの音声認識用の読みが認識された場合のスロット情報(戻り値)として文法情報部5に登録する(ステップS2)。以下の表3に、文法情報部5に登録された単語及びスロット情報の例を示す。
【0047】
【表3】
【0048】
なお、本例では、共通読みデータベース12の名前を「user」と設定している。このため、例えば「(tableno user−1−1)」は、共通読みデータベース「user」における名称1の識別番号1を意味する。
【0049】
このように、本発明においては、共通読みデータベース12に新たに登録された単語について、文法生成部13が文法を生成する。このため、この新たに登録された単語を用いて音声認識処理が行なわれ、上記の対話例が実現される。上記の対話例を実現するために、自動音声応答装置で行なわれる処理について図3を用いて説明する。
【0050】
図3は、本発明の自動音声応答装置における処理の一例を示す図である。図3に示すように、最初に、上記の対話例で挙げた入力音声(ユーザ:「長田(ながた)さん」)が受信されると(ステップS11)、音声認識処理部1は音声認識処理を行ない、以下の表4に示す認識情報を対話処理部2に出力する(ステップS12)。
【0051】
【表4】
【0052】
上記表3から分るように、音声認識処理部1によって認識された単語は「長田(ながた)」であり、これは共通読みデータベース12に登録された単語である。このため、認識情報として出力されるスロット情報は、上記したエントリ情報を含むものとなる。なお、音声認識処理部1によって認識された単語が、共通読みデータベース12に登録されていない単語である場合は、スロット情報として従来と同様の戻り値が出力される。
【0053】
次に、認識情報が入力された対話処理部2は、認識情報に対応するプロンプトを決定する(ステップS13)。具体的には、対話処理部2は、スロット情報「tableno user−1−1」から、ユーザが要求する電話番号の相手方の名前「長田」を取得し、更に、アプリケーションデータベース6を参照して「長田」の電話番号情報を取得する。対話処理部2は、この得られた情報に基づいてプロンプトを決定する。
【0054】
次いで、対話処理部2は、決定したプロンプトに対応するプロンプト文をプロンプトデータベースから抽出する(ステップS14)。なお、本例では、プロンプトデータベース7には雛型となる複数のプロンプト文が登録されており、そこから該当するプロンプト文が抽出されているが、対話処理部2が一から日本語を組み立ててプロンプト文を作成する態様とすることもできる。なお、プロンプトデータベース7から抽出されたばかりのプロンプト文は、「はい、[ユーザ名]の連絡先は、[電話番号]です。」といったものであり、「ユーザ名」や「電話番号」は変数で記述されている。
【0055】
次に、本例ではスロット情報に共通読みデータベース12のエントリ情報が含まれているため、対話処理部2は、スロット情報からエントリ情報を抽出する(ステップS15)。また、対話処理部2は、アプリケーションデータベース26を参照して、プロンプト文の[電話番号]を具体的な値に置き換える。
【0056】
更に、対話処理部2は、抽出したエントリ情報「user−1−1」に基づいて、共通読みデータベース「user」から、名称番号1及び識別番号1として登録された音声合成用読み「ナガタ」を抽出し、これをプロンプト文に追加する(ステップS16)。
【0057】
この場合、プロンプト文は、例えば「はい、長田(発声:ナガタ)の連絡先は、○○○−△△△△−□□□□です。」のようになり、単語の読みが合成音声に対応した読みに置換されたものとなる(合成音声読み置換処理)。このプロンプト文は、プロンプト情報として音声合成処理部3へと出力される。なお、上記プロンプト文における「長田(発声:ナガタ)」の記述は、音声合成エンジンにおける単語の読みの記述方法によって異なるので、使用する音声合成エンジンに対応するように記述すれば良い。
【0058】
その後、音声合成処理部3は、プロンプト情報に基づいて音声合成処理を行ない(ステップS17)、出力音声を送信する(ステップS18)。この結果、ユーザに対して応答がなされたことになる。
【0059】
このように、本発明においては、音声認識用の文法と音声合成用の辞書とを一本化しているため、辞書を二重に管理する必要がなく、共通読みデータベースの管理のみを行なえば良い。また、共通読みデータベースに、例えば「長田(ながた)さん」と「長田(おさだ)さん」との両方を登録しておけば、入力された音声と対応する音声合成用読み▲3▼を特定するエントリ情報に基づいて、対話処理部がプロンプト情報を作成するため、入力音声に忠実に応答を行なうことが可能となる。
【0060】
また、本例においては、エントリ情報を含むスロット情報が認識情報として出力されているが、本発明においては、エントリ情報の代わりに、共通読みデータベース12に登録された音声合成用読みを含むスロット情報を認識情報として出力することもできる。この場合、対話処理部2は、図3に示すステップS16のように共通読みデータベース12にアクセスしなくても、プロンプト文に音声合成用読みを追加することができるので、処理速度の向上を図ることができる。また、この場合、文法生成部13は、図2で示すステップS1において、音声合成用読みを含むスロット情報を設定する。
【0061】
本発明の自動音声応答装置は、コンピュータに、図2に示すステップS1〜S2及び図3に示すS11〜S18を具現化させるプログラムをインストールし、このプログラムを実行することによって、実現することができる。この場合、コンピュータのCPU(central processing unit)によって、音声認識処理部1、対話処理部2、音声合成処理部3及び文法生成部13における処理が行われる。
【0062】
また、本発明では、音響モデル4、文法情報部5、アプリケーションデータベース6、プロンプトデータベース7、基本読み辞書8、波形辞書9、言語辞書10及び共通読みデータベース12は、コンピュータに備えられたハードディスク等の記憶装置に、これらを構成するデータファイルを格納することによって、又はこのデータファイルが格納された記録媒体をコンピュータと接続された読取装置に搭載することによって実現されている。
【0063】
なお、共通読みデータベース12は、データ構造が複雑ではないので、テキストファイルとして記述することが可能である。この場合、編集手段としては、通常のテキストエディタを用いることができる。
【0064】
【発明の効果】
以上のように,本発明によれば、音声合成用の辞書と音声認識用の文法とを一元的に管理することが出来るようになり、管理コストを削減できる。また、ユーザが“長田(ながた)さん”と言えば、“長田(ながた)さん”と応答し、“長田(おさだ)さん”といえば、“長田(おさだ)さん”と応答する、というように、入力された音声に忠実に音声応答を行ないえる自動音声応答装置を提供することができる。
【図面の簡単な説明】
【図1】本発明の自動音声応答装置の一例を示す構成図である。
【図2】本発明の自動音声応答装置を構成する文法生成部における処理の一例を示す図である。
【図3】本発明の自動音声応答装置における処理の一例を示す図である。
【図4】従来の自動音声応答装置の構成を示す図である。
【符号の説明】
1 音声認識処理部
2 対話処理部
3 音声合成処理部
4 音響モデル
5 文法情報部
6 アプリケーションデータベース
7 プロンプトデータベース
8 基本読み辞書
9 波形辞書
10 言語辞書
11 編集手段
12 共通読みデータベース12
13 文法生成部
Claims (9)
- 音声認識処理を行なって、認識情報を出力する音声認識処理部と、前記認識情報に対応するプロンプトを決定し、前記認識情報と決定した前記プロンプトからプロンプト情報を作成する対話処理部と、前記プロンプト情報に基づいて音声合成処理を行なう音声合成処理部と、一又は複数の単語が音声認識用読み及び音声合成用読みと共に登録されている共通読みデータベースとを少なくとも有し、
前記音声認識処理部は、前記共通読みデータベースに登録された単語を認識した場合に、前記認識した単語の音声合成用読みを前記共通読みデータベースの中から特定するための識別子が含まれた前記認識情報を出力し、
前記対話処理部は、前記識別子に基づいて、前記認識した単語の音声合成用読みを抽出し、抽出した音声合成用読みが含まれたプロンプト情報を作成することを特徴とする自動音声応答装置。 - 前記音声認識処理部が、前記認識した単語の音声合成用読みを前記共通読みデータベースの中から特定するための識別子が含まれた認識情報を出力する代わりに、前記認識した単語の音声合成用読みを含んだ前記認識情報を出力し、
前記対話処理部が、前記認識した単語の音声合成用読みを抽出し、抽出した音声合成用読みが含まれたプロンプト情報を作成する代わりに、前記認識情報に含まれた単語の音声合成用読みを含んだプロンプト情報を作成する請求項1記載の自動音声応答装置。 - 前記共通読みデータベースに登録されている音声認識用読みを用いて音声認識用の文法を作成し、前記音声認識用読みに対応する音声合成用読みを前記共通読みデータベースの中から特定するための識別子を前記文法に付加する文法生成部を有し、
音声認識処理部が、前記文法生成部が生成した文法を用いることによって、前記認識した単語の音声合成用読みを前記共通読みデータベースの中から特定するための識別子が含まれた前記認識情報を作成する請求項1記載の自動音声応答装置。 - 前記共通読みデータベースに登録されている音声認識用読みを用いて音声認識用の文法を作成し、前記音声認識用読みに対応する音声合成用読みを前記文法に付加する文法生成部を有し、
音声認識処理部が、前記文法生成部が生成した文法を用いることによって、前記認識した単語の音声合成用読みを含んだ前記認識情報を作成する請求項2記載の自動音声応答装置。 - 前記共通読みデータベースの内容を編集するための編集手段を有している請求項1または2記載の自動音声応答装置。
- 音声認識処理を行ない、前記音声認識処理によって得られた認識情報に対応するプロンプトを決定し、前記認識情報と決定した前記プロンプトからプロンプト情報を作成し、前記プロンプト情報に基づいて音声合成処理を行なう自動音声応答方法であって、
(a)前記音声認識処理において認識された単語が、一又は複数の単語が音声認識用読み及び音声合成用読みと共に登録されている共通読みデータベースに登録された単語である場合に、前記音声認識処理において認識された単語の音声合成用読みを前記共通読みデータベースの中から特定するための識別子が含まれた前記認識情報を出力する工程と、
(b)前記識別子に基づいて、前記音声認識処理において認識された単語の音声合成用読みを抽出し、抽出した音声合成用読みが含まれたプロンプト情報を作成する工程とを少なくとも有することを特徴とする自動音声応答方法。 - 前記(a)の工程において、前記音声認識処理において認識された単語の音声合成用読みを前記共通読みデータベースの中から特定するための識別子が含まれた認識情報を出力する代わりに、前記音声認識処理において認識された単語の音声合成用読みを含んだ認識情報を出力し、
前記(b)の工程において、前記認識した単語の音声合成用読みを抽出し、抽出した音声合成用読みが含まれたプロンプト情報を作成する代わりに、前記認識情報に含まれた単語の音声合成用読みを含んだプロンプト情報を作成する請求項6記載の自動音声応答方法。 - 音声認識処理を行ない、前記音声認識処理によって得られた認識情報に対応するプロンプトを決定し、前記認識情報と決定した前記プロンプトからプロンプト情報を作成し、前記プロンプト情報に基づいて音声合成処理を行なう自動音声応答方法をコンピュータに実行させるためのプログラムであって、
(a)前記音声認識処理において認識された単語が、一又は複数の単語が音声認識用読み及び音声合成用読みと共に登録されている共通読みデータベースに登録された単語である場合に、前記音声認識処理において認識された単語の音声合成用読みを前記共通読みデータベースの中から特定するための識別子が含まれた前記認識情報を出力するステップと、
(b)前記識別子に基づいて、前記音声認識処理において認識された単語の音声合成用読みを抽出し、抽出した音声合成用読みが含まれたプロンプト情報を作成するステップとを少なくとも有することを特徴とするコンピュータに実行させるためのプログラム。 - 前記(a)のステップにおいて、前記音声認識処理において認識された単語の音声合成用読みを前記共通読みデータベースの中から特定するための識別子が含まれた認識情報を出力する代わりに、前記音声認識処理において認識された単語の音声合成用読みを含んだ認識情報を出力し、
前記(b)のステップにおいて、前記認識した単語の音声合成用読みを抽出し、抽出した音声合成用読みが含まれたプロンプト情報を作成する代わりに、前記認識情報に含まれた単語の音声合成用読みを含んだプロンプト情報を作成する請求項8記載のコンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002310066A JP4206253B2 (ja) | 2002-10-24 | 2002-10-24 | 自動音声応答装置及び自動音声応答方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002310066A JP4206253B2 (ja) | 2002-10-24 | 2002-10-24 | 自動音声応答装置及び自動音声応答方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004145014A true JP2004145014A (ja) | 2004-05-20 |
JP4206253B2 JP4206253B2 (ja) | 2009-01-07 |
Family
ID=32455695
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002310066A Expired - Fee Related JP4206253B2 (ja) | 2002-10-24 | 2002-10-24 | 自動音声応答装置及び自動音声応答方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4206253B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009122773A1 (ja) * | 2008-03-31 | 2009-10-08 | 三洋電機株式会社 | 発話装置、発話制御プログラムおよび発話制御方法 |
WO2024096253A1 (ko) * | 2022-11-01 | 2024-05-10 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
-
2002
- 2002-10-24 JP JP2002310066A patent/JP4206253B2/ja not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009122773A1 (ja) * | 2008-03-31 | 2009-10-08 | 三洋電機株式会社 | 発話装置、発話制御プログラムおよび発話制御方法 |
WO2024096253A1 (ko) * | 2022-11-01 | 2024-05-10 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
Also Published As
Publication number | Publication date |
---|---|
JP4206253B2 (ja) | 2009-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9424833B2 (en) | Method and apparatus for providing speech output for speech-enabled applications | |
US8825486B2 (en) | Method and apparatus for generating synthetic speech with contrastive stress | |
US6446041B1 (en) | Method and system for providing audio playback of a multi-source document | |
US6910012B2 (en) | Method and system for speech recognition using phonetically similar word alternatives | |
US7957969B2 (en) | Systems and methods for building a native language phoneme lexicon having native pronunciations of non-native words derived from non-native pronunciatons | |
US7177795B1 (en) | Methods and apparatus for semantic unit based automatic indexing and searching in data archive systems | |
US6801897B2 (en) | Method of providing concise forms of natural commands | |
US8914291B2 (en) | Method and apparatus for generating synthetic speech with contrastive stress | |
KR101130351B1 (ko) | 영숫자 개념용 음성 인식 문법 생성 | |
US9196251B2 (en) | Contextual conversion platform for generating prioritized replacement text for spoken content output | |
JP6806662B2 (ja) | 音声合成システム、統計モデル生成装置、音声合成装置、音声合成方法 | |
El Ouahabi et al. | Toward an automatic speech recognition system for amazigh-tarifit language | |
JP2020060642A (ja) | 音声合成システム、及び音声合成装置 | |
JP2011007862A (ja) | 音声認識装置、音声認識プログラム、および音声認識方法 | |
JP2003162524A (ja) | 言語処理装置 | |
JP4206253B2 (ja) | 自動音声応答装置及び自動音声応答方法 | |
JP3581044B2 (ja) | 音声対話処理方法、音声対話処理システムおよびプログラムを記憶した記憶媒体 | |
US20030216921A1 (en) | Method and system for limited domain text to speech (TTS) processing | |
JP3958908B2 (ja) | 書き起こしテキスト自動生成装置、音声認識装置および記録媒体 | |
US7054813B2 (en) | Automatic generation of efficient grammar for heading selection | |
WO2022196087A1 (ja) | 情報処理装置、情報処理方法、および情報処理プログラム | |
JP2001188556A (ja) | 音声認識方法及び装置 | |
JPS60188995A (ja) | 文章発声方法 | |
JPWO2002067244A1 (ja) | 音声対話のための音声認識方法、音声認識システム及び音声認識プログラム | |
JPS63140329A (ja) | 文章読み上げ方式 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050308 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070724 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070928 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080930 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081020 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111024 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111024 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121024 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121024 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131024 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |