JP2004145014A - 自動音声応答装置及び自動音声応答方法 - Google Patents

自動音声応答装置及び自動音声応答方法 Download PDF

Info

Publication number
JP2004145014A
JP2004145014A JP2002310066A JP2002310066A JP2004145014A JP 2004145014 A JP2004145014 A JP 2004145014A JP 2002310066 A JP2002310066 A JP 2002310066A JP 2002310066 A JP2002310066 A JP 2002310066A JP 2004145014 A JP2004145014 A JP 2004145014A
Authority
JP
Japan
Prior art keywords
reading
recognition
voice
speech
speech synthesis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002310066A
Other languages
English (en)
Other versions
JP4206253B2 (ja
Inventor
Kiyouko Okuyama
奥山 鏡子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2002310066A priority Critical patent/JP4206253B2/ja
Publication of JP2004145014A publication Critical patent/JP2004145014A/ja
Application granted granted Critical
Publication of JP4206253B2 publication Critical patent/JP4206253B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

【課題】文法と辞書の管理を容易に行なうことができ、且つ、入力された音声に忠実に応答を行ない得る自動音声応答装置及び自動音声応答方法を提供することにある。
【解決手段】音声認識処理部1、プロンプト情報を作成する対話処理部2、音声合成処理を行なう音声合成処理部3及び複数の単語が音声認識用読み及び音声合成用読みと共に登録されている共通読みデータベース12とで自動音声応答装置を構成する。音声認識処理部1に、共通読みデータベース12に登録された単語の音声合成用読みを特定するための識別子が含まれた認識情報を作成させる。対話処理部2に、識別子に基づいて、認識した単語の音声合成用読みを抽出させ、抽出した音声合成用読みが含まれたプロンプト情報を作成させる。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
本発明は、音声認識処理と音声合成処理とを行なって、入力された音声に自動で応答を行なう自動音声応答装置、及び自動音声応答方法に関する。
【0002】
【従来の技術】
近年、音声認識技術や音声合成技術の発達により、利用者からの音声に自動で応答する自動音声応答装置が実用化されている(例えば特許文献1参照)。自動音声応答装置は、音声ポータルやカーナビゲーションシステムといった自動応答サービスが必要とされる種々の分野で利用されている。
【0003】
図4は、従来の自動音声応答装置の構成を示す図である。図4に示すように、自動音声応答装置は、主に、音声認識処理部21と、対話処理部22と、音声合成処理部23とで構成されている。
【0004】
音声認識処理部21は、音声が入力されると、音響情報を保持する音響モデル24と文法情報部25とを利用して音声認識処理を行なう。また、音声認識処理部21は、認識した単語とこれに対応するスロット情報とを認識情報として、対話処理部22に出力する。なお、音響モデル24と文法情報部25とを利用した音声認識処理は、音声認識処理の一例であるが、近年最も利用されている。
【0005】
音響モデル24は、ある音声がいずれの文字に対応するかを決定するために参照される音響情報が登録されたデータベースである。文法情報部25は、音声認識用の文法を登録した文法辞書であり、ユーザが発声すると予想される単語又は単語列を登録している。単語列が登録されている場合は、文法情報部25には、単語の順番情報が状態遷移情報として更に登録される。
【0006】
また、文法情報部25には、単語毎に設定されたスロット情報が登録されている。スロット情報は、ある単語が発声された場合に音声認識の結果として返される戻り値であり、後述するアプリケーションデータベース26の識別子として利用される。
【0007】
対話処理部22は、スロット情報が入力されると、音声認識処理部21の識別結果に応じたプロンプトを決定し、プロンプトデータベース27から、決定されたプロンプトに対応するプロンプ文を抽出する。更に、対話処理部22は、アプリケーションデータベース26を参照して、このプロンプト文に含まれる変数を認識結果に対応する具体的な値に置き換える。プロンプト文はテキストデータであり、音声合成処理部23に入力される。
【0008】
音声合成処理部23は、ユーザ読み辞書28、基本読み辞書29、波形辞書30及び言語辞書31を備えている。音声合成処理部23は、プロンプト文が入力されると、出力音声を作成する。具体的には、音声合成処理部23は、言語辞書31を用いてプロンプト文を形態素解析し、基本読み辞書29及びユーザ読み辞書28を参照してプロンプト文に抑揚情報やポーズ情報、アクセント情報を付与し、更に、波形辞書に登録されている音声データを抽出して出力音声を作成する。
【0009】
なお、基本読み辞書29及びユーザ読み辞書28には、下記の表5に示すように、テキスト(主に単語)、それに対応するアクセント記号付きの発音、及び品詞情報が格納されている。
【0010】
【表5】
Figure 2004145014
【0011】
なお、基本読み辞書は29、一般的なテキスト(主に単語)が登録された辞書であり、音声合成の開発者から予め提供される。また、ユーザ読み辞書28は、基本読み辞書に登録されていないテキストが登録された辞書であり、ユーザが個別な事情に対応して作成する。通常、音声合成処理部23は、ユーザ読み辞書28を、基本読み辞書29よりも優先して参照する。
【0012】
【特許文献1】
特開2000−242289号公報
【0013】
【発明が解決しようとする課題】
しかしながら、上記図4で示す自動音声応答装置を用いた自動応答サービスでは、入力された音声を認識し、これを音声出力するためには、音声認識用の文法情報部25と音声合成用の基本読み辞書29又はユーザ読み辞書28とに、認識させたい音声を登録する必要がある。
【0014】
例えば、「富士通研(フジツウケン)」を音声認識させたい場合、音声認識用の文法情報部25に、読みである単語「フジツウケン」を登録し、更に、ユーザ読み辞書28に、文字「富士通研」と読み「フジツーケン」とを登録する必要がある。なお、基本読み辞書29に、「富士通研」が既に登録されている場合は、ユーザ読み辞書28に登録する必要はないと考えられるが、音声合成処理部23による音声出力の正確さを高める点からは、ユーザ読み辞書28にも登録する必要がある。
【0015】
このように、上記図4で示す自動音声応答装置を用いて自動応答サービスを行なう場合は、運用管理上、辞書を二重に管理しなければならないという問題がある。
【0016】
また、上記図4で示す自動音声応答装置を用いた自動応答サービスでは、漢字の読み間違えの問題もある。例えば、人名の「長田さん」は、「ナガタさん」、「オサダさん」の二通りの読み方があるが、上記図4で示す自動音声応答装置では、その構成上、一つの漢字に対して一つの読みしか、基本読み辞書28又はユーザ読み辞書29に登録できないこととなっている。また、基本読み辞書28とユーザ読み辞書29それぞれに違う読みを登録しても、ユーザ読み辞書が優先されてしまう。
【0017】
このため、ユーザが「長田(ナガタ)さん」と発声し、音声認識処理部21で「ナガタさん」と認識されても、ユーザ読み辞書28に「長田さん(オサダさん)と登録されていれば、音声合成処理部23で「オサダさん」と出力されてしまう。
【0018】
また、上記図4で示す自動音声応答装置では、音声認識処理部21と音声合成処理部23との間では直接情報のやり取りは行なわれておらず、これらの間には対話処理部22が介在している。
【0019】
このため、ユーザが「長田(ナガタ)さん」と発声し、音声認識処理で「ナガタさん」と認識されても、対話処理部22が、アプリケーションデータベース26を参照してプロンプト文に含まれる変数を置き換える際に、「長田さん」と置き換えてしまうと、「オサダさん」と出力される場合がある。
【0020】
本発明の目的は、文法と辞書の管理を容易に行なうことができ、且つ、入力された音声に忠実に音声応答を行ない得る自動音声応答装置及び自動音声応答方法を提供することにある。
【0021】
【課題を解決するための手段】
上記目的を達成するために本発明にかかる自動音声応答装置は、音声認識処理を行なって、認識情報を出力する音声認識処理部と、前記認識情報に対応するプロンプトを決定し、前記認識情報と決定した前記プロンプトからプロンプト情報を作成する対話処理部と、前記プロンプト情報に基づいて音声合成処理を行なう音声合成処理部と、一又は複数の単語が音声認識用読み及び音声合成用読みと共に登録されている共通読みデータベースとを少なくとも有し、前記音声認識処理部は、前記共通読みデータベースに登録された単語を認識した場合に、前記認識した単語の音声合成用読みを前記共通読みデータベースの中から特定するための識別子が含まれた前記認識情報を出力し、前記対話処理部は、前記識別子に基づいて、前記認識した単語の音声合成用読みを抽出し、抽出した音声合成用読みが含まれたプロンプト情報を作成することを特徴とする。
【0022】
上記本発明にかかる自動音声応答装置においては、前記音声認識処理部が、前記認識した単語の音声合成用読みを前記共通読みデータベースの中から特定するための識別子が含まれた認識情報を出力する代わりに、前記認識した単語の音声合成用読みを含んだ前記認識情報を出力し、前記対話処理部が、前記認識した単語の音声合成用読みを抽出し、抽出した音声合成用読みが含まれたプロンプト情報を作成する代わりに、前記認識情報に含まれた単語の音声合成用読みを含んだプロンプト情報を作成する態様とすることもできる。
【0023】
また、上記本発明にかかる自動音声応答装置は、前記共通読みデータベースに登録されている音声認識用読みを用いて音声認識用の文法を作成し、前記音声認識用読みに対応する音声合成用読みを前記共通読みデータベースの中から特定するための識別子を前記文法に付加する文法生成部を有し、音声認識処理部が、前記文法生成部が生成した文法を用いることによって、前記認識した単語の音声合成用読みを前記共通読みデータベースの中から特定するための識別子が含まれた前記認識情報を作成する態様とすることもできる。
【0024】
更に、前記共通読みデータベースに登録されている音声認識用読みを用いて音声認識用の文法を作成し、前記音声認識用読みに対応する音声合成用読みを前記文法に付加する文法生成部を有し、音声認識処理部が、前記文法生成部が生成した文法を用いることによって、前記認識した単語の音声合成用読みを含んだ前記認識情報を作成する態様とすることもできる。
【0025】
また、上記本発明にかかる自動音声応答装置においては、前記共通読みデータベースの内容を編集するための編集手段を有しているのが好ましい。
【0026】
次に、上記目的を達成するために本発明にかかる自動音声応答方法は、音声認識処理を行ない、前記音声認識処理によって得られた認識情報に対応するプロンプトを決定し、前記認識情報と決定した前記プロンプトからプロンプト情報を作成し、前記プロンプト情報に基づいて音声合成処理を行なう自動音声応答方法であって、(a)前記音声認識処理において認識された単語が、一又は複数の単語が音声認識用読み及び音声合成用読みと共に登録されている共通読みデータベースに登録された単語である場合に、前記音声認識処理において認識された単語の音声合成用読みを前記共通読みデータベースの中から特定するための識別子が含まれた前記認識情報を出力する工程と、(b)前記識別子に基づいて、前記音声認識処理において認識された単語の音声合成用読みを抽出し、抽出した音声合成用読みが含まれたプロンプト情報を作成する工程とを少なくとも有することを特徴とする。
【0027】
上記本発明にかかる自動音声応答方法においては、前記(a)の工程において、前記音声認識処理において認識された単語の音声合成用読みを前記共通読みデータベースの中から特定するための識別子が含まれた認識情報を出力する代わりに、前記音声認識処理において認識された単語の音声合成用読みを含んだ認識情報を出力し、前記(b)の工程において、前記認識した単語の音声合成用読みを抽出し、抽出した音声合成用読みが含まれたプロンプト情報を作成する代わりに、前記認識情報に含まれた単語の音声合成用読みを含んだプロンプト情報を作成する態様とすることもできる。
【0028】
本発明は、上記の本発明にかかる自動音声応答方法を具現化するためのプログラムであっても良い。このプログラムをコンピュータにインストールして実行することにより、本発明にかかる案内仲介方法を実行できる。
【0029】
このように、上記本発明にかかる自動音声応答装置及び自動音声応答方法においては、音声認識用の文法と、音声合成用の辞書を一本化するテーブル、即ち共通読みデータベースを用意することで、上記問題の解決を図っている。ここで、共通読みデータベースについて説明する。共通読みデータベースの内容の一例を下記の表1に示す。
【0030】
【表1】
Figure 2004145014
【0031】
上記表1に示す共通読みデータベースは、識別番号毎の複数の名称で構成されており、名称i(1≦i≦N)は、テキスト▲1▼、音声認識用読み▲2▼、音声合成用読み▲3▼で構成されている。音声認識用読み▲2▼は、テキスト▲1▼の音声認識用の文法に記載する読みを記述したものである。音声合成用読み▲3▼は、テキスト▲1▼の音声合成用読みを記述したものである。
【0032】
日本語の場合は、音声認識用読み▲2▼はひらがな又はカタカナで記述される。また、音声合成用読み▲3▼は、アクセント記号と共にひらがな又はカタカナで記述される。英語の場合は、音声認識用読み▲2▼は、IPA(International Phonetic Alphabet)等で記述される。また、音声合成用読み▲3▼は、アクセント記号と共にIPAで記述される。
【0033】
また、識別番号1〜3から分るように、共通読みデータベースにおいては、テキスト▲1▼が同じであっても、音声認識用読み▲2▼が異なる場合は、名称を分けて記述される。一方、識別番号3から分るように、音声認識用読み▲2▼は複数登録(例:ぶちょう、ぶっちょう)が可能であるが、音声合成用読み▲3▼は一つ(ブチョー)しか登録できないようになっている。
【0034】
なお、通常は、一つの単語に対して、音声認識用読み▲2▼と音声合成用読み▲3▼との両方が登録される。但し、一般に自動音声応答装置が備えている基本読み辞書に登録されている音声合成用読みと、音声合成用読み▲3▼とが同じである場合は、識別番号1の名称2のように、音声合成用読み▲3▼の欄は空欄として、基本読み辞書に登録された読みが登録されているとみなされる。
【0035】
【発明の実施の形態】
以下、本発明の自動音声応答装置及び自動音声応答方法の一例について、図面を参照しながら説明する。最初に、図1を用いて本発明の自動音声応答装置の構成を説明する。図1は、本発明の自動音声応答装置の一例を示す構成図である。
【0036】
図1に示すように、本発明の自動音声応答装置は、音声認識処理部1、対話処理部2及び音声合成処理部3を有しており、この点で従来の自動音声応答装置と同様である。また、本発明の自動音声応答装置は、音響モデル4、文法情報部5、アプリケーションデータベース6、プロンプトデータベース7、波形辞書9、基本読み辞書8及び言語辞書10を有している点でも、従来の自動音声応答装置と同様である。
【0037】
但し、本発明の自動音声応答装置は、ユーザ読み辞書の代わりに、共通読みデータベース12と、編集手段11と、文法生成部13とを有しており、この点で、従来の自動音声応答装置と異なっている。また、このために、音声認識処理部1及び対話処理部2における処理も、従来の自動音声応答装置と異なっている。
【0038】
共通読みデータベース12は、上記表1で示したように、テキスト、音声認識用読み及び音声合成用読みで構成されている。編集手段11は、共通読みデータベース12の内容を編集するための手段である。自動音声応答装置の管理者は、対話例を想定し、編集手段11を用いて共通読みデータベース12の内容の追加、削除及び修正を行なう。
【0039】
文法生成部13は、共通読みデータベース12に登録された内容に基づいて文法を生成し、これを文法情報部5に登録する。なお、文法生成部13で行なわれる処理については後述の図2で具体的に説明する。
【0040】
次に、本発明の自動音声応答装置における処理及び本発明の自動音声応答方法について、具体的な対話例を挙げて説明する。なお、本発明の自動音声応答方法は、図1に示す自動音声応答装置を動作させることによって実行することができる。また、以下の説明では適宜図1を参照する。
【0041】
対話例は以下の通りである。
[対話例]
自動音声応答装置:「どなたの連絡先ですか? 名前をおっしゃってください。」
ユーザ     :「長田(ながた)さん」
自動音声応答装置:「はい、長田(ながた)さんの連絡先は、○○○−△△△△−□□□□です。」
上記の対話例を実現するために、予め、自動音声応答装置の管理者は、編集手段11を用いて、以下の表2に示すテキスト▲1▼、音声認識用読み▲2▼及び音声合成用読み▲3▼を共通読みデータベース12に入力する。
【0042】
【表2】
Figure 2004145014
【0043】
文法生成部13は、表1に示す内容に基づいて、文法を作成し、作成した文法を文法情報部5に登録する。この点について図2を用いて説明する。図2は、本発明の自動音声応答装置を構成する文法生成部における処理の一例を示す図である。
【0044】
図2に示すように、最初に、文法生成部13は、共通読みデータベース12から、名称1〜2及び識別番号1〜3に対応する音声認識用読みを抽出し、エントリ情報を設定する(ステップS1)。
【0045】
エントリ情報は、抽出した音声認識用読みに対応する音声合成用読みを、共通読みデータベースの中から特定するための識別子である。本例では、エントリ情報は、共通読みデータベース12の名前、名称番号及び識別番号を組み合わせて設定している。
【0046】
次に、文法生成部13は、抽出した音声認識用読みを音声認識処理で使用する単語として文法情報部5に登録し、更に、エントリ情報をこの音声認識用の読みが認識された場合のスロット情報(戻り値)として文法情報部5に登録する(ステップS2)。以下の表3に、文法情報部5に登録された単語及びスロット情報の例を示す。
【0047】
【表3】
Figure 2004145014
【0048】
なお、本例では、共通読みデータベース12の名前を「user」と設定している。このため、例えば「(tableno  user−1−1)」は、共通読みデータベース「user」における名称1の識別番号1を意味する。
【0049】
このように、本発明においては、共通読みデータベース12に新たに登録された単語について、文法生成部13が文法を生成する。このため、この新たに登録された単語を用いて音声認識処理が行なわれ、上記の対話例が実現される。上記の対話例を実現するために、自動音声応答装置で行なわれる処理について図3を用いて説明する。
【0050】
図3は、本発明の自動音声応答装置における処理の一例を示す図である。図3に示すように、最初に、上記の対話例で挙げた入力音声(ユーザ:「長田(ながた)さん」)が受信されると(ステップS11)、音声認識処理部1は音声認識処理を行ない、以下の表4に示す認識情報を対話処理部2に出力する(ステップS12)。
【0051】
【表4】
Figure 2004145014
【0052】
上記表3から分るように、音声認識処理部1によって認識された単語は「長田(ながた)」であり、これは共通読みデータベース12に登録された単語である。このため、認識情報として出力されるスロット情報は、上記したエントリ情報を含むものとなる。なお、音声認識処理部1によって認識された単語が、共通読みデータベース12に登録されていない単語である場合は、スロット情報として従来と同様の戻り値が出力される。
【0053】
次に、認識情報が入力された対話処理部2は、認識情報に対応するプロンプトを決定する(ステップS13)。具体的には、対話処理部2は、スロット情報「tableno  user−1−1」から、ユーザが要求する電話番号の相手方の名前「長田」を取得し、更に、アプリケーションデータベース6を参照して「長田」の電話番号情報を取得する。対話処理部2は、この得られた情報に基づいてプロンプトを決定する。
【0054】
次いで、対話処理部2は、決定したプロンプトに対応するプロンプト文をプロンプトデータベースから抽出する(ステップS14)。なお、本例では、プロンプトデータベース7には雛型となる複数のプロンプト文が登録されており、そこから該当するプロンプト文が抽出されているが、対話処理部2が一から日本語を組み立ててプロンプト文を作成する態様とすることもできる。なお、プロンプトデータベース7から抽出されたばかりのプロンプト文は、「はい、[ユーザ名]の連絡先は、[電話番号]です。」といったものであり、「ユーザ名」や「電話番号」は変数で記述されている。
【0055】
次に、本例ではスロット情報に共通読みデータベース12のエントリ情報が含まれているため、対話処理部2は、スロット情報からエントリ情報を抽出する(ステップS15)。また、対話処理部2は、アプリケーションデータベース26を参照して、プロンプト文の[電話番号]を具体的な値に置き換える。
【0056】
更に、対話処理部2は、抽出したエントリ情報「user−1−1」に基づいて、共通読みデータベース「user」から、名称番号1及び識別番号1として登録された音声合成用読み「ナガタ」を抽出し、これをプロンプト文に追加する(ステップS16)。
【0057】
この場合、プロンプト文は、例えば「はい、長田(発声:ナガタ)の連絡先は、○○○−△△△△−□□□□です。」のようになり、単語の読みが合成音声に対応した読みに置換されたものとなる(合成音声読み置換処理)。このプロンプト文は、プロンプト情報として音声合成処理部3へと出力される。なお、上記プロンプト文における「長田(発声:ナガタ)」の記述は、音声合成エンジンにおける単語の読みの記述方法によって異なるので、使用する音声合成エンジンに対応するように記述すれば良い。
【0058】
その後、音声合成処理部3は、プロンプト情報に基づいて音声合成処理を行ない(ステップS17)、出力音声を送信する(ステップS18)。この結果、ユーザに対して応答がなされたことになる。
【0059】
このように、本発明においては、音声認識用の文法と音声合成用の辞書とを一本化しているため、辞書を二重に管理する必要がなく、共通読みデータベースの管理のみを行なえば良い。また、共通読みデータベースに、例えば「長田(ながた)さん」と「長田(おさだ)さん」との両方を登録しておけば、入力された音声と対応する音声合成用読み▲3▼を特定するエントリ情報に基づいて、対話処理部がプロンプト情報を作成するため、入力音声に忠実に応答を行なうことが可能となる。
【0060】
また、本例においては、エントリ情報を含むスロット情報が認識情報として出力されているが、本発明においては、エントリ情報の代わりに、共通読みデータベース12に登録された音声合成用読みを含むスロット情報を認識情報として出力することもできる。この場合、対話処理部2は、図3に示すステップS16のように共通読みデータベース12にアクセスしなくても、プロンプト文に音声合成用読みを追加することができるので、処理速度の向上を図ることができる。また、この場合、文法生成部13は、図2で示すステップS1において、音声合成用読みを含むスロット情報を設定する。
【0061】
本発明の自動音声応答装置は、コンピュータに、図2に示すステップS1〜S2及び図3に示すS11〜S18を具現化させるプログラムをインストールし、このプログラムを実行することによって、実現することができる。この場合、コンピュータのCPU(central  processing  unit)によって、音声認識処理部1、対話処理部2、音声合成処理部3及び文法生成部13における処理が行われる。
【0062】
また、本発明では、音響モデル4、文法情報部5、アプリケーションデータベース6、プロンプトデータベース7、基本読み辞書8、波形辞書9、言語辞書10及び共通読みデータベース12は、コンピュータに備えられたハードディスク等の記憶装置に、これらを構成するデータファイルを格納することによって、又はこのデータファイルが格納された記録媒体をコンピュータと接続された読取装置に搭載することによって実現されている。
【0063】
なお、共通読みデータベース12は、データ構造が複雑ではないので、テキストファイルとして記述することが可能である。この場合、編集手段としては、通常のテキストエディタを用いることができる。
【0064】
【発明の効果】
以上のように,本発明によれば、音声合成用の辞書と音声認識用の文法とを一元的に管理することが出来るようになり、管理コストを削減できる。また、ユーザが“長田(ながた)さん”と言えば、“長田(ながた)さん”と応答し、“長田(おさだ)さん”といえば、“長田(おさだ)さん”と応答する、というように、入力された音声に忠実に音声応答を行ないえる自動音声応答装置を提供することができる。
【図面の簡単な説明】
【図1】本発明の自動音声応答装置の一例を示す構成図である。
【図2】本発明の自動音声応答装置を構成する文法生成部における処理の一例を示す図である。
【図3】本発明の自動音声応答装置における処理の一例を示す図である。
【図4】従来の自動音声応答装置の構成を示す図である。
【符号の説明】
1 音声認識処理部
2 対話処理部
3 音声合成処理部
4 音響モデル
5 文法情報部
6 アプリケーションデータベース
7 プロンプトデータベース
8 基本読み辞書
9 波形辞書
10 言語辞書
11 編集手段
12 共通読みデータベース12
13 文法生成部

Claims (9)

  1. 音声認識処理を行なって、認識情報を出力する音声認識処理部と、前記認識情報に対応するプロンプトを決定し、前記認識情報と決定した前記プロンプトからプロンプト情報を作成する対話処理部と、前記プロンプト情報に基づいて音声合成処理を行なう音声合成処理部と、一又は複数の単語が音声認識用読み及び音声合成用読みと共に登録されている共通読みデータベースとを少なくとも有し、
    前記音声認識処理部は、前記共通読みデータベースに登録された単語を認識した場合に、前記認識した単語の音声合成用読みを前記共通読みデータベースの中から特定するための識別子が含まれた前記認識情報を出力し、
    前記対話処理部は、前記識別子に基づいて、前記認識した単語の音声合成用読みを抽出し、抽出した音声合成用読みが含まれたプロンプト情報を作成することを特徴とする自動音声応答装置。
  2. 前記音声認識処理部が、前記認識した単語の音声合成用読みを前記共通読みデータベースの中から特定するための識別子が含まれた認識情報を出力する代わりに、前記認識した単語の音声合成用読みを含んだ前記認識情報を出力し、
    前記対話処理部が、前記認識した単語の音声合成用読みを抽出し、抽出した音声合成用読みが含まれたプロンプト情報を作成する代わりに、前記認識情報に含まれた単語の音声合成用読みを含んだプロンプト情報を作成する請求項1記載の自動音声応答装置。
  3. 前記共通読みデータベースに登録されている音声認識用読みを用いて音声認識用の文法を作成し、前記音声認識用読みに対応する音声合成用読みを前記共通読みデータベースの中から特定するための識別子を前記文法に付加する文法生成部を有し、
    音声認識処理部が、前記文法生成部が生成した文法を用いることによって、前記認識した単語の音声合成用読みを前記共通読みデータベースの中から特定するための識別子が含まれた前記認識情報を作成する請求項1記載の自動音声応答装置。
  4. 前記共通読みデータベースに登録されている音声認識用読みを用いて音声認識用の文法を作成し、前記音声認識用読みに対応する音声合成用読みを前記文法に付加する文法生成部を有し、
    音声認識処理部が、前記文法生成部が生成した文法を用いることによって、前記認識した単語の音声合成用読みを含んだ前記認識情報を作成する請求項2記載の自動音声応答装置。
  5. 前記共通読みデータベースの内容を編集するための編集手段を有している請求項1または2記載の自動音声応答装置。
  6. 音声認識処理を行ない、前記音声認識処理によって得られた認識情報に対応するプロンプトを決定し、前記認識情報と決定した前記プロンプトからプロンプト情報を作成し、前記プロンプト情報に基づいて音声合成処理を行なう自動音声応答方法であって、
    (a)前記音声認識処理において認識された単語が、一又は複数の単語が音声認識用読み及び音声合成用読みと共に登録されている共通読みデータベースに登録された単語である場合に、前記音声認識処理において認識された単語の音声合成用読みを前記共通読みデータベースの中から特定するための識別子が含まれた前記認識情報を出力する工程と、
    (b)前記識別子に基づいて、前記音声認識処理において認識された単語の音声合成用読みを抽出し、抽出した音声合成用読みが含まれたプロンプト情報を作成する工程とを少なくとも有することを特徴とする自動音声応答方法。
  7. 前記(a)の工程において、前記音声認識処理において認識された単語の音声合成用読みを前記共通読みデータベースの中から特定するための識別子が含まれた認識情報を出力する代わりに、前記音声認識処理において認識された単語の音声合成用読みを含んだ認識情報を出力し、
    前記(b)の工程において、前記認識した単語の音声合成用読みを抽出し、抽出した音声合成用読みが含まれたプロンプト情報を作成する代わりに、前記認識情報に含まれた単語の音声合成用読みを含んだプロンプト情報を作成する請求項6記載の自動音声応答方法。
  8. 音声認識処理を行ない、前記音声認識処理によって得られた認識情報に対応するプロンプトを決定し、前記認識情報と決定した前記プロンプトからプロンプト情報を作成し、前記プロンプト情報に基づいて音声合成処理を行なう自動音声応答方法をコンピュータに実行させるためのプログラムであって、
    (a)前記音声認識処理において認識された単語が、一又は複数の単語が音声認識用読み及び音声合成用読みと共に登録されている共通読みデータベースに登録された単語である場合に、前記音声認識処理において認識された単語の音声合成用読みを前記共通読みデータベースの中から特定するための識別子が含まれた前記認識情報を出力するステップと、
    (b)前記識別子に基づいて、前記音声認識処理において認識された単語の音声合成用読みを抽出し、抽出した音声合成用読みが含まれたプロンプト情報を作成するステップとを少なくとも有することを特徴とするコンピュータに実行させるためのプログラム。
  9. 前記(a)のステップにおいて、前記音声認識処理において認識された単語の音声合成用読みを前記共通読みデータベースの中から特定するための識別子が含まれた認識情報を出力する代わりに、前記音声認識処理において認識された単語の音声合成用読みを含んだ認識情報を出力し、
    前記(b)のステップにおいて、前記認識した単語の音声合成用読みを抽出し、抽出した音声合成用読みが含まれたプロンプト情報を作成する代わりに、前記認識情報に含まれた単語の音声合成用読みを含んだプロンプト情報を作成する請求項8記載のコンピュータに実行させるためのプログラム。
JP2002310066A 2002-10-24 2002-10-24 自動音声応答装置及び自動音声応答方法 Expired - Fee Related JP4206253B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002310066A JP4206253B2 (ja) 2002-10-24 2002-10-24 自動音声応答装置及び自動音声応答方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002310066A JP4206253B2 (ja) 2002-10-24 2002-10-24 自動音声応答装置及び自動音声応答方法

Publications (2)

Publication Number Publication Date
JP2004145014A true JP2004145014A (ja) 2004-05-20
JP4206253B2 JP4206253B2 (ja) 2009-01-07

Family

ID=32455695

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002310066A Expired - Fee Related JP4206253B2 (ja) 2002-10-24 2002-10-24 自動音声応答装置及び自動音声応答方法

Country Status (1)

Country Link
JP (1) JP4206253B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009122773A1 (ja) * 2008-03-31 2009-10-08 三洋電機株式会社 発話装置、発話制御プログラムおよび発話制御方法
WO2024096253A1 (ko) * 2022-11-01 2024-05-10 삼성전자주식회사 전자 장치 및 그 제어 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009122773A1 (ja) * 2008-03-31 2009-10-08 三洋電機株式会社 発話装置、発話制御プログラムおよび発話制御方法
WO2024096253A1 (ko) * 2022-11-01 2024-05-10 삼성전자주식회사 전자 장치 및 그 제어 방법

Also Published As

Publication number Publication date
JP4206253B2 (ja) 2009-01-07

Similar Documents

Publication Publication Date Title
US9424833B2 (en) Method and apparatus for providing speech output for speech-enabled applications
US8825486B2 (en) Method and apparatus for generating synthetic speech with contrastive stress
US6446041B1 (en) Method and system for providing audio playback of a multi-source document
US6910012B2 (en) Method and system for speech recognition using phonetically similar word alternatives
US7957969B2 (en) Systems and methods for building a native language phoneme lexicon having native pronunciations of non-native words derived from non-native pronunciatons
US7177795B1 (en) Methods and apparatus for semantic unit based automatic indexing and searching in data archive systems
US6801897B2 (en) Method of providing concise forms of natural commands
US8914291B2 (en) Method and apparatus for generating synthetic speech with contrastive stress
KR101130351B1 (ko) 영숫자 개념용 음성 인식 문법 생성
US9196251B2 (en) Contextual conversion platform for generating prioritized replacement text for spoken content output
JP6806662B2 (ja) 音声合成システム、統計モデル生成装置、音声合成装置、音声合成方法
El Ouahabi et al. Toward an automatic speech recognition system for amazigh-tarifit language
JP2020060642A (ja) 音声合成システム、及び音声合成装置
JP2011007862A (ja) 音声認識装置、音声認識プログラム、および音声認識方法
JP2003162524A (ja) 言語処理装置
JP4206253B2 (ja) 自動音声応答装置及び自動音声応答方法
JP3581044B2 (ja) 音声対話処理方法、音声対話処理システムおよびプログラムを記憶した記憶媒体
US20030216921A1 (en) Method and system for limited domain text to speech (TTS) processing
JP3958908B2 (ja) 書き起こしテキスト自動生成装置、音声認識装置および記録媒体
US7054813B2 (en) Automatic generation of efficient grammar for heading selection
WO2022196087A1 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
JP2001188556A (ja) 音声認識方法及び装置
JPS60188995A (ja) 文章発声方法
JPWO2002067244A1 (ja) 音声対話のための音声認識方法、音声認識システム及び音声認識プログラム
JPS63140329A (ja) 文章読み上げ方式

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080930

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081020

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111024

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111024

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121024

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121024

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131024

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees