JP3278222B2 - 情報処理方法及び装置 - Google Patents
情報処理方法及び装置Info
- Publication number
- JP3278222B2 JP3278222B2 JP00421293A JP421293A JP3278222B2 JP 3278222 B2 JP3278222 B2 JP 3278222B2 JP 00421293 A JP00421293 A JP 00421293A JP 421293 A JP421293 A JP 421293A JP 3278222 B2 JP3278222 B2 JP 3278222B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- voice
- recognition
- conversation
- grammar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Description
り利用者と対話を行う情報処理方法及び装置に関するも
のである。
の中で最も自然に使われるのが音声である。一方、計算
機の飛躍的な進歩により、計算機は数値計算のみならず
様々な情報を扱えるように進歩してきている。そこで、
音声を人間と計算機の情報交換手段として用いたいとい
う要求がある。
して音声認識を行うための情報が動的に変更されること
がない、または、変更があっても予め、ある対話の流れ
に従った変更のみが行われており、予め登録した単語や
文を用いてしか用いることができず、自然な音声による
検索ができなかった。
より行われていた。
索装置には、予め登録した単語や文を用いてしか、音声
による検索ができないという問題点があった。また、あ
る対話の状態においては、ある決められた予め登録した
対話内容しか認識できないため、自然な対話を順次行う
ことができないという問題点も生じていた。このため、
データベース上のあらゆる検索項目が自然に検索できな
かった問題が生じていた。
対話のどこでも発生できる入力が存在する。例えば、旅
の情報検索の対話においては、「どんな項目が聞けます
か?」等のメタ質問や、「東京にあるゴルフ場を知りた
い。」等の非常にグローバルな質問がある。一方、対話
が進むに連れて、詳細な内容に関わる質問、例えば、
「箱根の湯本温泉の電話番号を知りたい。」とか「群馬
県吉井町の温泉の住所は?」である。この対話のどこで
も発声できる入力を受け付け音声認識するための静的な
音声認識情報と、対話が進むに連れて動的に変わってい
く入力を受け付け音声認識情報を一度に扱うことによ
り、認識装置の巨大化や認識性能の低化、制御の複雑化
が問題となっている。
認識ができなかった言語がある場合、対話が進行しない
という問題があった。
に、本発明は、音声を入力し、前記入力された音声を音
声認識用の辞書及び文法を用いて認識し、前記認識結果
に従って情報を検索し、前記検索結果に従って次発話を
予測し、該予測結果に従って、単語辞書及び単語辞書に
関連する文法情報からなる単語文法情報を取得し、次発
話に備えることを特徴とする情報処理方法を提供する。
手段と、前記音声入力手段により入力された音声を音声
認識用の辞書及び文法を用いて認識する音声認識手段
と、前記音声認識手段による認識結果に従って情報を検
索する検索手段と、前記検索手段の検索結果に従って次
発話を予測する予測手段と、前記予測手段による予測結
果に従って、単語辞書及び該単語辞書に関連する文法情
報からなる単語文法情報を取得する取得手段とを有する
ことを特徴とする情報処理装置を提供する。
記検索結果に応じた文法を選択し、この文法に従って次
発話を予測する。
字情報を受理し、該文字情報を前記入力音声の認識結果
とあわせて処理するよう制御する。
装置の構成を示すブロック図である。
イク、102は音声を出力するスピーカ、103はマイ
ク101及びスピーカ102から入出力される信号を変
換するA/D、D/A変換器、104は例えばCRT等
の画像を表示し得る表示装置、105はデータベース、
また、後述するフローチャートの制御プログラムを格納
するROM、(リードオンリーメモリ)、106は各種
データを格納し、ワーキングメモリとして用いられるR
AM(ランダムアクセスメモリ)、107はROM10
5に格納された制御プログラムに基づいて装置全体の制
御を行うCPU(中央処理装置)である。
理のフローチャートを示す。
装置の機能構成図である。図2のフローチャート及び図
3の機能構成図を用いて本実施例の全体的な処理の流れ
を説明する。
す。(Usr:ユーザーの発生、Sys:本実施例にお
ける音声対話システムの発声) Usr:「東京にある公園を知りたい。」 Sys:「千代田区に10件、世田谷区に5件、…、で
す。」 Usr:「世田谷区では。」 Sys:「砧公園、芦花公園、…、です。」 Usr:「砧公園の電話番号を教えて。」 Sys:「03−×××−××××です。」 Usr:「世田谷区にある神社を教えて下さい。」…
(1) Sys:「八幡神社、烏山神社、…、です。」 Usr:「烏山神社の住所は。」 Sys:「世田谷区、南烏山△−△−△です。」 このような、自然な対話を可能とする処理を説明する。
(201)、入力情報を音声認識部312に送り、音声
認識を行う(202)。認識結果を対話管理部302に
送り(203)、認識結果が検索条件を満たすか否かの
判断を行い(204)、条件を満たせば検索の指示を出
す(206)。そうでなければ、不足情報を得るために
対話を続ける指示を出す(205)。検索条件が整って
いれば、検索指示に従って情報検索部303においてデ
ータベースより情報の検索を行う(207)。対話管理
部302や情報検索部303より出力される情報をもと
に対話応答生成部320では、対話の応答を生成し(2
08)、生成された応答を、音声出力部102や表示装
置104に出力する。検索された情報や対話の状況をも
とに、次発話を予測し(209)、次発話に発声される
と予測される認識対象を認識対象生成部320にて生成
する(210)。認識対象が生成されたら(210)、
201へ戻り、次発話の音声入力を待つ。
ベースの検索項目には予め読みを添付してROM105
に格納しておく。ステップ207で検索された項目に読
みが添付されているか否か判断し、添付されていない場
合はROM105内の辞書から読みを取り出し、検索項
目に添付する。また、ステップ210で生成される認識
対象にも読みを添付し、読み付き情報として表示装置1
04に表示する。
る。本図の点線で囲まれた304から311が認識対象
生成部である。一般に、対話を自然に行う時には、対話
のどこでも発声できる入力が存在する。例えば、旅の情
報検索の対話においては、「どんな項目が聞けますか
?」等のメタ質問や、「東京にあるゴルフ場を知りた
い。」等の非常にグローバルな質問がある。一方、対話
が進むに連れて、詳細な内容に関わる質問、例えば、
「箱根の湯本温泉の電話番号を知りたい。」とか「群馬
県吉井町の温泉の住所は?」がでてくる。この対話のど
こでも発声できる入力を受け付け音声認識するための単
語辞書と文法を304の静的単語辞書部、305の静的
文法部とし、対話が進むに連れて動的に変わっていく入
力を受け付け音声認識するための単語辞書を306の次
発話単語辞書生成部で、307の検索内容単語辞書生成
部で生成し、文法は生成される単語辞書の内容に応じ
て、309の動的文法部より310の動的文法選択部を
用いて、304の静的単語辞書部305の静的文法部の
情報とともに311の認識対象生成部にて、作成する。
されると予測される認識対象となり得る情報を以下の2
つの認識情報として保持する手段を有する。
できる文を認識する静的な認識情報(単語辞書と文
法)。
文法が動的に変わる動的な認識情報(単語辞書と文
法)。
グは、以下の3つの場合が考えられる。
る。
を更新するのではなく、新たにその情報を追加し保持す
る。
現れた情報を保持しながらも、対話が進むに連れ、保持
している認識のための情報を順次、対話の条件に応じて
消去する。
を用いることにより、前出の自然な対話を可能とするた
めの処理を説明する。例えば、前回の発話が、「東京に
ある公園を知りたい。」であり、これに対するS207
における検索結果が「井の頭公園、…、芝公園、代々木
公園」であれば、この結果を用いて、まず、S210で
作成するための認識対象語彙にこの検索結果の公園名を
用い、さらに、これら語彙にあった文法を選択し、動的
な文法を作成する。この動的な文法を展開し、音声認識
部内に動的なネットワークを構成し、次対話において、
「芝公園の電話番号を示せ。」という文を認識できるよ
うにする。
に多いときには、対話管理部は検索結果を出力せず、
「千代田区に10件、世田谷区に5件、…」を出力し、
この市町村名を次対話の認識対象語とし、これら語彙に
あった文法を選択し、動的な文法を作成する。この動的
な文法を展開し、音声認識部内に動的なネットワークを
構成し、次対話において、「世田谷区では。」という市
町村名を用いた文の認識を可能とする。
ま次発話予測単語としているのに対して、二番目の例で
は検索の結果、検索項目が非常に多いため、対話の認識
を用いてよりうまい絞り込みを行える様に、次発話を誘
導する地名を次発話予測単語としている。
り、それぞれに適した文法を選択し、次発話に備える。
公園の場合には、場所、広さ、行き方、…を入力できる
ように、地名の場合には、その地名にある公園、施設、
…を入力できる文法を選択する。
語彙と文法、及び知識により絞り込むための市町村名の
認識対象語彙と文法は、両方同時もしくはいずれか一方
のみでも、認識するための動的なネットワークは作成さ
れる。また、(a)、(b)、(c)のいずれの保持情
報の変更方法を用いても、対話の中で明示的に認識対象
の地域や項目の変更がないかぎり、これらの語に関する
認識が行える特徴を持つ。
る新たな情報では書き変わらないため、対話の中心が公
園にあっても、前の対話に関わりのあった地名の認識が
可能となる。全ての情報を記憶しておくと、認識部が巨
大になるので、(c)の消去を行うことにより、ある程
度過去の対話の情報も認識でき、かつ、認識部の巨大化
の問題を避けることが可能となる。
04(405から412)は図1の105、図2では、
202に当たる。403は認識を行う認識モデル(標準
パタン)であり、これらを用いて、405や411の文
字情報をもとに、406や412の認識用のネットワー
クを計算機内部に実現する。このネットワークは、予め
認識をはじめる前に、作成されている必要はなく、音声
の入力に従って動的に作成することも可能である。40
1より入力された音声波形は、402で音響分析が行わ
れ、音響パラメータに変換される。この音響パラメータ
と406、407のネットワーク上でもっとも入力の音
声らしい経路を決定し(408)、これを第1位の認識
結果とする。全ネットワーク上の2番目に入力の音声ら
しい経路を第2位の候補、3番目を第3位、…、とす
る。本例では、認識ネットワークは3つ存在し、それぞ
れ、静的ネットワーク406と、動的なネットワーク4
12は温泉関係と公園関係の2つからなる。従って、第
1位の認識結果は各ネットワークの第1位(413、4
14、415)中でもっとも入力の音声らしい結果を選
ぶことになる。
できる入力を可能にするもので、この例では、静的ネッ
トワーク406を作成する。動的なネットワーク412
は、動的な文法411より作成される。その文法は、前
回の発話である407「東京にある公園を教えて。」の
入力に応じて408の対話検索管理部(図1の103、
107に当たる。)の検索結果、「井の頭公園、芝公
園、…、代々木公園、」409より文法生成部410に
て作成される。
例である。501は「厚木市にあるゴルフ場を示せ。」
の検索結果である。また、。502は「神奈川にあるゴ
ルフ場を示せ。」という入力に対して検索項目数が多い
ため、さらに、検索項目数を減らす条件として、次発話
として要求している市町村名の出力である。本発明で
は、検索するデータベースの検索項目と次発話項目の情
報を基にそれぞれの項目に適した文法を選択し、これら
情報を各項目別で独立に管理することにより、より自然
な対話を実現することを特徴としている。
た、新たな検索項目と予測項目の出力された例である。
511は「箱根町にある温泉を示せ。」の検索結果で、
また、512は「神奈川県にある温泉を示せ。」という
入力に対して検索項目数が多いため、さらに、検索項目
数を減らす条件として、次発話として要求している市町
村名の出力である。
場合には、512が出力されると、同一の地名である5
02は直ちに書き換えられ、「厚木市、横須賀市、…」
は、次発話において認識できなくなる。つまり、(a)
の方法では、次発話において501、511、512に
関する認識が可能となる。一方(b)、(c)を用いれ
ば、502に512が加わり501、502、511、
512に関する認識が可能となる。(c)の方法によれ
ば、しばらく対話が進むと502の情報が消去される。
される動的な文法の例である。検索結果が図5の501
のとき、単語辞書602を作成し、ゴルフ場にあった文
法603を選ぶ、結果として、601に示す認識ネット
ワークを作成する単語文法情報を得る。
成される動的な文法の例である。次発話予測項目が図5
の502のとき、単語辞書702を作成し、次発話予測
項目が地名にあった文法703を選ぶ、結果として、7
01に示す認識ネットワークを作成する単語文法情報を
得る。
力を受け付け音声認識するための単語辞書と文法の例を
示す。図3の304の静的単語辞書部には802のよう
な情報が格納されており、305の静的文法部には80
3のような文法が格納されている。認識の際は、801
のような認識ネットワークを作成する単語文法情報を作
成し認識を行う。
クを作成する単語文法情報で認識できる文の例を、90
2には図8の認識ネットワークを作成する単語文法情報
で認識できる文の例を、903には図9の認識ネットワ
ークを作成する単語文法情報で認識できる文の例を示
す。
かも使い易い形で音声入力による情報検索が実現できる
ことが保証される。
を単語辞書のレベルで記載されているが、この他に、第
4に示す認識ネットワーク406や412の状態で保持
し、各項目別に保持・管理を行うことも可能である。
(2)また、認識項目の情報の保持を記載されている方
法を用いれば、認識ネットワーク406や412は、動
的に全ての保持情報を用いることにより、1つの大きな
認識ネットワークにすることも可能であり、また、管理
する項目数とは、無関係な数を認識装置の演算素子に合
わせた方法で選択することも可能である。
を詳細に説明する。
基本構成を示すブロック図である。本実施例は、対話に
伴って文書の検索を行う音声対話装置の実施例である。
図11において1は利用者の音声入力を受理する音声入
力部、2は利用者の音声入力を言語情報に変換する音声
認識部、3は利用者の文字入力を受理する文字入力部、
4は利用者の音声入力があれば音声認識部2の認識結果
である言語情報を、利用者の文字入力があれば文字入力
部3が受理した文字情報を、いずれも同じ言語情報の入
力として対話を行う対話処理部、5は音声認識部2が変
換する言語の範囲を利用者に提示する認識範囲提示部、
6は対話処理部4が利用者に出力する情報を出力する対
話出力部7は対話処理部4の要求に応じて文書の検索を
行う検索処理部である。
ム構成を示す図である。ここで、21は制御メモリであ
り、図3のフローチャートに示すような制御手順に従っ
た制御プログラムを記憶する。22は制御メモリ21に
保持されている制御手順に従って判断・演算などを行う
中央処理装置である。23はマイクロホンであり図1に
示した音声入力部1を実現する。24は音声認識装置で
あり図1に示した音声認識部2を実現する。25はキー
ボードであり図1に示した文字入力部3を実現する。2
6はCD−ROMドライブであり検索の対象となる文書
を入れたCD−ROMを保持する。27はディスプレイ
であり図1に示した認識範囲提示部5と対話出力部6を
実現する。28はバスである。
して、本装置の処理を説明する。尚、本実施例では、対
話処理部3の行う処理の例として、データベース検索処
理を用いる。
部4の初期化を行う。そして、音声認識部2が変換する
言語の範囲を認識範囲提示部に渡して利用者に提示す
る。また、本装置から利用者の入力を促すメッセージを
対話出力部6に出力する。そして、S2に移る。S2で
は、音声入力部1への音声入力の結果として音声認識部
2による音声認識が行われたか否かを調べ、認識結果が
あった場合は、S4に移る。なかった場合はS3に移
る。S3では、文字入力部3に文字入力があったか否か
を調べ、入力があった場合はS5に移る。なかった場合
はS2の先頭に帰る。S4では、音声認識結果を文字情
報として対話処理部4に取り込む。S5では、文字入力
部に入力された文字入力を対話処理部4に取り込む。S
6では、取り込んだ文字情報を利用者の入力として、対
話処理を行う。対話処理では、入力文の文解析を行い、
利用者の意図を抽出してそれに応じた処理を行う。ここ
では、文書の検索を行う。そして、検索結果を基に利用
者への出力を作成し、対話出力部6に送る。S7では、
対話処理の結果に基づき対話を終了させるか否かを判定
し、終了させる場合は全ての処理を終了する。終了させ
ない場合はS2の先頭に帰る。
14に示す。また利用者と装置との対話の例を図15に
示す。尚、この対話例で、利用者1の入力は音声入力で
行われ、利用者2の入力は文字入力で行われている。
る言語を特定の範囲に制限し、その範囲を利用者に提示
する認識範囲提示手段を持つ実施例であったが、図11
のブロック図の認識範囲提示部5をなくし、図13のフ
ローチャートのステップS1において、認識範囲の提示
を行わないようにすること、また、変換する言語を特定
しない音声認識装置も可能である。
て説明したが、これに限定されるものでなく、音声入力
部を設けずに直接音声入力可能な音声認識部を用いても
よい。
明したが、これに限定されるものでなく、対話出力がな
い場合には対話出力部を設けなくてもよい。
出力を全て言語で行う場合について説明したが、これに
限定されるものでなく、コマンド入力やテーブル出力な
どで行ってもよい。
場合について説明したが、これに限定されるものでな
く、ガイダンスや教育や計算の実行など対話を通して行
う任意の処理でよい。また、特に他の処理を行わずに対
話だけを行ってもよい。
ィスプレイに出力する場合について説明したが、これに
限定されるものでなく、異なるディスプレイに出力して
もよい。
音声認識の結果の有無で行う場合について説明したが、
これに限定されるものでなく、音声入力部へ入力があっ
たかどうかで判定してもよい。
ッセージの出力で開始する場合について説明したが、こ
れに限定されるものでなく、利用者から装置への入力か
ら開始してもよい。
する場合について説明したが、これに限定されるもので
なく、計算機上のソフトウェアで実現するなど任意の音
声認識手段でよい。
る場合について説明したが、これに限定されるものでな
く、ペン入力装置やタッチパネルなど文字コードを入力
できる任意の手段でよい。
実現する場合について説明したが、これに限定されるも
のでなく、プリンタで出力したり、音声合成装置などで
音声出力したりするなど任意の認識範囲提示手段でよ
い。
イブ中のCD−ROM文書とする場合について説明した
が、これに限定されるものでなく、ハードディスク上の
文書などの任意の文書でよい。
話装置を実現する場合について説明したが、これに限定
されるものでなく、本発明に係る処理の一部または全部
を専用ハードウェアを用いて実現してもよい。
対話装置を実現する場合について説明したが、これに限
定されるものでなく、複数の汎用計算機や専用のハード
ウェアの間で通信を行って実現してもよい。
力された音声を音声認識用の辞書及び文法を用いて認識
し、前記認識結果に従って情報を検索し、前記検索結果
に従って次発話を予測し、該予測結果に従って、単語辞
書及び単語辞書に関連する文法情報からなる単語文法情
報を取得し、次発話に備えるので、自然な音声対話によ
り情報検索をすることが可能になった。
目の情報の例。
る動的な文法の例。
動的な文法の例。
静的な文法の例。
すブロック図。
ート。
Claims (2)
- 【請求項1】 音声を入力し、 前記入力された音声を音声認識用の辞書及び文法を用い
て認識し、 前記認識結果に従って情報を検索し、 前記検索結果に従って次発話を予測し、 該予測結果に従って、単語辞書及び単語辞書に関連する
文法情報からなる単語文法情報を取得し、次発話に備え
ることを特徴とする情報処理方法。 - 【請求項2】 音声を入力する音声入力手段と、 前記音声入力手段により入力された音声を音声認識用の
辞書及び文法を用いて認識する音声認識手段と、 前記音声認識手段による認識結果に従って情報を検索す
る検索手段と、 前記検索手段の検索結果に従って次発話を予測する予測
手段と、 前記予測手段による予測結果に従って、単語辞書及び該
単語辞書に関連する文法情報からなる単語文法情報を取
得する取得手段と、 を有することを特徴とする情報処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP00421293A JP3278222B2 (ja) | 1993-01-13 | 1993-01-13 | 情報処理方法及び装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP00421293A JP3278222B2 (ja) | 1993-01-13 | 1993-01-13 | 情報処理方法及び装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH06208389A JPH06208389A (ja) | 1994-07-26 |
JP3278222B2 true JP3278222B2 (ja) | 2002-04-30 |
Family
ID=11578324
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP00421293A Expired - Fee Related JP3278222B2 (ja) | 1993-01-13 | 1993-01-13 | 情報処理方法及び装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3278222B2 (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3513232B2 (ja) * | 1994-11-17 | 2004-03-31 | キヤノン株式会社 | 情報処理装置及びその制御方法 |
JPH0916800A (ja) * | 1995-07-04 | 1997-01-17 | Fuji Electric Co Ltd | 顔画像付き音声対話システム |
FI981154A (fi) * | 1998-05-25 | 1999-11-26 | Nokia Mobile Phones Ltd | Menetelmä ja laite puheen tunnistamiseksi |
JP2001005488A (ja) | 1999-06-18 | 2001-01-12 | Mitsubishi Electric Corp | 音声対話システム |
JP3423296B2 (ja) * | 2001-06-18 | 2003-07-07 | 沖電気工業株式会社 | 音声対話インターフェース装置 |
JP2003036093A (ja) * | 2001-07-23 | 2003-02-07 | Japan Science & Technology Corp | 音声入力検索システム |
JP2007065206A (ja) * | 2005-08-30 | 2007-03-15 | Denso Corp | 施設検索装置 |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
JP2009151314A (ja) * | 2008-12-25 | 2009-07-09 | Sony Corp | 情報処理装置及び情報処理方法 |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
CN102770910B (zh) * | 2010-03-30 | 2015-10-21 | 三菱电机株式会社 | 声音识别装置 |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
-
1993
- 1993-01-13 JP JP00421293A patent/JP3278222B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH06208389A (ja) | 1994-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3278222B2 (ja) | 情報処理方法及び装置 | |
US5797116A (en) | Method and apparatus for recognizing previously unrecognized speech by requesting a predicted-category-related domain-dictionary-linking word | |
JP4237915B2 (ja) | ユーザが文字列の発音を設定することを可能にするためにコンピュータ上で実行される方法 | |
JP5142720B2 (ja) | デバイスの認知的に過負荷なユーザのインタラクティブ会話型対話 | |
US5819220A (en) | Web triggered word set boosting for speech interfaces to the world wide web | |
US7742924B2 (en) | System and method for updating information for various dialog modalities in a dialog scenario according to a semantic context | |
JPWO2006040971A1 (ja) | 対話支援装置 | |
JP2002116796A (ja) | 音声処理装置、音声処理方法及び記憶媒体 | |
JPH06332493A (ja) | 音声対話型情報検索装置及び方法 | |
JP4967519B2 (ja) | 音声認識装置 | |
Gruenstein et al. | Scalable and portable web-based multimodal dialogue interaction with geographical databases | |
KR100467590B1 (ko) | 발음 사전 갱신 장치 및 방법 | |
JP2007505365A (ja) | 音声制御ナビゲーションシステムの操作方法 | |
JPH08339288A (ja) | 情報処理装置及びその制御方法 | |
JPH07219590A (ja) | 音声情報検索装置及び方法 | |
JP5341548B2 (ja) | 音声認識装置 | |
JP3645104B2 (ja) | 辞書検索装置及び辞書検索プログラムを記録した記録媒体 | |
JP2001027540A (ja) | 音声認識機能を用いたナビゲーション方法 | |
JP3762191B2 (ja) | 情報入力方法、情報入力装置及び記憶媒体 | |
JPH07219587A (ja) | 音声処理装置および方法 | |
JP3576511B2 (ja) | 音声対話装置 | |
JP2000089782A (ja) | 音声認識装置と方法、ナビゲーションシステム、及び記録媒体 | |
JPH09128409A (ja) | データ検索装置および方法、情報記憶媒体 | |
JP2003140682A (ja) | 音声認識装置及び音声辞書作成方法 | |
JP3663012B2 (ja) | 音声による入力装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20020122 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080215 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090215 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100215 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100215 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110215 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120215 Year of fee payment: 10 |
|
LAPS | Cancellation because of no payment of annual fees |