JP2004133162A - Display device and name display method therefor - Google Patents
Display device and name display method therefor Download PDFInfo
- Publication number
- JP2004133162A JP2004133162A JP2002297209A JP2002297209A JP2004133162A JP 2004133162 A JP2004133162 A JP 2004133162A JP 2002297209 A JP2002297209 A JP 2002297209A JP 2002297209 A JP2002297209 A JP 2002297209A JP 2004133162 A JP2004133162 A JP 2004133162A
- Authority
- JP
- Japan
- Prior art keywords
- speech recognition
- recognition target
- user
- voice
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Instructional Devices (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、音声認識の対象となる音声認識対象語が正確に発話されることにより所定の処理を実行する表示装置及びその名称表示方法に関する。
【0002】
【従来の技術】
従来における表示装置のひとつであるナビゲーション装置として、例えば、目的地の読み方が不明である場合、目的地の周辺地名及びその周辺地名から目的地までの距離等をユーザに音声入力させて目的地の位置を特定し、この位置に存在する目的地の名称をユーザに音声案内して、当初読み方が不明であった目的地をユーザに指定させるものが知られている(例えば特許文献1参照)。
【0003】
【特許文献1】
特開2000−337912号公報
【0004】
【発明が解決しようとする課題】
しかしながら、従来における表示装置(ナビゲーション装置)では、目的地等の読み方が不明である場合、目的地等を指定するまでの操作が複雑であり煩わしいものであった。特に、雨天の走行時など運転に集中している場合には、その操作が非常に煩わしいものになってしまう。
【0005】
本発明はこのような従来の課題を解決するためになされたものであり、その目的とするところは、音声による入力操作の円滑化を図ることが可能な表示装置及びその名称表示方法を提供することにある。
【0006】
【課題を解決するための手段】
上記目的を達成するため、本発明では、音声認識の対象となる音声認識対象語を画面上に1又は複数表示し、音声認識対象語が正確に発話された場合には、目的地の設定や画面切替などの所定の処理を実行し、ユーザによる音声認識対象語の発話が不正確であったと認識された場合やユーザによる音声認識対象語の発話が所定時間認識されなかった場合には、画面上に表示される1又は複数の音声認識対象語のうち少なくとも1以上の音声認識対象語を仮名表記にして表示させることを特徴としている。
【0007】
【発明の効果】
本発明によれば、ユーザの発話状態を検知し、画面上に表示される少なくとも1以上の音声認識対象を仮名表記にして表示するので、ユーザは、漢字等の表記では読むことができなかった音声認識対象語の正確な読みを知ることとなり、複雑な操作を要することなく音声認識対象語を簡易に指定することが可能となる。従って、音声による入力操作の円滑化を図ることができる。
【0008】
【発明の実施の形態】
以下、本発明の好適な実施形態を図面に基づいて説明する。
【0009】
図1は、本発明の第1実施形態に係る表示装置の構成図である。同図に示すように、表示装置1は、車両に搭載され、音声認識の対象となる音声認識対象語を画面上に1又は複数表示し、音声認識対象語が正確に発話されることにより所定の処理を実行するものであって、好適には、音声認識のナビゲーション装置などに適用される。以下、表示装置1を音声認識のナビゲーション装置に適用した例について、説明する。
【0010】
この表示装置1は、音声を入力する音声入力部10と、各種データを保有するデータベース20と、音声入力部10からの音声信号を入力すると共に、生成された画像データ等を出力するナビゲーション部30と、ナビゲーション部30からの画像データに基づき画像を表示するディスプレイ(表示手段)40と、ナビゲーション部30により生成された音声データに基づき音声を出力するスピーカ50とを備えている。
【0011】
より詳しく説明すると、データベース20は、ディスプレイ40に表示され音声入力の対象となる音声認識対象語、及びその音声認識対象語の誤った読みである誤読名称を記憶する認識辞書部21と、道路地図や建物等の位置のデータ及び音声認識対象の漢字データや仮名データ等を記憶する地図データ部22とを具備している。
【0012】
また、ナビゲーション部30は、ユーザが発話した音声を認識する音声認識部(音声認識手段)31と、音声認識部31にてユーザによる音声認識対象語の発話が不正確であったと認識された場合又は音声認識部31にてユーザによる発話が所定時間認識されなかった場合に、ディスプレイ40の画面上に表示される1又は複数の音声認識対象語のうち少なくとも1以上の音声認識対象語を選択する判定部(選択手段)32と、判定部32により選択された音声認識対象語を仮名表記にして表示内容を生成する提示処理部(表示内容生成手段)33とを具備している。
【0013】
なお、上記音声認識部31は、認識辞書部21が記録する音声認識対象語とユーザが発話した音声とを比較して尤度を算出し、尤度が第1の所定値(例えば80%)以上となった音声認識対象語が発話されたものと認識するように構成されている。
【0014】
図2は、本実施形態の表示装置1の動作を示すフローチャートである。同図に示すように、まず、音声認識部31は、ユーザによって音声が入力されたか否かを判断する(ST100)。ユーザによって音声が入力されなかったと判断した場合(ST100:NO)、ナビゲーション部30は、音声認識部31にてユーザによる発話が所定時間認識されなかったか否かを判断する(ST101)。
【0015】
音声認識部31にてユーザによる発話が所定時間以内に認識されたと判断した場合(ST101:NO)、ナビゲーション部30は終了動作が行われたか否かを判断する(ST102)。すなわち、ナビゲーション部30は、例えばイグニッションスイッチがオフされた否かを判断する。
【0016】
終了動作が行われていないと判断した場合(ST102:NO)、処理はステップST100に戻る。終了動作が行われたと判断した場合(ST102:YES)、処理は終了する。
【0017】
ところで、音声認識部31にてユーザによる発話が所定時間認識されなかったと判断した場合(ST101:YES)、ナビゲーション部30は、第1又は第2の提示処理を実行する(ST110)。そして、第1又は第2の提示処理の実行後、処理はステップST102に移行する。
【0018】
ここで、第1の提示処理とは、提示処理部33が、画面上に表示される1又は複数の音声認識対象語のすべてを仮名表記にして表示内容を生成する処理である。そして、第1の提示処理が実行されると、ディスプレイ40には、次のような画像が表示される。
【0019】
図3は、第1の提示処理が実行される場合にディスプレイ40に表示される画像を示す説明図であり、(a)は実行前の表示画像の一例を示しており、(b)は実行後の表示画像の一例を示している。
【0020】
図3(a)に示すように、第1の提示処理が実行される前の表示画像は、音声認識対象語である「田浦大作町」や「逸見駅」等が漢字による一般表記41で表示されている。そして、第1の提示処理が実行されると、図3(b)に示すように、音声認識対象語である「田浦大作町」や「逸見駅」等は、すべて平仮名による仮名表記42で表示される。このように、第1の提示処理が実行されると、画面上に表示されるすべての音声認識対象語が漢字などの一般表記41から平仮名などの仮名表記42に変更されて表示される。
【0021】
また、第2の提示処理とは、判定部32が、画面上に表示される1又は複数の音声認識対象語のうち予め難読であるとして登録された音声認識対象語を選択し、提示処理部33が、選択された音声認識対象語を仮名表記42にして表示内容を生成する処理である。そして、第2の提示処理が実行されると、ディスプレイ40には、次のような画像が表示される。
【0022】
図4は、第2の提示処理が実行される場合にディスプレイ40に表示される画像を示す説明図であり、(a)は実行前の表示画像の一例を示しており、(b)は実行後の表示画像の一例を示している。
【0023】
図4(a)に示すように、第1の提示処理が実行される前の表示画像は、音声認識対象語である「汐入駅」や「逸見駅」等が漢字による一般表記41で表示されている。そして、第2の提示処理が実行されると、図4(b)に示すように、音声認識対象語のうち難読である「汐入駅」や「逸見駅」等は、すべて平仮名による仮名表記42で表示される。このように、第2の提示処理が実行されると、画面上に表示される音声認識対象語のうち難読であるものが、漢字などの一般表記41から平仮名などの仮名表記42に変更されて表示される。
【0024】
なお、この難読であるか否かは、データベース20に予め登録されているデータを参照することによって、判定部32により判断される。
【0025】
再び、図2を参照して説明する。ユーザによって音声が入力されたと判断した場合(ST100:YES)、音声認識部31は、入力された音声と音声認識辞書部21に記録されている音声データとがマッチングしたか否かを判断する(ST120)。すなわち、音声認識部31は、画面上に表示される音声認識対象語それぞれと発話された音声との尤度のいずれかが第1の所定値以上となったか否かを判断する。
【0026】
音声認識辞書部21に記録されている音声データと入力された音声とがマッチングしなかったと判断した場合(ST120:NO)、すなわち、尤度がすべて第1の所定値を下回った場合、音声認識部31は、第1の所定値よりも小さく設定される第2の所定値(例えば50%)以上の尤度となった音声認識対象語が存在するか否かを判断する(ST121)。
【0027】
第2の所定値以上の尤度となった音声認識対象語が存在しないと判断した場合(ST121:NO)、処理はステップST102に移行する。第2の所定値以上の尤度の音声認識対象語が存在すると判断した場合(ST121:YES)、ナビゲーション部30は、第3の提示処理を実行する(ST130)。そして、第3の提示処理の実行後、処理はステップST102に移行する。
【0028】
ここで、第3の提示処理とは、判定部32が、画面上に表示される1又は複数の音声認識対象語のうち第2の所定値以上の尤度となった音声認識対象語を選択し、提示処理部33が、選択された音声認識対象語を仮名表記42にして表示内容を生成する処理である。そして、第3の提示処理が実行されると、ディスプレイ40には、次のような画像が表示される。
【0029】
図5は、第3の提示処理が実行される場合にディスプレイ40に表示される画像を示す説明図であり、(a)は実行前の表示画像の一例を示しており、(b)は実行後の表示画像の一例を示している。また、図6は、音声認識対象語の尤度の一例を示す説明図である。
【0030】
図5(a)に示すように、第3の提示処理が実行される前の表示画像は、音声認識対象語である「田浦大作町」等が漢字による一般表記41で表示されている。ここで、ユーザが「田浦大作町(たうらだいさくちょう)」を指定するつもりで「たうらたいさくちょう」と発話したとする。このとき、尤度は、例えば図6に示すように「田浦大作町」が「65%」、「田浦泉町」が「30%」、「田浦駅」が「20%」となる。
【0031】
そして、第2の所定値が「50%」に設定されている場合、第2の所定値以上となる音声認識対象語は、「田浦大作町」だけである。この場合、第3の提示処理が実行されると、図5(b)に示すように、第2の所定値以上となった音声認識対象語である「田浦大作町」は、平仮名による仮名表記42にされて表示される。このように、第3の提示処理が実行されると、画面上に表示される音声認識対象語のうち第2の所定値以上となったものが漢字などの一般表記41から平仮名などの仮名表記42に変更されて表示されることとなる。
【0032】
なお、ここでの説明では、仮名表記42にされた音声認識対象語は1つであったが、特に1つに限らず、第2の所定値以上となった音声認識対象語が2つ以上存在する場合には、当然2つ以上の音声認識対象語が仮名表記42にされることとなる。
【0033】
再度、図2を参照して説明する。音声認識辞書部21に記録されている音声データと入力された音声とがマッチングしたと判断した場合(ST120:YES)、音声認識部31は、音声認識対象語の誤った読みである誤読名称とマッチングしたか否かを判断する(ST140)。
【0034】
音声認識対象語の誤った読みである誤読名称とマッチングしなかったと判断した場合(ST140:NO)、すなわち、音声認識対象語が正確に発話されたと判断した場合、通常の表示内容が提示される(ST141)。すなわち、図3(a)や図4(a)に示すように、音声認識対象語が仮名表記42でなく一般表記41として表示される。通常表示後、処理は、ステップST102に移行する。
【0035】
一方、音声認識対象語の誤った読みである誤読名称とマッチングしたと判断した場合(ST140:YES)、ナビゲーション部30は、第4の提示処理を実行する(ST150)。そして、第4の提示処理の実行後、処理はステップST102に移行する。
【0036】
ここで、第4の提示処理とは、判定部32が、誤読名称の発話があった音声認識対象語を選択し、提示処理部33が、画面上に表示される1又は複数の音声認識対象語のうち判定部32に選択された音声認識対象語を仮名表記42にして表示内容を生成する処理である。そして、第4の提示処理が実行されると、ディスプレイ40には、次のような画像が表示される。
【0037】
図7は、第4の提示処理が実行される場合にディスプレイ40に表示される画像を示す説明図であり、(a)は実行前の表示画像の一例を示しており、(b)は実行後の表示画像の一例を示している。図7(a)に示すように、第4の提示処理が実行される前の表示画像は、音声認識対象語である「逸見駅」等が漢字表記で表示されている。
【0038】
ここで、ユーザが「逸見駅(へみえき)」を指定するつもりで「いつみえき」と発話したとする。このとき、音声認識部31は、「逸見駅(へみえき)」の誤読名称である「いつみえき」という読みを記憶しており、「逸見駅」の誤読名称が発話されたと判断する。そして、第4の提示処理が実行されると、図7(b)に示すように、音声認識対象語である「逸見駅」は、平仮名による仮名表記42で表示される。このように、第4の提示処理が実行されると、画面上に表示される1又は複数の音声認識対象語のうち誤読名称によって発話された音声認識対象語が漢字などの一般表記41から平仮名などの仮名表記42に変更されて表示される。
【0039】
このようにして、本実施形態に係る表示装置1及びその名称表示方法では、ユーザの発話状態を検知し、画面上に表示される少なくとも1以上の音声認識対象を仮名表記42にして表示するので、ユーザは、漢字等の表記では読むことができなかった音声認識対象語の正確な読みを知ることとなり、複雑な操作を要することなく音声認識対象語を指定することが可能となる。従って、音声による入力操作の円滑化を図ることができる(請求項1,13の効果)。
【0040】
また、音声認識部31にてユーザによる音声認識対象語が所定時間認識されなかった場合には、画面上に表示される音声認識対象語のうち難読であるものを仮名表記42にして表示するので、画面上の音声認識対象語のすべてを仮名表記42にする場合に比して、画面全体の文字数の増加を抑制することとなり、文字数増加による視認性の低下を抑制することができる(請求項2の効果)。
【0041】
また、尤度が第2の所定値以上となった音声認識対象語を仮名表記42にして表示するので、音声認識対象語が難読であるか否かにかかわらず、ユーザが正確に発話できなければ、ユーザが指定しようとした可能性が高い音声認識対象語について正確な読みを提示することが可能となっており、ユーザに対する音声入力の支援を柔軟に行うことができる(請求項3の効果)。
【0042】
また、誤読名称が発話された音声認識対象語を仮名表記42にして表示するので、誤った読みが発話された音声認識対象語だけが仮名表記42とされることとなる。このため、ユーザが指定しようとした確率が極めて高い音声認識対象語だけを仮名表記42にすることとなり、画面全体の文字数の増加を最小限に抑え、視認性の低下をより効率よく抑制することができる(請求項4の効果)。
【0043】
次に本発明の第2実施形態を説明する。第2の実施形態に係る表示装置2は、第1の実施形態に係る表示装置1とほぼ同様であるが、以下の点で異なっている。
【0044】
すなわち、第1実施形態に係る表示装置1では、第1〜第4の提示処理において、漢字などの一般表記41を仮名表記42にして表示していたが、第2実施形態に係る表示装置2では、漢字などの一般表記41に記号を付して表示するように構成されている。つまり、第2実施形態では、提示処理部33が音声認識対象語に数字やアルファベットなどの記号を付して記号付名称とし、それをディスプレイ40が表示するようになっている。
【0045】
また、音声認識部31は、記号が付された音声認識対象語がディスプレイ40の画面上に表示されている間、記号の発話を認識するようになっている。記号が発話されると、音声認識部31は記号が付されている音声認識対象語が発話されたと認識し、表示装置2は目的地の設定や画面切替など所定の処理を実行する。
【0046】
このように、本実施形態に係る表示装置2及びその名称表示方法では、ユーザは、漢字等の表記では読むことができなかった音声認識対象語を容易に発話することが可能となり、複雑な操作を要することなく音声認識対象語を指定することが可能となる。従って、音声による入力操作の円滑化を図ることができる(請求項5,14の効果)。
【0047】
また、音声認識部31にてユーザによる音声認識対象語が所定時間認識されなかった場合には、画面上に表示される音声認識対象語のうち難読であるものに記号を付して表示するので、画面上の音声認識対象語のすべてに記号を付す場合に比して、画面全体の文字数の増加を抑制することとなる。従って、文字数増加による視認性の低下を抑制することができる(請求項6の効果)。
【0048】
また、尤度が第2の所定値以上となった音声認識対象語に記号を付して表示するので、音声認識対象語が難読であるか否かにかかわらず、ユーザが正確に発話できなければ、ユーザが指定しようとした可能性が高い音声認識対象語に記号を付すことになり、ユーザに対する音声入力の支援を柔軟に行うことができる(請求項7の効果)。
【0049】
また、誤読名称が発話された音声認識対象語に記号を付して表示するので、誤った読みが発話された音声認識対象語だけに記号が付されることとなる。このため、ユーザが指定しようとした確率が極めて高い音声認識対象語だけに記号を付すこととなる。従って、画面全体の文字数の増加を最小限に抑え、視認性の低下をより効率よく抑制することができる(請求項8の効果)。
【0050】
次に、本発明の第3実施形態について説明する。図8は、本発明の第3実施形態に係る表示装置の構成図である。同図に示すように、第3実施形態に係る表示装置3は、第1実施形態の表示装置1に加え、GPS衛星からの電波を受信すると共に、車両の現在位置の緯度及び経度、並びに現在時刻等の情報を出力するGPS受信機11と、車体の角度変化を知るためのジャイロセンサ12と、車両の走行速度及び距離に比例した数のパルス信号を出力する車速センサ13と、信号をナビゲーション部30に無線にて送出するリモコン14と、地域毎におけるユーザの親和度を記憶する親和度データベース(記憶手段)60とを備えている。
【0051】
また、同図に示すように、ナビゲーション部30は、判定部32に代えて、所定の操作等に基づいて親和度の更新などを行う親和度登録部34を有している。また、ナビゲーション部30の提示処理部33は、判定部32が選択した音声認識対象語を仮名表記42にする代わりに、親和度データベース60に記憶されている親和度に基づいて、音声認識対象語を仮名表記42にするか否かを判断するようになっている。
【0052】
ここで、親和度とは、ユーザが各地域の地名をどれだけ知っているかを示す指標であって、車両の走行履歴や予めユーザによって登録された登録内容やユーザの操作履歴に基づいて求められるものである。
【0053】
図9は、本実施形態の表示装置3の動作を示すフローチャートである。同図に示すように、まず、音声認識部31は、音声認識対象語がユーザによって発話されたか否かを判断する(ST200)。ユーザによって音声認識対象語が発話されなかったと判断した場合(ST200:NO)、ナビゲーション部30は、現在、自車両が走行中であるか否かを判断する(ST201)。
【0054】
自車両が走行中でないと判断した場合(ST201:NO)、ナビゲーション部30は、ポイントが登録中であるか否かを判断する(ST202)。ポイントが登録中でないと判断した場合(ST202:NO)、ナビゲーション部30は終了動作が行われたか否かを判断する(ST203)。すなわち、ナビゲーション部30は、イグニッションスイッチ等がオフされた否かを判断する。
【0055】
終了動作が行われていないと判断した場合(ST203:NO)、処理はステップST200に戻る。終了動作が行われたと判断した場合(ST203:YES)、処理は終了する。
【0056】
ところで、ポイントが登録中であると判断した場合(ST202:YES)、ナビゲーション部30は、登録されたポイントの位置情報をデータベース20から取得し(ST210)、親和度登録部34は、取得した位置情報を登録内容として親和度データベース60に登録する(ST211)。これにより、親和度データベース60は、登録された位置について記録されている親和度を更新して記録することとなる。その後、処理はステップST203に移行する。
【0057】
また、自車両が走行中であると判断した場合(ST201:YES)、ナビゲーション部30は、GPS受信機11からの緯度や経度の情報及び時刻情報に基づいて、現在位置と時刻とを走行履歴として取得する(ST220)。そして、親和度登録部34は親和度の更新を行う(ST211)。これにより、親和度データベース60は親和度を更新する。その後、処理はステップST203に移行する。
【0058】
なお、表示装置3は、ジャイロセンサ12や車速センサ13を備えているため、ナビゲーション部30は、GPS受信機11からの信号によることなく、ジャイロセンサ12や車速センサ13からの信号に基づいて位置情報を求めるようにしてもよい。
【0059】
また、音声認識対象語がユーザによって発話されたと判断した場合(ST200:YES)、提示処理部33は、親和度データベース60から親和度の情報を取得する。そして、音声認識部31にて認識された音声が表示を指定する地域について、親和度と予め記憶されている所定値とを比較する。
【0060】
比較後、提示処理部33は、比較結果に基づいて表示内容を生成し、ディスプレイ40は、生成された表示内容を表示する(ST231)。表示後、ナビゲーション部30は、ディスプレイ40に表示された表示位置の情報を操作履歴として取得する(ST232)。そして、親和度登録部34は親和度の更新を行う(ST211)。これにより、親和度データベース60は親和度を更新する。その後、処理はステップST203に移行する。
【0061】
以下、ステップST231で表示される表示画像について、図10を参照して説明する。図10は、親和度に基づいて表示される画像を示す説明図であり、(a)は表示内容切替前の画像の一例を示しており、(b)は表示内容切替後の画像の一例を示しており、(c)は表示内容切替後の画像の他の例を示している。
【0062】
図10(a)に示すように、表示内容切替前の画像には、音声認識対象語である「横浜市」や「横須賀市」等が漢字による一般表記41で表示されている。また、領域70は、ユーザが過去に行ったことがあったり(走行履歴)、予めユーザに登録されていたり(登録内容)、操作された表示されたことがあったり(操作履歴)する横浜市を含む地域であり、親和度が所定値以上となっている。
【0063】
次に、ユーザが「横浜市」を指定したとする。このとき、提示処理部33は、図10(b)に示すように、領域70に含まれる音声認識対象語(「青葉区」等)を一般表記41にし、領域70に含まれない音声認識対象語(「たまく」等)を平仮名による仮名表記42にして横浜市及びその周辺の詳細地図を表示する。
【0064】
一方、ユーザが「横須賀市」を指定した場合、表示画像は図10(c)に示すようになる。すなわち、横須賀市は領域70に含まれていないので、音声認識対象語である「山中町」等は、すべて「やまなかちょう」などの平仮名表記で表示される。
【0065】
すなわち、提示処理部33は、親和度が所定値以上の地域について漢字表記などの一般表記41とし、親和度が所定値を下回る地域について一般表記41を仮名表記42にして表示内容を生成している。
【0066】
このようにして、本実施形態に係る表示装置3及びその渋滞表示方法では、音声が表示を指定する地域について、記憶されたユーザの親和度が所定値を下回る場合に、指定された地域内に表示される1又は複数の音声認識対象語のうち少なくとも1以上の音声認識対象語を仮名表記42にして表示するので、ユーザは、初めて訪れたり画面表示したりした地域について、音声認識対象語の読み方に迷うことなくなり、複雑な操作を要することなく音声認識対象語を指定することが可能となる。従って、音声による入力操作の円滑化を図ることができる(請求項5,14の効果)。
【0067】
また、親和度は、走行履歴や登録内容や操作履歴に基づいて求められる。すなわち、親和度はユーザの行動や使用状態に応じて変化することとなる。このため、各地域の親和度はユーザ毎に設定されることとなり、各ユーザに対して仮名表記42が適切に提供されることとなる。従って、ユーザに対して柔軟に音声入力の支援を行うことができる(請求項6,7,8)。
【0068】
なお、本発明は上記実施形態に限られるものではない。例えば、第1及び第2実施形態では、走行履歴や操作履歴は記憶されたままとされているが、走行履歴や操作履歴を取得してから所定日数経過すると、親和度登録部34がこれらの履歴を削除するようにしてもよい。また、第3実施形態では、親和度と所定値とを比較し、親和度が所定値を下回る場合に仮名表記42として表示するようにしているが、親和度を所定値と比較することなく、単に走行履歴や登録内容や操作履歴のうちいずれかが親和度データベース60に記憶されている場合に音声認識対象語を漢字などの一般表記41にし、いずれも記憶されていない場合に音声認識対象語を平仮名などの仮名表記42にしてもよい。
【0069】
また、第1〜第3実施形態では、音声認識対象語として各市区町名や駅名を挙げているが、音声認識対象語は、ランドマークや建築物等の名称であってもよい。また、音声認識対象語を仮名表記42とする際、すべて平仮名としているが、仮名表記42は、平仮名でなく片仮名による表記であってもよい。
【0070】
さらに、第1〜第3実施形態では、提示処理部33は、仮名表記42にて表示を行う場合、常に仮名を表示する必要はなく、時分割で一般表記41と仮名表記42とを切り替えるようにしてもよい。また、提示処理部33は、仮名表記42として「へみ駅」などのように、区市町村や駅等の明らかに読むことができる漢字を仮名にせず、他の部分だけを仮名にして、ディスプレイ40に表示させるようにしてもよい。
【図面の簡単な説明】
【図1】本発明の第1実施形態に係る表示装置の構成図である。
【図2】第1実施形態の表示装置の動作を示すフローチャートである。
【図3】第1の提示処理が実行される場合に表示手段に表示される画像を示す説明図であり、(a)は実行前の表示画像の一例を示しており、(b)は実行後の表示画像の一例を示している。
【図4】第2の提示処理が実行される場合に表示手段に表示される画像を示す説明図であり、(a)は実行前の表示画像の一例を示しており、(b)は実行後の表示画像の一例を示している。
【図5】第3の提示処理が実行される場合に表示手段に表示される画像を示す説明図であり、(a)は実行前の表示画像の一例を示しており、(b)は実行後の表示画像の一例を示している。
【図6】音声認識対象語の尤度の一例を示す説明図である。
【図7】第4の提示処理が実行される場合に表示手段に表示される画像を示す説明図であり、(a)は実行前の表示画像の一例を示しており、(b)は実行後の表示画像の一例を示している。
【図8】本発明の第3実施形態に係る表示装置の構成図である。
【図9】第3実施形態の表示装置の動作を示すフローチャートである。
【図10】親和度に基づいて表示される画像を示す説明図であり、(a)は表示内容切替前の画像の一例を示しており、(b)は表示内容切替後の画像の一例を示しており、(c)は表示内容切替後の画像の他の例を示している。
【符号の説明】
31 音声認識部(音声認識手段)
32 判定部(選択手段)
33 提示処理部(表示内容生成手段)
40 ディスプレイ(表示手段)
42 仮名表記
60 親和度データベース(記憶手段)[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a display device that executes a predetermined process when a speech recognition target word to be subjected to speech recognition is accurately uttered, and a name display method thereof.
[0002]
[Prior art]
As a navigation device, which is one of the conventional display devices, for example, when it is unknown how to read a destination, the user inputs a voice of a place name around the destination and a distance from the place name around the destination to the destination. 2. Description of the Related Art There is known an apparatus that specifies a position, gives voice guidance to a user about the name of a destination existing at this position, and allows the user to specify a destination whose reading method was initially unknown (for example, see Patent Document 1).
[0003]
[Patent Document 1]
JP 2000-337912 A
[0004]
[Problems to be solved by the invention]
However, in a conventional display device (navigation device), when it is not clear how to read a destination or the like, an operation for designating the destination or the like is complicated and troublesome. In particular, when the user concentrates on driving, such as when running on rainy weather, the operation becomes very troublesome.
[0005]
SUMMARY OF THE INVENTION The present invention has been made to solve such a conventional problem, and an object of the present invention is to provide a display device and a name display method capable of facilitating an input operation by voice. It is in.
[0006]
[Means for Solving the Problems]
In order to achieve the above object, according to the present invention, one or more speech recognition target words to be subjected to speech recognition are displayed on a screen, and when the speech recognition target word is correctly uttered, setting of a destination and When a predetermined process such as screen switching is performed and the user's utterance of the speech recognition target word is recognized as being inaccurate, or when the user's utterance of the speech recognition target word is not recognized for a predetermined time, the screen is displayed. At least one of the one or more speech recognition target words displayed above is displayed in kana notation.
[0007]
【The invention's effect】
According to the present invention, since the utterance state of the user is detected and at least one or more speech recognition targets displayed on the screen are displayed in kana notation, the user cannot read in notation such as kanji. It is possible to know the correct reading of the speech recognition target word, and it is possible to easily specify the speech recognition target word without requiring a complicated operation. Therefore, it is possible to facilitate the input operation by voice.
[0008]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a preferred embodiment of the present invention will be described with reference to the drawings.
[0009]
FIG. 1 is a configuration diagram of a display device according to the first embodiment of the present invention. As shown in FIG. 1, the
[0010]
The
[0011]
More specifically, the
[0012]
The
[0013]
The
[0014]
FIG. 2 is a flowchart illustrating the operation of the
[0015]
When the
[0016]
If it is determined that the end operation has not been performed (ST102: NO), the process returns to step ST100. When it is determined that the end operation has been performed (ST102: YES), the process ends.
[0017]
By the way, when the
[0018]
Here, the first presentation process is a process in which the
[0019]
FIGS. 3A and 3B are explanatory diagrams showing images displayed on the
[0020]
As shown in FIG. 3A, the display image before the first presentation process is executed includes words such as “Taura Daisakucho” and “Hemi Station”, which are the words to be recognized, in a
[0021]
In the second presentation process, the
[0022]
FIGS. 4A and 4B are explanatory diagrams showing images displayed on the
[0023]
As shown in FIG. 4A, in the display image before the first presentation process is executed, words such as “Shioiri Station” and “Hemi Station” which are speech recognition target words are displayed in a
[0024]
The
[0025]
Description will be made again with reference to FIG. When it is determined that a voice has been input by the user (ST100: YES), the
[0026]
If it is determined that the voice data recorded in the voice
[0027]
If it is determined that there is no speech recognition target word having a likelihood equal to or greater than the second predetermined value (ST121: NO), the process proceeds to step ST102. When it is determined that there is a speech recognition target word having a likelihood greater than or equal to the second predetermined value (ST121: YES),
[0028]
Here, the third presentation process means that the
[0029]
FIGS. 5A and 5B are explanatory diagrams illustrating images displayed on the
[0030]
As shown in FIG. 5A, in the display image before the third presentation process is executed, words such as “Taura Daisakucho”, which is a target word for speech recognition, are displayed in the
[0031]
When the second predetermined value is set to “50%”, the only voice recognition target word that is equal to or more than the second predetermined value is “Taura Daisakucho”. In this case, when the third presentation process is executed, as shown in FIG. 5B, the word “Taura Daisakucho” which is the speech recognition target word having the second predetermined value or more is written in hiragana and kana. 42 is displayed. As described above, when the third presentation process is executed, words having a second predetermined value or more among the speech recognition target words displayed on the screen are changed from the
[0032]
In the description here, the number of speech recognition target words represented by the
[0033]
Description will be made again with reference to FIG. When it is determined that the voice data recorded in the voice
[0034]
When it is determined that there is no matching with the misread name that is an erroneous reading of the speech recognition target word (ST140: NO), that is, when it is determined that the speech recognition target word has been uttered correctly, normal display contents are presented. (ST141). That is, as shown in FIG. 3A and FIG. 4A, the speech recognition target word is displayed as the
[0035]
On the other hand, when it is determined that the voice recognition target word matches the misreading name that is a wrong reading (ST140: YES), the
[0036]
Here, the fourth presentation processing means that the
[0037]
FIGS. 7A and 7B are explanatory diagrams illustrating an image displayed on the
[0038]
Here, it is assumed that the user intends to designate "Hemi Station" and utters "Isumi Eki". At this time, the
[0039]
In this manner, in the
[0040]
Further, when the speech recognition target word is not recognized by the user in the
[0041]
Further, since the speech recognition target word whose likelihood is equal to or more than the second predetermined value is displayed as the
[0042]
Further, since the speech recognition target word in which the misread name is uttered is displayed as the
[0043]
Next, a second embodiment of the present invention will be described. The
[0044]
That is, in the
[0045]
Further, the
[0046]
As described above, in the
[0047]
Further, if the speech recognition target word is not recognized by the user in the
[0048]
In addition, since the speech recognition target word whose likelihood is equal to or greater than the second predetermined value is displayed with a symbol attached thereto, the user must be able to accurately speak regardless of whether the speech recognition target word is obfuscated or not. In this case, a symbol is attached to the speech recognition target word that is highly likely to be specified by the user, and the user can flexibly support the voice input (effect of claim 7).
[0049]
Further, since the misrecognized name is displayed with a symbol attached to the uttered speech recognition target word, the symbol is attached only to the speech recognition target word for which the erroneous reading was uttered. For this reason, a symbol is attached only to the speech recognition target word that has an extremely high probability of being specified by the user. Therefore, an increase in the number of characters on the entire screen can be minimized, and a decrease in visibility can be suppressed more efficiently (the effect of claim 8).
[0050]
Next, a third embodiment of the present invention will be described. FIG. 8 is a configuration diagram of a display device according to the third embodiment of the present invention. As shown in the figure, the
[0051]
As shown in the figure, the
[0052]
Here, the affinity is an index indicating how much the user knows the place name of each region, and is obtained based on the running history of the vehicle, the registered contents registered by the user in advance, and the operation history of the user. Things.
[0053]
FIG. 9 is a flowchart illustrating the operation of the
[0054]
When it is determined that the vehicle is not traveling (ST201: NO), the
[0055]
If it is determined that the end operation has not been performed (ST203: NO), the process returns to step ST200. If it is determined that the end operation has been performed (ST203: YES), the process ends.
[0056]
By the way, when it is determined that the point is being registered (ST202: YES), the
[0057]
When it is determined that the own vehicle is traveling (ST201: YES), the
[0058]
In addition, since the
[0059]
When it is determined that the speech recognition target word has been uttered by the user (ST200: YES), the
[0060]
After the comparison, the
[0061]
Hereinafter, the display image displayed in step ST231 will be described with reference to FIG. FIGS. 10A and 10B are explanatory diagrams showing images displayed based on the affinity. FIG. 10A shows an example of an image before display content switching, and FIG. 10B shows an example of an image after display content switching. (C) shows another example of the image after the display contents are switched.
[0062]
As shown in FIG. 10A, in the image before the display contents are switched, words such as “Yokosuka City” and “Yokosuka City”, which are speech recognition target words, are displayed in
[0063]
Next, it is assumed that the user has designated "Yokohama City". At this time, as illustrated in FIG. 10B, the
[0064]
On the other hand, when the user designates “Yokosuka City”, the display image is as shown in FIG. That is, since Yokosuka City is not included in the
[0065]
That is, the
[0066]
In this manner, in the
[0067]
The affinity is obtained based on the running history, the registered contents, and the operation history. That is, the affinity changes in accordance with the user's behavior and usage state. Therefore, the affinity of each area is set for each user, and the
[0068]
Note that the present invention is not limited to the above embodiment. For example, in the first and second embodiments, the traveling history and the operation history are kept stored. However, when a predetermined number of days have elapsed since the acquisition of the traveling history and the operation history, the
[0069]
In the first to third embodiments, the names of cities, towns and towns and the names of stations are listed as the words to be recognized. However, the words to be recognized may be names of landmarks and buildings. In addition, when the words to be recognized for speech are used as the
[0070]
Furthermore, in the first to third embodiments, when performing the display in the
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a display device according to a first embodiment of the present invention.
FIG. 2 is a flowchart illustrating an operation of the display device of the first embodiment.
FIGS. 3A and 3B are explanatory diagrams showing images displayed on a display unit when a first presentation process is executed, wherein FIG. 3A shows an example of a display image before execution, and FIG. An example of a display image after is shown.
FIGS. 4A and 4B are explanatory diagrams showing images displayed on a display unit when a second presentation process is executed, wherein FIG. 4A shows an example of a display image before execution, and FIG. An example of a display image after is shown.
FIGS. 5A and 5B are explanatory diagrams showing images displayed on a display unit when a third presentation process is executed, wherein FIG. 5A shows an example of a display image before execution, and FIG. An example of a display image after is shown.
FIG. 6 is an explanatory diagram showing an example of the likelihood of a speech recognition target word.
FIGS. 7A and 7B are explanatory diagrams showing images displayed on a display unit when a fourth presentation process is executed, wherein FIG. 7A shows an example of a display image before execution, and FIG. An example of a display image after is shown.
FIG. 8 is a configuration diagram of a display device according to a third embodiment of the present invention.
FIG. 9 is a flowchart illustrating an operation of the display device according to the third embodiment.
FIGS. 10A and 10B are explanatory diagrams showing images displayed based on affinity, wherein FIG. 10A shows an example of an image before display content switching, and FIG. 10B shows an example of an image after display content switching. (C) shows another example of the image after the display contents are switched.
[Explanation of symbols]
31 voice recognition unit (voice recognition means)
32 Judgment unit (selection means)
33 presentation processing unit (display content generation means)
40 Display (display means)
42 Kana notation
60 Affinity database (storage means)
Claims (15)
ユーザが発話した音声を認識する音声認識手段と、
前記音声認識手段にてユーザによる前記音声認識対象語の発話が不正確であったと認識された場合又は前記音声認識手段にてユーザによる発話が所定時間認識されなかった場合に、画面上に表示される1又は複数の前記音声認識対象語のうち少なくとも1以上の前記音声認識対象語を仮名表記にして表示内容を生成する表示内容生成手段と、
前記表示内容生成手段にて生成された前記表示内容を表示する表示手段と、
を備えることを特徴とする表示装置。A display device that is mounted on a vehicle and displays one or a plurality of speech recognition target words to be subjected to speech recognition on a screen, and executes a predetermined process when the speech recognition target words are accurately uttered.
Voice recognition means for recognizing voice uttered by the user;
When the speech recognition unit recognizes that the speech of the speech recognition target word by the user was incorrect or when the speech recognition unit does not recognize the speech of the user for a predetermined time, the speech recognition unit displays the speech on the screen. Display content generation means for generating display content by using at least one of the speech recognition target words among the one or more speech recognition target words as kana notation;
Display means for displaying the display content generated by the display content generation means,
A display device comprising:
前記選択手段は、前記音声認識手段にてユーザによる発話が所定時間認識されなかった場合に、1又は複数の前記音声認識対象語のうち予め難読であるとして登録された前記音声認識対象語を選択することを特徴とする請求項1に記載の表示装置。Selecting means for selecting, from one or a plurality of the speech recognition target words displayed on a screen, the speech recognition target word to be kana notation by the display content generation means,
The selecting means selects the speech recognition target word registered in advance as being difficult to read from one or a plurality of the speech recognition target words when the speech by the user is not recognized by the speech recognition unit for a predetermined time. The display device according to claim 1, wherein:
前記音声認識手段は、画面上に表示される1又は複数の前記音声認識対象語それぞれと発話された音声との尤度がすべて第1の所定値を下回った場合に、前記音声認識対象語の発話が不正確であったと認識し、
前記選択手段は、前記尤度がすべて第1の所定値を下回ったことによって、前記音声認識手段にて前記音声認識対象語の発話が不正確であったと認識された場合、前記尤度が前記第1の所定値よりも小さく設定される第2の所定値以上となった前記音声認識対象語を選択することを特徴とする請求項1に記載の表示装置。Selecting means for selecting, from one or a plurality of the speech recognition target words displayed on a screen, the speech recognition target word to be kana notation by the display content generation means,
The voice recognition means, when the likelihood of each of the one or more speech recognition target words displayed on the screen and the uttered voice is all below a first predetermined value, the speech recognition target word Recognizing that the utterance was incorrect,
The selecting means, when the likelihood is less than a first predetermined value, when the speech recognition means is recognized that the utterance of the speech recognition target word was incorrect, the likelihood is the said The display device according to claim 1, wherein the speech recognition target word having a second predetermined value which is set to be smaller than a first predetermined value or more is selected.
前記音声認識手段は、前記音声認識対象語の誤った読みであって予め登録された誤読名称が発話された場合に、前記音声認識対象語の発話が不正確であったと認識し、
前記選択手段は、前記誤読名称が発話されたことによって、前記音声認識手段にて前記音声認識対象語の発話が不正確であったと認識された場合、その誤読名称が発話された前記音声認識対象語を選択することを特徴とする請求項1に記載の表示装置。Selecting means for selecting, from one or a plurality of the speech recognition target words displayed on a screen, the speech recognition target word to be kana notation by the display content generation means,
The voice recognition means, when the erroneous reading of the speech recognition target word is uttered and a misregistered name registered in advance is recognized, recognizes that the utterance of the speech recognition target word was incorrect,
The selecting means, when the misrecognized name is spoken, and the speech recognizing means recognizes that the speech of the speech recognition target word is incorrect, the speech recognition target in which the misread name is spoken. The display device according to claim 1, wherein a word is selected.
ユーザが発話した音声を認識する音声認識手段と、
前記音声認識手段にてユーザによる前記音声認識対象語の発話が不正確であったと認識された場合又は前記音声認識手段にてユーザによる発話が所定時間認識されなかった場合に、画面上に表示される1又は複数の前記音声認識対象語のうち少なくとも1以上の前記音声認識対象語に記号を付して表示内容を生成する表示内容生成手段と、
前記表示内容生成手段にて生成された前記表示内容を表示する表示手段とを備え、
前記音声認識手段は、前記記号が発話されることにより、前記記号のみとされた又は前記記号が付されている前記音声認識対象語が発話されたと認識することを特徴とする表示装置。A display device that is mounted on a vehicle and displays one or a plurality of speech recognition target words to be subjected to speech recognition on a screen, and executes a predetermined process when the speech recognition target words are accurately uttered.
Voice recognition means for recognizing voice uttered by the user;
When the speech recognition unit recognizes that the speech of the speech recognition target word by the user was incorrect or when the speech recognition unit does not recognize the speech of the user for a predetermined time, the speech recognition unit displays the speech on the screen. Display content generating means for generating a display content by attaching a symbol to at least one or more of the speech recognition target words of the one or more speech recognition target words,
Display means for displaying the display content generated by the display content generation means,
The display device, wherein the voice recognition unit recognizes that the voice recognition target word having only the symbol or having the symbol attached has been uttered when the symbol is uttered.
前記選択手段は、前記音声認識手段にてユーザによる発話が所定時間認識されなかった場合に、1又は複数の前記音声認識対象語のうち予め難読であるとして登録された前記音声認識対象語を選択することを特徴とする請求項5に記載の表示装置。Selecting means for selecting, from one or a plurality of speech recognition target words displayed on a screen, the speech recognition target word to which the symbol is attached by the display content generation means;
The selecting means selects the speech recognition target word registered in advance as being difficult to read from one or a plurality of the speech recognition target words when the speech by the user is not recognized by the speech recognition unit for a predetermined time. The display device according to claim 5, wherein:
前記音声認識手段は、画面上に表示される1又は複数の前記音声認識対象語それぞれと発話された音声との尤度がすべて第1の所定値を下回った場合に、前記音声認識対象語の発話が不正確であったと認識し、
前記選択手段は、前記尤度がすべて第1の所定値を下回ったことによって、前記音声認識手段にて前記音声認識対象語の発話が不正確であったと認識された場合、前記尤度が前記第1の所定値よりも小さく設定される第2の所定値以上となった前記音声認識対象語を選択することを特徴とする請求項5に記載の表示装置。Selecting means for selecting, from one or a plurality of speech recognition target words displayed on a screen, the speech recognition target word to which the symbol is attached by the display content generation means;
The voice recognition means, when the likelihood of each of the one or more speech recognition target words displayed on the screen and the uttered voice is all below a first predetermined value, the speech recognition target word Recognizing that the utterance was incorrect,
The selecting means, when the likelihood is less than a first predetermined value, when the speech recognition means is recognized that the utterance of the speech recognition target word was incorrect, the likelihood is the said The display device according to claim 5, wherein the speech recognition target word having a second predetermined value which is set to be smaller than a first predetermined value or more is selected.
前記音声認識手段は、前記音声認識対象語の誤った読みであって予め登録されている誤読名称が発話された場合に、前記音声認識対象語の発話が不正確であったと認識し、
前記選択手段は、前記誤読名称が発話されたことによって、前記音声認識手段にて前記音声認識対象語の発話が不正確であったと認識された場合、その誤読名称が発話された前記音声認識対象語を選択することを特徴とする請求項5に記載の表示装置。Selecting means for selecting, from one or a plurality of speech recognition target words displayed on a screen, the speech recognition target word to which the symbol is attached by the display content generation means;
The voice recognition means, when an erroneous reading of the voice recognition target word is uttered and a misregistered name registered in advance is recognized, recognizes that the utterance of the voice recognition target word was incorrect,
The selecting means, if the misrecognized name is spoken, and the speech recognizing means recognizes that the speech of the speech recognition target word is incorrect, the speech recognition target in which the misread name is spoken. The display device according to claim 5, wherein a word is selected.
ユーザが発話した音声を認識する音声認識手段と、
地域毎におけるユーザの親和度を記憶する記憶手段と、
前記音声認識手段にて認識された音声が表示を指定する地域について、前記記憶手段に記憶されたユーザの親和度が所定値を下回る場合に、指定された地域内に表示される1又は複数の前記音声認識対象語のうち少なくとも1以上の前記音声認識対象語を仮名表記にして表示内容を生成する表示内容生成手段と、
前記表示内容生成手段にて生成された前記表示内容を表示する表示手段と、
を備えることを特徴とする表示装置。A display device that is mounted on a vehicle and displays one or a plurality of speech recognition target words to be subjected to speech recognition on a screen, and executes a predetermined process when the speech recognition target words are accurately uttered.
Voice recognition means for recognizing voice uttered by the user;
Storage means for storing user affinity in each region;
One or a plurality of areas displayed in the designated area when the user's affinity stored in the storage means falls below a predetermined value for the area in which the voice recognized by the voice recognition means specifies the display. A display content generation unit configured to generate display content by using at least one of the speech recognition target words in the kana notation in the speech recognition target words,
Display means for displaying the display content generated by the display content generation means,
A display device comprising:
ユーザが発話した音声を認識する第1ステップと、
前記第1ステップにてユーザによる前記音声認識対象語の発話が不正確であったと認識された場合又は前記第1ステップにてユーザによる発話が所定時間認識されなかった場合に、画面上に表示される1又は複数の前記音声認識対象語のうち少なくとも1以上の前記音声認識対象語を仮名表記にして表示内容を生成する第2ステップと、
前記第2ステップにて生成された前記表示内容を表示する第3ステップと、
を備えることを特徴とする表示装置の名称表示方法。A name display method for a display device mounted on a vehicle and displaying one or a plurality of speech recognition target words to be subjected to speech recognition on a screen, and performing a predetermined process when the speech recognition target words are accurately uttered. At
A first step of recognizing a voice uttered by the user;
When the utterance of the speech recognition target word by the user is recognized as being incorrect in the first step, or when the utterance by the user is not recognized for a predetermined time in the first step, the message is displayed on the screen. A second step in which at least one or more of the speech recognition target words of the one or more speech recognition target words is displayed in a kana notation and display content is generated;
A third step of displaying the display content generated in the second step;
A method for displaying a name of a display device, comprising:
ユーザが発話した音声を認識する第1ステップと、
前記第1ステップにてユーザによる前記音声認識対象語の発話が不正確であったと認識された場合又は前記音声認識手段にてユーザによる発話が所定時間認識されなかった場合に、画面上に表示される1又は複数の前記音声認識対象語のうち少なくとも1以上の前記音声認識対象語に記号を付して表示内容を生成する第2ステップと、
前記第2ステップにて生成された前記表示内容を表示する第3ステップとを備え、
次回以降の前記第1ステップでは、前記記号が発話されることにより、前記記号が付されている前記音声認識対象語が発話されたと認識することを特徴とする表示装置の名称表示方法。A name display method for a display device mounted on a vehicle and displaying one or a plurality of speech recognition target words to be subjected to speech recognition on a screen, and performing a predetermined process when the speech recognition target words are accurately uttered. At
A first step of recognizing a voice uttered by the user;
If the utterance of the speech recognition target word by the user is recognized as being incorrect in the first step, or if the utterance by the user is not recognized for a predetermined time by the voice recognition means, the message is displayed on the screen. A second step of adding a symbol to at least one or more of the speech recognition target words among the one or more speech recognition target words to generate a display content;
A third step of displaying the display content generated in the second step,
In the first step after the next time, the symbol is uttered to recognize that the speech recognition target word to which the symbol is attached is uttered.
ユーザが発話した音声を認識する第1ステップと、
前記第1ステップにて認識された音声が表示を指定する地域について、記憶されているユーザの親和度が所定値を下回る場合に、指定された地域内に表示される1又は複数の前記音声認識対象語のうち少なくとも1以上の前記音声認識対象語を仮名表記にして表示内容を生成する第2ステップと、
前記第2ステップにて生成された前記表示内容を表示する第3ステップと、
前記第3ステップにて表示された地域について、ユーザの親和度を更新して記憶する第4ステップとを備え、
前記第4ステップにて更新して記憶された前記ユーザの親和度を、次回以降の前記第2ステップにおける所定値との比較に用いることを特徴とする表示装置の名称表示方法。A name display method for a display device mounted on a vehicle and displaying one or a plurality of speech recognition target words to be subjected to speech recognition on a screen, and performing a predetermined process when the speech recognition target words are accurately uttered. At
A first step of recognizing a voice uttered by the user;
One or more of the voice recognitions displayed in a specified area when the stored user affinity is lower than a predetermined value for the area in which the voice recognized in the first step specifies the display. A second step of generating display content by converting at least one or more of the target words of the target words into kana notation;
A third step of displaying the display content generated in the second step;
A fourth step of updating and storing the affinity of the user for the area displayed in the third step,
A name display method for a display device, wherein the affinity of the user updated and stored in the fourth step is used for comparison with a predetermined value in the second step from the next time.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002297209A JP2004133162A (en) | 2002-10-10 | 2002-10-10 | Display device and name display method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002297209A JP2004133162A (en) | 2002-10-10 | 2002-10-10 | Display device and name display method therefor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004133162A true JP2004133162A (en) | 2004-04-30 |
Family
ID=32286965
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002297209A Pending JP2004133162A (en) | 2002-10-10 | 2002-10-10 | Display device and name display method therefor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004133162A (en) |
-
2002
- 2002-10-10 JP JP2002297209A patent/JP2004133162A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7277846B2 (en) | Navigation system | |
US20070156331A1 (en) | Navigation device | |
KR101063607B1 (en) | Navigation system having a name search function using voice recognition and its method | |
JP4930486B2 (en) | Voice recognition system and navigation device | |
JP5056784B2 (en) | Speech recognition system | |
JP2016218361A (en) | Speech recognition system, in-vehicle device, and server device | |
JP4914632B2 (en) | Navigation device | |
US6963801B2 (en) | Vehicle navigation system having position correcting function and position correcting method | |
JP2005275228A (en) | Navigation system | |
US20110022390A1 (en) | Speech device, speech control program, and speech control method | |
JP2019174509A (en) | Server device and method for notifying poi reading | |
US8560226B2 (en) | Navigation device and navigation method | |
JP2004133162A (en) | Display device and name display method therefor | |
JP3925368B2 (en) | Control system | |
JP4661379B2 (en) | In-vehicle speech recognition device | |
JP2007065206A (en) | Institution retrieval system | |
JP2000122685A (en) | Navigation system | |
JP4705398B2 (en) | Voice guidance device, control method and program for voice guidance device | |
WO2006028171A1 (en) | Data presentation device, data presentation method, data presentation program, and recording medium containing the program | |
JP2003005783A (en) | Navigation system and its destination input method | |
US20150192425A1 (en) | Facility search apparatus and facility search method | |
JP2010038751A (en) | Navigation system | |
JP3654262B2 (en) | Voice recognition device and navigation system | |
JP2006039954A (en) | Database retrieval system, program, and navigation system | |
JP2005215474A (en) | Speech recognition device, program, storage medium, and navigation device |