JPWO2007077703A1 - 音声認識装置、表示方法及び表示処理プログラム - Google Patents

音声認識装置、表示方法及び表示処理プログラム Download PDF

Info

Publication number
JPWO2007077703A1
JPWO2007077703A1 JP2007552884A JP2007552884A JPWO2007077703A1 JP WO2007077703 A1 JPWO2007077703 A1 JP WO2007077703A1 JP 2007552884 A JP2007552884 A JP 2007552884A JP 2007552884 A JP2007552884 A JP 2007552884A JP WO2007077703 A1 JPWO2007077703 A1 JP WO2007077703A1
Authority
JP
Japan
Prior art keywords
speech
voice
display
utterance
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007552884A
Other languages
English (en)
Other versions
JP4781368B2 (ja
Inventor
外山 聡一
聡一 外山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=38228061&utm_source=***_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JPWO2007077703(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Pioneer Corp filed Critical Pioneer Corp
Priority to JP2007552884A priority Critical patent/JP4781368B2/ja
Publication of JPWO2007077703A1 publication Critical patent/JPWO2007077703A1/ja
Application granted granted Critical
Publication of JP4781368B2 publication Critical patent/JP4781368B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)

Abstract

発話可能な言葉の一覧を見ながらでも、ユーザが発話するタイミングを容易に認識することができる音声認識装置、表示方法及び表示処理プログラムを提供する。発話ボタンがユーザにより押下されたときから音声認識部114による音声認識処理が開始するまでの間は、システム制御部116が、発話リスト1と同列に配列されるような位置に発話禁止を意味する発話禁止メッセージ2aを表示するとともに、発話禁止を意味する発話禁止マーク3を発話リスト1と重なる位置表示し、音声認識部114による音声認識処理が開始された後は、その発話禁止メッセージ2a及び発話禁止マーク3を画面上から消去する。

Description

本願は、ユーザの発話音声を入力し当該入力された音声に基づいてユーザが発した言葉を認識する音声認識装置、当該音声認識装置における表示方法及び表示処理プログラムの技術分野に関する。
従来より、発話音声を解析してユーザの話した言葉を認識する音声認識処理を行い、その認識した言葉に対応して各種の処理を実行するような音声認識装置が実用化されている。
上記音声認識装置を具備したものとして、例えば、移動体の経路誘導を行うナビゲーションシステムの場合には、ユーザの発話音声をシステムに対する命令や目的地の指定等として認識することにより、ユーザが指定した目的地を探索したり、地図の表示態様を変更したり、渋滞情報を表示する等といった処理を行うようになっている。
こうした音声認識装置の中には、当該装置の状態等に応じて、そのときに認識可能(発話可能)な言葉の一覧を画面に表示するようになっているものが存在する。この一覧表示された言葉の中から、ユーザは必要な言葉を選択して発話することにより、迷うことなくスムーズに装置に対する命令操作等を行うことができるようになっている。
また、音声認識装置の中には、常時ユーザの発話音声を入力して音声認識処理を行うのではなく、例えば、発話ボタンの押下(押す動作)などユーザが当該処理の開始を指示するための所定の操作を行ったときに音声認識処理を行うような仕様となっているものが少なからず存在する。このような仕様となっている理由の一つには、例えば、普通の会話等のように音声認識装置に対する命令等ではない言葉をユーザが発しているような場合でも、常時音声認識処理を行っていると、それを装置に対する命令等として認識してしまうことにより、ユーザの意図しない処理を実行してしまう場合があるからである。
ところが、音声認識処理を行うためには、例えば、音声認識処理用のプログラムを記録媒体等から読み出したり、入力した音声を音声情報として記憶するための領域を確保したり等といった準備処理、初期化処理等が必要となることから、発話ボタンの押下等の操作を行ってから実際に音声認識処理を開始するまでに時間を要する場合が少なくない。しかし、その装置の操作に慣れていないようなユーザは、発話ボタンを押下等した直後に装置に対する命令等の言葉を発することがあり、その音声を適切に入力することができないという問題があった。
こうしたことから、従来から、音声によって発話するタイミングをユーザに通知するというようなことが一般的に行われている(例えば、「ピッと鳴ったらお話ください。」等)。
また、例えば、特許文献1には、例えば、画面の隅などの所定の領域に動き等を伴う画像を表示させ、その画像の動き等により、音声入力が可能になるまでの時間を直感的にユーザに通知する技術が開示されている。
特開2003−177789号公報
しかしながら、装置の操作に慣れていないようなユーザは、何を発話して良いのか分からないので、画面に表示された発話可能な言葉の一覧を注視しながら発話する言葉を探すことが多い。そうした事情の下において所定領域に動き等を伴う画像をいくら表示したとしても、ユーザの意識は発話可能な言葉の一覧の方に集中しているので、当該画像が視認され難くなり、ユーザが発話するタイミングを認識することが困難となる。
本願は、以上の点に鑑みてなされたものであり、その課題の一例は、画面に表示された発話可能な言葉の一覧等を見ながらでも、ユーザが発話するタイミングを容易に認識することができる音声認識装置、表示方法及び表示処理プログラムを提供することを目的とする。
上記課題を解決するために、本願の一つの観点では、ユーザの発話音声を入力する音声入力手段と、前記入力された音声に基づいてユーザにより発せられた言葉を認識する音声認識処理を行う認識手段と、前記認識手段に対して前記音声認識処理の開始を指示する指示信号を出力する指示手段と、前記認識手段が認識することができる言葉のうち少なくとも一つを認識可能文字として画面上に配列して表示する表示手段と、を備える音声認識装置において、少なくとも前記指示信号が出力されたときから前記認識手段における前記音声認識処理が実行可能となるまでの間、前記認識可能文字と同列に配列されるような位置に発話禁止を意味する禁止文字を前記表示手段に表示するか、または、前記認識可能文字の少なくとも一部と重なる位置に発話禁止を意味する禁止画像を前記表示手段に表示するか、の少なくともいずれか一方を行い、更に前記音声認識処理が開始された後は、前記禁止文字または禁止画像の少なくともいずれか一方を前記画面上から消去する表示制御手段を備えることを特徴とする。
本願の他の観点では、ユーザの発話音声を入力する音声入力手段と、前記入力された音声に基づいてユーザにより発せられた言葉を認識する音声認識処理を行う認識手段と、前記認識手段に対して前記音声認識処理の開始を指示する指示信号を出力する指示手段と、前記認識手段が認識することができる言葉のうち少なくとも一つを認識可能文字として画面上に配列して表示する表示手段と、を備える音声認識装置における表示方法であって、少なくとも前記指示信号が出力されたときから前記認識手段における前記音声認識処理が実行可能となるまでの間、前記認識可能文字と同列に配列されるような位置に発話禁止を意味する禁止文字を前記表示手段に表示するか、または、前記認識可能文字の少なくとも一部と重なる位置に発話禁止を意味する禁止画像を前記表示手段に表示するか、の少なくともいずれか一方を行う工程と、更に前記音声認識処理が開始された後は、前記禁止文字または禁止画像の少なくともいずれか一方を前記画面上から消去する工程と、を備えることを特徴とする。
本願の更に他の観点では、ユーザの発話音声を入力する音声入力手段と、前記入力された音声に基づいてユーザにより発せられた言葉を認識する音声認識処理を行う認識手段と、前記認識手段に対して前記音声認識処理の開始を指示する指示信号を出力する指示手段と、前記認識手段が認識することができる言葉のうち少なくとも一つを認識可能文字として画面上に配列して表示する表示手段と、を備える音声認識装置に含まれるコンピュータを、少なくとも前記指示信号が出力されたときから前記認識手段における前記音声認識処理が実行可能となるまでの間、前記認識可能文字と同列に配列されるような位置に発話禁止を意味する禁止文字を前記表示手段に表示するか、または、前記認識可能文字の少なくとも一部と重なる位置に発話禁止を意味する禁止画像を前記表示手段に表示するか、の少なくともいずれか一方を行い、更に前記音声認識処理が開始された後は、前記禁止文字または禁止画像の少なくともいずれか一方を前記画面上から消去する表示制御手段として機能させることを特徴とする。
本実施形態に係るナビゲーション装置による画面構成例を示す図であり、(a)は発話ボタンを押下した直後の画面であり、(b)は音声認識処理を開始した後の画面である。 本実施形態に係るナビゲーション装置100の概要構成の一例を示すブロック図である。 本実施形態に係るナビゲーション装置100の処理の流れの一例を示すフローチャートである。 本実施形態の変形例に係るナビゲーション装置による画面構成例を示す図であり、(a)は最初の発話ボタンを押下した直後の画面であり、(b)はガイダンス音声が再生された後の画面である。 本実施形態の変形例に係るナビゲーション装置100の処理の流れの一例を示すフローチャートである。
符号の説明
1 発話リスト
2a 発話禁止メッセージ
2b 発話許可メッセージ
3 発話禁止マーク
4 ガイダンスメッセージ
5 発話ボタン押下待ちメッセージ
100 ナビゲーション装置
101 GPS受信部
102 センサ部
103 インターフェース部
104 VICSデータ受信部
105 HDドライブ
106 DVDドライブ
107 音声処理部
108 スピーカ
109 操作部
110 表示部
111 バッファメモリ
112 表示制御部
113 マイクロホン
114 音声認識部
115 システム状態監視部
116 システム制御部
117 RAM/ROM
以下、図面を参照して本願の最良の実施形態について詳細に説明する。なお、以下に説明する実施の形態は、車の経路誘導を行うナビゲーション装置に対して本願を適用した場合の実施形態である。
[1.画面構成]
本実施形態に係るナビゲーション装置は、ユーザの発話音声を入力して音声認識処理を行うことにより、ユーザの発した言葉を当該装置に対する命令や目的地の指定等と認識し、当該認識結果に対応した動作を行うものであり、このとき、音声認識処理の開始を指示する発話ボタンをユーザが押下してから実際に音声認識処理を開始するまでの間、発話禁止を意味するメッセージ及びマークを画面に表示する。初めに、この表示画面の構成について、図1を用いて説明する。
図1は、本実施形態に係るナビゲーション装置による画面構成例を示す図であり、(a)は発話ボタンを押下した直後の画面であり、(b)は音声認識処理を開始した後の画面である。
先ず、ユーザが発話ボタンを押下した直後は、まだ音声認識処理を実行することができない状態である。このとき、図1(a)に示すように、画面中央付近に発話リスト1(認識可能文字の一例)が表示される。また、当該リストの上部に発話禁止メッセージ2a(禁止文字の一例)が表示される。更に、発話リスト1と重ねられて発話禁止マーク3(禁止画像の一例)が表示され、画面下部にガイダンスメッセージ4が表示されるようになっている。
発話リスト1は、ナビゲーション装置が認識することができる言葉を横書きで縦一列に並べて表示したものであり、これらの言葉は時々の状況に応じて変化する。例えば、通常の命令を受け付ける状態であれば、「行き先を探す」、「地図操作」、「ルート操作」等が表示され、例えば、行き先のジャンルを受け付ける状態であれば、「駅」、「野球場」、「遊園地」等が表示される、といった具合である。
発話禁止メッセージ2aは、ユーザによる発話を禁止することを意味する言葉を表した文字である(例えば、「まだ発話できません」等)。当該文字は、発話リスト1と同列の一番上に表示される。また、発話禁止メッセージ2aのフォント、文字の大きさ、文字の太さ、文字色、背景色といった表示態様を、発話リスト1とは異なるものとしている。具体的には、発話リスト1を角ばったフォントとし、発話禁止メッセージ2aは丸みがかったフォントとした。また、発話禁止メッセージ2aを発話リスト1より大きめの太い文字にした。また、発話リスト1の文字色は白色とし、発話禁止メッセージ2aの文字色は赤色とした。更に、発話リスト1の背景は濃紺色とし、発話禁止メッセージ2aの背景色はピンク色とした。
ユーザ(特にナビゲーション装置の操作に慣れていない初心者等)は、画面に表示された発話リスト1の中から発話しようとする言葉を探そうとする。その際、一般的には、発話リスト1の一番上の文字から読み始め、順次下の文字まで読み進んでいくものである。ここで、発話禁止メッセージ2aが発話リスト1と同列に、しかも、一番上に表示されているので、ユーザは、当該文字を最初に読む可能性が高い。もし、ユーザが発話リスト1の中間あたりから読み始めたり、一番下から読み始めたりしたような場合であっても、発話禁止メッセージ2aが発話リスト1と同列に表示されているので、ユーザが、発話リスト1を一通り読む間に発話禁止メッセージ2aも読む可能性が高いのである。更に、発話禁止メッセージ2aの表示態様が発話リスト1とは異なるので、発話禁止メッセージ2aが目立ち、ユーザに読まれる可能性がより高くなる。こうしたことにより、ユーザは、現在発話してはならないことを容易に認識することができる。また、発話禁止メッセージ2aの文字色や背景色が、禁止や危険等を暗示する赤色やピンク色となっているので、当該文字を完全には読まなくても発話禁止であることを認識しやすくなっている。
発話禁止マーク3は、ユーザによる発話を禁止することを示すマークである。図1(a)に示す例においては、交通標識等に見られる禁止標識のように、唇の絵が赤色の円形枠で囲まれ、更に、当該唇上に斜線が引かれている。そして、発話禁止マーク3は発話リスト1と重ねて表示されることで、ユーザが発話リスト1の全体を眺めたり、当該リストを一通り読んでいる間に当該マークを必然的に視認することとなる。従って、発話禁止マーク3によってもユーザは現在発話してはならないことを容易に認識することができる。なお、発話禁止マーク3は、発話リスト1全体と重なる必要は無く、当該リストの一部に重なるように表示されることにより発話リスト1と一体に視認されるような位置であっても良い。
ガイダンスメッセージ4は、操作の案内や画面説明等(例えば、「ピッと鳴ったらお話ください」等)として表示される。
次に、ナビゲーション装置による音声認識処理が開始されると、図1(b)に示すように、今まで発話禁止メッセージ2aが表示されていた位置に、発話許可メッセージ2b(許可文字の一例)が表示される。また、発話禁止マーク3は画面上から消去される。
発話許可メッセージ2bは、ユーザによる発話を許可することを意味する言葉を表した文字であり(例えば、「発話できます」等)、文字色は青色、背景色は水色である。発話許可メッセージ2bも発話禁止メッセージ2aと同様に発話リスト1と同列に表示されるので、ユーザが発話しても良いことを容易に認識することができる。また、発話許可メッセージ2bの文字色及び背景色を発話禁止メッセージ2aとは変わって、許可や安全等を暗示する青色や水色としたので、発話禁止から発話許可に変化したことをイメージしやすいのである。
また、今まで表示されていた発話禁止マーク3が消去されるので、これによっても、ユーザが発話しても良いことを容易に認識することができる。
なお、発話許可メッセージ2bを必ずしも表示する必要はなく、発話禁止メッセージ2aが画面上から消去されたことで、発話しても良いことをユーザに認識させることは可能である。一方、発話許可を示すマークを発話禁止マーク3が表示されていた位置に表示するようにしても良い。
以上説明したように、本実施形態においては、図1(a)及び(b)に示すような画面構成とすることにより、ユーザが発話リスト1を見ながらでも、発話タイミングを容易に認識することができるようになっている。
なお、発話禁止メッセージ2a及び発話許可メッセージ2bは、発話リスト1の上に表示するのではなく、例えば、当該リストの中間あたりや、当該リストの下に表示されても良い。
また、発話リスト1は、横書き縦一列表示ではなく、縦書き横一列に表示しても良いし、複数列に表示しても良いし、または、碁盤の目のようにして表示しても良い。つまりは、ナビゲーション装置が認識することができる言葉が何らかの形で配列されていれば良いのである。
その際、発話禁止メッセージ2a及び発話許可メッセージ2bは、発話リスト1と同列に配列(配置)されるような位置であれば、どの位置に表示するかは任意である。例えば、発話リスト1の先頭(例えば、一番上、左等)の延長上や末尾(例えば、一番下、右等)の延長上に表示しても良いし、発話リスト1自身に含めて表示しても良い(例えば、発話リスト1の中間等)。つまり、発話リスト1を読み進める間に、自然とユーザが読むような位置や、発話リスト1全体を一望したときに当該リストと一体として視認されるような位置等に表示されれば良い。
また、発話リスト1と発話禁止メッセージ2a及び発話許可メッセージ2bとを同一の態様で表示しても良いが、これらを区別して認識しやすいように、異なる態様で表示することが好ましく、その際には、上述したフォント、大きさ、太さ、文字色、背景色を変えることに限られず、例えば、文字を斜体にしたり、下線を引いたりしても良いし、例えば、発話リスト1を日本語で表示し、発話禁止メッセージ2a等を英語で表示しても良いし、背景の画像や模様を変えても良い。また、発話禁止メッセージ2aと発話許可メッセージ2bとの間においても、発話禁止と許可とを区別して認識しやすいように表示することが好ましく、その際には、上述した文字色、背景色を変えることに限られるものではない。
更にまた、図1(a)の画面において、発話禁止メッセージ2a及び発話禁止マーク3の双方を必ずしも表示する必要は無く、どちらか一方を表示するだけでも、発話するタイミングをユーザに認識させることは可能である。
[2.ナビゲーション装置の構成及び機能]
次に、本実施形態に係るナビゲーション装置100の具体的な構成及び機能について、図2を用いて説明する。
図2は、本実施形態に係るナビゲーション装置100の概要構成の一例を示すブロック図である。
図1に示すように、ナビゲーション装置100は、GPS(Global Positioning System)データを受信するGPS受信部101と、車両の走行速度、加速度、進行方向などの走行データを検出するセンサ部102と、GPSデータおよび走行データに基づいて自車位置を算出するインターフェース部103と、VICS(Vehicle Information Communication System)データを受信するVICSデータ受信部104と、地図データ等の各種データが格納されたHD(Hard Disk)に対してデータの書き込み及び読み出しを行うHDドライブ105と、DVDディスク(Digital Versatile Disk)から各種データを読み出すDVDドライブ106と、経路誘導や操作ガイダンス等の音声を生成する音声処理部107と、音声処理部107により生成された音声を可聴周波数の音波として出力するスピーカ108と、ユーザがシステムに対する命令を入力する際に用いられる操作部109と、地図データおよび車両の位置等を表示する表示部110と、バッファメモリ111を用いて表示部110を制御する表示制御部112と、ユーザの音声を集音するマイクロホン113と、マイクロホン113により集音された音声からユーザの発した言葉をシステムに対する命令等として認識する音声認識部114と、主として音声認識処理に関するナビゲーション装置100のシステムの状態を検出するシステム状態監視部115と、システム全体を制御するシステム制御部116と、RAM(Random Access Memory)/ROM(Read Only Memory)117と、により構成され、システム制御部116と各部とはシステムバスにより相互に接続されている。
また、表示部110は、本願に係る表示手段の一例を構成し、操作部109は、本願に係る指示手段の一例を構成し、マイクロホン113は、本願に係る音声入力手段の一例を構成し、音声認識部114は、本願に係る音声認識手段の一例を構成し、システム制御部116は、本願に係る表示制御手段の一例を構成する。
操作部109は、発話ボタンを含む各種ボタン、数字キー、カーソルキー等の有するリモートコントロール装置等により構成されており、ユーザの入力操作に対応した指示信号をシステム制御部116に出力するようになっている。
表示部110は、例えば、液晶パネルまたは有機EL(Electro Luminescence)パネル等により構成され、表示制御部112の制御により地図データ等を画面に表示するとともに、これに重畳して自車位置等の経路案内に必要な各種情報を表示するようになっている。また、表示部110は、ユーザにより発話ボタンが押下されたときには、図1(a)に示す画像を表示し、音声認識部114により音声認識処理が開始された後は、図2(b)に示す画像を表示するようになっている。
表示制御部112は、システム制御部116による制御に基づいて入力されたデータに対応する画像データをバッファメモリ111に生成するとともに、所定のタイミングでバッファメモリ111から画像データを読み出して表示部110に出力するようになっている。これにより、図1に示すような画面が表示部110により表示される。
マイクロホン113は、ユーザの発話音声を集音し、電気信号(音声信号)として音声認識部114に入力するようになっている。
音声認識部114は、システム制御部116による制御に基づいて音声認識処理を行うようになっている。具体的には、システム制御部116から音声認識処理の開始指示を示す制御信号を入力すると、セットアップ(音声認識処理を実行するための準備処理)を行い、当該セットアップが完了した時点(音声認識処理が実施可能となった時点)で、マイクロホン113から音声信号の入力を開始する。そして、当該音声信号をデジタル信号に変換し、音声情報として当該音声認識部114内部に搭載されているメモリ等に記憶させつつ、当該記憶された音声情報を解析してユーザの発した言葉を認識する。そして、例えば、認識された言葉と所定の命令パターンのリスト等とを比較することによりユーザが言葉として発した命令を認識し、この認識された命令に対応する制御信号をシステム制御部116に出力するようになっている。
システム状態監視部115は、操作部109から出力される指示信号及び音声認識部114による動作状態を監視しており、発話ボタンが押下された時、音声認識部114がセットアップを完了し音声認識処理を開始した時及び終了した時にその状態に対応した制御信号をシステム制御部116に出力するようになっている。
システム制御部116は、主としてCPU(Central Processing Unit)により構成されるとともに、GPS受信ポート、キー入力ポート等の各種入出力ポートを含んで構成されている。
このシステム制御部116は、ナビゲーション装置100全体を制御するようになっており、HDドライブ105、RAM/ROM117等に格納された制御プログラム(例えば、表示処理プログラム等)を読み出して各種処理を実行するとともに、このRAM/ROM117に処理中のデータを一時的に保存するようになっている。
例えば、システム制御部116は、経路誘導を行う際に、インターフェース部103から出力された自車位置データと、HDドライブ105を制御してHDから読み出した地図データに基づいてマップマッチング等の補正処理を行うとともに、表示部110において車両の現在位置を含む周辺地域を示す地図上に経路誘導情報が表示されるように制御し、音声処理部107から経路誘導情報が音声として出力されるように制御するようになっている。
また、システム制御部116は、システム状態監視部115から出力される制御信号に基づいて、音声認識部114を制御しつつ図1に示す画像が表示部110において表示されるように制御するとともに、音声処理部107から操作ガイダンス等が音声として出力されるように制御するようになっている。
なお、表示処理プログラム、音声認識処理プログラム及び音声生成処理プログラム等は、例えば、DVD−ROM等の記録媒体に記録されてDVDドライブ106を介して読み込まれるようにしても良いし、予めRAM/ROM117のROMに記録させるようにしても良い。
また、表示処理プログラム、音声認識処理プログラム及び音声生成処理プログラム等のソフトウェアで実現できる処理は、システム制御部116と同一のCPU上で動作させても良い。
[3.ナビゲーション装置の動作]
次に、ナビゲーション装置100の動作について、図3を用いて説明する。
図3は、本実施形態に係るナビゲーション装置100の処理の流れの一例を示すフローチャートである。
ユーザが、ナビゲーション装置100に対する命令を話そうとして発話ボタンを押下すると、図3に示すように、システム状態監視部115が、発話ボタンの押下を検出し、システム制御部116に制御信号を出力する(ステップS1)。
当該制御信号を入力したシステム制御部116は、音声認識処理を開始するよう音声認識部114を制御し、これによって、音声認識部114によるセットアップが開始される(ステップS2)。
また、システム制御部116は、発話リスト1、発話禁止メッセージ2a、発話禁止マーク3、及び「ピッと鳴ったらお話ください」というガイダンスメッセージ4が画面に表示されるように表示制御部112を制御する。これによって、図1(a)に示す画像が表示部110により表示される(ステップS3)。このとき、システム制御部116は、ガイダンスメッセージ4と同じ内容が音声として出力されるように、音声処理部107を制御する。これによって、スピーカ108から、「ピッと鳴ったらお話ください」という音声が出力される。
そして、セットアップが完了した音声認識部114は、音声認識処理を開始する(ステップS4)。
この音声認識処理の開始を検出したシステム状態監視部115は、その動作状態に対応した制御信号をシステム制御部116に出力し、当該制御信号を入力したシステム制御部116は、発話禁止メッセージ2a及び発話禁止マーク3が画面上から消去されるとともに、発話許可メッセージ2bが画面に表示されるように表示制御部112を制御することにより、図1(b)に示す画像が表示部110により表示される(ステップS5)。
その後、音声認識部114による音声認識処理が終了すると(ステップS6)、その動作状態に対応した制御信号がシステム状態監視部115からシステム制御部116に出力される。
そして、システム制御部116は、音声認識部114により認識された命令等を音声認識部114から入力し、当該命令等に対応する動作を行うために、更にユーザによる次の操作(音声入力によるものも含む)が必要であるか否かを判定する(ステップS7)。例えば、命令として「行き先を探す」を入力すると、行き先までの経路探索を行うためには、その行き先を指定する操作が必要となる。このような場合には(ステップS7:YES)、再度上記ステップS2〜S6と同様の処理が繰り返される。このとき、発話リスト1として、例えば、行き先のジャンルを示す「駅」、「遊園地」、「野球場」等が表示される。そして、例えば、ユーザの発話により最終的な行き先が指定され、次の操作が必要ではないと判断されると(ステップS7:NO)、システム制御部116は、音声認識処理結果に対応した動作が実行されるようにナビゲーション装置100の各部を制御する(ステップS8)。
以上説明したように、本実施形態によれば、発話ボタンがユーザにより押下されたときから音声認識部114による音声認識処理が開始するまでの間は、システム制御部116が、発話リスト1と同列に配列されるような位置に発話禁止を意味する発話禁止メッセージ2aを表示するとともに、発話禁止を意味する発話禁止マーク3を発話リスト1と重なる位置に表示し、音声認識部114による音声認識処理が開始された後は、その発話禁止メッセージ2a及び発話禁止マーク3を画面上から消去するようになっている。
従って、ユーザは、画面に表示された発話リスト1を読むときに、発話禁止メッセージ2aをも読むこととなり、発話リスト1を見ながらでも発話してはならないことを容易に認識することができる。そして、音声認識処理が開始された後は、先ほど視認した発話禁止メッセージ2aが消去されることで、発話しても良いことを容易に認識することができる。また、ユーザは、画面に表示された発話リスト1を読むときに、発話禁止マーク3を必然的に視認することとなり、発話リスト1を見ながらでも発話してはならないことを容易に認識することができる。そして、音声認識処理が開始された後は、先ほど視認した発話禁止マーク3が消去されることで、発話しても良いことを容易に認識することができる。
また、システム制御部116が、音声認識部114による音声認識処理が開始された後、今まで発話禁止メッセージ2aが表示されていた位置に、発話許可を意味する発話許可メッセージ2bが表示されるようにしたので、ユーザは発話しても良いことをより容易に認識することができる。
更に、発話禁止メッセージ2aや発話許可メッセージ2bのフォント、文字の大きさや太さ、文字色、背景色等の表示態様を発話リスト1とは異なるものとしたので、発話リスト1と同じ配列に含まれながらも、発話禁止メッセージ2a等をその他の文字と区別して視認しやすくなり、ユーザは発話するタイミングをより容易に認識することができる。
[4.変形例]
次に、本実施形態に係る変形例について説明する。
上記説明した実施形態において、音声認識部114は、セットアップが完了したら自動的に音声認識処理を開始するようになっていたが、以下においては、発話ボタンが再度押下されるまでは音声認識処理を開始しない場合について説明する。
音声認識装置の中には、ユーザの発話音声を音声情報等として記憶させるメモリの容量の関係等から、音声認識処理を実施する時間が制限されているものが少なくない。そうすると、例えば、ユーザが発話リストを読んでいる間に音声認識処理が開始され、その後発話しようとしたときに音声認識処理が終了してしまい、ユーザの発話した言葉を十分に認識できない場合がある。一方、ユーザはこれを回避するために、制限時間内に発話を間に合わせようとすると、急いで発話リストを読まなければならなかったり、発話リストを十分に読めないような場合がある。
そこで、本変形例に係るナビゲーション装置においては、音声認識部114によるセットアップが完了しても、発話ボタンが再度押下されるまでは音声認識処理を開始しないようにした。
先ず、本変形例の表示画面の構成について、図4を用いて説明する。
図4は、本実施形態の変形例に係るナビゲーション装置による画面構成例を示す図であり、(a)は最初の発話ボタンを押下した直後の画面であり、(b)はガイダンス音声が再生された後の画面であり、同図において図1と同様の要素については同様の符号を付してある。
最初にユーザが発話ボタンを押下した直後は、図4(a)に示すように、発話リスト1、発話禁止メッセージ2a及び発話禁止マーク3が、図1(a)と同様の態様で表示される。また、ガイダンスメッセージ4として、例えば、「コマンドリストを表示します」等が表示される。このとき、再度の発話ボタンを押下することを促すガイダンス音声(例えば、「もう一度発話ボタンを押してお話ください」等)が再生される。
そして、ガイダンス音声の再生が終了した後は、図4(b)に示すように、発話禁止マーク3の表示位置が、発話リスト1と重ならない位置に変わる(例えば、画面左端等)。最初に発話リスト1と重なる位置に発話禁止マーク3が表示されたことで、当該マークはユーザに視認されているから、その後、発話リスト1と重ならない位置に変えて表示し直すことで、発話禁止であることは認識されつつも、発話リスト1が読みやすくなる。なお、図4(b)に示す発話禁止マーク3のデザインは、必ずしも図4(a)に示す発話禁止マーク3のデザインと同一にする必要は無い。
また、画面には、発話ボタンの押下を促す発話ボタン押下待ちメッセージ5(例えば、「発話ボタンを押してお話ください。」等)が表示される。なお、発話ボタン押下待ちメッセージ5を表示するタイミングは、ガイダンス音声が再生された後に限られるものではなく、例えば、発話ボタンが押下された直後や当該ボタンが押下されてから所定時間が経過した後に表示しても良いし、セットアップが完了して音声認識処理が開始できる状態になったときに表示しても良い。
ここで、音声認識部は、セットアップが完了しても、少なくとも発話ボタンが再度押下されるまでは音声認識処理を開始しない。こうすることで、発話タイミングをユーザ側が握ることとなり、ユーザは発話リスト1をじっくり読むことができる。
その後、ユーザにより発話ボタンが押下されると、図1(a)と同様の表示画面となる。この時点で、ユーザは、発話しようとする言葉を決めているはずであり、発話リスト1を読む必要は無いのであるから、発話禁止マーク3を元の発話リスト1と重なる位置に表示しても問題はなく、当該マークの視認の容易さを考慮すれば、発話リスト1と重なる位置に表示した方が良い。
そして、音声認識処理が開始されると、図1(b)と同様の表示画面となる。なお、発話ボタンが再度押下された時点でセットアップが既に完了している場合には、図1(a)の画面表示は省略しても良い。
次に、ナビゲーション装置100の動作について、図5を用いて説明する。
図5は、本実施形態の変形例に係るナビゲーション装置100の処理の流れの一例を示すフローチャートであり、同図において図3と同様の要素については同様の符号を付してある。
図1と同様にして、システム状態監視部115が発話ボタンの押下を検出すると(ステップS1)、音声認識部114によるセットアップが開始される(ステップS2)。
また、システム制御部116は、発話リスト1、発話禁止メッセージ2a、発話禁止マーク3、及びガイダンスメッセージ4が画面に表示されるように表示制御部112を制御することにより、図4(a)に示す画像が表示される(ステップS3)。
そして、システム制御部116は、再度の発話ボタンを押下することを促すガイダンス音声が出力されるように音声処理部107を制御すると、スピーカ108から、「もう一度発話ボタンを押してお話ください」という音声が出力される(ステップS11)。
そして、ガイダンス音声の再生が終了すると、システム制御部116は、発話不可マーク3を発話リスト1と重ならない位置に表示されるように表示制御部112を制御するとともに(ステップS12)、発話ボタン押下待ちメッセージ5が表示されるように表示制御部112を制御することにより、図4(b)に示す画像が表示される(ステップS13)。
次いで、システム制御部116は、発話ボタンの押下待ちに移行し(ステップS14)、ユーザにより発話ボタンが押下されたことがシステム状態監視部115により検出されると(ステップS14:YES)、システム制御部116は、音声認識部114によるセットアップが完了しているか否かを判定する(ステップS15)。ここで、発話ボタンが押下される前にセットアップが完了したことをシステム状態監視部115が検出していた場合(ステップS14:YES)、システム制御部116は、音声認識部114による音声認識処理を開始させる(ステップS4)。
一方、音声認識部114によるセットアップが完了していない場合(ステップS14:NO)、システム制御部116は、発話ボタン押下待ちメッセージ5を消去するとともに、発話禁止マーク3が元の発話リスト1に重なる位置に表示されるように表示制御部112を制御することにより、図1(a)に示す画像が表示される(ステップS16)。そして、セットアップが完了した音声認識部114は、音声認識処理を開始する(ステップS4)。
その後は、図3と同様に、図1(b)に示す画像の表示、音声認識処理の終了した後に次の操作が必要であるか否かの判定が行われ(ステップS5〜S7)、次の操作が必要である場合は(ステップS7:YES)、ステップS2〜S6までの処理が繰り返され、次の操作が必要でない場合は(ステップS7:NO)、音声認識処理結果に対応した動作が実行される(ステップS8)。
以上説明したように、本変形例によれば、発話ボタンがユーザにより押下されたときに、システム制御部116が、発話禁止マーク3を発話リスト1と重なるように表示させた後、当該マークを発話リスト1と重ならない位置に変えて表示させるようにしたので、発話禁止であることはユーザに認識されつつも、発話リスト1が読みやすくなる。
また、システム制御部116は、発話禁止メッセージ2a及び発話禁止マーク3を表示させた後、発話ボタンが再度押下されるまでは音声認識部114による音声認識処理を開始させないようにしたので、ユーザは発話リスト1をじっくり読んだ後に発話を開始することができる。
なお、上記説明した実施形態においては、本願に係る音声認識装置をナビゲーション装置に適用していたが、これに限られるものではなく、例えば、認識可能な言葉の一覧を画面に表示し、且つ所定の操作等をきっかけとして音声認識処理を実行するような構成となっている各種装置にも適用することができる。
また、本発明は、上記実施形態に限定されるものではない。上記実施形態は、例示であり、本発明の請求の範囲に記載された技術的思想と実質的に同一な構成を有し、同様な作用効果を奏するものは、いかなるものであっても本発明の技術的範囲に包含される。
また、2006年1月6日に出願された明細書、特許請求の範囲、図面、要約を含む日本の特許出願(No.2006-1845)の全ての開示は、その全てを参照することよって、ここに組み込まれる。
【0003】
理の開始を指示する指示信号を出力する指示手段と、前記認識手段が認識することができる言葉のうち少なくとも一つを認識可能文字として画面上に配列して表示する表示手段と、を備える音声認識装置において、少なくとも前記指示信号が出力されたときから前記認識手段における前記音声認識処理が実行可能となるまでの間、前記認識可能文字と同列に配列されるような位置に発話禁止を意味する禁止文字を前記表示手段に表示するか、または、前記認識可能文字の少なくとも一部と重なる位置に発話禁止を意味する禁止画像を前記表示手段に表示するか、の少なくともいずれか一方を行い、更に前記音声認識処理が開始された後は、前記禁止文字または禁止画像の少なくともいずれか一方を前記画面上から消去する表示制御手段を備え、前記表示制御手段は、前記表示手段に前記禁止画像を表示した後、前記認識可能文字と重ならない位置に変えて表示することを特徴とする。
[0012]
本願の他の観点では、ユーザの発話音声を入力する音声入力手段と、前記入力された音声に基づいてユーザにより発せられた言葉を認識する音声認識処理を行う認識手段と、前記認識手段に対して前記音声認識処理の開始を指示する指示信号を出力する指示手段と、前記認識手段が認識することができる言葉のうち少なくとも一つを認識可能文字として画面上に配列して表示する表示手段と、を備える音声認識装置における表示方法であって、少なくとも前記指示信号が出力されたときから前記認識手段における前記音声認識処理が実行可能となるまでの間、前記認識可能文字と同列に配列されるような位置に発話禁止を意味する禁止文字を前記表示手段に表示するか、または、前記認識可能文字の少なくとも一部と重なる位置に発話禁止を意味する禁止画像を前記表示手段に表示するか、の少なくともいずれか一方を行う工程と、更に前記音声認識処理が開始された後は、前記禁止文字または禁止画像の少なくともいずれか一方を前記画面上から消去する工程と、前記禁止画像が表示された後、前記認識可能文字と重ならない位置に変えて表示する工程と、を備えることを特徴とする。
[0013]
本願の更に他の観点では、ユーザの発話音声を入力する音声入力手段と、前記入力された音声に基づいてユーザにより発せられた言葉を認識する音声認識処理を行う認識手段と、前記認識手段に対して前記音声認識処理の開始を指示する指示信号を出力する指示手段と、前記認識手段が認識することができる言葉のうち少なくとも一つを認識可能文字として画面上に配列して表示する表示手段と、を備える音声認識装置に含まれるコンピュータを、少なくとも前記指示信号が出力されたときから前記認識手段における前記音声認識処理が実行可能となるまでの間、前記認識可能文字と同列に配列されるような位置に発話禁止を意味する禁止文字を前記表
【0004】
示手段に表示するか、または、前記認識可能文字の少なくとも一部と重なる位置に発話禁止を意味する禁止画像を前記表示手段に表示するか、の少なくともいずれか一方を行い、更に前記音声認識処理が開始された後は、前記禁止文字または禁止画像の少なくともいずれか一方を前記画面上から消去する表示制御手段として機能させ、さらに前記表示制御手段が、前記表示手段に前記禁止画像を表示した後、前記認識可能文字と重ならない位置に変えて表示するように機能させることを特徴とする。
図面の簡単な説明
[0014]
[図1]本実施形態に係るナビゲーション装置による画面構成例を示す図であり、(a)は発話ボタンを押下した直後の画面であり、(b)は音声認識処理を開始した後の画面である。
[図2]本実施形態に係るナビゲーション装置100の概要構成の一例を示すブロック図である。
[図3]本実施形態に係るナビゲーション装置100の処理の流れの一例を示すフローチャートである。
[図4]本実施形態の変形例に係るナビゲーション装置による画面構成例を示す図であり、(a)は最初の発話ボタンを押下した直後の画面であり、(b)はガイダンス音声が再生された後の画面である。
[図5]本実施形態の変形例に係るナビゲーション装置100の処理の流れの一例を示すフローチャートである。
符号の説明
[0015]
1 発話リスト
2a 発話禁止メッセージ
2b 発話許可メッセージ
3 発話禁止マーク
4 ガイダンスメッセージ
5 発話ボタン押下待ちメッセージ
上記課題を解決するために、本願の一つの観点では、ユーザの発話音声を入力する音声入力手段と、前記入力された音声に基づいてユーザにより発せられた言葉を認識する音声認識処理を行う認識手段と、前記認識手段に対して前記音声認識処理の開始を指示する指示信号を出力する指示手段と、前記認識手段が認識することができる言葉のうち少なくとも一つを認識可能文字として画面上に配列して表示する表示手段と、を備える音声認識装置において、少なくとも前記指示信号が出力されたときから前記認識手段における前記音声認識処理が実行可能となるまでの間前記認識可能文字の少なくとも一部と重なる位置に発話禁止を意味する禁止画像を前記表示手段に表示、更に前記音声認識処理が開始された後は、記禁止画像前記画面上から消去する表示制御手段を備え、前記表示制御手段は、前記表示手段に前記禁止画像を表示した後、前記認識可能文字と重ならない位置に変えて表示することを特徴とする。
本願の他の観点では、ユーザの発話音声を入力する音声入力手段と、前記入力された音声に基づいてユーザにより発せられた言葉を認識する音声認識処理を行う認識手段と、前記認識手段に対して前記音声認識処理の開始を指示する指示信号を出力する指示手段と、前記認識手段が認識することができる言葉のうち少なくとも一つを認識可能文字として画面上に配列して表示する表示手段と、を備える音声認識装置における表示方法であって、少なくとも前記指示信号が出力されたときから前記認識手段における前記音声認識処理が実行可能となるまでの間前記認識可能文字の少なくとも一部と重なる位置に発話禁止を意味する禁止画像を前記表示手段に表示す工程と、更に前記音声認識処理が開始された後は、記禁止画像前記画面上から消去する工程と、前記禁止画像が表示された後、前記認識可能文字と重ならない位置に変えて表示する工程と、を備えることを特徴とする。
本願の更に他の観点では、ユーザの発話音声を入力する音声入力手段と、前記入力された音声に基づいてユーザにより発せられた言葉を認識する音声認識処理を行う認識手段と、前記認識手段に対して前記音声認識処理の開始を指示する指示信号を出力する指示手段と、前記認識手段が認識することができる言葉のうち少なくとも一つを認識可能文字として画面上に配列して表示する表示手段と、を備える音声認識装置に含まれるコンピュータを、少なくとも前記指示信号が出力されたときから前記認識手段における前記音声認識処理が実行可能となるまでの間前記認識可能文字の少なくとも一部と重なる位置に発話禁止を意味する禁止画像を前記表示手段に表示、更に前記音声認識処理が開始された後は、記禁止画像前記画面上から消去する表示制御手段として機能させ、さらに前記表示制御手段が、前記表示手段に前記禁止画像を表示した後、前記認識可能文字と重ならない位置に変えて表示するように機能させることを特徴とする。

Claims (7)

  1. ユーザの発話音声を入力する音声入力手段と、前記入力された音声に基づいてユーザにより発せられた言葉を認識する音声認識処理を行う認識手段と、前記認識手段に対して前記音声認識処理の開始を指示する指示信号を出力する指示手段と、前記認識手段が認識することができる言葉のうち少なくとも一つを認識可能文字として画面上に配列して表示する表示手段と、を備える音声認識装置において、
    少なくとも前記指示信号が出力されたときから前記認識手段における前記音声認識処理が実行可能となるまでの間、前記認識可能文字と同列に配列されるような位置に発話禁止を意味する禁止文字を前記表示手段に表示するか、または、前記認識可能文字の少なくとも一部と重なる位置に発話禁止を意味する禁止画像を前記表示手段に表示するか、の少なくともいずれか一方を行い、
    更に前記音声認識処理が開始された後は、前記禁止文字または禁止画像の少なくともいずれか一方を前記画面上から消去する表示制御手段を備えることを特徴とする音声認識装置。
  2. 請求項1に記載の音声認識装置において、
    前記表示制御手段は、前記認識可能文字とは異なる態様で前記禁止文字を表示することを特徴とする音声認識装置。
  3. 請求項1に記載の音声認識装置において、
    前記表示制御手段は、前記認識手段による前記音声認識処理が開始された後、前記禁止文字が表示されていた位置に発話許可を意味する許可文字を前記表示手段に表示することを特徴とする音声認識装置。
  4. 請求項1に記載の音声認識装置において、
    前記表示制御手段は、前記表示手段に前記禁止画像を表示した後、前記認識可能文字と重ならない位置に変えて表示することを特徴とする音声認識装置。
  5. 請求項1に記載の音声認識装置において、
    前記認識手段は、前記禁止文字または前記禁止画像が表示された後、少なくとも前記指示信号が再度出力されるまでは前記音声認識処理を開始しないことを特徴とする音声認識装置。
  6. ユーザの発話音声を入力する音声入力手段と、前記入力された音声に基づいてユーザにより発せられた言葉を認識する音声認識処理を行う認識手段と、前記認識手段に対して前記音声認識処理の開始を指示する指示信号を出力する指示手段と、前記認識手段が認識することができる言葉のうち少なくとも一つを認識可能文字として画面上に配列して表示する表示手段と、を備える音声認識装置における表示方法であって、
    少なくとも前記指示信号が出力されたときから前記認識手段における前記音声認識処理が実行可能となるまでの間、前記認識可能文字と同列に配列されるような位置に発話禁止を意味する禁止文字を前記表示手段に表示するか、または、前記認識可能文字の少なくとも一部と重なる位置に発話禁止を意味する禁止画像を前記表示手段に表示するか、の少なくともいずれか一方を行う工程と、
    更に前記音声認識処理が開始された後は、前記禁止文字または禁止画像の少なくともいずれか一方を前記画面上から消去する工程と、
    を備えることを特徴とする表示方法。
  7. ユーザの発話音声を入力する音声入力手段と、前記入力された音声に基づいてユーザにより発せられた言葉を認識する音声認識処理を行う認識手段と、前記認識手段に対して前記音声認識処理の開始を指示する指示信号を出力する指示手段と、前記認識手段が認識することができる言葉のうち少なくとも一つを認識可能文字として画面上に配列して表示する表示手段と、を備える音声認識装置に含まれるコンピュータを、
    少なくとも前記指示信号が出力されたときから前記認識手段における前記音声認識処理が実行可能となるまでの間、前記認識可能文字と同列に配列されるような位置に発話禁止を意味する禁止文字を前記表示手段に表示するか、または、前記認識可能文字の少なくとも一部と重なる位置に発話禁止を意味する禁止画像を前記表示手段に表示するか、の少なくともいずれか一方を行い、
    更に前記音声認識処理が開始された後は、前記禁止文字または禁止画像の少なくともいずれか一方を前記画面上から消去する表示制御手段として機能させることを特徴とする表示処理プログラム。
JP2007552884A 2006-01-06 2006-12-01 音声認識装置、表示方法及び表示処理プログラム Expired - Fee Related JP4781368B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007552884A JP4781368B2 (ja) 2006-01-06 2006-12-01 音声認識装置、表示方法及び表示処理プログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006001845 2006-01-06
JP2006001845 2006-01-06
JP2007552884A JP4781368B2 (ja) 2006-01-06 2006-12-01 音声認識装置、表示方法及び表示処理プログラム
PCT/JP2006/324064 WO2007077703A1 (ja) 2006-01-06 2006-12-01 音声認識装置、表示方法及び表示処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2007077703A1 true JPWO2007077703A1 (ja) 2009-06-11
JP4781368B2 JP4781368B2 (ja) 2011-09-28

Family

ID=38228061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007552884A Expired - Fee Related JP4781368B2 (ja) 2006-01-06 2006-12-01 音声認識装置、表示方法及び表示処理プログラム

Country Status (3)

Country Link
EP (5) EP3043349B1 (ja)
JP (1) JP4781368B2 (ja)
WO (1) WO2007077703A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3043349B1 (en) 2006-01-06 2019-10-30 Pioneer Corporation A words recognition apparatus
JP5455355B2 (ja) * 2008-11-27 2014-03-26 トヨタ自動車株式会社 音声認識装置及びプログラム
JP6312053B2 (ja) * 2013-09-06 2018-04-18 株式会社ユピテル システム及びプログラム
JP6333092B2 (ja) * 2014-07-04 2018-05-30 本田技研工業株式会社 情報処理システム
WO2016136044A1 (ja) * 2015-02-23 2016-09-01 ソニー株式会社 情報処理システムおよび情報処理方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0395615A (ja) * 1989-09-07 1991-04-22 Fujitsu Ltd メニュー画面の入力処理方式
JPH03153300A (ja) * 1989-11-10 1991-07-01 Nippon Telegr & Teleph Corp <Ntt> 音声入力装置
JPH05216618A (ja) * 1991-11-18 1993-08-27 Toshiba Corp 音声対話システム
US5864815A (en) 1995-07-31 1999-01-26 Microsoft Corporation Method and system for displaying speech recognition status information in a visual notification area
US5819225A (en) 1996-05-30 1998-10-06 International Business Machines Corporation Display indications of speech processing states in speech recognition system
JP2000019624A (ja) * 1998-06-30 2000-01-21 Canon Inc データ設定装置及びデータ記録機能付きカメラ
US6965863B1 (en) * 1998-11-12 2005-11-15 Microsoft Corporation Speech recognition user interface
US6324507B1 (en) 1999-02-10 2001-11-27 International Business Machines Corp. Speech recognition enrollment for non-readers and displayless devices
JP2000305686A (ja) * 1999-04-19 2000-11-02 Mitsubishi Electric Systemware Corp ユーザインターフェース方式及びプログラムを記録したコンピューターにより読み取り可能な記録媒体
US20020055844A1 (en) 2000-02-25 2002-05-09 L'esperance Lauren Speech user interface for portable personal devices
DE60128372T2 (de) * 2000-07-31 2008-01-10 Eliza Corp., Beverly Verfahren und system zur verbesserung der genauigkeit in einem spracherkennungssystem
KR20080080123A (ko) 2000-09-21 2008-09-02 아메리칸 캘카어 인코포레이티드 차량을 효과적으로 그리고 안전하게 운전하는 기술
JP2002108390A (ja) 2000-09-27 2002-04-10 Sharp Corp 音声認識装置及びコンピュータ読み取り可能な記録媒体
US7324947B2 (en) * 2001-10-03 2008-01-29 Promptu Systems Corporation Global speech user interface
US7023498B2 (en) 2001-11-19 2006-04-04 Matsushita Electric Industrial Co. Ltd. Remote-controlled apparatus, a remote control system, and a remote-controlled image-processing apparatus
JP3870775B2 (ja) 2001-12-12 2007-01-24 松下電器産業株式会社 音声入力方法および音声入力装置
JP2004037998A (ja) * 2002-07-05 2004-02-05 Denso Corp 音声制御装置
WO2004077405A1 (en) 2003-02-21 2004-09-10 Harman Becker Automotive Systems Gmbh Speech recognition system
JP2004267634A (ja) * 2003-03-11 2004-09-30 Olympus Corp 手術システム及び画像表示方法
JP4129445B2 (ja) 2004-06-15 2008-08-06 ファイザー・インク ベンズイミダゾロンカルボン酸誘導体
EP3043349B1 (en) 2006-01-06 2019-10-30 Pioneer Corporation A words recognition apparatus

Also Published As

Publication number Publication date
EP2447942B1 (en) 2013-06-12
EP3618065A1 (en) 2020-03-04
EP1970896A4 (en) 2010-02-17
EP3618065B1 (en) 2021-05-26
EP2447941B1 (en) 2016-03-23
WO2007077703A1 (ja) 2007-07-12
EP2447941A1 (en) 2012-05-02
JP4781368B2 (ja) 2011-09-28
EP2447942A1 (en) 2012-05-02
EP3043349A1 (en) 2016-07-13
EP3043349B1 (en) 2019-10-30
EP1970896A1 (en) 2008-09-17

Similar Documents

Publication Publication Date Title
KR102111983B1 (ko) 제어 장치, 제어 방법, 및 정보 기억 매체
JP6076897B2 (ja) 車載情報システム、車載装置、情報端末用プログラム
EP2650164B1 (en) In-vehicle information system, in-vehicle apparatus and information terminal
JP4781368B2 (ja) 音声認識装置、表示方法及び表示処理プログラム
WO2007066488A1 (ja) 表示装置及びタッチパネル操作制御方法
JP6229071B2 (ja) 制御装置、制御方法、プログラム及び情報記憶媒体
JP2009251388A (ja) 母国語発話装置
JP6613560B2 (ja) 電子機器、学習支援方法およびプログラム
JP2020160180A (ja) 表示制御装置、表示制御方法およびプログラム
JP6226020B2 (ja) 車載装置、情報処理方法および情報処理システム
JP6841309B2 (ja) 電子機器およびプログラム
JP2005208798A (ja) 情報提供端末、および情報提供方法
JPWO2006025106A1 (ja) 音声認識システム、音声認識方法およびそのプログラム
JP2010281572A (ja) 車載装置および車載装置の制御方法
JP2005241393A (ja) 言語設定方法および言語設定装置
JP6325231B2 (ja) 情報表示システム、情報表示システムの制御方法およびプログラム
JP2006011002A (ja) 音声応答装置、音声応答方法および音声応答プログラム
JP5002014B2 (ja) 音声入力型装置、音声入力制御方法及び音声入力制御プログラム
JP5535676B2 (ja) ナビゲーション装置
WO2014045591A1 (ja) データ処理装置と、そのプログラム
WO2019049312A1 (ja) 表示制御装置及び表示制御方法
JP2017062217A (ja) ナビゲーションシステム、ナビゲーション装置、音声案内の修正方法
JP2007213285A (ja) 予約装置及びプログラム
JP2009265246A (ja) 文字認識プログラム及び文字認識装置
JPH10198549A (ja) 情報処理装置及びナビゲーション装置、並びに音声入力方法及び記録媒体

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110705

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140715

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4781368

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees