JPH0850698A - 音声対話型ナビゲーション装置 - Google Patents

音声対話型ナビゲーション装置

Info

Publication number
JPH0850698A
JPH0850698A JP6184986A JP18498694A JPH0850698A JP H0850698 A JPH0850698 A JP H0850698A JP 6184986 A JP6184986 A JP 6184986A JP 18498694 A JP18498694 A JP 18498694A JP H0850698 A JPH0850698 A JP H0850698A
Authority
JP
Japan
Prior art keywords
information
voice
input
operation information
keyword
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6184986A
Other languages
English (en)
Other versions
JP3582069B2 (ja
Inventor
Yasuo Kagawa
八州男 香川
Takatsugu Konno
敬嗣 金野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP18498694A priority Critical patent/JP3582069B2/ja
Publication of JPH0850698A publication Critical patent/JPH0850698A/ja
Application granted granted Critical
Publication of JP3582069B2 publication Critical patent/JP3582069B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

(57)【要約】 【目的】 音声入力と操作装置からの入力とを併用し、
両入力を互いに補間させ合うことにより、低いコストで
高い認識制度を得ることのできる対話型ナビゲーション
装置を提案する。 【構成】 操作者によりタッチパネルの操作が行なわれ
たことを受けて、この操作から関心事を推定すると共
に、音声入力を可能ならしめる。次に、入力された音声
情報からキーワードを抽出し、抽出されたキーワードと
関心毎とに基づいて地図データベースから地図情報を検
索して表示する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は音声を用いた対話型のナ
ビゲーション装置に関し、特に、音声入力とポインティ
ング装置からの入力とを併用した音声対話型ナビゲーシ
ョン装置に関する。
【0002】
【従来の技術】現在普及しつつあるナビゲーションシス
テムでは、タッチパネルやリモコンスイッチ等の操作ス
イッチとメニュー表示を用いて情報検索あるいは機器操
作を行なうようになっている。例えば、特開平5−72
973号ではタッチパネルを用いている。このため、こ
のような従来のナビゲーションシステムでは、所望の情
報を検索するまでの操作が複雑で、運転中の運転者にこ
のような複雑な操作を強いることは好ましくない。
【0003】一方、音声処理技術の進歩と共に、ナビゲ
ーションシステムに音声認識を導入することが提案され
ている。例えば、特開平5−99679号や特開平3−
21817号等。前述のタッチパネルなどは運転者の手
動作を必要とするのに対し、音声入力は手動作を不要と
し、その点で操作性の向上が期待される。
【0004】
【発明が解決しようとする課題】しかしながら、ナビゲ
ーションシステムに適用され得る音声認識技術は孤立単
語認識処理技術により行なっているために、例えば、
「駐車場!」等と区切って発話する必要があるなど、ユ
ーザの発話は制約されている。また、システムが会話の
複雑な構造を理解することは困難であり、そのために、
目的の情報を得るためには何段階にも分けて発話する必
要があり、煩わしい。さらに、システムの持っている会
話認識の手法は必ずしも人間の会話の順序とは異なるた
めに、ユーザはどのような順序で、何を喋ってよいのか
分からず、このようなシステムは結局運転者にとって使
いにくいものとなっている。
【0005】運転者の自然な会話を認識するためには、
連続音声認識技術の適用が考えられるが、高度の技術と
高性能なハードウエアが必要であり、コストが高く一般
用途には現実的でない。
【0006】
【課題を解決するための手段】そこで、本発明の目的
は、音声入力と操作装置からの入力とを併用し、両入力
を互いに補間させ合うことにより、低いコストで高い認
識制度を得ることのできる音声対話型ナビゲーション装
置を提案する。上記課題を達成するための本発明の構成
は、操作者の音声情報を入力する音声情報入力手段と、
操作者により行なわれた操作を介して操作情報を入力す
る操作情報入力手段と、入力された音声情報からキーワ
ードを抽出する抽出手段と、抽出されたキーワードと入
力された操作情報とに基づいて地図データベースから地
図情報を検索し、この地図情報を出力する出力手段とを
具備する。
【0007】本発明の他の目的は、タッチパネルを有す
ることにより操作情報入力の操作容易性を実現したナビ
ゲーション装置を提案する。本発明の他の目的は、操作
情報から運転者の関心事を抽出するナビゲーション装置
を提案する。本発明の他の目的は、運転者の関心事を効
率良く抽出することのできるナビゲーション装置を提案
する。
【0008】本発明の他の目的は、操作情報から運転者
の関心事を抽出するナビゲーション装置を提案する。本
発明の他の目的は、前もって操作情報毎に分類された音
声辞書を有することにより、効率良く音声認識のできる
音声対話型ナビゲーション装置を提案する。
【0009】
【実施例】以下、本発明の実施例について添付図面を参
照しながら詳細に説明する。図1は実施例の経路誘導装
置のシステム構成を示す。このシステムは、GPSや車
速センサからの信号を入力して自車位置を検出すると、
その周辺の地図情報を表示し、合わせて音声認識により
運転者の意図を判断して、最適な地図情報を表示出力す
るというものである。このために、図1のシステムは、
運転者の音声を入力するためのマイク1と、このマイク
1から入力された音声信号を処理して単語を抽出する音
声認識処理部3と、地図や推奨経路などを表示する表示
装置6と、この表示装置6の表示画面の上に設けられ指
などによって目的地を入力するためのタッチパネル7
と、大量の地図情報を含む地図データベース5と、GP
Sや車速センサからの信号を入力して自車位置を検出す
ると共に、音声認識処理部3が抽出した単語からキーワ
ードを抽出して、運転者の位置を推論するナビゲーショ
ン演算処理部4と、渋滞情報や道路工事情報などの一過
性の情報を入力するための交通情報受信装置2と、音声
を発して運転者に注意等を喚起する音声出力装置8など
を具備する。
【0010】地図データベース5には、例えば、交差点
や大きな建物、有名な地点に対してノードが設定されて
おり、地図情報としては、ノードの位置、1つのノード
にリンクされている他のノードの識別子、ノード間の距
離等を含む。図2は、表示装置6上における表示画面の
例を示し、この画面に基づく運転者の操作を説明するこ
とにより、実施例の原理的な動作を説明する。図2にお
いて、100は自車の現在位置を表し、ナビゲーション
演算処理部4がGPS信号や車速センサ等に基づいて演
算したものである。また、10、11、12は自車位置
100の周辺にある3箇所の駐車場を示す。今、運転者
は、これら3箇所の駐車場の中で最も安い駐車場を探し
ているものとする。図3は、図2に示された表示で、運
転者(図3において“S”で示す)と交わす会話であ
る。
【0011】先ず、図2のように、3つの駐車場のマー
カが表示されている状態で、運転者は駐車場の例えばマ
ーカ11にタッチしたとする。タッチした位置はタッチ
パネル装置7を介して処理部4に入力されるであろう。
そして運転者はマイク1を介して「ここの値段はいくら
?」とシステムに聞く。すると、システムは、駐車場の
11の料金を、例えば「30分で300円です」と答え
る。処理部4は、タッチパネル7を介して入力された運
転者のタッチ位置に対応する地図情報が「駐車場」であ
ることは容易に判断することができる。そして、「ここ
の値段はいくら?」と言う入力会話の中から「値段」と
いうキーワードを抽出する。そして、「駐車場」と言う
操作情報と「値段」と言うきわどとを連結して、処理部
4は、運転者が要求しているのはタッチした「駐車場1
1の値段である」と推論する。通常の言語認識では、
「ここ」という単語を解析し、前後の会話の中から「こ
こ」は「どこどこの駐車場であろう」と推論する。しか
しながらこのような従来の自然言語認識では高度の情報
処理を有するためにシステム規模が膨大になる。ところ
がこの実施例では、タッチ入力された「操作情報」と会
話から抽出された「キーワード」とは互いに連関してい
る筈のものであると前提とし「操作情報」と「キーワー
ド」とから演繹される推論を出力するものである。この
実施例の操作(マン−マシーン・インタフェース)にお
いては、表示された地図オブジェクトをポインティング
するという操作が含まれているために、暗黙のうちにユ
ーザの発話をガイドすることになり、始めてのユーザで
も容易に使うことができる。例えば、駐車場アイコンを
操作している運転者は、駐車場情報の何らかの属性デー
タを検索しようという意識を暗に持っているため、何を
喋ってよいか迷わないからである。換言すれば、処理部
4は、このような意識を暗黙の前提とするために、属性
データの検索が容易になるのである。
【0012】さらに、ポインティング操作と抽出された
キーワードをキーとして認識辞書を動的に切り換えるこ
とにより、認識すべき言語の探索範囲を大幅に限定で
き、低コストのシステムでも認識率が大幅に向上するこ
とができる。図2,図3の例で、さらに運転者が「一番
安い駐車場は?」と発声したとする。すると、処理部4
は、「一番」と「安い」と「駐車場」というキーワード
を会話から抽出して、運転者が「一番安い駐車場」を探
している推論する。もしもマーカ12の駐車場が一番安
いのであれば、マーカ12がブリンクされる。
【0013】さらに、実施例の装置の構成および動作を
詳細に説明する。図4は、音声認識処理部3における処
理を示す。マイク1からは連続発話された音声信号が入
力される。処理部3は、先ず、この音声信号に対して、
音声区間検出の前処理を行ない、次にLPC−メルケプ
ストラムによる音響特徴分析を行ない、さらに特徴量を
ベクトル量子化する。抽出されたベクトルは、連続DP
マッチングの手法によりテンプレートに登録されている
キーワードと照合される。キーワードが抽出されると、
タッチパネル操作情報と加味されて意図の理解が行なわ
れる。この理解は後述するように格構造の分析に基づい
てなされる。
【0014】図5は、タブレットから入力された操作情
報とマイク1から入力された音声情報とに基づいて、運
転者の意図が理解され出力されるまでを表すブロック図
である。図6は、実施例のナビゲーションシステムの全
体制御手順を示すフローチャートである。図6におい
て、タブレットにおいて運転者が操作するのを待つ。換
言すれば、図6の制御手順はタブレット操作があって始
めて起動される。タブレット操作があると、ステップS
4でその操作された位置座標(操作情報)が検出され
る。ステップS6では、地図データベース5から、操作
位置に対応するオブジェクトを検索する。
【0015】図7は地図データベース5の構造を説明す
る。地図データベースは、多くのオブジェクトレコード
からなる。オブジェクトとは、交差点、駐車場、大きな
建物、道路等の地図データである。1つのオブジェクト
レコードは、そのオブジェクトに与えられた識別子とし
ての「オブジェクト名」と、そのオブジェクトに与えら
れた「タッチ領域」(この領域内のアドレスにタッチす
るとそのオブジェクトが選択されたことを意味する)
と、このオブジェクトの表示図形の形状を示す「図形デ
ータ」(オブジェクトが駐車場であれば、Pの表示図
形)と、このオブジェクトに与えられた「話題」(オブ
ジェクトが駐車場であれば、「駐車場」、「駐車料
金」、「空き」など)等からなる。これらのデータは、
オブジェクト毎に、前もってデータベースに与えられて
いるものである。地図情報には、一時的に外部から交通
情報受信機2を介して与えられるもの(以下、「交通情
報」と呼ぶ)がある。このような交通情報には、図形と
して出力すべき情報(例えば、渋滞の程度としての渋滞
の長さなど)や、音声として出力すべきもの(駐車場の
「料金」や「待ち時間」)がある。この実施例では、こ
れら交通情報には、図形として表示すべき(Rとマー
ク)、音声として出力すべき(Sとマーク)の種別のほ
かに、その交通情報をここのオブジェクトに付属するも
のとして、受信機から入力する毎に地図データベースに
入力してある。
【0016】従って、ステップS6では、ステップS4
で入力した座標地と、オブジェクトファイル中の「タッ
チ領域」とを比較することにより、運転者がどの表示さ
れているオブジェクトにタッチしたかを検出する。ステ
ップS8では、検索したオブジェクトに付属している
「話題」を抽出する。図2,図3の例では、駐車場のオ
ブジェクトにタッチしたので、そのオブジェクトの話題
として、例えば、「駐車場」「料金」「空き」などが抽
出されるであろう。図5において、地図データベースか
ら「話題」が抽出されて出力されていることが示されて
いる。
【0017】ステップS10ではタイマ(不図示)を起
動する。ステップS12では、このタイマがタイムアウ
ト(例えば、5秒)する前に音声入力があったことを確
認する。タイマを設けたのは、タブレット操作と音声入
力とを関連づけるためである。音声入力があれば、ステ
ップS14でその音声信号中から「キーワード」を単語
毎に抽出する。キーワードの抽出は、テンプレートとの
比較によるDPマッチングに拠る。図8に、テンプレー
トの例を示す。テンプレートは、「話題」毎に辞書化さ
れ、ベクトル量子化に拠る「コード」と「キーワード」
との組み合わせからなる。話題毎に分類したのは、認識
対象を限定して探索効率を上げるためである。
【0018】ステップS16では、認識されて得たこれ
らのキーワードを、存在確率の高い順にソートして並べ
る。図9に、音声信号から抽出されたキーワードが確率
順に並べられて示されている。図9の例では、一番高い
確率が“一番”に、2番目の確率が“料金”に、3番目
の確率が“近い”に、4番目の確率が“最も”に与えら
れている。尚、これらのキーワードは、音声信号から音
声認識処理部3が「そのような単語が発声されたであろ
う」として認識したものであって、必ずしも発声したも
のとは限らない。また、存在確率が高い順にならべられ
たキーワード列は、その順で発声されたとは限らない。
【0019】ステップS18では、ステップS8で検出
された操作情報の「話題」に関連する「意図理解管理テ
ーブル」を検索する。「駐車場」という「話題」に関連
する「意図理解管理テーブル」の例を図10に示す。図
10のテーブル中、S,C,A等は「格」を示し、「駐
車場」という「話題」に関連する格の例を図11に示
す。
【0020】図11に示した「格−単語テーブル」にお
いて、格Sは副詞を示し、「一番」や「最も」などがそ
の例である。格Cは形容詞を示し、「高い」や「近い」
や「安い」などがその例である。格Aは名詞を示し、
「値段」や「距離」などがその例である。格Vは動詞を
示し、「見せて」や「教えて」などがその例である。こ
のようにして得た「キーワード列」から、運転者の意図
を、「格−単語テーブル」「意図理解管理テーブル」を
利用しながら抽出する(ステップS20)。ここで、音
声信号から図9のようにえられたキーワード列に基づい
て「意図理解管理テーブル」が具体的にどのように利用
されるかを説明する。図10のテーブルの中で、「現在
受諾している格構造」と「受諾可能な格」でもって2つ
の連続するキーワードが形成される。「現在受諾してい
る格構造」が先のキーワードであり、「受諾可能な格」
がそれに続く格である。S列〜V列中の、×印はそのよ
うな組み合わせが存在しない場合を示し、○印はそのよ
うな組み合わせが存在する場合を示す。例えば、S行に
おいて、格Sに続いて、格Sや格Aや格Vが存在するこ
とはあり得ないことを示し、格Cや格Vの存在は許され
ることを示している。図11の例では、「一番値段」
(SAの組み合わせ)や「一番見せて」(SVの組み合
わせ)というキーワード列は存在せず、「一番高い」と
いうキーワード列は存在し得ることを意味する。「出力
可」のフラグは、キーワード列が存在しえても、意味出
力を行なうには足りないかいなかを示すものである。図
10の例において、SCという列は存在しえても、意味
としての出力を行なうことはできないことを示す。ま
た、AVという列(例えば、「値段見せて」)は組み合
わせが存在し、「意図」として意味のあるものとして出
力可能であるということである。
【0021】このようなルールの下で、図9のキーワー
ド列が入力したとする。先ず、最初の最も確率の高い
“一番”は格Sであるから、図10のテーブルに従え
ば、格Sに続くことが許される格はCのみであるので、
格Aである“料金”は刎ねられる。“料金”に続いて確
率の高いキーワードは“近い”であり、この格はCであ
るので、SCという列は存在を許される。そこで、現在
受諾している格構造はSCと更新される。このSCのキ
ーワード列に続いて受諾可能な格はVのみであるので、
図9の入力列の中で、S格である“最も”は刎ねられ、
次の入力キーワードである“教えて”が検査される。
“教えて”の格はVであり、しかもSCVと言うキーワ
ード列は「出力可」とマークされているので、結局、
“一番近い教えて”が意図として出力される。
【0022】ステップS22では、ステップS20で出
力された「意図」に対応する「出力ルール」を得る。ス
テップS24では、ステップS20で得られた「意図」
に基づいて、同じ「話題」を有するオブジェクトが探索
され、探索されたオブジェクトの中から「交通情報」を
抽出する。そして、ステップS26では、ステップS2
2で得た「出力ルール」に基づいてナビゲーション情報
を出力する。
【0023】以上説明した実施例のナビゲーション装置
によれば、 :タッチパネルから得られた「操作情報」に従って
「話題」(ユーザの関心範囲)を抽出し、この「話題」
と、他方、音声入力によって得られたキーワードとを用
いて、地図情報を検索するようにしているので、音声認
識処理に高度な認識技術を用いなくとも、目的の地図情
報を探索することができる。 :「話題」(ユーザの関心範囲)に応じたテンプレー
トファイルから発声されたキーワードを抽出しているの
で、音声認識処理の効率が上がる。 :「話題」に応じた「格−単語テーブル」、「意図理
解管理テーブル」を用いているので、意図を推論すると
きの速度が向上する。 :意図理解は、タッチパネル操作があって始めて起動
されるようにしているので、無意識のうちの会話によっ
てシステムが誤動作することが防止される。 :また、タッチパネル操作から所定時間以内の音声入
力のみを受け付けるので、同じく誤動作を防止できる。
【0024】本発明はその主旨を逸脱しない範囲で種々
変形が可能である。上記実施例は、主に駐車場を探す場
合におけるナビゲーションの例であった。本発明は、例
えば、交差点におけるナビゲーションにも適用可能であ
る。例えば、図12に示すように、表示装置上に、4方
向の交差点が前方にあることを示す表示がなされている
とする。運転者が交差点のオブジェクトをタッチする
と、システムは、「話題」として「交差点」を認識す
る。この時点で、「交差点名は?」と音声入力すると、
キーワードとして、「交差点」と「名」とが得られ、シ
ステムは運転者の意図として、「交差点」という「話
題」において、交差点の名前を知りたがっていることを
推論する。さらに、「後何メートル?」という入力があ
れば、この音声信号から「メートル」というキーワード
を抽出する。そして、「交差点」という話題と「メート
ル」というキーワードとから、運転者の意図が、現在地
からその交差点までの距離にあると推論する。
【0025】図13の例では、運転者が「品川」という
オブジェクトをタッチした場合を示している。この「品
川」というオブジェクトには、話題として、「目的地」
「経由地」が設定されている。そこで、運転者が「混ん
でる」と発声すれば、この音声信号の中から、「混ん」
をキーワードとして認識する。そして、「目的地」「経
由地」という話題と、「混ん」というキーワードとか
ら、システムは品川方向の混雑度を運転者が知りたがっ
ていると推論する。
【0026】上記実施例では、操作情報はタッチパネル
を介して入力しているが、別途メニュー表示から入力す
るようにしてもよい。
【0027】
【発明の効果】以上説明した本発明の音声対話型ナビゲ
ーション装置は、音声入力と操作装置からの入力とを併
用し、両入力を互いに補間させ合うことにより、低いコ
ストで高い認識制度を得ることのできる。
【図面の簡単な説明】
【図1】実施例のナビゲーションシステムのブロック
図。
【図2】実施例の動作を駐車場を例にして示すときの表
示画面の一例を示す図。
【図3】図2の画面に対応した対話の一例を示す図。
【図4】実施例のシステムにおける音声認識所の手順を
説明するブロック図。
【図5】実施例における、意図解析の手順を説明する
図。
【図6】実施例の制御手順を示すフローチャート。
【図7】実施例に用いられている地図データベースの構
造を説明する図。
【図8】実施例に用いられている音声辞書の構成を示す
図。
【図9】認識されたキーワード列の例を示す図。
【図10】意図理解管理テーブルの一例を示す図。
【図11】格−単語テーブルの一例を示す図。
【図12】交差点におけるナビゲーションでの表示例を
示す図。
【図13】交差点におけるナビゲーションでの表示例を
示す図。

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 操作者の音声情報を入力する音声情報入
    力手段と、 操作者により行なわれた操作を介して操作情報を入力す
    る操作情報入力手段と、 入力された音声情報からキーワードを抽出する抽出手段
    と、 抽出されたキーワードと入力された操作情報とに基づい
    て地図データベースから地図情報を検索し、この地図情
    報を出力する出力手段とを具備する音声対話型ナビゲー
    ション装置。
  2. 【請求項2】 前記出力手段は地図情報を可視出力する
    表示装置を具備し、 前記操作情報入力手段はこの表示装置上に設けられたタ
    ッチパネルを具備することを特徴とする請求項1に記載
    の音声対話型ナビゲーション装置。
  3. 【請求項3】 前記操作情報入力手段は、操作情報に基
    づいて運転者の関心事を抽出することを特徴とする請求
    項1に記載の音声対話型ナビゲーション装置。
  4. 【請求項4】 地図情報は、オブジェクト毎に前もっ
    て、表示図形情報と関心情報とを有したデータベース中
    に存在しており、 前記操作情報入力手段は、運転者がタッチした位置に相
    当するオブジェクトを抽出し、このオブジェクトの関心
    情報を操作情報として検出することを特徴とする請求項
    2に記載の音声対話型ナビゲーション装置。
  5. 【請求項5】 前記抽出手段は、前もって操作情報毎に
    分類された音声辞書を有することを特徴とする請求項1
    に記載の音声対話型ナビゲーション装置。
JP18498694A 1994-08-05 1994-08-05 音声対話型ナビゲーション装置 Expired - Fee Related JP3582069B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18498694A JP3582069B2 (ja) 1994-08-05 1994-08-05 音声対話型ナビゲーション装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18498694A JP3582069B2 (ja) 1994-08-05 1994-08-05 音声対話型ナビゲーション装置

Publications (2)

Publication Number Publication Date
JPH0850698A true JPH0850698A (ja) 1996-02-20
JP3582069B2 JP3582069B2 (ja) 2004-10-27

Family

ID=16162803

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18498694A Expired - Fee Related JP3582069B2 (ja) 1994-08-05 1994-08-05 音声対話型ナビゲーション装置

Country Status (1)

Country Link
JP (1) JP3582069B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002181552A (ja) * 2000-12-11 2002-06-26 Nippon Telegr & Teleph Corp <Ntt> サーバ型ナビゲーションシステム
JP2002350151A (ja) * 2001-05-24 2002-12-04 Mitsubishi Electric Corp ナビゲーション装置
WO2003078930A1 (fr) * 2002-03-15 2003-09-25 Mitsubishi Denki Kabushiki Kaisha Dispositif de navigation a bord d'un vehicule
WO2003079328A1 (fr) * 2002-03-20 2003-09-25 Japan Science And Technology Agency Appareil, procede et programme de conversion audio video
JP2004020883A (ja) * 2002-06-17 2004-01-22 Fujitsu Ten Ltd 音声認識装置及びナビゲーション装置
WO2009091639A1 (en) * 2008-01-14 2009-07-23 Garmin Ltd. Dynamic user interface for automated speech recognition
KR20190115356A (ko) * 2018-04-02 2019-10-11 삼성전자주식회사 어플리케이션 실행 방법 및 이를 지원하는 전자 장치
JP2021076604A (ja) * 2019-11-08 2021-05-20 モビリティー、アジア、スマート、テクノロジー、カンパニー、リミテッドMobility Asia Smart Technology Co. Ltd. ナビゲーションに用いられる方法、装置、デバイス、及びコンピュータが読み取り可能な記憶媒体

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102612835B1 (ko) * 2018-04-20 2023-12-13 삼성전자주식회사 전자 장치 및 전자 장치의 기능 실행 방법

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002181552A (ja) * 2000-12-11 2002-06-26 Nippon Telegr & Teleph Corp <Ntt> サーバ型ナビゲーションシステム
JP2002350151A (ja) * 2001-05-24 2002-12-04 Mitsubishi Electric Corp ナビゲーション装置
WO2003078930A1 (fr) * 2002-03-15 2003-09-25 Mitsubishi Denki Kabushiki Kaisha Dispositif de navigation a bord d'un vehicule
US7181342B2 (en) 2002-03-15 2007-02-20 Mitsubishi Denki Kabushiki Kaisha Vehicular navigation device
CN100342214C (zh) * 2002-03-15 2007-10-10 三菱电机株式会社 车辆用导航装置
WO2003079328A1 (fr) * 2002-03-20 2003-09-25 Japan Science And Technology Agency Appareil, procede et programme de conversion audio video
JP2004020883A (ja) * 2002-06-17 2004-01-22 Fujitsu Ten Ltd 音声認識装置及びナビゲーション装置
WO2009091639A1 (en) * 2008-01-14 2009-07-23 Garmin Ltd. Dynamic user interface for automated speech recognition
JP2011511935A (ja) * 2008-01-14 2011-04-14 ガーミン スウィッツァランド ゲーエムベーハー 自動音声認識用の動的なユーザーインターフェース
KR20190115356A (ko) * 2018-04-02 2019-10-11 삼성전자주식회사 어플리케이션 실행 방법 및 이를 지원하는 전자 장치
JP2021076604A (ja) * 2019-11-08 2021-05-20 モビリティー、アジア、スマート、テクノロジー、カンパニー、リミテッドMobility Asia Smart Technology Co. Ltd. ナビゲーションに用いられる方法、装置、デバイス、及びコンピュータが読み取り可能な記憶媒体

Also Published As

Publication number Publication date
JP3582069B2 (ja) 2004-10-27

Similar Documents

Publication Publication Date Title
US20080177541A1 (en) Voice recognition device, voice recognition method, and voice recognition program
JP4715805B2 (ja) 車載情報検索装置
JP3278222B2 (ja) 情報処理方法及び装置
JP4466379B2 (ja) 車載音声認識装置
US20050171685A1 (en) Navigation apparatus, navigation system, and navigation method
WO2005096184A1 (ja) 施設検索装置、プログラム、方法、及びナビゲーション装置
US10515634B2 (en) Method and apparatus for searching for geographic information using interactive voice recognition
JPH0850698A (ja) 音声対話型ナビゲーション装置
JP4642953B2 (ja) 音声検索装置、および、音声認識ナビゲーション装置
JP2003032388A (ja) 通信端末装置及び処理システム
JP2003207358A (ja) 道案内装置及びプログラム
JP4258890B2 (ja) 音声認識装置、その装置を用いたナビゲーションシステム
JPH0764480A (ja) 車載情報処理用音声認識装置
WO2014199428A1 (ja) 候補告知装置、候補告知方法及び候補告知用プログラム
JP3645104B2 (ja) 辞書検索装置及び辞書検索プログラムを記録した記録媒体
JP2000067047A (ja) 対話制御装置および対話制御方法
JP5455355B2 (ja) 音声認識装置及びプログラム
JP3624698B2 (ja) 音声認識装置、その装置を用いたナビゲーションシステム及び自動販売システム
US20040015354A1 (en) Voice recognition system allowing different number-reading manners
JP2006171305A (ja) ナビゲーション装置およびナビゲーション装置における音声認識による情報の検索方法
JP2010108297A (ja) 施設検索方法および施設検索装置
JP2000187493A (ja) 音声出力装置および車載用コンピュータ
JP3925368B2 (ja) 制御システム
JP2005267092A (ja) 照応解析装置及びナビゲーション装置
JP2017181631A (ja) 情報制御装置

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040718

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080806

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090806

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090806

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100806

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110806

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120806

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees