JPH03257485A - On-vehicle map display device - Google Patents

On-vehicle map display device

Info

Publication number
JPH03257485A
JPH03257485A JP2056857A JP5685790A JPH03257485A JP H03257485 A JPH03257485 A JP H03257485A JP 2056857 A JP2056857 A JP 2056857A JP 5685790 A JP5685790 A JP 5685790A JP H03257485 A JPH03257485 A JP H03257485A
Authority
JP
Japan
Prior art keywords
voice
map information
input
display
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2056857A
Other languages
Japanese (ja)
Inventor
Kazuma Kaneko
和磨 金子
Yoshiharu Morihiro
義晴 森廣
Hiroaki Ideno
井出野 宏昭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2056857A priority Critical patent/JPH03257485A/en
Publication of JPH03257485A publication Critical patent/JPH03257485A/en
Pending legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

PURPOSE:To attain easy and secure input of the names of places vocally by comparing a group of voice features of a group of pieces of place name information displayed currently in a map diagram with the features of an input voice and displaying map information corresponding to recognized voice features. CONSTITUTION:A voice signal which is inputted to a microphone 10 and converted is converted by a voice feature extracting means into feature vectors. A voice recognition processing part 13 reads a word identification code and word feature vectors corresponding to a sequence identification code, received from a control means 1, out of a voice feature storage means 12 and outputs the identification code of the word which has the maximum similarity to the feature vectors of the voice signal and exceeds a constant threshold value. The control means 1 reads map information on an area centering on the display position coordinates of the character string having the character string identification code matching the word identification code out of a map information storage means 2, makes a display 4, and sends the display position coordinates to a current position detecting means 3. Therefore, an operator can easily and securely input the current place, destination, and its name without using the hand and perform safe driving.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、地図上に表示されている地名等の名称を音
声で1入力することにより、現在地、目的地等を簡単か
つ確実に設定するようにして、車両運転者が安全かつ快
適に目的地に到達するための地図情報を提供する車載用
地図表示装置に関するものである。
[Detailed Description of the Invention] [Industrial Field of Application] This invention allows the present location, destination, etc. to be easily and reliably set by inputting the name of a place displayed on a map, etc. by voice. The present invention relates to an in-vehicle map display device that provides map information for a vehicle driver to reach a destination safely and comfortably.

〔従来の技術〕[Conventional technology]

第4図は例えば特開昭62−289720号公報に示さ
れた従来の車載用地図表示装置の構成を示すブロック図
である。
FIG. 4 is a block diagram showing the configuration of a conventional in-vehicle map display device disclosed in, for example, Japanese Patent Laid-Open No. 62-289720.

この第4図において、lは制御手段であり、マイクロコ
ンピュータを中心としてそれを動作させるプログラムR
OMと、データ用のRAMなどを含み、従来の車載用地
図表示装置の制御を行なっている。
In FIG. 4, l is a control means, and a program R that operates the control means is centered on a microcomputer.
It includes an OM, RAM for data, etc., and controls a conventional in-vehicle map display device.

2は地図情報記憶手段であり、地図情報を記録したCD
 −ROM、CD −ROM駆動回路、データ読み出し
回路などを含み、地図情報を記憶しており、制御手段1
の命令に従って地図情報を制御手段1に送っている。
2 is a map information storage means, which is a CD on which map information is recorded.
-ROM, CD -Includes ROM drive circuit, data readout circuit, etc., stores map information, and controls means 1
The map information is sent to the control means 1 according to the command.

3は現在位置検出装置であり、方位センサ、距離センサ
などを含み、現在の進行方位や、自軍の位置を検出する
とともに、その座標データを制御手段1に送っている。
Reference numeral 3 denotes a current position detection device, which includes a direction sensor, a distance sensor, etc., and detects the current direction of movement and the position of the own troops, and sends the coordinate data to the control means 1.

制御手段1の出力側には、表示手段4を駆動する表示制
御手段5が接続される。表示手段4はCRTなどのデイ
スプレィ装置で構成され、地図情報を表示している。
Display control means 5 for driving display means 4 is connected to the output side of control means 1 . The display means 4 is constituted by a display device such as a CRT, and displays map information.

また、6はタッチパネルであり、制御手段1に接続され
、表示手段4に重ねて配置されるとともに、地図表示の
変更操作、現在位置設定、目的地設定などの操作情報を
制御手段1に送っている。
Reference numeral 6 denotes a touch panel, which is connected to the control means 1 and placed over the display means 4, and which sends operation information such as changing the map display, setting the current position, and setting the destination to the control means 1. There is.

次に動作について説明する。Next, the operation will be explained.

まず、地図を表示する操作がタッチパネル6を介して操
作者によってなされると、この操作命令がタッチパネル
6より制御手段1に送られる。
First, when an operator performs an operation to display a map via the touch panel 6, this operation command is sent from the touch panel 6 to the control means 1.

例えば、現在位置表示の場合、制御手段1は操作命令に
より、現在位置検出手段3より現在位置を読み出し、現
在位置が属する地区の地図情報を地図情報記憶手段2よ
り読み出して、地図と自車の現在位置を重ねて表示手段
4に表示する。
For example, in the case of displaying the current position, the control means 1 reads out the current position from the current position detection means 3 in response to an operation command, reads out the map information of the area to which the current position belongs from the map information storage means 2, and compares the map with the own vehicle. The current position is displayed on the display means 4 in an overlapping manner.

この時、この地図情報は、制御手段1を通して表示制御
手段5に送られ、表示制御手段5で画像データに変換さ
れて、表示手段4より表示される。
At this time, this map information is sent to the display control means 5 through the control means 1, converted into image data by the display control means 5, and displayed on the display means 4.

この表示手段4の表示例を第5図に示す。この第5図に
おいて、東京付近の地図が表示され、現在位置は自軍マ
ークM1で示される。表示手段4の右部には、操作パッ
ドの例が示されており、操作パッドの上から順に現在位
置表示、拡大、縮小を表している。
A display example of this display means 4 is shown in FIG. In FIG. 5, a map of the vicinity of Tokyo is displayed, and the current position is indicated by the own army mark M1. An example of an operation pad is shown on the right side of the display means 4, and displays current position, enlargement, and reduction in order from the top of the operation pad.

現在位置表示の場合には、現在位置表示の操作パッドを
操作し、地図の縮尺率を変えたい場合には、拡大、縮小
の操作パッドを操作することによって実現できる。
In the case of displaying the current position, operate the operation pad for displaying the current position, and if you wish to change the scale of the map, this can be achieved by operating the operation pad for enlargement or reduction.

もし、現在位置が記憶されていない場合は、タッチパネ
ル6上の一点を押すことによって現在位置を設定するこ
とができる。この時タッチパネル6は、押された位置を
表示画面上の座標として制御手段1を介して現在位置検
出手段3に送り、現在位置検出手段3はこの表示画面上
の座標を地図上の座標に変換したのち、現在位置として
記憶する。目的地を設定する場合も同様の手順で処理が
行われる。
If the current position is not stored, the current position can be set by pressing one point on the touch panel 6. At this time, the touch panel 6 sends the pressed position as coordinates on the display screen to the current position detection means 3 via the control means 1, and the current position detection means 3 converts the coordinates on the display screen into coordinates on the map. After that, it is memorized as the current position. The same procedure is followed when setting a destination.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

従来の車載用地図表示装置は以上のように構成されてい
るので、現在位置、目的地などの設定の際には、表示さ
れている地図を見ながらタッチパネルを指で押すという
作業が必要であり、運転者が運転中に行う場合、運転以
外に目と手を使わなけばならず、危険が伴い、運転上支
障をきたすという問題点があった。
Conventional in-vehicle map display devices are configured as described above, so when setting the current location, destination, etc., it is necessary to press the touch panel with your finger while looking at the displayed map. When a driver performs this while driving, the driver must use his or her eyes and hands for purposes other than driving, which is dangerous and poses a problem for driving.

また、上記問題点を避けるために、地名等を音声で入力
することが考えられるが、数百語以上に及ぶ地名群の中
から入力された特定の地名を認識するためには、極めて
大規模な装置となり、事実上車載不可能であり、認識率
も高められないという問題点があった。
In addition, to avoid the above problems, it is possible to input place names etc. by voice, but in order to recognize a specific place name input from a group of place names containing several hundred words or more, it is necessary to input place names etc. by voice. However, there were problems in that it became a device that could not be installed in a vehicle, and the recognition rate could not be improved.

この発明は、上記のような問題点を解消するためになさ
れたもので、地図上に表示されている地名、建物名、道
路名、交差点名等の名称を音声で入力可能な誘雷とする
ことにより、容易かつ安全に現在地、目的地の設定や地
名入力ができ、しかも安全運転上何ら支障を来たすこと
のない車載用地図表示装置を得ることを目的とする。
This invention was made to solve the above-mentioned problems, and is a lightning arrester that allows the names of places, buildings, roads, intersections, etc. displayed on the map to be entered by voice. To provide an on-vehicle map display device that allows easy and safe setting of current location and destination and input of place name, and which does not cause any hindrance to safe driving.

〔課題を解決するための手段〕[Means to solve the problem]

この発明に係わる車載用地図表示装置は、表示画面上に
表示されている地名、建物名、道路名、交差点名等の名
称を音声により入力する音声入力手段と、表示画面上に
表示される地名等の全名称に対応した地名情報群の音声
特徴を記憶した音声特徴記憶手段と、この音声特徴記憶
手段から特定の地名情報群の音声特徴データを選択的に
使用して、画面上に表示されている地名等の名称を操作
者により音声入力手段で入力された音声の特徴を判別す
る音声認識処理手段とを設けたものである。
The in-vehicle map display device according to the present invention includes a voice input means for inputting names such as place names, building names, road names, intersection names, etc. displayed on a display screen by voice, and a place name displayed on the display screen. A voice feature storage means that stores voice characteristics of a group of place name information corresponding to all names such as , etc., and a voice characteristic data of a specific place name information group from this voice characteristic storage means are selectively used to display the voice on the screen. The apparatus is further provided with a voice recognition processing means for determining the characteristics of the voice inputted by the operator using the voice input means, such as a name of a place.

〔作 用〕[For production]

この発明における操作者が画面上に表示されている地名
等の名称を音声入力手段で入力すると、音声認識処理部
は音声特徴記憶部で記憶されている地名情報群の音声特
徴群と入力された音声の特徴とを判別して、この入力さ
れた音声がどの音声特徴群に相当するかを認識して、そ
の認識した音声特徴群に対応する地図情報を表示手段に
表示させるための情報とする。
When the operator in this invention inputs a name such as a place name displayed on the screen using the voice input means, the voice recognition processing section inputs the voice feature group of the place name information group stored in the voice feature storage section. This information is used to identify the characteristics of the voice, recognize which voice feature group the input voice corresponds to, and display map information corresponding to the recognized voice feature group on the display means. .

〔実施例〕〔Example〕

以下、この発明の車載用地図表示装置の実施例を図につ
いて説明する。第1図はその一実施例を示すブロック図
である・。
Embodiments of the in-vehicle map display device of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing one embodiment.

この第1図において、1〜5は第4図で示した従来例と
同一であるので説明を省略する。また、タッチパネルは
第1図では示されていないが、設けられているものとす
る。
In FIG. 1, numerals 1 to 5 are the same as those in the conventional example shown in FIG. 4, so their explanation will be omitted. Furthermore, although a touch panel is not shown in FIG. 1, it is assumed that it is provided.

また、10は音声を音声信号に変換する音声入力手段と
してのマイクロホンである。11はマイクロホン10よ
り入力された音声信号を分析し、音声の特徴ベクトルを
抽出する音声特徴抽出手段である。
Further, 10 is a microphone serving as an audio input means for converting audio into an audio signal. Reference numeral 11 denotes a voice feature extracting means that analyzes the voice signal input from the microphone 10 and extracts a voice feature vector.

12ば、音声特徴記憶手段であり、地図情報記憶手段2
に記憶される地名、建物名、道路名、交差点名等の全名
称に対応する単語音声の特徴を記憶している。
12 is a voice feature storage means, and map information storage means 2
It stores the characteristics of word sounds corresponding to all names such as place names, building names, road names, and intersection names stored in the .

13は、音声認識処理部であり、音声特徴抽出手段11
より送られた音声の特徴ベクトルと音声特徴記憶手段1
2の特徴ベクトルとを比較し、入力された音声がどの単
語に相当するかを認識判別している。
13 is a speech recognition processing section, and the speech feature extraction means 11
Voice feature vector and voice feature storage means 1 sent from
The two feature vectors are compared to recognize and determine which word the input voice corresponds to.

第2図は第1図における地図情報記憶手段2の構成の一
例を示す構成図である。この第2図において、地図情報
記憶手段2は地形を記憶している背景データエリア2A
と、道路網の接続状況を記憶している道路データエリア
2Bと、地図上に表示する地名等の名称を記憶している
文字列データエリア2Cから構成されている。
FIG. 2 is a configuration diagram showing an example of the configuration of the map information storage means 2 in FIG. 1. In this FIG. 2, the map information storage means 2 is a background data area 2A that stores topography.
, a road data area 2B that stores the connection status of the road network, and a character string data area 2C that stores names such as place names to be displayed on the map.

文字列データエリア2Cは複数個(例えばn個)の文字
列データ2C,〜2C,,から構成されており、各文字
列データ2C,〜2C,は文字列を識別するための文字
列識別コード2dと、文字列を槽底する文字数を示す文
字数データ2eと、文字列を構成する各文字の文字コー
ド2fと、文字列を表示する位置の文字列表示位置座標
2gから構成されている。
The character string data area 2C is composed of a plurality of (for example, n) character string data 2C, ~2C,, and each character string data 2C, ~2C, is a character string identification code for identifying the character string. 2d, character count data 2e indicating the number of characters forming the character string, character code 2f of each character composing the character string, and character string display position coordinates 2g of the position where the character string is displayed.

第3図は第1図における音声特徴記憶手段12の構成の
一例を示す構成図である。この第3図において、音声特
徴記憶手段■2は複数個(例えばn個)の単語データ1
21〜12nから構成されている。各単語データ12□
〜12.lは各単語を識別するための単語識別コード1
2aと、単語の特徴を示す単語特徴ベクトル12bから
構成されている。
FIG. 3 is a configuration diagram showing an example of the configuration of the audio feature storage means 12 in FIG. 1. In this FIG.
It is composed of 21 to 12n. Each word data 12□
~12. l is word identification code 1 for identifying each word
2a, and a word feature vector 12b indicating the features of the word.

なお、第2図における文字列識別コード2dと第3図に
おける単語識別コード12aは対応しており、例えば文
字列「東京」の文字列識別コードがrooloJならば
、「と−きよう」と発声した単語の単語識別コードもr
ooloJに等しい。
Note that the character string identification code 2d in FIG. 2 and the word identification code 12a in FIG. The word identification code of the word
Equal to ooloJ.

次に動作について説明する。まず、地図を表示する操作
が第1図では図示されていないタッチパネルを介して操
作者によってなされると、例えば、現在位置表示の場合
、この操作命令がタッチパネルより制御手段1に送られ
る。
Next, the operation will be explained. First, when an operator performs an operation to display a map via a touch panel (not shown in FIG. 1), for example, in the case of displaying the current position, this operation command is sent to the control means 1 from the touch panel.

制御手段1は、操作命令により、現在位置検出手段3よ
り現在位置を読み出し、現在位置が属する地区の地図情
報を地図情報記憶手段2より読み出して、地図と現在の
自車位置を重ねて表示手段4に表示するとともに、表示
手段4に表示している全文字列の識別コードを音声認識
処理部13に出力する。
In response to an operation command, the control means 1 reads the current position from the current position detection means 3, reads out the map information of the district to which the current position belongs from the map information storage means 2, and displays the map and the current vehicle position superimposed on the map. 4, and outputs the identification codes of all character strings displayed on the display means 4 to the speech recognition processing section 13.

この地図情報は、従来例と同様の動作により、表示手段
4に表示される。この表示手段4の表示例は従来例と同
様である。
This map information is displayed on the display means 4 by the same operation as in the conventional example. The display example of this display means 4 is the same as the conventional example.

現在位置表示、地図の縮尺率を変えたい場合には、従来
例と同様に、操作パッドを操作することによって実現で
きる。
If you want to change the current position display or the scale of the map, you can do so by operating the operation pad, as in the conventional example.

この発明の一実施例により、操作者が地図上に表示され
ている地名等の名称を音声で入力することによって、現
在位置を設定する手順は以下の通りである。
According to an embodiment of the present invention, the procedure for setting the current position by the operator inputting the name of a place or the like displayed on the map by voice is as follows.

操作者が画面上に表示されている地名等の名称を発声す
ると、マイクロホン10で集音される。
When the operator speaks a name such as a place name displayed on the screen, the sound is collected by the microphone 10.

マイクロホン10に入力された後、変換された音声信号
は、音声特徴抽出手段11で分析されて特徴ベクトルに
変換される。
After being input to the microphone 10, the converted audio signal is analyzed by the audio feature extraction means 11 and converted into a feature vector.

音声認識処理部I3は制御手段1から受は取った文字列
識別コードに対応した単語識別コードと単語特徴ベクト
ルを音声特徴記憶手段12から読み込み、入力された音
声信号の特徴ベクトルとの類似度を計算し、特徴ベクト
ルの類似度が最大かつ一定のしきい値以上となる単語の
識別コードを認識結果として制御手段1に出力する。一
定のしきい値以上となる特徴ベクトルが見つからない場
合は処理を終了する。
The speech recognition processing section I3 reads the word identification code and word feature vector corresponding to the character string identification code received from the control means 1 from the speech feature storage means 12, and calculates the degree of similarity with the feature vector of the input speech signal. The identification code of the word whose feature vector similarity is maximum and above a certain threshold is output to the control means 1 as a recognition result. If a feature vector that is equal to or greater than a certain threshold value is not found, the process ends.

制御手段1は音声認識処理部13から受は取った単語識
別コードと一致する文字列識別コードを持つ文字列の表
示位置座標を中心とする地区の地図情報を地図情報記憶
手段2から読み込み、表示手段4に表示し、文字列を点
滅させて認識結果を操作者に知らせるとともに、その文
字列の表示値1 置座標を現在位置検出手段3に送る。
The control means 1 reads, from the map information storage means 2, map information of a district centered on the display position coordinates of a character string having a character string identification code that matches the word identification code received from the voice recognition processing unit 13, and displays it. The character string is displayed on the means 4 and the character string is blinked to inform the operator of the recognition result, and the display value 1 of the character string is sent to the current position detecting means 3.

現在位置検出手段3はこの座標を現在位置として記憶す
る。目的地を設定する場合も同様の手順で処理が行われ
る。例えば第5図に示された表示例の場合、画面上に表
示される「東京駅」と発声すれば、その地名が認識され
、東京駅の位置が現在地として設定される。
The current position detection means 3 stores these coordinates as the current position. The same procedure is followed when setting a destination. For example, in the case of the display example shown in FIG. 5, if you say "Tokyo Station" displayed on the screen, the place name will be recognized and the location of Tokyo Station will be set as your current location.

このようにすると、数百語以上に及ぶ地名音声の特徴ベ
クトルの中から類似度比較を行う対象を現在地図上に表
示されている数十語程度に限定できるので、認識率や認
識処理速度が向上する。
In this way, the targets for similarity comparison can be limited to the few dozen words currently displayed on the map from among the feature vectors of place name sounds, which number over several hundred words, which improves the recognition rate and recognition processing speed. improves.

また、表示されている地名が音声入力可能な地名である
という明快なルールがあるので、操作者が入力可能な言
葉が何であるのかわからないという音声入力装置にあり
がちな欠点も解消される。
Furthermore, since there is a clear rule that the displayed place name must be a place name that can be input by voice, the drawback that is common with voice input devices, such as the operator not knowing what words can be input, is eliminated.

なお、上記実施例では、文字列を点滅させて認識結果を
操作者に知らせるように槽底した場合を示したが、文字
列を点滅させるとともに、認識結果の単語を合成音声で
出力して認識結果を操作者に知らせるようにしてもよい
In addition, in the above example, a case was shown in which the character string was blinked to inform the operator of the recognition result, but the recognition result could be recognized by blinking the character string and outputting the recognition result word as a synthesized voice. The result may be notified to the operator.

2 また、上記実施例では、単語辞書の特徴ベクトルは1単
語に対して1個の特徴ベクトルを持つように槽底してい
るが、複数個の特徴ベクトルを持つように槽底しても同
様の効果を期待できる。
2 In addition, in the above embodiment, the feature vectors of the word dictionary are arranged so that each word has one feature vector, but it is also possible to have a plurality of feature vectors. You can expect the following effects.

さらに、上記実施例では現在位置、目的地の入力に音声
入力を用いた場合を例示したが、これに限らず、サービ
ス情報の検索等の一般的な地名入力に用いることが可能
なのは言うまでもない。
Further, in the above embodiments, voice input is used to input the current location and destination, but the present invention is not limited to this, and it goes without saying that the voice input can be used for general place name input such as searching for service information.

〔発明の効果〕〔Effect of the invention〕

以上のように、この発明によれば、タッチパネルの代わ
りに音声入力手段で入力した入力音声を認識するととも
に、地図上に表示されている地名等の名称の音声入力の
対象語の特徴と音声特徴記憶手段に記憶された音声特徴
データとを比較して音声入力の対象語を地図上に表示さ
れている地名等の名称に限定するように槽底したので、
操作者は手を使わずに音声により容易かつ確実に現在地
、目的地、その他の地名を入力でき、しかも安全運転上
何ら支障を来たさないという効果がある。
As described above, according to the present invention, the input voice input using the voice input means instead of the touch panel is recognized, and the characteristics and voice characteristics of the target word of the voice input of a name such as a place name displayed on a map are recognized. By comparing the voice feature data stored in the storage means, the target words for voice input are limited to names such as place names displayed on the map.
The operator can easily and reliably input the current location, destination, and other place names by voice without using his/her hands, and has the effect of not causing any hindrance to safe driving.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の一実施例による車載用地図表示装置
を示すブロック図、第2図は同上実施例における地図情
報記憶手段の一構成例を示す模式図、第3図は同上実施
例における音声特徴記憶手段の一構成例を示す模式図、
第4図は従来の車載用地図表示装置を示すブロック図、
第5図は従来の車載用地図表示装置の表示手段による表
示の一例を示す模式図である。 1・・・制御手段、2・・・地図情報記憶手段、3・・
・現在位置検出手段、4・・・表示手段、5・・・表示
制御手段、6・・・タッチパネル、10・・・マイクロ
ホン、11・・・音声特徴抽出手段、12・・・音声特
徴記憶手段、13・・・音声認識処理部。 なお、図中、同一符号は同一、または相当部分を示す。
FIG. 1 is a block diagram showing an in-vehicle map display device according to an embodiment of the present invention, FIG. 2 is a schematic diagram showing an example of the configuration of a map information storage means in the above embodiment, and FIG. 3 is a block diagram showing an example of the configuration of a map information storage means in the above embodiment. A schematic diagram showing an example of a configuration of a voice feature storage means,
FIG. 4 is a block diagram showing a conventional in-vehicle map display device.
FIG. 5 is a schematic diagram showing an example of a display by a display means of a conventional in-vehicle map display device. 1... Control means, 2... Map information storage means, 3...
・Current position detection means, 4...Display means, 5...Display control means, 6...Touch panel, 10...Microphone, 11...Audio feature extraction means, 12...Audio feature storage means , 13...Speech recognition processing unit. In addition, in the figures, the same reference numerals indicate the same or equivalent parts.

Claims (1)

【特許請求の範囲】[Claims]  地図情報記憶手段と、この地図情報記憶手段に記憶さ
れる地図情報や地名情報群等を表示する表示手段と、操
作者の音声を入力する音声入力手段と、この音声入力手
段から入力された音声の特徴を抽出する音声特徴抽出手
段と、前記地図情報記憶手段に記憶された地名情報群の
音声特徴群を記憶する音声特徴記憶手段と、この音声特
徴記憶手段から特定の地名情報群の音声特徴データを選
択的に使用して前記音声特徴抽出手段で抽出した入力音
声の特徴を判別する音声認識処理手段と、操作者の操作
入力や車両の現在位置等に応じて前記地図情報記憶手段
から表示に関わる特定の地図情報や地名情報群を選択し
て前記表示手段に送出するとともに、前記表示に関わる
特定の地名情報群の一部またはすべてを前記選択的に使
用する音声特徴データに係る地名情報群として前記音声
認識処理手段に送出する制御手段を備えた車載用地図表
示装置。
A map information storage means, a display means for displaying map information, a group of place name information, etc. stored in the map information storage means, a voice input means for inputting an operator's voice, and a voice input from the voice input means. voice feature extraction means for extracting the voice features of the place name information group stored in the map information storage means; voice feature storage means for storing the voice feature group of the place name information group stored in the map information storage means; a voice recognition processing means for selectively using data to determine the characteristics of the input voice extracted by the voice feature extraction means; and displaying from the map information storage means according to the operator's operation input, the current position of the vehicle, etc. Place name information related to audio feature data that selects specific map information or a group of place name information related to and sends it to the display means, and selectively uses part or all of the specific group of place name information related to the display. An in-vehicle map display device comprising a control means for sending a group of voice signals to the voice recognition processing means.
JP2056857A 1990-03-07 1990-03-07 On-vehicle map display device Pending JPH03257485A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2056857A JPH03257485A (en) 1990-03-07 1990-03-07 On-vehicle map display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2056857A JPH03257485A (en) 1990-03-07 1990-03-07 On-vehicle map display device

Publications (1)

Publication Number Publication Date
JPH03257485A true JPH03257485A (en) 1991-11-15

Family

ID=13039085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2056857A Pending JPH03257485A (en) 1990-03-07 1990-03-07 On-vehicle map display device

Country Status (1)

Country Link
JP (1) JPH03257485A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0599679A (en) * 1991-10-09 1993-04-23 Sanyo Electric Co Ltd Navigation device
EP0675341A1 (en) * 1994-03-29 1995-10-04 Honda Giken Kogyo Kabushiki Kaisha Car navigation system
EP0703435A1 (en) * 1994-09-21 1996-03-27 Nec Corporation Moving object navigation apparatus
JPH09113299A (en) * 1995-10-16 1997-05-02 Sony Corp Navigation device, navigation method, and automobile
WO2003088209A1 (en) * 2002-04-12 2003-10-23 Mitsubishi Denki Kabushiki Kaisha Car navigation system and speech recognizing device thereof
JP2004020883A (en) * 2002-06-17 2004-01-22 Fujitsu Ten Ltd Speech recognition device and navigation system
JP2006090790A (en) * 2004-09-22 2006-04-06 Toyota Motor Corp Drive support system
CN113370897A (en) * 2021-06-28 2021-09-10 北京小鹏汽车有限公司 Vehicle map display control method and device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0599679A (en) * 1991-10-09 1993-04-23 Sanyo Electric Co Ltd Navigation device
EP0675341A1 (en) * 1994-03-29 1995-10-04 Honda Giken Kogyo Kabushiki Kaisha Car navigation system
US5754430A (en) * 1994-03-29 1998-05-19 Honda Giken Kogyo Kabushiki Kaisha Car navigation system
EP0703435A1 (en) * 1994-09-21 1996-03-27 Nec Corporation Moving object navigation apparatus
US5797112A (en) * 1994-09-21 1998-08-18 Nec Corporation Navigation apparatus using a position index and information representative of roads and institutions
JPH09113299A (en) * 1995-10-16 1997-05-02 Sony Corp Navigation device, navigation method, and automobile
WO2003088209A1 (en) * 2002-04-12 2003-10-23 Mitsubishi Denki Kabushiki Kaisha Car navigation system and speech recognizing device thereof
JPWO2003088209A1 (en) * 2002-04-12 2005-08-25 三菱電機株式会社 Car navigation system and its voice recognition device
JP2004020883A (en) * 2002-06-17 2004-01-22 Fujitsu Ten Ltd Speech recognition device and navigation system
JP2006090790A (en) * 2004-09-22 2006-04-06 Toyota Motor Corp Drive support system
JP4556586B2 (en) * 2004-09-22 2010-10-06 トヨタ自動車株式会社 Driving assistance device
CN113370897A (en) * 2021-06-28 2021-09-10 北京小鹏汽车有限公司 Vehicle map display control method and device

Similar Documents

Publication Publication Date Title
EP1507129B1 (en) Computer-based system and method for outputting information to a driver of a vehicle
US6480786B2 (en) Method and system for route guiding
JP4736982B2 (en) Operation control device, program
JPH0933278A (en) Display device for operation of on-vehicle equipment
KR20060070280A (en) Apparatus and its method of user interface using hand gesture recognition
US20160336009A1 (en) In-vehicle control apparatus and in-vehicle control method
JP2001296882A (en) Navigation system
JPH03257485A (en) On-vehicle map display device
JP3842497B2 (en) Audio processing device
JP4258890B2 (en) Voice recognition device and navigation system using the device
JP3726783B2 (en) Voice recognition device
US20150192425A1 (en) Facility search apparatus and facility search method
US20060177017A1 (en) Device for converting voice to numeral
US20050144011A1 (en) Vehicle mounted unit, voiced conversation document production server, and navigation system utilizing the same
JPH1063288A (en) Voice recognition device
JPH0666591A (en) On-vehicle navigating apparatus
JPH0926799A (en) Speech recognition device
EP1895508B1 (en) Speech recognizing device, information processing device, speech recognizing method, program, and recording medium
JPH1049194A (en) Voice recognition device
JPH0844387A (en) Voice recognizing device
JP3291347B2 (en) Voice recognition device
JP4093394B2 (en) Voice recognition device
JPH11231889A (en) Speech recognition device
JPH11325945A (en) On-vehicle navigation system
JPH09114491A (en) Device and method for speech recognition, device and method for navigation, and automobile