JP2000057490A - Navigation device - Google Patents

Navigation device

Info

Publication number
JP2000057490A
JP2000057490A JP10222792A JP22279298A JP2000057490A JP 2000057490 A JP2000057490 A JP 2000057490A JP 10222792 A JP10222792 A JP 10222792A JP 22279298 A JP22279298 A JP 22279298A JP 2000057490 A JP2000057490 A JP 2000057490A
Authority
JP
Japan
Prior art keywords
recognition
dictionary
destination
voice
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10222792A
Other languages
Japanese (ja)
Inventor
Masahiro Kamiya
昌宏 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP10222792A priority Critical patent/JP2000057490A/en
Publication of JP2000057490A publication Critical patent/JP2000057490A/en
Pending legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To input the setting of a destination or a change instruction by a voice and to set them by simple operation even during driving by dividing a continuous voice consisting of continuously inputted voices of plural words into plural divided voices corresponding to respective words. SOLUTION: A speech recognition preprocessing part 13-1 executes processing for dividing an input voice signal into words based on each silent part (a gap part between words). A recognition data collation part 13-2 recognizes respective words by collating input voice data with voice waveform data stored in a dictionary. A destination specifying dictionary control part 13-3 stores dictionaries of necessary sorts in respective dictionary selection parts 14, 17 based on the data of recognized words or the like. Since it is unnecessary for a driver to stop a vehicle and input a destination and the structure of respective speech recogniting dictionaries is sectioned, recognition time can be shortened, a recognition ratio can be improved and a destination can be quickly specified.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は,例えば車両に搭載
されて、自車位置の検出と目的地まで経路誘導をするよ
うなナビゲーション装置において、目的地を設定する手
段として音声認識を用いる方式に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a system that uses voice recognition as a means for setting a destination in a navigation device mounted on a vehicle, for example, for detecting its own position and guiding a route to the destination. Things.

【0002】[0002]

【従来の技術】従来の車載用ナビゲーション装置におい
て、ドライブの目的地を特定するには、1)広域地図か
ら順次、狭域地図へ変換して最終詳細地図から目的地を
地図上の位置から特定する方法、 2)電話番号から比較的狭い地域を限定し、それ以後詳
細地図によって目的地を決定する方法、 3)著名な文化、公共の固有施設の特定はカテゴリー別
および都道府県別都市別などから順次、地域を限定して
所望の目的地を決定する方法などが用いられている。
2. Description of the Related Art In a conventional on-vehicle navigation system, to specify a destination of a drive, 1) a wide area map is sequentially converted to a narrow area map, and a destination is specified from a position on the map from a final detailed map. 2) Restricting a relatively small area based on the phone number, and then deciding the destination using a detailed map. 3) Recognizing famous culture and unique public facilities by category, prefecture, city, etc. And the like, a method of determining a desired destination by limiting an area sequentially is used.

【0003】何れの方法を選択するしても、目的地を特
定するにはディスプレイ上に表示されるガイド内容に従
って、ボタン操作を数回以上繰返して行う方法が一般に
採用されている。操作の一部に音声を用いる方法も提案
されているが、操作手順に従い階層ごとに一単語づつ発
声させる方式で操作手順と発声単語をすべて記憶する
か、ガイドマニュアルを参照しながら入力しなければな
らず、煩雑であって、走行中の入力等は不可能である。
Regardless of which method is selected, a method of repeatedly performing a button operation several times or more in accordance with a guide content displayed on a display to specify a destination is generally adopted. A method of using voice as part of the operation has also been proposed, but it is necessary to memorize all the operation procedures and utterance words in a method that utters one word for each hierarchy according to the operation procedure, or input them while referring to the guide manual However, it is complicated, and it is impossible to make an input during traveling.

【0004】[0004]

【発明が解決しようとする課題】上記のように従来のナ
ビゲーション装置は入力操作に際しては、視線の移動と
指などによる操作が必要で、車を運転しながらの入力は
困難で、安全運転を確保するためにも、走行中は入力出
来ないようハード的制限が掛けられている。更に、目的
地を設定する時間は数分から十数分を必要とし、その間
停車を余儀なくされるのでドライブの出発までに時間を
要することにもなる。また、走行中に目的地の設定ある
いは変更をしたい要求が発生しても、走行環境とか道路
事情で直ちに停車出来ない場合があり、機会を逸するこ
とにもなる。
As described above, the conventional navigation apparatus requires a movement of a line of sight and an operation by a finger or the like when performing an input operation, and it is difficult to input while driving a car, and safe driving is ensured. In order to do so, a hard limit is imposed so that no input can be made while driving. Furthermore, it takes several minutes to several tens of minutes to set the destination, and during that time, it is necessary to stop, so that it takes time before the drive departs. Further, even if a request to set or change a destination occurs while the vehicle is traveling, the vehicle may not be able to stop immediately due to the traveling environment or road conditions, so that the opportunity is missed.

【0005】本発明は以上のような問題を解決する方法
として発明されたもので、目的地の設定あるいは変更指
示を音声で入力でき、また、設定状況の指示、確認など
を音声で応答することによって、走行中でも運転に支障
なく、簡単な操作で目的地の設定が出来る方式を実現す
ることを目的とする。さらに、従来のディスプレイ上の
文字あるいは記号などから目的地を順次選択して行く方
法では、乗員に対し広い範囲からのデータ検索を要求す
ることになり、新しい目的地を特定するには数回の選択
操作が必要になる。
The present invention has been devised as a method for solving the above-mentioned problems, and is capable of inputting an instruction for setting or changing a destination by voice, and responding by voice to a setting status instruction and confirmation. Accordingly, it is an object of the present invention to realize a method in which a destination can be set by a simple operation without hindering driving even during traveling. Furthermore, in the conventional method of sequentially selecting destinations from characters or symbols on the display, the occupant is required to search for data from a wide range, and several times are required to specify a new destination. A selection operation is required.

【0006】本発明は目的地の特定に必要な複数の単語
情報を音声で最初に一括して入力すれば、目的地のカテ
ゴリー別、検索条件別に階層構造あるいは横並び構造等
の構造からなる辞書を有する音声認識装置で認識を行
い、目的地を特定することが可能とした方式を実現する
ことを目的とする。また、音声発生装置を併設して、入
力する単語の項目、種別などを音声での指示することに
よって、単語認識率の向上と認識時間の短縮を図ること
が出来、従来の方法に比べ入力操作と検索時間が大幅に
改善できる方式を実現することを目的とする。
According to the present invention, if a plurality of word information necessary for specifying a destination is first collectively input by voice, a dictionary having a hierarchical structure or a side-by-side structure for each destination category and search condition can be created. It is an object of the present invention to realize a method in which a destination can be specified by performing recognition by a voice recognition device having the same. In addition, by providing a voice generating device and instructing the items and types of the words to be input by voice, the word recognition rate can be improved and the recognition time can be shortened. And a method that can greatly improve search time.

【0007】[0007]

【課題を解決するための手段】本発明はこのような目的
を達成するもので、音声認識結果に基づき目的地を設定
して、該目的地までの経路案内を行うナビゲーション装
置において、連続して入力された複数の単語の音声から
なる連続音声を、単語に対応する複数の分割音声に区切
る音声分割手段と、入力音声の認識のため、入力音声と
比較するための音声データと対応する単語データが複数
記憶された複数の辞書であって、それぞれが同じ種別に
分類された単語に対するデータを含む複数の認識辞書
と、前記認識手段の認識結果に基づき、前記認識手段が
認識処理に用いる認識辞書を前記複数の認識辞書から選
択する辞書選択手段と、音声認識結果に基づく条件の目
的地を検索する目的地検索手段と、からなることを特徴
とする。
SUMMARY OF THE INVENTION In order to achieve the above object, the present invention provides a navigation apparatus that sets a destination based on a speech recognition result and provides route guidance to the destination. Voice division means for dividing a continuous voice consisting of voices of a plurality of input words into a plurality of divided voices corresponding to the words, and voice data for comparing the input voices for recognition of the input voices and corresponding word data Are a plurality of dictionaries stored therein, each of which includes a plurality of recognition dictionaries including data for words classified into the same type, and a recognition dictionary used by the recognition means for recognition processing based on a recognition result of the recognition means. Is selected from the plurality of recognition dictionaries, and a destination search unit that searches for a destination of a condition based on a speech recognition result.

【0008】また、前記認識手段は、前記認識手段の認
識結果に基づき、前記認識手段が認識処理に用いる認識
辞書を前記複数の認識辞書から選択する辞書選択手段と
からなることを特徴とする。また、前記複数の認識辞書
には、基本的動作に対応する単語に関するデータと、辞
書を選択するための単語に関するデータを有する基本認
識辞書が含まれ、前記辞書選択手段は、前記基本認識辞
書を含む組み合わせで認識辞書を選択することを特徴と
するまた、入力音声の項目を示す音声入力を音声認識し
て、該音声認識結果に基づき前記認識手段が認識処理に
用いる認識辞書の選択順を設定する選択順設定手段を有
し、前記辞書選択手段は、前記選択順設定手段によって
設定された選択順に基づき前記認識手段が認識処理に用
いる認識辞書を選択することを特徴とする。
Further, the recognition means comprises dictionary selection means for selecting a recognition dictionary to be used for recognition processing from the plurality of recognition dictionaries based on a recognition result of the recognition means. Further, the plurality of recognition dictionaries include a basic recognition dictionary having data relating to a word corresponding to a basic operation and data relating to a word for selecting a dictionary, and the dictionary selecting means includes: The recognition dictionary is selected by a combination including the input voice. The voice input indicating the item of the input voice is voice-recognized, and the selection order of the recognition dictionary used for the recognition process by the recognition means is set based on the voice recognition result. A selection order setting unit that selects a recognition dictionary used by the recognition unit for recognition processing based on the selection order set by the selection order setting unit.

【0009】また、1つの連続音声における各単語の音
声認識に対して、前記辞書選択手段が、前記基本認識辞
書を除いて同じ認識辞書を複数回選択しないように規制
する辞書選択規制手段を有することを特徴とする。ま
た、音声認識結果に基づく目的地の候補が所定数以上存
在する場合に、追加条件に関する音声入力を要求すると
共に、入力音声に対して音声認識を行い、該音声認識結
果を前記目的地の検索における追加条件とする再音声認
識手段を有することを特徴とする。
[0009] In addition, for speech recognition of each word in one continuous speech, the dictionary selection means has dictionary selection regulation means for regulating not to select the same recognition dictionary a plurality of times except for the basic recognition dictionary. It is characterized by the following. In addition, when there are a predetermined number or more of destination candidates based on the voice recognition result, a voice input regarding additional conditions is requested, voice recognition is performed on the input voice, and the voice recognition result is searched for the destination. Characterized by having a re-voice recognition means as an additional condition in.

【0010】また、音声認識結果に基づく目的地の候補
が存在しない場合に、緩和条件に関する音声入力を要求
すると共に、入力音声に対して音声認識を行い、該音声
認識結果に基づき前記目的地の検索における検索条件を
緩和する条件緩和手段を有することを特徴とする。ま
た、前記目的地検索手段は、目的地を検索する条件とし
て数値条件を有し、前記複数の辞書には、数値を示す単
語に関するデータを有する数値認識辞書が含まれている
こと特徴とする。
If there is no destination candidate based on the voice recognition result, a voice input relating to the relaxation condition is requested, voice recognition is performed on the input voice, and the destination is determined based on the voice recognition result. It is characterized by having condition relaxation means for relaxing search conditions in search. Further, the destination search means has a numerical condition as a condition for searching for a destination, and the plurality of dictionaries include a numerical recognition dictionary having data on words indicating numerical values.

【0011】また、前記複数の辞書には、数値の範囲を
示す単語に関するデータを有する数値範囲認識辞書が含
まれ、前記目的地検索手段は、前記数値の範囲を示す単
語を対応する数値に変換し、該数値を検索条件として目
的地を検索する数値範囲検索手段を有すること特徴とす
る。また、前記選択順設定手段は、辞書の容量の小さい
順に前記認識手段が認識処理に用いる認識辞書を選択す
ると共に、該順に従った音声を発声するように指示する
ことを特徴とする。
Further, the plurality of dictionaries include a numerical range recognition dictionary having data relating to words indicating numerical ranges, and the destination searching means converts the words indicating numerical ranges into corresponding numerical values. In addition, there is provided a numerical range search means for searching for a destination using the numerical value as a search condition. The selection order setting means may select a recognition dictionary to be used by the recognition means for recognition processing in ascending order of the capacity of the dictionary, and instruct the apparatus to utter a voice according to the order.

【0012】[0012]

【発明の実施の形態】次に本発明の実施の形態について
説明する。本発明におけるナビゲーション装置において
は、従来のナビゲーション装置の基本機能である自車位
置検出、地図及び関連データの収納と再生装置、自車位
置の地図上への表示、経路誘導と探索、操作入力などの
基本機能構成に加えて、音声の入力と認識、処理及びそ
れに必要な関連辞書と音声発生機能を付加したシステム
で構成される。
Next, an embodiment of the present invention will be described. In the navigation device according to the present invention, the own vehicle position detection, storage and reproduction device of the map and related data, display of the own vehicle position on the map, route guidance and search, operation input, etc., which are basic functions of the conventional navigation device, are provided. In addition to the basic functional configuration described above, the system is configured with a voice input and recognition and processing, and a related dictionary and voice generation function required for the processing.

【0013】図1は、本発明の実施の形態に係るナビゲ
ーション装置の全体構成を示すものである。GPS衛星
かからの信号により絶対位置を検出するGPSセンサー
05と、相対位置(自動車の移動量を算出し、積分処理
して位置を検出する)を検出するための方位センサー0
3と距離(車速)センサー04からの信号を、補完的に
用いてナビゲーション用CPU(中央処理装置)07が
現在位置を算出する。ナビゲーション用CPU(中央処
理装置)07は、地図データ及び関連情報が記録された
CD−ROMやCD−ROMプレーヤからなる再生装置
06からの地図データと、算出した位置データに基づ
き、表示信号をディスプレイ制御回路02に出力し、L
CD等から構成されたディスプレイ装置01に、地図、
自車両の現在位置、また目的位置までの経路等を表示す
る。ナビゲーション用CPU07には、目的地までの経
路誘導等に必要なデータの入力操作を行うためのスイッ
チやジョイスティック等からなる入力操作機能部08が
接続されており、ナビゲーション用CPU07は入力操
作機能部08により設定された目的地のデータと、現在
位置データ、そして地図データ等に基づき、ダイクスト
ラ法等の方法により経路を算出する。そして、この算出
した経路をディスプレイ装置01に表示すると共に、音
声発生制御回路10からなる音声発生装置(音声合成)
部に合成音のデータを出力し、スピーカ09から音声と
して出力させる。
FIG. 1 shows an entire configuration of a navigation device according to an embodiment of the present invention. A GPS sensor 05 for detecting an absolute position based on a signal from a GPS satellite, and an azimuth sensor 0 for detecting a relative position (calculating a moving amount of an automobile and performing integration processing to detect the position).
3 and the signal from the distance (vehicle speed) sensor 04 are complementarily used, and the navigation CPU (central processing unit) 07 calculates the current position. A navigation CPU (Central Processing Unit) 07 displays a display signal based on the calculated position data and the map data from a reproduction device 06 including a CD-ROM or a CD-ROM player on which map data and related information are recorded. Output to the control circuit 02,
A map,
The current position of the vehicle and the route to the destination position are displayed. The navigation CPU 07 is connected to an input operation function unit 08 including a switch, a joystick, and the like for performing an input operation of data necessary for route guidance to a destination and the like. The navigation CPU 07 is connected to the input operation function unit 08. The route is calculated by a method such as the Dijkstra method based on the data of the destination set by the above, the current position data, the map data and the like. Then, the calculated route is displayed on the display device 01, and a voice generation device (voice synthesis) including the voice generation control circuit 10.
The data of the synthesized sound is output to the unit, and is output from the speaker 09 as voice.

【0014】ナビゲーション用CPU07には、音声に
よる操作を可能とする音声認識装置が接続されている。
音声認識装置は、音声信号を電気信号に変換するマイク
ロホン11と、マイクロホン11で集音した音声信号に
対して認識に必要な処理、例えばノイズ除去のためのフ
ィルタリング処理、アナログデジタル変換処理等を施す
入力処理回路12と、音声認識用の辞書で目的地を特定
するためのデータが記憶された目的地特定用辞書15及
び目的地の特徴を示すデータが記憶された目的地データ
用辞書16と、目的地特定用辞書15及び目的地データ
用辞書16から必要な辞書を選択して記憶する辞書選択
部14,17と、そしてこれら各種データを入力し、比
較処理等により音声認識を行う音声認識処理用CPU
(中央処理装置)13から構成される。そして、目的地
特定用辞書15及び目的地データ用辞書16は、入力音
声信号と比較するための波形データと対応する単語デー
タが対応付けられて記録されており、ROM,ハードデ
ィスク,CD−ROM等、不揮発性の記録装置から構成
される。
The navigation CPU 07 is connected to a voice recognition device that enables voice operation.
The voice recognition device performs a process required for recognition, such as a filtering process for removing noise, an analog-to-digital conversion process, and the like, on a microphone 11 that converts a voice signal into an electric signal and a voice signal collected by the microphone 11. An input processing circuit 12, a destination specifying dictionary 15 storing data for specifying a destination in a dictionary for voice recognition, and a destination data dictionary 16 storing data indicating characteristics of the destination; Dictionary selection units 14 and 17 for selecting and storing necessary dictionaries from the destination specification dictionary 15 and the destination data dictionary 16, and voice recognition processing for inputting these various data and performing voice recognition by comparison processing or the like CPU
(Central processing unit) 13. The destination specifying dictionary 15 and the destination data dictionary 16 are recorded with waveform data for comparison with an input voice signal and corresponding word data, and are stored in a ROM, hard disk, CD-ROM, or the like. , And a non-volatile recording device.

【0015】図2は音声認識部の詳細を示す図である。
目的地特定用辞書15及び目的地データ用辞書16は、
その単語の種類毎にまとめられた複数の辞書で構成され
ており、それぞれ基本的な操作を行うための命令語(コ
マンド)、辞書の種類を特定する単語等がデータとして
含まれる基本辞書Sと、種類毎に分かれた個別辞書A〜
N、データ辞書1〜nから構成される。目的地特定用辞
書15の個別辞書A〜Nは、目的地を位置を規定するた
めのデータに対応する単語の辞書で、例えば都道府県名
の辞書、市町村名の辞書、番地名の辞書、また駅・停留
所・港名等の辞書等、所謂地名の辞書である。また、目
的地データ用辞書16のデータ辞書1〜nは、施設等の
特徴に関するデータに対応する単語の辞書で、例えば施
設名(施設種別:美術館,球場等)、最寄り駅、料金
(入場料等)、施設利用のための所要時間、特徴(営業
時間等のデータや感応的表現の単語)の辞書である。そ
して、辞書選択部14,17は、これらの辞書から必要
なものが選択されて一時的に記憶されるもので、RAM
により構成される。そして、音声認識処理用CPU13
は、これら辞書選択部14,17に記憶されたデータに
より音声認識の処理を行う。
FIG. 2 is a diagram showing details of the voice recognition unit.
The destination specification dictionary 15 and the destination data dictionary 16 are:
The dictionary is composed of a plurality of dictionaries arranged for each type of the word, and includes a basic dictionary S that includes, as data, command words (commands) for performing basic operations, words specifying the type of the dictionary, and the like. , Individual dictionaries A divided by type
N, data dictionaries 1 to n. The individual dictionaries A to N of the destination specifying dictionary 15 are dictionaries of words corresponding to data for defining the position of the destination, such as a dictionary of prefecture names, a dictionary of city names, a dictionary of street names, It is a dictionary of so-called place names, such as a dictionary of station / stop / port names. The data dictionaries 1 to n of the destination data dictionary 16 are word dictionaries corresponding to data relating to characteristics of facilities and the like, for example, facility names (facility type: art museum, stadium, etc.), the nearest station, charges (admission fee). Etc.), a time required for facility use, and a dictionary of features (data such as business hours and words of responsive expressions). The dictionary selection units 14 and 17 are used to select and temporarily store necessary items from these dictionaries.
It consists of. Then, the voice recognition processing CPU 13
Performs speech recognition processing on the basis of the data stored in the dictionary selection units 14 and 17.

【0016】音声認識処理用CPU13は、主に音声認
識事前処理13−1、認識データ照合13−2、目的地
特定辞書制御13−3の各機能部(ソフトウエアにより
実現されている)から構成されている。そして音声認識
事前処理13−1では、音声信号の無音部分(単語間の
隙間部分)から入力音声信号を単語に分割する処理を行
う。また、認識データ照合13−2では、入力音声デー
タと辞書の音声波形データとの照合を行い単語を認識す
る。そして目的地特定辞書制御13−3では認識した単
語等のデータに基づき辞書選択部14,17に必要な種
別の辞書を記憶する。
The CPU 13 for speech recognition processing mainly comprises functional units (implemented by software) of speech recognition pre-processing 13-1, recognition data collation 13-2, and destination specifying dictionary control 13-3. Have been. Then, in the speech recognition preprocessing 13-1, a process of dividing the input speech signal into words from silence portions (gap portions between words) of the speech signal is performed. In the recognition data collation 13-2, the input speech data is collated with the speech waveform data of the dictionary to recognize words. Then, the destination specifying dictionary control 13-3 stores the dictionary of a required type in the dictionary selecting units 14 and 17 based on the data such as the recognized words.

【0017】図3は階層別構造として構成された場合の
目的地特定用辞書の一例を示した辞書構造図である。基
本辞書(S)にはプログラムを実行するためのコマンド
語と辞書選択語などの基本語が収納され、個別辞書
(A、B…N)は広域から順に境域への地名と施設の固
有名が階層別に収納されている(例えば、都道府県、市
町村,・・・)。つまり、照合辞書をピラミット型の階
層構造とし、例えば辞書サイズの小さい上位の辞書から
順次、入力する項目を話者に伝えて、単語認識時間の短
縮と認識率の向上を図ることが可能な方式で、辞書の構
造に特長を有する。図3は都道府県から都市、区、町と
階層化した辞書の一例で、サイズの小さい上位からの識
別方式が有利なことが理解できる。尚、都道府、都市、
区、町だけでなく、施設のカテゴリー別でも同等の構造
で辞書を構成できる。
FIG. 3 is a dictionary structure diagram showing an example of a destination specifying dictionary when structured as a hierarchical structure. The basic dictionary (S) stores command words for executing a program and basic words such as dictionary selection words, and the individual dictionaries (A, B... N) include a place name to a border area and a unique name of a facility in order from a wide area. The information is stored by hierarchy (for example, prefectures, municipalities, ...). In other words, the collation dictionary has a pyramid-type hierarchical structure, and for example, items to be input are sequentially transmitted to a speaker from a high-order dictionary having a small dictionary size, so that the word recognition time can be reduced and the recognition rate can be improved. Therefore, the dictionary structure has features. FIG. 3 is an example of a dictionary hierarchized from prefectures to cities, wards, and towns, and it can be understood that an identification method from the top with a small size is advantageous. In addition, prefectures, cities,
Dictionaries can be constructed with the same structure not only for wards and towns but also for facility categories.

【0018】図4は目的地を話者の要求に対応して特定
するためのデータを横並び構造として構成された場合の
目的地データ用辞書の一例を示した辞書構造図である。
基本辞書(S)は、目的地特定用辞書の基本辞書(S)
と同様の辞書で、プログラムを実行するためのコマンド
語と辞書選択語などの基本語、そして施設の名称と位置
情報が、また個別データ辞書(1〜n)には施設名、最
寄駅、料金などの項目種別毎に関連情報が収納されてい
る。
FIG. 4 is a dictionary structure diagram showing an example of a destination data dictionary in a case where data for specifying a destination in response to a request from a speaker is arranged side by side.
The basic dictionary (S) is a basic dictionary (S) of the destination specifying dictionary.
Command words for executing the program, basic words such as dictionary selection words, facility names and location information, and individual data dictionaries (1-n) include facility names, nearest stations, Related information is stored for each item type such as a fee.

【0019】図5は本発明の実施の態様におけるナビゲ
ーション装置の基本動作を示すフローチャートで、ナビ
ゲーション用CPU07(主に、音声認識に直接関係な
い経路探索処理等)、および音声認識処理用CPU13
(主に音声認識に関する処理)が、相互に通信を行いな
がら実行する処理を示し、この処理は目的地特定処理の
開始操作(所定スイッチの操作、あるいは音声の入力の
検出等(ステップS−1))により開始される。ステッ
プS−2では、マイクロホン11からの信号を入力し、
フィルタリング処理、AD変換処理等を行い、音声をデ
ジタルデータ化し、ステップS−3に移る。ステップS
−3では入力音声のデジタル信号を、単語間の無音部分
で区切る処理等の方法で音素データに分割し、ステップ
S−4に移る。ステップS−4では目的地特定辞書15
から、基本辞書Sを辞書選択部14等に読み込み、音声
認識処理用の辞書を設定し、ステップS−5に移る。ス
テップS−5では、音素データと辞書選択部14の辞書
データに基づき音声認識処理を行い、ステップS−6に
移る。ステップS−6では、この認識内容を識別するこ
とによって、目的地検索か、目的地に関連するデータに
よる検索かを判別し、前者ならステップS−7に移り、
後者ならステップS−16に移る。
FIG. 5 is a flowchart showing the basic operation of the navigation device according to the embodiment of the present invention. The navigation CPU 07 (mainly, a route search process not directly related to voice recognition) and the voice recognition CPU 13
(Mainly processing relating to voice recognition) indicates processing to be executed while communicating with each other. This processing is an operation for starting a destination specifying process (operation of a predetermined switch, detection of voice input, and the like (step S-1). )). In step S-2, a signal from the microphone 11 is input,
A filtering process, an AD conversion process, and the like are performed to convert the voice into digital data, and the process proceeds to step S-3. Step S
In step -3, the digital signal of the input voice is divided into phoneme data by a method such as a process of dividing the digital signal into silent portions between words, and the process proceeds to step S-4. In step S-4, the destination identification dictionary 15
Then, the basic dictionary S is read into the dictionary selection unit 14 or the like, a dictionary for speech recognition processing is set, and the routine proceeds to step S-5. In step S-5, a speech recognition process is performed based on the phoneme data and the dictionary data of the dictionary selecting unit 14, and the process proceeds to step S-6. In step S-6, by identifying this recognition content, it is determined whether the search is a destination search or a search using data related to the destination. If the former is the former, the process proceeds to step S-7.
If the latter, the process proceeds to step S-16.

【0020】例えば兵庫県南部の神戸カントリークラブ
を目的地とする場合、音声入力が「ゴルフ」、「ヒョウ
ゴケン」、「ナンブ」、「コウベカントリークラブ」
と、その音素を単語毎に区分して記憶し、基本辞書と照
合される。この場合、施設カテゴリー(種別)と都道府
県が基本辞書部Sに含まれているので、この項目別から
目的地特定操作(目的地検索)と識別される。またこの
区別は、スイッチにより目的地検索と目的地に関連する
データによる検索とを行うようにしてもよく、また目的
地に関連するデータによる検索の場合に最初に特定の言
葉、例えば「条件」を発声することを決めておき、その
単語を音声認識した時に目的地に関連するデータによる
検索を行うようにする方法も可能である。
For example, when the destination is the Kobe Country Club in the southern part of Hyogo Prefecture, the voice input is "Golf", "Hyogoken", "Nambu", "Kobe Country Club".
Then, the phonemes are stored for each word separately and collated with the basic dictionary. In this case, since the facility category (type) and the prefecture are included in the basic dictionary unit S, the item is identified as a destination specifying operation (destination search) from each item. This distinction may be made by performing a destination search and a search using data related to the destination by using a switch. In the case of a search using data related to the destination, a specific word, for example, “condition” is first used. It is also possible to determine that the word is to be spoken, and to perform a search using data related to the destination when the word is recognized by voice.

【0021】次いでステップS−7で、最初の音声認識
結果により限定された施設あるいは都道府県の目的地特
定用個別辞書が辞書選択部14に読み込まれて、ステッ
プS−8で音声認識処理が行われ、ステップS−9で該
当する目的地の検索が実行される。そして、ステップS
−10で検索結果(検索数)の適正度が判断され、その
結果、検索された目的地の数が数個以下であれば、適当
と判断されてステップS−13に移る。そしてステップ
S−13では、優先順位(例えば現在地から近い順)に
並び換えた後、表示等が行われ、そして操作者の選択操
作(スイッチや音声認識)で目的地が特定される(ステ
ップS−14)。尚、この事例の場合はゴルフ場名が入
力されているので、検索結果数は1個所であり、選択操
作なしに特定される。そして、ステップS−15で経路
探索が実行される。また、検索結果が該当なしであれ
ば、ステップS−11で検索条件を低減(緩和)する処
理を行い再度検索から処理を行い、逆に検索の結果が該
当件数が多過ぎれば、ステップS−12で検索条件を追
加する処理を行い再度検索から処理を行う。
Next, in step S-7, the individual dictionary for specifying destinations of facilities or prefectures limited by the first speech recognition result is read by the dictionary selection unit 14, and speech recognition processing is performed in step S-8. Then, in step S-9, a search for the corresponding destination is executed. And step S
At -10, the adequacy of the search result (the number of searches) is determined, and as a result, if the number of the searched destinations is several or less, it is determined that the destination is appropriate and the process proceeds to step S-13. Then, in step S-13, after rearranging in order of priority (for example, the order closest to the current location), display or the like is performed, and the destination is specified by an operator's selection operation (switch or voice recognition) (step S-13). -14). In this case, since the golf course name is input, the number of search results is one, and the search result is specified without any selection operation. Then, a route search is executed in step S-15. If the search result is not applicable, the process for reducing (relaxing) the search condition is performed in step S-11, and the process is performed again from the search. Conversely, if the search result is too large, the process returns to step S- In step 12, processing for adding a search condition is performed, and processing is performed again from search.

【0022】また、ステップS−16では、最初の音声
認識結果により限定された、あるいは操作者により指定
された(音声認識による)条件に対応する単語に対する
目的地データ個別辞書がいくつか辞書選択部17に読み
込まれる。また、ステップS−17では選定条件のレベ
ル設定、つまり抽象的な単語を数値等による明確な範囲
で定義付けるために、単語と範囲を関連付ける処理を行
う。これは、操作者がスイッチ操作、音声認識等で行
い、そのデータが記憶され、以降変更操作があるまでそ
のデータが用いられる。例えば、食事の料金に関して、
「安い」は2000円未満、普通は2000〜5000
円、高いは5000円を超えると設定する。そして、ス
テップS−18で音声認識処理が行われ、項目毎に音声
認識結果が記憶され(ステップS−19)、そして記憶
された音声認識結果に基づき目的地が検索され(複数あ
る場合、候補を表示し操作者に選択させる)、経路探索
等が実行される。
In step S-16, several destination data individual dictionaries for words limited by the first speech recognition result or corresponding to conditions specified by the operator (by speech recognition) are selected. 17 is read. In step S-17, the level of the selection condition is set, that is, a process of associating the word with the range is performed in order to define the abstract word in a clear range using numerical values or the like. This is performed by the operator through a switch operation, voice recognition, or the like, the data is stored, and the data is used until a change operation is performed. For example, regarding the price of meals,
"Cheap" is less than 2000 yen, usually 2000-5000
Yen, high is set to exceed 5,000 yen. Then, voice recognition processing is performed in step S-18, the voice recognition result is stored for each item (step S-19), and a destination is searched based on the stored voice recognition result (if there are a plurality of destinations, Is displayed and the operator makes a selection), and a route search or the like is executed.

【0023】図7は、抽象的な単語を数値等による明確
な範囲で定義付けて、データ化する処理を示すフローチ
ャートである。ステップS−32ではカウンタnを初期
化、即ち1とし、ステップS−33に移る。ステップS
−33ではn番目の認識項目について、抽象的な単語を
メモリ等に記憶された変換データに基づき、数値等に変
換して記憶し、ステップS−34に移る。ステップS−
34ではカウンタnに1加算し、ステップS−35に移
る。ステップS−35ではすべての認識項目について変
換したかどうか判断し(n>N)、変換が終わっていな
ければステップS−33に戻り、終わっていればステッ
プS−36に移る。ステップS−36では、変換したデ
ータを項目毎に記憶して本処理を終える。その後、各項
目について変換したデータが該当する目的地を目的地デ
ータ辞書を用いて検索し、適切な目的地が検索されるこ
ととなる。
FIG. 7 is a flowchart showing a process of defining an abstract word in a clear range by numerical values or the like and converting it into data. In step S-32, the counter n is initialized, that is, set to 1, and the process proceeds to step S-33. Step S
At -33, the abstract word is converted into a numerical value or the like based on the conversion data stored in the memory or the like for the n-th recognition item, and the process proceeds to step S-34. Step S-
At 34, 1 is added to the counter n, and the routine goes to Step S-35. In step S-35, it is determined whether or not all the recognition items have been converted (n> N). If the conversion has not been completed, the process returns to step S-33, and if completed, the process proceeds to step S-36. In step S-36, the converted data is stored for each item, and the process ends. Thereafter, a destination to which the data converted for each item corresponds is searched using the destination data dictionary, and an appropriate destination is searched.

【0024】本発明の実施の態様におけるナビゲーショ
ン装置の場合、連続的に発声された複数の単語を各々音
声認識し、その認識結果に基づき目的地を特定するもの
であるが、次に連続発声された複数の単語の分割方法お
よび音声認識の方法についての実施の態様を説明する。
連続発声された複数の単語の分割方法は、上述のように
話者に各単語を認識可能な区切り時間を空けて発声して
もらい、この区切り時間(無音部)を検出することによ
り各単語を区別するものである。この他の方法として、
より誤検出を防ぐため、検出した単語の区切りごとに確
認音を発生させる方法も可能で、また単語(音素)認識
(分割)後、認識(分割)した単語の合成音(分割した
音自体)で話者に確認を促しても良い。
In the case of the navigation apparatus according to the embodiment of the present invention, a plurality of continuously uttered words are recognized by speech, and a destination is specified based on the recognition result. An embodiment of a method of dividing a plurality of words and a method of speech recognition will be described.
As described above, a method of dividing a plurality of continuously uttered words has the speaker utterance with a delimiter time capable of recognizing each word, and detects each delimiter time (silence) to separate each word. It is to distinguish. Alternatively,
In order to prevent erroneous detection, it is also possible to generate a confirmation sound for each detected word segment. Also, after word (phoneme) recognition (division), a synthesized sound of the recognized (divided) word (divided sound itself) May prompt the speaker to confirm.

【0025】また、音声認識における辞書の選択方法で
あるが、上述の方法は単語の発声順を特に規制しない方
式であり、最初から項目の内容が一致しない場合もある
が、施設のカテゴリー別と都道府県等を優先項目とし、
これらの項目の単語を基本辞書Sに含ませ、その認識結
果に基づき順次辞書を選択することによって、速やかに
適切な辞書引当てができ、容易に適切な音声認識処理が
できる。
In the method of selecting a dictionary in speech recognition, the above-mentioned method does not particularly restrict the utterance order of words. In some cases, the contents of the items do not match from the beginning. Prefectures etc. are priority items,
By including the words of these items in the basic dictionary S and sequentially selecting dictionaries based on the recognition result, appropriate dictionary assignment can be quickly performed, and appropriate speech recognition processing can be easily performed.

【0026】また、さらに確実な辞書選択方法として、
入力する単語の項目順を、音声で話者に指示を与えるこ
とによって、あるいは話者が入力する単語の項目順を指
定する(音声認識による。この場合基本辞書Sに項目名
のデータが含まれる)ことにより、辞書の選択順を決定
する方法により、容易に適切な音声認識処理ができる。
As a more reliable dictionary selection method,
The order of the words to be input is given to the speaker by voice, or the order of the words to be input by the speaker is specified (by voice recognition. In this case, the basic dictionary S includes the data of the item names). Accordingly, appropriate speech recognition processing can be easily performed by a method of determining the selection order of dictionaries.

【0027】次のこの辞書選択方法を実現する処理につ
いて説明する。図6は、項目順(優先順)を指定して、
認識を行う方法の処理を示すフローチャートである。ス
テップS−22ではカウンタnを初期化、即ち1とし、
ステップS−23に移る。ステップS−23では優先順
位n番目の認識項目に対応する辞書を認識処理用の辞書
として選択し、ステップS−24に移る。ステップS−
24では、音声入力され分割された単語を選択された辞
書を用いて順次認識し、認識できた単語について認識結
果を記憶するとともに、その単語を音声入力データから
削除し、ステップS−25に移る。ステップS−25で
はカウンタnに1加算し、ステップS−26に移る。ス
テップS−26ではすべての認識項目について変換した
かどうか判断し(n>N)、変換が終わっていなければ
ステップS−23に戻り、終わっていればステップS−
27に移る。ステップS−27では、認識したデータを
項目毎に記憶して本処理を終える。その後、各項目につ
いて認識したデータが該当する目的地を目的地データ辞
書を用いて検索し、適切な目的地が検索されることとな
る。
Next, processing for realizing this dictionary selection method will be described. FIG. 6 shows the item order (priority order)
It is a flowchart which shows the process of the method of performing recognition. In step S-22, the counter n is initialized, that is, set to 1, and
It moves to step S-23. In step S-23, the dictionary corresponding to the recognition item of the n-th priority is selected as the dictionary for recognition processing, and the process proceeds to step S-24. Step S-
At 24, the words that have been input and divided by voice are sequentially recognized using the selected dictionary, the recognition result is stored for the recognized words, and the words are deleted from the voice input data, and the process proceeds to step S-25. . In step S-25, 1 is added to the counter n, and the routine goes to step S-26. In step S-26, it is determined whether or not all the recognition items have been converted (n> N). If the conversion has not been completed, the process returns to step S-23.
Move to 27. In step S-27, the recognized data is stored for each item, and the process ends. Thereafter, the destination corresponding to the data recognized for each item is searched using the destination data dictionary, and an appropriate destination is searched.

【0028】また、照合に一度使用した辞書はそれ以後
使用しないようにする方法により(同一の項目は、通常
条件として1回しか選択されないため、辞書としては1
回しか使用されない)、検索、照合時間の短縮を図るこ
とが可能となる。但し、コマンド等が含まれる基本辞書
Sは常に選択しておく必要がある。次に入力した単語の
内容が不適当で候補地数が多く、目的地を特定できない
場合の処理方法について説明する。この方法は、音声で
追加項目を指示し、順次入力された単語を個別辞書と照
合して、目的地を特定するまで動作を継続する方式であ
る。
Also, a dictionary used once for collation is not used any more. (Since the same item is usually selected only once as a condition, one dictionary is used.
Used only once), and it is possible to shorten the search and collation time. However, it is necessary to always select the basic dictionary S including commands and the like. Next, a processing method in a case where the content of the input word is inappropriate and the number of candidate locations is large and the destination cannot be specified will be described. This method is a method in which an additional item is instructed by voice, words sequentially input are collated with an individual dictionary, and the operation is continued until a destination is specified.

【0029】事例として、JR神戸駅に近くて安いビジ
ネスホテルを選定する場合、音声で「ホテル」「ジェイ
アールコウベエキ」と入力した結果、検索ホテルが多数
選択され候補地を特定できない時は追加項目を音声で話
者に伝える。例えば、「駅からの距離は?」と言う追加
項目に対して回答は「チカイ」、「料金は?」と言う追
加項目に対して回答は「ヤスイ」と音声入力されて、こ
の追加条件により候補地を絞り込む動作が行われる。
As an example, when selecting a cheap business hotel close to JR Kobe Station, if a hotel is spoken and input as "Hotel" or "JR Kobeeki", a large number of search hotels are selected and no candidate site can be specified. Tell the speaker the item by voice. For example, for the additional item "What is the distance from the station?", The answer is "Chikai" and for the additional item "What is the fee?" An operation of narrowing down the candidate places is performed.

【0030】図8は上記の動作を実現するための処理の
流れを示すフローチャートである。ステップS−42で
は、目的地の候補数が多いため、追加検索項目を入力す
る必要がある旨を報知を行い、ステップS−43に移
る。ステップS−43では上述の方法等により音声認識
を行い、音声認識が終わった時点でステップS−44に
移る。ステップS−44では、音声認識した内容で目的
地の絞り込みを行い、ステップS−45に移る。ステッ
プS−45では、目的地の候補地が適切な数に特定でき
たか、つまり候補地数が所定数以下になったかどうか判
断し、特定できていればステップS−46に移り、特定
できていなければステップS−42に戻る。ステップS
−46では、変換したデータを項目毎に記憶して本処理
を終える。その後、各項目について認識したデータが該
当する目的地を目的地データ辞書を用いて検索し、適切
な目的地が検索されることとなる。
FIG. 8 is a flowchart showing a flow of processing for realizing the above operation. In step S-42, it is notified that there is a large number of destination candidates, so that it is necessary to input an additional search item, and the process proceeds to step S-43. In step S-43, speech recognition is performed by the above-described method or the like, and the process proceeds to step S-44 when the speech recognition ends. In step S-44, the destination is narrowed down based on the content of the voice recognition, and the process proceeds to step S-45. In step S-45, it is determined whether the number of candidate destinations has been determined to be an appropriate number, that is, whether the number of candidate locations has become equal to or less than a predetermined number. If not, the process returns to step S-42. Step S
At -46, the converted data is stored for each item, and the process ends. Thereafter, the destination corresponding to the data recognized for each item is searched using the destination data dictionary, and an appropriate destination is searched.

【0031】次に、選択条件が厳しくて候補地を一個所
も特定出来なかった場合の処理方法について説明する。
この方法は、条件を緩和する項目を順次音声入力し、そ
の都度、辞書と照合を行いつつ、候補地を絞り込む方式
である。図9は上記の動作を実現するための処理の流れ
を示すフローチャートである。ステップS−52では、
該当する目的地の候補数が存在しないため、検索条件を
削除する検索項目を入力する必要がある旨を報知を行
い、ステップS−53に移る。ステップS−53では、
検索項目の削除を行うかどうかの選択する操作を入力
し、ステップS−54に移る。ステップS−54では検
索項目の削除の操作があったかどうか判断し、削除操作
があればステップS−55に移り、なければステップS
−58に移る。ステップS−55では、削除する検索項
目を音声認識で把握し、ステップS−56に移る。ステ
ップS−56では、音声認識で把握した検索項目を検索
条件から除いて検索条件を再構築して、目的地の検索を
行い、本処理を終える。
Next, a description will be given of a processing method in the case where the selection condition is severe and no candidate place can be specified.
In this method, items to be relaxed are sequentially input by voice, and each time the candidate is narrowed down while collating with a dictionary. FIG. 9 is a flowchart showing a flow of processing for realizing the above operation. In step S-52,
Since there is no corresponding destination candidate number, it is informed that it is necessary to input a search item for deleting a search condition, and the process proceeds to step S-53. In step S-53,
An operation for selecting whether to delete the search item is input, and the routine goes to Step S-54. In step S-54, it is determined whether or not an operation for deleting a search item has been performed.
Move on to -58. In step S-55, the search item to be deleted is grasped by voice recognition, and the process proceeds to step S-56. In step S-56, the search condition is reconstructed by excluding the search item grasped by the voice recognition from the search condition, the destination is searched, and the process is completed.

【0032】ステップS−58では、該当する目的地の
候補数が存在しないため、検索条件を緩和する検索項目
を入力する必要がある旨の報知を行い、ステップS−5
9に移る。ステップS−59では検索項目の緩和を行う
旨の操作があったかどうか判断し、緩和操作があればス
テップS−60に移り、なければステップS−52に移
る。ステップS−60では、検索条件を緩和する検索項
目を発生する旨の報知を行い、ステップS−61に移
る。ステップS−61では音声入力処理を行い、ステッ
プS−62に移る。ステップS−62では基本辞書Sを
用いて、入力音声の認識を行い、条件緩和項目を把握
し、ステップS−63に移る。ステップS−63では、
認識した条件緩和項目に対応する辞書を選択し、ステッ
プS−64に移る。ステップS−64では、入力音声を
ステップS−63で選択した辞書を用いて音声認識し、
ステップS−65に移る。ステップS−65では、検索
条件緩和項目の検索条件を音声認識で把握した検索条件
で再構築して、目的地の検索を行い、本処理を終える。
In step S-58, it is notified that there is no corresponding destination candidate number, so that it is necessary to input a search item for relaxing search conditions, and step S-5 is performed.
Move to 9. In step S-59, it is determined whether or not there is an operation for relaxing the search item. If there is a relaxing operation, the process proceeds to step S-60, and if not, the process proceeds to step S-52. In step S-60, a notification that a search item for relaxing the search condition is generated is provided, and the process proceeds to step S-61. In step S-61, a voice input process is performed, and the flow advances to step S-62. In step S-62, the input speech is recognized using the basic dictionary S, the condition relaxing items are grasped, and the routine goes to step S-63. In step S-63,
The dictionary corresponding to the recognized condition relaxation item is selected, and the routine goes to Step S-64. In step S-64, the input speech is subjected to speech recognition using the dictionary selected in step S-63,
It moves to step S-65. In step S-65, the search condition of the search condition relaxation item is reconstructed with the search condition grasped by the voice recognition, the destination is searched, and the process is completed.

【0033】次に、適当な複数個の候補地が選定された
場合に、候補地を一個所に絞りこむ方式について説明す
る。ここでは一事例として、到着距離最短を優先した場
合(最短距離にある候補地を目的地に選定する)の動作
のフローチャートを図10に示す。図10では優先項目
の入力を音声で指示し、その項目についての値により候
補地の並び替えを行いその順序に従い候補地の報知を行
う。例えば「1Km以下」と入力するとそれに対応する
候補地、つまり現在位置からの距離が1Km以下の目的
地が近い順にアナウンスされる。また例えば「5,00
0円以下」と入力されると対応する候補地、つまり料金
が「5,000円以下」以下の目的地が安い順にアナウ
ンスされることになる。また、本実施例では、複数の条
件で、もし、優先順位が入力されなかった場合は自動的
に距離が優先されるようになっているが、料金を優先さ
せるプログラムを採用することも同等の方法により可能
である。
Next, a description will be given of a method of narrowing down the candidate locations to one location when an appropriate plurality of candidate locations are selected. Here, as an example, FIG. 10 shows a flowchart of an operation in a case where the shortest arrival distance is prioritized (a candidate place located at the shortest distance is selected as a destination). In FIG. 10, the input of the priority item is instructed by voice, the candidate sites are rearranged according to the value of the item, and the candidate sites are notified according to the order. For example, when "1 Km or less" is input, the announcement is made in the order of the candidate location corresponding thereto, that is, the destinations whose distance from the current position is 1 Km or less are closer. For example, "5,000
If "0 yen or less" is input, corresponding destinations, that is, destinations with a fee of "5,000 yen or less" or less will be announced in ascending order. Further, in the present embodiment, under a plurality of conditions, if no priority is input, the distance is automatically given priority, but it is equally possible to adopt a program that gives priority to the fee. It is possible by the method.

【0034】次に図10のフローチャートについて詳細
に説明する。ステップS−72では、検索した目的地
(候補)が複数かどうかが判断され、複数であればステ
ップS−73に移り、単数であればステップS−81に
移る。ステップS−81では、検索した目的地候補(単
数)を目的地として特定して、処理を終える。ステップ
S−73では、検索条件として優先すべきの優先項目を
入力する旨を報知し、ステップS−74に移る。ステッ
プS−74では、優先項目を音声を入力し、ステップS
−75に移る。ステップS−75では、音声認識を用い
て優先項目を認識し、ステップS−76に移る。尚、こ
の場合基本辞書Sを使用する。ステップS−76では優
先項目指定の入力があったかどうか判断し、優先項目指
定がなければステップS−83に移り、優先項目指定が
あればステップS−77に移る。ステップS−77で
は、入力された優先順位の項目の内容で、例えば料金の
安い順に目的地候補地を並び替え、ステップS−78に
移る。ステップS−78では、並び替えに優先順位が付
与されたか、つまり全目的地候補地について並び替えが
できたかどうか判断し、付与されていればステップS−
85に移り、付与されていなければステップS−79に
移る。ステップS−79では現在位置を入力し、ステッ
プS−80に移る。ステップS−80では、優先順位が
同等のものについて、現在地から近い順に優先順位を付
与し、ステップS−85に移る。ステップS−83では
現在位置を入力し、ステップS−84に移る。
Next, the flowchart of FIG. 10 will be described in detail. In step S-72, it is determined whether there are a plurality of searched destinations (candidates). If there are a plurality of destinations, the process proceeds to step S-73, and if there is only one, the process proceeds to step S-81. In step S-81, the searched destination candidate (singular) is specified as the destination, and the process ends. In the step S-73, it is notified that a priority item to be prioritized as a search condition is input, and the process shifts to a step S-74. In step S-74, a voice is input for the priority item, and
Move on to -75. In step S-75, the priority item is recognized using the voice recognition, and the process proceeds to step S-76. In this case, the basic dictionary S is used. In step S-76, it is determined whether or not a priority item has been designated. If no priority item has been designated, the process proceeds to step S-83. If a priority item has been designated, the process proceeds to step S-77. In step S-77, the destination candidates are rearranged in the order of the lowest fee, for example, according to the contents of the input items of the priority order, and the process proceeds to step S-78. In step S-78, it is determined whether or not the sorting has been given a priority, that is, whether or not sorting has been performed for all the destination candidate locations.
The process proceeds to 85, and if not provided, the process proceeds to step S-79. In step S-79, the current position is input, and the routine goes to step S-80. In step S-80, priority is given to those having the same priority from the current position, and the process proceeds to step S-85. In step S-83, the current position is input, and the flow advances to step S-84.

【0035】ステップS−84では、優先順位が同等の
ものについて、現在地から近い順に優先順位を付与し、
ステップS−85に移る。ステップS−85ではカウン
タmを初期化、つまり1を設定し、ステップS−86に
移る。ステップS−86では、優先順位m位の候補地に
ついて、候補地名と距離を報知し、ステップS−87に
移る。ステップS−87では、報知した候補地を目的地
として特定してよいかどうかを判断し(スイッチ操作、
音声認識で判断)、特定してよければステップS−92
に移り、特定してだめならステップS−88に移る。ス
テップS−88ではカウンタmに1加算して、ステップ
S−89に移る。ステップS−89では全候補地につい
て処理が終わったかどうか判断して(m>M+1)、終
わっていればステップS−90に移り、終わっていなけ
ればステップS−86に戻る。ステップS−90では、
目的地が特定されなかったので、優先順位1位の候補地
を目的地に特定して、ステップS−91に移る。ステッ
プS−91では、カウンタmを初期化、つまり1を設定
し、ステップS−92に移る。ステップS−92では、
目的地に特定した候補地について、候補地名と距離を報
知し、本処理を終える。
In step S-84, priority is given to those having the same priority in order from the current position.
It moves to step S-85. In step S-85, the counter m is initialized, that is, 1 is set, and the routine goes to step S-86. In step S-86, the name of the candidate place and the distance are notified for the candidate place having the priority order m, and the process proceeds to step S-87. In step S-87, it is determined whether the notified candidate location may be specified as the destination (switch operation,
Judgment by voice recognition), and if it is OK to specify, step S-92
The process proceeds to step S-88 if the identification is not successful. In step S-88, 1 is added to the counter m, and the flow advances to step S-89. In step S-89, it is determined whether or not the processing has been completed for all the candidate locations (m> M + 1). If the processing has been completed, the process proceeds to step S-90, and if not, the process returns to step S-86. In step S-90,
Since the destination has not been specified, the candidate place having the first priority is specified as the destination, and the process proceeds to step S-91. In step S-91, the counter m is initialized, that is, 1 is set, and the routine goes to step S-92. In step S-92,
For the candidate place specified as the destination, the candidate place name and the distance are notified, and this processing ends.

【0036】また、特定した目的地が適切でない場合が
ある。例えば、施設が休館日である場合や、営業時間外
である場合である。このような場合の対策として、本実
施の態様では、施設などの目的地を特定した場合、固有
の施設に関するデータを引出し、その日が休館日でない
かの判断と、営業時間内に到着できるかを現在地からの
距離情報から算出し、もし営業時間外であれば話者に通
告することが出来る方式である。
The specified destination may not be appropriate. For example, when the facility is closed or when it is outside business hours. As a countermeasure against such a case, in the present embodiment, when a destination such as a facility is specified, data on a unique facility is extracted, and it is determined whether or not the day is a closed day, and whether or not the day can be reached during business hours. This is a method that can be calculated from distance information from the current location and notify the speaker if it is outside business hours.

【0037】図11は営業時間内に到着出来るかを判断
する動作を示すフローチャートである。ステップS−1
02では、決定された目的地までの経路を経路探索し、
ステップS−13に移る。ステップS−103では、現
在時刻と目的地までの距離、経路の制限速度等のデータ
から目的地到着時間を推定し、ステップS−104に移
る。ステップS−104では、目的地の施設の営業時間
をデータをデータベース(装置に内蔵のCD−ROM等
の記録媒体あるいは通信による外部のデータベース)か
ら取り込み、ステップS−105に移る。ステップS−
105では、目的地到着時間が施設の営業時間内である
どうか判断し、営業時間内であればステップS−106
に移り、営業時間外であればステップS−108に移
る。ステップS−106では、目的地までの経路を表示
して、本処理を終える。ステップS−108では、営業
時間内に目的地に到着しない旨を報知し、本処理を終え
る。
FIG. 11 is a flowchart showing an operation for determining whether or not the vehicle can arrive during business hours. Step S-1
In 02, the route to the determined destination is searched for,
It moves to step S-13. In step S-103, the destination arrival time is estimated from data such as the current time, the distance to the destination, and the speed limit of the route, and the process proceeds to step S-104. In step S-104, the business hours of the facility at the destination are fetched from a database (a recording medium such as a CD-ROM built in the apparatus or an external database through communication), and the process proceeds to step S-105. Step S-
At 105, it is determined whether or not the destination arrival time is within the business hours of the facility.
The process proceeds to step S-108 if outside business hours. In step S-106, the route to the destination is displayed, and the process ends. In step S-108, the fact that the vehicle will not arrive at the destination within the business hours is notified, and the present process ends.

【0038】[0038]

【発明の効果】この発明によれば、ナビゲーションの操
作に際し、運転者が車両を停止して目的地を入力する必
要がなくなり、しかも音声認識用辞書の構造が区分さ
れ、認識時間の短縮と認識率の向上が図れるので短時間
で、目的地を特定できるので、運転中も容易に目的地の
設定が可能になり、快適なドライブが楽しめる。
According to the present invention, it is not necessary for the driver to stop the vehicle and input a destination when operating the navigation, and the structure of the voice recognition dictionary is divided, so that the recognition time can be reduced and the recognition can be performed. Since the rate can be improved, the destination can be specified in a short time, so that the destination can be easily set even during driving, and a comfortable drive can be enjoyed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係るナビゲーション装置の構成図FIG. 1 is a configuration diagram of a navigation device according to the present invention.

【図2】音声認識処理部の構成図FIG. 2 is a configuration diagram of a speech recognition processing unit.

【図3】目的地特定用辞書の構成図FIG. 3 is a configuration diagram of a destination specification dictionary.

【図4】目的地データ辞書の構成図FIG. 4 is a configuration diagram of a destination data dictionary.

【図5】目的地特定処理を示すフローチャートFIG. 5 is a flowchart showing a destination specifying process.

【図6】音声認識処理を示すフローチャートFIG. 6 is a flowchart showing a speech recognition process.

【図7】目的地検索処理を示すフローチャートFIG. 7 is a flowchart showing a destination search process.

【図8】検索条件処理を示すフローチャートFIG. 8 is a flowchart showing search condition processing.

【図9】検索条件低減処理を示すフローチャートFIG. 9 is a flowchart illustrating search condition reduction processing.

【図10】複数目的地決定処理を示すフローチャートFIG. 10 is a flowchart showing a multi-destination determination process;

【図11】経路探索後の処理(施設状態検出処理)を示
すフローチャート
FIG. 11 is a flowchart showing processing after route search (facility state detection processing).

【符号の説明】[Explanation of symbols]

07・・・ナビゲーション用CPU 13・・・音声認識処理用CPU 15・・・目的地特定用辞書 16・・・目的地データ用辞書 07: CPU for navigation 13: CPU for voice recognition processing 15: Dictionary for specifying destination 16: Dictionary for destination data

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 音声認識結果に基づき目的地を設定し
て、該目的地までの経路案内を行うナビゲーション装置
において、 連続して入力された複数の単語の音声からなる連続音声
を、単語に対応する複数の分割音声に区切る音声分割手
段と、 入力音声の認識のため、入力音声と比較するための音声
データと対応する単語データが複数記憶された複数の辞
書であって、それぞれが同じ種別に分類された単語に対
するデータを含む複数の認識辞書と、 前記認識手段の認識結果に基づき、前記認識手段が認識
処理に用いる認識辞書を前記複数の認識辞書から選択す
る辞書選択手段と、 音声認識結果に基づく条件の目的地を検索する目的地検
索手段と、からなることを特徴とするナビゲーション装
置。
1. A navigation device for setting a destination based on a result of voice recognition and performing route guidance to the destination, wherein a continuous voice composed of voices of a plurality of words inputted continuously corresponds to the word. And a plurality of dictionaries storing a plurality of word data corresponding to voice data to be compared with the input voice for recognition of the input voice, each of which has the same type. A plurality of recognition dictionaries including data for the classified words; a dictionary selection unit for selecting, from the plurality of recognition dictionaries, a recognition dictionary used by the recognition unit for recognition processing based on a recognition result of the recognition unit; And a destination search means for searching for a destination having a condition based on the navigation device.
【請求項2】 前記認識手段は、前記認識手段の認識結
果に基づき、前記認識手段が認識処理に用いる認識辞書
を前記複数の認識辞書から選択する辞書選択手段とから
なることを特徴とする請求項1記載のナビゲーション装
置。
2. The method according to claim 1, wherein the recognition unit includes a dictionary selection unit that selects a recognition dictionary to be used for recognition processing from the plurality of recognition dictionaries based on a recognition result of the recognition unit. Item 4. The navigation device according to item 1.
【請求項3】 前記複数の認識辞書には、基本的動作に
対応する単語に関するデータと、辞書を選択するための
単語に関するデータを有する基本認識辞書が含まれ、 前記辞書選択手段は、前記基本認識辞書を含む組み合わ
せで認識辞書を選択することを特徴とする請求項1また
は請求項2記載のナビゲーション装置。
3. The plurality of recognition dictionaries include a basic recognition dictionary having data relating to a word corresponding to a basic operation and data relating to a word for selecting a dictionary. 3. The navigation device according to claim 1, wherein the recognition dictionary is selected by a combination including the recognition dictionary.
【請求項4】 入力音声の項目を示す音声入力を音声認
識して、該音声認識結果に基づき前記認識手段が認識処
理に用いる認識辞書の選択順を設定する選択順設定手段
を有し、 前記辞書選択手段は、前記選択順設定手段によって設定
された選択順に基づき前記認識手段が認識処理に用いる
認識辞書を選択することを特徴とする請求項1〜請求項
3記載のナビゲーション装置。
4. A selection order setting means for performing voice recognition on a voice input indicating an item of input voice and setting a selection order of a recognition dictionary used for recognition processing by the recognition means based on the voice recognition result, The navigation device according to claim 1, wherein the dictionary selection unit selects a recognition dictionary used for the recognition process by the recognition unit based on the selection order set by the selection order setting unit.
【請求項5】 1つの連続音声における各単語の音声認
識に対して、前記辞書選択手段が、前記基本認識辞書を
除いて同じ認識辞書を複数回選択しないように規制する
辞書選択規制手段を有することを特徴とする請求項3記
載のナビゲーション装置。
5. A dictionary selection restricting means for restricting a plurality of times from selecting the same recognition dictionary except for the basic recognition dictionary for speech recognition of each word in one continuous voice. 4. The navigation device according to claim 3, wherein:
【請求項6】 音声認識結果に基づく目的地の候補が所
定数以上存在する場合に、追加条件に関する音声入力を
要求すると共に、入力音声に対して音声認識を行い、該
音声認識結果を前記目的地の検索における追加条件とす
る再音声認識手段を有することを特徴とする請求項1〜
請求項5記載のナビゲーション装置。
6. When a predetermined number or more of destination candidates based on the speech recognition result are present, a request for speech input relating to additional conditions is made, speech recognition is performed on the input speech, and the speech recognition result is transmitted to the target speech. 2. A re-speech recognition means as an additional condition in the search of a place.
The navigation device according to claim 5.
【請求項7】 音声認識結果に基づく目的地の候補が存
在しない場合に、緩和条件に関する音声入力を要求する
と共に、入力音声に対して音声認識を行い、該音声認識
結果に基づき前記目的地の検索における検索条件を緩和
する条件緩和手段を有することを特徴とする請求項1〜
請求項5記載のナビゲーション装置。
7. When there is no destination candidate based on the speech recognition result, a request for a speech input relating to the relaxation condition is made, speech recognition is performed on the input speech, and the destination is identified based on the speech recognition result. 2. The apparatus according to claim 1, further comprising condition relaxing means for relaxing search conditions in the search.
The navigation device according to claim 5.
【請求項8】 前記目的地検索手段は、目的地を検索す
る条件として数値条件を有し、 前記複数の辞書には、数値を示す単語に関するデータを
有する数値認識辞書が含まれていること特徴とする請求
項1〜請求項7記載のナビゲーション装置。
8. The destination search means has a numerical condition as a condition for searching for a destination, and the plurality of dictionaries include a numerical recognition dictionary having data on words indicating numerical values. The navigation device according to claim 1, wherein
【請求項9】 前記複数の辞書には、数値の範囲を示す
単語に関するデータを有する数値範囲認識辞書が含ま
れ、 前記目的地検索手段は、前記数値の範囲を示す単語を対
応する数値に変換し、該数値を検索条件として目的地を
検索する数値範囲検索手段を有すること特徴とする請求
項1〜請求項7記載のナビゲーション装置。
9. The plurality of dictionaries include a numerical range recognition dictionary having data relating to words indicating numerical ranges, and the destination search means converts the words indicating numerical ranges into corresponding numerical values. 8. The navigation apparatus according to claim 1, further comprising a numerical range search means for searching a destination using the numerical value as a search condition.
【請求項10】 前記選択順設定手段は、辞書の容量の
小さい順に前記認識手段が認識処理に用いる認識辞書を
選択すると共に、該順に従った音声を発生するように指
示することを特徴とする請求項4記載のナビゲーション
装置。
10. The selection order setting means selects a recognition dictionary to be used by the recognition means for recognition processing in the order of small dictionary capacity, and instructs to generate a sound in accordance with the order. The navigation device according to claim 4.
JP10222792A 1998-08-06 1998-08-06 Navigation device Pending JP2000057490A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10222792A JP2000057490A (en) 1998-08-06 1998-08-06 Navigation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10222792A JP2000057490A (en) 1998-08-06 1998-08-06 Navigation device

Publications (1)

Publication Number Publication Date
JP2000057490A true JP2000057490A (en) 2000-02-25

Family

ID=16787977

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10222792A Pending JP2000057490A (en) 1998-08-06 1998-08-06 Navigation device

Country Status (1)

Country Link
JP (1) JP2000057490A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058188A (en) * 2001-08-13 2003-02-28 Fujitsu Ten Ltd Voice interaction system
JP2004309299A (en) * 2003-04-07 2004-11-04 Nissan Motor Co Ltd Relevant information providing device
US6944593B2 (en) 2001-10-02 2005-09-13 Hitachi, Ltd. Speech input system, speech portal server, and speech input terminal
JP2006139203A (en) * 2004-11-15 2006-06-01 Mitsubishi Electric Corp Facility retrieving device
WO2008139998A1 (en) * 2007-05-10 2008-11-20 Toyota Jidosha Kabushiki Kaisha Information processing device
JP2013205999A (en) * 2012-03-27 2013-10-07 Yahoo Japan Corp Response generation apparatus, response generation method and response generation program
WO2015173930A1 (en) * 2014-05-15 2015-11-19 三菱電機株式会社 Path guidance control device, path guidance control method, and navigation system
CN111189463A (en) * 2018-11-15 2020-05-22 丰田自动车株式会社 Information processing apparatus and information processing program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08320697A (en) * 1995-05-23 1996-12-03 Hitachi Ltd Speech recognition device
JPH09196693A (en) * 1996-01-18 1997-07-31 Alpine Electron Inc Route guidance method for navigation apparatus carried on vehicle
JPH09297769A (en) * 1996-05-07 1997-11-18 Omron Corp Device and method for map retrieval
JPH1063294A (en) * 1996-08-14 1998-03-06 Sony Corp Device and method for voice recognition
JPH1063288A (en) * 1996-08-23 1998-03-06 Aqueous Res:Kk Voice recognition device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08320697A (en) * 1995-05-23 1996-12-03 Hitachi Ltd Speech recognition device
JPH09196693A (en) * 1996-01-18 1997-07-31 Alpine Electron Inc Route guidance method for navigation apparatus carried on vehicle
JPH09297769A (en) * 1996-05-07 1997-11-18 Omron Corp Device and method for map retrieval
JPH1063294A (en) * 1996-08-14 1998-03-06 Sony Corp Device and method for voice recognition
JPH1063288A (en) * 1996-08-23 1998-03-06 Aqueous Res:Kk Voice recognition device

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058188A (en) * 2001-08-13 2003-02-28 Fujitsu Ten Ltd Voice interaction system
US6944593B2 (en) 2001-10-02 2005-09-13 Hitachi, Ltd. Speech input system, speech portal server, and speech input terminal
US7058579B2 (en) 2001-10-02 2006-06-06 Hitachi, Ltd. Speech input system, speech portal server, and speech input terminal
US7299186B2 (en) 2001-10-02 2007-11-20 Hitachi, Ltd. Speech input system, speech portal server, and speech input terminal
JP2004309299A (en) * 2003-04-07 2004-11-04 Nissan Motor Co Ltd Relevant information providing device
JP2006139203A (en) * 2004-11-15 2006-06-01 Mitsubishi Electric Corp Facility retrieving device
WO2008139998A1 (en) * 2007-05-10 2008-11-20 Toyota Jidosha Kabushiki Kaisha Information processing device
JP2013205999A (en) * 2012-03-27 2013-10-07 Yahoo Japan Corp Response generation apparatus, response generation method and response generation program
WO2015173930A1 (en) * 2014-05-15 2015-11-19 三菱電機株式会社 Path guidance control device, path guidance control method, and navigation system
JPWO2015173930A1 (en) * 2014-05-15 2017-04-20 三菱電機株式会社 Route guidance control device, route guidance control method, and navigation system
US10215580B2 (en) 2014-05-15 2019-02-26 Mitsubishi Electric Corporation Route-guidance control device, route-guidance control method, and navigation system
CN111189463A (en) * 2018-11-15 2020-05-22 丰田自动车株式会社 Information processing apparatus and information processing program
JP2020085462A (en) * 2018-11-15 2020-06-04 トヨタ自動車株式会社 Data processor and data processing program
JP7139904B2 (en) 2018-11-15 2022-09-21 トヨタ自動車株式会社 Information processing device and information processing program

Similar Documents

Publication Publication Date Title
US6587786B1 (en) Sensor free vehicle navigation system utilizing a voice input/output interface for routing a driver from his source point to his destination point
US5592389A (en) Navigation system utilizing audio CD player for data storage
US8428951B2 (en) Speech recognition apparatus, navigation apparatus including a speech recognition apparatus, and a control screen aided speech recognition method
US7328155B2 (en) Method and system for speech recognition using grammar weighted based upon location information
EP1939860B1 (en) Interactive speech recognition system
US7933776B2 (en) Device controller prompting for complete or one-by-one speech input based on user's skill level
EP2226793B1 (en) Speech recognition system and data updating method
JPH11505037A (en) Method for improving the reliability of a language recognizer
US11705116B2 (en) Language and grammar model adaptation using model weight data
US7240008B2 (en) Speech recognition system, program and navigation system
JP2000057490A (en) Navigation device
JP2946269B2 (en) Speech recognition device for in-vehicle information processing
JP5181533B2 (en) Spoken dialogue device
CN1795367A (en) Method of operating a voice-controlled navigation system
JP4661239B2 (en) Voice dialogue apparatus and voice dialogue method
JP2006260648A (en) Audio device
JP2003004470A (en) Voice recognition unit for navigation
JPH0926799A (en) Speech recognition device
JP3296783B2 (en) In-vehicle navigation device and voice recognition method
JP3999913B2 (en) Speech recognition system and method, and computer-readable recording medium recording speech recognition program
JP3671636B2 (en) Voice recognition device
JP4412102B2 (en) Navigation device
JP4665459B2 (en) Navigation device
JP2001215995A (en) Voice recognition device
JPH11250078A (en) Guiding device having speech recognition function

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040406