JP2007309823A - On-board navigation device - Google Patents

On-board navigation device Download PDF

Info

Publication number
JP2007309823A
JP2007309823A JP2006140153A JP2006140153A JP2007309823A JP 2007309823 A JP2007309823 A JP 2007309823A JP 2006140153 A JP2006140153 A JP 2006140153A JP 2006140153 A JP2006140153 A JP 2006140153A JP 2007309823 A JP2007309823 A JP 2007309823A
Authority
JP
Japan
Prior art keywords
destination candidate
destination
display
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006140153A
Other languages
Japanese (ja)
Inventor
Masahito Kazuno
雅仁 数野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2006140153A priority Critical patent/JP2007309823A/en
Publication of JP2007309823A publication Critical patent/JP2007309823A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an on-board navigation device capable of simply and surely setting the desired destination by grasping the appearance of candidate for destination. <P>SOLUTION: The navigation device comprises: the destination candidate search means 15 for searching the candidate of the destination satisfying the condition designated by the user; and the candidate for destination display means 12 and 21 for displaying the 3D-images 22 and 23 of the candidate for the destination in a display part 8, together with the list of the destination candidates 24 and 25 searched by the candidate of the destination search means 15, while determining the direction of the destination with respect to own vehicle location. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、車載用ナビゲーション装置に係り、特に、ナビゲーションにおける目的地を設定するのに好適な車載用ナビゲーション装置に関する。   The present invention relates to an on-vehicle navigation device, and more particularly to an on-vehicle navigation device suitable for setting a destination in navigation.

従来から、車載用ナビゲーション装置では、ユーザがナビゲーションにおける目的地を設定する際に、ユーザが指定した種別等の条件を満足するような目的地の候補(以下、目的地候補と略称する)をディスプレイに表示し、表示された目的地候補の中から、ユーザが選択した1つの目的地候補を目的地として設定することが行われていた。   2. Description of the Related Art Conventionally, in-vehicle navigation devices display destination candidates (hereinafter abbreviated as destination candidates) that satisfy conditions such as the type specified by the user when the user sets a destination for navigation. The destination candidate selected by the user from the displayed destination candidates is set as the destination.

目的地候補の表示方法としては、例えば、図11に示すように、ディスプレイに目的地候補のリスト50を表示し、表示されたリスト50の中からユーザによって選択された目的地候補(図11におけるコンビニA)を示すマーク51を地図52上に表示する方法や、リスト50上のすべての目的地候補を示すマークを地図上に表示する方法、あるいは、地図上に、目的地候補を示す二次元の簡易図形(図示せず)を表示する方法等が知られていた。   As a destination candidate display method, for example, as shown in FIG. 11, a list of destination candidates 50 is displayed on the display, and a destination candidate selected by the user from the displayed list 50 (in FIG. 11) A method of displaying the mark 51 indicating the convenience store A) on the map 52, a method of displaying the marks indicating all the destination candidates on the list 50 on the map, or a two-dimensional display of the destination candidates on the map A method of displaying a simple figure (not shown) is known.

特開2000−266550号公報JP 2000-266550 A

ところで、ユーザは、過去に訪れた施設等の地点を、車載用ナビゲーション装置によるルート案内を受けながら再び訪れたいと希望する場合がある。その場合には、その地点を目的地として設定すればよいのであるが、ユーザは、その地点の外観は記憶しているけれども、名称(店名等)は記憶していない場合がある。   By the way, the user may desire to visit a place such as a facility visited in the past while receiving route guidance from the in-vehicle navigation device. In that case, the point may be set as the destination, but the user may remember the appearance of the point but not the name (store name or the like).

このような場合には、たとえ、目的地候補のリストとして、ユーザが希望する地点と同じ種別に属する地点についてのリストを表示したとしても、その中から、ユーザが希望する地点を選択することは困難であった。   In such a case, even if a list of points belonging to the same type as the point desired by the user is displayed as the list of destination candidates, it is possible to select the point desired by the user from among them. It was difficult.

また、従来のように、目的地候補のリストやマークあるいは簡易図形を表示しただけでは、目的地候補の外観を比較することができなかったため、ユーザが、どの目的地候補を目的地として設定したいのかを簡便に判断することができなかった。   Moreover, since the appearance of destination candidates could not be compared only by displaying a list of destination candidates, a mark, or a simple graphic as in the past, the user wants to set which destination candidate as a destination. It was not possible to judge easily.

このように、従来は、目的地候補の外観を把握することができなかったため、ユーザが、所望の目的地を簡便かつ確実に設定することができないといった問題が生じていた。   Thus, conventionally, since the appearance of the destination candidate could not be grasped, there was a problem that the user could not easily and surely set a desired destination.

そこで、本発明は、このような問題点に鑑みなされたものであり、ユーザが、目的地候補の外観を把握することによって所望の目的地を簡便かつ確実に設定することができる車載用ナビゲーション装置を提供することを目的とするものである。   Accordingly, the present invention has been made in view of such problems, and a vehicle-mounted navigation device that allows a user to easily and reliably set a desired destination by grasping the appearance of a destination candidate. Is intended to provide.

前述した目的を達成するため、本発明に係る車載用ナビゲーション装置は、ユーザが指定した条件を満足する目的地の候補を検索する目的地候補検索手段と、この目的地候補検索手段によって検索された目的地の候補のリストとともに、当該目的地の候補の三次元画像を、自車位置に対する当該目的地の候補の方角を判別可能な状態として表示部に表示する目的地候補表示手段とを備えたことを特徴としている。そして、このような構成によれば、目的地候補表示手段により、目的地候補検索手段によって検索された目的地候補のリストとともに、目的地候補の三次元画像を、自車位置に対する目的地候補の方角を判別可能な状態として表示部に表示することが可能となる。   In order to achieve the above-described object, the in-vehicle navigation device according to the present invention is searched by a destination candidate search unit that searches for a destination candidate that satisfies a condition specified by the user, and the destination candidate search unit. A destination candidate display means for displaying a three-dimensional image of the destination candidate together with a list of destination candidates on the display unit in a state where the direction of the destination candidate with respect to the vehicle position can be discriminated. It is characterized by that. According to such a configuration, the destination candidate display unit displays the destination candidate three-dimensional image together with the list of destination candidates searched by the destination candidate search unit as the destination candidate for the vehicle position. The direction can be displayed on the display unit in a state where the direction can be discriminated.

また、本発明に係る他の車載用ナビゲーション装置は、前記自車位置から前記目的地候補検索手段によって検索された目的地の候補までの経路を探索する経路探索手段を備え、前記目的地候補表示手段が、前記目的地の候補の三次元画像として、前記経路探索手段によって探索された経路上から前記目的地の候補を目視した場合に視認される前記目的地の候補の外観を示す画像を表示するように形成されていることを特徴としている。そして、このような構成によれば、目的地候補表示手段により、目的地候補の三次元画像として、経路探索手段によって探索された経路上から目的地候補を目視した場合に視認される目的地候補の外観を示す画像を表示することが可能となる。   In addition, another in-vehicle navigation device according to the present invention includes route search means for searching for a route from the vehicle position to a destination candidate searched by the destination candidate search means, and the destination candidate display As the three-dimensional image of the destination candidate, an image showing the appearance of the destination candidate that is visually recognized when the destination candidate is viewed from the route searched by the route search means is displayed. It is characterized by being formed. According to such a configuration, the destination candidate that is visually recognized by the destination candidate display unit as a three-dimensional image of the destination candidate when the destination candidate is viewed from the route searched by the route search unit. It is possible to display an image showing the appearance of the.

さらに、本発明に係る他の車載用ナビゲーション装置は、前記目的地候補表示手段が、前記目的地の候補の三次元画像として、前記経路上から前記目的地の候補を所定の目視角度で目視した場合に視認される前記目的地の候補の外観を示す画像を表示するように形成されており、前記目視角度をユーザが選択するための目視角度選択手段を備えたことを特徴としている。そして、このような構成によれば、目的地候補表示手段により、目的地候補の三次元画像として、目視角度選択手段によって選択された目視角度から目的地候補を目視した場合に視認される目的地候補の外観を示す画像を表示することが可能となる。   Furthermore, in another in-vehicle navigation device according to the present invention, the destination candidate display means visually recognizes the destination candidate from the route as a three-dimensional image of the destination candidate at a predetermined viewing angle. It is formed so as to display an image showing the appearance of the destination candidate visually recognized in the case, and has a visual angle selection means for the user to select the visual angle. According to such a configuration, the destination that is visually recognized by the destination candidate display unit as a three-dimensional image of the destination candidate when the destination candidate is viewed from the viewing angle selected by the viewing angle selection unit. It is possible to display an image showing the appearance of the candidate.

さらにまた、本発明に係る他の車載用ナビゲーション装置は、前記目的地候補表示手段が、自車位置からの距離が近い目的地の候補ほど、前記目的地の候補の三次元画像を大きく表示するように形成されていることを特徴としている。そして、このような構成によれば、目的地候補表示手段により、複数個の目的地候補を、自車位置からの距離を比較可能な状態として表示することが可能となる。   Furthermore, in the in-vehicle navigation device according to the present invention, the destination candidate display means displays a larger three-dimensional image of the destination candidate as the destination candidate is closer to the vehicle position. It is characterized by being formed as follows. According to such a configuration, the destination candidate display means can display a plurality of destination candidates in a state in which the distances from the vehicle position can be compared.

また、本発明に係る他の車載用ナビゲーション装置は、前記目的地候補表示手段が、前記目的地の候補のリストとして、対応する目的地の候補の三次元画像と組み合わされるようにして前記目的地の候補の三次元画像ごとに分散されたリストを表示するように形成されていることを特徴としている。そして、このような構成によれば、目的地候補表示手段により、目的地候補のリストとして、目的地候補の三次元画像ごとに分散されたリストを表示することが可能となる。   Further, in another on-vehicle navigation device according to the present invention, the destination candidate display means is combined with a three-dimensional image of a corresponding destination candidate as the destination candidate list, so that the destination candidate is displayed. It is characterized in that it is formed so as to display a list dispersed for each candidate three-dimensional image. According to such a configuration, the destination candidate display means can display a list of destination candidates that is distributed for each three-dimensional image of the destination candidates.

さらに、本発明に係る他の車載用ナビゲーション装置は、前記目的地の候補が施設とされ、前記目的地候補表示手段が、前記施設の三次元画像とともに前記施設の周辺の三次元画像を表示するように形成されていることを特徴としている。そして、このような構成によれば、目的地候補表示手段により、目的地候補としての施設の三次元画像とともに、施設の周辺の三次元画像を表示することが可能となる。   Furthermore, in another in-vehicle navigation device according to the present invention, the destination candidate is a facility, and the destination candidate display means displays a three-dimensional image around the facility together with the three-dimensional image of the facility. It is characterized by being formed as follows. According to such a configuration, the destination candidate display means can display a three-dimensional image around the facility along with the three-dimensional image of the facility as the destination candidate.

さらにまた、本発明に係る他の車載用ナビゲーション装置は、前記目的地候補表示手段が、前記三次元画像として、前記目的地の候補を含む実写画像を表示するように形成されていることを特徴としている。そして、このような構成によれば、目的地候補表示手段により、三次元画像として、目的地候補を含む実世界の実写画像を表示することが可能となる。   Still further, another in-vehicle navigation device according to the present invention is characterized in that the destination candidate display means is configured to display a photographed image including the destination candidate as the three-dimensional image. It is said. And according to such a structure, it becomes possible by the destination candidate display means to display the real world photograph image containing the destination candidate as a three-dimensional image.

本発明に係る車載用ナビゲーション装置によれば、目的地候補表示手段により、目的地候補検索手段によって検索された目的地候補のリストとともに、目的地候補の三次元画像を表示部に表示することができる結果、ユーザが、目的地候補の外観を把握することによって、所望の目的地を簡便かつ確実に設定することができる。また、目的地候補の三次元画像を、自車位置に対する目的地候補の方角を判別可能な状態として表示することができる結果、ユーザが、自車位置に対する目的地候補の方角を基準として、訪れることを希望する目的地を簡便かつ確実に選択することができる。さらに、ユーザが、実際に目的地に赴く前に、目的地の外観を予め把握することができるので、ルート案内を受けながら自車両を目的地の近辺まで進行させた際に、目的地を容易に確認することができる。   According to the vehicle-mounted navigation device according to the present invention, the destination candidate display unit can display a three-dimensional image of the destination candidate on the display unit together with the list of destination candidates searched by the destination candidate search unit. As a result, the user can easily and reliably set a desired destination by grasping the appearance of the destination candidate. Further, as a result of displaying the three-dimensional image of the destination candidate in a state in which the direction of the destination candidate with respect to the vehicle position can be discriminated, the user visits based on the direction of the destination candidate with respect to the vehicle position. It is possible to easily and reliably select a destination that the user desires. Furthermore, since the user can grasp the appearance of the destination in advance before actually going to the destination, the destination can be easily reached when the vehicle is advanced to the vicinity of the destination while receiving route guidance. Can be confirmed.

また、本発明に係る他の車載用ナビゲーション装置によれば、目的地候補表示手段により、経路探索手段によって探索された経路上から目的地候補を目視した場合に視認される目的地候補の外観を示す三次元画像を表示することができるので、その目的地候補が、ユーザが過去に訪れた地点であってユーザが再び訪れることを希望している地点の場合には、ユーザが過去に経路上から目視して記憶している地点の外観と同じ外観を示す画像を表示することができる。この結果、ユーザが、三次元画像によって示された地点を、目的地として確実に設定することができる。   According to another vehicle-mounted navigation device according to the present invention, the destination candidate display means displays the appearance of the destination candidate visually recognized when the destination candidate is viewed from the route searched by the route search means. 3D images can be displayed, so if the destination candidate is a point where the user has visited in the past and the user wants to visit again, The image which shows the same external appearance as the external appearance of the point memorize | stored visually can be displayed. As a result, the user can reliably set the point indicated by the three-dimensional image as the destination.

さらに、本発明に係る他の車載用ナビゲーション装置によれば、目的地候補表示手段により、目的地候補の三次元画像として、目視角度選択手段によって選択された目視角度から目的地候補を目視した場合に視認される目的地候補の外観を示す画像を表示することができるので、ユーザが、目的地候補の外観をさらに確実に把握することができ、目的地候補が過去に訪れた地点であるか否かをさらに確実に判別することができる。この結果、ユーザが、過去に訪れた所望の地点を目的地としてさらに確実に設定することができる。   Furthermore, according to another vehicle-mounted navigation device according to the present invention, when the destination candidate is viewed from the viewing angle selected by the viewing angle selection unit as a three-dimensional image of the destination candidate by the destination candidate display unit. Can display an image showing the appearance of the destination candidate visually recognized, so that the user can more reliably grasp the appearance of the destination candidate and whether the destination candidate has visited in the past. It is possible to more reliably determine whether or not. As a result, the user can more reliably set a desired point visited in the past as the destination.

さらにまた、本発明に係る他の車載用ナビゲーション装置によれば、目的地候補表示手段により、複数個の目的地候補を、自車位置からの距離を比較可能な状態として表示することができる結果、ユーザが、自車位置からの距離を考慮した目的地の設定を容易に行うことができる。   Furthermore, according to another vehicle-mounted navigation device according to the present invention, the destination candidate display means can display a plurality of destination candidates in a state in which the distance from the vehicle position can be compared. The user can easily set the destination in consideration of the distance from the vehicle position.

また、本発明に係る他の車載用ナビゲーション装置によれば、目的地候補表示手段により、目的地候補のリストとして、目的地の候補の三次元画像ごとに分散されたリストを表示することができる結果、リストと目的地候補の三次元画像とを分けて表示する場合に比べて、リストと目的地候補との対応関係を分かり易くすることができ、また、目的地候補の三次元画像を全体的に大きく表示することができるので、ユーザに目的地候補の外観を把握させ易くすることができる。   In addition, according to another vehicle-mounted navigation device according to the present invention, the destination candidate display means can display a list dispersed for each three-dimensional image of destination candidates as a list of destination candidates. As a result, the correspondence between the list and destination candidates can be made easier to understand than when the list and destination candidate 3D images are displayed separately, and the entire destination candidate 3D image is displayed. Therefore, it is possible to make it easier for the user to grasp the appearance of the destination candidate.

さらに、本発明に係る他の車載用ナビゲーション装置によれば、目的地候補表示手段により、目的地候補としての施設の三次元画像とともに、施設の周辺の三次元画像を表示することができる結果、ユーザが、過去に訪れた施設の外観を、その施設の周辺の外観も含めて記憶している場合には、周辺の三次元画像とともに表示された施設が、ユーザが過去に訪れた所望の施設であるか否かを簡便に判定することができる。この結果、ユーザが、過去に訪れて再び訪れることを希望している施設を、目的地として簡便かつ確実に設定することができる。   Furthermore, according to another vehicle-mounted navigation device according to the present invention, the destination candidate display means can display a three-dimensional image around the facility together with the three-dimensional image of the facility as the destination candidate, When the user stores the appearance of the facility visited in the past, including the appearance of the surroundings of the facility, the facility displayed together with the surrounding three-dimensional image is the desired facility visited by the user in the past. It can be easily determined whether or not. As a result, the facility that the user has visited in the past and wishes to visit again can be easily and reliably set as the destination.

さらにまた、本発明に係る他の車載用ナビゲーション装置によれば、目的地候補表示手段により、三次元画像として、目的地候補を含む実世界の実写画像を表示することができる結果、ユーザが、目的地候補の外観をさらに正確に把握することができ、所望の目的地をさらに簡便かつ確実に設定することができる。   Furthermore, according to another vehicle-mounted navigation device according to the present invention, as a result of being able to display a real-world image including the destination candidate as a three-dimensional image by the destination candidate display means, The appearance of the destination candidate can be grasped more accurately, and the desired destination can be set more easily and reliably.

以下、本発明に係る車載用ナビゲーション装置の実施形態について、図1乃至図10を参照して説明する。   Hereinafter, an embodiment of an in-vehicle navigation device according to the present invention will be described with reference to FIGS.

図1に示すように、本実施形態における車載用ナビゲーション装置1は、大別して、ナビゲーションメインユニット2と、このナビゲーションメインユニット2にそれぞれ接続されたデータ読出装置3、入力操作部5、GPSレシーバ6、自律航法センサ7、ディスプレイ8およびスピーカ9によって構成されている。なお、入力操作部5は、リモコンや、ディスプレイ8のタッチパネルまたはリニアエンコーダ等であってもよい。   As shown in FIG. 1, the in-vehicle navigation device 1 in this embodiment is roughly divided into a navigation main unit 2, a data reading device 3, an input operation unit 5, and a GPS receiver 6 connected to the navigation main unit 2, respectively. The vehicle includes an autonomous navigation sensor 7, a display 8 and a speaker 9. The input operation unit 5 may be a remote controller, a touch panel of the display 8, a linear encoder, or the like.

データ読出装置3には、記憶媒体10が搭載されており、この記憶媒体10には、ナビゲーションに用いる種々のデータが記憶されている。具体的には、記憶媒体10には、地図データが記憶されており、この地図データは、道路データおよび背景データ等によって構成されている。なお、道路データは、例えば、形状補間点、セグメント、リンク、ノード、リンク列、道路名称、通行条件(車種規制や通行時間帯規制等)および交通看板等のエンティティ(基本データ要素)によって構成されており、背景データは、例えば、点、ポリライン、ポリゴン、テキスト、形状位置および形状タイプ等のエンティティによって構成されている。また、記憶媒体10には、自車両の現在位置(以下、自車位置と称する)から目的地までの推奨経路を計算する経路計算データとしての道路ネットワークデータが記憶されており、この道路ネットワークデータは、例えば、ノード、リンクおよび通行条件等のエンティティによって構成されている。さらに、記憶媒体10には、場所やサービスを検索するための検索データが記憶されており、この検索データは、例えば、エリア名称、住所、郵便番号、インターセクション名称(交差点およびインターチェンジ等)、目的地やランドマーク等のPOI(Points Of Interest)およびサービス(店舗等の施設)等のエンティティによって構成されている。   The data reading device 3 is equipped with a storage medium 10, and various data used for navigation are stored in the storage medium 10. Specifically, map data is stored in the storage medium 10, and the map data is composed of road data, background data, and the like. In addition, road data is comprised by entities (basic data elements), such as a shape interpolation point, a segment, a link, a node, a link row | line | column, road name, traffic conditions (vehicle type regulation, traffic time zone restrictions, etc.), and a traffic signboard, for example. The background data is composed of entities such as points, polylines, polygons, text, shape positions, and shape types. The storage medium 10 stores road network data as route calculation data for calculating a recommended route from the current position of the host vehicle (hereinafter referred to as the host vehicle position) to the destination. Is constituted by entities such as nodes, links, and traffic conditions. Further, the storage medium 10 stores search data for searching for places and services. The search data includes, for example, area names, addresses, postal codes, intersection names (intersections, interchanges, etc.), purposes, and the like. It is composed of entities such as POIs (Points Of Interest) such as places and landmarks and services (facility such as stores).

なお、記憶媒体10は、例えば、DVDであってもよいし、または、ハードディスクであってもよい。   The storage medium 10 may be, for example, a DVD or a hard disk.

GPSレシーバ6は、図示しないGPS衛星から軌道および時刻に関する情報(GPS情報)を受信し、受信したGPS情報をナビゲーションメインユニット2に出力するようになっている。   The GPS receiver 6 receives information on the orbit and time (GPS information) from a GPS satellite (not shown), and outputs the received GPS information to the navigation main unit 2.

自律航法センサ7は、ジャイロセンサ等によって構成されており、この自律航法センサ7は、自車の走行速度や角速度を検出し、検出結果をナビゲーションメインユニット2に出力するようになっている。   The autonomous navigation sensor 7 is constituted by a gyro sensor or the like, and the autonomous navigation sensor 7 detects the traveling speed and angular velocity of the host vehicle and outputs the detection result to the navigation main unit 2.

次に、ナビゲーションメインユニット2について詳述すると、このナビゲーションメインユニット2は、操作画面描画部11を有しており、この操作画面描画部11は、各種の操作画面の描画データを生成するようになっている。   Next, the navigation main unit 2 will be described in detail. The navigation main unit 2 has an operation screen drawing unit 11, and the operation screen drawing unit 11 generates drawing data for various operation screens. It has become.

操作画面描画部11とディスプレイ8との間には、表示処理部12が接続されており、この表示処理部12には、操作画面描画部11によって生成された操作画面の描画データが入力されるようになっている。そして、表示処理部12は、入力された操作画面の描画データを画像に変換してディスプレイ8に出力することによって、操作画面をディスプレイ8に表示するようになっている。   A display processing unit 12 is connected between the operation screen drawing unit 11 and the display 8, and drawing data of the operation screen generated by the operation screen drawing unit 11 is input to the display processing unit 12. It is like that. The display processing unit 12 displays the operation screen on the display 8 by converting the input drawing data of the operation screen into an image and outputting the image to the display 8.

入力操作部5には、検索条件設定部14が接続されている。この検索条件設定部14には、操作画面描画部11および表示処理部12によってディスプレイ8に表示された目的地候補の検索条件を入力するための操作画面(以下、検索条件入力画面と称する)に対してユーザが入力操作部5を用いて行った検索条件の入力結果が入力されるようになっている。なお、目的地候補の検索条件は、例えば、目的地候補の種別を特定するものであってもよい。そして、検索条件設定部14は、入力操作部5からの入力結果を、目的地候補の検索条件として設定するようになっている。   A search condition setting unit 14 is connected to the input operation unit 5. The search condition setting unit 14 includes an operation screen (hereinafter referred to as a search condition input screen) for inputting search conditions for destination candidates displayed on the display 8 by the operation screen drawing unit 11 and the display processing unit 12. On the other hand, the input result of the search condition performed by the user using the input operation unit 5 is input. The destination candidate search condition may specify, for example, the type of destination candidate. Then, the search condition setting unit 14 sets the input result from the input operation unit 5 as the search condition for the destination candidate.

検索条件設定部14の出力側には、目的地候補検索手段としての目的地候補検索部15が接続されており、この目的地候補検索部15には、検索条件設定部14によって設定された目的地候補の検索条件の情報が入力されるようになっている。   A destination candidate search unit 15 as a destination candidate search unit is connected to the output side of the search condition setting unit 14, and a destination set by the search condition setting unit 14 is connected to the destination candidate search unit 15. Information on search conditions for candidate locations is entered.

目的地候補検索部15とデータ読出装置3との間には、データ読出制御部17が接続されており、このデータ読出制御部17は、データ読出装置3に対して、記憶媒体10に記憶されたデータの読み出し要求を出力するようになっている。データ読出装置3と目的地候補検索部15との間には、バッファ18が接続されており、このバッファ18には、データ読出装置3によって記憶媒体10から読み出されたデータが一時的に格納されるようになっている。ここで、目的地候補検索部15は、検索条件設定部14から目的地候補の検索条件の情報が入力されると、データ読出制御部17に、データ読出装置3に対する記憶媒体10内の検索データの読み出し要求を出力させるようになっている。   A data reading control unit 17 is connected between the destination candidate searching unit 15 and the data reading device 3. The data reading control unit 17 is stored in the storage medium 10 for the data reading device 3. A data read request is output. A buffer 18 is connected between the data reading device 3 and the destination candidate search unit 15, and data read from the storage medium 10 by the data reading device 3 is temporarily stored in the buffer 18. It has come to be. Here, the destination candidate search unit 15 receives the search condition information of the destination candidate from the search condition setting unit 14, and the search data in the storage medium 10 for the data reading device 3 is sent to the data reading control unit 17. The read request is output.

そして、目的地候補検索部15は、当該読み出し要求によって記憶媒体10から読み出された検索データをバッファ18を介して取得し、取得された検索データを用いて、検索条件設定部14によって設定された目的地候補の検索条件を満足するような目的地候補を検索するようになっている。   The destination candidate search unit 15 acquires the search data read from the storage medium 10 in response to the read request via the buffer 18, and is set by the search condition setting unit 14 using the acquired search data. The destination candidates that satisfy the search conditions for the destination candidates are searched.

GPSレシーバ6および自律航法センサ7の出力側には、自車位置を計算する自車位置計算部19が接続されており、この自車位置計算部19には、GPSレシーバ6から出力されたGPS情報および自律航法センサ7から出力された検出結果がそれぞれ入力されるようになっている。自車位置計算部19は、GPSレシーバ6側から入力されたGPS情報に基づいて、自車位置を絶対座標として算出するようになっている(電波航法)。また、自車位置計算部19は、自律航法センサ7側から入力された検出結果に基づいて、自車位置を前の自車位置からの相対的な変化として算出するようになっている(自律航法)。さらに、自車位置計算部19は、電波航法または自律航法によって算出された自車位置が、地図データにおける道路上にない場合には、自車位置を地図データの該当する道路上の位置に補正するマップマッチングを行い、マップマッチング後の自車位置を計算結果として出力するようになっている。このマップマッチングには、記憶媒体10に記憶された地図データが用いられるようになっている。   The output side of the GPS receiver 6 and the autonomous navigation sensor 7 is connected to a vehicle position calculation unit 19 for calculating the vehicle position. The vehicle position calculation unit 19 includes a GPS output from the GPS receiver 6. The information and the detection result output from the autonomous navigation sensor 7 are respectively input. The own vehicle position calculation unit 19 calculates the own vehicle position as absolute coordinates based on GPS information input from the GPS receiver 6 side (radio wave navigation). The own vehicle position calculation unit 19 calculates the own vehicle position as a relative change from the previous own vehicle position based on the detection result input from the autonomous navigation sensor 7 side (autonomous vehicle). navigation). Furthermore, if the vehicle position calculated by radio navigation or autonomous navigation is not on the road in the map data, the vehicle position calculation unit 19 corrects the vehicle position to a position on the corresponding road in the map data. Map matching is performed, and the vehicle position after map matching is output as a calculation result. For this map matching, map data stored in the storage medium 10 is used.

自車位置計算部19、目的地候補検索部15、データ読出制御部17およびバッファ18には、経路探索手段としての経路計算部20が接続されており、この経路計算部20には、自車位置計算部19によって算出された自車位置(計算結果)の情報および目的地候補検索部15によって検索された目的地候補の情報がそれぞれ入力されるようになっている。   A route calculation unit 20 as route search means is connected to the own vehicle position calculation unit 19, the destination candidate search unit 15, the data read control unit 17, and the buffer 18. Information on the vehicle position (calculation result) calculated by the position calculation unit 19 and information on the destination candidate searched by the destination candidate search unit 15 are input.

経路計算部20は、入力された自車位置の情報および目的地候補の情報に基づいて、自車位置から目的地候補の位置までの推奨経路を計算(探索)するようになっている。ここで、推奨経路は、目的地候補検索部15によって探索された目的地候補と同数だけ算出されることになる。例えば、目的地候補が6個の場合には、算出される推奨経路も6個となる。   The route calculation unit 20 calculates (searches) a recommended route from the vehicle position to the destination candidate position based on the input vehicle position information and destination candidate information. Here, the same number of recommended routes as the destination candidates searched by the destination candidate search unit 15 are calculated. For example, when there are six destination candidates, there are six recommended routes to be calculated.

この推奨経路の計算の際に、経路計算部20は、データ読出制御部17に、記憶媒体10に記憶された道路ネットワークデータを読み出すための読み出し要求をデータ読出装置3に対して出力させるようになっている。そして、経路計算部20は、前記読み出し要求によって記憶媒体10から読み出された道路ネットワークデータをバッファ18を介して取得し、取得された道路ネットワークデータを用いて推奨経路を計算するようになっている。   When calculating the recommended route, the route calculation unit 20 causes the data read control unit 17 to output a read request for reading the road network data stored in the storage medium 10 to the data reading device 3. It has become. Then, the route calculation unit 20 acquires the road network data read from the storage medium 10 by the read request through the buffer 18 and calculates a recommended route using the acquired road network data. Yes.

なお、推奨経路の計算は、ユーザが入力操作部5を用いて入力した経路経路計算条件(例えば、高速道路を通らない等)にしたがって行うようにしてもよい。   Note that the recommended route may be calculated according to the route route calculation condition (for example, not passing through the expressway) input by the user using the input operation unit 5.

また、目的地候補検索部15、自車位置計算部19、経路計算部20、データ読出制御部17、バッファ18および表示処理部12には、目的地候補表示手段を構成する目的地候補描画部21が接続されている。   The destination candidate search unit 15, the vehicle position calculation unit 19, the route calculation unit 20, the data read control unit 17, the buffer 18, and the display processing unit 12 include a destination candidate drawing unit that constitutes a destination candidate display unit. 21 is connected.

この目的地候補描画部21には、目的地候補検索部15によって検索された目的地候補の情報、自車位置計算部19によって算出された自車位置の情報および経路計算部20によって算出された推奨経路の情報がそれぞれ入力されるようになっている。   In the destination candidate drawing unit 21, information on the destination candidate searched by the destination candidate search unit 15, information on the vehicle position calculated by the vehicle position calculation unit 19, and the route calculation unit 20 Information on recommended routes is entered.

そして、目的地候補描画部21は、入力された目的地候補および推奨経路の情報に基づいて、データ読出制御部19に、目的地候補の情報およびこの目的地候補までの推奨経路に対応した地図データならびに検索データを記憶媒体10から読み出すための読み出し要求を、データ読出装置3に対して出力させるようになっている。当該読み出し要求によって記憶媒体10から読み出された地図データおよび検索データは、バッファ18を経た後に目的地候補描画部21によって取得されるようになっている。   The destination candidate drawing unit 21 then sends the data corresponding to the destination candidate information and the recommended route to the destination candidate to the data read control unit 19 based on the input destination candidate and recommended route information. A read request for reading data and search data from the storage medium 10 is output to the data reading device 3. The map data and the search data read from the storage medium 10 by the read request are acquired by the destination candidate drawing unit 21 after passing through the buffer 18.

そして、目的地候補描画部21は、取得された地図データおよび検索データを用いることによって、図2および図3に示すように、目的地候補の三次元画像22,23を目的地候補のリスト24,25とともにディスプレイ8に表示するための描画データ(以下、リスト・三次元画像描画データと称する)を生成するようになっている。   Then, the destination candidate drawing unit 21 uses the acquired map data and search data to generate the destination candidate three-dimensional images 22 and 23 as a destination candidate list 24 as shown in FIGS. , 25 and drawing data to be displayed on the display 8 (hereinafter referred to as list / three-dimensional image drawing data).

また、本実施形態において、目的地候補描画部21は、自車位置計算部19から入力された自車位置の情報を用いることによって、リスト・三次元画像描画データとして、図2および図3に示すように、目的地候補の三次元画像22,23を、自車位置に対する目的地候補の方角が判別可能な状態として表示するためのリスト・三次元画像描画データを生成するようになっている。   In the present embodiment, the destination candidate drawing unit 21 uses the information on the vehicle position input from the vehicle position calculation unit 19 as a list / three-dimensional image drawing data in FIGS. 2 and 3. As shown, a list and three-dimensional image drawing data for displaying the three-dimensional images 22 and 23 of the destination candidates in a state in which the direction of the destination candidate with respect to the vehicle position can be discriminated are generated. .

このリスト・三次元画像描画データは、図2および図3に示すように、自車位置を示す自車位置マーク26とともに、自車位置に対して北の方角にある目的地候補の三次元画像22,23は、自車位置マーク26に対して画面の上方に表示し、自車位置に対して南の方角にある目的地候補の三次元画像22,23は、自車位置マーク26に対して画面の下方に表示するものであってもよい。   As shown in FIG. 2 and FIG. 3, the list / three-dimensional image drawing data includes a three-dimensional image 22 of a destination candidate in the north direction with respect to the own vehicle position together with the own vehicle position mark 26 indicating the own vehicle position. , 23 are displayed at the top of the screen with respect to the vehicle position mark 26, and the three-dimensional images 22, 23 of the destination candidates in the south direction with respect to the vehicle position are It may be displayed at the bottom of the screen.

また、リスト・三次元画像描画データは、図2に示すように、自車位置から目的地候補までの推奨経路の画像を、自車位置マーク26から各目的地候補の三次元画像22まで引き出されるように表示することを内容に含むものであってもよい。   In addition, as shown in FIG. 2, the list / three-dimensional image drawing data draws an image of a recommended route from the own vehicle position to the destination candidate from the own vehicle position mark 26 to the three-dimensional image 22 of each destination candidate. The content may include display as described above.

さらに、本実施形態において、目的地候補描画部21は、リスト・三次元画像描画データとして、図2および図3に示すように、目的地候補付近の推奨経路上から目的地候補を目視した場合に視認される目的地候補の外観を模した(示す)三次元画像22,23を表示するためのリスト・三次元画像描画データを生成するようになっている。   Furthermore, in the present embodiment, the destination candidate drawing unit 21 visually recognizes a destination candidate from the recommended route near the destination candidate as list / three-dimensional image drawing data as shown in FIGS. 2 and 3. The list / three-dimensional image drawing data for displaying the three-dimensional images 22 and 23 imitating (showing) the appearance of the destination candidate visually recognized is generated.

さらにまた、本実施形態において、目的地候補描画部21は、リスト・三次元画像描画データとして、図2および図3に示すように、自車位置からの距離が近い目的地候補ほど、目的地候補の三次元画像22,23を大きく表示するためのリスト・三次元画像描画データを生成するようになっている。   Furthermore, in the present embodiment, the destination candidate drawing unit 21 uses the list / three-dimensional image drawing data as the destination candidate that is closer to the destination from the vehicle position as shown in FIGS. 2 and 3. A list and three-dimensional image drawing data for displaying the candidate three-dimensional images 22 and 23 in a large size are generated.

また、本実施形態において、目的地候補描画部21は、リスト・三次元画像描画データとして、以下の2つのパターンの画像を表示するリスト・三次元画像描画データを生成するようになっている。第1のパターンの画像は、図2に示すように、目的地候補のリスト24を、目的地候補の三次元画像22とは別個の位置にひとまとめに表示する画像(以下、通常表示画像と称する)とされている。また、第2のパターンの画像は、図3に示すように、目的地候補のリスト25を、対応する目的地候補の三次元画像25と組み合わせて目的地候補の三次元画像25ごとに分散して表示する画像(以下、分散表示画像と称する)とされている。なお、デフォルトとして通常表示画像を表示するようにしてもよい。   In this embodiment, the destination candidate drawing unit 21 generates list / three-dimensional image drawing data for displaying images of the following two patterns as the list / three-dimensional image drawing data. As shown in FIG. 2, the image of the first pattern is an image (hereinafter referred to as a normal display image) in which the destination candidate list 24 is collectively displayed at a position different from the destination candidate three-dimensional image 22. ). Also, as shown in FIG. 3, the second pattern image is distributed for each destination candidate 3D image 25 by combining the destination candidate list 25 with the corresponding destination candidate 3D image 25. Images to be displayed (hereinafter referred to as distributed display images). Note that a normal display image may be displayed as a default.

さらに、本実施形態において、目的地候補描画部21は、リスト・三次元画像描画データとして、図2および図3に示すように、目的地候補の三次元画像22,23として、施設(図2および図3におけるコンビニエンスストア)の三次元画像とともに施設の周辺(道路等)の三次元画像を表示するためのリスト・三次元画像描画データを生成するようになっている。   Furthermore, in this embodiment, the destination candidate drawing unit 21 uses the facility (FIG. 2) as the list of candidate 3D images 22 and 23 as shown in FIG. 2 and FIG. In addition to the 3D image of the convenience store in FIG. 3, a list and 3D image drawing data for displaying a 3D image around the facility (such as a road) are generated.

本実施形態において、操作画面描画部11は、画像選択ボタン描画部28を有している。この画像選択ボタン描画部28は、図2および図3に示すように、通常表示画像の表示を選択するための通常表示選択ボタン29と、分散表示画像の表示を選択するための分散表示選択ボタン30との2つの画像選択ボタン29,30の描画データを生成し、生成された描画データを表示処理部12に出力するようになっている。表示処理部12は、画像選択ボタン描画部28から出力された描画データを画像に変換してディスプレイ8に出力することによって、ディスプレイ8に2つの画像選択ボタン29,30を表示するようになっている。   In the present embodiment, the operation screen drawing unit 11 includes an image selection button drawing unit 28. As shown in FIGS. 2 and 3, the image selection button drawing unit 28 includes a normal display selection button 29 for selecting display of a normal display image and a distributed display selection button for selecting display of a distributed display image. The drawing data of the two image selection buttons 29 and 30 with 30 is generated, and the generated drawing data is output to the display processing unit 12. The display processing unit 12 displays the two image selection buttons 29 and 30 on the display 8 by converting the drawing data output from the image selection button drawing unit 28 into an image and outputting the image to the display 8. Yes.

そして、目的地候補描画部21は、ディスプレイ8に表示された2つの画像選択ボタン29,30のうち、ユーザが入力操作部5を用いて選択した選択ボタン29,30に対応する画像(通常表示画像または分散表示画像)の描画データを生成するようになっている。   The destination candidate drawing unit 21 then displays images corresponding to the selection buttons 29 and 30 selected by the user using the input operation unit 5 among the two image selection buttons 29 and 30 displayed on the display 8 (normal display). (Image or distributed display image) drawing data is generated.

また、本実施形態において、目的地候補描画部21は、図2および図3に示すように、目的地候補の三次元画像22,23として、目的地候補を推奨経路上から所定の目視角度(具体的には自車両の進行方向と自車両から目的地候補を目視する方向との挟角)で目視した場合に視認される目的地候補の外観を模した画像22,23を表示するためのリスト・三次元画像描画データを生成するようになっている。なお、図2および図3に示す三次元画像22,23は、いずれも、目的地候補を推奨経路上から30°の目視角度で目視した場合に視認される目的地候補の外観を模した画像22,23となっている。つまり、図2および図3に示す画像22,23は、図4に示す推奨経路に対応する道路33(左車線)上の地点Aで目的地候補32を目視した場合に視認される目的地候補の外観を模した画像22,23となっている。   Further, in the present embodiment, the destination candidate drawing unit 21, as shown in FIG. 2 and FIG. 3, displays the destination candidates as predetermined destination viewing angles (on the recommended route) as the three-dimensional images 22 and 23 of the destination candidates. Specifically, for displaying images 22 and 23 imitating the appearance of a destination candidate that is visually recognized when viewed at an angle between the traveling direction of the host vehicle and the direction in which the destination candidate is viewed from the host vehicle). List and 3D image drawing data are generated. Note that the three-dimensional images 22 and 23 shown in FIGS. 2 and 3 are both images imitating the appearance of a destination candidate that is visually recognized when the destination candidate is viewed at a viewing angle of 30 ° from the recommended route. 22 and 23. That is, the images 22 and 23 shown in FIGS. 2 and 3 are the destination candidates that are visually recognized when the destination candidate 32 is viewed at the point A on the road 33 (left lane) corresponding to the recommended route shown in FIG. The images 22 and 23 are imitating the external appearance.

ここで、本実施形態において、前記目視角度は、固定されたものではなく、ユーザの選択によって変更することができるようになっている。すなわち、本実施形態において、操作画面描画部11は、目視角度選択画面描画部31を有しており、この目視角度選択画面描画部31は、目視角度選択手段を構成している。この目視角度選択画面描画部31は、目的地候補描画部21が、推奨経路上から目的地候補を所定の目視角度で目視した場合に視認される目的地候補の外観を模した三次元画像22,23の描画データを生成する際に、前記目視角度をユーザが選択するための目視角度選択画面の描画データを生成し、生成された目視角度選択画面の描画データを表示処理部12に出力するようになっている。表示処理部12は、目視角度選択画面描画部31から出力された描画データを画像に変換してディスプレイ8に出力することによって、図5に示すような目視角度選択画面34をディスプレイ8に表示するようになっている。この目視角度選択画面34は、この目視角度選択画面34に遷移するための操作ボタン(例えば、図2および図3における「角度変更」の文字が記された操作ボタン35,36)の操作がなされた上で表示するようにしてもよい。なお、図5の目視角度選択画面34では、30°、45°(図4における地点Bに相当)および90°(図4における地点Cに相当)の3つの目視角度が選択可能とされている。また、目視角度は、目的地候補ごとに個別に選択することができるようになっている。   Here, in the present embodiment, the viewing angle is not fixed and can be changed by a user's selection. That is, in the present embodiment, the operation screen drawing unit 11 includes a visual angle selection screen drawing unit 31, and the visual angle selection screen drawing unit 31 constitutes a visual angle selection unit. The viewing angle selection screen drawing unit 31 is a three-dimensional image 22 simulating the appearance of a destination candidate that is visually recognized when the destination candidate drawing unit 21 views the destination candidate from the recommended route at a predetermined viewing angle. , 23, the drawing data of the viewing angle selection screen for the user to select the viewing angle is generated, and the generated drawing data of the viewing angle selection screen is output to the display processing unit 12. It is like that. The display processing unit 12 displays the visual angle selection screen 34 as shown in FIG. 5 by converting the drawing data output from the visual angle selection screen drawing unit 31 into an image and outputting it to the display 8. It is like that. The viewing angle selection screen 34 is operated with operation buttons (for example, operation buttons 35 and 36 on which characters “angle change” in FIGS. 2 and 3 are marked) for transitioning to the viewing angle selection screen 34. It may be displayed on the screen. In the viewing angle selection screen 34 of FIG. 5, three viewing angles of 30 °, 45 ° (corresponding to the point B in FIG. 4) and 90 ° (corresponding to the point C in FIG. 4) can be selected. . The viewing angle can be individually selected for each destination candidate.

さらに、本実施形態において、入力操作部5と目的地候補描画部21との間には、目視角度設定部37が接続されており、この目視角度設定部37は、目視角度選択画面描画部31とともに目視角度選択手段を構成している。目視角度選択画面描画部31には、目視角度選択画面34に対してユーザが入力操作部5を用いて選択した選択結果が入力されるようになっている。そして、目視角度設定部37は、入力操作部5から入力された選択結果にしたがった目視角度を設定し、設定された目視角度の情報を、目的地候補描画部21に出力するようになっている。   Furthermore, in this embodiment, a visual angle setting unit 37 is connected between the input operation unit 5 and the destination candidate drawing unit 21, and the visual angle setting unit 37 is a visual angle selection screen drawing unit 31. In addition, a viewing angle selection means is configured. A selection result selected by the user using the input operation unit 5 with respect to the visual angle selection screen 34 is input to the visual angle selection screen drawing unit 31. The visual angle setting unit 37 sets the visual angle according to the selection result input from the input operation unit 5 and outputs information on the set visual angle to the destination candidate drawing unit 21. Yes.

そして、目的地候補描画部21は、目視角度設定部37から出力された目視角度の情報を取得し、取得された目視角度の情報に対応した目的地候補の三次元画像22,23の描画データを生成するようになっている。   Then, the destination candidate drawing unit 21 acquires the viewing angle information output from the viewing angle setting unit 37, and the rendering data of the 3D images 22 and 23 of the destination candidates corresponding to the acquired viewing angle information. Is supposed to generate.

さらに、本実施形態において、表示処理部12は、目的地候補描画部21とともに目的地候補表示手段を構成している。すなわち、表示処理部12は、目的地候補描画部21によって生成された描画データを目的地候補描画部21から取得し、取得された描画データを画像に変換してディスプレイ8に出力することによって、通常表示画像または分散表示画像をディスプレイ8に表示するようになっている。   Further, in the present embodiment, the display processing unit 12 constitutes a destination candidate display unit together with the destination candidate drawing unit 21. That is, the display processing unit 12 acquires the drawing data generated by the destination candidate drawing unit 21 from the destination candidate drawing unit 21, converts the acquired drawing data into an image, and outputs the image to the display 8. A normal display image or a distributed display image is displayed on the display 8.

そして、本実施形態においては、このようにしてディスプレイ8に表示された目的地候補のうちの1つの目的地候補を、ユーザが入力操作部5を用いて選択することが可能とされている。具体的には、図2の通常表示画像における目的地候のリスト24および図3の分散表示画像における目的地候の三次元画像23に、入力操作部5(例えば、タッチパネル)を用いた選択が可能な操作画面の機能を持たせるようにしてもよい。   In this embodiment, the user can select one destination candidate from among the destination candidates displayed on the display 8 in this way using the input operation unit 5. Specifically, selection using the input operation unit 5 (for example, a touch panel) is performed on the list 24 of the target features in the normal display image of FIG. 2 and the three-dimensional image 23 of the target features in the distributed display image of FIG. A possible operation screen function may be provided.

また、本実施形態において、操作画面描画部11は、ユーザが入力操作部5を用いて1つの目的地候補を選択すると、図6に示すように、選択された目的地候補を入力操作部5を用いて目的地として設定するための目的地設定ボタン38の描画データを生成し、生成された描画データを表示処理部12に出力するようになっている。なお、図6(a)に示す通常表示画像および図6(b)に示す分散表示画像においては、ともに、同一の目的地候補(コンビニA)が選択されている。表示処理部12は、操作画面描画部11から出力された目的地設定ボタン38の描画データを画像に変換してディスプレイ8に出力することによって、ディスプレイ8に目的地設定ボタン38を表示するようになっている。   Further, in this embodiment, when the user selects one destination candidate using the input operation unit 5, the operation screen drawing unit 11 selects the selected destination candidate as shown in FIG. Is used to generate drawing data of the destination setting button 38 for setting as a destination, and the generated drawing data is output to the display processing unit 12. In the normal display image shown in FIG. 6A and the distributed display image shown in FIG. 6B, the same destination candidate (convenience store A) is selected. The display processing unit 12 displays the destination setting button 38 on the display 8 by converting the drawing data of the destination setting button 38 output from the operation screen drawing unit 11 into an image and outputting it to the display 8. It has become.

入力操作部5と経路計算部20との間には、目的地設定部40が接続されており、この目的地設定部40には、入力操作部5から、ユーザが選択した目的地候補の情報および目的地設定ボタン38が操作されたことを示す情報が入力されるようになっている。そして、目的地設定部40は、入力操作部5から入力された情報に基づいて、ユーザが選択した1個の目的地候補を目的地として設定し、設定結果を経路計算部20に出力するようになっている。   A destination setting unit 40 is connected between the input operation unit 5 and the route calculation unit 20, and information on destination candidates selected by the user from the input operation unit 5 is connected to the destination setting unit 40. Information indicating that the destination setting button 38 has been operated is input. Then, the destination setting unit 40 sets one destination candidate selected by the user as a destination based on the information input from the input operation unit 5, and outputs the setting result to the route calculation unit 20. It has become.

上記構成に加えて、さらに、バッファ18の出力側には、地図描画部41が接続されている。地図描画部41は、ユーザが、入力操作部5を用いることによってユーザが指定した地点(例えば、自車位置)およびその周辺の地図を表示するための入力操作を行うと、データ読出制御部17に、ユーザが指定した地点およびその周辺の地図データを読み出すための読み出し要求をデータ読出装置3に対して出力させるようになっている。この読み出し要求を受けたデータ読出装置3は、記憶媒体10から、ユーザが指定した地点およびその周辺の地図データを読み出してバッファ18に出力するようになっている。そして、地図描画部41は、バッファ18に出力された地図データを用いることによって地図描画データを生成し、生成された地図描画データを表示処理部12に出力するようになっている。表示処理部12は、地図描画部41から出力された地図描画データを画像に変換してディスプレイ8に出力することによって、ユーザが指定した地点およびその周辺の地図をディスプレイ8に表示するようになっている。   In addition to the above configuration, a map drawing unit 41 is connected to the output side of the buffer 18. When the user performs an input operation for displaying a map designated by the user (for example, the position of the vehicle) and its surroundings by using the input operation unit 5, the map drawing unit 41 performs the data read control unit 17. In addition, the data reading device 3 is made to output a read request for reading the map data around the point designated by the user and the surrounding area. The data reading device 3 that has received this read request reads out the map data at the location specified by the user and the surrounding area from the storage medium 10 and outputs the map data to the buffer 18. The map drawing unit 41 generates map drawing data by using the map data output to the buffer 18, and outputs the generated map drawing data to the display processing unit 12. The display processing unit 12 converts the map drawing data output from the map drawing unit 41 into an image and outputs the image to the display 8, thereby displaying the point specified by the user and the surrounding map on the display 8. ing.

また、自車位置計算部19と表示処理部12との間には、自車位置描画部42が接続されており、この自車位置描画部42には、自車位置計算部19によって算出された自車位置の情報が入力されるようになっている。そして、自車位置描画部42は、入力された自車位置の情報に基づいて、自車位置のマークを表示するための自車位置描画データを生成し、生成された自車位置描画データを表示処理部12に出力するようになっている。表示処理部12は、自車位置描画部42から出力された自車位置描画データを地図描画データと合成した上で画像に変換してディスプレイ8に出力することによって、地図上に自車位置のマークが重畳された画像をディスプレイ8に表示するようになっている。   Further, a vehicle position drawing unit 42 is connected between the vehicle position calculation unit 19 and the display processing unit 12, and the vehicle position drawing unit 42 is calculated by the vehicle position calculation unit 19. The information of the own vehicle position is input. Then, the own vehicle position drawing unit 42 generates own vehicle position drawing data for displaying a mark of the own vehicle position based on the input information of the own vehicle position, and the generated own vehicle position drawing data is displayed. The data is output to the display processing unit 12. The display processing unit 12 synthesizes the vehicle position drawing data output from the vehicle position drawing unit 42 with the map drawing data, converts the data into an image, and outputs the image to the display 8, thereby displaying the vehicle position on the map. An image on which the mark is superimposed is displayed on the display 8.

さらに、経路計算部20と表示処理部12との間には、案内画像描画部43が接続されている。経路計算部20は、目的地設定部40から目的地の設定結果を取得すると、前述した自車位置から目的地候補までの推奨経路のうち、目的地として設定された1つの目的地候補についての推奨経路の情報を、案内画像描画部43に出力するようになっている。そして、案内画像描画部43は、経路計算部20から出力された推奨経路の情報に基づいて、自車両を推奨経路に沿って目的地まで案内するナビゲーションのための案内画像の描画データを生成し、生成された案内画像の描画データを表示処理部12に出力するようになっている。なお、案内画像の描画データとしては、推奨経路を地図上に重畳表示するための推奨経路画像の描画データや、交差点拡大画像の描画データ等を挙げることができる。表示処理部12は、案内画像描画部43から出力された案内画像の描画データを画像に変換してディスプレイ8に出力することによって、案内画像をディスプレイ8に表示するようになっている。   Further, a guide image drawing unit 43 is connected between the route calculation unit 20 and the display processing unit 12. When the route calculation unit 20 obtains the destination setting result from the destination setting unit 40, the route calculation unit 20 determines one destination candidate set as the destination among the above-described recommended routes from the vehicle position to the destination candidate. Information on the recommended route is output to the guide image drawing unit 43. Based on the recommended route information output from the route calculation unit 20, the guide image drawing unit 43 generates drawing data of a guide image for navigation for guiding the host vehicle to the destination along the recommended route. The generated drawing data of the guide image is output to the display processing unit 12. In addition, as drawing data of a guidance image, drawing data of a recommended route image for superimposing and displaying a recommended route on a map, drawing data of an intersection enlarged image, and the like can be given. The display processing unit 12 displays the guide image on the display 8 by converting drawing data of the guide image output from the guide image drawing unit 43 into an image and outputting the image to the display 8.

また、経路計算部20とスピーカ9との間には、音声案内部45が接続されており、この音声案内部45には、経路計算部20から出力された推奨経路の情報が入力されるようになっている。そして、音声案内部45は、入力された推奨経路の情報に基づいて、自車両を推奨経路に沿って目的地まで音声案内するための案内音声データを生成し、生成された案内音声データをスピーカ9に出力するようになっている。なお、案内音声データとしては、交差点右左折案内を行うための音声データ等を挙げることができる。スピーカ9は、音声案内部45から出力された案内音声データを音声に変換して出力することによって、音声案内を行うようになっている。   In addition, a voice guide unit 45 is connected between the route calculation unit 20 and the speaker 9, and the information on the recommended route output from the route calculation unit 20 is input to the voice guide unit 45. It has become. Then, the voice guidance unit 45 generates guidance voice data for voice guidance of the host vehicle to the destination along the recommended route based on the inputted recommended route information, and the generated guidance voice data is displayed on the speaker. 9 is output. In addition, as guidance voice data, the voice data for performing intersection left-right guidance, etc. can be mentioned. The speaker 9 performs voice guidance by converting the guidance voice data output from the voice guidance unit 45 into voice and outputting the voice.

次に、本実施形態の作用として、車載用ナビゲーション装置1に特有の動作について説明する。   Next, operations unique to the vehicle-mounted navigation device 1 will be described as operations of the present embodiment.

なお、便宜上、初期状態において、ディスプレイ8には、操作画面描画部11および表示処理部12によって、検索条件入力画面が表示されているものとする。   For convenience, it is assumed that a search condition input screen is displayed on the display 8 by the operation screen drawing unit 11 and the display processing unit 12 in the initial state.

(通常表示画像を表示する動作)
初期状態から、ユーザが入力操作部5を用いることによって、検索条件入力画面に対して、目的地候補の種別をコンビニエンスストアとする入力操作を行うと、この入力結果が検索条件設定部14に入力される。
(Operation to display normal display image)
From the initial state, when the user performs an input operation with the destination candidate type as a convenience store on the search condition input screen by using the input operation unit 5, the input result is input to the search condition setting unit 14. Is done.

次いで、検索条件設定部14は、入力操作部5から入力された検索条件の入力結果を、目的地候補の検索条件として設定し、設定された目的地候補の検索条件の情報を、目的地候補検索部15に出力する。   Next, the search condition setting unit 14 sets the input result of the search condition input from the input operation unit 5 as a search condition for the destination candidate, and sets the search condition information of the set destination candidate as the destination candidate. Output to the search unit 15.

次いで、目的地候補検索部15は、検索条件設定部14から目的地候補の検索条件の情報が入力されると、データ読出制御部17に、データ読出装置3に対する記憶媒体10内の検索データの読み出し要求を出力させる。   Next, when the destination candidate search unit 15 receives the destination candidate search condition information from the search condition setting unit 14, the destination candidate search unit 15 stores the search data in the storage medium 10 for the data reading device 3 in the data reading control unit 17. Output a read request.

そして、目的地候補検索部15は、当該読み出し要求によって記憶媒体10から読み出された検索データをバッファ18を介して取得し、取得された検索データを用いて、検索条件設定部14によって設定された目的地候補の検索条件を満足するような目的地候補、すなわち、コンビニエンスストアを検索する。   The destination candidate search unit 15 acquires the search data read from the storage medium 10 in response to the read request via the buffer 18, and is set by the search condition setting unit 14 using the acquired search data. Destination candidates that satisfy the search conditions for the destination candidates, that is, convenience stores are searched.

目的地候補検索部15は、検索されたコンビニエンスストアの情報を経路計算部20に出力する。   The destination candidate search unit 15 outputs the searched convenience store information to the route calculation unit 20.

また、このとき、自車位置計算部19は、GPS情報または自律航法センサ7の検出結果に基づいて自車位置を計算し、算出された自車位置の情報を経路計算部20および目的地候補描画部21に出力する。   At this time, the own vehicle position calculation unit 19 calculates the own vehicle position based on the GPS information or the detection result of the autonomous navigation sensor 7, and uses the calculated information on the own vehicle position as the route calculation unit 20 and the destination candidate. Output to the drawing unit 21.

次いで、経路計算部20は、入力された自車位置の情報およびコンビニエンスストアの情報に基づいて、自車位置からコンビニエンスストアの位置までの推奨経路を道路ネットワークデータを用いて計算し、算出された推奨経路の情報を目的地候補描画部21に出力する。   Next, the route calculation unit 20 calculates a recommended route from the vehicle location to the convenience store location using the road network data based on the input vehicle location information and convenience store information. The recommended route information is output to the destination candidate drawing unit 21.

次いで、目的地候補描画部21は、目的地候補検索部15側から入力されたコンビニエンスストアの情報および経路計算部20側から入力された推奨経路の情報に基づいて、データ読出制御部19に、コンビニエンスストアおよびこのコンビニエンスストアまでの推奨経路に対応した地図データならびに検索データを記憶媒体10から読み出すための読み出し要求を、データ読出装置3に対して出力させる。この読み出し要求によって記憶媒体10から読み出された地図データおよび検索データは、バッファ18を経た後に目的地候補描画部21によって取得される。   Next, the destination candidate drawing unit 21 sends data to the data read control unit 19 based on convenience store information input from the destination candidate search unit 15 side and recommended route information input from the route calculation unit 20 side. The data reading device 3 is caused to output a read request for reading the convenience store and the map data corresponding to the recommended route to the convenience store and the search data from the storage medium 10. The map data and search data read from the storage medium 10 by this read request are acquired by the destination candidate drawing unit 21 after passing through the buffer 18.

そして、目的地候補描画部21は、取得された地図データおよび検索データを用いることによって、デフォルトとして、推奨経路上からのコンビニエンスストアの目視角度が30°とされた前述した通常表示画像を表示するための描画データを生成し、生成された描画データを表示処理部12に出力する。なお、この描画データは、通常表示画像におけるコンビニエンスストアのリスト24を、操作画面としての機能を持たせた状態として表示するための描画データとされている。   And the destination candidate drawing part 21 displays the normal display image mentioned above by which the viewing angle of the convenience store from the recommended route was 30 degrees as a default by using the acquired map data and search data. Drawing data is generated, and the generated drawing data is output to the display processing unit 12. Note that this drawing data is drawing data for displaying the convenience store list 24 in the normal display image as having a function as an operation screen.

また、このとき、操作画面描画部11の画像選択ボタン描画部28は、通常表示選択ボタン29と分散表示選択ボタン30との2つの画像選択ボタン29,30の描画データを生成し、生成された描画データを表示処理部12に出力する。   At this time, the image selection button drawing unit 28 of the operation screen drawing unit 11 generates drawing data of the two image selection buttons 29 and 30, that is, the normal display selection button 29 and the distributed display selection button 30. The drawing data is output to the display processing unit 12.

さらに、このとき、操作画面描画部11は、コンビニエンスストアの目視角度の変更を指示するための操作ボタン35の描画データを生成し、生成された描画データを表示処理部12に出力する。   Further, at this time, the operation screen drawing unit 11 generates drawing data of the operation button 35 for instructing to change the viewing angle of the convenience store, and outputs the generated drawing data to the display processing unit 12.

次いで、表示処理部12は、目的地候補描画部21および操作画面描画部11(画像選択ボタン描画部28)からそれぞれ出力された各描画データを画像に変換してディスプレイ8に出力することによって、ディスプレイ8に、図2に示すような通常表示画像を表示する。   Next, the display processing unit 12 converts each drawing data output from the destination candidate drawing unit 21 and the operation screen drawing unit 11 (image selection button drawing unit 28) into an image and outputs the image to the display 8, thereby A normal display image as shown in FIG. 2 is displayed on the display 8.

この通常表示画像は、6個のコンビニエンスストア(コンビニA〜コンビニF)のリスト24が、各コンビニエンスストアの三次元画像22とは別個の位置にひとまとめに表示されたものとなっている。なお、リスト24および三次元画像22における互いに対応する項目には、対応関係が分かるように同じ数字が付されている。各コンビニエンスストア24のリスト24は、ユーザが入力操作部5を操作することによって選択可能とされている。   In this normal display image, a list 24 of six convenience stores (convenience store A to convenience store F) is collectively displayed at a position different from the three-dimensional image 22 of each convenience store. The items corresponding to each other in the list 24 and the three-dimensional image 22 are given the same numbers so that the correspondence relationship can be understood. The list 24 of each convenience store 24 can be selected by the user operating the input operation unit 5.

また、この通常表示画像は、コンビニエンスストアの三次元画像22が、鳥瞰図的に表示された自車位置マーク26および背景(図2における山)とともに表示されたものとなっており、自車位置に対する各コンビニエンスストアの方角が判別可能となっている。例えば、自車位置に対して、北の方角にあるコンビニエンスストアの三次元画像22は、自車位置マーク26に対して画面の上方に表示されており、また、自車位置に対して南の方角にある目的地候のコンビニエンスストアの三次元画像22は、自車位置マーク26に対して画面の下方に表示されている。   This normal display image is a convenience store three-dimensional image 22 displayed with a vehicle position mark 26 displayed in a bird's eye view and a background (mountain in FIG. 2). The direction of each convenience store can be identified. For example, the 3D image 22 of the convenience store in the north direction with respect to the vehicle position is displayed on the upper side of the screen with respect to the vehicle position mark 26, and also in the south direction with respect to the vehicle position. A three-dimensional image 22 of a convenience store at a destination is displayed below the screen with respect to the vehicle position mark 26.

また、この通常表示画像は、自車位置からの距離が近いコンビニエンスストアほど、三次元画像22が大きく表示されたものとなっている。   In the normal display image, the 3D image 22 is displayed larger as the convenience store is closer to the vehicle position.

さらに、通常表示画像におけるコンビニエンスストアのリスト24は、コンビニエンスストアの名称を、自車位置からの距離および方角(東西南北を示す矢印および「左側」、「2回曲がる」等の文字)とともに示したものとなっている。   Furthermore, the convenience store list 24 in the normal display image shows the name of the convenience store together with the distance from the vehicle position and the direction (arrows indicating east, west, south, and north, and characters such as “left side” and “turn twice”). It has become a thing.

さらにまた、各コンビニエンスストアの三次元画像22は、コンビニエンスストアを推奨経路上から30°の目視角度で目視した場合に視認されるコンビニエンスストアの外観を模した画像となっている。   Furthermore, the three-dimensional image 22 of each convenience store is an image simulating the appearance of the convenience store visually recognized when viewing the convenience store at a viewing angle of 30 ° from the recommended route.

また、ディスプレイ8には、通常表示画像とともに、通常表示選択ボタン29および分散表示選択ボタン30が表示されている。   The display 8 displays a normal display selection button 29 and a distributed display selection button 30 together with the normal display image.

さらに、通常表示画像におけるコンビニエンスストアのリスト24上には、目視角度の変更を指示するための操作ボタン35が表示されている。   Further, an operation button 35 for instructing a change in the viewing angle is displayed on the convenience store list 24 in the normal display image.

なお、図2には、操作画面描画部11および表示処理部12により、通常表示画像をスクロール(移動表示)可能とされたスクロールボタン46が表示されており、このスクロールボタン46は、入力操作部5を用いて操作可能とされている。目的地候補描画部21および表示処理部12は、目的地候補検索部15によって探索されたコンビニエンスストアが所定数(例えば6個)を超える場合には、まず、所定数分のコンビニエンスストアのリスト24および三次元画像22を表示し、残余のコンビニエンスストアのリスト24および三次元画像22については、スクロールボタン46が操作されるのを検知した上で表示する。   In FIG. 2, a scroll button 46 capable of scrolling (moving display) the normal display image is displayed by the operation screen drawing unit 11 and the display processing unit 12. The scroll button 46 is displayed on the input operation unit. 5 can be operated. When the number of convenience stores searched by the destination candidate search unit 15 exceeds a predetermined number (for example, six), the destination candidate drawing unit 21 and the display processing unit 12 first list 24 of the predetermined number of convenience stores. The three-dimensional image 22 is displayed, and the remaining convenience store list 24 and the three-dimensional image 22 are displayed after detecting that the scroll button 46 is operated.

ところで、図7に示すように、目視角度が30°では建物等の障害物によって目的地候補であるコンビニエンスストアの外観を把握することができない場合には、ユーザは、次のようにして目視角度を変更することによって、コンビニエンスストアの外観を把握するために好適な三次元画像を表示させることができる。   By the way, as shown in FIG. 7, when the visual angle is 30 ° and the appearance of a convenience store that is a destination candidate cannot be grasped by an obstacle such as a building, the user can check the visual angle as follows. By changing, a three-dimensional image suitable for grasping the appearance of a convenience store can be displayed.

すなわち、まず、ユーザが、入力操作部5を用いて任意のコンビニエンスストアのリスト24についての目視角度の変更を指示する操作ボタン35を操作すると、操作画面描画部11の目視角度選択画面描画部31は、目視角度選択画面34の描画データを生成し、生成された目視角度選択画面34の描画データを表示処理部12に出力する。そして、表示処理部12は、目視角度選択画面描画部31から出力された描画データを画像に変換してディスプレイ8に出力することによって、図5に示すような目視角度選択画面34をディスプレイ8に表示する。   That is, first, when the user operates the operation button 35 for instructing the change of the viewing angle for the list 24 of any convenience store using the input operation unit 5, the viewing angle selection screen drawing unit 31 of the operation screen drawing unit 11. Generates the drawing data of the viewing angle selection screen 34 and outputs the generated drawing data of the viewing angle selection screen 34 to the display processing unit 12. Then, the display processing unit 12 converts the drawing data output from the viewing angle selection screen drawing unit 31 into an image and outputs the image to the display 8, whereby a viewing angle selection screen 34 as shown in FIG. 5 is displayed on the display 8. indicate.

次いで、目視角度選択画面34において、ユーザが、入力操作部5を用いて目視角度45°を選択した場合には、目的地候補描画部21は、操作ボタン35が操作されたコンビニエンスストアを推奨経路上から45°の目視角度で目視した場合に視認される当該コンビニエンスストアの外観を模した画像の描画データを生成し、生成された描画データを表示処理部12に出力する。そして、表示処理部12は、目的地候補描画部21から出力された描画データを画像に変換してディスプレイ8に出力することによって、図4における地点Bから引き出された画像に示すように、目視角度が45°とされたコンビニエンスストアの三次元画像22をディスプレイ8に表示する。   Next, when the user selects a viewing angle of 45 ° using the input operation unit 5 on the viewing angle selection screen 34, the destination candidate drawing unit 21 recommends a convenience store in which the operation button 35 is operated as a recommended route. Drawing data of an image imitating the appearance of the convenience store visually recognized when viewed at a viewing angle of 45 ° from above is generated, and the generated drawing data is output to the display processing unit 12. Then, the display processing unit 12 converts the drawing data output from the destination candidate drawing unit 21 into an image and outputs the image to the display 8, so that the visual processing is performed as shown in the image drawn from the point B in FIG. 4. A convenience store three-dimensional image 22 having an angle of 45 ° is displayed on the display 8.

(分散表示画像を表示する動作)
前述のように、ディスプレイ8に、デフォルトとして通常表示画像が表示された後に、ユーザが、入力操作部5を用いて分散表示選択ボタン30を操作すると、目的地候補描画部21は、分散表示画像を表示するための描画データを生成し、生成された描画データを表示処理部12に出力する。なお、この描画データは、分散表示画像におけるコンビニエンスストアの三次元画像23を、操作画面としての機能を持たせた状態として表示するための描画データとされている。
(Operation to display distributed display image)
As described above, when the user operates the distributed display selection button 30 using the input operation unit 5 after the normal display image is displayed on the display 8 as a default, the destination candidate drawing unit 21 displays the distributed display image. Is generated, and the generated drawing data is output to the display processing unit 12. The drawing data is drawing data for displaying a convenience store three-dimensional image 23 in a distributed display image as a state having a function as an operation screen.

また、このとき、操作画面描画部11は、コンビニエンスストアの目視角度の変更を指示するための操作ボタン36の描画データを生成し、生成された描画データを表示処理部12に出力する。   At this time, the operation screen drawing unit 11 generates drawing data of the operation button 36 for instructing to change the viewing angle of the convenience store, and outputs the generated drawing data to the display processing unit 12.

次いで、表示処理部12は、目的地候補描画部21および操作画面描画部11
からそれぞれ出力された各描画データを画像に変換してディスプレイ8に出力することによって、ディスプレイ8に、図3に示すような分散表示画像を表示する。
Next, the display processing unit 12 includes a destination candidate drawing unit 21 and an operation screen drawing unit 11.
3 is converted into an image and output to the display 8, thereby displaying a distributed display image as shown in FIG. 3 on the display 8.

この分散表示画像は、6個のコンビニエンスストア(コンビニA〜コンビニF)のリスト25が、対応するコンビニエンスストアの三次元画像23と組み合わされるようにして三次元画像23ごとに分散して表示されたものとなっている。各コンビニエンスストアの三次元画像23は、ユーザが入力操作部5を用いることによって選択可能とされている。   This distributed display image is displayed in a distributed manner for each three-dimensional image 23 so that a list 25 of six convenience stores (convenience store A to convenience store F) is combined with the corresponding three-dimensional image 23 of the convenience store. It has become a thing. The user can select the three-dimensional image 23 of each convenience store by using the input operation unit 5.

また、分散表示画像は、通常表示画像と同様に、コンビニエンスストアの三次元画像23が、自車位置マーク26および背景(図3における山)とともに表示されたものとなっており、自車位置に対する各コンビニエンスストアの方角が判別可能となっている。   In the distributed display image, as in the normal display image, the convenience store three-dimensional image 23 is displayed together with the vehicle position mark 26 and the background (the mountain in FIG. 3). The direction of each convenience store can be identified.

また、この分散表示画像は、自車位置からの距離が近いコンビニエンスストアほど、三次元画像23が大きく表示されたものとなっている。   Further, in this distributed display image, the 3D image 23 is displayed larger as the convenience store is closer to the vehicle position.

さらに、各コンビニエンスストアの三次元画像23は、コンビニエンスストアを推奨経路上から30°の目視角度で目視した場合に視認されるコンビニエンスストアの外観を模した画像となっている。   Furthermore, the three-dimensional image 23 of each convenience store is an image simulating the appearance of the convenience store visually recognized when the convenience store is viewed at a viewing angle of 30 ° from the recommended route.

また、ディスプレイ8には、通常表示選択ボタン29、分散表示選択ボタン30およびスクロールボタン46が継続して表示されている。   Further, the normal display selection button 29, the distributed display selection button 30, and the scroll button 46 are continuously displayed on the display 8.

さらに、コンビニエンスストアの三次元画像23上には、目視角度の変更を指示するための操作ボタン36が表示されている。なお、この操作ボタン36をユーザが入力操作部5を用いて操作すると、目視角度選択画面描画部31および表示処理部12によって、ディスプレイ8に目視角度選択画面34が表示されることになる。そして、目視角度選択画面34において、ユーザが、入力操作部5を用いて目視角度45°を選択した場合には、操作ボタン36が操作されたコンビニエンスストアを推奨経路上から45°の目視角度で目視した場合に視認される当該コンビニエンスストアの外観を模した三次元画像23が、目的地候補描画部21および表示処理部12によってディスプレイ8に表示されることになる。なお、このとき表示される画像は、図4における地点Bから引き出された画像23に、リスト25が組み合わされた画像23となる。   Furthermore, an operation button 36 for instructing a change in the viewing angle is displayed on the 3D image 23 of the convenience store. When the user operates the operation button 36 using the input operation unit 5, the visual angle selection screen 34 is displayed on the display 8 by the visual angle selection screen drawing unit 31 and the display processing unit 12. When the user selects a viewing angle of 45 ° using the input operation unit 5 on the viewing angle selection screen 34, the convenience store in which the operation button 36 is operated is viewed at a viewing angle of 45 ° from the recommended route. A three-dimensional image 23 simulating the appearance of the convenience store visually recognized when visually observed is displayed on the display 8 by the destination candidate drawing unit 21 and the display processing unit 12. The image displayed at this time is an image 23 in which the list 25 is combined with the image 23 extracted from the point B in FIG.

(目的地の設定からルート案内に至る動作)
前述した通常表示画像において、ユーザが入力操作部5を用いてリスト24からコンビニAを選択した場合、または、前述した分散表示画像において、ユーザが入力操作部5を用いてコンビニAの三次元画像23を選択した場合には、操作画面描画部11が、コンビニAを目的地として設定するための目的地設定ボタン38の描画データを生成し、生成された描画データを表示処理部12に出力する。
(Operation from destination setting to route guidance)
In the above-described normal display image, when the user selects the convenience store A from the list 24 using the input operation unit 5, or in the above-described distributed display image, the user uses the input operation unit 5 to display the three-dimensional image of the convenience store A When 23 is selected, the operation screen drawing unit 11 generates drawing data of the destination setting button 38 for setting the convenience store A as the destination, and outputs the generated drawing data to the display processing unit 12. .

次いで、表示処理部12は、操作画面描画部11から出力された目的地設定ボタン38の描画データを画像に変換してディスプレイ8に出力することによって、ディスプレイ8に目的地設定ボタン38を表示する。   Next, the display processing unit 12 displays the destination setting button 38 on the display 8 by converting the drawing data of the destination setting button 38 output from the operation screen drawing unit 11 into an image and outputting it to the display 8. .

そして、この目的地設定ボタン38をユーザが入力操作部5を用いて操作すると、目的地設定部40は、コンビニAを目的地として設定し、設定結果を経路計算部20に出力する。   When the user operates the destination setting button 38 using the input operation unit 5, the destination setting unit 40 sets the convenience store A as the destination and outputs the setting result to the route calculation unit 20.

次いで、経路計算部20は、目的地設定部40から出力された設定結果を取得すると、自車位置からコンビニAまでの推奨経路の情報を案内画像描画部43および音声案内部45に出力する。   Next, when the route calculation unit 20 acquires the setting result output from the destination setting unit 40, the route calculation unit 20 outputs information on a recommended route from the vehicle position to the convenience store A to the guidance image drawing unit 43 and the voice guidance unit 45.

そして、案内画像描画部43は、経路計算部20から出力された推奨経路の情報に基づいて、自車両を推奨経路に沿ってコンビニAまで案内するための案内画像の描画データを生成し、生成された案内画像の描画データを表示処理部12に出力する。そして、表示処理部12は、案内画像描画部43から出力された案内画像の描画データを画像に変換してディスプレイ8に出力することによって、案内画像をディスプレイ8に表示する。これにより、自車位置からコンビニAまでの画像によるルート案内が行われる。   The guide image drawing unit 43 generates guide image drawing data for guiding the vehicle to the convenience store A along the recommended route based on the recommended route information output from the route calculation unit 20. The rendered guidance image drawing data is output to the display processing unit 12. Then, the display processing unit 12 displays the guide image on the display 8 by converting the drawing data of the guide image output from the guide image drawing unit 43 into an image and outputting it to the display 8. Thereby, route guidance by the image from the own vehicle position to the convenience store A is performed.

また、音声案内部45は、経路計算部20から出力された推奨経路の情報に基づいて、自車両を推奨経路に沿ってコンビニAまで音声案内するための案内音声データを生成し、生成された案内音声データをスピーカ9に出力する。そして、スピーカ9は、音声案内部45から出力された案内音声データを音声に変換して出力する。これにより、自車位置からコンビニAまでの音声によるルート案内が行われる。   Also, the voice guidance unit 45 generates guidance voice data for voice guidance of the host vehicle to the convenience store A along the recommended route based on the recommended route information output from the route calculation unit 20. The guidance voice data is output to the speaker 9. The speaker 9 converts the guidance voice data output from the voice guidance unit 45 into voice and outputs the voice. Thereby, route guidance by voice from the vehicle position to the convenience store A is performed.

以上述べたように、本実施形態によれば、目的地候補描画部21および表示処理部12により、目的地候補検索部15によって検索された目的地候補のリスト24,25とともに、目的地候補の三次元画像22,23をディスプレイ8に表示部に表示することができる。   As described above, according to the present embodiment, the destination candidate drawing unit 21 and the display processing unit 12 together with the destination candidate lists 24 and 25 searched by the destination candidate searching unit 15, The three-dimensional images 22 and 23 can be displayed on the display unit on the display 8.

この結果、ユーザが、目的地候補の外観を把握することによって、所望の目的地を簡便かつ確実に設定することができる。また、目的地候補の三次元画像を、自車位置に対する目的地候補の方角を判別可能な状態として表示することができる結果、ユーザが、自車位置に対する目的地候補の方角を基準として、訪れることを希望する目的地を簡便かつ確実に選択することができる。さらに、ユーザが、実際に目的地に赴く前に、目的地の外観を予め把握することができるので、ルート案内を受けながら自車両を目的地の近辺まで進行させた際に、目的地を容易に確認することができる。   As a result, the user can easily and reliably set a desired destination by grasping the appearance of the destination candidate. Further, as a result of displaying the three-dimensional image of the destination candidate in a state in which the direction of the destination candidate with respect to the vehicle position can be discriminated, the user visits based on the direction of the destination candidate with respect to the vehicle position. It is possible to easily and reliably select a destination that the user desires. Furthermore, since the user can grasp in advance the appearance of the destination before actually going to the destination, it is easy to make the destination when the host vehicle is advanced to the vicinity of the destination while receiving route guidance. Can be confirmed.

なお、本発明は、前述した実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。   In addition, this invention is not limited to embodiment mentioned above, A various change is possible as needed.

例えば、目的地候補描画部21および表示処理部12によって表示される三次元画像は、車載カメラ等によって目的地候補を含む実世界を道路上から実際に撮影した実写画像であってもよい。この場合には、記憶媒体10内に、施設等の地点の実写画像のデータを記憶させておき、目的地候補検索部15によって目的地候補が検索された際に、その目的地候補に対応する地点の実写画像が記憶媒体10から読み出されるようにすればよい。そのためには、地点の実写画像のデータを、検索データ中の施設やPOIと対応関係を有するように、地点の位置を示す情報とともに記憶媒体10に記憶させておくことが望ましい。地点の位置を示す情報としては、地点を車載カメラで撮影した際の車両の位置の情報を用いることができる。また、前述した目的地候補の目視角度の選択に対応するためには、1つの地点につき、その地点を複数の角度から撮影した複数個の実写画像のデータを、その撮影角度の情報とともに記憶させておけばよい。なお、地点の実写画像のデータは、自車両の車載カメラによって撮影されたものであってもよいし、または、車々間通信や年次更新等によって取得されたものであってもよい。   For example, the three-dimensional image displayed by the destination candidate drawing unit 21 and the display processing unit 12 may be a real image obtained by actually photographing the real world including the destination candidate from the road with an in-vehicle camera or the like. In this case, data of actual images of points such as facilities is stored in the storage medium 10, and when a destination candidate is searched by the destination candidate search unit 15, it corresponds to the destination candidate. What is necessary is just to make it read from the storage medium 10 the real image of a point. For this purpose, it is desirable to store the actual image data of the point in the storage medium 10 together with the information indicating the position of the point so as to have a corresponding relationship with the facility or POI in the search data. As the information indicating the position of the point, information on the position of the vehicle when the point is photographed with the in-vehicle camera can be used. Further, in order to cope with the selection of the viewing angle of the destination candidate described above, for each point, data of a plurality of actual images obtained by photographing the point from a plurality of angles are stored together with information on the photographing angle. Just keep it. In addition, the data of the actual image of the spot may be taken by an in-vehicle camera of the own vehicle, or may be obtained by inter-vehicle communication or annual update.

このように、地点の実写画像のデータを、目的地候補検索部15の検索結果やユーザによる目視角度の選択結果に応じて読み出し可能な状態として記憶媒体10内に記憶させておけば、目的地候補描画部21が、記憶媒体10から読み出された実写画像のデータを目的地候補のリストと合成した描画データを生成し、生成された描画データを表示処理部12によってディスプレイ8に表示することによって、目的地候補を含む実写画像を表示することができる。この場合、ユーザは、過去に目視して記憶した地点の外観そのものをディスプレイ8上で見ることができるため、目的地候補がユーザが過去に訪れた地点であるか否かをさらに確実に判定することができ、その目的地候補を目的地として確実に設定することができる。   As described above, if the data of the actual image of the point is stored in the storage medium 10 as a readable state according to the search result of the destination candidate search unit 15 or the selection result of the viewing angle by the user, The candidate drawing unit 21 generates drawing data obtained by combining the real image data read from the storage medium 10 with a list of destination candidates, and the generated drawing data is displayed on the display 8 by the display processing unit 12. Thus, a live-action image including a destination candidate can be displayed. In this case, since the user can see on the display 8 the appearance of the point visually observed and stored in the past, it is more reliably determined whether the destination candidate is the point where the user has visited in the past. And the destination candidate can be reliably set as the destination.

また、前述した実施形態においては、通常表示画像における目的地候補のリスト24または分散表示画像における三次元画像23をユーザが選択した場合には、目的地設定ボタン38を表示するようになっていたが、本発明は、このような構成に限定されるものではなく、例えば、目的地設定ボタン38に加えて、選択された目的地候補の詳細情報(目的地候補の周辺地図等)を表示するようにしてもよい。   In the above-described embodiment, when the user selects the destination candidate list 24 in the normal display image or the three-dimensional image 23 in the distributed display image, the destination setting button 38 is displayed. However, the present invention is not limited to such a configuration. For example, in addition to the destination setting button 38, the detailed information of the selected destination candidate (such as a map around the destination candidate) is displayed. You may do it.

さらに、通常表示画像または分散表示画像の表示の際に、目的地候補が存在しない方角については、画面上に背景を表示しないようにしてもよい。例えば、目的地候補検索部15によって探索された目的地候補が自車両の西側にしか存在しない場合には、図8に示すように、自車位置マーク26を右端に表示し、自車位置マーク26の右側(東側)の背景は、表示しないようにしてもよい。このようにすれば、ディスプレイ8の画面を有効に利用して個々の目的地候補の三次元画像22,23を大きく見やすく表示することができる。   Furthermore, when displaying a normal display image or a distributed display image, a background may not be displayed on the screen for directions where there is no destination candidate. For example, when the destination candidate searched by the destination candidate search unit 15 exists only on the west side of the host vehicle, the host vehicle position mark 26 is displayed at the right end as shown in FIG. The right side (east side) background of 26 may not be displayed. In this way, the three-dimensional images 22 and 23 of the individual destination candidates can be displayed in a large and easily viewable manner by effectively using the screen of the display 8.

また、リスト24,25上に、自車位置からすべての目的地候補までの距離を表示する替わりに、ユーザが入力操作部5を用いて選択した目的地候補についてのみ、自車位置からの距離を表示するようにしてもよい。   Further, instead of displaying the distances from the own vehicle position to all the destination candidates on the lists 24 and 25, only the destination candidates selected by the user using the input operation unit 5 are the distances from the own vehicle position. May be displayed.

さらに、図9に示すように、ユーザが入力操作部5を用いて選択した目的地候補(図9におけるコンビニC)については、リスト25上に表示されている距離(2km)よりも更に正確な距離(2.3km)を、当該目的地候補までの推奨経路の強調表示画像とともにディスプレイ8に表示するようにしてもよい。   Furthermore, as shown in FIG. 9, the destination candidate (convenience store C in FIG. 9) selected by the user using the input operation unit 5 is more accurate than the distance (2 km) displayed on the list 25. The distance (2.3 km) may be displayed on the display 8 together with the highlighted display image of the recommended route to the destination candidate.

さらにまた、自車位置マーク26および背景は、図2および図3等に示したように鳥瞰図的に表示することに限る必要はなく、例えば、図10に示すように二次元表示するようにしてもよい。   Furthermore, the vehicle position mark 26 and the background need not be limited to a bird's eye view as shown in FIGS. 2 and 3, etc., for example, as shown in FIG. Also good.

また、目的地候補検索部15によって検索された目的地候補の数が多い場合には、一部の目的地候補のリストおよび三次元画像のみを表示し、残余の目的地候補のリストおよび三次元画像については、スクロールボタン46の操作にともなって表示してもよいことは前述したが、その際に、ユーザが指定した目的地候補については、スクロールの動作に影響されずに表示され続けるように構成してもよい。   When the number of destination candidates searched by the destination candidate search unit 15 is large, only a list of some destination candidates and a 3D image are displayed, and a list of remaining destination candidates and a 3D list are displayed. As described above, the image may be displayed in accordance with the operation of the scroll button 46. At this time, the destination candidate specified by the user is continuously displayed without being affected by the scrolling operation. It may be configured.

さらに、前述した操作画面の機能を持たせた状態として表示された通常表示画像におけるリスト24および分散表示画像における三次元画像23がユーザによって選択された場合に、目的地設定ボタン38を表示することなく、選択された目的地候補が即時に目的地として設定されるように構成してもよい。   Further, when the list 24 in the normal display image and the three-dimensional image 23 in the distributed display image displayed as having the above-described operation screen functions are selected by the user, the destination setting button 38 is displayed. Instead, the selected destination candidate may be set as the destination immediately.

本発明に係る車載用ナビゲーション装置の実施形態を示すブロック図The block diagram which shows embodiment of the vehicle-mounted navigation apparatus which concerns on this invention 本発明に係る車載用ナビゲーション装置の実施形態において、通常表示画像の表示状態を示す図The figure which shows the display state of a normal display image in embodiment of the vehicle-mounted navigation apparatus which concerns on this invention. 本発明に係る車載用ナビゲーション装置の実施形態において、分散表示画像の表示状態を示す図The figure which shows the display state of a distributed display image in embodiment of the vehicle-mounted navigation apparatus which concerns on this invention. 本発明に係る車載用ナビゲーション装置の実施形態において、道路上からの目的地候補の目視角度およびそれに対応する三次元画像を示す説明図Explanatory drawing which shows the viewing angle of the destination candidate from the road, and the three-dimensional image corresponding to it in embodiment of the vehicle-mounted navigation apparatus concerning this invention 本発明に係る車載用ナビゲーション装置の実施形態において、目視角度選択画面を示す図The figure which shows a visual angle selection screen in embodiment of the vehicle-mounted navigation apparatus which concerns on this invention. 本発明に係る車載用ナビゲーション装置の実施形態において、目的地設定ボタンの表示状態を示す図The figure which shows the display state of the destination setting button in embodiment of the vehicle-mounted navigation apparatus which concerns on this invention. 目的地候補の外観を把握できない三次元画像の一例を示す図A figure showing an example of a 3D image where the appearance of the destination candidate cannot be grasped 本発明に係る車載用ナビゲーション装置の実施形態において、自車の西側のみに目的地候補が存在する場合における目的地候補の三次元画像の表示例を示す図The figure which shows the example of a display of the three-dimensional image of the destination candidate in embodiment of the vehicle-mounted navigation apparatus which concerns on this invention when the destination candidate exists only in the west side of the own vehicle. 本発明に係る車載用ナビゲーション装置の実施形態において、分散表示画像とともにユーザによって選択された目的地候補までの詳細な距離を表示した画面を示す図The figure which shows the screen which displayed the detailed distance to the destination candidate selected by the user with the dispersion | distribution display image in embodiment of the vehicle-mounted navigation apparatus which concerns on this invention. 本発明に係る車載用ナビゲーション装置の実施形態において、自車位置マークおよび背景の二次元表示状態を示す図The figure which shows the two-dimensional display state of the own vehicle position mark and a background in embodiment of the vehicle-mounted navigation apparatus which concerns on this invention. 従来の車載用ナビゲーション装置における目的地候補の表示例を示す図The figure which shows the example of a display of the destination candidate in the conventional vehicle-mounted navigation apparatus.

符号の説明Explanation of symbols

1 車載用ナビゲーション装置
8 ディスプレイ
12 表示処理部
15 目的地候補検索部
21 目的地候補描画部
DESCRIPTION OF SYMBOLS 1 Car navigation apparatus 8 Display 12 Display processing part 15 Destination candidate search part 21 Destination candidate drawing part

Claims (7)

ユーザが指定した条件を満足する目的地の候補を検索する目的地候補検索手段と、
この目的地候補検索手段によって検索された目的地の候補のリストとともに、当該目的地の候補の三次元画像を、自車位置に対する当該目的地の候補の方角を判別可能な状態として表示部に表示する目的地候補表示手段と
を備えたことを特徴とする車載用ナビゲーション装置。
A destination candidate search means for searching for a destination candidate that satisfies the conditions specified by the user;
Along with the list of destination candidates searched by the destination candidate search means, a three-dimensional image of the destination candidates is displayed on the display unit in a state where the direction of the destination candidates with respect to the vehicle position can be discriminated. And a destination candidate display means for carrying the vehicle.
前記自車位置から前記目的地候補検索手段によって検索された目的地の候補までの経路を探索する経路探索手段を備え、
前記目的地候補表示手段が、前記目的地の候補の三次元画像として、前記経路探索手段によって探索された経路上から前記目的地の候補を目視した場合に視認される前記目的地の候補の外観を示す画像を表示するように形成されていること
を特徴とする請求項1に記載の車載用ナビゲーション装置。
Route search means for searching for a route from the vehicle position to the destination candidate searched by the destination candidate search means,
Appearance of the destination candidate visually recognized when the destination candidate display means views the destination candidate from the route searched by the route search means as a three-dimensional image of the destination candidate. The vehicle-mounted navigation device according to claim 1, wherein the vehicle-mounted navigation device is configured to display an image indicating
前記目的地候補表示手段が、前記目的地の候補の三次元画像として、前記経路上から前記目的地の候補を所定の目視角度で目視した場合に視認される前記目的地の候補の外観を示す画像を表示するように形成されており、
前記目視角度をユーザが選択するための目視角度選択手段を備えたこと
を特徴とする請求項2に記載の車載用ナビゲーション装置。
The destination candidate display means shows, as a three-dimensional image of the destination candidate, the appearance of the destination candidate visually recognized when the destination candidate is viewed from a predetermined viewing angle on the route. Is configured to display an image,
The in-vehicle navigation device according to claim 2, further comprising: a viewing angle selection unit for the user to select the viewing angle.
前記目的地候補表示手段が、前記自車位置からの距離が近い目的地の候補ほど、前記目的地の候補の三次元画像を大きく表示するように形成されていること
を特徴とする請求項1乃至請求項3のいずれか1項に記載の車載用ナビゲーション装置。
The destination candidate display means is formed so as to display a larger three-dimensional image of the destination candidate as the destination candidate is closer to the vehicle position. The vehicle-mounted navigation device according to any one of claims 3 to 3.
前記目的地候補表示手段が、前記目的地の候補のリストとして、対応する目的地の候補の三次元画像と組み合わされるようにして前記目的地の候補の三次元画像ごとに分散されたリストを表示するように形成されていること
を特徴とする請求項1乃至請求項4のいずれか1項に記載の車載用ナビゲーション装置。
The destination candidate display means displays, as the list of destination candidates, a list distributed for each three-dimensional image of the destination candidates so as to be combined with the corresponding destination candidate three-dimensional image The in-vehicle navigation device according to any one of claims 1 to 4, wherein the in-vehicle navigation device is formed.
前記目的地の候補が施設とされ、
前記目的地候補表示手段が、前記施設の三次元画像とともに前記施設の周辺の三次元画像を表示するように形成されていること
を特徴とする請求項1乃至請求項5のいずれか1項に記載の車載用ナビゲーション装置。
The destination candidate is a facility,
The said destination candidate display means is formed so that the three-dimensional image of the circumference | surroundings of the said facility may be displayed with the three-dimensional image of the said facility. Any one of Claim 1 thru | or 5 characterized by the above-mentioned. The in-vehicle navigation device described.
前記目的地候補表示手段が、前記三次元画像として、前記目的地の候補を含む実写画像を表示するように形成されていること
を特徴とする請求項1乃至請求項6のいずれか1項に記載の車載用ナビゲーション装置。
The destination candidate display means is formed so as to display a live-action image including the destination candidate as the three-dimensional image. The in-vehicle navigation device described.
JP2006140153A 2006-05-19 2006-05-19 On-board navigation device Withdrawn JP2007309823A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006140153A JP2007309823A (en) 2006-05-19 2006-05-19 On-board navigation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006140153A JP2007309823A (en) 2006-05-19 2006-05-19 On-board navigation device

Publications (1)

Publication Number Publication Date
JP2007309823A true JP2007309823A (en) 2007-11-29

Family

ID=38842805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006140153A Withdrawn JP2007309823A (en) 2006-05-19 2006-05-19 On-board navigation device

Country Status (1)

Country Link
JP (1) JP2007309823A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010217229A (en) * 2009-03-13 2010-09-30 Hitachi Ltd Method and device for displaying map information
JPWO2009084135A1 (en) * 2007-12-28 2011-05-12 三菱電機株式会社 Navigation device
KR101054770B1 (en) 2007-12-13 2011-08-05 현대자동차주식회사 Path search method and apparatus in navigation system
JP2013061351A (en) * 2012-12-03 2013-04-04 Yupiteru Corp Position trace data processing device and program therefor
KR20160028315A (en) * 2014-09-03 2016-03-11 현대자동차주식회사 Vehicle, controling method thereof and navigating apparatus therein
KR20170102743A (en) * 2016-03-02 2017-09-12 현대자동차주식회사 Avn apparatus and vehicle comprising the same, control method for the avn apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101054770B1 (en) 2007-12-13 2011-08-05 현대자동차주식회사 Path search method and apparatus in navigation system
JPWO2009084135A1 (en) * 2007-12-28 2011-05-12 三菱電機株式会社 Navigation device
JP2010217229A (en) * 2009-03-13 2010-09-30 Hitachi Ltd Method and device for displaying map information
JP2013061351A (en) * 2012-12-03 2013-04-04 Yupiteru Corp Position trace data processing device and program therefor
KR20160028315A (en) * 2014-09-03 2016-03-11 현대자동차주식회사 Vehicle, controling method thereof and navigating apparatus therein
KR101681997B1 (en) * 2014-09-03 2016-12-02 현대자동차주식회사 Vehicle, controling method thereof and navigating apparatus therein
KR20170102743A (en) * 2016-03-02 2017-09-12 현대자동차주식회사 Avn apparatus and vehicle comprising the same, control method for the avn apparatus
KR102559681B1 (en) * 2016-03-02 2023-07-27 현대자동차주식회사 Avn apparatus and vehicle comprising the same, control method for the avn apparatus

Similar Documents

Publication Publication Date Title
JP4776476B2 (en) Navigation device and method for drawing enlarged intersection
JP4562471B2 (en) Navigation device and traveling direction guide method
JP4948944B2 (en) Navigation device and method for drawing intersection guide map
JP4808050B2 (en) Navigation device and multi-path fusion method
US7042370B2 (en) Navigation device
JP5111084B2 (en) Navigation device
WO2009084126A1 (en) Navigation device
JP2006300867A (en) Navigation apparatus
JP2013096713A (en) Navigation device
JP2009236843A (en) Navigation device, navigation method, and navigation program
JP5063871B2 (en) Map display system for portable devices
JP2007309823A (en) On-board navigation device
JP2011107025A (en) Navigation system
JP2007093276A (en) Place search device and on-vehicle navigation device
JP3883719B2 (en) Destination candidate display method of route search system
JP2007178378A (en) Car navigation device
JP4817993B2 (en) Navigation device and guide route setting method
JP4293893B2 (en) Navigation device and landmark display method
JP4274913B2 (en) Destination search device
JP5356770B2 (en) Navigation device and interrupt information display method
JP5064891B2 (en) Car navigation system
JP5345374B2 (en) Navigation device and route information presentation method
JP4439318B2 (en) Navigation device and road display method
JP4458924B2 (en) Navigation device and facility guide display method
JP4644451B2 (en) Navigation device and mountain range display method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090804