JP2007263849A - Navigation device - Google Patents

Navigation device Download PDF

Info

Publication number
JP2007263849A
JP2007263849A JP2006091309A JP2006091309A JP2007263849A JP 2007263849 A JP2007263849 A JP 2007263849A JP 2006091309 A JP2006091309 A JP 2006091309A JP 2006091309 A JP2006091309 A JP 2006091309A JP 2007263849 A JP2007263849 A JP 2007263849A
Authority
JP
Japan
Prior art keywords
guidance
unit
information
range
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006091309A
Other languages
Japanese (ja)
Inventor
Takahiro Kudo
貴弘 工藤
Takashi Akita
貴志 秋田
Takashi Kondo
剛史 金銅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2006091309A priority Critical patent/JP2007263849A/en
Publication of JP2007263849A publication Critical patent/JP2007263849A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a navigation device capable of performing effective route guidance before reaching the vicinity of an intersection for guidance. <P>SOLUTION: The navigation device includes: a route search part for searching for a route from a start point to a destination; a setting part for setting a prescribed guidance point on the route searched by the route search part; a guidance information creation part for creating guidance information to be presented to a user within a guidance range that is a range at a prescribed distance reaching the guidance point set by the setting part; an object specifying part for specifying the guidance object within the guidance range; an object detection part for detecting the guidance object from an image photographed by a camera; a status management part for managing the number of guidance objects existing between a vehicle and the guidance point within the guidance range on the basis of a detection result of the object detection part; and a guidance object information creation part for creating guidance object information to be added to the guidance information on the basis of the number managed by the status management part. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、ナビゲーション装置に関し、より特定的には、地図データと車両の前方を撮影したカメラ映像を利用して経路案内を行うナビゲーション装置に関する。   The present invention relates to a navigation device, and more particularly, to a navigation device that provides route guidance using map data and a camera image taken in front of a vehicle.

従来、設定された目的地に対して現在の自車位置からの経路探索を行い、経路上に存在する交差点において、蓄積された地図データを利用して経路案内を行うナビゲーション装置が広く実用化されている。   Conventionally, a navigation device has been widely put into practical use, which performs a route search from a current vehicle position to a set destination and performs route guidance using accumulated map data at intersections existing on the route. ing.

HDD(Hard Disk Drive)やDVD(Digital Versatile Disc)等の記録メディアの大容量化により、より詳細な地図データを記憶しておくことが可能となっており、平面的な2次元地図だけでなく、車両を運転するユーザの視点から交差点を見たような立体的な3次元地図をディスプレイに表示して経路案内を行うことができる。このため、ユーザにとっては、案内対象交差点において、どちらに分岐すればよいかの判断が容易になっている(例えば、特許文献1参照)。   Due to the increase in capacity of recording media such as HDD (Hard Disk Drive) and DVD (Digital Versatile Disc), it is possible to store more detailed map data, not just a planar two-dimensional map. Further, it is possible to perform route guidance by displaying a three-dimensional three-dimensional map on the display as if the intersection was viewed from the viewpoint of the user driving the vehicle. For this reason, it is easy for the user to determine which branch to branch at the guidance target intersection (see, for example, Patent Document 1).

このような3次元地図は、自車両が案内対象交差点まで所定の距離(例えば、300m)以内に近づいたときに表示され、ユーザは目の前に広がる交差点周辺の風景と、ディスプレイに表示される3次元地図および経路案内情報を参照しつつ、自身の右左折するべき進路を特定することになる。   Such a three-dimensional map is displayed when the vehicle approaches the guidance target intersection within a predetermined distance (for example, 300 m), and the user displays the scenery around the intersection spreading in front of the eyes and the display. While referring to the three-dimensional map and the route guidance information, the route to turn right / left is specified.

このように、ナビゲーション装置は、案内対象交差点直前で案内を開始するのではなく、ある程度手前から案内対象交差点の分岐に関する情報、例えば、「およそ300mで交差点を左折です。」等のようにユーザに提示し、ユーザが事前に交差点をどちらに分岐するかの判断に余裕を持たせている。   In this way, the navigation device does not start the guidance just before the guidance target intersection, but informs the user as to information about the branching of the guidance target intersection from a certain point before, for example, “turn left at the intersection at about 300 m”. It is presented and a margin is given to the user to determine in advance which branch the intersection will branch to.

一方、蓄積された地図データの代わりに、車両前方に設置されたカメラにより撮影された風景の実写映像を利用して、経路案内を行うナビゲーション装置が開示されている(例えば、特許文献2参照)。   On the other hand, a navigation device that performs route guidance using a real image of a landscape photographed by a camera installed in front of a vehicle instead of accumulated map data is disclosed (for example, see Patent Document 2). .

このナビゲーション装置は、ユーザが分岐しようとしている案内対象交差点周辺に存在する特徴物をカメラ映像から認識し、ユーザが案内対象交差点近傍に接近すると、ユーザが目視可能であると共に、カメラ映像から認識される特徴物を用いて、例えば「次の信号を左折です。」というような案内を行う。カメラ映像で認識した特徴物を案内に用いることで、ユーザは実際に自分の見ている風景において、どこをどちらに分岐するのかという判断が容易となる。
特開2000−321089号公報 特開平10−177699号公報
This navigation device recognizes a feature existing around a guidance target intersection that the user is about to branch from the camera image, and when the user approaches the vicinity of the guidance target intersection, the user can see and recognize from the camera image. For example, a guidance such as “Turn left at the next traffic light” is given. By using the feature recognized by the camera image for guidance, the user can easily determine where to branch in the scenery that he / she actually sees.
JP 2000-321089 A Japanese Patent Laid-Open No. 10-177699

しかしながら、特許文献1の従来の3次元地図を用いた案内においては、案内対象交差点から所定の距離手前の地点で、案内対象交差点においてどちらに分岐するのかという情報が提示されるので、事前に分岐準備ができる。しかしながら、3次元地図と、実際にユーザが見る風景には乖離があり、必ずしも分かり易い案内ではなかった。   However, in the guidance using the conventional three-dimensional map of Patent Document 1, information on which branch is to occur at the guidance target intersection at a point a predetermined distance before the guidance target intersection is presented, so the branching is performed in advance. Ready. However, there is a discrepancy between the 3D map and the scenery that the user actually sees, and it is not always easy to understand.

また、特許文献2のカメラ映像を用いた案内では、案内対象交差点に存在する特徴物を用いて案内がなされるため、交差点直前ではユーザにとって非常に分かり易い。しかしながら、カメラ映像による特徴物の認識精度は必ずしも高くはないため、案内対象交差点から遠方の手前で、案内対象交差点付近に存在する特徴物を認識することは困難であった。   Moreover, in the guidance using the camera image of Patent Document 2, guidance is performed using a feature existing at the guidance target intersection, so that it is very easy for the user to understand immediately before the intersection. However, since the recognition accuracy of the feature object by the camera image is not necessarily high, it is difficult to recognize the feature object existing in the vicinity of the guide object intersection before the guide object intersection.

本発明は、上記問題に鑑みてなされた。すなわち、地図データとカメラ映像から認識された案内対象物に関する情報を利用し、案内対象交差点近傍に至る前に有効な経路案内を行うことができるナビゲーション装置を提供することを目的とする。   The present invention has been made in view of the above problems. That is, an object of the present invention is to provide a navigation device capable of performing effective route guidance before reaching the vicinity of a guidance target intersection by using information on a guidance target recognized from map data and camera video.

本発明の局面は、車両に搭載されたカメラにより撮影された映像を用いて経路案内を行うナビゲーション装置に向けられている。本発明は、出発地から目的地に至る経路を探索する経路探索部と、経路探索部で探索された経路上に所定の案内地点を設定する設定部と、設定部で設定された案内地点に至るまでの所定距離の範囲である案内範囲内においてユーザに対して提供すべき案内情報を作成する案内情報作成部と、案内範囲内の案内対象物を特定する対象物特定部と、カメラにより撮影された映像から案内対象物を検出する対象物検出部と、対象物検出部の検出結果に基づき、案内範囲における車両と案内地点との間に存在する案内対象物の数を管理する状態管理部と、状態管理部で管理される数に基づいて、案内情報に付加する案内対象物情報を作成する案内対象物情報作成部とを備える。   An aspect of the present invention is directed to a navigation device that performs route guidance using an image captured by a camera mounted on a vehicle. The present invention provides a route search unit that searches for a route from a departure point to a destination, a setting unit that sets a predetermined guide point on the route searched by the route search unit, and a guide point set by the setting unit. Taken with a camera, a guidance information creation unit that creates guidance information to be provided to the user within a guidance range that is a predetermined distance range, a target identification unit that identifies a guidance target within the guidance range, and a camera An object detection unit for detecting a guidance object from the video image, a state management unit for managing the number of guidance objects existing between the vehicle and the guidance point in the guidance range based on the detection result of the object detection unit; A guidance object information creating unit that creates guidance object information to be added to the guidance information based on the number managed by the state management unit.

また、対象物特定部は、案内範囲内の案内地点近傍に存在する案内対象物のうち、所定の数以上存在する案内対象物を優先的に特定することが好ましい。   Moreover, it is preferable that an object specific | specification part specifies the guidance object which exists more than a predetermined number preferentially among the guidance objects which exist in the guidance point vicinity in a guidance range.

また、対象物特定部は、案内範囲内に存在する案内対象物のうち、案内地点から最も遠くに存在する案内対象物を特定することが好ましい。   Moreover, it is preferable that an object specific | specification part specifies the guidance object which exists in the furthest distance from a guidance point among the guidance objects which exist in a guidance range.

また、対象物特定部は、案内範囲内に案内対象物が存在しない場合、案内範囲外であって案内範囲の最も近くに存在する案内対象物を特定することが好ましい。   In addition, when there is no guidance object within the guidance range, the object identification unit preferably identifies the guidance object that is outside the guidance range and is closest to the guidance range.

また、案内対象物情報作成部は、カメラにより撮影された案内対象物の情報に、状態管理部で管理される数の情報を付加した案内対象物情報を作成することが好ましい。   Moreover, it is preferable that a guidance target object information preparation part produces the guidance target object information which added the information of the number managed by a state management part to the information of the guidance target object image | photographed with the camera.

また、案内開始地点を修正する案内開始地点修正部を更に備え、状態管理部は、案内地点に至るまでの管理する案内対象物の数に所定の上限値を設け、案内開始地点修正部は、所定の上限値と一致する数の案内対象物が存在する地点を案内開始地点とすることが好ましい。   In addition, a guidance start point correction unit for correcting the guidance start point is further provided, the state management unit sets a predetermined upper limit for the number of guidance objects to be managed up to the guidance point, and the guidance start point correction unit It is preferable that the point where the number of guidance objects corresponding to the upper limit value exists is set as the guidance start point.

以上のように本発明の局面によれば、地図データとカメラ映像から認識された案内対象物に関する情報を利用し、案内対象交差点近傍に至る前に有効な経路案内を行うことができるナビゲーション装置を提供することができる。   As described above, according to an aspect of the present invention, there is provided a navigation device that can perform effective route guidance before reaching the vicinity of a guidance target intersection by using information about a guidance target recognized from map data and camera video. Can be provided.

以下、本発明の実施の形態に係るナビゲーション装置100について、図面を用いて説明する。   Hereinafter, a navigation device 100 according to an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の実施の形態に係るナビゲーション装置100の全体構成を示すブロック図である。図1において、ナビゲーション装置100は、測位部101、地図データ記憶部102、カメラ103、入力部104及び表示部105を備える。   FIG. 1 is a block diagram showing an overall configuration of a navigation apparatus 100 according to an embodiment of the present invention. In FIG. 1, the navigation device 100 includes a positioning unit 101, a map data storage unit 102, a camera 103, an input unit 104, and a display unit 105.

測位部101は、車両の現在位置、速度及び方位を計測する、例えば、GNSS(Global Navigation Satellite System)受信機、車速センサ及びジャイロセンサである。GNSS受信機は、例えば、GPS受信機であり、衛星からの電波を受信し、それを復調することで受信機の位置を算出する。   The positioning unit 101 is, for example, a GNSS (Global Navigation Satellite System) receiver, a vehicle speed sensor, and a gyro sensor that measures the current position, speed, and direction of the vehicle. The GNSS receiver is, for example, a GPS receiver, receives radio waves from a satellite, and calculates the position of the receiver by demodulating it.

地図データ記憶部102は、道路や交差点、ランドマークのデータ等の地図情報が記憶される、例えば、HDDやDVDである。しかしながら、これに限らず、図示しない通信手段(例えば、携帯電話)によって情報をセンター設備から逐次ダウンロードする構成としてもよい。   The map data storage unit 102 is, for example, an HDD or a DVD that stores map information such as road, intersection, and landmark data. However, the present invention is not limited to this, and a configuration may be adopted in which information is sequentially downloaded from the center facility by communication means (for example, a mobile phone) (not shown).

図2は、地図データ記憶部102に記憶されている地図情報の中で、本実施の形態に関連する情報を抜粋したデータを示す。地図データ記憶部102には、図2(A)に示すノードデータ、図2(B)に示すリンクデータ、及び図2(C)に示すランドマークデータが含まれる。   FIG. 2 shows data obtained by extracting information related to the present embodiment from the map information stored in the map data storage unit 102. The map data storage unit 102 includes node data shown in FIG. 2A, link data shown in FIG. 2B, and landmark data shown in FIG.

ノードデータは、交差点や合流地点等、幾方向かに道路が分岐する地点であり、ノードごとに緯度・経度等の位置情報、該ノードに接続する、後述するリンクの数およびリンクのIDにより構成されている。   Node data is a point where roads branch in several directions, such as intersections and junctions, and is composed of position information such as latitude and longitude for each node, the number of links to be described later, and link IDs Has been.

リンクデータはノードとノードを結ぶ道路を表すものであり、リンクの端点である始点ノード、終点ノード、リンクの長さ(単位はメートルやキロメートル等)、リンクの幅(単位はメートル等)、一般道路、高速道路等の道路種別により構成されている。   Link data represents a road connecting nodes. The start node, end node, link length (units are meters, kilometers, etc.), link width (units are meters, etc.), etc. It consists of road types such as roads and expressways.

ランドマークデータは、ランドマークが属するジャンルや施設名称、近接するノードID、およびランドマークの位置情報により構成されている。   The landmark data is composed of a genre and facility name to which the landmark belongs, a nearby node ID, and landmark position information.

カメラ103は、車両の前方を撮影し、後述するように案内対象物情報を重畳させるための映像を取得したり、同じく後述するように車両前方に存在する案内対象物を検出するための映像を取得する。なお、案内対象物の検出において、自車両と対象物までの距離を測る必要がある場合にはステレオカメラを用いる必要があるが、その必要がなければ単眼カメラでよい。   The camera 103 shoots the front of the vehicle, acquires a video for superimposing guidance object information as will be described later, and detects a guidance object existing in front of the vehicle as will be described later. get. In the detection of the guidance object, a stereo camera needs to be used when it is necessary to measure the distance between the host vehicle and the object, but a monocular camera may be used if it is not necessary.

入力部104は、ユーザがナビゲーション装置に対して指示を入力する、例えば、リモートコントローラーや音声入力装置、後述する表示部105と一体となったタッチパネルである。ユーザは入力部104から、目的地に関する情報を入力し、ナビゲーション装置はその入力に基づいて案内対象交差点等を始めとして経路案内を行う。   The input unit 104 is a touch panel that is integrated with, for example, a remote controller, a voice input device, and a display unit 105 described later. The user inputs information about the destination from the input unit 104, and the navigation apparatus performs route guidance starting from the guidance target intersection and the like based on the input.

表示部105は、地図情報やカメラ103による撮影された映像、さらには経路案内に関する情報を表示するディスプレイであり、前述した入力部104と一体となったタッチパネルディスプレイ等で構成されていてもよい。   The display unit 105 is a display that displays map information, video captured by the camera 103, and information related to route guidance, and may be a touch panel display integrated with the input unit 104 described above.

制御部106は、測位部101、地図データ記憶部102、カメラ103及び入力部104からの入力データに基づいて経路探索を行い、案内情報を表示部105に出力するように制御する、例えば、CPUである。   The control unit 106 performs a route search based on input data from the positioning unit 101, the map data storage unit 102, the camera 103, and the input unit 104, and controls to output guidance information to the display unit 105. It is.

図3において、制御部106は、機能的には、経路探索部301、映像重畳部302、対象物特定部303、対象物検出部305、状態管理部304、及び案内情報作成部306を備える。   In FIG. 3, the control unit 106 functionally includes a route searching unit 301, a video superimposing unit 302, an object specifying unit 303, an object detecting unit 305, a state managing unit 304, and a guidance information creating unit 306.

経路探索部301は、現在地から目的地に至る経路を、地図データ記憶部102を参照して探索する。経路探索部301は、探索した経路上の経路案内の対象となる交差点(案内対象交差点)を設定し、測位部101により検出される自車位置が、案内対象交差点から所定の範囲(例えば300m以内、以下、案内範囲とよぶ)に入ると、案内対象物情報をユーザに提示するように判断する。   The route searching unit 301 searches the map data storage unit 102 for a route from the current location to the destination. The route search unit 301 sets an intersection (guidance target intersection) as a route guidance target on the searched route, and the vehicle position detected by the positioning unit 101 is within a predetermined range (for example, within 300 m) from the guidance target intersection. In the following description, the guidance object information is determined to be presented to the user.

映像重畳部302は、カメラ103により撮影された映像に、案内対象物情報となる車両の走行進路を示す案内オブジェクトを重畳する。以下、映像重畳部302の処理の流れを図4に示すフローチャートを用いて説明する。   The video superimposing unit 302 superimposes a guidance object indicating a traveling route of the vehicle, which is guidance target object information, on the video photographed by the camera 103. Hereinafter, the processing flow of the video superimposing unit 302 will be described with reference to the flowchart shown in FIG.

映像重畳部302は、地図データ記憶部102に格納されている3次元地図と、カメラ103により取得される映像の撮像方向と撮像範囲を定めるパラメータであるカメラ位置とカメラ角(水平角、仰角)と焦点距離と画像サイズを基に、3次元地図空間におけるカメラの視野空間を求める(ステップS1001)。   The video superimposing unit 302 is a three-dimensional map stored in the map data storage unit 102, a camera position and a camera angle (horizontal angle, elevation angle) that are parameters that determine the imaging direction and imaging range of the video acquired by the camera 103. Based on the focal length and the image size, the visual field space of the camera in the three-dimensional map space is obtained (step S1001).

ここで、3次元地図とは、緯度、経度、及び高度により位置情報が表される地図のことである。カメラの視野空間は、例えば、図5に示すような方法で求める。すなわち、3次元地図空間において、カメラ位置(視点)Eからカメラ角方向に焦点距離fだけ進んだ点(点F)を求め、そこに画像サイズに相当する横x縦yの平面(カメラ画面)を視点Eと点Fを結んだベクトルに垂直になるように設定する。次に、視点Eからカメラ画面の4隅の点とを結ぶ半直線がつくる3次元空間を求める。この3次元空間は理論上無限遠まで延びるが、視点Eから適当な距離だけ離れたところで打ち切り、それを視野空間とする。   Here, the three-dimensional map is a map in which position information is represented by latitude, longitude, and altitude. The visual field space of the camera is obtained by a method as shown in FIG. 5, for example. That is, in the three-dimensional map space, a point (point F) that is advanced from the camera position (viewpoint) E by the focal length f in the camera angle direction is obtained, and a horizontal x vertical y plane (camera screen) corresponding to the image size is obtained there. Is set to be perpendicular to the vector connecting the viewpoint E and the point F. Next, a three-dimensional space formed by a half line connecting the viewpoint E to the four corner points of the camera screen is obtained. This three-dimensional space theoretically extends to infinity, but is censored at an appropriate distance from the viewpoint E, and is defined as a visual field space.

なお、3次元地図の代わりに、3次元地図から高さ情報を除いた2次元地図を用い、2次元地図空間におけるカメラの視野空間を求めるようにしてもかまわない。また、撮像方向と撮像範囲を定めるパラメータは上記のものに限らず、撮像方向と撮像範囲が定まるものであれば、画角等の他のパラメータを用いてそこから換算するようにしてもよい。   Note that instead of the 3D map, a 2D map obtained by removing height information from the 3D map may be used to obtain the camera viewing space in the 2D map space. In addition, the parameters for determining the imaging direction and the imaging range are not limited to those described above. If the imaging direction and the imaging range are determined, other parameters such as an angle of view may be used for conversion.

次に、映像重畳部302は、3次元地図空間内において、カメラ103の視野空間内に存在する道路とその位置を検出する道路検出処理を行う(ステップS1002)。図6に道路検出処理で検出される道路を示す。図6は3次元地図空間とカメラ視野空間を上方向から見た図である。図6において、視野空間に囲まれた道路(斜線を付された部分)が道路検出処理によって検出される。   Next, the video superimposing unit 302 performs a road detection process for detecting a road existing in the visual field space of the camera 103 and its position in the three-dimensional map space (step S1002). FIG. 6 shows roads detected by the road detection process. FIG. 6 is a view of the three-dimensional map space and the camera visual field from above. In FIG. 6, a road (hatched portion) surrounded by the visual field space is detected by the road detection process.

次に、映像重畳部302は、3次元地図空間において、道路検出処理により検出された道路のうち、経路探索部301により探索された案内経路に該当する道路上の位置に案内オブジェクトを配置する(ステップS1003)。図7に案内オブジェクトの配置位置を示す。なお、案内オブジェクトの形状は、図7に示した矢印図形に限らず、例えば、矢印図形から先端の三角形を除いた折れ線図形を用いてもかまわない。   Next, the video superimposing unit 302 arranges a guidance object at a position on the road corresponding to the guidance route searched for by the route search unit 301 among the roads detected by the road detection process in the three-dimensional map space ( Step S1003). FIG. 7 shows the arrangement position of the guide object. Note that the shape of the guide object is not limited to the arrow graphic shown in FIG. 7, and for example, a polygonal line graphic obtained by removing the tip triangle from the arrow graphic may be used.

次に、映像重畳部302は、図5に示すカメラ画面を投影面として案内オブジェクトに対して投影変換を行う(ステップS1004)。投影処理において案内オブジェクトが投影される投影面は、カメラで撮影されるカメラ画面と一致するため、案内オブジェクトは実写映像上に写っている道路(案内経路に該当)上に重畳される。   Next, the video superimposing unit 302 performs projection conversion on the guidance object using the camera screen shown in FIG. 5 as a projection plane (step S1004). Since the projection plane onto which the guidance object is projected in the projection processing coincides with the camera screen photographed by the camera, the guidance object is superimposed on the road (corresponding to the guidance route) shown on the real image.

なお、実写映像に案内オブジェクトを重畳する際に、白線検知、道路端検知等の周知の画像認識技術を用いてカメラに写っている道路の位置を検出し、案内オブジェクトの重畳位置を補正するようにしてもよい。このようにして、実写映像中に重畳される案内オブジェクトの例を図8に示す。   When a guidance object is superimposed on a live-action video, the position of the road reflected in the camera is detected using a known image recognition technique such as white line detection, road edge detection, etc., and the superimposed position of the guidance object is corrected. It may be. FIG. 8 shows an example of the guidance object that is superimposed on the live-action video in this way.

対象物特定部303は、経路探索部301により探索された経路において、案内対象交差点ごとに、その交差点近傍に存在する案内対象物を地図データ記憶部102を参照して特定する。   The object specifying unit 303 specifies, for each guidance target intersection in the route searched by the route search unit 301, a guidance object existing in the vicinity of the intersection with reference to the map data storage unit 102.

案内対象物とは、経路案内を行う際に、ユーザに提示する情報であり、例えば、信号機やランドマークである。このような案内対象物を用いた案内対象物情報の例として、「前方の信号機を右折です。」や「次のガソリンスタンドを左方向です。」等がある。   The guidance object is information presented to the user when performing route guidance, for example, a traffic light or a landmark. Examples of guidance object information using such guidance objects include “turn right at the traffic light ahead” and “turn left at the next gas station”.

地図データ記憶部102には、図2(C)に示すようにランドマークに関する情報として、近接するノード(すなわち交差点)、座標位置等が記憶されているので、案内対象交差点を近接ノードとし、かつ案内対象交差点との距離が所定の値(例えば、20m等)以内に存在する対象物を案内対象物とする。   As shown in FIG. 2C, the map data storage unit 102 stores adjacent nodes (that is, intersections), coordinate positions, and the like as information relating to landmarks. An object whose distance from the guidance target intersection is within a predetermined value (for example, 20 m) is set as a guidance target object.

なお、図2(C)には記載していないが、案内対象物として信号機を利用する場合は、信号機の設置位置に関する情報も地図データ記憶部102に記憶しておく必要がある。   Although not shown in FIG. 2C, when a traffic light is used as a guidance object, information regarding the installation position of the traffic light also needs to be stored in the map data storage unit 102.

本発明では、カメラ映像を利用して、実際に見ている風景との対比がし易い案内を行う一方、自車両が案内範囲に入ると、できるだけ早く案内対象物を利用した案内を行う必要がある。   In the present invention, the camera image is used to provide guidance that is easy to compare with the scenery that is actually viewed, and when the host vehicle enters the guidance range, guidance using the guidance object must be performed as soon as possible. is there.

そのため、案内対象物の候補となるものは、ランドマーク付近に存在し、且つそれ以外に同様のものが案内範囲内に少なくとも1つは存在する必要がある。そこで、対象物特定部303は、案内対象交差点付近に存在する対象物の中で、案内範囲に所定の数以上存在するものを案内対象物として優先的に特定してもよい。   For this reason, candidates for guidance objects need to exist in the vicinity of the landmark, and at least one similar thing must exist within the guidance range. Therefore, the object specifying unit 303 may preferentially specify the objects existing in the vicinity of the guidance target intersection that are present in a predetermined number or more as the guidance objects.

また、案内範囲において案内対象交差点から距離が最も離れた位置に存在する対象物、すなわち、走行して案内対象交差点に接近するユーザが、できるだけ早く視認可能な対象物を案内対象物として特定するようにしてもよい。   In addition, an object existing at a position farthest from the guidance target intersection in the guidance range, that is, a user who travels and approaches the guidance target intersection is identified as a guidance target object as soon as possible. It may be.

対象物特定部303はさらに、特定した対象物が案内範囲の中にいくつ存在するか、また、特定した対象物が位置する場所(位置、案内対象交差点からの距離等)に関する情報を地図データ記憶部102から抽出しておく。   The object specifying unit 303 further stores information on the number of specified objects in the guidance range and information on the location where the specified object is located (position, distance from the guidance target intersection, etc.) as map data. Extracted from the unit 102.

状態管理部304は、対象物特定部303で特定された対象物に関して抽出された情報(対象物の数、対象物の位置)を管理しておく。そして、自車位置の走行に従って後述する対象物検出部305で検出された対象物を自車両が通過する度に、管理している数を減算し、自車両と案内対象交差点の間に存在する対象物の数を常に最新の状態に更新する。   The state management unit 304 manages information (number of objects, position of the object) extracted regarding the object specified by the object specifying unit 303. Each time the host vehicle passes an object detected by an object detection unit 305, which will be described later, according to the travel of the host vehicle position, the number managed is subtracted and exists between the host vehicle and the guidance target intersection. The number of objects is always updated to the latest state.

対象物検出部305は、カメラ103により撮影された映像の中で、対象物特定部303により特定された対象物の検出処理を行う。検出処理は、経路探索部301及び測位部101を用いて、自車両が案内範囲に入ったことが判断されると開始される。   The object detection unit 305 performs processing for detecting the object specified by the object specifying unit 303 in the video imaged by the camera 103. The detection process is started when it is determined that the host vehicle has entered the guidance range using the route search unit 301 and the positioning unit 101.

対象物検出部305は、状態管理部304を参照して、案内範囲において最初に検出されるべき対象物の位置を取得する。そして、自車位置と、最初の対象物との位置関係から対象物までの距離を算出する。更に、対象物検出部は、状態管理部304を参照して、算出された対象物までの距離とカメラ103の撮影距離とが一致する対象物を検出する。このような検出処理は2つ目以降の対象物に対しても同様になされ、検出精度を向上させることに寄与する。   The object detection unit 305 refers to the state management unit 304 and acquires the position of the object to be detected first in the guidance range. Then, the distance to the object is calculated from the positional relationship between the vehicle position and the first object. Furthermore, the object detection unit refers to the state management unit 304 and detects an object in which the calculated distance to the object matches the shooting distance of the camera 103. Such detection processing is similarly performed on the second and subsequent objects, which contributes to improving detection accuracy.

なお、信号機のように大きさ、形状がある程度定まっている案内対象物の認識の場合には、ステレオカメラではなく単眼カメラにおいても、およその距離を求めることも可能である。   In the case of recognizing a guide object whose size and shape are fixed to some extent as in a traffic light, it is possible to obtain an approximate distance even with a monocular camera instead of a stereo camera.

また、案内対象物が案内対象交差点から300m程度離れた位置、すなわち、自車両が案内範囲に入ってすぐに存在する場合、自車両が案内範囲に入った後に、検出処理を開始したのでは、処理に時間を要し、案内対象物を利用した案内対象物情報を提示したときには、既にユーザは案内対象物を確認できないことも考えられる。そのため、このような場合には案内範囲の更に所定の距離(例えば、50m)手前から検出処理を開始するようにしてもよい。   In addition, when the guidance object is located at a position about 300 m away from the guidance target intersection, that is, when the own vehicle immediately enters the guidance range, the detection process is started after the own vehicle enters the guidance range. When processing takes time and the guidance object information using the guidance object is presented, the user may not already be able to confirm the guidance object. Therefore, in such a case, the detection process may be started from a predetermined distance (for example, 50 m) before the guidance range.

案内情報作成部306は、案内範囲内の基本的な案内情報である基本案内情報を作成すると共に、当該基本案内情報に付加する案内対象物情報を作成する。すなわち、案内情報作成部306は、案内オブジェクトが重畳されたカメラ映像と案内対象物の数に関する情報とに基づいて作成された案内範囲内の案内対象物情報を表示部105を介して提示する。案内対象物を信号機とした場合に提示される案内対象物情報の例を図9に示す。   The guidance information creation unit 306 creates basic guidance information that is basic guidance information within the guidance range, and creates guidance object information to be added to the basic guidance information. In other words, the guidance information creation unit 306 presents the guidance target object information within the guidance range created based on the camera video on which the guidance object is superimposed and the information on the number of guidance target objects via the display unit 105. FIG. 9 shows an example of guidance object information presented when the guidance object is a traffic light.

図9において、道路上に斜線で示されているのが案内オブジェクトである。対象物検出部305で、図9に示す、手前にある信号機が検出され、案内対象交差点までに信号機の数が3つ存在する場合には、検出された信号機に関連付けられるように数値「3」に関する情報が案内対象物情報として提示されている。   In FIG. 9, the guide object is indicated by diagonal lines on the road. When the traffic signal in front is detected by the object detection unit 305 and there are three traffic signals up to the guidance target intersection, the numerical value “3” is associated with the detected traffic signal. Is presented as guidance object information.

また、図1に図示しない音声出力部を備えるナビゲーション装置であれば、詳細な案内対象物情報として、例えば、「3つ目の信号を左折です。」という音声による案内を行うことも可能である。   Further, in the case of a navigation device including a voice output unit (not shown in FIG. 1), it is possible to provide guidance by voice such as “Third turn at the third signal” as detailed guidance target object information. .

案内対象物情報をこのように提示することで、ユーザは交差点近傍に近づく以前から、自分が前方に見えている対象物が案内対象交差点に存在することや、その交差点までに存在する対象物の数を把握することができるため、案内対象交差点の遠方においても交差点でどちらに分岐すればよいのかが分かり、分岐準備に余裕が持てる。   By presenting the guidance object information in this way, the user can determine the number of objects that exist before the intersection, and that the object that he / she sees in the front exists at the guidance object intersection before the user approaches the intersection. Since it can be grasped, it is possible to know where to branch at the intersection even in the distance of the guidance target intersection, and there is a margin for branch preparation.

次にこのように構成されるナビゲーション装置の処理の流れについて、図10のフローチャートを用いて説明する。   Next, a processing flow of the navigation device configured as described above will be described with reference to a flowchart of FIG.

入力部104により設定された目的地に関する情報を元に、経路探索部301において探索が終了すると(ステップS2001でYes)、対象物特定部303は、探索された経路を参照して、案内対象となる交差点における案内対象物の特定処理を行う(ステップS2002)。   When the route search unit 301 finishes searching based on the information about the destination set by the input unit 104 (Yes in step S2001), the target object specifying unit 303 refers to the searched route and determines the guidance target. The guidance object specifying process at the intersection is performed (step S2002).

対象物特定部303は、合わせて各案内対象交差点の案内範囲に存在する案内対象物の数、及び案内対象物の位置に関する情報を地図データ記憶部102から抽出し、状態管理部304は、それらの情報を管理する(ステップS2003)。   The object specifying unit 303 extracts information on the number of guidance objects existing in the guidance range of each guidance object intersection and the position of the guidance object from the map data storage unit 102, and the state management unit 304 Are managed (step S2003).

そして、自車両がある案内対象交差点の案内範囲に入ったことが判定されると(ステップS2004でYes)、対象物検出部305では、状態管理部304で管理されている案内対象物の検出処理を行う(ステップS2005)。そして、状態管理部304では、現在の自車位置から案内対象交差点までの案内対象物の数に関する情報に更新があれば、その処理を行う(ステップS2006)。   When it is determined that the vehicle has entered the guidance range of a certain guidance target intersection (Yes in step S2004), the target object detection unit 305 detects the guidance target object managed by the state management unit 304. Is performed (step S2005). Then, in the state management unit 304, if there is an update in the information regarding the number of guidance objects from the current vehicle position to the guidance target intersection, the state management unit 304 performs the process (step S2006).

そして、映像重畳部302は、図4に示したフローチャートに従って、カメラ103から取得した映像に対して、案内矢印の重畳処理を行う(ステップS2007)。カメラ映像に案内矢印が重畳され、対象物検出部305により案内対象物の検出が行われると、案内情報作成部306は、ユーザに対して提示する案内対象物情報を作成する(ステップS2008)。   Then, the video superimposing unit 302 performs a guidance arrow superimposing process on the video acquired from the camera 103 according to the flowchart shown in FIG. 4 (step S2007). When a guidance arrow is superimposed on the camera image and the target object is detected by the target object detection unit 305, the guidance information creation unit 306 creates guidance target object information to be presented to the user (step S2008).

なお、本実施の形態においては、カメラ103により撮影された映像に案内対象物情報を重畳して表示するナビゲーション装置について説明したが、これに限るわけではなく、地図データ記憶部102に記憶されている2次元や3次元の地図情報を用いて経路案内を行うナビゲーション装置に対しても、同様に検出された対象物を利用した案内を行うことも可能である。   In the present embodiment, the navigation apparatus that displays the guidance object information superimposed on the video image captured by the camera 103 has been described. However, the present invention is not limited to this, and is stored in the map data storage unit 102. It is also possible to provide guidance using a detected object in the same manner for a navigation apparatus that provides route guidance using existing two-dimensional or three-dimensional map information.

なお、本実施の形態では対象物特定部303は、案内対象交差点近傍、および案内範囲にともに存在する対象物を案内対象物として特定する例について述べたが、案内範囲に案内対象物が存在しない場合もある。例えば、図11では、案内対象交差点近傍には信号機とコンビニAが存在するが、そこに至る案内範囲にはいずれも存在していない。   In the present embodiment, the object specifying unit 303 has described an example in which an object that is present in the vicinity of the guidance target intersection and in the guidance range is specified as the guidance target object. However, there is no guidance target object in the guidance range. In some cases. For example, in FIG. 11, there are a traffic light and a convenience store A in the vicinity of the guidance target intersection, but none exists in the guidance range leading to the traffic light.

このような場合、対象物特定部303は、案内範囲外において、案内範囲の最も近くに存在する対象物を案内対象物として特定してもよい。図11の例では、信号機は案内範囲まで100mの地点に存在し、コンビニAは50mの地点に存在するため、対象物特定部303はコンビニAを案内対象物として特定することになる。   In such a case, the object specifying unit 303 may specify an object existing closest to the guidance range outside the guidance range as the guidance object. In the example of FIG. 11, the traffic light exists at a point of 100 m up to the guidance range, and the convenience store A exists at a point of 50 m. Therefore, the object specifying unit 303 specifies the convenience store A as the guidance object.

案内範囲から非常に離れた位置に存在する対象物を案内対象として特定すると、その案内対象物を用いた案内対象物情報を提示してから実際に案内対象交差点に至るまでに非常に時間がかかってしまう。そのため、案内範囲から近い位置に存在する対象物を案内対象物とすることで、案内を開始してから実際に案内対象交差点に至る時間を短くし、ユーザにとってはより分かり易い案内を行うことが可能となる。   If an object that is located far away from the guidance range is specified as the guidance object, it will take a very long time to reach the guidance object intersection after the guidance object information using the guidance object is presented. End up. Therefore, it is possible to shorten the time from the start of guidance to the actual intersection of the guidance target by providing an object that is close to the guidance range as a guidance object, and to make guidance easier for the user to understand. It becomes possible.

このような場合、案内対象物を利用した案内対象物情報の提示を開始する位置が異なってくるため、別途、図示しない案内開始地点修正部を設けてもよい。上述した例では案内開始地点修正部は、案内範囲から50m手前の地点、すなわち、案内範囲を300mとすると、案内対象交差点から350m手前の位置を案内開始地点として修正することになる。   In such a case, since the position where presentation of guidance object information using the guidance object starts is different, a guidance start point correction unit (not shown) may be provided separately. In the example described above, the guidance start point correcting unit corrects the position 50 m before the guidance range, that is, the position 350 m before the guidance target intersection as the guidance start point when the guidance range is 300 m.

なお、案内開始地点修正部は、案内開始地点を案内対象物の数に基づいて決定してもよい。すなわち、案内対象物に関して、自車両が案内対象交差点に至るまでの提示する情報を3回というようにあらかじめ定めておく。   The guidance start point correcting unit may determine the guidance start point based on the number of guidance objects. That is, regarding the guidance object, information to be presented until the host vehicle reaches the guidance object intersection is determined in advance such as three times.

そして、対象物特定部303で案内対象物が信号機であると特定されると、案内対象交差点に至るまでの経路で、案内対象交差点から数えて信号機が3つめの地点を案内開始地点として修正してもよい。   When the object specifying unit 303 specifies that the guidance object is a traffic signal, the traffic signal corrects the third point counted from the guidance target intersection as the guidance start point on the route to the guidance target intersection. May be.

このように、地図データとカメラ映像から認識された案内対象物に関する情報を利用し、案内対象交差点近傍に至る前に有効な経路案内を行うことができるナビゲーション装置を提供することができる。   In this way, it is possible to provide a navigation device that can perform effective route guidance before reaching the vicinity of the guidance target intersection by using information on the guidance target recognized from the map data and the camera video.

上記実施の形態で説明した構成は、単に具体例を示すものであり、本願発明の技術的範囲を制限するものではない。本願の効果を奏する範囲において、任意の構成を採用することが可能である。   The configuration described in the above embodiment is merely a specific example and does not limit the technical scope of the present invention. Any configuration can be employed within the scope of the effects of the present application.

本発明は、地図データと車両の前方を撮影したカメラ映像を利用して経路案内を行うナビゲーション装置等として有用である。   INDUSTRIAL APPLICABILITY The present invention is useful as a navigation device that performs route guidance using map data and a camera image obtained by photographing the front of a vehicle.

本発明の実施の形態に係るナビゲーション装置の全体構成を示すブロック図The block diagram which shows the whole structure of the navigation apparatus which concerns on embodiment of this invention 地図データに記憶されているノードデータ、リンクデータ及びランドマークデータを示す図Diagram showing node data, link data and landmark data stored in map data 制御部の構成を示すブロック図Block diagram showing the configuration of the controller 案内オブジェクト重畳処理を示すフローチャートFlow chart showing guidance object superimposition processing 3次元地図空間におけるカメラ視野空間の設定方法を示した図The figure which showed the setting method of the camera visual field space in 3D map space 道路検出処理によって検出される道路を示す図The figure which shows the road which is detected by road detection processing 3次元地図空間における案内矢印の配置位置を示す図The figure which shows the arrangement position of the guidance arrow in 3D map space 実写案内における案内表示を示す図Diagram showing guidance display in live-action guidance 案内対象物の数に関する情報を元に、案内情報作成部により作成される案内対象物情報の一例を示す図The figure which shows an example of the guidance object information produced by the guidance information creation part based on the information regarding the number of guidance objects 本発明の実施の形態に係るナビゲーション装置の処理を示すフローチャートThe flowchart which shows the process of the navigation apparatus based on embodiment of this invention. 対象物が案内範囲に存在しない場合の、対象物特定部の処理を説明する図The figure explaining the process of a target object specific part when a target object does not exist in a guidance range

符号の説明Explanation of symbols

101 測位部
102 地図データ記憶部
103 カメラ
104 入力部
105 表示部
106 制御部
301 経路探索部
302 映像重畳部
303 対象物特定部
304 状態管理部
305 対象物検出部
306 案内情報作成部
DESCRIPTION OF SYMBOLS 101 Positioning part 102 Map data storage part 103 Camera 104 Input part 105 Display part 106 Control part 301 Path | route search part 302 Image | video superimposition part 303 Object identification part 304 State management part 305 Object detection part 306 Guidance information creation part

Claims (6)

車両に搭載されたカメラにより撮影された映像を用いて経路案内を行うナビゲーション装置であって、
出発地から目的地に至る経路を探索する経路探索部と、
前記経路探索部で探索された経路上に所定の案内地点を設定する設定部と、
前記設定部で設定された案内地点に至るまでの所定距離の範囲である案内範囲内においてユーザに対して提供すべき案内情報を作成する案内情報作成部と、
前記案内範囲内の案内対象物を特定する対象物特定部と、
前記カメラにより撮影された映像から案内対象物を検出する対象物検出部と、
前記対象物検出部の検出結果に基づき、前記案内範囲における車両と前記案内地点との間に存在する案内対象物の数を管理する状態管理部と、
前記状態管理部で管理される数に基づいて、前記案内情報に付加する案内対象物情報を作成する案内対象物情報作成部とを備える、ナビゲーション装置。
A navigation device that provides route guidance using video captured by a camera mounted on a vehicle,
A route search unit that searches for a route from the departure point to the destination,
A setting unit for setting a predetermined guide point on the route searched by the route search unit;
A guidance information creation unit that creates guidance information to be provided to the user within a guidance range that is a range of a predetermined distance to the guidance point set by the setting unit;
An object specifying unit for specifying a guide object within the guide range;
An object detection unit for detecting a guidance object from an image captured by the camera;
Based on the detection result of the object detection unit, a state management unit that manages the number of guidance objects existing between the vehicle and the guidance point in the guidance range;
A navigation apparatus comprising: a guidance object information creating unit that creates guidance object information to be added to the guidance information based on the number managed by the state management unit.
前記対象物特定部は、案内範囲内の案内地点近傍に存在する案内対象物のうち、所定の数以上存在する案内対象物を優先的に特定することを特徴とする、請求項1に記載のナビゲーション装置。   2. The object identification unit according to claim 1, wherein the object identification unit preferentially identifies a plurality of guidance objects existing in the vicinity of a guidance point within a guidance range. Navigation device. 前記対象物特定部は、案内範囲内に存在する案内対象物のうち、案内地点から最も遠くに存在する案内対象物を特定することを特徴とする、請求項1に記載のナビゲーション装置。   The navigation device according to claim 1, wherein the object specifying unit specifies a guide object that is farthest from the guide point among the guide objects that exist within the guide range. 前記対象物特定部は、案内範囲内に案内対象物が存在しない場合、案内範囲外であって案内範囲の最も近くに存在する案内対象物を特定することを特徴とする、請求項1に記載のナビゲーション装置。   2. The object identification unit according to claim 1, wherein when there is no guidance object within the guidance range, the object identification unit identifies a guidance object that is outside the guidance range and closest to the guidance range. Navigation device. 前記案内対象物情報作成部は、前記カメラにより撮影された前記案内対象物の情報に、前記状態管理部で管理される数の情報を付加した案内対象物情報を作成することを特徴とする、請求項1〜4のいずれかに記載のナビゲーション装置。   The guidance object information creating unit creates guidance object information in which information on the number managed by the state management unit is added to information on the guidance object photographed by the camera. The navigation apparatus according to any one of claims 1 to 4. 案内開始地点を修正する案内開始地点修正部を更に備え、
前記状態管理部は、案内地点に至るまでの管理する案内対象物の数に所定の上限値を設け、
前記案内開始地点修正部は、前記所定の上限値と一致する数の前記案内対象物が存在する地点を案内開始地点とすることを特徴とする、請求項1〜5のいずれかに記載のナビゲーション装置。
A guidance start point correction unit for correcting the guidance start point;
The state management unit provides a predetermined upper limit on the number of guidance objects to be managed up to the guidance point,
The navigation according to any one of claims 1 to 5, wherein the guidance start point correcting unit sets a point where the number of the guidance objects corresponding to the predetermined upper limit exists as a guidance start point. apparatus.
JP2006091309A 2006-03-29 2006-03-29 Navigation device Withdrawn JP2007263849A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006091309A JP2007263849A (en) 2006-03-29 2006-03-29 Navigation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006091309A JP2007263849A (en) 2006-03-29 2006-03-29 Navigation device

Publications (1)

Publication Number Publication Date
JP2007263849A true JP2007263849A (en) 2007-10-11

Family

ID=38636978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006091309A Withdrawn JP2007263849A (en) 2006-03-29 2006-03-29 Navigation device

Country Status (1)

Country Link
JP (1) JP2007263849A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009095967A1 (en) * 2008-01-31 2009-08-06 Mitsubishi Electric Corporation Navigation device
JP2019039739A (en) * 2017-08-24 2019-03-14 沖電気工業株式会社 Information processing device, information processing method and program
JP2019185599A (en) * 2018-04-16 2019-10-24 株式会社Ihi Route simulation device
JP2021089282A (en) * 2020-05-28 2021-06-10 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. Ar navigation method and device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009095967A1 (en) * 2008-01-31 2009-08-06 Mitsubishi Electric Corporation Navigation device
JP4741023B2 (en) * 2008-01-31 2011-08-03 三菱電機株式会社 Navigation device
JP2019039739A (en) * 2017-08-24 2019-03-14 沖電気工業株式会社 Information processing device, information processing method and program
JP7027725B2 (en) 2017-08-24 2022-03-02 沖電気工業株式会社 Information processing equipment, information processing methods and programs
JP2019185599A (en) * 2018-04-16 2019-10-24 株式会社Ihi Route simulation device
JP7102890B2 (en) 2018-04-16 2022-07-20 株式会社Ihi Path simulation device
JP2021089282A (en) * 2020-05-28 2021-06-10 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. Ar navigation method and device
JP7267250B2 (en) 2020-05-28 2023-05-01 阿波▲羅▼智▲聯▼(北京)科技有限公司 AR navigation method and device

Similar Documents

Publication Publication Date Title
US8239131B2 (en) Navigation device, navigation method, and navigation program
JP2009020089A (en) System, method, and program for navigation
JP2009250827A (en) Navigation device, method, and program
JPWO2007145190A1 (en) Navigation device and navigation method
JP2014531024A (en) How to move data from image database map service into assist system
JP2008128827A (en) Navigation device, navigation method, and program thereof
JP2007198962A (en) Guidance display device for vehicle
JP2008157636A (en) Vehicle self-localization method and vehicle self-localizing apparatus
JP2011149835A (en) Car navigation device
JPWO2007142084A1 (en) Navigation device
JP2007122247A (en) Automatic landmark information production method and system
JP2005326956A (en) Device and method for informing empty space in parking lot
JP2007206014A (en) Navigation device
JP2005214857A (en) Navigation system, and guide image preparation method
JP2011185951A (en) Navigation system
US20160153802A1 (en) Drive assist system, method, and program
JP2014211431A (en) Navigation device, and display control method
CN102288180B (en) Real-time image navigation system and method
TWI426237B (en) Instant image navigation system and method
JP2007263849A (en) Navigation device
JP6444508B2 (en) Display control device and navigation device
JP2007256048A (en) Navigation system
JP5067847B2 (en) Lane recognition device and navigation device
JP2008002965A (en) Navigation device and method therefor
KR102407296B1 (en) Apparatus and method of displaying point of interest

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071228

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090512