JP2007178378A - Car navigation device - Google Patents

Car navigation device Download PDF

Info

Publication number
JP2007178378A
JP2007178378A JP2005379745A JP2005379745A JP2007178378A JP 2007178378 A JP2007178378 A JP 2007178378A JP 2005379745 A JP2005379745 A JP 2005379745A JP 2005379745 A JP2005379745 A JP 2005379745A JP 2007178378 A JP2007178378 A JP 2007178378A
Authority
JP
Japan
Prior art keywords
map image
display
displayed
dimensional map
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005379745A
Other languages
Japanese (ja)
Inventor
Kazuaki Abe
一哲 安部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universal Entertainment Corp
Original Assignee
Aruze Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aruze Corp filed Critical Aruze Corp
Priority to JP2005379745A priority Critical patent/JP2007178378A/en
Publication of JP2007178378A publication Critical patent/JP2007178378A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a car navigation device capable of displaying both a two-dimensional map image and a three-dimensional map image without narrowing a display domain, and acquiring easily at a glance the present position of own car. <P>SOLUTION: This car navigation device is equipped with a display part for displaying the two-dimensional map image and the three-dimensional map image, an own car position detection means for detecting the present position of own car, and a display control means for controlling display a map image on the display part based on position data showing the own car position detected by the own car position detection means and on map information stored beforehand or received from the outside. The car navigation device is characterized by displaying the three-dimensional map image on the display part, and controlling display of the two-dimensional map image on a part where a structure on the three-dimensional map image is not displayed on an upper part of the display part by the display control means. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、カーナビゲーション装置に関する。 The present invention relates to a car navigation apparatus.

従来、自車を所定の目的地まで誘導する装置として、カーナビゲーション装置がある。カーナビゲーション装置では、GPS受信機等によって得られる自車の現在位置に基づいて、DVD−ROM等に記憶された地図情報を読み出し、現在位置付近の地図を液晶モニタ等の表示部に表示するとともに、所定の出発地から所定の目的地までの走行経路を、音声や画面表示により案内する。 Conventionally, there is a car navigation device as a device for guiding a host vehicle to a predetermined destination. The car navigation device reads map information stored in a DVD-ROM or the like based on the current position of the vehicle obtained by a GPS receiver or the like, and displays a map near the current position on a display unit such as a liquid crystal monitor. The travel route from a predetermined departure place to a predetermined destination is guided by voice or screen display.

一般的に、このようなカーナビゲーション装置は、運転者が見易いように、車室内の前方中央に位置するセンターパネル部に設置されるが、センターパネル部には、空調装置の操作パネル、空調装置の吹出口、ステレオ装置の操作パネル等も配置されるため、カーナビゲーション装置の表示部の面積は、ある程度制限されたものとなっている。 In general, such a car navigation device is installed in a center panel portion located in the front center of the passenger compartment so that a driver can easily see the vehicle navigation device. Since the air outlet and the operation panel of the stereo device are also arranged, the area of the display unit of the car navigation device is limited to some extent.

一方、近年、現在位置付近の地図表示として、表示部に2次元地図画像を表示するだけではなく、運転者から見た景観を3次元的に表示することで、表示した地図と走行中の実際の道路との対応をとりやすく工夫したカーナビゲーション装置が存在する(例えば、特許文献1参照)。 On the other hand, in recent years, as a map display near the current position, not only a two-dimensional map image is displayed on the display unit, but also a three-dimensional display of the landscape viewed from the driver, the displayed map and the actual traveling There is a car navigation device that is easily devised to deal with other roads (see, for example, Patent Document 1).

特開2005−156247号公報JP 2005-156247 A

しかしながら、特許文献1に記載のカーナビゲーション装置では、2次元地図画像が表示部の左側に表示され、3次元地図画像が表示部の右側に表示されるため、夫々の地図画像が表示される領域は、2次元地図画像又は3次元地図画像のみを表示する場合に比べて狭くなるといった問題があった。そのため、表示される地図画像に含まれる周囲の情報が不足することとなり、自車の現在位置が周囲との関係においてどのような位置にあるのかが分かり難いといった問題があった。
また、2次元地図画像と3次元地図画像とを表示部の夫々左右に表示するため、表示部に表示される進行方向は、左画面における上方向且つ右画面における上方向となり、夫々の画像を、別画像として認識してしまいがちになり、自車の現在位置を一目で把握し難い場合があるといった問題があった。
However, in the car navigation device described in Patent Document 1, since the two-dimensional map image is displayed on the left side of the display unit and the three-dimensional map image is displayed on the right side of the display unit, each map image is displayed. Has a problem that it is narrower than when only a two-dimensional map image or a three-dimensional map image is displayed. Therefore, there is a shortage of surrounding information included in the displayed map image, and there is a problem that it is difficult to know the position of the current position of the vehicle in relation to the surroundings.
In addition, since the 2D map image and the 3D map image are displayed on the left and right of the display unit, the traveling direction displayed on the display unit is the upward direction on the left screen and the upward direction on the right screen. However, there is a problem that the current position of the host vehicle may be difficult to grasp at a glance, which tends to be recognized as a separate image.

本発明は、上述した課題に鑑みてなされたものであり、その目的は、表示領域を狭くすることなく、2次元地図画像と3次元地図画像との両方を表示することができ、自車の現在位置を一目で容易に把握することが可能なカーナビゲーション装置を提供することにある。 The present invention has been made in view of the above-described problems, and an object of the present invention is to display both a two-dimensional map image and a three-dimensional map image without reducing the display area. An object of the present invention is to provide a car navigation device capable of easily grasping a current position at a glance.

以上のような目的を達成するために、本発明は、以下のようなものを提供する。
(1) 2次元地図画像及び3次元地図画像を表示する表示部を備えたカーナビゲーション装置であって、
自車の現在位置を検出する自車位置検出手段と、
上記自車位置検出手段が検出した自車位置を示す位置データと、予め記憶された又は外部から受信した地図情報とに基づいて、地図画像を上記表示部に表示する制御を行う表示制御手段と
を備え、
上記表示制御手段は、上記表示部に3次元地図画像を表示するとともに、上記表示部の上部における、上記3次元地図画像上の構造物が表示されていない部分に、2次元地図画像を表示する制御を行うことを特徴とするカーナビゲーション装置。
In order to achieve the above object, the present invention provides the following.
(1) A car navigation device including a display unit for displaying a two-dimensional map image and a three-dimensional map image,
Own vehicle position detecting means for detecting the current position of the own vehicle;
Display control means for performing control to display a map image on the display unit based on position data indicating the vehicle position detected by the vehicle position detection means and map information stored in advance or received from the outside; With
The display control means displays a 3D map image on the display unit, and displays a 2D map image on a portion of the upper part of the display unit where a structure on the 3D map image is not displayed. Car navigation apparatus characterized by performing control.

(1)の発明によれば、表示部に3次元地図画像を表示するとともに、上記表示部の上部における、上記3次元地図画像上の構造物が表示されていない部分、すなわち、上空の部分に、2次元地図画像を表示するため、3次元地図として機能する表示領域を狭くすることなく、3次元地図画像と2次元地図画像との両方を表示することができる。従って、両方の地図画像において、広い表示領域を確保することができ、自車の現在位置が、周囲との関係においてどのような位置にあるのかを容易に把握することができる。
また、表示部には、通常、自車位置が中心となるように表示されるが、このとき、2次元地図画像と3次元地図画像とが上下に表示されるため、自車の位置は、両方の地図において、表示部の横方向中心位置に上下に表示される。従って、運転中に現在位置を確認する場合にも、表示部の中心付近さえを眺めればよいため、自車の位置を一目で把握することができる。
According to the invention of (1), the 3D map image is displayed on the display unit, and at the upper part of the display unit, the structure on the 3D map image is not displayed, that is, the sky part. Since the 2D map image is displayed, both the 3D map image and the 2D map image can be displayed without reducing the display area that functions as the 3D map. Therefore, a wide display area can be secured in both map images, and it is possible to easily grasp what position the current position of the vehicle is in relation to the surroundings.
In addition, the display unit usually displays the vehicle position at the center, but at this time, since the 2D map image and the 3D map image are displayed vertically, the position of the vehicle is In both maps, it is displayed vertically at the horizontal center position of the display unit. Therefore, even when checking the current position during driving, it is only necessary to look at the vicinity of the center of the display unit, so that the position of the host vehicle can be grasped at a glance.

さらに、本発明は、以下のようなものを提供する。
(2) 上記(1)に記載のカーナビゲーション装置であって、
上記表示制御手段は、上記3次元地図画像と上記2次元地図画像とを同一の縮尺で表示する制御を行うことを特徴とする。
Furthermore, the present invention provides the following.
(2) The car navigation device according to (1) above,
The display control means controls to display the 3D map image and the 2D map image at the same scale.

(2)の発明によれば、3次元地図画像と2次元地図画像とを同一の縮尺で表示するため、より直感的に自車の位置を把握することが可能となる。
なお、本発明において、同一の縮尺とは、表示部に表示されている両方の地図の表示範囲が、同一であることをいう。
According to the invention of (2), since the 3D map image and the 2D map image are displayed at the same scale, the position of the own vehicle can be grasped more intuitively.
In the present invention, the same scale means that the display ranges of both maps displayed on the display unit are the same.

さらに、本発明は、以下のようなものを提供する。
(3) 上記(1)又は(2)に記載のカーナビゲーション装置であって、
上記表示制御手段は、上記表示部の上部における、上記3次元地図画像上の構造物が表示されている部分には、上記2次元地図画像を表示しない制御を行うことを特徴とする。
Furthermore, the present invention provides the following.
(3) The car navigation device according to (1) or (2) above,
The display control means performs control not to display the two-dimensional map image in a portion where the structure on the three-dimensional map image is displayed in the upper part of the display unit.

(3)の発明によれば、表示部の上部における、3次元地図画像上の構造物(例えば、ビルや歩道橋等)が表示されている部分には、2次元地図画像を表示しないため、3次元地図画像をより見易くすることができる。 According to the invention of (3), since the two-dimensional map image is not displayed on the portion where the structure (for example, a building, a pedestrian bridge, etc.) on the three-dimensional map image is displayed in the upper part of the display unit. The dimension map image can be made easier to see.

さらに、本発明は、以下のようなものを提供する。
(4) 上記(1)又は(2)に記載のカーナビゲーション装置であって、
上記表示制御手段は、上記表示部の上部における、上記3次元地図画像上の構造物が表示されている部分には、表示色を半透明にした上記2次元地図画像を、上記3次元地図画像よりも手前に表示する制御を行うことを特徴とする。
Furthermore, the present invention provides the following.
(4) The car navigation device according to (1) or (2) above,
The display control means converts the two-dimensional map image with a semi-transparent display color into the three-dimensional map image at a portion where the structure on the three-dimensional map image is displayed in the upper part of the display unit. It is characterized by performing control to display in front of.

(4)の発明によれば、表示部の上部における、3次元地図画像上の構造物が表示されている部分には、表示色を半透明にした2次元地図画像を、上記3次元地図画像よりも手前に表示するため、2次元地図画像と3次元地図画像とが重なる部分については、双方を表示することができる。 According to the invention of (4), the two-dimensional map image in which the display color is made translucent is applied to the portion where the structure on the three-dimensional map image is displayed in the upper part of the display unit. Since the two-dimensional map image and the three-dimensional map image overlap each other, both can be displayed.

本発明によれば、表示領域を狭くすることなく、2次元地図画像と3次元地図画像との両方を表示することができ、自車の位置現在位置を一目で容易に把握することが可能なカーナビゲーション装置を提供することができる。 According to the present invention, both a two-dimensional map image and a three-dimensional map image can be displayed without reducing the display area, and the current position of the host vehicle can be easily grasped at a glance. A car navigation device can be provided.

図1は、本実施形態に係るカーナビゲーション装置の構成を説明するための図である。
カーナビゲーション装置100は、演算処理部1、表示部としてのディスプレイ2、地図記憶装置3、音声入出力装置4、入力装置5、車輪速センサ6、地磁気センサ7、ジャイロセンサ8、GPS受信装置9、交通情報受信装置10、及び、車内LAN装置11を備えている。
FIG. 1 is a diagram for explaining the configuration of the car navigation apparatus according to the present embodiment.
The car navigation device 100 includes an arithmetic processing unit 1, a display 2 as a display unit, a map storage device 3, a voice input / output device 4, an input device 5, a wheel speed sensor 6, a geomagnetic sensor 7, a gyro sensor 8, and a GPS receiver 9. , A traffic information receiving device 10 and an in-vehicle LAN device 11.

演算処理部1は、車輪速センサ6、地磁気センサ7、ジャイロセンサ8及びGPS受信装置9の各種センサから出力されるセンサ情報を基に現在位置を検出し、得られた位置データに基づいた地図情報を地図記憶装置3から読み込み、地図情報に基づいて生成した地図データ(画像データ)を、経路案内に係る画像と重ねてディスプレイ2へ表示したり、ユーザから指示された目的地と現在地を結ぶ最適な経路を選択し、ディスプレイ2上の地図に重ねて表示することでユーザを目的地に案内するといった様々な処理を行う。 The arithmetic processing unit 1 detects a current position based on sensor information output from various sensors of the wheel speed sensor 6, the geomagnetic sensor 7, the gyro sensor 8, and the GPS receiver 9, and a map based on the obtained position data. The information is read from the map storage device 3 and the map data (image data) generated based on the map information is displayed on the display 2 so as to overlap the image related to the route guidance, or the destination and the current location designated by the user are connected. Various processes such as guiding the user to the destination by selecting the optimum route and displaying it on the map on the display 2 are performed.

ディスプレイ2は、CRTや液晶ディスプレイ等で構成されるものであり、演算処理部1で生成された地図データ等に基づいた2次元地図画像や3次元地図画像等を表示することができる。 The display 2 is composed of a CRT, a liquid crystal display, or the like, and can display a 2D map image, a 3D map image, or the like based on the map data generated by the arithmetic processing unit 1.

地図記憶装置3には、地図メッシュデータ、標高データ、3次元地形データ、構造物データ等を含む地図情報が格納されている。地図記憶装置3は、例えば、CD−ROM、DVD−ROM、ハードディスク、ICカードといった大容量記憶媒体で構成されるものである。
地図メッシュデータは、平面的に地点を示すデータであり、経度及び緯度に基づいて決定されたデータである。地図メッシュデータには、道路(リンク)を構成するリンクデータと、道路と道路の交差点を示すノードデータが含まれている。標高データは、各地図メッシュデータが示す地点における標高を示すデータである。3次元地形データは、緑地帯、河川等を表現するデータであり、構造物データは、道路、建物等の構造物の形状等を表現するデータである。なお、3次元地形データ及び構造物データは、ベクトルデータや、ポリゴンデータ等から構成されるデータである。
The map storage device 3 stores map information including map mesh data, elevation data, three-dimensional terrain data, structure data, and the like. The map storage device 3 is composed of a large-capacity storage medium such as a CD-ROM, a DVD-ROM, a hard disk, and an IC card.
The map mesh data is data indicating a point in a plane and is determined based on longitude and latitude. The map mesh data includes link data constituting a road (link) and node data indicating a road-road intersection. The elevation data is data indicating the elevation at the point indicated by each map mesh data. The three-dimensional landform data is data representing a green zone, a river, and the like, and the structure data is data representing the shape of a structure such as a road and a building. The three-dimensional terrain data and structure data are data composed of vector data, polygon data, and the like.

音声入出力装置4は、演算処理部1で生成したユーザへのメッセージを音声信号に変換し出力すると共に、ユーザが発した声を認識し演算処理部1にその内容を入力する処理を行う。 The voice input / output device 4 converts the message to the user generated by the arithmetic processing unit 1 into a voice signal and outputs the voice signal, and recognizes the voice uttered by the user and inputs the content to the arithmetic processing unit 1.

入力装置5は、スクロールキー、縮尺変更キーなどのハードスイッチ、ジョイスティック、ディスプレイ上に貼られたタッチパネルなどで構成されており、ユーザからの指示を受け付ける。 The input device 5 includes hard switches such as a scroll key and a scale change key, a joystick, a touch panel pasted on a display, and the like, and receives an instruction from a user.

カーナビゲーション装置100において、自車位置を検出するために使用するセンサは、車輪の円周と計測される車輪の回転数の積から距離を測定し、さらに対となる車輪の回転数の差から自車が曲がった角度を計測する車輪速センサ6、地球が保持している磁場を検知し移動体が向いている方位を検出する地磁気センサ7、光ファイバジャイロや振動ジャイロといった移動体が回転した角度を検出するジャイロ8、及び、GPS衛星からの信号を受信し移動体とGPS衛星間の距離と距離の変化率を3個以上の衛星に対して測定することで移動体の現在位置、進行速度及び進行方位を測定するGPS受信装置9で構成されている。 In the car navigation apparatus 100, a sensor used to detect the position of the host vehicle measures a distance from the product of the wheel circumference and the measured number of rotations of the wheel, and further determines the difference in the number of rotations of the paired wheels. A wheel speed sensor 6 that measures the angle at which the vehicle is bent, a geomagnetic sensor 7 that detects a magnetic field held by the earth and detects the direction in which the mobile body is facing, and a moving body such as an optical fiber gyroscope and a vibrating gyroscope have rotated. The gyro 8 that detects the angle and the signal from the GPS satellite and the distance between the mobile body and the GPS satellite and the rate of change of the distance are measured with respect to three or more satellites. It consists of a GPS receiver 9 that measures the speed and direction of travel.

交通情報受信装置10は、道路の渋滞情報、工事、通行止めといった規制情報や駐車場情報といった交通情報を発するビーコン送信機やFM多重放送からの信号を受信する。 The traffic information receiving device 10 receives signals from beacon transmitters and FM multiplex broadcasts that generate traffic information such as road traffic congestion information, construction information, traffic information such as traffic closure, and parking information.

車内LAN装置11は、ドアの開閉情報、点灯しているライトの種類と状況、エンジンの状況や故障診断結果等の車両の様々な情報を伝達する。 The in-vehicle LAN device 11 transmits various information of the vehicle such as door opening / closing information, the type and status of lights that are lit, the status of the engine, and failure diagnosis results.

図2(a)、(b)は、図1に示したカーナビゲーション装置が備えるディスプレイに表示される画像の一例を示す図である。
図2(a)に示すように、ディスプレイ2には、運転者の視点から見える景観と略同様の景観を再現した3次元地図画像50が表示されている。3次元地図画像50上には、右側方向を指す誘導矢印51が表示されている。さらに、ディスプレイ2の上部には、2次元地図画像55が表示されている。この2次元地図画像55には、3次元地図画像50として表示されている地図と略同一の範囲の地図が示されている。また、2次元地図画像55には、現在位置マーク56と誘導経路57とが示されている。
なお、本実施形態では、3次元地図画像として、緑地帯、河川等の地形に関する画像や、道路、建物等の構造物に関する画像が表示され、上空部分に相当する箇所には、3次元地図画像としての画像(上空を示す画像)が表示されない場合について説明する。
2A and 2B are diagrams illustrating an example of an image displayed on a display included in the car navigation device illustrated in FIG.
As shown to Fig.2 (a), the display 2 displays the three-dimensional map image 50 which reproduced the scenery substantially the same as the scenery seen from a driver | operator's viewpoint. On the three-dimensional map image 50, a guide arrow 51 pointing in the right direction is displayed. Furthermore, a two-dimensional map image 55 is displayed at the top of the display 2. This two-dimensional map image 55 shows a map in a range substantially the same as the map displayed as the three-dimensional map image 50. In the two-dimensional map image 55, a current position mark 56 and a guide route 57 are shown.
In the present embodiment, as a three-dimensional map image, an image relating to terrain such as a green zone or a river, or an image relating to a structure such as a road or a building is displayed. A case where an image (an image showing the sky) is not displayed will be described.

このように、ディスプレイ2には、3次元地図画像50が表示されるとともに、ディスプレイ2の上部における、3次元地図画像50上の構造物(例えば、建物等)が表示されていない部分、すなわち、上空の部分に2次元地図画像55が表示されている。運転者は、両方の画像を略同時に眺め、瞬時に現状を把握する必要があるのであるが、ディスプレイ2では、2次元地図画像55と3次元地図画像50とが上下に表示されており、自車の位置が、両方の地図において、ディスプレイ2の横方向中心位置に上下に表示されている。従って、運転中に現在位置を確認する場合に、ディスプレイ2の中心付近を眺めればよいため、自車の位置を一目で把握することができる。 As described above, the display 2 displays the 3D map image 50 and a portion of the upper portion of the display 2 where a structure (for example, a building) on the 3D map image 50 is not displayed, that is, A two-dimensional map image 55 is displayed in the sky. The driver needs to view both images almost at the same time and instantly grasp the current state. However, on the display 2, the two-dimensional map image 55 and the three-dimensional map image 50 are displayed vertically. The position of the car is displayed up and down at the horizontal center position of the display 2 in both maps. Accordingly, when checking the current position during driving, it is only necessary to look near the center of the display 2, so that the position of the vehicle can be grasped at a glance.

また、上空部分52に2次元地図画像55を表示するため、3次元地図として機能する表示領域を狭くすることなく、3次元地図画像50と2次元地図画像55との両方を表示することができる。従って、両方の地図画像において、広い表示領域を確保することができ、自車の現在位置が、周囲との関係においてどのような位置にあるのかを容易に把握することができる。
また、3次元地図画像50と2次元地図画像55とが、同一の縮尺で表示されているため、運転者は、より直感的に自車の位置を把握することが可能である。
Further, since the 2D map image 55 is displayed in the sky 52, both the 3D map image 50 and the 2D map image 55 can be displayed without narrowing the display area that functions as the 3D map. . Therefore, a wide display area can be secured in both map images, and it is possible to easily grasp what position the current position of the vehicle is in relation to the surroundings.
Further, since the 3D map image 50 and the 2D map image 55 are displayed at the same scale, the driver can more intuitively grasp the position of the vehicle.

さらに、運転者は、3次元地図画像50と2次元地図画像55とを略同時に見ることにより、右折後の経路がどのようになっているのか、すなわち、3次元地図画像50において建物52等に隠れて見えない部分がどのようになっているのかを知ることができる。 Furthermore, the driver looks at the 3D map image 50 and the 2D map image 55 almost simultaneously to see what the route after the right turn is, that is, to the building 52 or the like in the 3D map image 50. You can see how the hidden and invisible parts look.

図2(b)は、2次元地図画像が3次元地図画像上の構造物と重なる場合に、ディスプレイに表示される画像の一例を示す図である。
図2(b)に示すように、ディスプレイ2には、3次元地図画像60と2次元地図画像65とが表示されている。ディスプレイ2の右上部では、3次元地図画像60として表示されている建物62(構造物)と、2次元地図画像65として表示されている道路68及び誘導経路67とが重なっている。
重なっている部分については、ディスプレイ2に対して、2次元地図画像65が後側、3次元地図画像60が前側に表示されており、3次元地図画像60のみが視認可能になっている。従って、3次元地図画像60として表示されている画像がより現実の景観に近く、見易くなっている。
FIG. 2B is a diagram illustrating an example of an image displayed on the display when the 2D map image overlaps a structure on the 3D map image.
As shown in FIG. 2B, the display 2 displays a 3D map image 60 and a 2D map image 65. In the upper right part of the display 2, the building 62 (structure) displayed as the three-dimensional map image 60 overlaps the road 68 and the guide route 67 displayed as the two-dimensional map image 65.
As for the overlapping portion, the 2D map image 65 is displayed on the rear side and the 3D map image 60 is displayed on the front side with respect to the display 2, and only the 3D map image 60 is visible. Therefore, the image displayed as the three-dimensional map image 60 is closer to a real landscape and easy to see.

図3は、図1に示したカーナビゲーション装置が備える演算処理部の構成を示すブロック図である。
演算処理部1は、数値演算及び各デバイスを制御するといった種々の処理を実行するCPU21、地図記憶装置3から読み取った地図情報、地図情報に基づいて生成した地図データ、経路検索に基づいた検索データ、各種演算データ等を一時的に格納するRAM22、処理プログラムやデータを格納するROM23、高速にメモリとメモリ間及びメモリと各デバイス間のデータ転送を実行するDMA(Direct Memory Access)24、地図データを画素情報に高速に展開して、グラフィックスイメージデータを生成するグラフィックス描画処理を実行する描画コントローラ25、グラフィックスイメージデータを記憶するVRAM26、各色のIDコードで構成されるグラフィックイメージデータをRGBの輝度情報信号に変換するカラーパレット27、アナログ信号をデジタル信号に変換するA/D変換器28、シリアル信号をバスに同期したパラレル信号に変換するSCI29、パラレル信号と同期をとりバス上にのせるPIO30、パルス信号を積分するカウンター31で構成される。
FIG. 3 is a block diagram showing a configuration of an arithmetic processing unit included in the car navigation device shown in FIG.
The arithmetic processing unit 1 includes a CPU 21 that performs various processes such as numerical calculation and control of each device, map information read from the map storage device 3, map data generated based on the map information, and search data based on a route search. , A RAM 22 for temporarily storing various calculation data, a ROM 23 for storing processing programs and data, a DMA (Direct Memory Access) 24 for executing data transfer between the memory and each device at high speed, and map data Are rendered into pixel information at a high speed, a graphics controller 25 for executing graphics rendering processing for generating graphics image data, a VRAM 26 for storing graphics image data, and graphics image data composed of ID codes for each color as RGB. For luminance information signal A color palette 27 for conversion, an A / D converter 28 for converting an analog signal into a digital signal, an SCI 29 for converting a serial signal into a parallel signal synchronized with the bus, a PIO 30 which is synchronized with the parallel signal and placed on the bus, and a pulse signal It is comprised with the counter 31 which integrates.

CPU21は、ROM23に記憶された所定のプログラムに従って、自車位置を演算する処理、ユーザの操作を解析する処理、経路演算に関する処理、案内に関する処理、地図表示に関する処理等を実行する。 In accordance with a predetermined program stored in the ROM 23, the CPU 21 executes processing for calculating the vehicle position, processing for analyzing user operations, processing for route calculation, processing for guidance, processing for map display, and the like.

CPU21は、自車位置を演算する処理として、車輪速センサ6で計測された距離パルスデータと、ジャイロ8で計測された角加速度データとを各々積分した結果得られる角度データを用い、そのデータを時間軸で積分していくことにより、初期位置(X,Y)から自車走行後の位置(X’,Y’)を演算する処理を行う。ここで、自車の回転した角度と進む方位の関係を一致させるため、地磁気センサ7から得られる方位データと、ジャイロ8から得られる角加速度データを積分した角度データを1対1の関係にマッピングし、自車が進行している方向の絶対方位を補正する。また、上述したセンサから得られたデータを積分してゆくとセンサの誤差が蓄積するため、CPU21は、所定の時間周期でGPS受信装置9から得られた位置データをもとに、蓄積した誤差をキャンセルする処理を実行し、正確な位置データをRAM22に記憶する。CPU21は、自車の現在位置を検出する自車位置検出手段として機能するものである。 The CPU 21 uses the angle data obtained as a result of integrating the distance pulse data measured by the wheel speed sensor 6 and the angular acceleration data measured by the gyro 8 as a process for calculating the vehicle position. By integrating on the time axis, a process of calculating the position (X ′, Y ′) after traveling from the initial position (X, Y) is performed. Here, in order to match the relationship between the rotation angle of the host vehicle and the traveling direction, the direction data obtained from the geomagnetic sensor 7 and the angle data obtained by integrating the angular acceleration data obtained from the gyro 8 are mapped into a one-to-one relationship. Then, the absolute bearing in the direction in which the vehicle is traveling is corrected. Further, since the sensor error accumulates when integrating the data obtained from the above-described sensor, the CPU 21 accumulates the accumulated error based on the position data obtained from the GPS receiver 9 at a predetermined time period. A process for canceling is executed, and accurate position data is stored in the RAM 22. The CPU 21 functions as own vehicle position detecting means for detecting the current position of the own vehicle.

また、CPU21は、ユーザの操作を解析する処理として、入力装置5を介してユーザからの要求を受け付けると、その要求内容を解析し、対応する処理が実行されるよう各ユニットを制御する処理を行う。例えば、CPU21は、ユーザが現在地から目的地まで所定の複数経由地を経由し誘導するよう要求したときは、目的地や経由地を設定するための地図を表示する処理を行うように、各ユニットを制御する。 In addition, as a process for analyzing the user's operation, when receiving a request from the user via the input device 5, the CPU 21 analyzes the content of the request and controls each unit so that the corresponding process is executed. Do. For example, when the user requests to guide from the current location to the destination via a predetermined plurality of waypoints, the CPU 21 performs a process of displaying a map for setting the destination and waypoints. To control.

また、CPU21は、経路演算に関する処理として、ダイキストラ法等を用い、現在地から経由地を経て目的地へ向かうリンク/ノードを地図情報から検索し、その結果得られた経路を経路データとしてRAM22に記憶する。このときノードの重み付けを変化させることで、2地点間の距離が最短になる経路、もしくは最も短い時間で到達可能な経路、あるいは最もコストが安くなる経路等をそれぞれ求めることも可能である。 Further, the CPU 21 uses the Dijkstra method or the like as processing related to route calculation, searches for link / node from the current location to the destination via the waypoint from the map information, and stores the obtained route in the RAM 22 as route data. To do. At this time, by changing the weight of the node, it is also possible to obtain a route with the shortest distance between two points, a route that can be reached in the shortest time, a route with the lowest cost, or the like.

また、CPU21は、経路案内に関する処理として、RAM22に蓄えられた誘導経路のリンク/ノード情報と自車位置を示す位置データを比較し、交差点等を通過する前に直進すべきか、右左折すべきかを音声入出力装置4を用い音声でユーザに通知したり、誘導矢印を表示することでユーザに経路を通知する。 In addition, as a process related to route guidance, the CPU 21 compares the link / node information of the guidance route stored in the RAM 22 with the position data indicating the vehicle position, and should it go straight ahead or turn left or right before passing an intersection or the like? Is notified to the user by voice using the voice input / output device 4, or the route is notified to the user by displaying a guidance arrow.

また、CPU21は、地図表示に関する処理として、表示が要求された地点周辺の地図情報を地図記憶装置3から読み出し、指定された縮尺、描画方式で、指定されたオブジェクト等を描画するコマンドを描画コントローラ25に出力する。CPU21は、地図記憶装置3に記憶された地図情報に基づいて、地図画像をディスプレイ2に表示する制御を行う表示制御手段として機能するものである。 In addition, as a process related to map display, the CPU 21 reads out map information around the point where the display is requested from the map storage device 3, and draws a command for drawing a specified object or the like with a specified scale and drawing method. To 25. The CPU 21 functions as a display control unit that performs control to display a map image on the display 2 based on the map information stored in the map storage device 3.

以下においては、カーナビゲーション装置100は起動しており、一定のデータについては、前回に電源を切断した際の値が読み出されているものとする。 In the following, it is assumed that the car navigation apparatus 100 is activated, and for certain data, the value when the power was last turned off is read.

図4は、カーナビゲーション装置において行われる自車位置検出処理のサブルーチンを示すフローチャートである。
まず、CPU21は、回転パルス信号を車輪速センサ6から受信したか否かを判断する(ステップS10)。回転パルス信号を車輪速センサ6から受信していないと判断した場合、本サブルーチンを終了する。一方、回転パルス信号を車輪速センサ6から受信したと判断した場合、処理をステップS11に移す。
FIG. 4 is a flowchart showing a subroutine of own vehicle position detection processing performed in the car navigation device.
First, the CPU 21 determines whether or not a rotation pulse signal has been received from the wheel speed sensor 6 (step S10). If it is determined that the rotation pulse signal has not been received from the wheel speed sensor 6, this subroutine is terminated. On the other hand, if it is determined that the rotation pulse signal has been received from the wheel speed sensor 6, the process proceeds to step S11.

ステップS11において、CPU21は、単位時間内に受けた回転パルス数と1パルスに相当する走行距離と掛け合わせることで自車の走行距離を算出する。次に、ステップS12において、CPU21は、ジャイロ8からの信号に基づいて、単位時間当たりに自車が回転した角度を算出する。そして、前回の演算で得られた方位情報に、求めた回転角度を加算して、自車の進行方位を求める。次に、ステップS13において、CPU21は、得られた方位情報を地磁気センサ7から得られる方位情報と比較して補正する。このように、方位情報を適宜補正することで精度を維持することができる。 In step S11, the CPU 21 calculates the travel distance of the vehicle by multiplying the number of rotation pulses received within the unit time by the travel distance corresponding to one pulse. Next, in step S <b> 12, the CPU 21 calculates an angle at which the host vehicle rotates per unit time based on the signal from the gyro 8. And the calculated rotation angle is added to the azimuth | direction information obtained by the last calculation, and the advancing direction of the own vehicle is calculated | required. Next, in step S <b> 13, the CPU 21 corrects the obtained direction information by comparing it with the direction information obtained from the geomagnetic sensor 7. Thus, the accuracy can be maintained by appropriately correcting the azimuth information.

次に、ステップS14において、CPU21は、単位時間当たりに自車が進んだ距離と方位情報とから得られる進行方位ベクトルに基づいて現在位置(位置データ)を算出する。次に、ステップS15において、CPU21は、GPS受信装置9から絶対位置データを受信する。 Next, in step S <b> 14, the CPU 21 calculates the current position (position data) based on the traveling direction vector obtained from the distance traveled per unit time and the direction information. Next, in step S <b> 15, the CPU 21 receives absolute position data from the GPS receiver 9.

次に、ステップS16において、CPU21は、得られた絶対位置データ(ステップS15参照)と、ステップS14において算出した位置データを比較し、両者の間隔が所定距離以上であるか否かを判断する。両者の間隔が所定距離以上であると判断した場合、CPU21は、GPS受信装置9から受信した絶対位置データを、現在位置を示す位置データと判定する(ステップS17)。一方、両者の間隔が所定距離以上ではないと判断した場合、CPU21は、ステップS14において算出した位置データを、現在位置を示す位置データと判定する(ステップS18)。 Next, in step S16, the CPU 21 compares the obtained absolute position data (see step S15) with the position data calculated in step S14, and determines whether or not the distance between them is equal to or greater than a predetermined distance. When determining that the distance between the two is greater than or equal to the predetermined distance, the CPU 21 determines that the absolute position data received from the GPS receiver 9 is position data indicating the current position (step S17). On the other hand, when determining that the distance between the two is not greater than or equal to the predetermined distance, the CPU 21 determines that the position data calculated in step S14 is position data indicating the current position (step S18).

ステップS17又はステップS18の処理の後、CPU21は、判定結果に基づいて位置データを更新してRAM22に記憶し(ステップS19)、本サブルーチンを終了する。ステップS10〜ステップS19の処理を実行するとき、CPU21は、自車位置検出手段として機能する。
なお、ステップS15の処理を実行するとき、所定期間、GPS受信装置9から絶対位置データを受信できないときは、この処理を行うことなく、ステップS19へ処理を移すこととしてもよい。この場合、ステップS14において算出された位置データを、現在位置を示す位置データとして更新記憶すればよい。
After the process of step S17 or step S18, the CPU 21 updates the position data based on the determination result and stores it in the RAM 22 (step S19), and ends this subroutine. When executing the processes of steps S10 to S19, the CPU 21 functions as a vehicle position detection unit.
In addition, when performing the process of step S15, when absolute position data cannot be received from the GPS receiver 9 for a predetermined period, the process may be shifted to step S19 without performing this process. In this case, the position data calculated in step S14 may be updated and stored as position data indicating the current position.

図5は、カーナビゲーション装置において行われる経路演算処理のサブルーチンを示すフローチャートである。
まず、CPU21は、RAM22に記憶された位置データと、入力装置5から入力された目的地、経由地とに基づいて、地図情報を読み出し(ステップS30)、現在地から経由地を経て目的地を誘導する経路のノード/リンクデータを抽出する(ステップS31)。
FIG. 5 is a flowchart showing a subroutine of route calculation processing performed in the car navigation apparatus.
First, the CPU 21 reads map information based on the position data stored in the RAM 22 and the destination and waypoint input from the input device 5 (step S30), and guides the destination from the current location via the waypoint. The node / link data of the route to be extracted is extracted (step S31).

次に、ステップS32において、CPU21は、誘導経路を構成する各ノードが交差点を形成しているか否かを判断する。この処理において、CPU21は、ノードが3つ以上のリンクから構成されている場合に、そのノードが交差点を示していると判断する。なお、各ノードが2つのリンクから構成されている場合には、当該ノードは、道路の折れ曲がりを示していると判断される。ノードが交差点を形成していると判断した場合(ステップS32:YES)、CPU21は、誘導経路で交差点を構成するノードに接続したリンクがなす角度を参照し(ステップS33)、処理をステップS34に移す。一方、ノードが交差点を形成していないと判断した場合(ステップS32:NO)、処理をステップS36に移す。 Next, in step S32, the CPU 21 determines whether or not each node constituting the guidance route forms an intersection. In this process, the CPU 21 determines that the node indicates an intersection when the node is composed of three or more links. In addition, when each node is comprised from two links, it is judged that the said node has shown the bending of the road. When it is determined that the node forms an intersection (step S32: YES), the CPU 21 refers to the angle formed by the link connected to the node constituting the intersection on the guidance route (step S33), and the process proceeds to step S34. Transfer. On the other hand, if it is determined that the node does not form an intersection (step S32: NO), the process proceeds to step S36.

ステップS34において、CPU21は、ノードに接続したリンクがなす角度が、所定値(例えば、120度)以下であるか否かを判断する。ステップS34の処理は、誘導経路が、対象ノードで右折又は左折するか否かを判断するためものであり、180度以下の角度を成している角度側について、当該角度が所定値以下であるか否かを判断する。所定値以下であると判断した場合、その交差点は右折又は左折すべき交差点であるため、CPU21は、当該ノードを誘導交差点として登録し(ステップS35)、処理をステップS36に移す。一方、ノードに接続したリンクがなす角度が所定値以下ではないと判断した場合、処理をステップS36に移す。 In step S34, the CPU 21 determines whether or not the angle formed by the link connected to the node is a predetermined value (for example, 120 degrees) or less. The process of step S34 is for determining whether or not the guidance route turns right or left at the target node, and for the angle side forming an angle of 180 degrees or less, the angle is equal to or less than a predetermined value. Determine whether or not. If it is determined that the intersection is equal to or less than the predetermined value, the intersection is an intersection to be turned right or left, so the CPU 21 registers the node as a guidance intersection (step S35), and the process proceeds to step S36. On the other hand, if it is determined that the angle formed by the link connected to the node is not less than the predetermined value, the process proceeds to step S36.

ステップS36において、CPU21は、交差点の探索が終了したか否かを判断する。すなわち、すべてのノード及びリンクについて誘導交差点である否かの探索を行ったかを判断する。交差点の探索が終了したと判断した場合、処理をステップS37に移す。一方、交差点の探索が終了していない場合、ステップS32に処理を戻し、誘導交差点の探索を引き続き行う。 In step S36, the CPU 21 determines whether or not the intersection search is completed. That is, it is determined whether all nodes and links have been searched for guidance intersections. If it is determined that the intersection search is complete, the process proceeds to step S37. On the other hand, when the search for the intersection is not completed, the process returns to step S32, and the search for the guidance intersection is continued.

ステップS37において、CPU21は、ステップS30〜ステップS36の処理により候補として設定された経路が、入力装置5の操作により案内経路として確定されたか否かを判断する。候補として設定された経路が、案内経路として確定されなかったと判断した場合、すなわち、所定期間、確定入力がされない、又は、キャンセルの入力があった場合には、候補として設定した経路をクリアし、本サブルーチンを終了する。一方、候補として設定された経路が、案内経路として確定されたと判断した場合、当該経路について、経路案内処理を実行する(ステップS38)。ステップS38の処理の後、本サブルーチンを終了する。 In step S <b> 37, the CPU 21 determines whether or not the route set as a candidate by the processing in steps S <b> 30 to S <b> 36 has been determined as a guide route by operating the input device 5. When it is determined that the route set as a candidate has not been fixed as a guide route, that is, when a fixed input is not made for a predetermined period or when there is a cancel input, the route set as a candidate is cleared, This subroutine ends. On the other hand, when it is determined that the route set as a candidate is confirmed as the guidance route, route guidance processing is executed for the route (step S38). After the process of step S38, this subroutine is terminated.

図6は、図5に示したサブルーチンのステップS38において呼び出されて実行される経路案内処理のサブルーチンを示すフローチャートである。 FIG. 6 is a flowchart showing a route guidance process subroutine called and executed in step S38 of the subroutine shown in FIG.

まず、CPU21は、位置データと誘導交差点に関する情報(ノードデータ)とに基づいて、自車の位置が誘導交差点から所定距離内(例えば、100m内)に入ったか否かを判断する(ステップS50)。自車の位置が誘導交差点から所定距離内に入っていないと判断した場合、処理をステップS54に移す。一方、自車の位置が誘導交差点から所定距離内に入ったと判断した場合、CPU21は、音声入出力装置4から誘導音声を出力させる(ステップS51)。例えば、設定距離が100mの場合には、その距離となった時点で、「100m先、右折して下さい」といった誘導音声を音声入出力装置4から出力させる。次に、ステップS52において、CPU21は、誘導矢印に関するデータをRAM22の所定領域にセットする。その結果、例えば、設定距離が100mの場合には、その距離となった時点で、図2に示したような誘導矢印51がディスプレイ2に表示されることとなる。 First, the CPU 21 determines whether or not the position of the vehicle has entered a predetermined distance (for example, within 100 m) from the guidance intersection based on the position data and information (node data) regarding the guidance intersection (step S50). . If it is determined that the position of the own vehicle is not within the predetermined distance from the guidance intersection, the process proceeds to step S54. On the other hand, when determining that the position of the own vehicle has entered within a predetermined distance from the guidance intersection, the CPU 21 outputs a guidance voice from the voice input / output device 4 (step S51). For example, when the set distance is 100 m, the voice input / output device 4 outputs a guidance voice such as “Please turn right 100 m ahead” when the distance is reached. Next, in step S <b> 52, the CPU 21 sets data related to the guidance arrow in a predetermined area of the RAM 22. As a result, for example, when the set distance is 100 m, a guidance arrow 51 as shown in FIG. 2 is displayed on the display 2 when the distance is reached.

次に、CPU21は、当該誘導交差点を通過したか否かを判断する(ステップS53)。当該誘導交差点を通過していないと判断した場合、処理をステップS53に戻す。一方、当該誘導交差点を通過したと判断した場合、処理をステップS54に移す。 Next, the CPU 21 determines whether or not the vehicle has passed the guidance intersection (step S53). If it is determined that the vehicle has not passed the guidance intersection, the process returns to step S53. On the other hand, if it is determined that the vehicle has passed the guidance intersection, the process proceeds to step S54.

ステップS54において、CPU21は、位置データと目的地に関する情報とに基づいて、目的地に到着したか否かを判断する。目的地に到着した場合、すなわち、目的地から所定距離内(例えば、10m内)に到着した場合、経路案内処理に係るデータをクリアする等の案内終了処理を行い(ステップS55)、本サブルーチンを終了する。一方、目的地に到着していないと判断した場合、処理をステップS50に戻す。 In step S54, the CPU 21 determines whether or not the vehicle has arrived at the destination based on the position data and the information related to the destination. When arriving at the destination, that is, when arriving within a predetermined distance (for example, within 10 m) from the destination, guidance end processing such as clearing the data related to the route guidance processing is performed (step S55), and this subroutine is executed. finish. On the other hand, if it is determined that the destination has not been reached, the process returns to step S50.

図7は、カーナビゲーション装置において行われる地図表示処理のサブルーチンを示すフローチャートである。
以下においては、カーナビゲーション装置100における地図の表示方法に関する設定として、3次元地図画像を表示するとともに、2次元地図画像を、3次元地図画像の上空部分に表示する設定がされている場合について説明する。なお、カーナビゲーション装置100では、入力装置5からのユーザの入力により、複数種類のなかから地図の表示方法に関する設定を選択することが可能である。
FIG. 7 is a flowchart showing a subroutine of map display processing performed in the car navigation device.
In the following, a case where a setting for displaying a 3D map image and displaying a 2D map image in the sky above the 3D map image will be described as a setting related to a map display method in the car navigation device 100. To do. In the car navigation device 100, it is possible to select a setting related to a map display method from among a plurality of types according to a user input from the input device 5.

まず、CPU21は、RAM22に記憶された位置データに基づいて、地図記憶装置3から対応する地図情報を読み出す(ステップS70)。
次に、ステップS71において、CPU21は、地図情報に含まれる地図メッシュデータと標高データとを抽出し、仮想3次元空間を設定する。次に、ステップS72において、CPU21は、読み出した地図情報から、3次元地形データ及び構造物データを抽出し、3次元地形データ及び構造物データに含まれるベクトルデータやポリゴンデータに基づいて、道路、建物、緑地帯、河川等のオブジェクトを仮想3次元空間に配置する。ステップS72における処理は、オブジェクト(道路、建物、緑地帯、河川等)ごとに設定されたモデル空間を仮想3次元空間に変換する処理である。
First, the CPU 21 reads corresponding map information from the map storage device 3 based on the position data stored in the RAM 22 (step S70).
Next, in step S71, the CPU 21 extracts map mesh data and elevation data included in the map information, and sets a virtual three-dimensional space. Next, in step S72, the CPU 21 extracts 3D terrain data and structure data from the read map information, and based on the vector data and polygon data included in the 3D terrain data and structure data, the road, Objects such as buildings, green belts, and rivers are arranged in a virtual three-dimensional space. The processing in step S72 is processing for converting the model space set for each object (road, building, green zone, river, etc.) into a virtual three-dimensional space.

次に、ステップS73において、CPU21は、ステップS72において生成した仮想3次元空間に基づいて、3次元地図データに変換する処理を行う。この処理については、後に図8を用いて詳述することにする。次に、ステップS74において、CPU21は、ステップS72において生成した仮想3次元空間に基づいて、2次元地図データに変換する処理を行う。この処理については、後に図9を用いて詳述することにする。次に、ステップS75において、CPU21は、ステップS74において生成した2次元地図データと、ステップS73において生成した3次元地図データを後方から順に重ね合わせて合成し、さらに、誘導矢印等の画像データを適宜重ね合わせてバッファに記憶することにより、合成画像データを生成する。
次に、ステップS76において、合成データに基づいたグラフィックス描画コマンドを描画コントローラ25に出力する。描画コントローラ25では、受信したグラフィックス描画コマンドに基づいて描画を実行し、2次元地図画像、3次元地図画像、経路案内に関する画像をディスプレイ2に表示することになる(例えば、図2参照)。ステップS70〜ステップS76の処理を実行するとき、CPU21は、位置データと、地図記憶装置3に記憶された地図情報とに基づいて、地図画像をディスプレイ2に表示する制御を行う表示制御手段として機能する。
Next, in step S73, CPU21 performs the process converted into three-dimensional map data based on the virtual three-dimensional space produced | generated in step S72. This process will be described in detail later with reference to FIG. Next, in step S74, the CPU 21 performs processing for conversion to two-dimensional map data based on the virtual three-dimensional space generated in step S72. This process will be described in detail later with reference to FIG. Next, in step S75, the CPU 21 superimposes the two-dimensional map data generated in step S74 and the three-dimensional map data generated in step S73 in order from the rear, and further combines image data such as a guide arrow as appropriate. Composite image data is generated by superimposing and storing in the buffer.
Next, in step S76, a graphics drawing command based on the combined data is output to the drawing controller 25. The drawing controller 25 executes drawing based on the received graphics drawing command, and displays a two-dimensional map image, a three-dimensional map image, and an image relating to route guidance on the display 2 (for example, see FIG. 2). When executing the processing of step S70 to step S76, the CPU 21 functions as a display control unit that performs control to display a map image on the display 2 based on the position data and the map information stored in the map storage device 3. To do.

図8は、図7に示したサブルーチンのステップS73において呼び出されて実行される3次元地図生成処理のサブルーチンを示すフローチャートである。 FIG. 8 is a flowchart showing a subroutine of 3D map generation processing called and executed in step S73 of the subroutine shown in FIG.

まず、CPU21は、オブジェクトが配置された仮想3次元空間(図7、ステップS72参照)を、運転者の視点を原点としたカメラ空間に変換する(ステップS80)。次に、ステップS81において、CPU21は、上記カメラ空間を、視点からの視野(視野角)に対応する立体空間に変換する。その結果、視野内のオブジェクトを抽出することができ、さらに、視点に近いオブジェクトを拡大するとともに、視点から遠いオブジェクトを縮小することができる。 First, the CPU 21 converts the virtual three-dimensional space (see FIG. 7, step S72) in which the objects are arranged into a camera space with the driver's viewpoint as the origin (step S80). Next, in step S81, the CPU 21 converts the camera space into a three-dimensional space corresponding to the field of view (viewing angle) from the viewpoint. As a result, it is possible to extract objects in the field of view, and further enlarge an object close to the viewpoint and reduce an object far from the viewpoint.

次に、ステップS82において、CPU21は、視点からの視野に対応した立体空間内のオブジェクト(ポリゴンデータ)を、ディスプレイ2のスクリーン座標に対応する空間にクリッピングする。 Next, in step S <b> 82, the CPU 21 clips the object (polygon data) in the three-dimensional space corresponding to the visual field from the viewpoint to the space corresponding to the screen coordinates of the display 2.

次に、ステップS83において、CPU21は、各ポリゴンの表面に所定のテクスチャデータを貼り付けるテクスチャマッピングを行い、3次元地図データに変換する。なお、テクスチャマッピングを行うことにより、オブジェクトの外観が決定される。このテクスチャマッピングには、単なるテクスチャデータの貼り付けのみならず、ライトマッピングや環境マッピング、バンプマッピング、透明度マッピング等のテクスチャに対する各種の操作も含まれる。ステップS83の処理の後、本サブルーチンを終了する。 Next, in step S83, the CPU 21 performs texture mapping in which predetermined texture data is pasted on the surface of each polygon, and converts the texture data into three-dimensional map data. The appearance of the object is determined by performing texture mapping. This texture mapping includes not only simple texture data pasting but also various operations on the texture such as light mapping, environment mapping, bump mapping, and transparency mapping. After the process of step S83, this subroutine is terminated.

図9は、図7に示したサブルーチンのステップS74において呼び出されて実行される2次元地図生成処理のサブルーチンを示すフローチャートである。
まず、CPU21は、オブジェクトが配置された仮想3次元空間(図7、ステップS72参照)を、運転者の真上を原点とした擬似2次元空間に変換する(ステップS90)。次に、ステップS91において、CPU21は、上記擬似2次元空間を、道路データのみを残し、経路演算処理(図7参照)により確定した誘導経路に係る画像データを付加して、2次元地図データに変換する。次に、ステップS92において、CPU21は、ディスプレイ2の所定のスクリーン座標(X,Y)が自車位置となるように、2次元地図データを配置する。従って、図2(a)に示す現在位置マーク56が常にディスプレイ2の同じ座標(X,Y)に表示されることとなる。ステップS92の処理の後、本サブルーチンを終了する。
FIG. 9 is a flowchart showing a subroutine of the two-dimensional map generation process that is called and executed in step S74 of the subroutine shown in FIG.
First, the CPU 21 converts the virtual three-dimensional space (see FIG. 7, step S72) in which the objects are arranged into a pseudo two-dimensional space whose origin is directly above the driver (step S90). Next, in step S91, the CPU 21 adds the image data relating to the guidance route determined by the route calculation processing (see FIG. 7) to the two-dimensional map data, leaving only the road data in the pseudo two-dimensional space. Convert. Next, in step S92, the CPU 21 arranges the two-dimensional map data so that predetermined screen coordinates (X D , Y D ) of the display 2 are the own vehicle position. Accordingly, the current position mark 56 shown in FIG. 2A is always displayed at the same coordinates (X D , Y D ) on the display 2. After the process of step S92, this subroutine is terminated.

上述した実施形態では、2次元地図画像と3次元地図画像とが重なる部分については、3次元地図画像を表示する(2次元地図画像を表示しない)場合について発明したが、本発明においてはこの例に限定されず、表示色を半透明にした2次元地図画像を、3次元地図画像よりも手前に表示することとしてもよい。2次元地図画像を半透明にして表示する場合、例えば、以下の処理を上述した実施形態に追加すればよい。
ステップS92(図9参照)の処理の後、3次元地図データ(図8、ステップS83参照)を参照して、3次元地図データにおける構造物の位置座標(スクリーン座標上での構造物が表示される位置座標)を特定する。構造物の位置座標は、スクリーン座標に対応する空間にクリッピングされた構造物データに基づいて特定することができる。次に、2次元地図データにおける上記構造物の存在する位置座標部分に相当する画像データに対して、半透明にする処理を行う。その結果、図10に示すような画像がディスプレイ2に表示される。
半透明にする方法としては、例えば、3次元地図データの色(色情報)と、2次元地図データの色(色情報)との中間色をピクセルごとに決定し、決定した中間色を3次元地図画像の色(色情報)とする方法を用いることができる。また、例えば、両者の画像を所定の係数(アルファ値)を用いて半透明合成する方法(所謂アルファブレンド)を用いることも可能である。このとき、アルファ値は、予め指定されていてもよく、半透明合成する際に指定することとしてもよい。
In the above-described embodiment, the case where the 3D map image is displayed (the 2D map image is not displayed) is invented for a portion where the 2D map image and the 3D map image overlap. However, the present invention is not limited thereto, and a two-dimensional map image whose display color is translucent may be displayed in front of the three-dimensional map image. When the two-dimensional map image is displayed in a translucent manner, for example, the following processing may be added to the above-described embodiment.
After the process of step S92 (see FIG. 9), with reference to the three-dimensional map data (see FIG. 8, step S83), the position coordinates of the structure in the three-dimensional map data (the structure on the screen coordinates are displayed). Position coordinates). The position coordinates of the structure can be specified based on the structure data clipped to the space corresponding to the screen coordinates. Next, the image data corresponding to the position coordinate portion where the structure exists in the two-dimensional map data is processed to be translucent. As a result, an image as shown in FIG. 10 is displayed on the display 2.
As a semi-transparent method, for example, an intermediate color between the color of the 3D map data (color information) and the color of the 2D map data (color information) is determined for each pixel, and the determined intermediate color is used as the 3D map image. The method of setting the color (color information) can be used. Further, for example, a method of translucently combining both images using a predetermined coefficient (alpha value) (so-called alpha blend) can be used. At this time, the alpha value may be specified in advance, or may be specified when the translucent composition is performed.

図10は、カーナビゲーション装置が備えるディスプレイに表示される画像の他の一例を示す図である。
図10に示すように、ディスプレイ2には、3次元地図画像70と2次元地図画像75とが表示されている。ディスプレイ2の右上部では、3次元地図画像70として表示されている建物72(構造物)と、2次元地図画像75として表示されている道路78及び誘導経路77が重なっている。
両画像は、ディスプレイ2に対して、2次元地図画像75が後側、3次元地図画像70が前側に表示されており、且つ、両画像が重なる部分については、2次元地図画像75が、半透明で表示されている。従って、2次元地図画像75と3次元地図画像70とが重なる部分については、双方を視認可能に表示することができる。
FIG. 10 is a diagram illustrating another example of an image displayed on a display included in the car navigation device.
As shown in FIG. 10, a 3D map image 70 and a 2D map image 75 are displayed on the display 2. In the upper right part of the display 2, a building 72 (structure) displayed as a three-dimensional map image 70, a road 78 and a guide route 77 displayed as a two-dimensional map image 75 overlap each other.
As for both images, the 2D map image 75 is displayed on the rear side and the 3D map image 70 is displayed on the front side with respect to the display 2. It is displayed in transparency. Therefore, both the two-dimensional map image 75 and the three-dimensional map image 70 can be displayed so as to be visible.

上述した実施形態では、地図記憶装置3に地図情報が記憶されている場合について説明したが、本発明における地図情報はこの例に限定されず、例えば、情報提供センター等の外部から受信し、RAM等の一時記憶手段に記憶することとしてもよい。 In the above-described embodiment, the case where the map information is stored in the map storage device 3 has been described. However, the map information in the present invention is not limited to this example. For example, the map information is received from the outside such as the information providing center, and the RAM It is good also as storing in temporary storage means, such as.

本発明においては、2次元地図画像に事故地点、交通取締情報、交通渋滞情報等に関する画像を合わせて表示することとしてもよい。これらの情報は、情報提供センター、交通情報センター等から受信することができる。なお、交通渋滞情報等の受信、表示等に係る処理は、従来公知の技術を採用することができる。 In the present invention, an image relating to an accident point, traffic control information, traffic jam information, and the like may be displayed together with a two-dimensional map image. Such information can be received from an information providing center, a traffic information center, or the like. In addition, a conventionally well-known technique can be employ | adopted for the process concerning reception, display, etc. of traffic congestion information.

また、上述した本実施形態では、3次元地図画像と2次元地図画像とを同一の縮尺で表示する場合について説明したが、本発明においてはこの例に限定されず、3次元地図画像と2次元地図画像とは、夫々異なる縮尺で表示されてもよい。所定距離以上、曲がるべき交差点等のノードが存在しない場合には、例えば、片方の画像を広域表示する等して、行程の全容を把握することができるからである。 In the above-described embodiment, the case where the 3D map image and the 2D map image are displayed at the same scale has been described. However, the present invention is not limited to this example, and the 3D map image and the 2D map image are displayed. The map images may be displayed at different scales. This is because when there is no node such as an intersection that should bend beyond a predetermined distance, the entire process can be grasped by, for example, displaying one image in a wide area.

また、上述した本実施形態では、2次元地図画像と3次元地図画像とが重なる場合がある場合について説明したが、本発明において両画像は重ならないこととしてもよく、例えば、2次元地図画像が表示される領域と3次元地図画像が表示される領域とを重ならないように予め設定しておき、各領域に夫々2次元地図画像又は3次元地図画像を表示することとしてもよい。このような方法においても、表示部の上部を有効に利用することができるからである。 In the above-described embodiment, the case where the two-dimensional map image and the three-dimensional map image overlap may be described. However, in the present invention, the two images may not overlap. The displayed area and the area where the 3D map image is displayed may be set in advance so as not to overlap, and a 2D map image or a 3D map image may be displayed in each area. This is because even in such a method, the upper part of the display unit can be used effectively.

また、上述した本実施形態では、3次元地図画像の上空部分に相当する箇所には、上空を示す画像が表示されない場合について説明したが、本発明においては上空を示す画像が表示されてもよい。このようにする場合、例えば、上空を示す画像、2次元地図画像、3次元地図画像の順に後方から重ね合わせた画像を表示部に表示すればよい。 Further, in the present embodiment described above, the case where an image showing the sky is not displayed in the portion corresponding to the sky part of the three-dimensional map image has been described. However, in the present invention, an image showing the sky may be displayed. . In this case, for example, an image obtained by superimposing an image showing the sky, a two-dimensional map image, and a three-dimensional map image from the rear may be displayed on the display unit.

また、上述した本実施形態では、同一の地図情報を用いて3次元地図画像及び2次元地図画像を生成する場合について説明したが、本発明においてはこれに限定されず、例えば、3次元地図画像用の地図情報と、2次元地図画像用の地図情報を別個に記憶、又は、外部から受信することとしてもよい。 Moreover, in this embodiment mentioned above, although the case where a 3D map image and a 2D map image were produced | generated using the same map information was demonstrated, in this invention, it is not limited to this, For example, a 3D map image The map information for use and the map information for the two-dimensional map image may be stored separately or received from the outside.

以上、本発明の実施形態を説明したが、具体例を例示したに過ぎず、特に本発明を限定するものではなく、各手段等の具体的構成は、適宜設計変更可能である。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。 The embodiment of the present invention has been described above, but only specific examples are illustrated, and the present invention is not particularly limited. The specific configuration of each unit and the like can be appropriately changed. The effects described in the embodiments of the present invention are only the most preferable effects resulting from the present invention, and the effects of the present invention are limited to those described in the embodiments of the present invention. is not.

本実施形態に係るカーナビゲーション装置の構成を説明するための図である。It is a figure for demonstrating the structure of the car navigation apparatus which concerns on this embodiment. (a)、(b)は、図1に示したカーナビゲーション装置が備えるディスプレイに表示される画像の一例を示す図である。(A), (b) is a figure which shows an example of the image displayed on the display with which the car navigation apparatus shown in FIG. 1 is provided. 図1に示したカーナビゲーション装置が備える演算処理部の構成を示すブロックズである。2 is a block diagram illustrating a configuration of an arithmetic processing unit included in the car navigation apparatus illustrated in FIG. 1. カーナビゲーション装置において行われる自車位置検出処理のサブルーチンを示すフローチャートである。It is a flowchart which shows the subroutine of the own vehicle position detection process performed in a car navigation apparatus. カーナビゲーション装置において行われる経路演算処理のサブルーチンを示すフローチャートである。It is a flowchart which shows the subroutine of the route calculation process performed in a car navigation apparatus. 図5に示したサブルーチンのステップS38において呼び出されて実行される経路案内処理のサブルーチンを示すフローチャートである。It is a flowchart which shows the subroutine of the route guidance process called and performed in step S38 of the subroutine shown in FIG. カーナビゲーション装置において行われる地図表示処理のサブルーチンを示すフローチャートである。It is a flowchart which shows the subroutine of the map display process performed in a car navigation apparatus. 図7に示したサブルーチンのステップS73において呼び出されて実行される3次元地図生成処理のサブルーチンを示すフローチャートである。It is a flowchart which shows the subroutine of the three-dimensional map production | generation process called and performed in step S73 of the subroutine shown in FIG. 図7に示したサブルーチンのステップS74において呼び出されて実行される2次元地図生成処理のサブルーチンを示すフローチャートである。It is a flowchart which shows the subroutine of the two-dimensional map production | generation process called and performed in step S74 of the subroutine shown in FIG. カーナビゲーション装置が備えるディスプレイに表示される画像の他の一例を示す図である。It is a figure which shows another example of the image displayed on the display with which a car navigation apparatus is provided.

符号の説明Explanation of symbols

1 演算処理部
2 ディスプレイ
3 地図記憶装置
6 車輪速センサ
7 地磁気センサ
8 ジャイロセンサ
9 GPS受信装置
21 CPU
22 RAM
23 ROM
25 描画コントローラ
50、60、70 3次元地図画像
55、65、75 2次元地図画像
100 カーナビゲーション装置
DESCRIPTION OF SYMBOLS 1 Arithmetic processing part 2 Display 3 Map memory | storage device 6 Wheel speed sensor 7 Geomagnetic sensor 8 Gyro sensor 9 GPS receiver 21 CPU
22 RAM
23 ROM
25 Drawing controller 50, 60, 70 3D map image 55, 65, 75 2D map image 100 Car navigation system

Claims (4)

2次元地図画像及び3次元地図画像を表示する表示部を備えたカーナビゲーション装置であって、
自車の現在位置を検出する自車位置検出手段と、
前記自車位置検出手段が検出した自車位置を示す位置データと、予め記憶された又は外部から受信した地図情報とに基づいて、地図画像を前記表示部に表示する制御を行う表示制御手段と
を備え、
前記表示制御手段は、前記表示部に3次元地図画像を表示するとともに、前記表示部の上部における、前記3次元地図画像上の構造物が表示されていない部分に、2次元地図画像を表示する制御を行うことを特徴とするカーナビゲーション装置。
A car navigation device including a display unit for displaying a two-dimensional map image and a three-dimensional map image,
Own vehicle position detecting means for detecting the current position of the own vehicle;
Display control means for performing control to display a map image on the display unit based on position data indicating the vehicle position detected by the vehicle position detection means and map information stored in advance or received from the outside; With
The display control means displays a 3D map image on the display unit, and displays a 2D map image on a portion of the upper part of the display unit where a structure on the 3D map image is not displayed. Car navigation apparatus characterized by performing control.
前記表示制御手段は、前記3次元地図画像と前記2次元地図画像とを同一の縮尺で表示する制御を行うことを特徴とする請求項1に記載のカーナビゲーション装置。 The car navigation device according to claim 1, wherein the display control means performs control to display the three-dimensional map image and the two-dimensional map image at the same scale. 前記表示制御手段は、前記表示部の上部における、前記3次元地図画像上の構造物が表示されている部分には、前記2次元地図画像を表示しない制御を行うことを特徴とする請求項1又は2に記載のカーナビゲーション装置。 The display control means performs control so that the two-dimensional map image is not displayed in a portion where the structure on the three-dimensional map image is displayed in the upper part of the display unit. Or the car navigation apparatus of 2. 前記表示制御手段は、前記表示部の上部における、前記3次元地図画像上の構造物が表示されている部分には、表示色を半透明にした前記2次元地図画像を、前記3次元地図画像よりも手前に表示する制御を行うことを特徴とする請求項1又は2に記載のカーナビゲーション装置。 The display control means is configured to display the two-dimensional map image with a semi-transparent display color on the three-dimensional map image in a portion where the structure on the three-dimensional map image is displayed in the upper part of the display unit. The car navigation device according to claim 1, wherein the display is controlled to the front.
JP2005379745A 2005-12-28 2005-12-28 Car navigation device Withdrawn JP2007178378A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005379745A JP2007178378A (en) 2005-12-28 2005-12-28 Car navigation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005379745A JP2007178378A (en) 2005-12-28 2005-12-28 Car navigation device

Publications (1)

Publication Number Publication Date
JP2007178378A true JP2007178378A (en) 2007-07-12

Family

ID=38303697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005379745A Withdrawn JP2007178378A (en) 2005-12-28 2005-12-28 Car navigation device

Country Status (1)

Country Link
JP (1) JP2007178378A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009101798A (en) * 2007-10-22 2009-05-14 Denso Corp Display device for vehicle
JP2010181363A (en) * 2009-02-09 2010-08-19 Nissan Motor Co Ltd Travel information providing device for vehicle
JP2011021934A (en) * 2009-07-14 2011-02-03 Mitsubishi Electric Corp Navigation device
JP2013076710A (en) * 2012-12-28 2013-04-25 Mitsubishi Electric Corp Navigation device
CN103234546A (en) * 2013-04-18 2013-08-07 易图通科技(北京)有限公司 Lane-changing induction method and device in true three-dimensional navigation

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009101798A (en) * 2007-10-22 2009-05-14 Denso Corp Display device for vehicle
JP2010181363A (en) * 2009-02-09 2010-08-19 Nissan Motor Co Ltd Travel information providing device for vehicle
JP2011021934A (en) * 2009-07-14 2011-02-03 Mitsubishi Electric Corp Navigation device
JP2013076710A (en) * 2012-12-28 2013-04-25 Mitsubishi Electric Corp Navigation device
CN103234546A (en) * 2013-04-18 2013-08-07 易图通科技(北京)有限公司 Lane-changing induction method and device in true three-dimensional navigation

Similar Documents

Publication Publication Date Title
KR100268071B1 (en) Map display method and apparatus and navigation apparatus therewith
KR100266882B1 (en) Navigation device
JP4731627B2 (en) Navigation device
JP4921462B2 (en) Navigation device with camera information
US8423292B2 (en) Navigation device with camera-info
US6587784B1 (en) Stereoscopic map-display method and navigation system using the method
JP4776476B2 (en) Navigation device and method for drawing enlarged intersection
US20100250116A1 (en) Navigation device
JP2001082969A (en) Navigation device
CN101573590A (en) Navigation device and method for displaying navigation information
WO2006092853A1 (en) Map display device and map display method
WO2009084126A1 (en) Navigation device
JP2009236843A (en) Navigation device, navigation method, and navigation program
JPH09281890A (en) Map display device and navigation system
JP2008014754A (en) Navigation apparatus
JP5063871B2 (en) Map display system for portable devices
JP3492887B2 (en) 3D landscape map display method
JP2007178378A (en) Car navigation device
JP3642776B2 (en) Map display method of navigation device and navigation device
JPH10253380A (en) 3d map display device
JP2007309823A (en) On-board navigation device
JP2011174748A (en) Device, method and program for map display
JPH07262492A (en) On-vehicle navigator
JPH10332396A (en) Navigation device
JP3766657B2 (en) Map display device and navigation device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070831

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080821

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20100127