JP4700080B2 - カーナビゲーションシステムおよび方法 - Google Patents

カーナビゲーションシステムおよび方法 Download PDF

Info

Publication number
JP4700080B2
JP4700080B2 JP2008132185A JP2008132185A JP4700080B2 JP 4700080 B2 JP4700080 B2 JP 4700080B2 JP 2008132185 A JP2008132185 A JP 2008132185A JP 2008132185 A JP2008132185 A JP 2008132185A JP 4700080 B2 JP4700080 B2 JP 4700080B2
Authority
JP
Japan
Prior art keywords
target point
screen
vehicle
map
car navigation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008132185A
Other languages
English (en)
Other versions
JP2009128356A (ja
Inventor
スン ヨン イ
イン ハク チュ
ソン イク チョ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronics and Telecommunications Research Institute ETRI
Original Assignee
Electronics and Telecommunications Research Institute ETRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electronics and Telecommunications Research Institute ETRI filed Critical Electronics and Telecommunications Research Institute ETRI
Publication of JP2009128356A publication Critical patent/JP2009128356A/ja
Application granted granted Critical
Publication of JP4700080B2 publication Critical patent/JP4700080B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Description

本発明は、カーナビゲーションシステムおよび方法に関し、特に、車両に搭載されたカメラを用いてリアルタイムに収集される映像に対象地点(Point of Interest:POI)を表示するカーナビゲーションシステムおよび方法に関する。
本発明は、大韓民国情報通信部および情報通信研究振興院のIT成長動力革新技術開発事業の一環として行われた研究から導き出されたものである[課題管理番号:2005−S−114−03、課題名:テレマティックスサービス用実現可能コンテンツの構築および管理技術開発(Technology Development for Construction and Management of Tangible Content for Telematics Services)]。
2次元の地図形態で車両の進行をナビゲートする地図に基づくカーナビゲーションシステムでは、アイコンやテキストの形態で地図画面に対象地点(POI)を表示する。POIは、建物、公園、施設などのオブジェクトのことをいい、POI情報は、地図座標系上の点または面の形態の座標とテキスト情報とを含むデータを有する。
また、車両に搭載されたカメラを用いてリアルタイムに収集された映像によって車両の走行をナビゲートする映像カーナビゲーションシステムでは、車両の前方映像上に重ねてPOIを表示する。しかし、POIを映像に出力するためには、正確なカメラの位置および姿勢が必要である。2次元の地図に基づくカーナビゲーションシステムでは、車両の概略的な位置さえ確認できれば、経路案内や地図出力などの機能を実行するのに大きな問題はないが、映像カーナビゲーションシステムでは、カメラの位置および姿勢のわずかな誤差が存在するだけで、カーナビゲーション機能に大きな影響を及ぼす。例えば、広い道路の1車線を走行する場合および4車線を走行する場合においては、普通のGPS受信機と、2次元カーナビゲーションシステムの機能とでは区分しにくく、また区分する必要もないが、POI情報の映像出力には大きな差をもたらす。
従来では、正確なカメラ情報を得るために、ジャイロスコープのような慣性センサを用いてカメラの位置および姿勢情報を補正する技術が知られている。また、従来では、ジャイロスコープのような慣性センサと傾斜計とを用いてカメラの方位角および傾斜角を検出する技術も知られている。
2次元の地図に基づくカーナビゲーションシステムでは考慮されないが、映像カーナビゲーションシステムにおいて考慮すべき別のことは、道路辺の入口から建物が遠く離れているか、または建物の領域が非常に大きい場合、建物の実際位置とPOIの映像出力位置とに差が生じ得ることである。例えば、建物の中心点だけがPOI座標として記憶されている場合、建物に進入するための入口は、実際に道路辺にあって視野には入るが、建物自体がPOIとして画面に出力されない場合が生じ得る。
従来の映像カーナビゲーションシステムは、正確なカメラ情報を得るために、高価な慣性センサを用いるため、製作単価が増大するという問題点があった。また、従来の映像カーナビゲーションシステムは、POIに関する単一の座標だけしか提供しないため、視野には大型の建物が入るものの、当該建物がPOIとして映像に出力されない場合があり、ドライバに正確なナビゲーションができないという問題点があった。
そこで、本発明は、安価でかつ正確なカメラ情報を取得できる映像カーナビゲーションシステムおよび方法を提供することを目的とする。
また、本発明は、高価な慣性センサを必要とせず、GPS受信機およびカメラだけを用いて、カメラから取得した映像から認識した結果を利用して、POI情報をリアルタイム映像に重ねて出力できる映像カーナビゲーションシステムおよび方法を提供することを目的とする。
さらに、本発明は、従来のPOIデータの構成方式とは異なり、POI座標(点または面)と関連付けられた追加的な点データを用いることにより、建物が画面に表れない場合でも、走行中に道路辺で実際に必要な出入口の位置を画面上に出力してドライバの道探索の手助けとなり得る映像カーナビゲーションシステムおよび方法を提供することを目的とする。
上記の目的を達成するために、本発明の映像カーナビゲーションシステムは、対象地点を画面に表示するための映像カーナビゲーションシステムであって、車両に搭載されたカメラを用いて前記画面を取得するデータ入力部と、前記画面から基準オブジェクトを認識する映像認識部と、前記対象地点および前記基準オブジェクトの地図上の位置に関する情報を提供する電子地図部と、前記基準オブジェクトの前記地図上の位置と、前記対象地点の前記地図上の位置との間の相対的な位置関係を用いて、前記基準オブジェクトを基準にした前記対象地点の前記画面上の対象地点位置を決定する演算部と、前記画面上の前記対象地点位置に前記対象地点を表示する出力部とを備えることを特徴とする。
また、上記の目的を達成するために、本発明の映像カーナビゲーション方法は、対象地点を画面に表示するための映像カーナビゲーション方法であって、(a)データ入力部によって、車両に搭載されたカメラを用いて前記画面を取得するステップと、(b)映像認識部によって、前記画面から基準オブジェクトを認識するステップと、(c)電子地図部によって提供される前記基準オブジェクトの地図上の位置と、前記対象地点の地図上の位置との間の相対的な位置関係を用いて、演算部によって、前記基準オブジェクトを基準にした前記対象地点の前記画面上の対象地点位置を決定するステップと、(d)出力部によって、前記画面上の前記対象地点位置に前記対象地点を表示するステップとを含むことを特徴とする。
ここで、前記基準オブジェクトは信号灯とすることができる。
本発明のこの構成によれば、既存の高価な慣性センサを必要とせずに、基準オブジェクトに対する対象地点の相対的な地図上の位置を用いるだけで対象地点を特定することができる。
また、本発明の映像カーナビゲーションシステムおよび方法において、前記演算部は、前記基準オブジェクトを基準にした前記画面を、複数の画面基準領域に分割する画面基準領域設定部を含み、該画面基準領域設定部は、前記対象地点を前記複数の画面基準領域のうちの1つの画面基準領域に対応させることによって、前記対象地点位置を決定する。ここで、画面基準領域に対する対象地点の対応関係は、車両と基準オブジェクトと対象地点との間の位置関係によって決定される。
また、本発明の映像カーナビゲーションシステムおよび方法において、前記出力部は、前記対象地点の前記地図上の位置から2次元画像座標を計算し、前記対象地点位置に対応付けられる前記画面基準領域に前記2次元画像座標が含まれない場合には、前記2次元画像座標に前記対象地点を表示する代わりに、前記対象地点位置に前記対象地点を表示する。
本発明のこの構成によれば、3次元地図座標から計算した対象地点の2次元画像座標にエラーがある場合、その2次元画像座標の代わりに、基準領域設定過程で特定された対象地点位置に当該対象地点を表示できるため、画面上のより正確な位置に対象地点を表示することができる。
また、本発明の映像カーナビゲーションシステムおよび方法において、前記映像認識部は、前記画面から前記車両の前方の車線を認識する車線認識部を含み、前記演算部は、前記車線認識部によって認識された車線に関する情報から、前記車両の車両方位角を演算する方位角演算部を含むことができる。
ここで、前記出力部は、前記対象地点の前記地図上の位置から2次元画像座標を計算するために用いる車両方位角として、前記演算部によって演算された前記車両方位角およびGPS受信機から提供された車両方位角のうちのいずれか1つの車両方位角を選択することができる。
本発明のこの構成によれば、GPSデータに関して信頼度の高い車速区間(例えば、20km/h以上)では、GPS受信機からの車両方位角を用い、そうではない場合には、認識された車線から演算した車両方位角を用いることができるため、地図上の対象地点位置から2次元画像座標を計算するために用いられる車両方位角をより正確に特定することができる。
また、本発明の映像カーナビゲーションシステムおよび方法において、前記映像認識部は、前記画面から認識した車線に関する情報から前記車両の走行車道を認識する走行車道認識部を含み、前記演算部は、前記走行車道認識部によって認識された前記走行車道に関する情報から前記車両の位置を演算する位置演算部を含むことができる。
ここで、前記データ入力部は、GPS受信機から前記車両の位置情報を受信し、前記位置演算部は、前記GPS受信機から受信した前記車両の前記位置情報を、前記走行車道認識部によって認識された前記走行車道に関する情報を用いて補正することによって、前記車両の位置を演算する。
本発明のこの構成によれば、GPS受信機からの情報により、道路中心線で特定された車両の位置に関して、道路中心線から直角方向の距離誤差を無くすことができる。
また、本発明の映像カーナビゲーションシステムおよび方法において、前記対象地点は、地図上の複数の対象地点座標に関連付けられ、前記演算部は、前記相対的な位置関係を決定するために、前記複数の対象地点座標のうちのいずれか1つの対象地点座標を、前記対象地点の前記地図上の位置に特定することができる。
本発明のこの構成によれば、対象地点を代表する座標と、その座標とリンクして当該対象地点の出入口などを表す座標とを含む複数の座標により、必要に応じて対象地点の位置を画面上に表すことができるため、対象地点をより正確に特定することができる。
本発明によれば、既存の高価な慣性センサを必要とせず、基準オブジェクトに対する対象地点の相対的な地図上の位置だけで、対象地点を特定することが可能となる。
また、本発明によれば、3次元地図座標から計算した対象地点の2次元画像座標にエラーがある場合、その2次元画像座標の代わりに、基準領域設定過程で特定された対象地点位置に当該対象地点を表示できるため、画面上でより正確な位置に対象地点を表示することが可能となる。
また、本発明によれば、GPSデータに関して信頼度が高い車速区間(例えば20km/h)では、GPS受信機からの車両方位角を用い、そうではない場合には認識された車線から演算した車両方位角を用いることができるため、地図上の対象地点位置から2次元画像座標を計算するために用いられる車両方位角をより正確に特定することが可能となる。
また、本発明によれば、GPS受信機からの情報によって、道路中心線で特定された車両の位置に関して、道路中心線から直角方向の距離誤差を無くすことが可能となる。
また、本発明によれば、対象地点を代表する座標と、その座標とリンクして当該対象地点の出入口などを表す座標とを含む複数の座標により、必要に応じて対象地点の位置を画面上に表すことができるため、対象地点をより正確に特定することが可能となる。
以下では、添付図面を参照しながら、本発明の実施形態について説明する。
図1は、本発明の実施形態に係る映像カーナビゲーションシステム100を示す構成図であり、図2は、図1の詳細を示す構成図である。映像カーナビゲーションシステム100は、データ入力部10、電子地図部20、映像認識部30、演算部40、および出力部50を含む。
データ入力部10は、図示していないGPS受信機とカメラとを用いて、車両の現在位置および車両前方の映像を取得する。電子地図部20は、POIの位置座標値および当該POIを説明するテキスト(例えば「ABCビル」のような建物の名称)を含むPOIデータ、信号灯の位置座標値を含む信号灯データ、および電子道路地図を含み、車両の現在位置と関連付けられたPOIデータおよび信号灯データを検索して、電子道路地図にマップマッチングする。映像認識部30は、カメラを用いて取得される道路映像から、車線および信号灯を認識して、車両の現在の走行車道位置を計算する。演算部40は、GPS信号から車両方位角を算出し、映像認識部30から受信した車線および信号灯の画像座標と、車両の現在の走行車道位置とによって、車両方位角および現在の車両位置を計算する。出力部50は、車両位置および車両方位角を用いてPOI座標を画像座標に変換し、映像に重ねて出力する。
本明細書では、道路で車両が走行する広さを有する領域を「車道」といい、「車道」を区分する線(中央線および道路境界線を含む)を「車線」という。また、「走行車道位置」とは、道路の中央線から順に付与した車道の番号をいい、例えば片側4車線道路では、車両が中央から2番目の車道を走行中であれば、走行車道位置=2となる。「車両方位角」とは、地図座標系のN軸に対して車両の進行方向(カメラの光学軸が向く方向と同一)がなす角度をいう。
また、本実施形態では、POIの映像表示のための基準オブジェクトとして、信号灯を用いているが、他のオブジェクトに対する識別力が高く、かつ配置密度の高いオブジェクトであれば、信号灯以外の他のオブジェクトを基準オブジェクトとして用いてもよい。
図2は、図1の映像カーナビゲーションシステム100の詳細な構成図を示している。データ入力部10は、車両前方のリアルタイム映像を取得するためのカメラ11と、車両位置、車両方位角、および車両速度を含むGPSデータを得るためのGPS受信機12とを有する。カメラの方向は、車両の進行方向に平行であると仮定し、本明細書では、車両の進行方向とカメラの方向とは、同一の意味を表すものとして用いられる。また、カメラ11とGPS受信機12との間の距離は、無視できるほど近くに配置されている。
電子地図部20は、電子道路地図部21、マップマッチング処理部22、POIデータ部23、POI検索部24、信号灯データ部25、および信号灯検索部26を含む。電子道路地図部21は、道路の座標を有する。
マップマッチング処理部22は、GPS受信機12からGPS座標を受信して、マップマッチング過程を実行する。マップマッチング過程では、例えば、現在のGPS座標を電子道路地図部21の道路座標と比較演算して、現在のGPS座標と最も近い道路上の位置を計算するが、これに限定されるものではない。すなわち、マップマッチング処理部22は、GPS座標値に存在する誤差を最小化させるために、当該GPS座標値と最も近い道路上の位置として、道路中央線に車両位置をマップマッチングする。したがって、道路中心線と直角方向のGPS誤差が除去される。上記のようなマップマッチング過程を通じて得られた座標値は、演算部40に伝送される。
POIデータ部23は、様々なオブジェクト(建物、公園、施設など)に関する各々のPOI座標値とテキスト属性値とを有している。建物の場合、POI座標は、建物自体の位置を代表的に表すオブジェクト座標値に、当該建物の道路辺の出入口の位置を表す追加座標値がリンクされて構成される。このようなデータの構成については、図3を参照しながらより詳細に説明する。
図3(b)は、オブジェクト自体(すなわち、市役所自体)の座標値を含むオブジェクト座標値テーブルである。オブジェクト座標値は、「市役所」などのテキスト属性値によって互いに区別される。図3(c)は、建物の道路辺の出入口位置を追加的に表す座標値を含む追加座標値テーブルである。追加座標値は、「正門」や「東門」などのテキスト属性値によって互いに区別される。オブジェクト座標値テーブルおよび追加座標値テーブルは、「名称」によってリンクされている。「市役所」の場合、「正門」および「東門」の追加座標値が、市役所自体のオブジェクト座標値とリンクされている。
POI検索部24は、テキスト属性値や座標値などの条件に応じて、POIデータ部23のPOI情報を検索する。図3(a)において、市役所を目的地としてA方向に車両が走行する場合、POI検索部24は、市役所自体のオブジェクト座標値ではなく、「正門」の追加座標値を検索する。このとき、市役所自体のオブジェクト座標値や「東門」の追加座標値を用いようとしても、画面上にはそのような座標値が現れない。同様に、市役所を目的地としてB方向に車両が走行する場合、POI検索部24は、「東門」の追加座標値を検索する。
信号灯データ部25は、道路上の信号灯の座標値を含む信号灯情報を有しており、信号灯検索部26は、信号灯データ部25から、演算部40において必要な信号灯情報を検索して、演算部40に伝送する。
映像認識部30は、車線認識部31、走行車道認識部32、および信号灯認識部33を含む。
車線認識部31は、カメラを用いて取得した映像から車線を認識する。例えば、車線認識部31は、車両前方の映像を画像処理して車両の左右にある車線データを抽出した後、この車線データと、予め記憶されている車道認識パターンデータとを比較する公知の方法によって、車線を認識することができる。車線認識部31は、画像座標上においてパラメータで示された直線の形態でそのように認識した値を、走行車道認識部32および演算部40に伝送する。
走行車道認識部32は、カメラを用いて取得した映像から認識された車線を用いて現在の走行車道位置を計算し、その結果を演算部40に伝送する。例えば、各車道が他の車道と特徴を有して区分できるように道路上に車線が描かれている場合、例えば、中央線は直線状、1車線の右側車線は破線状、2車線の右側車線は一点鎖線状などとして区分している場合、互いに区分される車道に関する認識パターンデータを予め記憶しておき、車線認識部31が、認識した車線認識パターンと一致する車線認識パターンを、その記憶された認識パターンデータから検索することにより、車両が現在どの走行車道で走行中であるかを判断する公知の方法を用いて、現在の走行車道位置を算出することができる。
信号灯認識部33が信号灯を認識する過程は、車線認識部31が車線を認識する過程と類似している。すなわち、信号灯認識部33は、カメラを用いて取得した車両前方映像を処理し、このような処理によって得られた映像データから、予め記憶されている信号灯認識パターンデータと一致する映像データを信号灯として認識し、認識された信号灯の画像座標値を演算部40に伝送する。画像座標値とは、映像カーナビゲーションシステムの画面に表示される映像における座標値をいう。
演算部40は、マップマッチング処理部22から受信した座標値と映像認識部30から受信した映像認識の結果とから、車両位置および車両方位角を計算する。
位置演算部41は、マップマッチング処理部22から受信したマップマッチングデータにより認識された現在の車両位置を、走行車道認識部31から受信した走行車道位置情報によって補正する。前述したように、マップマッチング処理部22は、車両の位置を道路中央線にマップマッチングするため、車両の正確な位置を把握するためには、車両位置に対する補正が必要である。位置演算部41は、走行車道認識部32から受信した走行車道位置によって車両の走行車道位置を認識する。したがって、位置演算部41は、走行車道位置と車道幅とを用いて、車両が道路中心線に対して直角方向に離れている距離を計算することによって、道路中央線にマップマッチングしている車両の位置を実際の車両位置に補正することができる。このとき、各車道幅を表す精密データがある場合には、車道幅には、当該精密データを用い、そうでない場合には、地域別に規格化されている値(例えば、都市地域道路の場合、3.5m)を用いる。
方位角演算部42は、車線認識部32から受信した車線情報を用いて車両方位角を算出する。多くの場合、車線は道路中央線に平行であるため、車両が道路となす角度は、車両が車線となす角度と同一であるとみなすことができる。しかし、実際に車両が走行している場合には、車線と車両とが平行ではなく、角度を有することがあり、このときには、道路が地図のN軸となす角度と、車両がその道路の車線となす角度とを加えて車両方位角を計算する。
方位角演算部42によって、車両が車線となす角度を計算する方法は、例えば、次の通りである。車線認識部32が認識した画面上の車両の左右車線から両車線の中央に向かってそれぞれ仮想の法線を引き、その2つの法線が交わる画面上の点を通過する仮想の水平軸を引いたときに、左側車線からの法線と水平軸がなす第1の角度と、右側車線からの法線と水平軸がなす第2の角度が等しければ、車両が車線となす角度は、0度であるといえる。このようにして、第1の角度と第2の角度との差から、車両が車線となす角度を計算することができる。第1の角度と第2の角度との差が大きくなるほど、車両が車線となす角度は、比例的に増大する。このように計算した車両方位角は、GPS受信機12が提供する車両方位角と共に出力部50によって選択的に用いられる。
画面基準領域設定部43は、信号灯認識部33から受信した信号灯の画像座標値を基準座標値として用いて、映像カーナビゲーションシステムの画面を複数の基準領域に分割し、POIが画面上に表される位置を近似するために、POI検索部24から受信したPOIの位置情報(座標値)と、信号灯検索部26から受信した信号灯の位置情報(座標値)とを比較して、POIを、画面上で分割された画面基準領域に対応させる。すなわち、信号灯の位置を基準にしたPOIの相対的な位置に応じて、各POIが画面上に適切に表示されることになる。
次に、図4を参照して、画面基準領域設定部43が、POIを画面上で分割された基準領域に対応させる方法について説明する。図4(a)の地図上において、信号灯の座標と車両位置とを連結した破線(HL)、および現在の進行道路と直角であり、かつ信号灯座標を通過する破線(VL)によって、地図領域が4個の領域に区分されている。地図上のA、B、C、D、およびEは、POIを示している。
図4(b)は、映像カーナビゲーションシステムの画面を示している。画面基準領域設定部43は、まず、信号灯認識部33から受信した信号灯の画像座標値を用いて、画面上に信号灯を表示し、信号灯を基準として4個の画面基準領域S1、S2、S3、およびS4に画面を区分する。
次に、画面基準領域設定部43は、車両から見たときに地図上で信号灯より左側に表されるA、C、およびEのPOIを、画面上で信号灯より左側の画面基準領域(S1、S3)に対応させ、BおよびDのPOIを、画面上で信号灯より右側の画面基準領域(S2、S4)に対応させる。また、画面基準領域設定部43は、車両から見たときに信号灯よりも近くにあるAおよびBのPOIを、画面上で信号灯より上側の画面基準領域(S1、S2)に対応させ、C、D、およびEのPOIを、画面上で信号灯より下側の画面基準領域(S3、S4)に対応させる。その結果、A、B、C、D、およびEの各POIは、画面上の4個の画面基準領域のうちの1つの画面基準領域に対応することになる。図4の例の場合、EのPOIは、S3の画面基準領域に配置され、BのPOIは、S2の画面基準領域に配置される。
一方、画面基準領域設定部43は、信号灯の座標値と各POIの座標値とを認識することができるため、信号灯の座標値を基準にした各POIの相対的な座標値を用いて、画面上にある程度正確なPOI表示位置を決定することができる。これにより、画面基準領域設定部43は、画面基準領域を区分することなく、信号灯の座標値に対する各POIの相対的な座標値から、当該POIの画面上の表示位置を決定することができる。しかしながら、本実施形態において基準領域を分割する理由は、後述する出力部50において3次元地図座標を2次元画像座標に投影して計算したPOIの画像座標が、画面基準領域設定部43によって対応する基準領域に対応しなければ、当該画像座標が正確に計算されたものではないということを確認できるためである。
出力部50は、車両位置、車両方位角、予め知らされたカメラパラメータ、POIデータ、および画面基準領域の入力を受け取り、出力対象POIの3次元地図座標を2次元画像座標に投影して計算したPOIの画像座標を出力する。このとき、出力部50は、GPS受信機12から提供された車両速度に応じて、GPS受信機12から提供された車両方位角および方位角演算部42によって計算した車両方位角のうちのいずれか1つの車両方位角を用いて、POIの画像座標を計算する。
具体的に、GPS情報が信頼できるとして知られている20km/h以上の車両速度に対しては、GPS受信機12から提供された車両方位角を用い、車両速度が20km/h未満の場合では、方位角演算部42によって計算した車両方位角を用いる。また、車両前方の混雑などによって車線が正しく認識できない場合には、車両速度に関わらず、GPS受信機12から提供された車両方位角を用いる。
また、出力部50は、計算したPOIの画像座標の画面内領域が、画面基準領域設定部43によって対応付けられる画面基準領域と一致するか否かを検査し、一致しない場合には、計算したPOIの画像座標ではない画面基準領域設定部43によって対応付けられる画面基準領域上の画像座標を、当該POIの画像座標として画面に出力する。
また、出力部50は、画面の左側に位置するオブジェクト(建物など)に対しては、当該オブジェクトの左側にタグが付いた3次元ネームボードの形態でPOIデータのテキスト属性値(例えば、建物の名称など)を映像に出力し、画面の右側に位置するオブジェクトに対しては、当該オブジェクトの右側にタグが付いた3次元ネームボードの形態でPOIデータのテキスト属性値を映像に出力する。また、映像に出力されるネームボードは、画面上の他の情報を隠さないように、ある程度透明に構成される。
図5は、本実施形態に係る映像カーナビゲーションシステムの動作のフローチャートを示している。システムが開始すると(S61)、データ入力部10のカメラ11が、一定のフレーム率で車両前方の映像を取得し、GPS受信機12が、一定の時間間隔で現在の位置座標値、車両方位角、および車両速度を検出する(S62)。
データ入力部10は、映像認識部30および出力部50に映像を伝送し、電子地図部20のマップマッチング処理部22に位置座標値を伝送する。マップマッチング処理部22は、その位置座標値を電子道路地図部21にある道路上の最も近い地点(すなわち、中央線)に近似させるマップマッチングを実行し(S63)、マップマッチングされた位置座標値を演算部40に伝送する。
映像認識部30の車線認識部32は、受信した映像から車線を認識して、その結果を走行車道認識部31に伝送し、走行車道認識部31は、受信した映像から、車線認識結果を用いて走行車道位置を計算する(S64)。映像認識部30の信号灯認識部33は受信した映像から信号灯を認識する(S65)。車線は、画像座標の形態で、信号灯認識の結果は、映像に配置される信号灯の画像座標の形態で、走行車道位置は、数字の形態(すなわち、2車線の場合「2」)で、演算部40に伝送される。
演算部40は、前述したような方式により、車線の画像座標から車両方位角を算出し、走行車道位置から車両位置を補正して正確な車両位置を算出する(S66)。
次いで、POI検索部24が、POIデータから出力対象POIを検索する(S68)。検索方法は、図3に基づいて上記にて説明した通りである。POI検索部24は、検索したPOIデータ(座標値およびテキスト属性値)を、演算部40の画面基準領域設定部43に伝送する。そして、画面基準領域設定部43は、POIデータのうちの座標値と車両位置とを比較演算して、POI座標の出力領域を、画面基準領域のうちの1つの画面基準領域に対応させる。
最後に、出力部50は、車両位置、車両方位角、予め知らされたカメラパラメータ、POIデータ、および画面基準領域の入力を受け取り、出力対象POIの3次元地図座標を2次元画像座標に投影して計算したPOIの画像座標を出力する。このとき、出力部50は、GPS受信機12から提供された車両速度に応じて(例えば、20km/hを基準とする)、GPS受信機12から提供された車両方位角および方位角演算部42によって計算した車両方位角のうちのいずれか1つの車両方位角を用いて、POIの画像座標を計算する。また、出力部50は、計算したPOIの画像座標の画面内領域が、画面基準領域設定部43によって対応付けられる画面基準領域と一致するかを検査し、一致しない場合には、計算したPOIの画像座標ではない画面基準領域設定部43によって対応付けられる画面基準領域上の画像座標を、当該POIの画像座標として出力する(S69)。
このとき、出力部50は、画面の左側に位置するオブジェクト(建物など)に対しては、当該オブジェクトの左側にタグが付いた3次元ネームボードの形態でPOIデータのテキスト属性値(例えば、建物の名称など)を映像に出力し、画面の右側に位置するオブジェクトに対しては、当該オブジェクトの右側にタグが付いた3次元ネームボードの形態でPOIデータのテキスト属性値を映像に出力する。また、映像に出力されるネームボードは、画面上の他の情報を隠さないように、ある程度透明に構成される。
このような過程がフレームごとにリアルタイムで繰り返し実行され、システムが終了命令を受けるか、または映像入力が中断すると終了する(S70)。
本発明は、上記の方法を実行するためのプログラムを記録したコンピュータ読み取り可能な記録媒体によっても具現化できる。また、前述した本発明の実施形態は、具体的な構成と図面とによって特定されているが、このような具体的な実施形態によって、本発明の範囲が限定されるわけではない。したがって、本発明は、本発明の本質を逸脱しない限り、様々な変形形態およびその均等形態を含むものとして理解すべきである。
本発明の実施形態に係る映像カーナビゲーションシステムを示す構成図である。 図1の映像カーナビゲーションシステムの詳細を示す構成図である。 POIデータの構成および検索を説明するための概念図である。 画面基準領域設定を説明するための概念図である。 本発明の実施形態に係る映像カーナビゲーションシステムの動作を示すフローチャートである。
符号の説明
10 データ入力部
20 電子地図部
30 映像認識部
40 演算部
50 出力部
11 カメラ
12 GPS受信機
21 電子道路地図部
22 マップマッチング処理部
23 POIデータ部
24 POI検索部
25 信号灯データ部
26 信号灯検索部
31 車線認識部
32 走行車道認識部
33 信号灯認識部
41 位置演算部
42 方位角演算部
43 画面基準領域設定部

Claims (16)

  1. 対象地点を画面に表示するための映像カーナビゲーションシステムであって、
    車両に搭載されたカメラを用いて、前記画面を取得するデータ入力部と、
    前記画面から基準オブジェクトを認識する映像認識部と、
    前記対象地点および前記基準オブジェクトの地図上の位置に関する情報を提供する電子地図部と、
    前記基準オブジェクトの前記地図上の位置と、前記対象地点の前記地図上の位置との間の相対的な位置関係を用いて、前記基準オブジェクトを基準にした前記対象地点の前記画面上の対象地点位置を決定する演算部と、
    前記画面上の前記対象地点位置に前記対象地点を表示する出力部と
    を備えたことを特徴とする映像カーナビゲーションシステム。
  2. 前記演算部は、前記基準オブジェクトを基準として、前記画面を複数の画面基準領域に分割する画面基準領域設定部を含み、
    該画面基準領域設定部は、前記対象地点を前記複数の画面基準領域のうちの1つの画面基準領域に対応させることによって、前記対象地点位置を決定する
    ことを特徴とする請求項1に記載の映像カーナビゲーションシステム。
  3. 前記出力部は、前記対象地点の前記地図上の位置から2次元画像座標を計算し、前記対象地点が対応付けられている画面基準領域に前記2次元画像座標が含まれない場合には、前記2次元画像座標に前記対象地点を表示する代わりに、前記対象地点位置に前記対象地点を表示する
    ことを特徴とする請求項2に記載の映像カーナビゲーションシステム。
  4. 記映像認識部は、前記画面から前記車両の前方の車線を認識する車線認識部を含み、
    前記演算部は、前記車線認識部によって認識された前記車線に関する情報から、前記車両の車両方位角を演算する方位角演算部を含む
    ことを特徴とする請求項1に記載の映像カーナビゲーションシステム。
  5. 前記映像認識部は、前記画面から認識した車線に関する情報から前記車両の走行車道を認識する走行車道認識部を含み、
    前記演算部は、前記走行車道認識部によって認識された前記走行車道に関する情報から前記車両の位置を演算する位置演算部を含む
    ことを特徴とする請求項1に記載の映像カーナビゲーションシステム。
  6. 前記データ入力部は、GPS受信機から前記車両の位置情報を受信し、
    前記位置演算部は、前記GPS受信機から受信した前記車両の前記位置情報を、前記走行車道認識部によって認識された前記走行車道に関する情報を用いて補正することによって前記車両の位置を演算する
    ことを特徴とする請求項5に記載の映像カーナビゲーションシステム。
  7. 前記対象地点は、地図上の複数の対象地点座標に関連付けられ、
    前記演算部は、前記相対的な位置関係を決定するために、前記複数の対象地点座標のうちのいずれか1つの対象地点座標を、前記対象地点の前記地図上の位置に特定する
    ことを特徴とする請求項1に記載の映像カーナビゲーションシステム。
  8. 前記演算部は、前記複数の対象地点座標のうち、前記車両の現在位置と最も近い対象地点座標を、前記対象地点の前記地図上の位置に特定する
    ことを特徴とする請求項7に記載の映像カーナビゲーションシステム。
  9. 前記複数の対象地点座標は、前記対象地点の出入口の座標を含む
    ことを特徴とする請求項7に記載の映像カーナビゲーションシステム。
  10. 前記基準オブジェクトは信号灯である
    ことを特徴とする請求項1に記載の映像カーナビゲーションシステム。
  11. 対象地点を画面に表示するための映像カーナビゲーション方法であって、
    (a)データ入力部によって、車両に搭載されたカメラを用いて、前記画面を取得するステップと、
    (b)映像認識部によって、前記画面から基準オブジェクトを認識するステップと、
    (c)電子地図部によって提供される前記基準オブジェクトの地図上の位置と、前記対象地点の地図上の位置との間の相対的な位置関係を用いて、演算部によって、前記基準オブジェクトを基準にした前記対象地点の前記画面上の対象地点位置を決定するステップと、
    (d)出力部によって、前記画面上の前記対象地点位置に、前記対象地点を表示するステップと
    を含むことを特徴とする映像カーナビゲーション方法。
  12. 前記ステップ(c)は、
    前記基準オブジェクトを基準として、前記画面を複数の画面基準領域に分割するステップと、
    前記対象地点を前記複数の画面基準領域のうちの1つの画面基準領域に対応させることによって、前記対象地点位置を決定するステップと
    を含み、
    前記ステップ(d)は、
    前記対象地点の地図上の位置から2次元画像座標を計算するステップと、
    前記対象地点が対応付けられている画面基準領域に前記2次元画像座標が含まれない場合には、前記2次元画像座標に前記対象地点を表示する代わりに、前記対象地点位置に前記対象地点を表示するステップと
    を含むことを特徴とする請求項11に記載の映像カーナビゲーション方法。
  13. 前記ステップ(b)は、
    前記画面から前記車両の前方の車線を認識するステップ
    を含み、
    前記ステップ(c)は、
    前記認識された車線に関する情報から前記車両の車両方位角を演算するステップ
    を含み、
    前記ステップ(d)は、
    前記対象地点の地図上の位置から2次元画像座標を計算するために用いる車両方位角として、前記ステップ(c)で演算された前記車両方位角およびGPS受信機から提供された車両方位角のうちのいずれか1つの車両方位角を、前記車両の現在速度を基準として選択するステップ
    を含むことを特徴とする請求項11に記載の映像カーナビゲーション方法。
  14. 前記ステップ(b)は、
    前記画面から認識された車線に関する情報から前記車両の走行車道を認識するステップ
    を含み、
    前記ステップ(c)は、
    前記認識された走行車道に関する情報から前記車両の位置を演算するステップ
    を含むことを特徴とする請求項11に記載の映像カーナビゲーション方法。
  15. 前記対象地点は、地図上の複数の対象地点座標に関連付けられ、
    前記ステップ(c)は、
    前記相対的な位置関係を決定するために、前記複数の対象地点座標のうちのいずれか1つの対象地点座標を、前記対象地点の前記地図上の位置に特定するステップ
    を含むことを特徴とする請求項11に記載の映像カーナビゲーション方法。
  16. 前記ステップ(b)は、
    前記画面から、前記基準オブジェクトとして信号灯を認識するステップ
    を含むことを特徴とする請求項11に記載の映像カーナビゲーション方法。
JP2008132185A 2007-11-26 2008-05-20 カーナビゲーションシステムおよび方法 Expired - Fee Related JP4700080B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020070120833A KR100887721B1 (ko) 2007-11-26 2007-11-26 영상 차량 항법 장치 및 방법
KR10-2007-0120833 2007-11-26

Publications (2)

Publication Number Publication Date
JP2009128356A JP2009128356A (ja) 2009-06-11
JP4700080B2 true JP4700080B2 (ja) 2011-06-15

Family

ID=40697911

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008132185A Expired - Fee Related JP4700080B2 (ja) 2007-11-26 2008-05-20 カーナビゲーションシステムおよび方法

Country Status (2)

Country Link
JP (1) JP4700080B2 (ja)
KR (1) KR100887721B1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5651372B2 (ja) * 2010-05-18 2015-01-14 株式会社Nttドコモ 投稿情報制御装置、投稿情報制御システム及び投稿情報制御方法
JP6165422B2 (ja) * 2012-06-28 2017-07-19 株式会社ナビタイムジャパン 情報処理システム、情報処理装置、サーバ、端末装置、情報処理方法、及びプログラム
DE102012110219A1 (de) * 2012-10-25 2014-04-30 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Erkennung von gekennzeichneten Gefahr- und/oder Baustellen im Bereich von Fahrbahnen
KR101500168B1 (ko) * 2013-10-14 2015-03-06 현대자동차주식회사 주행 도로의 측면 경계 인지 방법
CN105333878A (zh) * 2015-11-26 2016-02-17 深圳如果技术有限公司 一种路况视频导航***及方法
KR102441053B1 (ko) * 2016-11-21 2022-09-06 현대자동차주식회사 차량의 주행차로 추정 장치 및 방법
JP7132704B2 (ja) * 2017-09-21 2022-09-07 株式会社Subaru 位置検出装置
EP3729000A4 (en) * 2017-12-21 2021-07-14 Bayerische Motoren Werke Aktiengesellschaft METHOD, DEVICE AND SYSTEM FOR DISPLAYING POI INFORMATION WITH EXTENDED REALITY
KR101871441B1 (ko) * 2018-02-27 2018-06-27 뉴비전엔지니어링(주) 자율주행차량용 고정밀전자지도 제작을 위한 음성인식 현장조사와 도로선형 생성 시스템
WO2023008444A1 (ja) * 2021-07-27 2023-02-02 Ultimatrust株式会社 情報処理装置、プログラム及び測位方法
CN113781893A (zh) * 2021-09-18 2021-12-10 万翼科技有限公司 交通路线立体模型生成方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004045227A (ja) * 2002-07-12 2004-02-12 Alpine Electronics Inc 車両位置測定装置および方法
JP2006105640A (ja) * 2004-10-01 2006-04-20 Hitachi Ltd ナビゲーション装置
JP2007011937A (ja) * 2005-07-04 2007-01-18 Nissan Motor Co Ltd 信号機検出システム、信号機検出装置、情報センター、および信号機検出方法
JP2007272511A (ja) * 2006-03-31 2007-10-18 Casio Comput Co Ltd 情報伝送システム、撮像装置、情報出力方法、及び、情報出力プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050081492A (ko) * 2004-02-13 2005-08-19 디브이에스 코리아 주식회사 전방 실제 영상을 사용한 자동차 항법 장치 및 그 제어 방법
KR100685790B1 (ko) * 2004-10-25 2007-02-22 한국전자통신연구원 영상기반 네비게이션 시스템 및 그 방법
KR100682976B1 (ko) * 2004-12-16 2007-02-15 한국전자통신연구원 영상기반 경로정보 생성 시스템 및 그 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004045227A (ja) * 2002-07-12 2004-02-12 Alpine Electronics Inc 車両位置測定装置および方法
JP2006105640A (ja) * 2004-10-01 2006-04-20 Hitachi Ltd ナビゲーション装置
JP2007011937A (ja) * 2005-07-04 2007-01-18 Nissan Motor Co Ltd 信号機検出システム、信号機検出装置、情報センター、および信号機検出方法
JP2007272511A (ja) * 2006-03-31 2007-10-18 Casio Comput Co Ltd 情報伝送システム、撮像装置、情報出力方法、及び、情報出力プログラム

Also Published As

Publication number Publication date
JP2009128356A (ja) 2009-06-11
KR100887721B1 (ko) 2009-03-12

Similar Documents

Publication Publication Date Title
JP4700080B2 (ja) カーナビゲーションシステムおよび方法
US8239131B2 (en) Navigation device, navigation method, and navigation program
JP5062497B2 (ja) 風景画像認識を用いた自車位置検出システム
US7948397B2 (en) Image recognition apparatuses, methods and programs
KR100266882B1 (ko) 네비게이션 장치
US8134480B2 (en) Image processing system and method
US20180045516A1 (en) Information processing device and vehicle position detecting method
US7463974B2 (en) Systems, methods, and programs for determining whether a vehicle is on-road or off-road
JP5505723B2 (ja) 画像処理システム及び位置測位システム
JP3568768B2 (ja) 車両位置同定装置
KR20180088149A (ko) 차량 경로 가이드 방법 및 장치
US20070021912A1 (en) Current position information management systems, methods, and programs
US20090240426A1 (en) Navigation device and navigation method
US20110242311A1 (en) Image processing system and position measurement system
EP2482036B1 (en) Course guidance system, course guidance method, and course guidance program
JP4596566B2 (ja) 自車情報認識装置及び自車情報認識方法
JP2004226341A (ja) マップマッチング方法
JP4760274B2 (ja) 地図更新装置
JP4936070B2 (ja) ナビゲーション装置及びナビゲーションプログラム
JP4953015B2 (ja) 自車位置認識装置と自車位置認識プログラム、及びこれを用いたナビゲーション装置
JP2007140992A (ja) 交差点での運転支援方法及び運転支援装置
JP2914111B2 (ja) 経路案内装置
JP2009058430A (ja) ナビゲーション装置及びナビゲーションプログラム
JP7024871B2 (ja) 経路算出方法、運転制御方法及び経路算出装置
JP2013050411A (ja) 自車位置認識システム、自車位置認識プログラム、及び自車位置認識方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100813

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101115

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110303

LAPS Cancellation because of no payment of annual fees