JP2011215973A - 風景マッチング用参照データ生成システム及び位置測位システム - Google Patents

風景マッチング用参照データ生成システム及び位置測位システム Download PDF

Info

Publication number
JP2011215973A
JP2011215973A JP2010084690A JP2010084690A JP2011215973A JP 2011215973 A JP2011215973 A JP 2011215973A JP 2010084690 A JP2010084690 A JP 2010084690A JP 2010084690 A JP2010084690 A JP 2010084690A JP 2011215973 A JP2011215973 A JP 2011215973A
Authority
JP
Japan
Prior art keywords
image
data
reference data
unit
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010084690A
Other languages
English (en)
Other versions
JP5057183B2 (ja
Inventor
Takayuki Miyajima
孝幸 宮島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2010084690A priority Critical patent/JP5057183B2/ja
Priority to US13/020,304 priority patent/US8452103B2/en
Priority to EP11153983A priority patent/EP2372611A3/en
Priority to CN201110071023.8A priority patent/CN102208013B/zh
Publication of JP2011215973A publication Critical patent/JP2011215973A/ja
Application granted granted Critical
Publication of JP5057183B2 publication Critical patent/JP5057183B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】多数のプローブカーから収集された撮影画像に基づき、風景画像マッチング用の効果的な参照用画像データを生成する。
【解決手段】推定自車位置を算定する機能を有する複数のプローブカーによって順次取得されたプローブデータから取り出された所定撮影位置領域の撮影画像の撮影位置の精度信頼度を評価して、この精度信頼度を撮影画像に付与し、所定度以上の精度信頼度を有する複数の撮影画像を処理対象撮影画像として選別し、各々の処理対象撮影画像の画像特徴点を抽出し、それらを統計処理して画像特徴点データを生成する。この画像特徴点データにこの画像特徴点データの元になった処理対象撮影画像の撮影位置を関係付けて、風景マッチングに利用される参照データが生成される
【選択図】図1

Description

本発明は、風景マッチング用参照データ生成システム、及びその参照データを用いた位置測位システムに関する。
従来から、カーナビゲーション装置では、車両の現在位置を算出する方法として、ジャイロや地磁気センサ等のセンサから取得した情報を利用する方法(自律航法)、GPS衛星からの信号を利用する方法、あるいは自律航法とGPSとを組合せる方法が採用されている。さらに、高精度に現在位置を算出するために、GPS衛星からの信号等を利用して暫定的な現在位置を求めておいて、撮影された車両前方の画像を用いて、暫定現在位置を基準にした座標系(自動車座標系)における道路標示の特徴点の座標(自動車座標系特徴点)を算出し、算出した自動車座標系特徴点と記憶している道路標示の特徴点の座標(ワールド座標系で示した座標)とを用いて、車両の現在位置を算出するように構成された位置測位装置が知られている(例えば、特許文献1参照)。この装置では、測位衛星からの信号および各種センサからの信号による測位では誤差を含んでしまう場合であっても、精度の高い現在位置を算出することが可能となる。
特開2007−208043号公報(段落番号0009−0013、図1)
しかし、上記特許文献1による位置測位装置では、道路上の道路標示の特徴点の空間座標をステレオ画像から求め、道路標示情報データベースに収められたその特徴点を有する道路標示の緯度・経度によって求められた座標を用いて自車位置を算出するので、道路標示のない場所では利用できない。また、画像処理によって認識された特徴点の空間座標を演算する必要があるので、装置には高い演算能力が要求され、コストアップの要因となる。
そこで、道路標識のない道路や特定敷地内においても利用できるとともに、各特徴点の空間座標を位置算出毎に演算しなくてもよい位置決めとして風景画像認識技術の利用が考えられる。その際、風景画像認識技術に利用される効果的な参照用画像データの作成が重要となるが、必要な参照データの枚数が膨大なものとなることから、一般車両にも参照データ用の撮影画像の取得を依頼すると好都合である。つまり、プローブカーの考え方をこの参照データの生成に適用することになるが、そのような一般車両によって収集された撮影画像には精度の高い撮影位置(自車位置)が付属するケースや、精度の低い撮影位置(自車位置)が付属するケースが混在する。このため、多数のプローブカーから収集された、参照データ作成目的の撮影画像の適切な取り扱いが重要な課題となる。
上記課題を解決するための本発明に係る車両からの風景を画像認識する風景マッチングに行う際に利用される参照データを作成する風景マッチング用参照データ生成システムの特徴構成は、推定自車位置を算定する機能を有する複数のプローブカーによって順次取得された撮影画像と当該撮影画像の撮影位置としての前記推定自車位置とを含むプローブデータを入力するデータ入力部と、前記プローブデータから取り出された撮影位置の撮影画像を一時格納する一時格納部と、前記一時格納部に格納された撮影画像の撮影位置の精度信頼度を評価して、当該撮影画像に前記精度信頼度を付与する精度信頼度評価部と、前記一時格納部から所定度以上の精度信頼度を有する複数の撮影画像を処理対象撮影画像として選別する処理対象データ選別部と、前記複数の処理対象撮影画像から各々の処理対象撮影画像の画像特徴点を抽出し、それらを統計処理して画像特徴点データを生成する画像特徴点データ生成部と、前記画像特徴点データに前記複数の処理対象撮影画像の撮影位置を関係付けて、前記風景マッチングに利用される前記参照データを生成する参照データ生成部とを備えた点にある。
この特徴構成によれば、種々のプローブカーによって取得されたプローブデータを取り込み、その撮影画像の撮影位置に対する精度信頼度の評価結果に基づいて所定度以上の精度信頼度を有する複数の撮影画像だけが処理対象撮影画像として選別され、この処理対象撮影画像から演算された画像特徴量に基づいて生成された画像特徴点データに当該画像特徴点データの元になった処理対象撮影画像の撮影位置を関係付けることで参照データが生成される。まずは、プローブカーに搭載されている自車位置算定機能の優劣や走行状況ななどにより、その自車位置精度にばらつきが生じるので、その撮影位置に対する精度信頼度を評価して、高い精度信頼度を有する撮影画像だけ処理対象として選別される。さらに、その選別された撮影画像から演算された画像特徴量に基づいて画像特徴点データが作成され、画像特徴点データが表す画像特徴量は偏りのない、安定したデータとなる。その結果、その画像特徴点データから生成された参照データは風景マッチングに適したものとなる。
より信頼性の高い参照データを生成するためには、画像特徴点データに関係付けられる撮影位置の正確さも必要である。高い精度信頼度を有する撮影画像だけを処理対象撮影画像として選別する場合にも、複数のプローブデータから取り出される撮影画像と撮影位置とから参照データを生成する場合、互いの撮影位置(算定された推定自車位置)がばらつきを有することは避けがたい。このようなケースにおいても、できるだけ高い信頼性をもつ参照データを生成するため、本発明の好適な実施形態の1つでは、前記複数の処理対象撮影画像のそれぞれの撮影位置を統計的に処理して、前記複数の処理対象撮影画像の代表撮影位置を演算する代表撮影位置演算部がさらに備えられ、前記代表撮影位置が前記画像特徴点データに関係付けられる処理対象撮影画像の撮影位置となるように構成されている。
撮影画像の撮影位置に対する精度信頼度の評価を効率的に行うために、本発明による好適な実施形態の1つでは、前記各プローブカーの自車位置精度を表す情報と前記各プローブカーの走行状況を表す情報とに応じて前記撮影画像の撮影位置の精度信頼度を規定している精度信頼度テーブルが備えられ、前記精度信頼度評価部は前記精度信頼度テーブルを利用して前記撮影画像毎の前記精度信頼度を評価する。撮影位置の精度に大きな影響を及ぼす要因として、各プローブカーの自車位置精度や各プローブカーの走行状況が挙げられる。ここで、各プローブカーの自車位置精度を表す情報としては、例えば、各プローブカーに搭載されている自車位置算定機能の性能を示す自車位置精度レベルの情報や、交差点や屈曲路において確定された自車位置からの走行距離である位置補正情報等がある。また、各プローブカーの走行状況としては、例えば、プローブカーが走行中の道路の自車位置補正可能地点の数や、スリップや蛇行走行などが発生しやすい道路を走行中かどうかを示す道路状況や、自車位置算定の誤差に影響を与えるような運転であるかどうかを示す運転状況等がある。したがって、そのような撮影位置の精度が変化する要因とその変化の程度を予め求めておいて、テーブル化することで精度信頼度の評価が迅速かつ正確なものとなる。
撮影画像の撮影位置に対する精度信頼度の評価を効率的に行うために、本発明による別な好適実施形態の1つでは、前記プローブデータには、前記撮影位置の精度信頼度を示す精度信頼度データが含まれており、前記精度信頼度評価部は前記精度信頼度データを利用して前記撮影画像毎の前記精度信頼度を評価するように構成されている。この構成では、先の構成とは異なり、プローブデータ自体に予め評価された精度信頼度が含まれているので、取り込まれた各プローブデータからその精度信頼度を読み取ることにより、精度信頼度に関する並び替えを簡単に実行することができ、処理対象撮影画像の選別が簡単となる。
本発明による好適な実施形態の1つとして、前記一時格納部に格納された撮影画像の画像類似度を評価して、当該撮影画像に前記画像類似度を付与する画像類似度評価部がさらに備えられており、前記処理対象データ選別部は前記一時格納部から所定度以上の画像類似度を有する複数の撮影画像を前記処理対象撮影画像として選別するものがある。この構成では、取り込んだプローブデータの平均的な撮影位置の精度信頼度が低い場合には、撮影位置は無視して、その撮影画像の類似度を評価し、類似度が高い撮影画像を処理対象データとして選別する。撮影画像の類似度が高いということは、同じ撮影位置で撮影された可能性が高いので、それらを処理対象撮影画像として画像特徴量を演算して、画像特徴点データを生成する。さらに、処理対象撮影画像の撮影位置を、例えば、統計的に処理して代表的な撮影位置を求め、この代表的な撮影位置を画像特徴点データに関連付けて参照データを生成することで、プローブデータの撮影位置が大きくばらついていても、信頼性の高い画像特徴点と撮影位置を有する参照データを得ることが可能となる。
従って、精度信頼度または画像類似度に関する選別条件を有効に利用するために、好適な実施形態では、前記一時格納部から所定度以上の精度信頼度を有する撮影画像の数が所定数以下である場合に、前記処理対象データ選別部は前記精度信頼度を選別条件とする精度信頼度モードから前記画像類似度を選別条件とする画像類似度モードに切り換えられるように構成されている。これにより、精度信頼度が比較的高い撮影画像の数に応じて適切なモードを選択的に利用することができる。
さらに、本発明は、上述した風景マッチング用参照データ生成システムによって作成される参照データを用いたマッチング処理を通じて自車位置を決定する位置測位システムも権利範囲としている。そのようなる位置測位システムは、前記参照データを格納している参照データデータベースと、車両からの風景を撮影した撮影画像から画像特徴点を抽出し、当該画像特徴点から前記撮影画像毎の画像特徴点データを生成してマッチング用データとして出力する撮影画像処理部と、前記参照データデータベースから抽出した参照データと前記マッチング用データとのマッチングを行うとともに、前記マッチングに成功した参照データに関係付けられた撮影位置に基づいて自車位置を決定する風景マッチング部とを備えている。この位置測位システムでは、上述したように、風景マッチングに効果的な参照データを用いているので、良好に自車位置を決定することができる。
本発明による風景マッチング用参照データ生成システムによる参照データの作成の基本概念と、その参照データを用いたマッチング処理を通じて自車位置を決定する位置測位の手順を説明する模式図である。 本発明による風景マッチング用参照データ生成システムによる参照データの作成の別な基本概念と、その参照データを用いたマッチング処理を通じて自車位置を決定する位置測位の手順を説明する模式図である。 本発明による風景マッチング用参照データ生成システムの主な機能を示す機能ブロック図である。 精度信頼度評価部の処理機能と処理の流れを示す模式図である。 画像類似度評価部の処理機能と処理の流れを示す模式図である。 特徴点演算部の処理機能と処理の流れを示す模式図である 選別された撮影画像から画像特徴点データを生成する過程を模式的に示す模式図である。 本発明による風景マッチング用参照データ生成システムで作成された参照データで構築されている参照データDBを用いたカーナビゲーションシステムの機能ブロックである。
以下、図面を用いて本発明を詳しく説明する。図1は、風景マッチング用参照データ生成システム(以下、単に参照データ生成システムと略称する)による参照データの作成の基本概念と、その参照データを用いたマッチング処理を通じて自車位置を決定する位置測位の手順を模式的に示している。風景画像マッチングに利用される参照データデータベース92(以下単に参照データDBと略称する)は本発明による風景マッチング用参照データ生成システムによって生成される参照データをデータベース化することで構築することができる。
最初に、この構築手順を説明する。図1に示すように、走行途中における複数のプローブカーからの風景を撮影した撮影画像とその撮影時の撮影位置(実質的には自車位置である)が、プローブカーを識別するプローブカーID(以下、単にP−IDと略称される)にリンクされた形でプローブデータとして入力され、所定の第1撮影位置領域に属する撮影位置を有するプローブデータが処理単位としてワーキングメモリに一時格納される(#01)。この第1撮影位置領域は、実質的に同じ撮影位置とみなすことができる領域として設定される(例えば1m範囲)。次に、ワーキングメモリに展開された撮影画像から撮影画像の撮影位置の精度信頼度を評価して、この精度信頼度を撮影画像に付与する(#02)。この精度信頼度は、各プローブカーに搭載されているカーナビゲーション装置などの自車位置検出能力や交差点や屈曲路での特定場所認識による位置補正後の走行距離などによって求められる。精度信頼度を付与された撮影画像は精度信頼度を並び替えキーとして並び替えられ、所定度以上の精度信頼度を有する撮影画像(精度信頼度が高い順での所定数の撮影画像を含む)が処理対象データ(P−ID、撮影位置、撮影画像などからなるプローブデータ)の形態で選別される(#03)。処理対象データとして選別された各撮影画像(以下、処理対象撮影画像ないしは単に撮影画像と称する)から画像特徴量が演算される。画像特徴量の演算とは、撮影画像のマッチングを行うための特徴的な点や点群を求めるための画像処理であり、代表的な処理は、輪郭検出演算子を用いたエッジ検出であり、それによってエッジ検出画像(画像特徴点データの一種)が得られる(#04)。エッジ検出画像には多数の画像特徴点としてのエッジ点があるので、マッチング処理において効果的と判断される画像特徴点を抽出する(#05)。複数の処理対象撮像画像のそれぞれから得られた画像特徴点群のうち共通化できる特徴点を抽出して、共通画像特徴点群からなる画像データを生成して、画像特徴点データとする(#06)。さらに、前述した第1撮影位置領域内の処理対象撮影画像群(つまり同じ撮影位置での撮影画像とみなされる撮影画像群)のそれぞれに含まれている撮影位置を用いて、それらの撮影位置を代表する代表撮影位置が別系統で演算される(#07)。代表撮影位置演算においては、単純な平均演算を用いても良いし、各撮影位置の精度が分かっている場合は、その精度を重みとした重み平均演算を用いても良い。その他種々の統計的演算を用いることも可能である。次に、画像特徴点データに代表撮影位置を関係付けて参照データを生成する(#08)。生成された参照データは、代表撮影位置を検索条件として検索抽出可能なようにデータベース化され、風景画像マッチングでのパターンマッチングのパターンとして利用されるべく参照データDB92に格納される(#09)。
次に、上述したような手順で構築された参照データDB92を用いて、実際の車両走行時にその車両の位置(自車位置)を決定する手順を説明する。図1に示すように、車載カメラで風景を撮影して得られた実撮影画像と、参照データDB92から参照データを抽出するために用いられる、その撮影位置が入力される(#11)。ここでの撮影位置は、GPS測定ユニットなどを用いて推定された推定自車位置である。入力された撮影画像から、上記ステップ#04〜#06の処理手順を経て画像特徴点データであるマッチング用データが生成される(#12)。さらにに、入力された撮影位置(推定自車位置)を検索条件として、該当する撮影位置の参照データ及びその撮影位置(推定自車位置)の前後の参照データがマッチング候補参照データとして抽出される(#13)。抽出されたマッチング候補参照データセットから1つずつ参照データをマッチング用パターンとして設定し、現時点で生成されたマッチング用データとの間のパターンマッチング処理が風景画像認識として実行される(#14)。マッチングが成功すれば、その対象となった参照データに関係付けられた撮影位置が読み出され(#15)、この撮影位置が推定自車位置に代わる正式な自車位置として決定される(#16)。
次に、図2を用いて、本発明による風景マッチング用参照データ生成システムによる参照データの作成の別な基本概念を説明する。なお、その参照データを用いたマッチング処理を通じて自車位置を決定する位置測位の手順は図1のものと同一であるのでここでは説明は省略する。
図2に示すように、ここでも、走行途中における複数のプローブカーからの風景を撮影した撮影画像とその撮影時の撮影位置が、プローブカーを識別するP−IDにリンクされた形でプローブデータとして入力され、所定の第2撮影位置領域単位でワーキングメモリに一時格納される(#01)。第2撮影位置領域は、第1撮影位置領域よりも広く設定され、精度が低い撮影位置の誤差の範囲よりも十分に広く設定された領域である。次に、ワーキングメモリに展開された撮影画像の画像類似度を評価して、この画像類似度を撮影画像に付与する(#02a)。画像類似度を付与された撮影画像は画像類似度をZ軸、撮影位置のX座標をX軸、撮影位置のY座標をY軸として、三次元展開され、高い類似度が集中しているX−Y領域が選択領域SAとされ、その選択領域SAに属する撮影画像または所定度以上の類似度を有する撮影画像が処理対象データ(P−ID、撮影位置、撮影画像などからなるプローブデータ)の形態で選別される(#03a)。処理対象データとして選別された各処理対象撮影画像から画像特徴量が演算される。画像特徴量の演算とは、この例では、輪郭検出演算子を用いたエッジ検出であり、それによってエッジ検出画像(画像特徴点データの一種)が得られる(#04)。エッジ検出画像には多数の画像特徴点としてのエッジ点があるので、マッチング処理において効果的と判断される画像特徴点を抽出する(#05)。複数の処理対象撮像画像のそれぞれから得られた画像特徴点群のうち共通化できる特徴点を抽出して、共通画像特徴点群からなる画像データを生成して、画像特徴点データとする(#06)。ここでも、別系統で、上記選択領域SAに属する処理対象撮影画像群のそれぞれに含まれている撮影位置を用いて、それらの撮影位置を代表する代表撮影位置を演算する(#07)。次に、画像特徴点データに代表撮影位置を関係付けて参照データを生成する(#08)。生成された参照データは、代表撮影位置を検索条件として検索抽出可能なようにデータベース化され、風景画像マッチングでのパターンマッチングのパターンとして利用されるべく参照データDB92に格納される(#09)。
次に、上述した基本概念に基づいて撮影画像から参照データを作り出す、本発明による参照データ生成システムの一例を図3の機能ブロック図を用いて説明する。この参照データ生成システムは、データ処理センタなどに設置されており、データ入力部51、一時格納部52、プローブデータ評価部53、処理対象データ選別部54、特徴量演算部60、画像特徴点データ生成部55、代表撮影位置演算部56、参照データ生成部57を備えている。それらの各機能はハードウエアまたはソフトウエアあるいはその組み合わせで作り出すことができる。
データ入力部51には、プローブカーにおいて所定時間間隔毎にまたは所定走行距離毎にあるいはその両方で生成されたプローブデータが入力される。なお、プローブカーは参照データの生成会社と契約した一般車であり、通常の走行時に、車両に搭載されたカメラ(ここではフロントカメラ)で風景を撮影することで得られた撮影画像及びその撮影時の撮影位置(自車位置)をプローブデータとして参照データ生成システムに、バッチ的にあるいはリアルタイム的に伝送する。この実施形態でのプローブデータには、さらに、撮影属性情報としての撮影方位、撮影位置の精度に関する情報である位置精度情報、撮影状況情報が含まれており、各プローブデータにはプローブカーの識別とそのデータの識別を可能にするP−IDによって区分け可能となっている。
位置精度情報には、撮影位置として利用される自車位置を算定するナビゲーション装置の位置検出性能及び自車位置算定に影響を及ぼす要因(確定された自車位置からの走行距離、スリップや蛇行走行などの発生可能性など)が含まれる。
撮影状況情報は、撮影画像から参照データを生成する際に付加的に用いられる情報であり、撮影画像に特定被写体が含まれていることを表す情報である。この実施の形態の撮影状況情報に含まれる内容は、走行レーンデータと、移動物体データと、エリア属性データである。走行レーンデータは、撮影画像に対する画像処理を通じて得られる白線やガイドレールや安全地帯の認識結果から得られた、撮影画像における自車の走行レーン領域や道路外領域を示すデータである。移動物体データは、レーダなどの障害物を検知する車載センサによって認識される車両周辺に存在する移動物体の撮影画像中における存在領域を示すデータである。エリア属性データは、撮影画像の撮影時の車両位置と地図データとに基づいて認識された撮影場所の種別、例えば、山間エリア・郊外エリア・市街地エリア・高層都市エリアなどといったエリア属性を示すデータである。
一時格納部52は、撮影位置で区分けされたプローブデータを格納する。プローブデータ評価部53は、一時格納部52に格納された撮影画像の撮影位置の精度信頼度を評価して、当該撮影画像にその精度信頼度を付与する精度信頼度評価部53Aと、一時格納部52に格納された撮影画像の画像類似度を評価して、当該撮影画像にその画像類似度を付与する画像類似度評価部53Bを含む。処理対象データ選別部54は、一時格納部52に格納されたプローブデータの中から第1撮影位置領域毎のデータを読み出し、当該読み出したプローブデータの撮影画像の中で、付与された精度信頼度に関する選別条件を満たす複数の撮影画像を処理対象撮影画像とし、及び付与された画像類似度に関する選別条件を満たす複数の撮影画像を処理対象撮影画像として一時格納部52から選別する機能を有する。選別された撮影画像は後段の機能部に転送される。この実施形態では、プローブデータ評価部53は、精度信頼度評価部53Aによる精度信頼度に基づく精度信頼度評価モードと、画像類似度評価部53Bによる画像類似度に基づく画像類似度評価モードとを選択実行可能に備えている。処理対象データ選別部54は、プローブデータ評価部53で実行されている評価モードによって、精度信頼度または画像類似度に関する選別条件を選択して、処理対象撮影画像を選別する。例えば、まず精度信頼度モードを選択して、その結果、十分な精度信頼度を有するプローブデータが入力されていないことがわかると、画像類似度モードに切り換えて処理を行うような方法を採用することも好適である。例えば、一時格納部52に格納された所定度以上の精度信頼度を有する撮影画像の数が所定数以下である場合に、処理対象データ選別部54は、精度信頼度を選別条件とする精度信頼度モードから画像類似度を選別条件とする画像類似度モードに切り換える構成とすることができる。
精度信頼度評価部53Aは、図4に示されるように、一時格納部52に格納されているプローブデータの位置精度情報を読み出して、その位置精度情報に含まれているデータを入力として、そのプローブデータの撮影位置の算定精度に関する信頼度である精度信頼度を出力する。本実施形態では、入力されるデータには、各プローブカーの自車位置精度を表す情報と前記各プローブカーの走行状況を表す情報が含まれる。ここで、各プローブカーの自車位置精度を表す情報としては、例えば、各プローブカーに搭載されている自車位置算定機能の性能を示す自車位置精度レベルの情報や、交差点や屈曲路において確定された自車位置からの走行距離である位置補正情報等がある。また、各プローブカーの走行状況としては、例えば、プローブカーが走行中の道路の自車位置補正可能地点の数や、スリップや蛇行走行などが発生しやすい道路を走行中かどうかを示す道路状況や、自車位置算定の誤差に影響を与えるような運転であるかどうかを示す運転状況等がある。これらの入力データは、入力データ処理部531で数値化ないしは正規化され、精度信頼度を演算する精度信頼度演算部532に渡される。精度信頼度演算部532の演算形態は本発明では限定されないが、複数の異なる次元の入力値から1つの出力値を導出するので、ルールベースやニューラルネットワークの形態が好適である。また、演算の高速化のため、入力値と出力値をテーブル化しておいてもよい。その場合、精度信頼度評価部53Aは、各プローブカーの自車位置精度を表す情報と各プローブカーの走行状況を表す情報とに応じて撮影画像の撮影位置の精度信頼度を規定している精度信頼度テーブルを備える。そして、精度信頼度評価部53Aは、当該精度信頼度テーブルを利用して撮影画像毎の精度信頼度を評価する。処理対象データ選別部54は、精度信頼度演算部532から出力された精度信頼度に関する選別条件を満足する撮影画像を処理対象撮影画像として選別することができる。なお、精度信頼度に影響を及ぼすような、プローブカーに搭載されている自車位置算定機能の性能等は、プローブカーの種類ないしはその識別コードに依存すること及び精度信頼度に影響を及ぼすような走行道路の状況は撮影位置に依存することがわかっている。そこで、各プローブカーの種類と前記推定自車位置とを入力パラメータとして精度信頼度を出力する精度信頼度テーブルを備える構成とすることも可能である。
また、プローブカー自体に上述したような精度信頼度を算出する機能が備えられていれば、プローブデータにその精度信頼度を含ませることができる。そのような場合、精度信頼度評価部53Aは単にプローブデータから精度信頼度を読み込むだけの機能を備えるだけでよい。
また、予め、高精度自車位置計測車両と一般の自車位置計測機能を有する一般車両との自車位置を比較することで、道路走行とともに得られる互いの自車位置の差分値から自車位置毎の精度信頼度を求めるデータを作成することができる。このデータをベースにすることで、自車位置(撮影位置)を入力としてから精度信頼度を出力する精度信頼度テーブルを構築すると、簡単に精度信頼度を取得することができる。このような精度信頼度テーブルも本発明における精度信頼度評価部53Aに含まれる。
画像類似度評価部53Bは、図5に示されているように、一時格納部52に格納されているプローブデータの中から第2撮影位置領域毎のデータを読み出し、当該読み出したプローブデータの撮影画像について、例えば平均的な撮影画像との間の類似度を算定し、各類似度を撮影画像に付与する。さらに、画像類似度を付与された撮影画像は画像類似度をZ軸、撮影位置のX座標をX軸、撮影位置のY座標をY軸として、三次元展開することで、一時格納部52に格納されている処理単位のプローブデータの実際の撮影位置を推定することが統計的に可能となる。例えば、処理対象データ選別部54は、高い類似度を有するプローブデータが集中している領域を選別領域SAとして、その選別領域に属するプローブデータ、つまり撮影画像を処理対象撮影画像として選別することができる。
画像類似度評価部53Bで利用される画像類似度の算出には種々の手法が知られているが、まずは個々の撮影画像における特徴を代表するような指標値を求め、この指標値から類似度を求めることができる。以下にそのような指標値を列挙する。
(1)画素値の平均を用いる手法
画像全体での画素値の平均を各色成分毎に演算して、比較したい画像間の各色成分別の平均値の三次元ユークリッド距離を求めて、正規化する。
(2)画像ヒストグラムを用いる手法
比較したい画像の色成分毎の輝度ヒストグラムから各階級での差分の2乗和の平方根を演算し、各色成分の値を積算して、正規化する。
(3)同一位置画素値の差分を用いる手法
互いの解像度を合わせ、同一位置の画素値の差分の2乗和の平方根を演算して、正規化する。
(4)画像の空間周波数ヒストグラムを用いる手法
比較したい画像の空間周波数をフーリエ変換し、周波数−輝度ヒストグラムを生成し、各階級での差分の2乗和の平方根を演算し、正規化する。
上記以外でも種々の画像特性を利用した類似度の算出手法を採用することができるので、本発明は特定の算出手法に限定されるわけではない。撮影画像に応じて、例えば、山間部走行や都市部走行や高速道路走行などに応じて類似度の算出手法を変更してもよい。
代表撮影位置演算部56は、基本的には、複数の処理対象撮影画像の撮影位置を統計的に処理して、その撮影位置を代表する代表撮影位置を演算する。統計的な演算方法として算術的平均が一般的であるが、より正確度を高めるためには、位置精度情報を用いた重み付き平均を採用することが好ましい。
また、第1撮影位置領域を処理単位として選別された処理対象撮影画像の撮影位置に基づいて代表撮影位置を演算する場合は、精度信頼性の高い撮影位置が統計的演算の母集団となるので、算術平均値や中間値などの単純統計的演算値を代表撮影位置とすることができる。これに対して、第1撮影位置領域比べてその領域が大きい第2撮影位置領域を処理単位として選別された処理対象撮影画像の撮影位置に基づいて代表撮影位置を演算する場合は、精度信頼性の比較的低い撮影位置が統計的演算の母集団となるので、位置精度情報を用いた重み付き平均値のようなばらつきを考慮した統計的演算値を代表撮影位置とするとよい。
図6に示されているように、特徴点演算部60は、特徴点抽出部61、特徴点重要度決定部62、重み付け部63、調整係数設定部64、特徴点出力部65、共通特徴点評価部66を備えている。特徴点抽出部61は、適当な輪郭(エッジ)検出演算子を使用して撮影画像から画像特徴としての画像特徴点を抽出する。従って、ここでの画像特徴点はエッジ点やエッジ点群(エッジ線)である。特徴点重要度決定部62は、特徴点抽出部61によって抽出された画像特徴点(エッジ点)の重要度を、撮影状況情報に含まれている各データの内容に基づいて決定する。例えば、走行レーンデータの内容を用いる場合、撮影画像中における、路肩寄りの走行レーンからさらに路肩側に外れた領域に属する画像特徴点に対してより高い重要度を付与する。また、移動物体データを用いる場合、撮影画像中における、移動物体が存在する領域に属する画像特徴点に対して低い重要度を付与する。さらに、エリア属性データの内容を用いる場合、撮影画像中の位置に応じた重要度の付与規則を前記エリア属性に応じて変更する。例えば、山間エリアの撮影画像では、撮影中心光軸の上方は空で左右は森林である可能性が高いので、撮影中心光軸周りである中心領域に対して高い重要度を設定する。郊外エリアの撮影画像では、車の往来が少なく、住宅等の構造物が周囲に広がっているので、撮影中心光軸の下方領域に対して高い重要度を設定する。市街地エリアの撮影画像では、車の往来が多いので、撮影中心光軸の上方領域に対して高い重要度を設定する。高層都市エリアの撮影画像では、高架道路や高架橋などが多いので、撮影中心光軸の上方領域に対して高い重要度を設定する。
重み付け部63は、特徴点重要度決定部62によって決定された重要度に応じて画像特徴点に重み係数を割り当てる。正確な画像認識(パターンマッチング)を行うために重要と思われる画像特徴点には高い重要度が設定されているので、高い重要度が設定された画像特徴点に大きい重み係数が割り当てられるが、低い重み係数をもつ画像特徴点は実際の画像認識において使用されない可能性が高いこと、あるいは参照データから削除されることを考慮して、画像特徴点の取捨選択の判定のために利用できるように算定される。
調整係数設定部64は、重み付け部63によって割り当てられた重み係数を対応する撮影画像領域における分布状態の観点から変更するための調整係数を算定する。つまり、特徴点抽出部61によって抽出された画像特徴点に対して撮影状況情報に基づいて決定された重要度にはある程度の誤りが含まれ、その重要度がある程度高い画像特徴点もランダムに発生する可能性があるとも考えられる。このため、画像特徴点の偏在、言い換えると重み付け部63によって割り当てられた重み係数の偏在が生じていた場合、その偏在を緩やかにする目的でこの調整係数設定部64は用いられる。演算処理で得られた画像特徴点の散布度が画像特徴点の偏在を示している場合、画像特徴点の密度が小さい領域に属する画像特徴点の重み係数が大きくなるように調整係数が設定され、画像特徴点の密度が大きい領域に属する画像特徴点の重み係数が小さくなるように調整係数が設定される。特徴点出力部65は、重み付け部63によって割り当てられた重み係数、及びオプション的に利用される調整係数に基づいて各画像特徴点を整理して撮影画像毎の画像特徴点群を出力する。
ここで、上述した調整係数によって画像特徴点を撮影画像領域全体にわたってできるだけ広く散布させる処理を図7に示された模式的説明図を用いて説明する。撮影画像(図7(a)から画像特徴点(エッジ点)を抽出することでエッジ検出画像(図7(b))が生成される。このエッジ検出画像の各エッジ点に重要度が付与される。重要度の付与された様子を模式的に理解できるように、図7(c)では特徴点画像に対応する重要度レイヤの形で各エッジ点に対応する重要度が示されている。この重要度レイヤを用いて、各エッジ点に重み係数が割り当てられる。図7(d)では、大きな重み係数をもつほど大きい点となるようにエッジ点を描いたエッジ点画像の形で重み係数を割り当てたれたエッジ点が示されている。ここで、所定しきい値以下の重み係数を割り当てられたエッジ点が除去されるようなエッジ点の整理が行われると、例えば、図7(d)で大きな点となっているエッジ点だけが選別されると、エッジ点画像の下方領域に位置しているエッジ点は排除され、残ったエッジ点の分布に大きな偏在が生じる。この偏在を回避するため、エッジ点画像におけるエッジ点の散布度を算出し、結果的に選別されるエッジ点の密度が低くなる領域のエッジ点の重み係数を増加させるような調整係数が設定される。そのように設定される調整係数を模式的に理解できるように、図7(e)では調整係数群をエッジ点画像に対応するようにマトリックス的に(ここでは複数の画素領域からなる区画単位で)配置した調整係数レイヤの形で示されている。特徴点出力部65は、このような重み係数と調整係数に基づいて最終的に設定された重み係数を用いて各画像特徴点を整理して、図7(f)で示されたようなエッジ点画像を撮影画像毎に生成する。
ここでは、画像特徴点(エッジ点)毎に重要度が決定され、その結果画像特徴点毎に重み係数が設定されているような形態であったが、これらの処理をグループ単位で行うことも可能である。その際には、例えば、撮影画像領域が複数の画像区画に分割され、特徴点重要度決定部62が、同一画像区画に属する記画像特徴点を画像特徴点群としてグループ化して統一的に取り扱い、当該画像特徴点群に含まれる画像特徴点には同一の重要度を与え、重み付け部63も同様に画像特徴点群単位で重み係数を設定するとよい。また、ここで取り扱われている画像区画を、撮影画像を構成する1画素単位で取り扱ってもよいが、複数画素単位で画像区画を取り扱ってもよい。
共通特徴点評価部66は、特徴点出力部65によって出力された、各撮影画像に基づく画像特徴点群から、これらの画像特徴点群を代表する共通画像特徴点群を生成するものである。この実施形態では、共通特徴点評価部66は、各画像特徴点群間で共通する画像特徴点を取り出して、共通画像特徴点群を生成する。
なお、この共通特徴点評価部66における処理においても、第1撮影位置領域を処理単位として選別された処理対象撮影画像に基づく画像特徴点群を取り扱う場合には、第1撮影位置領域が狭い領域で、かつそれらの撮影位置の精度の高いことから、それぞれの画像特徴点群はかなり類似しているとみなされる。また、第2撮影位置領域を処理単位として選別された処理対象撮影画像に基づく画像特徴点群を取り扱う場合には、その領域が第1撮影位置領域より広いとしても、高い画像類似度を有する撮影画像が選別されていることから、それぞれの画像特徴点群は十分類似しているとみなされる。これにより、ここで生成される共通画像特徴点群は信頼性の高い参照データの元になりうる。
画像特徴点データ生成部55は、特徴点演算部60から出力された共通画像特徴点群に基づいて画像特徴点データを生成する。参照データ生成部57は、特徴点データ生成部56によって生成された画像特徴点データに、代表撮影位置演算部56によって求められた撮影位置(自車位置)を関連付けて、風景画像マッチングの参照データを生成する。
次に、上述した風景マッチング用参照データ生成システムで作成された参照データDB92を用いて風景画像認識(画像特徴点パターンマッチング)で自車位置を修正する車載用カーナビゲーションシステムを説明する。図8は、そのようなカーナビゲーションシステムを車載LANに組み込んだ形態で示した機能ブロックである。このカーナビゲーションシステムは、入力操作モジュール21、ナビ制御モジュール3、自車位置検出モジュール4、撮影状況情報生成部7、上記の参照データDB92とカーナビ用道路地図データを収納した道路地図データベース91(以下単に道路地図DBと略称する)とを有するデータベース9を備えている。
ナビ制御モジュール3は、経路設定部31、経路探索部32、経路案内部33を備えている。経路設定部31は、例えば自車位置等の出発地、入力された目的地、通過地点や走行条件(高速道路の使用有無など)を設定する。経路探索部32は、経路設定部31によって設定された条件に基づき出発地から目的地までの案内経路を探索するための演算処理を行う処理部である。経路案内部33は、経路探索部32により探索された出発地から目的地までの経路に従って、モニタ12の表示画面による案内表示やスピーカ13による音声案内等により、運転者に対して適切な経路案内を行うための演算処理を行う処理部である。
自車位置検出モジュール4は、従来のGPSによる位置算定及び推測航法による位置算定によって得られた推定自車位置を、この推定自車位置を利用した風景画像認識によって決定された自車位置で修正する機能を有する。自車位置検出モジュール4は、GPS処理部41、推測航法処理部42、自車位置座標算定部43、マップマッチング部44、自車位置決定部45、撮影画像処理部5、風景マッチング部6を備えている。GPS処理部41にはGPS衛星からのGPS信号を受信するGPS測定ユニット15が接続されている。GPS処理部41はGPS測定ユニット15で受信されたGPS衛星からの信号を解析し、車両の現在位置(緯度及び経度)を算定し、GPS位置座標データとして自車位置座標算定部43に送る。推測航法処理部42には距離センサ16と方位センサ17が接続されている。距離センサ16は、車両の車速や移動距離を検出するセンサであり、例えば、車両のドライブシャフトやホイール等が一定量回転する毎にパルス信号を出力する車速パルスセンサ、自車両Cの加速度を検知するヨー・Gセンサ及び検知された加速度を積分する回路等により構成される。距離センサ16は、その検出結果としての車速及び移動距離の情報を推測航法処理部42へ出力する。方位センサ17は、例えば、ジャイロセンサ、地磁気センサ、ハンドルの回転部に取り付けた光学的な回転センサや回転型の抵抗ボリューム、車輪部に取り付ける角度センサ等により構成され、その検出結果としての方位の情報を推測航法処理部42へ出力する。推測航法処理部42は、刻々と送られてくる移動距離情報と方位情報とに基づいて推測航法位置座標を演算し、推測航法位置座標データとして自車位置座標算定部43に送る。自車位置座標算定部43は、GPS位置座標データと推測航法位置座標データとから公知の方法により車両の位置を特定する演算を行う。算定された自車位置情報は、測定誤差等を含んだ情報となっており、場合によっては道路上から外れてしまうので、マップマッチング部44により、自車位置を道路地図に示される道路上とする補正が行われる。その自車位置座標は推定自車位置として自車位置決定部45に送られる。
撮影画像処理部5は、実質的には図6で示された特徴点演算部60と画像特徴点データ生成部55と同様な機能部を備えている。この撮影画像処理部5は、車載カメラ14によって撮影された車両からの前方風景撮影画像を処理して、上述したような手順を経て画像特徴点データが出力される。なお、特徴点(エッジ点)の重要度の決定に利用される撮影情況情報は、車両に搭載された撮影状況情報生成部7によって生成され、撮影画像処理部5に送られる。撮影状況情報生成部7は、上記走行レーンデータを作成するために、車載カメラ14と接続されており、撮影画像処理部5に送られる撮影画像と同じものを受け取る。受け取った撮影画像を公知のアルゴリズムを用いて画像処理することで走行レーンデータが作成される。また、撮影状況情報生成部7は、上記移動物体データを作成するために障害物検出用のセンサ群18と接続されている。このセンサ群18からのセンサ情報に基づいて移動物体データが作成される。さらに、撮影状況情報生成部7は、上記を作成するために、自車位置決定部45及びデータベース9と接続している。自車位置決定部45からの自車位置座標と検索キーとしてデータベース9を検索して、現在走行している場所のエリア属性(山間部や市街地など)を取得し、それに基づいてエリア属性データが作成される。
風景マッチング部6は、自車位置決定部45から送られてきた推定自車位置に基づいて参照データDB92から抽出された参照データをパターンとして、撮影画像処理部5から送られてきた画像特徴点データに対するパターンマッチング処理を行う。このパターンマッチングが成功した場合には、マッチングパターンである参照データに関係付けられた撮影位置が読み出される。この撮影位置が自車位置として、自車位置決定部45に転送される。自車位置決定部45は転送されてきた自車位置を推定自車位置と置き換える自車位置修正を行う。
このカーナビゲーションシステムは、また、周辺装置として、タッチパネル11やスイッチなどの入力デバイス11とそれらの入力デバイス11を通じての操作入力を適切な操作信号に変化して内部に転送する操作入力評価部21aを有する入力操作モジュール21、モニタ12にカーナビゲーションに必要な画像情報を表示するための表示モジュール22、スピーカ13やブザーからカーナビゲーションに必要な音声情報を流す音声生成モジュール23、制動や加速や操舵などといった車両の種々の挙動を車載LANを通じて送られてくる挙動データに基づいて検知する車両挙動検知モジュール24を備えている。
(別な実施形態)
上述した実施形態では、複数の処理対象撮影画像のそれぞれの撮影位置を統計的に処理して参照データに付属する代表撮影位置を求めていたが、最初の処理単位の取り方、つまり、第1撮影位置領域や第2撮影位置領域の大きさの設定によっては、その設定時に予め代表撮影位置を決めておいてもよい。あるいは、代表撮影位置を決めておいてから、第1撮影位置領域や第2撮影位置領域の大きさを設定してもよい。
上述した実施形態では、画像特徴点として、エッジ検出処理によって得られるエッジ点、特に一本の線分を構成している線分エッジやそのような線分が交差、好ましくはほぼ直交する交点であるコーナエッジが効果的な画像特徴点として扱われる。しかしながら、本発明は、画像特徴点としてそのようなエッジ点に限定されるわけではない。例えば、円や四角形など幾何学的形状を形成する代表的なエッジ点(円なら円周上の3点など)あるいは無定形の幾何学的形状の重心やその重心としての点なども、その風景によっては効果的な画像特徴点となるので、用いられる。また、エッジ強度も重要度を算定するための因子として採用することも好適であり、例えば強度の強いエッジからなる線分なら、その線分の始点と終点は重要度の高い画像特徴点として取り扱うことができる。また、特徴的な幾何学的形状における特定点、例えば左右対称な物体のエッジ点や重心点なども重要度の高い画像特徴点として取り扱うことができる。
さらには、エッジ検出処理によって得られるエッジ点以外に、撮影画像を色相や彩度の変化として捉え、その変化の大きい点を画像特徴点として採用することも可能である。同様に色情報に基づくものとして色温度の高い物体のエッジ点を重要度の高い画像特徴点として取り扱うことも可能である。
つまり、本発明で取り扱われる画像特徴点は、参照データと実撮影画像から生成される画像特徴量データとの間の類似度判定、例えば、パターンマッチングにとって有効なものであれば、全て利用の対象となる。
上述した実施形態では、参照データDB92に格納される参照データには、撮影位置と撮影方位(カメラ光軸方位)が関係付けられていたが、それ以外に、上述した撮影状況情報、さらには撮影日時や撮影時天候なども、関係付けてもよい。
なお、撮影位置は、最低限、緯度・経度データのような二次元データでよいが、高さデータも加えて三次元データとしてもよい。
また、撮影方位を参照データに関係付けることは必須ではない。例えば、参照データの作成時も、この参照データを用いての風景画像認識時も、走行道路に対して実質的に同じ撮影方位で撮影されることが保証される場合では、撮影方位は不必要となる。
逆に、1つの基本的な撮影方位での参照データから撮影方位を適度にずらせた参照データを用意することができる場合では、方位センサなどの情報から算定された車両の走行方向に基づいて、その走行方位に適合する参照データだけを風景画像認識の対象とすることも可能である。
本発明で取り扱われる車載カメラは、車両走行方向前方の風景を撮影するものが最適である。しかしながら、前方斜めの風景をとるカメラであってもよいし、さらには側方、後方の風景を撮影するカメラであってよい。つまり、本発明で取り扱われる撮影画像は、車両走行方向の前方風景を撮影したものだけに限定されるわけではない。
上述した実施形態の説明に用いられた機能ブロック図で区分けされた示された機能部はわかりやすい説明を目的としており、ここで示された区分けに本発明は限定されているわけではなく、それぞれの機能部を自由に組み合わせたり、1つの機能部をさらに区分けしたりすることが可能である
本発明の画像処理システムは、カーナビゲーションのみならず、風景画像認識によって現在位置や方位を測位する技術分野に適用可能である。
3:ナビ制御モジュール
4:自車位置検出モジュール
41:GPS処理部
42:推測航法処理部
43:自車位置座標算定部
44:マップマッチング部
45:自車位置決定部
5:画像処理システム
51:データ入力部
52:一時格納部
53:プローブデータ評価部
53A:画像類似度評価部
53B:精度信頼度評価部
54:処理対象データ選別部
55:画像特徴点データ生成部
56:代表撮影位置演算部
57:参照データ生成部
60:特徴点演算部
61:特徴点抽出部
62:特徴点重要度決定部
63:重み付け部
64:調整係数設定部
65:特徴点出力部
66: 共通特徴点評価部
6:風景マッチング部
14:カメラ
92:参照データDB(参照データデータベース)
91:道路地図DB(道路地図データベース)

Claims (7)

  1. 車両からの風景を画像認識する風景マッチングに行う際に利用される参照データを作成する風景マッチング用参照データ生成システムであって、
    推定自車位置を算定する機能を有する複数のプローブカーによって順次取得された撮影画像と当該撮影画像の撮影位置としての前記推定自車位置とを含むプローブデータを入力するデータ入力部と、
    前記プローブデータから取り出された撮影位置の撮影画像を一時格納する一時格納部と、
    前記一時格納部に格納された撮影画像の撮影位置の精度信頼度を評価して、当該撮影画像に前記精度信頼度を付与する精度信頼度評価部と、
    前記一時格納部から所定度以上の精度信頼度を有する複数の撮影画像を処理対象撮影画像として選別する処理対象データ選別部と、
    前記複数の処理対象撮影画像から各々の処理対象撮影画像の画像特徴点を抽出し、それらを統計処理して画像特徴点データを生成する画像特徴点データ生成部と、
    前記画像特徴点データに前記複数の処理対象撮影画像の撮影位置を関係付けて、前記風景マッチングに利用される前記参照データを生成する参照データ生成部と、
    を備えた風景マッチング用参照データ生成システム。
  2. 前記複数の処理対象撮影画像のそれぞれの撮影位置を統計的に処理して、前記複数の処理対象撮影画像の代表撮影位置を演算する代表撮影位置演算部がさらに備えられ、前記代表撮影位置が前記画像特徴点データに関係付けられる処理対象撮影画像の撮影位置となる請求項1に記載の風景マッチング用参照データ生成システム。
  3. 前記各プローブカーの自車位置精度を表す情報と前記各プローブカーの走行状況を表す情報とに応じて前記撮影画像の撮影位置の精度信頼度を規定している精度信頼度テーブルが備えられ、前記精度信頼度評価部は前記精度信頼度テーブルを利用して前記撮影画像毎の前記精度信頼度を評価する請求項1または2に記載の風景マッチング用参照データ生成システム。
  4. 前記プローブデータには、前記撮影位置の精度信頼度を示す精度信頼度データが含まれており、前記精度信頼度評価部は前記精度信頼度データを利用して前記撮影画像毎の前記精度信頼度を評価する請求項1から3のいずれか一項に記載の風景マッチング用参照データ生成システム。
  5. 前記一時格納部に格納された撮影画像の画像類似度を評価して、当該撮影画像に前記画像類似度を付与する画像類似度評価部がさらに備えられており、前記処理対象データ選別部は前記一時格納部から所定度以上の画像類似度を有する複数の撮影画像を前記処理対象撮影画像として選別する請求項1から4のいずれか一項に記載の風景マッチング用参照データ生成システム。
  6. 前記一時格納部に格納された所定度以上の精度信頼度を有する撮影画像の数が所定数以下である場合に、前記処理対象データ選別部は、前記精度信頼度を選別条件とする精度信頼度モードから前記画像類似度を選別条件とする画像類似度モードに切り換える請求項5に記載の風景マッチング用参照データ生成システム。
  7. 請求項1から6のいずれか一項に記載の風景マッチング用参照データ生成システムによって作成される参照データを用いた風景マッチング処理を通じて自車位置を決定する位置測位システムにおいて、
    前記参照データを格納している参照データデータベースと、
    車両からの風景を撮影した撮影画像から画像特徴点を抽出し、当該画像特徴点から前記撮影画像毎の画像特徴点データを生成してマッチング用データとして出力する撮影画像処理部と、
    前記参照データデータベースから抽出した参照データと前記マッチング用データとのマッチングを行うとともに、前記マッチングに成功した参照データに関係付けられた撮影位置に基づいて自車位置を決定する風景マッチング部とを備えた位置測位システム。
JP2010084690A 2010-03-31 2010-03-31 風景マッチング用参照データ生成システム及び位置測位システム Expired - Fee Related JP5057183B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010084690A JP5057183B2 (ja) 2010-03-31 2010-03-31 風景マッチング用参照データ生成システム及び位置測位システム
US13/020,304 US8452103B2 (en) 2010-03-31 2011-02-03 Scene matching reference data generation system and position measurement system
EP11153983A EP2372611A3 (en) 2010-03-31 2011-02-10 Scene matching reference data generation system and position measurement system
CN201110071023.8A CN102208013B (zh) 2010-03-31 2011-03-21 风景匹配参考数据生成***和位置测量***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010084690A JP5057183B2 (ja) 2010-03-31 2010-03-31 風景マッチング用参照データ生成システム及び位置測位システム

Publications (2)

Publication Number Publication Date
JP2011215973A true JP2011215973A (ja) 2011-10-27
JP5057183B2 JP5057183B2 (ja) 2012-10-24

Family

ID=44212267

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010084690A Expired - Fee Related JP5057183B2 (ja) 2010-03-31 2010-03-31 風景マッチング用参照データ生成システム及び位置測位システム

Country Status (4)

Country Link
US (1) US8452103B2 (ja)
EP (1) EP2372611A3 (ja)
JP (1) JP5057183B2 (ja)
CN (1) CN102208013B (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015231101A (ja) * 2014-06-04 2015-12-21 パイオニア株式会社 撮影条件推定装置及び方法、端末装置、コンピュータプログラム並びに記録媒体
JP2019029938A (ja) * 2017-08-02 2019-02-21 日本放送協会 誤差計算器およびそのプログラム
JP2019028888A (ja) * 2017-08-02 2019-02-21 日本放送協会 カラー情報拡大器およびカラー情報推定器、ならびに、それらのプログラム
JP2019068429A (ja) * 2018-11-08 2019-04-25 パイオニア株式会社 撮影条件推定装置及び方法、端末装置、コンピュータプログラム並びに記録媒体
JP6605176B1 (ja) * 2018-07-17 2019-11-13 三菱電機株式会社 交通情報生成システム
JP2019537018A (ja) * 2016-11-29 2019-12-19 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH 環境モデルを生成するための、および相互センサフィーチャポイント参照を用いてポジショニングするための方法およびシステム
JP2020061048A (ja) * 2018-10-12 2020-04-16 パイオニア株式会社 情報処理装置
JP2020517015A (ja) * 2017-04-11 2020-06-11 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited ピクチャベースの車両損害査定の方法および装置、ならびに電子デバイス
JP2021021693A (ja) * 2019-07-30 2021-02-18 トヨタ自動車株式会社 タグ付与装置
US11049334B2 (en) 2017-04-11 2021-06-29 Advanced New Technologies Co., Ltd. Picture-based vehicle loss assessment
US11544914B2 (en) 2021-02-18 2023-01-03 Inait Sa Annotation of 3D models with signs of use visible in 2D images
US11971953B2 (en) 2021-02-02 2024-04-30 Inait Sa Machine annotation of photographic images
US11983836B2 (en) 2021-02-18 2024-05-14 Inait Sa Annotation of 3D models with signs of use visible in 2D images

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102918358A (zh) * 2010-04-09 2013-02-06 通腾北美有限公司 从表示位置的数据解析位置的方法
KR101901586B1 (ko) * 2011-12-23 2018-10-01 삼성전자주식회사 로봇 위치 추정 장치 및 그 방법
CN103428430B (zh) * 2012-05-23 2019-11-12 杭州阿尔法红外检测技术有限公司 影像摄影装置和影像摄影方法
JP5892254B2 (ja) * 2012-08-31 2016-03-23 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP2014191485A (ja) * 2013-03-26 2014-10-06 Sharp Corp 障害物検出装置、及びそれを備えた電動車両
EP3078014B1 (en) * 2014-06-04 2018-12-12 Cuende Infometrics S.A. System and method for measuring the real traffic flow of an area
JP2016099835A (ja) * 2014-11-21 2016-05-30 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN106296638A (zh) * 2015-06-04 2017-01-04 欧姆龙株式会社 显著性信息取得装置以及显著性信息取得方法
CN105391991A (zh) * 2015-12-21 2016-03-09 中山市厚源电子科技有限公司 一种摄像装置及具有该摄像装置的便携式电子装置
CN105674993A (zh) * 2016-01-15 2016-06-15 武汉光庭科技有限公司 基于双目相机的高精度视觉定位地图生成***及方法
DE102016205339A1 (de) * 2016-03-31 2017-10-05 Siemens Aktiengesellschaft Verfahren und System zum Erkennen von Hindernissen in einem Gefahrraum vor einem Schienenfahrzeug
CN105974357A (zh) * 2016-04-29 2016-09-28 北京小米移动软件有限公司 终端的定位方法及装置
US10579067B2 (en) * 2017-07-20 2020-03-03 Huawei Technologies Co., Ltd. Method and system for vehicle localization
US10580292B2 (en) * 2018-04-18 2020-03-03 Here Global B.V. Lane-level geometry and traffic information
US10482761B2 (en) * 2018-04-18 2019-11-19 Here Global B.V. Lane-level geometry and traffic information
JP7068456B2 (ja) * 2018-07-11 2022-05-16 日産自動車株式会社 走行環境情報の生成方法、運転制御方法、走行環境情報生成装置
CN109034031A (zh) * 2018-07-17 2018-12-18 江苏实景信息科技有限公司 监视视频的处理方法、处理装置及电子设备
JP7073972B2 (ja) * 2018-08-03 2022-05-24 トヨタ自動車株式会社 情報処理システム、プログラム、及び制御方法
CN109241979A (zh) * 2018-08-24 2019-01-18 武汉光庭信息技术股份有限公司 一种基于高速视觉特征点匹配的车辆相对位置推测方法
US11231283B2 (en) * 2019-01-25 2022-01-25 Robert Bosch Gmbh Localization with neural network based image registration of sensor data and map data
PH12019050076A1 (en) * 2019-05-06 2020-12-02 Samsung Electronics Co Ltd Enhancing device geolocation using 3d map data
CN113515688A (zh) * 2020-04-10 2021-10-19 上海擎感智能科技有限公司 基于图像识别技术推荐应用程序的方法、终端及存储介质
JP7221469B2 (ja) * 2020-12-11 2023-02-13 三菱電機株式会社 信頼度推定装置、位置推定装置、及び信頼度推定方法
CN112507992B (zh) * 2021-02-04 2021-05-07 腾讯科技(深圳)有限公司 道路图像之间的拍摄距离确定方法、装置、设备及介质
CN113947688B (zh) * 2021-12-15 2022-06-21 中哲国际工程设计有限公司 基于bim云平台的预制构件的数据管理***及方法
CN114554077B (zh) * 2021-12-16 2022-10-11 星河智联汽车科技有限公司 一种美景拍摄方法和装置
CN117953050A (zh) * 2022-10-20 2024-04-30 腾讯科技(深圳)有限公司 一种视觉定位方法及相关装置
CN117351166B (zh) * 2023-12-04 2024-03-26 山东新科凯邦通信器材有限公司 一种基于大数据的土地管理绘测***

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3496479B2 (ja) 1997-10-16 2004-02-09 トヨタ自動車株式会社 道路データメンテナンスシステム
US6047234A (en) 1997-10-16 2000-04-04 Navigation Technologies Corporation System and method for updating, enhancing or refining a geographic database using feedback
JP4470105B2 (ja) * 2004-05-20 2010-06-02 ノーリツ鋼機株式会社 ナビゲーションシステム及びプログラム
JP4557288B2 (ja) * 2005-01-28 2010-10-06 アイシン・エィ・ダブリュ株式会社 画像認識装置及び画像認識方法、並びにそれを用いた位置特定装置、車両制御装置及びナビゲーション装置
JP4321821B2 (ja) * 2005-01-28 2009-08-26 アイシン・エィ・ダブリュ株式会社 画像認識装置及び画像認識方法
JP4847090B2 (ja) 2005-10-14 2011-12-28 クラリオン株式会社 位置測位装置、および位置測位方法
CN101275854A (zh) * 2007-03-26 2008-10-01 日电(中国)有限公司 更新地图数据的方法和设备
JP4569837B2 (ja) 2007-03-30 2010-10-27 アイシン・エィ・ダブリュ株式会社 地物情報収集装置及び地物情報収集方法
EP2210233A1 (en) * 2007-11-16 2010-07-28 Tele Atlas B.V. Method of and apparatus for producing lane information
DE102008003662A1 (de) * 2008-01-09 2009-07-16 Robert Bosch Gmbh Verfahren und Vorrichtung zum Anzeigen der Umgebung eines Fahrzeugs
US8812226B2 (en) * 2009-01-26 2014-08-19 GM Global Technology Operations LLC Multiobject fusion module for collision preparation system
US8306269B2 (en) * 2009-03-12 2012-11-06 Honda Motor Co., Ltd. Lane recognition device
US20110221901A1 (en) * 2010-03-11 2011-09-15 Gm Global Technology Operations, Inc. Adaptive Scene Rendering and V2X Video/Image Sharing

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015231101A (ja) * 2014-06-04 2015-12-21 パイオニア株式会社 撮影条件推定装置及び方法、端末装置、コンピュータプログラム並びに記録媒体
US11513211B2 (en) 2016-11-29 2022-11-29 Continental Automotive Gmbh Environment model using cross-sensor feature point referencing
JP2019537018A (ja) * 2016-11-29 2019-12-19 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH 環境モデルを生成するための、および相互センサフィーチャポイント参照を用いてポジショニングするための方法およびシステム
JP2020517015A (ja) * 2017-04-11 2020-06-11 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited ピクチャベースの車両損害査定の方法および装置、ならびに電子デバイス
US11049334B2 (en) 2017-04-11 2021-06-29 Advanced New Technologies Co., Ltd. Picture-based vehicle loss assessment
JP2019029938A (ja) * 2017-08-02 2019-02-21 日本放送協会 誤差計算器およびそのプログラム
JP2019028888A (ja) * 2017-08-02 2019-02-21 日本放送協会 カラー情報拡大器およびカラー情報推定器、ならびに、それらのプログラム
JP6605176B1 (ja) * 2018-07-17 2019-11-13 三菱電機株式会社 交通情報生成システム
WO2020016924A1 (ja) * 2018-07-17 2020-01-23 三菱電機株式会社 交通情報生成システム
JP2020061048A (ja) * 2018-10-12 2020-04-16 パイオニア株式会社 情報処理装置
JP2019068429A (ja) * 2018-11-08 2019-04-25 パイオニア株式会社 撮影条件推定装置及び方法、端末装置、コンピュータプログラム並びに記録媒体
JP2021021693A (ja) * 2019-07-30 2021-02-18 トヨタ自動車株式会社 タグ付与装置
JP7346979B2 (ja) 2019-07-30 2023-09-20 トヨタ自動車株式会社 タグ付与装置
US11971953B2 (en) 2021-02-02 2024-04-30 Inait Sa Machine annotation of photographic images
US11544914B2 (en) 2021-02-18 2023-01-03 Inait Sa Annotation of 3D models with signs of use visible in 2D images
US11983836B2 (en) 2021-02-18 2024-05-14 Inait Sa Annotation of 3D models with signs of use visible in 2D images

Also Published As

Publication number Publication date
CN102208013B (zh) 2016-02-24
EP2372611A2 (en) 2011-10-05
US20110243455A1 (en) 2011-10-06
JP5057183B2 (ja) 2012-10-24
CN102208013A (zh) 2011-10-05
US8452103B2 (en) 2013-05-28
EP2372611A3 (en) 2012-09-19

Similar Documents

Publication Publication Date Title
JP5057183B2 (ja) 風景マッチング用参照データ生成システム及び位置測位システム
JP5062498B2 (ja) 風景マッチング用参照データ生成システム及び位置測位システム
JP5435306B2 (ja) 画像処理システム及び位置測位システム
JP5168601B2 (ja) 自車位置認識システム
JP5505723B2 (ja) 画像処理システム及び位置測位システム
JP5062497B2 (ja) 風景画像認識を用いた自車位置検出システム
JP5057184B2 (ja) 画像処理システム及び車両制御システム
JP5333862B2 (ja) 風景画像認識を用いた自車位置検出システム
JP5333860B2 (ja) 風景画像認識を用いた自車位置検出システム
JP5182594B2 (ja) 画像処理システム
JP5177579B2 (ja) 画像処理システム及び位置測位システム
JP5333861B2 (ja) 風景画像認識を用いた自車位置検出システム
JP2021119433A (ja) 学習用データ生成装置、学習用データ生成方法、学習用データ生成プログラム、及び学習済みの学習モデル生成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120229

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120718

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150810

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5057183

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees