JP2018124787A - 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム - Google Patents

情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム Download PDF

Info

Publication number
JP2018124787A
JP2018124787A JP2017016252A JP2017016252A JP2018124787A JP 2018124787 A JP2018124787 A JP 2018124787A JP 2017016252 A JP2017016252 A JP 2017016252A JP 2017016252 A JP2017016252 A JP 2017016252A JP 2018124787 A JP2018124787 A JP 2018124787A
Authority
JP
Japan
Prior art keywords
moving body
key frame
map
frame image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017016252A
Other languages
English (en)
Other versions
JP6760114B2 (ja
Inventor
厚憲 茂木
Atsunori Mogi
厚憲 茂木
村瀬 太一
Taichi Murase
太一 村瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017016252A priority Critical patent/JP6760114B2/ja
Priority to PCT/JP2018/000833 priority patent/WO2018142900A1/ja
Priority to DE112018000605.0T priority patent/DE112018000605T5/de
Publication of JP2018124787A publication Critical patent/JP2018124787A/ja
Priority to US16/402,650 priority patent/US10996062B2/en
Application granted granted Critical
Publication of JP6760114B2 publication Critical patent/JP6760114B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3837Data obtained from a single source
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/3867Geometry of map features, e.g. shape points, polygons or for simplified maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Navigation (AREA)

Abstract

【課題】対象領域を表すマップの量を低減させる。
【解決手段】車載装置10の車載制御部18が全体マップを取得する。そして、位置推定部22が、車両の周辺の周辺画像の時系列に基づいて、キーフレーム画像として判定された周辺画像の各々を撮像したときの車両の位置を推定する。そして、生成部24が、推定された車両の位置の各々と、キーフレーム画像として判定された周辺画像の各々とに基づいて、局所マップを生成する。
【選択図】図2

Description

開示の技術は、情報処理装置、データ管理装置、データ管理システム、方法、及びプログラムに関する。
電子地図データを利用して、風景画像の撮像位置を特定する特定方法が知られている。この特定方法において、電子地図データは、地図上に配置される道路および建造物の少なくとも道路の配置位置を示す配置位置データと、該道路および建造物の少なくとも道路の平面形状を示す形状データとを備えている。そして、風景画像は、道路および該道路に隣接する建造物の少なくとも道路を含む画像である。特定方法におけるコンピュータが実行する工程としては、風景画像を取得し、風景画像を解析して、道路および建造物の少なくとも一方について、外観に関連する所定の特徴量を求める。そして、電子地図データを参照して、地図上の複数の所定の評価位置における特徴量を抽出する。そして、求められた特徴量と、抽出された特徴量とに基づいて、撮像位置の候補地を推定する。
また、風景画像認識技術を用いながらも、効率的な自車位置検出が可能な自車位置検出システムが知られている。この自車位置検出システムは、車両からの風景を撮影した撮影画像から画像特徴点を抽出することによって生成された画像特徴点データ及び当該画像特徴点データに対応する撮影画像の撮影位置を関係付けた参照データを格納する参照データデータベースを備える。また、自車位置検出システムは、車載カメラによる風景の実撮影画像を入力して当該実撮影画像から画像特徴点を抽出することにより生成されたマッチング用データを出力する。そして、自車位置検出システムは、車両の車両挙動である実車両挙動を示す車両挙動データを取得する。そして、自車位置検出システムは、車両の推定自車位置を抽出条件として参照データデータベースから推定自車位置の周辺を撮影位置とする予備参照データを抽出する。そして、自車位置検出システムは、実車両挙動に基づいて予備参照データの中から参照データを絞り込み、マッチング用データに対するマッチング相手候補として出力する。そして、自車位置検出システムは、出力された参照データとマッチング用データとのマッチングを行い、マッチングに成功した参照データに関係付けられた撮影位置に基づいて自車位置を決定する。
また、自車両の絶対位置を精度良く検出できる車両位置推定装置が知られている。車両位置推定装置は、自車両の絶対位置を所定の精度で検出し、自車両の絶対位置を基準とした周囲の目印の相対位置を検出する。そして、車両位置推定装置は、複数回検出された自車両の絶対位置及び目印の相対位置に基づいて誤差の最も小さい目印の絶対位置を推定すると共に、当該目印の絶対位置と目印の相対位置に基づき自車両の絶対位置を推定する。
道路地図データをより有用な内容に逐次更新する道路地図更新システムが知られている。この道路地図更新システムの車両側装置は、車両に搭載され、走行軌跡を作成して送信する。また、道路地図更新システムの地図管理装置は、センタ側道路地図データを更新可能に記憶する地図データ管理サーバを有し、車両側装置から送信される走行軌跡を受信してセンタ側道路地図データを更新する。車両側装置は、車両の現在位置を逐次検出する。また、車両側装置は、現在位置に基づいて、車両の走行中の道路が、道路地図データに含まれるいずれの道路でもない新規道路であるか否かを逐次判定する。そして、車両側装置は、新規道路であると判定されているときに車載カメラによって撮像された車両周辺の画像を地図管理装置へ送信する。
また、実環境に関連するカメラの姿勢を決定する方法が知られている。カメラの環境状況の少なくとも1つのパラメータを決定するために、情報の項目の少なくとも一項又は数項が使用され、項目は、一日の時期、一年の時期、気象、特に、雨、雲、日光等が用いられる。環境条件に関するデータ又はパラメータは、多種多様な異なる環境条件に対して、モデルセットを生成するのに使用される。
特開2005‐173748号公報 特開2011‐215055号公報 特開2007‐303842号公報 特開2008‐039687号公報 特開2015‐084229号公報
例えば、移動体の一例である車両の位置を推定する場合には、車両の周辺領域のマップを参照する必要がある。しかし、実世界における車両の周辺領域は時々刻々と変化しているため、マップを参照したとしても車両の位置を精度よく推定することができない場合がある。そのため、車両の周辺領域の状態毎に複数のマップを保持することが考えられるが、保持するマップの量が膨大となる。
一つの側面では、開示の技術は、対象領域を表すマップの量を低減させることが目的である。
開示の技術は、一つの実施態様では、記憶部には、移動体に搭載された撮像装置によって前記移動体の位置に応じて撮像された画像を表すキーフレーム画像の各々を表す全体マップが記憶される。また、全体マップは、前記キーフレーム画像を撮像したときの前記移動体の位置の各々と、前記キーフレーム画像の特徴点の各々の3次元座標とを表す。取得部は、記憶部から、前記全体マップを取得する。位置推定部は、移動体に搭載された撮像装置によって前記移動体の移動中に撮像された前記移動体の周辺の周辺画像の時系列に基づいて、前記移動体の位置を推定する。位置推定部は、前記移動体の周辺の周辺画像の時系列に基づいて、前記周辺画像のうち前記記憶部に格納されたキーフレーム画像のいずれかに対応すると判定された周辺画像の各々を撮像したときの前記移動体の位置を推定する。生成部は、前記位置推定部によって推定された前記移動体の位置の各々と、前記キーフレーム画像として判定された周辺画像の各々とに基づいて、前記周辺画像の特徴点の各々の3次元座標を算出する。生成部は、前記キーフレーム画像として判定された周辺画像の各々と、前記推定された前記移動体の位置の各々と、前記周辺画像の特徴点の各々の3次元座標とを表す局所マップを生成する。更新部は、前記生成部によって生成された前記局所マップに基づいて、前記取得部によって取得された前記全体マップを更新する。
一つの側面として、対象領域を表すマップの量を低減させることができる、という効果を有する。
本実施形態に係るデータ管理システムの概略ブロック図である。 第1の実施形態に係る車載装置の概略ブロック図である。 第1の実施形態に係るデータ管理装置の概略ブロック図である。 駐車場における全体マップを説明するための説明図である。 キーフレームを説明するための説明図である。 局所マップに基づき全体マップを更新する処理を説明するための説明図である。 キーフレームテーブルの一例を示す図である。 マップ点テーブルの一例を示す図である。 局所マップのキーフレームの位置の補正を説明するための説明図である。 第1の実施形態に係る車載装置の制御部として機能するコンピュータの概略構成を示すブロック図である。 本実施形態に係るデータ管理装置として機能するコンピュータの概略構成を示すブロック図である。 第1の実施形態における局所マップ生成処理の一例を示すフローチャートである。 第1の実施形態におけるデータ管理処理の一例を示すフローチャートである。 第2の実施形態に係るデータ管理装置の概略ブロック図である。 局所マップのキーフレームの車両の位置が所定間隔毎に再同定される処理を説明するための説明図である。 第2の実施形態におけるデータ管理処理の一例を示すフローチャートである。 第3の実施形態に係るデータ管理装置の概略ブロック図である。 第3の実施形態における形状モデルを説明するための説明図である。 第3の実施形態における形状モデル生成処理の一例を示すフローチャートである。 第3の実施形態におけるデータ管理処理の一例を示すフローチャートである。 第4の実施形態に係る車載装置の概略ブロック図である。 第4の実施形態に係るデータ管理装置の概略ブロック図である。 第4の実施形態に係る車載装置の制御部として機能するコンピュータの概略構成を示すブロック図である。 第4の実施形態に係るデータ管理装置として機能するコンピュータの概略構成を示すブロック図である。 第4の実施形態における全体マップ更新処理の一例を示すフローチャートである。 第4の実施形態におけるデータ管理処理の一例を示すフローチャートである。 第5の実施形態に係る車載装置の概略ブロック図である。 第5の実施形態に係るデータ管理装置の概略ブロック図である。
以下、図面を参照して開示の技術の実施形態の一例を詳細に説明する。
<第1の実施形態>
図1に、データ管理システム1の構成例を表す概略図を示す。本実施形態では、移動体が車両であり、駐車場を対象領域とする場合を例に説明する。また、本実施形態では、駐車場における全体マップを更新するデータ管理システムを例に説明する。
図1に示すように、本実施形態のデータ管理システム1は、複数の車載装置10と、データ管理装置30とを備える。複数の車載装置10とデータ管理装置30とは、例えば、インターネット等のネットワーク11を介して接続されている。車載装置は、開示の技術の情報処理装置の一例である。
図2に示す車載装置10は、カメラ12と、GPSセンサ13と、制御部14とを備える。車載装置10は、後述するデータ管理装置30から受信した所定の情報とカメラ12によって撮像された車両の周辺画像とに基づき車両周辺の局所マップを生成し、局所マップをデータ管理装置30へ送信する。制御部14は、図2に示されるように、送受信部16と、車載制御部18と、画像取得部20と、位置推定部22と、生成部24とを備える。車載制御部18は、開示の技術の取得部の一例である。
図3に示すデータ管理装置30は、全体マップ記憶部31と、送受信部32と、制御部34と、補正部36と、更新部38とを備える。データ管理装置30は、車載装置10から送信された局所マップに基づいて、全体マップ記憶部31に格納された全体マップを更新する。
データ管理装置30の全体マップ記憶部31には、駐車場の全体を表す全体マップが格納されている。
駐車場における全体マップについて説明する。例えば、図4に示されるように、駐車場4Aが対象領域の全体として設定された場合、駐車場4A内には複数の車両4Bが駐車される。駐車場4Aに駐車しようとする車両は、駐車場4Aの入口Eから進入し、スタート地点4Cから走行を開始する。そして、車両は、例えば走行軌跡4Dに従って走行し、所定の空きスペースへ駐車する。
上記図4に示される車両の駐車が、例えば自動運転によって行われる場合、駐車場の全体を表す全体マップを予め用意する必要がある。全体マップは、例えば、車両に搭載されたカメラによって車両の位置に応じて撮像された画像を表すキーフレーム画像の各々と、キーフレーム画像を撮像したときの車両の位置の各々と、キーフレーム画像の特徴点の各々の3次元座標とが対応付けられている。
例えば、キーフレーム画像は、上記図4に示す走行軌跡4Dを車両が走行する際に車両に搭載されたカメラによって撮像された画像である。キーフレーム画像は、走行軌跡における所定間隔毎に全体マップへ格納される。また、キーフレーム画像の特徴点の3次元座標が、キーフレーム画像と共に全体マップへ格納される。
全体マップは、キーフレームとマップ点とを含む。キーフレームは、キーフレーム画像の各々とキーフレーム画像を撮像したときの車両の位置の各々とが対応付けられた情報である。キーフレームは、車両の走行軌跡に沿った情報として全体マップに格納される。また、マップ点は、全体マップのうち、キーフレーム画像の特徴点の各々の3次元座標を表す。特徴点とは、例えば、対象領域に存在する物体の形状を表す、キーフレーム画像内のエッジ点等である。
図5に、全体マップを説明するための説明図を示す。図5の全体マップ5Aは、上記図4の駐車場4Aの全体マップの一部である。全体マップの走行軌跡5Bにおける所定間隔毎に、キーフレームが全体マップ5Aに格納される。例えば、キーフレーム画像の一例を表す画像5Dには、画像における特徴点5Cが付与されている。
例えば、車両が図5の走行軌跡5Bを走行する際に、車両に搭載された車載装置10のカメラ12によって画像が逐次撮像される。そして、車載装置10は、カメラ12によって撮像された車両の周辺画像の特徴点と、全体マップのキーフレーム画像の特徴点5Cに対応するマップ点5Xとを対応付け、車両の位置及び姿勢を推定する。
駐車場における車両の駐車状態は時々刻々と変化する。このため、自動運転によって駐車を行う場合には、例えば、駐車状態に応じた複数の全体マップを予め用意しておくことが考えられる。しかし、駐車状態に応じた複数の全体マップを管理する場合、全体マップの数が膨大となる。また、車両周辺の状況に対応する特定の全体マップを複数の全体マップから選択する場合、どのように全体マップを選択するかが問題となる。例えば、車両が駐車されている車両の車種及び向きによって特徴点が異なるため、特定の全体マップを選択することが難しい。
そこで、本実施形態では、車載装置10において車両の周辺画像に基づき局所マップを生成し、車載装置10によって生成された局所マップに基づいて全体マップを逐次更新する。
例えば、本実施形態の車載装置10は、図6に示されるように、駐車場の全体マップ8Aのうち特定の領域8Xに対応する局所マップ8Cを生成する。そして、データ管理装置30は局所マップ8Cに基づいて全体マップ8Aを更新する。例えば、全体マップ8Aにおいて空きスペース8Bとなっているスペースに、最新の状態では、車両が駐車している場合には、局所マップ8Cに基づき全体マップ8Aが更新されることにより、最新の駐車場の状態を表す全体マップ8Dが得られる。このように、車載装置10によって逐次生成される局所マップに基づいて全体マップが更新される。
全体マップ記憶部31には、全体マップが格納される。具体的には、全体マップはキーフレームテーブルとマップ点テーブルとで表現され、キーフレームテーブル及びマップ点テーブルが全体マップとして全体マップ記憶部31に格納される。
図7に示すキーフレームテーブルには、キーフレームの識別情報を表すキーフレームIDと、車両の位置及び姿勢と、カメラによって撮像されたキーフレーム画像と、キーフレーム画像内の特徴点と、特徴点に対応するマップ点IDとが対応付けられて格納される。例えば、図7のキーフレームテーブルのキーフレームID「001」に対応する車両の位置及び姿勢は、図7に示されるように、(0.24,0.84,0.96,245.0,313.9,23.8)を示す6次元実数値である。6次元実数値のうち(0.24,0.84,0.96)は車両の姿勢を表し、(245.0,313.9,23.8)は車両の3次元位置を表す。キーフレームテーブルの1行の情報が1つのキーフレームを表す。
また、図7のキーフレームテーブルのキーフレームID「001」に対応するキーフレーム画像(24,46,…)は、キーフレーム画像の各画素の画素値を表す。また、図7のキーフレームテーブルのキーフレームID「001」に対応する特徴点「(11,42),(29,110)…」は、キーフレーム画像内の特徴点の位置に対応する画素位置を表す。また、図7のキーフレームテーブルのキーフレームID「001」に対応するマップ点ID「3,5,9,32…」は、各特徴点に対応するマップ点IDを表す。マップ点IDは、マップ点テーブルのマップ点IDと対応する。
図8に示すマップ点テーブルには、マップ点の識別情報を表すマップ点IDと、マップ点の3次元位置座標(X[m],Y[m],Z[m])と、マップ点IDの特徴量とが対応付けられて格納される。例えば、図8のマップ点テーブルの特徴量は、例えば、Scale-invariant feature transform(SIFT)等であり、64次元のベクトル等によって表現される。
全体マップを予め生成する方法としては、例えば、参考文献1に記載の方法を用いることができる。
参考文献1:Ra´ul Mur-Artal, J. M. M. Montiel, Member, IEEE, and Juan D. Tard´os, Member, IEEE, "ORB-SLAM: A Versatile and Accurate Monocular SLAM System", IEEE TRANSACTIONS ON ROBOTICS, VOL. 31, NO. 5, OCTOBER 2015
例えば、データ管理装置30の制御部34によって全体マップの生成が行われる。
具体的には、例えば、データ管理装置30の制御部34は、車両に搭載されたカメラによって任意の2視点から取得された画像に基づいて、カメラによる撮像が開始された地点の周辺画像におけるキーフレーム及びマップ点を表す初期全体マップを生成する。次に、制御部34は、車両が駐車場を1週したときに車両のカメラによって撮像された複数の画像に基づいて、各画像における車両の位置及び姿勢を推定する。そして、制御部34は、車両が駐車場を1周したときに撮像された複数の画像に基づいて、隣接する画像のペアにおいて対応する特徴点同士をマッチングし、特徴点に対応するマップ点の3次元座標を計算する。これにより、駐車場の全体を表す全体マップが生成される。
以下、車載装置10が車両の周辺画像に基づく局所マップに基づき全体マップを更新する処理に関する車載装置10及びデータ管理装置30の各機能部について具体的に説明する。
図2に示す車載装置10のカメラ12は、車両の周辺画像を逐次撮像する。また、GPSセンサ13は、車両の位置情報を逐次検出する。
車載制御部18は、GPSセンサ13によって検出された車両の位置情報に基づいて、車両が所定の駐車場に入場したか否かを判定する。そして、車載制御部18は、車両が所定の駐車場に入場したと判定した場合には、送受信部16を介してデータ管理装置30へ制御信号を送信する。
図3に示すデータ管理装置30の送受信部32は、データ管理装置30から送信された制御信号を受信する。制御部34は、送受信部32により受信された制御信号に応じて、全体マップ記憶部31に格納されている全体マップを、送受信部32を介して車載装置10へ送信する。
図2に示す車載装置10の送受信部16は、データ管理装置30から送信された全体マップを受信する。そして、車載制御部18は、送受信部16により受信された全体マップを位置推定部22へ出力する。
画像取得部20は、カメラ12によって撮像された車両の周辺画像を逐次取得する。
位置推定部22は、車載制御部18から出力された全体マップのキーフレーム画像と、画像取得部20によって取得されたカメラ12により逐次撮像された周辺画像とに基づいて、車両の位置及び姿勢を推定する。まず、位置推定部22は、車両の初期位置及び初期姿勢を推定する。
例えば、位置推定部22は、参考文献2に記載の方法を用いて、車両の初期位置及び初期姿勢を推定することができる。
参考文献2:Ra´ul Mur-Artal and Juan D. Tard´os,"Fast Relocalisation and Loop Closing in Keyframe-Based SLAM",2014 IEEE International Conference on Robotics & Automation (ICRA) May 31 - June 7, 2014. Hong Kong, China
まず、位置推定部22は、画像取得部20によって取得された初期時刻の周辺画像と複数のキーフレーム画像とを所定のサイズへ縮小する。初期時刻の周辺画像とは、車両が駐車場に進入した際に初めて撮像された周辺画像を表す。次に、位置推定部22は、初期時刻の周辺画像と複数のキーフレーム画像とに対して、ガウシアンフィルタを適用する。そして、位置推定部22は、複数のキーフレーム画像の各々について、初期時刻の周辺画像の各画素とキーフレーム画像の各画素とについてのSum of Squared Distance(SSD)を算出する。そして、位置推定部22は、SSDの値が最も小さいキーフレーム画像を選択する。
次に、位置推定部22は、初期時刻の周辺画像から特徴点を抽出する。また、位置推定部22は、初期時刻の周辺画像から抽出された特徴点と、選択されたキーフレーム画像内の特徴点とをマッチングする。そして、位置推定部22は、マッチング結果に応じて、周辺画像の特徴点と、キーフレーム画像の特徴点に対応するマップ点とを対応付ける。周辺画像の特徴点とキーフレーム画像内の特徴点とがマッチングにより対応付けられることにより、周辺画像の特徴点とキーフレームのマップ点とが対応付けられる。例えば、位置推定部22は、特徴点の特徴量の類似度が最大であって、かつ類似度が閾値(例えば0.8)以上である特徴点のペアを対応付ける。なお、類似度としては、例えば特徴量がORBである場合にはハミング距離、特徴量がSIFTである場合にはL2ノルムが用いられる。
次に、位置推定部22は、初期時刻の周辺画像の特徴点とキーフレーム画像の特徴点及びマップ点との対応付け結果と、カメラ12の内部パラメータとに基づいて、以下の参考文献3に記載のPnPアルゴリズムを用いて、カメラの位置及び姿勢を算出する。具体的には、まず、位置推定部22は、周辺画像の特徴点と対応付けられたマップ点を周辺画像へ投影させた投影点を生成する。そして、位置推定部22は、周辺画像の投影点と特徴点との距離が最小となるようにカメラ12の位置及び姿勢を算出する。カメラ12の位置及び姿勢が算出されることにより、カメラ12を搭載した車両の初期位置及び初期姿勢が推定される。
参考文献3:V. Lepetit et al., "EPnP: An Accurate O(n) Solution to the PnP Problem", International Journal of Computer Vision, Vol.81, No.2, pp.155-166(2008).
なお、カメラ12の内部パラメータは、例えば、参考文献4に記載の方法に基づきキャリブレーションにより予め取得される。
参考文献4:Z.Zhang et al., "A flexible new technique for camera calibration.", IEEE Transactions on Pattern Analysis and Machine Intelligence, 22(11):1330-1334, 2000.
次に、位置推定部22は、画像取得部20によって取得された車両の移動中に撮像された周辺画像の時系列に基づいて、車両が移動しているときの車両の位置及び姿勢を推定する。
具体的には、位置推定部22は、まず、画像取得部20によって取得された現時刻の周辺画像から特徴点を抽出する。次に、位置推定部22は、車両が所定の運動モデル(例えば、等速運動)を行っていると仮定し、前時刻の周辺画像に基づいて、現時刻の周辺画像に対応する車両の位置を算出する。
そして、位置推定部22は、現時刻の周辺画像に対応する車両の位置に基づいて、前時刻の周辺画像のマップ点と現時刻の周辺画像の特徴点との対応付けを行う。なお、前時刻の周辺画像のマップ点は、後述する生成部24によって前時刻の周辺画像に対して生成される。
そして、位置推定部22は、現時刻の周辺画像の特徴点と前時刻の周辺画像のマップ点との対応付け結果から、上記参考文献3に記載のPnPアルゴリズムを用いて現時刻のカメラ12の位置及び姿勢を算出する。カメラ12の位置及び姿勢が算出されることにより、カメラ12を搭載した車両の位置及び姿勢が推定される。
生成部24は、各時刻の周辺画像の各々について、キーフレーム画像として採用するか否かを判定する。また、生成部24は、位置推定部22によって推定された車両の位置と、前回の生成部24の処理でキーフレーム画像として判定された周辺画像とに基づいて、周辺画像の特徴点の各々の3次元座標を示すマップ点を算出する。そして、生成部24は、前回までの生成部24の処理でキーフレーム画像として判定された周辺画像の各々と、推定された車両の位置の各々と、周辺画像の特徴点の各々の3次元座標を示すマップ点とを表す局所マップを生成する。
具体的には、生成部24は、各時刻の周辺画像の各々について、キーフレーム画像として採用するか否かを判定する際に、位置推定部22によって推定された車両の姿勢に関する品質の判定を行う。例えば、生成部24は、以下の式(1)に従って、位置推定部22による車両の姿勢推定に関する品質のスコアSを算出する。
S=(前時刻のマップ点と現時刻の特徴点とがマッチングした点数)/(前時刻のマップ点と現時刻の特徴点との間でマッチングを試みた点数) ・・・(1)
生成部24は、品質のスコアSが閾値(例えば0.3)以上である場合には、位置推定部22による車両の姿勢推定は高品質であると判定する。そして、生成部24は、位置推定部22による車両の姿勢の推定が高品質であって、かつ周辺画像が所定の条件を満たす場合は、周辺画像をキーフレーム画像として設定する。例えば、生成部24は、所定の条件として、前回キーフレーム画像として採用された周辺画像から、一定間隔(例えば、20フレーム)が開いているか否かに応じて、周辺画像をキーフレーム画像として設定するか否かを判定する。
次に、生成部24は、三角測量による特徴点の3次元復元により、新たに設定されたキーフレーム画像の特徴点の各々の3次元座標を示すマップ点を算出する。例えば、生成部24は、車両の位置の各々と、新たに設定されたキーフレーム画像と、前回までに設定されたキーフレーム画像とに基づき、参考文献5に記載の手法により、新たに設定されたキーフレーム画像のマップ点を算出する。
参考文献5:R. I. Hartley et al., "Triangulation, Computer Vision and Image Understanding", Vol. 68, No.2, pp.146-157, 1997.
具体的には、生成部24は、キーフレーム画像に対応付けられた車両の位置の各々に基づいて、前回までに設定されたキーフレーム画像のうち、新たに設定されたキーフレーム画像の位置と最も近い最近傍のキーフレーム画像を選択する。次に生成部24は、新たなキーフレーム画像の特徴点及び最近傍のキーフレームのマップ点と、新たなキーフレーム画像での車両の姿勢と最近傍のキーフレーム画像での車両の姿勢との相対姿勢とから、新たなキーフレーム画像のマップ点を算出する。
そして、生成部24は、新たに設定されたキーフレーム画像と、新たに設定されたキーフレーム画像に対応する車両の位置と、新たに設定されたキーフレーム画像のマップ点とを局所マップに追加する。
生成部24は、車両が停止したことを表す外部信号を検知するまで、位置推定部22よる車両の位置の推定、キーフレーム画像の判定、及びマップ点の生成を繰り返し、車両の走行に応じた局所マップを生成する。
車載装置10の車載制御部18は、生成部24によって生成された局所マップを、送受信部16を介してデータ管理装置30へ送信する。
図3に示すデータ管理装置30の送受信部32は、車載装置10から送信された局所マップを受信する。制御部34は、送受信部32により受信された局所マップを、補正部36へ出力する。
補正部36は、制御部34から出力された局所マップに含まれるキーフレーム画像から、車両の位置を再同定する。そして、補正部36は、制御部34から出力された局所マップと、再同定された車両の位置に基づいて、局所マップが表す車両の位置の各々と、キーフレームのマップ点とを補正する。
具体的には、補正部36は、局所マップのうち車両の停車位置に最も近いキーフレーム画像に基づいて、上記参考文献2に記載のRelocalizationアルゴリズムにより、車両の停車位置を再同定する。次に、補正部36は、局所マップのスタート地点と全体マップ記憶部31に格納された全体マップのスタート地点とが一致するように、局所マップの座標を変換する。
次に、補正部36は、局所マップのうち車両の停車位置に最も近いキーフレームと、所定のキーフレームの各々と、再同定された車両の位置に対応するキーフレームとに基づいて、グラフ構造を生成する。グラフ構造のノードは各キーフレームにおける車両の位置及び姿勢を表し、エッジはキーフレーム間の距離を表す。
そして、補正部36は、上記参考文献2に記載のグラフ最適化手法により、局所マップのうち車両の停車位置に最も近いキーフレームと、所定のキーフレームの各々における車両の位置及び姿勢を補正する。
例えば、図9に示されるように、局所マップ9Aにおいて各キーフレーム(9a,9b,9c)が得られている場合を例に説明する。この場合、キーフレーム9aは、スタート地点のキーフレームを表す。また、キーフレーム9cは車両の停車位置に最も近いキーフレームを表す。キーフレーム9bは、キーフレーム9aとキーフレーム9cとの間に位置するキーフレームである。9Sは、補正前の局所マップにおいて推定された車両の走行軌跡を表す。また、キーフレーム9Xは、補正部36によって再同定された車両の停車位置を表す。
車載装置10から送信された局所マップの生成では、位置推定部22によって車両の移動中に撮像された周辺画像の時系列に基づいて、車両の位置及び姿勢が推定される。しかし、車両の周辺画像の時系列に基づく推定処理の際に誤差が累積され、車両の位置及び姿勢を精度よく推定できない場合がある。そのため、生成された局所マップにおけるキーフレームの車両の位置及び姿勢とキーフレーム画像との対応関係が実世界とは異なる場合がある。
そこで、本実施形態では、補正部36によって、図9に示されるように、スタート地点の車両の位置9aと再同定された車両の位置9Xとに基づいて、キーフレームを補正し、局所マップ9Bを得る。具体的には、図9の9Zに示すように、(1)9Xと9cとの間の距離が0となるように、かつ(2)他のキーフレームの元の位置からの移動が最小となるようにグラフ構造を再計算し、局所マップの各キーフレームを補正する。補正部36による局所マップの補正により、補正前の走行軌跡9Sが車両の走行軌跡9Pとなり、実世界と対応する局所マップ9Bが得られる。
そして、補正部36は、局所マップの各キーフレームの車両の位置及び姿勢の補正に応じて、局所マップの各キーフレームのマップ点の座標を座標変換する。
更新部38は、補正部36によって補正された局所マップに基づいて、全体マップ記憶部31に格納された全体マップを更新する。
具体的には、更新部38は、車両の初期位置に対応するキーフレームと再同定された車両の位置に対応するキーフレームとの間に分布するキーフレームと、分布するキーフレームに対応するマップ点を削除する。そして、更新部38は、補正した局所マップを全体マップの削除された箇所に当てはめる。
車載装置10の制御部14は、例えば、図10に示すコンピュータ50で実現することができる。コンピュータ50はCPU51、一時記憶領域としてのメモリ52、及び不揮発性の記憶部53を備える。また、コンピュータ50は、カメラ12、GPSセンサ13、表示装置、及び入出力装置等(図示省略)が接続される入出力interface(I/F)54、及び記録媒体59に対するデータの読み込み及び書き込みを制御するread/write(R/W)部55を備える。また、コンピュータ50は、インターネット等のネットワークに接続されるネットワークI/F56を備える。CPU51、メモリ52、記憶部53、入出力I/F54、R/W部55、及びネットワークI/F56は、バス57を介して互いに接続される。
記憶部53は、Hard Disk Drive(HDD)、solid state drive(SSD)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部53には、コンピュータ50を車載装置10の制御部14として機能させるための局所マップ生成プログラム60が記憶されている。局所マップ生成プログラム60は、送受信プロセス62と、車載制御プロセス63と、画像取得プロセス64と、位置推定プロセス65と、生成プロセス66とを有する。
CPU51は、局所マップ生成プログラム60を記憶部53から読み出してメモリ52に展開し、局所マップ生成プログラム60が有するプロセスを順次実行する。CPU51は、送受信プロセス62を実行することで、図2に示す送受信部16として動作する。また、CPU51は、車載制御プロセス63を実行することで、図2に示す車載制御部18として動作する。また、CPU51は、画像取得プロセス64を実行することで、図2に示す画像取得部20として動作する。また、CPU51は、位置推定プロセス65を実行することで、図2に示す位置推定部22として動作する。また、CPU51は、生成プロセス66を実行することで、図2に示す生成部24として動作する。これにより、局所マップ生成プログラム60を実行したコンピュータ50が、車載装置10の制御部14として機能することになる。そのため、ソフトウェアである局所マップ生成プログラム60を実行するプロセッサはハードウェアである。
なお、局所マップ生成プログラム60により実現される機能は、例えば半導体集積回路、より詳しくはApplication Specific Integrated Circuit(ASIC)等で実現することも可能である。
また、データ管理装置30は、例えば、図11に示すコンピュータ80で実現することができる。コンピュータ80はCPU81、一時記憶領域としてのメモリ82、及び不揮発性の記憶部83を備える。また、コンピュータ80は、表示装置及び入力装置等の入出力装置(図示省略)が接続される入出力I/F84、及び記録媒体89に対するデータの読み込み及び書き込みを制御するR/W部85を備える。また、コンピュータ80は、インターネット等のネットワークに接続されるネットワークI/F86を備える。CPU81、メモリ82、記憶部83、入出力I/F84、R/W部85、及びネットワークI/F86は、バス87を介して互いに接続される。
記憶部83は、HDD、SSD、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部83には、コンピュータ80をデータ管理装置30として機能させるためのデータ管理プログラム90が記憶されている。データ管理プログラム90は、送受信プロセス92と、制御プロセス93と、補正プロセス94と、更新プロセス95とを有する。また、記憶部83は、全体マップ記憶部31を構成する情報が記憶される全体マップ記憶領域96を有する。
CPU81は、データ管理プログラム90を記憶部83から読み出してメモリ82に展開し、データ管理プログラム90が有するプロセスを順次実行する。CPU81は、送受信プロセス92を実行することで、図3に示す送受信部32として動作する。また、CPU81は、制御プロセス93を実行することで、図3に示す制御部34として動作する。また、CPU81は、補正プロセス94を実行することで、図3に示す補正部36として動作する。また、CPU81は、更新プロセス95を実行することで、図3に示す更新部38として動作する。また、CPU81は、全体マップ記憶領域96から情報を読み出して、全体マップ記憶部31をメモリ82に展開する。これにより、データ管理プログラム90を実行したコンピュータ80が、データ管理装置30として機能することになる。そのため、ソフトウェアであるデータ管理プログラム90を実行するプロセッサはハードウェアである。
なお、データ管理プログラム90により実現される機能は、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。
次に、本実施形態に係るデータ管理システム1の作用について説明する。車載装置10において、車載制御部18がGPSセンサ13によって検出された車両の位置情報に基づいて、車両が所定の駐車場に入場したか否かを判定する。車載制御部18は、車両が所定の駐車場に入場したと判定した場合には、送受信部16を介してデータ管理装置30へ制御信号を送信する。データ管理装置30の送受信部32が、車載装置10から送信された制御信号に応じて、全体マップ記憶部31に格納されている全体マップを、送受信部32を介して車載装置10へ送信する。そして、車載装置10の送受信部16が、データ管理装置30から送信された全体マップを受信すると、車載装置10の制御部14によって、図12に示す局所マップ生成処理が実行される。以下、各処理について詳述する。
ステップS100において、車載制御部18は、送受信部16により受信された全体マップを取得する。そして、車載制御部18は、全体マップを位置推定部22へ出力する。
ステップS101において、画像取得部20はカメラ12によって撮像された初期時刻の周辺画像を取得する。
ステップS102において、位置推定部22は、上記ステップS100で出力された全体マップと、上記ステップS101で取得された初期時刻の周辺画像とに基づいて、車両の初期位置及び初期姿勢を推定する。
ステップS104において、画像取得部20は、カメラ12によって撮像された車両の周辺画像を取得する。
ステップS106において、位置推定部22は、上記ステップS104で取得された現時刻の周辺画像と、上記ステップS104で取得された前時刻の周辺画像とに基づいて、車両の位置及び姿勢を推定する。
ステップS108において、生成部24は、上記ステップS104で取得された現時刻の周辺画像について、キーフレーム画像として設定するか否かを判定する。現時刻の周辺画像をキーフレーム画像として設定する場合には、ステップS110へ進む。一方、現時刻の周辺画像をキーフレーム画像として設定しない場合には、ステップS112へ進む。
ステップS110において、生成部24は、上記ステップS108でキーフレーム画像として判定された周辺画像の特徴点の各々の3次元座標を示すマップ点を算出する。そして、生成部24は、新たに設定されたキーフレーム画像と、上記ステップS106で推定された車両の位置及び姿勢と、新たに設定されたキーフレーム画像のマップ点とを局所マップへ追加する。
ステップS112において、生成部24は、車両が停止したことを表す外部信号を検知したか否かを判定する。車両が停止したことを表す外部信号を検知した場合には、ステップS114へ進む。一方、車両が停止したことを表す外部信号を検知していない場合には、ステップS104へ戻る。
ステップS114において、車載制御部18は、上記ステップS110で生成された局所マップを、送受信部16を介してデータ管理装置30へ送信して処理を終了する。
データ管理装置30の送受信部32が、車載装置10から送信された局所マップを受信すると、データ管理装置30は図13に示すデータ管理処理を実行する。
ステップS200において、制御部34は、送受信部32により受信された局所マップを取得し、補正部36へ出力する。
ステップS202において、補正部36は、上記ステップS200で出力された局所マップに含まれるキーフレーム画像から、車両の位置を再同定する。
ステップS204において、補正部36は、上記ステップS200で出力された局所マップと、上記ステップS202で再同定された車両の位置に基づいて、局所マップの車両の位置及び姿勢を補正する。
ステップS206において、補正部36は、上記ステップS204における局所マップの各キーフレームの車両の位置及び姿勢の補正に応じて、局所マップの各キーフレームのマップ点を補正する。
ステップS208において、更新部38は、上記ステップS204及び上記ステップS206で補正された局所マップに基づいて、全体マップ記憶部31に格納された全体マップの局所マップに対応する部分を更新して、データ管理処理を終了する。
以上説明したように、本実施形態に係るデータ管理システムでは、車載装置が、推定された車両の位置の各々と、キーフレーム画像として判定された周辺画像の各々とに基づいて、局所マップを生成する。そして、データ管理装置が、車載装置から送信された局所マップに基づいて、全体マップを更新する。これにより、逐次生成された局所マップを用いて全体マップが更新され、駐車状態に応じたマップを保持する必要がないため、対象領域を表すマップの量を低減させることができる。
また、データ管理装置におけるマップの保持数を低減させ、かつ多様な動的環境に対応することができる。また、データ管理装置における局所マップの補正により、局所マップの累積誤差及びスケールドリフトを抑制することができる。
<第2の実施形態>
次に、第2の実施形態について説明する。第2の実施形態では、車両の位置の時系列を表す走行軌跡において、所定間隔毎に局所マップの各キーフレームの車両の位置を再同定する点が第1の実施形態と異なる。
図14に、第2の実施形態のデータ管理装置230の構成例を示す。第2の実施形態のデータ管理装置230は、図14に示されるように、全体マップ記憶部31と、送受信部32と、制御部34と、補正部36と、更新部38と、信頼度算出部235とを備える。
信頼度算出部235は、車載装置10から送信された局所マップのキーフレーム画像が撮像されたときの車両の位置に応じて、局所マップが表す車両の位置の各々を再同定する。そして、信頼度算出部235は、再同定された車両の位置の各々に基づいて、局所マップに関する信頼度を算出する。
具体的には、信頼度算出部235は、車載装置10から送信された局所マップのキーフレームの車両の位置を一定間隔で再同定する。再同定の手法は、第1の実施形態の補正部36と同様に、上記参考文献2に記載のRelocalizationアルゴリズムを用いることができる。車両の位置の再同定の間隔としては、例えば、4キーフレーム毎に位置の同定を行う。
次に、信頼度算出部235は、局所マップの信頼度を算出し、各キーフレームの位置を補正するか否かを判定する。例えば、信頼度算出部235は、再同定された各キーフレームの位置と、局所マップのうちの元の各キーフレームとの間の距離を算出する。
補正部36は、信頼度算出部235によって算出された局所マップに関する信頼度の一例としての各キーフレームの距離の平均が閾値(例えば、0.3m)以下である場合に、局所マップの補正を行う。そして、更新部38は、補正された局所マップを用いて全体マップを更新する。
なお、補正部36は、信頼度算出部235によって算出された各キーフレームの距離の平均が閾値(例えば、0.3m)より大きい場合には、全体マップの更新を行わない。車載装置10から送信された局所マップのキーフレームの車両の位置と、信頼度算出部235によって再同定されたキーフレームの車両の位置とがあまりにも異なる場合、その局所マップは実世界を表していない可能性が高いためである。
図15に、所定間隔毎に再同定される車両の位置を説明するための説明図を示す。例えば、局所マップ15Aが車載装置10から送信された場合、信頼度算出部235は、局所マップのキーフレームの車両の位置を一定間隔で再同定し、再同定結果15Bを得る。そして、信頼度算出部235は、局所マップ15Aの各キーフレームの位置と再同定結果15Bとに基づいて、信頼度を算出する。補正部36は、信頼度が閾値以上である場合に、再同定結果15Bを用いて、局所マップを補正する。具体的には、補正部36は、初めに初期の再同定された位置と次に1つ目に再同定された位置、次に1つ目の再同定された位置と2つ目の再同定された位置というように、徐々にグラフ最適化を行うことにより局所マップの補正を行う。そして、更新部38は、補正された局所マップを用いて全体マップを更新し、全体マップ15Cを得る。
データ管理装置230は、例えば、図11に示すコンピュータ80で実現することができる。コンピュータ80の記憶部83には、コンピュータ80をデータ管理装置230として機能させるためのデータ管理プログラム290が記憶されている。データ管理プログラム290は、送受信プロセス92と、制御プロセス93と、補正プロセス94と、更新プロセス95と、信頼度算出プロセス296とを有する。また、記憶部83は、全体マップ記憶部31を構成する情報が記憶される全体マップ記憶領域96を有する。
CPU81は、データ管理プログラム290を記憶部83から読み出してメモリ82に展開し、データ管理プログラム290が有するプロセスを順次実行する。CPU81は、送受信プロセス92を実行することで、図14に示す送受信部32として動作する。また、CPU81は、制御プロセス93を実行することで、図14に示す制御部34として動作する。また、CPU81は、補正プロセス94を実行することで、図14に示す補正部36として動作する。また、CPU81は、更新プロセス95を実行することで、図14に示す更新部38として動作する。また、CPU81は、信頼度算出プロセス296を実行することで、図14に示す信頼度算出部235として動作する。また、CPU81は、全体マップ記憶領域96から情報を読み出して、全体マップ記憶部31をメモリ82に展開する。これにより、データ管理プログラム290を実行したコンピュータ80が、データ管理装置230として機能することになる。そのため、ソフトウェアであるデータ管理プログラム290を実行するプロセッサはハードウェアである。
なお、データ管理プログラム290により実現される機能は、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。
次に第2の実施形態におけるデータ管理装置230の作用について説明する。送受信部32が、車載装置10から送信された局所マップを受信すると、データ管理装置230は図16に示すデータ管理処理を実行する。
ステップS200、ステップS206〜ステップS208は第1の実施形態と同様に実行される。
ステップS400において、信頼度算出部235は、上記ステップS200で取得された局所マップのキーフレーム画像が撮像されたときの車両の位置に応じて、局所マップの各キーフレームが表す車両の位置の各々を再同定する。
ステップS402において、信頼度算出部235は、上記ステップS400で再同定された各キーフレームの位置と、上記ステップS200で取得された局所マップのうちの元の各キーフレームとの間の距離の平均を算出し、局所マップの信頼度とする。
次に、ステップS404において、補正部36は、上記ステップS402で算出された局所マップの信頼度が閾値より大きいか否かを判定する。局所マップの信頼度が閾値より大きい場合には、ステップS406へ進む。一方、局所マップの信頼度が閾値以下の場合には、処理を終了する。
ステップS406において、補正部36は、上記ステップS200で出力された局所マップと、上記ステップS400で再同定された車両の位置の各々に基づいて、局所マップの車両の位置及び姿勢を補正する。
以上説明したように、第2の実施形態では、データ管理装置230は、局所マップが表す車両の位置の各々を再同定し、再同定された車両の位置の各々に基づいて、局所マップに関する信頼度を算出する。そして、データ管理装置230は、信頼度に応じて、局所マップを用いて全体マップを更新する。これにより、局所マップの信頼度を用いて、全体マップの更新を精度よく行うことができる。具体的には、複数の再同定結果を用いるため、補正の精度が向上する。また、局所マップの信頼度が閾値よりも低い場合には、その局所マップを棄却することができる。
<第3の実施形態>
次に、第3の実施形態について説明する。第3の実施形態では、自車両に対応するマップ点を全体マップへ反映する点が第1又は第2の実施形態と異なる。
例えば、駐車場での駐車を想定した場合、局所マップを生成した車両は、駐車場の何れかの駐車スペースに停車する。しかし、駐車スペースに停車した車両の存在は、その車両によって生成された局所マップには反映されない。そこで、第3の実施形態では、局所マップを生成した自車両に対応するマップ点を、全体マップへ反映する。
図17に、第3の実施形態のデータ管理装置330の構成例を示す。第3の実施形態のデータ管理装置330は、図17に示されるように、全体マップ記憶部31と、送受信部32と、制御部34と、補正部36と、更新部38と、形状モデル生成部337とを備える。また、データ管理装置330は、外部カメラ20Cから、局所マップを生成した自車両の画像を取得する。
外部カメラ20Cは、局所マップを生成した自車両の画像を撮像する。
図18に、第3の実施形態を説明するための説明図を示す。図18の例では、自車両20Aが駐車スペースに停車している状態を表している。自車両20Aの周辺には、外部カメラ20Cが備え付けてあり、自車両20Aの画像を撮像する。また、自車両20Aのカメラには形状及びカメラに対する装着角度が既知であるマーカ20Bが装着されている。外部カメラ20Cは、マーカ20Bが撮影されるように、自車両20Aの外側から2視点以上の画像を撮像する。そして、外部カメラ20Cは、自車両20Aの画像をデータ管理装置330へ送信する。
データ管理装置330の送受信部32は、外部カメラ20Cから送信された自車両の画像を受信する。制御部34は、送受信部32により受信された自車両の画像を、形状モデル生成部337へ出力する。
形状モデル生成部337は、制御部34から出力された自車両の画像に基づいて、自車両上の点の各々の3次元座標を表す形状モデルを生成する。具体的には、形状モデル生成部337は、上記参考文献5に記載の手法により、外部カメラ20Cの視点を原点とした、自車両の上の点の各々の3次元座標を取得する。なお、形状モデル生成部337は、外部カメラ20Cによって撮像された自車両の画像中に映るマーカの姿勢を、参考文献6に記載の手法により取得する。具体的には、形状モデル生成部337は、画像中のマーカの4隅の座標を二値化又はラベリングにより推定し、マーカの回転成分及並進成分を推定することにより、マーカの姿勢を取得する。なお、外部カメラ20Cの内部パラメータは、上記参考文献4に記載のキャリブレーションにより予め取得される。
参考文献6:H. Kato et al., "Marker tracking and HMD calibration for a video-based augmented reality conferencing system", In Proc. of IEEE and ACM International Workshop on Augmented Reality (IWAR), pp.85-94, 1999.
そして、形状モデル生成部337は、自車両上の点の各々の3次元座標を、外部カメラ20Cの視点が原点ではなく、マーカが原点となるように座標変換を行う。具体的には、形状モデル生成部337は、外部カメラ20Cによって撮像された画像内に映るマーカの姿勢に基づいて、外部カメラ20Cの座標系を、カメラ12の座標系に変換する。これにより、自車両のカメラ12を原点とした自車両上の点の各々の3次元座標を表す形状モデルが得られる。なお、上記図18に示す例では、20Dが自車両上の点の各々を表している。
更新部38は、局所マップから得られる自車両の位置と、形状モデル生成部337によって生成された形状モデルとに基づいて、全体マップ記憶部31に記憶された全体マップを更新する。
具体的には、更新部38は、補正部36によって得られた自車両の位置の再同定に基づき既に得られている停車時の自車両の位置及び姿勢を用いて、形状モデル生成部337によって生成された形状モデルを全体マップに割り当てる。
データ管理装置330は、例えば、図11に示すコンピュータ80で実現することができる。コンピュータ80の記憶部83には、コンピュータ80をデータ管理装置330として機能させるためのデータ管理プログラム390が記憶されている。データ管理プログラム390は、送受信プロセス92と、制御プロセス93と、補正プロセス94と、更新プロセス95と、形状モデル生成プロセス397とを有する。また、記憶部83は、全体マップ記憶部31を構成する情報が記憶される全体マップ記憶領域96を有する。
CPU81は、データ管理プログラム390を記憶部83から読み出してメモリ82に展開し、データ管理プログラム390が有するプロセスを順次実行する。CPU81は、送受信プロセス92を実行することで、図17に示す送受信部32として動作する。また、CPU81は、制御プロセス93を実行することで、図17に示す制御部34として動作する。また、CPU81は、補正プロセス94を実行することで、図17に示す補正部36として動作する。また、CPU81は、更新プロセス95を実行することで、図17に示す更新部38として動作する。また、CPU81は、形状モデル生成プロセス397を実行することで、図17に示す形状モデル生成部337として動作する。また、CPU81は、全体マップ記憶領域96から情報を読み出して、全体マップ記憶部31をメモリ82に展開する。これにより、データ管理プログラム390を実行したコンピュータ80が、データ管理装置330として機能することになる。そのため、ソフトウェアであるデータ管理プログラム390を実行するプロセッサはハードウェアである。
なお、データ管理プログラム390により実現される機能は、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。
次に、第3の実施形態におけるデータ管理装置330の作用について説明する。送受信部32が、外部カメラ20Cから送信された自車両の画像を受信すると、データ管理装置330は図19に示す形状モデル生成処理を実行する。
まず、ステップS500において、形状モデル生成部337は、制御部334から出力された自車両の画像を取得する。
ステップS502において、形状モデル生成部337は、上記ステップS500で取得された自車両の画像に基づいて、形状モデルを生成する。
次に、送受信部32が、車載装置10から送信された局所マップを受信すると、データ管理装置330は図20に示すデータ管理処理を実行する。
ステップS200〜ステップS208の各処理は、第1の実施形態と同様に実行される。
ステップS610において、更新部38は、形状モデル生成処理によって生成された形状モデルを取得する。
ステップS612において、更新部38は、ステップS206で補正された自車両の位置と、上記ステップS610で取得された形状モデルとに基づいて、全体マップ記憶部31に記憶された全体マップを更新して、データ管理処理を終了する。
以上説明したように、第3の実施形態では、自車両上の点の各々の3次元座標を表す形状モデルを生成し、形状モデルに基づいて全体マップを更新する。これにより、局所マップを生成した自車両上の点の各々の3次元座標を示すマップ点を全体マップへ反映させることができる。そのため、自車両のマップ点も含め、全体マップを精度よく更新することができる。
<第4の実施形態>
次に、第4の実施形態について説明する。第4の実施形態では、車載装置が全体マップを更新する点が第1〜第3の実施形態と異なる。
図21に示す車載装置410は、カメラ12と、GPSセンサ13と、制御部414とを備える。車載装置410は、カメラ12によって撮像された車両の周辺画像に基づき車両周辺の局所マップを生成し、後述するデータ管理装置430から送信された全体マップを更新する。制御部414は、図21に示されるように、送受信部16と、車載制御部18と、画像取得部20と、位置推定部22と、生成部24と、補正部36と、更新部38と、車載側全体マップ記憶部440とを備える。
また図22に示すデータ管理装置430は、全体マップ記憶部31と、送受信部32と、制御部34とを備える。データ管理装置430は、車載装置410から送信された全体マップを、全体マップ記憶部31に格納する。
以下、車載装置410とデータ管理装置430との具体的な処理を説明する。
車載装置410の車載制御部18は、送受信部16により受信された全体マップを車載側全体マップ記憶部440へ格納する。また、車載制御部18は、送受信部16により受信された全体マップを位置推定部22へ出力する。
補正部36は、第1の実施形態のデータ管理装置30の補正部36と同様に、生成部24によって生成された局所マップを補正する。
更新部38は、車載側全体マップ記憶部440に格納された全体マップを読み出し、第1の実施形態のデータ管理装置30の更新部38と同様に、補正部36によって補正された局所マップに基づいて、全体マップを更新する。
車載制御部18は、更新部38によって更新された全体マップが車載側全体マップ記憶部440に格納されると、車載側全体マップ記憶部440に格納された全体マップを、送受信部16を介して、データ管理装置430へ送信する。
図22に示すデータ管理装置430の送受信部32は、車載装置410から送信された全体マップを受信する。制御部34は、送受信部32により受信された全体マップを、全体マップ記憶部31へ格納する。
車載装置410の制御部414は、例えば、図23に示すコンピュータ50で実現することができる。コンピュータ50の記憶部53には、コンピュータ50を車載装置410の制御部414として機能させるための全体マップ更新プログラム460が記憶されている。全体マップ更新プログラム460は、送受信プロセス62と、車載制御プロセス63と、画像取得プロセス64と、位置推定プロセス65と、生成プロセス66と、補正プロセス94と、更新プロセス95とを有する。また、記憶部53は、車載側全体マップ記憶部440を構成する情報が記憶される車載側全体マップ記憶領域469を有する。
CPU51は、全体マップ更新プログラム460を記憶部53から読み出してメモリ52に展開し、全体マップ更新プログラム460が有するプロセスを順次実行する。CPU51は、送受信プロセス62を実行することで、図21に示す送受信部16として動作する。また、CPU51は、車載制御プロセス63を実行することで、図21に示す車載制御部18として動作する。また、CPU51は、画像取得プロセス64を実行することで、図21に示す画像取得部20として動作する。また、CPU51は、位置推定プロセス65を実行することで、図21に示す位置推定部22として動作する。また、CPU51は、生成プロセス66を実行することで、図21に示す生成部24として動作する。また、CPU51は、生成プロセス66を実行することで、図21に示す生成部24として動作する。また、CPU51は、補正プロセス94を実行することで、図21に示す補正部36として動作する。また、CPU51は、更新プロセス95を実行することで、図21に示す更新部38として動作する。これにより、全体マップ更新プログラム460を実行したコンピュータ50が、車載装置410の制御部414として機能することになる。そのため、ソフトウェアである全体マップ更新プログラム460を実行するプロセッサはハードウェアである。
なお、全体マップ更新プログラム460により実現される機能は、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。
データ管理装置430は、例えば、図24に示すコンピュータ80で実現することができる。コンピュータ80の記憶部83には、コンピュータ80をデータ管理装置430として機能させるためのデータ管理プログラム490が記憶されている。データ管理プログラム490は、送受信プロセス92と、制御プロセス93とを有する。また、記憶部83は、全体マップ記憶部31を構成する情報が記憶される全体マップ記憶領域96を有する。
CPU51は、データ管理プログラム490を記憶部83から読み出してメモリ82に展開し、データ管理プログラム490が有するプロセスを順次実行する。CPU81は、送受信プロセス92を実行することで、図22に示す送受信部32として動作する。また、CPU81は、制御プロセス93を実行することで、図22に示す制御部34として動作する。また、CPU81は、全体マップ記憶領域96から情報を読み出して、全体マップ記憶部31をメモリ82に展開する。これにより、全体マップ更新プログラム460を実行したコンピュータ80が、データ管理装置430として機能することになる。そのため、ソフトウェアであるデータ管理プログラム490を実行するプロセッサはハードウェアである。
なお、データ管理プログラム490により実現される機能は、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。
次に、第4の実施形態に係るデータ管理システムの作用について説明する。データ管理装置430の送受信部32が、車載装置410から送信された制御信号に応じて、全体マップ記憶部31に格納されている全体マップを、送受信部32を介して車載装置410へ送信する。そして、車載装置410の送受信部16が、データ管理装置430から送信された全体マップを受信すると、車載側全体マップ記憶部440へ格納する。そして、車載装置410の制御部14によって、図25に示す全体マップ更新処理が実行される。以下、各処理について詳述する。
図25に示す全体マップ更新処理のうち、ステップS100〜ステップS112及びステップS202〜ステップS208の各処理は、第1の実施形態と同様に実行される。
ステップS610において、車載制御部18は、車載側全体マップ記憶部440に格納された全体マップを、送受信部16を介して、データ管理装置430へ送信して、全体マップ更新処理を終了する。
データ管理装置430の送受信部32が、車載装置410から送信された全体マップを受信すると、データ管理装置430は図26に示すデータ管理処理を実行する。
ステップS700において、制御部34は、送受信部32により受信された全体マップを取得する。
ステップS702において、制御部34は、上記ステップS700で取得した全体マップを全体マップ記憶部31へ格納する。
車載装置が、推定された車両の位置の各々と、キーフレーム画像として判定された周辺画像の各々とに基づいて、局所マップを生成する。そして、車載装置が局所マップに基づいて、全体マップを更新する。そして、車載装置は全体マップをデータ管理装置へ送信する。これにより、例えば、局所マップが送信できない場合には、予め局所マップを用いて全体マップが更新され、駐車状態に応じた全体マップを生成することができる。なお、局所マップが送信できる状態になった場合には、更新された全体マップをデータ管理装置へ送信し、全体マップを最新の状態にすることができる。
<第5の実施形態>
次に、第5の実施形態について説明する。第5の実施形態では、データ管理装置530が局所マップを生成し、生成した局所マップに基づき全体マップを更新する点が第1〜第4の実施形態と異なる。
図27に示す車載装置510は、カメラ12と、GPSセンサ13と、制御部514とを備える。車載装置510は、カメラ12によって撮像された車両の周辺画像を、後述するデータ管理装置530へ逐次送信する。制御部514は、図27に示されるように、送受信部16と、車載制御部18と、画像取得部20とを備える。
また図28に示すデータ管理装置530は、全体マップ記憶部31と、送受信部32と、制御部34と、補正部36と、更新部38と、位置推定部22と、生成部24とを備える。データ管理装置530は、車載装置510から送信された周辺画像に基づき局所マップを生成し、局所マップに基づき全体マップ記憶部31に格納された全体マップを更新する。送受信部32は、開示の技術の受信部の一例である。
車載装置510及びデータ管理装置530の各部の処理と、車載装置510及びデータ管理装置530が実現されるコンピュータとは、上記第1〜第4の実施形態と同様であるため、説明を省略する。
なお、上記では、各プログラムが記憶部に予め記憶(インストール)されている態様を説明したが、これに限定されない。開示の技術に係るプログラムは、CD−ROM、DVD−ROM、USBメモリ等の記録媒体に記録された形態で提供することも可能である。
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
次に、上記実施形態の変形例を説明する。
上記実施形態では、局所マップを補正する際に、車両の位置を再同定する方法の一例として画像情報を用いる場合を例に説明したが、これに限定されるものではない。例えば、高精度なGPSセンサによって車両の位置を計測することにより、車両の位置を再同定してもよい。また、車両の方位を高精度に求めるセンサが車両に備えられている場合には、そのセンサによって検出された方位に基づき車両の姿勢を推定してもよい。また、画像情報と他のセンサ情報とを組合せてもよい。
また、上記各実施形態では、車載装置は、車両が停車したときに局所マップをデータ管理装置へ送信する場合を例に説明したが、これに限定されるものではい。例えば、車載装置は、任意のタイミングで局所マップをデータ管理装置へ送信してもよい。これにより、より高い頻度で全体マップを更新することができる。また、例えば、車両が停止したときに、局所マップを送信できる環境ではない場合(例えば情報通信を行う環境ではない場合等)には、車載装置は、通信環境が整うまで局所マップを所定の記憶領域へ格納し、通信環境が整った場合に局所マップを送信してもよい。
また、上記各実施形態では、1つの全体マップを局所マップによって逐次更新する場合を例に説明したがこれに限定されるものではない。例えば、対象領域の状態のうち、発生頻度の高い状態を表す全体マップを複数個用意しておいてもよい。この場合、例えば、車載装置から局所マップが送信されない状況においては、予め用意された複数個の全体マップを用いる。
また、第1〜第3の実施形態では、車載装置が局所マップを生成し、データ管理装置が車載装置から送信された局所マップに基づき全体マップを更新する場合を例に説明したが、これに限定されるものではない。また、第4の実施形態では、車載装置が局所マップを生成し、かつ全体マップを更新する場合を例に説明し、第5の実施形態では、データ管理装置が局所マップを生成し、かつ全体マップを更新する例を説明したがこれに限定されるものではない。車載装置及びデータ管理装置における各部の配置は、本実施形態のデータ管理システムを実現できる配置であれば、どのような配置であってもよい。例えば、局所マップの補正については車載装置側で行い、車載装置は補正された局所マップをデータ管理装置へ送信し、データ管理装置は補正された局所マップに基づき全体マップを更新してもよい。
以上の各実施形態に関し、更に以下の付記を開示する。
(付記1)
移動体に搭載された撮像装置によって前記移動体の位置に応じて撮像された画像を表すキーフレーム画像の各々と、前記キーフレーム画像を撮像したときの前記移動体の位置の各々と、前記キーフレーム画像の特徴点の各々の3次元座標とを表す全体マップが記憶された記憶部から、前記全体マップを取得する取得部と、
移動体に搭載された撮像装置によって前記移動体の移動中に撮像された前記移動体の周辺の周辺画像の時系列に基づいて、前記周辺画像のうち前記記憶部に格納されたキーフレーム画像のいずれかに対応すると判定された周辺画像の各々を撮像したときの前記移動体の位置を推定する位置推定部と、
前記位置推定部によって推定された前記移動体の位置の各々と、前記キーフレーム画像として判定された周辺画像の各々とに基づいて、前記周辺画像の特徴点の各々の3次元座標を算出し、前記キーフレーム画像として判定された周辺画像の各々と、前記推定された前記移動体の位置の各々と、前記周辺画像の特徴点の各々の3次元座標とを表す局所マップを生成する生成部と、
前記生成部によって生成された前記局所マップに基づいて、前記取得部によって取得された前記全体マップの前記局所マップに対応する部分を更新する更新部と、
を含む情報処理装置。
(付記2)
前記生成部によって生成された前記局所マップの前記キーフレーム画像から同定された前記移動体の位置に基づいて、前記局所マップが表す前記移動体の位置の各々と、前記周辺画像の特徴点の各々の3次元座標とを補正する補正部を更に含む、
付記1に記載の情報処理装置。
(付記3)
前記局所マップの前記キーフレーム画像として判定された周辺画像の各々を撮像したときの前記移動体の位置に応じて、前記局所マップが表す前記移動体の位置の各々を同定し、前記同定された前記移動体の位置の各々に基づいて、局所マップに関する信頼度を算出する信頼度算出部を更に含み、
前記更新部は、前記信頼度算出部によって算出された前記信頼度に応じて、前記局所マップを用いて前記全体マップを更新する、
付記1又は付記2に記載の情報処理装置。
(付記4)
前記移動体上の点の各々の3次元座標を表す形状モデルを生成する形状モデル生成部を更に含み、
前記更新部は、更に、前記局所マップから得られる前記移動体の位置と、前記形状モデル生成部によって生成された前記形状モデルとに基づいて、前記全体マップを更新する、
付記1〜付記3の何れか1項に記載の情報処理装置。
(付記5)
移動体に搭載された撮像装置によって前記移動体の移動中に撮像された前記移動体の周辺の周辺画像の時系列を受信する受信部と、
前記受信部によって受信された前記周辺画像の時系列に基づいて、前記周辺画像のうち、移動体に搭載された撮像装置によって前記移動体の位置に応じて予め撮像された画像を表すキーフレーム画像の各々と、前記キーフレーム画像を撮像したときの前記移動体の位置の各々と、前記キーフレーム画像の特徴点の各々の3次元座標とを表す全体マップが記憶された記憶部に格納されたキーフレーム画像のいずれかに対応すると判定された周辺画像の各々を撮像したときの前記移動体の位置を推定する位置推定部と、
前記位置推定部によって推定された前記移動体の位置の各々と、前記キーフレーム画像として判定された周辺画像の各々とに基づいて、前記周辺画像の特徴点の各々の3次元座標を算出し、前記キーフレーム画像として判定された周辺画像の各々と、前記推定された前記移動体の位置の各々と、前記周辺画像の特徴点の各々の3次元座標とを表す局所マップを生成する生成部と、
前記生成部によって生成された前記局所マップに基づいて、前記記憶部に記憶された前記全体マップの前記局所マップに対応する部分を更新する更新部と、
を含むデータ管理装置。
(付記6)
情報処理装置とデータ管理装置とを有するデータ管理システムであって、
前記情報処理装置は、
移動体に搭載された撮像装置によって前記移動体の位置に応じて撮像された画像を表すキーフレーム画像の各々と、前記キーフレーム画像を撮像したときの前記移動体の位置の各々と、前記キーフレーム画像の特徴点の各々の3次元座標とを表す全体マップが記憶された記憶部から、前記全体マップを取得する取得部、
移動体に搭載された撮像装置によって前記移動体の移動中に撮像された前記移動体の周辺の周辺画像の時系列に基づいて、前記周辺画像のうち前記記憶部に格納されたキーフレーム画像のいずれかに対応すると判定された周辺画像の各々を撮像したときの前記移動体の位置を推定する位置推定部、
前記位置推定部によって推定された前記移動体の位置の各々と、前記キーフレーム画像として判定された周辺画像の各々とに基づいて、前記周辺画像の特徴点の各々の3次元座標を算出し、前記キーフレーム画像として判定された周辺画像の各々と、前記推定された前記移動体の位置の各々と、前記周辺画像の特徴点の各々の3次元座標とを表す局所マップを生成する生成部、及び
前記生成部によって生成された前記局所マップを送信する送信部を備え、
前記データ管理装置は、
移動体に搭載された撮像装置によって前記移動体の位置に応じて撮像された画像を表すキーフレーム画像の各々と、前記キーフレーム画像を撮像したときの前記移動体の位置の各々と、前記キーフレーム画像の特徴点の各々の3次元座標とを表す全体マップが記憶された記憶部、及び
前記情報処理装置から送信された前記局所マップに基づいて、前記記憶部に記憶された前記全体マップの前記局所マップに対応する部分を更新する更新部
を備えるデータ管理システム。
(付記7)
移動体に搭載された撮像装置によって前記移動体の位置に応じて撮像された画像を表すキーフレーム画像の各々と、前記キーフレーム画像を撮像したときの前記移動体の位置の各々と、前記キーフレーム画像の特徴点の各々の3次元座標とを表す全体マップが記憶された記憶部から、前記全体マップを取得し、
移動体に搭載された撮像装置によって前記移動体の移動中に撮像された前記移動体の周辺の周辺画像の時系列に基づいて、前記周辺画像のうち前記記憶部に格納されたキーフレーム画像のいずれかに対応すると判定された周辺画像の各々を撮像したときの前記移動体の位置を推定し、
推定された前記移動体の位置の各々と、前記キーフレーム画像として判定された周辺画像の各々とに基づいて、前記周辺画像の特徴点の各々の3次元座標を算出し、前記キーフレーム画像として判定された周辺画像の各々と、前記推定された前記移動体の位置の各々と、前記周辺画像の特徴点の各々の3次元座標とを表す局所マップを生成し、
生成された前記局所マップに基づいて、取得された前記全体マップの前記局所マップに対応する部分を更新する、
処理をコンピュータに実行させる情報処理方法。
(付記8)
生成された前記局所マップの前記キーフレーム画像から同定された前記移動体の位置に基づいて、前記局所マップが表す前記移動体の位置の各々と、前記周辺画像の特徴点の各々の3次元座標とを補正する、
付記7に記載の情報処理方法。
(付記9)
前記局所マップの前記キーフレーム画像として判定された周辺画像の各々を撮像したときの前記移動体の位置に応じて、前記局所マップが表す前記移動体の位置の各々を同定し、前記同定された前記移動体の位置の各々に基づいて、局所マップに関する信頼度を算出し、
算出された前記信頼度に応じて、前記局所マップを用いて前記全体マップを更新する、
付記7又は付記8に記載の情報処理方法。
(付記10)
前記移動体上の点の各々の3次元座標を表す形状モデルを生成し、
前記局所マップから得られる前記移動体の位置と、前記形状モデル生成部によって生成された前記形状モデルとに基づいて、前記全体マップを更新する、
付記7〜付記9の何れか1項に記載の情報処理方法。
(付記11)
移動体に搭載された撮像装置によって前記移動体の移動中に撮像された前記移動体の周辺の周辺画像の時系列を受信し、
受信された前記周辺画像の時系列に基づいて、前記周辺画像のうち、移動体に搭載された撮像装置によって前記移動体の位置に応じて予め撮像された画像を表すキーフレーム画像の各々と、前記キーフレーム画像を撮像したときの前記移動体の位置の各々と、前記キーフレーム画像の特徴点の各々の3次元座標とを表す全体マップが記憶された記憶部に格納されたキーフレーム画像のいずれかに対応すると判定された周辺画像の各々を撮像したときの前記移動体の位置を推定し、
推定された前記移動体の位置の各々と、前記キーフレーム画像として判定された周辺画像の各々とに基づいて、前記周辺画像の特徴点の各々の3次元座標を算出し、前記キーフレーム画像として判定された周辺画像の各々と、前記推定された前記移動体の位置の各々と、前記周辺画像の特徴点の各々の3次元座標とを表す局所マップを生成し、
生成された前記局所マップに基づいて、前記記憶部に記憶された前記全体マップの前記局所マップに対応する部分を更新する、
処理をコンピュータに実行させるデータ管理方法。
(付記12)
移動体に搭載された撮像装置によって前記移動体の位置に応じて撮像された画像を表すキーフレーム画像の各々と、前記キーフレーム画像を撮像したときの前記移動体の位置の各々と、前記キーフレーム画像の特徴点の各々の3次元座標とを表す全体マップが記憶された記憶部から、前記全体マップを取得し、
移動体に搭載された撮像装置によって前記移動体の移動中に撮像された前記移動体の周辺の周辺画像の時系列に基づいて、前記周辺画像のうち前記記憶部に格納されたキーフレーム画像のいずれかに対応すると判定された周辺画像の各々を撮像したときの前記移動体の位置を推定し、
推定された前記移動体の位置の各々と、前記キーフレーム画像として判定された周辺画像の各々とに基づいて、前記周辺画像の特徴点の各々の3次元座標を算出し、前記キーフレーム画像として判定された周辺画像の各々と、前記推定された前記移動体の位置の各々と、前記周辺画像の特徴点の各々の3次元座標とを表す局所マップを生成し、
生成された前記局所マップに基づいて、取得された前記全体マップの前記局所マップに対応する部分を更新する、
処理をコンピュータに実行させるための情報処理プログラム。
(付記13)
生成された前記局所マップの前記キーフレーム画像から同定された前記移動体の位置に基づいて、前記局所マップが表す前記移動体の位置の各々と、前記周辺画像の特徴点の各々の3次元座標とを補正する、
付記12に記載の情報処理プログラム。
(付記14)
前記局所マップの前記キーフレーム画像として判定された周辺画像の各々を撮像したときの前記移動体の位置に応じて、前記局所マップが表す前記移動体の位置の各々を同定し、前記同定された前記移動体の位置の各々に基づいて、局所マップに関する信頼度を算出し、
算出された前記信頼度に応じて、前記局所マップを用いて前記全体マップを更新する、
付記12又は付記13に記載の情報処理プログラム。
(付記15)
前記移動体上の点の各々の3次元座標を表す形状モデルを生成し、
前記局所マップから得られる前記移動体の位置と、前記形状モデル生成部によって生成された前記形状モデルとに基づいて、前記全体マップを更新する、
付記12〜付記14の何れか1項に記載の情報処理プログラム。
(付記16)
移動体に搭載された撮像装置によって前記移動体の移動中に撮像された前記移動体の周辺の周辺画像の時系列を受信し、
受信された前記周辺画像の時系列に基づいて、前記周辺画像のうち、移動体に搭載された撮像装置によって前記移動体の位置に応じて予め撮像された画像を表すキーフレーム画像の各々と、前記キーフレーム画像を撮像したときの前記移動体の位置の各々と、前記キーフレーム画像の特徴点の各々の3次元座標とを表す全体マップが記憶された記憶部に格納されたキーフレーム画像のいずれかに対応すると判定された周辺画像の各々を撮像したときの前記移動体の位置を推定し、
推定された前記移動体の位置の各々と、前記キーフレーム画像として判定された周辺画像の各々とに基づいて、前記周辺画像の特徴点の各々の3次元座標を算出し、前記キーフレーム画像として判定された周辺画像の各々と、前記推定された前記移動体の位置の各々と、前記周辺画像の特徴点の各々の3次元座標とを表す局所マップを生成し、
生成された前記局所マップに基づいて、前記記憶部に記憶された前記全体マップの前記局所マップに対応する部分を更新する、
処理をコンピュータに実行させるためのデータ管理プログラム。
(付記17)
移動体に搭載された撮像装置によって前記移動体の位置に応じて撮像された画像を表すキーフレーム画像の各々と、前記キーフレーム画像を撮像したときの前記移動体の位置の各々と、前記キーフレーム画像の特徴点の各々の3次元座標とを表す全体マップが記憶された記憶部から、前記全体マップを取得し、
移動体に搭載された撮像装置によって前記移動体の移動中に撮像された前記移動体の周辺の周辺画像の時系列に基づいて、前記周辺画像のうち前記記憶部に格納されたキーフレーム画像のいずれかに対応すると判定された周辺画像の各々を撮像したときの前記移動体の位置を推定し、
推定された前記移動体の位置の各々と、前記キーフレーム画像として判定された周辺画像の各々とに基づいて、前記周辺画像の特徴点の各々の3次元座標を算出し、前記キーフレーム画像として判定された周辺画像の各々と、前記推定された前記移動体の位置の各々と、前記周辺画像の特徴点の各々の3次元座標とを表す局所マップを生成し、
生成された前記局所マップに基づいて、取得された前記全体マップの前記局所マップに対応する部分を更新する、
処理をコンピュータに実行させる情報処理方法を記憶した記憶媒体。
(付記18)
移動体に搭載された撮像装置によって前記移動体の移動中に撮像された前記移動体の周辺の周辺画像の時系列を受信し、
受信された前記周辺画像の時系列に基づいて、前記周辺画像のうち、移動体に搭載された撮像装置によって前記移動体の位置に応じて予め撮像された画像を表すキーフレーム画像の各々と、前記キーフレーム画像を撮像したときの前記移動体の位置の各々と、前記キーフレーム画像の特徴点の各々の3次元座標とを表す全体マップが記憶された記憶部に格納されたキーフレーム画像のいずれかに対応すると判定された周辺画像の各々を撮像したときの前記移動体の位置を推定し、
推定された前記移動体の位置の各々と、前記キーフレーム画像として判定された周辺画像の各々とに基づいて、前記周辺画像の特徴点の各々の3次元座標を算出し、前記キーフレーム画像として判定された周辺画像の各々と、前記推定された前記移動体の位置の各々と、前記周辺画像の特徴点の各々の3次元座標とを表す局所マップを生成し、
生成された前記局所マップに基づいて、前記記憶部に記憶された前記全体マップの前記局所マップに対応する部分を更新する、
処理をコンピュータに実行させるデータ管理プログラムを記憶した記憶媒体。
10,410,510 車載装置
11 ネットワーク
12 カメラ
13 センサ
14,34,334,414,514 制御部
16 送受信部
18 車載制御部
20 画像取得部
22 位置推定部
24 生成部
30,230,330,430,530 データ管理装置
31 全体マップ記憶部
32 送受信部
36 補正部
38 更新部
50,80 コンピュータ
53,83 記憶部
59,89 記録媒体
60 局所マップ生成プログラム
90,290,390,490 データ管理プログラム
235 信頼度算出部
337 形状モデル生成部
440 車載側全体マップ記憶部
460 全体マップ更新プログラム

Claims (10)

  1. 移動体に搭載された撮像装置によって前記移動体の位置に応じて撮像された画像を表すキーフレーム画像の各々と、前記キーフレーム画像を撮像したときの前記移動体の位置の各々と、前記キーフレーム画像の特徴点の各々の3次元座標とを表す全体マップが記憶された記憶部から、前記全体マップを取得する取得部と、
    移動体に搭載された撮像装置によって前記移動体の移動中に撮像された前記移動体の周辺の周辺画像の時系列に基づいて、前記周辺画像のうち前記記憶部に格納されたキーフレーム画像のいずれかに対応すると判定された周辺画像の各々を撮像したときの前記移動体の位置を推定する位置推定部と、
    前記位置推定部によって推定された前記移動体の位置の各々と、前記キーフレーム画像として判定された周辺画像の各々とに基づいて、前記周辺画像の特徴点の各々の3次元座標を算出し、前記キーフレーム画像として判定された周辺画像の各々と、前記推定された前記移動体の位置の各々と、前記周辺画像の特徴点の各々の3次元座標とを表す局所マップを生成する生成部と、
    前記生成部によって生成された前記局所マップに基づいて、前記取得部によって取得された前記全体マップの前記局所マップに対応する部分を更新する更新部と、
    を含む情報処理装置。
  2. 前記生成部によって生成された前記局所マップの前記キーフレーム画像から同定された前記移動体の位置に基づいて、前記局所マップが表す前記移動体の位置の各々と、前記周辺画像の特徴点の各々の3次元座標とを補正する補正部を更に含む、
    請求項1に記載の情報処理装置。
  3. 前記局所マップの前記キーフレーム画像として判定された周辺画像の各々を撮像したときの前記移動体の位置に応じて、前記局所マップが表す前記移動体の位置の各々を同定し、前記同定された前記移動体の位置の各々に基づいて、局所マップに関する信頼度を算出する信頼度算出部を更に含み、
    前記更新部は、前記信頼度算出部によって算出された前記信頼度に応じて、前記局所マップを用いて前記全体マップを更新する、
    請求項1又は請求項2に記載の情報処理装置。
  4. 前記移動体上の点の各々の3次元座標を表す形状モデルを生成する形状モデル生成部を更に含み、
    前記更新部は、更に、前記局所マップから得られる前記移動体の位置と、前記形状モデル生成部によって生成された前記形状モデルとに基づいて、前記全体マップを更新する、
    請求項1〜請求項3の何れか1項に記載の情報処理装置。
  5. 移動体に搭載された撮像装置によって前記移動体の移動中に撮像された前記移動体の周辺の周辺画像の時系列を受信する受信部と、
    前記受信部によって受信された前記周辺画像の時系列に基づいて、前記周辺画像のうち、移動体に搭載された撮像装置によって前記移動体の位置に応じて予め撮像された画像を表すキーフレーム画像の各々と、前記キーフレーム画像を撮像したときの前記移動体の位置の各々と、前記キーフレーム画像の特徴点の各々の3次元座標とを表す全体マップが記憶された記憶部に格納されたキーフレーム画像のいずれかに対応すると判定された周辺画像の各々を撮像したときの前記移動体の位置を推定する位置推定部と、
    前記位置推定部によって推定された前記移動体の位置の各々と、前記キーフレーム画像として判定された周辺画像の各々とに基づいて、前記周辺画像の特徴点の各々の3次元座標を算出し、前記キーフレーム画像として判定された周辺画像の各々と、前記推定された前記移動体の位置の各々と、前記周辺画像の特徴点の各々の3次元座標とを表す局所マップを生成する生成部と、
    前記生成部によって生成された前記局所マップに基づいて、前記記憶部に記憶された前記全体マップの前記局所マップに対応する部分を更新する更新部と、
    を含むデータ管理装置。
  6. 情報処理装置とデータ管理装置とを有するデータ管理システムであって、
    前記情報処理装置は、
    移動体に搭載された撮像装置によって前記移動体の位置に応じて撮像された画像を表すキーフレーム画像の各々と、前記キーフレーム画像を撮像したときの前記移動体の位置の各々と、前記キーフレーム画像の特徴点の各々の3次元座標とを表す全体マップが記憶された記憶部から、前記全体マップを取得する取得部、
    移動体に搭載された撮像装置によって前記移動体の移動中に撮像された前記移動体の周辺の周辺画像の時系列に基づいて、前記周辺画像のうち前記記憶部に格納されたキーフレーム画像のいずれかに対応すると判定された周辺画像の各々を撮像したときの前記移動体の位置を推定する位置推定部、
    前記位置推定部によって推定された前記移動体の位置の各々と、前記キーフレーム画像として判定された周辺画像の各々とに基づいて、前記周辺画像の特徴点の各々の3次元座標を算出し、前記キーフレーム画像として判定された周辺画像の各々と、前記推定された前記移動体の位置の各々と、前記周辺画像の特徴点の各々の3次元座標とを表す局所マップを生成する生成部、及び
    前記生成部によって生成された前記局所マップを送信する送信部を備え、
    前記データ管理装置は、
    移動体に搭載された撮像装置によって前記移動体の位置に応じて撮像された画像を表すキーフレーム画像の各々と、前記キーフレーム画像を撮像したときの前記移動体の位置の各々と、前記キーフレーム画像の特徴点の各々の3次元座標とを表す全体マップが記憶された記憶部、及び
    前記情報処理装置から送信された前記局所マップに基づいて、前記記憶部に記憶された前記全体マップの前記局所マップに対応する部分を更新する更新部
    を備えるデータ管理システム。
  7. 移動体に搭載された撮像装置によって前記移動体の位置に応じて撮像された画像を表すキーフレーム画像の各々と、前記キーフレーム画像を撮像したときの前記移動体の位置の各々と、前記キーフレーム画像の特徴点の各々の3次元座標とを表す全体マップが記憶された記憶部から、前記全体マップを取得し、
    移動体に搭載された撮像装置によって前記移動体の移動中に撮像された前記移動体の周辺の周辺画像の時系列に基づいて、前記周辺画像のうち前記記憶部に格納されたキーフレーム画像のいずれかに対応すると判定された周辺画像の各々を撮像したときの前記移動体の位置を推定し、
    推定された前記移動体の位置の各々と、前記キーフレーム画像として判定された周辺画像の各々とに基づいて、前記周辺画像の特徴点の各々の3次元座標を算出し、前記キーフレーム画像として判定された周辺画像の各々と、前記推定された前記移動体の位置の各々と、前記周辺画像の特徴点の各々の3次元座標とを表す局所マップを生成し、
    生成された前記局所マップに基づいて、取得された前記全体マップの前記局所マップに対応する部分を更新する、
    処理をコンピュータに実行させる情報処理方法。
  8. 移動体に搭載された撮像装置によって前記移動体の移動中に撮像された前記移動体の周辺の周辺画像の時系列を受信し、
    受信された前記周辺画像の時系列に基づいて、前記周辺画像のうち、移動体に搭載された撮像装置によって前記移動体の位置に応じて予め撮像された画像を表すキーフレーム画像の各々と、前記キーフレーム画像を撮像したときの前記移動体の位置の各々と、前記キーフレーム画像の特徴点の各々の3次元座標とを表す全体マップが記憶された記憶部に格納されたキーフレーム画像のいずれかに対応すると判定された周辺画像の各々を撮像したときの前記移動体の位置を推定し、
    推定された前記移動体の位置の各々と、前記キーフレーム画像として判定された周辺画像の各々とに基づいて、前記周辺画像の特徴点の各々の3次元座標を算出し、前記キーフレーム画像として判定された周辺画像の各々と、前記推定された前記移動体の位置の各々と、前記周辺画像の特徴点の各々の3次元座標とを表す局所マップを生成し、
    生成された前記局所マップに基づいて、前記記憶部に記憶された前記全体マップの前記局所マップに対応する部分を更新する、
    処理をコンピュータに実行させるデータ管理方法。
  9. 移動体に搭載された撮像装置によって前記移動体の位置に応じて撮像された画像を表すキーフレーム画像の各々と、前記キーフレーム画像を撮像したときの前記移動体の位置の各々と、前記キーフレーム画像の特徴点の各々の3次元座標とを表す全体マップが記憶された記憶部から、前記全体マップを取得し、
    移動体に搭載された撮像装置によって前記移動体の移動中に撮像された前記移動体の周辺の周辺画像の時系列に基づいて、前記周辺画像のうち前記記憶部に格納されたキーフレーム画像のいずれかに対応すると判定された周辺画像の各々を撮像したときの前記移動体の位置を推定し、
    推定された前記移動体の位置の各々と、前記キーフレーム画像として判定された周辺画像の各々とに基づいて、前記周辺画像の特徴点の各々の3次元座標を算出し、前記キーフレーム画像として判定された周辺画像の各々と、前記推定された前記移動体の位置の各々と、前記周辺画像の特徴点の各々の3次元座標とを表す局所マップを生成し、
    生成された前記局所マップに基づいて、取得された前記全体マップの前記局所マップに対応する部分を更新する、
    処理をコンピュータに実行させるための情報処理プログラム。
  10. 移動体に搭載された撮像装置によって前記移動体の移動中に撮像された前記移動体の周辺の周辺画像の時系列を受信し、
    受信された前記周辺画像の時系列に基づいて、前記周辺画像のうち、移動体に搭載された撮像装置によって前記移動体の位置に応じて予め撮像された画像を表すキーフレーム画像の各々と、前記キーフレーム画像を撮像したときの前記移動体の位置の各々と、前記キーフレーム画像の特徴点の各々の3次元座標とを表す全体マップが記憶された記憶部に格納されたキーフレーム画像のいずれかに対応すると判定された周辺画像の各々を撮像したときの前記移動体の位置を推定し、
    推定された前記移動体の位置の各々と、前記キーフレーム画像として判定された周辺画像の各々とに基づいて、前記周辺画像の特徴点の各々の3次元座標を算出し、前記キーフレーム画像として判定された周辺画像の各々と、前記推定された前記移動体の位置の各々と、前記周辺画像の特徴点の各々の3次元座標とを表す局所マップを生成し、
    生成された前記局所マップに基づいて、前記記憶部に記憶された前記全体マップの前記局所マップに対応する部分を更新する、
    処理をコンピュータに実行させるためのデータ管理プログラム。
JP2017016252A 2017-01-31 2017-01-31 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム Active JP6760114B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017016252A JP6760114B2 (ja) 2017-01-31 2017-01-31 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム
PCT/JP2018/000833 WO2018142900A1 (ja) 2017-01-31 2018-01-15 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム
DE112018000605.0T DE112018000605T5 (de) 2017-01-31 2018-01-15 Informationsverarbeitungsvorrichtung, Datenverwaltungsvorrichtung, Datenverwaltungssystem, Verfahren und Programm
US16/402,650 US10996062B2 (en) 2017-01-31 2019-05-03 Information processing device, data management device, data management system, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017016252A JP6760114B2 (ja) 2017-01-31 2017-01-31 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2018124787A true JP2018124787A (ja) 2018-08-09
JP6760114B2 JP6760114B2 (ja) 2020-09-23

Family

ID=63040549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017016252A Active JP6760114B2 (ja) 2017-01-31 2017-01-31 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム

Country Status (4)

Country Link
US (1) US10996062B2 (ja)
JP (1) JP6760114B2 (ja)
DE (1) DE112018000605T5 (ja)
WO (1) WO2018142900A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020067439A (ja) * 2018-10-26 2020-04-30 富士通株式会社 移動***置推定システムおよび移動***置推定方法
JP2020152234A (ja) * 2019-03-20 2020-09-24 クラリオン株式会社 車載処理装置、移動支援システム
JP2020190417A (ja) * 2019-05-17 2020-11-26 アイシン・エィ・ダブリュ株式会社 車両位置推定システム、車両位置推定方法及び車両位置推定プログラム
KR20210095913A (ko) * 2018-11-30 2021-08-03 후아웨이 테크놀러지 컴퍼니 리미티드 맵 작성 방법, 장치, 및 시스템, 및 저장 매체
US11216973B2 (en) 2019-03-07 2022-01-04 Mitsubishi Heavy Industries, Ltd. Self-localization device, self-localization method, and non-transitory computer-readable medium
JP2022523312A (ja) * 2019-01-28 2022-04-22 キューフィールテック (ベイジン) カンパニー,リミティド Vslam方法、コントローラ及び移動可能機器

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6855968B2 (ja) * 2017-07-20 2021-04-07 トヨタ自動車株式会社 情報処理装置、情報処理方法及び情報処理システム
DE102017216775A1 (de) * 2017-09-21 2019-03-21 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige einer Augmented-Reality-Head-Up-Display-Vorrichtung für ein Kraftfahrzeug
JP2019148865A (ja) * 2018-02-26 2019-09-05 パナソニックIpマネジメント株式会社 識別装置、識別方法、識別プログラムおよび識別プログラムを記録した一時的でない有形の記録媒体
JP2019207618A (ja) * 2018-05-30 2019-12-05 日本電気株式会社 情報処理システム
DE112020000590T5 (de) * 2019-01-30 2021-12-23 Harman Becker Automotive Systems Gmbh Karte und verfahren zum erstellen einer karte
US10650548B1 (en) * 2019-01-30 2020-05-12 StradVision, Inc. Method and device for localization of autonomous vehicle for route planning by using attention-driven landmark detection
US10796434B1 (en) * 2019-01-31 2020-10-06 Stradvision, Inc Method and device for detecting parking area using semantic segmentation in automatic parking system
CN110136564B (zh) * 2019-06-12 2021-04-06 四川长虹电器股份有限公司 一种实时更新地图中停车场标注显示信息的方法
JP7036783B2 (ja) * 2019-10-09 2022-03-15 株式会社 ミックウェア 位置推定システム、位置推定方法、及び位置推定プログラム
WO2021105204A1 (en) * 2019-11-27 2021-06-03 Novatron Oy Method for determining situational awareness in worksite
JPWO2021106388A1 (ja) * 2019-11-29 2021-06-03
US11713977B2 (en) * 2019-12-19 2023-08-01 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and medium
JP2021149699A (ja) * 2020-03-19 2021-09-27 本田技研工業株式会社 ソフトウェア書換装置
US11530933B1 (en) 2021-08-11 2022-12-20 Ford Global Technologies, Llc Vehicle navigation

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011227874A (ja) * 2010-03-30 2011-11-10 Ns Solutions Corp 情報処理装置、システム、空きスペース案内方法及びプログラム
JP2013209015A (ja) * 2012-03-30 2013-10-10 Panasonic Corp 駐車支援装置、及び駐車支援方法
JP2016053905A (ja) * 2014-09-04 2016-04-14 株式会社日本自動車部品総合研究所 駐車スペース認識装置、駐車スペース認識システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4206036B2 (ja) 2003-12-09 2009-01-07 株式会社ゼンリン 電子地図データを利用した風景画像の撮像位置の特定
JP2007303842A (ja) 2006-05-08 2007-11-22 Toyota Central Res & Dev Lab Inc 車両位置推定装置及び地図情報作成装置
JP4670770B2 (ja) 2006-08-09 2011-04-13 株式会社デンソー 道路地図更新システムおよびその道路地図更新システムに用いる車両側装置
US8139115B2 (en) * 2006-10-30 2012-03-20 International Business Machines Corporation Method and apparatus for managing parking lots
DE102009049849B4 (de) 2009-10-19 2020-09-24 Apple Inc. Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells
SG10201400952WA (en) 2010-03-30 2014-05-29 Ns Solutions Corp Information Processing System, Information Processing Method And Program, Information Processing Apparatus, Vacant Space Guidance System, Vacant Space Guidance Method And Program, Image Display System, Image Display Method And Program
JP5333862B2 (ja) 2010-03-31 2013-11-06 アイシン・エィ・ダブリュ株式会社 風景画像認識を用いた自車位置検出システム
US9612123B1 (en) * 2015-11-04 2017-04-04 Zoox, Inc. Adaptive mapping to navigate autonomous vehicles responsive to physical environment changes

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011227874A (ja) * 2010-03-30 2011-11-10 Ns Solutions Corp 情報処理装置、システム、空きスペース案内方法及びプログラム
JP2013209015A (ja) * 2012-03-30 2013-10-10 Panasonic Corp 駐車支援装置、及び駐車支援方法
JP2016053905A (ja) * 2014-09-04 2016-04-14 株式会社日本自動車部品総合研究所 駐車スペース認識装置、駐車スペース認識システム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020067439A (ja) * 2018-10-26 2020-04-30 富士通株式会社 移動***置推定システムおよび移動***置推定方法
JP7326720B2 (ja) 2018-10-26 2023-08-16 富士通株式会社 移動***置推定システムおよび移動***置推定方法
KR20210095913A (ko) * 2018-11-30 2021-08-03 후아웨이 테크놀러지 컴퍼니 리미티드 맵 작성 방법, 장치, 및 시스템, 및 저장 매체
KR102474160B1 (ko) * 2018-11-30 2022-12-02 후아웨이 테크놀러지 컴퍼니 리미티드 맵 작성 방법, 장치, 및 시스템, 및 저장 매체
JP2022523312A (ja) * 2019-01-28 2022-04-22 キューフィールテック (ベイジン) カンパニー,リミティド Vslam方法、コントローラ及び移動可能機器
US11216973B2 (en) 2019-03-07 2022-01-04 Mitsubishi Heavy Industries, Ltd. Self-localization device, self-localization method, and non-transitory computer-readable medium
JP2020152234A (ja) * 2019-03-20 2020-09-24 クラリオン株式会社 車載処理装置、移動支援システム
CN111717194A (zh) * 2019-03-20 2020-09-29 歌乐株式会社 车载处理装置、移动辅助***
JP7393128B2 (ja) 2019-03-20 2023-12-06 フォルシアクラリオン・エレクトロニクス株式会社 車載処理装置、移動支援システム
CN111717194B (zh) * 2019-03-20 2024-03-08 歌乐株式会社 车载处理装置、移动辅助***
JP2020190417A (ja) * 2019-05-17 2020-11-26 アイシン・エィ・ダブリュ株式会社 車両位置推定システム、車両位置推定方法及び車両位置推定プログラム
JP7400213B2 (ja) 2019-05-17 2023-12-19 株式会社アイシン 車両位置推定システム、車両位置推定方法及び車両位置推定プログラム

Also Published As

Publication number Publication date
JP6760114B2 (ja) 2020-09-23
DE112018000605T5 (de) 2019-11-07
WO2018142900A1 (ja) 2018-08-09
US10996062B2 (en) 2021-05-04
US20190257659A1 (en) 2019-08-22

Similar Documents

Publication Publication Date Title
WO2018142900A1 (ja) 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム
AU2018282302B2 (en) Integrated sensor calibration in natural scenes
CN112734852B (zh) 一种机器人建图方法、装置及计算设备
CN109443348B (zh) 一种基于环视视觉和惯导融合的地下车库库位跟踪方法
JP2020067439A (ja) 移動***置推定システムおよび移動***置推定方法
US10996337B2 (en) Systems and methods for constructing a high-definition map based on landmarks
US11151729B2 (en) Mobile entity position estimation device and position estimation method
JP6479296B2 (ja) 位置姿勢推定装置および位置姿勢推定方法
KR102490521B1 (ko) 라이다 좌표계와 카메라 좌표계의 벡터 정합을 통한 자동 캘리브레이션 방법
JP2017181476A (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
CN117218350A (zh) 一种基于固态雷达的slam实现方法及***
WO2020113425A1 (en) Systems and methods for constructing high-definition map
CN111103584A (zh) 用于获知车辆的环境中的物体的高度信息的设备和方法
JP6988873B2 (ja) 位置推定装置および位置推定用コンピュータプログラム
KR102195040B1 (ko) 이동식 도면화 시스템 및 모노카메라를 이용한 도로 표지 정보 수집 방법
WO2022133986A1 (en) Accuracy estimation method and system
KR20220062709A (ko) 모바일 디바이스 영상에 기반한 공간 정보 클러스터링에 의한 재난 상황 인지 시스템 및 방법
JP2005148784A (ja) 路面走行レーン検出装置
JP6670712B2 (ja) 自己位置推定装置、移動体及び自己位置推定方法
CN113034538A (zh) 一种视觉惯导设备的位姿跟踪方法、装置及视觉惯导设备
CN117739949A (zh) 一种用于多传感器位姿标定的新型传感器位姿获取方法
CN115265560A (zh) 基于视觉slam的高精定位方法、***及存储介质
CN117804442A (zh) 飞行器的位姿确定方法、装置、电子设备及存储介质
CN118115597A (zh) 双目相机、imu和激光雷达联合标定方法及***

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200817

R150 Certificate of patent or registration of utility model

Ref document number: 6760114

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150