JP7011472B2 - 情報処理装置、情報処理方法 - Google Patents

情報処理装置、情報処理方法 Download PDF

Info

Publication number
JP7011472B2
JP7011472B2 JP2018004471A JP2018004471A JP7011472B2 JP 7011472 B2 JP7011472 B2 JP 7011472B2 JP 2018004471 A JP2018004471 A JP 2018004471A JP 2018004471 A JP2018004471 A JP 2018004471A JP 7011472 B2 JP7011472 B2 JP 7011472B2
Authority
JP
Japan
Prior art keywords
information
information processing
processing apparatus
captured
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018004471A
Other languages
English (en)
Other versions
JP2019125113A5 (ja
JP2019125113A (ja
Inventor
その子 宮谷
真和 藤木
一彦 小林
雅博 鈴木
誠 冨岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018004471A priority Critical patent/JP7011472B2/ja
Priority to US16/235,244 priority patent/US11295142B2/en
Priority to CN201910035618.4A priority patent/CN110047105B/zh
Publication of JP2019125113A publication Critical patent/JP2019125113A/ja
Publication of JP2019125113A5 publication Critical patent/JP2019125113A5/ja
Application granted granted Critical
Publication of JP7011472B2 publication Critical patent/JP7011472B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Description

本発明は、学習モデルを取り扱う情報処理技術に関するものである。
画像情報に基づく撮像装置の位置及び姿勢の計測は、複合現実感/拡張現実感における現実空間と仮想物体との位置合わせ、ロボットや自動車の自己位置推定、物体や空間の三次元モデリングなど、様々な目的で利用される。
非特許文献1では、事前に学習した学習モデルを用いて画像から位置姿勢を算出するための指標である幾何情報(奥行き情報)を推定し、該推定した奥行き情報をもとに位置姿勢を算出する方法が開示されている。
K. Tateno, F. Tombari, I. Laina and N. Navab, "CNN-SLAM: Real-time dense monocular SLAM with learned depth prediction", IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), 2017
非特許文献1では、学習モデルを予め準備しておく必要がある。しかし、全てのシーンを網羅する学習モデルを予め準備することは非常に多くの時間や手間がかかるために難しい。係る点、本発明では、学習モデルの準備を効率的に行うための技術を提供する。
本発明の一様態は、設定領域を設定する設定手段と、
入力された撮像画像に対応する奥行き情報を出力するように学習済みの複数の学習済みモデルのうち、前記設定領域内の撮像位置で撮像された撮像画像と該撮像位置で撮像された撮像画像の奥行き情報とを教師データとして用いて学習した少なくとも1つの学習済みモデルを取得する取得手段と
を備えることを特徴とする。
本発明の構成によれば、学習モデルの準備を効率的に行うための技術を提供することができる。
システムの機能構成例を示すブロック図。 情報処理装置100が行う処理のフローチャート。 学習モデル情報の表示例を示す図。 システムの機能構成例を示すブロック図。 情報処理装置400が行う処理のフローチャート。 表示部403における表示画面の一例を示す図。 システムの機能構成例を示すブロック図。 情報処理装置700の機能構成例を示すブロック図。 情報処理装置700が行う処理のフローチャート。 包含領域情報の表示例を示す図。 情報処理装置1100の機能構成例を示すブロック図。 情報処理装置1100が行う処理のフローチャート。 情報処理装置1300の機能構成例を示すブロック図。 情報処理装置1300が行う処理のフローチャート。 コンピュータ装置のハードウェア構成例を示すブロック図。
以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施形態の1つである。
[第1の実施形態]
本実施形態では、目的地までの行き方を誘導するカーナビゲーション装置へ適用したシステムの一例について説明する。具体的には、カーナビゲーション装置から得られた出発地から目的地までの経路に基づいて領域を設定し、該設定した領域に該当する学習モデルを取得する。学習モデルは、入力画像から対応する幾何情報を推定するためのモデルであり、本実施形態では一例としてCNN(Convolutional Neural Network)とする。幾何情報とは、入力画像の各画素に対応する奥行き値(デプス値)を保持するデプスマップである。学習モデルは、複数の画像とそれと同時刻に同視野を撮影した複数のデプスマップをもとに、画像を入力すると対応するデプスマップが推定できるようにあらかじめ学習(学習済み)して生成されたものとする。なお、本実施形態において、推定した幾何情報の用途は特に限定されないが、例えば、衝突予測、衝突回避等の制御に用いることができる。
先ず、本実施形態に係るシステムの機能構成例について、図1のブロック図を用いて説明する。図1に示す如く、本実施形態に係るシステムは、カーナビゲーション装置103、情報処理装置100、生成部104、記憶装置105、を有する。なお、図1では、カーナビゲーション装置103、情報処理装置100、生成部104、記憶装置105のそれぞれを別個の装置としているが、これらのうち2つ以上を1つの装置としてもよい。
先ず、カーナビゲーション装置103について説明する。カーナビゲーション装置103は、自身の現在位置を取得するGPSと、地図画像を含む様々な情報を表示する表示画面と、を有する。また、カーナビゲーション装置103には、様々な地域の様々な縮尺の地図画像が登録されている。表示画面には、GPSにより測定された現在位置やユーザがカーナビゲーション装置103を操作して指定した位置の周辺の地図画像が表示される。ユーザがカーナビゲーション装置103を操作して目的地を設定する操作を行うと、カーナビゲーション装置103は、出発地(現在位置)から目的地までの経路を求める。そしてカーナビゲーション装置103は、該求めた経路に係る情報を表示画面に表示すると共に、該経路に係る情報を経路情報として情報処理装置100に対して出力する。経路情報には、「出発地の位置」、「目的地の位置」、「出発地から目的地までの経路上の経由地の位置」、が含まれている。「出発地の位置」、「目的地の位置」、「経由地の位置」は、例えば、緯度、経度で表される。
次に、記憶装置105について説明する。記憶装置105には、撮像画像を入力すると対応する幾何情報が出力されるように学習された複数の学習モデルが登録されており、該複数の学習モデルのそれぞれは、例えば、次のような学習処理によって生成された学習モデルである。つまり、学習データごとに、該学習データに含まれている撮像画像を学習モデルに入力することで該学習モデルから出力される幾何情報と、該学習データに含まれている幾何情報(教師データ)と、の差分を求める。そして、学習データごとに求めた差分の合計を極小化するように、該学習モデルを更新する。それぞれの学習モデルで異なる条件(学習環境)の学習データを用いて学習処理を行うことで、互いに異なる条件に対応する学習モデルを生成することができる。なお、記憶装置105に登録されているそれぞれの学習モデルには、該学習モデルの学習処理において使用したそれぞれの撮像画像の撮像位置(例えば、緯度、経度)を示す情報(撮像位置情報)が関連づけられている。なお、画像を入力すると対応する幾何情報を出力する学習モデルであれば、如何なる学習モデルあっても良く、例えば、機械学習のモデルを学習モデルとして使用しても良く、学習モデルはCNNに限らない。
次に、情報処理装置100について説明する。図1に示す如く、情報処理装置100は、領域設定部101と、取得部102と、を有する。領域設定部101は、カーナビゲーション装置103から取得した情報に基づいて設定領域を設定する。本実施形態では、領域設定部101はカーナビゲーション装置103から経路情報を取得する。本実施形態に係る領域設定部101は、該経路情報に含まれている「出発地の位置」、「目的地の位置」、「経由地の位置」、のそれぞれの位置について、該位置を含む領域を設定領域として設定する。例えば領域設定部101は、「出発地の位置」、「目的地の位置」、「経由地の位置」、のそれぞれの位置について、該位置を中心とする円形若しくは矩形の領域(該位置を中心とする緯度、経度の範囲)を設定領域として設定する。なお、設定領域は円形の領域や矩形の領域に限らず、例えば、「出発地の位置」、「目的地の位置」、「経由地の位置」、のそれぞれの位置を含む行政上の区画(町、市、県など)の領域であっても良い。
取得部102は、記憶装置105に登録されている学習モデルごとに、該学習モデルに関連づけられている撮像位置情報のうち設定領域内の撮像位置を表している撮像位置情報の数がN(Nは1以上の整数)以上であるか否かを判断する。そして取得部102は、「設定領域内の撮像位置を表している撮像位置情報の数がN以上である」と判断された学習モデルを取得対象として決定し、該決定した取得対象の学習モデルを記憶装置105から取得する。このようにして取得部102は、カーナビゲーション装置103が求めた経路上及び該経路の近傍領域において撮像された撮像画像を学習処理に用いた学習モデルを取得する。
次に、生成部104について説明する。生成部104は、カーナビゲーション装置103の表示画面等の表示装置の表示画面に表示するための表示情報を生成する。本実施形態に係る生成部104は、取得部102が記憶装置105から取得した学習モデルに係る情報を学習モデル情報として生成する。例えば生成部104は、取得部102が取得した学習モデルのファイル名、該学習モデルの生成日時、該学習モデルの学習に使用した撮像画像の撮像日時、撮像位置など、の情報を含む学習モデル情報を生成する。そして生成部104は、該生成した学習モデル情報をカーナビゲーション装置103に対して出力する。これによりカーナビゲーション装置103の表示画面には、カーナビゲーション装置103が求めた経路上及び該経路の近傍領域において撮像された撮像画像を用いて学習した学習モデルに係る学習モデル情報が一覧表示される(図3)。図3に示す如く、カーナビゲーション装置103の表示画面には、出発地、目的地、出発地と目的地との間の経路に加えて、取得部102が取得した学習モデルa、学習モデルb、学習モデルcの名称と、各学習モデルの適用範囲が表示されている。学習モデルaは、出発地及びその周辺において撮像された撮像画像を学習処理に用いた学習モデルである。学習モデルbは、経路上の経由地及びその周辺において撮像された撮像画像を学習処理に用いた学習モデルである。学習モデルcは、目的地及びその周辺において撮像された撮像画像を学習処理に用いた学習モデルである。学習モデルaの適用範囲とは、学習モデルaに関連づけられている撮像位置情報群が表す撮像位置群を包含する領域である。学習モデルbの適用範囲とは、学習モデルbに関連づけられている撮像位置情報群が表す撮像位置群を包含する領域である。学習モデルcの適用範囲とは、学習モデルcに関連づけられている撮像位置情報群が表す撮像位置群を包含する領域である。
次に、本実施形態に係る情報処理装置100が行う処理について、図2のフローチャートに従って説明する。図2のフローチャートに従った処理は、領域設定部101がカーナビゲーション装置103から経路情報を取得した後で情報処理装置100によって行われる処理である。
ステップS200では領域設定部101は、カーナビゲーション装置103から取得した経路情報に含まれている「出発地の位置」、「目的地の位置」、「経由地の位置」、のそれぞれの位置について、該位置を含む領域を設定領域として設定する。
ステップS201では、取得部102は、記憶装置105に登録されている学習モデルごとに、該学習モデルに関連づけられている撮像位置情報のうち設定領域内の撮像位置を表している撮像位置情報の数がN以上であるか否かを判断する。そして取得部102は、「設定領域内の撮像位置を表している撮像位置情報の数がN以上である」と判断された学習モデルを取得対象として決定し、該決定した取得対象の学習モデルを記憶装置105から取得する。
なお、「設定領域内の撮像位置を表している撮像位置情報の数がN以上である」学習モデルがない場合には、その設定領域では幾何情報の推定を行なわないようにしてもよい。また、「設定領域内の撮像位置を表している撮像位置情報の数がN以上である」学習モデルが複数ある場合には、後述する第3の実施形態のようにして、複数の学習モデルから幾何情報を推定するようにしてもよい。
このように、本実施形態によれば、出発地から目的地までの経路及びその周辺に対応する学習モデルを取得することができる。なお、各撮像画像の撮像位置については、例えば、代表的な幾つかの撮像画像について撮像位置を取得しておき、他の撮像画像の撮像位置については該代表的な幾つかの撮像画像の撮像位置から補間により求めても良い。また、撮像位置の代わりに全ての撮像位置から作成した自由曲線を記憶装置105に登録しておいても良く、その場合、各撮像位置はこの自由曲線上の位置として表される。また、撮像位置群を比較的位置が近いものを1つのグループに纏めることでグループ分割し、グループごとに、該グループに属する撮像位置を、該グループの代表撮像位置(該グループに属する撮像位置の平均撮像位置など)に変更しても良い。
<変形例1>
本変形例を含む以下の各実施形態や各変形例では、第1の実施形態との差分について説明し、特に触れない限りは、第1の実施形態と同様であるものとする。第1の実施形態では、出発地、目的地、経由地、のそれぞれを含む周辺領域に対応する学習モデルを取得したが、これらの地点の何れかの周辺領域に対応する学習モデルを取得するようにしても良い。例えば、カーナビゲーション装置103においてユーザが指定した目的地周辺に該当する学習モデルを取得する場合、図2のステップS200において以下の処理を行う点が第1の実施形態と異なる。なお、以下の説明において「目的地」を「出発地」や「経由地」や、「GPSによって測定した現在位置」と読み替えることで、出発地周辺や経由地周辺や現地位置周辺に該当する学習モデルを取得することができる。
ステップS200では領域設定部101は、カーナビゲーション装置103から取得した経路情報に含まれている「目的地の位置」を含む領域を設定領域として設定する。これにより、目的地周辺に対応する学習モデルを取得することができる。
<変形例2>
本変形例では、カーナビゲーション装置103においてユーザが指定した領域に対応する学習モデルを取得する。ユーザがカーナビゲーション装置103の表示画面において円形若しくは矩形の領域を指定領域として指定すると、カーナビゲーション装置103は、該指定領域を規定する情報(指定領域情報)を情報処理装置100に対して出力する。例えば指定領域情報は、指定領域が円形領域である場合には、該円形領域の中心に対応する緯度、経度と、該円形領域の半径に対応する距離(地図画像の縮尺と表示画面上の円形領域の半径とから算出可能な実際の半径)と、を表す。また例えば指定領域情報は、指定領域が矩形領域である場合には、該矩形領域の左上隅及び右下隅に対応する緯度、経度を表す。領域設定部101は、カーナビゲーション装置103から出力された指定領域情報が示す指定領域を設定領域として設定する。取得部102の動作については第1の実施形態と同様である。
本変形例では、図2のフローチャートのステップS200において以下の処理を行う点が第1の実施形態と異なる。ステップS200では領域設定部101は、カーナビゲーション装置103から出力された指定領域情報が示す指定領域を設定領域として設定する。これにより、ユーザが地図上で指定した領域に対応する学習モデルを取得することができる。
なお、指定領域の指定方法は特定の指定方法に限らない。例えば、カーナビゲーション装置103の表示画面に住所や地名の一覧を表示し、該一覧からユーザにより指定された住所や地名に該当する領域を指定領域としても良いし、ユーザがテキストや音声で入力した住所や地名に該当する領域を指定領域としても良い。また、設定領域は、指定領域及び該指定領域の周辺領域としても良い。
<変形例3>
本変形例では、現在位置に該当する学習モデルを記憶装置105から取得する。本実施形態に係るカーナビゲーション装置103は、GPSによって測定した現在位置を情報処理装置100に対して出力する。
取得部102は、第1の実施形態と同様にして取得対象となる学習モデルを決定する。そして取得部102は、該決定した取得対象の学習モデルのうち実際に記憶装置105から取得する1つ以上の学習モデルを、カーナビゲーション装置103から取得した現在位置に基づいて選択する。例えば、取得部102は、取得対象の学習モデルのうち、現在位置との距離が閾値以下となる撮像位置を表す撮像位置情報と関連づけられている学習モデルを記憶装置105から取得する。これにより、現在位置に応じて学習モデルを取得することができる。
なお、現在位置との距離が閾値以下となる撮像位置を表す撮像位置情報と関連づけられている学習モデルがない場合には、その設定領域では幾何情報の推定を行なわないようにしてもよい。また、現在位置との距離が閾値以下となる撮像位置を表す撮像位置情報と関連づけられている学習モデルが複数ある場合には、後述する第3の実施形態のようにして、複数の学習モデルから幾何情報を推定するようにしてもよい。
本変形例では、図2のフローチャートのステップS201において以下の処理を行う点が第1の実施形態と異なる。ステップS201では取得部102は、第1の実施形態と同様にして取得対象となる学習モデルを決定する。そして取得部102は、該決定した取得対象の学習モデルのうち実際に記憶装置105から取得する1つ以上の学習モデルを、カーナビゲーション装置103から取得した現在位置に基づいて選択する。以降は第1の実施形態と同様である。
なお、記憶装置105から学習モデルを取得するタイミングは上記の例に限らない。例えば、学習モデルごとに、該学習モデルのデータサイズ及び記憶装置105からのデータ読み出し速度から該学習モデルを記憶装置105から取得する(読み出す)ために要する時間(取得時間)を予め求めて記憶装置105に登録しておく。そして、取得部102は、記憶装置105から取得する学習モデルとして選択された学習モデル(対象学習モデル)の取得時間と移動速度との積(距離)を基準距離として求める。「移動速度」とは、例えば、カーナビゲーション装置103を搭載した車両の移動速度である。そして取得部102は、対象学習モデルに関連づけられている何れかの撮像位置情報が示す撮像位置と現在位置との間の距離が基準距離を下回った時点で、対象学習モデルを記憶装置105から取得する。
<変形例4>
本変形例では、学習モデルには、該学習モデルの学習時に使用した撮像画像に対応する属性情報が関連づけられているものとする。例えば、高速道路を含む撮像画像を用いて学習した学習モデルには、高速道路を示す属性情報が関連づけられ、一般道を含む撮像画像を用いて学習した学習モデルには、一般道を示す属性情報が関連づけられる。また、行政上規定される道路の種類に応じるようにしてもよい。第1種道路を含む撮像画像を用いて学習した学習モデルには、第1種道路を示す属性情報が関連づけられ、第2種道路を含む撮像画像を用いて学習した学習モデルには、第2種道路を示す属性情報が関連づけられる。また、第3種道路を含む撮像画像を用いて学習した学習モデルには、第3種道路を示す属性情報が関連づけられ、第4種道路を含む撮像画像を用いて学習した学習モデルには、第4種道路を示す属性情報が関連づけられる。
取得部102は、領域設定部101が設定した設定領域の属性情報を特定する。例えば、カーナビゲーション装置103から各道路の種別を取得可能な場合、取得部102は、設定領域に含まれている道路の種別を属性情報としてカーナビゲーション装置103から取得する。そして取得部102は、設定領域の属性情報と関連づけて記憶装置105に登録されている学習モデルを該記憶装置105から取得する。
本変形例では、図2のフローチャートのステップS201において以下の処理を行う点が第1の実施形態と異なる。ステップS201では、取得部102は、領域設定部101が設定した設定領域の属性情報を特定し、該属性情報と関連づけて記憶装置105に登録されている学習モデルを該記憶装置105から取得する。以降は第1の実施形態と同様である。
これにより、設定領域の属性に応じて学習モデルを取得することができる。なお、本変形例では、属性情報は道路の種別を表す情報としたが、これに限らず、例えば、東京や北海道といった地域を属性情報としてもよい。この場合、東京を撮像した撮像画像を用いて学習した学習モデルには東京を表す属性情報が関連づけられ、北海道を撮像した撮像画像を用いて学習した学習モデルには北海道を表す属性情報が関連づけられる。このように、各学習モデルが、どのような属性の撮像画像を用いて学習したのか(どのような学習環境において学習したのか)が分かるように、該学習モデルに該属性を示す情報を関連づけることができればよい。そして取得部102は、カーナビゲーション装置103から属性情報を取得し、該属性情報と関連づけられている学習モデルを記憶装置105から取得する。なお、領域設定部101において、属性情報を指定することで領域を設定するようにしてもよい。
[第2の実施形態]
本実施形態では、学習モデルごとに、該学習モデルに関連づけられている撮像位置情報群が表す撮像位置群を包含する地図画像上の領域を示す情報(領域情報)をユーザに提示する。そして、ユーザに提示したそれぞれの領域情報のうちユーザにより選択された領域情報に対応する学習モデルを記憶装置105から取得する。
本実施形態に係るシステムの機能構成例について、図4のブロック図を用いて説明する。図4に示す如く、本実施形態に係るシステムは、表示部403と、生成部404と、記憶装置405と、情報処理装置400と、を有する。なお、図4では、表示部403、情報処理装置400、生成部404、記憶装置405のそれぞれを別個の装置としているが、これらのうち2つ以上を1つの装置としてもよい。
先ず、記憶装置405について説明する。記憶装置405には記憶装置105と同様に複数の学習モデルが、該学習モデルの学習時に使用した撮像画像の撮像位置を示す撮像位置情報と関連づけて登録されているが、該学習モデルには更に、該学習モデルの識別情報が関連づけられている。
次に、表示部403について説明する。表示部403は、CRTや液晶画面などにより構成されている表示画面である。なお、表示部403は、カーナビゲーション装置103の表示画面であっても良い。
次に、生成部404について説明する。生成部404は、表示部403に地図画像を表示する。この地図画像は、記憶装置405に登録されている全ての撮像位置情報が示す撮像位置を含む範囲の地図画像である。そして生成部404は、この地図画像上に、学習モデルごとに、該学習モデルの識別情報と、該学習モデルに関連づけられている全ての撮像位置情報が示す撮像位置を包含する包含領域に係る包含領域情報と、を重ねて表示する。表示部403における表示画面の一例を図6に示す。
図6では、道路及び池を含む地図画像上に、各学習モデルの名称(学習モデルA~E)と、該学習モデルに関連づけられている全ての撮像位置情報が示す撮像位置を包含する包含領域の境界と、を重ねて表示している。
次に、情報処理装置400について説明する。ユーザが表示部403の表示画面上若しくは不図示の操作部を用いて学習モデルの識別情報や包含領域情報を指定すると、選択部401は、該指定された識別情報若しくは包含領域情報を取得部402に通知する。取得部402は、選択部401から通知された識別情報若しくは包含領域情報に対応する学習モデルを記憶装置405から取得する。
次に、情報処理装置400が行う処理について、図5のフローチャートに従って説明する。ステップS500では、選択部401は、ユーザにより指定された識別情報若しくは包含領域情報を取得部402に通知する。ステップS501では、取得部402は、選択部401から通知された識別情報若しくは包含領域情報に対応する学習モデルを記憶装置405から取得する。これにより、ユーザが所望する領域に該当する学習モデルを選択して取得することができる。
<変形例1>
記憶装置405には、学習モデルに対応する撮像位置情報群の代わりに、該撮像位置情報群が示す撮像位置群を包含する包含領域に係る包含領域情報を該学習モデルに関連づけて登録するようにしても良い。
<変形例2>
本変形例では、記憶装置405には複数の学習モデルが登録されており、該複数の学習モデルのそれぞれには、該学習モデルの学習時に使用した撮像画像の撮像位置を表す撮像位置情報と、該学習の精度を表す評価値(学習精度)と、が関連づけられている。評価値は、例えば、次のようにして予め求められた値である。「学習データに含まれている撮像画像を学習モデルに入力することで該学習モデルから出力される幾何情報と、該学習データに含まれている幾何情報と、で対応する画素のデプス値の差の絶対を全ての画素について加算した値E」を各学習データについて求める。そして学習データの数をNとすると、各学習データについて求めた値Eの合計値SをNで除算した値(=S/N、即ち値Eの平均値)の逆数を、評価値とする。このような評価値は、それぞれの学習モデルについて予め求めて記憶装置405に登録されている。
生成部404は、表示部403に地図画像を表示する。この地図画像は、記憶装置405に登録されている全ての撮像位置情報が示す撮像位置を含む範囲の地図画像である。そして生成部404は、地図画像上に、学習モデルごとに、該学習モデルに関連づけられている全ての撮像位置情報が示す撮像位置を包含する包含領域に係る包含領域情報を、該学習モデルと関連づけられている評価値に応じた表示形態で表示する。
生成部404による包含領域情報の表示例を図10に示す。図10に示す如く、道路及び池を含む地図画像上に包含領域情報1001、1002,1003のそれぞれが、対応する評価値に応じた色でもって表示されている。図10では、より高い評価値(高精度)の包含領域情報はより黒い色で表示され、より低い評価値(低精度)の包含領域情報はより白い色で表示されている。
ユーザが表示部403の表示画面上若しくは不図示の操作部を用いて包含領域情報を指定すると、選択部401は、該包含領域情報を取得部402に通知する。取得部402は、選択部401から通知された包含領域情報に対応する学習モデルを記憶装置405から取得する。
本変形例では、図5のフローチャートにおいて、ステップS500、S501における処理が第2の実施形態と異なる。ステップS500では、選択部401は、ユーザにより指定された包含領域情報を取得部402に通知する。ステップS501では、取得部402は、選択部401から通知された包含領域情報に対応する学習モデルを記憶装置405から取得する。これによりユーザは、カーナビゲーション装置103の表示画面を閲覧することでより精度の高い学習モデルに対応する領域を把握して選択することができる。
なお、上記の通り評価値は、学習の精度を表す値であれば良い。例えば、学習モデルの使用頻度や、複数のユーザによる評価点数などであっても良い。また、生成部404は、包含領域情報に加えて、該包含領域情報に対応する学習モデルの評価値を表示しても良い。
なお、上記の第1、2の実施形態や変形例では、取得部102(402)が記憶装置105(405)から取得した学習モデルの使用目的については触れておらず、つまりは、特定の使用目的に限定していない。しかし、上記の第1、2の実施形態や変形例の一部若しくは全部、または上記の第1、2の実施形態や変形例の一部若しくは全部の組み合わせを、以下に説明する各実施形態や変形例に適用しても構わない。
[第3の実施形態]
本実施形態では、第1の実施形態に係るシステムを、車両の自動運転に適用したケースについて説明する。先ず、本実施形態に係るシステムの機能構成例について、図7のブロック図を用いて説明する。
撮像装置702は、車両の一例としての自動車701の前方方向の動画像を撮像するべく自動車701に取り付けられたもので、撮像装置702により撮像された動画像を構成する各フレームの画像(撮像画像)は、情報処理装置700に対して送出される。
カーナビゲーション装置103については第1の実施形態にて説明したとおりであるが、本実施形態では更に、現在位置、経路情報、自動車701の進行方向及び移動速度に基づいて、目的地まで自動車701を誘導するための情報を表示画面上に表示する。
送受信装置706は、無線ネットワークを介して外部機器との間のデータ通信を行う。情報処理装置700は、上記の情報処理装置100と同様にして設定領域に対応する学習モデルを取得する。そして情報処理装置700は、該取得した学習モデルと、撮像装置702から取得した撮像画像と、に基づいて幾何情報を推定し、該幾何情報に基づいて自動車701の位置姿勢を求める。そして情報処理装置700は、推定した幾何情報及び自動車701の位置姿勢を運転制御部703に対して送出する。ここで「位置姿勢」とは、「位置及び/又は姿勢」を表すものとする。
運転制御部703は、情報処理装置700で推定した幾何情報及び自動車701の位置姿勢に基づいて、自動車701の進行方向及び移動速度を算出する。アクチュエータ部704は、自動車701の動きを制御する制御装置であり、運転制御部703が算出した自動車701の進行方向及び移動速度に基づいて自動車701のアクチュエータを制御する。これにより例えば、自動車701自身の位置と幾何情報が表す周囲の幾何形状とに基づき、幾何情報から障害物を推定し、該障害物との距離が規定値以上となるように速度や進行方向を決定することで、衝突回避や加速、減速などの運転制御が可能になる。
次に、情報処理装置700の機能構成例について、図8のブロック図を用いて説明する。図8において図1に示した機能部と同様の機能部には同じ参照番号を付しており、該機能部に係る説明は省略する。
画像入力部800は、撮像装置702から送出される撮像画像を取得し、該取得した撮像画像を後段の推定部801に対して送出する。推定部801は、取得部102が取得対象として決定した学習モデルのうち現在位置に基づいて選択した1つの学習モデルと、画像入力部800からの撮像画像と、に基づいて幾何情報を推定する。算出部802は、推定部801が推定した幾何情報に基づいて撮像装置702の位置姿勢を求め、該求めた撮像装置702の位置姿勢を自動車701の位置姿勢に変換する。そして算出部802は、変換した自動車701の位置姿勢と、推定部801が推定した幾何情報(若しくは該幾何情報から求めた幾何情報)と、を運転制御部703に対して出力する。
次に、情報処理装置700が行う処理について、同処理のフローチャートを示す図9を用いて説明する。なお、図9において図2に示した処理ステップと同じ処理ステップには同じステップ番号を付しており、該処理ステップに係る説明は省略する。
ステップS900では、画像入力部800は、撮像装置702から送出される撮像画像(例えば濃淡画像)を取得し、該取得した撮像画像を後段の推定部801に対して送出する。
ステップS901では、推定部801は、取得部102が取得対象として決定した学習モデルのうち現在位置に対応する学習モデルを、カーナビゲーション装置103から取得した現在位置に基づいて選択する。取得部102が取得対象として決定した学習モデルのうち現在位置に対応する学習モデルを現在位置に基づいて選択する方法には、例えば、上記の変形例3にて説明した方法が適用可能である。そして推定部801は、選択した学習モデルに撮像装置702から出力された撮像画像を入力することで該学習モデルから出力される幾何情報を「幾何情報の推定結果」である推定幾何情報として取得する。
なお、推定部801は、現在位置に対応する学習モデルとして複数の学習モデルを選択した場合には、以下のような処理によって推定幾何情報を取得する。先ず推定部801は、選択した複数の学習モデルのそれぞれについて、該学習モデルに撮像装置702からの撮像画像を入力することで該学習モデルから出力される幾何情報を取得する。そして推定部801は、複数の学習モデルのそれぞれについて取得した幾何情報の重み付き平均を推定幾何情報として求める。例えば、複数の学習モデルのそれぞれについて取得した幾何情報において、撮像画像における画素位置(x、y)に対応するデプス値の重み付き平均を、推定幾何情報において撮像画像の画素位置(x、y)に対応するデプス値とする。着目学習モデルについて取得した幾何情報の各デプス値に対する重み値は、例えば、次のような方法でもって求めることができる。着目学習モデルと関連づけられている撮像位置情報群が示す撮像位置群を包含する包含領域の輪郭と現在位置との間の距離が大きいほど、着目学習モデルについて取得した幾何情報の各デプス値に対する重み値を大きくする。例えば、包含領域の輪郭を複数の線分で近似し、現在位置と各線分との間の距離の最小値を重み値とする。
ステップS902では、算出部802は、推定部801が推定した推定幾何情報に基づいて撮像装置702の位置姿勢を求め、該求めた撮像装置702の位置姿勢を自動車701の位置姿勢に変換する。
本実施形態に係る撮像装置702の位置姿勢とは、世界座標系における撮像装置702の位置を表す3パラメータ及び姿勢を表す3パラメータの合計6パラメータによって規定されるものである。ここで、世界座標系とは、現実空間における規定の1点を原点とし、該原点で互いに直交する3軸をそれぞれX軸、Y軸、Z軸とする座標系である。また以下では、撮像装置702の光軸をZ軸、該撮像装置702による撮像画像の水平方向をX軸、垂直方向をY軸とする、撮像装置702上に規定される三次元の座標系をカメラ座標系と称する。また以下では、原点を自動車701の重心位置、Z軸を自動車701の進行方向、Y軸を重力方向、X軸を自動車701の左右方向とする三次元の座標系でを自動車座標系と称する。ここで、カメラ座標系から自動車座標系への変換行列は、予め計測して求めておく。例えば、3次元の位置を特定するために一般的に用いられる既知のマーカを使用してもよい。具体的には、自動車701の重心位置に設置したマーカを撮像装置で撮影し、撮影した画像から撮像装置の位置姿勢を算出する。この位置姿勢をカメラとマーカとの間の座標変換行列、すなわちカメラ座標系と自動車座標系間の変換行列とする。
本実施形態では算出部802は、世界座標系における撮像装置702の位置姿勢(世界座標系におけるカメラ座標系の位置姿勢)を求め、該位置姿勢を、世界座標系における自動車701の位置姿勢(世界座標系における自動車座標系の位置姿勢)に変換する。
ここで、算出部802による撮像装置702の位置姿勢の算出方法の一例について説明する。具体的には、時刻tに撮像された撮像画像(現フレーム)に対し、現フレーム以前の時刻t’に撮像された撮像画像(前フレーム)を学習モデルに入力することで該学習モデルから出力された幾何情報(前幾何情報)に基づき、前フレームの各画素を射影する。ここでいう射影とは、前フレームの画素が現フレームのどこに写るのかを算出することである。具体的には、算出部802は、前フレームにおける着目画素の画像座標(ut-1,vt-1)、撮像装置702の内部パラメータ(fx、fy、cx、cy)、前幾何情報における該着目画素の奥行き値Dを用いて以下の式1を計算する。これにより算出部802は、該着目画素の前フレームのカメラ座標系における三次元座標(Xt-1,Yt-1,Zt-1)を求めることができる。
Figure 0007011472000001
ここで、前フレームを撮像した撮像装置702の位置に対する現フレームを撮像した撮像装置702の位置をt(t-1)→t、前フレームを撮像した撮像装置702の姿勢に対する現フレームを撮像した撮像装置702の姿勢をR(t-1)→tとする。このとき、算出部802は、t(t-1)→t、R(t-1)→tを用いて以下の式2を計算することで、現フレームのカメラ座標系における該着目画素の三次元座標(X,Y,Z)を求めることができる。
Figure 0007011472000002
次に算出部802は、以下の式3を計算することで、現フレームのカメラ座標系における該着目画素の三次元座標(X,Y,Z)を現フレームの画像座標(u,v)に変換する。
Figure 0007011472000003
本実施形態では、上記の式1~式3に従った処理を射影と呼ぶ。そして算出部802は、このような射影を、前フレームにおける全ての着目画素について行うことで、現フレームにおいて対応する画像座標を求めることができる。そして算出部802は、前フレームの画像座標(ut-1,vt-1)における画素の輝度値と、該画素の射影先の現フレームの画素(画像座標は(u,v))における輝度値と、の輝度差が最小となるようにt(t-1)→t、R(t-1)→tを算出する。
そして算出部802は、前フレームを撮像した撮像装置702の世界座標系における位置tw→(t-1)及び姿勢Rw→(t-1)を用いて以下の式4を計算する。これにより算出部802は、現フレームを撮像した撮像装置702の世界座標系における位置tw→t及び姿勢Rw→tを算出する。
Figure 0007011472000004
そして算出部802は、予め求めておいたカメラ座標系と自動車座標系との間の変換行列Mを用いて以下の式5を計算する。これにより算出部802は、現フレームを撮像した撮像装置702の世界座標系における位置tw→t及び姿勢Rw→tのそれぞれを、世界座標系における自動車701の位置t’w→t、姿勢R’w→tに変換する。
Figure 0007011472000005
そして算出部802は、変換した自動車701の位置姿勢と、推定部801が推定した幾何情報(若しくは重み付き平均した幾何情報)と、を運転制御部703に対して出力する。
そして、図9のフローチャートに従った処理の終了条件が満たされた場合には、図9のフローチャートに従った処理は終了し、該終了条件が満たされていない場合には、処理はステップS900に戻る。例えば、自動車701が目的地に到着したり、自動車701の運転者や同乗者がカーナビゲーション装置103の表示画面に対してシステムの停止を指示したりした場合には、終了条件が満たされたと判断する。
このように、本実施形態によれば、自動運転に必要な学習モデルを取得することができる。なお、本実施形態では、記憶装置105は自動車701が有するものとして説明した。しかし記憶装置105は、例えば、送受信装置706が通信可能な外部機器(例えばサーバ装置)であっても良く、その場合、取得部102は、送受信装置706を制御して外部機器としての記憶装置105から必要な情報を取得するようにしても良い。
また、記憶装置105に登録されているものとして説明した各種の情報を外部機器に登録しておき、取得部102が送受信装置706を制御して外部機器から受信した学習モデルや各種の情報を記憶装置105にダウンロードするようにしても良い。このような構成によれば、一度記憶装置105にダウンロードした情報については再度外部機器にアクセスして取得する必要はない。
[第4の実施形態]
本実施形態は、図7の情報処理装置700を図11の情報処理装置1100に置き換えたものである。図11に示す如く、情報処理装置1100は、情報処理装置700にナビゲーション部1101を加えたものである。図11は、情報処理装置1100の機能構成例を示すブロック図である。
なお、本実施形態に係る領域設定部101は、ユーザが自動運転を実施したい領域を設定領域として設定する。例えばユーザがカーナビゲーション装置103の表示画面に表示されている地図画像上で自動運転を実施したい領域を設定した場合には、カーナビゲーション装置103は、該ユーザが設定した領域を示す情報を情報処理装置1100に対して送出する。領域設定部101は、カーナビゲーション装置103から受信した情報が示す領域(ユーザが設定した領域)を設定領域として設定する。取得部102は、第1の実施形態と同様にして、設定領域に対応する学習モデルを記憶装置105から取得する。
ナビゲーション部1101は、取得部102が取得した学習モデルに関連づけられている撮像位置情報群を包含する包含領域を求める。そしてナビゲーション部1101は、カーナビゲーション装置103から出力された経路情報から出発地と目的地とを取得し、出発地から包含領域を通って目的地に向かう経路として最短距離の経路を探索する。
情報処理装置1100が行う処理について、図12のフローチャートに従って説明する。図2,9と同じ処理ステップには同じステップ番号を付しており、該処理ステップに係る説明は省略する。なお、ステップS200では、領域設定部101は、ユーザが自動運転を実施したい領域を設定領域として設定し、ステップS201では、取得部102は、ステップS200において設定された設定領域に対応する学習モデルを記憶装置105から取得する。
ステップS1200では、ナビゲーション部1101は、取得部102が取得した学習モデルに関連づけられている撮像位置情報群を包含する包含領域を求める。そしてナビゲーション部1101は、カーナビゲーション装置103から出力された経路情報から出発地と目的地とを取得し、出発地から包含領域を通って目的地に向かう経路として最短距離の経路を探索する。ナビゲーション部1101が探索した最短経路は、生成部104によりカーナビゲーション装置103の表示画面に表示される。
<変形例>
ステップS1200でナビゲーション部1101が「出発地から包含領域を通って目的地に向かう経路」として複数の経路を探索した場合、生成部104は、該探索した複数の経路をカーナビゲーション装置103の表示画面に表示しても良い。この場合、ユーザはカーナビゲーション装置103を操作して該複数の経路のうち何れか1つを選択する。
[第5の実施形態]
本実施形態は、図7の情報処理装置700を図13の情報処理装置1300に置き換えたものである。図13に示す如く、情報処理装置1300は、情報処理装置700に通知部1301を加えたものである。図13は、情報処理装置1300の機能構成例を示すブロック図である。
本実施形態に係る推定部801は、第3の実施形態と同様に、学習モデルと撮像画像とに基づいて推定幾何情報を推定する。本実施形態では推定部801は更に、学習モデルと撮像画像との適合度合を示す評価値を求める。通知部1301は、推定部801が求めた評価値が規定値未満であれば、その旨(取得した学習モデルが適切でない旨)をユーザに通知する。
情報処理装置1300が行う処理について、同処理のフローチャートを示す図14を用いて説明する。図14において、図2,9と同じ処理ステップには同じステップ番号を付しており、該処理ステップに係る説明は省略する。
本実施形態に係るステップS901では、推定部801は、第3の実施形態と同様に、学習モデルと撮像画像とに基づいて推定幾何情報を推定する。そして推定部801は更に、学習モデルと撮像画像との適合度合を示す評価値を求める。評価値は、例えば、次のようにして求める。推定部801は、撮像画像を学習モデルに入力することで該学習モデルから出力される幾何情報と、該撮像画像のみから推定した幾何情報と、の画素ごとのデプス値の差分(絶対値)の合計値の逆数を評価値として求める。撮像画像のみから幾何情報を推定する方法としては、例えば、次のような方法が適用可能である。推定部801は、第一の時刻tに撮像装置702が撮像した第一の撮像画像と、撮像装置702を既定の移動量(例えばカメラ座標系でX軸方向に10cm)動かした後の第二の時刻(t+1)に撮像装置702が撮像した第二の撮像画像と、を取得する。そして推定部801は、第一の撮像画像と第二の撮像画像とからモーションステレオ法により幾何情報を求める。なお、前述の既定の移動量をベースライン長として奥行きのスケールを規定する。
そしてステップS1400では、通知部1301は、ステップS901において推定部801が求めた評価値が規定値未満であれば、その旨をユーザに通知する。通知部1301による通知方法は特定の通知方法に限らない。例えば、カーナビゲーション装置103の表示画面に「学習モデルと入力画像との適合度合が低い」旨のメッセージや対応する画像を表示しても良いし、評価値そのものを表示しても良い。また、カーナビゲーション装置103が音声出力機能を有している場合には、音声でもって評価値に応じたメッセージをユーザに通知しても良い。
なお、通知部1301は、ステップS901において推定部801が求めた評価値が規定値以上であれば、その旨をユーザに通知しても良い。通知方法については上記の通り特定の通知方法に限らない。
<変形例>
推定部801による評価値の求め方は特定の求め方に限らない。つまり、推定部801は、学習モデルと入力画像との適合度合を表す値であれば、如何なる値を評価値として求めても良い。例えば、学習モデルの学習時に使用した撮像画像の撮像位置と、撮像装置702から取得した撮像画像の撮像位置と、の差の逆数を評価値としてもよい。
以上説明したユーザによる各種の操作の方法(地図画像上の領域や位置の指定方法等)は、特定の操作方法に限らない。例えば、カーナビゲーション装置103の表示画面がタッチパネル画面であれば、該タッチパネル画面に対してユーザが操作入力を行うことで地図画像上の領域や位置の指定を行うようにしても良い。また例えば、カーナビゲーション装置103に備わっているボタン群をユーザが操作することで地図画像上の領域や位置の指定を行うようにしても良い。
また、上記の各実施形態や各変形例では、情報処理装置は、カーナビゲーション装置103からの情報に基づいて設定領域の設定などの処理を行っていたが、このような形態に限らない。例えば、カーナビゲーション装置103から得られる情報を一端サーバ装置などの機器に保存しておき、情報処理装置はこのサーバ装置から情報を取得して設定領域の設定などの処理を行うようにしても良い。また、情報処理装置は、カーナビゲーション装置103の代わりにタブレット端末装置やスマートフォンなどの機器からの情報に基づいて同様の処理を行うようにしても良い。
なお、以上説明した各実施形態や各変形例はその一部若しくは全部を適宜組み合わせて使用しても構わない。また、以上説明した各実施形態や各変形例はその一部若しくは全部を選択的に使用しても構わない。
[第6の実施形態]
情報処理装置100(図1)、400(図4)、700(図8)、1100(図11)、1300(図13)を構成する各機能部はハードウェアで実装しても良いし、ソフトウェア(コンピュータプログラム)で実装しても良い。後者の場合、このコンピュータプログラムを実行可能なプロセッサを有するコンピュータ装置は、上記の情報処理装置100、400、700、1100、1300に適用可能である。このようなコンピュータ装置のハードウェア構成例について、図15のブロック図を用いて説明する。
CPU1501は、RAM1502やROM1503に格納されているコンピュータプログラムやデータを用いて各種の処理を実行する。これによりCPU1501は、コンピュータ装置全体の動作制御を行うと共に、上記の情報処理装置100、400、700、1100、1300が行うものとして上述した各処理を実行若しくは制御する。
RAM1502は、ROM1503や外部記憶装置1505からロードされたコンピュータプログラムやデータ、I/F(インターフェース)1506を介して外部から受信したデータ、を格納するためのエリアを有する。更にRAM1502は、CPU1501が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM1502は、各種のエリアを適宜提供することができる。ROM1503には、書換不要のコンピュータプログラムやデータが格納されている。
操作部1504は、マウス、キーボード、タッチパネル、ボタン群などのユーザインターフェースにより構成されており、ユーザが操作することで各種の指示をCPU1501に対して入力することができる。
外部記憶装置1505は、ハードディスクドライブ装置、不揮発性メモリ、等の大容量情報記憶装置である。外部記憶装置1505には、OS(オペレーティングシステム)が保存されている。また外部記憶装置1505には、上記の情報処理装置100、400、700、1100、1300が行うものとして上述した各処理をCPU1501に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。
外部記憶装置1505に保存されているコンピュータプログラムには、情報処理装置100、400、700、1100、1300の各機能部の機能をCPU1501に実現させるためのコンピュータプログラムが含まれている。また、外部記憶装置1505に保存されているデータには、上記の説明において既知の情報として説明したものが含まれている。
外部記憶装置1505に保存されているコンピュータプログラムやデータは、CPU1501による制御に従って適宜RAM1502にロードされ、CPU1501による処理対象となる。
I/F1506は、外部機器との間のデータ通信を行うためのインターフェースとして機能するものである。外部機器としては、例えば、カーナビゲーション装置103、表示部403、生成部104(404)、記憶装置105(405)、撮像装置702、送受信装置706、運転制御部703がある。また、I/F1506は、外部機器ごとに設けても良い。
CPU1501、RAM1502、ROM1503、操作部1504、外部記憶装置1505、I/F1506は何れも、バス1507に接続されている。なお、外部記憶装置1505には、上記の記憶装置105(405)に登録されているものとして上述した各情報を格納しても良い。
また、上記の生成部104(404)についてもハードウェアで実装しても良いし、コンピュータプログラムで実装しても良い。後者の場合、このコンピュータプログラムは、上記の外部記憶装置1505に保存されることになる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101:領域設定部 102:取得部

Claims (18)

  1. 設定領域を設定する設定手段と、
    入力された撮像画像に対応する奥行き情報を出力するように学習済みの複数の学習済みモデルのうち、前記設定領域内の撮像位置で撮像された撮像画像と該撮像位置で撮像された撮像画像の奥行き情報とを教師データとして用いて学習した少なくとも1つの学習済みモデルを取得する取得手段と
    を備えることを特徴とする情報処理装置。
  2. 前記設定手段は、ユーザにより指定された地点を含む領域を前記設定領域として設定することを特徴とする請求項1に記載の情報処理装置。
  3. 前記地点は、設定された出発地、目的地、該出発地と該目的地との間の経路上の経由地、前記情報処理装置を含むシステムの現在位置、のうち少なくとも1つを含むことを特徴とする請求項2に記載の情報処理装置。
  4. 前記設定手段は、地図画像上に前記設定領域を設定することを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。
  5. 前記設定手段は、ユーザにより指定された前記地図画像上の領域を設定領域として設定することを特徴とする請求項4に記載の情報処理装置。
  6. 前記取得手段は、前記取得した学習済みモデルから、前記情報処理装置を含むシステムの現在位置に基づいて1つ以上の学習済みモデルを取得することを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。
  7. 前記取得手段は、前記1つ以上の学習済みモデルを、該学習済みモデルの取得に要する時間として予め求めた取得時間と、前記情報処理装置を含むシステムの移動速度と、に基づくタイミングで取得することを特徴とする請求項に記載の情報処理装置。
  8. 前記取得手段は、前記設定領域に含まれる現実空間に対応する学習環境において学習した学習済みモデルを取得することを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。
  9. 入力された撮像画像に対応する奥行き情報を出力するように学習済みの複数の学習済みモデルのそれぞれについて、学習に用いた撮像画像の撮像位置を含む領域を示す情報を提示する提示手段と、
    前記提示手段が提示した情報のうちユーザにより選択された情報に対応する領域内の撮像位置で撮像された撮像画像と該撮像位置で撮像された撮像画像の奥行き情報とを教師データとして用いて学習した少なくとも1つの学習済みモデルを取得する取得手段と
    を備えることを特徴とする情報処理装置。
  10. 前記提示手段は、学習済みモデルの学習に用いた撮像画像の撮像位置を含む領域を示す情報を、該学習済みモデルの学習精度に応じた表示形態で提示することを特徴とする請求項に記載の情報処理装置。
  11. 更に、
    前記撮像画像を撮影した撮像装置の位置姿勢を、入力された前フレームの撮像画像を前記取得手段が取得した学習済みモデルに入力することで該学習済みモデルから出力される奥行き情報と、該前フレームの撮像画像を撮像したときの該撮像装置の世界座標系における撮像位置と、に基づいて求める算出手段を備えることを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。
  12. 前記算出手段は、前記入力された前フレームの撮像画像を前記取得手段が取得したそれぞれの学習済みモデルに入力することで該それぞれの学習済みモデルから出力される奥行き情報の重み付き平均に基づいて、前記撮像装置の位置姿勢を求めることを特徴とする請求項11に記載の情報処理装置。
  13. 更に、
    前記取得手段が取得した学習済みモデルの学習に用いた撮像画像の撮像位置を含む領域と、指定された出発地及び目的地と、に基づいて該出発地から該目的地までの経路を探索する探索手段を備えることを特徴とする請求項1乃至12の何れか1項に記載の情報処理装置。
  14. 更に、
    入力された撮像画像を前記取得手段が取得した学習済みモデルに入力することで該学習済みモデルから出力される奥行き情報と、前記入力された撮像画像から求めた奥行き情報と、に基づいて、前記取得手段が取得した学習済みモデルの評価値を求める手段と、
    前記評価値に応じた通知を行う手段と
    を備えることを特徴とする請求項1乃至13の何れか1項に記載の情報処理装置。
  15. 前記奥行き情報は、前記撮像画像の各画素に対応する奥行き値を保持するデプスマップであることを特徴とする請求項1乃至14の何れか1項に記載の情報処理装置。
  16. 情報処理装置が行う情報処理方法であって、
    前記情報処理装置の設定手段が、設定領域を設定する設定工程と、
    前記情報処理装置の取得手段が、入力された撮像画像に対応する奥行き情報を出力するように学習済みの複数の学習済みモデルのうち、前記設定領域内の撮像位置で撮像された撮像画像と該撮像位置で撮像された撮像画像の奥行き情報とを教師データとして用いて学習した少なくとも1つの学習済みモデルを取得する取得工程と
    を備えることを特徴とする情報処理方法。
  17. 情報処理装置が行う情報処理方法であって、
    前記情報処理装置の提示手段が、入力された撮像画像に対応する奥行き情報を出力するように学習済みの複数の学習済みモデルのそれぞれについて、学習に用いた撮像画像の撮像位置を含む領域を示す情報を提示する提示工程と、
    前記情報処理装置の取得手段が、前記提示工程で提示した情報のうちユーザにより選択された情報に対応する領域内の撮像位置で撮像された撮像画像と該撮像位置で撮像された撮像画像の奥行き情報とを教師データとして用いて学習した少なくとも1つの学習済みモデルを取得する取得工程と
    を備えることを特徴とする情報処理方法。
  18. コンピュータを、請求項1乃至15の何れか1項に記載の情報処理装置の各手段として機能させるためのコンピュータプログラム。
JP2018004471A 2018-01-15 2018-01-15 情報処理装置、情報処理方法 Active JP7011472B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018004471A JP7011472B2 (ja) 2018-01-15 2018-01-15 情報処理装置、情報処理方法
US16/235,244 US11295142B2 (en) 2018-01-15 2018-12-28 Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
CN201910035618.4A CN110047105B (zh) 2018-01-15 2019-01-15 信息处理装置、信息处理方法及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018004471A JP7011472B2 (ja) 2018-01-15 2018-01-15 情報処理装置、情報処理方法

Publications (3)

Publication Number Publication Date
JP2019125113A JP2019125113A (ja) 2019-07-25
JP2019125113A5 JP2019125113A5 (ja) 2021-01-28
JP7011472B2 true JP7011472B2 (ja) 2022-01-26

Family

ID=67213978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018004471A Active JP7011472B2 (ja) 2018-01-15 2018-01-15 情報処理装置、情報処理方法

Country Status (3)

Country Link
US (1) US11295142B2 (ja)
JP (1) JP7011472B2 (ja)
CN (1) CN110047105B (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10810466B2 (en) * 2018-08-23 2020-10-20 Fuji Xerox Co., Ltd. Method for location inference from map images
TWI678546B (zh) * 2018-12-12 2019-12-01 緯創資通股份有限公司 距離偵測方法、距離偵測系統與電腦程式產品
US10890916B2 (en) * 2019-01-30 2021-01-12 StradVision, Inc. Location-specific algorithm selection for optimized autonomous driving
JP7342491B2 (ja) 2019-07-25 2023-09-12 オムロン株式会社 推論装置、推論方法、及び推論プログラム
JP7493323B2 (ja) 2019-11-14 2024-05-31 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
CN112184818B (zh) * 2020-10-09 2022-06-10 重庆邮电大学 基于视觉的车辆定位方法及应用其方法的停车场管理***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006119090A (ja) 2004-10-25 2006-05-11 Mitsubishi Electric Corp ナビゲーション装置
US20100305844A1 (en) 2009-06-01 2010-12-02 Choi Sung-Ha Mobile vehicle navigation method and apparatus thereof

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5144685A (en) * 1989-03-31 1992-09-01 Honeywell Inc. Landmark recognition for autonomous mobile robots
US7668376B2 (en) * 2004-06-30 2010-02-23 National Instruments Corporation Shape feature extraction and classification
JP2006170872A (ja) * 2004-12-17 2006-06-29 Seiko Epson Corp 誘導情報システム及び携帯機器
US8175362B2 (en) * 2007-10-19 2012-05-08 Boston Scientific Scimed, Inc. Display of classifier output and confidence measure in an image
JP2011117739A (ja) * 2009-11-30 2011-06-16 Fujitsu Ten Ltd ナビゲーションシステムおよび車載装置
CN102338639B (zh) * 2010-07-26 2015-04-22 联想(北京)有限公司 信息处理设备和信息处理方法
US8498491B1 (en) * 2011-08-10 2013-07-30 Google Inc. Estimating age using multiple classifiers
JP2013225245A (ja) * 2012-04-23 2013-10-31 Sony Corp 画像処理装置、画像処理方法及びプログラム
CA2910644A1 (en) * 2012-05-23 2013-11-28 Liping Fu Road surface condition classification method and system
GB201211999D0 (en) * 2012-07-05 2012-08-22 Roke Manor Research Sensor location method and system
US8995716B1 (en) * 2012-07-12 2015-03-31 Google Inc. Image search results by seasonal time period
DE102012214903A1 (de) * 2012-08-22 2014-05-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Head-up-Displays eines Fahrzeugs und Bildermittlungssystem für das Head-up-Display
US10127721B2 (en) * 2013-07-25 2018-11-13 Hover Inc. Method and system for displaying and navigating an optimal multi-dimensional building model
JP2015073191A (ja) * 2013-10-02 2015-04-16 キヤノン株式会社 画像処理システムおよびその制御方法
US9091561B1 (en) * 2013-10-28 2015-07-28 Toyota Jidosha Kabushiki Kaisha Navigation system for estimating routes for users
KR101751298B1 (ko) * 2016-02-18 2017-07-11 한국전자통신연구원 차량 경로 예측 방법 및 장치
JP6775969B2 (ja) * 2016-02-29 2020-10-28 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP6525921B2 (ja) * 2016-05-13 2019-06-05 キヤノン株式会社 画像処理装置、画像処理方法、検索装置
US10336326B2 (en) * 2016-06-24 2019-07-02 Ford Global Technologies, Llc Lane detection systems and methods
CN117371492A (zh) * 2016-11-04 2024-01-09 渊慧科技有限公司 一种计算机实现的方法及其***
KR20180068511A (ko) * 2016-12-14 2018-06-22 삼성전자주식회사 영상에 포함된 도로와 관련된 정보를 결정하는 뉴럴 네트워크를 학습시키는 학습 데이터를 생성하는 장치 및 방법
US10019788B1 (en) * 2017-02-14 2018-07-10 Cogniac, Corp. Machine-learning measurements of quantitative feature attributes
CN106910217A (zh) * 2017-03-17 2017-06-30 驭势科技(北京)有限公司 视觉地图建立方法、计算装置、计算机存储介质和智能车辆
US10475165B2 (en) * 2017-04-06 2019-11-12 Disney Enterprises, Inc. Kernel-predicting convolutional neural networks for denoising
WO2018227374A1 (en) * 2017-06-13 2018-12-20 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for route planning based on deep convolutional neural network
US10515275B2 (en) * 2017-11-17 2019-12-24 Adobe Inc. Intelligent digital image scene detection
US10710621B2 (en) * 2017-11-28 2020-07-14 Hitachi Rail Sts France Method, system and apparatus for controlling a vehicle
US10515460B2 (en) * 2017-11-29 2019-12-24 Adobe Inc. Neural network-based camera calibration
US10586132B2 (en) * 2018-01-08 2020-03-10 Visteon Global Technologies, Inc. Map and environment based activation of neural networks for highly automated driving

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006119090A (ja) 2004-10-25 2006-05-11 Mitsubishi Electric Corp ナビゲーション装置
US20100305844A1 (en) 2009-06-01 2010-12-02 Choi Sung-Ha Mobile vehicle navigation method and apparatus thereof

Also Published As

Publication number Publication date
CN110047105A (zh) 2019-07-23
JP2019125113A (ja) 2019-07-25
CN110047105B (zh) 2023-12-29
US20190220676A1 (en) 2019-07-18
US11295142B2 (en) 2022-04-05

Similar Documents

Publication Publication Date Title
JP7011472B2 (ja) 情報処理装置、情報処理方法
EP3321889A1 (en) Device and method for generating and displaying 3d map
JP7133926B2 (ja) 情報処理装置、システム、情報処理方法
WO2020037492A1 (en) Distance measuring method and device
US20140375638A1 (en) Map display device
US8773534B2 (en) Image processing apparatus, medium recording image processing program, and image processing method
US20170116723A1 (en) Pattern-based camera pose estimation system
US10451403B2 (en) Structure-based camera pose estimation system
US20130222375A1 (en) 3d building modeling
US11209277B2 (en) Systems and methods for electronic mapping and localization within a facility
US9858669B2 (en) Optimized camera pose estimation system
US9549169B2 (en) Stereoscopic map display system
EP3327676B1 (en) Method for displaying object on three-dimensional model
CN116420096A (zh) 用于标记lidar点云数据的方法和***
CN113358110A (zh) 机器人障碍物地图的构建方法、装置、机器人及存储介质
JP7337617B2 (ja) 推定装置、推定方法及びプログラム
US9846819B2 (en) Map image display device, navigation device, and map image display method
JP5196426B2 (ja) ナビゲーション装置
WO2021111613A1 (ja) 3次元地図作成装置、3次元地図作成方法、及び3次元地図作成プログラム
WO2020223868A1 (zh) 地面信息处理方法、装置和无人驾驶车辆
JP2021071885A (ja) 領域切り出し方法および領域切り出しプログラム
TWI791261B (zh) 在移動中提供虛擬環境的方法與系統以及非暫態電腦可讀取儲存媒體
CN116468868A (zh) 交通信号灯的建图方法、装置、设备及存储介质
CN117870716A (zh) 地图兴趣点的显示方法、装置、电子设备及存储介质
JP2021119433A (ja) 学習用データ生成装置、学習用データ生成方法、学習用データ生成プログラム、及び学習済みの学習モデル生成方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201209

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220114