JPWO2018235219A1 - 自己位置推定方法、自己位置推定装置および自己位置推定プログラム - Google Patents

自己位置推定方法、自己位置推定装置および自己位置推定プログラム Download PDF

Info

Publication number
JPWO2018235219A1
JPWO2018235219A1 JP2019524792A JP2019524792A JPWO2018235219A1 JP WO2018235219 A1 JPWO2018235219 A1 JP WO2018235219A1 JP 2019524792 A JP2019524792 A JP 2019524792A JP 2019524792 A JP2019524792 A JP 2019524792A JP WO2018235219 A1 JPWO2018235219 A1 JP WO2018235219A1
Authority
JP
Japan
Prior art keywords
self
image
feature point
estimating
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019524792A
Other languages
English (en)
Inventor
充 仙洞田
充 仙洞田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2018235219A1 publication Critical patent/JPWO2018235219A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

自己位置推定装置20は、撮像装置21が搭載された自己位置推定装置であって、撮像装置21から取得された動画像から自己位置推定装置20の自己位置の推定に利用される動画像中の領域である特徴点が撮影された画像である特徴点画像の候補を所定の方法で抽出する抽出部22と、抽出された特徴点画像の候補を用いて自己位置を推定する推定部23とを備える。

Description

本発明は、自己位置推定方法、自己位置推定装置および自己位置推定プログラムに関し、特にカメラで撮影された映像が用いられる自己位置推定方法、自己位置推定装置および自己位置推定プログラムに関する。
画像情報に基づいた撮像装置の位置および姿勢の計測は、拡張現実感(AR:Augmented Reality)または複合現実感(MR:Mixed Reality)における現実空間と仮想物体との位置合わせ、ロボットや自動車の自己位置推定、物体やシーンの三次元モデリング等に利用される。
非特許文献1には、シーン中の特徴点の情報を三次元マップとして保持し、画像中に検出される特徴点と三次元マップ中の特徴点との対応を基に撮像装置の位置および姿勢を推定する方法が記載されている。
非特許文献1に記載されている方法は、前フレームにおいて計測された撮像装置の位置および姿勢を、現フレームにおける撮像装置の位置および姿勢の計測に利用する。
例えば、非特許文献1に記載されている方法は、前フレームにおいて計測された撮像装置の位置および姿勢と動きモデルとに基づいて、現フレームにおける撮像装置の位置および姿勢を予測する。非特許文献1に記載されている方法は、予測された撮像装置の位置および姿勢を、三次元マップ中の特徴点と画像中の特徴点との対応付けに利用する。
また、非特許文献1に記載されている方法は、予測された撮像装置の位置および姿勢を、現フレームにおける撮像装置の位置および姿勢を求めるために繰り返し実行される計算処理の初期値として利用する。
フレーム間で撮像装置の動きが大きい場合や画像において検出される特徴点の数が少ない場合、非特許文献1に記載されている方法による撮像装置の位置および姿勢の計測は失敗する可能性がある。
計測を失敗させないためには、繰り返し実行される計算処理に使われる特徴点として自己位置推定に適した画像を用いることが重要である。例えば、画像中の移動しない特徴点を自己位置推定の過程で求める方法や、画像中の移動する特徴点を排除することによって適切な特徴点を取得する方法がある。
上記の観点を踏まえて、例えば特許文献1には、ロボットが望ましくない事象(例えば、偶発的な衝突)に遭遇したとき、危険の前のデータ瞬間が学習アルゴリズムに識別されるように、特別な「危険」タグがデータセットに挿入される可動式ロボットシステムが記載されている。
また、特許文献2には、自己位置推定に失敗した場合を考慮して、キーフレームに姿勢検出器が適用された結果と現在のビューとが比較される自己位置再推定方法が記載されている。
特許文献2に記載されている自己位置再推定方法には、現在のフレームおよび以前のフレームに対して機械学習分類器等による形状推定のプロセスや、意味的画像ラベル付けのプロセスが適用される等の特徴が見受けられる。
また、特許文献3には、検知されたシーンから抽出された特徴点のセットが以前に検知および保存された経験のうち任意の1つの経験中で認識される場合、認識された経験に基づいて現時点での車両の位置を評価するセンサ位置推定方法が記載されている。
上記の各自己位置推定技術が適用された装置の例を以下に示す。図6は、一般的な自己位置推定システムの構成例を示すブロック図である。図6に示すように、自己位置推定システム90には、カメラ200と、自己位置推定装置900とが含まれている。
また、図6に示すように、自己位置推定装置900は、信号処理部190を含む。また、カメラ200は、自己位置推定装置900と通信可能に接続されている。カメラ200と自己位置推定装置900との接続は、有線接続でもよいし、無線接続でもよい。カメラ200で撮影された映像データは、自己位置推定装置900に送信される。
図7は、一般的な自己位置推定システムの他の構成例を示すブロック図である。図7に示す自己位置推定システム91は、移動体の軌跡のみを求める場合等、取得された映像データが即時に処理されなくてもよい場合に使用される。
図7に示すように、自己位置推定装置900は、カメラ200の代わりに記録媒体210と通信可能に接続されている。図7に示す例では、自己位置推定装置900に記録媒体210に保存されている映像データがカメラ200で撮影された映像データの代わりに送信される。
図6および図7に示すように、カメラ200で撮影された映像データ、または記録媒体210に保存されている映像データが自己位置推定装置900に送信され、信号処理部190で処理される。
次に、信号処理部190の構成を図8を参照して説明する。図8は、一般的な信号処理部の構成例を示すブロック図である。図8に示す信号処理部190は、画像取得部191と、特徴点追跡部193と、位置・姿勢推定部194と、地図生成部195と、最小化部196とを有する。
自己位置推定装置900に送信された映像データは、信号処理部190の画像取得部191に入力される。画像取得部191に入力された映像データは、全て特徴点追跡部193に入力される。
次いで、特徴点追跡部193は、入力された映像データに対して、特徴点の移動量を取得する処理を行う。次いで、位置・姿勢推定部194は、取得された特徴点の移動量を用いてカメラ位置およびカメラ姿勢を推定する。
次いで、地図生成部195は、特徴点の三次元位置を推定し、環境の地図を局所的に生成する。次いで、最小化部196は、画像全体が用いられた再投影誤差を最小にすることによって、局所的に生成された環境の地図と全体像との整合をとる。最小化部196が整合をとることによって、映像データに基づいた自己位置が推定される。
地図生成部195は局所的に環境の地図を生成するため、生成された環境の地図が全体像にそのまま適用されると歪みが生じる場合がある。最小化部196は、生成される環境の地図が俯瞰されても歪みが生じないように全体像との整合をとっている。
特許第5629390号公報 特許第5881743号公報 特表2015−508163号公報 特開2010−152787号公報 特開2016−157197号公報 特開2017−021427号公報
G.Klein and D.Murray, "Parallel Tracking and Mapping for Small AR Workspaces," Proc.6th IEEE and ACM International Symposium on Mixed and Augmented Reality (ISMAR’07), 2007.
特許文献1に記載されている可動式ロボットシステムは、取得された画像を基に、過去に計測された情報を参照して危険を予測する。また、特許文献2に記載されている自己位置再推定方法は、取得された画像を基に、過去に計測された情報を参照して推定の失敗から復帰する。また、特許文献3に記載されているセンサ位置推定方法は、取得された画像を基に、過去に計測された情報を参照して自己位置推定評価等を行う。
すなわち、上記の各自己位置推定技術では、参照される特徴点の種類やパターンが膨大であり、参照処理に多くの時間を要する。さらに、上記の各自己位置推定技術では、参照に適した特徴点の抽出処理にも多くのコストを要する。従って、上記の各自己位置推定技術が用いられて即時に自己位置が推定される場合、参照処理が短時間で実行されないという問題がある。
特許文献4〜特許文献6には、参照される特徴点を限定する技術が記載されている。特許文献4には、所定の環境内を自律移動しながら計測した計測点の計測値に基づいて現在位置と計測点の位置を推定し、環境の地図を生成する処理をコンピュータに実行させる環境地図生成プログラムが記載されている。特許文献4に記載されている環境地図生成プログラムは、コンピュータに、運動計測点であると判定された計測点に対応する位置情報を記憶手段から削除させる。
また、特許文献5には、自己位置の推定に用いる初期の環境の地図を生成して精度良く自己位置を推定できる自己位置推定装置が記載されている。特許文献5に記載されている自己位置推定装置は、画像入力部から入力された時系列画像から物体の特徴点を抽出して、画像入力部から特徴点までの距離を算出する距離算出部と、特徴点が移動物体であると判定した場合、特徴点に対応する物体を時系列画像から除去する移動物体除去部とを備える。
また、特許文献6には、自己位置推定精度を向上させる自己位置推定装置が記載されている。特許文献6に記載されている自己位置推定装置は、画像取得手段により取得された画像から実特徴点を抽出する特徴点抽出手段と、特徴点抽出手段により抽出された実特徴点の中から動的物体の動的特徴点を除去する特徴点除去手段とを備える。
上記のように、参照および抽出される特徴点を限定する技術は、既に提供されている。しかし、自己位置推定がより高速に実行されるためには、推定に使用される映像データ自体の量を減らすことが効果的であると考えられる。
[発明の目的]
そこで、本発明は、上述した課題を解決する、より高速に自己位置を推定できる自己位置推定方法、自己位置推定装置および自己位置推定プログラムを提供することを目的とする。
本発明による自己位置推定方法は、撮像装置が搭載された自己位置推定装置において実行される自己位置推定方法であって、撮像装置から取得された動画像から自己位置推定装置の自己位置の推定に利用される動画像中の領域である特徴点が撮影された画像である特徴点画像の候補を所定の方法で抽出し、抽出された特徴点画像の候補を用いて自己位置を推定することを特徴とする。
本発明による自己位置推定装置は、撮像装置が搭載された自己位置推定装置であって、撮像装置から取得された動画像から自己位置推定装置の自己位置の推定に利用される動画像中の領域である特徴点が撮影された画像である特徴点画像の候補を所定の方法で抽出する抽出部と、抽出された特徴点画像の候補を用いて自己位置を推定する推定部とを備えることを特徴とする。
本発明による自己位置推定プログラムは、撮像装置が搭載されたコンピュータにおいて実行される自己位置推定プログラムであって、コンピュータに、撮像装置から取得された動画像からコンピュータの自己位置の推定に利用される動画像中の領域である特徴点が撮影された画像である特徴点画像の候補を所定の方法で抽出する抽出処理、および抽出された特徴点画像の候補を用いて自己位置を推定する推定処理を実行させることを特徴とする。
本発明によれば、より高速に自己位置を推定できる。
本発明による自己位置推定システムの第1の実施形態の構成例を示すブロック図である。 本発明による自己位置推定システムの第1の実施形態の他の構成例を示すブロック図である。 第1の実施形態の信号処理部110の構成例を示すブロック図である。 第1の実施形態の自己位置推定装置100による自己位置推定処理の動作を示すフローチャートである。 本発明による自己位置推定装置の概要を示すブロック図である。 一般的な自己位置推定システムの構成例を示すブロック図である。 一般的な自己位置推定システムの他の構成例を示すブロック図である。 一般的な信号処理部の構成例を示すブロック図である。
[第1の実施の形態]
[構造の説明]
以下、本発明の実施形態を、図面を参照して説明する。図1は、本発明による自己位置推定システムの第1の実施形態の構成例を示すブロック図である。また、図2は、本発明による自己位置推定システムの第1の実施形態の他の構成例を示すブロック図である。
本実施形態の自己位置推定システムは、参照されるキーフレームの選択に使用される映像選択方法を提供する。本実施形態の自己位置推定システムは、参照に適した特徴点が撮影された画像をカメラで撮影された映像データから効率的に抽出し、抽出された画像中の特徴点同士を比較する。参照に適した特徴点が撮影された画像を抽出することによって、本実施形態の自己位置推定システムは、自己位置推定の高速化を実現する。
図1に示すように、本実施形態の自己位置推定システム10には、自己位置推定装置100と、カメラ200とが含まれている。本実施形態の自己位置推定システム10の構成は、自己位置推定装置100を除いて図6に示す自己位置推定システム90の構成と同様である。
また、図2に示すように、本実施形態の自己位置推定システム11には、自己位置推定装置100と、記録媒体210とが含まれている。本実施形態の自己位置推定システム11の構成は、自己位置推定装置100を除いて図7に示す自己位置推定システム91の構成と同様である。
図1および図2に示す自己位置推定装置100は、図6および図7に示す自己位置推定装置900と異なり、信号処理部190の代わりに信号処理部110を含む。以下、信号処理部110の構成を図3を参照して説明する。
図3は、第1の実施形態の信号処理部110の構成例を示すブロック図である。図3に示す信号処理部110は、画像取得部111と、フィルタリング部112と、特徴点追跡部113と、位置・姿勢推定部114と、地図生成部115と、最小化部116と、学習部117とを有する。
本実施形態の信号処理部110の構成は、フィルタリング部112および学習部117を除いて図8に示す信号処理部190の構成と同様である。また、画像取得部111、特徴点追跡部113、位置・姿勢推定部114、地図生成部115、および最小化部116がそれぞれ有する機能は、画像取得部191、特徴点追跡部193、位置・姿勢推定部194、地図生成部195、および最小化部196がそれぞれ有する機能と同様である。
フィルタリング部112は、画像取得部111から入力された映像データから、特徴点として使用される可能性がある領域が撮影された画像を抽出する機能を有する。以下、特徴点が撮影された画像を特徴点画像という。すなわち、フィルタリング部112は、特徴点画像の候補を抽出する。
フィルタリング部112が抽出した特徴点画像の候補は、自己位置推定処理に用いられる。しかし、本実施形態ではフィルタリング部112が抽出した画像の候補が毎回特徴点画像として採用されるとは限られない。抽出される画像の候補と参照点(特徴点)との間に所定の閾値以上の差が生じた場合、参照点として適切な領域が新たな参照点として登録される。
本実施形態の信号処理部110では、取得される画像が毎回、特徴点画像に採用された画像と、特徴点画像に採用されなかった画像とに振り分けられる。本実施形態の最小化部116は、上記のように振り分けられた二種類の画像を学習部117に入力する。
学習部117は、特徴点画像に採用された画像の特徴量、および特徴点画像に採用されなかった画像の特徴量を、学習処理を実行することによってそれぞれ取得する機能を有する。
学習部117は、学習処理で得られた特徴量を、フィルタリング部112に入力する。フィルタリング部112は、入力された特徴量を用いて特徴点画像の候補を抽出する。すなわち、本実施形態の信号処理部110では、特徴点画像の候補として抽出される画像が学習処理で選択される。
学習部117は、特徴点画像の特徴量を、自己位置推定処理で特徴点画像に用いられた画像を基に学習する。また、学習部117は、特徴点画像に適さない画像の特徴量を、自己位置推定処理で特徴点画像に用いられなかった画像を基に学習する。フィルタリング部112は、学習された特徴量を用いて、特徴点画像に適さない画像を自己位置推定処理における参照画像から排除してもよい。
なお、フィルタリング部112には、参照点(特徴点)として有用な領域が撮影された画像の特徴のモデルが選択基準として予め入力されてもよい。フィルタリング部112は、入力された選択基準を用いて特徴点画像の候補を抽出してもよい。
以上のように、本実施形態の自己位置推定装置100は、選択基準の設定等により自己位置の推定に要する適切な特徴点が撮影された画像を予めパターン化する。
一般的な自己位置推定技術では取得される画像が全て参照されるため、抽出される特徴点の種類やパターンが膨大になる。すなわち、参照処理の実行に多くの時間を要するため、高速に自己位置が推定される場合に参照処理が短時間で終了しないという問題がある。
適切な特徴点が撮影された画像のパターンが予め把握されると、取得される全ての画像が参照されるために抽出される特徴点の種類やパターンが膨大になる場合と比べて参照される画像が限定されるため、計算時間および計算コストが低減される。すなわち、本実施形態の自己位置推定装置100が使用されると、自己位置推定に掛かる計算時間が短縮されるため、より高速に自己位置推定や環境マッピングが実行される。
また、本実施形態の自己位置推定装置100は、適切な参照点(特徴点)が撮影された画像を選択するため、参照画像の不安定さを排除できる。すなわち、本実施形態の自己位置推定装置100が使用されると、自己位置の推定精度がより高められる。
[動作の説明]
以下、本実施形態の自己位置推定装置100が自己位置を推定する動作を図4を参照して説明する。図4は、第1の実施形態の自己位置推定装置100による自己位置推定処理の動作を示すフローチャートである。
最初に、自己位置推定装置100に送信された映像データが、信号処理部110の画像取得部111に入力される(ステップS101)。画像取得部111は、入力された映像データをフィルタリング部112に入力する。
次いで、フィルタリング部112は、入力された映像データから、特徴点画像の候補を抽出する(ステップS102)。フィルタリング部112は、抽出された特徴点画像の候補を特徴点追跡部113に入力する。
次いで、特徴点追跡部113は、入力された特徴点画像の候補を基に特徴点の移動量を取得する(ステップS103)。特徴点追跡部113は、取得された特徴点の移動量を位置・姿勢推定部114に入力する。
なお、入力された特徴点画像の候補に撮影された特徴点が適切でないと判断した場合、特徴点追跡部113は、別の画像を基に特徴点の移動量を取得してもよい。
次いで、位置・姿勢推定部114は、入力された特徴点の移動量を用いてカメラ位置およびカメラ姿勢を推定する(ステップS104)。位置・姿勢推定部114は、推定されたカメラ位置およびカメラ姿勢を地図生成部115に入力する。
次いで、地図生成部115は、入力されたカメラ位置およびカメラ姿勢を基に特徴点の三次元位置を推定し、環境の地図を局所的に生成する(ステップS105)。地図生成部115は、生成された環境の地図を最小化部116に入力する。
次いで、最小化部116は、画像全体が用いられた再投影誤差を最小にすることによって、局所的に生成された環境の地図と全体像との整合をとる(ステップS106)。また、最小化部116は、特徴点画像として採用された画像と、特徴点画像として採用されなかった画像とを学習部117に入力する。
次いで、学習部117は、入力された画像に基づいて学習処理を行うことによって、特徴点画像として採用された画像の特徴量、および特徴点画像として採用されなかった画像の特徴量をそれぞれ取得する(ステップS107)。
次いで、学習部117は、取得された特徴量をフィルタリング部112に入力する(ステップS108)。入力した後、自己位置推定装置100は、自己位置推定処理を終了する。なお、本実施形態の自己位置推定装置100は、図4に示す自己位置推定処理を繰り返し実行してもよい。
[効果の説明]
本実施形態の自己位置推定装置100は、カメラで撮影された自己位置推定に利用される映像から、特徴点として使用される可能性がある領域が撮影された画像を選択し、選択された画像を抽出する。
自己位置推定装置100の学習部117は、自己位置推定に利用される映像(環境)を基に特徴点または線特徴として使用される可能性がある領域が撮影された画像の特徴量を学習処理で取得する。フィルタリング部112は、取得された画像の特徴量を用いて、自然の特徴が撮影された映像からも安定した特徴点または線特徴を選択し、選択された特徴点または線特徴を参照点にすることができる。
取得される画像が全て使用されるために参照される特徴点の種類やパターンが膨大になる一般的な自己位置推定装置に対して、本実施形態の自己位置推定装置100は、映像内容から参照点として適切な特徴点を選択し、選択された特徴点を抽出できる。
本実施形態の自己位置推定装置100が使用されると、映像内の全ての特徴点が検討されずに済む。すなわち、特徴点画像として適切な画像のみが着目されるため、自己位置推定に掛かる計算時間および計算コストが低減される。
例えば、インフラストラクチャ点検やプラント点検等において自己位置が複数の画像に渡って類似性の高い構造物を基に推定される場合、参照画像として適切な画像の特徴と、参照画像として不適切な画像の特徴は、明確に分離される。
例えば、参照画像として適切な画像の特徴は、高速道路の橋脚等の不変な参照対象が撮影されていることである。また、例えば、参照画像として不適切な画像の特徴は、路上に駐車されている車等の移動する可能性がある参照対象が撮影されていることである。
本実施形態のフィルタリング部112は、不変な参照対象が撮影されている、参照画像として利用されやすい映像情報を選択して利用する。すなわち、本実施形態の自己位置推定装置100は、画像中の特徴点の抽出に掛かる計算コストを低減できる。本実施形態の自己位置推定装置100が使用されると、自己位置推定に掛かる計算時間が短縮されるため、より高速に自己位置推定や環境マッピングが実行される。
また、本実施形態の自己位置推定装置100は、適切な参照点が撮影された画像を選択するため、参照画像の不安定さを排除できる。すなわち、本実施形態の自己位置推定装置100が使用されると、自己位置の推定精度がより高められる。
本実施形態の自己位置推定装置100は、一般的な自己位置推定方式に比べて、自己位置推定に掛かる計算時間を短縮できるため、より高速に自己位置を推定できる。また、本実施形態の自己位置推定装置100は、適切な参照点が撮影された画像を選択するため、参照画像の不安定さを排除できる。すなわち、自己位置推定装置100は、自己位置の推定精度をより高めることもできる。
なお、本実施形態の自己位置推定装置100は、例えば、非一時的な記憶媒体に格納されているプログラムに従って処理を実行するCPU(Central Processing Unit)によって実現されてもよい。すなわち、画像取得部111、フィルタリング部112、特徴点追跡部113、位置・姿勢推定部114、地図生成部115、最小化部116、および学習部117は、例えば、プログラム制御に従って処理を実行するCPU によって実現されてもよい。
また、本実施形態の自己位置推定装置100における各部は、ハードウェア回路によって実現されてもよい。一例として、画像取得部111、フィルタリング部112、特徴点追跡部113、位置・姿勢推定部114、地図生成部115、最小化部116、および学習部117が、それぞれLSI(Large Scale Integration)で実現される。また、それらが1つのLSI で実現されていてもよい。
次に、本発明の概要を説明する。図5は、本発明による自己位置推定装置の概要を示すブロック図である。本発明による自己位置推定装置20は、撮像装置21(例えば、カメラ200)が搭載された自己位置推定装置であって、撮像装置21から取得された動画像から自己位置推定装置20の自己位置の推定に利用される動画像中の領域である特徴点が撮影された画像である特徴点画像の候補を所定の方法で抽出する抽出部22(例えば、フィルタリング部112)と、抽出された特徴点画像の候補を用いて自己位置を推定する推定部23(例えば、特徴点追跡部113、位置・姿勢推定部114、地図生成部115、最小化部116)とを備える。
そのような構成により、自己位置推定装置は、より高速に自己位置を推定できる。
また、自己位置推定装置20は、学習処理を実行して特徴点画像の候補の抽出に使用される画像の情報を取得する取得部(例えば、学習部117)を備え、抽出部22は、取得された画像の情報を使用して特徴点画像の候補を抽出してもよい。
そのような構成により、自己位置推定装置は、学習処理で学習された画像を特徴点画像の候補として抽出できる。
また、取得部は、特徴点画像の候補のうち特徴点画像として自己位置の推定に用いられた画像に基づいて学習処理を実行してもよい。
そのような構成により、自己位置推定装置は、特徴点画像の特徴量を学習できる。
また、取得部は、特徴点画像の候補のうち特徴点画像として自己位置の推定に用いられた画像以外の画像に基づいて学習処理を実行し、抽出部22は、学習処理で取得された画像の情報が示す領域を撮像装置21から取得された動画像から排除した上で特徴点画像の候補を抽出してもよい。
そのような構成により、自己位置推定装置は、より高速に自己位置を推定できる。
また、抽出部22は、特徴点として使用可能な領域のモデルを用いて特徴点画像の候補を抽出してもよい。
そのような構成により、自己位置推定装置は、利用者が予め指定した内容が反映された特徴点画像の候補を抽出できる。
また、自己位置推定装置20は、撮像装置21から取得された動画像を記憶する記憶部(例えば、記録媒体210)を備え、抽出部22は、記憶部に記憶されている動画像から特徴点画像の候補を抽出してもよい。
そのような構成により、自己位置推定装置は、撮影されてから所定の時間が経過した動画像を基に過去の自己位置を推定できる。
以上、実施形態および実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
産業上の利用の可能性
本発明は、無人飛行ロボットに代表されるロボットが自ら空間を把握し、危険を即座に察知および回避する用途に好適に適用される。本発明は、人が立ち入ることが困難な場所または危険な場所、および人手で対処し切れない広大な範囲において、ロボットが自律してタスクを実行する際に好適に適用される。
特に、本発明は、経年劣化するインフラストラクチャやプラントのロボットによる自律点検等に産業上有効に適用される。本発明が適用されると、自律点検に掛かる人手、コスト、および時間が削減される可能性がある。
10、11、90、91 自己位置推定システム
20、100、900 自己位置推定装置
21 撮像装置
22 抽出部
23 推定部
110、190 信号処理部
111、191 画像取得部
112 フィルタリング部
113、193 特徴点追跡部
114、194 位置・姿勢推定部
115、195 地図生成部
116、196 最小化部
117 学習部
200 カメラ
210 記録媒体

Claims (10)

  1. 撮像装置が搭載された自己位置推定装置において実行される自己位置推定方法であって、
    前記撮像装置から取得された動画像から前記自己位置推定装置の自己位置の推定に利用される前記動画像中の領域である特徴点が撮影された画像である特徴点画像の候補を所定の方法で抽出し、
    抽出された特徴点画像の候補を用いて前記自己位置を推定する
    ことを特徴とする自己位置推定方法。
  2. 学習処理を実行して特徴点画像の候補の抽出に使用される画像の情報を取得し、
    取得された画像の情報を使用して特徴点画像の候補を抽出する
    請求項1記載の自己位置推定方法。
  3. 特徴点画像の候補のうち特徴点画像として自己位置の推定に用いられた画像に基づいて学習処理を実行する
    請求項2記載の自己位置推定方法。
  4. 特徴点画像の候補のうち特徴点画像として自己位置の推定に用いられた画像以外の画像に基づいて学習処理を実行し、
    前記学習処理で取得された画像の情報が示す領域を撮像装置から取得された動画像から排除した上で特徴点画像の候補を抽出する
    請求項2または請求項3記載の自己位置推定方法。
  5. 特徴点として使用可能な領域のモデルを用いて特徴点画像の候補を抽出する
    請求項1記載の自己位置推定方法。
  6. 撮像装置から取得された動画像を記憶し、
    記憶されている動画像から特徴点画像の候補を抽出する
    請求項1から請求項5のうちのいずれか1項に記載の自己位置推定方法。
  7. 撮像装置が搭載された自己位置推定装置であって、
    前記撮像装置から取得された動画像から前記自己位置推定装置の自己位置の推定に利用される前記動画像中の領域である特徴点が撮影された画像である特徴点画像の候補を所定の方法で抽出する抽出部と、
    抽出された特徴点画像の候補を用いて前記自己位置を推定する推定部とを備える
    ことを特徴とする自己位置推定装置。
  8. 学習処理を実行して特徴点画像の候補の抽出に使用される画像の情報を取得する取得部を備え、
    抽出部は、取得された画像の情報を使用して特徴点画像の候補を抽出する
    請求項7記載の自己位置推定装置。
  9. 撮像装置が搭載されたコンピュータにおいて実行される自己位置推定プログラムであって、
    前記コンピュータに、
    前記撮像装置から取得された動画像から前記コンピュータの自己位置の推定に利用される前記動画像中の領域である特徴点が撮影された画像である特徴点画像の候補を所定の方法で抽出する抽出処理、および
    抽出された特徴点画像の候補を用いて前記自己位置を推定する推定処理
    を実行させるための自己位置推定プログラム。
  10. コンピュータに、
    学習処理を実行して特徴点画像の候補の抽出に使用される画像の情報を取得する取得処理を実行させ、
    抽出処理で、取得された画像の情報を使用して特徴点画像の候補を抽出させる
    請求項9記載の自己位置推定プログラム。
JP2019524792A 2017-06-22 2017-06-22 自己位置推定方法、自己位置推定装置および自己位置推定プログラム Pending JPWO2018235219A1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/022968 WO2018235219A1 (ja) 2017-06-22 2017-06-22 自己位置推定方法、自己位置推定装置および自己位置推定プログラム

Publications (1)

Publication Number Publication Date
JPWO2018235219A1 true JPWO2018235219A1 (ja) 2020-03-19

Family

ID=64737007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019524792A Pending JPWO2018235219A1 (ja) 2017-06-22 2017-06-22 自己位置推定方法、自己位置推定装置および自己位置推定プログラム

Country Status (2)

Country Link
JP (1) JPWO2018235219A1 (ja)
WO (1) WO2018235219A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2019082670A1 (ja) * 2017-10-25 2020-11-12 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び、移動体
WO2020251151A1 (ko) 2019-06-14 2020-12-17 고려대학교 산학협력단 3차원 가상 공간 모델을 이용한 사용자 포즈 추정 방법 및 장치
KR102387797B1 (ko) * 2019-06-14 2022-04-19 고려대학교 산학협력단 3차원 가상 공간 모델을 이용한 사용자 포즈 추정 방법 및 장치
JP7322670B2 (ja) * 2019-11-13 2023-08-08 オムロン株式会社 自己位置推定モデル学習方法、自己位置推定モデル学習装置、自己位置推定モデル学習プログラム、自己位置推定方法、自己位置推定装置、自己位置推定プログラム、及びロボット
WO2022185482A1 (ja) * 2021-03-04 2022-09-09 株式会社ソシオネクスト 情報処理装置、情報処理方法、及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010157093A (ja) * 2008-12-26 2010-07-15 Toyota Central R&D Labs Inc 運動推定装置及びプログラム
JP2012138013A (ja) * 2010-12-27 2012-07-19 Canon Inc 追尾装置およびその制御方法
JP2012238119A (ja) * 2011-05-10 2012-12-06 Canon Inc 物体認識装置、物体認識装置の制御方法、およびプログラム
JP2015001791A (ja) * 2013-06-14 2015-01-05 株式会社ジオ技術研究所 画像解析装置
JP2016502218A (ja) * 2013-01-04 2016-01-21 クアルコム,インコーポレイテッド モバイルデバイスベースのテキスト検出および追跡

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010157093A (ja) * 2008-12-26 2010-07-15 Toyota Central R&D Labs Inc 運動推定装置及びプログラム
JP2012138013A (ja) * 2010-12-27 2012-07-19 Canon Inc 追尾装置およびその制御方法
JP2012238119A (ja) * 2011-05-10 2012-12-06 Canon Inc 物体認識装置、物体認識装置の制御方法、およびプログラム
JP2016502218A (ja) * 2013-01-04 2016-01-21 クアルコム,インコーポレイテッド モバイルデバイスベースのテキスト検出および追跡
JP2015001791A (ja) * 2013-06-14 2015-01-05 株式会社ジオ技術研究所 画像解析装置

Also Published As

Publication number Publication date
WO2018235219A1 (ja) 2018-12-27

Similar Documents

Publication Publication Date Title
CN109426782B (zh) 对象检测方法和用于对象检测的神经网络***
JP7326720B2 (ja) 移動***置推定システムおよび移動***置推定方法
JPWO2018235219A1 (ja) 自己位置推定方法、自己位置推定装置および自己位置推定プログラム
Li et al. DeepI2P: Image-to-point cloud registration via deep classification
Walha et al. Video stabilization with moving object detecting and tracking for aerial video surveillance
KR101926563B1 (ko) 카메라 추적을 위한 방법 및 장치
US20200134377A1 (en) Logo detection
US8885923B2 (en) Feature point selecting system, feature point selecting method and feature point selecting program
JP6044293B2 (ja) 3次元物体認識装置および3次元物体認識方法
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
JP6361775B2 (ja) 対象姿勢特定の方法および装置
WO2021256103A1 (ja) 測位装置、推定方法、及び非一時的なコンピュータ可読媒体
US11580784B2 (en) Model learning device, model learning method, and recording medium
KR20190099537A (ko) 동작 학습 장치, 기능 판별 장치 및 기능 판별 시스템
JP4496992B2 (ja) 動物体アップフレーム検出方法及びプログラム及びプログラムを格納した記憶媒体及び動物体アップショット検出方法及び動物体アップフレームあるいはショット検出方法及びプログラム及びプログラムを格納した記憶媒体
CN112597943A (zh) 行人重识别的特征提取方法及装置、电子设备、存储介质
Ham et al. Hand waving away scale
CN116994210B (zh) 隧道施工人员识别方法、装置及***
US20230100238A1 (en) Methods and systems for determining the 3d-locations, the local reference frames and the grasping patterns of grasping points of an object
US20220291009A1 (en) Information processing apparatus, information processing method, and storage medium
US20220198802A1 (en) Computer-implemental process monitoring method, device, system and recording medium
Russo et al. Blurring prediction in monocular slam
CN111476063B (zh) 目标跟踪方法、装置、存储介质和电子设备
JP2010122840A (ja) 物体領域検出方法、物体領域検出装置、物体領域検出プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP6899986B1 (ja) オブジェクト領域特定装置、オブジェクト領域特定方法、及びオブジェクト領域特定プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210413