JP7131994B2 - 自己位置推定装置、自己位置推定方法、自己位置推定プログラム、学習装置、学習方法及び学習プログラム - Google Patents
自己位置推定装置、自己位置推定方法、自己位置推定プログラム、学習装置、学習方法及び学習プログラム Download PDFInfo
- Publication number
- JP7131994B2 JP7131994B2 JP2018127460A JP2018127460A JP7131994B2 JP 7131994 B2 JP7131994 B2 JP 7131994B2 JP 2018127460 A JP2018127460 A JP 2018127460A JP 2018127460 A JP2018127460 A JP 2018127460A JP 7131994 B2 JP7131994 B2 JP 7131994B2
- Authority
- JP
- Japan
- Prior art keywords
- self
- input image
- imaging device
- reliability
- correspondence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Description
第1実施形態の自己位置推定装置1は、カメラなどの撮像装置により撮影された画像から、当該画像が撮像された際の撮像装置の位置及び姿勢の少なくとも一方を示す自己位置を推定する。自己位置推定装置1は、例えば自動車及び移動ロボット等の移動体に使用される。
第1実施形態の自己位置推定装置1は、撮像位置が既知である画像のデータベースから、入力画像と類似している参照画像を検索し、検索された参照画像と入力画像との対応を求め、求められた対応の幾何学的な関係から、自己位置とその信頼度を推定する。第1実施形態の自己位置推定装置1により実施される自己位置推定処理は、連続な演算の組み合わせによって実現される。連続な演算とは、演算結果に影響するパラメータ(入力画像、参照画像、撮像条件、及び、演算処理の変数等)を連続的に変動させたときに、演算結果の出力が連続的に変動することを意味する。第1実施形態の自己位置推定装置1によれば、パラメータを少しずつ変動させていくことにより、出力される自己位置及び信頼度を所望の値に近づけることが可能となる。
図1は第1実施形態の自己位置推定装置1の機能構成の例を示す図である。第1実施形態の自己位置推定装置1は、入力画像取得部11と、参照データ取得部12と、類似度算出部13と、対応算出部14と、自己位置算出部15と、信頼度算出部16とを備える。
図2は第1実施形態の自己位置推定処理の例を示すフローチャートである。なお、各ステップの詳細な説明については後述する。はじめに、入力画像取得部11が、移動体に搭載された第1の撮像装置から、入力画像を取得する(S101)。
ステップS101については、上述の説明と同じである。
参照データ取得部12は、参照画像と、当該参照画像を撮像した第2の撮像装置の位置及び姿勢とを関連付けて保持するデータベースから、上述の参照データを取得する。なお、第2の撮像装置の位置及び姿勢は、例えば全ての参照画像に共通な基準座標系のもとで表現される。具体的には、基準座標系の選び方として、緯度及び経度で表されるグローバルな座標系を使用してもよいし、特定の参照画像の撮像位置を原点とした座標系を使用してもよい。
図4及び図5を参照してステップS103(類似度の算出処理)の詳細について説明する。
画像の特徴ベクトルは、第1のパラメータにより動作を連続的に変更できる特徴抽出機を画像に適用することにより算出される。例えば、図5では、画像を入力とするニューラルネットワーク105を特徴抽出機として用いている。このニューラルネットワーク105のパラメータとしては、画像検索及び物体認識などのタスクに関する学習であらかじめ求められたものを用いてもよいし、オートエンコーダなどによってあらかじめ学習されたものを用いてもよい。ニューラルネットワーク105は連続な関数の組み合わせにより実現されるため、本実施形態の特徴抽出機に使用することができる。
類似度算出部13は、さらに入力特徴ベクトルと、参照特徴ベクトルとを連続な演算によって比較して、類似度を算出する。例えば、図5では、比較の基準としてベクトル間のユークリッド距離が用いられる。なお、比較の基準として用いられる連続な演算として、マハラノビス距離、ベクトルの内積、及び、ベクトルのなす角などを算出する演算が用いられてもよい。
対応算出部14は、連続な演算により、例えば図6に示すように、入力画像103と参照画像104の対応106を算出する。
自己位置算出部15は、入力画像103と参照画像104との対応関係から、第1の自己位置を算出する。第1の自己位置の算出方法の一例として、再投影誤差を最小化する方法が利用できる。
信頼度算出部16は、入力画像103及び参照画像104の類似度と、入力画像103及び参照画像104の画素間の対応106とから自己位置算出部15により算出された第1の自己位置108の信頼度を評価する。
次に第2実施形態について説明する。第2実施形態の説明では、第1実施形態と同様の説明については省略する。
図9は第2実施形態の自己位置推定装置1-2の機能構成の例を示す図である。第2実施形態の自己位置推定装置1-2は、自己位置推定の信頼度を最大化するために、入力画像103の撮像条件を決定する機能を備える点が、第1実施形態の自己位置推定装置1と異なる。ここで、撮像条件とは、焦点距離及びズームなどの光学系に関する条件、並びに、撮像装置の移動体に対する相対的な位置及び姿勢を含む。
次に第3実施形態について説明する。第3実施形態の説明では、第1又は第2実施形態と同様の説明については省略する。
図11は第3実施形態の自己位置推定装置1-3の機能構成の例を示す図である。第3実施形態の自己位置推定装置1-3は、入力画像103に対する自己位置推定の信頼度を最大化するために、参照画像104の撮像条件を決定する機能を備える点が、第1実施形態の自己位置推定装置1と異なる。ここで、撮像条件とは、焦点距離及びズームなどの光学系に関する条件、並びに、撮像装置の移動体に対する相対的な位置及び姿勢を含む。
次に第4実施形態について説明する。第4実施形態では、類似度算出部13のパラメータ(第1のパラメータ)を学習する学習装置2について説明する。学習装置2により学習されたパラメータを使用することにより、類似度算出部13のパラメータを自己位置推定の対象となるシーンに対して適応させることができる。
図13は第4実施形態の学習装置2の機能構成の例を示す図である。第4実施形態の学習装置2は、推定データ取得部41と、教師データ取得部42と、第1のパラメータ更新部43とを備える。
次に第5実施形態について説明する。第5実施形態では、対応算出部14のパラメータ(第2のパラメータ)を学習する学習装置2-2について説明する。学習装置2-2により学習されたパラメータを使用することにより、対応算出部14のパラメータを自己位置推定の対象となるシーンに対して適応させることができる。
図15は第5実施形態の学習装置2-2の機能構成の例を示す図である。第5実施形態の学習装置2-2は、推定データ取得部41と、教師データ取得部42と、第2のパラメータ更新部44とを備える。推定データ取得部41、及び、教師データ取得部42の動作は第4実施形態と同一であるため、説明を省略する。
図17は第1乃至第3実施形態の自己位置推定装置1(1-2,1-3)、並びに、第4及び第5実施形態の学習装置2(2-2)のハードウェア構成の例を示す図である。以下では、第1実施形態の自己位置推定装置1の場合を例にして説明する。
2 学習装置
11 入力画像取得部
12 参照データ取得部
13 類似度算出部
14 対応算出部
15 自己位置算出部
16 信頼度算出部
21 教師データ取得部
22 第1の決定部
23 第2の決定部
41 推定データ取得部
42 教師データ取得部
43 第1のパラメータ更新部
44 第2のパラメータ更新部
101a,b カメラ
102 データベース
105 ニューラルネットワーク
107 ニューラルネットワーク
200a,b 移動体
201a,b センサ
301 制御装置
302 主記憶装置
303 補助記憶装置
304 表示装置
305 入力装置
306 通信装置
310 バス
Claims (23)
- 移動体に取り付けられた第1の撮像装置によって撮像された画像を入力画像として取得する入力画像取得部と、
第2の撮像装置によって撮像された参照画像と、前記参照画像が撮像された際の第2の撮像装置の位置及び姿勢とが関連付けられた参照データを取得する参照データ取得部と、
前記入力画像と前記参照画像との類似度を、第1のパラメータの連続的な変動に応じて、前記類似度を連続的に変動可能な演算により算出する類似度算出部と、
前記入力画像の画素と前記参照画像の画素との対応を、第2のパラメータの連続的な変動に応じて、前記対応を連続的に変動可能な演算により算出する対応算出部と、
前記参照データを使用して、前記入力画像が撮像された際の前記第1の撮像装置の位置及び姿勢の少なくとも一方を示す第1の自己位置を、前記対応の連続的な変動に応じて、前記第1の自己位置を連続的に変動可能な演算により算出する自己位置算出部と、
前記第1の自己位置の信頼度を、前記第1の自己位置、前記対応及び前記類似度の連続的な変動に応じて、前記信頼度を連続的に変動可能な演算により算出する信頼度算出部と、
を備える自己位置推定装置。 - 前記第1の自己位置の信頼度がより高くなるように、前記第1の撮像装置の第1の撮像条件を決定する第1の決定部、
を更に備える請求項1に記載の自己位置推定装置。 - 前記入力画像を撮像した際の前記第1の撮像装置の位置及び姿勢の少なくとも一方を示す第2の自己位置を、教師データとして取得する教師データ取得部を更に備え、
前記第1の決定部は、前記第1の自己位置が前記第2の自己位置に近づくように前記第1の撮像条件を決定する、
請求項2に記載の自己位置推定装置。 - 前記第1の撮像条件は、前記第1の撮像装置の焦点距離、前記第1の撮像装置のフォーカス、前記第1の撮像装置のズーム、前記第1の撮像装置の位置、及び、前記第1の撮像装置の姿勢の少なくともいずれか1つを含む、
請求項2又は3に記載の自己位置推定装置。 - 前記第1の自己位置の信頼度がより高くなるように、前記第2の撮像装置の第2の撮像条件を決定する第2の決定部、
を更に備える請求項1乃至4のいずれか1項に記載の自己位置推定装置。 - 前記入力画像を撮像した際の前記第1の撮像装置の位置及び姿勢の少なくとも一方を示す第2の自己位置を、教師データとして取得する教師データ取得部を更に備え、
前記第2の決定部は、前記第1の自己位置が前記第2の自己位置に近づくように前記第2の撮像条件を決定する、
請求項5に記載の自己位置推定装置。 - 前記第2の撮像条件は、前記第2の撮像装置の焦点距離、前記第2の撮像装置のフォーカス、前記第2の撮像装置のズーム、前記第2の撮像装置の位置、及び、前記第2の撮像装置の姿勢の少なくともいずれか1つを含む、
請求項5又は6に記載の自己位置推定装置。 - 前記自己位置算出部は、前記参照データから特定される参照画像の画素に対応する空間内の位置、及び、前記入力画像の画素と前記参照画像の画素との対応から、前記入力画像の画素に対応する空間内の位置を算出し、前記空間内の位置から前記第1の自己位置に基づいて対応付けられた前記入力画像の点と、前記空間内の位置の算出に使用された前記参照画像の画素に対応する入力画像の画素との距離を示す画素距離が最小になるように前記第1の自己位置を算出する、
請求項1乃至7のいずれか1項に記載の自己位置推定装置。 - 前記信頼度算出部は、
前記画素距離が近いほど、前記第1の自己位置の信頼度を高く算出する、
請求項8に記載の自己位置推定装置。 - 前記類似度算出部は、前記入力画像から前記入力画像の特徴を示す第1の特徴ベクトルを算出し、前記参照画像から前記参照画像の特徴を示す第2の特徴ベクトルを算出し、前記第1の特徴ベクトルと前記第2の特徴ベクトルとが類似しているほど、前記類似度を高く算出する、
請求項1乃至9のいずれか1項に記載の自己位置推定装置。 - 前記類似度算出部は、前記類似度を第1のニューラルネットワークにより算出し、前記第1のパラメータは前記第1のニューラルネットワークの重み係数を含む、
請求項1乃至10のいずれか1項に記載の自己位置推定装置。 - 前記対応算出部は、前記対応を第2のニューラルネットワークにより算出し、前記第2のパラメータは前記第2のニューラルネットワークの重み係数を含む、
請求項1乃至11のいずれか1項に記載の自己位置推定装置。 - 請求項1に記載の自己位置推定装置のパラメータを学習する学習装置であって、
前記自己位置推定装置から、前記第1の自己位置と前記信頼度とを含む推定データを取得する推定データ取得部と、
前記入力画像を撮像した際の前記第1の撮像装置の位置及び姿勢の少なくとも一方を示す第2の自己位置を、教師データとして取得する教師データ取得部と、
前記第1の自己位置と前記第2の自己位置との差が小さいほど、前記信頼度が高くなるように、前記第1のパラメータを更新する第1のパラメータ更新部と、
を備える学習装置。 - 前記第1のパラメータ更新部は、更に、前記第1の自己位置と前記第2の自己位置との差をより小さくするように、前記第1のパラメータを更新する、
請求項13に記載の学習装置。 - 前記第1の自己位置と前記第2の自己位置との差が小さいほど、前記信頼度が高くなるように、前記第2のパラメータを更新する第2のパラメータ更新部、
を更に備える請求項13又は14に記載の学習装置。 - 前記第2のパラメータ更新部は、更に、前記第1の自己位置と前記第2の自己位置との差を小さくするように、前記第2のパラメータを更新する、
請求項15に記載の学習装置。 - 移動体に取り付けられた第1の撮像装置によって撮像された画像を入力画像として取得するステップと、
第2の撮像装置によって撮像された参照画像と、前記参照画像が撮像された際の第2の撮像装置の位置及び姿勢とが関連付けられた参照データを取得するステップと、
前記入力画像と前記参照画像との類似度を、第1のパラメータの連続的な変動に応じて、前記類似度を連続的に変動可能な演算により算出するステップと、
前記入力画像の画素と前記参照画像の画素との対応を、第2のパラメータの連続的な変動に応じて、前記対応を連続的に変動可能な演算により算出するステップと、
前記参照データを使用して、前記入力画像が撮像された際の前記第1の撮像装置の位置及び姿勢の少なくとも一方を示す第1の自己位置を、前記対応の連続的な変動に応じて、前記第1の自己位置を連続的に変動可能な演算により算出するステップと、
前記第1の自己位置の信頼度を、前記第1の自己位置、前記対応及び前記類似度の連続的な変動に応じて、前記信頼度を連続的に変動可能な演算により算出するステップと、
を含む自己位置推定方法。 - 前記第1の自己位置を連続的に変動可能な演算により算出するステップは、
前記参照データから特定される参照画像の画素に対応する空間内の位置、及び、前記入力画像の画素と前記参照画像の画素との対応から、前記入力画像の画素に対応する空間内の位置を算出するステップと、
前記空間内の位置から前記第1の自己位置に基づいて対応付けられた前記入力画像の点と、前記空間内の位置の算出に使用された前記参照画像の画素に対応する入力画像の画素との距離を示す画素距離が最小になるように前記第1の自己位置を算出するステップと、
を含む請求項17に記載の自己位置推定方法。 - 前記信頼度を連続的に変動可能な演算により算出するステップは、
前記画素距離が近いほど、前記第1の自己位置の信頼度を高く算出するステップ、
を含む請求項18に記載の自己位置推定方法。 - 前記類似度を連続的に変動可能な演算により算出するステップは、
前記入力画像から前記入力画像の特徴を示す第1の特徴ベクトルを算出するステップと、
前記参照画像から前記参照画像の特徴を示す第2の特徴ベクトルを算出するステップと、
前記第1の特徴ベクトルと前記第2の特徴ベクトルとが類似しているほど、前記類似度を高く算出するステップと、
を含む請求項17乃至19のいずれか1項に記載の自己位置推定方法。 - 請求項17乃至20のいずれか1項に記載の自己位置推定方法で使用されるパラメータを学習する学習方法であって、
前記第1の自己位置と前記信頼度とを含む推定データを取得するステップと、
前記入力画像を撮像した際の前記第1の撮像装置の位置及び姿勢の少なくとも一方を示す第2の自己位置を、教師データとして取得するステップと、
前記第1の自己位置と前記第2の自己位置との差が小さいほど、前記信頼度が高くなるように、前記第1のパラメータを更新するステップと、
を含む学習方法。 - コンピュータを、
移動体に取り付けられた第1の撮像装置によって撮像された画像を入力画像として取得する入力画像取得部と、
第2の撮像装置によって撮像された参照画像と、前記参照画像が撮像された際の第2の撮像装置の位置及び姿勢とが関連付けられた参照データを取得する参照データ取得部と、
前記入力画像と前記参照画像との類似度を、第1のパラメータの連続的な変動に応じて、前記類似度を連続的に変動可能な演算により算出する類似度算出部と、
前記入力画像の画素と前記参照画像の画素との対応を、第2のパラメータの連続的な変動に応じて、前記対応を連続的に変動可能な演算により算出する対応算出部と、
前記参照データを使用して、前記入力画像が撮像された際の前記第1の撮像装置の位置及び姿勢の少なくとも一方を示す第1の自己位置を、前記対応の連続的な変動に応じて、前記第1の自己位置を連続的に変動可能な演算により算出する自己位置算出部と、
前記第1の自己位置の信頼度を、前記第1の自己位置、前記対応及び前記類似度の連続的な変動に応じて、前記信頼度を連続的に変動可能な演算により算出する信頼度算出部、
として機能させるための自己位置推定プログラム。 - 請求項22に記載の自己位置推定プログラムのパラメータを学習する学習プログラムであって、
コンピュータを、
前記第1の自己位置と前記信頼度とを含む推定データを取得する推定データ取得部と、
前記入力画像を撮像した際の前記第1の撮像装置の位置及び姿勢の少なくとも一方を示す第2の自己位置を、教師データとして取得する教師データ取得部と、
前記第1の自己位置と前記第2の自己位置との差が小さいほど、前記信頼度が高くなるように、前記第1のパラメータを更新する第1のパラメータ更新部、
として機能させるための学習プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018127460A JP7131994B2 (ja) | 2018-07-04 | 2018-07-04 | 自己位置推定装置、自己位置推定方法、自己位置推定プログラム、学習装置、学習方法及び学習プログラム |
US16/291,493 US11062475B2 (en) | 2018-07-04 | 2019-03-04 | Location estimating apparatus and method, learning apparatus and method, and computer program products |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018127460A JP7131994B2 (ja) | 2018-07-04 | 2018-07-04 | 自己位置推定装置、自己位置推定方法、自己位置推定プログラム、学習装置、学習方法及び学習プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020008984A JP2020008984A (ja) | 2020-01-16 |
JP7131994B2 true JP7131994B2 (ja) | 2022-09-06 |
Family
ID=69101666
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018127460A Active JP7131994B2 (ja) | 2018-07-04 | 2018-07-04 | 自己位置推定装置、自己位置推定方法、自己位置推定プログラム、学習装置、学習方法及び学習プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11062475B2 (ja) |
JP (1) | JP7131994B2 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7085646B2 (ja) * | 2018-12-28 | 2022-06-16 | 株式会社Nttドコモ | 位置推定システム |
CN111627051B (zh) * | 2019-02-27 | 2023-12-15 | 中强光电股份有限公司 | 电子装置及用以估计光流的方法 |
EP3938919A4 (en) * | 2019-04-02 | 2022-05-18 | Buildots Ltd. | DETERMINING THE POSITION OF AN IMAGE CAPTURE DEVICE |
US20220215567A1 (en) * | 2019-05-10 | 2022-07-07 | Nippon Telegraph And Telephone Corporation | Depth estimation device, depth estimation model learning device, depth estimation method, depth estimation model learning method, and depth estimation program |
WO2021065594A1 (ja) * | 2019-10-01 | 2021-04-08 | ソニーセミコンダクタソリューションズ株式会社 | 自己位置推定装置、自律移動体、自己位置推定方法及びプログラム |
JP7221897B2 (ja) | 2020-03-03 | 2023-02-14 | 株式会社東芝 | 推定装置、移動体、推定方法及びプログラム |
US11398048B2 (en) * | 2020-07-30 | 2022-07-26 | Apical Limited | Estimating camera pose |
JP7453175B2 (ja) | 2021-03-25 | 2024-03-19 | Kddi株式会社 | 位置推定装置、方法及びプログラム |
JP7498134B2 (ja) | 2021-03-25 | 2024-06-11 | Kddi株式会社 | 類似画像抽出装置、方法及びプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007322138A (ja) | 2006-05-30 | 2007-12-13 | Toyota Motor Corp | 移動装置及び移動装置の自己位置推定方法 |
JP2017037426A (ja) | 2015-08-07 | 2017-02-16 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
JP2018060296A (ja) | 2016-10-03 | 2018-04-12 | グローリー株式会社 | 画像処理装置、画像処理システム及び画像処理方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6645051B2 (ja) | 2015-07-07 | 2020-02-12 | トヨタ自動車株式会社 | 自己位置推定装置、自己位置推定方法及びプログラム |
JP6842039B2 (ja) * | 2017-03-02 | 2021-03-17 | 富士通株式会社 | カメラ位置姿勢推定装置、方法およびプログラム |
JP6826010B2 (ja) | 2017-08-09 | 2021-02-03 | 株式会社東芝 | カメラ運動推定装置、カメラ運動推定方法及びプログラム |
-
2018
- 2018-07-04 JP JP2018127460A patent/JP7131994B2/ja active Active
-
2019
- 2019-03-04 US US16/291,493 patent/US11062475B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007322138A (ja) | 2006-05-30 | 2007-12-13 | Toyota Motor Corp | 移動装置及び移動装置の自己位置推定方法 |
JP2017037426A (ja) | 2015-08-07 | 2017-02-16 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
JP2018060296A (ja) | 2016-10-03 | 2018-04-12 | グローリー株式会社 | 画像処理装置、画像処理システム及び画像処理方法 |
Non-Patent Citations (2)
Title |
---|
安倍 満,対応点探索のための特徴量表現,電子情報通信学会技術研究報告 Vol.115 No.388,日本,一般社団法人電子情報通信学会,2015年,Vol.115 No.388,53~73 |
菅原 佑介,ディープラーニングを用いたJPEG2000コードストリームレベルでの類似画像検索法,電子情報通信学会技術研究報告 Vol.116 No.96,日本,一般社団法人電子情報通信学会,2016年,Vol.116 No.96,79~84 |
Also Published As
Publication number | Publication date |
---|---|
JP2020008984A (ja) | 2020-01-16 |
US20200013188A1 (en) | 2020-01-09 |
US11062475B2 (en) | 2021-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7131994B2 (ja) | 自己位置推定装置、自己位置推定方法、自己位置推定プログラム、学習装置、学習方法及び学習プログラム | |
JP5987823B2 (ja) | 画像センサおよび運動または位置センサから生じたデータを融合するための方法およびシステム | |
CN107990899B (zh) | 一种基于slam的定位方法和*** | |
JP6760114B2 (ja) | 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム | |
US10636168B2 (en) | Image processing apparatus, method, and program | |
KR101776621B1 (ko) | 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
JP4984650B2 (ja) | 移動装置及び移動装置の自己位置推定方法 | |
CN110717927A (zh) | 基于深度学习和视惯融合的室内机器人运动估计方法 | |
AU2021206838A1 (en) | Self-supervised training of a depth estimation model using depth hints | |
KR100855657B1 (ko) | 단안 줌 카메라를 이용한 이동로봇의 자기위치 추정 시스템및 방법 | |
JP5444952B2 (ja) | センサフュージョンによる地図の自動生成、およびそのように自動生成された地図を用いて移動体の移動をするための、装置、方法、ならびにプログラム | |
Michot et al. | Bi-objective bundle adjustment with application to multi-sensor slam | |
CN113916243A (zh) | 目标场景区域的车辆定位方法、装置、设备和存储介质 | |
CN112444246B (zh) | 高精度的数字孪生场景中的激光融合定位方法 | |
Tomažič et al. | Fusion of visual odometry and inertial navigation system on a smartphone | |
US20230377197A1 (en) | Joint camera and inertial measurement unit calibration | |
JP7114686B2 (ja) | 拡張現実装置及び位置決め方法 | |
WO2023050634A1 (zh) | 定位方法及装置、设备、存储介质及计算机程序产品 | |
KR20200037502A (ko) | 포즈 정보를 출력하는 방법 및 장치 | |
CN110989619B (zh) | 用于定位对象的方法、装置、设备和存储介质 | |
US20230350418A1 (en) | Position determination by means of neural networks | |
CN115930937A (zh) | 一种多传感器的同时定位和建图方法、终端及存储介质 | |
KR20210051002A (ko) | 포즈 추정 방법 및 장치, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램 | |
US20230260149A1 (en) | Position-posture estimation device, position-posture estimation method, and storage medium storing program | |
US20230030596A1 (en) | Apparatus and method for estimating uncertainty of image coordinate |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181022 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210114 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220726 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220825 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7131994 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |