JP6571225B2 - カメラ姿勢推定方法およびシステム - Google Patents

カメラ姿勢推定方法およびシステム Download PDF

Info

Publication number
JP6571225B2
JP6571225B2 JP2018024896A JP2018024896A JP6571225B2 JP 6571225 B2 JP6571225 B2 JP 6571225B2 JP 2018024896 A JP2018024896 A JP 2018024896A JP 2018024896 A JP2018024896 A JP 2018024896A JP 6571225 B2 JP6571225 B2 JP 6571225B2
Authority
JP
Japan
Prior art keywords
camera
features
scale
image
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018024896A
Other languages
English (en)
Other versions
JP2019021291A (ja
Inventor
リウィッキ ステファン
リウィッキ ステファン
ザッハ クリストファー
ザッハ クリストファー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of JP2019021291A publication Critical patent/JP2019021291A/ja
Application granted granted Critical
Publication of JP6571225B2 publication Critical patent/JP6571225B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本明細書で説明される実施形態は、一般に、コンピュータビジョンの分野に関する。
相対姿勢推定は何世紀にもわたって研究されており、最初は写真で、後にはコンピュータビジョンコミュニティで研究されている。それにもかかわらず、ストラクチャフロムモーションおよびSLAM(simultaneous localization and mapping)における多くの最新技術用途との基本的な関連により、研究が近年常に発展している。相対姿勢の中心課題は、2つのカメラ姿勢の間の動きを推定し、環境の3D再構築ならびにカメラオドメトリを明らかにすることである。
古典的手法は、多数のビューの点対応(point correspondence)の場所と、それらの姿勢回復との関係とを研究している。未知の固有較正の場合には、基礎行列を回復するために8点アルゴリズムまたは7点アルゴリズムが最も頻繁に利用され、6点アルゴリズムは未知の焦点距離に対して使用される。較正済みカメラでは、5点アルゴリズムが最も好適である。
カメラを有する自動車の概略図。 軌跡を決定するためおよび3Dモデルを決定するためのステップを示す基本的フロー図。 一実施形態による、方法を実行するために使用され得る装置の概略図。 一実施形態による方法を示すフロー図。 図4(a)は、特徴抽出を説明するために使用される2つの画像を示す。図4(b)は、標準3D点三角測量の図。図4(c)は、図4(b)の深度比の使用を示す図。図4(d)は、図4(b)の構成から未知数の数を減少させるために深度比をどのように使用できるかを示す図。 RANSACフレームワークが利用される一実施形態による方法を示すフロー図。 スケール誤差が修正される、図5のフロー図の変形を示すフロー図。 スケール誤差を修正するプロセスをより詳細に示すフロー図。 スケール誤差を修正するプロセスをより詳細に示すフロー図。 カメラ位置およびカメラパラメータを示す図。 場所測定の際にノイズがある場合の基本行列に対して得られた誤差を示す図。 場所測定の際にノイズがある場合の平行移動に対して得られた誤差を示す図。 場所測定の際にノイズがある場合の回転に対して得られた誤差を示す図。 場所測定の際にノイズがある場合の基本行列に対して得られた誤差を示す図。 場所測定の際にノイズがある場合の平行移動に対して得られた誤差を示す図。 場所測定の際にノイズがある場合の回転に対して得られた誤差を示す図。 2+1アルゴリズムについて、2つのスケール比に対する基本行列の誤差へのスケール効果を示す図。 2+1アルゴリズムについて、2つのスケール比に対するエピポーラ制約の平均誤差へのスケール効果を示す図。 図11(a)のデータの中央スライスを示す図。 図11(b)のデータの中央スライスを示す図。 1+3アルゴリズムについて、スケール比に対する基本行列の誤差へのスケール効果を示す図。 1+3アルゴリズムについて、スケール比に対するエピポーラ制約の平均誤差へのスケール効果を示す図。 スケールインライアと場所インライアの比が示されている6対の画像を示す図。各対の画像はスケールダイバージェンス(scale divergence)の関連するヒストグラムとともに示される。 図12の対の画像の各々に対する場所ベースインライア比を示すヒストグラム。
一実施形態において、第1のカメラ姿勢と第2のカメラ姿勢との間の平行移動および回転を決定するためのカメラ姿勢推定方法が提供され、
この方法は、
第1の位置で捕捉された第1の画像と第2の位置で捕捉された第2の画像とから特徴を抽出することと、抽出された特徴は、場所、スケール情報、および記述子を備える、記述子は、第1の画像からの特徴を第2の画像からの特徴にマッチングさせることができる情報を備える、
一致した特徴を生成するために第1の画像と第2の画像との間で特徴をマッチングさせることと、
一致した特徴の深度比をスケール情報から決定することと、ここにおいて、深度比は、第1の位置からの一致した特徴の深度と第2の位置からの一致した特徴の深度の比である、
n個の一致した特徴を選択することと、ここで、一致した特徴のうちの少なくとも1つが深度比と場所の両方により選択される、
スケール情報から導出された深度比をもつ選択された一致した特徴を使用して、第1のカメラ姿勢と第2のカメラ姿勢との間の平行移動および回転を計算することとを備える。
特徴検出器は、コーナー、テクスチャ、または独特の外観をもつ領域などの画像データ中の関心点を見つけ出す。特徴検出器は、別の視点から同様の検出を再現することができる。例示の特徴検出器は、Fast、Harris Corners、ガウス差分を含む。これらの各々は、通常、画像のスケール空間ピラミッドに適用され、その結果、スケールを提供するか、または深度センサを利用してスケールを直接推定する。したがって、特徴検出器は、場所とスケール情報とを与えることができる。
特徴記述子が特徴の外見を記述するために使用され、その結果、それは、第2の画像の特徴と比較することができる。SIFT、SURF、およびORBは、ほとんどビュー方向依存性がない既知の記述子である。
深度情報を使用することによって、場所のみを備える5点を使用する代わりに、それらの点のうちの1つまたは複数から深度情報が使用される場合、少ない数の点を使用することが可能である。上述の方法は、特徴検出の間に導出されたスケール情報から深度を導出する。特徴検出器は、位置x、yおよびスケールsを抽出する。この情報は、場所x、yにおける既定のサイズ*sの長方形を定義するために使用することができる。長方形は、特徴記述子を実行するために使用される。
一般に、5点を使用する姿勢推定の間、場所または座標情報のみが使用される。特徴検出の間に抽出されたスケール情報は廃棄される。
したがって、一実施形態では、一致した特徴を選択することは、n個の一致した特徴を選択することを備え、ここで、nは4以下の整数であり、前記n個の一致した特徴のうちのm個は、深度比と場所とに関連する両方の情報により選択され、p個の特徴が、深度比に関連する情報ではなく場所情報により選択され、mおよびpは、関係式2m+p=5を満たす整数である。
深度比に関連する情報はスケール比とすることができ、または深度比自体が特徴から直接抽出され得る。本明細書の全体にわたって、深度比とスケール比とは交換可能に使用される。
実際には、特徴が一致するとき、誤差があることがある。したがって、一実施形態では、平行移動および回転の多数の推定が得られ、最良の推定が選択される。このタイプのデータはアウトライアの傾向があるので、ロバスト推定フレームワークが使用され得る。それゆえに、一実施形態では、この方法は、ロバスト推定器を使用してモデルを改良することをさらに備える、ここにおいて、モデルパラメータは、第1のカメラ位置と第2のカメラ位置との間の計算された平行移動および回転である。
可能な推定フレームワークは、
モデルパラメータを最良モデルの最良モデルパラメータとして設定することと、
最良モデルの適合度を評価することと、
新しいモデルを生成するために、n個の一致した特徴の新しいセットを選択し、新しいモデルパラメータを計算することと、
新しいモデルの適合度を評価することと、
新しいモデルの適合度が最良モデルの適合度よりも良好である場合新しいモデルパラメータで最良モデルパラメータを更新することと、
新しいモデルを生成するために、n個の一致した特徴の新しいセットを選択すること、新しいモデルの適合度を評価すること、および新しいモデルの適合度が最良モデルの適合度よりも良好である場合新しいモデルパラメータで最良モデルパラメータを更新することのプロセスを、停止基準が達せられるまで連続的に繰り返すことと
を備えることができる。
さらなる実施形態では、ランダムサンプルコンセンサス(RANSAC)タイプフレームワークが使用される。ここで、適合度は、インライアの数を計算することによって評価され、一致した特徴の各セットがランダムに選択される。
一実施形態では、インライアの数は、深度と場所の両方に対して計算される。
停止基準は、いくつかの方法で決定され得る。一実施形態では、固定数の反復がある場合があり、またはより良好なモデルを見いだす可能性が閾値を下回ったときプロセスが停止される場合がある。
高解像度画像では、特徴検出器は、場所に関してかなり信頼性が高い。残念ながら、スケールの推定は、安定性が低く、スケール空間ピラミッドで使用されるステップサイズまたは深度センサの品質に依存する。
さらなる実施形態では、一致した特徴の深度比に関連する情報に誤差があることが仮定され、
ここにおいて、モデルの適合度を評価することが、特徴から得られた深度比、正の誤差値をもつ深度比、および負の誤差値をもつ深度比に対するモデルの適合度を評価することを備え、
この方法は、
特徴から得られた深度比、正の誤差値をもつ深度比、および負の誤差値をもつ深度比から選択された3つの値のうちのどれが最良の適合度を生成したかに応じて、これらの3つの値のうちの1つにより深度比を更新することと、
新しい誤差値を設定することと、新しい誤差値が現在の誤差値を2で割ったものである、
新しい誤差値を使用してモデルの適合度を評価することと
をさらに備える。
上述の方法は、
1.スケールおよび対応の場所による相対姿勢推定
a.SLAM(simultaneous localization and mapping)
b.3Dモデル発生
2.信号入力に対するオドメトリ推定
a.単眼カメラからのスケール比
b.ステレオカメラまたはRGB−Dカメラからの深度比
3.自動運転+ドライバ支援システム
a.車両の軌跡の高速推定
b.車両の3D位置および3D方位の推定
のために使用され得る。
一実施形態では、第1の画像は第1のカメラによって捕捉され、第2の画像は第2のカメラによって捕捉され、第1のカメラと第2のカメラとは異なる。各カメラはそれ自体の較正行列を有するので、この方法は2つの異なるカメラに対処することができる。
しかしながら、多くの実施形態では、同じカメラが使用されることになる。カメラはビデオカメラとすることができ、異なる画像は異なるフレームに対応する。そのようなカメラは、移動車両、例えば、自動車、トラック、ロボット、ドローン、家電製品などに備えることができる。
車両の軌跡は、第1のカメラ姿勢と第2のカメラ姿勢との間の計算された平行移動および回転から決定される。
カメラ姿勢を推定する方法は、カメラの位置をいわゆるSLAM(simultaneous localization and mapping)システム(SLAM)で決定するために使用され得る。
上述の方法は、さらに、物体の3Dモデルを決定するために使用され得、この方法は、
移動カメラを使用して物体の複数の画像を捕捉することと、
物体の点群を発生することと、点群はカメラの姿勢を使用して三角測量から決定される、
を備え、
ここにおいて、カメラの姿勢は上述の方法によって推定される。
さらなる実施形態において、第1のカメラ姿勢と第2のカメラ姿勢との間の平行移動および回転を決定するためのカメラ姿勢推定装置が提供され、
この装置はプロセッサを備え、プロセッサは、
第1の位置で捕捉された第1の画像と第2の位置で捕捉された第2の画像とから特徴を抽出し、抽出された特徴は、場所、スケール情報、および記述子を備える、記述子は、第1の画像からの特徴を第2の画像からの特徴にマッチングさせることができる情報を備える、
一致した特徴を生成するために第1の画像と第2の画像との間の特徴をマッチングさせ、
一致した特徴の深度比をスケール情報から決定し、ここにおいて、深度比は、第1の位置からの一致した特徴の深度と第2の位置からの一致した特徴の深度の比である、
n個の一致した特徴を選択し、ここで、一致した特徴のうちの少なくとも1つが深度比と場所の両方により選択される、
スケール情報から導出された深度比をもつ選択された一致した特徴を使用して、第1のカメラ姿勢と第2のカメラ姿勢との間の平行移動および回転を計算する
ように構成される。
実施形態によるいくつかの方法はソフトウェアで実施され得るので、いくつかの実施形態は、汎用コンピュータに供給されるコンピュータコードを任意の好適なキャリア媒体に含む。キャリア媒体は、フロッピー(登録商標)ディスク、CD ROM、磁気デバイス、もしくはプログラマブルメモリデバイスなどの任意の記憶媒体、または任意の信号、例えば、電気信号、光信号、もしくはマイクロ波信号などの任意の一時的媒体を含むことができる。
図1(a)は、自動車50の動きを示す。自動車はカメラを備えている。自動車の動きに伴い、カメラは異なる位置から画像を捕捉する。
自動運転の分野において、またはさらに駐車支援のために、車両は環境内でそれ自体の場所を特定できる必要がある。例えば、自動車が道路に沿って前進できるためには、自動車は、道路の画像を捕らえ、道路に対する自動車の位置を決定できる必要がある。
図1(a)において、一例として、自動車は、位置51において第1の画像(画像1)および位置53において第2の画像(画像2)を捕らえる。両方の画像は特徴点55を捕捉する。次いで、特徴点が2つの画像の間で一致され得、第1の位置から第2の位置までのカメラの姿勢が決定され得る。
図1(b)はフロー図を示す。画像1および画像2が上述のように捕捉される。上述のように、特徴検出器は、通常、画像のスケール空間ピラミッドに適用される。特徴が抽出される。次に、特徴マッチング(突き合せ)が行われる。
上述したように、ひとたび特徴が一致したならば、カメラの相対姿勢を推定することが可能である。これにより、自動車の場所、自動車の軌跡などが分かる。これは、さらに、オドメトリで使用され得る。
上述のシステムは、さらに、3Dモデルを生成するために使用され得る。ひとたびカメラの姿勢が分かれば、カメラによって捕捉された画像から、三角測量を使用して3Dモデルを構築することが可能である。
図2は、システム分析ユニット20の可能な基本構造を示す。分析ユニット20は、プログラム25を実行するプロセッサ23を備える。分析ユニット13は記憶装置27をさらに備える。記憶装置27は、カメラから受け取ったデータを分析するためにプログラム25によって使用されるデータを記憶する。
分析ユニット20は、入力モジュール31と出力モジュール33とをさらに備える。入力モジュール31はカメラ入力部35に接続される。カメラ入力部35はカメラ(図示せず)からのカメラデータを受け取る。カメラ入力部35は、単に、カメラからデータを直接受け取ることができ、または代替として、カメラ入力部35は、外部記憶媒体またはネットワークからカメラデータを受け取ることができる。
一実施形態では、ディスプレイ37が出力モジュール33に接続される。ディスプレイ37は、カメラ入力部35で受け取られたカメラデータから発生された捕捉3D画像を表示するために使用され得る。ディスプレイ27の代わりに、出力モジュール33は、ファイルに、またはインターネットなどを介して出力することができる。
図3は、カメラ姿勢の推定を得るステップを示す基本的フロー図である。ステップS101において、2D画像が、移動カメラによって捕捉される。そのような画像の一例が図4(a)に示される。
次に、ステップS103において、特徴が2つの画像から抽出される。図4(a)の2つの図を見ると、左上の窓が、特徴を抽出する一例として使用されている。
既知のアルゴリズムが、特徴を抽出するために使用され得る。抽出された特徴がスケールを含んでいる場合には、任意の特徴抽出アルゴリズムが使用され得る。一般に、特徴抽出器は、構造のコーナーまたは他の際立った特徴を識別することになる。
次に、ステップS105において、特徴がマッチングされる。2つのビュー中のN個の一致点は、それぞれ同次ベクトルxi=[xii 1]Tおよび
によって表される。各フレームの3D座標系における対応する3D点は、diiまたは
によって見いだされ、ここで、diおよび
は、関連するビューから観察される点の深度を表す。
画像間の相対姿勢が回転
および平行移動
によって表される場合、一般性を失うことなく、内部較正行列Kが同一であると仮定することができる。
したがって、エピポーラ制約は、
で与えられ、ここで、tと任意のベクトル
との間の外積は、[t]×a=t×aで表される。上記のように、記述子はスケールも抽出する。2つのビューからの対応
の深度diと深度
との間の比
から、平行移動
の方向が、回転Rによって、
として決定されることが確認され得る。上述のことが、図4(b)から図4(d)に図によって示されている。それゆえに、1つの既知の対応(x,x’,s)を用いて、(1)を、
として、
に対する等式aTb=bTa、aT(bxc)=bT(cxa)、およびR(axb)=RaxRbを使用して書き直すことが可能である。(3)を等式
として書き直すことは背後の直観を明らかにし、すべてのエピポーラ平面は、平行移動t、言い換えるとベクトル(x’−sRx)を含まなければならないことに留意されたい。さらに、(3)は、深度比をもつすべての対応
が、
を満たすことを必要とし、ここで、
である。したがって、(4)は、エピポーラ制約を(3)を介して強制するだけでなく、三角形の正弦法則が有効であることも保証する。上述の式(3)および式(4)は、以下で説明するような最小ソルバを提案するために利用される。
SIFT、ORBなどの上記の記述子は、いわゆるスケール空間ピラミッドマッチングに依存する。具体的には、これらの方法は、本質的に、場所情報に加えて、一致した特徴の間のスケール差を提供する。ステップS109において、スケール情報が、深度情報を導出するために抽出されることになる。
画像平面上の既知のスケール比は、深度比に緊密に関連づけられる。実際、スケール比は同次座標空間における深度比の逆数であり、
である。スケール、言い換えると深度値の間のこの比は、以下では
として表すことがある。
正確には、スケールを考慮して相対姿勢問題を解く2つの最小セットがある。カメラの間の移行を表す未知数は、全体で、回転に対して3つおよび平行移動に対して3つ(スケールは回復できないので1つ減)の5つである。
一致する画素の2D場所は1つのエピポーラ制約を提供する。スケールが追加として与えられる場合、上述の式4の正弦法則がやはり有効でなければならない。これからは、2つの可能な最小ソルバがあり、(a)スケールをもつ1つの点およびスケールをもたない3つの点(1×2+3×1=5)、ならびに(b)スケールをもつ2つの点およびスケールをもたない1つの点(2×2+1×1=5)である。
最初に、3+1点アルゴリズムを調べる。ステップS107において、4つの(n個の)一致点が2つの画像ビューにおいて選択され、これらのうちの1つ(m個)はスケールおよび場所
をもち、3つは場所
のみをもつ。これらから、回転Rおよび平行移動tが導出される。上述の式(2)および式(4)を使用して、以下の連立方程式を表すことが可能である。
上述の式(7)は、tに無関係であり、したがって、回転に対する3つの未知数をもつ3つの方程式の系を形成することが分かる。次いで、これは、1+3点アルゴリズムと呼ばれる第1の最小ソルバのコアとして使用される。次いで、tの長さは回復できないので、平行移動tは上述の式(2)を介して見いだされる。
回転は、四元数q=qa+qbi+qcj+qdkとして表され、ここで、
である。次いで、式(7)は、式(8)を考慮して展開することができ、
である。
qは単位長であるので、
を置き換え、(8a)の右項を並べ換えて、
となることが可能である。最後に、未知数の数は、
でqをスケーリングすることによって減らされ、二次形式
を形成することができる。180度の回転に関連するqa=0の縮退の場合がある。しかしながら、これは、実際のデータではほとんど見られない。さらに、qa>0が強制されるので、回転行列Rごとに1つの解のみが存在する。qおよび−qは同じ回転を包含していることに留意されたい。
したがって、上述の式(7)は、今では、簡単な二次形式の3つの式、すなわち、
で表され得、ここで、未知数のベクトルは
に対応し、Ai、bi、およびciは既知の観察値である。回転を同次四元数として用いて、最小ソルバはグレブナー基底アルゴリズムを介して導出され得る。上述の方法は、8つの解をもつ8次1変数多項式に分解する。根は、スツルムシーケンスを介してまたはより確実には固有値分解を介して効率的に見いだされ得る。最後に、式(3)は最小解として十分であるが、単純な応用は、トレースおよび単項式の60%の増加をもたらす。その結果、変更された式のセットは、ステップS111においてRおよびtの推定値を見いだすのに必要な計算ステップが少ないので、数値的に安定したソルバを生成する。
上述の3+1ソルバの代替として、2+1ソルバを使用することも可能である。ここで、ステップS107において、n=3およびm=2である。したがって、3つの点対応、すなわち、

、および
があり、そのうちの2つは既知のスケールを有する。上述の式(2)、(3)、および(4)を使用して、以下の連立方程式が導出され、
ここで、式(11)は、式(4)を式(2)の比例する平行移動の同値性と組み合わせている。上述の1+3点アルゴリズムと同様に、回転Rのみを解くべき系は(11)および(12)によって与えられ、それは3つの独立した式から構成される。式(11)は、最初に、まずそれを
に並べ換え、次いで、式(9)に類似して1組の3つの同値な二次式を構成することによって簡単化される。グレブナー基底を用いて解く場合、4つの解をもつ4次1変数多項式を得ることが可能である。再び、根は、Rを与えるためにスツルムシーケンスまたは固有値分解を介して見いだすことができる。次いで、平行移動tが、ステップS111においてRから導出され得る。
上述の方法は、回転Rと平行移動tとを直接計算する。それゆえに、キラリティが自動的に強制される。しかしながら、1+3および2+1点アルゴリズムは、縮退を有する。点が同じエピポーラ平面にある場合、式は、独立ではなく、縮退をもたらす。さらに、回転が同次四元数として表されるとき、回転角180度を伴うカメラの動きはサポートされない。しかしながら、両方の事例は、実際の画像ではほとんど経験しない。
図3のフロー図を参照して説明された方法は、カメラの姿勢、具体的にはRおよびtの推定をもたらす。しかしながら、特徴の検出およびマッチングには誤差が存在することがあるので、さらなる実施形態において、図3を参照して説明されたRおよびtの推定値が改良される方法が提供される。これらの方法のうちの1つは、RANSAC推定フレームワークを使用するものである。
RANSACは、最小ソルバを利用するロバスト推定フレームワークである。点対応からの相対姿勢推定の場合には、例えば、カメラ姿勢を決定する場合、最小セットが、前提を見いだすためにランダムに選択され、次いで、前提が残りのデータサンプルで試験される。この例では、まず、2つのクラスセットアップが考慮され、次いで、不安定なスケールを使用して、最小ソルバをRANSACフレームワークに統合する。
上述の最小ソルバは、2つのクラスのサンプル点、具体的には、スケールをもつ点対応/一致の場所と、スケールをもたない点対応/一致の場所とを有する。それゆえに、RANSACの古典的な停止基準は、2つのインライアタイプを反映するように変更され、それぞれ、1+3点アルゴリズムおよび2+1点アルゴリズムに対して
である。Kは、rlおよびrsが、それぞれ、場所と、スケールをもつ場所とに対してインライアを選択する可能性を表すという仮定の下で、確率pまでインライアセットが選択されたことを保証するために必要とされる反復の数である。レートはインライア試験に基づく。一般に、サンプソン距離は、試験する場所のエピポーラ制約の誤差を推定するために利用され、
であり、ここで、K1およびK2は、それぞれ第1のビューおよび第2のビューの較正行列であり、(a)2iは、ベクトルaのi番目の要素の2乗を計算し、δlは場所インライア閾値である。今では、インライア試験がスケールに対して設定され得る。式4を使用し、ならびにxおよびx'がエピポーラ平面上にあるという仮定の下で、外積の法線ベクトルが共有されるので、
を書くことが可能である。式16の最終項は、画像ドメインからのスケールが、以下では
によって表されることになる、Rおよびtによって示唆される予想スケールと異なることがあるという観察から生じる。特に、スケール誤差εsは、sを
にマッチングさせるのに必要とされる変化として定義され、その結果、差は、
によって与えられる。最後に、式15の場所制約ならびに式16のスケール試験を小さい誤差δlおよびδsまで満たす対応をスケールインライアとして定義することが可能である。閾値δsの大きさは容易に設定され得、スケール空間ピラミッドのステップサイズに関連するパラメータの考慮事項は容易に設定され得ることに留意されたい。
高解像度画像では、特徴検出器は、場所に関してかなり信頼性が高い。
残念ながら、スケールの推定は、安定性が低く、スケール空間ピラミッドで使用されるステップサイズに依存する。例えば、SIFTにおいて、スケールは、最初に、ベーススケールσ0=1.6およびステップサイズσs=1を用いて
で離散化され、次いで、連続値に補間される。その結果、ソルバに影響を与えることがある誤差が間違って導入される。
スケールにおける誤差の修正を目的とする効率的な二分探索が提案されている。特に、相対姿勢問題は、元の観察値のまわりで得られた多数のスケールを用いて反復して解決される。si、si(1+ε)、およびsi(1−ε)に対する解から始めて、siに対する最善選択をもつスケールが更新され、変動を半分
にして、このプロセスを続ける。二分が機能するには、誤差の減少とともに性能尺度の単調な減少が必要とされることが強調されるべきである。場所インライア比が性能尺度として利用される。
最後に、二分探索が利用されるとき、相対姿勢問題ではより多くの解を計算することが必要とされることに留意されたい。様々なスケールのスコアリングは計算上最も大きいコストであるが、対照的にソルバは高速である。したがって、プリエンプティブ法およびランタイム性能の向上のための早期救済が実行される。図5は、最小ソルバとして図3からの解を使用するRANSAC法のフロー図を示す。
さらに、擬似コードが、1+3点アルゴリズムについて以下に列記される。2+1アルゴリズムと異なっている箇所では、その擬似コードは{}に入れられている。
入力:N点対応
較正行列K1およびK2、インライアセット選択の所望の確率p。
出力:ビュー間の推定された回転Rおよび平行移動t。
1:最良のレート
、姿勢

、およびカウントk←0を初期化する
2:repeat
3: 1+3:


、および

からランダムに選択する
{2+1点アルゴリズムの場合:

、および

からランダムに選択する}
4: スケール変動を初期化する
5: while ε > 10-3 do
6: 1+3:スケールsa、sa±εをもつ選択されたタプルに対してRj、tjを見つけ出す
{2+1アルゴリズムの場合:スケールsa、sa±ε、sb、sb±εをもつ選択されたタプルに対してRj、tjを見つけ出す}
7: for all Rj, tj do
8: 1+3:インライアレートrsおよびrlを計算する、および
を設定する。
{2+1アルゴリズムの場合:インライアレートrsおよびrlを計算する、および
を設定する}
9: if
then
10: 最良の結果

を更新する、および
を見つけ出す
11: end if
12: end for
13: if
未満の最大投影改善 then
14: ブレーク
15: end if
16: 1+3:最良のスケールを選択する、およびsaを更新する、および
{2+1アルゴリズムの場合:最良のスケールを選択する、およびsa、sbを更新する、および

17: end while
18: k=k+1
19:until k≧K
ステップS151において、一致する特徴が2つの画像から抽出される。問題を簡単にするために、ここでは1+3点アルゴリズムが使用されると仮定する。2+1点アルゴリズムに適応させる方法への変形は後で説明する。
次に、ステップS153において、1+3点アルゴリズムでは、4つの一致点のグループが、上述の擬似コードのライン3に示したように、ランダムに選択される。それに続いて、Rおよび次いでtが、ランダムに選択されたタプルに対してステップS155において計算される。Rおよびtは、図3に関連して説明されたように計算される。ランダムに選ばれたタプルのセットに対して多数の解が存在することになる(最大4つまたは8つの解)。インデクスjは、解のインデキシングを示すために使用される。
図5のフロー図は、上述の擬似コードのそれから簡単化した解を調べ、図5のフロー図では、スケールに対する修正はない。スケールの修正は、図6のフロー図を参照して説明する。
ステップS163において、ループが開始され、アルゴリズムは、インライアのレートがすべてのjに対して計算されたかどうかを調べる。
計算されていない場合、インライアのレートが、ステップS155において計算されたRjおよびtjに対して計算される。場所に関するインライアのレートrl、およびスケールに関するインライアのレートrsが、上述のように式15および式16を使用して計算される。
インライアの総合レートrは、1+3アルゴリズムでは
から計算される。これが計算された最低レートである場合、これは最良の結果
として設定される。さらに、

、および
が、ステップS161において設定される。次に、Jがインクリメントされ、ループはステップS163に戻り、次いで、インライアのレートが、ステップS157において同じグループの一組に関する次の解に対して計算される。
ステップS159において、インライアの最低レートが現在のjに対して計算されていない場合、方法は、ステップS163に戻り、カウンタjをインクリメントするが、結果を更新しない。
インライアレートが、すべてのj、すなわち、現在選択されているタプルに対するすべての解に対して計算されるまで、このループは続く。
インライアレートがすべてのjに対して計算された後、方法はステップS165に進み、停止基準が達せられたかどうかが決定される。停止基準は、式14を参照して説明されている。停止基準が達せられていない場合、4つの一致点の新しいグループがステップS153において選択されるべきであることを示すために、インデクスケースが1だけインクリメントされる。次いで、方法は、上述のように続く。
停止基準が達せられた後、結果が出力される。結果は、カメラの姿勢を与える。これは、カメラ位置の簡単な出力とすることができる。次いで、出力は、さらに、移動物体の位置および/または姿勢が決定される必要があるSLAMシステムまたは他のシステムの一部として使用され得る。
上述で説明したように、特徴検出器は場所に関して信頼できる。しかしながら、スケールの推定は、安定性が低く、スケール空間ピラミッドで使用されるステップサイズに依存する。図6のフロー図はこれを考慮に入れている。
不必要な繰り返しを避けるために、同様の参照番号は、同様の特徴を示すために使用される。図6において、図5からのステップS155はステップS154で置き換えられている。ステップS155において、Rjおよびtjが、ステップS153において選択されたタプルに対して計算された。これは、ステップS154においても生じる。しかしながら、これらの値は、測定されたスケールに対して計算されるが、sa、sa±εとして表される誤差をもつスケールに対しても計算される。これは、記述子中の測定されたスケールが、通常、いくつかのステップ状の値から選択された値であるということなので、上述の理由により行われる。しかしながら、実際には、スケールは、これらのステップの2つの間に入ることがある。それゆえに、このプロセスが行われ、誤差がスケールに適用され、モデルはこの誤差を組み込んだスケールで実行される。この誤差を組み込んだスケールがより良好な結果をもたらした場合、誤差をもつスケールが次の反復で使用される。反復ごとに、あり得る誤差が減少して、この方法は、最も適切なスケールを目指して進むことができる。
図7は、スケール改良ステップS154をより詳細に示す。ステップS1151において、Rおよび次いでtが、ランダムに選択されたタプルに対して計算される。次いで、ステップS1153において、ループが終了したかどうか、およびインライアのレートがすべてのjに対して計算されたかどうかが調べられる。そうでない場合、インライアのレートが、ステップS1155においてjに対して計算される。次いで、ステップS1157において、これがインライアの最低レートであるかどうかが調べられる。そうでない場合、インデクスjはインクリメントし、ループはステップS1153に戻る。インライアの新しい最低レートが計算された場合、結果はステップS1159において更新され、jはループ中にインクリメントされ、ステップS1153に戻る。
ステップS1153において、ループが終了し、すべてのjに対するインライアが計算された場合、方法はステップS1161に進む。ここで、誤差εがスケールから減じられる。次いで、上述のものと同様のプロセスが実行される。インデクスjはリセットされる。まず、ステップS1163において、ループが終了されるべきかどうかを調べる。次に、ステップS1165において、インライアのレートが計算される。上述と同じように、ステップS1167において、インライアの最新のレートが、インライアの以前にセーブしたレートよりも低い場合、結果がステップS1169において更新され、インデクスがインクリメントされて、S1163に折り返す。一番最近に計算されたインライアレートが最低でない場合、結果は更新されず、システムは再びステップS1163に折り返す。
ステップ1163において、すべての解が検査されたと決定された場合、方法はステップS1171に進み、インデクスがリセットされ、誤差εがスケールに加えられる。次いで、上述のものと同様のプロセスが実行される。まず、ステップS1173において、ループが終了されるべきかどうかを調べる。次に、ステップS1175において、インライアのレートが計算される。上述と同じように、ステップS1177において、インライアの最新のレートが、インライアの以前にセーブしたレートよりも低い場合、結果はステップS1179において更新され、インデクスがインクリメントされて、S1173に折り返す。一番最近に計算されたインライアレートが最低でない場合、結果は更新されず、システムは再びステップS1173に折り返す。
ステップS1173において、すべての解が試験されたと決定された場合、方法はステップS1181に進む。ここで、誤差が閾値未満であるかどうかが調べられる。そうでない場合、最良のスケール測定値が、ステップS1183においてスケール管理saとして設定され、誤差が半分にされる。次いで、プロセスはステップS1161に折り返し、ステップS1161からステップS1181までが、半分にされた誤差を用いて繰り返される。ステップは、誤差が閾値を下回るまで誤差が減らされて連続的に繰り返される。
一例では、以下の擬似コードが使用され得る。
1)s_aに対して解{Rj,tj}を計算する(j=0に設定する)
2)現在のjに対してRjおよびtjが存在するか?
a.Yes:続ける
b.No:5に行く
3)インライア比を計算する
4)最低の現在のインライアレートか?
a.No:j+1、および2に行く
b.Yes:今のところsaを最良のスケールとしてセーブする(レート、解などを記憶する)、および4.aを行う
5)sa+eに対してRjおよびtjを計算する(j=0に設定する)
6)現在のjに対してRjおよびtjが存在するか?
a.Yes:続ける
b.No:9に行く
7)インライア比を計算する
8)最低の現在のインライアレートか?
a.No:j+1、および6に行く
b.Yes:今のところs_a+eを最良のスケールとしてセーブする(インライアレート、解などを記憶する)、および8.aを行う
9)sa−eに対してRjおよびtjを計算する(j=0に設定する)
10)現在のjに対してRjおよびtjが存在するか?
a.Yes:続ける
b.No:14に行く
11)インライア比を計算する
12)最低の現在のインライアレートか?
a.No:j+1、および10に行く
b.Yes:今のところs_a−eを最良のスケールとしてセーブする(レート、解などを記憶する)、および12.aを行う
13)e<閾値か?
a.No:最良のスケールとなるようにs_aを更新し、半分のe、および5からループする
b.Yes:続ける
14)最低の総合インライアレートか?
a.Yes:記憶されたレートおよび解から結果および停止基準を更新する
b.No:続ける
15)S165
上述は、1+3点アルゴリズムに関連して説明された。しかしながら、上述は、一致した特徴の異なる選択を使用して、2+1点アルゴリズムに容易に適応され得、ここで、「2」はスケールをもち、「1」はスケールをもたないように選択される。さらに、Rおよびtの計算は、上述のように、式6から式9とは対照的に式10から式13に関連する。さらに、停止基準は、式14に示された第2の変形の通りに変更される。
2+1点アルゴリズムでは、2つのスケール比があり、これらの両方は誤差εによって変更され、両方は、上述の擬似コードの第1の例のライン3およびライン16に関連して説明されたように最適化されることに留意されたい。
上述の方法から得られる結果を実証するために、合成データモデルが使用される。既知のノイズを用いてこの方法を評価するために、2つのビューセットアップが、図8に示すように使用される。図8において、2つのカメラの各カメラ201は、焦点距離1と、ベースライン0.1およびせいぜい45°の回転によるランダムな動きとにより選ばれる。点は、1と1.5との間の深度値でサンプリングされる。
追加として、ノイズが、以下では、場所観測および深度比観測に導入される。評価は、3つの誤差測度に基づき、
であり、ここで、iは、解のセットをインデクス付けする。式(17)における真の基本行列
と推定された基本行列Eiとの間のフロベニウスノルムが、全体的なシステム性能を試験するために使用される。式(18)および式(19)における真の平行移動ベクトル
と推定tiとの間の角度誤差、または真の回転行列
および推定Riが、より詳細な分析のために利用される。
図9(a)、図9(b)、および図9(c)は、場所測定にノイズがある場合のそれぞれ基本行列、平行移動、および回転に対して得られた誤差を示す。正規分布ノイズが、CIF画像(解像度352px×240px)によって観察される画素の大きさの標準偏差として表される、画像平面の点に誘導される。1+3点アルゴリズムおよび2+1点アルゴリズム(以下では1+3ptおよび2+1ptで表される)が、場所のみを考慮する5点アルゴリズム(5ptで表される)と比較される。E誤差は、5ptに対して±Eiをサポートするように変更される。全部で、3点、4点、または5点の10000ランダム事例がモデルを使用して発生される。
1+3ptは全部で4つの場所のみを必要とするが、ノイズに対して最も脆弱であり、しかも5ptに匹敵する。2+1ptは、導出された基本行列が2つの正確なスケール測定によってサポートされるので、両方の他の手法よりも著しく良好に動作する。
ノイズの多いスケールで1+3ptおよび2+1ptを精密に調べることによって、図10(a)、図10(b)、および図10(c)は、それぞれ、基本行列、平行移動、および回転に対する異なるノイズレベル(SIFTのデフォルトのステップサイズの100分の1の分散を伴う1のまわりでのガンマ分布としてモデル化された)の10000事例の平均性能を示す。
再度、2+1ptは1+3pt設定より性能が優れており、回転がとりわけ改善されている。式(11)において、2つのスケールは、回転が平行移動をサポートし、それにより、誤った結果の機会を減少させることを保証しなければならないことに留意されたい。実際、スケールの誤差が大きい場合、2+1ptは、多くの場合、ノイズに対していくらかの頑健性を示す実際に価値のある解をほとんど生成しないかまたはさらに全く生成しないことが見いだされた。
図11は、E誤差へのスケール効果を示す。図11(a)は、2+1アルゴリズムについて、両方のスケール比に対するE誤差へのスケール効果を別々に示し、図11(b)は、10000インライアに対するエピポーラ制約への平均誤差を示す。図11(c)および図11(d)は、それぞれ、図11(a)および図11(b)のデータの中央スライスを示す。図11(e)および図11(f)は、1+3点アルゴリズムに対する対応するデータを示す。両方の方法は、事実上、ノイズの増加とともに単調に増加する。上述のデータは、10000試行から得られた。
図11は、誤差の増加に伴うスケールのノイズを系統的に詳細にモデル化している。1+3ptと2+1ptの両方は、事実上、ノイズレベルが大きくなるとともに単調に増加していることに留意されたい。この挙動は、上述のように二分探索アルゴリズムにおいて利用される。真の基本行列は実際のデータでは不明であるが、E誤差の近似は、インライア比、または代替としてエピポーラ制約における平均誤差を推定することによって与えられる。
次に、上述の方法は、図12に示すように様々な難易度の6つの実際の画像対で試験される。まず、SIFT特徴一致(SIFT feature match)が抽出される。次に、RANSAC(=0.99、δ=1px、δ=0.1を用いて)が実行され、評価は上述のように場所インライア基準に基づく。比較は、提案する方法と5点アルゴリズムとの間で行われる。RANSACはランダム選択プロセスに基づくので、すべてのアルゴリズムが1000回実行され、平均が報告される。
5pt、1+3pt、および2+1ptのインライア比が、図13において比較されている。スケール修正なしの性能は、1+3ptおよび2+1ptでは著しく低下している。図:ransacは、追加として、1+3*および2+1*で表された、二分改良(sec:二分)による1+3ptおよび2+1ptの結果を示す。
全体的に、これらは5ptと同様に動作し、2+1*は、p2、p3、p4、およびp5において最も高いインライア比に達し、1+3*は、p1およびp6において最良の性能を有する。図:画像は、2+1*の視覚的な例を示す。画像対p1は、限定的なスケール変化と、比較的簡単なカメラ構成とを有する。画像p2、p3、p4、およびp5は、低減した場所依存性を得るので、スケールから利益を得る。スケール利用のための挑戦的な設定はp6であり、その理由は、投影がパッチの楕円の面積を一貫して減少させ、それにより、不正確なスケール比がもたらされるからである。これは、さらに、2+1*によって推定されるような必要とされるスケール
を用いた
によって与えられ、p6の結果から離れて1のまわりの正規分布であるスケールのダイバージェンスにおいて明らかである。
最後に、全体的に、1+3*および2+1*は、RANSACによって必要とされる反復で著しく改善するが、しかしながら、単純に、二分探索ではより多くの解が調査されることに留意されたい。それゆえに、信頼性の低いスケールでは、早期救済およびプリエンプティブ評価が必須である。
2つの較正済み画像の間の相対姿勢を推定する効率的な最小ソルバが提示される。提案する方法は、スケール空間ピラミッドを用いたスケール不変特徴検出器(SIFT)によって本質的に与えられる特徴一致の既知のスケール比を利用する。スケールを使用しているので、必要とされる特徴の数。
既知のスケール比を用いた相対姿勢の2つの解が上述で提示されている。特に、SIFTなどの記述子はスケール空間ピラミッドを利用するので、画像平面上のパッチのスケールが本質的に与えられることに留意されたい。上述の方法は、スケールと深度との間の接続を使用し、姿勢と深度比とを関連づける幾何学的制約を導出する。全部で、場所およびスケール対応に対する2つの可能な最小セット、すなわち、1つの既知のスケールとともに4つの特徴一致を利用する1+3点アルゴリズムと、2つの既知のスケールを用いて3つの一致から相対姿勢を推定する2+1点アルゴリズムとがある。
次いで、最小ソルバが、ランダムサンプリングコンセンサス(RANSAC)を使用する最終推定フレームワークにおいて使用される。上述の方法は、
1.スケール(または深度)比を相対姿勢に関連づける幾何学的観察を導出する。
2.スケール空間特徴検出を利用し、姿勢に対する2つの新しい最小ソルバを導出する。
3.信頼性の低いスケールでは1+3および2+1点アルゴリズムをRANSACに埋め込む。
上述の方法において、スケールと深度との間の相互関係が使用される。上述の方法において、2つのソルバは、各々、2つの可能な最小セットのうちの1つに関連して導出される。1+3点アルゴリズムは、1つの既知のスケールを用いて4つの特徴一致から相対姿勢を推定し、一方、2+1点アルゴリズムは、2つの既知のスケールを用いて3つの特徴一致から相対姿勢を計算する。提案する方法は、2つのインライアクラスによりRANSACに埋め込まれ、信頼性の低いスケールでは効率的なRANSAC変形を提示する。
上述の方法は、スケール空間ピラミッドを用いてスケール不変特徴検出器(例えば、SIFT、ORB特徴)によって容易に与えられる特徴一致の既知のスケール比を利用する。
上述の方法はスケールを使用するので、必要とされる特徴一致の数が減少し、その結果、必要なインライアが少ない。1+3点アルゴリズムは、1つの既知のスケールを用いて4つの特徴一致から相対姿勢を推定し、一方、2+1点アルゴリズムは、2つの既知のスケールを用いて3つの特徴一致から相対姿勢を計算する。
最後に、この方法は、2つのインライアクラスによるRANSACに適用可能である。信頼性の低いスケールを取り扱うために、効率的なRANSAC変形が提示される。
上述の方法は、単に、画像と画像の間の対応を利用し、1つまたは2つの対応は追加のスケール比情報を運ぶ。さらに、上述の方法は、相対姿勢について正確に解明する。
上述の方法において、1+3点アルゴリズムは4つのインライアのみを必要とし、8つまでの解を生成し、一方、2+1点アルゴリズムは4つまでの解のみを生成する。それゆえに、信頼できる特徴対応のセットを選ぶことは比較的容易であり、正しい解をフィルタ処理するために計算はほとんど必要とされない。
上述の方法は、相対姿勢の推定を可能にし、追加のハードウェアが必要とされず、ビュー間のいかなるカメラの動きも可能である。必要とされる特徴対応の数を減少させるために、容易に入手できるスケールが利用される。
特定の実施形態が説明されたが、これらの実施形態は単なる例として提示されており、本発明の範囲を限定するようには意図されていない。確かに、本明細書で説明した新規の方法および装置は、様々な他の形態で具現され得、さらに、本明細書で説明された方法および装置の形態における様々な省略、置換、および変更が、本発明の趣旨から逸脱することなくなされ得る。添付の特許請求の範囲およびその均等物は、本発明の範囲および趣旨内にあるそのような形態の変形を包含するように意図される。

Claims (19)

  1. 第1のカメラ姿勢と第2のカメラ姿勢との間の平行移動および回転を決定するためのカメラ姿勢推定方法であって、
    第1の位置で捕捉された第1の画像と第2の位置で捕捉された第2の画像とから特徴を抽出することと、ここにおいて、前記抽出された特徴が、場所、スケール情報、および記述子を備え、前記記述子が、前記第1の画像からの特徴を前記第2の画像からの特徴にマッチングさせることができる情報を備える、
    前記第1の画像と前記第2の画像との間で特徴をマッチングさせ、一致した特徴を生成することと、
    一致した特徴の深度比を前記スケール情報から決定することと、ここにおいて、前記深度比が、前記第2の位置からの一致した特徴の深度に対する前記第1の位置からの一致した特徴の深度の比である、
    n個の一致した特徴を選択することと、ここにおいて、前記一致した特徴のうちの少なくとも1つが前記深度比および前記場所の両方により選択される、
    前記スケール情報から導出された前記深度比をもつ前記選択された一致した特徴を使用して、前記第1のカメラ姿勢と前記第2のカメラ姿勢との間の前記平行移動および前記回転を計算することと
    を備える、方法。
  2. 前記一致した特徴を選択することが、n個の一致した特徴を選択することを備え、ここにおいて、nは4以下の整数であり、前記n個の一致した特徴のうちのm個が、前記深度比と前記場所の両方により選択され、p個の特徴が、前記深度比ではなく場所情報により選択され、mおよびpは、関係式2m+p=5を満たす整数である、請求項1に記載の方法。
  3. m=1およびp=3である、請求項2に記載の方法。
  4. m=2およびp=1である、請求項2に記載の方法。
  5. 前記深度比に関連する情報が、スケール比から導出される、請求項1に記載の方法。
  6. ロバスト推定器を使用してモデルを改良することをさらに備える、ここにおいて、モデルパラメータが、前記第1の位置と前記第2の位置との間の前記計算された平行移動および回転である、請求項1に記載の方法。
  7. 前記ロバスト推定器を使用することが、
    前記モデルパラメータを最良モデルの最良モデルパラメータとして設定することと、
    前記最良モデルの適合度を評価することと、
    n個の一致した特徴の新しいセットを選択し、新しいモデルパラメータを計算して、新しいモデルを生成することと、
    前記新しいモデルの適合度を評価することと、
    前記新しいモデルの前記適合度が前記最良モデルの前記適合度よりも良好である場合に、前記新しいモデルパラメータで前記最良モデルパラメータを更新することと、
    n個の一致した特徴の新しいセットを選択して新しいモデルを生成することと、前記新しいモデルの前記適合度を評価することと、前記新しいモデルの前記適合度が前記最良モデルの前記適合度よりも良好である場合に、前記新しいモデルパラメータで前記最良モデルパラメータを更新することとのプロセスを、停止基準が達せられるまで連続的に繰り返すことと
    を備える、
    請求項6に記載の方法。
  8. 前記適合度が、インライアの数を計算することによって評価される、請求項7に記載の方法。
  9. 前記一致した特徴の深度比に関連する前記情報に誤差があることが仮定され、
    前記モデルの前記適合度を評価することが、前記特徴から得られた前記深度比、正の誤差値をもつ前記深度比、および負の誤差値をもつ前記深度比に対する前記モデルの前記適合度を評価することを備え、
    前記方法が、
    前記特徴から得られた前記深度比、正の誤差値をもつ前記深度比、および負の誤差値をもつ前記深度比から選択された3つの値のうちのどれが最良の適合度を生じたかに依存して、前記3つの値のうちの1つにより前記深度比を更新することと、
    新しい誤差値を設定することと、ここにおいて、前記新しい誤差値が現在の誤差値を2で割ったものである、
    前記新しい誤差値を使用して前記モデルの前記適合度を評価することと
    をさらに備える、
    請求項7に記載の方法。
  10. 前記インライアの数が、深度と場所の両方に対して計算される、請求項8に記載の方法。
  11. より良好なモデルを見つけ出す可能性が閾値を下回るとき、前記停止基準が設定される、請求項7に記載の方法。
  12. 前記第1の画像が第1のカメラによって捕捉され、前記第2の画像が第2のカメラによって捕捉され、前記第1のカメラと前記第2のカメラとが異なる、請求項1に記載の方法。
  13. 前記第1の画像および前記第2の画像がビデオカメラによって捕捉される、請求項1に記載の方法。
  14. 前記ビデオカメラが移動車両に備えられる、請求項13に記載の方法。
  15. 前記車両の軌跡が、前記第1のカメラ姿勢と前記第2のカメラ姿勢との間の前記計算された平行移動および回転から決定される、請求項14に記載の方法。
  16. ビデオカメラを使用してSLAM(simultaneous localization and mapping)を実行する方法であって、前記ビデオカメラの姿勢が請求項1に記載の方法を使用して推定される、方法。
  17. 物体の3Dモデルを決定する方法であって、
    移動カメラを使用して前記物体の複数の画像を捕捉することと、
    前記物体の点群を発生することと、ここにおいて、前記点群が前記カメラの姿勢を使用して三角測量から決定される、
    を備え、
    前記カメラの前記姿勢が、請求項1に記載の前記方法によって推定される、方法。
  18. 第1のカメラ姿勢と第2のカメラ姿勢との間の平行移動および回転を決定するためのカメラ姿勢推定装置であって、
    前記装置がプロセッサを備え、前記プロセッサが、
    第1の位置で捕捉された第1の画像と第2の位置で捕捉された第2の画像とから特徴を抽出し、ここにおいて、前記抽出された特徴が、場所、スケール情報、および記述子を備え、前記記述子が、前記第1の画像からの特徴を前記第2の画像からの特徴にマッチングさせることができる情報を備える、
    前記第1の画像と前記第2の画像との間の特徴をマッチングさせ、一致した特徴を生成し、
    前記一致した特徴の深度比を前記スケール情報から決定し、ここにおいて、前記深度比が、前記第2の位置からの一致した特徴の深度に対する前記第1の位置からの一致した特徴の深度の比である、
    n個の一致した特徴を選択し、ここで、前記一致した特徴のうちの少なくとも1つが前記深度比と前記場所の両方により選択される、
    前記スケール情報から導出された深度比をもつ前記選択された一致した特徴を使用して、前記第1のカメラ姿勢と前記第2のカメラ姿勢との間の前記平行移動および前記回転を計算する
    ように構成される、
    カメラ姿勢推定装置。
  19. 請求項1に記載の前記方法をコンピュータに実行させるように構成されたコンピュータ可読コードを備える非一時的記録媒体。
JP2018024896A 2017-07-18 2018-02-15 カメラ姿勢推定方法およびシステム Active JP6571225B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/653,158 US10460471B2 (en) 2017-07-18 2017-07-18 Camera pose estimating method and system
US15/653,158 2017-07-18

Publications (2)

Publication Number Publication Date
JP2019021291A JP2019021291A (ja) 2019-02-07
JP6571225B2 true JP6571225B2 (ja) 2019-09-04

Family

ID=65022999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018024896A Active JP6571225B2 (ja) 2017-07-18 2018-02-15 カメラ姿勢推定方法およびシステム

Country Status (2)

Country Link
US (1) US10460471B2 (ja)
JP (1) JP6571225B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11080890B2 (en) * 2017-07-28 2021-08-03 Qualcomm Incorporated Image sensor initialization in a robotic vehicle
US10831188B2 (en) 2017-11-07 2020-11-10 Zoox, Inc. Redundant pose generation system
CN109993113B (zh) * 2019-03-29 2023-05-02 东北大学 一种基于rgb-d和imu信息融合的位姿估计方法
CN112640417B (zh) * 2019-08-09 2021-12-31 华为技术有限公司 匹配关系确定方法及相关装置
CN110570474B (zh) * 2019-09-16 2022-06-10 北京华捷艾米科技有限公司 一种深度相机的位姿估计方法及***
CN111476842B (zh) * 2020-04-10 2023-06-20 中国人民解放军国防科技大学 一种像机相对位姿估计方法及***
CN112907662B (zh) * 2021-01-28 2022-11-04 北京三快在线科技有限公司 特征提取方法、装置、电子设备及存储介质
WO2023085997A1 (en) * 2021-11-09 2023-05-19 Saab Ab A method, software product and system for gnss denied navigation

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6504569B1 (en) * 1998-04-22 2003-01-07 Grass Valley (U.S.), Inc. 2-D extended image generation from 3-D data extracted from a video sequence
WO2012174090A2 (en) * 2011-06-13 2012-12-20 University Of Florida Research Foundation, Inc. Systems and methods for estimating the structure and motion of an object
US8831290B2 (en) 2012-08-01 2014-09-09 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining poses of vehicle-mounted cameras for in-road obstacle detection
CN104933755B (zh) * 2014-03-18 2017-11-28 华为技术有限公司 一种静态物体重建方法和***
US9969337B2 (en) * 2014-09-03 2018-05-15 Sharp Laboratories Of America, Inc. Methods and systems for mobile-agent navigation
US10295365B2 (en) * 2016-07-29 2019-05-21 Carnegie Mellon University State estimation for aerial vehicles using multi-sensor fusion

Also Published As

Publication number Publication date
JP2019021291A (ja) 2019-02-07
US20190026916A1 (en) 2019-01-24
US10460471B2 (en) 2019-10-29

Similar Documents

Publication Publication Date Title
JP6571225B2 (ja) カメラ姿勢推定方法およびシステム
US10334168B2 (en) Threshold determination in a RANSAC algorithm
US8953847B2 (en) Method and apparatus for solving position and orientation from correlated point features in images
US8411966B2 (en) Estimation of image relations from point correspondences between images
Wells III Statistical approaches to feature-based object recognition
WO2015135323A1 (zh) 一种摄像机跟踪方法及装置
JP2016128810A (ja) 奥行きカメラを校正する方法
CN109842811B (zh) 一种在视频中植入推送信息的方法、装置及电子设备
US20130208009A1 (en) Method and apparatus for optimization and incremental improvement of a fundamental matrix
EP3012779A1 (en) Method and apparatus for extracting feature correspondences from multiple images
Albl et al. Rolling shutter camera absolute pose
CN112541950A (zh) 一种深度相机外参的标定方法、及装置
JP6359985B2 (ja) デプス推定モデル生成装置及びデプス推定装置
Lee et al. Robust uncertainty-aware multiview triangulation
CN109902695B (zh) 一种面向像对直线特征匹配的线特征矫正与提纯方法
Dang et al. Stereo calibration in vehicles
US11790606B2 (en) Determining camera rotations based on known translations
Wang et al. Robustifying relative orientations with respect to repetitive structures and very short baselines for global SfM
Enqvist et al. Stable structure from motion using rotational consistency
Hess-Flores et al. Ray divergence-based bundle adjustment conditioning for multi-view stereo
Rastgar Robust self-calibration and fundamental matrix estimation in 3D computer vision
Komorowski et al. Extrinsic camera calibration method and its performance evaluation
Papachristou et al. A method for the evaluation of projective geometric consistency in weakly calibrated stereo with application to point matching
Recker Applications of an Angular Error Metric to Multiple View Scene Reconstruction
Yu Towards Semi-Dense Indirect Visual-Inertial Odometry

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190807

R151 Written notification of patent or utility model registration

Ref document number: 6571225

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151