JP6330068B2 - 画像分析システムおよび方法 - Google Patents

画像分析システムおよび方法 Download PDF

Info

Publication number
JP6330068B2
JP6330068B2 JP2017029705A JP2017029705A JP6330068B2 JP 6330068 B2 JP6330068 B2 JP 6330068B2 JP 2017029705 A JP2017029705 A JP 2017029705A JP 2017029705 A JP2017029705 A JP 2017029705A JP 6330068 B2 JP6330068 B2 JP 6330068B2
Authority
JP
Japan
Prior art keywords
camera
measurement
loop closure
loop
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017029705A
Other languages
English (en)
Other versions
JP2017162457A (ja
Inventor
ブルマウド ギローム
ブルマウド ギローム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of JP2017162457A publication Critical patent/JP2017162457A/ja
Application granted granted Critical
Publication of JP6330068B2 publication Critical patent/JP6330068B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/32Indexing scheme for image data processing or generation, in general involving image mosaicing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)

Description

関連出願
本発明は、内容の全体が参照により本明細書に組み込まれる、2016年3月11日出願の米国仮特許出願第62/306,959号と、2016年8月16日出願の米国特許出願第15/237839号との優先権の利益に基づき、これを請求する。
本明細書に説明されるものとしての本発明の実施形態は、概して、画像分析システムと方法との分野に関連する。
多くの画像分析タスクにおいて、場面から画像をキャプチャしている、その場面に対して動いているカメラを有する必要がある。1つのそのようなタスクは、カメラが動いている物体に取り付けられ、カメラが場面を視覚化してそのポーズを決定する情報を記録する必要がある、いわゆるSLAM(同時位置決めマッピング)である。そのようなSLAMタスクには、ロボット工学、自律運転車両などにおいて直面する。
カメラのポーズを推定する際、1つの手法はカメラのポーズの、その以前のポーズからの変化を推定し、相対的な変化を推定することである。相対的な変化のみを組み合わせることによってカメラのポーズを推定することは、ノイズによって大きな影響を受けるため、ドリフトを引き起こす。
3D回転を処理する際には「複数回転平均化」、カメラポーズに適用される際には「ポーズグラフ(pose−graph)干渉」とも呼ばれる、この動作平均化問題は多くの研究の主題となってきた。SLAMに関して上で述べたにもかかわらず、カメラの状態を推定する一般的問題もまた、映像モザイク化および3D場面の再構築などの他の用途において生じる。
非限定的な実施形態によるシステムと方法とが、添付の図面を参照して説明される。
本発明の実施形態による方法の流れ図。 走行距離測定のみから導き出された、動くカメラの、あり得る予測された経路と変動とを示す概略図。 ループ閉鎖測定によって訂正された、図1(b)に示された推定された経路と変動との概略図。 単一の完全なループを通って変化するカメラの状態の概略図。 絶対的なパラメータ化に関するヤコビアン行列を表す図。 絶対的なパラメータ化に関する疑似ヘッセ行列を表す図。 絶対的なパラメータ化に関する疑似ヘッセ逆行列を表す図。 相対的なパラメータ化に関するヤコビアン行列を表す図。 相対的なパラメータ化に関する疑似ヘッセ行列を表す図。 相対的なパラメータ化に関する疑似ヘッセ逆行列を表す図。 走行距離測定とループ閉鎖測定とを処理する実施形態によるステップを示す流れ図。 ループ閉鎖測定の基本的処理を示す本発明の実施形態による方法を示す流れ図。 本発明の実施形態による方法を実装するプロセッサによって実行された処理ステップの順序を示す流れ図。 図6(a)のガウスニュートン処理をより詳細に示す流れ図。 2つのループ閉鎖測定が異なる回数で発生する、経路の概略描画図。 2つのループ閉鎖測定が同時に発生する、経路の概略描画図。 KITTI00データセットでの平面視覚SLAM(SE(2))タスクに適用された方法の精度に関する結果を示す図。 KITTI00データセットでの平面視覚SLAM(SE(2))タスクに適用された方法の再現率に関する結果を示す図。 KITTI07データセットでの平面視覚SLAM(SE(2))タスクに適用された方法の精度に関する結果を示す図。 KITTI07データセットでの平面視覚SLAM(SE(2))タスクに適用された方法の再現率に関する結果を示す図。すべての場合において、x軸は本発明の実施形態による方法によって処理される不正確なループ閉鎖測定の数の測定。 LIDARによって測定されたカメラポーズを表す描画図。 本発明の実施形態による方法によって決定されるカメラポーズを表す描画図。 LIDARによって測定されたカメラポーズを表す描画図。 本発明の実施形態による方法によって決定されるカメラポーズを表す描画図。 ビデオモザイク化タスクに関するいくつかの入力画像を示す図。 グラウンドトゥルースの結果を示す図。 本発明の実施形態による方法を用いて得られた結果を示す図。 本発明の実施形態によるシステムを示す図。 本発明の実施形態によるシステムを用いた車両を示す図。
一実施形態において、本発明はカメラの移動を決定する方法を提供し、ここにおいて、前記移動は参照状態からのカメラ状態の絶対的な変化に関して表現され、方法は、
前記カメラからキャプチャされたビデオ画像のストリームを受信することと、
前記ビデオ画像から、連続的な画像または連続的な画像の組の間のカメラ状態の相対的な変化を決定する走行距離測定のストリームを生成することと、
前記ビデオ画像から、非連続的な画像または非連続的な画像の組の間のカメラ状態の相対的な変化を決定することによってループ閉鎖測定のストリームを生成することと、
前記走行距離測定と前記ループ閉鎖測定とにおける相対的な変化の事後分布から、カメラ状態の絶対的な変化を推定することと、を備え、ここにおいて、前記事後分布は、前記相対的な変化が互いに独立であることを前提とする分解された分布によって近似される。
上記実施形態において、入力データはビデオストリームであり、絶対的な変化のオンライン推定が行われる。
上記方法は、新しい測定が受信されるごとに以前のすべての測定に関する基準またはコスト関数を最小化するとは限らない。少ない計算回数を達成するように、上記方法はフィルタリングを実行する。すなわち、各測定を1つずつ処理する。上記方法において、推定された変化の事後分布のパラメータの数が推定された変化の数に対して高々線形的に増加するように、その分布は連続的に近似される。
上記方法の実施形態において、ループに含まれる相対的な変化における分解された分布は、同一のループに関する新しいループ閉鎖測定が受信されるごとに再推定される。さらに、分解された分布のパラメータは各推定の後で保持される。一実施形態において、パラメータは相対的な変化の推定された平均と共分散とである。
一実施形態において、ループ閉鎖測定に関連するループ内に含まれる相対的な変化のみが更新されることに留意すべきである。
上記方法は、対角線上のブロックの数がループ閉鎖測定により再推定されているループ内の相対的な変化の数であるブロック対角行列として、合計の共分散をモデル化する。処理されているループ閉鎖内にあるものを除いて、他のいかなる相対的な変化も更新されない。
ブロックのサイズは、オリジナルの走行距離測定からの共分散のサイズによって設定される。オリジナルの測定の共分散のサイズは測定の型によって設定される。典型的には、ブロックのサイズは自由度の数に対応する。例えば、カメラポーズは6の自由度を有し、共分散は6×6行列によって表されることができるが、行列のサイズをさらに圧縮することが可能であり、ホモグラフィ(homography)測定は8の自由度を有し、さらに行列のサイズは縮小されることが可能である。
したがって、任意の点において再推定される必要があるパラメータの数は、ループ閉鎖測定内の相対的な変化の数によって上下し、このことは、オフラインバッチ処理のみとは対照的に、システムがリアルタイムで動作して測定を処理することを可能とする。
上記で説明したように、実施形態は大きな範囲の問題に関するオンライン推定を可能にする。新しい測定が受信された場合、すべての過去のデータに基づいて絶対的な変化を再計算する必要はない。上記で説明したように、分解された分布のパラメータのみが保持される。したがって、更新された分解された分布のパラメータがひとたび決定されれば、生の走行距離測定とループ閉鎖測定とは破棄されてもよい。
大きな範囲の問題を処理することは、知覚的なエイリアシング(aliasing)のリスクと、それによる誤ったループ閉鎖の数とを増加させる。したがって、一実施形態において、誤ったループ閉鎖が検出されて削除される。一実施形態において、ループ閉鎖測定は、前記ループとゲーティング(gating)閾値とに関する分解された分布のパラメータに関する以前の値と比較することによって、有効であると決定される。
上記方法は2Dまたは3D画像に適合されることができる。3D画像は単眼技法を用いて単一のカメラから決定されることができる。ここで、3Dポイントクラウドを生成するように、多数の2Dフレームが組み合わせられることができる。さらなる実施形態において、知られている地理的関係にある2つ以上のカメラが用いられ、知られているステレオ方法を用いて3Dポイントクラウドが決定される。
例えば、前記カメラと知られている固定された関係にある、少なくとも1つのさらなるカメラが提供され、ステレオ方法を用いて、カメラと前記少なくとも1つのさらなるカメラとから、走行距離測定とループ閉鎖測定とが提供される。
上記において、カメラによって得られたビデオフレームは、決定された3Dポイントクラウドと組み合わせられ、前記走行距離測定とループ閉鎖測定とが前記3Dポイントクラウドから決定される。
一実施形態において、上記方法はいわゆるSLAM(同時位置決めマッピング)タスクに適用され、カメラを領域内に移動することと、前記カメラからの画像データを得ることと、上記で説明された前記カメラの絶対的な変化を推定することとを備え、ここにおいて、前記領域内の前記カメラの位置を決定するようにカメラ位置の絶対的な変化が用いられ、方法はさらに、カメラと、決定された絶対的な変化からのカメラの位置とから画像データを用いて前記領域をマッピングすることを備える。
カメラは、例えば車、ロボット、自律運転車両などの、移動する物体に位置してもよい。
上記方法はまた、2D画像フレーム間で決定された2Dホモグラフィから、走行距離測定とループ閉鎖測定とが決定される、2D画像に適用されてもよい。
一実施形態において、これはビデオモザイク化に適用され、方法は、領域にカメラを移動することと、前記カメラから画像データを得ることと、上記方法を用いて前記カメラの絶対的な変化を推定することとを備え、ここにおいて、前記領域に関する前記カメラの位置を決定するようにカメラ位置の絶対的な変化が用いられ、決定された絶対的な変化からのカメラの位置を用いてビデオのフレームを並べる。
一実施形態において、分解された分布は変分ベイズ近似を用いることによって決定される。さらなる実施形態において、変分ベイズ近似はカルバック・ライブラー(Kullback−Leibler)発散を用いて決定される。
一実施形態において、カメラの状態は、カメラの回転(のみ)、カメラの位置(のみ)、カメラのポーズ(カメラの位置と回転)、または、カメラの状態が同一平面内の2つの画像の間の関係を表すホモグラフィ行列に符号化されるホモグラフィを意味するように解釈される。
変化は、例えば、3Dユークリッド動作に関するSE(3)、ホモグラフィに関するSL(3)、3D類似に関するSim(3)など、任意のリー(Lie)群に含まれてもよい。
実施形態によるいくつかの方法がソフトウェアによって実装可能であるため、いくつかの実施形態は、汎用コンピュータに提供された、任意の適切な保持媒体上のコンピュータコードを包含する。保持媒体は、フロッピー(登録商標)ディスク、CD ROM、磁気デバイスもしくはプログラム可能なメモリデバイスなどの任意の記憶媒体、または、例えば電気的、光学的もしくはマイクロ波信号などの任意の信号などの一時的な媒体を備えることができる。
図1(a)は本発明の一実施形態による方法を示すフロー図である。
図1(a)の実施形態において、処理するための入力ビデオ信号がステップS101において受信される。この実施形態において、カメラポーズはビデオ画像の配列から推定される。しかしながら、これは例示的実施形態にすぎず、根本的な方法に依存する他の応用例が以下に述べられる。
ステップS101に集められたビデオフレームはステップS103において組にグループ化される。一実施形態において、これらの組はn個の連続するフレームのグループであり、nは少なくとも2である整数である。一実施形態において、nは5と10の間である。別の実施形態において、nは組によって変化する。
各組において、3D再構築がステップS105において生成される。一連の2D画像から3Dポイントクラウドを生成するための知られている方法を用いて再構築を生成する多くの可能性がある。ポイントクラウドが生成される際、クラウド内の各ポイントは平均(シーン内のオブジェクトの表面の予測される位置)とこの位置の共分散とを含む確率分布を表す。
ステップS107において、異なる組からの2つの3D再構築が並べられ、2つの再構築の間の3D類似の測定が決定される。この3D類似測定は、2つの3D再構築の間の変化の平均と共分散との形式で表される。
連続する組からとられた3D再構築の間の類似が測定されると、測定された変化は走行距離測定変化S109である。非連続の再構築の間で類似が測定される際には、測定された変化はループ閉鎖変化S111である。
カメラが移動するにつれて、走行距離測定変化のシーケンスが生成される。そしてこれらは、ステップS113においてカメラ状態を更新するように用いられる。カメラ状態は、カメラの回転(のみ)と、カメラの位置(のみ)と、カメラのポーズ(カメラの位置と回転)と、カメラの状態が同一平面内の2つの画像の間の関係を表すホモグラフィ行列に符号化されるホモグラフィとに関して表現されることができる。
走行距離測定に加えて、ステップS113において更新されたカメラ位置の推定を行うように、ループ閉鎖変化S111が走行距離測定変化に組み合わせられる。これを行う方法は図4から図6bを参照してより詳細に説明される。方法はカメラ状態のリアルタイムな正確な推定を可能にする。
図1(b)はカメラの現実の経路501を示す概略図である。測定された経路503が真の循環経路から逸脱するものとしてみられる。測定の分散は点線507、509の間の幅として示される。
図1cに示されるように、測定された経路503を訂正するように点511におけるループ閉鎖測定が用いられることができ、訂正された経路513は実際の経路501に近いものにみえ、点線515と517とによって示される分散の実質的な減少がある。
ループ閉鎖変化によってどのように走行距離測定変化が訂正されるか理解するように、単一のループの簡略化された状態がまず検討される。そのような例は、長さ10の完全なループが例示される図2で示される。各錐体はカメラポーズを表す。走行距離測定は実線で示され、ループ閉鎖測定は点線で示される。
状況を考える前に、本明細書で用いられる数学的モデルと表記法とを説明する。本明細書で説明される理論は、任意の行列リー群(典型的にはSE(3)、SL(3)、Sim(3)など)に適用されることができ、それらはフレームワークが様々な用途に適用されることを可能とするため、実用的に非常に便利であることが判明している。Chirikjian,G.S.:Stochastic Models,Information Theory,and Lie Groups、第2巻、Springer−Verlag、2012年は、本明細書で説明される原理の背景として有用なリー群の概説を与える。
本出願において、以下の表記法が用いられる。G⊂Rn×nは固有次元pの行列リー群であり(すなわち、G=SE(3)⊂R4×4の場合p=6、G=SL(3)⊂R3×3の場合p=8など)、exp G(・):Rp→Gとlog G(・):G→Rpとは、それぞれGの指数マップと対数マップとに対応し、Tij∈Gは座標系jから座標系iへの変化を表す行列であり、したがって表記法Tijjk=TikとTij -1=Tjiとなる。
以下の考察もまたGの随伴表現、AdG(・):G→Rp×pを用い、それは、はじめはTijに左から掛けられていた要素δij∈Rpを、Tijの右側へ運ぶことを可能にし、それによってexp Gδijij=Tijexp G(AdG(Tji)δij)となる。最後に、G上のガウス分布の表記法は
として導入され、ここで||・||2は平方マハラノビス距離を表し、TijとPijとはそれぞれ、ランダム変数Tijの平均と共分散とである。
動作平均化問題に対処することが可能であり、絶対的な変化の2つの異なるパラメータ化が共通して用いられる。相対的なパラメータ化と絶対的なパラメータ化である。異なるパラメータ化は異なる測定モデルにつながり、その結果として異なる計算的複雑性を有するアルゴリズムと異なる形状を有する事後分布とにつながる。
まず、相対的なパラメータ化のフレームワークが考察される。
n(n+1)∈Gで表される走行距離測定は、2つの連続するローカルな座標系の間のノイズが多い変化である。n≠m+1であるZmn∈Gで表されるループ閉鎖測定は、2つの時間的に非連続なローカルな座標系の間のノイズが多い変化である。さらに、この実施形態において、測定のノイズは相互に独立していると前提される。
相対的なパラメータ化はT(k-1)kの形式の変化を推定することにあり、kは時間の瞬間kにおけるカメラのローカルな座標系である。したがって、時間の瞬間kにおいて、推定される変化の組は{Ti(i+1)i=1,......,k-1である。絶対的な変化T1kは、推定された相対的な変化を単純に掛けることによって得られることができる。すなわち、
である。走行距離測定とループ閉鎖とに関する尤度はガウシアン(Gaussian)であると前提され、それぞれ表1の式(2)と式(3)とにおいて与えられる。
単一ループの単純化された問題に戻ると、相対的なパラメータ化を用いて、図2(a)の状態が考慮される。ここで、長さNLのループが考慮され、NL-1個の走行距離測定{Zi(i+1)i=1,......,NL-1が利用可能であり、ローカルな座標系1とNLとの間の単一のループ閉鎖Z1NLがある。
式(2)と式(3)とで定義された尤度を用いて、相対的な変化
に関して以下の基準が最小化される。
一実施形態によれば、この基準を最小化する1つの方法は、相対的な変化が以下のように反復的に一緒に改良されるガウス−ニュートンアルゴリズムを適用することである(上付き文字は反復を表す)。
サイズp×NLの以下の(密行列)線形系を解くことによって、インクリメント
が各反復において得られる。
ここで
は系のヤコビアン行列であり(図3bを参照)、Λは測定の共分散行列の逆行列を連結するブロック対角行列であり、
である。
上記の相対的なパラメータ化は密行列の線形系を解くことを要求する。しかしながら、ウッドベリー式を用いて問題の構造を利用することによって、
を示すことが可能である。
ここで、
がループ閉鎖エラーのヤコビアンであり
である。この場合、サイズp(すなわち、ループの長さと独立)の線形系のみが解かれる必要があり、アルゴリズムは、単一ループを閉じるために高効率なものとされる(実際には、G=SE(3)に関してp=6、G=SL(3)に関してp=8など)。
さらに、(アルゴリズムがひとたび収束に達して)線形近似における事後分布の共分散行列を表す疑似ヘッセ逆行列
が、変化の間の非常に小さい相関を示す。それゆえ、その共分散行列のブロック対角近似は、大きなスケールの問題を効率的に処理可能なフィルタを導き出すことを可能にする、妥当な近似である。
上記を絶対的なパラメータ化と比較すると、絶対的なパラメータ化は形式TkWの変化を推定することからなり、Wは「世界」座標系であり、kは時間の瞬間kにおけるカメラのローカルな座標系である。したがって、時間の瞬間kにおいて、推定される変化の組は
である。実際には、「世界」座標系も知られていないため、T1Wは通常は単位行列に固定される。走行距離測定とループ閉鎖との尤度はガウシアンと前提され、表A1でそれぞれ式(A1)と式(A2)とで与えられる。
相対的なパラメータ化の場合と類似して、尤度は式(A1)と式(A2)とで定義され、以下の基準を用いて最小化されるが、この場合は絶対的な変化
に関する。
再び相対的なパラメータ化に関して、絶対的な変化が以下のように反復的に一緒に改良されるガウス−ニュートンアルゴリズムを適用することによって基準は最小化される(上付き文字は反復を表す)。
サイズp×NLの以下の(疎行列)線形系を解くことによって、インクリメント
が各反復において得られる。
ここで
は系のヤコビアン行列であり、Λは測定の共分散行列の逆行列を連結するブロック対角行列であり、†は行列の疑似逆行列を表す(
がp個のヌル(null)な固有値を有するため)。
さらに、
であり
である。
相対的なパラメータ化の手法と、絶対的なパラメータ化の間の比較は図3(a)から図3(f)にみられる。
図3(a)から図3(f)は、単一ループに関するSE(3)群の動作平均化問題からの表示を示す。図3(a)は絶対的なパラメータ化に関するヤコビアン行列を表し、図3(b)は絶対的なパラメータ化に関する疑似ヘッセ行列を表し、図3(c)は絶対的なパラメータ化に関する疑似ヘッセ逆行列を表し、図3(d)は相対的なパラメータ化に関するヤコビアン行列を表し、図3(e)は相対的なパラメータ化に関する疑似ヘッセ行列を表し、図3(f)は相対的なパラメータ化に関する疑似ヘッセ逆行列を表す。
絶対的なパラメータ化を用いて、疑似ヘッセ逆行列(図3(b))は絶対的な変化の間に非常に強い相関を示す。これに反して、図3(e)に示された相対的なパラメータ化を用いて、疑似ヘッセ逆行列は相対的な変化の間に非常に小さい相関(ヌルではないがゼロに近い)を示し、これは独立した相対的な変化を前提とする事後分布の変分ベイズ近似の使用の選択を正当化する。
上記から、相対的なパラメータ化は、少なくともオンライン推定に関して、絶対的なパラメータ化よりも魅力的なプラットフォームを提供する。したがって、本発明の実施形態による方法に関して、相対的なパラメータ化がフィルタの設計に関して用いられる。
図4から図6(b)を参照して説明されるように、ループ閉鎖測定は、各反復においてサイズpの線形系を解くことのみを要求するこの高度に効率的なGNを用いて、連続的に処理される。ループ閉鎖を処理した後で、事後分布の共分散行列は、変分ベイズ近似を用いてブロック直交共分散行列によって近似される。
一実施形態において、この手法はGNアルゴリズムを用い、それは互いに作用しないループを含む任意の問題(すなわち、測定に異方性ノイズを有する任意の行列リー群G)に関して最適である。
図4はオンライン変分ベイズ動作平均に関して用いられる方法のステップの流れ図である。
時間の瞬間k−1(ここでk>2である)において、推定された状態はすべての相対的な変化
にある。より具体的には、時間の瞬間k−1において、状態の事後分散は以下の分解された形式を有すると前提される。
時間の瞬間kにおいて、新しい走行距離測定Z(k-1)k(知られている共分散Σ(k-1)kを有する)がステップS151で利用可能であり、推定された状態は単純に増加する、すなわちχk={Ti(i+1)i=1,......,k-1である。したがって、状態の事後分散は分解されたままであり、以下の形式を有する。
時間の瞬間kにおいて、走行距離測定Z(k-1)kを受信した後で、処理はステップS153に移動し、新しいループ閉鎖測定が利用可能である場合にそれが決定される。いかなるループ閉鎖測定も利用可能ではない場合、処理はステップS151にループして戻る。しかしながら、ループ閉鎖測定が利用可能な場合、処理はステップS155に移動する。ループ閉鎖測定が利用可能であるかそうでないかをどのように決定するかが、図5のステップS201を参照して説明される。
ステップS155において、新しいループ閉鎖測定Zlk(知られている共分散Σlkを有する)(ここでl<k)が処理される。事実、複数のループ閉鎖が利用可能である。しかしながら、この説明に関して、表記法を整理された状態に保つように、1つのみのループ閉鎖が説明される。
実際に、処理は図5を参照して説明される各ループ閉鎖に順番に適用される。
新しいループ閉鎖測定Zlkが利用可能な際、その観察から来る情報は状態の現在の推定を向上させるように用いられる。しかしながら、観察モデル式(3)はループに含まれるすべての相対的な変化の間の依存を生成し、それゆえ、事後分布はこれ以上分解されない。したがって、パラメータの数は、特に大きなスケールの問題に関して、分解されない事後分布が巨大になる(典型的にはO(k2)またはそれ以上)ことを正確に説明することが必要になる。
一実施形態において、上記事後分布は分解された分布によって近似され、大きなスケールの問題に関してシステムがオンラインで動作することを可能にする。一実施形態において、分布のパラメータの数はO(k)である。そのような近似は、図2と図3とを参照して考察された単一ループ分析によって正当化される。
一実施形態において、真の事後分布と「同様の」分解された分布を発見する1つの方法は、カルバック−ライブラー発散
を最小化することである。
「変分ベイズ近似」または「構成された平均場」と呼ばれる上記手法において、完全に分解された分布は前提とされず、代わりに相対的な変化が互いに独立であると前提される。
上記から続いて、χkに関する(10)におけるKL発散を最小化することは、下界を最大にすることに対応する。
ここで、すべてのランダムな変数の(対数)接続分布は形式
を有する。
しかしながら、リー群の曲率のために、(12)のノルム内の項は変化において線形ではない。この場合に変分ベイズ近似を当てはめる1つの方法は、ノルムの内側の項を線形にすることである。
この点において、線形化ステップに含まれる変数を定義することが便利である。
ここで
は相対的な変化Ti(i+1)に関する(固定された)線形化点であり、εi(i+1)はランダムな変数である。この線形化点はかなり重要であり、その値はセクションの終わりにおいて考察される。線形化の後に、対数接続分布は
となる。
ここで
のヤコビアンは単位行列によって近似され
であり
である。
対数接続分布(14)が与えられると、目的は今や、χkが線形化ステップのために
に置き換えられるときに、下限(11)を最小化することである。ここで
である。
実際には、各変数εi(i+1)に関して、最良の近似分布が以下の式
によって与えられることを証明することが可能である。
ここで、
はεi(i+1)を除くすべての変数に関する条件的な期待値を表す。したがって、以下が得られる。
ここで
であり、
である。
のである。それゆえ、各ランダム変数εi(i+1)(i=1........k−1)に関して、最良の近似分散はガウシアンの形式である。
i<lの場合、すなわち、相対的な変化Ti(i+1)がループ閉鎖Zlkに含まれない場合、
ループ閉鎖がそのループに含まれる相対的な変化を修正するのみであるため、
がアルゴリズムを非常に効率的にする。理論的には、{μi(i+1)}i=1.....k−1の値を得るように、式(19)は収束するまでループ内に含まれる各相対的な変化に関して繰り返されることができる。しかしながら、線形化ステップ(式(13)を参照)が(12)を最小にするものの周囲で行われる場合、i=l,.....,k−1に関してμi(i+1)=0であることが証明可能である。
したがって、実際には、各新しいループ閉鎖測定において、ステップS203における(12)を最小にするものを非常に効率的に見つけるように、ガウス−ニュートンアルゴリズムが適用される。そして、共分散
(式18を参照)のみが、ステップS205においてi=l,.....,k−1に関して計算される必要がある。
最後に、各相対的な変化に関して、
がゼロ平均のガウシアンである。したがって、式(13)から、(線形近似である限り)
は形式
のリー群(式(1)を参照)上のガウス分布であることがわかる。その結果として、新しいループ閉鎖を処理した後で、事後の分解された近似は以下の形式となる。
そして、これはステップS207により絶対的な変化の更新を可能にする。
図5においてS201はループ閉鎖測定がインライアーであるかどうか決定する決定に言及する。実際には、同一であると理解されている2つの場所が、誤ったループ閉鎖をしばしば生成する。その結果として、一実施形態において、動作の平均化を行うように、特に、誤ったループ閉鎖が非常に起こりやすい大きなスケールの問題に関して、これらの誤ったループ閉鎖測定を検出して削除するステップがある。
上記方法は事後分布の近似を継続的に維持するため、有効ゲーティングを介して誤ったループ閉鎖測定を検出することが可能である。この手法は、以下の分散
のパラメータである平均
と、共分散
とをまず計算し、そして、閾値tに関して受信された測定がインライアー
でありそうか否かを確認することにある。
理論的には、tはカイ二乗分布のp値に基づくべきである。
しかしながら、例を参照して説明されるように、そのような理論値は時には、特に、走行距離測定とループ閉鎖測定の共分散があまり正確ではない場合の現実のデータを処理する場合には、あまりに限定的となり、測定がすべて同一のデータセットから定義されるため、相互に独立したノイズであるとの前提に違反する可能性がある。実際には、tは試行錯誤によって、例えばグラウンドトゥルースのデータセットにおいてアルゴリズムを実行することによって選択されることができる。ある非限定的な例では、t=900である。
図6は上記方法を実装するための疑似コードの例である。これは、一実施形態において、上記ステップがどのように実装可能なのかを示すように、ここで詳細に説明される。
システムは走行距離測定
のストリームを提供され、ここでZは類似の測定であり、Σは共分散であり、kは測定であり、kは時間の瞬間kにおけるカメラのローカルな座標系である。システムはまた、ループ閉鎖測定
のストリームと、インライアーの存在を決定するゲーティング閾値tとを提供される。
ステップS301において、kと絶対的な変化の平均
との値が、それぞれ1と単位行列とに初期化される。そして、ステップS302において、新しい走行距離測定が処理され、kは1だけインクリメントする。ここで、まず、時間瞬間kにおける相対的な変化の平均
と共分散P(k-1)kが、ステップS303において処理されている走行距離測定の値に初期化される。
そして、絶対的な変化の平均
が、ステップS305で処理される走行距離測定によって増加させられた絶対的な変化の最近の推定値に設定される。
ステップ306は処理すべき新しいループ閉鎖測定があるかどうか決定する。処理すべき新しいループ閉鎖測定がある場合、ステップS307において、上記の式24に関連して考察された方法によってこの測定がインライアーであるかどうか決定される。閾値tは入力として受信される。ループ閉鎖測定がアウトライアーである(すなわち、条件が満たされない)場合、次の走行距離測定がステップS303において処理される。
次のループ閉鎖測定がインライアーであると決定された場合、上記式(12)を最大にするものを決定するようにガウスニュートン法が用いられ、線形化ステップが実行される。これを行うように、ガウスニュートン(GN)法はステップS309からS319にかけて実装される。図6aにおいて、GN法はステップS308として示される。完全なGN法は図6bに示される。
ステップS309において、ループlの開始からk−1までのループにおける各測定iに関して、各相対的な変化Ti(i+1)に関する(固定された)線形化ポイント
が、各相対的な変化、すなわち
に関する現在の推定において設定され、各相対的なエラーri(i+1)とインクリメントδi(i+1)とはステップS309において共にゼロに設定される。
ガウスニュートン法が収束するまで、ループエラーはステップS311において計算される。次に、ステップS313において、lに関する相対的なエラーがインクリメントに設定され、ヤコビアンJllが単位行列に設定される。そして、ループ(l+1からk−1)の残りの測定のすべてに関して、相対的なエラーとヤコビアン(Jll)とはステップS315で更新される。収束は多くの方法、例えば、固定された数の反復によって、または、反復の間で安定しているかどうか確かめるようにインクリメント、エラー、もしくはパラメータの少なくとも1つを監視することによって、決定されることができる。一実施形態では、安定性は、インクリメント、エラーの変化またはパラメータを、最小の固定値、例えば<10-6と比較することによって決定される。
そして、積算されたエラーrlk,cumと積算共分散Clk,cumとは、ステップS317において、ループエラーrlkの値とループ閉鎖測定の共分散の値とに初期化される。そして、ステップS319において、積算エラーと共分散とは、ループにおける各計測に関して決定されたヤコビアンから計算される。
ステップS321において、xはClk,cum x=rlk,cumを解くことによって得られ、xはステップS323で用いられる。
ステップS323において、ループの各測定に関して、インクリメントが更新され、相対的な変化(線形化ポイント)
が更新される。
GNがステップS325で収束しなかった場合、ガウスニュートン処理はステップS311から繰り返す。GNが収束する場合、事後分布の変分ベイズ近似が生成され、ループにおける各相対的な変化の共分散がS327において計算される。ここで、各測定に関する相対的な変化もまた、線形化ポイントに設定される。最後に、絶対的な変化がステップS329において決定される。
ステップS331において、別の利用可能なループ閉鎖測定があるかどうか決定される。上記のように、新しい各走行距離測定に関して、1つ以上のループ閉鎖測定が利用可能である。1つ以上のループ閉鎖測定がある場合、ガウスニュートン処理S308が繰り返される。
ステップS333において、新しい走行距離測定が利用可能であるかどうか決定され、そうであるなら、処理はステップS303から再度繰り返す。上記方法は更新された絶対的な変化を継続的に出力する。
上記方法からみられるように、新しい各走行距離測定が受信されるにつれて絶対的な変化が更新されるため、システムはオンラインで動作することができる。GN法に注目すると、新しい各ループ閉鎖測定は相対的な変化の既存の推定を改良するように用いられる。
変分ベイズ(VB)手法は、パラメータの数がO(k)である分解された分布を有する事後分布を近似する。この実施形態において、VBは、式11と12とにおいて上記されたようなKL分散を最小化することによって実装される。式12を最小にするものの周囲で実行される際、線形化ステップによって導き出された場合の相対的な変化の平均はゼロになり、したがって、上記式12を最小にするようにGN法を実行することによって相対的な変化の平均を導き出す非常に効率的な方法がある。上記フレームワークと知られているリー群の特性とにおけるゼロ平均のため、分散は式22で示されるように表現されることができる。詳細な流れ図は、この方法を実装する1つの方法を示す図6(a)と図6(b)とを参照して説明される。
上記で説明された方法において、推定された分布のパラメータは相対的な変化の平均と共分散である。上記方法は、対角線上のブロックの数がループ閉鎖測定のために再推定されているループ内の相対的な変化の数であるブロック対角行列として、合計の共分散をモデル化する。処理されているループ閉鎖内にあるものを除いて、他のいかなる相対的な変化も更新されない。
ブロックのサイズは、ステップS301で受信されたオリジナルの走行距離測定からの共分散のサイズによって設定される。オリジナルの測定の共分散のサイズは測定の型によって設定される。典型的には、ブロックのサイズは自由度の数に対応する。例えば、カメラポーズは6の自由度を有し、共分散は6×6行列によって表されることができるが、行列のサイズをさらに圧縮することが可能であり、ホモグラフィ(homography)測定は8の自由度を有し、さらに行列のサイズは縮小されることが可能である。
したがって、任意の点において再推定される必要があるパラメータの数は、ループ閉鎖測定内の相対的な変化の数によって上下し、このことは、オフラインバッチ処理のみとは対照的に、システムがリアルタイムで動作して測定を処理することを可能とする。
完全性のために、複数のループ閉鎖を有する状態を示すように、図6(c)と図6(d)とが用いられる。図6(c)において、経路551は点553で第1のループ閉鎖を形成する。第2のループ閉鎖は点555で供給される。第1のループ閉鎖測定は553からの相対的な変化を点553に戻して訂正するように用いられる。第2のループ閉鎖555は、そして、点555からの相対的な変化を点555に戻して訂正するように用いられる。第2のループ閉鎖測定が計算される際、これらの測定は同一のループの一部を形成するものではないため、点553から点555への測定は、用いられることも更新されることもないことに留意すべきである。
図6(d)において、経路561は2回ループして戻る。それゆえ、推定された経路上の点563と565との間の第1のループ閉鎖測定があり、点567と563との間の第2のループ閉鎖測定がある。アルゴリズムは、ループ閉鎖測定のそれぞれを順番に処理することによって、そのような状況を取り扱う。
一例において、方法は両眼の6D SLAM用途(リー群SE(3))に応用される。このため、方法は1つの合成的なデータシーケンス(球形)と、2つの現実のシーケンス(もともとはKarlsruhe Institute of Technologyから得られるKITTIデータセットが起源(http://www.cvlibs.net/datasets/kitti/eval_odometry.phpを参照))とに適用される。KITTIデータセットは生のデータを提供し、走行距離測定とループ閉鎖測定とがこれから得られる。この実験の結果は表2に与えられる。表2は、絶対的な位置に関する二乗平均平方根エラー(RMSE)と、C++とMatlabとの両方においてかかる計算時間との両方を示す。
本発明の実施形態による方法は、すべての過去の測定を記憶することとは対照的に、最小の数のパラメータによって以前のデータを要約することに留意すべきである。このことは方法を高速で正確にする。
図7(a)から図7(d)は、KITTI00データセットとKITTI07データセットとから得られた(SE(2))群上の平面視覚SLAM測定からの結果を示す。視覚的走行距離測定モジュールとループ閉鎖モジュールとの両方が、処理を行う走行距離測定とループ閉鎖測定を生成するように用いられた。アルゴリズムの堅牢性を検査するように、用いられたループ閉鎖モジュールは、パラメータαを用いて出力の調整を可能にする閾値を有する。α=1の場合、信頼度が高いループ閉鎖のみが出力され、α=0の場合、すべてのループ閉鎖がループ閉鎖モジュールから出力される。合成的に誤ったループ閉鎖もまた生成され、ループ閉鎖測定の組に加えられる。アルゴリズムの堅牢性を評価するように、実験は、異なる値αに関して、アルゴリズムを適用してループ閉鎖検出精度と再現率とを計算することに存する。ここで、精度は、真のポジティブと偽のポジティブとの合計の数分の、真のポジティブの数として定義され、再現率は、真のポジティブと偽のネガティブとの数分の、真のポジティブの数として定義される。この実験の結果は図7(a)から図7(d)に与えられる。図7(a)と図7(b)とにおいて、それぞれ精度と再現率とに関するデータが与えられる。データはKITTI00データセットからとられる。精度と再現率の両方が完全なスコア1を有することがみられる。図7(c)と図7(d)とはそれぞれ精度と再現率とに関するデータを示す。データはKITTI07データセットからとられる。ここで、α=0.15と0.2とにおいて方法が失敗していることがみられる。ここで、不明瞭な誤ったループ閉鎖がインライアーとして認識されたために、精度と再現率との両方がゼロに下がっている。このことは、推定された軌跡の歪みにつながり、その結果として、後に続くすべてのループ閉鎖の排除につながる。
図8(a)と図8(b)は、単眼視覚SLAM問題を考えることによってリー群Sim(3)を処理する上記手法の可能性を示すように用いられる。測定を得るように、ローカルなSLAM手法が、小さく重なるサブマップを再構築するように、スライディングウインドウバンドル調整を実行する。ここで「サブマップ」はカメラの軌跡と小さい3Dポイントクラウドのフラグメントに対応する。走行距離測定は一時的な連続するサブマップの間の3D同一性を計算することによって得られる。現在のサブマップと以前のサブマップとの間のループ閉鎖を検出するように、まず位置認識アルゴリズムが用いられる。そして、過去のサブマップの各候補に関して、その3Dポイントの記述子と現在のサブマップの3Dポイントの記述子を合致させる。最後に、3D同一性が、RANSACアルゴリズムを用いて計算される。
この用途における動作平均化アルゴリズムの目的は、すべてのサブマップを並べて、環境のグローバルなマップ、すなわち、完全なカメラの軌跡と同様にグローバルな3Dポイントクラウドをもたらすことである。
図8(b)において、KITTIデータセットの15の連続における単眼視覚SLAM(リー群Sim(3))から得られた結果が示される。上記手法によって推定された軌跡が、Lidarからの結果を示す図8(a)の結果に視覚的に近いことがわかる。図8(a)のLidar測定は、COP−SLAMによって推定された軌跡よりもグラウンドトゥルースであるとみなされる。
図9(a)と図9(b)とにおいて、KITTI13データセットからの画像が示され、図9(a)はLidar測定を示し図9(b)は上記処理を用いた結果を示す。
上記例は、SLAMの型の問題に関するカメラの位置のトラッキングに関連する。しかしながら、次に、ビデオモザイク化において用いるための上記方法が、リー群SL(3)を用いて考察される。走行距離測定は、ビデオの一時的に連続するフレームの間のホモグラフィを計算することによって得られる。ループ閉鎖(すなわち、現在のビデオフレームが過去のビデオフレームに重なる場合)を検出するように、画像認識アルゴリズムがまず用いられ、現在のビデオフレームと回収された過去のビデオフレームとの間のホモグラフィを計算するように、RANSACアルゴリズムが適用される。
この用途における動作平均化アルゴリズムの目的は、すべてのビデオフレームを並べて、平面のシーンを前提として、シーン全体のグローバルな(平面の)モザイクをもたらすことである。
図10(a)から図10(c)までにおいて、図10(a)に示されたデータセット上のビデオモザイク化(リー群SL(3))に関する結果が示される。図10(b)はグラウンドトゥルースな結果を示し、図10(c)は、ラージスケール問題を効率的に処理するように数個のパラメータを用いて事後分布が近似される、本発明の実施形態による方法を用いて得られた結果を示す。
しかしながら、図10(c)からは、手法がグラウンドトゥルースに視覚的に非常に近いモザイクを生成し、また、誤ったループ閉鎖を完全に検出することがわかる。図10(b)と図10(c)とにおいて、最上部の横列はモザイクを示す。最下部の横列は白いピクセルがインライアーであるラベリング行列を示し、黒いピクセルは利用可能でない測定に対応し、灰色のピクセルはアウトライアーに対応する。
図11は画像分析システムの概略図である。
システム1は、入力画像を受信するプログラム5を備えるプロセッサ3を備える。記憶装置7はプログラム5によって用いられるデータを記憶する。何のデータが記憶されるかの詳細は後に説明する。
システム1はさらに、入力モジュール11と出力モジュール13とを備える。入力モジュール11はカメラ出力または他の画像データストリームに接続される。入力されるデータの型は多くの形式をとってもよい。一実施形態において、データは生の画像データ、例えば2D画像データである。別の実施形態において、3Dポイントクラウドがシステムによって受信され、さらなる実施形態においてシステムは走行距離測定とループ閉鎖測定とを提供される。システムが走行距離測定とループ閉鎖測定とを提供されない場合、プログラムは2D画像データまたは3Dポイントクラウドからこれらの測定を導き出さなくてはならない。代替として、入力部は外部記憶媒体またはネットワークからデータを受信する受信機であってもよい。しかしながら、これは可能であっても、システムは第一にオンライン使用のために設計されるため、システムは画像データのリアルタイムでライブのストリームを受信することが期待される。
出力モジュール13に接続された出力部は出力部17である。この出力部は多くの異なった形式をとってもよい。一実施形態では、出力部はカメラの動作時の情報を出力する。例えば、図12に示すように、システム21は、カメラ25から画像データを受信する移動する車両23に提供される。カメラ25が車両の頂部に示されるが、それは車のどこに提供されてもよい。また、例えば駐車などの補助を提供するように、複数のカメラが提供されてもよい。
上記の方法は車両の軌跡の高速な推定と、車両の3D位置と3D方向との推定とを可能にする。
画像データは単一のカメラと、単眼技法を用いて構築されたポイントクラウドとからのものであってもよい。他の実施形態において、知られている固定の関係を互いに有する2つ以上のカメラが用いられ、3Dポイントクラウドがステレオ技法を用いて決定される。
出力はシーンに関するカメラの移動を示す画像の形式であってもよい。他の実施形態では、出力は、上記方法で決定されたように、カメラの移動を用いて集められたカメラ出力から構成されたシーンであってもよい。さらなる実施形態において、カメラの位置は、カメラの位置に応じてどのように車両を動かすかに関する決定が行われる自律運転アルゴリズム、または、カメラの位置から決定されたシーンの再生成などの、アルゴリズムへの入力として用いられてもよい。
車が示されているが、任意の型の車両、例えば、自律式電気掃除機がこのアルゴリズムから恩恵を受けてもよい。また、ロボット工学においては、方法はロボットのアームの位置を正確に制御するように用いられてもよい。
上記方法に関するメモリ要求は相対的に少ない。方法は携帯デバイス、埋め込みデバイスなどの制限されたメモリデバイスに適用可能である。
いくつかの実施形態が説明されるが、これらの実施形態は例示としてのみ示されており、発明の範囲を限定する意図はない。実際に、本明細書に説明された新しい方法とシステムとは様々な他の形態で実施可能である。さらに、本明細書に説明された方法とシステムとの形式への様々な省略と、置換と、変更とが、発明の精神から逸脱することなく行われてもよい。添付の特許請求の範囲とそれらの同等物とは、発明の範囲と精神との中にあるものとして、そのような変形の形式を対象に入れることを意図される。

Claims (20)

  1. カメラの移動を決定する方法であって、ここにおいて、前記移動は参照状態からのカメラ状態の絶対的な変化に関して表現され、前記方法は、
    前記カメラからキャプチャされたビデオ画像のストリームを受信することと、
    前記ビデオ画像から、連続的な画像または連続的な画像の組の間のカメラ状態の相対的な変化を決定する走行距離測定のストリームを生成することと、
    前記ビデオ画像から、非連続的な画像または非連続的な画像の組の間のカメラ状態の相対的な変化を決定することによってループ閉鎖測定のストリームを生成することと、
    前記走行距離測定と前記ループ閉鎖測定とにおける相対的な変化の事後分布から、カメラ状態の絶対的な変化を推定することと、を備え、ここにおいて、前記事後分布は、前記相対的な変化が互いに独立であることを前提とする分解された分布によって近似される、
    カメラの移動を決定する方法。
  2. 前記ループ閉鎖測定を1つずつ処理することによって前記走行距離測定をフィルタリングするように動作する、請求項1に記載の方法。
  3. 前記分解された分布が、新しいループ閉鎖測定が受信されるごとに再推定される、請求項1に記載の方法。
  4. 前記分解された分布のパラメータが、各推定の後で保持される、請求項3に記載の方法。
  5. 前記ループ閉鎖測定に関連するループ内に含まれる相対的な変化のみが更新される、請求項4に記載の方法。
  6. 前記パラメータが、前記相対的な変化の推定された平均と共分散とである、請求項4に記載の方法。
  7. 更新された分解された分布のパラメータがひとたび決定されると、生の走行距離測定とループ閉鎖測定とが保持されない、請求項4に記載の方法。
  8. 実行されたループ閉鎖測定を、前記ループとゲーティング閾値とに関する分解された分布のパラメータに関する以前の値と比較することによって、前記実行されたループ閉鎖測定が有効であるかどうかを決定することをさらに備える、請求項1に記載の方法。
  9. 前記カメラと固定された関係にある、少なくとも1つのさらなるカメラが提供され、ステレオ方法を用いて、前記カメラと前記少なくとも1つのさらなるカメラとから、前記走行距離測定と前記ループ閉鎖測定とが提供される、請求項1に記載の方法。
  10. 前記カメラによって得られる前記ビデオ画像が、決定された3Dポイントクラウドと組み合わせられ、前記走行距離測定とループ閉鎖測定とが前記3Dポイントクラウドから決定される、請求項1に記載の方法。
  11. 2D画像フレーム間で決定された2Dホモグラフィから、前記走行距離測定とループ閉鎖測定とが決定される、請求項1に記載の方法。
  12. 同時位置決めマッピングの方法であって、前記方法は、領域内にカメラを移動することと、前記カメラから画像データを得ることと、請求項1に記載の方法を用いて前記カメラの移動を決定することとを備え、ここにおいて、前記カメラ状態はカメラポーズであり、前記方法はさらに、前記カメラからの前記画像データと前記カメラポーズとを用いて前記領域をマッピングすることをさらに備える、方法。
  13. 前記カメラが、移動する物体に位置する、請求項12に記載の方法。
  14. ビデオモザイク化の方法であって、前記方法は、領域にカメラを移動することと、前記カメラから画像データを得ることと、請求項11に記載の方法を用いて前記カメラの絶対的な変化を推定することとを備え、ここにおいて、前記領域に関する前記カメラの位置を決定するようにカメラ位置の絶対的な変化が用いられ、決定された絶対的な変化からの前記カメラの位置を用いてビデオのフレームを並べる、方法。
  15. 前記分解された分布が変分ベイズ近似を用いることによって決定される、請求項1に記載の方法。
  16. 前記変分ベイズ近似がカルバック・ライブラー発散を用いて決定される、請求項15に記載の方法。
  17. 前記変分ベイズ近似によって誘発されるコスト関数を最小化するようにガウスニュートンアルゴリズムが用いられる、請求項15に記載の方法。
  18. 相対的な変化推定におけるノイズが相互に独立であることが前提とされる、請求項1に記載の方法。
  19. カメラの移動を決定するシステムであって、ここにおいて、前記移動は参照状態からのカメラ状態の絶対的な変化に関して表現され、前記システムは、
    カメラからキャプチャされたビデオ画像のストリームを受信し、
    前記ビデオ画像から、連続的な画像または連続的な画像の組の間のカメラ状態の相対的な変化を決定する走行距離測定のストリームを生成し、
    前記ビデオ画像から、非連続的な画像または非連続的な画像の組の間のカメラ状態の相対的な変化を決定することによってループ閉鎖測定のストリームを生成し、
    前記走行距離測定と前記ループ閉鎖測定とにおける相対的な変化の事後分布から、カメラ状態の絶対的な変化を推定し、ここにおいて、前記事後分布は、前記相対的な変化が互いに独立であることを前提とする分解された分布によって近似されるように、
    適応されたプロセッサを備える、システム。
  20. プロセッサ上で実行されると前記プロセッサに請求項1に記載の方法を行わせる、実行可能な命令を保持する、非一時的なコンピュータ読み取り可能媒体。
JP2017029705A 2016-03-11 2017-02-21 画像分析システムおよび方法 Active JP6330068B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201662306959P 2016-03-11 2016-03-11
US62/306,959 2016-03-11
US15/237,839 2016-08-16
US15/237,839 US10019801B2 (en) 2016-03-11 2016-08-16 Image analysis system and method

Publications (2)

Publication Number Publication Date
JP2017162457A JP2017162457A (ja) 2017-09-14
JP6330068B2 true JP6330068B2 (ja) 2018-05-23

Family

ID=59776696

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017029705A Active JP6330068B2 (ja) 2016-03-11 2017-02-21 画像分析システムおよび方法

Country Status (2)

Country Link
US (1) US10019801B2 (ja)
JP (1) JP6330068B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6483832B2 (ja) * 2014-08-29 2019-03-13 トヨタ モーター ヨーロッパ Rgb−dセンサを使用して物体を走査する方法とシステム
US10674313B2 (en) * 2016-03-17 2020-06-02 Viavi Solutions Uk Limited Automatic optimization procedure termination using a smoothing-based technique
US10573091B2 (en) * 2017-02-22 2020-02-25 Andre R. Vincelette Systems and methods to create a virtual object or avatar
CN109509230B (zh) * 2018-11-13 2020-06-23 武汉大学 一种应用于多镜头组合式全景相机的slam方法
CN109800692B (zh) * 2019-01-07 2022-12-27 重庆邮电大学 一种基于预训练卷积神经网络的视觉slam回环检测方法
CN109813319B (zh) * 2019-03-07 2021-09-28 山东大学 一种基于slam建图的开环优化方法及***
CN110427520B (zh) * 2019-07-04 2022-08-23 重庆邮电大学 一种基于自适应局部和分组关联策略的slam数据关联方法
KR102301295B1 (ko) * 2020-11-20 2021-09-13 한국과학기술원 모델 추출 공격에 대한 인공신경망 워터마킹의 안전성 평가 방법

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4969036A (en) * 1989-03-31 1990-11-06 Bir Bhanu System for computing the self-motion of moving images devices
KR100855469B1 (ko) * 2006-09-13 2008-09-01 삼성전자주식회사 이동 로봇의 자세 추정 장치 및 방법
US8855406B2 (en) * 2010-09-10 2014-10-07 Honda Motor Co., Ltd. Egomotion using assorted features
JP2012064131A (ja) * 2010-09-17 2012-03-29 Tokyo Institute Of Technology 地図生成装置、地図生成方法、移動体の移動方法、及びロボット装置
CN102831446A (zh) * 2012-08-20 2012-12-19 南京邮电大学 单目视觉slam中基于图像外观的闭环检测方法
CN104662435A (zh) * 2012-09-27 2015-05-27 Metaio有限公司 确定与用于捕获至少一个图像的捕获装置关联的装置的位置和方向的方法
CA2848794C (en) * 2014-04-11 2016-05-24 Blackberry Limited Building a depth map using movement of one camera
JP6483832B2 (ja) * 2014-08-29 2019-03-13 トヨタ モーター ヨーロッパ Rgb−dセンサを使用して物体を走査する方法とシステム

Also Published As

Publication number Publication date
US10019801B2 (en) 2018-07-10
JP2017162457A (ja) 2017-09-14
US20170262992A1 (en) 2017-09-14

Similar Documents

Publication Publication Date Title
JP6330068B2 (ja) 画像分析システムおよび方法
JP6854780B2 (ja) 三次元空間のモデリング
US10133279B2 (en) Apparatus of updating key frame of mobile robot and method thereof
US10399228B2 (en) Apparatus for recognizing position of mobile robot using edge based refinement and method thereof
JP6562607B2 (ja) 物体の自己運動推定方法
EP2380136B1 (en) A method of estimating a motion of a multiple camera system, a multiple camera system and a computer program product
US8543241B2 (en) Method, medium, and system estimating pose of mobile robots
EP2179398B1 (en) Estimating objects proper motion using optical flow, kinematics and depth information
JP4985516B2 (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
Westman et al. Feature-based SLAM for imaging sonar with under-constrained landmarks
JP5012615B2 (ja) 情報処理装置、および画像処理方法、並びにコンピュータ・プログラム
JP6349418B2 (ja) 高精度単眼移動によるオブジェクト位置特定
Knorr et al. Online extrinsic multi-camera calibration using ground plane induced homographies
Liu et al. Adaptive ground plane estimation for moving camera-based 3D object tracking
Luong et al. Consistent ICP for the registration of sparse and inhomogeneous point clouds
Himstedt et al. A robust graph-based framework for building precise maps from laser range scans
Presnov et al. Robust range camera pose estimation for mobile online scene reconstruction
Russo et al. Blurring prediction in monocular slam
Asif et al. An Implementation of Active Contour and Kalman Filter for Road Tracking.
Matez-Bandera et al. Sigma-FP: Robot Mapping of 3D Floor Plans With an RGB-D Camera Under Uncertainty
Lenac et al. Revival of filtering based SLAM? Exactly sparse delayed state filter on Lie groups
KR101847113B1 (ko) 이미지를 이용하는 카메라의 방향과 관련한 정보 추정장치 및 추정방법
Asif et al. AGV guidance system: An application of simple active contour for visual tracking
Moreno et al. A probabilistic observation model for stereo vision systems: Application to particle filter-based mapping and localization
Tribou Relative Pose Estimation Using Non-overlapping Multicamera Clusters

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180423

R150 Certificate of patent or registration of utility model

Ref document number: 6330068

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150