JP7300438B2 - Rgbdカメラ姿勢のラージスケール判定のための方法およびシステム - Google Patents

Rgbdカメラ姿勢のラージスケール判定のための方法およびシステム Download PDF

Info

Publication number
JP7300438B2
JP7300438B2 JP2020219766A JP2020219766A JP7300438B2 JP 7300438 B2 JP7300438 B2 JP 7300438B2 JP 2020219766 A JP2020219766 A JP 2020219766A JP 2020219766 A JP2020219766 A JP 2020219766A JP 7300438 B2 JP7300438 B2 JP 7300438B2
Authority
JP
Japan
Prior art keywords
pose
poses
relative
image
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020219766A
Other languages
English (en)
Other versions
JP2021047932A (ja
JP2021047932A5 (ja
Inventor
ウェイ シャオリン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2021047932A publication Critical patent/JP2021047932A/ja
Publication of JP2021047932A5 publication Critical patent/JP2021047932A5/ja
Application granted granted Critical
Publication of JP7300438B2 publication Critical patent/JP7300438B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

(関連出願の相互参照)
本願は、2016年11月20日に出願され、“Methods and Systems for Large-Scale RGBD Pose Estimation”と題された米国仮特許出願第62/258,316号に対する優先権を主張するものであり、該米国仮特許出願の開示は、あらゆる目的のために参照により本明細書中に援用される。
(発明の背景)
3D再構成は、マッピング、ロボット、仮想現実、拡張現実、アーキテクチャ、ゲーム、映画制作等における様々な用途を有する、3Dコンピュータビジョンにおいて最も需要の高い話題のうちの1つである。3D再構成システムは、RGB(赤色-緑色-青色)、RGBD(赤色-緑色-青色-深度)、または深度専用フォーマットにおいて、画像を入力として撮影し、画像の3D表現、例えば、3Dメッシュを生成することができる。3D再構成システムの処理プロシージャのうち、重要なコンポーネントのうちの1つは、姿勢推定である、すなわち、各入力画像と関連付けられた各カメラ姿勢の復元である。カメラ姿勢は、カメラの焦点距離、位置、および/または回転方向ならびに角度を含んでもよい。
ごく最近では、Kinect、Google Tango、およびIntel Realsense等の低コストRGBDセンサの可用性に伴って、RGBD画像は、そのような利用可能なデバイスを用いて容易に捕捉され、3D再構成のために使用されることができる。
しかしながら、高品質3Dメッシュを再構成する目的のために、正確度要件は、非常に高くなる。カメラ姿勢は、大域的および局所的の両方において一貫すべきである。しかしながら、現在の技術は、ラージスケール場面のためのRGBD画像の姿勢推定のロバストかつ正確なエンドツーエンドフレームワークソリューションを提供不可能である。
本発明は、概して、時間の関数として、カメラの位置および配向(すなわち、姿勢)を判定するための方法およびシステムに関する。より具体的には、本発明の実施形態は、少なくとも部分的に、画像フレーム間の相対的カメラ姿勢に基づいて、大域的基準フレーム内でカメラ姿勢を判定するための方法およびシステムを提供する。本発明は、コンピュータビジョンおよび3D再構成における種々の用途に適用可能である。
本発明のある実施形態によると、複数の画像フレームのためのカメラ姿勢を判定する方法が、提供される。本方法は、カメラを使用して、複数の画像フレームを捕捉するステップと、画像フレームペアの各セット間の相対的姿勢を算出し、相対的姿勢セットおよびカテゴリ化されていない相対的姿勢セットを提供するステップと、誤ってカテゴリ化された相対的姿勢を相対的姿勢セットから検出および除去し、残りの相対的姿勢セットを提供するステップとを含む。本方法はまた、残りの相対的姿勢セットを使用して、複数の画像フレームのための大域的姿勢を判定するステップと、誤ってカテゴリ化された相対的姿勢の少なくとも一部およびカテゴリ化されていない相対的姿勢セットの少なくとも一部のための拡張された相対的姿勢を算出し、拡張された相対的姿勢セットおよび拡張されたカテゴリ化されていない相対的姿勢セットを提供するステップとを含む。本方法はさらに、拡張された誤ってカテゴリ化された相対的姿勢を拡張された相対的姿勢セットから検出および除去し、残りの拡張された相対的姿勢セットを提供するステップと、残りの相対的姿勢セットおよび残りの拡張された相対的姿勢セットを使用して、複数の画像フレームのための更新された大域的姿勢を判定するステップとを含む。
本発明の別の実施形態によると、データプロセッサによって実行されると、複数の画像フレームのためのカメラ姿勢を判定する、コンピュータ可読記憶媒体上に有形に具現化される複数のコンピュータ可読命令を備える、非一過性コンピュータ可読記憶媒体が、提供される。複数の命令は、データプロセッサに、カメラを使用して、複数の画像フレームを捕捉させる、命令と、データプロセッサに、画像フレームペアの各セット間の相対的姿勢を算出させ、相対的姿勢セットおよびカテゴリ化されていない相対的姿勢セットを提供させる、命令と、データプロセッサに、誤ってカテゴリ化された相対的姿勢を相対的姿勢セットから検出および除去させ、残りの相対的姿勢セットを提供させる、命令とを含む。複数の命令はまた、データプロセッサに、残りの相対的姿勢セットを使用して、複数の画像フレームのための大域的姿勢を判定させる、命令と、データプロセッサに、誤ってカテゴリ化された相対的姿勢の少なくとも一部およびカテゴリ化されていない相対的姿勢セットの少なくとも一部のための拡張された相対的姿勢を算出させ、拡張された相対的姿勢セットおよび拡張されたカテゴリ化されていない相対的姿勢セットを提供させる、命令とを含む。複数の命令はさらに、データプロセッサに、拡張された誤ってカテゴリ化された相対的姿勢を拡張された相対的姿勢セットから検出および除去させ、残りの拡張された相対的姿勢セットを提供させる、命令と、データプロセッサに、残りの相対的姿勢セットおよび残りの拡張された相対的姿勢セットを使用して、複数の画像フレームのための更新された大域的姿勢を判定させる、命令とを含む。
従来の技法に優る多数の利点が、本発明を用いて達成される。例えば、本発明の実施形態は、後続3D再構成において使用され得る、大域的基準フレーム内でカメラ姿勢を判定するための方法およびシステムを提供する。さらに、本発明の実施形態は、大域的に一貫するだけではなく、また、局所的にも一貫する、カメラ姿勢を判定するための方法およびシステムを提供する。加えて、本発明の実施形態は、繰り返しパターンを伴う場面、特徴を欠いている場面、突然のカメラ移動、および多室設定等、周知の困難な場合に対してもロバストである。本発明のこれらおよび他の実施形態は、その利点ならびに特徴の多くとともに、以下の説明および添付の図と併せてより詳細に説明される。
例えば、本願は以下の項目を提供する。
(項目1)
複数の画像フレームのためのカメラ姿勢を判定する方法であって、
カメラを使用して、前記複数の画像フレームを捕捉するステップと、
画像フレームペアの各セット間の相対的姿勢を算出し、相対的姿勢セットおよびカテゴリ化されていない相対的姿勢セットを提供するステップと、
誤ってカテゴリ化された相対的姿勢を前記相対的姿勢セットから検出および除去し、残りの相対的姿勢セットを提供するステップと、
前記残りの相対的姿勢セットを使用して、前記複数の画像フレームのための大域的姿勢を判定するステップと、
前記誤ってカテゴリ化された相対的姿勢の少なくとも一部および前記カテゴリ化されていない相対的姿勢セットの少なくとも一部のための拡張された相対的姿勢を算出し、拡張された相対的姿勢セットおよび拡張されたカテゴリ化されていない相対的姿勢セットを提供するステップと、
拡張された誤ってカテゴリ化された相対的姿勢を前記拡張された相対的姿勢セットから検出および除去し、残りの拡張された相対的姿勢セットを提供するステップと、
前記残りの相対的姿勢セットおよび前記残りの拡張された相対的姿勢セットを使用して、前記複数の画像フレームのための更新された大域的姿勢を判定するステップと
を含む、方法。
(項目2)
N回の反復を通して前記更新された大域的姿勢を精緻化するステップをさらに含む、項目1に記載の方法。
(項目3)
前記更新された大域的姿勢を精緻化するステップは、前記複数の画像フレームの異なる画像フレームと関連付けられた深度マップから導出される場面幾何学形状を整合させるステップを含む、項目2に記載の方法。
(項目4)
前記更新された大域的姿勢を精緻化するステップは、前記更新された大域的姿勢毎に、前記更新された大域的姿勢を収束に向かって調節するステップを含む、項目2に記載の方法。
(項目5)
N回の反復を通して前記更新された大域的姿勢を精緻化するステップは、所定の回数の反復を行うステップを含む、項目2に記載の方法。
(項目6)
N回の反復を通して前記更新された大域的姿勢を精緻化するステップは、反復間のカメラ姿勢の差異の閾値に基づいて、所定の回数の反復を行うステップを含む、項目2に記載の方法。
(項目7)
前記相対的姿勢セットは、有効な相対的姿勢および誤ってカテゴリ化された相対的姿勢を含む、項目1に記載の方法。
(項目8)
前記拡張された相対的姿勢セットは、有効な拡張された相対的姿勢および拡張された誤ってカテゴリ化された相対的姿勢を含む、項目1に記載の方法。
(項目9)
前記複数の画像フレームのための大域的姿勢は、大域的基準フレームを参照している、項目1に記載の方法。
(項目10)
前記カメラは、RGBDカメラを含む、項目1に記載の方法。
(項目11)
前記複数の画像フレームは、所定のフレームレートで捕捉される、項目1に記載の方法。
(項目12)
前記複数の画像フレームは、前記複数の画像フレームのそれぞれ内のピクセル毎に、色データおよび深度データを含む、項目1に記載の方法。
(項目13)
前記画像フレームペアの各セット間の相対的姿勢を算出するステップは、前記画像フレームペアの時間的に近いサブセットのための第1のプロセスおよび前記画像フレームペアの時間的に離れたサブセットのための第2のプロセスを行うステップを含む、項目1に記載の方法。
(項目14)
前記第2のプロセスは、前記時間的に離れたサブセット内の画像フレームペア間の特徴を検出およびマッチングするステップを含む、項目13に記載の方法。
(項目15)
前記第2のプロセスはさらに、前記時間的に離れたサブセット内の画像フレームペア間で深度マッチングを行うステップを含む、項目14に記載の方法。
(項目16)
コンピュータ可読記憶媒体上に有形に具現化される複数のコンピュータ可読命令を含む、非一過性コンピュータ可読記憶媒体であって、前記複数のコンピュータ可読命令は、データプロセッサによって実行されると、複数の画像フレームのためのカメラ姿勢を判定し、前記複数の命令は、
前記データプロセッサに、カメラを使用して、前記複数の画像フレームを捕捉させる命令と、
前記データプロセッサに、画像フレームペアの各セット間の相対的姿勢を算出させ、相対的姿勢セットおよびカテゴリ化されていない相対的姿勢セットを提供させる命令と、
前記データプロセッサに、誤ってカテゴリ化された相対的姿勢を前記相対的姿勢セットから検出および除去させ、残りの相対的姿勢セットを提供させる命令と、
前記データプロセッサに、前記残りの相対的姿勢セットを使用して、前記複数の画像フレームのための大域的姿勢を判定させる命令と、
前記データプロセッサに、前記誤ってカテゴリ化された相対的姿勢の少なくとも一部および前記カテゴリ化されていない相対的姿勢セットの少なくとも一部のための拡張された相対的姿勢を算出させ、拡張された相対的姿勢セットおよび拡張されたカテゴリ化されていない相対的姿勢セットを提供させる命令と、
前記データプロセッサに、拡張された誤ってカテゴリ化された相対的姿勢を前記拡張された相対的姿勢セットから検出および除去させ、残りの拡張された相対的姿勢セットを提供させる命令と、
前記データプロセッサに、前記残りの相対的姿勢セットおよび前記残りの拡張された相対的姿勢セットを使用して、前記複数の画像フレームのための更新された大域的姿勢を判定させる命令と、
を含む、非一過性コンピュータ可読記憶媒体。
(項目17)
前記複数の命令はさらに、前記データプロセッサに、N回の反復を通して前記更新された大域的姿勢を精緻化させる命令を含む、項目16に記載のコンピュータ可読記憶媒体。
(項目18)
前記相対的姿勢セットは、有効な相対的姿勢および誤ってカテゴリ化された相対的姿勢を含む、項目16に記載のコンピュータ可読記憶媒体。
(項目19)
前記複数の画像フレームのための大域的姿勢は、大域的基準フレームを参照している、項目16に記載のコンピュータ可読記憶媒体。
(項目20)
前記カメラは、RGBDカメラを含み、前記複数の画像フレームは、所定のフレームレートで捕捉される、項目16に記載のコンピュータ可読記憶媒体。
本特許または出願申請は、カラーで提出された少なくとも1つの図面を含有する。カラー図面を伴う本特許または特許出願公報のコピーは、要請および必要な料金の支払に応じて、特許庁によって提供されるであろう。
本開示の一部を構成する、付随の図面は、いくつかの実施形態を図示し、説明とともに、開示される原理を説明する役割を果たす。
図1は、例示的実施形態による、ラージスケールRGBD姿勢推定のためのシステムを図示する、ブロック図である。
図2は、本発明のある実施形態による、ラージスケールRGBD姿勢推定を行う方法を図示する、簡略化されたフローチャートである。
図3は、本発明のある実施形態による、画像フレーム間の相対的姿勢を算出するための方法を図示する、簡略化されたフローチャートである。
図4Aは、本発明のある実施形態による、第1のカメラ姿勢から捕捉され、特徴記述子に基づいて検出およびマッチングされた特徴でマークされる、第1のRGB画像フレームである。
図4Bは、本発明のある実施形態による、第2のカメラ姿勢から捕捉され、特徴記述子に基づいて検出およびマッチングされた特徴でマークされる、第2のRGB画像フレームである。
図4Cは、本発明のある実施形態による、3D特徴フィルタ処理後に生成された特徴マッチングでマークされた、図4Aに図示される第1のRGB画像フレームである。
図4Dは、本発明のある実施形態による、3D特徴フィルタ処理後に生成された特徴マッチングでマークされた、図4Bに図示される第2のRGB画像フレームである。
図5Aは、本発明のある実施形態による、2つの異なるカメラ姿勢と関連付けられたポイントクラウドのセットの斜視図を図示する。
図5Bは、本発明のある実施形態による、図5Aに図示される2つの異なるカメラ姿勢と関連付けられたポイントクラウドのセットの平面図を図示する。
図5Cは、本発明のある実施形態による、最適化された相対的姿勢を伴う、図5Aに図示される2つの異なるカメラ姿勢と関連付けられたポイントクラウドのセットの斜視図を図示する。
図5Dは、本発明のある実施形態による、最適化された相対的姿勢を伴う、図5Cに図示される2つの異なるカメラ姿勢と関連付けられたポイントクラウドのセットの平面図を図示する。
図6Aは、本発明のある実施形態による、相対的姿勢のマトリクス表現である。
図6Bは、本発明のある実施形態による、拡張された相対的姿勢のマトリクス表現である。
図6Cは、本発明のある実施形態による、一連のカメラ姿勢および画像フレームを図示する、略図である。
図7Aおよび7Bは、本発明のある実施形態による、2つの画像フレームのためのRGB画像である。 図7Aおよび7Bは、本発明のある実施形態による、2つの画像フレームのためのRGB画像である。
図7Cは、図7Aおよび7BにおけるRGB画像と関連付けられたポイントクラウドのセットの斜視図を図示する。
図7Dは、図7Aおよび7BにおけるRGB画像と関連付けられたポイントクラウドのセットの平面図を図示する。
図8は、本発明のある実施形態による、大域的座標を参照している深度マップおよび一連の画像姿勢を示す、平面図を図示する。
図9は、本発明のある実施形態による、拡張された相対的姿勢を算出する方法を図示する、簡略化されたフローチャートである。
図10は、本発明のある実施形態による、大域的座標を参照している深度マップおよび一連の精緻化された画像姿勢を示す、平面図を図示する。
図11は、本発明のある実施形態による、姿勢を精緻化するための方法を図示する、簡略化されたフローチャートである。
図12A-12Cは、例示的実施形態による、姿勢精緻化の異なる反復時の3Dメッシュ結果を図示する、グラフィカル表現である。
ここで、例示的実施形態が、詳細に参照され、その実施例は、付随の図面に図示される。以下の説明は、付随の図面を参照するが、異なる図面中の同一番号は、別様に表されない限り、同一または類似要素を表す。本発明に準拠する例示的実施形態の以下の説明に記載される実装は、本発明に準拠する全ての実装を表すわけではない。代わりに、それらは、単に、本発明に関連する側面に準拠するシステムおよび方法の実施例である。
図1は、例示的実施形態による、ラージスケールRGBD姿勢推定のためのシステム100を図示する、ブロック図である。本システムは、カメラ101と、プロセッサ102と、メモリ103とを含んでもよい。いくつかのコンポーネントは、随意であってもよい。いくつかのコンポーネントは、ローカル、オンライン、またはクラウドベースであってもよい。
カメラは、複数の場面のRGB、RGBD、または深度専用情報を捕捉し、そのような情報をプロセッサに伝送してもよい。RGB、RGBD、または深度専用情報は、少なくとも1つのフレームを備える、静止画形式(すなわち、写真)またはビデオフォーマットであってもよい。特定の実施形態では、カメラは、例えば、所定のフレームレートにおいてフレームを捕捉する、RGBDビデオカメラである。カメラは、独立デバイスであるか、または、カメラと、プロセッサと、メモリとを備える、単一デバイスの一部であってもよい。カメラはまた、複数のカメラであってもよく、例えば、第1のカメラは、RGB情報を捕捉し、第2のカメラは、深度情報を捕捉する。
メモリは、プロセッサによって実行されると、以下に説明される方法/ステップを行う、命令を記憶する、非一過性コンピュータ可読記憶媒体であってもよい。
いくつかの実施形態では、プロセッサおよびメモリは、クラウドベースであって、カメラから独立することができる。写真またはビデオは、カメラ、例えば、携帯電話カメラによって捕捉されることができ、1つまたはそれを上回る(クラウドベースの)サーバにアップロードされることができる。サーバまたは複数のサーバは、以下に説明される方法/ステップを実装する、プロセッサのうちの1つまたはそれを上回るものと、メモリのうちの1つまたはそれを上回るものとを含んでもよい。本明細書により完全に説明されるように、本発明の実施形態は、RGBD入力(例えば、ビデオストリーム)を受信し、カメラを使用して捕捉されたフレーム毎に、カメラ姿勢の世界座標を出力する。本情報を使用して、各フレームは、相互のフレームに関連し、フレームが捕捉されるにつれてカメラが世界を通して移動する方法を説明する、カメラ軌道の可用性をもたらすことができる。したがって、本発明のいくつかの実施形態は、時間の関数として、入力RGBDビデオストリームをカメラ姿勢に変換する、例えば、各フレームが捕捉された時間にマップされ、これは、次いで、3D画像再構成用途において使用されることができる。3D再構成および3Dメッシュに関連する付加的説明は、図13A-13Cおよび2016年9月23日に出願され、「Methods and Systems for Detecting and Combining Structural Features in 3D Reconstruction」と題された米国特許出願第15/274,823号(本開示は、あらゆる目的のために参照することによってその全体として本明細書に組み込まれる)に関連して提供される。
カメラ110は、RGBD画像ならびに焦点距離、カメラ分解能、主点、1つまたはそれを上回る歪曲パラメータ、および同等物を含む、カメラ固有のパラメータを出力することができる。再び図1を参照すると、カメラ110に加え、本システムは、慣性測定ユニット(IMU)112を含む。IMUは、各フレームと関連付けられた、または時間の関数として、カメラの相対的位置および配向に関するデータを収集するために利用されることができる。IMUデータは、角速度、加速、および重力方向を含むことができる。これらのパラメータを使用して、基準フレーム内のx/y/z位置ならびに基準フレーム内のピッチ/ヨー/ロール配向が、判定されることができる。
図2は、本発明のある実施形態による、ラージスケールRGBD姿勢推定を行う方法を図示する、簡略化されたフローチャートである。本方法は、いくつかのステップを含み、そのうちのいくつかは、随意であってもよい。本方法は、ラージスケールRGBD姿勢推定を達成するためのフレームワークを備えてもよい。
本開示では、「姿勢」(すなわち、位置および配向)は、画像または場面を捕捉する間のカメラの姿勢もしくは一連の姿勢を指し得る。一連の姿勢は、時間依存および/または位置依存であってもよい。姿勢は、位置(例えば、基準フレーム内で測定される)および配向(例えば、また、基準フレームと同一であり得る、基準フレーム内で測定される)を含んでもよく、これは、回転方向および回転角度に分解されることができる。
本方法は、画像フレーム間の相対的姿勢を算出するステップを含む(210)。画像フレーム間の相対的姿勢を算出するステップは、RGBD画像ペア間に十分な重複面積、すなわち、図4A-4Dに関連して議論されるような両画像内に現れている場面の同一オブジェクトまたは同一部分が存在する場合、各画像ペア間の相対的姿勢変化を推定するステップを含むことができる。これらの2つのカメラ姿勢と関連付けられたRGBD画像のペア間の相対的姿勢が算出され得る、2つのカメラ姿勢の実施例は、図4A/4Bおよび図5Aに関して議論される。相対的姿勢算出では、十分な場面重複が、例えば、2つの状況において見出され得る、すなわち、(1)時間的に近い画像フレームは、通常、相対的姿勢を判定するために十分な場面重複を有する、(2)十分な特徴マッチングを有する、画像フレームは、場面重複を有し得る。
RGBDシーケンス全体の相対的姿勢の実施例は、図6Aにおける姿勢マトリクスとして表される。相対的姿勢を算出するステップに関連する付加的詳細は、図3を参照して以下により完全に説明される。
図3に関連した付加的詳細に議論されるように、相対的姿勢算出(210)は、画像フレームペア間の相対的姿勢を構築および復元することができる。入力RGBD画像セットは、異なる時間において撮影された個々のRGBD画像または複数の連続フレームから成るRGBDビデオストリームであることができる。本開示に説明される方法/フレームワークは、両場合で機能することができるが、一般性を失うことなく、RGBDビデオスト
リームが、実施例として使用される。
図3は、本発明のある実施形態による、画像フレーム間の相対的姿勢を算出するための方法を図示する、簡略化されたフローチャートである。図3を参照すると、本方法は、フレーム間の時間的分離の閾値に基づいて、複数の画像フレームペアをカテゴリ化するステップを含む(310)。例えば、閾値は、2秒であってもよいが、本発明は、本閾値に限定されず、例えば、1/15秒、1/10秒、1/6秒、1/5秒、1/2秒、1秒、3秒、4秒、5秒未満、または5秒を上回る、他の値も利用されることができる。ある実施形態では、相互に2秒以内に捕捉された画像フレームのペアは、「時間的に近い」画像フレームとしてカテゴリ化される(320)。画像フレームのペアが、閾値を上回るフレーム捕捉間に遅延を伴って捕捉される場合、これらの画像フレームペアは、「時間的に離れた」フレームとしてカテゴリ化される(330)。画像フレームのペアの実施例は、図4Aおよび4Bに図示される画像であって、これは、異なる時間において、異なるカメラ姿勢から捕捉された。
時間的に近い画像フレームに関して、カメラ姿勢は、画像フレーム間で有意に変化しないと仮定され得る。故に、相対的姿勢最適化(322)が、初期相対的姿勢が最適化された相対的姿勢に近くあるはずであるため、時間的に近い画像フレームのために行われることができる。したがって、時間的に近いフレームに関して、識別マトリクスは、直接、相対的姿勢最適化を行うための初期化として使用されることができる(322)。実施例として、時間的に近いフレームからの深度データは、画像フレーム間の最適化された相対的姿勢を提供するように整合されることができる。例えば、ICP(反復最近傍点)ベースの整合が、相対的姿勢を最適化するために深度データを用いて利用されることができる。図6Aを参照すると、時間的に近い画像フレームペアは、マトリクスの主要対角線に隣接する。
時間的に離れた画像フレームペアに関して、カメラ姿勢における変化の結果、フレーム間の有意な重複画像を見つける可能性が低い。その結果、初期化は、プロセス332、334、および336によって提供される。時間的に離れた画像フレームペアに関して、本方法は、画像フレームのためのRGBデータを使用して、特徴検出および特徴マッチング(332)を行い、十分な場面重複を有する候補特徴ペアのセットを提供するステップを含む。特徴検出は、スケール不変特徴変換(SIFT)、高速化ロバスト特徴(SURF)、加速セグメント試験からの特徴(FAST)、または同等物を含む、方法によって達成されてもよい。特徴マッチングは、語彙ツリーベースの方法またはKdツリーベースの方法を含む、方法によって達成されてもよい。
図4Aは、本発明のある実施形態による、第1のカメラ姿勢から捕捉され、特徴記述子に基づいて検出およびマッチングされた特徴でマークされる、第1のRGB画像フレームである。図4Bは、本発明のある実施形態による、第2のカメラ姿勢から捕捉され、特徴記述子に基づいて検出およびマッチングされた特徴でマークされる、第2のRGB画像フレームである。図4Cは、本発明のある実施形態による、3D特徴フィルタ処理後に生成された特徴マッチングでマークされた、図4Aに図示される第1のRGB画像フレームである。図4Dは、例えば、図3におけるプロセス336に続く、本発明のある実施形態による、3D特徴フィルタ処理後に生成された特徴マッチングでマークされた、図4Bに図示される第2のRGB画像フレームである。
図4Aおよび4Bを参照すると、それぞれ、図4Aおよび4Bに図示される2つの画像フレーム間でマッチングされた検出/マッチングされた特徴が、RGB画像上にオーバーレイされた種々の色のドットによって示される。いったん特徴が検出されると、記述子が、その近隣ピクセルに基づいて、特徴毎に算出される。特徴記述子は、次いで、例えば、閾値を特徴記述子間の距離に適用することによって、画像フレーム間の特徴をマッチングするために使用される。当業者は、多くの変形例、修正、および代替を認識するであろう。
例証として、特徴検出および特徴マッチングの実装を通して、検出およびマッチングされた特徴は、画像フレーム上のドットのペアによって標識されることができ、各ドットは、各画像フレーム内の特定の特徴を特定する。図4Aおよび4Bを参照すると、赤色ドット410によって表される特徴が、両画像フレーム内で検出およびマッチングされる。加えて、水色ドット412によって表される第2の特徴もまた、両画像フレーム内で検出およびマッチングされる。図4Aおよび4Bに図示されるように、2つの画像フレーム内の赤色ドット410および赤色ドット411は、片側では、濃色物質、他側では、より薄色の物質を含む。しかしながら、色特性は、類似または同一であるが、これらの面積は、相互から非常に異なる場所に位置する、すなわち、図4Aにおける赤色ドット410は、ベンチに隣接する壁上に位置するが、図4Bにおける赤色ドット411は、背もたれの縁上に位置する。したがって、図4Cおよび4Dに図示されるように、両特徴410および411(ならびにそれらの間のマッチング)は、いったん3D特徴フィルタ処理が行われると、存在しない。したがって、最初に検出およびマッチングされた特徴のサブセットは、典型的には、3Dフィルタ処理後、保たれるであろう。
特徴マッチングの数が、所定の閾値、例えば、10個の特徴マッチングを超えるかどうかの判定が行われる(333)。特徴マッチングの数が、閾値を下回る場合、分析されている画像フレームペアは、タイプ1のカテゴリ化されていない画像フレームペアとして定義される(350)。図6Aでは、これらのカテゴリ化されていないタイプ1ペアは、薄灰色で図示され、この場合、少数の特徴マッチングのため、相対的姿勢が存在せず、画像フレームペア間の相対的姿勢を算出するための試みが行われていないことを示す。
本方法はまた、特徴マッチングの数が所定の閾値を超える場合、3D特徴フィルタ処理とも称され得る、候補特徴ペアのフィルタ処理を試みるステップを含む(334)。特徴検出およびマッチング(332)の後に得られた特徴は、関連付けられた深度画像上に逆投影され、2D特徴の対応する3D点を得る。ある実施形態では、候補特徴ペアは、全ての逆投影された3D特徴マッチングの上でランダムサンプルコンセンサス(RANSAC)アルゴリズムを使用してフィルタ処理され、少なくともK(Kは、事前に設定された数)個のインライア(inlier)マッチングを伴うフレームペアを得る。図4Cおよび図4Dは、RANSAC(K=10)を使用した候補特徴フィルタ処理後にマッチングされた3D特徴ペアを示す。当業者に明白となるであろうように、フレーム間マッチングを最大限にする、特徴マッチングの最適セットが、本明細書に説明される方法を使用して見出されることができる。
前述のように、候補特徴ペアは、3D特徴マッチングの数が第2の所定の閾値、例えば、10個の3D特徴マッチングを超えるかどうかを判定するために分析される。特徴マッチングの数が、第2の所定の閾値を下回る場合、分析されている画像フレームペアは、タイプ1のカテゴリ化されていない画像フレームペアとして定義される(351)。図6Aでは、これらのカテゴリ化されていないタイプ1ペアは、薄灰色で図示され、この場合、少数の3D特徴マッチングのため、相対的姿勢が存在せず、画像フレームペア間の相対的姿勢を算出するための試みが行われていないことを示す。
3D特徴マッチングの数が第2の閾値を超える場合、プロクラステス分析が、プロセス334後に得られるインライア3D特徴マッチング上で実施される(336)。本分析プロセスの間、画像ペア間の相対的変換(すなわち、相対的姿勢)の最小2乗解が、推定される。実施例として、画像ペアと関連付けられたポイントクラウドのセットが、図5Aおよび5Bに図示される。図5Aは、本発明のある実施形態による、2つの異なるカメラ姿勢と関連付けられたポイントクラウドのセットの斜視図を図示する。相対的姿勢計算の中間結果が、図5Aに図示される。図5Bは、本発明のある実施形態による、図5Aに図示される2つの異なるカメラ姿勢と関連付けられたポイントクラウドのセットの平面図を図示する。大域的基準フレーム505が、図5Aおよび5Bに図示される。相対的姿勢計算の中間結果が、図5Aに図示される。したがって、図5Aおよび5Bは、2つの異なる視点、すなわち、図5Aにおける斜視または傾斜図および図5Bにおける上下または平面図からの同一相対的姿勢を図示する。図5Aおよび5Bの両方では、カメラ姿勢510は、灰色ポイントクラウドを捕捉するカメラ姿勢に対応し、カメラ姿勢512は、赤色ポイントクラウドを捕捉するカメラ姿勢に対応する。
図5Aおよび5Bを参照すると、灰色ポイントクラウドは、図4Aに図示される画像に対応する3D深度マップを表し、赤色ポイントクラウドは、図4Bに図示される画像に対応する3D深度マップを表す。図4Cにおける壁430は、図5Aでは、セクション530として存在する。加えて、図4Cにおけるテーブル434に隣接する壁432は、図5Aでは、セクション532として存在する。これらのポイントクラウドを使用して、最小2乗解が、ある実施形態では、相対的姿勢最適化の際に利用される初期化を提供するために使用されることができる(322)。また、図4Cおよび4Dに図示されるマッチングは、図5Aおよび5Bに図示される深度マップ上にオーバーレイされ、姿勢整合プロセスにおいて利用されることができることに留意されたい。
時間的に近いフレームの議論に戻ると、識別マトリクスは、直接、相対的姿勢最適化に提供される初期化として使用されることができる(322)。プロクラステス分析後に提供される出力もまた、以下に説明されるように、最近傍点ペアの数の分析後の相対的姿勢最適化プロセス(322)のための入力として使用されることができる。
時間的に離れた画像フレームペア間に十分な数の最近傍点ペアがある、すなわち、最近傍点ペアの数が第3の所定の閾値を上回るかどうかの判定が行われる。最近傍点ペアの数の判定に関連する付加的説明は、図9に関連して提供される。十分な数が存在する場合、プロセスは、プロセス322に進む。十分な数の最近傍点ペアが存在しない場合、分析を受けているフレームペアは、タイプ1のカテゴリ化されていないフレームペア352として識別される(例えば、画像フレームペア間の相対的姿勢を算出するために試みが行われたが、画像フレームペア間の相対的姿勢が存在しないため、濃灰色フレームペア)。
いくつかの実施形態では、十分な数の最近傍点ペアが存在するかどうかの判定ならびにプロセス322に関連して議論される最適化プロセスは、単一プロセスとして組み合わせられ、カテゴリ化されていないフレームペアならびに他のフレームペア間の有効な相対的姿勢の両方の識別を含む、出力を提供する。これらの実施形態では、濃灰色フレームペアは、相対的姿勢算出が試みられたとして識別されるが、フレームペアは、相対的姿勢最適化プロセスの初期部分の間、カテゴリ化されていないとして識別された。当業者は、多くの変形例、修正、および代替を認識するであろう。
相対的姿勢最適化プロセス(322)は、数値最適化を使用して、初期相対的姿勢解(例えば、図5Aおよび図5Bに図示される相対的姿勢)を精緻化し、最適化された相対的姿勢解(例えば、図5Cおよび5Dに図示される相対的姿勢)を提供してもよい。最適化は、最近傍点制約、境界点制約、3D特徴制約、IMU回転制約、または同等物を用いた最適化を含むことができる。最近傍点制約は、2つの深度画像が整合される程度を測定することができる。境界点制約は、2つの深度画像内のオブジェクト境界が整合される程度を測定することができる。3D特徴制約は、2つのフレーム間のマッチングされた特徴3D距離の相違をペナルティ化することができる。IMU回転制約は、ペア間の相対的回転がIMU測定された相対的回転に近づくことを確実にすることができる。
相対的姿勢最適化(322)から生成された相対的姿勢は、図5Cおよび図5Dに示され、これらは、対応して、図5Aおよび図5Bに図示されるような初期化(時間的に近い姿勢に関しては310に従う、時間的に離れた姿勢に関しては336または338に従う)によって提供される姿勢より正確である。
図3に図示される方法の出力は、複数の画像フレームペア間の相対的回転および平行移動である(340)。したがって、要するに、図3は、相対的姿勢を算出する(210)ために使用される方法を図示する。
図3に図示される具体的ステップは、本発明のある実施形態による、画像フレーム間の相対的姿勢を算出する特定の方法を提供することを理解されたい。他のシーケンスのステップもまた、代替実施形態に従って行われてもよい。例えば、本発明の代替実施形態は、上記に概略されたステップを異なる順序で行ってもよい。さらに、図3に図示される個々のステップは、個々のステップの必要に応じて、種々のシーケンスで行われ得る、複数のサブステップを含んでもよい。さらに、付加的ステップが、特定の用途に応じて、追加または除去されてもよい。当業者は、多くの変形例、修正、および代替を認識するであろう。
再び図2を参照すると、本方法は、誤ってカテゴリ化された姿勢を検出するステップを含む(212)。本明細書に説明されるように、画像フレーム間の相対的姿勢が、大域的姿勢推定を行うために利用される。しかしながら、ステップ210から算出されたいくつかの相対的姿勢は、正しくない場合がある。本発明者らは、多数の誤ってカテゴリ化された相対的姿勢が大域的姿勢推定プロセス(ステップ214)を失敗させ得ると判定した。したがって、本発明の実施形態は、誤ってカテゴリ化された姿勢検出プロセス(ステップ212)を提供し、その際、ステップ210において判定された各相対的姿勢が、分析され、誤ってカテゴリ化された相対的姿勢からフィルタ除去し、誤ってカテゴリ化された相対的姿勢を伴う画像フレームペアを有効な相対的姿勢を伴うものから分離する。誤ってカテゴリ化された相対的姿勢は、本開示では、姿勢推定のために使用されることができない、または使用するべきではない、姿勢を含んでもよい。
誤ってカテゴリ化された相対的姿勢は、(1)繰り返しパターン、(2)誤った3D特徴フィルタ処理(例えば、誤ったRANSACマッチング)、および(3)相対的姿勢最適化内の極小値を含む、いくつかの状況下で生じ得る。例えば、図7Aおよび7Bは、誤ってカテゴリ化された相対的姿勢を伴う画像ペアを示す。
図7Aおよび7Bは、本発明のある実施形態による、2つの画像フレームのためのRGB画像である。図7Aを参照すると、ベンチの後の背もたれが、画像フレーム内に含まれる。背もたれは、繰り返しパターンによって特徴付けられる、いくつかの垂直ストライプを含む。図7Bを参照すると、背もたれの左側が、画像フレーム内に含まれる。特徴検出およびマッチングの際、図7Aにおける特徴710および712が、検出された。図7Bにおける特徴720および722は、検出され、特徴710および712にマッチングされた。この正しくないマッチングは、背もたれ内のストライプの繰り返しパターンから生じた可能性が高い。したがって、背もたれの中央の近傍の特徴710および712は、それぞれ、背もたれの左側の特徴720および722と正しくなくマッチングされた。本正しくないマッチングは、実際には、画像フレームが任意の重複面積を有していないとき、画像フレームのペアが、相互に相対的姿勢整合を有するという判定をもたらし得る。以下に説明されるように、例えば、前述の正しくない色マッチングから生じた誤って特性評価された姿勢は、本発明の実施形態によって検出および除去される。
本発明の実施形態によると、それぞれが以下により完全に説明される、回転および位置、IMU測定、遮蔽、整合点数、およびピクセル別差異を含む、いくつかの異なる機構が、不正確なまたは正しくない相対的姿勢とも称される、誤ってカテゴリ化された姿勢を検出およびフィルタ処理するために使用されることができる。いくつかの実装では、誤って特性評価された姿勢の検出に関連する画像フレームペア合格ルールは、後続姿勢推定プロセスにおいて利用される。
回転および位置。本機構は、時間的に近いペアに適用されることができる。これらのペアは、近いタイムスタンプ(ビデオストリーム実施例が使用されることを前提として)において捕捉されるため、各ペア内の少量の移動のみが存在するはずである。したがって、時間的に近いペアは、算出された相対的回転または位置が大きすぎる(例えば、所定の閾値を上回る)場合、廃棄されることができる。
IMU測定。本機構は、ステップ210から推定された相対的位置および/または回転(すなわち、プロセスステップ340の出力)と所定の閾値を伴うIMU測定から算出された相対的位置および/または回転との間の差異を比較する。IMUは、各画像フレームと関連付けられたカメラの位置および配向に関する情報を提供する。いくつかの実施形態では、IMU測定は、位置、配向、または、位置および配向のいずれかと関連付けられた不正確度を有し得る。したがって、本発明の実施形態は、他の情報と併せてIMU測定を利用する。
画像フレームペアのためのIMU測定(またはこれらの測定に基づく情報)は、比較されることができ、IMU測定間の差異が所与の画像ペアに関する閾値を上回る場合、所与の画像ペアは、図6Aまたは6Bにおける橙色(タイプ4)ピクセルによって表される画像ペアに図示されるように、誤ってカテゴリ化された相対的姿勢を有すると識別されることができる。これらの画像ペアに関して、相対的姿勢は、画像フレームペアを誤ってカテゴリ化された相対的姿勢を有するとして分類することによって、大域的姿勢推定プロセスの際、無視されることができる。
図6Cを参照すると、カメラ姿勢660は、面積の左下象限に対して位置および配向を有する。カメラ姿勢680は、面積の右上象限に対して位置および配向を有する。共通特徴が画像フレーム662および682の両方内に存在し得ることが、可能性として考えられる。例えば、カメラが、類似建物の集合の中庭を通して移動していた場合、両画像フレームは、それらがこれらの類似建物を撮像するにつれて、共通要素を共有し得る。その結果、相対的姿勢算出は、有効な相対的姿勢が存在することを判定し得る。しかしながら、IMU測定は、相互に実質的に反対である、異なる時間におけるカメラの配向に関する情報を提供するであろう。その結果、IMU測定を使用して、これらの画像フレームのための初期相対的姿勢算出は、誤ってカテゴリ化された相対的姿勢が判定されたことを示すように更新されるであろう。当業者は、多くの変形例、修正、および代替を認識するであろう。
遮蔽。本機構は、3D内の画像ペアの深度マップおよびカメラ姿勢を検査し、可視性チェックを介して、その相対的姿勢が正しいかどうかを判定することができる。図7Cおよび7Dは、重畳された画像の2つの異なるビューから相互に遮蔽された深度マップを判定する実施例を説明する。図7Cおよび7Dの両方では、相対的姿勢は、正しくない。その結果、その相対的姿勢は、誤ってカテゴリ化された姿勢として検出され、無視されるべきである。
図7Cは、図7Aおよび7BにおけるRGB画像と関連付けられたポイントクラウドのセットの斜視図を図示する。図7Dは、図7Aおよび7BにおけるRGB画像と関連付けられたポイントクラウドのセットの平面図を図示する。図7Cを参照すると、カメラ姿勢750は、灰色ポイントクラウドを捕捉するカメラ姿勢に対応し、これは、図7AにおけるRGB画像と関連付けられる。カメラ姿勢752は、赤色ポイントクラウドを捕捉するカメラ姿勢に対応し、これは、図7BにおけるRGB画像と関連付けられる。深度マップ間の整合は、図7Aおよび7Bに関連して議論されるように、背もたれ上の特徴のマッチングに基づく。図7Dに図示されるように、マッチング特徴を伴う背もたれの部分は、重複セクション760によって図示される。図7A-7Dに図示されるように、テーブル710の後の後壁の短セクション755は、図7A、7C、および7Dに図示される。テーブル710の後の後壁のより長いセクション757は、図7B、7C、および7Dに図示される。
図7Dに図示されるように、後壁(短セクション755および長セクション757)は、遮蔽機構に反している。図7BにおけるRGB画像と関連付けられた赤色深度マップが正確な場合、図7AにおけるRGB画像と関連付けられた灰色深度マップと関連付けられたカメラ(視点)は、赤色深度マップによって表される不透明オブジェクトの後に物理的に位置する、後壁パターンを観察しないであろう。言い換えると、特徴マッチングに基づく相対的姿勢が正しい場合、短セクション755および長セクション757は、整合するであろう。代わりに、それらは、距離Dだけオフセットされる。図6Aおよび6Bにおけるタイプ5ピクセルは、本遮蔽ルールに合格することができない、例示的ペアである。
整合点数。本機構は、ペア間の整合された深度点の数が閾値未満である場合、相対的姿勢が誤ってカテゴリ化されたことを判定する。正確な相対的姿勢を有する画像ペアは、その深度マップが良好に整合され、整合された深度点の数が非常に大きい(例えば、所定の閾値を上回る)ことを含意し得る。
ピクセル別差異。本機構は、対応するフレームの色相違が大きすぎる場合、相対的姿勢を誤ってカテゴリ化されたとして判定する。深度マップの全ての深度点は、対応するRGB画像からの関連付けられた色を有する。実施例は、図7Cおよび7Dにおける深度マップおよび図7Aおよび7Bにおける対応するRGB画像である。良好な相対的姿勢の整合された深度点は、良好に整合された色を有することができる。色相違は、全ての整合された深度点にわたって蓄積され得る。各対の深度点間の色差異を比較し、ある数の点にわたって総和することによって、全体的色相違は、量子化されることができる。量子化された全体的色相違と所定の閾値の比較は、相対的姿勢の品質を判定し、誤ってカテゴリ化された姿勢を検出するために使用されることができる。
図6Aは、ステップ210および212の相対的姿勢算出ならびに検出および除去(すなわち、マーキング)から生成された相対的姿勢のマトリクス表現を図示する。図6Bは、ステップ216および218を参照して以下に説明される、拡張された誤って特性評価された相対的姿勢の拡張された相対的姿勢算出ならびに検出および除去(すなわち、マーキング)から生成された拡張された相対的姿勢のマトリクス表現を図示する。マトリクス表現の軸は、以下により完全に説明されるように、フレーム番号である。
図6Aおよび6Bはそれぞれ、N×Nマトリクスを図示し、Nは、特定の入力画像または画像フレームのフレーム番号である。右上または左下の三角形のそれぞれ内の各ピクセルは、ピクセルの列数に対応する第1の画像フレームと、ピクセルの行数に対応する第2の画像フレームとを備える、画像フレームのペアを表す。主要対角線に沿ってあるマトリクスの要素は、主要対角線が、単に、画像フレームとそれ自体を比較するため、価値がない。
図6Aの右上三角形内のピクセル色(すなわち、値)は、所与の画像フレーム間の相対的姿勢を判定するために達成される算出結果を表す。例えば、円形610は、画像フレーム番号28×10および29×10を強調する。これらの2つの画像フレームペア間の相対的姿勢は、210において有効な相対的姿勢として算出され、これらの画像フレームペアは、以下により完全に説明されるように、これらの画像フレームペア間の有効な相対的姿勢が存在するため、薄緑色で示される。円形612は、画像フレーム番号1-10×約50-60を強調する。これらの画像フレームペアに関して、画像フレームペアのうちのいくつかは、有効な相対的姿勢(薄緑色)を有する一方、他の画像フレームペアは、プロセス212に関連してより完全に説明されるように、誤ってカテゴリ化された相対的姿勢(橙色)を有する。
図6Aの左下三角形内のピクセル色(すなわち、グレースケール)は、右上三角形内の対応する算出された相対的姿勢と関連付けられた信頼度値またはレベルを表し、より明るいピクセル強度は、相対的姿勢算出におけるより高い信頼度を示す。算出における信頼度は、本発明の実施形態による、1つまたはそれを上回るパラメータの関数である。例えば、加重とも称され得る、信頼度は、画像フレームペア間の重複面積のサイズの代わりに使用され得る、図9に関連して議論されるような最近傍点ペアの数の関数であることができる。信頼度は、プロセス334によって判定されるような画像フレームペア間の3D特徴マッチングの数の関数であることができる。加えて、信頼度は、拡張された有効な相対的姿勢がプロセス210-214に関連して議論される有効な相対的姿勢の初期判定に基づくため、フレームペアのための有効な相対的姿勢と比較して、フレームペアのための拡張された有効な相対的姿勢に対処するとき、より低くなり得る。
図6Cは、本発明のある実施形態による、一連のカメラ姿勢および画像フレームを図示する、略図である。図6Cでは、時間の関数としての一連のカメラ姿勢が、座標軸655と関連付けられた大域的基準フレームを通して移動しているカメラを表す、青色三角形によって図示される。関連付けられた深度マップもまた、図6Cに図示される。カメラ姿勢660では、カメラは、画像フレーム662(黄褐色)と関連付けられた視野を捕捉し、図示される面積の左下角を撮像する。カメラ姿勢670では、カメラは、画像フレーム672(赤色)と関連付けられた視野を捕捉し、図示される面積の上中心を撮像する。カメラ姿勢680では、カメラは、画像フレーム682と関連付けられた視野を捕捉し、図示される面積の右上角を撮像する。
図6Cに図示されるように、カメラ姿勢660は、画像フレーム662と関連付けられ、これは、カメラ姿勢670またはカメラ姿勢680と関連付けられた画像フレームと重複を共有しない。図6Aを参照すると、画像フレームペア1×30は、有効な相対的姿勢を有しておらず、相対的姿勢算出が、画像フレーム30の姿勢に対して画像フレーム1の相対的姿勢を判定することが不可能であるという判定をもたらしたことを示す。対照的に、カメラ姿勢670および680は、画像フレーム672および682と関連付けられ、これは、重複面積を共有する。故に、関連付けられた画像フレームのペア内に存在する共通特徴に基づいて、カメラ姿勢670と680との間の相対的姿勢を判定することが可能であり得る。
画像フレーム672および682と同様に、十分な重複および/または共通情報が、フレームペア10および28ならびにフレームペア10および29内に存在し、これらの画像フレーム(すなわち、10と28および10と29)を相互に参照する。言い換えると、画像フレーム10および28は、相互を参照し得、例えば、画像フレーム10と関連付けられたカメラ姿勢は、所定の姿勢(P10)である。画像フレーム28と関連付けられたカメラ姿勢(P28)は、カメラの平行移動および回転、例えば、x-軸に沿って100cmの平行移動およびy-軸の周囲の30°の回転によってP10を参照し得る。
図6Aは、相対的フレーム/フレーム姿勢算出と関連付けられたいくつかの条件を図示する。
濃灰色(タイプ1)-カテゴリ化されていない-画像フレームペア間の相対的姿勢を算出する試みが行われたが、画像フレームペア間の相対的姿勢が存在しない。
薄灰色(タイプ1)-カテゴリ化されていない-画像フレームペア間の相対的姿勢を算出する試みが行われなかった。画像フレームペア間の相対的姿勢は、存在しない。
薄緑色(タイプ2)-画像フレームペア間の有効な相対的姿勢が存在する。
橙色(タイプ4)-画像フレームペア間の誤ってカテゴリ化された相対的姿勢(IMU測定に基づく)が存在する。
黒色(タイプ4)-画像フレームペア間の誤ってカテゴリ化された相対的姿勢(遮蔽に基づく)が存在する。
IMU測定または遮蔽に基づく誤ったカテゴリ化は、図6Aに図示されるが、他の情報に基づく他の誤ったカテゴリ化もまた、タイプ4カテゴリの範囲内に含まれることに留意されたい。実施例として、回転および位置、整合点数、ピクセル別差異、および同等物が挙げられる。
上記のカテゴリを参照し、タイプ1のフレームペアは、カテゴリ化されていないと称され、相対的カメラ姿勢を判定する試みが行われたが、有効な相対的姿勢が見出されなかったフレームペア(濃灰色)ならびに相対的姿勢を判定する試みが行われなかったフレームペア(薄灰色)を含む。実施例として、相対的姿勢を判定(すなわち、算出)する試みは、共通特徴が存在しないフレームペアに対して行われ得ない。
再び図2を参照すると、方法200はまた、相対的姿勢を使用して、大域的姿勢を推定するステップを含む(214)。大域的姿勢推定214は、ラージスケール最適化フレームワーク内で実施されることができ、これは、大域的座標内の全ての画像フレームのための大域的姿勢を算出することができる。本プロセスでは、大域的姿勢推定は、ラージスケール最適化問題の要素として、相対的姿勢制約、IMU制約、平面制約、平滑性制約、および同等物を含む、いくつかの制約に基づいて、画像姿勢(例えば、全ての画像姿勢)に大域的座標を参照させるように利用される。
相対的姿勢制約は、結果として生じる大域的姿勢が相対的姿勢によって説明される相対的変換を充足させることを確実にすることができる。IMU制約は、結果として生じる大域的姿勢の回転とその対応するIMU測定との間の逸脱をペナルティ化することができる。平面制約は、壁表面が良好に整合されることを確実にすることができる。実施例として、深度マップ毎に、平面が、抽出されることができる。大域的座標を参照するプロセスは、次いで、これらの抽出された平面の整合を行う。ビデオストリーム入力が利用される実施形態では、平滑性制約は、カメラ移動が平滑であることを確実にすることができる。当業者は、多くの変形例、修正、および代替を認識するであろう。
大域的姿勢推定プロセスでは、カメラ姿勢は、大域的座標805内で復元される。各カメラ姿勢およびその関連付けられたRGBD画像は、大域的に一貫した様式において、空間内に設置される。画像ペア間の多数の相対的姿勢が、プロセス212から得られ、本プロセスは、図8に示されるように、捕捉経路のオリジナル軌道を辿って、復元されたカメラ位置を推定する。図8はまた、大域的座標内でポイントクラウドとして可視化される、関連付けられた深度マップを示す。例えば、線は、壁を表してもよく、多くの画像のそのような線が重畳されたとき、くっきりした線は、画像が良好に整合され、関連付けられた姿勢推定が正確であることを含意し得る一方、太線は、その反対を含意し得る。
図8は、本発明のある実施形態による、大域的座標を参照している深度マップおよび一連の画像姿勢を示す、平面図を図示する。図8では、複数の画像フレームと関連付けられた全ての深度マップ810は、大域的基準フレーム805にオーバーレイされ、それを参照している。相対的姿勢および関連付けられた深度マップを前提として、最適化プロセスが、各カメラ姿勢に大域的座標を参照させるように行われる。カメラ姿勢820は、画像フレーム毎に、カメラが面積を通して移動するにつれた時間の関数として図示される。したがって、カメラの復元された軌道およびその配向は、図8に図示されるように、プロセス214後に提供される。
RGBD姿勢が、大域的座標内で位置合わせされた後、全ての入力RGBD画像間の改良された空間関係が、以下に説明されるように得られることができる。
方法200は、例えば、プロセス214における大域的姿勢の推定後、拡張された相対的姿勢を算出するステップを含む(216)。用語「拡張された相対的姿勢」は、有効な相対的姿勢の数が、付加的データ、例えば、空間データの可用性のため、より大きい数に拡張されるために利用される。本プロセスでは、相対的姿勢の精緻化は、利用可能な空間情報を使用して行われ、出力は、図6Bに図示される拡張された相対的姿勢のマトリクス表現によって表されることができる。プロセス216では、RGBD姿勢が、大域的座標内で位置合わせされ、全ての入力RGBD画像間の空間関係のはるかに良好な理解を提供する。言い換えると、これまでは、相対的姿勢は、時間的に近いペアおよび十分な特徴マッチングを有するペアに関して算出され得る。プロセス216では、プロセス214において算出された拡張された相対的姿勢を前提として、姿勢が大域的座標内で位置合わせされるため、全ての空間的に近いペアのための相対的姿勢が、図9に関連して議論されるように算出されることができる。
いくつかの実施形態では、プロセス216-220は、プロセス214後に有効ではないフレームペアのためのみに行われる。例えば、プロセスは、図6Aに図示されるように、タイプ1のフレームペア(有効な相対的姿勢がない)ならびにタイプ4および5のフレームペア(誤ってカテゴリ化された相対的姿勢)のためのみに行われることができる。ある場合には、誤ってカテゴリ化されたフレームペアは、より良好な初期化が方法200の本段階において利用可能であるため、正しくカテゴリ化されることができる。
図3に図示されるプロセスでは、画像フレームのためのRGB情報は、例えば、特徴検出およびマッチングにおいて利用された。プロセス210-214とは対照的に、プロセス216-220は、利用可能な大域的姿勢推定情報を有する。図8を参照すると、領域830の近傍のカメラ姿勢は、それらが、異なる時間、例えば、カメラがループ832を通して移動する前および後において捕捉され得たという事実にもかかわらず、近似的に整合され得る。空間的に近いが、時間的に離れたカメラ姿勢に関して、整合は、画像フレーム間の有効な相対的姿勢が存在するかどうかを判定するために試みられることができる。
図9は、本発明のある実施形態による、拡張された相対的姿勢を算出する方法を図示する、簡略化されたフローチャートである。図9を参照すると、方法900は、画像フレームペアが空間的に近い画像フレームであるかどうかを判定するステップを含む(プロセス910および911)。空間的に近いフレームとは、本文脈では、視認範囲および視認方向ならびに点ペア間の重複によって特徴付けられ得る、その視野間の交差によって特徴付けられる、画像フレームペアを指す。視野はまた、錐台と称され得る。
いくつかの実施形態では、図9に示されるように、画像フレームペアが空間的に近い画像フレームペアであるかどうかの判定は、錐台交差分析を行うステップを含む(910)。有効な相対的姿勢を伴うフレームペア以外の全ての画像フレームペアに関して、フレーム毎の錐台が、ペア内のマッチングフレームのための錐台と比較される。3D内の重複が存在する場合、交差が錐台のセット間に存在することを判定することが可能である。本交差分析は、いくつかの実施形態では、効率的に行われる。
2つの錐台が交差する場合、これは、2つの場面内のオブジェクトが交差することを保証するものではない。例えば、2つのビューは、壁の異なる側であり得、したがって、錐台が交差するであろうが、必ずしも、両場面内に存在するオブジェクトが存在するわけではないであろう。再び図6Bを参照すると、錐台交差が、視野672の右側と視野682の左側との間の重複によって図示される。
迅速に行われ得る910における交差チェックに合格した場合、より完全な点別深度マップ重複チェックが、行われることができる(911)。これはまた、十分な数の最近傍点ペアが所与の画像フレームペアに関して存在するかどうかの判定と言え得る。画像フレームペア毎に、2つのフレーム内の点ペア間の重複の判定が行われる。近い(例えば、所与の閾値を下回る)点ペアの数をカウントすることによって、重複表面積は、近い点ペアの数に起因し得る。第1のフレーム内の点(点a、フレーム1)毎に、第2のフレーム内の最近傍点(点b、フレーム2)の判定が行われる。第2のフレーム(点b、フレーム2)に関して、第1のフレーム内の最近傍点の判定が行われる(点c、フレーム1)。本最近傍点プロセスが、第1のフレーム内の点(点a、フレーム1)が第2のフレームの観点から最近傍点(点c、フレーム1)と同一であるようなループを形成する場合、本点ペアは、カウントされる。近い点ペアの数は、いくつかの実施形態では、重複表面積の代わりとして使用されることができる。
これらの空間的に近い画像フレームペアは、次いで、拡張された相対的姿勢最適化を受け(912)、相対的回転および平行移動のより正確な推定を得ることができる(914)。プロセス912は、プロセス322に類似し、プロセス914は、プロセス340に類似するが、拡張されたバージョンである。
図9に図示される具体的ステップは、本発明のある実施形態による、拡張された相対的姿勢を算出するステップの特定の方法を提供することを理解されたい。他のシーケンスのステップもまた、代替実施形態に従って行われてもよい。例えば、本発明の代替実施形態は、上記で概略されたステップを異なる順序で行ってもよい。さらに、図9に図示される個々のステップは、個々のステップの必要に応じて、種々のシーケンスで行われ得る、複数のサブステップを含んでもよい。さらに、付加的ステップが、特定の用途に応じて、追加または除去されてもよい。当業者は、多くの変形例、修正、および代替を認識するであろう。
図6Bは、拡張された相対的フレーム/フレーム姿勢算出と関連付けられたいくつかの条件を図示する。
濃灰色(タイプ1)-カテゴリ化されていない画像フレームペア-画像フレームペア間の相対的姿勢を算出する試みが行われたが、画像フレームペア間の相対的姿勢が、存在しない。
薄灰色(タイプ1)-カテゴリ化されていない画像フレームペア-画像フレームペア間の相対的姿勢を算出する試みが、行われなかった。画像フレームペア間の相対的姿勢が、存在しない。
薄緑色(タイプ2)-画像フレームペア間の有効な相対的姿勢が存在する。
濃緑色(タイプ3)-画像フレームペア間の有効な拡張された相対的姿勢が存在する。
橙色(タイプ4)-画像フレームペア間の誤ってカテゴリ化された相対的姿勢(IMU測定に基づく)が存在する。
黒色(タイプ4)-画像フレームペア間の誤ってカテゴリ化された相対的姿勢(遮蔽に基づく)が存在する。
図6Bは、プロセス216において利用されるカテゴリ化プロセスの際、付加的空間情報が利用され、増加数のフレームペアマッチングの試みを可能にするため、より多数の濃灰色タイプ1のフレームペアを含むことに留意されたい。
右上三角形では、タイプ1ピクセルは、相対的姿勢が見出されていない、画像(フレーム)ペアを表し、タイプ2ピクセルは、有効な相対的姿勢を伴う画像(フレーム)ペアを表し、タイプ3ピクセルは、有効な拡張された相対的姿勢を伴う画像(フレーム)ペアを表し、タイプ4ピクセルは、誤ってカテゴリ化された相対的姿勢を伴う画像(フレーム)ペアを表す。左下三角形では、ピクセルは、右上三角形内の対応する相対的姿勢の信頼度レベルを表す。より明るいピクセルは、より信頼性のある相対的姿勢を示す。
図6Aと比較して、有効な相対的姿勢の密度は、図6Bでは、拡張された相対的姿勢算出を行った後、より高くなる。例えば、領域650では、付加的フレームペアの数が、有効な拡張された相対的姿勢に伴って追加されている。加えて、領域655では、ある閾値を下回る、時間的に近くないフレームが、有効な拡張された相対的姿勢を有するとして識別されている。
再び図2を参照すると、本方法は、付加的な誤って特性評価された姿勢を検出するステップを含み(218)、これは、上記に説明されるプロセス212に類似してもよく、誤ってカテゴリ化された相対的姿勢を新しく生成された拡張された相対的姿勢からフィルタ除去するステップを含んでもよい。本方法はさらに、拡張された相対的姿勢を使用して、大域的姿勢を推定するステップを含む(220)。本プロセスでは、例えば、前の大域的姿勢推定(214)において利用された制約の全てに加え、新しい拡張された相対的姿勢制約および構造形状制約を含む、制約が、より正確な姿勢を得るために使用されることができる。
方法200は、加えて、姿勢を精緻化するステップを含み(222)、これはさらに、姿勢正確度を改良する。姿勢精緻化は、図10に図示されるように、局所的一貫性および正確度を姿勢推定に追加することができる。
図10は、本発明のある実施形態による、大域的座標を参照している深度マップおよび一連の精緻化された画像姿勢を示す、平面図を図示する。図10は、画像姿勢が精緻化される前の、大域的座標を参照している深度マップおよび一連の画像姿勢を示す、平面図を図示する、図8と比較されることができる。図8および10を比較することによって分かるように、壁または他の幾何学的特徴等の点によって表される、幾何学形状は、姿勢が精緻化された後、はるかにくっきりし、かつ鮮明であって、これは、異なるフレームからの対応する深度マップがより良好に整合され、関連付けられた推定された姿勢がさらに正確であることを意味する。実施例として、図8における壁840は、いったん姿勢が精緻化されると、図10における同一壁内に存在しない、粗度を含む。当業者は、多くの変形例、修正、および代替を認識するであろう。
姿勢精緻化は、下層の場面幾何学形状およびカメラ姿勢を反復的に求めることができる。十分に近い初期化および十分な反復を用いることで、幾何学形状およびカメラ姿勢の両方が、以下に説明されるように、グランドトゥルース解に収束することができる。
図11は、本発明のある実施形態による、姿勢を精緻化するための方法を図示する、簡略化されたフローチャートである。姿勢は、大域的規模では、比較的に正確であり得るが、局所不正確度は、図11に図示される方法を使用して除去されることができる。方法1100は、精緻化されていない姿勢を受信するステップ(1110)と、立体融合を行い(例えば、CurlessとLevoyのアルゴリズムを適用する)、全ての深度マップを切断符号付き距離関数(truncated signed distance function)に融合するステップ(1112)とを含む。立体ホールフィリングが、符号付き距離関数に行われる(1114)(例えば、立体拡散ベースのアプローチ)。方法1220はまた、マーチングキューブを適用し(1116)、符号付き距離関数を三角形メッシュに変換するステップを含む。精緻化の種々の段階における例示的3Dメッシュは、図12A-12Cに図示される。
深度マップが、RGBD画像毎にレンダリングされる(1118)。深度マップレンダリングプロセスでは、各RGBD画像の姿勢が、各深度画像を生成された三角形メッシュに整合させる、すなわち、全ての深度画像を相互に整合させることによって微調整される。一実施例では、RGBD画像毎に、深度マップが、同一カメラ姿勢からレンダリングされる。しかしながら、各RGBD画像と関連付けられたレンダリングされた深度マップと捕捉された深度マップとの間に差異が存在し得、これは、主に、推定された姿勢とグランドトゥルース姿勢との間の差異を表す。したがって、レンダリングされた深度マップおよび捕捉された深度マップは、整合される(1120)。ICP(反復最近傍点)ベースの整合は、レンダリングされた深度マップに対して実装され、推定された姿勢を調節することができる。
プロセス1112-1116は、幾何学形状の更新と見なされることができ、プロセス1118-1122は、カメラ姿勢の更新と見なされることができる。当業者は、多くの変形例、修正、および代替を認識するであろう。
いったん姿勢が精緻化/更新されると(1122)、精緻化プロセスの反復に関して決定が行われる(1124)。反復が行われる場合、幾何学形状は、幾何学形状がプロセス1122において受信された精緻化された姿勢の使用を通して潜在的に改良され得るため、再び更新される。改良された幾何学形状は、順に、姿勢をさらに精緻化するために使用されることができる。本サイクルは、N回の反復のために繰り返されることができ、1回またはそれを上回る反復もしくはそのそれぞれにおいて粗密ボクセル分解能(coarse-to-fine voxel resolution)の修正を伴う(1130)。別の実施形態では、反復の回数は、カメラ姿勢の閾値および/または直近の反復前後の姿勢の差異に基づいて判定されることができる。十分な回数の反復後、プロセスは、停止される(1140)。
図11に図示される具体的ステップは、本発明のある実施形態による、姿勢を精緻化する特定の方法を提供することを理解されたい。他のシーケンスのステップもまた、代替実施形態に従って行われてもよい。例えば、本発明の代替実施形態は、上記で概略されたステップを異なる順序で行ってもよい。さらに、図11に図示される個々のステップは、個々のステップの必要に応じて、種々のシーケンスで行われ得る、複数のサブステップを含んでもよい。さらに、付加的ステップが、特定の用途に応じて、追加または除去されてもよい。当業者は、多くの変形例、修正、および代替を認識するであろう。
図12A-12Cは、図11に関連して説明されたような3回の反復にわたって改良された幾何学形状を図示する。図12A-12Cはそれぞれ、各反復から推定された姿勢を伴う全ての入力深度マップからのマーチングキューブを介して生成された3Dメッシュである。姿勢推定が正確である場合、平滑表面が観察される。そうでなければ、粗表面が観察される。図12Aは、1回の反復後の、多くの粗表面を含有する捕捉された画像の表現を示す。反復を重ねる毎に、より高い正確度のオリジナル場面が、図12Bおよび12Cに復元される。反復は、姿勢が、N回の反復後、非常に高い正確度に到達するまで、継続することができる。
再び図2を参照すると、要約すると、本発明の実施形態は、複数の画像フレームのためのカメラ姿勢を判定する方法を提供する。本方法は、カメラ(例えば、RGBDカメラ)を使用して、複数の画像フレームを捕捉するステップと、画像フレームペアの各セット間の相対的姿勢を算出し、相対的姿勢セットおよびカテゴリ化されていない姿勢セットを提供するステップとを含む。相対的姿勢セットは、タイプ2(すなわち、有効な相対的姿勢)およびタイプ4(誤ってカテゴリ化された相対的姿勢)画像フレームペアを含み、カテゴリ化されていない相対的姿勢セットは、タイプ1画像フレームペアを含む。複数の画像フレームは、例えば、ビデオ実装では、所定のフレームレートで捕捉されることができる。複数の画像フレームは、複数の画像フレームのそれぞれ内のピクセル毎に、色データならびに深度データを含むことができる。
図3に関連して議論されるように、画像フレームペアの各セット間の相対的姿勢を算出するステップは、画像フレームペアの時間的に近いサブセットのための第1のプロセスおよび画像フレームペアの時間的に離れたサブセットのための第2のプロセスを行うステップを含むことができる。第2のプロセスは、時間的に離れたサブセット内の画像フレームペア間の特徴を検出およびマッチングするステップを含むことができる。第2のプロセスはさらに、時間的に離れたサブセット内の画像フレームペア間で深度マッチングを行うステップを含むことができる。
本方法はまた、誤ってカテゴリ化された相対的姿勢を相対的姿勢セットから検出および除去し、残りの相対的姿勢セットを提供するステップを含む。本残りの相対的姿勢セットは、図6Aにおいて薄緑色ペアによって示される、画像フレームペア間のタイプ2の有効な相対的姿勢を含むであろう。本方法はさらに、残りの相対的姿勢セットを使用して、複数の画像フレームのための大域的姿勢を判定するステップを含む。
加えて、本方法は、誤ってカテゴリ化された相対的姿勢の少なくとも一部およびカテゴリ化されていない相対的姿勢セットの少なくとも一部のための拡張された相対的姿勢を算出し、拡張された相対的姿勢セットを提供するステップを含む。本拡張された相対的姿勢セットは、図6Bにおいて濃緑色ペアによって図示される、画像フレームペア間の拡張された有効な相対的姿勢を伴う、タイプ3フレームペアと、図6Bにおいて橙色および黒色フレームペアによって示される、拡張された誤ってカテゴリ化された相対的姿勢を伴うフレームペア(タイプ4フレームペア)とを含むであろう。新しいタイプ1フレームペアを含む、拡張されたカテゴリ化されていない相対的姿勢セットもまた、存在することができる。
本方法はさらに、拡張された誤ってカテゴリ化された相対的姿勢を拡張された相対的姿勢セットから検出および除去し、図6Bにおいて濃緑色で図示されるタイプ3の残りの拡張された相対的姿勢によって図示される、残りの拡張された相対的姿勢セットを提供するステップを含む。本方法はまた、プロセス214に関連して議論される残りの相対的姿勢セットおよび残りの拡張された相対的姿勢セットを使用して、複数の画像フレームのための更新された大域的姿勢を判定するステップを含む。複数の画像フレームのための大域的姿勢は、大域的基準フレームを参照している。
いくつかの実施形態では、本方法はまた、所定の反復数、または、反復間のカメラ姿勢の差異の閾値に基づく反復数であり得る、N回の反復を通して更新された大域的姿勢を精緻化するステップを含む。さらに、更新された大域的姿勢を精緻化するステップは、複数の画像フレームの異なる画像フレームと関連付けられた深度マップから導出される場面幾何学形状を整合させるステップを含むことができる。更新された大域的姿勢を精緻化するステップは、加えて、更新された大域的姿勢毎に、更新された大域的姿勢を収束に向かって調節するステップを含むことができる。
図2に図示される具体的ステップは、本発明のある実施形態による、ラージスケールRGBD姿勢推定を行う特定の方法を提供することを理解されたい。他のシーケンスのステップもまた、代替実施形態に従って行われてもよい。例えば、本発明の代替実施形態は、上記で概略されたステップを異なる順序で行ってもよい。さらに、図2に図示される個々のステップは、個々のステップの必要に応じて、種々のシーケンスで行われ得る、複数のサブステップを含んでもよい。さらに、付加的ステップが、特定の用途に応じて、追加または除去されてもよい。当業者は、多くの変形例、修正、および代替を認識するであろう。
前述の説明は、ラージスケールRGBD推定のための方法およびシステムのために提示されている。図示されるステップは、示される例示的実施形態を説明するために記載されており、進行中の技術的開発が特定の機能が行われる様式を変化させるであろうことが予期されるべきである。したがって、これらの実施例は、限定ではなく、例証目的のために本明細書に提示される。例えば、本明細書に開示されるステップまたはプロセスは、説明される順序で行われることに限定されず、任意の順序で行われてもよく、いくつかのステップは、開示される実施形態に準拠して省略されてもよい。さらに、機能構築ブロックの境界は、本明細書では、説明の利便性のために恣意的に定義されている。代替境界が、規定された機能およびその関係が適切に行われる限り、定義されてもよい。代替(本明細書に説明されるものの均等物、拡張、変形例、逸脱等を含む)が、本明細書に含有される教示に基づいて、当業者に明白となるであろう。そのような代替は、開示される実施形態の範囲および精神内にある。
開示される原理の実施例および特徴が本明細書に説明されるが、修正、適合、および他の実装も、開示される実施形態の精神および範囲から逸脱することなく、可能性として考えられる。また、単語「~を備える」、「~を有する」、「~を含有する」、および「~を含む」、および他の類似形態は、意味上の均等物であって、これらの単語のうちの任意の1つに続くアイテムまたは複数のアイテムが、そのようなアイテムまたは複数のアイテムの包括的リストであることを意味するものではない、もしくは列挙されたアイテムまたは複数のアイテムのみに限定されることを意味するものではないという意味において、非制限的であることが意図される。また、本明細書で使用されるように、単数形「a」、「an」、および「the」は文脈によって明確に別様に示されない限り、複数参照も含むことに留意されたい。
さらに、1つまたはそれを上回るコンピュータ可読記憶媒体が、本開示に準拠する実施形態を実装する際に利用されてもよい。コンピュータ可読記憶媒体は、プロセッサによって可読である情報またはデータが記憶され得る、任意のタイプの物理的メモリを指す。したがって、コンピュータ可読記憶媒体は、プロセッサに本明細書に説明される実施形態に準拠するステップまたは段階を行わせるための命令を含む、1つまたはそれを上回るプロセッサによる実行のための命令を記憶してもよい。用語「コンピュータ可読記憶媒体」は、有形アイテムを含み、搬送波および過渡信号を除外する、すなわち、非一過性であると理解されたい。実施例として、RAM、ROM、揮発性メモリ、不揮発性メモリ、ハードドライブ、CD ROM、DVD、フラッシュドライブ、ディスク、および任意の他の公知の物理的記憶媒体が挙げられる。上記に説明されるモジュール/ユニットは、ソフトウェア、ハードウェア、ファームウェア、またはソフトウェア、ハードウェア、およびファームウェアの任意の組み合わせの形態で実装されてもよい。例えば、モジュール/ユニットは、コンピュータ可読メモリ内に記憶されるソフトウェア命令を実行するプロセッサによって実装されてもよい。
また、本明細書に説明される実施例および実施形態は、例証目的のためだけのものであって、それに照らした種々の修正または変更が、当業者に示唆され、本願の精神および権限ならびに添付の請求項の範囲内に含まれるものとすることを理解されたい。

Claims (8)

  1. 姿勢を精緻化するための方法であって、前記方法は、
    (a)複数の姿勢を受信することであって、前記複数の姿勢のそれぞれは、複数の捕捉された深度画像のうちの1つに関連付けられており、前記複数の捕捉された深度画像のそれぞれは、複数の捕捉された深度マップのうちの1つに関連付けられている、ことと、
    (b)前記複数の姿勢に対して立体再構成を行うことにより、大域的幾何学形状に対応する三角形メッシュを生成することと、
    (c)前記三角形メッシュを用いて、前記複数の捕捉された深度画像のそれぞれに関連付けられている深度マップをレンダリングすることにより、複数のレンダリングされた深度マップを生成することと、
    (d)前記複数の捕捉された深度マップのそれぞれに対して、前記複数の捕捉された深度マップのうちの1つの捕捉された深度マップを、前記複数のレンダリングされた深度マップのうち、前記1つの捕捉された深度マップに対応する1つのレンダリングされた深度マップに整合させることにより、複数の精緻化された姿勢を提供することと、
    (e)所定の回数の反復の間、前記複数の精緻化された姿勢を用いて(b)、(c)、(d)を繰り返すことと
    を含む、方法。
  2. 立体再構成を行うことは、
    立体融合を行うことと、
    前記三角形メッシュを抽出することと
    を含む、請求項1に記載の方法。
  3. 立体再構成を行うことは、立体ホールフィリングを行うことをさらに含む、請求項2に記載の方法。
  4. 立体融合を行うことは、前記複数の姿勢のそれぞれに関連付けられている各捕捉された深度マップを切断符号付き距離関数に融合することを含む、請求項2に記載の方法。
  5. 前記三角形メッシュを抽出することは、前記切断符号付き距離関数を前記三角形メッシュに変換することを含む、請求項4に記載の方法。
  6. 前記三角形メッシュを抽出することは、マーチングキューブを適用することを含む、請求項2に記載の方法。
  7. 前記複数の捕捉された深度マップのそれぞれに対して、前記複数の捕捉された深度マップのうちの1つの捕捉された深度マップを、前記複数のレンダリングされた深度マップのうち、前記1つの捕捉された深度マップに対応する1つのレンダリングされた深度マップに整合させることは、反復最近傍点ベースの整合を含む、請求項1に記載の方法。
  8. 前記複数の捕捉された深度マップのそれぞれに対して、前記複数の捕捉された深度マップのうちの1つの捕捉された深度マップを、前記複数のレンダリングされた深度マップのうち、前記1つの捕捉された深度マップに対応する1つのレンダリングされた深度マップに整合させることは、各レンダリングされた深度マップを各捕捉された深度マップに変換することを含む、請求項1に記載の方法。
JP2020219766A 2015-11-20 2020-12-29 Rgbdカメラ姿勢のラージスケール判定のための方法およびシステム Active JP7300438B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562258316P 2015-11-20 2015-11-20
US62/258,316 2015-11-20
JP2018525684A JP6902028B2 (ja) 2015-11-20 2016-11-18 Rgbdカメラ姿勢のラージスケール判定のための方法およびシステム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018525684A Division JP6902028B2 (ja) 2015-11-20 2016-11-18 Rgbdカメラ姿勢のラージスケール判定のための方法およびシステム

Publications (3)

Publication Number Publication Date
JP2021047932A JP2021047932A (ja) 2021-03-25
JP2021047932A5 JP2021047932A5 (ja) 2021-08-26
JP7300438B2 true JP7300438B2 (ja) 2023-06-29

Family

ID=58717957

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018525684A Active JP6902028B2 (ja) 2015-11-20 2016-11-18 Rgbdカメラ姿勢のラージスケール判定のための方法およびシステム
JP2020219766A Active JP7300438B2 (ja) 2015-11-20 2020-12-29 Rgbdカメラ姿勢のラージスケール判定のための方法およびシステム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018525684A Active JP6902028B2 (ja) 2015-11-20 2016-11-18 Rgbdカメラ姿勢のラージスケール判定のための方法およびシステム

Country Status (9)

Country Link
US (3) US10313639B2 (ja)
EP (1) EP3377853A4 (ja)
JP (2) JP6902028B2 (ja)
KR (1) KR20180086218A (ja)
CN (2) CN108475433B (ja)
AU (2) AU2016355215B2 (ja)
CA (1) CA3005894A1 (ja)
IL (2) IL286156B1 (ja)
WO (1) WO2017087813A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6902028B2 (ja) 2015-11-20 2021-07-14 マジック リープ, インコーポレイテッドMagic Leap,Inc. Rgbdカメラ姿勢のラージスケール判定のための方法およびシステム
CA3066502A1 (en) * 2017-06-21 2018-12-27 Vancouver Computer Vision Ltd. Determining positions and orientations of objects
WO2019055260A1 (en) * 2017-09-13 2019-03-21 Xiaochun Nie SYSTEMS AND METHODS FOR CALIBRATING IMAGING SENSORS AND SPATIAL ORIENTATION
US11562505B2 (en) 2018-03-25 2023-01-24 Cognex Corporation System and method for representing and displaying color accuracy in pattern matching by a vision system
CN108921947B (zh) * 2018-07-23 2022-06-21 百度在线网络技术(北京)有限公司 生成电子地图的方法、装置、设备、存储介质以及采集实体
US11141645B2 (en) 2018-09-11 2021-10-12 Real Shot Inc. Athletic ball game using smart glasses
US11103763B2 (en) 2018-09-11 2021-08-31 Real Shot Inc. Basketball shooting game using smart glasses
CN109462746B (zh) * 2018-10-26 2020-11-06 北京双髻鲨科技有限公司 一种图像去抖的方法及装置
US11501104B2 (en) 2018-11-27 2022-11-15 Here Global B.V. Method, apparatus, and system for providing image labeling for cross view alignment
CN109544629B (zh) * 2018-11-29 2021-03-23 南京人工智能高等研究院有限公司 摄像头位姿确定方法和装置以及电子设备
WO2020156633A1 (en) 2019-01-28 2020-08-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Localization of elements in the space
US11600049B2 (en) * 2019-04-24 2023-03-07 Magic Leap, Inc. Perimeter estimation from posed monocular video
KR102476057B1 (ko) 2019-09-04 2022-12-09 주식회사 윌러스표준기술연구소 클라우드 가상 현실을 위한 imu 센서 데이터를 활용한 비디오 인코딩 및 디코딩 가속 방법 및 장치
CN110728717B (zh) * 2019-09-27 2022-07-15 Oppo广东移动通信有限公司 定位方法及装置、设备、存储介质
US11335063B2 (en) * 2020-01-03 2022-05-17 Vangogh Imaging, Inc. Multiple maps for 3D object scanning and reconstruction
JP6928217B1 (ja) * 2020-07-31 2021-09-01 松尾建設株式会社 測定処理装置、方法及びプログラム
CN114814872A (zh) * 2020-08-17 2022-07-29 浙江商汤科技开发有限公司 位姿确定方法及装置、电子设备和存储介质
KR20220122287A (ko) 2021-02-26 2022-09-02 삼성전자주식회사 증강 현실 제공 장치의 포즈 결정 방법 및 장치
US11710272B2 (en) * 2021-03-24 2023-07-25 Disney Enterprises, Inc. Volumetric representation of digital objects from depth renderings
US20220318948A1 (en) * 2021-03-27 2022-10-06 Mitsubishi Electric Research Laboratories, Inc. System and Method of Image Stitching using Robust Camera Pose Estimation
CN115147323A (zh) * 2022-07-20 2022-10-04 深圳市慧鲤科技有限公司 图像增强方法、装置、电子设备以及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003162549A (ja) 2001-11-28 2003-06-06 National Institute Of Advanced Industrial & Technology 統合された形状モデル生成方法及びコンピュータプログラム
JP2009032122A (ja) 2007-07-27 2009-02-12 Hiroshima Industrial Promotion Organization 画像処理装置、画像処理方法およびプログラム
JP2014513822A (ja) 2011-01-31 2014-06-05 マイクロソフト コーポレーション ゲーム・プレイにおける三次元環境モデルの使用
US20140293016A1 (en) 2011-08-31 2014-10-02 Metaio Gmbh Method for estimating a camera motion and for determining a three-dimensional model of a real environment
WO2015102637A1 (en) 2014-01-03 2015-07-09 Intel Corporation Real-time 3d reconstruction with a depth camera

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4635203A (en) * 1984-04-06 1987-01-06 Honeywell Inc. Passive range measurement apparatus and method
US6078701A (en) * 1997-08-01 2000-06-20 Sarnoff Corporation Method and apparatus for performing local to global multiframe alignment to construct mosaic images
US7242460B2 (en) * 2003-04-18 2007-07-10 Sarnoff Corporation Method and apparatus for automatic registration and visualization of occluded targets using ladar data
EP1736928A1 (en) * 2005-06-20 2006-12-27 Mitsubishi Electric Information Technology Centre Europe B.V. Robust image registration
WO2008075061A2 (en) 2006-12-20 2008-06-26 Mitsubishi Electric Information Technology Centre Europe B.V. Multiple image registration apparatus and method
GB0625455D0 (en) * 2006-12-20 2007-01-31 Mitsubishi Electric Inf Tech Graph-based multiple panorama extraction from unordered image sets
US20090060348A1 (en) * 2007-08-28 2009-03-05 Donald Martin Monro Determination of Image Similarity
EP2154650A1 (en) * 2008-08-12 2010-02-17 IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. 3D time-of-flight camera system and position/orientation calibration method therefor
US9235894B2 (en) * 2011-01-27 2016-01-12 Metaio Gmbh Method for determining correspondences between a first and a second image, and method for determining the pose of a camera
US8587583B2 (en) * 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US8401242B2 (en) * 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps
WO2013069050A1 (ja) * 2011-11-07 2013-05-16 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
US9529426B2 (en) * 2012-02-08 2016-12-27 Microsoft Technology Licensing, Llc Head pose tracking using a depth camera
US9147122B2 (en) * 2012-05-31 2015-09-29 Qualcomm Incorporated Pose estimation based on peripheral information
US9420265B2 (en) * 2012-06-29 2016-08-16 Mitsubishi Electric Research Laboratories, Inc. Tracking poses of 3D camera using points and planes
US9811880B2 (en) * 2012-11-09 2017-11-07 The Boeing Company Backfilling points in a point cloud
JP2014112055A (ja) * 2012-12-05 2014-06-19 Denso It Laboratory Inc カメラ姿勢の推定方法およびカメラ姿勢の推定システム
US9083960B2 (en) * 2013-01-30 2015-07-14 Qualcomm Incorporated Real-time 3D reconstruction with power efficient depth sensor usage
US20140368504A1 (en) * 2013-06-12 2014-12-18 Microsoft Corporation Scalable volumetric 3d reconstruction
EP2851868A1 (en) * 2013-09-20 2015-03-25 ETH Zurich 3D Reconstruction
CN104616284B (zh) * 2014-12-09 2017-08-25 中国科学院上海技术物理研究所 彩色深度相机的彩色图像到深度图像的像素级对准方法
CN104517289B (zh) * 2014-12-12 2017-08-08 浙江大学 一种基于混合摄像机的室内场景定位方法
CN104504691B (zh) * 2014-12-15 2017-05-24 大连理工大学 基于低秩纹理的摄像机位置和姿态测量方法
US10206645B2 (en) * 2015-09-18 2019-02-19 General Electric Company Multi-perspective interventional imaging using a single imaging system
US9895131B2 (en) * 2015-10-13 2018-02-20 Siemens Healthcare Gmbh Method and system of scanner automation for X-ray tube with 3D camera
JP6902028B2 (ja) 2015-11-20 2021-07-14 マジック リープ, インコーポレイテッドMagic Leap,Inc. Rgbdカメラ姿勢のラージスケール判定のための方法およびシステム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003162549A (ja) 2001-11-28 2003-06-06 National Institute Of Advanced Industrial & Technology 統合された形状モデル生成方法及びコンピュータプログラム
JP2009032122A (ja) 2007-07-27 2009-02-12 Hiroshima Industrial Promotion Organization 画像処理装置、画像処理方法およびプログラム
JP2014513822A (ja) 2011-01-31 2014-06-05 マイクロソフト コーポレーション ゲーム・プレイにおける三次元環境モデルの使用
US20140293016A1 (en) 2011-08-31 2014-10-02 Metaio Gmbh Method for estimating a camera motion and for determining a three-dimensional model of a real environment
WO2015102637A1 (en) 2014-01-03 2015-07-09 Intel Corporation Real-time 3d reconstruction with a depth camera

Also Published As

Publication number Publication date
CN114119751A (zh) 2022-03-01
US20240064391A1 (en) 2024-02-22
CN108475433B (zh) 2021-12-14
JP2021047932A (ja) 2021-03-25
US10313639B2 (en) 2019-06-04
JP6902028B2 (ja) 2021-07-14
IL259401A (en) 2018-07-31
CA3005894A1 (en) 2017-05-26
US20170148155A1 (en) 2017-05-25
AU2016355215B2 (en) 2022-03-10
US11838606B2 (en) 2023-12-05
US20190253674A1 (en) 2019-08-15
JP2018534698A (ja) 2018-11-22
NZ742758A (en) 2021-09-24
IL286156A (en) 2021-10-31
IL286156B1 (en) 2024-03-01
EP3377853A4 (en) 2019-07-17
EP3377853A1 (en) 2018-09-26
CN108475433A (zh) 2018-08-31
AU2016355215A1 (en) 2018-06-07
WO2017087813A1 (en) 2017-05-26
KR20180086218A (ko) 2018-07-30
AU2022203854A1 (en) 2022-06-23
IL259401B (en) 2021-09-30

Similar Documents

Publication Publication Date Title
JP7300438B2 (ja) Rgbdカメラ姿勢のラージスケール判定のための方法およびシステム
JP7173772B2 (ja) 深度値推定を用いた映像処理方法及び装置
US9928656B2 (en) Markerless multi-user, multi-object augmented reality on mobile devices
Rossi et al. Joint graph-based depth refinement and normal estimation
O'Byrne et al. A stereo‐matching technique for recovering 3D information from underwater inspection imagery
TW201434010A (zh) 具有在預處理層及一或多個更高層之間之多通道介面之影像處理器
Ramirez et al. Open challenges in deep stereo: the booster dataset
Pan et al. Depth map completion by jointly exploiting blurry color images and sparse depth maps
CN110443228B (zh) 一种行人匹配方法、装置、电子设备及存储介质
US11475629B2 (en) Method for 3D reconstruction of an object
Xu et al. Kinect-based easy 3d object reconstruction
AU2022375768A1 (en) Methods, storage media, and systems for generating a three-dimensional line segment
Yu et al. Accurate motion detection in dynamic scenes based on ego-motion estimation and optical flow segmentation combined method
KR101980899B1 (ko) 직교 소실점을 이용한 단일 영상의 내벽 구조 검출 장치 및 방법
Yong et al. Probabilistic depth map fusion for real-time multi-view stereo
Lasang et al. Optimal depth recovery using image guided TGV with depth confidence for high-quality view synthesis
NZ742758B2 (en) Methods and systems for large-scale determination of rgbd camera poses
Li et al. Improving PMVS algorithm for 3D scene reconstruction from sparse stereo pairs
Tsekourakis et al. Consistent 3D background model estimation from multi-viewpoint videos
Onmek et al. 3D underwater reconstruction of archeology object with a mono camera camcorder: The case study at Gourneyras lake

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201229

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230410

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230410

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230420

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230619

R150 Certificate of patent or registration of utility model

Ref document number: 7300438

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150