JP5487298B2 - 3次元画像生成 - Google Patents

3次元画像生成 Download PDF

Info

Publication number
JP5487298B2
JP5487298B2 JP2012514524A JP2012514524A JP5487298B2 JP 5487298 B2 JP5487298 B2 JP 5487298B2 JP 2012514524 A JP2012514524 A JP 2012514524A JP 2012514524 A JP2012514524 A JP 2012514524A JP 5487298 B2 JP5487298 B2 JP 5487298B2
Authority
JP
Japan
Prior art keywords
depth
frame
frames
matching score
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012514524A
Other languages
English (en)
Other versions
JP2012529691A (ja
Inventor
ボジアティス、ジョージ
ヘルナンデス、カルロス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of JP2012529691A publication Critical patent/JP2012529691A/ja
Application granted granted Critical
Publication of JP5487298B2 publication Critical patent/JP5487298B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

本発明は、3次元画像生成及び3次元デプスプロファイリングの分野に関する。より詳細には、本発明は、リアルタイムで3次元画像及びデプスプロファイルを生成することができるシステムに関する。
3次元画像を生成する能力は、多くの技術分野で有用である。次世代の駐車センサは、駐車する際に運転手をガイドするために、周囲の画像を使用する。映画やゲームにおける特殊効果及びアニメーションの分野では、映画又はゲームに入れられる3次元オブジェクトに関する正確なデプスマップを迅速に生成することができる必要がある。電子商取引の分野では、販売される物品の3次元モデルの提供は、潜在的購入者がその物品を観察することを可能にする。3次元モデルを生成する能力は、建築や自動車産業において、或いは、埋蔵物の3次元画像を保存したり送信することができることが望まれる考古学などの分野でも、調査のために使用されることもできる。
3次元画像技術は存在するが、現在のシステムの多くは、ユーザが画像を生成するためのデータを取り込み、その後にそのデータを処理することを可能にする。これは、それがリアルタイムで3次元画像を与えないという欠点を持ち、この欠点は、それを駐車センサではほとんど実用にならなくする。さらに、3次元画像はデータ取得後に生成されるので、追加のデータが良い画像を生成するために要求される場合、過度に遅くなる或いは処理が再開されなければならない。最後に、最新の3次元システムは、非常に大きな記憶容量及び処理能力を要求する。
近年、ロボット視覚で使用されるいわゆるSLAM(simultaneous localisation and mapping)システムが開発されている。しかしながら、そのようなシステムは、デプスプロファイルに対立するものとしての3次元メッシュを生成する傾向がある。SLAMの3次元メッシュでは、角(corner)などの「重要な」特徴点の位置だけが概して決定される。従って、オブジェクトの完全な3次元デプスプロファイルが必要な場合、そのようなシステムはあまり有用ではない。
本発明は、上記の問題を解決するものであり、第1の態様は、オブジェクトの3次元デプスプロファイルを生成するシステムを提供し、前記システムは、
移動可能なビデオカメラであって、前記カメラが移動されながら前記オブジェクトの2次元画像データを継続的に取得するように構成されるビデオカメラと、前記2次元画像データは複数の2次元画像フレームとして取得され、前記フレームの各々は複数の画素を含み、
前記2次元画像データを受け取り、
前記取得されたフレームの各々に関して前記カメラの位置を決定し、
第1のフレーム中の画素に示されるオブジェクトの部分のデプスを計算し、前記デプスは基準に対して定められ、前記デプスは、少なくとも1つのさらなるフレーム中で前記オブジェクトの前記部分を識別して、前記第1の画像及び前記少なくとも1つのさらなる画像のカメラ位置を使用して前記デプスを計算することにより決定され、
前記オブジェクトのデプスプロファイルを決定するように構成されるプロセッサと、
を具備し、前記デプスプロファイルは、前記画素に示される前記オブジェクトの複数の部分に関して決定され、
前記システムは、リアルタイムにデータがいまだに収集されているという表示及び前記デプスプロファイルを表示するように構成されるディスプレイをさらに具備し、前記デプスプロファイルは前記オブジェクトの前記部分に関して計算されている。
第1の態様では、オブジェクトの3次元画像を生成するために使用されることができる若しくはアニメーションなどのためのデータとして使用されることができるデプスプロファイルが提供される。上記の方法では、正則化又は他のタイプの平滑化は、デプスマップに対して実行される必要がない。
プロセッサが第1のフレーム中の隣接する画素に関するデプスを決定しようとする好ましい実施形態では、デプスプロファイルは緻密になる。
好ましくは、前記デプスは、第1のフレーム中の画素と前記複数のフレームのうちの少なくとも1つのさらなる画像中の複数の画素との類似度を決定することによって計算され、さらなる画像中の前記複数の画素は、前記さらなる画像中のエピポーラ線に沿って位置され、前記エピポーラ線は、前記オブジェクトの前記部分の可能性があるデプスを示す。デプスは、好ましくは、前記エピポーラ線に沿って位置する基準から測定される。より好ましくは、基準点は、前記線に沿った一般的な中点に位置される。例えば、オブジェクトがマットの上に位置している場合、基準点は、エピポーラ線上且つマットの中央を通る平面上に位置するようにとられる。
より好ましくは、前記第1のフレームと前記さらなるフレームとの間で前記カメラが移動される距離は、前記さらなるフレーム中でそれらの類似度を決定するために処理される前記エピポーラ線に沿った画素の数を決定するために使用される。これは、カメラの位置を具体的に計算することによって、或いは、隣接するフレームに関して、オブジェクトの部分の画素位置がn画素だけ移動すると仮定することによって、達成されることができる。処理能力が限られる場合、nはより小さい値に選択されることができる。
カメラは、好ましくは、手持ち式のものである。
システムは、スクリーン上に構築されているオブジェクトを示すことによって、デプスプロファイルが計算されているオブジェクトの部分を示すように構成されてもよい。この表示は、より高度な情報、例えば、ここまでに計算された点に関する信頼水準を与えることができる。
一実施形態では、前記第1の画像中の画素と前記第2の画像中の画素との類似度を示すマッチングスコアは、前記エピポーラ線に沿った画素に関して決定され、前記第1の画像中の前記画素に関するポテンシャルマッチは、デプスに依存する場合に前記マッチングスコアの極大値として選択される。
複数の画像に関するデプスに応じた前記マッチングスコアは、オブジェクトの前記部分のデプスに関する単一の値を決定するために結合されることができる。デプスが確立されるまで、オブジェクトの所定の部分に関するさらなる画像からのマッチングスコアは、継続的に収集される。
複数の計算では、オブジェクトの異なる部分の各々に関する1つが同時に実行される。好ましい実施形態では、固定数の計算がどの時点においても実行されることができ、前記計算のうちの1つがデプス測定に収束する場合、オブジェクトのさらなる部分に関する計算が開始される。
好ましい実施形態では、基準は、さらに、前記計算が終了してあらたな計算が開始されるように、前記分布が実質的ユニモーダル分布に発展しないかどうかを決定するために提供される。
好ましい実施形態では、複数の画像に関するデプスに対するマッチングスコアの分布が特徴において実質的にユニモーダルになるときに、オブジェクトの部分のデプスが計算される。
従って、第2の態様では、本発明は、基準からのオブジェクトの部分のデプスを決定するためのデプスセンサであって、
移動可能なビデオカメラであって、前記カメラが移動されながら前記オブジェクトの2次元画像データを継続的に取得するように構成されるビデオカメラと、前記画像データは複数の2次元画像フレームとして取得され、前記フレームの各々は複数の画素を含み、
前記2次元画像データを受け取り、
前記取得されたフレームの各々に関して前記カメラの位置を決定し、
第1のフレーム中でデプスが測定されることになるオブジェクトの部分を識別し、
前記オブジェクトの前記部分のデプスに応じて、第1のフレーム中で前記オブジェクトの前記部分を示す画素とさらなるフレーム中の複数の画素の各々との類似度を示すマッチングスコアを決定し、前記デプスは、前記第1のフレーム及び前記さらなるフレームのカメラ位置を使用して決定され、
複数のさらなるフレームに関してデプスに応じた前記マッチングスコアを取得し、デプスに応じた前記マッチングスコアを、以前に取得されたマッチングスコアと結合し、
さらなるフレームからのデータが結合されている時に、デプスに応じた前記マッチングスコアの分布を継続的にモニタリングし、
デプスに応じた前記マッチングスコアの前記分布が実質的にユニモーダルになる場合に、前記オブジェクトの前記部分のデプスを決定するように構成されるプロセッサと、を具備するデプスセンサを提供する。
一実施形態では、デプスに対するマッチングスコアの分配は、一様分布及びユニモーダル分布の混合としてモデル化される。好ましくは、ユニモーダル分布はガウス分布である。
前記ユニモーダル分布によって示されるデプスが良い測定である確率を示す重みが前記ユニモーダル分布に与えられてもよい。重みは、計算されたデプスにおける確信の表示として使用されてもよい。
Figure 0005487298
好ましい実施形態では、重みは、色としてディスプレイに表示されてもよく、色は分布がユニモーダル分布に収束した範囲を示す。重みは、分布が収束したかどうかを判断するために、閾値を比較されてもよい。重みは、さらに、それが収束しそうもなくデプスの計算が停止されるかどうかを確認するために第2の閾値と比較されてもよい。
好ましい実施形態では、前記モデルのパラメータは、ベイズの事後推定を使用して推定される。モデルは、次のタイプの分布によって近似されてもよい。
Figure 0005487298
ここで、xはt番目の点であり、Zはデプスであり、πは重みであり、a及びbはベータ分布のパラメータであり、μ及びσは、ユニモーダル分布の平均値及び標準偏差である。
標準偏差は、デプス値がよい測定かどうかを判断するために基準と比較されてもよい。
上記の2つの態様のいずれでも、マッチングスコアは、多くの技術、例えば、正規化相互相関又は差分絶対値和などによって決定されてもよい。
カメラの位置は、多くの技術、例えば、SLAMシステムにおいて使用されるようなオブジェクト自身からカメラ位置を導出する技術によって、決定されてもよい。しかしながら、好ましい実施形態では、オブジェクトは置かれ、マットは、フレームごとにカメラの位置を計算するために使用される既知のパターンを有している。さらなる好ましい実施形態では、マットは、複数の円を含むパターンを有する。
第3の態様では、本発明は、オブジェクトの3次元デプスプロファイルを生成する方法であって、
移動可能なビデオカメラを使用して前記オブジェクトの2次元画像データを継続的に取得することと、前記画像データは複数の2次元画像フレームとして取得され、前記フレームの各々が複数の画素を含み、
各フレームが取得された時の前記カメラの位置を決定することと、
第1のフレーム中の画素に示されるオブジェクトの部分のデプスを計算することと、前記デプスは基準に対して定められ、前記デプスは、少なくとも1つのさらなるフレーム中で前記オブジェクトの前記部分を識別して、前記第1の画像及び前記少なくとも1つのさらなる画像のカメラ位置を使用して前記デプスを計算することによって決定され、
前記オブジェクトのデプスプロファイルを決定することと、前記デプスプロファイルは、前記画素に示される前記オブジェクトの複数の部分に関して決定され、
リアルタイムにデータがいまだに収集されているという表示及び前記デプスプロファイルを表示することと、前記デプスプロファイルは前記オブジェクトの前記部分に関して計算されている、を具備する方法を提供する。
第4の態様では、本発明は、基準からのオブジェクトの部分のデプスを決定する方法であって、
移動可能なビデオを使用して前記オブジェクトの2次元画像データを継続的に取得することと、前記画像データは複数の2次元画像フレームとして取得され、前記フレームの各々が複数の画素を含み、
各フレームが取得された時の前記カメラの位置を決定することと、
第1のフレーム中でデプスが測定されることになるオブジェクトの部分を識別することと、
前記オブジェクトの前記部分のデプスに応じて、第1のフレーム中の前記オブジェクトの前記部分を示す画素とさらなるフレーム中の複数の画素の各々との類似度を示すマッチングスコアを決定することと、前記デプスは、前記第1のフレーム及び前記さらなるフレームのカメラ位置を使用して決定され、
複数のさらなるフレームに関してデプスに応じた前記マッチングスコアを取得し、デプスに応じた前記マッチングスコアを、以前に取得されたマッチングスコアと結合することと、
さらなるフレームからのデータが結合されている時に、デプスに応じた前記マッチングスコアの分布を継続的にモニタリングすることと、
デプスに応じた前記マッチングスコアの前記分布が実質的にユニモーダルになる場合に、前記オブジェクトの前記部分のデプスを決定することと、を具備する、方法を提供する。
本発明は、ハードウェアによって、或いは、汎用コンピュータ中のソフトウェアによって実施することができる。さらに、本発明は、ハードウェアとソフトウェアの組み合わせによって実施することができる。さらに、本発明は、単一の処理装置によって、或いは、処理装置の分散型ネットワークによって実施されることもできる。
ソフトウェアによって本発明を実施することができるので、本発明は、任意の適切なキャリア媒体で汎用コンピュータに供給されるコンピュータコードを含む。キャリア媒体は、フロッピー(登録商標)ディスク、CD−ROM、磁気デバイス、又はプログラム可能メモリデバイスなどの任意の記憶媒体、或いは、例えば電気信号、光信号、又はマイクロ波信号といった任意の信号などの任意の一時的な媒体を含むことができる。
上述したように、本発明は、多くの異なる分野で使用されることができる。例えば、上記のシステムは、電子商取引システムの一部を形成してもよい。従って、本発明は、電子商取引システム上で商品のデプスプロファイル又は画像を生成するように構成される本発明の第1又は第2の態様に従うシステムを含む電子商取引システムを提供する。
本発明はまた、車両の周囲のデプスプロファイルが構成される駐車システムの一部を形成してもよい。従って、本発明はまた、車両の周囲のデプスプロファイルを生成するように構成される本発明の第1の態様に従うシステムを含む駐車システムを提供する。
本発明は、周囲、建物、又は物品の3次元画像又はデプスプロファイルが必要とされる測量、建築、考古学に使用されることもできる。
本発明は、映画又はゲーム中に3次元のオブジェクトをアニメートする(animate)若しくは置く(place)ことが必要とされるアニメーション及び特殊効果の分野で使用されることもでき、前記オブジェクトのデプスプロファイルは、上記のシステム又は方法のいずれかを使用して生成される。
本発明は、以下の限定されない実施形態に関して説明される。
図1は、本発明の一実施形態に従うイメージングシステムを示す。 図2は、本発明の一実施形態に従うシステムの動作を示す概略図であり、ここでは、点xの画像が同じカメラによって2つの異なる位置で取得される。 図3aから3dは、基準画像I及びさらなる画像中の画素に関する基準点からのデプスに対して、複数の画素のマッチングスコアのプロットを示し、図3aは、1つのさらなるフレームに関する結果を示し、図3bは、6つのさらなるフレームに関する結果を示し、図3cは、15のさらなるフレームに関する結果を示し、図4cは、60のさらなるフレームに関する結果を示す。 図4は、本発明の一実施形態に従うステップを示す流れ図である。 図5a(i)から5h(i)は、基準画像中の画素に関するデプスに対してマッチングスコアを示すヒストグラムであり、図5a(iii)から5h(iii)は、列(i)のデータの確率的デプスモデルの結果を示し、図5a(ii)から図5h(ii)は、列(iii)のモデル結果に対するパラメトリックモデル近似を示す。 図6aは、y軸に沿ってプロットされるデプスの推定値がx軸に沿ってプロットされるさらなる画像からのデータに関してどのように収束するかのプロットを示し、図6bは、図6aで導出されたデプスがx軸に沿う画像の数に対して有効である確率のプロットを示し、図6cは、取り得るデプスに対する、複数の画像に関するマッチング確率とともに測定ヒストグラムを示す。 図7は、本発明の一実施形態に従うシステムによって実行される計算を説明するために使用される概略図である。 図8aは、画像化されるモデルの図であり、図8bは、図8aのモデルから生成されたベンチマーク3次元画像であり、図8cは、30の2次元フレームを結合して3次元画像を形成する従来技術の方法の結果を示し、図8dは、30のフレームの後の本発明の連続法の結果を示し、図8eは、600のフレームの後の本発明の結果を示す。 図9a−fは、本発明の一実施形態に従って生成された表示を示し、図9aでは、少数の2次元画像が取得され、取得された画像の数は、図9fに示される図を生成するために増加される。 図10a−dは、本発明の一実施形態に従う方法から生成された画像を示す。
図1は、本発明の一実施形態に従うシステムを示す。このシステムは、カメラ1、コンピュータ3及びディスプレイ5を基本的に含む。
カメラ1は、標準的なビデオカメラであり、ユーザによって移動されることができる。動作中には、カメラ1は、撮像すべきオブジェクト(object)7の周りで自由に移動される。好ましい実施形態では、カメラは、三脚又は他の機械的支持装置に取り付けられるのではく、単に手持ち式(handheld)のものである。
コンピュータ3は、カメラ1からカメラデータを受信する部分を含む。カメラデータ受信部9は、プロセッサ11と通信している。プロセッサ11は、本発明の一実施形態に従ってデータを処理するように構成される。一旦データが処理されると、次に、それは、デプスマップ(depth map)の形式に変換され、データ出力部13を経由してディスプレイ5へ出力される。
ディスプレイは、3次元(3D)画像を、それがゆっくり構築されながら、表示する。図は白黒であるが、好ましい実施形態では、コンピュータスクリーンに表示される場合、考え得る(possible)データ点は、点の信頼水準が増加するにつれて変色する。一旦点が所定の色に達すると、ユーザは、オブジェクトのその部分に関する十分なデータが収集されたこと、及びカメラがオブジェクトの他の部分へ移動されることができることを知る。システムは、同時に複数の点のデプス(depth)を決定するだろう。
カメラがオブジェクト7の周りで移動されると、より多くのデータが取得される。このデータが取得されると、それは、リアルタイムで継続的に処理され、スクリーン上にオブジェクト7の像(figure)を構築する。この自動フィードバックを提供することによって、カメラを使用する人が、オブジェクトのデプスプロファイルを構築するためにオブジェクト7のどの部分を再訪する(revisit)必要があるかを調べることが可能になる。
図2は、本発明の一実施形態に従う方法を説明するために使用される概略図である。カメラ1は、第1の画像位置と呼ばれる第1の位置21と、さらなる画像位置と呼ばれる第2の位置23との間で移動される。第1の画像Iには、画素pが示されている。画素pでは、点x(Z)がオブジェクト上に示される。点x(Z)は、基準点からの距離(Z)に位置する。この特定の例では、基準点はカメラ1である。しかしながら、基準点は、任意の点であり得る。画素pに示される点xは、エピポーラ線25に沿って位置する。2次元(2D)画像IのデータからデプスZを判断することは不可能である。しかしながら、Zが位置する線の位置は決定されることができる。
カメラ1が第2の位置23に移動されると、画像I´が取得される。点xが線25に沿って位置することが分かっているので、画像空間I´上へこの線を投影することが可能であり、従って、当業者は、オブジェクト(図示せず)上の点xが画像空間I´の投影線27に沿ったどこかに位置することを理解するだろう。
第1の位置21及び第2の位置23でのカメラの位置が分かると、投影線27の位置は容易に決定されることができる。さらに、継続的に移動するビデオカメラによって画像が取得されるので、位置21と位置23との間の距離は非常に小さい。図2では、明瞭な図を提供するために、これらの2つの位置の間の差は誇張されている。実際には、この差は非常に小さく、従って、点xが基準画像中に示される画素pは、第1の位置で取得された画像Iから第2の位置で取得された画像I´へ小領域w内で移動するだけである。
領域wが第2の画像I´上にw´として投影される場合には、この領域wは、領域の投影w´内でエピポーラ線の投影27に沿って収まる(fall)画素だけが画素pとの類似度を探すために処理される必要があることを意味する。
その後、既知のマッチングアルゴリズムは、線27に沿った画素が画素pとマッチする(match)かどうかを確かめるために実行される。一致スコア(correspondence score)は、w及びw´に関して、正規化相互相関(NCC:normalized cross correlation)、差分絶対値和(SAD:sum of absolute differences)、又は他のメトリック(metric)などのシステムを使用して評価されることができる。
マッチングスコア(matching score)又は類似度スコア(similarity score)のプロットは、帯域ZminとZmaxとの間の距離に関して図3aに示される。かなりきめのある(well textured)シーンでは、正確なデプスは典型的にはマッチングスコアの極大値の非常に近くであることが知られている。従って、x,...,xとして示される極大値だけがここから考慮される。
距離Zは、第2の画像I´上に投影されることができる。距離Zの第一近似は、オブジェクトの一般的なサイズに関する何らかの情報に基づいているだろう。
システムが動作しているときには、カメラがその後に第3の位置(図2には示されない)へ移動し、第3の位置では、同じ解析が実行されることができ、位置23に関して図2を参照して説明したのと同じ方法で類似度スコアが実行されることができる。
その後、2つの類似度スコアは合計されることができる。さらなる画像の両方に関するスコアは、エピポーラ線25に沿ってZに関して表される。図3bでは、6つのフレームからの類似度スコアが合計される。図3bに示される場合のように、ほんの少しの画像だけがある場合、極大値は極度にマルチモーダル(multi-modal)になる。これは、オクルージョン、タイムワーピング(time warping)、反復テクスチャ(repetitive texture)などの、問題領域における種々のパソロジ(pathology)に起因する。図3cでは、さらなる類似度スコア、15のフレームからの類似度スコアが追加され、図3dでは、60のフレームからの類似度スコアが追加される。
より多くの画像が追加されるにつれて、図3bに最初に示されるマルチモーダルのヒストグラムが、図3dに示されるように特徴において(in character)よりユニモーダル(unimodal)なものに移るのが見られることに注目することは重要である。ここで、データは、相関関係のないアウトライア(outlier)データ点について有意な割合を備える明確に決まったピークへ収束する。入力(incoming)ビデオフレームごとのマッチングスコア極大値は、画素のデプスにおけるあいまいさを徐々に取り除くように互いに強化し合う。
図4は、本発明の一実施形態に従う方法のステップを示すフローチャートである。ステップS101では、2つの2次元画像データが、図1〜3を参照して説明したように、ビデオカメラによって収集される。
ステップS103では、フレームのうちの1つが第1のフレームとして示される。第1のフレームは、画素pに関して図2に示されるエピポーラ線25を構築する(construct)ために使用される。しかしながら、画像取得が継続する場合、さらなるフレームが他の画素に関して第1のフレームとして示されることができる。
ステップS105では、フレームごとのカメラ位置が決定される。これは、複数の方法によって行われることができる。例えば、オブジェクト自体の複数の測定(measurements)と複数のフレームにわたるオブジェクト上のマッチング点とから純粋にカメラの位置を決定することが可能である。さらに、システムがオブジェクトの部分に関する情報を与えられる場合、カメラの位置を決定することは可能である。好ましい実施形態では、オブジェクトがマーカーマット(marker mat)上に設けられ、マーカーマット上の特徴のサイズ及びそれらの位置が、較正を可能にするようにシステムに知られている。
ステップS107では、次に、基準フレーム中でオブジェクトの部分を示す画素とさらなるフレーム中の複数の画素との類似度を示すマッチングスコアが得られる。これは図2を参照して説明される。
マッチングスコアは、複数のフレームに関して得られる。ステップS109では、特徴のデプスは、複数のさらなる画像から決定される。図3a−dを参照して説明したように、より多くの画像に関するデータが収集されると、ヒストグラムは、特徴においてマルチモーダルから実質的なユニモーダルに発展する(evolve)。さらに、多くの画像が利用可能な場合、デプスの周囲のユニモーダル分布に加えて、ヒストグラムは、追加のDC成分を持つ。これは、同じデプス位置に典型的にクラスター化(cluster)しないマッチングスコア関数についての前述の不具合事例(failure case)に由来する。
マルチモーダル分布が見られる第1の画像から、DCバックグラウンドを備えた単一モード(single mode)がある最終のヒストグラムへのこの遷移がある。好ましい実施形態では、この遷移を決定するために、確率的デプスセンサ(probabilistic depth sensor)が構築される。
確率的デプスセンサの役割は、この遷移を決定するために、パラメータに基づくアプローチを提供することにある。
まず、例えば図3aに示されるようなマッチングスコアにおいて観測される極大値は、デプスセンサによってもたらされるノイズのある測定(noisy measurements)の組としてのx,...xとして規定される。
デプスセンサは、確率π及び1−πをそれぞれ備える次の2つのタイプの測定を生成することができる。
(1)正確なデプスZの周囲で正常に分布される優良な(good)測定;又は
(2)区間[Zmin、Zmax]から一様に選択されるアウトライア(outlier)測定。
境界Zmin及びZmaxは、オブジェクトの形状(geometry)についての何らかの予備知識、例えば、最長寸法(longest dimension)によって決定されることができる。例えば、オブジェクトがマット上に置かれる場合、マットの寸法が使用されることができる。この例において、距離2は、エピポーラ線に沿ってオブジェクトの中点から測定される。
対象のオブジェクトは、ZminとZmaxとの間に完全に含まれると保証される。次のガウシアンプラスユニフォーム混合モデル(Gaussian plus uniform mixture model)は、正確なデプス位置Z及びインライア(inlier)確率πとして、t番目の測定を得る確率を記述する。
Figure 0005487298
優良な測定の分散τ は、測定を生成するフレームI及びI´でのカメラの相対的位置から確実に算出されることができる。これは、I´に投影された時に測定xが1画素の固定の分散を持つと仮定されるからである。その後、この分散は、距離の単位で測定の分散を生成するために、3次元空間に上げられる(lifted)。これは図7を参照して説明される。
(上記の式1)の尤度は、パラメータが期待値最大化(EM)を使用してデータx,...xから容易に推定されることができるような典型的な混合モデルである。しかしながら、好ましい実施形態では、推定プロセスは、次の理由でベイズの事後推定(Bayesian posterior estimation)として定式化される。
1)推定問題は、画素ごとに場合によっては数千のデプス推定とともに無関係に約100万の画素について実行されなければならない。手続きの前に全てのデータにアクセスする必要があるので、EMは、メモリ又は計算の観点から実現可能ではない。さらに、EMの増強バージョン(incremental version)は、収束するのが遅すぎること、及び測定の順序に依存することが分かった。
2)EMのような最大尤度フレームワークにおいて提供されない推定の信頼度を維持することが望まれる。この信頼は、推定がいつ失敗したかを知るために使用されるとともに、十分な測定がいつ得られたかを理解するためにも使用される。
全ての測定x,...xが独立であると仮定すると、事後確率は、次式から得ることができる。
Figure 0005487298
これは、ベイズ更新式(Bayesian update equation)に関して次式のように定式化することができる。
Figure 0005487298
ただし、t=1...Nである。図5a−hを参照すると、3つの列が図ごとに示されている。第1列(i)は、図3a−dを参照して説明したように集められた列データを示すヒストグラムである。
図5a−dは、結果が収束する画素pに関する結果を示す。図5e−hは、収束しない結果を示す。
図5aでは、結果は、5つの更新、即ち、1つの第1の画像及び5つのさらなる画像の後に示される。図5b及びfは、10の更新の後の結果を示し、図5c及びgは、20の更新までの結果を示し、図5d及びhは、100の更新の後の結果を示す。
列(iii)は、時間の経過とともに
Figure 0005487298
の展開のスナップショットを示し、分布は、上述したように緻密な2次元ヒストグラムを使用してモデル化されている。分布は、Z及びπに関して正確な値に収束する。しかしながら、画素ごとの完全な2次元ヒストグラムで事後(posterior)をモデル化することは、さらに、メモリ制限により非現実的である。
上述したように、激しいマルチモーダル分配は、少数の測定の後に単一モードに急速に収束する(例えば、20の測定の後の結果を示す図5cを参照)。これは、事後確率に対するユニモーダルパラメトリック近似の使用を動機づける。
これは、t番目の測定の後に上記の式2に示される事後確率に対するパラメトリック近似として次式を生成するために、β分布とガウシアンの積を使用して達成される。
Figure 0005487298
(t−1)番目の測定の後の事後パラメータをat−1,bt−1,μt−1,σt−1とすると、事後分布は、ある定数Cに関して次の形態を持つ。
Figure 0005487298
この分布は、もはやベータ×ガウシアンの形態ではなく、それは、モーメントマッチングを使用して近似されることができる。従って、新しいパラメータa,b,μ,σ は、式4が下記の分布として書かれることができるように定義され、Z及びπに関して同じ1次及び2次モーメントを共有する。
Figure 0005487298
このパラメトリック近似は、図5a−hの列(ii)に示される。その分布は、非常に低いインライア比に対して高い確率を与える。これが起こる場合、それは、推定が失敗したことを示すものであり、結果は無視されることができる。
図5a−dを見ると、20の更新が受け取られる時までにパラメトリック近似(列(ii))が収束することが理解されることができる。しかしながら、図5e−hに示される画素では、パラメトリック近似は、20の更新受け取られる時(図5g)までに収束せず、また、60の更新が受け取られる時(図5h)までにも収束しない。従って、このデータは収束しないとされる。
図6a、b及びcは、デプス推定がどのように達成されるかについてのさらなる展開を明らかにする。
図6aでは、デプス推定は、平均値(太線)及び標準偏差(2つの外線)として示される。
図6bでは、インライア確率πが示され、それは、標準偏差に示されるように平均値を収束させるように見られる。
図6cは、上に重ねられたパラメトリックモデルデータ(実線)とともにヒストグラムデータを示し、従って、パラメトリックモデルが正確なデプスに収束することを示す。
上記のものを使用すると、オブジェクトのプロファイルは、図4のステップS109を参照して説明されるように決定されることができる。
次に、ステップS111において、3次元画像が作成されることができる。
全システムはこれより議論されるだろう。
模様のある(ridged)シーンのビデオシーケンス中の点及び線の特徴からカメラの6自由度の運動を追跡することができるシステムが利用可能である。ここで、特徴が検出されて追跡され、約0.1画素の平均投影エラーで60Hzのカメラフレームレートの場合、平面のパターンが使用される。好ましい実施形態では、オブジェクトは、複数の円のパターンを持つマット上に置かれる。複数の円を備えたパターンは、正確なカメラ位置の容易な認識を可能にする(図8aを参照)。
画素pを通過して画像面Iから離れる光学視線(optic ray)に沿ったデプスZを推定する問題は、推論問題である。サンプルの3次元デプスプロファイルを作成する場合、これらの推論問題の多くを解決することが必要である。推論問題の各々は、一度にオブジェクト上の全ての点に関する全ての推論問題を実行する計算能力及メモリを要求する。推論問題の各々は「シード(seed)」と称される。
メモリ及び計算の制限のために、固定数のシードがプロセスの全体を通じて保たれる。各シードは、パラメータ値のセット(a,b,μ,σ ,W)に対応付けられる。パラメータa,b,μ,σ は、その画素に関するデプスZ及びインライア比πを記述する。
最初の2つのa及びbは、式3のベータ分布の2つのパラメータである。インライア及びアウトライア測定がシードの存続期間(lifetime)中にいくつ発生したかのこれらの確率カウンタ(probabilistic counter)である。
他の2のパラメータμ及びσ は、ガウスのデプス推定の平均値及び分散を表す。実際には、デプスμから−σ及びσ距離の単位離れて光学視線上に位置する2つの3次元点x−σ及びxσとして、それらを格納することは便利である。これは、デプスZが測定される3次元光学視線と同様に、分散パラメータμ及びσも経済的に(economically)カプセル化される(encapsulate)。
各シードでは、シードの基準画像の対応する画素の位置での基準画像パッチwもまた格納される。このパッチは、デプス測定を得るために目標マッチと比較するのに使用される。シードが作成された場合、初期のパラメータは、a=10及びb=1Oに設定される。デプスパラメータはμであり、σは、事前確率マス(prior probability mass)の99%がプリセットされたZminとZmaxとの間にあるように設定される。これらの境界は、興味のあるオブジェクトが位置するに違いない境界量(bounding volume)を規定する。
シードの存続期間中に、デプス測定は、シード画素pのマッチを含むエピポーラ線を得るために現在のビデオフレームにおいて基準パッチを探索することによって得られる。これは図7に示される。
理想的な場合では、エピポーラ線全体が探索されるだろう。しかしながら、前述したように、フレーム間の小さな移動のために、デプスの現在の推定が妥当である場合、事前平均値μの投影から離れてw画素の範囲内で探索することが単に必要である。
前の測定が新しい測定における探索領域に影響するので、これは、デプスセンサ測定の独立の仮定を破る。しかしながら、これにもかかわらず、近似は、実際のところはうまくいき、性能の点で大幅な低下はない。
図8に示される実験データでは、wは200万画素のカメラにおいて3画素にセットされる。基準パッチとエピポーラ線のこの内のパッチとの間のマッチングスコアがある。マッチングスコアの極大値はxからxにおいて収集された。その後、新たな事後分布パラメータat+1,bt+1,μt+1,σ t+1は、
Figure 0005487298
の間で、Z及びπでの1次及び2次モーメントをマッチングすることによって計算される。
極大値が検出されない場合、シードは、bt+1=b+1と設定することによりペナルティを課される(penalised)。これは、アウトライアである確信を持って知られているデプス測定で観察されるのと同じ効果がある。
次に、シードは取り除かれる(pruned)。上述したシード発展ステップの後に、各シードは3つの可能性に直面する。
1)シードは、優良な推定値に収束し、その結果、それはシードリストから除去されて、3次元点は現在の事後平均値μで生成される。
2)シードは、あまりにも多くのアウトライアが存在することから収束しない。シードはその後リストから除去される。
3)シードは、十分に長く収束しないままとなり、従って、それは次の発展ステップに残存する。
各反復では、シードが正確なデプスに収束したか否かを決定し、さらに、それが最終的に収束する可能性があるか否かを確かめることが必要である。上記のフレームワークは、デプス事後の分散σ 及び推定されたインライア確率πの形態でそのような決定基準を提供する。
それにより、次の基準が使用される。
Figure 0005487298
2)インライア比が99%の確率で閾値ηinlierを超え、且つ、σのデプス分散がε未満である場合、我々は、デプス推定が成功したと見なす。
3)他のすべての場合には、シードは、さらに発展することを許容される。
閾値パラメータ及びηoutlier=0.2、ηiniier=0.6であり、εの標準値は、境界ボリュームZmax−Zminの1/10000である。シードの全セットの典型的な発展は、デプスの平均値及びインライア比が時間とともに点群全体に関して示される図9に示される。
図9a−fは、収束プロセスを示す。レンダリングされている(rendered)点は、シードごとの現在のデプス分布の平均を表す。これは白黒の図であるので、色を見ることはできない。しかしながら、好ましい実施形態では、各点は、平均インライア比を表す色に対応付けられるだろう。最初に、これは、ほとんどの点で0.5(茶色)に近い。最終的には、それは、多くのインライアを得るシードでは非常に高く(赤色)なり、インライアを得ないシードでは非常に小さく(緑色)になる。これらは、低い焦点又は低いテクスチャ変化の領域中の位置である画素に典型的には対応する。これらのシードは、最終的に廃棄されるだろう。
生成された3次元点は、リアルタイムにZバッファシェーディング(Z-buffer shading)を用いて図形的に(graphically)レンダリングされた八分木構造(octree structure)に収集される。
好ましい実施形態では、アルゴリズムは、次の形態をとる。
ステップ1 − S<MAX_SEEDS(ここで、MAX_SEEDSは同時に処理されることができるシードの合計数である。)である場合、a=10、b=10を備えた新たなシードでMAX_SEEDS−Sを生成し、(μ、σ )は事前確率マスの98%があるプリセットZminとZmaxとの間にあるようにする。現在の画像I中のシードの画素位置における四角のパッチ(square patch)をWに格納する。
ステップ2 − 各シード(a、b、μ、σ 、W)に関して、
(a)現在の画像Iより前のデプスの3次元手段(3D means)を投影する。
(b)WとI中のパッチ(図7を参照)との間のマッチングスコアの極大値の、エピポーラ線に沿った1次元探索を実行し、x........xにおいてこれら極大値を収集する。
Figure 0005487298
(d)極大値が見つからなかった場合、次のように設定する。
Figure 0005487298
ステップ3 − 99%の確率でπ<ηoutlierとなるように、全てのシード(a、b、μ、σ 、W)を削除する。
ステップ4 − (1)99%の確率でπ>ηinlierとなり、且つ、(2)σ<εとなるように、全てのシード(a、b、μ、σ 、W)を3次元点に収束する(そしてシードリストから削除する)。
200万画素の解像度で小さいモデルハウスの600フレームからなるビデオシーケンスの場合で実験が行われた。さらに、静止した(static)800万画素カメラで30の画像が収集された。
高解像度の画像は、既知の方法を使用して非常に正確な3次元の表面再構成を得るために使用された。これは、3つの異なるストラテジ(strategy)が比較されたベンチマークとして続いて使用された。
1)全シーケンス(600フレーム)に対する上記の連続的ステレオアルゴリズムの使用。
2)20フレームおきに(合計で30フレーム)全シーケンス(600フレーム)に対して連続的ステレオアルゴリズムの使用。
3)単純な実施で得られた一連の2視野の緻密ステレオデプスマップ(2-view dense stereo depth-maps)を計算するために上記したものと同じ30フレームの使用。デプスマップは、連続する対のフレームから計算され、オリジナルのビデオシーケンスの順番で、我々は、フレーム0及び20、20及び30、並びに、30及び40に関してデプスマップを計算する。
各ストラテジにおいては、約50万個の頂点の点群(point cloud)が得られた。これは、その後に、距離をメッシュする(mesh)ために点群のヒストグラムを計算することにより、ベンチマークメッシュと比較された。
結果は、以下のように集約される。
Figure 0005487298
正規化された2視野ステレオデプスマップのシーケンスは、同じセットの画像で動作する本発明の一実施形態に従う正規化されてない連続的なデプス推定より悪く機能する。
これは、本発明の一実施形態に従う方法がデプスマップの時間的連続性を十分に生かすという事実に起因する。正確さについての性能は、600フレームの全てがデプス推定に加えられる場合にはより一層向上する。
図8aは、ビデオシーケンスのフレームのうちの1つを示す。図8bは、高解像度のカメラを使用してベンチマーク再構成を示す。
図8cは、30の2視野(two-view)デプスマップを結合した結果を示す。図8dは、同じ画像上で動作する連続的デプス推定結果を使用する本発明に従う方法の結果を示し、図8eは、600の画像の全てに関するアルゴリズムの結果を示す。
整えられた(regularised)2視野ステレオデプスマップのシーケンスは、画像の同じセットに対して動作する整えられてない連続的デプス推定より悪く機能する。これは、本発明がデプスマップの一時的な連続性を十分に生かすという事実による。正確さの性能は、600のフレームの全てがデプス推定に追加される場合により一層向上する。
図10(a)から(d)は、約40秒以内に収集された画像を示す。モデルは、いかなる方法によっても整えられておらず、或いは、後処理されていない。

Claims (21)

  1. オブジェクトの3次元デプスプロファイルを生成するシステムであって、前記システムは、
    移動可能なビデオカメラであって、前記カメラが移動されながら前記オブジェクトの2次元画像データを継続的に取得するように構成されるビデオカメラと、前記2次元画像データは複数の2次元画像フレームとして取得され、前記フレームの各々は複数の画素を含み、
    前記2次元画像データを受け取り、
    前記取得されたフレームの各々に関して前記カメラの位置を決定し、
    第1のフレーム中の画素に示されるオブジェクトの部分のデプスを計算し、前記デプスは基準に対して定められ、前記デプスは、少なくとも1つのさらなるフレーム中で前記オブジェクトの前記部分を識別して、前記第1のフレーム及び前記少なくとも1つのさらなるフレームのカメラ位置を使用して前記デプスを計算することにより決定され、
    前記オブジェクトのデプスプロファイルを決定するように構成されるプロセッサと、
    を具備し、前記デプスプロファイルは、前記画素に示される前記オブジェクトの複数の部分に関して決定され、
    前記システムは、リアルタイムにデータがいまだに収集されているという表示及び前記デプスプロファイルを表示するように構成されるディスプレイをさらに具備し、前記デプスプロファイルは前記オブジェクトの前記部分に関して計算され、前記オブジェクトのデプスは、複数の画像に関するデプスに対するマッチングスコアの分布が特徴において実質的にユニモーダルになるときに算出され、前記マッチングスコアは前記第1のフレーム中の画素と前記さらなるフレーム中の画素との類似度を示す、システム。
  2. 前記デプスは、第1のフレーム中の画素と前記複数のフレームのうちの少なくとも1つのさらなるフレーム中の複数の画素との類似度を決定することによって計算され、さらなるフレーム中の前記複数の画素は、前記さらなるフレーム中のエピポーラ線に沿って位置され、前記エピポーラ線は、前記オブジェクトの前記部分の可能性があるデプスを示す、請求項1のシステム。
  3. 前記第1のフレームと前記さらなるフレームとの間で前記カメラが移動される距離は、前記さらなるフレーム中でそれらの類似度を決定するために処理される前記エピポーラ線に沿った画素の数を決定するために使用される、請求項2のシステム。
  4. 前記マッチングスコアは、前記エピポーラ線に沿った画素に関して決定され、前記第1のフレーム中の前記画素に関するポテンシャルマッチは、デプスに依存する場合に前記マッチングスコアの極大値として選択される、請求項のシステム。
  5. 複数の画像に関するデプスに応じた前記マッチングスコアは、オブジェクトの前記部分のデプスに関する単一の値を決定するために結合される、請求項4のシステム。
  6. デプスに対するマッチングスコアの分布は、一様分布及びユニモーダル分布の混合としてモデル化される、請求項のシステム。
  7. ユニモーダル分布は、ガウス分布である、請求項のシステム。
  8. 重みが前記ユニモーダル分布に与えられ、前記重みは、前記ユニモーダル分布によって示されるデプスが良い測定である確率を示す、請求項6又は7のシステム。
  9. 前記モデルのパラメータは、ベイズの事後推定を使用して推定される、請求項のシステム。
  10. 前記モデルは、次のタイプの分布によって近似され、
    Figure 0005487298
    ここで、xはt番目の点であり、Zはデプスであり、πは重みであり、a及びbはベータ分布のパラメータであり、μ及びσは前記ユニモーダル分布の平均値及び標準偏差である、請求項のシステム。
  11. 前記プロセッサは、前記第1のフレーム中の隣接した画素に関するデプスを決定しようとする、請求項1乃至10のいずれか一項のシステム。
  12. 前記マッチングスコアは、正規化相互相関又は差分絶対値和によって決定される、請求項1乃至11のいずれか一項のシステム。
  13. 前記オブジェクトが置かれるマットをさらに具備し、前記マットは、フレームごとに前記カメラの位置を計算するために使用される既知のパターンを有する、請求項1乃至12のいずれか一項のシステム。
  14. 前記マットは、複数の円を含むパターンを有する、請求項13のシステム。
  15. 基準からのオブジェクトの部分のデプスを決定するためのデプスセンサであって、
    移動可能なビデオカメラであって、前記カメラが移動されながら前記オブジェクトの2次元画像データを継続的に取得するように構成されるビデオカメラと、前記画像データは複数の2次元画像フレームとして取得され、前記フレームの各々は複数の画素を含み、
    前記2次元画像データを受け取り、
    前記取得されたフレームの各々に関して前記カメラの位置を決定し、
    第1のフレーム中でデプスが測定されることになるオブジェクトの部分を識別し、
    前記オブジェクトの前記部分のデプスに応じて、第1のフレーム中で前記オブジェクトの前記部分を示す画素とさらなるフレーム中の複数の画素の各々との類似度を示すマッチングスコアを決定し、前記デプスは、前記第1のフレーム及び前記さらなるフレームのカメラ位置を使用して決定され、
    複数のさらなるフレームに関してデプスに応じた前記マッチングスコアを取得し、デプスに応じた前記マッチングスコアを、以前に取得されたマッチングスコアと結合し、
    さらなるフレームからのデータが結合されている時に、デプスに応じた前記マッチングスコアの分布を継続的にモニタリングし、
    デプスに応じた前記マッチングスコアの前記分布が実質的にユニモーダルになる場合に、前記オブジェクトの前記部分のデプスを決定するように構成されるプロセッサと、を具備するデプスセンサ。
  16. 前記プロセッサは、ユニモーダル分布及び一様分布の混合として前記分布をモデル化し、重み係数を前記ユニモーダル分布に適用するように構成され、前記重みは、前記分布がいつ実質的にユニモーダルになるよう発展するかの表示を提供する、請求項15のデプスセンサ。
  17. 前記マッチングスコアは、正規化相互相関又は差分絶対値和によって決定される、請求項15又は16のデプスセンサ。
  18. オブジェクトの3次元デプスプロファイルを生成する方法であって、
    移動可能なビデオカメラを使用して前記オブジェクトの2次元画像データを継続的に取得することと、前記画像データは複数の2次元画像フレームとして取得され、前記フレームの各々が複数の画素を含み、
    前記取得されたフレームの各々に関して前記カメラの位置を決定することと、
    第1のフレーム中の画素に示されるオブジェクトの部分のデプスを計算することと、前記デプスは基準に対して定められ、前記デプスは、少なくとも1つのさらなるフレーム中で前記オブジェクトの前記部分を識別して、前記第1のフレーム及び前記少なくとも1つのさらなるフレームのカメラ位置を使用して前記デプスを計算することによって決定され、
    前記オブジェクトのデプスプロファイルを決定することと、前記デプスプロファイルは、前記画素に示される前記オブジェクトの複数の部分に関して決定され、
    リアルタイムにデータがいまだに収集されているという表示及び前記デプスプロファイルを表示することと、前記デプスプロファイルは前記オブジェクトの前記部分に関して計算され、前記オブジェクトのデプスは、複数の画像に関するデプスに対するマッチングスコアの分布が特徴において実質的にユニモーダルになるときに算出され、前記マッチングスコアは前記第1のフレーム中の画素と前記さらなるフレーム中の画素との類似度を示す
    を具備する方法。
  19. 基準からのオブジェクトの部分のデプスを決定する方法であって、前記方法は、
    移動可能なビデオを使用して前記オブジェクトの2次元画像データを継続的に取得することと、前記画像データは複数の2次元画像フレームとして取得され、前記フレームの各々が複数の画素を含み、
    前記取得されたフレームの各々に関して前記カメラの位置を決定することと、
    第1のフレーム中でデプスが測定されることになるオブジェクトの部分を識別することと、
    前記オブジェクトの前記部分のデプスに応じて、第1のフレーム中の前記オブジェクトの前記部分を示す画素とさらなるフレーム中の複数の画素の各々との類似度を示すマッチングスコアを決定することと、前記デプスは、前記第1のフレーム及び前記さらなるフレームのカメラ位置を使用して決定され、
    複数のさらなるフレームに関してデプスに応じた前記マッチングスコアを取得し、デプスに応じた前記マッチングスコアを、以前に取得されたマッチングスコアと結合することと、
    さらなるフレームからのデータが結合されている時に、デプスに応じた前記マッチングスコアの分布を継続的にモニタリングすることと、
    デプスに応じた前記マッチングスコアの前記分布が実質的にユニモーダルになる場合に、前記オブジェクトの前記部分のデプスを決定することと、
    を具備する、方法。
  20. オブジェクトの3次元デプスプロファイルを生成するプログラムであって、
    コンピュータを、
    移動可能なビデオカメラを使用して前記オブジェクトの2次元画像データを継続的に取得する手段と、前記画像データは複数の2次元画像フレームとして取得され、前記フレームの各々が複数の画素を含み、
    前記取得されたフレームの各々に関して前記カメラの位置を決定する手段と、
    第1のフレーム中の画素に示されるオブジェクトの部分のデプスを計算する手段と、前記デプスは基準に対して定められ、前記デプスは、少なくとも1つのさらなるフレーム中で前記オブジェクトの前記部分を識別して、前記第1のフレーム及び前記少なくとも1つのさらなるフレームのカメラ位置を使用して前記デプスを計算することによって決定され、
    前記オブジェクトのデプスプロファイルを決定する手段と、前記デプスプロファイルは、前記画素に示される前記オブジェクトの複数の部分に関して決定され、
    リアルタイムにデータがいまだに収集されているという表示及び前記デプスプロファイルを表示する手段として機能させ、前記デプスプロファイルは前記オブジェクトの前記部分に関して計算され、前記オブジェクトのデプスは、複数の画像に関するデプスに対するマッチングスコアの分布が特徴において実質的にユニモーダルになるときに算出され、前記マッチングスコアは前記第1のフレーム中の画素と前記さらなるフレーム中の画素との類似度を示す、プログラム。
  21. 基準からのオブジェクトの部分のデプスを決定するプログラムであって、
    コンピュータを、
    移動可能なビデオを使用して前記オブジェクトの2次元画像データを継続的に取得する手段と、前記画像データは複数の2次元画像フレームとして取得され、前記フレームの各々が複数の画素を含み、
    前記取得されたフレームの各々に関して前記カメラの位置を決定する手段と、
    第1のフレーム中でデプスが測定されることになるオブジェクトの部分を識別する手段と、
    前記オブジェクトの前記部分のデプスに応じて、第1のフレーム中の前記オブジェクトの前記部分を示す画素とさらなるフレーム中の複数の画素の各々との類似度を示すマッチングスコアを決定する手段と、前記デプスは、前記第1のフレーム及び前記さらなるフレームのカメラ位置を使用して決定され、
    複数のさらなるフレームに関してデプスに応じた前記マッチングスコアを取得し、デプスに応じた前記マッチングスコアを、以前に取得されたマッチングスコアと結合する手段と、
    さらなるフレームからのデータが結合されている時に、デプスに応じた前記マッチングスコアの分布を継続的にモニタリングする手段と、
    デプスに応じた前記マッチングスコアの前記分布が実質的にユニモーダルになる場合に、前記オブジェクトの前記部分のデプスを決定する手段として機能させるためのプログラム。
JP2012514524A 2009-06-11 2009-06-11 3次元画像生成 Active JP5487298B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/GB2009/001473 WO2010142929A1 (en) 2009-06-11 2009-06-11 3d image generation

Publications (2)

Publication Number Publication Date
JP2012529691A JP2012529691A (ja) 2012-11-22
JP5487298B2 true JP5487298B2 (ja) 2014-05-07

Family

ID=41510610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012514524A Active JP5487298B2 (ja) 2009-06-11 2009-06-11 3次元画像生成

Country Status (4)

Country Link
US (2) US9189859B2 (ja)
JP (1) JP5487298B2 (ja)
GB (1) GB2483213B8 (ja)
WO (1) WO2010142929A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
JP2011104906A (ja) * 2009-11-18 2011-06-02 Mitsubishi Heavy Ind Ltd 検査方法、複合材部品の製造方法、検査装置、及び複合材部品製造装置
US20120044320A1 (en) * 2010-03-11 2012-02-23 Trex Enterprises Corp. High resolution 3-D holographic camera
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
JP5170276B2 (ja) * 2011-03-31 2013-03-27 カシオ計算機株式会社 画像再構成装置、画像再構成方法、及び画像再構成プログラム
KR101275823B1 (ko) * 2011-04-28 2013-06-18 (주) 에투시스템 복수의 카메라를 이용한 3차원 물체 검출장치 및 방법
EP2742688A1 (en) * 2011-08-12 2014-06-18 Telefonaktiebolaget LM Ericsson (PUBL) Signaling of camera and/or depth parameters
NL2008490C2 (nl) 2012-03-15 2013-09-18 Ooms Otto Bv Werkwijze, inrichting en computerprogramma voor het extraheren van informatie over een of meerdere ruimtelijke objecten.
CN108345006B (zh) 2012-09-10 2022-04-08 广稹阿马斯公司 捕捉运动场景的设备、装置和***
US10674135B2 (en) * 2012-10-17 2020-06-02 DotProduct LLC Handheld portable optical scanner and method of using
US9332243B2 (en) * 2012-10-17 2016-05-03 DotProduct LLC Handheld portable optical scanner and method of using
US9576183B2 (en) * 2012-11-02 2017-02-21 Qualcomm Incorporated Fast initialization for monocular visual SLAM
US9417910B2 (en) * 2012-12-20 2016-08-16 Oracle International Corporation System and method for implementing shared probabilistic counters storing update probability values
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
KR20190021496A (ko) 2013-10-07 2019-03-05 애플 인크. 차량의 적어도 하나의 기능을 제어하기 위해 위치 또는 이동 정보를 제공하기 위한 방법 및 시스템
US10937187B2 (en) 2013-10-07 2021-03-02 Apple Inc. Method and system for providing position or movement information for controlling at least one function of an environment
BR112017024765A2 (pt) * 2015-05-21 2018-07-31 Koninklijke Philips N.V. aparelho para determinar um mapa de profundidade para uma imagem, método para determinar um mapa de profundidade para uma imagem, e produto de programa de computador
JP6548743B2 (ja) * 2015-05-22 2019-07-24 華為技術有限公司Huawei Technologies Co.,Ltd. カラーキャリブレーション装置及び方法
US11010910B2 (en) 2015-12-18 2021-05-18 Iris Automation, Inc. Systems and methods for dynamic object tracking using a single camera mounted on a moving object
US10417781B1 (en) 2016-12-30 2019-09-17 X Development Llc Automated data capture
US10504761B2 (en) * 2017-02-08 2019-12-10 Semiconductor Technologies & Instruments Pte. Ltd. Method system for generating 3D composite images of objects and determining object properties based thereon
EP3379814A1 (en) * 2017-03-23 2018-09-26 Christian Rymarenko Converting media using mobile devices
NL2019516B1 (en) * 2017-09-08 2019-03-19 Fugro N V System and method for determination of a spatial property of a submerged object in a 3D-space
US10460512B2 (en) * 2017-11-07 2019-10-29 Microsoft Technology Licensing, Llc 3D skeletonization using truncated epipolar lines
US10740431B2 (en) 2017-11-13 2020-08-11 Samsung Electronics Co., Ltd Apparatus and method of five dimensional (5D) video stabilization with camera and gyroscope fusion
JP2022143412A (ja) * 2021-03-17 2022-10-03 株式会社東芝 画像処理装置および画像処理方法
US20230079344A1 (en) * 2021-09-12 2023-03-16 NexTech AR Solutions Corp. Three-dimensional (3d) model assembly

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5179441A (en) * 1991-12-18 1993-01-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Near real-time stereo vision system
JPH09187038A (ja) 1995-12-27 1997-07-15 Canon Inc 3次元形状抽出装置
US6163337A (en) * 1996-04-05 2000-12-19 Matsushita Electric Industrial Co., Ltd. Multi-view point image transmission method and multi-view point image display method
US6094215A (en) * 1998-01-06 2000-07-25 Intel Corporation Method of determining relative camera orientation position to create 3-D visual images
US6146830A (en) * 1998-09-23 2000-11-14 Rosetta Inpharmatics, Inc. Method for determining the presence of a number of primary targets of a drug
JP4221808B2 (ja) * 1999-03-30 2009-02-12 コニカミノルタセンシング株式会社 3次元データ入力方法及び装置
JP4306006B2 (ja) * 1999-03-30 2009-07-29 コニカミノルタセンシング株式会社 3次元データ入力方法及び装置
GB0023681D0 (en) * 2000-09-27 2000-11-08 Canon Kk Image processing apparatus
US7085409B2 (en) * 2000-10-18 2006-08-01 Sarnoff Corporation Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery
JP4075418B2 (ja) * 2002-03-15 2008-04-16 ソニー株式会社 画像処理装置及び画像処理方法、印刷物製造装置及び印刷物製造方法、並びに印刷物製造システム
US7724379B2 (en) 2005-05-12 2010-05-25 Technodream21, Inc. 3-Dimensional shape measuring method and device thereof
US8035637B2 (en) 2006-01-20 2011-10-11 3M Innovative Properties Company Three-dimensional scan recovery
JP2008275366A (ja) * 2007-04-26 2008-11-13 Tokyo Institute Of Technology ステレオ3次元計測システム
JP5120926B2 (ja) * 2007-07-27 2013-01-16 有限会社テクノドリーム二十一 画像処理装置、画像処理方法およびプログラム

Also Published As

Publication number Publication date
WO2010142929A1 (en) 2010-12-16
US20120147152A1 (en) 2012-06-14
GB2483213B8 (en) 2016-09-14
GB2483213A (en) 2012-02-29
GB2483213A8 (en) 2016-09-14
GB2483213B (en) 2014-04-30
US9189859B2 (en) 2015-11-17
JP2012529691A (ja) 2012-11-22
GB201200452D0 (en) 2012-02-22
US20160196658A1 (en) 2016-07-07

Similar Documents

Publication Publication Date Title
JP5487298B2 (ja) 3次元画像生成
US10163256B2 (en) Method and system for generating a three-dimensional model
KR101532864B1 (ko) 모바일 디바이스들에 대한 평면 맵핑 및 트래킹
CN109076198B (zh) 基于视频的对象跟踪遮挡检测***、方法和设备
CN110998659B (zh) 图像处理***、图像处理方法、及程序
Whelan et al. Deformation-based loop closure for large scale dense RGB-D SLAM
US8532367B2 (en) System and method for 3D wireframe reconstruction from video
CN102834845B (zh) 用于多摄像装置校准的方法与装置
US20140253679A1 (en) Depth measurement quality enhancement
CN111144213B (zh) 一种对象检测方法和相关设备
WO2019225547A1 (ja) オブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラム
KR20120031012A (ko) 삼차원 장면의 불연속 평면 재구성
JP5027758B2 (ja) 画像監視装置
CN110827321B (zh) 一种基于三维信息的多相机协同的主动目标跟踪方法
CN106530407A (zh) 一种用于虚拟现实的三维全景拼接方法、装置和***
JP2001067463A (ja) 異なる視点からの複数のフェイシャル画像に基づき新たな視点からのフェイシャル画像を生成するフェイシャル画像生成装置及び方法並びにその応用装置及び記録媒体
CN112184757A (zh) 运动轨迹的确定方法及装置、存储介质、电子装置
CN113706373A (zh) 模型重建方法及相关装置、电子设备和存储介质
CN113223078A (zh) 标志点的匹配方法、装置、计算机设备和存储介质
CN112927251A (zh) 基于形态学的场景稠密深度图获取方法、***及装置
CN115222884A (zh) 一种基于人工智能的空间对象分析及建模优化方法
JP4836065B2 (ja) エッジトラッキング方法及びそのコンピュータプログラム
CN116778094B (zh) 一种基于优选视角拍摄的建筑物变形监测方法及装置
CN112802186A (zh) 基于二值化特征编码匹配的动态场景实时三维重建方法
WO2016170332A1 (en) A method of generating a 3d representation of an environment and related apparatus

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131202

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131205

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131212

TRDD Decision of grant or rejection written
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131219

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131226

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140109

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140224

R151 Written notification of patent or utility model registration

Ref document number: 5487298

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151