JP5160643B2 - 2次元画像からの3次元オブジェクト認識システム及び方法 - Google Patents

2次元画像からの3次元オブジェクト認識システム及び方法 Download PDF

Info

Publication number
JP5160643B2
JP5160643B2 JP2010516014A JP2010516014A JP5160643B2 JP 5160643 B2 JP5160643 B2 JP 5160643B2 JP 2010516014 A JP2010516014 A JP 2010516014A JP 2010516014 A JP2010516014 A JP 2010516014A JP 5160643 B2 JP5160643 B2 JP 5160643B2
Authority
JP
Japan
Prior art keywords
depth
output
function
capture
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010516014A
Other languages
English (en)
Other versions
JP2010533338A (ja
Inventor
アイザット,アイザット,エイチ
ザン,ドン−チン
ベニテス,アナ,ビー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2010533338A publication Critical patent/JP2010533338A/ja
Application granted granted Critical
Publication of JP5160643B2 publication Critical patent/JP5160643B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は3次元オブジェクトモデリングに関し、より具体的には、リアルワールドのシーンの3次元情報を正確に復元するために、複数の3次元捕捉機能(function)を合成する、2次元画像からの3次元情報捕捉システム及び方法に関する。
シーンを撮影して得られるビデオシーケンスには、そのシーンの3次元ジオメトリに関する暗黙的な情報が含まれる。人間の知覚にとってはこの暗黙的な情報で十分であるが、多くのアプリケーションにとっては3次元シーンの正確なジオメトリが必要である。こうしたアプリケーションのカテゴリーとしては、例えば、そのシーンの新しいビューの生成や、産業上の検査アプリケーションにおける3次元ジオメトリの再構成における高度なデータ処理技術の利用が挙げられる。
単一または複数の画像からの3次元モデルの復元プロセスは、映画のポストプロダクションアプリケーションでも重要である。3次元情報の再生はここしばらくの間は活発に研究されてきた。例えば、レーザレンジファインダを用いて3次元情報を直接捕捉し、またはステレオやストラクチャ・フロム・モーション法等の単一または複数の2次元画像から3次元情報を復元する多数の技術が文献に記載されている。一般的に、3次元捕捉方法はアクティブアプローチとパッシブアプローチ、シングルビューアプローチとマルチビューアプローチ、ジオメトリック法とフォトメトリック法に分類できる。
パッシブアプローチは規則的な照明状態の下で撮った画像やビデオから3次元ジオメトリを捕捉するものである。画像及びビデオから取り出したジオメトリックまたはフォトメトリックな特徴を用いて3次元ジオメトリを計算する。アクティブアプローチはレーザや構造光や赤外光などの特殊な光源を用いるものである。アクティブアプローチは、オブジェクトの表面やシーンに投射した特殊な光に対するそのオブジェクトやシーンからの応答に基づきジオメトリを計算する。
シングルビューアプローチは単一のカメラ視点から取った複数の画像を用いて3次元ジオメトリを復元するものである。例えば、ストラクチャ・フロム・モーションやデプス・フロム・デフォーカスがある。
マルチビューアプローチは、複数のカメラ視点やオブジェクトの動きの結果や光源位置を変えた結果撮った複数の画像から3次元ジオメトリを復元する。ステレオマッチングは、ステレオペアの左画像のピクセルと右画像のピクセルをマッチングしてそのピクセルの奥行き情報を取得することによるマルチビュー3次元復元の一例である。
ジオメトリック法は、単一または複数の画像中の角、縁、線、輪郭などのジオメトリックな特徴を検出することにより3次元ジオメトリを復元する。取り出した角、縁、線、輪郭の間の空間的な関係を用いて、画像中のピクセルの3次元座標を推測する。ストラクチャ・フロム・モーション(SFM)は、カメラをシーン内で動かして撮ったり、動いているオブジェクトを静止したカメラで撮ったりした一連の画像から、そのシーンの3次元構造を再構成する方法である。多数の見解によればSFMは基本的に非線形問題であるが、その問題を直接解く方法だけでなく、数学的にエレガントな方法で線形表現しようとする試みもなされている。一方、非線形法には繰り返しの最適化が必要であり、局所的最小値に取り組まねばならない。しかし、これらの方法を用いることにより数値的な正確さと柔軟性が得られる。ステレオマッチング法に対するSFMの利点は、カメラが1つでよいことである。特徴によるアプローチ(feature based approaches)は、トラッキング法により有効性を高められる。トラッキング法は特徴の動きに関する履歴を用いて次のフレームの差異を予測するものである。第2に、連続する2つのフレーム間の空間的及び時間的な差異は小さいので、対応問題は画像の輝度パターンの明らかな動き(オプティカルフローと呼ぶ)を推定する問題でもある。SFMを用いるアルゴリズムは複数ある。ほとんどのものは2次元画像からの3次元ジオメトリの再構成に基づく。一部のものは対応値が既知であることを仮定しており、その他のものは対応関係を用いずに再構成するために統計的なアプローチを用いる。
フォトメトリック法は、シーン表面の方向に起因する画像パッチのシェーディングまたは影に基づき3次元ジオメトリを復元する。
上記の方法は何十年にもわたって詳しく研究されてきた。しかし、すべての場合にうまくいく単一の方法は無く、従来のほとんどの方法は、再構成が比較的容易となる実験室の状況における3次元再構成にフォーカスしている。リアルワールドのシーンの場合、対象は動いており、照明は複雑であり、奥行きレンジは大きい。これらのリアルワールドの状況を上記の方法で処理することは困難である。例えば、前景と背景のオブジェクト間の奥行きの差異が大きければ、ステレオマッチングのサーチレンジは大幅に増大し、計算コストが許容できなくなり、奥行きの推定誤差が大きくなる。
2次元画像を用いて3次元捕捉とシーンのモデル化をするシステムと方法を提供する。本開示は考えている捕捉環境と条件に最もよく合う3次元捕捉方法を選択して組み合わせて、より正確な3次元モデルを生成するシステムと方法を提供する。利用する方法は考慮中のシーンに依存する。例えば、屋外シーンでは、ストラクチャ・フロム・モーション法と組み合わせてパッシブ法を用いる。その他の場合には、アクティブ法の方が適切であるかも知れない。複数の3次元捕捉機能を合成することにより、1つの方法または機能のみを用いる場合よりも正確性が向上する。複数の3次元捕捉機能の結果を合成して、完全な3次元モデルの生成に用いられる差異または奥行きマップを求める。本開示が目標とするアプリケーションは映画の3次元再構成である。得られる3次元モデルは、映画撮影やポストプロダクションの際の可視化に利用できる。本アプローチは、ゲームや、2次元プラス奥行きフォーマットを用いる3次元テレビなどを含むがこれらに限定されないその他のアプリケーションにも利用できる。
本開示の一態様では、3次元捕捉方法を提供する。該方法は、シーンの少なくとも2つの2次元画像を捕捉する段階と、前記少なくとも2つの2次元画像に第1の奥行き捕捉機能を適用する段階と、前記少なくとも2つの2次元画像に第2の奥行き捕捉機能を適用する段階と、前記第1の奥行き捕捉機能の出力を前記第2の奥行き捕捉機能の出力と合成する段階と、合成した前記第1と第2の奥行き捕捉機能の出力から差異マップを生成する段階とを有する。
他の態様では、本方法は、前記差異マップから奥行きマップを生成する段階をさらに含む。
さらに別の態様では、本方法は、生成した差異または奥行きマップから、前記シーンの3次元モデルを再構成する段階を含む。
本開示の他の態様による、2次元画像から3次元情報を補足するシステムは、シーンの少なくとも2つの2次元画像を捕捉する手段と、前記少なくとも2つの2次元画像に第1の奥行き捕捉機能を適用し、前記少なくとも2つの2次元画像に第2の奥行き捕捉機能を適用し、前記第1の奥行き捕捉機能の出力を前記第2の奥行き捕捉機能の出力と合成する3次元捕捉モジュールとを有する。前記3次元捕捉モジュールは、合成した前記第1と第2の奥行き捕捉機能の出力から差異マップを生成するようにさらに構成される。
本開示のさらに別の態様により、機械により読み取り可能であり、2次元画像から3次元情報を補足する方法ステップを実行する、前記機械により実行可能な命令のプログラムを化体したプログラム記憶デバイスを提供する。前記方法は、シーンの少なくとも2つの2次元画像を捕捉する段階と、前記少なくとも2つの2次元画像に第1の奥行き捕捉機能を適用する段階と、前記少なくとも2つの2次元画像に第2の奥行き捕捉機能を適用する段階と、前記第1の奥行き捕捉機能の出力を前記第2の奥行き捕捉機能の出力と合成する段階と、合成した前記第1と第2の奥行き捕捉機能の出力から差異マップを生成する段階とを有する。
本開示の上記その他の態様、特徴、及び利点は、添付した図面を参照して読むと、好ましい実施形態の詳細な説明から明らかとなるであろう。
図中、同じ要素には同じ参照数字を付した。
本開示の一態様による3次元奥行き情報捕捉システムを示す図である。 本開示の一態様による2次元画像から3次元オブジェクトまたはシーンを再構成する方法を示すフロー図である。 本開示の一態様による3次元奥行き情報捕捉するツーパス方法を示すフロー図である。 2入力ステレオ画像を示す図である。 2入力構造光画像を示す図である。 図4Bに示したステレオ画像から生成した差異マップを示す図である。 図4Aに示した構造光画像から生成した差異マップを示す図である。 単純平均合成法を用いて図5Aと図5Bに示した差異マップの合成から得られる差異マップを示す図である。 重み付け平均合成法を用いて図5Aと図5Bに示した差異マップの合成から得られる差異マップを示す図である。 言うまでもなく、図面は本発明のコンセプトを例示することを目的としたものであり、本発明を例示する構成は必ずしもこれだけではない。
言うまでもなく、図に示した要素はハードウェア、ソフトウェア、またはこれらの組み合わせでの様々な形態で実施できる。好ましくは、これらの要素を、適切にプログラムした汎用デバイス上のハードウェアとソフトウェアの組み合わせで実施する。汎用デバイスはプロセッサ、メモリ、及び入出力インタフェースなどである。
ここで本開示の原理を説明する。言うまでもなく、当業者は、ここには明示的に説明や図示はしていないが、本開示の原理を化体し、その精神と範囲内に含まれる様々な構成を工夫することができる。
ここに記載したすべての例と条件付きの言葉は、発明者が技術発展に対してなした本開示の原理とコンセプトとを、読者が理解しやすいようにするためのものであり、その解釈は具体的に記載した実施例や条件に限定されるべきではない。
さらに、本開示の原理、態様、実施形態、及びその実施例のすべての記載は、その構成的等価物及び機能的等価物の両方を含むものである。また、かかる等価物は、現在知られている等価物及び将来開発される等価物を含み、すなわち、構成にかかわらず同じ機能を発揮する開発されるすべての要素を含む。
よって、例えば、当業者には言うまでもなく、ここに説明したブロック図は本開示の原理を化体する回路を概念的に示すものである。同様に、言うまでもなく、フローチャート、フロー図、状態遷移図、擬似コード等は、様々な方法(processes)を表し、これらの方法をコンピュータ読み取り可能媒体に実質的に表しても、(明示的に示していようがいまいが)コンピュータやプロセッサで実行してもよい。
図示した様々な要素の機能は、専用ハードウェアを用いても、ソフトウェアを実行可能なハードウェアと適当なソフトウェアとを組み合わせても提供できる。プロセッサを設けるとき、機能を単一の専用プロセッサで提供してもよいし、共有された単一のプロセッサで提供してもよいし、一部が共有された複数の個別プロセッサで提供してもよい。さらに、「プロセッサ」または「コントローラ」という用語を明示的に使用した場合、ソフトウェアを実行できるハードウェアのみをいうと解釈してはならず、限定はされないが、デジタルシグナルプロセッサ(DSP)、ソフトウェアを記憶するROM、RAM、不揮発性記憶装置を黙示的に含んでもよい。
その他のハードウェアを従来のものでもカスタムのものであっても含んでもよい。同様に、図面に示したスイッチは概念的なものである。スイッチの機能は、プログラムロジックの動作、専用ロジックの動作、プログラム制御や専用ロジックのインターラクション、またはマニュアルで実行されてもよく、具体的な方法は実施者が文脈から判断して選択できる。
請求項において、特定の機能を実行する手段として表した要素は、その機能を実行するいかなる方法も含み、例えば、a)その機能を実行する回路要素の組合せと、b)ファームウェアやマイクロコード等を含む任意の形式のソフトウェア及びそれと組み合わせたその機能を実行する適当な回路とを含む。請求項に記載した開示は、記載した様々な手段が提供する機能を、請求項に記載したように組み合わせることにある。よって、これらの機能を提供できる手段はどれでも、ここに示したものと等化であると見なせる。
本開示において開示した方法は、オブジェクト及びシーンの3次元ジオメトリを復元する問題を取り扱う。リアルワールドシーンのジオメトリの復元は対象の動き、前景と背景との間の大きな奥行き差異、及び複雑な照明状態により難しい問題である。1つの方法を用いてシーンのジオメトリを完全に復元することは計算費用がかかり、信頼性も高くない。レーザスキャンなどの正確な3次元捕捉技術は、人的対象がいるために多くの場合には許容できない。本開示は考えている捕捉環境と条件に最もよく合う3次元捕捉方法を選択して組み合わせて、より正確な3次元モデルを生成するシステムと方法を提供する。
リアルワールドシーンに関する3次元情報を正確に復元するために複数の3次元捕捉方法を組み合わせるシステム及び方法を提供する。複数の方法を組み合わせる動機付けは、リアルかつ大きな環境の3次元情報を信頼性高く捕捉できる単一の方法がないことによる。一部の方法は室内でうまくいくが室外ではうまくいかず、他の方法はシーンが静的であることを要する。方法によって計算の複雑さや正確さも大幅に異なる。本開示のシステムと方法は、最良の3次元情報を求めるために利用できる方法の強さを利用する、3次元情報の補足フレームワークを規定する。本開示のシステムと方法は、シーンの少なくとも2つの2次元画像を捕捉し、少なくとも2つの2次元画像に第1の奥行き捕捉機能を適用し、少なくとも2つの2次元画像に第2の奥行き捕捉機能を適用し、第1の奥行き捕捉機能の出力を第2の奥行き捕捉機能の出力と合成し、合成した第1と第2の奥行き捕捉機能の出力から差異マップを生成する。差異情報は奥行きにスケーリング係数をかけたものに反比例するので、合成した出力から生成した差異マップまたは奥行きマップを用いて3次元オブジェクトまたはシーンを再構成する。
ここで図面を参照するに、本開示の一実施形態によるシステムコンポーネントを図1に示した。スキャン装置103を設け、カメラで撮ったフィルムネガなどのフィルムプリント104をスキャンして、シネオン(Cineon)フォーマットや映画テレビ技術者協会(SMPTE)デジタルピクチャエクスチェンジ(DPX)ファイルにする。スキャン装置103は、例えば、テレシネや、ビデオ出力を有し、Am LocPro(商標)などのフィルムからビデオ出力を生成する任意の装置を含む。デジタル画像やデジタルビデオファイルは、デジタルビデオカメラ105でビデオ画像の時間的シーケンスをキャプチャすることにより得られる。あるいは、ポストプロダクションプロセスから得られたファイルやデジタルシネマ106(例えば、コンピュータ読み取り可能形式のファイル)を直接使うこともできる。コンピュータ読み取り可能ファイルの潜在的ソースは、例えばAVID(商標)エディタ、DPXファイル、D5テープなどである。
スキャンしたフィルムプリントはポストプロセッシング装置102(例えば、コンピュータ)に入力される。コンピュータは、中央演算装置(CPU)、ランダムアクセスメモリ(RAM)やリードオンリメモリ(ROM)などのメモリ110、キーボードやカーソル制御装置(例えば、マウスやジョイスティック)などの入出力(I/O)ユーザインタフェース112、ディスプレイ装置などのハードウェアを有する既知の任意のコンピュータプラットフォームに実装できる。コンピュータプラットフォームはオペレーティングシステムとマイクロ命令コードも含む。ここに説明した様々なプロセスや機能は、マイクロ命令コードの一部や、オペレーティングシステムにより実行できるソフトウェアアプリケーションプログラムの一部(またはこれらの組み合わせ)であってもよい。一実施形態では、ソフトウェアアプリケーションプログラムは、プログラム記憶デバイス上に化体したものであり、ポストプロセッシング装置102などの適切なマシンにアップロードして実行できる。また、その他の様々な周辺装置を、パラレルポートやシリアルポートやユニバーサルシリアルバス(USB)などの様々なインタフェースやバスによりコンピュータプラットフォームに接続できる。他の周辺装置には例えば追加的な記憶装置124やプリンタ128がある。以下に説明する方法の結果として3次元モデル化オブジェクトを用いてシーンを変更または置換して、フィルム126を修正したものを、プリンタ128を利用して印刷できる。
あるいは、すでにコンピュータ読み取り可能形式になっているファイルやフィルムプリント106(例えば、外部ハードディスクドライブ124に記憶されたデジタルシネマ)をコンピュータ102に直接入力できる。ここで、「フィルム」とはフィルムプリントまたはデジタルシネマを指す。
ソフトウェアプログラムには、メモリ110に記憶された3次元再構成モジュール114を含む。3次元再構成モジュール114は、画像から3次元情報を捕捉する3次元捕捉モジュール116を含む。3次元捕捉モジュール116は、ステレオマッチング機能、構造光機能、ストラクチャ・フロム・モーション機能などを含むがこれらに限定されない3次元捕捉機能116−1...116−nを含む。
奥行き調整器117を設け、異なる捕捉方法で求めた差異または奥行きマップの奥行きスケールを調整する。奥行き調整器117は、各方法について、差異または奥行きマップ中のピクセルの奥行き値を0−255にスケールする。
信頼性推定器118を設け、画像ピクセルの奥行き値の信頼性を推定するように構成する。信頼性推定器118は各方法の奥行き値を比較する。いろいろな機能や方法で求めた値が近いか所定範囲内にあれば、その奥行き値は信頼できると考えられる。そうでなければ奥行き値は信頼できない。
3次元再構成モジュール114は、画像中の特徴点を検出する特徴点検出器119も含む。特徴点検出器119は、差異マップをレジスタ(register)するために用いる特徴点を検出または選択する少なくとも1つの特徴点検出機能(例えば、アルゴリズム)を含む。合成した奥行き情報から奥行きマップを生成する奥行きマップ生成器120も設けられる。
図2は、本開示の一態様による2次元画像から3次元オブジェクトを再構成する方法を示すフロー図である。
図2を参照するに、最初に、ステップ202において、ポストプロセッシング装置102はコンピュータ読み取り可能フォーマットのデジタルマスタビデオファイルを取得する。デジタルビデオファイルは、デジタルビデオカメラ105でビデオ画像の時間的シーケンスをキャプチャすることにより得られる。あるいは、従来のフィルム式カメラでビデオシーケンスをキャプチャしてもよい。この場合、そのフィルムをスキャン装置103でスキャンして、ステップ204に進む。カメラは、オブジェクトがシーン中を動いているか、カメラ自体が動きながら、2次元画像を捕捉する。カメラはシーンを複数の視点から撮影してもよい。
言うまでもなく、フィルムがすでにスキャンされていようと、デジタルフォーマットであろうと、そのフィルムのデジタルファイルはフレームの位置に関する表示または情報(すなわち、タイムコード)であるフレームナンバーやフィルムの開始からの経過時間などを含む。デジタルビデオファイルの各フレームは1つの画像、例えば、I1,I2,...Inを含む。
複数の方法を組み合わせることにより、各方法の出力を共通の座標系にレジスタする新しい方法が必要になる。レジストレーションプロセスにより組み合わせプロセスが大幅に複雑化する。本開示の方法では、ステップ204において、入力画像ソース情報を各方法に対して同時に集める。こうすることにより、レジストレーションが簡単になる。ステップ206のカメラ位置と、ステップ208のカメラパラメータは全ての方法に対して同じだからである。しかし、入力画像ソースは各3次元キャプチャ方法によって異なってもよい。例えば、ステレオマッチングを用いる場合、入力画像ソースは適当な距離だけ離れた2つのカメラである。他の例では、構造光を用いる場合、入力画像ソースは構造光を照射したシーンの画像である。好ましくは、機能の出力のレジストレーションが単純明快であるように、各機能への入力画像ソースは位置合わせせる。そうでない場合は、ステップ210において、手作業または自動のレジストレーション方法を実施して、入力画像ソースを位置合わせする。
ステップ212において、オペレータはユーザインタフェース112を介して少なくとも2つの3次元捕捉機能を選択する。利用する3次元捕捉機能は考慮中のシーンに依る。例えば、屋外シーンでは、ストラクチャ・フロム・モーション法と組み合わせてパッシブ法を用いてもよい。その他の場合には、アクティブ法の方が適切であるかも知れない。他の例では、静的なシーンに対して、構造光機能をレーザレンジファインダ機能と組み合わせる。第3の例では、屋内のシーンにおいて、シルエット機能から得られる形状と、ステレオマッチング機能とを組み合わせることにより、3台以上のカメラを用いてもよい。
ステップ214において、画像に第1の3次元捕捉機能を適用し、ステップ216において、画像の第1の奥行きデータを生成する。ステップ218において、画像に第2の3次元捕捉機能を適用し、ステップ220において、画像の第2の奥行きデータを生成する。言うまでもなく、ステップ214及び216を、ステップ218及び220と並行してすなわち同時に実行してもよい。あるいは、各3次元捕捉機能を別々に実行して、メモリに記憶し、合成のために後で読み出してもよい。これについては後で説明する。
ステップ222において、各3次元奥行き捕捉機能の出力をレジスタして合成する。画像ソースが適切に位置合わせされていれば、レジストレーションは必要なく、奥行き値を効率的に合成できる。画像ソースが位置合わせされていなければ、求めた差異マップを適切に位置合わせする必要がある。これは手作業でもできるし、特徴点検出器119により画像ごとの特徴(例えば、マーカ、角、縁)を一致させ、差異マップを適宜ずらすことにより行うこともできる。特徴点は画像の顕著な特徴であり、例えば角、縁、線などであり、画像強度のコントラストが大きいところである。特徴点検出器119には、本技術分野で周知のように、キッチン−ローゼンフェルトコーナー検出演算子Cを用いてもよい。この演算子を用いて、任意のピクセル位置における画像の「コーナー性」の程度を評価する。「角(コーナー)」は、一般的に、例えば90度の角度をなす2方向の画像強度の傾斜の最大値の交点により特徴付けられる画像の特徴である。特徴点を抽出するため、画像I1の各有効ピクセル位置にキッチン−ローゼンフェルト演算子を作用させる。あるピクセルにおける演算子Cの値が高ければ高いほど、そのピクセルの「コーナー性」の程度が高い。画像Iiのピクセル位置(x,y)における演算子Cの値がその近傍のピクセル位置での値より大きければ、そのピクセル位置(x,y)は特徴点である。近傍は、例えば、ピクセル位置(x,y)を中心とした5×5マトリックスである。ロバスト性を確保するため、選択する特徴点はコーナー性の程度が閾値(例えば、Tc=10)より高いようにする。特徴点検出器118からの出力は、画像I1における一組の特徴点{F1}である。各F1は画像I1の「特徴」ピクセル位置に対応している。その他多数の特徴点検出器を利用できる。これにはスケール不変特徴変換(SIFT)、Smallest Univalue Segment Assimilating Nucleus(SUSAN)、ハフ変換、ソーベルエッジオペレータ、キャニーエッジ検出器などがあるが、これらに限定されない。検出した特徴点を選択した後、特徴点検出器119で第2の画像I2を処理し、第1の画像I1で見つかった特徴を検出し、その特徴を一致させて、画像を位置合わせする。
まだ残っているレジストレーション問題の1つは、異なる3次元捕捉方法で生成した差異マップの奥行きスケールの調節である。これは、シーン中の同じピクセルや点の奥行きデータに合わせて一定の乗算係数をフィッティングしてやればよいので、自動的に行える。例えば、各方法で出力される最小値を0にスケーリングし、各方法で出力される最大値を255にスケーリングする。
様々な3次元捕捉機能の結果の合成は多くの要因に依存している。例えば、機能やアルゴリズムによっては、奥行きデータが粗く、多くのピクセルが奥行き情報を有していない。そのため、機能合成はその他の機能に依存する。複数の機能が、あるピクセルに対して奥行きデータを生成した場合、推定された奥行きデータの平均を取ることによりデータを合成できる。単純な合成方法では、各ピクセルに対する2つの差異マップの差異値を平均することにより、その2つの差異マップを合成する。
例えば、キャプチャ条件(例えば、屋内、屋外、照明状態など)に基づき、またはピクセルの局所的な視覚的特徴に基づき、結果を合成する前に、機能結果に対するオペレータの信頼度に基づき、各機能に重みを割り当てることができる。例えば、一般的に、ステレオベースのアプローチはテクスチャがない領域では不正確であり、一方、構造光ベースの方法は非常によく機能する。そのため、局所的領域のテクスチャ的特徴を検出することにより、構造光ベースの方法により大きな重みを割り当てることができる。他の例では、暗い領域では構造光法は通常あまり性能がよくなく、一方、ステレオマッチングの性能はまあまあである。そのため、この例では、ステレオマッチング法に対して、より大きな重みを割り当てることができる。
重み付け合成法により、2つの差異マップの差異値の重み付け平均を計算する。重みは、左目画像と右目画像の対応するピクセルペア(例えば、ステレオスコープペア)のうち、左目画像の対応ピクセルの強度値により決定する。強度値が大きい場合、構造光差異マップには大きな重みを割り当てる。強度値が大きくなければ、ステレオ差異マップに大きな重みを割り当てる。数学的に言うと、得られる差異値は、
ここで、Dlは構造光による差異マップであり、Dsはステレオによる差異マップであり、Dは合成差異マップであり、g(x,y)は左目画像のピクセル(x,y)における強度値であり、Cは重みを0から1の範囲に規格化する規格化係数である。例えば、8ビット長の奥行き(8 bit color depth)の場合、Cは255である。
本開示のシステムと方法を用いて、シーン中の同じピクセルまたは点に対して、奥行きに関する複数の推定(用いる3次元捕捉方法ごとに1つ)を求めることができる。そのため、本システムと方法は画像ピクセルの奥行き値の信頼性も推定できる。例えば、あるピクセルに対してすべての3次元捕捉方法が非常に近い(例えば、所定範囲内の)奥行き値を出力すれば、その奥行き値は信頼性が非常に高いと考えられる。3次元捕捉方法が異なれば得られる奥行き値が大きく異なる場合には、その逆となる。
次に、ステップ224において、合成した際マップを奥行きマップに変換する。差異は奥行きに反比例しており、スケーリング係数はカメラの較正パラメータに関係している。カメラ較正パラメータを求め、奥行きジェネレータ122により利用して、2つの画像のオブジェクトまたはシーンの奥行きマップを生成する。カメラパラメータは、カメラの焦点距離と、2つのカメラショットの間の距離とを含むがこれらに限定されない。カメラパラメータは、ユーザインタフェースを介してシステム100に手作業で入力してもよいし、カメラ較正アルゴリズムまたは機能により推定してもよい。カメラパラメータを用いて、複数の3次元捕捉機能の合成出力から奥行きマップを生成する。奥行きマップは空間内の面を数学的に表す2次元に配列された値である。この配列の行と列はその面のx位置及びy位置の情報に対応する。配列の要素はある点またはカメラ位置からその面までの奥行きまたは距離である。奥行きマップは、オブジェクト表面の各点において強度情報すなわちピクセルを奥行き情報で置き換えた、そのオブジェクトのグレースケール画像と考えることもできる。したがって、3次元グラフィカル構成技術においては表面上の点をピクセルと呼ぶ。本開示においてはこれら2つの用語を交換可能なものとして用いる。差異情報は、奥行きにスケーリング係数をかけたものに反比例するので、ほとんどのアプリケーションにおいて3次元シーンモデルの構築に直接使うことができる。これにより、カメラパラメータの計算が不要になるため、計算が単純になる。
オブジェクトまたはシーンの完全な3次元モデルを差異マップまたは奥行きマップから再構成できる。3次元モデルは、ポストプロダクションアプリケーションや、2次元コンテンツから3次元コンテンツの生成などのアプリケーションに使える。求めた合成画像は、従来からある可視化ツール(例えば、カリフォルニア州スタンフォードにあるスタンフォード大学で開発されたScanAlyzeソフトウェア)を用いて可視化できる。
オブジェクトまたはシーンの再構成3次元モデルは、ディスプレイ装置で見るようにレンダリングしてもよいし、画像を含むファイルとは別のデジタルファイル130に保存してもよい。3次元再構成130のデジタルファイルは、後で読み出せるように記憶装置124に記憶してもよい。例えば、映画の編集段階において読み出して、モデル化したオブジェクトを、そのオブジェクトが無いシーンに挿入することができる。
他の従来のシステムは、静的な背景と動的な前景のジオメトリを別々に復元するためにツーパスアプローチを用いる。背景ジオメトリ(例えば静的ソース)を捕捉し、それをアプリオリ情報として用いて、動く対象(例えば動的ソース)の3次元ジオメトリを捕捉する。従来からあるこの方法は、関心領域における計算を制限することにより計算コストを低減し、再構成の正確さを向上することができる。しかし、各パスにおいて3次元情報を復元する1つ1つの方法が十分に利用できていないことが分かった。そのため、他の実施形態では、複数の奥行き推定方法を利用する本開示の方法をツーパスアプローチの各パスにおいて用いる。図3は、ステレオの結果と構造光の結果とを合成して静的シーン(例えば背景シーン)のジオメトリを復元し、動的シーン(例えば前景シーン)の動きから2次元−3次元変換及び構成を復元する方法を示す。図3に示したステップは図2を参照して説明したステップと同様であり、同じ参照数字を有している。「−1」のステップ(例えば304−1)は第1のパスにおけるステップを表し、「−2」のステップ(例えば304−2)は第2のパスにおけるステップを表す。例えば、ステップ304−1において静的入力ソースを供給する。ステップ314−1において第1の3次元捕捉機能を実行し、ステップ316−1において奥行きデータを生成する。ステップ318−1において第2の3次元捕捉機能を実行し、ステップ320−1において奥行きデータを生成し、ステップ322−1において2つの3次元捕捉機能により得られた奥行きデータを合成し、ステップ324−1において静的な差異マップまたは奥行きマップを生成する。同様に、ステップ304−2ないし322−2において、動的な差異マップすなわち奥行きマップを生成する。ステップ326において、第1のパスにより求めた静的な差異マップすなわち奥行きマップと、第2のパスにより求めた動的な差異マップすなわち奥行きマップとから、合成差異マップすなわち奥行きマップを生成する。言うまでもなく、図3は一例であって、必要に応じてその他のアルゴリズムや機能を用いたり組み合わせたりしてもよい。
本開示のシステムと方法により処理した画像を図4Aと図4Bに示した。図4Aは2入力ステレオ画像を示し、図4Bは2入力構造光画像を示す。画像の収集において各方法の要件は異なる。例えば、構造光はステレオと比較して部屋を暗くする設定を要する。各方法に対して異なるカメラモードを用いた。左右の画像でカメラの条件が同じになるように、一つのカメラ(例えば、コンシューマグレードのデジタルカメラ)を用いて、そのカメラをスライダーで動かすことにより左右のステレオ画像をキャプチャした。構造光の場合には、構造光の色の歪みを最小限にするよう、夜景露出を用いた。ステレオマッチングの場合、通常の自動露出を用いた。自動露出は照明環境の設定に対する感度が下がるからである。構造光はデジタルプロジェクタで発生させた。構造光画像は、プロジェクタ以外のすべての照明を消して、部屋を暗くして撮った。ステレオ画像は通常の照明状態で撮った。キャプチャの際、構造光とステレオマッチングとで左目カメラを厳密に同じ位置において(右目カメラの位置は可変とした)、合成時に構造光差異マップとステレオ差異マップの位置合わせに同じ参照画像を用いた。
図5Aは図4Aに示したステレオ画像から生成した差異マップであり、図5Bは図4Bに示した構造光画像から生成した差異マップである。図5Cは単純平均合成法を用いて図5Aと図5Bに示した差異マップの合成から得られる差異マップを示す図である。図5Dは重み付け平均合成法を用いて図5Aと図5Bに示した差異マップの合成から得られる差異マップを示す図である。図5Aにおいて、右側の箱について、ステレオ機能では奥行きマップ推定がうまくできないことが分かる。一方、図5Bに示した構造光では、黒いイスを識別するのが難しい。図5Cのように単純合成法により少し改善されるが、イスの輪郭がよくキャプチャできなかった。図5Dに示したように、重み付け合成法により、主要なオブジェクト(すなわち、イスと箱)がはっきりと識別できる、最もよい奥行きマップが得られた。
本開示の教示を組み込んだ実施形態を図示して詳細に説明したが、当業者は依然としてこれらの教示を組み込んだその他多くの変形した実施形態を容易に工夫することができる。シーンの3次元捕捉とモデリングのためのシステムと方法の好ましい実施形態(これらは例示であって限定ではない)を説明したが、当業者は上記の教示を考慮して修正や変形をすることができることに留意すべきである。それため、当然のことながら、添付した請求項により規定される本開示の範囲において、本開示の実施形態を変更することができる。

Claims (22)

  1. 3次元捕捉方法であって、
    シーンの少なくとも2つの2次元画像を捕捉するステップと、
    前記少なくとも2つの2次元画像に第1の奥行き捕捉機能を適用するステップと、
    前記少なくとも2つの2次元画像に第2の奥行き捕捉機能を適用するステップと、
    前記少なくとも2つの2次元画像のピクセルの局所的な視覚的特徴に基づき、前記第1の奥行き捕捉機能の出力に第1の重み値を適用し、前記第2の重み捕捉機能の出力に第2の重み値を適用するステップと、
    前記第1の奥行き捕捉機能の出力を前記第2の奥行き捕捉機能の出力と合成するステップと、
    合成した前記第1と第2の奥行き捕捉機能の出力から差異マップを生成するステップとを有する、方法。
  2. 前記差異マップから奥行きマップを生成するステップをさらに有する、
    請求項1に記載の方法。
  3. 前記合成するステップは、前記第1の奥行き捕捉機能の出力を前記第2の奥行き捕捉機能の出力にレジスタするステップを含む、
    請求項1に記載の方法。
  4. 前記レジスタするステップは、前記第1の奥行き捕捉機能の出力と前記第2の奥行き捕捉機能の出力の奥行きスケールを調整するステップを含む、
    請求項3に記載の方法。
  5. 前記合成するステップは、前記第1の奥行き捕捉機能の出力を前記第2の奥行き捕捉機能の出力と平均するステップを含む、
    請求項1に記載の方法。
  6. 前記少なくとも2つの2次元画像は立体視ペアの左目ビューと右目ビューとを含み、前記左目画像と右目画像の対応するピクセルペアの左目画像のピクセルの強度により前記第1の重み値を決める、
    請求項に記載の方法。
  7. 生成した前記最マップから前記シーンの3次元モデルを再構成するステップをさらに有する、
    請求項1に記載の方法。
  8. 前記少なくとも2つの2次元画像を位置合わせするステップをさらに有する、
    請求項1に記載の方法。
  9. 前記位置合わせするステップは、前記少なくとも2つの2次元画像の特徴をマッチさせるステップをさらに含む、
    請求項に記載の方法。
  10. 前記少なくとも2つの2次元画像に少なくとも第3の奥行き捕捉機能を適用するステップと、
    前記少なくとも2つの2次元画像に少なくとも第4の奥行き捕捉機能を適用するステップと、
    前記第3の奥行き捕捉機能の出力を前記第4の奥行き捕捉機能の出力と合成するステップと、
    合成した前記第3と第4の奥行き捕捉機能の出力から第2の差異マップを生成するステップと、
    合成した前記第1と第2の奥行き捕捉機能の出力から生成した前記差異マップを、合成した前記第3と第4の奥行き捕捉機能の出力から生成した前記第2の差異マップと合成するステップとをさらに有する、
    請求項1に記載の方法。
  11. 2次元画像から3次元情報を捕捉するシステムであって、
    シーンの少なくとも2つの2次元画像を捕捉する手段と、
    前記少なくとも2つの2次元画像に第1の奥行き捕捉機能を適用し、前記少なくとも2つの2次元画像に第2の奥行き捕捉機能を適用し、前記少なくとも2つの2次元画像のピクセルの局所的な視覚的特徴に基づき、前記第1の奥行き捕捉機能の出力に第1の重み値を適用し、前記第2の奥行き捕捉機能の出力に第2の重み値を適用し、前記第1の奥行き捕捉機能の出力を前記第2の奥行き捕捉機能の出力と合成する3次元捕捉モジュールとを有する、システム。
  12. 合成した前記第1と第2の奥行き捕捉機能の出力から奥行きマップを生成するように構成された奥行きマップ生成器をさらに有する、
    請求項11に記載のシステム。
  13. 前記3次元捕捉モジュールは、合成した前記第1と第2の奥行き捕捉機能の出力から差異マップを生成するようにさらに構成された、
    請求項11に記載のシステム。
  14. 前記3次元捕捉モジュールは前記第1の奥行き捕捉機能の出力を前記第2の奥行き捕捉機能の出力にレジスタするようにさらに構成された、
    請求項11に記載のシステム。
  15. 前記第1の奥行き捕捉機能の出力と前記第2の奥行き捕捉機能の出力の奥行きスケールを調整するように構成された奥行き調整器をさらに有する、
    請求項14に記載のシステム。
  16. 前記3次元捕捉モジュールは前記第1の奥行き捕捉機能の出力を前記第2の奥行き捕捉機能の出力と平均するようにさらに構成された、
    請求項11に記載のシステム。
  17. 前記少なくとも2つの2次元画像は立体視ペアの左目ビューと右目ビューとを含み、前記左目画像と右目画像の対応するピクセルペアの左目画像のピクセルの強度により前記第1の重み値を決める、
    請求項11に記載のシステム。
  18. 生成した前記奥行きマップから前記シーンの3次元モデルを再構成するように構成された3次元再構成モジュールをさらに有する、
    請求項13に記載のシステム。
  19. 前記3次元捕捉モジュールは前記少なくとも2つの2次元画像を位置合わせするようにさらに構成された、
    請求項11に記載のシステム。
  20. 前記少なくとも2つの2次元画像の特徴をマッチさせるように構成された特徴点検出器をさらに有する、
    請求項19に記載のシステム。
  21. 前記3次元捕捉モジュールは、
    前記少なくとも2つの2次元画像に少なくとも第3の奥行き捕捉機能を適用し、
    前記少なくとも2つの2次元画像に少なくとも第3の奥行き捕捉機能を適用し、
    第3の奥行き捕捉機能の出力を第4の奥行き捕捉機能の出力と合成し、
    合成した前記第1と第2の奥行き捕捉機能の出力を、合成した前記第3と第4の奥行き捕捉機能の出力と合成する、
    請求項11に記載のシステム。
  22. 機械により読み取り可能であり、2次元画像から3次元情報を捕捉する方法ステップを実行する、前記機械により実行可能な命令のプログラムを化体したプログラム記憶デバイスであって、前記方法は、
    シーンの少なくとも2つの2次元画像を捕捉するステップと、
    前記少なくとも2つの2次元画像に第1の奥行き捕捉機能を適用するステップと、
    前記少なくとも2つの2次元画像に第2の奥行き捕捉機能を適用するステップと、
    前記少なくとも2つの2次元画像のピクセルの局所的な視覚的特徴に基づき、前記第1の奥行き捕捉機能の出力に第1の重み値を適用し、前記第2の奥行き捕捉機能の出力に第2の重み値を適用するステップと、
    前記第1の奥行き捕捉機能の出力を前記第2の奥行き捕捉機能の出力と合成するステップと、
    合成した前記第1と第2の奥行き捕捉機能の出力から差異マップを生成するステップとを有する、プログラム記憶デバイス
JP2010516014A 2007-07-12 2007-07-12 2次元画像からの3次元オブジェクト認識システム及び方法 Expired - Fee Related JP5160643B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2007/015891 WO2009008864A1 (en) 2007-07-12 2007-07-12 System and method for three-dimensional object reconstruction from two-dimensional images

Publications (2)

Publication Number Publication Date
JP2010533338A JP2010533338A (ja) 2010-10-21
JP5160643B2 true JP5160643B2 (ja) 2013-03-13

Family

ID=39135144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010516014A Expired - Fee Related JP5160643B2 (ja) 2007-07-12 2007-07-12 2次元画像からの3次元オブジェクト認識システム及び方法

Country Status (6)

Country Link
US (1) US20100182406A1 (ja)
EP (1) EP2168096A1 (ja)
JP (1) JP5160643B2 (ja)
CN (1) CN101785025B (ja)
CA (1) CA2693666A1 (ja)
WO (1) WO2009008864A1 (ja)

Families Citing this family (142)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9330324B2 (en) 2005-10-11 2016-05-03 Apple Inc. Error compensation in three-dimensional mapping
WO2007105205A2 (en) 2006-03-14 2007-09-20 Prime Sense Ltd. Three-dimensional sensing using speckle patterns
CN101288105B (zh) 2005-10-11 2016-05-25 苹果公司 用于物体重现的方法和***
US8842730B2 (en) * 2006-01-27 2014-09-23 Imax Corporation Methods and systems for digitally re-mastering of 2D and 3D motion pictures for exhibition with enhanced visual quality
WO2007142643A1 (en) * 2006-06-08 2007-12-13 Thomson Licensing Two pass approach to three dimensional reconstruction
US8411931B2 (en) * 2006-06-23 2013-04-02 Imax Corporation Methods and systems for converting 2D motion pictures for stereoscopic 3D exhibition
WO2008120217A2 (en) * 2007-04-02 2008-10-09 Prime Sense Ltd. Depth mapping using projected patterns
US8494252B2 (en) * 2007-06-19 2013-07-23 Primesense Ltd. Depth mapping using optical elements having non-uniform focal characteristics
WO2009125883A1 (en) * 2008-04-10 2009-10-15 Hankuk University Of Foreign Studies Research And Industry-University Cooperation Foundation Image reconstruction
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
EP3876510A1 (en) 2008-05-20 2021-09-08 FotoNation Limited Capturing and processing of images using monolithic camera array with heterogeneous imagers
US20090315981A1 (en) * 2008-06-24 2009-12-24 Samsung Electronics Co., Ltd. Image processing method and apparatus
US8456517B2 (en) * 2008-07-09 2013-06-04 Primesense Ltd. Integrated processor for 3D mapping
JP4662187B2 (ja) * 2008-11-10 2011-03-30 ソニー株式会社 送信装置、受信装置および信号伝送システム
US8330802B2 (en) * 2008-12-09 2012-12-11 Microsoft Corp. Stereo movie editing
US8462207B2 (en) 2009-02-12 2013-06-11 Primesense Ltd. Depth ranging with Moiré patterns
US8786682B2 (en) 2009-03-05 2014-07-22 Primesense Ltd. Reference image techniques for three-dimensional sensing
US8717417B2 (en) 2009-04-16 2014-05-06 Primesense Ltd. Three-dimensional mapping and imaging
WO2011013079A1 (en) 2009-07-30 2011-02-03 Primesense Ltd. Depth mapping based on pattern matching and stereoscopic information
WO2011014419A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for creating three-dimensional (3d) images of a scene
US20110025830A1 (en) 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
US9380292B2 (en) 2009-07-31 2016-06-28 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene
US8773507B2 (en) * 2009-08-11 2014-07-08 California Institute Of Technology Defocusing feature matching system to measure camera pose with interchangeable lens cameras
US8817071B2 (en) 2009-11-17 2014-08-26 Seiko Epson Corporation Context constrained novel view interpolation
US8514491B2 (en) 2009-11-20 2013-08-20 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
TWI398158B (zh) * 2009-12-01 2013-06-01 Ind Tech Res Inst 產生立體影像之影像深度的方法
US8830227B2 (en) 2009-12-06 2014-09-09 Primesense Ltd. Depth-based gain control
WO2011071313A2 (ko) * 2009-12-08 2011-06-16 한국전자통신연구원 텍스쳐 영상과 깊이 영상을 추출하는 장치 및 방법
US8638329B2 (en) * 2009-12-09 2014-01-28 Deluxe 3D Llc Auto-stereoscopic interpolation
US8538135B2 (en) 2009-12-09 2013-09-17 Deluxe 3D Llc Pulling keys from color segmented images
US8508591B2 (en) * 2010-02-05 2013-08-13 Applied Vision Corporation System and method for estimating the height of an object using tomosynthesis-like techniques
RU2453922C2 (ru) * 2010-02-12 2012-06-20 Георгий Русланович Вяхирев Способ представления исходной трехмерной сцены по результатам съемки изображений в двумерной проекции (варианты)
US8982182B2 (en) 2010-03-01 2015-03-17 Apple Inc. Non-uniform spatial resource allocation for depth mapping
CN103004180A (zh) 2010-05-12 2013-03-27 派力肯影像公司 成像器阵列和阵列照相机的架构
WO2012020380A1 (en) 2010-08-11 2012-02-16 Primesense Ltd. Scanning projectors and image capture modules for 3d mapping
JP5530322B2 (ja) * 2010-09-22 2014-06-25 オリンパスイメージング株式会社 表示装置および表示方法
CN101945301B (zh) * 2010-09-28 2012-05-09 彩虹集团公司 一种人物场景2d转3d方法
WO2012061549A2 (en) 2010-11-03 2012-05-10 3Dmedia Corporation Methods, systems, and computer program products for creating three-dimensional video sequences
JP5464129B2 (ja) * 2010-11-17 2014-04-09 コニカミノルタ株式会社 画像処理装置および視差情報生成装置
WO2012066501A1 (en) 2010-11-19 2012-05-24 Primesense Ltd. Depth mapping using time-coded illumination
US9131136B2 (en) 2010-12-06 2015-09-08 Apple Inc. Lens arrays for pattern projection and imaging
US10140699B2 (en) 2010-12-07 2018-11-27 University Of Iowa Research Foundation Optimal, user-friendly, object background separation
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
US10200671B2 (en) 2010-12-27 2019-02-05 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
WO2012092246A2 (en) 2010-12-27 2012-07-05 3Dmedia Corporation Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3d) content creation
US8274552B2 (en) 2010-12-27 2012-09-25 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
JP5699609B2 (ja) * 2011-01-06 2015-04-15 ソニー株式会社 画像処理装置および画像処理方法
US9602799B2 (en) * 2011-01-14 2017-03-21 Panasonic Intellectual Property Management Co., Ltd. Device, method, and computer program for three-dimensional video processing
US8861836B2 (en) * 2011-01-14 2014-10-14 Sony Corporation Methods and systems for 2D to 3D conversion from a portrait image
US9924867B2 (en) 2011-01-20 2018-03-27 University Of Iowa Research Foundation Automated determination of arteriovenous ratio in images of blood vessels
US20140035909A1 (en) * 2011-01-20 2014-02-06 University Of Iowa Research Foundation Systems and methods for generating a three-dimensional shape from stereo color images
JP5087684B2 (ja) * 2011-02-07 2012-12-05 株式会社東芝 画像処理装置、画像処理方法および画像表示装置
KR101212802B1 (ko) * 2011-03-31 2012-12-14 한국과학기술연구원 피사계 심도가 강조된 영상을 획득하는 방법 및 그 장치
US9030528B2 (en) 2011-04-04 2015-05-12 Apple Inc. Multi-zone imaging sensor and lens array
US20120274626A1 (en) * 2011-04-29 2012-11-01 Himax Media Solutions, Inc. Stereoscopic Image Generating Apparatus and Method
WO2012155119A1 (en) 2011-05-11 2012-11-15 Pelican Imaging Corporation Systems and methods for transmitting and receiving array camera image data
CN102194128B (zh) * 2011-05-16 2013-05-01 深圳大学 基于二值深度差进行物体检测的方法和装置
US8928737B2 (en) * 2011-07-26 2015-01-06 Indiana University Research And Technology Corp. System and method for three dimensional imaging
CN102263979B (zh) * 2011-08-05 2013-10-09 清华大学 一种平面视频立体化的深度图生成方法及装置
WO2013033442A1 (en) 2011-08-30 2013-03-07 Digimarc Corporation Methods and arrangements for identifying objects
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
CN104081414B (zh) 2011-09-28 2017-08-01 Fotonation开曼有限公司 用于编码和解码光场图像文件的***及方法
US9692991B2 (en) * 2011-11-04 2017-06-27 Qualcomm Incorporated Multispectral imaging system
US9329035B2 (en) * 2011-12-12 2016-05-03 Heptagon Micro Optics Pte. Ltd. Method to compensate for errors in time-of-flight range cameras caused by multiple reflections
AU2013219966B2 (en) 2012-02-15 2015-04-02 Apple Inc. Scanning depth engine
WO2013126578A1 (en) 2012-02-21 2013-08-29 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
US8934662B1 (en) * 2012-03-12 2015-01-13 Google Inc. Tracking image origins
US8462155B1 (en) * 2012-05-01 2013-06-11 Google Inc. Merging three-dimensional models based on confidence scores
WO2013165614A1 (en) 2012-05-04 2013-11-07 University Of Iowa Research Foundation Automated assessment of glaucoma loss from optical coherence tomography
KR101888956B1 (ko) 2012-05-31 2018-08-17 엘지이노텍 주식회사 카메라 모듈 및 그의 오토 포커싱 방법
CN104508681B (zh) 2012-06-28 2018-10-30 Fotonation开曼有限公司 用于检测有缺陷的相机阵列、光学器件阵列和传感器的***及方法
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
EP4296963A3 (en) 2012-08-21 2024-03-27 Adeia Imaging LLC Method for depth detection in images captured using array cameras
CN104685513B (zh) 2012-08-23 2018-04-27 派力肯影像公司 根据使用阵列源捕捉的低分辨率图像的基于特征的高分辨率运动估计
US9462164B2 (en) 2013-02-21 2016-10-04 Pelican Imaging Corporation Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
US9917998B2 (en) 2013-03-08 2018-03-13 Fotonation Cayman Limited Systems and methods for measuring scene information while capturing images using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
US9124831B2 (en) 2013-03-13 2015-09-01 Pelican Imaging Corporation System and methods for calibration of an array camera
WO2014153098A1 (en) 2013-03-14 2014-09-25 Pelican Imaging Corporation Photmetric normalization in array cameras
WO2014159779A1 (en) 2013-03-14 2014-10-02 Pelican Imaging Corporation Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9633442B2 (en) * 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
WO2014145856A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
CA2902430C (en) 2013-03-15 2020-09-01 Uber Technologies, Inc. Methods, systems, and apparatus for multi-sensory stereo vision for robotics
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US10360672B2 (en) 2013-03-15 2019-07-23 University Of Iowa Research Foundation Automated separation of binary overlapping trees
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
US9456134B2 (en) 2013-11-26 2016-09-27 Pelican Imaging Corporation Array camera configurations incorporating constituent array cameras and constituent cameras
KR101394274B1 (ko) * 2013-11-27 2014-05-13 (주) 골프존 뎁스 정보 분석을 통한 신체 검출 방법 및 사용자 신체 검출을 위한 뎁스 정보 분석 장치
CN104680510B (zh) * 2013-12-18 2017-06-16 北京大学深圳研究生院 Radar视差图优化方法、立体匹配视差图优化方法及***
CN103763047A (zh) * 2014-01-14 2014-04-30 西安电子科技大学 一种基于单视图几何原理的室内环境重构方法
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
WO2015143435A1 (en) 2014-03-21 2015-09-24 University Of Iowa Research Foundation Graph search using non-euclidean deformed graph
JP6458396B2 (ja) * 2014-08-18 2019-01-30 株式会社リコー 画像処理システム、及び画像投影装置
US10250871B2 (en) 2014-09-29 2019-04-02 Fotonation Limited Systems and methods for dynamic calibration of array cameras
CN104639933A (zh) * 2015-01-07 2015-05-20 前海艾道隆科技(深圳)有限公司 一种立体视图的深度图实时获取方法及***
JP2016142676A (ja) * 2015-02-04 2016-08-08 ソニー株式会社 情報処理装置と情報処理方法とプログラムおよび撮像装置
US10115194B2 (en) 2015-04-06 2018-10-30 IDx, LLC Systems and methods for feature detection in retinal images
CN108307675B (zh) * 2015-04-19 2020-12-25 快图有限公司 用于vr/ar应用中的深度增强的多基线相机阵列***架构
US9948914B1 (en) 2015-05-06 2018-04-17 The United States Of America As Represented By The Secretary Of The Air Force Orthoscopic fusion platform
CN104851100B (zh) * 2015-05-22 2018-01-16 清华大学深圳研究生院 可变光源下的双目视图立体匹配方法
US9646410B2 (en) 2015-06-30 2017-05-09 Microsoft Technology Licensing, Llc Mixed three dimensional scene reconstruction from plural surface models
US10163247B2 (en) 2015-07-14 2018-12-25 Microsoft Technology Licensing, Llc Context-adaptive allocation of render model resources
KR102146398B1 (ko) * 2015-07-14 2020-08-20 삼성전자주식회사 3차원 컨텐츠 생성 장치 및 그 3차원 컨텐츠 생성 방법
US9665978B2 (en) 2015-07-20 2017-05-30 Microsoft Technology Licensing, Llc Consistent tessellation via topology-aware surface tracking
US11463676B2 (en) * 2015-08-07 2022-10-04 Medicaltek Co. Ltd. Stereoscopic visualization system and method for endoscope using shape-from-shading algorithm
US9883167B2 (en) * 2015-09-25 2018-01-30 Disney Enterprises, Inc. Photometric three-dimensional facial capture and relighting
US10372968B2 (en) * 2016-01-22 2019-08-06 Qualcomm Incorporated Object-focused active three-dimensional reconstruction
US20170262993A1 (en) * 2016-03-09 2017-09-14 Kabushiki Kaisha Toshiba Image processing device and image processing method
US10560683B2 (en) * 2016-04-08 2020-02-11 Maxx Media Group, LLC System, method and software for producing three-dimensional images that appear to project forward of or vertically above a display medium using a virtual 3D model made from the simultaneous localization and depth-mapping of the physical features of real objects
US20170359561A1 (en) * 2016-06-08 2017-12-14 Uber Technologies, Inc. Disparity mapping for an autonomous vehicle
CN106023307B (zh) * 2016-07-12 2018-08-14 深圳市海达唯赢科技有限公司 基于现场环境的快速重建三维模型方法及***
US10574947B2 (en) 2016-07-15 2020-02-25 Qualcomm Incorporated Object reconstruction in disparity maps using displaced shadow outlines
JP2018055429A (ja) 2016-09-29 2018-04-05 ファナック株式会社 物体認識装置および物体認識方法
CN107123090A (zh) * 2017-04-25 2017-09-01 无锡中科智能农业发展有限责任公司 一种基于图像拼接技术的自动合成农田全景图***及方法
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US10535151B2 (en) 2017-08-22 2020-01-14 Microsoft Technology Licensing, Llc Depth map with structured and flood light
US10967862B2 (en) 2017-11-07 2021-04-06 Uatc, Llc Road anomaly detection for autonomous vehicle
KR102129458B1 (ko) * 2017-11-22 2020-07-08 한국전자통신연구원 객체의 3차원 정보 복원 방법 및 장치
CN107977938A (zh) * 2017-11-24 2018-05-01 北京航空航天大学 一种基于光场的Kinect深度图像修复方法
EP3547704A1 (en) 2018-03-30 2019-10-02 Thomson Licensing Method, apparatus and stream for volumetric video format
CN109598783A (zh) * 2018-11-20 2019-04-09 西南石油大学 一种房间3d建模方法及家具3d预览***
CN109982036A (zh) * 2019-02-20 2019-07-05 华为技术有限公司 一种全景视频数据处理的方法、终端以及存储介质
CN110337674B (zh) * 2019-05-28 2023-07-07 深圳市汇顶科技股份有限公司 三维重建方法、装置、设备及存储介质
CN110517305B (zh) * 2019-08-16 2022-11-04 兰州大学 一种基于图像序列的固定物体三维图像重构方法
EP4009274A4 (en) * 2019-09-10 2023-08-02 OMRON Corporation IMAGE PROCESSING DEVICE, THREE-DIMENSIONAL MEASUREMENT SYSTEM, AND IMAGE PROCESSING METHOD
WO2021055585A1 (en) 2019-09-17 2021-03-25 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
CN114746717A (zh) 2019-10-07 2022-07-12 波士顿偏振测定公司 利用偏振进行表面法线感测的***和方法
CN110830781B (zh) * 2019-10-30 2021-03-23 歌尔科技有限公司 一种基于双目视觉的投影图像自动校正方法及***
CN112857234A (zh) * 2019-11-12 2021-05-28 峻鼎科技股份有限公司 结合物体二维和高度信息的测量方法及其装置
MX2022005289A (es) 2019-11-30 2022-08-08 Boston Polarimetrics Inc Sistemas y metodos para segmentacion de objetos transparentes usando se?ales de polarizacion.
EP4081933A4 (en) 2020-01-29 2024-03-20 Intrinsic Innovation LLC SYSTEMS AND METHODS FOR CHARACTERIZING OBJECT POSE DETECTION AND MEASUREMENT SYSTEMS
CN115428028A (zh) 2020-01-30 2022-12-02 因思创新有限责任公司 用于合成用于在包括偏振图像的不同成像模态下训练统计模型的数据的***和方法
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
CN113866171B (zh) * 2021-12-02 2022-03-18 武汉飞恩微电子有限公司 电路板点胶检测方法、设备及计算机可读存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2961140B2 (ja) * 1991-10-18 1999-10-12 工業技術院長 画像処理方法
JPH0933249A (ja) * 1995-07-25 1997-02-07 Olympus Optical Co Ltd 三次元画像計測装置
JPH09204524A (ja) * 1996-01-29 1997-08-05 Olympus Optical Co Ltd 3次元形状認識装置
US6052124A (en) * 1997-02-03 2000-04-18 Yissum Research Development Company System and method for directly estimating three-dimensional structure of objects in a scene and camera motion from three two-dimensional views of the scene
JP2001175863A (ja) * 1999-12-21 2001-06-29 Nippon Hoso Kyokai <Nhk> 多視点画像内挿方法および装置
JP2003018619A (ja) * 2001-07-03 2003-01-17 Olympus Optical Co Ltd 立体映像評価装置およびそれを用いた表示装置
JP2004127784A (ja) * 2002-10-04 2004-04-22 Hitachi High-Technologies Corp 荷電粒子線装置
US7103212B2 (en) * 2002-11-22 2006-09-05 Strider Labs, Inc. Acquisition of three-dimensional images by an active stereo technique using locally unique patterns
JP4511147B2 (ja) * 2003-10-02 2010-07-28 株式会社岩根研究所 三次元形状生成装置
JP4556873B2 (ja) * 2003-10-21 2010-10-06 日本電気株式会社 画像照合システム及び画像照合方法
CA2455359C (en) * 2004-01-16 2013-01-08 Geotango International Corp. System, computer program and method for 3d object measurement, modeling and mapping from single imagery
US7324687B2 (en) * 2004-06-28 2008-01-29 Microsoft Corporation Color segmentation-based stereo 3D reconstruction system and process
GB2418314A (en) * 2004-09-16 2006-03-22 Sharp Kk A system for combining multiple disparity maps
JP2007053621A (ja) * 2005-08-18 2007-03-01 Mitsubishi Electric Corp 画像生成装置
KR100739730B1 (ko) * 2005-09-03 2007-07-13 삼성전자주식회사 3d 입체 영상 처리 장치 및 방법

Also Published As

Publication number Publication date
EP2168096A1 (en) 2010-03-31
US20100182406A1 (en) 2010-07-22
CN101785025A (zh) 2010-07-21
CA2693666A1 (en) 2009-01-15
CN101785025B (zh) 2013-10-30
JP2010533338A (ja) 2010-10-21
WO2009008864A1 (en) 2009-01-15

Similar Documents

Publication Publication Date Title
JP5160643B2 (ja) 2次元画像からの3次元オブジェクト認識システム及び方法
CA2650557C (en) System and method for three-dimensional object reconstruction from two-dimensional images
US8433157B2 (en) System and method for three-dimensional object reconstruction from two-dimensional images
JP5156837B2 (ja) 領域ベースのフィルタリングを使用する奥行マップ抽出のためのシステムおよび方法
Yu et al. 3d reconstruction from accidental motion
US11348267B2 (en) Method and apparatus for generating a three-dimensional model
EP2089853B1 (en) Method and system for modeling light
CN110998669B (zh) 图像处理装置和方法
Zhang et al. Projection defocus analysis for scene capture and image display
JP2018515825A (ja) Lidarステレオ融合実写3dモデルバーチャルリアリティビデオ
JP2010510569A (ja) 2次元から3次元に変換するためのオブジェクトのモデルフィッティング及びレジストレーションのシステム及び方法
Yuan et al. 3D reconstruction of background and objects moving on ground plane viewed from a moving camera
Angot et al. A 2D to 3D video and image conversion technique based on a bilateral filter
Lin et al. Extracting depth and radiance from a defocused video pair
Lu et al. Multi-view stereo reconstruction with high dynamic range texture
Yin et al. Improving depth maps by nonlinear diffusion
Liu Improving forward mapping and disocclusion inpainting algorithms for depth-image-based rendering and geomatics applications
Li Free viewpoint video with image-based rendering
Zhou et al. Efficient spherical high dynamic range imaging for image-based virtual environments
Zhou Omnidirectional High Dynamic Range Imaging with a Moving Camera
Drouin et al. Camera–projector matching using unstructured video
Wang et al. Depth Super-resolution by Fusing Depth Imaging and Stereo Vision with Structural Determinant Information Inference

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120110

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120406

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120413

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121212

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151221

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees