JP5587894B2 - 深さマップを生成するための方法及び装置 - Google Patents

深さマップを生成するための方法及び装置 Download PDF

Info

Publication number
JP5587894B2
JP5587894B2 JP2011533916A JP2011533916A JP5587894B2 JP 5587894 B2 JP5587894 B2 JP 5587894B2 JP 2011533916 A JP2011533916 A JP 2011533916A JP 2011533916 A JP2011533916 A JP 2011533916A JP 5587894 B2 JP5587894 B2 JP 5587894B2
Authority
JP
Japan
Prior art keywords
depth
image
depth map
map
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011533916A
Other languages
English (en)
Other versions
JP2012507907A (ja
Inventor
バルト ジー ビー バレンブルグ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2012507907A publication Critical patent/JP2012507907A/ja
Application granted granted Critical
Publication of JP5587894B2 publication Critical patent/JP5587894B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/507Depth or shape recovery from shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20028Bilateral filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)

Description

本発明は、単眼情報を用いて画像の深さマップを生成するための方法及び装置、並びに、単眼情報を用いて画像の深さマップを生成するためのコンピュータ可読媒体上のコンピュータプログラムに関する。
最近の十年にわたって、相当な量の研究が家庭用三次元ディスプレイ技術の実現に向けられた。結果として、立体視ディスプレイ及び自動立体視ディスプレイの両方が相次いだ。
立体視ディスプレイでは、観察者の目は、時間多重で又は(例えばスペクトル分離によって)同時に、左眼画像を観察者の左眼に導き、右眼画像を観察者の右眼に導くために、例えば観察者の眼とディスプレイとの間に配置される眼鏡又はホイルによって一般に補助される。一般にユーザは眼鏡を着用することを面倒に思うので、自動立体視ディスプレイが同様に相当な注目を集めている。自動立体視ディスプレイ(多くの場合マルチ・ビュー・ディスプレイ)は、一般に、観察者に向けられる観察コーン中に多重化される複数の(例えば5-9以上の)画像又はビューの視覚化を可能にする。それぞれ左及び右眼によってコーンからの別々のビューを観察することによって、立体視効果が肉眼によって得られる。
立体視ディスプレイ及び自動立体視ディスプレイの両方に対する重要な問題は、コンテンツの供給である。三次元コンテンツをディスプレイに供給するためのさまざまなアプローチが知られている。これらのアプローチのうちのいくつかは、全てのビューを明示的に符号化し、一方、他のアプローチは、1つ又はいくつかのビューと、これらのビューの1つ又は全てのための追加の深さ及び/又は視差情報とを符号化する。深さ情報を提供する利点は、例えば、提供された画像に基づいて追加的なビューをレンダリングするときに、三次元コンテンツの操作を容易にすることである。
そのような深さ情報は、例えばステレオ画像の視差の分析によって、又は距離計を使用して取得されることができるが、これは一般的に、新たに取得されるコンテンツに対してのみ可能である。さらに、ステレオ又はマルチビュー取得は、一般に、よりコストが高い。結果として、相当な研究が、単眼画像又は単眼画像のシーケンスからの深さ情報の取得に向けられてきた。完全に自動化された変換から高品質なコンテンツのためのユーザ支援2D-3D変換に及ぶ、そのようなアルゴリズムの様々なアプリケーションが構想されることができる。ユーザ支援2D-3D変換の場合、コンピュータ支援深さマップ生成が時間を相当節約することができる。
単眼画像から深さマップを得るアプローチの例は、"Depth Map Generation by Image Classification", by S. Battiato, et al, Proceedings of SPIE Electronic Imaging 2004, Three-Dimensional Image Capture and Applications VI - Vol. 5302-13に示される。
上記の論文において、深さマップは、画像の推定されたグローバル深さプロファイルに基づく深さマップを、画像構造を含む更なる深さマップと組み合わせることによって生成される。しかしながら、結果として生じる組み合わせは、結果として生じる画像において満足な奥行感を必ずしも提供しない。
したがって、本発明の目的は、代わりの深さマップを提供する別の方法を提供することである。
上記は、単眼情報を用いて画像の深さマップを生成する方法によって達成され、当該方法は、前記画像のための第1深さマップを生成し、第1深さマップは、画像中に示されるシーンのグローバル深さプロファイルの推定値に対応し、当該方法はさらに、前記画像のための第2深さマップを生成し、第2深さマップ中のピクセルに関連付けられる深さ値は、当該ピクセルに空間的に隣接した領域内の第1深さマップの深さ値並びに前記領域内の画像の色及び輝度値のうちの少なくとも1つに基づき、当該方法はさらに、第1深さマップ及び第2深さマップからの深さ値を用いて前記画像のための第3深さマップを生成し、当該生成は、第3及び第1深さマップの深さ値の間の差が、第2及び第1深さマップの深さ値の間の対応する差と比べてスケーリングされるように、深さ差をスケーリングする。
第3深さマップの生成は、2つの基礎をなす深さマップ成分、第1及び第2深さマップに基づき、両方とも、この第1深さマップの根底にある推定されたグローバル深さプロファイルに基づく。特に、画像が画像シーケンスからの画像であるとき、このグローバル深さプロファイルは、シーケンス中の隣接する画像に対して同様である可能性あり、したがって第3深さマップの時間的安定性に寄与する。
第2深さマップ生成は、次に、局所的構造をグローバル深さプロファイルに効果的に組み込む。第2深さマップの生成の間、画像中の輝度及び/又は色の類似性が、深さ値を割り当てるために使用される。結果として、画像において同様の色及び/又は輝度を持つオブジェクトの深さ値は、局所的により同様にされ、それにより、画像中で類似性を持つ構造が、一般的により同様であり、多くの場合グローバル深さプロファイルと異なる深さ値を得る。
なお、上述の類似性は、色及び/又は輝度値の予め定められた変動の範囲内であるとして定量化されることができる。
最後に、第3ステップは、第1及び第2深さマップの間のいくつかの差を効果的にスケーリングするように、生成された第1及び第2深さマップを組み合わせる。本発明による1つの実施の形態において、これは、局所的構造とグローバル深さプロファイルとの間のより顕著な差の導入を可能にする。このようにして、多くの場合幾分微妙な第1及び第2深さマップの間の差は、オブジェクトに対して強調されることができ、よりダイナミックな深さマップをもたらす。あるいは、第2深さマップ中の局所的構造が顕著すぎる場合もあり、その場合、0と1との間の係数によるスケーリングが、三次元観察経験を改善することができる。
なお、第2深さマップ中のピクセルのための深さ値を生成するときに、第1深さマップ中の対応するピクセルのまわりの領域における第1深さマップからの深さ値が用いられる。好ましくは、そのような隣接した深さ値の深さ値は、色及び/又は輝度類似性に基づいて重み付けされるが、例えば画像動き、局所的な輪郭の明瞭さ及び/又は付近のテクスチャの量のような、他の画像属性も同様に用いられることができる。このようにして、同様の色及び/又は輝度のピクセルに関連付けられた深さ値は、あまり似ていないピクセルより第2深さマップ中のピクセルの深さ値に寄与する。
なお、ここで「隣接」は、グローバルではなく局所的であることを意味することが意図され、すなわち、全体としての画像に基づかない。実際には、「隣接」は、多くの場合、ある開口内のピクセルに関する。開口は予め定められた形状及び/又はサイズであることができるが、例えば更なる画像情報に基づいて開口を動的に適応させることも可能である。
実施の形態において、第1深さマップは、深さマップ・テンプレートに基づく。そのようなテンプレートは、傾斜(すなわち、シーンの下部の前景から上部の背景への勾配)のような、単純な一般的なテンプレートであることができる。別の傾斜は、背景の出発点を定義する特定の垂直位置における水平線を含むことができる。あるいは、上で引用した"Depth Map Generation by Image Classification", by S. Battiato(この文献を参照として本願明細書に組み込む)に開示されるような、より複雑にパラメータ化可能なテンプレートが構成されることができる。ここで、パラメータ化可能なグローバル深さプロファイルが画像分析に基づいてどのように構成されることができるかに関する例が示される。一般的に言うと、深さマップ・テンプレートは、特定の種類のシーンの深さプロファイルの推定から成り、したがって、相当なバリエーションを示す可能性がある。例えば、室内の会話シーン又は魚眼クローズアップの典型的な深さプロファイルの差を考慮する。
好ましい実施の形態において、第2深さマップの生成は、画像中の色及び輝度値のうちの一方並びに第1深さマップ中の深さ値への双方向フィルタの適用を含む。結果として、画像のセグメント化は不要であり、さらに同時に、画像内の色及び/又は輝度変動は、色遷移の片側からの深さ値が、色遷移の反対側のピクセルの深さ値に関与することを防止するために利用されることができる。結果として、特定の色及び/又は輝度類似性を有する領域に対応する第2深さマップ中の深さ値は、第1深さマップ中の対応する領域よりも類似した深さ値を一般に持つ。結果として、オブジェクトは、グローバル深さプロファイルから更に異なるようにされる。
さらに好ましい実施の形態において、第3深さマップのための深さ値は、シーンの視点に最も近い深さに対応する深さ値に設定され、
-第1深さマップ中の対応する深さ値、又は
-第2深さマップからの対応する深さ値に基づく候補深さ値、
である。実際には、一般的に、第3深さマップのための深さ値は、第1深さマップ中の深さ値及び第2深さマップからの対応する深さ値に基づく候補深さ値のうちの最大値に設定される。この特定の手段の結果として、第3深さマップ中の深さ値は、グローバル深さプロファイルの後ろに配置されない。結果的に、第2深さマップにおいてグローバル深さプロファイルの後ろに配置されたオブジェクト(の一部)は、グローバル深さプロファイルに設定される。更なる候補深さ値が想定される。
有利な実施の形態における上述の候補値は、第1深さマップからの深さ値と第2深さマップからの対応する深さ値との加重差に加えて、第1深さマップからの深さ値を含む。結果として、例えばユーザ/観察者の制御の下でも、強調は調整されることができる。あるいは、候補値は、第1深さマップからの深さ値に空間的に隣接した1つ以上の深さ値に基づく閾値深さ値を含むことができる。このようにして、特定の色又は輝度を有するオブジェクトのための深さ値は、さらに改善されることができる。
実施の形態において、深さマップが生成される画像は、画像シーケンスの一部である。一次近似として、画像シーケンスがショットに分割されることができ、続いて、グローバル深さプロファイルがショット中の画像に基づいて選択されることができる。このようにして、生成される深さマップの時間整合性が、さらに改善されることができる。
例えばパラメータ化可能な深さマップ・テンプレートと、特に有利に組み合わせられることができる、より高度な方法において、グローバル深さプロファイルは、より多数の画像/フレームに関してショット内で更なる変動が存在するならば、ショットの複数の画像(例えばショット中の最初の画像及び最後の画像)に基づいて決定される。
上記実施例が特に有利であるが、これは、グローバル深さプロファイルが、画像シーケンスの個別の画像/フレームごとに基づいて、又は更にオプションとして、使用された最近のグローバル深さプロファイルと同様に現在の画像/フレームの評価によって選択される実施の形態のような、更なる実施の形態を除外しない。
本発明は、代わりの深さマップを提供する別の装置を提供することを更なる目的とする。
上記は、単眼情報を用いて画像のための深さマップを生成するための装置によって達成され、当該装置は、画像を受信するように配置される受信手段、及び処理手段を有し、前記処理手段は、前記画像のための第1深さマップを生成し、第1深さマップは、画像中に示されるシーンのグローバル深さプロファイルの推定値に対応し、前記処理手段はさらに、前記画像のための第2深さマップを生成し、第2深さマップ中のピクセルに関連付けられる深さ値は、当該ピクセルに空間的に隣接した領域内の第1深さマップの深さ値並びに前記領域内の画像の色及び輝度値のうちの少なくとも1つに基づき、前記処理手段はさらに、第1深さマップ及び第2深さマップからの深さ値を用いて前記画像のための第3深さマップを生成し、当該生成は、第3及び第1深さマップの深さ値の間の差が、第2及び第1深さマップの深さ値の間の対応する差と比べてスケーリングされるように、深さ差をスケーリングするように配置される。
上記は、単眼情報を用いて画像のための深さマップを生成するためのコンピュータ可読媒体上のコンピュータプログラムによってさらに達成される。
本発明のこれらの及び他の態様、特徴及び利点は、以下に説明される実施の形態から明らかであり、それらを参照して説明される。
本発明の実施の形態は、単に一例として、図面を参照して説明される。
本発明による方法のフローチャート。 本発明による装置のブロック図。 第1及び第2深さマップの垂直断面図。 2つの深さマップの垂直断面図。 3つの深さマップの垂直断面図。 3つの深さマップの垂直断面図。 シーンのグローバル深さプロファイルのいくつかの推定値を示す図。 本発明による方法のいくつかのステップの出力を示す図。
上で示されるように、単眼情報を用いた画像のための深さマップの生成は、ステレオ画像を用いる場合よりも複雑である。ステレオ又はマルチビュー画像の場合には、多くの場合、ビュー中に表されるシーンに関する深さ情報を得るために、シーンのそれぞれのビュー間の視差を用いることが可能である。
ステレオ及びより少ない程度でマルチビュー取得手段が利用可能になっているが、一般的に、単眼の取得手段と比べて、そのような手段を用いる際に必要とされる追加的なコストが依然として存在する。さらに、既存の単眼のコンテンツに対して、ダブル・ビューすなわちステレオ又はマルチビューフォーマットで再現することは、多くの場合、可能ではない。
結果として、単眼情報を用いて画像の深さマップを生成するための方法の必要性が存在する。
図1は、本発明による方法100のフローチャートを示す。方法100は、単眼情報を用いて画像のための深さマップを生成する方法を表す。この方法は、画像のための第1深さマップを生成する第1ステップ110を含む。この第1ステップの間、深さマップ、一般に画像中の全てのピクセルのための深さマップが生成され、第1深さマップ中の深さ値は、画像中に表されるシーンのグローバル深さプロファイルの推定値に対応する。
"Depth Information by Stage Classification" by V. Nedovic, et al, IEEE 11th International Conference on Computer Vision, 2007, ICCV 2007(この文献は参照として本願明細書に組み込まれる)において、5個のグローバル深さステージ及び11個の更に詳細な深さステージへの画像の分類、並びに、そのような深さステージ上へ画像をマッピングする方法が示される。グローバル・ステージは、空、背景及び地面から成る第1ステージに対応する(例えば風景ショット)。第2ステージはボックスを含み、一般的に室内のシーンに適している。第3ステージはコーナ・ステージと呼ばれ、一般的に室内のシーンに適している。第4ステージは背景の前の一以上の人のためであり、最後に、第5ステージは深さを持たないシーンを含む。
上記の論文中に使用される分類は、特に有利であるが、網羅的ではなく、当業者によって容易に拡張されることができることが留意されるべきである。例えば、この論文中に示されるモデルは、魚眼レンズを用いて作成されるマクロ・ショットに対応するグローバル深さプロファイルを提供しない。
図4は、特定の画像のために用いられることができるグローバル深さプロファイルの深さマップのいくつかの例を提供する。ここで、画像410は、画像の最下部の前景から最上部の背景までの勾配を提供する。一般に、そのようなプロファイルを用いるときに、水平線を検出して、続いて背景中の水平線より上に全てのピクセルを配置することによって、このプロファイルを改良することが有益であることは、当業者にとって明らかである。あるいは、より前兆の雲を有する風景を生成することが有利である。後者の場合、2つの垂直勾配を含む画像420が用いられることができる。結果として、画像の最上部に位置する雲は、水平線におけるそれらより観察者の近くに位置づけられる。
画像440は次に、魚眼のマクロ・ショットのためのグローバル深さプロファイルのための深さマップを示し、白い中央及び画像の端に向かうより暗いリングを有する円形勾配から成る。結果として、画像の中央は最も近く、画像の端は画像が観察された視点から最も遠い。最後に、画像450は、単純なボックスのような正面から見たシーンのための深さマップを提供する。
もう一度図1を参照して、第1深さマップの生成に続いて、次のステップは、画像のための第2深さマップを生成すること(120)に対応する。第2深さマップにおいて、あるピクセルに関連付けられる深さ値は、
-このピクセルに空間的に隣接した領域内の第1深さマップ中の深さ値、並びに
-この領域内の画像の色及び/又は輝度値、
の両方に基づく。
なお、第2深さマップは、第1深さマップ並びに画像中の色及び/又は輝度情報に明示的に基づく。結果として、第2深さマップは、一般的に、異なる色及び/又は輝度を持つオブジェクトをグローバル深さプロファイルから区別することを可能にする。
好ましい実施の形態において、第2深さマップの生成は、例えば、一方では第1画像中の深さ値、他方では画像の色情報にわたる双方向フィルタを伴う。
深さマップに局所的構造を追加するために、クロス又はジョイント双方向フィルタが用いられることができる。
双方向フィルタは、(空間)領域及び(強度)範囲特性の両方を利用する非線形フィルタである。下記の式(1)は基本的な双方向フィルタを示す。出力画像Opは、位置pの近傍Sにおける入力画像Iqからの位置qのピクセルの加重平均によって決定される。重み計算は、空間距離関数s及び強度範囲関数rによって決まる。ここで関数sは、従来の二次元たたみ込みフィルタ・カーネルである。次に、関数rは、エッジ保存特性をもたらすために、強度差が大きくなるとともに減少する。
Figure 0005587894
好ましくは、関数s及びrは、以下で式(2)及び(3)に示されるように実施される。
Figure 0005587894
上で述べたように、第2画像の色及び/又は輝度情報からの範囲情報に基づく局所的な深さ情報を導入するための特に有利な方法は、クロス又はジョイント双方向フィルタを使用することである。本発明の実施の形態において、第2深さマップは、そのようなジョイント双方向フィルタを用いて生成される。ジョイント双方向フィルタは、入力画像からの範囲情報(色又は輝度)を用いて、シーンのグローバル深さプロファイルの推定値を表す第1深さマップをフィルタリングするために用いられる。
式(4)は、第2深さマップD2pが、シーンの深さプロファイルの推定値を表す第1深さマップD1p及び画像Iからの画像コンテンツを用いてどのように生成されることができるかを示す。
Figure 0005587894
上記が第2深さマップを生成する特に有効な方法を提供するが、第2深さマップは、当業者に知られている他の方法で生成されることができる。
双方向フィルタは、好ましくは、"A Fast Approximation of the Bilateral Filter using a Signal Processing Approach" by Sylvain Paris and Fredo Durand, Proceedings of European Conference on Computer Vision (ECCV'06), 2006(この文献は参照として本明細書に組み込まれる)において説明されるように、より高次元の双方向グリッド領域で定式化されることができる。この定式化は、データをダウンサンプリングするために、粗い三次元グリッドを用い、したがって、非常に効率的に実施されることができる。第3深さマップを生成するスケーリング操作が、好ましい実施の形態において、アップサンプリングの前に、ダウンサンプリングされた三次元グリッドにおいて実行されることができるので、このアプローチは、本願明細書において開示される方法と有利に組み合わせられることができる。上記の論文において、Paris及びDurandは、ダウンサンプリングが双方向フィルタ自体に実行されることができることを示す。本発明に適用されるときに、これは、第1及び第2深さマップの両方が、より低い解像度で生成されることができることを意味する。
再度図1を参照して、第2深さマップの生成に続いて、本方法は、第1深さマップ及び第2深さマップからの深さ値を用いて画像のための第3深さマップを生成するステップ130に進み、当該生成は、第3及び第1深さマップの深さ値の間の差が、第2及び第1深さマップの深さ値の間の対応する差と比較してスケーリングされるように、深さ差をスケーリングする。
上記は、図3A-3Dにおいて、もう一度視覚的に示される。図3Aは、第1深さマップの垂直断面10及び第2深さマップ20の垂直断面を示す。分かるように、第1深さマップは傾斜に対応する。次に、第2断面は、第1深さマップに幾分追従する曲線に対応するが、そこから局所的にそれる。この第2曲線は、例えば上述の双方向フィルタを用いて生成されることができる曲線の例である。
双方向フィルタが特に有利であるが、例えば入力画像のセグメント化を用いて、その後にTジャンクション検出が続くような、他のアプローチも想定され、Tジャンクションによって提供されるまばらな局所的配列は、第1グローバル深さマップからの値を用いる密な深さプロファイルに組み込まれることができる。図3Bは、断面10及び20にわたる(z方向における)最大に対応する本発明による第3垂直断面30と共に、垂直断面10を再び示す。ここで、深さ値d3(y)は、
Figure 0005587894
に対応する垂直断面30のそれぞれの深さ値と対応し、ここで、d1(y)は断面10のそれぞれの深さ値に対応し、d2(y)は断面20のそれぞれの深さ値と対応する。
次に図3Cは、断面30に基づく、本発明による第4の垂直断面40を示す。断面40は、傾斜(断面10)の前にある断面40上のポイントが、断面30上の対応するポイントよりも、この傾斜から2倍遠くに位置することを説明するために、断面30と共に示される。
Figure 0005587894
ωのための適切な値を選択することによって、深さの差は、さらに強調されるか又は低減されることができる。深さマップを生成するときに、このパラメータは、局所的な色及び/又は輝度変動に基づいて、ユーザが深さマップ変動を強調することを可能にする。結果として、画像の深さマップは、画像情報に関する適切な相関を示す可能性がより高く、そして結果として、より活発な外観を提供して、一方、より小さいωの値は、主として、シーンの一般的な深さプロファイルを反映する深さマップをもたらす。
差を増幅するか否か又は差を減衰させるか否かの選択が第2深さマップの性質に大いに依存することは、当業者にとって明らかである。第2深さマップが第1深さマップとの相当な差を示す場合には、差を減衰させることが必要である場合がある。一方、差が概して小さいときには、差の増幅が必要である場合がある。
次に図3Dは、同様に本発明による第5の垂直断面50を示す。第5の断面は、傾斜の前にある断面40上のポイントのための深さ値が閾値d2T(y)に設定されることを示す。ここで閾値は、色及び/又は輝度類似性に基づく垂直スキャンによって決定される。そのような垂直スキャン(ここでは下から上)の間、色及び/又は輝度において背景から目立っており、実質的により高い深さ値を持つセクションに遭遇する場合には、閾値は、スキャン中に遭遇した深さ値に基づいてこのセクションのために選択されることができる。次に、(スキャン方向において)このセクションの下及び上の深さ値は、すなわち他のセクションが存在しない限り、概して第1深さマップに存在するグローバル深さプロファイルを反映する。この処理は、右上隅において断面50のために背景傾斜に沿って深さ値を拡張することによって、図3D中に視覚化される。ここで、深さ値の「不連続」が表されており、それは画像中の色及び/又は輝度の不連続に対応する。
Figure 0005587894
上に示されるように、より高次元の双方向グリッド領域において第2深さマップを生成するために使用される双方向フィルタを定式化することによって、深さマップ生成は、より効率的になる。しかしながら、この特定の実施態様はさらに、双方向フィルタのこの特定の定式化が追加の輝度(又は色)次元における追加的な分離を提供するので、更なる利点を提供する。次にこれは、図3Dにおいて例証されるように、単一のスキャンが用いられることができ、輝度(又は色)類似性を有する各々のそれぞれのセクションが、個別に処理されることができることを意味する。結果として、この特定の実施態様は、不連続を明示的に検出する必要性がもはや存在しないというボーナス効果を提供する。
図1の方法は、図5にさらに示される。図5は、本発明による方法を用いて処理された一連の画像セクションを示す。画像510は入力画像のセクションからなり、この特定のセクションは、いくつかの氷山の景色のビューに対応し、画像510の最下部は前景に対応し、画像の最上部は背景に対応する。
傾斜に基づく第2深さマップが画像520に提供され、この傾斜は続いて、第1深さマップ及び画像の輝度の両方を用いた双方向フィルタを用いてフィルタリングされる。続いて、画像530は、第1及び第2深さマップの最大と対応する中間値に対応する画像を提供する。
深さ印象をさらに強調するために、本発明は、図3Cに示される例に沿って、第1深さマップと第2深さマップとの間の差を、ここでは係数2によって強調することを提案する。結果として生じる画像540は、特に、氷山の一部が、その後ろの空と比べて前方に移動される点において、画像530にわたる若干の改善を示す。
画像550は、ここでは係数4によって強調される同じ手順を示す。結果として、前景オブジェクトについての深さ印象は、さらに改善される。
図2は、本発明による単眼情報を用いて画像205のための深さマップを生成するための装置200を示す。装置200は、画像を受信するために配置される受信手段210を含む。明確性のために、例は単一画像だけのための深さマップの生成を参照して議論されるが、これは、画像シーケンスのための深さマップの生成のために変更されることができることは、当業者にとって明らかである。実際、本発明による装置は、好ましくは、例えば画像情報及び深さ情報の並列ストリームを含む三次元ビデオ信号への単眼画像シーケンスの2D-3D変換に適した装置である。
装置200はさらに、処理手段220を含む。そのような処理手段は一般に、例えば、汎用処理プラットフォーム、デジタル・シグナル・プロセッサ及び/又は特定用途向け集積回路を用いた、様々な態様において実施されることができる。処理手段200は、画像205のための第1深さマップを生成するように構成される。第1深さマップは、画像中に表されるシーンのグローバル深さプロファイルの推定値に対応する。
処理手段はさらに、画像のための第2深さマップを生成するように構成される。第2深さマップ中の深さ値は、典型的に、画像中の単一のピクセルと関連しているが、深さマップの解像度は、本発明の特定の実施の形態において、画像205の解像度と比較してサブサンプリングされることができる。
特定の画像ピクセルに関連する第2深さマップ中の深さ値は、その画像ピクセルに空間的に隣接した領域内の第1深さマップの深さ値に基づく。加えてそれは、その領域内の画像ピクセルの色又は輝度値に基づく。結果として、第2深さマップは、第1深さマップに存在するグローバル深さ情報に比べて局所的な深さ情報を含むことができる。
処理手段はさらに、第1深さマップ及び第2深さマップからの深さ値を用いて画像205のための第3深さマップ215を生成するように構成される。第3深さマップ中の深さ値を生成するときに、第1及び第2深さマップの間の多くの場合微妙な深さの差はスケーリングされる。結果として、第3深さマップの特定の深さ値と第1深さマップの対応する深さ値との間の特定の差は、第2深さマップの深さ値と第1深さマップの深さ値との間の対応する差と比べてスケーリングされる。
オプションとして、装置200は、第3深さマップを取り扱うための追加的なソフトウェア/ハードウェア手段をさらに有することができる。
例えば、第3深さマップ215は、その後、装置200中でさらに処理されることができ、あるいは、後の使用のために記憶手段230に記憶されることができる。あるいは、第3深さマップは、好ましくは画像205と共に、符号化手段240によって三次元画像信号へと符号化されることができる。そして、そのような符号化された画像信号は、記憶手段230に記憶されることができ、又は、例えばIPプロトコルのようなプロトコルを用いて、例えばケーブル若しくはRFによる伝送のための送信手段250によって、送信されることができる。
更にあるいは、第3深さマップは、レンダリング手段260による1つ以上のビューのレンダリングのために、好ましくは画像205と共に入力として機能することができる。次に、レンダリングされたビューは、三次元(自動)立体視ディスプレイ手段270に出力されることができる。
いうまでもなく、明確性のための前記説明は、さまざまな機能ユニットを参照して本発明の実施の形態を説明した。しかしながら、それぞれの機能ユニット(又はプロセッサ)間での任意の適切な機能の分配が本発明を損なわずに用いられることができることは明らかである。例えば、別々のプロセッサ又はコントローラによって実行されるとして説明された機能が、同じプロセッサ又はコントローラによって実行されることができる。したがって、特定の機能ユニットへの参照は、単に説明された機能を提供するための適切な手段への参照として考えられ、厳密な論理的若しくは物理的構造又は機構を示すのではない。
本発明は、ハードウェア、ソフトウェア、ファームウェア又はこれらの任意の組み合わせを含む任意の適切な形式で実施されることができる。本発明は、オプションとして、少なくとも部分的に、1つ以上のデータプロセッサ及び/又はデジタル・シグナル・プロセッサ上で動作しているコンピュータ・ソフトウェアとして実施されることができる。本発明の実施の形態の要素及びコンポーネントは、任意の適切な態様で、物理的に、機能的に及び論理的に実施されることができる。実際、機能は、単一のユニットにおいて、複数のユニットにおいて、又は他の機能ユニットの一部として、実施されることができる。このように、本発明は、単一のユニットで実施されることができて、又は異なるユニット及びプロセッサの間で物理的に及び機能的に分配されることができる。
本発明がいくつかの実施の形態に関連して説明されたが、本願明細書において述べられた特定の形式に制限されることは意図されない。むしろ、本発明の範囲は、添付の請求の範囲によってのみ制限される。加えて、ある特徴が特定の実施の形態に関連して説明されると思われるかもしれないが、当業者は、説明された実施の形態のさまざまな特徴が本発明に従って組み合わせられることができることを認識する。請求の範囲において、「有する」「含む」などの用語は、他の要素又はステップの存在を除外しない。
さらに、個別に記載されるが、複数の手段、要素又は方法ステップは、例えば単一のユニット又はプロセッサによって実施されることができる。さらに、個々の特徴が異なる請求項中に含まれる場合があるが、これらは有利に組み合わせられることができ、異なる請求項中に包含されることは、特徴の組み合わせが利用できない及び/又は有利ではないことを意味しない。また、請求項の1つのカテゴリ中にある特徴が含まれることは、このカテゴリへの限定を意味せず、この特徴が必要に応じて他の請求項カテゴリにも等しく適用可能であることを示す。さらに、請求項中の特徴の順序は、その特徴が動作しなければならない任意の特定の順序を意味せず、特に、方法クレーム中の個々のステップの順序は、ステップがこの順序で実行される必要があることを意味しない。むしろ、ステップは、任意の適切な順序で実行されることができる。加えて、単数形の参照は、複数を除外しない。"a"、 "an"といった冠詞、"第1", "第2"などは、複数を除外しない。請求の範囲中の参照符号は、単に明確な例として提供され、如何なる態様においても、請求の範囲を制限するものとして解釈されてはならない。

Claims (16)

  1. 単眼情報を用いて画像の深さマップを生成する方法であって、当該方法は、
    前記画像の第1深さマップを生成し、前記第1深さマップは、前記画像中に表されるシーンのグローバル深さプロファイルの推定値に対応し、
    当該方法はさらに、前記画像の第2深さマップを生成し、前記第2深さマップ中のピクセルに関連付けられる深さ値は、当該ピクセルに空間的に隣接する領域内の前記第1深さマップの深さ値並びに前記領域内の前記画像の色及び輝度値のうちの少なくとも一方に基づき、
    当該方法はさらに、前記第1深さマップ及び前記第2深さマップからの深さ値を用いて前記画像の第3深さマップを生成し、当該生成は、第3及び第1深さマップの深さ値の間の差が、第2及び第1深さマップの深さ値の間の対応する差に比べてスケーリングされるように、深さ差をスケーリング
    前記第3深さマップの深さ値が、前記シーンの視点に最も近い深さに対応する深さ値に設定され、
    前記第1深さマップ中の対応する深さ値、及び
    前記第2深さマップからの対応する深さ値に基づく候補深さ値、
    のうちの1つから選択される、方法。
  2. 色及び輝度類似性のうちの少なくとも一方を有する空間領域中の複数のピクセルに対して深さ差がスケーリングされる、請求項1に記載の方法。
  3. 前記生成に伴う前記スケーリングが、深さ差を拡大する、請求項1に記載の方法。
  4. 前記第2深さマップの生成が、前記画像中の色及び輝度値の一方並びに前記第1深さマップの深さ値への双方向フィルタの適用を含む、請求項1に記載の方法。
  5. 前記候補深さ値は、前記第1深さマップからの深さ値に、前記第1深さマップからの深さ値及び前記第2深さマップからの対応する深さ値の加重差を加えたものである、請求項に記載の方法。
  6. 前記候補深さ値は、前記第1深さマップからの深さ値に空間的に近い深さ値に基づく閾深さ値である、請求項に記載の方法。
  7. 前記画像が画像シーケンスの一部であり、前記グローバル深さプロファイルの推定値が、ショット中の全ての画像に対して同一である、請求項1から請求項のいずれか一項に記載の方法。
  8. 前記画像が画像シーケンスの一部であり、前記グローバル深さプロファイルの推定値が、ショットの複数の画像に基づいて決定される、請求項1から請求項のいずれか一項に記載の方法。
  9. 単眼情報を用いて画像の深さマップを生成する装置であって、当該装置は、
    前記画像を受信する受信手段、及び処理手段を有し、当該処理手段は、
    前記画像の第1深さマップを生成し、前記第1深さマップは、前記画像中に表されるシーンのグローバル深さプロファイルの推定値に対応し、
    当該処理手段はさらに、前記画像の第2深さマップを生成し、前記第2深さマップ中のピクセルに関連付けられる深さ値は、当該ピクセルに空間的に隣接する領域内の前記第1深さマップの深さ値並びに前記領域内の前記画像の色及び輝度値のうちの少なくとも一方に基づき、
    当該処理手段はさらに、前記第1深さマップ及び前記第2深さマップからの深さ値を用いて前記画像の第3深さマップを生成し、当該生成は、第3及び第1深さマップの深さ値の間の差が、第2及び第1深さマップの深さ値の間の対応する差に比べてスケーリングされるように、深さ差をスケーリング
    前記第3深さマップの深さ値が、前記シーンの視点に最も近い深さに対応する深さ値に設定され、少なくとも、
    前記第1深さマップ中の対応する深さ値、及び
    前記第2深さマップからの対応する深さ値に基づく候補深さ値、
    から選択されるように、前記処理手段が構成される、装置。
  10. 色及び輝度類似性のうちの少なくとも一方を有する空間領域中の複数のピクセルに対して深さ差がスケーリングされるように前記処理手段が構成される、請求項に記載の装置。
  11. 前記候補深さ値は、前記第1深さマップからの深さ値に、前記第1深さマップからの深さ値及び前記第2深さマップからの対応する深さ値の加重差を加えたものであるように、前記処理手段が構成される、請求項に記載の装置。
  12. 前記画像が画像シーケンスの一部であり、前記グローバル深さプロファイルの推定値が、ショット中の全ての画像に対して同一である、請求項から請求項11のいずれか一項に記載の装置。
  13. 前記画像が画像シーケンスの一部であり、前記グローバル深さプロファイルの推定値が、ショットの複数の画像に基づいて決定される、請求項から請求項11のいずれか一項に記載の装置。
  14. 単眼情報を用いて画像の深さマップを生成するための、コンピュータ可読媒体上のコンピュータプログラムであって、請求項1から請求項のいずれか一項に記載の方法を実行するための命令を含むコンピュータプログラム。
  15. 単眼情報を用いて画像の深さマップを生成する方法であって、当該方法は、
    前記画像の第1深さマップを生成し、前記第1深さマップは、前記画像中に表されるシーンのグローバル深さプロファイルの推定値に対応し、
    当該方法はさらに、前記画像の第2深さマップを生成し、前記第2深さマップ中のピクセルに関連付けられる深さ値は、当該ピクセルに空間的に隣接する領域内の前記第1深さマップの深さ値並びに前記領域内の前記画像の色及び輝度値のうちの少なくとも一方に基づき、
    当該方法はさらに、前記第1深さマップ及び前記第2深さマップからの深さ値を用いて、第3深さマップの深さ値と第1深さマップの深さ値との間の差が、第2深さマップの深さ値と第1深さマップの深さ値との間の対応する差のスケーリングされた大きさとなるように、前記画像の前記第3深さマップを生成する、方法。
  16. 単眼情報を用いて画像の深さマップを生成する装置であって、当該装置は、
    前記画像を受信する受信手段、及び処理手段を有し、当該処理手段は、
    前記画像の第1深さマップを生成し、前記第1深さマップは、前記画像中に表されるシーンのグローバル深さプロファイルの推定値に対応し、
    当該処理手段はさらに、前記画像の第2深さマップを生成し、前記第2深さマップ中のピクセルに関連付けられる深さ値は、当該ピクセルに空間的に隣接する領域内の前記第1深さマップの深さ値並びに前記領域内の前記画像の色及び輝度値のうちの少なくとも一方に基づき、
    当該処理手段はさらに、前記第1深さマップ及び前記第2深さマップからの深さ値を用いて、第3深さマップの深さ値と第1深さマップの深さ値との間の差が、第2深さマップの深さ値と第1深さマップの深さ値との間の対応する差のスケーリングされた大きさとなるように、前記画像の前記第3深さマップを生成する、装置。
JP2011533916A 2008-11-04 2009-11-02 深さマップを生成するための方法及び装置 Expired - Fee Related JP5587894B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP08168248A EP2184713A1 (en) 2008-11-04 2008-11-04 Method and device for generating a depth map
EP08168248.6 2008-11-04
PCT/IB2009/054857 WO2010052632A1 (en) 2008-11-04 2009-11-02 Method and device for generating a depth map

Publications (2)

Publication Number Publication Date
JP2012507907A JP2012507907A (ja) 2012-03-29
JP5587894B2 true JP5587894B2 (ja) 2014-09-10

Family

ID=40394209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011533916A Expired - Fee Related JP5587894B2 (ja) 2008-11-04 2009-11-02 深さマップを生成するための方法及び装置

Country Status (7)

Country Link
US (1) US8447141B2 (ja)
EP (2) EP2184713A1 (ja)
JP (1) JP5587894B2 (ja)
KR (1) KR101625830B1 (ja)
CN (1) CN102203829B (ja)
TW (1) TWI524734B (ja)
WO (1) WO2010052632A1 (ja)

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120269458A1 (en) * 2007-12-11 2012-10-25 Graziosi Danillo B Method for Generating High Resolution Depth Images from Low Resolution Depth Images Using Edge Layers
US8731320B2 (en) * 2009-01-20 2014-05-20 Andre Leitao Image processing using a bilateral grid
US8947422B2 (en) * 2009-09-30 2015-02-03 Disney Enterprises, Inc. Gradient modeling toolkit for sculpting stereoscopic depth models for converting 2-D images into stereoscopic 3-D images
US8884948B2 (en) * 2009-09-30 2014-11-11 Disney Enterprises, Inc. Method and system for creating depth and volume in a 2-D planar image
US8502862B2 (en) 2009-09-30 2013-08-06 Disney Enterprises, Inc. Method and system for utilizing pre-existing image layers of a two-dimensional image to create a stereoscopic image
US9030469B2 (en) * 2009-11-18 2015-05-12 Industrial Technology Research Institute Method for generating depth maps from monocular images and systems using the same
US9042636B2 (en) 2009-12-31 2015-05-26 Disney Enterprises, Inc. Apparatus and method for indicating depth of one or more pixels of a stereoscopic 3-D image comprised from a plurality of 2-D layers
US20110157155A1 (en) * 2009-12-31 2011-06-30 Disney Enterprises, Inc. Layer management system for choreographing stereoscopic depth
US20130286017A1 (en) * 2010-05-07 2013-10-31 David MARIMÓN SANJUAN Method for generating depth maps for converting moving 2d images to 3d
US8848038B2 (en) * 2010-07-09 2014-09-30 Lg Electronics Inc. Method and device for converting 3D images
US9571811B2 (en) 2010-07-28 2017-02-14 S.I.Sv.El. Societa' Italiana Per Lo Sviluppo Dell'elettronica S.P.A. Method and device for multiplexing and demultiplexing composite images relating to a three-dimensional content
IT1401367B1 (it) * 2010-07-28 2013-07-18 Sisvel Technology Srl Metodo per combinare immagini riferentesi ad un contenuto tridimensionale.
WO2012016600A1 (en) * 2010-08-06 2012-02-09 Trident Microsystems, Inc. Method for generating of a depth map, method for converting a two-dimensional image sequence and device for generating a stereoscopic image
TWI472218B (zh) * 2011-02-11 2015-02-01 Chunghwa Picture Tubes Ltd 立體影像產生裝置及其方法
US20120293489A1 (en) * 2011-05-20 2012-11-22 Himax Technologies Limited Nonlinear depth remapping system and method thereof
AU2011203028B1 (en) * 2011-06-22 2012-03-08 Microsoft Technology Licensing, Llc Fully automatic dynamic articulated model calibration
JP5155462B2 (ja) * 2011-08-17 2013-03-06 株式会社スクウェア・エニックス・ホールディングス 動画配信サーバ、動画再生装置、制御方法、プログラム、及び記録媒体
JP2015503253A (ja) * 2011-10-10 2015-01-29 コーニンクレッカ フィリップス エヌ ヴェ 深度マップの処理
US9471988B2 (en) 2011-11-02 2016-10-18 Google Inc. Depth-map generation for an input image using an example approximate depth-map associated with an example similar image
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US9661307B1 (en) * 2011-11-15 2017-05-23 Google Inc. Depth map generation using motion cues for conversion of monoscopic visual content to stereoscopic 3D
US9161010B2 (en) 2011-12-01 2015-10-13 Sony Corporation System and method for generating robust depth maps utilizing a multi-resolution procedure
WO2013086601A1 (en) * 2011-12-12 2013-06-20 The University Of British Columbia System and method for determining a depth map sequence for a two-dimensional video sequence
US8682087B2 (en) * 2011-12-19 2014-03-25 Cisco Technology, Inc. System and method for depth-guided image filtering in a video conference environment
US20130176300A1 (en) * 2012-01-10 2013-07-11 Thomson Licensing Disparity maps in uniform areas
US20130202194A1 (en) * 2012-02-05 2013-08-08 Danillo Bracco Graziosi Method for generating high resolution depth images from low resolution depth images using edge information
US9111350B1 (en) 2012-02-10 2015-08-18 Google Inc. Conversion of monoscopic visual content to stereoscopic 3D
WO2013124312A1 (en) 2012-02-21 2013-08-29 Tp Vision Holding B.V. Object-aligned filtering method and apparatus
CN103392189B (zh) 2012-02-23 2017-10-31 史克威尔·艾尼克斯控股公司 动态图像传输服务器、动态图像播放装置以及控制方法
TWI586143B (zh) * 2012-04-05 2017-06-01 皇家飛利浦電子股份有限公司 用於提供用於傳送至三維[3d]目標裝置之3d視訊信號之3d源裝置、方法及記錄載體以及用於自3d源裝置接收3d視訊信號之3d目標裝置
KR101536501B1 (ko) 2012-04-12 2015-07-13 신라 테크놀로지스, 인크. 동화상 배포 서버, 동화상 재생 장치, 제어 방법, 기록 매체, 및 동화상 배포 시스템
EP2839437B1 (en) * 2012-04-19 2019-01-23 Telefonaktiebolaget LM Ericsson (publ) View synthesis using low resolution depth maps
WO2014001062A2 (en) * 2012-06-26 2014-01-03 Ultra-D Coöperatief U.A. Device for generating a depth map
DE102012014174A1 (de) * 2012-07-16 2014-01-16 Rational Aktiengesellschaft Verfahren zur Anzeige von Parametern eines Garprozesses und Anzeigevorrichtung für ein Gargerät
LU92074B1 (en) 2012-09-18 2014-03-19 Iee Sarl Depth image enhancement method
KR101961943B1 (ko) * 2012-12-17 2019-03-26 엘지디스플레이 주식회사 3d 영상 데이터 생성방법과 이를 이용한 입체영상 표시장치
US9299152B2 (en) 2012-12-20 2016-03-29 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Systems and methods for image depth map generation
US9674498B1 (en) 2013-03-15 2017-06-06 Google Inc. Detecting suitability for converting monoscopic visual content to stereoscopic 3D
US10122992B2 (en) 2014-05-22 2018-11-06 Disney Enterprises, Inc. Parallax based monoscopic rendering
US9292926B1 (en) 2014-11-24 2016-03-22 Adobe Systems Incorporated Depth map generation
JP6782239B2 (ja) * 2015-01-06 2020-11-11 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc パターン光を用いた深さマップを提供するための方法およびシステム
US20170059305A1 (en) * 2015-08-25 2017-03-02 Lytro, Inc. Active illumination for enhanced depth map generation
US11328446B2 (en) 2015-04-15 2022-05-10 Google Llc Combining light-field data with active depth data for depth map generation
CN107534764B (zh) * 2015-04-30 2020-03-17 深圳市大疆创新科技有限公司 增强图像分辨率的***及方法
US10282623B1 (en) * 2015-09-25 2019-05-07 Apple Inc. Depth perception sensor data processing
US9996933B2 (en) * 2015-12-22 2018-06-12 Qualcomm Incorporated Methods and apparatus for outlier detection and correction of structured light depth maps
EP3236657A1 (en) 2016-04-21 2017-10-25 Ultra-D Coöperatief U.A. Dual mode depth estimator
EP3389265A1 (en) 2017-04-13 2018-10-17 Ultra-D Coöperatief U.A. Efficient implementation of joint bilateral filter
EP3396949A1 (en) * 2017-04-26 2018-10-31 Koninklijke Philips N.V. Apparatus and method for processing a depth map
WO2019061064A1 (zh) * 2017-09-27 2019-04-04 深圳市大疆创新科技有限公司 图像处理方法和设备
US20190340776A1 (en) * 2018-05-04 2019-11-07 Qualcomm Incorporated Depth map interpolation using generalized likelihood ratio test parameter estimation of a coded image
US10699430B2 (en) 2018-10-09 2020-06-30 Industrial Technology Research Institute Depth estimation apparatus, autonomous vehicle using the same, and depth estimation method thereof
CN111383257B (zh) * 2018-12-29 2024-06-07 顺丰科技有限公司 一种车厢装卸率确定方法和装置
CN111583324B (zh) * 2019-02-19 2023-11-28 顺丰科技有限公司 单目图像深度估测装载率识别方法和装置
CN110378853B (zh) * 2019-07-11 2021-03-26 Oppo广东移动通信有限公司 深度图处理方法和装置
KR102306432B1 (ko) * 2019-12-02 2021-09-30 한국전자기술연구원 내시경 영상에 대한 깊이 추정 방법 및 장치
CN113938665B (zh) * 2020-07-14 2023-10-13 宏达国际电子股份有限公司 用于传输缩减的深度信息的方法和电子装置
CN111932576B (zh) * 2020-07-15 2023-10-31 中国科学院上海微***与信息技术研究所 一种基于深度相机的物体边界测量方法和装置
US11688090B2 (en) 2021-03-16 2023-06-27 Toyota Research Institute, Inc. Shared median-scaling metric for multi-camera self-supervised depth evaluation

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6999087B2 (en) * 2002-03-12 2006-02-14 Sun Microsystems, Inc. Dynamically adjusting sample density in a graphics system
US6975329B2 (en) * 2002-12-09 2005-12-13 Nvidia Corporation Depth-of-field effects using texture lookup
US7738725B2 (en) * 2003-03-19 2010-06-15 Mitsubishi Electric Research Laboratories, Inc. Stylized rendering using a multi-flash camera
JP4366634B2 (ja) * 2003-08-08 2009-11-18 ノーリツ鋼機株式会社 ノイズ画素マップ作成方法とその方法を実施する装置とプログラム及び写真プリント装置
JP4214976B2 (ja) * 2003-09-24 2009-01-28 日本ビクター株式会社 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム
KR20060129371A (ko) * 2004-02-03 2006-12-15 코닌클리케 필립스 일렉트로닉스 엔.브이. 깊이 맵의 생성
WO2006003577A1 (en) * 2004-06-29 2006-01-12 Koninklijke Philips Electronics N.V. Creating a depth map
EP2087466B1 (en) * 2006-11-21 2020-06-17 Koninklijke Philips N.V. Generation of depth map for an image
CN100559398C (zh) * 2007-06-19 2009-11-11 北京航空航天大学 自动的深度图像配准方法
US7675024B2 (en) * 2008-04-23 2010-03-09 Aptina Imaging Corporation Method and apparatus providing color filter array with non-uniform color filter sizes
KR101502365B1 (ko) * 2008-11-06 2015-03-13 삼성전자주식회사 삼차원 영상 생성기 및 그 제어 방법

Also Published As

Publication number Publication date
EP2347386A1 (en) 2011-07-27
US20110210969A1 (en) 2011-09-01
KR20110093829A (ko) 2011-08-18
TWI524734B (zh) 2016-03-01
WO2010052632A1 (en) 2010-05-14
TW201029443A (en) 2010-08-01
CN102203829A (zh) 2011-09-28
EP2184713A1 (en) 2010-05-12
CN102203829B (zh) 2013-11-06
KR101625830B1 (ko) 2016-05-31
JP2012507907A (ja) 2012-03-29
US8447141B2 (en) 2013-05-21

Similar Documents

Publication Publication Date Title
JP5587894B2 (ja) 深さマップを生成するための方法及び装置
Tam et al. 3D-TV content generation: 2D-to-3D conversion
CN109360235B (zh) 一种基于光场数据的混合深度估计方法
Battisti et al. Objective image quality assessment of 3D synthesized views
US9137512B2 (en) Method and apparatus for estimating depth, and method and apparatus for converting 2D video to 3D video
US9094675B2 (en) Processing image data from multiple cameras for motion pictures
CN109462747B (zh) 基于生成对抗网络的dibr***空洞填充方法
Mao et al. Expansion hole filling in depth-image-based rendering using graph-based interpolation
TW201315209A (zh) 呈現立體影像之系統及方法
Bonnard et al. High-dynamic range video acquisition with a multiview camera
KR20140126826A (ko) 키넥트 기반 실시간 다시점 영상 생성 방법
Ji et al. An automatic 2D to 3D conversion algorithm using multi-depth cues
JP4862004B2 (ja) 奥行きデータ生成装置及び奥行きデータ生成方法ならびにそのプログラム
KR101302431B1 (ko) 2차원 영상을 스테레오 영상으로 변환하는 방법
US9787980B2 (en) Auxiliary information map upsampling
KR101207862B1 (ko) 2차원 영상을 스테레오 영상으로 변환하는 방법
Bharathi et al. 2D-to-3D Conversion of Images Using Edge Information
JP5254297B2 (ja) 画像処理装置
Wang et al. A novel approach for depth image based rendering, based on non-linear transformation of depth values
Muddala et al. Edge-preserving depth-image-based rendering method
Iyer et al. A novel approach to depth image based rendering based on non-uniform scaling of depth values
JP3992607B2 (ja) 距離画像生成装置および方法並びにそのためのプログラムおよび記録媒体
Vázquez et al. A non-conventional approach to the conversion of 2D video and film content to stereoscopic 3D
Adhikarla et al. View synthesis for lightfield displays using region based non-linear image warping
Tian et al. Upsampling range camera depth maps using high-resolution vision camera and pixel-level confidence classification

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130709

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20131008

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20131016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140724

R150 Certificate of patent or registration of utility model

Ref document number: 5587894

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees