JP5243612B2 - 中間画像合成およびマルチビューデータ信号抽出 - Google Patents

中間画像合成およびマルチビューデータ信号抽出 Download PDF

Info

Publication number
JP5243612B2
JP5243612B2 JP2011529470A JP2011529470A JP5243612B2 JP 5243612 B2 JP5243612 B2 JP 5243612B2 JP 2011529470 A JP2011529470 A JP 2011529470A JP 2011529470 A JP2011529470 A JP 2011529470A JP 5243612 B2 JP5243612 B2 JP 5243612B2
Authority
JP
Japan
Prior art keywords
image
boundary
foreground
intermediate image
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011529470A
Other languages
English (en)
Other versions
JP2012504805A (ja
Inventor
アリョーシャ スモリック
カルステン ミューラー
クリスティーナ ディクス
Original Assignee
フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ filed Critical フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
Publication of JP2012504805A publication Critical patent/JP2012504805A/ja
Application granted granted Critical
Publication of JP5243612B2 publication Critical patent/JP5243612B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/29Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding involving scalability at the object level, e.g. video object layer [VOL]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/543Motion estimation other than block-based using regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は中間画像合成およびマルチビューデータ信号抽出/創出に関する。
3Dビデオ(3DV)は、視聴者に観察されたシーンの奥行知覚を提供する。これはステレオとも呼ばれるが、2つの映像を使用する古典的技術に制限される用語である。近年では、3DVは、携帯電話から3Dシネマまでシステムおよび応用にわたって急速に注目を増加させている(参考文献25)。技術は、カメラシステムから3Dディスプレイまでの全ての処理連鎖をカバーするように成熟している。意識および関心は、コンテンツ・プロバイダ、機材製造者および販売業者を含む事業側と同様に幅のある視覚を経験したいと思っている消費者側にも増大している。
3D奥行き印象をつくるには、3Dディスプレイを見ている視聴者がそれぞれの目で異なる画像を見ることが必要である。これらの画像は、人間の目の間隔を有する異なる視点からとられるイメージに対応しなければならない。換言すれば、ユーザに観察された風景の自然な奥行き感覚を提供するには、それぞれの目が同時に与えられるステレオ対のうちの1つの画像を見るだけであるような特別の3D視覚技術が必要である(参考文献17)。過去において、ユーザは、特定の眼鏡(アナグリフ、偏光、シャッタ)をかけなければならなかった。限られた視覚品質と共に、これは家庭のユーザ環境の3DVシステムの広い成功のための主障壁と考えられており、その一方で、3Dシネマのような他のタイプの応用はそれらの高い視覚品質のため年を追って急速に成長していると思われる。より正確には、3Dディスプレイは、同時に2つ以上の画像を放射して、視聴者が一定の視点から常にこの種のステレオ対を見ることを確実にする(参考文献17)。アナグリフ、偏光またはシャッタ技術に基づく特定の眼鏡は、従来これを達成するのに必要だったが、今日でも広範囲にわたる応用に適当である。例えば、(例えば、IMAX(商標)シアターのような)眼鏡に基づく3Dシネマの応用は確立されている。映画館において、ユーザは、移動する可能性の少ない椅子に座り、通常ほぼ完全に上映されている映画に注意を払っている。眼鏡をかけることはこのようなシナリオにおいて広く受け入れられており、運動視差は大きい問題でない。眼鏡に基づくディスプレイ技術を有する3D映画は、年を追って標準規格になることを期待している。この市場は更に成長すると思われ、ますます多くの映画が3Dの可能な劇場のための3Dバージョンと同様に古典的映画館のための2Dにおいても製作される。これがユーザの認識を広げ、受け入れて、家庭の3DV応用のための需要を引き起こすことが期待される。
しかしながら、リビングルーム環境において、ユーザの期待は非常に異なる。眼鏡をかける必要は、家庭のユーザ環境における3Dビデオの成功のための主障壁と思われる。現在、これは、マルチビュー自動立体ディスプレイによって克服されている(参考文献17)。いくつかの画像が同時に放射されるが、技術は、確実にユーザが一定の視点からステレオ対を見るだけであることを確実にしている。3Dディスプレイは今日市場におかれ、同時に9つ以上の異なる画像を示すことができ、その中のたった1つのステレオ対が一定の視点から見える。このマルチ・ユーザを相手にして、眼鏡のない3D知覚が、例えばリビングルームにおいて可能になる。一群の人々は、我々が慣れている全ての社会的な相互関係で、普通のソファー−TV環境において、眼鏡なして3D映画を享受することができる。歩き回るときに、連続的な画像がステレオ対として適切に配置される場合、自然な運動視差印象はサポートされることができる。
しかしながら、わずかに異なる視点からの同じ3Dシーンの9つ以上の画像を家庭ユーザに送信することは極めて非効率的である。伝送コストは、さらなる価値を正当化できないだろう。幸いにも、他の3Dビデオ形式は、著しく生のデータレートを低下させることを可能にする。マルチビュービデオおよび深度(MVD)フォーマットを使用するとき、N個のディスプレイ画像のサブセットMだけが送信される。それらのM個のビデオストリームのために、付加的なピクセルごとの深度データが、補足説明として送信される。受信器において、レンダリングに基づく深度画像(DIBR)は、送信されたMVDデータからの全てのN個のディスプレイ画像を補間するために適用される(参考文献15)。
このように、マルチビュービデオおよび深度(MVD)フォーマットは、大幅に3DVシステムのための未加工のデータレートを低下させることを可能にする。N個のディスプレイ画像のサブセットMだけが送信される。さらに、深度データは、サブセットMのために送信される。送信されなかった画像は、送信データが与えられるレシーバで、中間画像補間によって生成されることができる(参考文献17)。
3DVシステムは、同時に多重画像を表示することによって、頭の運動視差をもって見ることをサポートすることができる。特に、例えば、傾斜したレンズ技術および9つの同時画像を有する高解像度の液晶画面は、フィリップスから市販されている(参考文献28)。3Dディスプレイでサポートされる頭の運動視差の原理は、図20において例示される。位置1のユーザは、それぞれ右および左の目で画像1および2だけを見る。位置3の他のユーザは画像6および7を見る。それゆえに、マルチ・ユーザが3Dで見ることがサポートされる。
ユーザが位置1から位置2へ移動すると仮定する。現在、画像2および3は、それぞれ右および左の目によって見える。V1およびV2が適当な人間の目の間隔の基準でのステレオ対であり、V2およびV3等もそうであれば、この種の3Dディスプレイシステムの前で移動するユーザは、それらの深度に応じた場面においてオブジェクトの開放および閉鎖をもって3D印象を把握するであろう。この運動視差印象は均一なものではなく、異なる位置の数はN−1に制限される。
より正確には、マルチビュー自動立体ディスプレイは、わずかに異なる視点から同じ3Dシーンを示しているN個の同期ビデオ信号を処理する。通常の2Dビデオと比較して、これは、未加工のデータレートの相当な増加である。隣接する視点から得られるビデオ信号の映像間予測を含む特定のマルチビュー映像符号化(MVC)が、すべてのビデオ信号(同時放送)の独立した符号化と比較して、全体のビットレートを20%低下させることができることが示された(参考文献20)。これは、1つのビデオビットレートの20%の減少がN倍になることを意味する。したがって、9画像ディスプレイに対して、MVCは、対応する1つのビデオビットレートの7.2倍を必要とする。このような増加は、3DV応用の成功に対して明らかに否定的である。さらに、MVCの全ビットレートがNとともに直線的に増加することが、参考文献20に示されている。したがって、もっと多くの映像を有するディスプレイは、より高い全ビットレートを必要とするであろう。最後に、MVCによって実行されるような伝送フォーマットにおいて画像の数を固定することは、現在および将来のいかなるタイプの3Dディスプレイのサポートに対して十分な柔軟性を提供しない。
A. Smolic, K. Muller, P. Merkle, C. Fehn, P. Kauff, P. Eisert, and T. Wiegand, "3D Video and Free Viewpoint Video - Technologies, Applications and MPEG Standards", ICME 2006, IEEE International Conference on Multimedia and Expo, Toronto, Ontario, Canada, July 2006. R. Koch, M. Pollefeys and L. Van Gool, "Multi Viewpoint Stereo from Uncalibrated Video Sequences", Proc. European Conference on Computer Vision, ECCV'98, LNCS, Springer-Verlag, Freiburg, 1998. P. Kauff, N. Atzpadin, C. Fehn, M. Muller, O. Schreer, A. Smolic, and R. Tanger, "Depth Map Creation and Image Based Rendering for Advanced 3DTV Services Providing Interoperability and Scalability", Signal Processing: Image Communication. Special Issue on 3DTV, February 2007. HYPERLINK "http://www.philips.com/3Dsolutions" www.philips.com/3Dsolutions. - last visited 31/03/2008 P. Merkle, A. Smolic, K. Mueller, and T. Wiegand, "Efficient Prediction Structures for Multiview Video Coding", invited paper, Proc. IEEE Trans. on Circuits and Systems for Video Technology, Vol. 17, No. 11, November 2007.
2画像ディスプレイ(または、少数の画像ディスプレイ)に対して、拡張機能性とともに高い圧縮効率の両方を提供するために、異なるアプローチが示された。ステレオ映像対を送信する代わりに、1つの映像および関連するピクセルごとの深度マップが用いられる。深度マップは、映像信号のそれぞれのピクセルにシーン深度値を割り当て、それにより、3Dシーン記述を提供する。深度マップは、単色の映像信号として扱われ、利用できるビデオ・コーデックを用いて符号化されることができる。このように、映像および深度(V+D)は、3DVデータフォーマットとして定義される(参考文献7)。MPEG−Cパート3として公知の対応する基準は、最近MPEGによって公開された(参考文献11、12)。復号化V+Dから、レシーバは、DIBRによってステレオ対として第2の画像を生成することができる。実験は、深度データがほとんどの場合非常に能率的に圧縮されることができることを示した。対応するカラー映像のために必要なビットレートのわずか10〜20%くらいが、十分な品質で深度を圧縮するのに必要である。これは、あたかも2つの画像信号がその代わりに送信されるかのように、この復号化深度を用いてレンダリングされた最終的なステレオ対が同じ視覚品質のものであることを意味している。しかしながら、DIBRはアーチファクトを導くことが知られている。仮想画像を生成することは、イメージコンテンツのいくらかの外挿を必要とする。仮想視点から、3Dの部分が見えるようになり、それは利用できるオリジナルの映像におけるフォアグラウンドオブジェクトの後ろにふさがれる。仮想視点が最初のカメラ位置に近い場合(例えば図20のV1およびV2に対応する)、カバーされていないイメージ領域のマスキングは限られたアーチファクトで功を奏する。したがって、V+Dは、少数の画像を有する3Dディスプレイのための優れたコンセプトである。しかしながら、仮想視点の間隔の増加と共に、外挿アーチファクトは増加する。したがって、V+Dのコンセプトは、多数の画像を備える3DVシステムおよび広範囲にわたる運動視差サポートに適していない。
その結果、MVCもV+Dも、多数の画像を備える高度な三次元ディスプレイ・システムに役立たない。解決策は、図20に示したように、MVDに対する拡張および組合せである。9画像V1−V9が示される。MVCによる直接の符号化は、非常に非効率的である。例えばV5+D5のような深度マップを有する1つの画像だけを送信することは、外観の容認できない品質をもたらす結果となる。MVDフォーマットを用いて、深度マップを有するM=3の画像のサブセットは、レシーバに対して発信される。中間画像V2−V4およびV6−V8は、DIBRによって生成される。それらは、外挿エラーを最小化するために、利用できるオリジナルの図に十分に近い。さらに、それらは、2つの方向(左右の隣接する画像)から補間されることができ、そのため、カバーされないことの問題は大きく最小化されることができる。たとえば、左の画像においてふさがれる仮想画像のために生成される領域は、右の画像において見える可能性が高い。しかしながら、パーツが両方のオリジナルの画像においてふさがれて、最後に外挿される可能性がまだある。
この進歩的な3DVシステムのコンセプトは、部分的に未解決で、研究を必要とする多くの高度な処理ステップを含む。マルチカメラシステム、おそらく深度キャプチャ装置、他のタイプのサポートするセンサおよび構造光のような情報源を含む捕捉システムはまだ開発および最適化されなければならない(参考文献8、22)。発信者側信号処理は、例えばカメラ較正、色補正、調整、区分、深度推定または生成などの多くの高度なアルゴリズムを含む。深度推定のいかなるエラーもレンダリングされた出力画像の品質を減じることになるため、後者はDIBRのために重要である。それはコンピュータービジョンの文献において広く研究される主題であり、それは半自動の処理を含む(参考文献16、18、26、29)。深度および設定/間隔を有する送信された画像の数を含む一般的な3DVフォーマットの最適パラメータ化はまだ研究される必要がある。MVDデータの最も効果的な圧縮はまだ分かっておらず、特に深度の最適処置はそうである。通常通り、伝送問題は、異なるチャネルのために考慮されなければならない。最後に、復号化の後、N個の出力画像が、復号化MVDデータの中からレンダリングされる。ここで、ほとんどアーチファクトのない高品質は、全てのコンセプトの成功のために不可欠である。
最後に、最小限の目立つアーチファクトしかない高品質の画像の補間は、3DVシステムの成功のための重要な偏見である。補間アーチファクトは、特に深度不連続性を有するオブジェクト境界に沿って発生する。したがって、このようなエッジに沿ったアーチファクトを回避することができる補間コンセプトを有することが好ましい。さらに、得られる3DV結果を著しく減少させたり維持したりすることなく、3DVのためのデータを格納するための圧縮比が低減できれば好ましい。
第1に、本発明の目的は、アーチファクトの減少および/またはマルチビューデータを提供するための高圧縮率を可能にする中間画像合成およびマルチビューデータ信号抽出のコンセプトを提供することである。
この目的は、請求項1および22のうちの1つに記載の装置、請求項35に記載のマルチビューデータ信号、および請求項36または請求項37に記載の方法によって達成される。
本発明の基礎をなしている基本概念は、非境界部と関連して従属するフォアグランド/バックグラウンド境界領域を扱うことが、異なる画像のイメージを投影し結合するときに、アーチファクトを回避するかまたは減らすのを助けるということであり、この知識が品質を保存している方法におけるマルチビューデータ信号から重要でない情報を削除するために用いることもできるということである。
このように、本発明の第1の態様によれば、第1の画像に対応する第1のイメージおよび第1の画像と異なる第2の画像に対応する第2のイメージから中間画像のイメージを合成するための中間画像合成は、その深度情報に基づいて第2のイメージのフォアグランド/バックグラウンド境界領域を検出することによって実行され、それに沿って拡張している領域としてフォアグランド/バックグラウンド境界領域を決定し、単に第1のイメージの少なくとも一部とともに第2のイメージの残りの部分を投影して結合することによって得られる予備中間画像のイメージにおけるホールを埋めるためだけにこの領域を使用する。この計測によって、それぞれのフォアグランド/バックグラウンド境界領域は、単に第2のイメージの残りの部分と関連して従属方法で使われ、従って、投影および結合の結果に負の影響を与えず、他方で、さもなければ発生しているホールを埋めることに貢献する。
本願の第2の態様によれば、第1の画像に対応する第1のイメージおよび第1の画像とは異なる第2の画像に対応する第2のイメージを含むマルチビュー表現からマルチビューデータ信号を抽出するためのマルチビューデータ信号抽出は、第2のイメージにおけるフォアグラウンド/バックグラウンド境界を検出することにより、フォアグラウンド/バックグラウンド境界に沿って延びるような第2のイメージの離れた部分を決定し、離れた境界部分のない第2のイメージの境界部分を第1のイメージに投影し、それによって、非閉塞領域を有する第2のイメージの投影バージョンを得ている。それから、第1のイメージの部分とともに第2のイメージはマルチビューデータ信号に挿入され、第1のイメージの部分の挿入は第2のイメージの投影バージョンの中の非閉塞領域の部分に対応している。たとえば、マルチビューデータ信号に挿入される第1のイメージの部分は、第2のイメージの投影バージョンの中の非閉塞領域の位置から決定される。
本発明の実施例によれば、フォアグラウンド/バックグラウンド境界領域は、その周囲のn−サンプルの広域を決定し、この領域を一方でフォアグラウンド境界部に、他方でバックグラウンド境界部に分割するフォアグランド/バックグラウンド境界を検出することによって得られ、バックグラウンド境界部は上述の離れた境界部を示し、上述のバックグラウンド境界部は単に予備中間画像のイメージにおいてホールを満たすために用いられる。
本発明の好ましい実施例は、図面を参照して下で説明される。
図1aは、本発明の一実施例による中間画像合成装置のブロック図である。 図1bは、本発明の他の実施例による中間画像合成装置のブロック図である。 図1cは、本発明の一実施例によるマルチビューデータ信号抽出装置を示す図である。 図2は、本発明の一実施例によるフォアグラウンド部(黒)、バックグラウンド部(白)および非境界領域(グレー値)への図示イメージのレイヤー割当てを示す図である。 図3は、実施例による2つの異なる映像の2つの非境界領域を投影して合成することにより得られる中間画像を示す図である。 図4は、実施例に従ってフィルタリングおよび/またはホール充填によってバックグラウンド境界部およびその除去後の外観を用いた投影−および−充填ステップの後に(左から右に)起こる異なるアーチファクトを示す図である。 図5は、実施例に従ってアーチファクト除去後の中間画像のイメージを示す図である。 図6は、9画像自動立体ディスプレイのためのステレオ対距離の5つの画像、すなわち、オリジナルのカメラ位置(左端および右端)の2つの画像および実施例によるバレエ(上部)およびブレイクダンサーのシーケンス(下部)を示す図である。 図7は、実施例による中間画像合成法の一連の方法ステップのシーケンスの図解図である。 図8aは、実施例に従って、2つの異なる画像の非境界部を投影し合成して得られる中間画像を示す図である。 図8bは、実施例に従って、フォアグランド/バックグラウンド境界領域の従属画像を示す図である。 図9は、本発明の一実施例により一方では単純に結合することおよび他方では中間画像合成による中間画像合成から得られる中間画像の詳細部分を示す図である。 図10は、本発明の一実施例によるLDVベースの3DTVコンセプトを示す図解図である。 図11は、一方では離れた境界部(白)および他方では残りの部分(灰色)にイメージを再分割した結果を示す図である。 図12は、離れた境界部を省略した2つの側面画像に中心画像イメージを投影して得られるイメージを示す図である。 図13は、実施例に従って、非閉塞領域を得るためにフィルタリングによって図12のイメージから1ピクセル幅の好ましくない深度値を除去することにより得られる2つのイメージを示す図である。 図14は、実施例に従って側面画像と図13の投影された中心画像との差を除去した結果を示す図である。 図15は、実施例による異なる残りのデータを示す図である。 図16は、実施例に従って、2つの側面画像の投影から得られる他の中間画像を示す図である。 図17は、実施例に従って、フィルタリング後の最終画像合成イメージ、すなわち、中心画像と左側の左残余データおよび中心画像と右側の右残余データとを加えた図である。 図18は、一方では単純に結合することによる中間画像合成および本発明の実施例による中間画像合成から得られる中間画像の詳細部分を示す図である。 図19は、LDVおよびMVDのための中間画像合成イメージの間の比較を示す図である。 図20は、MVDに基づく進歩的な3DTVコンセプトを示す図解図である。
図1aは、第1の画像V1に対応する第1のイメージ14および第1の画像V1と異なる第2の画像V2に対応する第2のイメージ16から中間画像イメージ12を合成するための中間画像合成装置10を示し、第1および第2のイメージは深度情報D1およびD2を含む。第1および第2のイメージ14および16は、深度情報D1およびD2に関連したモノクロまたは色情報V1およびV2を有する。特に、深度情報も色情報も両方とも、1ピクセルあたりのサンプル値を含むが、両方の空間分解能が異なってもよい。
第2のイメージ16は、図1aにおいて白部分として示される非境界部16aおよび図1aにおいて斜線で示されるフォアグラウンド/バックグラウンド境界領域に分割され、中間画像合成装置は、中間画像イメージ12を得るために第1のイメージ14および第2のイメージ16を投影して合成し、非境界部16aと関連して従属するフォアグランド/バックグラウンド境界領域16bを処理するように構成される。
以下に記載されている実施例によれば、中間画像合成装置10は、中間画像12に投影され合成されるために、さもなければ中間画像イメージ12に起こっているホールをフォアグランド/バックグラウンド境界領域16bの一部に対して共通の要素をもたない第2の画像16の共通の要素をもたない部分を用いて満たすためだけにフォアグラウンド/バックグラウンド境界領域16bの少なくとも一部を使用するように構成される。
図1bによれば、中間画像合成10の更なる実施例が更に詳細に記載されている。この実施例によれば、第2のイメージ16のフォアグランド/バックグラウンド境界領域16bは、フォアグラウンド境界部およびバックグラウンド境界部に分割され、バックグラウンド境界領域はホールを満たすために使用される前述の一部を形成する。このように、前述の部分は、バックグラウンド境界領域に対応することができる。
図1bの中間画像合成装置10は、第2のイメージ16のフォアグランド/バックグラウンド境界領域16bを検出するための手段としてのフォアグランド/バックグラウンド境界検出器18、および第2のイメージのフォアグラウンド/バックグラウンド境界領域16bをフォアグラウンド境界部16b1およびバックグラウンド境界部16b2に分割するための手段としてのフォアグラウンド/バックグラウンド再分割器20を含み、第2のイメージ16が非境界部16a、フォアグラウンド境界部16b1およびバックグラウンド境界部16b2に分割される。さらに、中間画像合成装置10は、矢印24で示される予備中間画像イメージを得るために、少なくとも第1のイメージ14の一部とともに、第2のイメージ16の非境界部16aおよびフォアグラウンド境界部16b1を中間画像に投影して合成するための投影および合成ステージ22を含む。
投影および充填ステージ26は、第2のイメージ16のバックグラウンド境界部16b2を中間画像に投影して、第2のイメージの投影されたバックグラウンド境界部によって予備中間画像イメージ24におけるホールを満たし、それにより中間画像イメージ12を得ることができるようにしている。
図1aおよび1bの実施例を比較すると、図1aの実施例においては、境界領域検出および分割がすでに実行され、それに関する情報は例えば副情報の形で第2のイメージ16bに関連するものとみなされるのに対して、図1bの場合には、境界領域検出および分割が装置において実行されることは明らかである。したがって、更なる実施例によれば、中間画像合成装置10は、マルチビューデータ信号から第2の画像の非境界部16a、フォアグラウンド境界部16b1およびバックグラウンド境界部16b2を区別するレイヤー情報を得るための手段を含むことができ、後の手段は図1bにおけるブロック18および20を置き換える。
点線によって図1bにおいて更に示されているように、中間画像合成装置10はおそらくまた、第1のイメージ14のフォアグランド/バックグラウンド境界領域を検出するための手段としてのフォアグランド/バックグラウンド境界検出器18´、および第1のイメージのフォアグラウンド/バックグラウンド境界領域をフォアグラウンド境界部およびバックグラウンド境界部に分割するための手段としてのフォアグランド/バックグラウンド再分割器20´を含む。換言すれば、中間画像合成装置10において、検出するための手段18は、第1のイメージ14のフォアグランド/バックグラウンド境界領域を検出するように構成されることができ、手段20は、第1のイメージ14のフォアグラウンド/バックグラウンド境界領域をフォアグラウンド境界部およびバックグラウンド境界部に分割するように構成されることができ、それにより、第1のイメージ14は非境界部、フォアグラウンド境界部およびバックグラウンド境界部に分割される。この場合、投影および結合ステージ22は、予備中間画像イメージ24を得るために、第1および第2のイメージ14および16の非境界部およびフォアグラウンド境界部を中間画像に投影し合成するように構成されることができ、投影および結合ステージ26は、第1および第2のイメージ14および16の投影されたバックグラウンド境界部分によって、第1および第2のイメージ14および16のバックグラウンド境界部を予備中間画像イメージ24に投影し、予備中間画像イメージ24のホールを満たすように構成されることができる。
別の実施例による中間画像合成装置10において、マルチビューデータ信号からレイヤー情報を得るための手段は、マルチビューデータ信号から、少なくとも第1のイメージの非境界部およびバックグラウンド境界部を区別するレイヤー情報を得ることができる。検出器18´および再分割器20´は不要である。中間画像合成装置10は、その代わりにちょうど言及された獲得者を含む。しかしながら、投影し合成するための手段22は、予備中間画像イメージ24を得るために、第2のイメージ12の非境界部16aおよびフォアグラウンド境界部16b1および第1のイメージ14の非境界部を中間画像に投影して合成するように構成され、投影し満たすための手段26は、第1および第2のイメージ14および16のバックグラウンド境界部を予備中間画像イメージ24のホールに投影し、第1および第2のイメージ14および16の投影されたバックグラウンド境界部によって予備中間画像イメージのホールを満たすように構成される。
あるいは、マルチビューデータ信号は、例えば、副情報として、第1のイメージ14の非境界部、フォアグラウンド境界部およびバックグラウンド境界部を区別するレイヤー情報を含むことができる。この実施例による中間画像合成装置10は、第1のイメージ14の非境界部、フォアグラウンド境界部およびバックグラウンド境界部を区別するこのレイヤー情報を得るための手段を含み、投影し合成するための手段22は、予備中間画像イメージ24を得るために、第1および第2のイメージ14および16の非境界部およびフォアグラウンド境界部を中間画像に投影して合成するように構成され、投影して満たすための手段26は、第1および第2の画像14および16のバックグラウンド境界部を予備中間画像シメージ24のホールに投影し、第1および第2のイメージ14および16の投影されたバックグラウンド境界部によって、予備中間画像イメージ24のホールを満たすように構成される。
検出器18は、例えば、フォアグランド/バックグラウンド境界領域16b2を表すエッジ周辺のn−サンプル広域部を有する深度情報D2においてエッジを検出するためのエッジ検出器を含む。再分割器20は、次に、このn−サンプル広域部をフォアグラウンド境界部およびバックグラウンド境界部に分割するように構成される。nは、例えば、3以上で、21以下とすることができる。例えば、再分割器20は、サンプル/ピクセルがフォアグラウンド境界部16b1またはバックグラウンド境界部16b2のどちらに帰属するかについて決定するために、フォアグランド/バックグラウンド境界領域16bのサンプル/ピクセルでの深度情報D2の深度を比較することによって分割を実行するように構成される。この点に関して、再分割器は、深度情報D2の深度値のうち、平均値または中央値のような中心傾向を計算することによって閾値を引き出すように構成される。特に、再分割器は、例えばフォアグランド/バックグラウンド境界領域16bに属しそれぞれのサンプル/ピクセルに隣接するような隣接するサンプル/ピクセルに基づいて、それぞれのサンプル/ピクセルに隣接するサンプル/ピクセルでの深度情報D2の深度値からフォアグランド/バックグラウンド境界領域16bのそれぞれのサンプル/ピクセルのための中心傾向を計算することによって、局所的に閾値を引き出すように構成される。
第1および第2のイメージ14および16が非境界領域および境界領域に分割される上述の実施例において、投影および結合ステージ22は、第1および第2のイメージ14および16の間の平均化を含む非境界部の結合をともなう非境界中間画像イメージを得るために、第1および第2のイメージ14および16の非境界部を中間画像に投影し結合するように構成され、非境界中間画像イメージ24のサンプルと、平均よりもむしろ第1および第2のイメージ14および16のフォアグラウンド境界部の投影によって得られる同一場所に存在するサンプルとの間の選択を含むフォアグラウンド境界部の結合をともなう非境界中間画像イメージ24に第1および第2のイメージ14および16のフォアグラウンド境界部を投影し結合するように構成される。
投影機構に関する限り、投影および結合ステージ22と投影および充填ステージ26とは、それぞれ、3D世界点を取得し、3D世界点を中間画像に投影するために、対応する深度情報D1およびD2を用いて2Dから3Dまでサンプルを投影することにより、中間画像にそれぞれの投影を実行するように構成される。特に、投影および結合ステージ22と投影および充填ステージ26とは、第1の画像および第2の画像の投影マトリクス間の補間によって投影マトリクスを計算し、投影マトリクスを用いて3D世界点の投影を実行するように構成される。事実上、投影および結合ステージ22と投影および充填ステージ26とは、二次元的に−またはピクセル空間において−サンプル位置を中間画像からの偏差に応じた量だけ変位することにより、中間画像にそれぞれの投影を実行するように構成される。もちろん、例えば、すべての画像が縦方向において互いに登録されたピクセルラインをもって、同じ倍率、解像度その他を用いて同時に記録されるため、面内変位は、例えば行/線方向に沿うような、一次元に沿って変位することに制限されてもよい。以下において、一般用語である面内または二次元変位が用いられ、それは一次元的に変位するように制限するという概説された可能性を含む。更なる二次元的な補間は、投影された位置/ピクセルを目標画像、すなわち中間画像のピクセルの規則的なグリッドにマッピングするために用いられる。結合は、単に目標画像イメージを得るために第1の画像の投影ピクセルおよび第2の画像の投影ピクセルの両方を使用することにより実行される。また、補間は、目標画像の1つの規則的なピクセルグリッドにこの投影ピクセルを結合させるために用いられる。
さらに、任意に、中間画像イメージ24の残りのホールへのフィルタリングおよび/または外挿によって中間画像イメージ24を向上させるためのエンハンサ28がありえる点に留意する必要がある。このようなエンハンサ28は、中間画像イメージ24のフォアグランド/バックグラウンド境界領域を検出し、中景画像24のフォアグランド/バックグラウンド境界領域の中でローパスフィルタリングを実行することによって、中間画像イメージを向上させることができる。
以下に、前述の実施例が説明され、ここで、第1および第2のイメージがMVDまたはLDVビデオの一部であり、いくつかの実施例において、中間画像合成装置は3DTVディスプレイシステムの一部である。しかしながら、その前に、能率的に多重画像を符号化するのに適する他の実施例が記載されている。
図1cは、第1の画像に対応する第1のイメージ34および第1の画像と異なる第2の画像に対応する第2のイメージ36を含むマルチビュー表現から矢印32で示されているようなマルチビューデータ信号を抽出するためのマルチビューデータ信号抽出器30を示し、第1および第2のイメージ34および36はそれぞれ深度情報D1およびD2を有している。マルチビューデータ信号抽出器30は、第2のイメージ36のフォアグランド/バックグラウンド境界40を検出するためのフォアグランド/バックグラウンド境界検出器38およびフォアグランド/バックグラウンド境界40に沿って第2のイメージ36の離れた境界部44を決定するための離れた境界部検出器42を含む。プロジェクタ46は、投影により非閉塞領域50を有する第2のイメージの投影バージョン48を得るために、バックグラウンドの離れた部分44のない第2のイメージ36を第1の画像に投影するために設けられる。インサータ52は、第2のイメージの投影バージョンの中の非閉塞領域の位置に応じて、第1のイメージ34の部分とともに第2のイメージをマルチビューデータ信号32に挿入するために、第2のイメージの投影バージョン48の中の非閉塞領域50の位置に対応する。
特に、マルチビューデータ信号抽出器30は、第2のイメージの投影バージョン48の範囲内の非閉塞領域50の位置からマルチビューデータ信号32に挿入される第1のイメージ34の部分を決定するための決定器54を含む。すなわち、決定器54は、第2のイメージの投影バージョン内で非閉塞領域50が広がり、または領域50によってふさがれている第1のイメージ34の領域としてマルチビューデータ信号32に挿入される第1のイメージ34の部分を決定する。
プロジェクタ46は、離れた境界部44のない第2のイメージ36を図1cに示されていない第3の画像に投影するが、第2の画像が第1および第3の画像の間にあるように選択されるように構成される。このようにして、非閉塞領域を有する第2のイメージの更なる投影バージョンが得られ、インサータ52は、第2のイメージの更なる投影バージョン内の非閉塞領域の位置に応じて、第2のイメージ36、第1のイメージ34の部分および第3のイメージの部分をマルチビューデータ信号32に挿入するように構成することができる。
インサータは、マルチビューデータ信号32に例えば副情報の形でレイヤー情報を挿入するように構成され、レイヤー情報は、少なくとも、非境界部56および第2のイメージ36のはなれた境界部44を区別する。
さらに、任意に、第2のイメージの投影および/または第2のイメージの投影バージョン48のフィルタリングから投影48によって得られる小さいホールを充填するためのステージ58は、プロジェクタ46およびインサータ52の間に効果的に接続される。
インサータ52は、例えば、第2のイメージの投影バージョン48の非閉塞領域50の位置に応じて決定器54によって選択された部分と共通の要素を持たない第1のイメージ34の残りの部分を破棄し、例えば、それぞれのピクセル値をデフォルト値にセットすることによって、マルチビューデータ信号32における破棄を示すように構成される。
検出器38は、フォアグランド/バックグラウンド境界検出器18の一部として前述したのと同様に、深度情報におけるエッジを検出するためのエッジ検出器を用いて、フォアグランド/バックグラウンド境界40を検出するように構成される。上述の離れた部分44を定めているバックグラウンド境界部については、検出器48は、フォアグラウンド境界部およびバックグラウンド境界部にエッジ周辺のn−サンプル広域部を分割するように構成される。フォアグラウンド部は、ここでは関係がなく、したがって、図1cに示されていない。このように、検出器48は図1bの再分割器20のように働き、スプリッティングと類似の検出器48は、サンプルがフォアクグラウンド境界部かバックグラウンド境界部に属するかどうかに関して決定するために、分割はn−サンプル広域部における深度情報と閾値とを比較して行われ、閾値は、上述のように、サンプル等に隣接するn−サンプル広域部のサンプルにおける深度情報の深度値の中心傾向を計算することによって得られる。図1bとの更なる対応において、プロジェクタ48は、3D世界点を取得し、3D世界点を中間画像に投影するために、関連する深度情報を用いて2Dから3Dにサンプルを投影することによって第1の画像にそれぞれの投影を実行するように構成される。特に、プロジェクタ46は、第1の画像および第2の画像の投影マトリクスの間を補間することによって投影マトリクスを計算し、投影マトリクスを用いて3D世界点の投影を実行するように構成される。通常、プロジェクタ46は、第1の画像から第2の画像の偏差に応じた量で二次元的にサンプル位置を変位させることによって中間の画像にそれぞれの投影を実行するように構成される。
装置30によって得られるマルチビューデータ信号32は、通常、第1の画像に対応する第1のイメージ34および第1の画像と異なる第2の画像に対応する第2のイメージ36を含み、第1および第2のイメージ34および36は深度情報D1およびD2を含む。しかしながら、単に第1のイメージ34の一部だけがマルチビューデータ信号32に含まれ、それと共通の要素をもたない部分がマルチビューデータ信号32において廃棄される。含まれる部分は、第2のイメージ36のフォアグランド/バックグラウンド境界40に沿って延びる離れた境界部44のない第2のイメージ36を第1の画像に投影することにより得られる第2のイメージ36の投影バージョン48の範囲内の非閉塞領域50の位置によって決まる。第1の画像34のちょうど言及された部分だけが挿入されるこのマルチビューデータ信号32は、図1aおよび1bに関して前述したような第1のイメージ14の一部であってもよく、第2のイメージの投影バージョンは結合される。
以下に示される高度な3DVシステムの解決法は、明細書の導入部分にて説明したように、MVDに対する拡張および組合せである。MVDに基づく高度な3DTVコンセプトを示す図20の実施例(Pos:視点、R:右目、L:左目、V:画像/イメージ、D:深度)において、M=3画像のサブセットだけがレシーバに伝送される。図解として役立つこれらの画像のために、サンプルの正確な深度マップは、発信者側で生成されるべきであり、映像信号と共に伝達されなければならない。このシナリオにおいて、各深度値は、オリジナルの映像の各サンプルに割り当てられる。深度マップは、図2に図示したように、グレースケールイメージとして取り扱われる。表示される他の全ての画像は、レシーバでDIBRによって生成される。
MVDフォーマットに基づくこのような3DVシステムの設計は、まだ研究を必要とする多くの困難で部分的に未解決の問題を含む。これは、マルチビューキャプチャ、深度推定/生成、(入力画像の数のような)システムのパラメータ化、深度データの効果的な圧縮、伝送およびレンダリングを含む。以下の実施例において、目標とするレシーバ側レンダリングが、実施例に従って説明される。
導入部分において示される3DVコンセプトは、レシーバでの高品質の中間画像の補間アルゴリズムの利用可能性に依存する。補間アーチファクトは、容認できない品質という結果になる。図20における例えば位置2からの実施例において、仮想の画像だけが見える。ステレオセットアップにおける典型的カメラ間隔は5cmである。これは、オリジナルの画像V1およびV5は、DIBRによって扱うのが困難である間隔である20cmにわたることを意味する。深刻なアーチファクトは、大きい深度不連続性を有するオブジェクト境界に沿って特に生成されることは知られている。一方では、滑らかな深度変化を有する領域は、仮想の中間画像に確実に投影されることができる。これは、深度不連続性および滑らかな深度領域を別々に処理することを意味する。深度不連続性は、エッジ検出アルゴリズムを用いて深度イメージの範囲内で容易に見つけることができる。
それ故、以下に示される補間プロセスは、レイヤー抽出(エッジ検出および信頼性が高い領域および境界領域への分離)、レイヤー投影(領域および融合の別れたDIBR)およびホール充填およびフィルタリング(修正、クリーンアップおよびフィルタリング)の3つの部分から構成される。階層化アプローチされたものと連動する考えは、自由視点ナビゲーションの応用に関する〔参考文献30〕においてすでに研究されており、そこにおいて、大きな深度不連続性に沿った特定の幅の境界レイヤーが抽出されている。以下の方法において、この考えは更に改良される。さらに、〔参考文献30〕の方法がレンダリングのための単純な幾何プリミティブ(三角形)とともに作動し、以下の実施例は単に画像ベースの3Dワープとともに働く。このように、3Dグラフィックスのサポートおよび形状モデリングは要求されない。下側に、若干の投影アーチファクトが導かれ、それは、以下に説明するように取り除かれる。
換言すれば、以下で、マルチスコープの三次元ディスプレイ上の映像のためのシステムが与えられ、そこにおいて、データ表現がマルチビュー映像プラスシーン深度で構成される。最高でも、3つのマルチビュー映像信号が伝送され、レシーバで中間画像を生成するために深度データと共に用いられる。信頼性の高いイメージ領域から深度不連続性に沿った信頼できないイメージ領域を分離する中間画像の補間などへのアプローチが与えられる。これらのイメージ領域は異なるアルゴリズムによって処理され、最終的に補間された画像を得るために融合させられる。以前の階層化アプローチと対照的に、2つの境界レイヤーおよび1つの信頼性の高いレイヤーが用いられる。さらに、提示された技術は、3Dグラフィック・サポートに依存せず、その代わりにイメージベースの3Dワープを使用している。向上した品質の中間画像の生成のために、ホール充填およびフィルタリング方法が記載されている。その結果、既存の9−画像自動立体視覚ディスプレイに対する高品質の中間画像が示され、それは向上した3D画像(3DV)システムのためのアプローチの適合性を証明している。
レンダリングアプローチの第1部において、レイヤー抽出、オリジナルの画像の信頼性の高いおよび信頼できない深度領域は区別される。原則として、レイヤー抽出は、図1bのモジュール18および20の機能に対応する。境界のサンプルは通常混合されたフォアグラウンド/バックグラウンドの色を有し、新規な画像への投影の後にアーチファクトを生成することができるため、オブジェクト境界に沿った領域は信頼できないとみなされる。さらに、深度推定からのエラーは、主にオブジェクト境界を歪める。したがって、〔参考文献30〕と同様に、重要な深度不連続性は、主および境界レイヤーをつくるために検出される。このために、深度画像上で作動するCannyのエッジ検出器[参考文献2]および検出されたエッジに沿った信頼できないものとして7−サンプル広域部をマークすることが使用される。〔参考文献30〕と対照的に、次のサブセクションに示すように、異なる処理を可能にするために、それぞれ白黒の領域として図2に示すように、この領域は、フォアグラウンドおよびバックグラウンド境界レイヤーに分割される。換言すれば、図2は、重要な深さ不連続性に沿ったレイヤー指定を示し、それは、フォアグラウンド境界レイヤー(黒)、バックグラウンド境界レイヤー(白)および主レイヤー(濃淡値)である。
この第2の部分、レイヤー投影は、画像補間アルゴリズムのメインブロックであって、図1bのステージ22および24の機能性に対応する。入力は、図2に示すような左および右側のオリジナルイメージ、関連する深度マップ、関連するカメラ較正情報、関連する分類情報である。両方の入力画像から異なって分類された領域は、別に仮想視覚位置に投影され、その結果は以下の信頼性基準に結合される。
中間画像の投影は、古典的イメージベースの3Dワープである。第1に、オリジナルの2D画像のサンプルは、関連する深度値およびカメラ較正情報を用いて3D空間に投影される。第2に、結果として得られる3D世界点は、生成される中間画像に前方投影される。仮想光景位置を定める第2のステップのための投影マトリクスは、位置に依存するパラメータλ∈[0・・・1]を用いて、関係する2つのオリジナル画像から補間され、ここで、例えばλ=0.5は中央位置を定める。これは、オリジナルのカメラの間の線形経路のいかなる位置に対しても、球面一次補間[参考文献24]によって処置される。
このアプローチに続いて、両方の主レイヤー(すなわち、図1a−cに関して使用される言い回しによる「非境界部」)は、共通の主レイヤーlcが以下の通りにつくられる対応する浮動小数点深度データd1およびd2を有する別々のカラー・バッファl1およびl2に投影される。
ここにおいて、λは前述の位置依存パラメータを示し、εは実験のために1.0に設定された重要値を示す。この方法は、同じ深度値を有する場合、それぞれの画像からの最前面のサンプルのいずれかが用いられ、または、両方のサンプルがλ補間されることを保証する。1つのオリジナルのカメラの画像から別のものに進むとき、補間はオリジナル画像の間の可能な照明の差を減らして、滑らかな移行を提供する。投影の後に得られる共通の主レイヤーは、図3に示される。(1)からの補間プロセスも、共通の浮動小数点深度バッファをつくる。
次のステップにおいて、フォアグラウンド境界レイヤー、すなわち図1a−cの言い回しの「フォアグラウンド境界部」は投影され、色および浮動小数点深度のための共通レイヤーは、上述のように、主レイヤー方法と類似した方法でつくられる。それから、共通の主およびフォアグラウンド境界レイヤーは結合される。ここで、単純な深度試験が用いられる。いずれのレイヤーからも最前面のサンプルがとられ、それは大部分はフォアグラウンド境界サンプルである。これまで、機能性は、ステージ22の機能に対応した。
投影プロセスの最終工程において、バックグラウンド境界レイヤー、すなわち図1a−cのバックグラウンド部は、投影されている。この情報は、中間画像の残りのホールを埋めるために用いられるだけである。これは、図10におけるステージ24の機能に対応する。共通の主レイヤーがフォアグラウンドオブジェクトの周辺ですでに大部分のサンプルをカバーするので、図3において分かるように、ほんのわずかのバックグラウンド境界サンプルしか使われず、オリジナル画像からのオブジェクト境界における色歪みのサンプルは省略される。それらは単純な3Dワープアルゴリズムを使用してバックグラウンド領域の中でコロナ状のアーチファクトを作成することは公知であり、それは2種類の異なる境界レイヤーを有する階層化アプローチによって回避される。
アルゴリズムの最後の部分、ホール充填及びフィルタリングは、修正、クリーンアップおよびフィルタリング処理である。それは、図1bのエンハンサ28の機能性に対応する。2種類のホールは、このステージでレンダリングされた画像において起こることがあり、それは小さいクラックおよびより大きな欠落領域である。ホールの第1のタイプは小さいクラックであり、それは全てのイメージ領域で起こることができ、イメージベースの3Dワープの前方へのマッピング性質によって導かれる。オリジナルのイメージからの各位置は別に中間画像に投影され、一般に浮動小数点座標上に落ちる。この位置は、整数サンプルラスターの最近接位置に量子化される。残念なことに、量子化は、図3において細い黒い線として見える若干のサンプルを満たされていない状態のままにする。場合によっては、フォアグラウンド領域のこの種のクラックは、他のオリジナルのイメージからのバックグラウンド情報によって満たされる。これは、図4の左のアーチファクトという結果となり、そこにおいて、バックグラウンドサンプルは、フォアグラウンドオブジェクトを通して光る。図4において、上の列は異なるアーチファクトを示し、下の列はアーチファクト除去後の同じ部分を示し、特に、クラックサンプル除去(左)、領域充填(中央)およびエッジ平滑化(右)を示す。
このようなアーチファクトは、横、縦、斜め方向の2つの隣接した値と著しく異なる深度値を見つけることによって検出される。それから、それらは満たされた中央値フィルタリングであり、すなわち隣接する色値の中央値を計算することにより、それらが割り当てられる正しい深度値を有すると仮定している。このようなアーチファクトの修正は、図4の左にも示される。
ホールの第2のタイプは、より大きな欠落領域を含む。それらは誤った深度値のため発生するか、または両方のオリジナル画像においてはふさがれているが、中間画像において見えるようになる領域である。図4の中央に示されるように、このような大きなホールは、隣接する利用できるバックグラウンド情報で埋められる。ここで、ホール境界に沿った対応する深度値は、ホール領域に外挿されるバックグラウンド色サンプルを見出すために分析される。このアプローチは深度エラーによる欠落領域に対して良い充填結果につながる一方、非閉塞部分に対する充填は時々フォアグラウンド情報から誤ってとられて、このように間違った色を呈する。
最後に、フォアグラウンドオブジェクトは、図4の右に示すように、自然な外観を提供するためにエッジに沿ってローパスフィルタリングされる。オリジナル画像において、オブジェクト境界サンプルは、イメージキャプチャリングの間の最初のサンプリングおよびフィルタリングによるフォアグラウンド−バックグラウンドの混色である。我々のレイヤーアプローチのレンダリングされた中間画像において、バックグラウンドにおけるコロナ状のアーチファクトを回避するために、これらの混合色サンプルは、しばしば除外される。したがって、あたかもフォアグラウンドオブジェクトが場面に人為的に挿入されるたかのように、若干のフォアグラウンド−バックグラウンド境界は異常に鋭く見える。したがって、上述のCannyのエッジ検出フィルタはエッジを確認するために最終的な深度情報に適用され、平均化ローパスフィルタはより自然な外観を提供するために対応する色サンプルに適用される。さらに、フィルタリングは、深度不連続性に沿って残留するアーチファクトを減らす助けとなる。
すべての処理ステップの後の結果として生じる中間画像は図5に示され、それはフィルタリング後の最終的な中間画像の補間を示し、図1bの中間画像イメージ12のための実施例である。ここで、2つのオリジナルのカメラの間の中間の画像は合成され、すなわちλ=0.5であり、それは、この場合両方のオリジナルのカメラに対する10cmの物理的距離に対応する。仮想画像は、可視アーチファクトのない優れた品質のものである。
画像補間器の目的は、M個の画像プラスMVD表現の深度から3DVシステムに対するN個の入力画像をつくることである。1つの実施例は、フィリップス自動立体ディスプレイであり、目の間隔(ほぼ5cm)を有する9つの画像が入力として必要である。図20に示すようなこの種のセットアップに対して、結果として生じる9つの画像のうちの5つが、バレーおよびブレイクダンスの踊り手のデータセットのために図で6に示される。これらのデータセットのカメラ間隔は、20cmである。λ={1/4,1/2,3/4}を有する中間画像は、2つのオリジナルのカメラの間で作成された。図6の左端および右端のイメージは、オリジナル画像である。中間の3つのイメージは、いかなるアーチファクトも呈していない仮想画像である。一組の立体的な画像が運動視差および3D深度印象をサポートするために利用できる。換言すれば、図6は、9−画像自動立体ディスプレイのための立体の一組の距離における5つの画像を示し、オリジナルのカメラ位置(左端および右端)における2つの画像およびバレー(上側)およびブレイクダンスの踊り手(下側)の列である。
前記実施例を要約すると、マルチビュープラス深度(MVD)表現に基づく3D映像(3DV)システムのためのコンセプトを示す。それは、データレート、品質および機能性に関してMVCまたはMPEG−Cパート3に基づく他のコンセプトに勝るはっきりした効果がある。特に、高品質の中間画像補間アルゴリズムの利用可能性は、このコンセプトを可能にする重要な偏見である。レンダリングされた画像のアーチファクトを最小化する適切な方法は上で提示された。それは、単にイメージベースの3Dワープに基づいて、3Dグラフィック・サポートを必要としない。このちょうど記載されている実施例は、深度不連続性に沿った信頼できないイメージ領域のための別々のフォアグラウンドおよびバックグラウンド境界レイヤーを導く。境界および信頼性の高いレイヤーは別に処理され、出力は以下の信頼性基準に融合される。さらに、ホール充填アルゴリズムは、中間画像の失った色情報を生成するために行われた。重要な深度不連続性に沿った色サンプルの最終的なローパスフィルタリングは、より自然な外観を提供することができて、エッジに沿って残留するアーチファクトを減らす。画像補間は位置依存パラメータによって制御され、それはオリジナル画像の照明の差から影響を減らす。それについては、MVDに基づく3DVコンセプトのために必要に応じてレンダリングされる高品質の中間画像が示された。
以下の部分は、第1の実施例と比べて、より詳細に記載される本発明の第2実施例を示す。また、この実施例は、3D画像アプリケーションにおける発達する関心および技術が成熟すると共に急速に成長しているシステムに集中する。マルチビュー自動立体ディスプレイは、マルチ・ユーザ3D知覚および運動視差印象をサポートするため、家庭のユーザ環境において重要な役割を果たすことが期待される。多大なデータレートは、表現およびMVCまたはMPEG−Cパート3などの符号化フォーマットによって能率的に取り扱われることができない。マルチビュー映像プラス深度は能率的にこのような高度な3DVシステムをサポートする新規なフォーマットであるが、これは高品質の中間画像合成を必要とする。このため、下で提示される方法は信頼性の高いイメージ領域から深度不連続性に沿って信頼できないイメージ領域を切り離し、それらは別に処理されて、最終的な補間された画像に融合される。以前の階層化アプローチと対照的に、以下のアルゴリズムは、2つの境界レイヤーおよび1つの信頼性の高いレイヤーを用いて、イメージベースの3Dワープだけを実行して、3Dグラフィック・サポートに依存しない。さらに、異なるホール充填およびフィルタリング方法は、高品質の中間画像を提供するために加えられる。その結果、既存の9−画像自動立体ディスプレイに対する高品質の中間画像が示され、それは高度な3DVシステムのためのアプローチの適合性を証明する。コンセプトは、高品質の中間画像の合成アルゴリズムに依存する。このようなDIBRまたは3Dワープの一般的定式化は下記で与えられる。DIBRは、特に深度不連続性を有するオブジェクト境界に沿って発生する目立つアーチファクトを生じることで知られている。したがって、以下の実施例は、深度不連続性が信頼性の高いおよび信頼できない領域として特徴付けられるイメージ領域を有する階層化アプローチで処理される新規なDIBRアルゴリズムを導く。標準3Dワープを上回る結果および改良はそれから提示される。最後に、第2実施例が要約される。
第1に、深度ベースの中間画像の合成が公式化される。3DVフレームワークの範囲内で、オリジナルの画像kごとに色データlk、深度データdkおよびカメラパラメータの形で与えられる入力データを仮定する。このデータは、lkのキャプチャリングプロセスおよび関連する深度カメラまたはdkの深度推定プロセスによって与えられる。例えば、進歩的な3DTVコンセプトに対するオジナル画像は、k∈{1、5、9}に対する図20下部に示される。各オリジナル画像kに関するカメラパラメータは、固有のマトリックスKkにおける固有のパラメータ(焦点距離、センサスケーリング、主点)および回転マトリックスRkおよび変換ベクトルtkを有する付帯マトリクス[Rk|tk]における付帯パラメータ(回転、変換)の形で与えられる。それらは、古典的カメラ較正アルゴリズムによって得られることができる[参考文献27][参考文献6][参考文献9]。通常、付帯的なおよび固有のマトリクスは投影マトリクスPk=Kk[Rk|tk]を得るために乗算され、それは3D世界点をオリジナルのカメラ画像kのイメージ平面に投影する。このように、オリジナル画像は、各ピクセル位置(uk,vk)において、以下によって与えられる。
以下の考慮すべき事項は、その計算が画像nに対しても同様であるため、画像kだけのために実施される。画像kのために、関連するピクセル位置(uk,vk)が、逆投影マトリクスPk -1を用いて、最初に3D空間に投影される。カメラ平面からの単一の2Dピクセル位置はカメラ焦点およびピクセル位置点による直線上に投影されるため、この投影は曖昧である。したがって、深度データdk(uk,vk)は、正確な3D位置を決定することを必要とする。しばしば、深度データはスケーリングされ量子化された形で与えられ、真値zk(uk,vk)は最初に得られることを必要とする。典型的スケーリングは、以下の関数による逆深度スケーリングである[参考文献10]。
ここで、深度データdk(uk,vk)は独自に範囲[0・・・1]に正規化され、zk,nearおよびzk,farはそれぞれ3Dシーンの最小および最大深度値である。
次のステップにおいて、3D位置は、中間画像に前方投影される。両方の投影を結合して、2点間相同関係は、次のように記載することができる。
カラー投影のために、オリジナルの画像における関連する位置(uk,min,vk,min)が必要である。
両方の光景における貢献を組み合わせて、オリジナル画像kおよびn間の一般的な中間画像の補間が公式化されることができる。
図1a−cに関して上述した全ての投影のための実施例となる上記の一般の投影プロセスを特定した後に、真のデータへの適応、すなわち階層化の中間画像の合成の実行はここに記載されている。前に示された3DVコンセプトは、レシーバで高品質の中間画像の合成アルゴリズムを利用する可能性に依存する。画像合成における以前の方法は、適切な閉塞処理のない単純なコンセプトに集中しているか〔参考文献14〕〔参考文献5〕[参考文献21][参考文献13]、または複合の位置ベースの表現を生成している[参考文献4]。しかしながら、補間アーチファクトが容認できない品質という結果をもたらす。例えば図20の実施例において、位置2から仮想画像だけが見える。立体セットアップにおける典型的カメラ間隔は、5cmである。これは、オリジナル画像V1およびV5間が20cmにおよび、この間隔はDIBRによって扱うのが困難であることを意味する。難しいアーチファクトは、特に大きい深度不連続性を有するオブジェクト境界に沿って発生することは知られている。一方では、滑らかな深度変化を有する領域は、仮想の中間画像に非常に確実に投影されることができる。これは、深度不連続性および滑らかな深度領域の別々の処理を暗示している。深度不連続性は、エッジ検出アルゴリズムを用いて深度イメージの範囲内で容易に見つけることができる。
それ故、次の画像合成プロセスは、レイヤー抽出(エッジ検出および信頼性の高いおよび境界領域への分離)、レイヤー投影(領域のDIBRの分離および融合)および中間画像の向上(修正、クリーンアップおよびフィルタリング)の3つの部分から構成される。プロセスの概要は、このように合成方法の構造概要を示す図7に示される。この方法のための入力データは、図1bとの対応を明らかにするためにV1、V2、D1およびD2でマークされる2つの側部画像のためのオリジナルの色およびピクセルごとの深度データである。実線の矢印は色処理を表し、その一方で、破線の矢印は投影またはエッジ検出目的のための深度処理または深度データの使用を示す。深度情報から、レイヤーは重要な深度不連続性に従って抽出70され、この抽出は図1bにおけるブロック18、18´、20および20´の機能に対応する。図7の次のステージにおいて、マークされた色バッファからの全てのレイヤーは、中間画像のための別々のレイヤーバッファ74a−dに投影72される。中間画像は、最初に、2つの投影された主レイヤー74cおよび74dを結合76することによって作成される。その後、更に後述するように、フォアグラウンドおよびバックグラウンド境界レイヤーが加えられる。最後に、画像の向上78、例えばホール充填およびエッジ平滑化などの画像の向上が、最終的な中間画像を作成するために適用される。
階層化アプローチと連携する考えは、自由視点ナビゲーションの応用のために〔参考文献30〕においてすでに研究されており、そこにおいて、大きい深度不連続性に沿った特定の幅の境界レイヤーが抽出された。このアプローチは、ここで更に改善される。さらに、〔参考文献30〕におけるアプローチがレンダリングのための単純な幾何プリミティブ(三角形)によって動作すると共に、図7の実施例は単にイメージベースの3Dワープと連携する。このように、3D図形処理および形状モデリングは必要とされない。下側に、図7のアプローチが若干の投影アーチファクトを取り込んでいるが、それは、更に後述するように、取り除かれることができる。
レイヤー抽出70は、モジュール18、18´、20、20´の機能に対応する。レンダリングアプローチのこの第1の部分において、オリジナル画像の信頼性の高いおよび信頼できない深度領域が区別される。境界サンプルは通常混合されたフォアグラウンド/バッククグラウンド色を有し、新規な画像への投影の後、アーチファクトを作成するため、オブジェクト境界に沿った領域は信頼できないとみなされる。さらに、深度推定からのエラーは、主にオブジェクト境界を歪める。したがって、〔参考文献30〕と同様に、大きい深度不連続性が、主および境界レイヤーをつくるために検出される。このため、深度イメージに作用する内容に適応する重要性閾値(我々の実験の110)を有するCannyのエッジ検出器[参考文献2]が用いられる。7−サンプル広域部は、検出エッジに沿って信頼できないとしてマークされる。〔参考文献30〕とは対照的に、この領域は、次のサブセクションに示すように、それぞれ異なる処理をすることができる白黒の領域として図2に示すように、フォアグラウンドおよびバックグラウンド境界レイヤーに分割される。
レイヤー投影72は、図1bのモジュール22および26の機能性に対応する。レイヤー投影72は、上で示される深度ベースの中間画像合成の一般的公式化を拡張する。処理チェーンのこの第2の部分は、画像合成アルゴリズムの重要なブロックである。入力は、全て上に示されている、左および右側のオリジナル画像、関連する深度マップ、関連するカメラ較正情報、補間パラメータλ∈[0・・・1]であり、図2に示すように関連するラベル情報である。両方の入力イメージから異なって分類された領域は、別々に仮想画像位置に投影され、結果は以下の深度順序付けおよび信頼性基準に続いて融合される。
中間画像の向上78は、図1bのモジュール28の機能性に対応する。アルゴリズムのこの最後の部分は、レイヤー投影の後の後処理を提供し、修正、クリーンアップおよびフィルタリング処理を含む。2種類のホールが、現段階でレンダリングされた画像においてまだ起こることがあり、それは小さいクラックおよびより大きな欠落領域である。ホールの第1のタイプは小さいクラックであり、それは全ての画像領域で起こることができ、イメージベースの3Dワープの前方マッピングの性質によって導入される。オリジナルイメージからの各位置は別々に中間画像に投影され、一般に浮動小数点座標上に落ちる。この位置は、整数サンプルラスターの最近接位置に量子化される。残念なことに、量子化は、若干のサンプルを満たされていないままにすることがあり、図8aおよび図8bの細い黒い線として見える。場合によっては、フォアグラウンド領域におけるこのようなクラックは、他のオリジナルイメージからのバックグラウンド情報によって満たされる。これは、図3の左に示すアーチファクトという結果になり、バックグラウンドサンプルは、フォアグラウンドオブジェクトを通して輝く。
このようなアーチファクトは、横であるか、垂直であるか、斜めの方向の両方の隣接した値より著しく大きい深度値を見つけることによって検出される。
これは、フォアグラウンド領域の中のバックグラウンドピクセルを参照する。方向重要性値から、最大値gmaxが計算される。
ホールの第2のタイプは、より大きな欠落領域を含む。それらは誤った深度値のため発生するか、または両方のオリジナル画像においてふさがれるものの、中間画像において見えるようになる領域である。図3の中央に示すように、このようなより大きなホールは、現在、隣接した利用できるバックグラウンド情報によって線的に埋められる。ここで、2つのホール境界ピクセルの2つの対応する深度値は、ホール領域に外挿するバックグラウンド色サンプルを見つけるために分析される。バックグラウンドピクセルのこの単一の一定色の外挿は、両方の値の間の無拘束の線形補間より良い結果につながる。しばしば、ホール境界ピクセルのうちの1つはフォアグラウンドオブジェクトに帰属し、その色値はホールへの色のにじみに至る。このアプローチは、深度エラーによる欠落領域に対する良い充填結果につながる。非閉塞部のための充填の場合には、時々、両方のホール境界ピクセルはフォアグラウンドピクセルであり、フォアグラウンド色がバックグラウンドホールに誤って外挿される。
ここで、まばらな画像からの画像補間の基本問題のうちの1つが発生し、それは中間画像における非閉塞であり、そこにおいて、オリジナルの情報はいかなる画像においても利用できない。このため、一般解が存在しない。場合によっては、フォアグラウンドオブジェクトが必要なバックグラウンド情報を明らかにするために十分に移動した場合、ホール充填アルゴリズムは以前のまたは将来のフレームにおける追加データを期待する時間次元に至ることができる。しかしながら、運動の程度が予測できないので、このアプローチは限界を有し、我々の行う方法として考慮されなかった。
画像合成の実施例は、次に示される。フィルタリングおよびすべての処理ステップの後の結果として生じる中間画像または最終的な中間画像の合成は、それぞれ、図5に示される。ここで、2つのオリジナルのカメラ間の中間の画像は合成される、すなわちλ=0.5であり、この場合、それは両方のオリジナルのカメラに対して10cmの物理的距離に対応する。仮想画像は、可視アーチファクトのない優れた品質のものである。
レンダリングされた画像の詳細は、このように、単純な合成および我々の提案した方法に関する中間画像の詳細を示す図9に示される。最上列は、セクション0において導入される特定の処理段階のない標準3Dワープの実施例を示す。コロナアーチファクトは、フォアグランド/バックグラウンド境界で発生する。若干暗いフォアグラウンドピクセルはより明るいバックグラウンド領域に誤って加えられ、オブジェクト周辺の典型的コロナタイプのさらなる輪郭という結果になる。さらに、クラックは、フォアグラウンドオブジェクトの範囲内で見える。これらのクラックは、誤ってフォアグラウンドの前方マッピング処理において開いたままにされ、それから誤ってバックグラウンド情報で満たされた。このようなアーチファクトは通常静止していなくて、時間とともに変化し、レンダリングされた映像の範囲内において非常にうっとうしい効果という結果になる。これは、3DVの全部のコンセプトを容認できなくすることができる。セクション0において導入されるように、図9の下の列は、3Dワーププロセスに対して我々の改良を用いた対応するレンダリングの詳細を示す。コロナアーチファクトおよびクラックは、広く取り除かれる。深度不連続性に沿ったローパスフィルタリングは、一般的なのイメージの印象を滑らかにして向上させるのを助ける。個々の画像の最小限のアーチファクトについては、画像品質は著しく増加し、我々の画像合成アルゴリズムは、MVDに基づく進歩的な3DVコンセプトの基礎を形成することができる。
画像補間器の目的は、M個の画像プラスMVD表現の深度から3DVシステムに対するN個の入力画像をつくることである。1つの例は、フィリップス自動立体ディスプレイであり、目の間隔(ほぼ5cm)を有する9つの画像が、入力として必要である。図20に示されているようなセットアップのために、結果として生じる9つの画像のうちの5つが、バレーおよびブレイクダンスの踊り手のデータセットに関する図6に示される。これらのデータセットのカメラ間隔は、20cmである。λ={1/4,1/2,3/4}を有する3つの中間画像が、2つのオリジナルのカメラの間につくられた。図6の左端および右端の画像は、オリジナル画像である。その間の3つの画像は、いかなるアーチファクトも示されていない仮想の画像である。対になった立体的な画像が運動視差および3D深度印象をサポートするために利用することができる。
結びとして、MVDに基づく3DVの高度なシステムが上に示されている。それは、能率的にマルチビュー立体ディスプレイをサポートする。運動視差印象および最大限の社会的交互作用について以外、このタイプの3Dディスプレイは、眼鏡をかける必要性なしに、リビングルーム環境におけるマルチ・ユーザ3DV感覚を可能にする。それがデータレート、品質および機能性に関してMVCまたはMPEG−Cパート3に基づく他のコンセプトに勝るはっきりした効果があるので、MVDはこのコンセプトの3DVのための一般的なフォーマットとして役立つことができる。しかしながら、このコンセプトは、部分的にまだ研究を必要とする多くの高度な処理ステップを統合する。それらの中で、高品質の中間画像の合成は、このコンセプトを実現可能にするために重要である。この種のアルゴリズムが深度不連続性に沿って面倒なアーチファクトを導入することが知られている。したがって、ここで提示されるアプローチは深度画像のエッジ検出に基づいて入力イメージを信頼性の高いおよび信頼できない領域に切り離す。その理由は、これらのエッジが深度不連続性に対応するからである。信頼性が高いおよび信頼できない領域は別々に処理され、結果は信頼性基準に応じて結合される。特定の後処理アルゴリズムは、更にレンダリングされた画像の品質を強化するために導入される。これは、残りのアーチファクトを減らすために、レンダリングされた画像における深度不連続性に沿った最終的な平滑フィルタと同様に異なるホール充填アプローチを含む。位置に依存する混合ファクタは、異なる入力イメージからの貢献を重み付けするために用いられる。与えられた結果は、深度不連続性に沿った信頼性情報を得たレイヤーの処理が著しくレンダリングアーチファクトを減らすことを示している。標準3Dワープによってしばしば発生するコロナアーチファクトは、広く除去される。高品質の中間画像は、与えられたアルゴリズムによって生成される。これについては、MVDのための進歩的な3DVコンセプトの範囲内の重要な構成要素が利用できることを示す。更なる最適化の他に、我々の将来の仕事は、最終的なシステム集積と同様に、例えば取得、深度推定、符号化および送信などの他の全ての構成要素の開発を含む。
以下の部分は、本発明の第3の実施例を示す。特に、マルチスコープの3Dディスプレイ上の画像レンダリングのシステムは、データがレイヤー深度画像(LDV)として表現される以下において考慮される。この表現は関連するピクセルごとの深度を有する1つの完全または中心画像と、さらなる残りのレイヤーとを含む。このように、付加的な残りのデータを有する1つの全景だけは、送信されることを必要とする。ディスプレイに対するすべての中間画像を生成するために、LDVデータがレシーバで使われる。シーン信頼性駆動アプローチを用いて、画像合成と同様にLDVレイヤー抽出が与えられる。ここで、信頼できないイメージ領域が検出され、以前のアプローチとは対照的に、残りのデータはレンダリング中の信頼できない領域におけるアーチファクトを減らすために増大される。最大のデータ範囲を提供するために、残りのデータは、そのオリジナルの位置に残って、中心画像に向かって投影されない。画像合成プロセスも、以前のアプローチより高品質の中間画像を提供するために、この信頼性解析を使用する。最終結果として、既存の9−画像自動立体ディスプレイに対する高品質の中間画像は与えられ、それは高度な3D画像(3DV)システムのためのLDVアプローチの適合性を証明する。
すでに明細書の導入部分に記載されているように、3D画像における増加した関心は、キャプチャリングからフォーマット表現および符号化を介して表示およびレンダリングまでの3D処理チェーンのすべてのステージのための改良された技術につながった。特に記録された自然の場面のための3D内容ディスプレイのための最も一般のアプローチのうちの1つは、ユーザに自然の深度印象[参考文献17]を提供するイメージステレオ対の同時提示である。制限されたユーザに見て回る知覚を有するナビゲーションを示すために、この生成されたステレオ対はユーザの頭の動きによって変化しなければならない。このため、マルチビュー自動立体ディスプレイはすでに利用可能であり、ユーザがディスプレイの前で視点に応じて2つの立体画像を見ると共に、同時に多くの画像(今日のディスプレイにおいては9個以上)を提供する。
それは巨大なデータレートが必要である。全部を送信されなければならないか、または、画像の二次サンプリングおよび中間画像の合成を有する高度な方法が用いられるかのように、すべての光景はディスプレイにおいて利用できなければならない。後のアプローチの1つの候補は、大幅に3DVシステムのための生のデータレートを低下させることを可能にする階層化深度映像(LDV)である。N個のディスプレイの画像のサブセットMからの1つの中心画像および残りの情報だけが送信される。さらに、深度データが、中心画像および残りのサブセットMのために送信される。送信されていない画像は、送信データを与えられるレシーバで、中間画像の補間によって生成されることができる[参考文献15]。
LDVの起源は、階層化深度イメージ(LDI)から来ており、その方法は、複合のシーンの配置を有する3Dオブジェクトをレンダリングする一般のアプローチとして確認された[参考文献33]。LDIにおいて、カメラのイメージの各ピクセルは、ピクセルの視線に沿って色値および深度値を有する複数のピクセルを含むことができる。LDIの生成は、まずステレオ記録〔参考文献33〕のために、次にマルチビュー設定[参考文献32]のために研究された。階層的なLDIアプローチは、進歩的な画像依存のレンダリングの改良[参考文献31]を有する仮想シーンのナビゲーションにも適用された。オリジナルの視点をナビゲートするときに、これらのアプローチは限られた閉塞および非閉塞を提供するが、まばらなマルチビューデータにおける画像の合成のための課題、すなわち、ホール重点および異なる深度のオブジェクト間の境界に沿ったコロナアーチファクトを示す。したがって、我々は、このようなアーチファクトを減らすためにLDVデータ作成のための信頼性解析を提案する。
以下において、まず、高度な3DVシステムのためのコンセプトが示される。それから、最適化された残りの表現の形を有するレイヤーベースのLDVデータ抽出プロセスが示される。次に、合成プロセスが示され、そこにおいて、高品質の中間画像を提供するために目立つアーチファクトを最小化するために、レイヤーベースのアプローチが再び用いられる。最後に、3DV設定に対するレンダリング結果が示される。
さらに、すでに上述したように、3DVシステムは同時に多重画像を表示することによって頭の動きの視差ビューイングをサポートすることができる。とりわけ、1つの具体例は傾斜したレンズ状のレンズ技術および9つの同時画像を有する高解像度のLCD画面であり、フィリップス[www.philips.com/3Dsolutions.2008年4月17日最終訪問]から市販されている。3Dディスプレイでの頭の運動視差サポートのための原理は、図10において示される。位置1のユーザは、それぞれ左右の目で画像1および2を見るだけである。位置3の他のユーザは画像6および7を見る。それゆえに、マルチ・ユーザ3Dビューイングはサポートされる。
ユーザが位置1から位置2に移動することを仮定する。現在、画像2および3が、それぞれ左右の目によって見ることができる。V1およびV2が適当な人間の目の間隔の基準を有するステレオ対である場合、V2およびV3も同様であり、このような3Dディスプレイシステムの前で移動しているユーザは、それらの深度に応じてシーンにおけるオブジェクトの非閉塞および閉塞を有する3D印象を認める。この運動視差印象は途切れがないわけではなく、異なる位置の数はN−1に制限される。
すべての画像が独立して取り扱われる場合、拡張機能性は一方ではデータレートの相当な増加、すなわち2D映像と比較して圧縮伝送のためのビットレートのN倍という結果になる。画像間予測を含むマルチビュー画像符号化(MVC)は全体のビットレートを20%低下させ[参考文献20]、それは大部分のアプリケーション・シナリオのためにあまりに高く見える。
立体画像(すなわち2つの画像)のための効率的なアプローチは、データフォーマットとして画像プラス深度(V+D)を使用することである[参考文献7]。MPEGは、最近、MPEG−Cパート3として知られる対応する基準をリリースした。レシーバは、第2の画像の深度イメージベースのレンダリング(DIBR)によって、V+Dから立体画像を再生することができる。この場合、深度データが非常に効率的に圧縮されることができることが示された。V+Dの結果として生じるビットレートは対応する立体画像のためのビットレートより非常に小さく、その一方で、同じ視覚の品質を提供する。利用できる画像の近くにある1つの仮想画像が(例えば、図1のV1およびV2に対応する)V+Dデータからレンダリングされることを必要とする場合、このコンセプトはよく働く。外挿アーチファクトは、間隔または仮想画像によって増加する。したがって、V+Dは、多数の画像を備える3DVシステムに適していない。
圧縮ポテンシャルに関するより効率的な解決案は、マルチビュー+深度(MVD)であり[参考文献34]、ここにおいて、深度を有する画像のサブセットだけが送信され、中間画像はレシーバ側で合成される。さらにより少ないデータレートを必要とする他の解決案は、ここで発表される階層化深度画像(LDV)を使用することである。LDVにおいて、中心画像(図10のV5)および側部画像のための関連する残りの画像だけが送信される。このように、図1は、進歩的なLDVベースの3DTVコンセプトを示す(Pos:視点、R:右目、L:左目、V:画像/イメージ、D:深度、RV:残りの画像レイヤー、RD:残りの深度レイヤー)。
残りのレイヤーは、側部画像(V1およびV9)から抽出される。中心および側部画像のために、サンプルの正確な深度マップは、発信者側で生成されなければならず、画像信号と共に伝達されなければならない。中心画像および側部画像から、後述するように、残りの情報は色および深度のために生成される。表示される他の全ての画像は、レシーバでDIBRによって生成される。LDVのための残りのレイヤー抽出および画像合成は、以下に記載されている。
N個の画像を有するマルチビューアプリケーションにおいて、中間画像は、すべての画像における利用可能な情報を使用して合成されることができる。LDVシナリオにおいて、1つの画像だけが、他の画像からの付加情報の若干の断片と共に利用できる。直接のLDV抽出アプローチにおいて、1つのカメラの画像は他の画像に投影される。
3つの直線状の並列カメラを有するカメラシステムを仮定すると、中心画像は両方の側部画像に投影される。そして、オリジナルおよび投影された画像の違いは、非閉塞情報からなり、従って、主に両方の側部画像のイメージ境界データと同様にフォアグラウンドオブジェクトの深度不連続性に沿って集中される残りの情報を得ることに専念される。以下の画像合成ステージは、中心画像および深度データの完全情報と残りの情報とを使用する。しかしながら、この処理は、すべての合成された中間画像のコロナアーチファクトにつながる。このような可視アーチファクトを回避するために、我々の抽出アルゴリズムは、〔参考文献30〕の完全な中間画像の合成のために導入され、マルチビュービデオ+深度データのための〔参考文献34〕において改良される階層化アプローチを使用する。レイヤーは、深度バッファにおいて抽出されて、信頼性の高いおよび信頼できないデータを示す。後者は、深度不連続性で発生する。レイヤーは、Cannyのエッジ検出フィルタを用いて抽出され[参考文献2]、深度不連続性に沿って7ピクセル広域部をマークする。この領域は、フォアグラウンドおよびバックグラウンド境界情報を含む。
〔参考文献34〕とは対照的に、1つのフォアグラウンドオブジェクトだけが中心画像において残り、別のフォアグラウンド境界レイヤーはLDVデータ抽出のために必要とされないため、バックグラウンド境界レイヤーだけはLDVのために必要である。バックグラウンド境界レイヤーのマーキングは、図11に緑で示される。このように、図11は、中心画像の重要な深度不連続性に沿った、バックグラウンドレイヤー配置(白)を示す。
次のステップにおいて、色および深度を有する中心画像は両方の側部画像に投影され、両方の側部画像への中心画像の投影を示す図12に示すように、バックグラウンド境界レイヤーを省略する。これは、図1cのブロック46に対応する。
このように、(図12のフォアグラウンドオブジェクトおよびイメージ境界に沿って白色に示され、図1cの50に対応する)非閉塞領域はより大きくなり、最後に側部画像においてより大きな残りの領域に至る。前方投影プロセスのため、小さいカバーされていない領域も見えるようになり、それはクラック除去フィルタリング(フォアグラウンド領域の異常バックグラウンド深度値に作用するメジアンフィルタ、図1cのブロック58と比較)によって除去される。このため、有効なものによって囲まれる1ピクセル幅非割り当て深度値が確認される。色および深度値は、これらの隣接する有効値から補間される。この充填の後、このように、投影された中心画像におけるデータ充填を示す図13に示すように、真の非閉塞領域(図1cの50に対応)だけが残る。
この情報は、側部画像から要求される残りの情報を抽出する(または、図1cのブロック54におけるように、決定する)ために用いられる。ここで、両方の側部画像の残りのデータを示す図14に示されるように、側部画像および投影された中心画像の間の除外の差がこの情報を得るために利用される。換言すれば、図13の非閉塞領域がこれらの側部画像を覆う側部画像の領域は、信号32に挿入されるために選択される。
つまり、残りのデータが存在し、そこにおいて、投影され補間された主画像は、有効な情報を有しない(図13の白い領域)。この残りの情報は、中心画像におけるバックグラウンド境界レイヤーの前述の減算による純粋な非閉塞領域よりわずかに大きい。このように、付加情報は、オブジェクト境界に沿ったカラー・アーチファクトの減少のための残りのデータにおいて利用できる。また、この残りのデータ抽出は、色および深度データに適用される。
これはLDV抽出工程を終えて、図1cの信号32のための実施例として、伝送目的のために使われる最終的なLDVデータフォーマットを与える。そして、それは次のものを含む。
− 色および深度における完全な中心画像
− 色および深度における残りの側部画像
− カメラパラメータおよび実在の深度範囲パラメータなどのさらなる形状パラメータ
MVD表現の場合について考えると、対応する深度マップを有する3つの画像は、このLDV表現によって提供されるのと同じ機能性をサポートするために伝送されなければならない。LDVのために、側部画像は図14に示すように残差に減少し、それは著しく低下するデータレートという結果になる。このさらなる圧縮能力の具体的な研究は、しかしながら、我々の将来の研究に属する。データレートのわずかな増加は、領域がコロナアーチファクトを回避するためにわずかに重複しているため、階層化アプローチによって予想される。ビットレートの増加に関する具体的なコストは、まだ研究されることを必要とする。
データ範囲および可能な圧縮目的に関して最適な残りのデータの表現を見つけるために、2つの変形が研究された。それは、1つのバッファへの残りのデータの結合および中心画像への残りのデータの投影である。第1の変形は、図15の左上に示される。ここで、両方の側部画像からの残りのデータは、図15の右上の赤い領域によって示されるように、無作為に重なる。これは側部画像における異なる色または照明のため歪曲に至り、それは合成された画像においても見える。換言すれば、図15は、残りのデータの変形を示し、それは、残りの色データ(上部)対結合された投影された色(下部)および重なっている領域の対応するマーキング(下部)である。
第2の変形において、残りの情報は、よりよく両方の側部画像の残りのデータを調整するために、中心画像に投影された。しかしながら、ここで、投影による相当な情報消失は、図15の左下に示すように、結合されたバッファバージョンにおけるのと同様に1つの残りのバッファにおいて起こる。ここで、全境界データは、図15の上部と比較して消失した。このアプローチが続く場合、このデータは画像合成の間、外挿されなければならなかったか、または、より大きい残りのバッファがスペースをすべての情報に提供することを必要とする。また、データ重なりは、合成プロセスにおいてより見えるアーチファクトを示すこの変形においてさらなる情報が重複することを示すためにマークされた。
LDVデータを受信した後に、画像合成アルゴリズムは、中間画像を生成するために適用される。
画像合成は、[参考文献34]と同様に、3つの部分から成り、それは、レイヤー抽出(エッジ検出および信頼性の高いおよび境界領域への分離)、レイヤー投影(領域および融合の個々のDIBR)および中間画像の向上(修正、クリーンアップおよびフィルタリング)である。これらのステップは、完全なマルチビュー+深度中間画像合成と類似しているが、その実施においてLDVに適合していることを必要とする。
また、レイヤー抽出は、最初に実行される。階層化アプローチと連携する考えは、自由視点ナビゲーションの応用のために〔参考文献30〕においてすでに研究されており、そこにおいて、検出されたエッジに沿って信頼できないとして、7−サンプル広域部の境界レイヤーがマークされる。〔参考文献30〕とは対照的に、次のサブセクションに示すように、異なる処理を可能にするために、青および緑の領域として図2に示すように、この領域は、フォアグラウンドおよびバックグラウンド境界レイヤーに分離される。
それから、レイヤー投影は実行される。中心画像および残りの情報は、合成される中間画像に投影される。
中間画像の投影は、古典的イメージベースの3Dワープとして行われる。第1に、オリジナルの2D画像のサンプルは、カメラ較正および真の深度情報を有する関連する深度値を用いて、3D空間に投影される。第2に、結果として得られる3D世界点は、生成される中間画像に前方投影される。仮想観察位置を定める第2ステップのための投影マトリクスは、位置依存パラメータλ∈[0・・・1]、ここでは例えば中央位置を定めるλ=0.5を用いて、関係する2つのオリジナルの画像のマトリクスから補間される。これは、回転パラメータを除くすべてのカメラパラメータのための線形補間を用いてなされ、それは、回転マトリックス正規直交性を維持するために球面一次補間[参考文献24]を必要としている。
このアプローチに続いて、我々は、中心画像と各側部画像との間に別に画像を補間する。レイヤー投影は、中心画像の主レイヤーを中間のカラーバッファliおよび対応する浮動小数点深度データdiに投影することによって始まる。その後、適当な側部画像からの残りのデータは、中間画像にも投影されて、liおよびdiの非閉塞領域を満たすために用いられる。結果として生じる共通の主レイヤーliは、図16に示される。
次のステップにおいて、中心画像からのフォアグラウンド境界レイヤーは投影されて、共通の主レイヤーと結合される。これは、色および浮動小数点深度にも適用される。結合のために、簡単な深度試験が使われる。主としてフォアグラウンド境界サンプルである、いずれのレイヤーからも最前面のサンプルが得られる。換言すれば、図16は、投影の後の共通の主レイヤーを示す。
最終ステップにおいて、バックグラウンド境界レイヤーが投影される。この情報は、中間画像の残りのホールを埋めるために用いられるだけである。フォアグラウンドレイヤーとともに共通の主レイヤーがすでに大部分のサンプルをカバーするので、図16において分かるように、ほんのわずかのバックグラウンド境界サンプルだけが用いられる。このように、バックグラウンド領域の中でコロナのようなアーチファクトが生じる原因となるオリジナル画像からのオブジェクト境界における色の歪んだサンプルは省略される。我々のLDVデータ抽出アルゴリズムにおいて、残りの情報は増大されて、場合により歪んだバックグラウンド境界レイヤーが投影される前に、すでにこれらの重要部位をカバーしている。
最後に中間画像の向上が実行される。アルゴリズムのこの最後の部分は、〔参考文献34〕と類似していて、合成された画像の修正、クリーンアップおよびフィルタリングを適用する。ここで、2種類のホールが発生し、それは小さいクラックおよびより大きい欠落領域である。クラックは、投影の前方ワープの性質によって生じる。それらは、隣接する深度値と比較してかなり異なる値を有する深度バッファにおける細線として、深度バッファにおいて検出される。検出の後、クラックは、隣接する値から色バッファにおいて満たされる。
第2のタイプのホールは、より大きな欠落領域を含む。それらは誤った深度値のため発生するか、または中間画像において見えるようになった領域であり、その一方で、両方のオリジナルの画像においてふさがれる。この種のより大きなホールは、隣接する利用できるバックグラウンド情報で埋められる。ここで、ホール境界に沿った対応する深度値は、ホール領域に外挿されるバックグラウンド色サンプルを見つけるために分析される。このアプローチが深度エラーによる欠落領域に対する良い充填結果につながる一方、非閉塞に対する充填は時々フォアグラウンド情報から誤ってとられて、間違った色を呈する。
最後に、フォアグラウンドオブジェクトは、自然な外観を提供するためにエッジに沿ってローパスフィルタリングされる。オリジナルの画像において、オブジェクト境界サンプルは、最初のサンプリングおよびイメージキャプチャリングの間のフィルタリングによるフォアグラウンドおよびバックグラウンドオブジェクトの混色である。我々の階層化アプローチのレンダリングされた中間画像において、バックグラウンドでのコロナアーチファクトを回避するために、これらの混合色サンプルは、しばしば除外される。したがって、あたかもフォアグラウンドオブジェクトが場面に人工的に挿入されたかのように、若干のフォアグラウンド−バックグラウンド境界は異常に鋭く見える。したがって、上述のCannyのエッジ検出フィルタ[参考文献2]はエッジを確認するために最終的な深度情報に適用され、平均化ローパスフィルタはより自然な外観を提供するために対応する色サンプルに適用される。さらに、フィルタリングは、深度不連続性に沿って残留するアーチファクトを減らすのを助ける。
中心画像および残りの側部画像のデータからのLDVデータを用いて再現された側部画像が図17に示される。換言すれば、図17は、中心画像+左の残りのデータ(左)および中心+右の残りのデータ(右)を有するフィルタリング後の最終的な画像合成を示す。
再現された側部画像は上質であって、コロナアーチファクトのような強く見える歪みを有しない。これらのアーチファクトは、提案されたLDV抽出プロセスによって抑制され、残りのレイヤーは拡大される。この方法の効果は、拡大された領域に関する図18に示され、そこにおいて、拡張されていない残りのデータを有する古典的な直接前方LDVアプローチが我々のアプローチに対して比較される。換言すれば、図18は、古典的なLDV(左)および残りのレイヤー拡大を有する我々のLDV(右)の間の比較を示す。
しかしながら、側部画像からの残りのデータと共に1つの中心画像を使用するだけであるLDVデータの限られた性質のため、若干の色差が見える。LDVのための画像合成および完全なマルチビュー画像プラス深度(MVD)の直接比較が図19に示される。換言すれば、図19は、LDV(左)およびMVD(右)のための中間画像の合成の間の比較を示す。
LDVに対する中間画像が若干の色の相違、例えば図19の左におけるバレエ・ダンサーの左に対する影のような領域を示す一方、MVDの中間画像はこの種のアーチファクトを示さない。
画像補間器の目的は、M個の画像プラスMVD表現の深度から3DVシステムに対するN個の入力画像をつくることである。1つの例は、フィリップスの自動立体ディスプレイであり、目の間隔(ほぼ5cm)を有する9つの画像が入力として必要である。このようなセットアップのために、結果として生じる9つの画像のうちの5つは、バレーおよびブレイクダンスの踊り手のデータセットに関する図6に示される。ここで、それぞれの第2の画像が示され、それは合成された側部画像および中間画像と同様に中心画像を含む。全9つの画像については、ペアになった立体的な画像は、運動視差および3D深度印象をサポートするために利用できる。
第3実施例を要約すると、高度な3D映像(3DV)システムのための階層化深度映像(LDV)表現フォーマットが与えられた。3D映像システムのコンセプトを示した後に、LDVデータの作成は3倍のカメラの設定のために説明され、中心カメラの完全なイメージデータが、2台の横のカメラからの残りの情報と共に使われる。オブジェクト境界に沿った視覚のアーチファクトを最小化するために、レイヤーベースのアプローチは、このような境界に沿った信頼できない領域における付加的な残りの情報を得るために用いられる。投影された中心画像および側部画像の間に単なる非閉塞差が発生するより、残りのデータはわずかにより多くのピクセルをカバーする。
3Dディスプレイでの画像合成のために、レイヤーベースのアプローチは、可視アーチファクトを減らすために用いられる。第1に、中心画像の信頼性の高い情報は所望の中間画像に投影され、後に主レイヤーをつくるために関連する側部画像の残りの情報が続く。その後、中心画像の残りの信頼できない情報は、フォアグラウンドおよびバックグラウンド境界レイヤーとして投影されて、視覚のアーチファクトを減らすために、主レイヤーに別に結合される。最後に、ホール充填および著しく異なる深度値のオブジェクト境界に沿ったローパスフィルタリングの形での画像向上は、中間画像の外観を改良するために適用される。
導入された方法については、LDVに基づく記載されている3D画像コンセプトのための上質の中間画像の合成が示される。MVDに対する比較は、LDVアプローチのための非閉塞領域における異なる色の照明に関して軽微な低下だけを示した。
将来の仕事は、与えられたLDVフォーマットのための効率的な符号化方法を含む。
このように、前記実施例は、とりわけ、深度不連続性の特定の処理を使用するイメージベースのレンダリング(IBR)の状況における品質拡張のためのアルゴリズム、ホール充填および非閉塞処理を形成する。これらの実施例のいくつかが、高度な3D映像アプリケーションで使われることができる。このようなアプリケーションは、例えば、同時に9つ以上の画像、および広範囲の自由視点ナビゲーションを有する広範囲自動立体ディスプレイのサポートを含む。後のものの両方とも、複数の画像および関連するピクセルごとの深度データを結合するデータフォーマットに依存する。マルチビュー画像プラス深度(MVD)フォーマットにおいて、完全な画像および完全な深度マップ画像が用いられる。階層化深度映像(LDV)フォーマットにおいて、単に1つの完全な画像だけおよび関連する完全な深度マップ画像およびバックグラウンドレイヤー深度マップ画像を有するさらなるバックグラウンドレイヤー画像が用いられる。特に、上述の実施例は、深度に基づく中間画像、すなわちイメージベースのレンダリング(IBR)または深度イメージベースのレンダリング(DIBR)に役立つ。このように、それらは、想定されたアプリケーションをサポートするために任意の画像を生成するために用いられる。しかしながら、上記した実施例は、MVDであれLDVであれ、そのようなDIBRアルゴリズムの問題を解決し、能率的に必要性に対処することを可能にする。これらの問題および必要性は、異なる理由のため深度不連続性に沿って現れるアーチファクト、レンダリングのための前方マッピングアプローチのためにホール充填を実行する必要性、および最後に入力データから利用可能でない非閉塞領域の処理/充填を含む。上述の実施例は、さまざまな方法でこれらの課題に対処する。例えば、アーチファクトを減らすために、特定の境界処理が深度不連続性のために使われる。深度不連続性は、エッジ検出によって深度イメージにおいて検出される。イメージは、それらの深度不連続性に沿っていない信頼性の高い領域、およびそれらの検出された深度不連続性に沿った信頼できない領域に分割される。特定の/異なる処理が信頼できない領域のために使われるのに対して、信頼性の高い領域はDIBRを使用して処理される。フォアグラウンドの信頼できない領域およびバックグラウンドの信頼できない領域への更なる分割は、更に良質な結果を増加させる。すべての領域は、別に、そして、異なって処理される。最後に、すべての異なる処理されたイメージ領域を最終的な出力画像に結合する方法が与えられた。さらに、前方マッピング課題に対処する特定のホール充填アルゴリズムが記載された。最後に、非閉塞領域の充填のための効率的なアルゴリズムは上に示された。
いくつかの変更が前記実施例になされることができる点に留意する必要がある。例えば、V1およびV9のために送信される情報が非境界、バックグラウンド境界領域およびフォアグラウンド境界領域への分割を示すように、第2実施例の範囲内で示されるLDV抽出プロセスは実行されることができる。さらに、V5のために送信される情報が、非境界、バックグラウンド境界領域およびフォアグラウンド境界領域への分割を示し、それにより、エッジ検出およびバックグラウンドおよびフォアグラウンドへの分割に関する限り、それぞれのレイヤー抽出プロセスが再び実行される必要がないように、LDV抽出プロセスは実施されることもできる。上述のMVD実施例にも、同じことがあてはまる。さらに、上述の強化、修正、クリーンアップおよびフィルタリングプロセスは、それぞれのアプリケーションに応じて、離れたままにてしておくことができる。投影は、例えばクラックが発生しないように、他の方法で実行されることができる。特に、投影は、より複雑でないように実行されることができる。これは、特に、例えば、画像が線形に、そして平行軸に配置される場合に真である。例えば、投影は、基線に沿って中間イメージにピクセルを移すだけで実行されることができる。シフトの量は、中間画像および深度/視差からの偏差に依存する。このように、投影は、例えば、3D投影のための投影マトリクスを用いて、または、特定の平行したカメラ配置に対する単純なピクセルシフトにより実行されることができる。さらに、フォアグラウンドおよびバックグラウンド境界部への分離は、全体としての境界領域、またはフォアグラウンドおよびバックグラウンドに沿った境界の他の部分が、バックグラウンド領域に関して上述したように扱われることができるより簡単なアプローチによって代用されることができる。
さらに、前記実施例において、例えばタイムオブライトカメラなどで与えられるように、深度情報が、中間画像合成装置、すなわちレシーバ側、およびマルチビューデータ信号抽出装置、すなわち送信側に与えられているが、これらの装置が画像、すなわちそれ自体明度および/または彩度情報を表すピクセルサンプルから深度情報を推定するように構成されることができる。これは、特にレシーバ側で真である。深度情報は、マルチビュー信号からこの情報を得るよりもむしろレシーバで生成されることができる。後者は、次に、深度情報がなくてもよい。
若干の態様が装置の文脈において記載されているが、これらの態様も対応する方法の説明を表すことは明らかであり、ブロックまたはデバイスは、方法ステップまたは方法ステップの特徴に対応する。同様に、方法ステップの文脈に記載されている態様も、対応する装置の対応するブロックまたは項目または特徴の説明を表す。
この発明の符合化されたオーディオ信号は、デジタル記憶媒体に格納されることができ、またはインターネットなどのような無線伝送媒体または有線伝送媒体のような伝送媒体上に送信されることができる。
特定の実現要求に応じて、本発明の実施例は、ハードウェアにおいて、または、ソフトウェアで実施されることができる。実現は、それぞれの方法が実行されるように、プログラム可能なコンピュータシステムと協働する(または協働することができる)ように、その上に格納される電子的に読み込み可能な制御信号を有するデジタル記憶媒体、例えばフレキシブルディスク、DVD、ブルーレイ、CD、ROM、PROM、EPROM、EEPROMまたはフラッシュメモリーなどを使用して実行されることができる。したがって、デジタル記憶媒体は、コンピュータ可読のものである。
本発明によるいくつかの実施例は、本願明細書において記載されている方法のうちの1つが実行されるように、それはプログラム可能なコンピュータシステムと協働することができる、電子的に読み込み可能な制御信号を有するデータキャリアを含む。
通常、本発明の実施例は、コンピュータ・プログラム製品がコンピュータで動くときに、プログラムコードが方法のうちの1つを実行するプログラムコードを有するコンピュータ・プログラム製品として実施されることができる。プログラムコードは、例えば、機械可読キャリアに格納される。
他の実施例は、ここに記載され、機械可読キャリアに格納される方法のうちの1つを実行するためのコンピュータ・プログラムを含む。
換言すれば、発明の方法の実施例は、コンピュータ・プログラムがコンピュータで動くときに、ここに記載されている方法のうちの1つを実行するためのプログラムコードを有するコンピュータ・プログラムである。
発明の方法の更なる実施例は、その上に記録されて、ここに記載されている方法のうちの1つを実行するためのコンピュータ・プログラムを含むデータキャリア(またはデジタル記憶媒体またはコンピュータ可読媒体)である。
発明の方法の更なる実施例は、ここに記載されている方法のうちの1つを実行するためのコンピュータ・プログラムを表しているデータストリームまたは一連の信号である。データストリームまたは信号のシーケンスは、データ通信コネクションを介して、例えばインターネットで伝送されるように構成されることができる。
更なる実施例は、処理手段、例えばここに記載された方法の1つを実行するように適応されるコンピュータまたはプログラマブルロジックデバイスを含む。
更なる実施例は、ここに記載されている方法のうちの1つを実行するためのコンピュータ・プログラムがインストールされたコンピュータを含む。
いくつかの実施形態において、プログラマブルロジックデバイス(例えばフィールドプログラマブルゲートアレイ)は、ここに記載されている方法の機能性のいくつかまたは全てを実行するために用いることができる。いくつかの実施形態では、フィールドプログラマブルゲートアレイは、ここに記載されている方法のうちの1つを実行するために、マイクロプロセッサと協働することができる。通常、方法は、いかなるハードウェア装置によっても好ましくは実行される。
本発明がいくつかの好ましい実施例に関して記載されたが、変更、置換および本発明の範囲内になる等価物がある。また、本発明の方法および構成を実行する多くの別な方法があることは注意すべきである。したがって、以下の添付の請求の範囲が本発明の真の趣旨および範囲の中ですべてのこの種の変更、置換および等価物を含むことと解釈されることが意図される。
(参考文献)
[1]S. Avidan, A. Shashua, "Novel view synthesis in tensor space". In Confer ence on Computer Vision and Pattern Recognition, pp 1034-1040, San Ju an, Puerto Rico, 1997.
[2]J. F. Canny, "A computational approach to edge detection", IEEE Trans. Pa ttern Analysis and Machine Intelligence, Vol. 8 , No. 6, pp. 679-698, N ovember 1986.
[3]G.-C. Chang and W.-N. Lie, "Multi-view image compression and intermediate vie w synthesis for stereoscopic applications", IEEE International Symposium on Circuits and Systems, ISCAS 2000, pp. 277-280, 2000.
[4]N. L. Chang, A. Zakhor, "A multivalued representation for view synthesis", Proc. IEEE International Conference on Image Processing (ICIP'99), pp. 505-509, Oct. 1999.
[5]S. Chen, L. Williams, "View interpolation for image synthesis", Computer Graphics (SIGGRAPH'93), pp. 279-288, 1993.
[6]O. Faugeras, "Three-dimensional computer vision: A geometric viewpoint", MIT Press, Cambridge, Massachusetts, 1993.
[7]C. Fehn, P. Kauff, M. Op de Beeck, F. Ernst, W. Ijsselsteijn, M. Pollefeys, L . Vangool, E. Ofek, and I. Sexton, "An Evolutionary and Optimised Approach o n 3D-TV", IBC 2002, Int. Broadcast Convention, Amsterdam, Netherlan ds, Sept. 2002.
[8]F. Forsters, M. Lang, and B. Radig, "Real-time Range Imaging for Dynamic Scen es using colour-edge based Structured Light", in Proc. Int. Conf. Patte rn Recognition, vol. 3, pp. 645-628, 2002.
[9]R. Hartley, A. Zisserman, "Multiple View Geometry in Computer Vision", Ca mbridge University Press, 2003
[10]ISO/IEC JTC1/SC29/WG11 "Description of Exploration Experiments in 3D Video", Doc. N9596, Antalya, Turkey, Jan. 2008.
[11]ISO/IEC JTC1/SC29/WG11, "Text of ISO/IEC FDIS 23002-3 Representation of Auxi liary Video and Supplemental Information", Doc. N8768, Marrakech, Morocco, J anuary 2007.
[12]ISO/IEC JTC1/SC29/WG11, "Text of ISO/IEC 13818-1:2003/FDAM2 Carriage of Auxi liary Data", Doc. N8799, Marrakech, Morocco, January 2007.
[13]Jong Dae Oh; Siwei Ma; Kuo, C.-C.J., "Disparity Estimation and Virtual View Synthesis from Stereo Video", IEEE International Symposium on Circuits and S ystems, ISCAS 2007, pp. 993 - 996, May 2007.
[14]A. Katayama, K. Tanaka, T. Oshino, and H. Tamura, "A viewpoint dependent ste reoscopic display using interpolation of multi-viewpoint images", S. Fis her, J. Merritt, and B. Bolas, editors, Stereoscopic Displays and Virtual Re ality Systems II, Proc. SPIE, vol. 2409, pp. 11-20, 1995.
[15]P. Kauff, N. Atzpadin, C. Fehn, M. Muller, O. Schreer, A. Smolic, and R. Tan ger, "Depth Map Creation and Image Based Rendering for Advanced 3DTV Service s Providing Interoperability and Scalability", Signal Processing: Image Communication. Special Issue on 3DTV, February 2007.
[16]R. Koch, M. Pollefeys and L. Van Gool, "Multi Viewpoint Stereo from Uncalibr ated Video Sequences", Proc. European Conference on Computer Vision, EC CV'98, LNCS, Springer-Verlag, Freiburg, 1998.
[17]J. Konrad and M. Halle, "3-D Displays and Signal Processing - An Answer to 3-D Ills?", IEEE Signal Processing Magazine, Vol. 24, No. 6, Novemb er 2007.
[18]Y. Li, C.-K. Tang, and H.-Y. Shum, "Efficient dense depth estimation from de nse multiperspective panoramas," in Proc. International Conference on Co mputer Vision (ICCV), Vancouver, B.C., Canada, Jul. 2001, pp. 119-126.
[19]J.S. McVeigh, M. Siegel, and A. Jordan, "Intermediate view synthesis conside ring occluded and ambiguously referenced image regions", Signal Process ing: Image Communication, vol. 9, pp. 21 - 28, 1996.
[20]P. Merkle, A. Smolic, K. Mueller, and T. Wiegand, "Efficient Prediction Stru ctures for Multiview Video Coding", invited paper, Proc. IEEE Trans. on Circuits and Systems for Video Technology, Vol. 17, No. 11, November 20 07.
[21]M. Morimoto, K. Fujii, "A view synthesis method based on object coding and s imple disparity model", IEEE International Symposium on Communications and I nformation Technology, ISCIT 2004, vol. 2, pp. 853 - 856, Oct. 2004.
[22]J. Salvi, J. Pages, and J. Battle, "Patter Codification Strategies in Struct ured Light Systems", Pattern Recognition, vol. 37, no. 4, pp. 827- 849, 2004.
[23]D. Scharstein, "Stereo vision for view synthesis", IEEE Computer Societ y Conference on Computer Vision and Pattern Recognition (CVPR'96), pp. 852-857, San Francisco, California, 1996.
[24]K. Shoemake, "Animating Rotation with Quaternion Curves", ACM SIGGRAPH , San Francisco, USA, July, 1985.
[25]A. Smolic, K. Muller, P. Merkle, C. Fehn, P. Kauff, P. Eisert, and T. Wiegan d, "3D Video and Free Viewpoint Video - Technologies, Applications and MPEG Standards", ICME 2006, IEEE International Conference on Multimedia and Expo, Toronto, Ontario, Canada, July 2006.
[26]C. Strecha, T. Tuytelaars, and L. van Gool, "Dense Matching of Multiple wide -baseline Views, " In Proc. 9th IEEE International Conference on Comput er Vision, pp. 1194-1201, 2003.
[27]R.Y. Tsai, "A versatile camera calibration technique for high-accuracy 3D ma chine vision metrology using off-the-shelf TV camera and lenses", IEEE J ournal of Robotics and Automation, vol. RA-3, no. 4, 1987.
[28] HYPERLINK "http://www.philips.com/3Dsolutions" www.philips.com/3Dsolutions . - last visited 31/03/2008
[29]J. Woetzel and R. Koch, "Real-time multi-stereo depth estimation on GPU with approximative discontinuity handling", 1st European Conference on Visua l Media Production (CVMP 2004), London, United Kingdom, March 2004
[30]C. L. Zitnick, S. B. Kang, M. Uyttendaele, S. Winder, and R. Szeliski, "High -Quality Video View Interpolation Using a Layered Representation", ACM SIGGRAPH and ACM Trans. on Graphics, Los Angeles, CA, USA, August 2004.
[31]C. Chang, G. Bishop, and A. Lastra, "LDI tree: A hierarchical representation for image-based rendering," in Proceedings of ACM SIGGRAPH'99, Los Angeles, CA USA, 1999, pp. 291-298.
[32]X. Cheng, L. Sun, S. Yang, "Generation of Layered Depth Images from Multi-View Video", Proc. IEEE International Conference on Image Processing (ICIP'07), San Antonio, TX, USA, vol. 5, pp: 225-228, Sept. 2007.
[33]J. Shade, S. Gortler, L. Hey, and R. Szeliski, "Layered depth images", in Proceedings of ACM SIGGRAPH'98, Orlando, Florida, 1998, pp. 231-242.
[34]A. Smolic, K. Muller, K. Dix, P. Merkle, P. Kauff, and T. Wiegand, "Intermediate View Interpolation based on Multi-View Video plus Depth for Advanced 3D Video Systems", to be published in Proc. IEEE International Conference on Image Processing (ICIP'08), San Diego, CA, USA, Oct. 2008.

Claims (36)

  1. 第1の画像に対応する第1のイメージ(14)および前記第1の画像と異なる第2の画像に対応する第2のイメージ(16)から中間画像イメージ(12)を合成するための中間画像合成装置(10)であって、前記第1および第2のイメージは深度情報を含み、前記第2のイメージ(16)は非境界部(16a)およびフォアグランド/バックグラウンド境界領域(16b)に分割され、前記第2のイメージ(16)のフォアグラウンド/バックグラウンド境界領域(16b)はフォアグラウンド境界部(16b1)および前記フォアグラウンド境界部(16b1)と共通の要素をもたないバックグラウンド境界部(16b2)を含み、さもなければ前記中間画像イメージ(12)に表れるホールを満たすためだけに前記フォアグラウンド/バックグラウンド境界領域(16b)の前記バックグラウンド境界部(16b2)を用い、前記中間画像に投影し結合するために前記フォアグラウンド/バックグラウンド境界領域(16b)のフォアグラウンド境界部(16b1)を用いて、中間画像イメージ(12)を得るために前記第1のイメージ(14)および前記第2のイメージ(16)を前記中間画像に投影し結合するように構成され、前記中間画像合成装置は、
    予備の中間画像イメージ(24)を得るために前記中間画像に前記第1のイメージ(14)の少なくとも1部とともに前記第2のイメージの非境界部(16a)および前記フォアグラウンド境界部(16b1)を投影して結合するための手段(22)、および
    前記第2のイメージ(16)の投影されたバックグラウンド境界部によって前記予備の中間画像イメージ(24)に前記第2のイメージ(16)の前記バックグラウンド境界部(16b2)を投影し、前記予備の中間画像イメージ(24)における前記ホールを満たすための手段(26)を含む、中間画像合成装置。
  2. さらに、前記第2のイメージ(16)における前記フォアグランド/バックグラウンド境界領域(16b)を検出するための手段(18)、および
    前記第2のイメージ(16)が前記非境界部(16a)、前記フォアグラウンド境界部(16b1)および前記バックグラウンド境界部(16b2)に分割されるように、前記第2のイメージ(16)の前記フォアグラウンド/バックグラウンド境界部(16)を前記フォアグラウンド境界部(16b1)および前記バックグラウンド境界部(16b2)に分割するための手段(20)を含む、請求項1に記載の中間画像合成装置。
  3. 前記中間画像合成装置は、マルチビューデータ信号(32)から前記第2のイメージ(16)の前記非境界部(16)、前記フォアグラウンド境界部(16b1)および前記バックグラウンド境界部(16b2)を区別するレイヤー情報を得るように構成される、請求項1または請求項2に記載の中間画像合成装置。
  4. 前記検出するための手段(18)は前記第1のイメージ(14)におけるフォアグランド/バックグラウンド境界領域を検出するように構成され、前記第1のイメージ(14)が非境界部、フォアグラウンド境界部およびバックグラウンド境界部に分割されるように、前記分割するための手段(20)は前記第1のイメージ(14)の前記フォアグラウンド/バックグラウンド境界領域をフォアグラウンド境界部およびバックグラウンド境界部に分割するように構成され、前記予備的な中間画像イメージ(24)を得るために、前記投影し結合するための手段(22)は前記第1および第2のイメージ(14、16)の前記非境界部および前記フォアグラウンド境界部を前記中間画像に投影して結合するように構成され、投影された前記第1および第2のイメージ(14、16)のバックグラウンド境界部により、前記投影し満たすための手段(26)は前記第1および第2のイメージ(14、16)の前記バックグラウンド境界部を前記予備的な中間画像イメージ(24)に投影し、前記予備的な中間画像イメージ(24)におけるホールを満たすように構成される、請求項2に記載の中間画像合成装置。
  5. 前記中間画像合成装置はマルチビューデータ信号から前記第1のイメージ(14)の少なくとも非境界部およびバックグラウンド境界部を区別するレイヤー情報を得るように構成され、前記予備的な中間画像イメージ(24)を得るために、前記投影し結合する手段(22)は前記第2のイメージ(16)の前記非境界部(16a)と前記フォアグラウンド境界部(16b1)および前記第1のイメージ(14)の前記非境界部を前記中間画像に投影して結合するように構成され、前記第1および第2のイメージ(14、16)の投影されたバックグラウンド境界部により、前記投影して満たすための手段(26)は前記第1および第2のイメージ(14、16)の前記バックグラウンド境界部を前記予備的な中間画像イメージ(24)に投影し、前記予備的な中間画像イメージ(24)におけるホールを満たすように構成される、請求項1または請求項2に記載の中間画像合成装置。
  6. 前記中間画像合成装置は、前記第1のイメージ(14)の非境界部、フォアグラウンド境界部およびバックグラウンド境界部を区別するレイヤー情報を得るように構成され、前記予備的な中間画像イメージ(24)を得るために、前記投影し結合するための手段(22)は前記第1および第2のイメージ(14、16)の前記非境界部および前記フォアグラウンド境界部を前記中間画像に投影して結合するように構成され、前記第1および第2のイメージ(14、16)の投影されたバックグラウンド境界部により、前記投影し満たすための手段(26)は前記第1および第2のイメージ(14、16)の前記バックグラウンド境界部を前記予備的な中間画像イメージ(24)に投影し、前記予備的な中間画像イメージ(24)におけるホールを満たすように構成される、請求項1ないし請求項3のいずれかに記載の中間画像合成装置。
  7. 前記フォアグラウンド/バックグラウンド境界領域を検出するための手段(18)は、深度情報におけるエッジを検出するためのエッジ検出器を含む、請求項2または請求項4に記載の中間画像合成装置。
  8. 前記分割するための手段(20)は、フォアグランド/バックグラウンド境界領域(16b)として前記エッジの周辺のnサンプル広域部を前記フォアグラウンド境界部(16b1)および前記バックグラウンド境界部(16b2)に分割するように構成される、請求項2、請求項4または請求項7に記載の中間画像合成装置。
  9. サンプルが前記フォアグラウンド境界部(16b1)または前記バッククグラウンド境界部(16b2)のどちらに帰属するかに関して決めるために、前記分割するための手段(20)は前記フォアグランド/バックグラウンド境界領域(16b)のサンプルでの深度情報の深度と閾値とを比較することにより分割を実行するように構成される、請求項2、請求項4、請求項7または請求項8に記載の中間画像合成装置。
  10. 前記分割するための手段(20)は、前記サンプルに隣接する前記フォアグランド/バックグラウンド境界領域(16b)のサンプルでの深度情報の深度値の中心傾向を計算することにより前記閾値を引き出すように構成される、請求項9に記載の中間画像合成装置。
  11. 非境界中間画像イメージを得るために、前記投影して結合するための手段(22)は前記第1および第2のイメージ(14、16)の非境界部を前記中間画像に投影して結合し、前記非境界部の結合は前記第1および第2のイメージ(14、16)の間の平均化を含み、前記第1および第2のイメージ画像(14、16)の前記フォアグラウンド境界部を前記非境界中間画像イメージに投影して結合し、前記フォアグラウンド境界部の結合は前記非境界中間画像イメージのサンプルとそれ自身の平均化よりもむしろ前記第1および第2のイメージ(14、16)の前記フォアグラウンド境界部の投影から得られる同一場所に配置されたサンプルとの間の選択を含むように構成される、請求項4に記載の中間画像合成装置。
  12. 3D世界点を取得し、前記3D世界点を前記中間画像に投影するために、前記投影して結合するための手段(22)および前記投影して満たすための手段(26)は、関連する深度情報の使用による2Dから3Dへのサンプルの投影により前記中間画像へのそれぞれの投影を実行するように構成される、請求項1ないし請求項11のいずれかに記載の中間画像合成装置。
  13. 前記投影して結合するための手段(22)および前記投影して満たすための手段(26)は、前記第1の画像および前記第2の画像の投影マトリクスの間の補間により投影マトリクスを計算し、前記投影マトリクスの使用により前記3D世界点の投影を実行するように構成される、請求項12に記載の中間画像合成装置。
  14. 前記投影して結合するための手段(22)および前記投影して満たすための手段(26)は、前記中間画像からの偏差に応じた量でサンプル位置をピクセル平面内でシフトすることにより前記中間画像へのそれぞれの投影を実行するように構成される、請求項1ないし請求項13のいずれかに記載の中間画像合成装置。
  15. 前記中間画像合成装置は、マルチビューデータ信号から前記第1の画像に対応する前記第1のイメージ(14)および前記第2の画像に対応する前記第2のイメージ(16)を抽出し、前記第1および第2のイメージの深度情報を含むように構成され、前記第1のイメージ(14)の一部分のみが前記マルチビューデータ信号に含まれ、それと共通の要素をもたない部分は前記マルチビューデータ信号において破棄され、前記第2のイメージ(16)の投影バージョン(48)の中の非閉塞領域(50)の位置に応じた前記第1のイメージ(14)の部分は、バックグラウンド境界部(1662)のない前記第2のイメージ(16)を前記第1の画像に投影することにより得られる、請求項1ないし請求項14に記載の中間画像合成装置。
  16. さらに、前記中間画像イメージの残りのホールへのフィルタリングおよび/または外挿によって前記中間画像イメージを向上させるための手段(28)を含む、請求項1ないし請求項15のいずれかに記載の中間画像合成装置。
  17. さらに、前記中間画像イメージのフォアグラウンド/バックグラウンド境界領域を検出し、前記中間画像イメージの前記フォアグラウンド/バックグラウンド境界領域の中でローパスフィルタリングすることにより前記中間画像イメージを向上させるための手段(28)を含む、請求項1ないし請求項16のいずれかに記載の中間画像合成装置。
  18. 前記第1および第2のイメージ(14、16)はMVDまたはLDV映像の一部である、請求項1ないし請求項17のいずれかに記載の中間画像合成装置。
  19. 前記第1および第2の画像(14、16)は深度情報に関連する色情報を有する、請求項1ないし請求項18のいずれかに記載の中間画像合成装置。
  20. 前記中間画像合成装置は3DTVディスプレイシステムの一部である、請求項1ないし請求項19のいずれかに記載の中間画像合成装置。
  21. 第1の画像に対応する第1のイメージ(34)および前記第1の画像と異なる第2の画像に対応する第2のイメージ(36)からマルチビューデータ信号(32)を抽出するためのマルチビューデータ信号抽出装置であって、前記第1および第2のイメージは深度情報を含み、
    前記第2のイメージにおけるフォアグランド/バックグラウンド境界(40)を検出するための手段(38)、
    前記フォアグランド/バックグラウンド境界(40)に沿って前記第2のイメージのバックグラウンド境界部(44)を決定するための手段(42)、
    非閉塞領域(50)を有する前記第2のイメージ(36)の投影バージョン(48)を得るために前記バックグラウンド境界部(44)のない前記第2のイメージ(36)を前記第1のイメージに投影するための手段(46)、および
    前記第2のイメージ(36)の投影バージョン(48)の中の前記非閉塞領域(50)の位置に応じて、前記第1のイメージ(34)の一部とともに前記第2のイメージ(36)を前記マルチビューデータ信号(32)に挿入するための手段(52)を含む、マルチビューデータ信号抽出装置。
  22. さらに、前記第2のイメージの投影バージョンの中の前記非閉塞領域(50)が及ぶ前記第1のイメージ(34)の領域として前記マルチビューデータ信号(32)に挿入される前記第1のイメージ(34)の一部を決定するための手段(54)を含む、請求項21に記載のマルチビューデータ信号抽出装置。
  23. 非閉塞部を有する前記第2のイメージのさらなる投影バージョンを得るために、前記投影するための手段(48)は、前記バックグラウンド境界部のない前記第2のイメージを第3の画像に投影するように構成され、前記挿入するための手段は、前記第2のイメージのさらなる投影バージョンの中の前記非閉塞領域の位置に応じて、前記第2のイメージ、前記第1のイメージの一部および第3のイメージの一部を前記マルチビューデータ信号に挿入するように構成され、前記第2の画像は前記第1および第3の画像の間に配置される、請求項21または請求項22に記載のマルチビューデータ信号抽出装置。
  24. 前記挿入するための手段(52)は、レイヤー情報を前記マルチビューデータ信号(32)に挿入し、前記レイヤー情報は、少なくとも前記非境界部(56)および前記第2のイメージの前記バックグラウンド境界部(44)を区別するように構成される、請求項23に記載のマルチビューデータ信号抽出装置。
  25. さらに、前記第2のイメージの投影および/または前記第2のイメージの投影バージョンのフィルタリングから生じている小さいホールを満たすための手段(58)を含む、請求項21ないし請求項24のいずれかに記載のマルチビューデータ信号抽出装置。
  26. 前記挿入するための手段(52)は、前記第2のイメージの投影バージョンの中の前記非閉塞領域(50)の位置に応じた部分と共通の要素をもたない前記第1のイメージの残りの部分を廃棄し、前記マルチビューデータ信号(32)における破棄を示すように構成される、請求項21ないし請求項25のいずれかに記載のマルチビューデータ信号抽出装置。
  27. フォアグランド/バックグラウンド境界(40)を検出するための手段(38)は、深度情報におけるエッジを検出するためのエッジ検出器を含む、請求項21ないし請求項26のいずれかに記載のマルチビューデータ信号抽出装置。
  28. 前記決定するための手段(42)は、エッジの周辺のn−サンプル広域部をフォアグラウンド境界部および前記バックグラウンド境界部に分割するように構成される、請求項27に記載のマルチビューデータ信号抽出装置。
  29. 前記決定するための手段(42)は、サンプルが前記フォアグラウンド境界部に属するか前記バックグラウンド境界部に属するかに関して決定するために、n−サンプル広域部のサンプルでの深度情報の深度と閾値とを比較することにより分割を実行するように構成される、請求項28に記載のマルチビューデータ信号抽出装置。
  30. 前記決定するための手段(42)は、サンプルに隣接するnサンプル広域部のサンプルでの深度情報の深度値の中心傾向を計算することにより閾値を引き出すように構成される、請求項29に記載のマルチビューデータ信号抽出装置。
  31. 3D世界点を取得し、前記3D世界点を前記中間画像に投影するために、前記投影するための手段(46)は、関連する深度情報の使用により2Dから3Dにサンプルを投影することによって前記第1の画像へのそれぞれの投影を実行するように構成される、請求項21ないし請求項30のいずれかに記載のマルチビューデータ信号抽出装置。
  32. 前記投影するための手段(46)は、前記第1の画像および前記第2の画像の間の補間により投影マトリクスを計算し、前記投影マトリクスを用いて3D世界点の投影を実行するように構成される、請求項31に記載のマルチビューデータ信号抽出装置。
  33. 前記投影するための手段(42)は、前記中間画像からの偏差に応じた量でサンプル位置をピクセル平面内でシフトすることにより前記中間画像へのそれぞれの投影を実行するように構成される、請求項21ないし請求項32のいずれかに記載のマルチビューデータ信号抽出装置。
  34. 第1の画像に対応する第1のイメージおよび前記第1の画像と異なる第2の画像に対応する第2のイメージから中間画像イメージを合成するための中間画像合成方法であって、前記第1および第2のイメージは深度情報を含み、前記第2のイメージは非境界部およびフォアグランド/バックグラウンド境界領域に分割され、前記第2のイメージ(16)のフォアグラウンド/バックグラウンド境界領域(16b)はフォアグラウンド境界部(16b1)および前記フォアグラウンド境界部(16b1)と共通の要素をもたないバックグラウンド境界部(16b2)を含み、前記中間画像合成方法は、
    予備の中間画像イメージ(24)を得るために前記中間画像に前記第1のイメージ(14)の少なくとも1部とともに前記第2のイメージの非境界部(16a)および前記フォアグラウンド境界部(16b1)を投影して結合するステップ、および
    前記第2のイメージ(16)の投影されたバックグラウンド境界部によって前記予備の中間画像イメージ(24)に前記第2のイメージ(16)の前記バックグラウンド境界部(16b2)を投影し、前記予備の中間画像イメージ(24)における前記ホールを満たすステップを含む、中間画像合成方法。
  35. 第1の画像に対応する第1のイメージおよび前記第1の画像と異なる第2の画像に対応する第2のイメージを含むマルチビュー表現からマルチビューデータ信号を抽出するためのマルチビューデータ信号抽出方法であって、前記第1および第2のイメージは深度情報を含み、
    前記第2のイメージにおけるフォアグランド/バックグラウンド境界を検出するステップ、
    前記フォアグランド/バックグラウンド境界に沿ってバックグラウンド境界部を決定するステップ、
    非閉塞領域を有する前記第2のイメージの投影バージョンを得るために前記バックグラウンド境界部のない前記第2のイメージを前記第1の画像に投影するステップ、および
    前記第2のイメージの投影バージョンの中の前記非閉塞領域の位置に応じて、前記第1のイメージの一部とともに前記第2のイメージを前記マルチビューデータ信号に挿入するステップを含む、マルチビューデータ信号抽出方法。
  36. コンピュータ上で動作するときに、請求項34または請求項35に記載の方法を実行するための命令を有する、コンピュータ・プログラム。
JP2011529470A 2008-10-02 2009-09-28 中間画像合成およびマルチビューデータ信号抽出 Active JP5243612B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US10228608P 2008-10-02 2008-10-02
US61/102,286 2008-10-02
PCT/EP2009/006977 WO2010037512A1 (en) 2008-10-02 2009-09-28 Intermediate view synthesis and multi-view data signal extraction

Publications (2)

Publication Number Publication Date
JP2012504805A JP2012504805A (ja) 2012-02-23
JP5243612B2 true JP5243612B2 (ja) 2013-07-24

Family

ID=41462245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011529470A Active JP5243612B2 (ja) 2008-10-02 2009-09-28 中間画像合成およびマルチビューデータ信号抽出

Country Status (6)

Country Link
US (1) US9214040B2 (ja)
EP (1) EP2327059B1 (ja)
JP (1) JP5243612B2 (ja)
KR (1) KR101468267B1 (ja)
CN (1) CN102239506B (ja)
WO (1) WO2010037512A1 (ja)

Families Citing this family (217)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8508550B1 (en) * 2008-06-10 2013-08-13 Pixar Selective rendering of objects
EP2329653B1 (en) 2008-08-20 2014-10-29 Thomson Licensing Refined depth map
KR101502362B1 (ko) * 2008-10-10 2015-03-13 삼성전자주식회사 영상처리 장치 및 방법
CN102272778B (zh) * 2009-01-07 2015-05-20 汤姆森特许公司 联合深度估计
CN102356637B (zh) * 2009-01-30 2017-02-22 汤姆森特许公司 深度图的编码
US8436852B2 (en) * 2009-02-09 2013-05-07 Microsoft Corporation Image editing consistent with scene geometry
WO2010126612A2 (en) 2009-05-01 2010-11-04 Thomson Licensing Reference picture lists for 3dv
TWI493959B (zh) * 2009-05-07 2015-07-21 Mstar Semiconductor Inc 影像處理系統及影像處理方法
KR101590763B1 (ko) * 2009-06-10 2016-02-02 삼성전자주식회사 Depth map 오브젝트의 영역 확장을 이용한 3d 영상 생성 장치 및 방법
EP2275990B1 (de) * 2009-07-06 2012-09-26 Sick Ag 3D-Sensor
US8300087B2 (en) * 2009-10-23 2012-10-30 Broadcom Corporation Method and system for response time compensation for 3D video processing
US8514491B2 (en) 2009-11-20 2013-08-20 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
KR101281961B1 (ko) * 2009-12-21 2013-07-03 한국전자통신연구원 깊이 영상 편집 방법 및 장치
US8893034B2 (en) * 2010-01-27 2014-11-18 Yahoo! Inc. Motion enabled multi-frame challenge-response test
JP5327339B2 (ja) * 2010-02-02 2013-10-30 コニカミノルタ株式会社 画像処理システム、画像処理方法、およびプログラム
JP5812599B2 (ja) * 2010-02-25 2015-11-17 キヤノン株式会社 情報処理方法及びその装置
JP2011248723A (ja) * 2010-05-28 2011-12-08 Sony Corp 画像処理装置および方法、並びにプログラム
JP5627498B2 (ja) * 2010-07-08 2014-11-19 株式会社東芝 立体画像生成装置及び方法
EP2596475B1 (en) * 2010-07-19 2019-01-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Filling disocclusions in a virtual view
EP2426929A1 (en) 2010-09-06 2012-03-07 Telefonaktiebolaget L M Ericsson AB (Publ) Viewpoint navigation
WO2012036902A1 (en) 2010-09-14 2012-03-22 Thomson Licensing Compression methods and apparatus for occlusion data
EP2451164B1 (en) * 2010-11-08 2017-05-03 Telefonaktiebolaget LM Ericsson (publ) Improved view synthesis
US9094660B2 (en) * 2010-11-11 2015-07-28 Georgia Tech Research Corporation Hierarchical hole-filling for depth-based view synthesis in FTV and 3D video
JP5748463B2 (ja) * 2010-12-02 2015-07-15 キヤノン株式会社 符号化装置およびプログラム
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
US9177381B2 (en) * 2010-12-22 2015-11-03 Nani Holdings IP, LLC Depth estimate determination, systems and methods
KR101798408B1 (ko) 2011-01-03 2017-11-20 삼성전자주식회사 3d 디스플레이를 위한 고품질 멀티-뷰 영상의 생성 방법 및 장치
US9582928B2 (en) 2011-01-13 2017-02-28 Samsung Electronics Co., Ltd. Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching
KR101960852B1 (ko) * 2011-01-13 2019-03-22 삼성전자주식회사 배경 픽셀 확장 및 배경 우선 패치 매칭을 사용하는 멀티 뷰 렌더링 장치 및 방법
JP2012177676A (ja) * 2011-01-31 2012-09-13 Sony Corp 画像処理装置および方法、並びにプログラム
MX2013009234A (es) * 2011-02-18 2013-08-29 Sony Corp Dispositivo de procesamiento de imagenes y metodo de procesamiento de imagenes.
JP5743142B2 (ja) * 2011-03-29 2015-07-01 ソニー株式会社 画像理装置および方法、並びにプログラム
US20130063576A1 (en) * 2011-04-28 2013-03-14 Panasonic Corporation Stereoscopic intensity adjustment device, stereoscopic intensity adjustment method, program, integrated circuit and recording medium
US9111389B2 (en) 2011-05-12 2015-08-18 Panasonic Intellectual Property Management Co., Ltd. Image generation apparatus and image generation method
US8629901B2 (en) * 2011-05-19 2014-01-14 National Taiwan University System and method of revising depth of a 3D image pair
JP5849811B2 (ja) * 2011-05-27 2016-02-03 株式会社Jvcケンウッド 裸眼立体視用映像データ生成方法
US8884949B1 (en) 2011-06-06 2014-11-11 Thibault Lambert Method and system for real time rendering of objects from a low resolution depth camera
EP2533212A1 (en) * 2011-06-10 2012-12-12 Samsung Electronics Co., Ltd. Reference layer for hole recovery within an output image.
JP5824896B2 (ja) * 2011-06-17 2015-12-02 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN102231841A (zh) * 2011-06-23 2011-11-02 康佳集团股份有限公司 基于双视点立体数据裸眼立体显示电视及实现方法
US8743180B2 (en) * 2011-06-28 2014-06-03 Cyberlink Corp. Systems and methods for generating a depth map and converting two-dimensional data to stereoscopic data
EP2547111B1 (en) 2011-07-12 2017-07-19 Samsung Electronics Co., Ltd. Method and apparatus for processing multi-view image using hole rendering
EP2742695A4 (en) 2011-08-10 2016-08-31 Ericsson Telefon Ab L M METHOD AND APPARATUS FOR CREATING A DISOCLEMENT CARD USED FOR 3D VIDEO CODING
US8817073B2 (en) * 2011-08-12 2014-08-26 Himax Technologies Limited System and method of processing 3D stereoscopic image
US20130235155A1 (en) * 2011-08-18 2013-09-12 Beijing Goland Tech Co., Ltd. Method of converting 2d into 3d based on image motion information
JP5711634B2 (ja) * 2011-09-22 2015-05-07 株式会社東芝 画像処理装置、画像処理方法および画像処理プログラム
JP6140709B2 (ja) * 2011-09-28 2017-05-31 ペリカン イメージング コーポレイション 明視野画像ファイルを符号化および復号するためのシステムおよび方法
CN103828359B (zh) 2011-09-29 2016-06-22 杜比实验室特许公司 用于产生场景的视图的方法、编码***以及解码***
WO2013045853A1 (fr) * 2011-09-29 2013-04-04 Thomson Licensing Méthode et dispositif de filtrage d'une carte de disparité
US20130088485A1 (en) * 2011-10-10 2013-04-11 John Gerald Chapman Method of storing or transmitting auto-stereoscopic images
EP2777266B1 (en) 2011-11-11 2018-07-25 GE Video Compression, LLC Multi-view coding with exploitation of renderable portions
EP2777256B1 (en) 2011-11-11 2017-03-29 GE Video Compression, LLC Multi-view coding with effective handling of renderable portions
KR102009049B1 (ko) * 2011-11-11 2019-08-08 소니 주식회사 송신 장치, 송신 방법, 수신 장치 및 수신 방법
CN109218735B (zh) * 2011-11-11 2024-07-05 Ge视频压缩有限责任公司 用于编码和解码的设备和方法
WO2013073316A1 (ja) * 2011-11-14 2013-05-23 独立行政法人情報通信研究機構 立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム
US8970693B1 (en) * 2011-12-15 2015-03-03 Rawles Llc Surface modeling with structured light
DE102011121473A1 (de) * 2011-12-17 2013-06-20 Valeo Schalter Und Sensoren Gmbh Verfahren zum Anzeigen von Bildern auf einer Anzeigeeinrichtung eines Kraftfahrzeugs,Fahrerassistenzeinrichtung, Kraftfahrzeug und Computerprogramm
US9412206B2 (en) 2012-02-21 2016-08-09 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
JP5987899B2 (ja) * 2012-03-30 2016-09-07 富士通株式会社 生成装置、生成プログラムおよび生成方法
JP6128748B2 (ja) * 2012-04-13 2017-05-17 キヤノン株式会社 画像処理装置及び方法
JP6016061B2 (ja) * 2012-04-20 2016-10-26 Nltテクノロジー株式会社 画像生成装置、画像表示装置及び画像生成方法並びに画像生成プログラム
US8462155B1 (en) * 2012-05-01 2013-06-11 Google Inc. Merging three-dimensional models based on confidence scores
US20130321564A1 (en) 2012-05-31 2013-12-05 Microsoft Corporation Perspective-correct communication window with motion parallax
US9767598B2 (en) 2012-05-31 2017-09-19 Microsoft Technology Licensing, Llc Smoothing and robust normal estimation for 3D point clouds
US9846960B2 (en) * 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
EP2670146A1 (en) * 2012-06-01 2013-12-04 Alcatel Lucent Method and apparatus for encoding and decoding a multiview video stream
TWI594616B (zh) * 2012-06-14 2017-08-01 杜比實驗室特許公司 用於立體及自動立體顯示器之深度圖傳遞格式
KR20150023907A (ko) 2012-06-28 2015-03-05 펠리칸 이매징 코포레이션 결함있는 카메라 어레이들, 광학 어레이들 및 센서들을 검출하기 위한 시스템들 및 방법들
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
JP6028426B2 (ja) * 2012-07-10 2016-11-16 株式会社Jvcケンウッド 立体判別画像生成装置、立体判別画像生成方法、立体判別画像生成プログラム
US20150237323A1 (en) * 2012-07-23 2015-08-20 Thomlson Licensing 3d video representation using information embedding
US9140607B2 (en) * 2012-07-27 2015-09-22 Imax Corporation Observer metameric failure reduction method
US9134178B2 (en) * 2012-07-27 2015-09-15 Imax Corporation Observer metameric failure compensation method
CN102819400A (zh) * 2012-08-14 2012-12-12 北京小米科技有限责任公司 一种移动终端的桌面***及界面交互方法、装置
EP4296963A3 (en) 2012-08-21 2024-03-27 Adeia Imaging LLC Method for depth detection in images captured using array cameras
CN104685513B (zh) 2012-08-23 2018-04-27 派力肯影像公司 根据使用阵列源捕捉的低分辨率图像的基于特征的高分辨率运动估计
JP6021541B2 (ja) * 2012-09-13 2016-11-09 キヤノン株式会社 画像処理装置及び方法
KR101901184B1 (ko) 2012-09-20 2018-09-21 삼성전자주식회사 깊이 영상을 사용한 컬러 영상 처리 장치 및 방법
US9641821B2 (en) * 2012-09-24 2017-05-02 Panasonic Intellectual Property Management Co., Ltd. Image signal processing device and image signal processing method
KR20140039649A (ko) * 2012-09-24 2014-04-02 삼성전자주식회사 다시점 영상 생성 방법 및 다시점 영상 디스플레이 장치
US20140092281A1 (en) 2012-09-28 2014-04-03 Pelican Imaging Corporation Generating Images from Light Fields Utilizing Virtual Viewpoints
JP2014082541A (ja) * 2012-10-12 2014-05-08 National Institute Of Information & Communication Technology 互いに類似した情報を含む複数画像のデータサイズを低減する方法、プログラムおよび装置
JP5664626B2 (ja) 2012-10-12 2015-02-04 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP2014082540A (ja) * 2012-10-12 2014-05-08 National Institute Of Information & Communication Technology 互いに類似した情報を含む複数画像のデータサイズを低減する方法、プログラム、および装置、ならびに、互いに類似した情報を含む複数画像を表現するデータ構造
US9241146B2 (en) * 2012-11-02 2016-01-19 Nvidia Corporation Interleaved approach to depth-image-based rendering of stereoscopic images
EP2917893A4 (en) * 2012-11-12 2015-11-25 Ericsson Telefon Ab L M PROCESSING DEPICTIONS
CN102938845B (zh) * 2012-11-26 2015-04-01 四川长虹电器股份有限公司 基于透视投影的实时虚拟视点生成方法
US9681154B2 (en) * 2012-12-06 2017-06-13 Patent Capital Group System and method for depth-guided filtering in a video conference environment
ITTO20121073A1 (it) * 2012-12-13 2014-06-14 Rai Radiotelevisione Italiana Apparato e metodo per la generazione e la ricostruzione di un flusso video
US9171373B2 (en) * 2012-12-26 2015-10-27 Ncku Research And Development Foundation System of image stereo matching
EP2765775A1 (en) * 2013-02-06 2014-08-13 Koninklijke Philips N.V. System for generating intermediate view images
EP2765774A1 (en) * 2013-02-06 2014-08-13 Koninklijke Philips N.V. System for generating an intermediate view image
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9538081B1 (en) 2013-03-14 2017-01-03 Amazon Technologies, Inc. Depth-based image stabilization
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
EP2973476A4 (en) 2013-03-15 2017-01-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
CN103209334B (zh) * 2013-03-18 2015-01-28 中山大学 一种2.5d视频到多视点3d视频中虚拟视点综合和空洞的修补方法
JP2014192702A (ja) * 2013-03-27 2014-10-06 National Institute Of Information & Communication Technology 複数の入力画像をエンコーディングする方法、プログラムおよび装置
CN105144710B (zh) * 2013-05-20 2017-09-12 英特尔公司 用于增加深度相机图像的精度的技术
US9460543B2 (en) * 2013-05-31 2016-10-04 Intel Corporation Techniques for stereo three dimensional image mapping
US9866813B2 (en) 2013-07-05 2018-01-09 Dolby Laboratories Licensing Corporation Autostereo tapestry representation
CN104424624B (zh) * 2013-08-28 2018-04-10 中兴通讯股份有限公司 一种图像合成的优化方法及装置
US20150063455A1 (en) * 2013-09-02 2015-03-05 Humax Holdings Co., Ltd. Methods and apparatuses for predicting depth quadtree in three-dimensional video
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
US20160295200A1 (en) * 2013-11-20 2016-10-06 Koninklijke Philips N.V. Generaton of images for an autostereoscopic multi-view display
US9456134B2 (en) 2013-11-26 2016-09-27 Pelican Imaging Corporation Array camera configurations incorporating constituent array cameras and constituent cameras
US9484005B2 (en) 2013-12-20 2016-11-01 Qualcomm Incorporated Trimming content for projection onto a target
TW201528775A (zh) * 2014-01-02 2015-07-16 Ind Tech Res Inst 景深圖校正方法及系統
KR102265109B1 (ko) * 2014-01-24 2021-06-15 삼성전자주식회사 영상 처리 방법 및 장치
CN103747229B (zh) * 2014-01-27 2015-08-19 电子科技大学 三维视频虚拟视点合成中彩色混叠及阴影部分的处理方法
US10438631B2 (en) 2014-02-05 2019-10-08 Snap Inc. Method for real-time video processing involving retouching of an object in the video
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
CN103945206B (zh) * 2014-04-22 2015-08-26 冠捷显示科技(厦门)有限公司 一种基于相似帧比较的立体图像合成***
US20150348319A1 (en) * 2014-06-03 2015-12-03 Alexey M. Supikov Adaptive re-meshing for view interpolation from images with depth or disparity
US10250871B2 (en) 2014-09-29 2019-04-02 Fotonation Limited Systems and methods for dynamic calibration of array cameras
US10650574B2 (en) 2014-10-31 2020-05-12 Fyusion, Inc. Generating stereoscopic pairs of images from a single lens camera
US10586378B2 (en) 2014-10-31 2020-03-10 Fyusion, Inc. Stabilizing image sequences based on camera rotation and focal length parameters
US10262426B2 (en) 2014-10-31 2019-04-16 Fyusion, Inc. System and method for infinite smoothing of image sequences
US10726560B2 (en) 2014-10-31 2020-07-28 Fyusion, Inc. Real-time mobile device capture and generation of art-styled AR/VR content
US10719939B2 (en) 2014-10-31 2020-07-21 Fyusion, Inc. Real-time mobile device capture and generation of AR/VR content
US9940541B2 (en) 2015-07-15 2018-04-10 Fyusion, Inc. Artificially rendering images using interpolation of tracked control points
US10275935B2 (en) 2014-10-31 2019-04-30 Fyusion, Inc. System and method for infinite synthetic image generation from multi-directional structured image array
US10176592B2 (en) 2014-10-31 2019-01-08 Fyusion, Inc. Multi-directional structured image array capture on a 2D graph
US10726593B2 (en) 2015-09-22 2020-07-28 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US9727977B2 (en) * 2014-12-29 2017-08-08 Daqri, Llc Sample based color extraction for augmented reality
WO2016112019A1 (en) * 2015-01-06 2016-07-14 Oculus Vr, Llc Method and system for providing depth mapping using patterned light
CN106034213B (zh) * 2015-03-12 2019-02-22 株式会社理光 生成光雕投影内容的方法、设备和***
JP6866299B2 (ja) 2015-04-23 2021-04-28 オステンド・テクノロジーズ・インコーポレーテッド 全方向視差ライトフィールド表示システム用の方法および装置
EP3286737A1 (en) * 2015-04-23 2018-02-28 Ostendo Technologies, Inc. Methods for full parallax compressed light field synthesis utilizing depth information
US11095869B2 (en) 2015-09-22 2021-08-17 Fyusion, Inc. System and method for generating combined embedded multi-view interactive digital media representations
US10852902B2 (en) 2015-07-15 2020-12-01 Fyusion, Inc. Automatic tagging of objects on a multi-view interactive digital media representation of a dynamic entity
US11006095B2 (en) 2015-07-15 2021-05-11 Fyusion, Inc. Drone based capture of a multi-view interactive digital media
US10222932B2 (en) 2015-07-15 2019-03-05 Fyusion, Inc. Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations
US10698558B2 (en) 2015-07-15 2020-06-30 Fyusion, Inc. Automatic tagging of objects on a multi-view interactive digital media representation of a dynamic entity
US10147211B2 (en) 2015-07-15 2018-12-04 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US10242474B2 (en) * 2015-07-15 2019-03-26 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US10750161B2 (en) 2015-07-15 2020-08-18 Fyusion, Inc. Multi-view interactive digital media representation lock screen
CN105120256A (zh) * 2015-07-31 2015-12-02 努比亚技术有限公司 移动终端及其通过拍摄3d图像合成图片的方法和装置
KR102380862B1 (ko) 2015-09-01 2022-03-31 삼성전자주식회사 영상 처리 방법 및 장치
US11783864B2 (en) 2015-09-22 2023-10-10 Fyusion, Inc. Integration of audio into a multi-view interactive digital media representation
US10419788B2 (en) * 2015-09-30 2019-09-17 Nathan Dhilan Arimilli Creation of virtual cameras for viewing real-time events
US10448030B2 (en) 2015-11-16 2019-10-15 Ostendo Technologies, Inc. Content adaptive light field compression
US10846895B2 (en) * 2015-11-23 2020-11-24 Anantha Pradeep Image processing mechanism
EP3211599A1 (en) * 2016-02-29 2017-08-30 Thomson Licensing Adaptive depth-guided non-photorealistic rendering method, corresponding computer program product, computer-readable carrier medium and device
FI20165256A (fi) * 2016-03-24 2017-09-25 Nokia Technologies Oy Laitteisto, menetelmä ja tietokoneohjelma videokoodaukseen ja -dekoodaukseen
US10453431B2 (en) 2016-04-28 2019-10-22 Ostendo Technologies, Inc. Integrated near-far light field display systems
CN106060509B (zh) * 2016-05-19 2018-03-13 西安电子科技大学 引入颜色校正的自由视点图像合成方法
DE102016211453A1 (de) 2016-06-27 2017-12-28 Conti Temic Microelectronic Gmbh Verfahren und Fahrzeugsteuersystem zum Erzeugen von Abbildungen eines Umfeldmodells und entsprechendes Fahrzeug
CN106210722B (zh) * 2016-07-08 2019-06-25 上海大学 基于hevc的分层深度视频残差层数据的编码方法
US10380950B2 (en) * 2016-09-23 2019-08-13 Novatek Microelectronics Corp. Method for reducing motion blur and head mounted display apparatus
US11202017B2 (en) 2016-10-06 2021-12-14 Fyusion, Inc. Live style transfer on a mobile device
GB2555585A (en) * 2016-10-31 2018-05-09 Nokia Technologies Oy Multiple view colour reconstruction
KR102004247B1 (ko) * 2016-11-25 2019-07-29 경희대학교 산학협력단 영상 병렬 처리 방법 및 장치
WO2018117587A1 (en) * 2016-12-19 2018-06-28 Samsung Electronics Co., Ltd. Method and system for producing 360 degree content on rectangular projection in electronic device
KR101993962B1 (ko) * 2016-12-22 2019-07-01 전자부품연구원 중간시점 영상합성에서의 n-시점 블렌딩 기반 홀 채움 방법
CN106791773B (zh) * 2016-12-30 2018-06-01 浙江工业大学 一种基于深度图像的新视点合成方法
US10353946B2 (en) 2017-01-18 2019-07-16 Fyusion, Inc. Client-server communication for live search using multi-view digital media representations
US10437879B2 (en) 2017-01-18 2019-10-08 Fyusion, Inc. Visual search using multi-view interactive digital media representations
KR20180090022A (ko) * 2017-02-02 2018-08-10 한국전자통신연구원 다중 전방향 카메라 및 마이크 기반 가상현실 제공 방법 및 가상 현실 제공 방법을 수행하는 음향 신호 처리 장치 및 영상 신호 처리 장치
US11044464B2 (en) 2017-02-09 2021-06-22 Fyusion, Inc. Dynamic content modification of image and video based multi-view interactive digital media representations
US10440351B2 (en) 2017-03-03 2019-10-08 Fyusion, Inc. Tilts as a measure of user engagement for multiview interactive digital media representations
US10356395B2 (en) 2017-03-03 2019-07-16 Fyusion, Inc. Tilts as a measure of user engagement for multiview digital media representations
US10200677B2 (en) 2017-05-22 2019-02-05 Fyusion, Inc. Inertial measurement unit progress estimation
US10313651B2 (en) 2017-05-22 2019-06-04 Fyusion, Inc. Snapshots at predefined intervals or angles
US10237477B2 (en) 2017-05-22 2019-03-19 Fyusion, Inc. Loop closure
US11069147B2 (en) 2017-06-26 2021-07-20 Fyusion, Inc. Modification of multi-view interactive digital media representation
EP3422708A1 (en) * 2017-06-29 2019-01-02 Koninklijke Philips N.V. Apparatus and method for generating an image
DE102017114611A1 (de) * 2017-06-30 2019-01-03 Connaught Electronics Ltd. Verfahren zum Erzeugen zumindest eines fusionierten perspektivischen Bildes eines Kraftfahrzeugs und eines Umgebungsbereiches des Kraftfahrzeugs, Kamerasystem sowie Kraftfahrzeug
GB2564642A (en) * 2017-07-10 2019-01-23 Nokia Technologies Oy Methods and apparatuses for panoramic image processing
US10432944B2 (en) 2017-08-23 2019-10-01 Avalon Holographics Inc. Layered scene decomposition CODEC system and methods
US10638109B2 (en) * 2017-09-15 2020-04-28 Elphel, Inc. Method for the FPGA-based long range multi-view stereo with differential image rectification
US10469768B2 (en) 2017-10-13 2019-11-05 Fyusion, Inc. Skeleton-based effects and background replacement
WO2019077199A1 (en) * 2017-10-18 2019-04-25 Nokia Technologies Oy APPARATUS, METHOD, AND COMPUTER PROGRAM FOR VOLUMETRIC VIDEO
US10089796B1 (en) 2017-11-01 2018-10-02 Google Llc High quality layered depth image texture rasterization
US10504280B2 (en) * 2018-01-10 2019-12-10 Qualcomm Incorporated Accelerated occlusion computation
DE102018203590A1 (de) 2018-03-09 2019-09-12 Conti Temic Microelectronic Gmbh Surroundview-System mit angepasster Projektionsfläche
US10687046B2 (en) 2018-04-05 2020-06-16 Fyusion, Inc. Trajectory smoother for generating multi-view interactive digital media representations
CN112237005B (zh) * 2018-04-05 2023-11-07 Vid拓展公司 用于全向视频的视点元数据
US10592747B2 (en) 2018-04-26 2020-03-17 Fyusion, Inc. Method and apparatus for 3-D auto tagging
US10382739B1 (en) 2018-04-26 2019-08-13 Fyusion, Inc. Visual annotation using tagging sessions
CN108924529B (zh) 2018-07-25 2020-03-17 北京小米移动软件有限公司 图像显示的控制方法及装置
WO2020036389A1 (en) * 2018-08-13 2020-02-20 Lg Electronics Inc. Method for transmitting video, apparatus for transmitting video, method for receiving video, and apparatus for receiving video
RU2690757C1 (ru) * 2018-08-21 2019-06-05 Самсунг Электроникс Ко., Лтд. Система синтеза промежуточных видов светового поля и способ ее функционирования
JP7123736B2 (ja) * 2018-10-23 2022-08-23 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US11394946B2 (en) * 2018-10-30 2022-07-19 Lg Electronics Inc. Video transmitting method, video transmitting apparatus, video receiving method, and video receiving apparatus
CN111147868A (zh) * 2018-11-02 2020-05-12 广州灵派科技有限公司 一种自由视点视频导播***
US11223817B2 (en) * 2018-11-12 2022-01-11 Electronics And Telecommunications Research Institute Dual stereoscopic image display apparatus and method
US11089279B2 (en) 2018-12-06 2021-08-10 Htc Corporation 3D image processing method, camera device, and non-transitory computer readable storage medium
CN109727196B (zh) * 2018-12-26 2023-06-02 呈像科技(北京)有限公司 图像内插处理方法
CN111405262B (zh) * 2019-01-02 2021-09-14 ***通信有限公司研究院 一种视点信息生成方法、装置、***、设备和介质
US11670039B2 (en) 2019-03-04 2023-06-06 Dolby Laboratories Licensing Corporation Temporal hole filling for depth image based video rendering
US11064218B2 (en) * 2019-03-19 2021-07-13 Electronics And Telecommunications Research Institute Method and apparatus for encoding/decoding image for virtual view synthesis
US10957027B2 (en) * 2019-03-26 2021-03-23 Intel Corporation Virtual view interpolation between camera views for immersive visual experience
US11265487B2 (en) 2019-06-05 2022-03-01 Mediatek Inc. Camera view synthesis on head-mounted display for virtual reality and augmented reality
WO2021055585A1 (en) 2019-09-17 2021-03-25 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
JP2022550168A (ja) * 2019-09-30 2022-11-30 インターデジタル ブイシー ホールディングス フランス,エスアーエス 画像コンテンツを処理するための方法及び装置
US11525906B2 (en) 2019-10-07 2022-12-13 Intrinsic Innovation Llc Systems and methods for augmentation of sensor systems and imaging systems with polarization
KR20230116068A (ko) 2019-11-30 2023-08-03 보스턴 폴라리메트릭스, 인크. 편광 신호를 이용한 투명 물체 분할을 위한 시스템및 방법
US11297116B2 (en) * 2019-12-04 2022-04-05 Roblox Corporation Hybrid streaming
US20210105451A1 (en) * 2019-12-23 2021-04-08 Intel Corporation Scene construction using object-based immersive media
CN115004237A (zh) * 2020-01-23 2022-09-02 索尼集团公司 信息处理装置、信息处理方法以及程序
WO2021154386A1 (en) 2020-01-29 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
US11797863B2 (en) 2020-01-30 2023-10-24 Intrinsic Innovation Llc Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
WO2022126333A1 (zh) * 2020-12-14 2022-06-23 浙江大学 图像填充方法及装置、解码方法及装置、电子设备及介质
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
JP7519390B2 (ja) 2021-04-08 2024-07-19 グーグル エルエルシー 新規ビュー合成のためのニューラルブレンド
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
WO2023211735A1 (en) * 2022-04-27 2023-11-02 Google Llc Rendering videos with novel views from near-duplicate photos
CN114912529A (zh) * 2022-05-17 2022-08-16 中山大学 一种基于张量图卷积网络的节点分类方法及***

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3769850B2 (ja) * 1996-12-26 2006-04-26 松下電器産業株式会社 中間視点画像生成方法および視差推定方法および画像伝送方法
CN100373955C (zh) * 1997-02-20 2008-03-05 索尼公司 图像信号处理装置和方法、画面合成装置、以及编辑装置
US6570612B1 (en) * 1998-09-21 2003-05-27 Bank One, Na, As Administrative Agent System and method for color normalization of board images
US20020158873A1 (en) * 2001-01-26 2002-10-31 Todd Williamson Real-time virtual viewpoint in simulated reality environment
US7292257B2 (en) * 2004-06-28 2007-11-06 Microsoft Corporation Interactive viewpoint video system and process
US7221366B2 (en) * 2004-08-03 2007-05-22 Microsoft Corporation Real-time rendering system and process for interactive viewpoint video
JP4578294B2 (ja) 2005-03-18 2010-11-10 株式会社エヌ・ティ・ティ・データ三洋システム 立体視画像表示装置、立体視画像表示方法及びコンピュータプログラム
CN100355272C (zh) * 2005-06-24 2007-12-12 清华大学 一种交互式多视点视频***中虚拟视点的合成方法
JP4780564B2 (ja) * 2006-11-21 2011-09-28 株式会社国際電気通信基礎技術研究所 画像処理装置、画像処理方法及び画像処理プログラム
CN100566430C (zh) * 2007-07-10 2009-12-02 天津大学 基于光栅lcd自由立体显示器多视点立体图像合成方法
US8106924B2 (en) * 2008-07-31 2012-01-31 Stmicroelectronics S.R.L. Method and system for video rendering, computer program product therefor
JP2010191396A (ja) 2009-02-20 2010-09-02 Ricoh Co Ltd 画像形成装置

Also Published As

Publication number Publication date
US20110261050A1 (en) 2011-10-27
CN102239506A (zh) 2011-11-09
EP2327059B1 (en) 2014-08-27
EP2327059A1 (en) 2011-06-01
US9214040B2 (en) 2015-12-15
JP2012504805A (ja) 2012-02-23
KR101468267B1 (ko) 2014-12-15
CN102239506B (zh) 2014-07-09
WO2010037512A1 (en) 2010-04-08
KR20110059803A (ko) 2011-06-03

Similar Documents

Publication Publication Date Title
JP5243612B2 (ja) 中間画像合成およびマルチビューデータ信号抽出
Mueller et al. View synthesis for advanced 3D video systems
Muller et al. Reliability-based generation and view synthesis in layered depth video
Smolic et al. Intermediate view interpolation based on multiview video plus depth for advanced 3D video systems
Kauff et al. Depth map creation and image-based rendering for advanced 3DTV services providing interoperability and scalability
Smolic et al. Three-dimensional video postproduction and processing
Tian et al. View synthesis techniques for 3D video
EP2150065B1 (en) Method and system for video rendering, computer program product therefor
Smolic 3D video and free viewpoint video—From capture to display
Smolic et al. 3D video and free viewpoint video-technologies, applications and MPEG standards
US9786253B2 (en) Conversion of a digital stereo image into multiple views with parallax for 3D viewing without glasses
EP3104603B2 (en) Efficient image receiver for multiple views
Lee et al. Discontinuity-adaptive depth map filtering for 3D view generation
KR20170140187A (ko) 깊이 정보를 이용한 완전 시차 압축 광 필드 합성을 위한 방법
Sun et al. An overview of free view-point depth-image-based rendering (DIBR)
Bartczak et al. Display-independent 3D-TV production and delivery using the layered depth video format
JP2011523743A (ja) 深さ情報を有するビデオ信号
Jantet et al. Object-based layered depth images for improved virtual view synthesis in rate-constrained context
Stankiewicz et al. Multiview video: Acquisition, processing, compression, and virtual view rendering
JP7344988B2 (ja) ボリュメトリック映像の符号化および復号化のための方法、装置、およびコンピュータプログラム製品
Lee et al. Real-time stereo view generation using kinect depth camera
Schmeing et al. Depth image based rendering
Lu et al. A survey on multiview video synthesis and editing
Solh et al. Depth adaptive hierarchical hole filling for DIBR-based 3D videos
Smolic An overview of 3d video and free viewpoint video

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120814

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121113

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121115

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20121120

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20121212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130404

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160412

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5243612

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250