JP2006024206A - シーンの2レイヤ3d表現を生成するシステムおよび処理 - Google Patents

シーンの2レイヤ3d表現を生成するシステムおよび処理 Download PDF

Info

Publication number
JP2006024206A
JP2006024206A JP2005179123A JP2005179123A JP2006024206A JP 2006024206 A JP2006024206 A JP 2006024206A JP 2005179123 A JP2005179123 A JP 2005179123A JP 2005179123 A JP2005179123 A JP 2005179123A JP 2006024206 A JP2006024206 A JP 2006024206A
Authority
JP
Japan
Prior art keywords
image
pixel
depth
depth discontinuity
foreground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005179123A
Other languages
English (en)
Other versions
JP3996933B2 (ja
JP2006024206A5 (ja
Inventor
Charles Zitnick Iii
ジトニック ザ サード チャールズ
Matthew Uyttendaele
ウィッテンダール マシュー
Richard Szeliski
スゼリスキ リチャード
Simon Winder
ウィンダー シモン
Sing Bing Kang
ビン カン シング
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2006024206A publication Critical patent/JP2006024206A/ja
Publication of JP2006024206A5 publication Critical patent/JP2006024206A5/ja
Application granted granted Critical
Publication of JP3996933B2 publication Critical patent/JP3996933B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 イメージおよびイメージのピクセル視差マップからディジタルイメージまたはディジタル化されたイメージの2レイヤ3D表現を生成するシステムおよび処理を提示する。
【解決手段】 2レイヤ表現に、イメージの深さ不連続領域の対応する位置のピクセルに関連するバックグランドカラーおよびバックグラウンド視差を示すピクセルならびに深さ不連続領域内にないイメージの対応する位置のピクセルに関連するカラーおよび視差を示すピクセルを有するメインレイヤが含まれる。他方のレイヤは、深さ不連続領域の対応する位置のピクセルに関連するフォアグラウンドカラー、フォアグラウンド視差、およびアルファ値を示すピクセルから構成される境界レイヤである。深さ不連続領域は、イメージの視差マップを使用してイメージ内で発見される深さ不連続を囲む指定されたサイズの領域に対応する。
【選択図】 図3A

Description

本発明は、ディジタルイメージまたはディジタル化されたイメージのレイヤ表現に関し、具体的には、シーンの2レイヤ3D表現を生成するシステムおよび処理に関する。
最近数年間、TVコマーシャルおよび長編映画を観る人は、時間を止め、カメラ視点を移動するという幻想を作成するのに使用される「静止画」効果を見てきた。最も早期のコマーシャルは、時間の凍結されたスライスを通って移動するという幻想を与えるためにレールに沿って配列された異なる静止画カメラの間で素早くジャンプする、フィルムベースのシステムを使用して作成された。
はじめて現れた時に、その効果は、新鮮で華々しく見えたが、ほどなく、多数の作品でエミュレートされ、そのうちで最も有名なものが、多分、「マトリックス」という題名の映画で見られる「バレットタイム(ballet time)」効果である。残念ながら、この効果は、1回限りの事前に計画された仕事である。視点の軌跡が、事前に計画され、多数の人月(man hours)が、所望の補間されたビューを作ることに費やされる。より新しいシステムは、ビデオカメラアレイに基づくが、それでも、ソフトウェアビュー補間を避けるために多数のカメラを有することに頼る。
したがって、既存のシステムは、ユーザが、動的なイメージベースのシーンを見ながら、任意の所望の視点に対話式に変更することを受け入れない。過去のイメージベースレンダリング(IBR)に関する作業のほとんどが、静的なシーンのレンダリングを伴い、最もよく知られた技法の2つが、ライトフィールドレンダリング(Light Field Rendering)[11]およびルミグラフ(Lumigraph)[7]である。高品質レンダリングでのこれらの成功は、多数のサンプリングされたイメージの使用に由来し、この分野での多数の仕事を示唆した。この画期的な仕事の刺激的な潜在的拡張の1つに、ビデオを見ながら視点を対話式に制御することが含まれる。ユーザがビデオの視点を対話式に制御する能力は、見る経験をかなり高め、新しい視点のインスタント再生、ドラマでの視点の変更、および意のままの「静止画」視覚効果の作成などの別個の応用例が可能になる。
しかし、多数のカメラを同期させることならびにイメージの獲得および記憶の難しさ(およびコスト)のゆえに、動的シーンへのIBRの拡張は、自明ではない。複数の視点からの動的シーンのキャプチャ、表現、およびレンダリングでの克服すべき大きな障害があるだけではなく、これを対話式に行うことを可能にすることが、さらなる大きな複雑化をもたらす。現在まで、この目標を達成する試みは、非常に不満足なものである。
対話型視点ビデオシステムのビデオベースレンダリング態様に関して、動的シーンのキャプチャおよびレンダリングの最も初期の試みの1つが、カナデ(Kanade)他のVirtualized Realityシステム[10]であり、これには、5mのジオデシックドームの周囲に配置された51台のカメラが用いられた。各カメラの解像度は、512×512であり、キャプチャレートは、30fpsである。これらのカメラは、シーンフロー式[17]に基づくボクセルカラーリング[14]を使用して、各タイムフレームにグローバルサーフェス表現を抽出する。残念ながら、その結果は、低い解像度、マッチングエラー、およびオブジェクト境界の不適切なハンドリングのゆえに、非現実的に見える。
カレンザ他[3]は、3Dの人間の動きをキャプチャするために、部屋の中心を見る、部屋の回りに分散した7台の同期化されたカメラを使用した。各カメラは、CIF解像度(320×240)であり、15fpsでキャプチャする。彼らは、修道院長として3D人間モデルを使用して、各タイムフレームに3D形状を計算した。
ヤン(Yang)他[18]は、動的シーンをキャプチャするためにカメラ(各320×240)の8×8グリッドを設計した。データを記憶し、レンダリングするのではなく、これらは、所望の仮想ビューを構成するのに必要な光線だけを送信する。このシステムでは、カメラがゲンロック(genlock)されず、6台のPCにまたがって内部クロックに頼る。カメラキャプチャレートは、15fpsであり、対話型ビューイングレートは、18fpsである。
前述のシステムに共通しているのが、シーンジオメトリが、未知であるか、おおまかにのみ既知であるのいずれかであることに部分的に起因して、現実的なレンダリングに大量のイメージが必要であることである。ジオメトリが正確に既知の場合には、イメージの要件を大幅に減らすことが可能である[7]。シーンジオメトリを抽出する1つの実用的な形が、立体視を介するものであり、多数の立体視アルゴリズムが、静的シーンについて提案されてきた[13]。しかし、動的シーンに立体視技法を使用する試みはほとんど行われてこなかった。Virtualized Reality作業[10]の一部として、ベデュラ(Vedula)他[17]は、2Dオプティカルフローおよび3Dシーン形状を使用して3D動きを抽出する(たとえば、経時的なシーン形状の間の対応)アルゴリズムを提案した。この手法では、ボクセルカラーリング[14]に似た投票方式(voting scheme)が使用され、使用される測定は、仮定されたボクセル位置が3Dフロー式にどれほどよくあてはまるかである。
ザングおよびカムバメツ(Zhang and Kambhamettu)[19]は、3シーンフローおよび構造をフレームワークに統合した。彼らの3Dアフィン動きモデルは、空間正則化(spatial regularization)と共にローカルに使用され、不連続性が、カラーセグメント化を使用して保存される。タオ(Tao)他[16]は、シーンが区分的に平面であると仮定した。彼らは、動的深さマップ推定を制約するために、平面パッチごとに一定の速度を仮定した。
より野心的な努力で、カーセロニおよびクツラコス(Carceroni and Kutulakos)[2]は、既知の照明位置を伴う非剛体運動の下で区分的に連続なジオメトリおよび反射率(フォンモデル)を回復した。彼らは、空間をサーフェス要素(「サーフェル(surfel)」)に離散化し、位置、方位、および反射率パラメータに対する検索を実行して、観察されたイメージとの一致を最大にする。
普通のローカルウィンドウマッチングに対する興味深い別の手法で、ザング他[20]は、空間と時間にまたがるマッチングウィンドウを使用した。この方法の利益は、経時的な明るさの定常性に対する依存が少ないことである。
アクティブレンジファインディング(active rangefinding)技法も、移動するシーンに適用されてきた。ホールホルトおよびラシンキウィッツ(Hall−Holt and Rusinkiewicz)[8]は、経時的に変化する射影された境界コーディングされたストライプパターンを使用した。市場に、イスラエルの3DV Systems社が製造するZCam(商標)と称する市販システムもあり、これは、放送ビデオカメラと一緒に使用されるレンジセンシングビデオカメラアドオンである。しかし、これは、高価なシステムであり、単一の視点深さだけを提供し、これによって、複数視点ビデオに適しなくなっている。
しかし、立体視およびイメージベースレンダリングのすべての進展にかかわらず、動的シーンの高品質高解像度ビューをレンダリングすることは、まだ非常に困難である。ライトフィールドレンダリング論文[11]で提案されているように、1つの手法は、入力カメラおよび仮想カメラの相対位置だけに基づいて単純に光線を再サンプリングすることである。ルミグラフ[7]および後続の研究で実証されているように、シーンジオメトリに3Dインポスタ(impostor)またはプロキシを使用することによって、補間されたビューの品質を大きく高めることができる。もう1つの手法は、単純なテクスチャマッピングされた3Dモデル[10]を作成することであるが、これは、一般に、複数の基準ビューの使用より劣る結果を作る。もう1つの手法が、3Dプロキシを必要とする、ジオメトリによって援助されたイメージベースレンダリング手法を使用することである。1つの可能性は、Lumigraph and Unstructured Lumigraph論文[1]のように単一のグローバル多面体モデルを使用することである。もう1つの可能性は、Layered Depth Images[15]のようにピクセルごとの深さ、オフセット深さマップFacade[5]のように、または深さ付きスプライト[15]を使用することである。一般に、基準ビュー[12、6、9]ごとに異なるローカル幾何プロキシを使用することによって、より高い品質の結果が作られる。
しかし、複数の深さマップさえも、新しいビューを生成する時にレンダリングアーティファクトすなわち、フォアグラウンドからバックグラウンドへの推移の急激な性質に起因するエイリアス(ジャギー)と、新規の背景またはオブジェクトの上に合成する時に可視になる、混合されたピクセルに起因する汚染されたカラーを示す。
この問題は、本発明で、入力イメージの独自の2レイヤ3D表現を介して対処される。この2レイヤ3D表現は、対話型視点ビデオシステムで新規のビューをレンダリングすることに関する前述のエイリアス問題を解決するのに使用できるだけではなく、他のコンテキストでも有利に使用することができることに留意されたい。一般に、ディジタルイメージまたはディジタル化されたイメージは、この2レイヤ3D表現を使用して表すことができる。
前の段落および本明細書の残りの説明で、大括弧の対に挟まれた数値指定子によって識別されるさまざまな個々の刊行物に言及することに留意されたい。たとえば、そのような参考文献は、「参考文献[1]」または単に「[1]」と引用することによって識別することができる。複数の参照は、複数の指定子を含む大括弧の対、たとえば[2、3]によって識別される。各指定子に対応する刊行物を含む参照のリストを、詳細な説明のセクションの末尾に示す。
本発明は、ディジタルイメージまたはディジタル化されたイメージの2レイヤ表現を生成するシステムおよび方法を対象とする。一般に、2つのレイヤに、イメージの深さ不連続領域(depth discontinuity areas)の対応する位置のピクセルに関連するバックグラウンドカラーおよびバックグラウンド視差を示すピクセル、ならびにこれらの深さ不連続領域で見つからないイメージの対応する位置のピクセルに関連するカラーおよび視差を示すピクセルを有するメインレイヤが含まれる。もう一方のレイヤは、深さ不連続領域の対応する位置のピクセルに関連するフォアグラウンドカラー、フォアグラウンド視差、およびアルファ値を示すピクセルから構成された境界レイヤである。深さ不連続領域は、イメージ内で見つかる深さ不連続を囲む指定されたサイズの領域に対応する。
この2レイヤ表現は、まず、イメージの視差マップを使用して、検討中のイメージ内の深さ不連続の位置を識別することによって生成される。深さ不連続は、隣接ピクセル間の視差値の相違が、指定されたレベルの数を超える位置で発生する。次に、深さ不連続を囲む指定されたサイズの領域内で見つかるイメージのピクセルが、識別される。次に、フォアグラウンドアルファ値と共に、フォアグラウンドカラーおよびバックグラウンドカラーが、マッティング技法を使用して、これらの深さ不連続領域内のピクセルごとに推定される。さらに、フォアグラウンド視差値およびバックグラウンド視差値が、イメージのフォアグラウンド部分とバックグラウンド部分の近傍視差のアルファ加重平均を使用して、深さ不連続領域内のピクセルごとに推定される。次に、深さ不連続領域のピクセルに対応する各位置のピクセルを含むイメージの境界レイヤを確立する。深さ不連続領域の対応するピクセルに関連するフォアグラウンドカラー、フォアグラウンド視差、およびアルファ値が、各境界レイヤピクセルに割り当てられる。さらに、イメージのメインレイヤが確立される。このメインレイヤには、深さ不連続領域のピクセルに対応する各位置のピクセル、ならびに深さ不連続領域のピクセルに対応しないイメージの各ピクセル位置のピクセルが含まれる。深さ不連続領域の対応するピクセルに関連するバックグラウンドカラーおよびバックグラウンド視差値は、メインレイヤの対応する位置のピクセルのそれぞれに割り当てられ、深さ不連続領域内にないイメージのピクセルに関連するカラーおよび視差値は、メインレイヤの対応する位置のピクセルのそれぞれに割り当てられる。フォアグラウンドカラー、フォアグラウンド視差、およびアルファ値が、深さ不連続領域の各ピクセルについて確立されたならば、レイヤからのイメージのレンダリング中に割れ目(crack)が見えないようにするために、普通の膨張(dilation)技法を使用して、所定の量だけこれらの領域のサイズを増やすことができることに留意されたい。
上で説明した利益のほかの、本発明の他の利益は、添付図面と共に解釈される時の下の詳細な説明から明白になる。
本発明の特定の特徴、態様、および長所は、次の説明、請求項、および添付図面に関してよりよく理解されよう。
図4C〜4Eのイメージが、反転して示され、その結果、透明/空のピクセルが白く見えていることに留意されたい。
本発明の好ましい実施形態の次の説明では、添付図面を参照するが、この添付図面は、本明細書の一部を形成し、本発明を実施できる特定の実施形態を図によって示すものである。本発明の範囲から逸脱することなく、他の実施形態を使用することができ、構造的変更を行うことができることを理解されたい。
1.0 コンピューティング環境
本発明の好ましい実施形態の説明を提供する前に、本発明を実施できる適切なコンピューティング環境の簡単な全般的な説明を説明する。図1に、適切なコンピューティングシステム環境100の例を示す。コンピューティングシステム環境100は、適切なコンピューティング環境の1例にすぎず、本発明の使用または機能の範囲に関するいかなる限定を示唆することを意図するものではない。コンピューティング環境100を、例示的なオペレーティング環境100に図示されたコンポーネントのいずれかまたはその組合せに対する依存性または要件を有するものと解釈してもならない。
本発明は、多数の汎用のまたは専用のコンピューティングシステム環境またはコンピューティングシステム構成と共に動作する。本発明と共に使用するのに適し得る周知のコンピューティングシステム、コンピューティング環境、および/またはコンピューティング構成の例には、パーソナルコンピュータ、サーバコンピュータ、ハンドヘルドデバイス、ラップトップデバイス、マルチプロセッサシステム、マイクロプロセッサベースのシステム、セットトップボックス、プログラマブルな家庭用電化製品、ネットワークPC、ミニコンピュータ、メインフレームコンピュータ、上記のシステムまたはデバイスのいずれかを含む分散コンピューティング環境などが含まれるが、これに限定するものではない。
本発明を、プログラムモジュールなど、コンピュータによって実行される、コンピュータ実行可能命令の一般的なコンテキストで説明することができる。一般に、プログラムモジュールには、特定のタスクを実行するか特定の抽象データ型を実装する、ルーチン、プログラム、オブジェクト、コンポーネント、データ構造などが含まれる。本発明は、通信ネットワークを介してリンクされたリモート処理デバイスによってタスクが実行される分散コンピューティング環境でも実施することができる。分散コンピューティング環境では、プログラムモジュールを、メモリ記憶装置を含む、ローカルとリモートの両方のコンピュータ記憶媒体に配置することができる。
図1を参照すると、本発明を実施する例示的システムに、コンピュータ110の形の汎用コンピューティングデバイスが含まれる。コンピュータ110のコンポーネントに、処理装置120、システムメモリ130、およびシステムメモリを含むさまざまなシステムコンポーネントを処理装置120に結合するシステムバス121が含まれる。システムバス121は、メモリバス、メモリコントローラ、周辺バス、およびさまざまなバスアーキテクチャのいずれかを使用するローカルバスを含む複数のタイプのバス構造のいずれかとすることができる。限定ではなく例として、そのようなアーキテクチャに、Industry Standard Architecture(ISA)バス、マイクロチャネルアーキテクチャ(MCA)バス、Enhanced ISA(EISA)バス、Video Electronics Standards Association(VESA)ローカルバス、およびメザニンバスとも称するPeripheral Component Interconnect(PCI)バスが含まれる。
コンピュータ110には、通常は、さまざまなコンピュータ可読媒体が含まれる。コンピュータ可読媒体は、コンピュータ110によってアクセスでき、揮発性媒体および不揮発性媒体、取外し可能媒体および取り外し不能媒体の両方を含む使用可能な媒体のいずれかとすることができる。限定ではなく例として、コンピュータ可読媒体に、コンピュータ記憶媒体および通信媒体を含めることができる。コンピュータ記憶媒体に、コンピュータ可読命令、データ構造、プログラムモジュール、または他のデータなどの情報を記憶する任意の方法または技術で実施された、揮発性および不揮発性、取外し可能および取り外し不能の両方の媒体が含まれる。コンピュータ記憶媒体に、RAM、ROM、EEPROM、フラッシュメモリ、および他のメモリ技術、CD−ROM、ディジタル多用途ディスク(DVD)、または他の光学ディスク記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置、または他の磁気記憶装置、あるいは所望の情報の格納に使用でき、コンピュータ110によってアクセスできる他のすべての媒体が含まれるが、これに制限はされない。通信媒体は、通常は、搬送波または他のトランスポート機構などの変調されたデータ信号中にコンピュータ可読命令、データ構造、プログラムモジュール、または他のデータを具現化するものであり、任意の情報伝達媒体が含まれる。用語「変調されたデータ信号」は、信号内で情報をエンコードする形でその特性の1つまたは複数を設定または変更された信号を意味する。限定ではなく例として、通信媒体に、有線ネットワークまたは直接配線接続などの有線媒体と、音響、RF、赤外線、および他の無線媒体などの無線媒体が含まれる。上記のいずれかの組合せも、コンピュータ可読媒体の範囲に含めるべきである。
システムメモリ130に、読み出し専用メモリ(ROM)131およびランダムアクセスメモリ(RAM)132などの揮発性メモリおよび/または不揮発性メモリの形のコンピュータ記憶媒体が含まれる。起動中などにコンピュータ110内の要素の間での情報の転送を助ける基本ルーチンを含む基本入出力システム133(BIOS)が、通常はROM 131に格納される。RAM 132には、通常は、処理装置120から即座にアクセス可能、かつ/または処理装置120によって現在操作中のデータおよび/またはプログラムモジュールが含まれる。限定ではなく例として、図1に、オペレーティングシステム134、アプリケーションプログラム135、他のプログラムモジュール136、およびプログラムデータ137を示す。
コンピュータ110に、他の取外し可能/取外し不能、揮発性/不揮発性のコンピュータ記憶媒体も含めることができる。例としてのみ、図1に、取外し不能不揮発性磁気媒体から読み取るかこれに書き込むハードディスクドライブ141、取外し可能不揮発性磁気ディスク152から読み取るかこれに書き込む磁気ディスクドライブ151、CD−ROMまたは他の光媒体などの取外し可能不揮発性光ディスク156から読み取るかこれに書き込む光ディスクドライブ155を示す。例示的なオペレーティング環境で使用できる他の取外し可能/取外し不能、揮発性/不揮発性のコンピュータ記憶媒体に、磁気テープカセット、フラッシュメモリカード、ディジタル多用途ディスク、ディジタルビデオテープ、ソリッドステートRAM、ソリッドステートROMなどが含まれるが、これに限定するものではない。ハードディスクドライブ141は、通常は、インターフェース140などの取外し不能メモリインターフェースを介してシステムバス121に接続され、磁気ディスクドライブ151および光ディスクドライブ155は、通常、インターフェース150などの取外し可能メモリインターフェースによってシステムバス121に接続される。
上で説明し、図1に示したドライブおよびそれに関連するコンピュータ記憶媒体は、コンピュータ110のコンピュータ可読命令、データ構造、プログラムモジュール、および他のデータの記憶を提供する。図1では、たとえば、ハードドライブ141が、オペレーティングシステム144、アプリケーションプログラム145、他のプログラムモジュール146、およびプログラムデータ147を格納するものとして図示されている。これらのコンポーネントを、オペレーティングシステム134、アプリケーションプログラム135、他のプログラムモジュール136、およびプログラムデータ137と同一のまたは異なるもののいずれかとすることができることに留意されたい。オペレーティングシステム144、アプリケーションプログラム145、他のプログラムモジュール146、およびプログラムデータ147は、最低限でも異なるコピーであることを示すために、異なる符号を与えられている。ユーザは、キーボード162および、一般にマウス、トラックボール、またはタッチパッドと称するポインティングデバイス161などの入力デバイスを介してコンピュータ110にコマンドおよび情報を入力することができる。他の入力デバイス(図示せず)に、マイクロホン、ジョイスティック、ゲームパッド、衛星パラボラアンテナ、スキャナなどを含めることができる。上記および他の入力デバイスは、しばしば、システムバス121に結合されたユーザ入力インターフェース160を介して処理装置120に接続されるが、パラレルポート、ゲームポート、またはuniversal serial bus(USB)などの他のインターフェースおよびバス構造によって接続することができる。モニタ191または他の種類のディスプレイデバイスも、ビデオインターフェース190などのインターフェースを介してシステムバス121に接続される。モニタのほかに、コンピュータに、スピーカ197およびプリンタ196など、出力周辺装置インターフェース195を介して接続できる他の周辺出力デバイスも含めることができる。イメージ193のシーケンスをキャプチャできるカメラ192(ディジタル/電子静止画カメラまたはビデオカメラ、あるいはフィルム/写真スキャナ)も、入力デバイスとしてパーソナルコンピュータ110に含めることができる。さらに、1つのカメラだけが図示されているが、複数のカメラを、入力デバイスとしてパーソナルコンピュータ110に含めることができる。1つまたは複数のカメラからのイメージ193が、適当なカメラインターフェース194を介してパーソナルコンピュータ110に入力される。このインターフェース194は、システムバス121に接続され、これによって、RAM 132またはコンピュータ110に関連する他のデータ記憶装置にイメージをルーティングし、格納することができるようになる。しかし、イメージデータを、カメラ192の使用を必要とせずに、前述のコンピュータ可読媒体のいずれかを使用してコンピュータ110に入力することもできることに留意されたい。
コンピュータ110は、リモートコンピュータ180などの1つまたは複数のリモートコンピュータへの論理接続を使用して、ネットワーク化された環境で動作することができる。リモートコンピュータ180は、パーソナルコンピュータ、サーバ、ルータ、ネットワークPC、ピアデバイス、または他の一般的なネットワークノードとすることができ、通常は、上でコンピュータ110に関して説明した要素の多くまたはすべてが含まれるが、図1には、メモリ記憶装置181だけを示した。図1に示された論理接続に、ローカルエリアネットワーク(LAN)171および広域ネットワーク(WAN)173が含まれるが、他のネットワークも含めることができる。そのようなネットワーキング環境は、オフィス、会社全体のコンピュータネットワーク、イントラネット、およびインターネットでごく一般的なものである。
LANネットワーキング環境で使用される時に、コンピュータ110は、ネットワークインターフェースまたはネットワークアダプタ170を介してLAN 171に接続される。WANネットワーキング環境で使用される時に、コンピュータ110に、通常は、インターネットなどのWAN 173を介する通信を確立する、モデム172または他の手段が含まれる。モデム172は、内蔵または外付けとすることができるが、ユーザ入力インターフェース160または他の適当な手段を介してシステムバス121に接続することができる。ネットワーク化された環境では、コンピュータ110に関して図示されたプログラムモジュールまたはその一部を、リモートメモリ記憶装置に保管することができる。限定ではなく例として、図1に、メモリデバイス181に常駐するものとしてリモートアプリケーションプログラム185を示す。図示のネットワーク接続が例示的であり、コンピュータの間の通信リンクを確立する他の手段を使用できることを理解されたい。
2.0 2レイヤイメージ表現
例示的なオペレーティング環境を述べたので、この説明セクションの残りは、本発明を実施するプログラムモジュールの説明に捧げられる。一般に、本発明に、イメージの圧縮、転送、および記憶を容易にする、独自の2レイヤ3D表現の生成が含まれる。この表現は、イメージが動的シーンのビデオのフレームであり、フレームデータがリアルタイムレンダリングのためにエンコードされる時に、特に有用である。この表現には、ピクセル視差情報または深さ情報も含まれ、したがって、表現の3D態様が提供される。イメージまたはフレームは、ディジタルカメラによってキャプチャされたか、そうでない場合にさらなる処理を実行する前にディジタル化されたのいずれかであるディジタルイメージである。ディジタルイメージデータを、カメラを使用してシーンの実際のイメージをキャプチャすることによって入手されたイメージベースのものまたは合成されたイメージデータとすることができることにも留意されたい。
2レイヤ表現は、まず、検討中のイメージまたはフレームの視差マップの深さ不連続を突き止めることによって生成される。これらの深さ不連続は、指定された数の視差レベル(たとえば、本発明のテストされた実施形態では4レベル)を超えるジャンプと定義される。検討中のイメージの視差マップは、普通の形で入手することができる。しかし、本発明のテストされた実施形態では、共通の譲受人に譲渡された、本出願の発明者による「Color Segmentation-Based Stereo Reconstruction System And Process」という名称の同時係属出願の主題である新しい手法を使用する。
次に、検討中のイメージで見つかった深さ不連続の近傍で、小さい領域を識別する。この小さい領域は、深さ不連続の位置から3ピクセル以内のすべてのピクセルを含むものとして定義される。これを、図2のグラフに示すが、図2では、ピクセルの行の視差値が、ピクセル位置に対してプロットされている。視差値の急激なステップは、それが指定された視差レベルの数より大きいと仮定して、深さ不連続を表す。前述の小さい領域は、深さ不連続領域と称するが、不連続性の周囲で確立される。図2のグラフで表されたプロファイルビューでは、この領域が、イメージ内の深さ視差の位置にまたがる、ある幅を有する。通常そうであるように、深さ不連続がイメージ内の物体の輪郭に追随する(follow)場合に、深さ不連続領域は、この輪郭に追随するストリップを形成するためにマージされる。
物体の境界に沿った一部のピクセルは、バックグラウンド領域とフォアグラウンド領域の両方からの寄与を受け取る。しかし、オリジナルの混合されたピクセルカラーがレンダリング中に使用される場合に、可視のアーティファクトが生じる可能性がある。したがって、この2つの寄与を分離することが重要である。したがって、次に、深さ不連続領域内の各ピクセルのフォアグラウンドカラーとバックグラウンドカラーが、確立され、ピクセルの不透明度(アルファ値の形)も確立される。これは、マッティング技法を使用して達成される。一般に、マッティング(matting)技法には、各ピクセルのフォアグラウンド要素とバックグラウンド要素に由来するカラーおよび不透明度を推定することによって、イメージのフォアグラウンド要素とバックグラウンド要素を抽出することが含まれる。ピクセルの不透明度は、0と1の間の範囲を有するアルファ値によって定義される。事実上、アルファ値は、ピクセルのカラーのうちでフォアグラウンド要素に寄与するパーセンテージを定義する。通常のマッティング動作の正味の結果は、検討されるピクセルごとにフォアグラウンドカラー、バックグラウンドカラー、およびアルファ値を識別することである。本発明と共に、どのマッティング手順でも使用することができるが、テストされた実施形態では、参考文献[4]で説明したベイジアンイメージマッティング技法を使用した。参考文献[4]に、多数の他の既存のマッティング技法の説明も含まれることに留意されたい。
前に説明したように、本発明の主な応用例に、シーンの2つの実際のイメージに関連する視点の中間の視点からのシーンの仮想イメージをレンダリングすることが含まれる。これを達成する方法の詳細は、本発明の範囲に含まれないが、この処理に、通常、各ピクセルに関連する深さを知ることが含まれることに留意されたい。このために、本発明によるイメージ表現に、ピクセル深さ(または、簡単に深さ値に変換できる視差値)が含まれる。これらの値は、前述の視差マップからほとんどのピクセルについて入手可能であるが、深さ不連続に隣接して見つかる混合されたピクセルに関連する2つの深さすなわち、フォアグラウンド要素に関連する深さおよびバックグラウンド要素に関連する深さがあることに留意されたい。したがって、これらのフォアグラウンド深さおよびバックグラウンド深さ(または視差)値が、次に、深さ不連続領域内のピクセルごとに推定される。一般に、これは、それぞれイメージのフォアグラウンド部分およびバックグラウンド部分の近傍深さのアルファ加重平均を使用することによって達成される。具体的に言うと、フォアグラウンド視差は、深さ不連続領域のオリジナルフォアグラウンド領域内のピクセルからの視差値のウィンドウ(たとえば、7×7ピクセル)内のアルファ加重平均を使用することによって見つかる。図2では、オリジナルフォアグラウンド領域が、視差不連続性の左側のピクセルを指す。バックグラウンド視差は、深さ不連続領域のオリジナルバックグラウンド領域内の視差値のウィンドウ内の加重平均によって見つかる。バックグラウンド視差の平均をとるのに使用される重みは、1からアルファ値を引いたものと等しくなるように設定される。
深さ不連続領域ピクセルのカラー、視差、および不透明度が確立されたならば、イメージ表現の2つのレイヤが形成される。具体的に言うと、深さ不連続領域内で見つかった各めいめいのピクセルに関連する前に計算されたフォアグラウンドカラー、フォアグラウンド視差、およびアルファ値が、イメージの境界レイヤの対応する位置のピクセルに割り当てられる。同様に、深さ不連続領域内の各めいめいのピクセルに関連する前に計算されたバックグラウンドカラーおよびバックグラウンド視差値が、深さ不連続領域内にないイメージ内のすべてのピクセルのカラー値および視差値(イメージおよびその視差マップからとられる)と共に、イメージのメインレイヤの対応する位置のピクセルに割り当てられる。
したがって、結果の2レイヤイメージ表現に、そのレイヤの各ピクセルのフォアグラウンドカラー、フォアグラウンド視差、およびアルファ値を識別する境界レイヤが含まれる。さらに、この表現に、深さ不連続領域に関連する、そのレイヤ内のピクセルのバックグラウンドカラーおよびバックグラウンド深さと、そのレイヤの他のピクセルのそれぞれのカラーおよび視差値を識別するメインレイヤが含まれる。これを与えられれば、メインレイヤに、イメージ内のすべてのピクセルに関するピクセル情報が含まれるが、このデータは、シーンの1つのイメージと次のイメージの間で、比較的類似するであろう。これは、イメージがビデオフレームである場合に時間的にそうであり、同一シーンの複数のイメージが送信または記憶される場合に空間的にそうである。これによって、メインレイヤが、標準的なイメージ圧縮方法を使用してかなり圧縮可能になる。さらに、通常、イメージのピクセルの総数のうちの小さい比率だけが、境界レイヤに含まれるので、境界レイヤには、比較的少ないデータが含まれる。したがって、このデータは、動的シーンのあるイメージから次のイメージへ、経時的に大きく変化する可能性が高いが、送信または記憶する必要があるデータは、多くない。このゆえに、圧縮しなくても、このデータをすぐに送信または記憶することができる。適当な圧縮方式を使用すると、データの量およびこれを転送できる速度を、さらに減らすことができる。この形で、前述の2レイヤイメージ表現は、データ転送および記憶の望ましい容易化を提供し、リアルタイムレンダリングを実現可能にする。
前述の2レイヤイメージ表現生成処理の概要を、図3A〜Bに示された流れ図を参照して示す。まず、表現されるディジタルイメージまたはディジタル化されたイメージとその視差マップを入力する(処理アクション300)。次に、視差マップを使用して、イメージ内で深さ不連続の位置を識別する(処理アクション302)。次に、深さ不連続を囲む指定されたサイズの領域内で見つかるピクセルを、識別し、イメージの深さ不連続領域内にあるものとして指定する(処理アクション304)。マッティング技法を使用して、深さ不連続領域内の各ピクセルのフォアグラウンドカラーおよびバックグラウンドカラーを、そのアルファ値と共に確立する(処理アクション306)。さらに、処理アクション308で、深さ不連続領域内のピクセルのそれぞれについて、フォアグラウンド視差値およびバックグラウンド視差値を確立する。次に、深さ不連続領域のピクセルに対応するピクセルを有する境界レイヤを確立する(処理アクション310)。深さ不連続領域内で見つかる各めいめいのピクセルに関連するフォアグラウンドカラー、フォアグラウンド視差、およびアルファ値を、境界レイヤの対応するピクセルに割り当てる(処理アクション312)。イメージのすべてのピクセルに対応するピクセルを有するメインレイヤも確立する(処理アクション314)。この場合に、深さ不連続領域のピクセルに関連するバックグラウンドカラーおよびバックグラウンド視差を、メインレイヤの対応するピクセルに割り当て、深さ不連続領域にないイメージピクセルに関連するカラーおよび視差を、メインレイヤの対応するピクセルに割り当てる(処理アクション316)。
本発明による2レイヤイメージ表現を生成する前述の処理に組み込むことができる改善の1つに、イメージ表現の境界レイヤおよびメインレイヤを形成する前の深さ不連続領域のフォアグラウンドマットの膨張が含まれる。これは、この処理の不正確さに起因して発生する可能性がある、レイヤからのイメージのレンダリング中に割れ目が見えることをなくすという長所を有する。具体的に言うと、フォアグラウンドカラー、フォアグラウンド視差、およびアルファ値が、深さ不連続領域のピクセルごとに確立されたならば、この領域のサイズを、指定された量(たとえば1ピクセル)だけ増やす。膨張中に境界レイヤに追加される新しいピクセルは、メインレイヤの対応するピクセルと同一のカラー値および視差値と1のアルファ値を割り当てられる。
図4A〜4Eに、ブレークダンサー(breakdancers)のグループのイメージに本発明の2レイヤイメージ表現生成処理を適用した結果を示す。図4Aは、メインレイヤカラー推定値を示し、図4Bは、メインレイヤ視差推定値を表す。同様に、図4Cは、境界レイヤカラー推定値を示し、図4Dは、境界レイヤ視差推定値を示す。最後に、図4Eは、境界レイヤアルファ推定値を示す。図4C〜4Eのイメージが、反転して示され、その結果、透明/空のピクセルが白く見えていることに留意されたい。ソフトオブジェクト境界を考慮に入れるために送信する必要がある情報の量がどれほど少ないかということと、境界レイヤの不透明度および両方のレイヤのカラーがどれほどきれいに回復されているかということに留意されたい。
前述の説明を介して、イメージピクセルの視差値が使用されたことに留意されたい。しかし、生成処理のある点で、これらの値を、標準的な方法を使用して深さ値に変換することができる。その場合に、メインレイヤおよび境界レイヤに、それに含まれるピクセルの、視差値ではなく深さ値が含まれる。
3.0 参考文献
Figure 2006024206
Figure 2006024206
Figure 2006024206
本発明を実施する例示的なシステムを構成する汎用コンピューティングデバイスを示す図である。 視差値の急激なステップが深さ不連続性を表す、ピクセル位置に対するピクセルの行の視差値をプロットしたグラフである。 本発明によるディジタルイメージまたはディジタル化されたイメージの2レイヤ表現を生成する処理を示す流れ図である。 本発明によるディジタルイメージまたはディジタル化されたイメージの2レイヤ表現を生成する処理を示す流れ図である。 ブレークダンサのグループのイメージに図3A〜Bの2レイヤイメージ表現生成処理を適用した結果を示すイメージであり、メインレイヤカラー推定値を示す図である。 ブレークダンサのグループのイメージに図3A〜Bの2レイヤイメージ表現生成処理を適用した結果を示すイメージであり、メインレイヤ視差推定値を表す図である。 ブレークダンサのグループのイメージに図3A〜Bの2レイヤイメージ表現生成処理を適用した結果を示すイメージであり、境界レイヤカラー推定値を示す図である。 ブレークダンサのグループのイメージに図3A〜Bの2レイヤイメージ表現生成処理を適用した結果を示すイメージであり、境界レイヤ視差推定値を示す図である。 ブレークダンサのグループのイメージに図3A〜Bの2レイヤイメージ表現生成処理を適用した結果を示すイメージであり、境界レイヤアルファ推定値を示す図である。
符号の説明
130 システムメモリ
131 ROM
133 BIOS
132 RAM
134 オペレーティングシステム
135 アプリケーションプログラム
136 他のプログラムモジュール
137 プログラムデータ
120 処理装置
194 カメラインターフェース
190 ビデオインターフェース
195 出力周辺装置インターフェース
192 カメラ
191 モニタ
196 プリンタ
197 スピーカ
121 システムバス
140 取り外し不能不揮発性メモリインターフェース
150 取り外し可能不揮発性メモリインターフェース
160 ユーザ入力インターフェース
170 ネットワークインターフェース
171 ローカルエリアネットワーク
144 オペレーティングシステム
145 アプリケーションプログラム
146 他のプログラムモジュール
147 プログラムデータ
161 マウス
162 キーボード
172 モデム
173 広域ネットワーク
180 リモートコンピュータ
185 リモートアプリケーションプログラム

Claims (13)

  1. イメージおよび前記イメージの視差マップからディジタルイメージまたはディジタル化された前記イメージの2レイヤ表現を生成するコンピュータ実施される処理であって、 前記イメージの視差マップを使用して、前記イメージ内の深さ不連続の位置を識別する処理アクションと、
    前記深さ不連続を囲む指定されたサイズの領域内で見つかる前記イメージのピクセルを識別し、これらのピクセルを、前記イメージの深さ不連続領域内にあるものとして指定する処理アクションと、
    前記深さ不連続領域内のピクセルごとに、フォアグラウンドカラー、バックグラウンドカラー、およびアルファ値を推定する処理アクションと、
    前記深さ不連続領域内のピクセルごとに、フォアグラウンド視差値およびバックグラウンド視差値を推定する処理アクションと、
    前記深さ不連続領域のピクセルに対応する各めいめいの位置にあるピクセルを含む前記イメージの境界レイヤを確立する処理アクションであって、各境界レイヤピクセルは、前記深さ不連続領域の対応するピクセルに関連する前記フォアグラウンドカラー、前記フォアグラウンド視差、および前記アルファ値を割り当てられる、処理アクションと、
    前記イメージのメインレイヤを確立する処理アクションであって、前記メインレイヤは、
    前記深さ不連続領域のピクセルに対応する各めいめいの位置のピクセルであって、前記ピクセルのそれぞれは、前記深さ不連続領域の対応するピクセルに関連する前記バックグラウンドカラーおよび前記バックグラウンド視差値を割り当てられる、ピクセルと、
    前記深さ不連続領域のピクセルに対応しない各位置のピクセルであって、前記ピクセルのそれぞれは、前記イメージの対応するピクセルに関連する前記カラーおよび前記視差値を割り当てられる、ピクセルと
    を含む、処理アクションと
    をコンピュータを使用して実行することを備えることを特徴とするコンピュータ実施される処理。
  2. 前記イメージ内の深さ不連続の位置を識別する前記処理アクションは、視差レベルの指定された数を超える、隣接ピクセルの間の視差値の差を示す任意の位置を深さ不連続として識別するアクションを含むことを特徴とする請求項1に記載の処理。
  3. 視差レベルの前記指定された数が、4であることを特徴とする請求項2に記載の処理。
  4. 前記深さ不連続を囲む前記指定されたサイズの領域は、識別された深さ不連続位置から各方向に3ピクセル拡張した領域として定義されることを特徴とする請求項1に記載の処理。
  5. 前記深さ不連続領域内のピクセルごとにフォアグラウンドカラー、バックグラウンドカラー、およびアルファ値を推定する前記処理アクションは、前記カラーおよびアルファ値を推定するのにマッティング技法を使用するアクションを含むことを特徴とする請求項1に記載の処理。
  6. 前記深さ不連続領域内のピクセルごとにフォアグラウンドおよびバックグラウンド視差値を推定する前記処理アクションは、前記フォアグラウンド視差値および前記バックグラウンド視差値を推定するのに前記イメージのフォアグラウンド部分およびバックグラウンド部分の近傍視差のアルファ加重平均を使用するアクションを含むことを特徴とする請求項1に記載の処理。
  7. 前記フォアグラウンド視差値および前記バックグラウンド視差値を推定するのに前記イメージのフォアグラウンド部分およびバックグラウンド部分の近傍視差のアルファ加重平均を使用する処理アクションは、
    検討中のピクセルに隣接する前記イメージのフォアグラウンド部分内の指定されたサイズのウィンドウ内の各ピクセルにそのアルファ値をそれぞれ乗じ、結果の積の平均をとることによって、各深さ不連続領域内の各ピクセルの前記フォアグラウンド視差値を計算するアクションと、
    検討中のピクセルに隣接する前記イメージのバックグラウンド部分内の指定されたサイズのウィンドウ内の各ピクセルに1からそのアルファ値を減じたものをそれぞれ乗じ、結果の積の平均をとることによって、各深さ不連続領域内の各ピクセルの前記バックグラウンド視差値を計算するアクションと
    を含むことを特徴とする請求項6に記載の処理。
  8. 前記境界レイヤピクセルに対応する領域を指定された量だけ膨張させ、各追加されたピクセルに前記メインレイヤ内の対応するピクセルと同一のカラーおよび視差値と、1のアルファ値とを割り当てる処理アクションをさらに含むことを特徴とする請求項1に記載の処理。
  9. 前記指定された膨張量は、1ピクセルであることを特徴とする請求項8に記載の処理。
  10. 前記イメージおよび前記イメージのピクセル深さマップからのディジタルイメージまたはディジタル化されたイメージの2レイヤ表現を生成するシステムであって、
    汎用コンピューティングデバイスと、
    前記コンピューティングデバイスによって実行可能なプログラムモジュールを含むコンピュータプログラムと
    を備え、前記コンピューティングデバイスは、前記コンピュータプログラムの前記プログラムモジュールによって、
    前記イメージの深さマップを使用して、前記イメージ内の深さ不連続の位置を識別し、
    前記深さ不連続を囲む指定されたサイズの領域内で見つかる前記イメージのピクセルを識別し、これらのピクセルを、前記イメージの深さ不連続領域内にあるものとして指定し、
    前記深さ不連続領域内のピクセルごとに、フォアグラウンドカラー、バックグラウンドカラー、およびアルファ値を推定し、
    前記深さ不連続領域内のピクセルごとに、フォアグラウンド深さ値およびバックグラウンド深さ値を推定し、
    前記深さ不連続領域の対応する位置のピクセルに関連する前記バックグラウンドカラーおよび前記バックグラウンド深さを示すピクセルと前記深さ不連続領域内にない前記イメージの対応する位置のピクセルに関連する前記カラーおよび前記深さを示すピクセルとを含む前記イメージのメインレイヤ、ならびに前記深さ不連続領域の対応する位置のピクセルに関連する前記フォアグラウンドカラー、前記フォアグラウンド深さ、および前記アルファ値を示すピクセルを含む前記イメージの境界レイヤを生成する
    ように指示されることを特徴とするシステム。
  11. 前記イメージの深さ不連続の前記位置を識別する前記プログラムモジュールは、指定された量を超える、隣接ピクセルの間の深さ値の差を示すすべての位置を深さ不連続として識別するサブモジュールを含むことを特徴とする請求項10に記載のシステム。
  12. イメージおよび前記イメージのピクセル視差マップからディジタルイメージまたはディジタル化された前記イメージの2レイヤ表現を生成するコンピュータ実行可能命令を有するコンピュータ可読媒体であって、前記コンピュータ実行可能命令は、
    前記イメージの視差マップを使用して、前記イメージ内の深さ不連続の位置を識別することと、
    前記識別された深さ不連続を囲む指定されたサイズの深さ不連続領域を確立することと、
    前記深さ不連続領域内のピクセルごとに、フォアグラウンドカラー、バックグラウンドカラー、およびアルファ値を推定することと、
    前記深さ不連続領域内のピクセルごとに、フォアグラウンド視差値およびバックグラウンド視差値を推定することと、
    前記深さ不連続領域の対応する位置のピクセルに関連する前記バックグラウンドカラーおよび前記バックグラウンド視差を示すピクセルと前記深さ不連続領域内にない前記イメージの対応する位置のピクセルに関連する前記カラーおよび前記視差を示すピクセルとを含む前記イメージのメインレイヤ、ならびに前記深さ不連続領域の対応する位置のピクセルに関連する前記フォアグラウンドカラー、前記フォアグラウンド視差、および前記アルファ値を示すピクセルを含む前記イメージの境界レイヤを生成することと
    を含むことを特徴とするコンピュータ可読媒体。
  13. ディジタルイメージまたはディジタル化されたイメージの2レイヤ表現であって、
    深さ不連続領域の対応する位置のピクセルに関連するバックグラウンドカラーおよびバックグラウンド視差を示すピクセルと、前記深さ不連続領域内にない前記イメージの対応する位置のピクセルに関連するカラーおよび視差を示すピクセルとを含むメインレイヤと、
    前記深さ不連続領域の対応する位置のピクセルに関連するフォアグラウンドカラー、フォアグラウンド視差、およびアルファ値を示すピクセルを含む境界レイヤとを備え、
    前記深さ不連続領域が、前記イメージの視差マップを使用して前記イメージ内で見つかる深さ不連続を囲む指定されたサイズの領域に対応する
    ことを特徴とする2レイヤ表現。
JP2005179123A 2004-06-28 2005-06-20 シーンの2レイヤ3d表現を生成するシステムおよび処理 Expired - Fee Related JP3996933B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/879,235 US7015926B2 (en) 2004-06-28 2004-06-28 System and process for generating a two-layer, 3D representation of a scene

Publications (3)

Publication Number Publication Date
JP2006024206A true JP2006024206A (ja) 2006-01-26
JP2006024206A5 JP2006024206A5 (ja) 2006-12-28
JP3996933B2 JP3996933B2 (ja) 2007-10-24

Family

ID=34980406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005179123A Expired - Fee Related JP3996933B2 (ja) 2004-06-28 2005-06-20 シーンの2レイヤ3d表現を生成するシステムおよび処理

Country Status (7)

Country Link
US (2) US7015926B2 (ja)
EP (1) EP1612738B1 (ja)
JP (1) JP3996933B2 (ja)
KR (2) KR100888537B1 (ja)
CN (1) CN100568272C (ja)
AT (1) ATE393939T1 (ja)
DE (1) DE602005006347T2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010039999A (ja) * 2008-08-08 2010-02-18 Toyota Motor Corp 画像セグメンテーション方法、プログラムおよび装置
US7680342B2 (en) 2004-08-16 2010-03-16 Fotonation Vision Limited Indoor/outdoor classification in digital images
JP2010512039A (ja) * 2006-12-04 2010-04-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像データ及び深度データの組合せを処理する画像処理システム
US7912285B2 (en) * 2004-08-16 2011-03-22 Tessera Technologies Ireland Limited Foreground/background segmentation in digital images with differential exposure calculations
KR20110052207A (ko) * 2009-11-12 2011-05-18 삼성전자주식회사 깊이감 인지 향상을 위한 영상 처리 장치 및 방법
JP2011523743A (ja) * 2008-06-02 2011-08-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 深さ情報を有するビデオ信号
JP2012503815A (ja) * 2008-09-25 2012-02-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 三次元画像データ処理
JP2012506573A (ja) * 2008-10-21 2012-03-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ シーンの階層化深さモデルを提供するための方法及び装置並びにシーンの階層化深さモデルを有する信号
US8212897B2 (en) 2005-12-27 2012-07-03 DigitalOptics Corporation Europe Limited Digital image acquisition system with portrait mode
JP2012141975A (ja) * 2011-01-03 2012-07-26 Samsung Electronics Co Ltd 3dディスプレイのためのマルチビュー画像の生成方法および装置
US8358841B2 (en) 2006-05-03 2013-01-22 DigitalOptics Corporation Europe Limited Foreground/background separation in digital images
JP2013511190A (ja) * 2009-11-13 2013-03-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3dビデオにおける深さ遷移の効率的な符号化

Families Citing this family (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4183082B2 (ja) * 2003-09-26 2008-11-19 シャープ株式会社 3次元画像描画装置および3次元画像描画方法
US7292257B2 (en) * 2004-06-28 2007-11-06 Microsoft Corporation Interactive viewpoint video system and process
US7542034B2 (en) 2004-09-23 2009-06-02 Conversion Works, Inc. System and method for processing video images
US20080259073A1 (en) * 2004-09-23 2008-10-23 Conversion Works, Inc. System and method for processing video images
CA2511040A1 (en) * 2004-09-23 2006-03-23 The Governors Of The University Of Alberta Method and system for real time image rendering
CA2553473A1 (en) * 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
JP2007300387A (ja) * 2006-04-28 2007-11-15 Eastman Kodak Co デジタルカメラ用基台
US8907979B2 (en) * 2006-10-24 2014-12-09 Adobe Systems Incorporated Fast rendering of knockout groups using a depth buffer of a graphics processing unit
US8655052B2 (en) * 2007-01-26 2014-02-18 Intellectual Discovery Co., Ltd. Methodology for 3D scene reconstruction from 2D image sequences
US20080225045A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. Systems and methods for 2-d to 3-d image conversion using mask to model, or model to mask, conversion
US20080226181A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. Systems and methods for depth peeling using stereoscopic variables during the rendering of 2-d to 3-d images
US20080225059A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. System and method for using off-screen mask space to provide enhanced viewing
US8274530B2 (en) 2007-03-12 2012-09-25 Conversion Works, Inc. Systems and methods for filling occluded information for 2-D to 3-D conversion
JP4793933B2 (ja) * 2007-03-12 2011-10-12 任天堂株式会社 画像処理プログラムおよび画像処理装置
US20080226194A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. Systems and methods for treating occlusions in 2-d to 3-d image conversion
US20080228449A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. Systems and methods for 2-d to 3-d conversion using depth access segments to define an object
US20080225042A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. Systems and methods for allowing a user to dynamically manipulate stereoscopic parameters
US20080226160A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. Systems and methods for filling light in frames during 2-d to 3-d image conversion
US20080226128A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. System and method for using feature tracking techniques for the generation of masks in the conversion of two-dimensional images to three-dimensional images
TW200910937A (en) * 2007-08-29 2009-03-01 Imagia Technologies Co Ltd The generation device of continuous crisscross scenes
GB2457646B (en) 2007-10-30 2010-03-03 Imagination Tech Ltd Method and apparatus for compressing and decompressing data
US8396296B2 (en) * 2007-12-31 2013-03-12 Intel Corporation Brand image detection
US9937022B2 (en) * 2008-01-04 2018-04-10 3M Innovative Properties Company Navigating among images of an object in 3D space
US7746098B2 (en) * 2008-03-10 2010-06-29 Qimonda North America Corp. Termination switching based on data rate
US8180167B2 (en) * 2008-07-16 2012-05-15 Seiko Epson Corporation Model-based error resilience in data communication
CN102165495B (zh) * 2008-09-25 2014-11-26 皇家飞利浦电子股份有限公司 三维图像数据处理
US8233664B2 (en) * 2008-11-12 2012-07-31 Eastman Kodak Company Determining relative depth of points in multiple videos
KR101502597B1 (ko) * 2008-11-13 2015-03-13 삼성전자주식회사 고심도 입체 영상 표시가 가능한 디스플레이 장치 및 방법
US8248410B2 (en) * 2008-12-09 2012-08-21 Seiko Epson Corporation Synthesizing detailed depth maps from images
CN101764914B (zh) * 2008-12-10 2011-07-27 新奥特(北京)视频技术有限公司 一种阿尔法通道边界腐蚀的方法
US8194097B2 (en) * 2008-12-12 2012-06-05 Seiko Epson Corporation Virtual masking using rigid parametric modeling
US8164617B2 (en) * 2009-03-25 2012-04-24 Cisco Technology, Inc. Combining views of a plurality of cameras for a video conferencing endpoint with a display wall
KR20100135032A (ko) * 2009-06-16 2010-12-24 삼성전자주식회사 2차원 영상의 3차원 영상 변환 장치 및 방법
US7961910B2 (en) * 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8379972B1 (en) * 2009-12-01 2013-02-19 Adobe Systems Incorporated Color decontamination for image compositing
US8488870B2 (en) * 2010-06-25 2013-07-16 Qualcomm Incorporated Multi-resolution, multi-window disparity estimation in 3D video processing
US8649592B2 (en) * 2010-08-30 2014-02-11 University Of Illinois At Urbana-Champaign System for background subtraction with 3D camera
US8670630B1 (en) 2010-12-09 2014-03-11 Google Inc. Fast randomized multi-scale energy minimization for image processing
US9177381B2 (en) 2010-12-22 2015-11-03 Nani Holdings IP, LLC Depth estimate determination, systems and methods
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US9100642B2 (en) * 2011-09-15 2015-08-04 Broadcom Corporation Adjustable depth layers for three-dimensional images
US9299154B2 (en) 2011-09-29 2016-03-29 Thomson Licensing Method and device for filtering a disparity map
US8995755B2 (en) 2011-09-30 2015-03-31 Cyberlink Corp. Two-dimensional to stereoscopic conversion systems and methods
EP2615834A1 (en) * 2012-01-16 2013-07-17 Thomson Licensing Dealiasing method and device for 3D view synthesis
BR112014026047A2 (pt) * 2012-04-19 2017-07-11 Ericsson Telefon Ab L M síntese de vista utilizando mapas de profundidade de resolução baixa
US20130321564A1 (en) * 2012-05-31 2013-12-05 Microsoft Corporation Perspective-correct communication window with motion parallax
CN103200420B (zh) * 2013-03-19 2015-03-25 宁波大学 一种基于三维视觉注意力的立体图像质量客观评价方法
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
KR102211862B1 (ko) 2014-04-09 2021-02-03 삼성전자주식회사 이미지 센서 및 이를 포함하는 이미지 센서 시스템
US10275935B2 (en) 2014-10-31 2019-04-30 Fyusion, Inc. System and method for infinite synthetic image generation from multi-directional structured image array
US10262426B2 (en) 2014-10-31 2019-04-16 Fyusion, Inc. System and method for infinite smoothing of image sequences
US10176592B2 (en) 2014-10-31 2019-01-08 Fyusion, Inc. Multi-directional structured image array capture on a 2D graph
US9940541B2 (en) 2015-07-15 2018-04-10 Fyusion, Inc. Artificially rendering images using interpolation of tracked control points
US10726593B2 (en) 2015-09-22 2020-07-28 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US10222932B2 (en) 2015-07-15 2019-03-05 Fyusion, Inc. Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations
US11006095B2 (en) 2015-07-15 2021-05-11 Fyusion, Inc. Drone based capture of a multi-view interactive digital media
US11095869B2 (en) 2015-09-22 2021-08-17 Fyusion, Inc. System and method for generating combined embedded multi-view interactive digital media representations
US10242474B2 (en) 2015-07-15 2019-03-26 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US10147211B2 (en) 2015-07-15 2018-12-04 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US10852902B2 (en) 2015-07-15 2020-12-01 Fyusion, Inc. Automatic tagging of objects on a multi-view interactive digital media representation of a dynamic entity
US11783864B2 (en) 2015-09-22 2023-10-10 Fyusion, Inc. Integration of audio into a multi-view interactive digital media representation
EP3252713A1 (en) * 2016-06-01 2017-12-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for performing 3d estimation based on locally determined 3d information hypotheses
CN105954536B (zh) * 2016-06-29 2019-02-22 英华达(上海)科技有限公司 一种光流测速模块与测速方法
US11202017B2 (en) 2016-10-06 2021-12-14 Fyusion, Inc. Live style transfer on a mobile device
US10437879B2 (en) 2017-01-18 2019-10-08 Fyusion, Inc. Visual search using multi-view interactive digital media representations
US11665308B2 (en) * 2017-01-31 2023-05-30 Tetavi, Ltd. System and method for rendering free viewpoint video for sport applications
US10313651B2 (en) 2017-05-22 2019-06-04 Fyusion, Inc. Snapshots at predefined intervals or angles
US11069147B2 (en) 2017-06-26 2021-07-20 Fyusion, Inc. Modification of multi-view interactive digital media representation
EP3467782A1 (en) * 2017-10-06 2019-04-10 Thomson Licensing Method and device for generating points of a 3d scene
US10592747B2 (en) 2018-04-26 2020-03-17 Fyusion, Inc. Method and apparatus for 3-D auto tagging
CN108986132B (zh) * 2018-07-04 2020-10-27 华南理工大学 一种使用全卷积神经网络生成证件照Trimap图的方法
US10909373B1 (en) 2018-08-24 2021-02-02 Snap Inc. Augmented reality system using structured light
US11430179B2 (en) 2020-02-24 2022-08-30 Microsoft Technology Licensing, Llc Depth buffer dilation for remote rendering
TW202316239A (zh) * 2021-10-11 2023-04-16 美商元平台技術有限公司 具有應用程式產生的移動向量和深度之圖框外插
US11783533B2 (en) 2021-10-11 2023-10-10 Meta Platforms Technologies, Llc Frame extrapolation with application generated motion vector and depth

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3355596B2 (ja) * 1995-06-06 2002-12-09 インターナショナル・ビジネス・マシーンズ・コーポレーション グラフィックス装置および表示方法
EP0904206B1 (en) * 1996-06-14 2002-12-04 Minnesota Mining And Manufacturing Company Display unit and methods of displaying an image
US5917937A (en) * 1997-04-15 1999-06-29 Microsoft Corporation Method for performing stereo matching to recover depths, colors and opacities of surface elements
FR2767404B1 (fr) * 1997-08-12 1999-10-22 Matra Systemes Et Information Procede de production de donnees cartographiques par stereovision
AU1930700A (en) * 1998-12-04 2000-06-26 Interval Research Corporation Background estimation and segmentation based on range and color
GB9915012D0 (en) * 1999-06-29 1999-08-25 Koninkl Philips Electronics Nv Z-buffering graphics system
US6476831B1 (en) * 2000-02-11 2002-11-05 International Business Machine Corporation Visual scrolling feedback and method of achieving the same
JP2003533833A (ja) * 2000-05-18 2003-11-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ フォアグランド及びバックグランドの検出器
US7081892B2 (en) * 2002-04-09 2006-07-25 Sony Computer Entertainment America Inc. Image with depth of field using z-buffer image data and alpha blending
US7636479B2 (en) * 2004-02-24 2009-12-22 Trw Automotive U.S. Llc Method and apparatus for controlling classification and classification switching in a vision system
US7292735B2 (en) * 2004-04-16 2007-11-06 Microsoft Corporation Virtual image artifact detection

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7680342B2 (en) 2004-08-16 2010-03-16 Fotonation Vision Limited Indoor/outdoor classification in digital images
US7912285B2 (en) * 2004-08-16 2011-03-22 Tessera Technologies Ireland Limited Foreground/background segmentation in digital images with differential exposure calculations
US7957597B2 (en) 2004-08-16 2011-06-07 Tessera Technologies Ireland Limited Foreground/background segmentation in digital images
US8175385B2 (en) 2004-08-16 2012-05-08 DigitalOptics Corporation Europe Limited Foreground/background segmentation in digital images with differential exposure calculations
US8212897B2 (en) 2005-12-27 2012-07-03 DigitalOptics Corporation Europe Limited Digital image acquisition system with portrait mode
US8358841B2 (en) 2006-05-03 2013-01-22 DigitalOptics Corporation Europe Limited Foreground/background separation in digital images
US9117282B2 (en) 2006-05-03 2015-08-25 Fotonation Limited Foreground / background separation in digital images
US8363908B2 (en) 2006-05-03 2013-01-29 DigitalOptics Corporation Europe Limited Foreground / background separation in digital images
JP2010512039A (ja) * 2006-12-04 2010-04-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像データ及び深度データの組合せを処理する画像処理システム
JP2011523743A (ja) * 2008-06-02 2011-08-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 深さ情報を有するビデオ信号
JP2010039999A (ja) * 2008-08-08 2010-02-18 Toyota Motor Corp 画像セグメンテーション方法、プログラムおよび装置
JP2012503815A (ja) * 2008-09-25 2012-02-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 三次元画像データ処理
JP2012506573A (ja) * 2008-10-21 2012-03-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ シーンの階層化深さモデルを提供するための方法及び装置並びにシーンの階層化深さモデルを有する信号
KR20110052207A (ko) * 2009-11-12 2011-05-18 삼성전자주식회사 깊이감 인지 향상을 위한 영상 처리 장치 및 방법
KR101636537B1 (ko) 2009-11-12 2016-07-06 삼성전자주식회사 깊이감 인지 향상을 위한 영상 처리 장치 및 방법
JP2013511190A (ja) * 2009-11-13 2013-03-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3dビデオにおける深さ遷移の効率的な符号化
JP2012141975A (ja) * 2011-01-03 2012-07-26 Samsung Electronics Co Ltd 3dディスプレイのためのマルチビュー画像の生成方法および装置
US9445071B2 (en) 2011-01-03 2016-09-13 Samsung Electronics Co., Ltd. Method and apparatus generating multi-view images for three-dimensional display

Also Published As

Publication number Publication date
US7206000B2 (en) 2007-04-17
KR20060046514A (ko) 2006-05-17
KR100888537B1 (ko) 2009-03-11
KR100971862B1 (ko) 2010-07-22
CN100568272C (zh) 2009-12-09
US20060114253A1 (en) 2006-06-01
ATE393939T1 (de) 2008-05-15
DE602005006347T2 (de) 2009-06-18
JP3996933B2 (ja) 2007-10-24
CN1716311A (zh) 2006-01-04
US20050285874A1 (en) 2005-12-29
US7015926B2 (en) 2006-03-21
KR20090007271A (ko) 2009-01-16
EP1612738A2 (en) 2006-01-04
EP1612738A3 (en) 2006-12-06
DE602005006347D1 (de) 2008-06-12
EP1612738B1 (en) 2008-04-30

Similar Documents

Publication Publication Date Title
JP3996933B2 (ja) シーンの2レイヤ3d表現を生成するシステムおよび処理
US11210838B2 (en) Fusing, texturing, and rendering views of dynamic three-dimensional models
Zitnick et al. High-quality video view interpolation using a layered representation
JP4783588B2 (ja) 対話式視点ビデオシステムおよびプロセス
US7142209B2 (en) Real-time rendering system and process for interactive viewpoint video that was generated using overlapping images of a scene captured from viewpoints forming a grid
US7221366B2 (en) Real-time rendering system and process for interactive viewpoint video
Goesele et al. Ambient point clouds for view interpolation
US6573912B1 (en) Internet system for virtual telepresence
US11790610B2 (en) Systems and methods for selective image compositing
US11204495B2 (en) Device and method for generating a model of an object with superposition image data in a virtual environment
US11652970B2 (en) Apparatus and method for representing a spatial image of an object in a virtual environment
CN109791704B (zh) 用于自由运行fvv应用的基于多层uv映射的纹理渲染方法、***和装置
US20220114784A1 (en) Device and method for generating a model of an object with superposition image data in a virtual environment
US9082221B2 (en) Method for the real-time composition of a video
Eisert et al. Volumetric video–acquisition, interaction, streaming and rendering
Ishikawa et al. Novel view generation from multiple omni-directional videos
Würmlin Stereo-based Methods (25 min)
Kang Interactive viewpoint video system and process

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061110

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061110

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20061110

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20061130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061212

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20070312

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20070316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070720

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070803

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3996933

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110810

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110810

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120810

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130810

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees