JP5822322B2 - ローカライズされ、セグメンテーションされた画像のネットワークキャプチャ及び3dディスプレイ - Google Patents

ローカライズされ、セグメンテーションされた画像のネットワークキャプチャ及び3dディスプレイ Download PDF

Info

Publication number
JP5822322B2
JP5822322B2 JP2014529663A JP2014529663A JP5822322B2 JP 5822322 B2 JP5822322 B2 JP 5822322B2 JP 2014529663 A JP2014529663 A JP 2014529663A JP 2014529663 A JP2014529663 A JP 2014529663A JP 5822322 B2 JP5822322 B2 JP 5822322B2
Authority
JP
Japan
Prior art keywords
source image
mask
image
target image
foreground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014529663A
Other languages
English (en)
Other versions
JP2014530391A (ja
Inventor
ラトクリフ、ジョシュア
ウー、イー
エル チョウバッシ、マハ
エル チョウバッシ、マハ
ガット、ヨラム
ビクトリア サン、ウェイ
ビクトリア サン、ウェイ
セシャドリナサン、カルパナ
コージンツェフ、イゴール、ブイ.
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2014530391A publication Critical patent/JP2014530391A/ja
Application granted granted Critical
Publication of JP5822322B2 publication Critical patent/JP5822322B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

グループ画像を視認するための現在の自動化方法は、カメラごとの画像ローカライズ及び前景セグメンテーションの併用効果を考慮に入れていない。その代わり、画像は、通常はスライドショーで1つずつ示される。現在のところ、この効果を達成するために、画像は、オフラインで手動によって処理される。
通常、移動デバイスの屋内のローカライゼーションは、全地球測位システム(GPS)タワーロケーション、無線タワーロケーション、複数のアクセスポイントロケーション等の何らかの形態のローカルなインフラストラクチャのセットアップに依拠している。これらのインフラストラクチャの要素は、実施するのが非常に高価になる可能性があり、時に、テーマパーク、博物館、コンベンションセンター、住宅等の多くの屋内環境用に提供するのが不可能である可能性さえある。
本明細書において説明されるマテリアルは、添付した図において、限定としてではなく例として示されている。説明を簡単かつ明瞭にするために、図に示した要素は、必ずしも一律の縮尺で描かれているものではない。例えば、幾つかの要素の寸法は、明瞭にするために、他の要素に比べて誇張されている場合がある。さらに、適切と考えられる場合には、対応する要素又は類似の要素を示すのに、参照符号が図の間で繰り返されている。
一例示のシステムの説明図である。 一例示のソース画像を示す図である。 一例示の画像ローカライゼーションプロセスを示すフローチャートである。 カメラの姿勢座標を示す図である。 一例示の画像セグメンテーションプロセスを示すフローチャートである。 一例示の画像セグメンテーションプロセスを示すフローチャートである。 一例示の画像セグメンテーションプロセスを示すフローチャートである。 一例示のセグメンテーションされたソース画像を示す図である。 一例示の3Dシミュレーションプロセスを示すフローチャートである。 一例示の3D環境シミュレーションを示す図である。 一例示のシステムの説明図である。 本開示の少なくとも幾つかの実施態様に従って全て配列された一例示の画像セグメンテーションプロセスを示す図である。
ここでは、同封された図を参照して1つ又は複数の実施形態又は実施態様を説明する。特定の構成及び装置が議論されるが、これは、例示の目的でのみなされていることが理解されるべきである。当業者であれば、この説明の趣旨及び範囲から逸脱することなく他の構成及び装置を用いることができることを認識するであろう。本明細書において説明する技法及び/又は装置は、本明細書において説明するもの以外の他の様々なシステム及びアプリケーションにおいても用いることができることが当業者には明らかであろう。
以下の説明は、例えば、システムオンチップ(SoC)アーキテクチャ等のアーキテクチャにおいて顕在化させることができる様々な実施態様を記載しているが、本明細書において説明する技法及び/又は装置の実施態様は、特定のアーキテクチャ及び/又はコンピューティングシステムに制限されるものではなく、同様の目的の任意のアーキテクチャ及び/又はコンピューティングシステムによって実施することができる。例として、例えば複数の集積回路(IC)チップ及び/又はパッケージを用いる様々なアーキテクチャ、及び/又はセットトップボックス、スマートフォン等の様々なコンピューティングデバイス及び/又は消費家電(CE)デバイスが、本明細書において説明する技法及び/又は装置を実施することができる。さらに、以下の説明は、ロジックの実施態様、システム構成要素、ロジックの分割/統合の選択肢等のタイプ及び相互関係等の多数の特定の詳細を記載している場合があるが、特許請求される主題は、そのような特定の詳細がなくても実施することができる。それ以外の場合に、例えば、制御構造及び全ソフトウェア命令シーケンス等の幾つかのマテリアルは、本明細書に開示するマテリアルを分かりにくくしないように詳細に示されていない場合がある。
本明細書に開示するマテリアルは、ハードウェア、ファームウェア、ソフトウェア、又はそれらの任意の組み合わせで実施することができる。本明細書に開示するマテリアルは、1つ又は複数のプロセッサが読み出して実行することができる機械可読媒体上に記憶された命令として実施することもできる。機械可読媒体は、機械(例えば、コンピューティングデバイス)によって可読な形態で情報を記憶又は伝送するための任意の媒体及び/又はメカニズムを含むことができる。例えば、機械可読媒体は、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスク記憶媒体、光記憶媒体、フラッシュメモリデバイス、電気的形態、光学的形態、音響的形態、又は他の形態の伝播信号(例えば、搬送波、赤外線信号、デジタル信号等)等を含むことができる。
本明細書において「1つの実施態様」、「一実施態様」、「一例示の実施態様」等というとき、これは、説明される実施態様が、特定の特徴、構造、又は特性を含む場合があるが、あらゆる実施態様が、その特定の特徴、構造、又は特性を必ずしも含むとは限らないことを示す。その上、そのようなフレーズは、必ずしも同じ実施態様を指しているとは限らない。さらに、特定の特徴、構造、又は特性が一実施態様に関して説明されているとき、本明細書において明示的に説明されているか否かを問わず、他の実施態様に関してもそのような特徴、構造、又は特性が有効であることが当業者には知られていると考えられる。
図1は、本開示による一例示のシステム100を示している。様々な実施態様では、システム100は、1つ又は複数の2次元(2D)ソース画像が3次元(3D)環境103においてキャプチャされている場合に、これらのソース画像を無線ネットワーク及び/又は有線ネットワーク104(例えば、インターネット等)に提供する1つ又は複数のカメラ102を備えることができる。様々な実施態様では、カメラ102は、デジタル形式の2Dソース画像をネットワーク104に提供することができる任意のタイプのカメラとすることができる。これらのソース画像は、任意の解像度及び/又はアスペクト比を有することができる。
ソース画像は、ネットワーク104を介してビジョンエンジン106に提供することができる。このビジョンエンジンでは、ソース画像は、本明細書において説明するカメラローカライゼーションプロセス及び画像セグメンテーションプロセスを受けることができる。ビジョンエンジン106は、カメラローカライゼーションプロセス及び画像セグメンテーションプロセスの結果をネットワークデータベース108に提供することができ、3Dディスプレイエンジン110は、本明細書において同様に説明する3D環境シミュレーションを提供する目的で、データベース108からのそれらの結果にアクセスすることができる。様々な実施態様では、ビジョンエンジン106は、カメラローカライゼーションプロセス及び画像セグメンテーションプロセスの結果を最初にデータベース108に記憶することなく、それらの結果をディスプレイエンジン110に提供することができる。さらに、様々な実施態様では、ビジョンエンジン106は、ディスプレイエンジン110に隣接することができ、カメラローカライゼーションプロセス及び画像セグメンテーションプロセスの結果をネットワーク104を用いてディスプレイエンジン110に提供することなく、直接そうすることができる。
様々な実施態様では、カメラ102によって3D環境103においてキャプチャされたソース画像は、背景部分及び前景部分を含む場合がある。例えば、図2は、3D環境103においてキャプチャされた一例示の2Dソース画像200を示している。画像200は、前景部分202(例えば、人間被写体)及び背景部分204(例えば、床、壁、窓等の部屋の部分)を含む。
図3は、本開示の様々な実施態様による一例示の画像ローカライゼーションプロセス300の流れ図を示している。プロセス300は、図3のブロック304、306、308、314、316、及び320のうちの1つ又は複数によって示されるような1つ又は複数の動作、機能、又は行為を含むことができ、その結果、ソース画像のカメラ姿勢を決定することができる。非限定的な例として、プロセス300は、本明細書において、図1の例示のシステム100を参照して説明される。様々な実施態様では、プロセス300は、システム100のビジョンエンジン106が行うことができる。プロセス300は、未知のカメラ姿勢を有するソース画像302を受信することができるブロック304において開始することができる。例えば、ブロック304は、ビジョンエンジン106がネットワーク104を介してソース画像302を受信することを含むことができる。
様々な実施態様では、ブロック304は、既知の3D環境(例えば、環境103)においてキャプチャされた例示の画像200等のソース画像を受信することを含むことができる。既知の3D環境においてキャプチャされているが、その3D環境においてソース画像をキャプチャしたカメラの姿勢は分かっていない。よく知られたピンホールカメラモデルによれば、カメラ姿勢は、カメラの(例えば、デカルト(x,y,z)座標における)3D位置座標等の位置情報と、3D環境に対するカメラの(例えば、角度値における)ヨー、ピッチ、及びロールを含む姿勢情報又は向き情報とを含む6次元量として表すことができる。例えば、図4は、3D環境103の(X,Y,Z)座標系内の一例示のカメラロケーション400に対するカメラ姿勢座標を示している。
3D環境(例えば、環境103)は、複数の2D平面構造と、それらの対応するターゲット画像とを含む。各ターゲット画像は、3D背景環境における平面構造の画像を表し、このターゲット画像の画像特徴は、抽出してデータベース108に記憶することができる。ブロック306において、ソース画像の視覚的特徴を3D環境の記憶された画像特徴と比較して、最もよく一致するターゲット画像を決定することができる。例えば、ブロック306は、スケール不変特徴変換(SIFT)技法(例えば、D. G. Lowe「Object recognition from local scale-invariant features」Proc. of the International Conference on Computer Vision, Corfu (Sept. 1999)参照)等の既知のコンピュータービジョン技法を用いてソース画像から視覚的特徴を抽出することを含むことができる。様々な実施態様では、これらの視覚的特徴は、画像テクスチャを含むことができる。次に、ソース画像から抽出されたこれらの視覚的特徴を、3D環境のターゲット画像から事前に抽出された画像テクスチャ(例えば、ターゲット画像においてキャプチャされたようなソース画像200の背景204の様々な部分に対応する)等の視覚的特徴と比較して、例えば、データベース108に記憶することができる。ブロック306の比較の結果、3D環境の記憶されたターゲット画像の中から最もよく一致するターゲット画像を識別することができる。
ブロック308において、ソース画像を最もよく一致するターゲット画像と比較することによって、ホモグラフィー行列Hを求めることができる。様々な実施態様では、ホモグラフィー行列Hは、ブロック306において決定された最もよく一致するターゲット画像に関連付けられた3D環境における平面構造へのソース画像の射影変換を提供する非特異3×3行列を表す。ブロック308では、様々な既知の技法を用いて、ホモグラフィー行列Hを求めることができる(例えば、E. Vincent及びR. Laganiere「Detecting planar homographies in an image pair」Proceedings of the 2nd International Symposium on Image and Signal Processing and Analysis (2001)参照)(以下:「Vincent及びLaganiere」)。
ソース画像は、複数の平面を含む場合があるので、ブロック308は、3D環境における平面構造と一致するソース画像内の主要平面を識別することを含むことができる。様々な実施態様では、ブロック308は、平面構造とソース画像との間の一致する点を識別することを含むことができる。例えば、ブロック308においてホモグラフィー行列Hを推定するのに、4つの対応する一致点で十分な場合がある。ブロック308の結果、3D環境の一致した平面構造310及びソース画像ホモグラフィー行列312を生成することができる。
ブロック314において、平面構造について、ホモグラフィー行列Hは、3D点Mからその対応する2D点mへの透視投影関係を表している。この関係は、m=HMによって表すことができる。ここで、H=K[R|T]であり、Kは、焦点距離等のカメラの内部パラメーターに依存する3×3カメラ較正行列であり、[R|T]は、3×4カメラ姿勢パラメーターである(ここで、Rは3×3回転行列を表し、Tは平行移動行列を表す)。H及びKは既知であるので、カメラ姿勢は、M及びmの少数(n>6)の既知のマッピング測定値を所与として、最小二乗最小化技法によって推定することができる。測定値{m}が雑音を有する場合、カメラ姿勢は、再投影誤差の合計、又は、3D点を投影したものと、それらの測定された2D座標との間の二乗距離を最小化することによって精緻化することができる。この最小化は、次に、反復的な最適化方式を用いて解くことができる。
ブロック316において、回転行列R及び平行移動行列Tを一致した平面構造の3D座標に適用して、ソース画像カメラ姿勢318を生成することができる。プロセス300は、次に、ブロック320において終了することができる。このブロックでは、以下でより詳細に説明するように、後の使用のために、ソース画像カメラ姿勢をシステム100のデータベース108等のネットワークアクセス可能データベースに記憶することができる。ソース画像カメラ姿勢は、以下で更に説明するようにセグメンテーションされたソース画像に関連付けられたメタデータとしてデータベースに記憶することができる。
図3に示すような例示のプロセス300の実施態様は、示した順序で図示した全てのブロックを行うことを含むことができるが、本開示は、この点に限定されるものではく、様々な例において、プロセス300の実施態様は、図示した全てのブロックのサブセットのみを行うこと及び/又は示したものとは異なる順序で行うことを含むことができる。
図5A、図5B、及び図5Cは、本開示の様々な実施態様による一例示の画像セグメンテーションプロセス500の流れ図を示している。プロセス500は、図5A、図5B、及び図5Cのブロック502〜548のうちの1つ又は複数によって示されるような1つ又は複数の動作、機能、又は行為を含むことができ、その結果、ソース画像の前景部分をセグメンテーション又は抽出して、セグメンテーションされたソース画像を作成することができる。非限定的な例として、プロセス500は、本明細書において、図1の例示のシステム100、図2の例示のソース画像200、及び図3の例示のプロセス300を参照して説明される。様々な実施態様では、プロセス500は、システム100のビジョンエンジン106が行うことができる。
プロセス500は、複数のターゲット画像(背景画像部分を含む)及び関連付けられたホモグラフィー行列を受信することができるブロック502において開始することができる。様々な実施態様では、ソース画像は、複数のターゲット画像からの部分を含む。ブロック502において受信された各ターゲット画像について、ブロック504において、対応するホモグラフィー行列を適用し、既知の技法(例えば、Vincent及びLaganiere参照)を用いて、投影ターゲット画像及びバイナリ投影行列を生成することができる。ブロック504は、ホモグラフィー行列を用いて、結果の投影ターゲット画像がソース画像と実質的に位置合わせされるように、ターゲット画像をソース画像の画像平面上に投影することを含むことができる。様々な実施態様では、ブロック504の結果、投影ターゲット画像は、ソース画像の幾何学的性質と類似の幾何学的性質を有することができる。例えば、投影ターゲット画像に関連付けられたカメラ姿勢は、プロセス300によって生成されたカメラ姿勢(ソース画像に関連付けられている)と類似することができる。様々な実施態様では、ターゲット画像及びソース画像は、同じ解像度及びアスペクト比を有することができる。ターゲット画像及びソース画像が異なる解像度及び/又はアスペクト比を有する場合がある実施態様では、投影ターゲット画像は、ソース画像と同じ解像度及びアスペクト比を有する。
上述するとともに図2の例に示したように、ソース画像200は、前景部分202及び背景部分204を含む。ブロック502のターゲット画像は、ソース画像と同じ3D環境103においてキャプチャされている場合があるが、ターゲット画像は、ソース画像とは異なる視点(例えば、位置及び向き)から得られている場合があり、ソース画像内に見られる前景部分202を含まずに、背景部分204の少なくとも一部を含む場合がある。様々な実施態様では、ブロック502において受信されたターゲット画像は、以前にキャプチャされて、関連付けられたホモグラフィー行列とともにシステム100のデータベース108等のデータベースに記憶されている場合がある。
ブロック506において、ソース画像(前景部分及び背景部分を含む)を受信することができる。ブロック508において、このソース画像と、ブロック504からの結果の投影ターゲット画像とをローパスフィルタリングして、フィルタリングされたソース画像と、フィルタリングされた投影ターゲット画像とを生成することができる。ブロック510において、各フィルタリングされた投影ターゲット画像に関連付けられた投影マスク内において、フィルタリングされたソース画像と、フィルタリングされた投影ターゲット画像のそれぞれとの間の強度差を求めて、対応する差分マップを生成することができる。これらの差分マップのそれぞれは、次に、閾値関数に従って、投影マスク内に粗くセグメンテーションされた前景マスクを生成することができる(ブロック512)。例えば、最大画像強度の50%に対応する閾値関数(例えば、8ビットの画像強度の場合には128の閾値の値)をブロック512において適用することができる。ブロック514において、粗くセグメンテーションされた前景マスクを投影マスクから取り去って、各フィルタリングされた投影ターゲット画像に関連付けられた、調整された投影マスクを生成することができる。
ブロック508からの結果のフィルタリングされた投影ターゲット画像及びフィルタリングされたソース画像は、幾何学的に類似している場合があるが、カメラ特性、設定、光条件等の差に起因して、それらの間には実質的な色差が存在する場合がある。したがって、ブロック516において、各調整された投影マスク内において、フィルタリングされた投影ターゲット画像のそれぞれとフィルタリングされたソース画像との間のカラーマッピングを推定することができる。
次に図5Bを参照すると、プロセス500は、ブロック518において、図5Aのブロック516からの結果の推定されたカラーマップを、対応するフィルタリングされた投影ターゲット画像に適用して、色調整された投影ターゲット画像を生成することへと処理を進める。ブロック518からの結果の色調整された投影ターゲット画像は、次に、ブロック508からの結果のフィルタリングされたソース画像と実質的に同様の色特性を有することができる。
ブロック520において、各色調整された投影ターゲット画像とフィルタリングされたソース画像との間の強度差を求めて、差分マップを生成することができ、これらの差分マップを混合して混合差分マップを生成することができる。非限定的な例において、ブロック520の差分マップは、色調整された投影ターゲット画像とフィルタリングされたソース画像との間の強度の絶対差として求めることができる。そのような実施態様では、ブロック520からの結果の混合差分マップは、差分画像に対応することができる。様々な他の実施態様では、相互相関、相互情報量、二乗強度差の総和、画像均一比(ratio image uniformity)等の種々の画像類似度メトリックを用いることができる。さらに、様々な実施態様では、ブロック520において、全てのカラーチャネルを比較して、前景色と背景色との間のより良好な区別を提供することができる。
ブロック522において、低い強度閾値及び高い強度閾値(すなわち、二重閾値処理機能)を混合差分マップに適用することができ、低い閾値の結果を高い閾値の結果によってフィルタリングして、バイナリ前景マスクを生成することができる。様々な実施態様では、ブロック522の二重閾値処理は、既知の技法(例えば、W. Sun及びS. P. Spackman「Multi-object segmentation by stereo mismatch」Machine Vision and Applications, Vol. 7 Issue 2 (October 2009)参照)を用いて行うことができる。
プロセス500は、ブロック524において継続することができ、このブロックでは、バイナリ前景マスクを取り囲むエリアにおいて、フィルタリングされたソース画像及び対応する色調整された投影ターゲット画像の統計的解析を行うことによって、ブロック522からの結果のバイナリ前景マスクを精緻化することができる。ブロック524の精緻化は、各投影マスク内の各バイナリ前景マスクに対して別々に適用することができる。
様々な実施態様では、ブロック524において行われた精緻化は、前景領域が局在化して十分に接続されている傾向があり、既知の前景ピクセルの近傍のピクセルも同様に前景ピクセルである可能性が高いという直観を用いる。ブロック524における精緻化は、前景画像及びターゲット画像の双方において既知の前景ピクセルを取り囲むローカルな領域の統計を解析することを含むことができる。ローカルな領域内の背景ピクセルは、それらの統計が前景画像とターゲット画像との間で大きく異なるとき、前景マスクに追加することができる。例えば、ブロック524の精緻化手順は、前景とラベル付けされた各ピクセルにおけるローカルなウィンドウ(例えば、5×5ピクセル)を考慮することができる。このウィンドウ内の各カラーチャネルからのピクセルは、平均(μ)及び標準偏差(σ)を有する正規分布を用いてモデル化することができる。これらのパラメーターは、最尤推定等の標準的な技法を用いて前景画像及びターゲット画像から推定することができる。次に、対応する前景ピクセル及び背景ピクセルがともに、それぞれこれらの前景分布及び背景分布からのサンプルであるという前提の下で、このローカルなウィンドウ内の各ピクセルについて、2つの分散度(measure of dispersion)を定義することができる。前景の統計及び背景の統計が類似しているとき、前景分布又は背景分布のいずれかを前提として計算される分散度は小さいと予想され、この条件は、背景領域に属するピクセルに当てはまると予想することができる。双方の分散度は、前景領域に属するピクセルの場合、大きいと予想される。
したがって、ブロック524の結果として、それぞれ前景分布及び背景分布を前提として計算された双方の分散度が或る特定の閾値を超えているとき、ピクセルを前景マスクに追加することができる。分散度は、カラーチャネルにわたる前景ピクセルと背景ピクセルとの間の値の範囲の最大確率であると定義することができる。例えば、それぞれ前景及び背景からのサンプルピクセル[x,x,x]及び[y,y,y]に基づく分散(前景分布を前提とする)は、前景分布が全てのカラーチャネルにわたる前景ピクセルと背景ピクセルとの間の値の範囲を占める最大確率m=maxi∈{R,G,B}abs(CDFXi(x)−CDFXi(y))として定義することができる。ここで、CDFXiは、それぞれカラーチャネルiにおける前景分布の累積分布関数を示す。背景分布を前提とした同様の尺度mを定義することができる。m及びmの双方が或る特定の閾値を超えているとき、そのピクセルは、前景としてラベル付けすることができる。様々な実施態様では、m及びmの値は、0〜1の範囲とすることができ、対応する閾値の値は、約0.5とすることができる。
ブロック524における精緻化は、反復数の最大限界に達するまで又は反復当たり追加されるピクセル数の最大限界に達するまで、前景マスクに新しく追加されたピクセルに対して繰り返すことができる。さらに、ブロック524は、種々の色空間において実行することもできる。例えば、YCbCr色空間において精緻化を実行することは、ソース画像とターゲット画像との間に大きな明暗差が存在する場合に、分類誤差を最小化するのに有利な場合がある。
ブロック526において、ブロック524からの結果の精緻化されたバイナリ前景マスクをマージして、バイナリ前景マスクを生成することができる。例えば、ブロック524において異なる平面から取得された異なる精緻化されたバイナリ前景マスクを、ブロック526において論理的OR演算を用いて組み合わせることができる。ブロック528において、フィルタリングされたソース画像から床部分を取り去って、床前景マスクを生成することができる。様々な実施態様では、床を取り去ることは、YCbCr等の他の色空間において実行することができ、取り去ることは、ソース画像とターゲット画像との間の明暗の変化に対するロバスト性を改善するために、Cb成分空間及びCr成分空間においてのみ実行される。ブロック530において、床前景マスクをブロック526からのバイナリ前景マスクとマージして、単一のバイナリ前景マスクを生成することができる。次に、ブロック532において、ブロック530からの結果の前景マスクをメディアンフィルタリングして、異なる平面構造を処理及びマージすることによって生み出されたアーティファクトを除去することができる。
次に図5Cを参照すると、プロセス500は、ブロック536において継続することができる。このブロックでは、カスケード分類器及びソース画像の強度チャネルを用いて、バイナリ前景マスクにおいて方形の顔領域を検出することができる。様々な実施態様では、ブロック536において行われる検出のパラメーターは、誤検出確率を最小にするように調節することができる。ブロック538において、検出された顔領域内のピクセルを初期化することができ、その結果、「おそらく前景(probably foreground)」又は「おそらく背景(probably background)」のいずれかの初期ラベルを有する全ての前景ピクセル及び背景ピクセルの割り当てが得られる。ブロック540において、顔領域の内部サブセットは、「前景」として初期化することができ、外部サブセットは、「背景」として初期化することができる。
プロセス500は、次に、ブロック542において継続することができる。このブロックにおいて、色に基づくセグメンテーションを実行して、ブロック540において行われた顔領域のラベル割り当てを精緻化するとともに、バイナリ顔マスクを生成することができる。様々な実施態様では、グラフカット技法等の既知の技法を用いてブロック542を行って、顔マスクを生成することができる。
プロセス500は、次に、ブロック544において継続することができる。このブロックにおいて、ブロック542からの顔マスク及びブロック532からのバイナリ前景マスクをマージして、単一のバイナリ前景マスクを生成することができる。様々な実施態様では、セグメンテーションされた画像がターゲット画像内のあらゆる人の顔を含むことを確保するために、マスクは、論理的「OR」演算を用いてマージすることができる。
プロセス500は、ブロック546において継続することができる。このブロックでは、連結成分解析(例えば、Azriel Rosenfeld及びJohn L. Pfaltz「Sequential Operations in Digital Picture Processing」J. ACM, vol. 13, no. 4, pp. 471-494, October 1966参照)等の既知の技法を、ブロック544からのバイナリ前景マスクに適用して、ソース画像内の構成要素を取得することができる。様々な実施態様では、ブロック546は、小さな構成要素をフィルタリング及び除去すること、及び/又は全ての構成要素を埋めて、孔を除去することを含むことができる。さらに、ブロック546は、人体解剖学のモデル及び最も大きな構成要素(人体の胴である可能性が高い)等に対する種々の構成要素の相対配置に基づいて構成要素を除去することも含むことができる。プロセス500は、次に、ブロック548において終了することができる。このブロックにおいて、最終的なバイナリ前景マスクをプロセス500の出力として提供することができる。例えば、図6は、プロセス500からの結果の最終的な前景マスクを用いて生成された一例示のセグメンテーションされたソース画像600を示している。プロセス500からの結果のセグメンテーションされたソース画像は、図1のデータベース108等のネットワークアクセス可能データベースに記憶することができ、そのデータベース内において、プロセス300からの結果のカメラ姿勢に関連付けることができる。
図7は、本開示の様々な実施態様による一例示の3Dシミュレーションプロセス700の流れ図を示している。プロセス700は、図7のブロック702、704、706、708、及び710のうちの1つ又は複数によって示されるような1つ又は複数の動作、機能、又は行為を含むことができ、その結果、プロセス300及び500を用いて複数の2D画像からセグメンテーションされた共通の背景部分及び前景部分を組み込んだ環境の3Dシミュレーションを得ることができる。
プロセス700は、前景部分及び背景部分を含むソース画像を受信することから開始することができ(ブロック702)、その後、ソース画像を3D環境の画像特徴と比較することによってカメラ姿勢を求めることができる(ブロック704)。ブロック702及び704は、本明細書においてプロセス300に関して説明した方法で行うことができる。プロセス700は、カメラ姿勢を用いて背景部分から前景部分を抽出することによって、セグメンテーションされたソース画像を生成すること(ブロック706)に処理を進めることができ、その後、セグメンテーションされたソース画像及びカメラ姿勢をネットワークデータベースに記憶することができる(ブロック708)。ブロック706及び708は、本明細書においてプロセス500に関して説明した方法で行うことができる。
プロセス700は、ブロック710において終了することができ、セグメンテーションされたソース画像及び関連付けられたカメラ姿勢を用いて、仮想3D環境における前景部分のシミュレーションが提供される。例えば、システム100のディスプレイエンジン110は、セグメンテーションされたソース画像及び関連付けられたカメラ姿勢のメタデータをデータベース108から取り出すことができる。ディスプレイエンジン110は、次に、背景204を含む既知の3D環境103の3Dモデル又はシミュレーションを生成することができる。セグメンテーションされたソース画像の前景部分は、次に、それぞれのカメラ姿勢のメタデータに応じて、それらのそれぞれのロケーションにレンダリングすることができる。その結果、リアルタイムで協同的にキャプチャされた人々及び物体等の前景部分又は要素を含む3Dフォトブラウザ等のナビゲーション可能な3D環境を生成することができる。例えば、図8は、環境103の一例示の3Dシミュレーション800を示している。この環境は、セグメンテーションされたソース画像600の前景部分202を含むとともに、本明細書において説明したプロセスを同様に受けた追加のソース画像から抽出された前景部分802及び804も含む。
図5A−C及び図7に示すような例示のプロセス500及び700の実施態様は、示した順序で図示した全てのブロックを行うことを含むことができるが、本開示は、この点に限定されるものではなく、様々な例では、プロセス500及び700の実施態様は、図示した全てのブロックのサブセットのみに及び/又は示したものとは異なる順序で行うことを含むことができる。
加えて、図3、図5A−C、及び図7のプロセス及び/又はブロックのうちの任意の1つ又は複数は、1つ又は複数のコンピュータープログラム製品によって提供される命令に応答して行うことができる。そのようなプログラム製品は、例えば、1つ又は複数のプロセッサコアによって実行されると、本明細書において説明した機能を提供することができる命令を提供する信号担持媒体を含むことができる。コンピュータープログラム製品は、任意の形態のコンピューター可読媒体において提供することができる。したがって、例えば、1つ又は複数のプロセッサコアを含むプロセッサは、コンピューター可読媒体によってプロセッサに搬送される命令に応答して、図3、図5A−C、及び図7に示すブロックのうちの1つ又は複数を行うことができる。
図9は、本開示による一例示のシステム900を示している。システム900は、本明細書において議論した様々な機能の一部又は全てを実行するのに用いることができ、本開示の様々な実施態様による、本明細書において説明したプロセスを行うことができる任意のデバイス又はデバイスの集合体を備えることができる。例えば、システム900は、デスクトップ、移動コンピューター又はタブレットコンピューター、スマートフォン、セットトップボックス等のコンピューティングプラットフォーム又はデバイスの選択された構成要素を含むことができるが、本開示は、この点に限定されるものではない。幾つかの実施態様では、システム900は、CEデバイス用のIntel(登録商標)アーキテクチャ(IA)に基づくコンピューティングプラットフォーム又はSoCとすることができる。本明細書において説明した実施態様は、本開示の範囲から逸脱することなく、代替の処理システムとともに用いることができることが当業者によって容易に認識されるであろう。
システム900は、1つ又は複数のプロセッサコア904を有するプロセッサ902を備える。プロセッサコア904は、少なくとも部分的にソフトウェアを実行し及び/又はデータ信号を処理することができる任意のタイプのプロセッサロジックとすることができる。様々な例では、プロセッサコア904は、CISCプロセッサコア、RISCマイクロプロセッサコア、VLIWマイクロプロセッサコア、及び/又は命令セットの任意の組み合わせを実装する任意の数のプロセッサコア、又はデジタル信号プロセッサ若しくはマイクロコントローラー等の他の任意のプロセッサデバイスを含むことができる。
プロセッサ902は、例えば、ディスプレイプロセッサ908及び/又はグラフィックスプロセッサ910によって受信された命令を制御信号及び/又はマイクロコードエントリー点にデコードするのに用いることができるデコーダー906も備える。コア(複数の場合もある)904とは別個の構成要素としてシステム900に示されているが、当業者であれば、コア(複数の場合もある)904のうちの1つ又は複数が、デコーダー906、ディスプレイプロセッサ908、及び/又はグラフィックスプロセッサ910を実施することができることを認識することができる。幾つかの実施態様では、プロセッサ902は、図3、図5A〜図5C、及び図7に関して説明した例示のプロセスを含む、本明細書において説明したプロセスのうちの任意のものを行うように構成することができる。さらに、制御信号及び/又はマイクロコードエントリー点に応答して、デコーダー906、ディスプレイプロセッサ908、及び/又はグラフィックスプロセッサ910は、対応する動作を実行することができる。
処理コア(複数の場合もある)904、デコーダー906、ディスプレイプロセッサ908、及び/又はグラフィックスプロセッサ910は、システム相互接続916を通じて互いに及び/又は様々な他のシステムデバイスと通信可能に及び/又は動作可能に結合することができる。これらの様々な他のシステムデバイスは、例えば、メモリコントローラー914、オーディオコントローラー918、及び/又は周辺装置920を含むことができるが、これらに限定されるものではない。周辺装置920は、例えば、統一シリアルバス(USB:unified serial bus)ホストポート、周辺機器相互接続(PCI)エクスプレスポート、シリアル周辺インターフェース(SPI)インターフェース、拡張バス、及び/又は他の周辺装置を含むことができる。図9は、相互接続916によってデコーダー906並びにプロセッサ908及び910に結合されたものとしてメモリコントローラー914を示しているが、様々な実施態様では、メモリコントローラー914は、デコーダー906、ディスプレイプロセッサ908、及び/又はグラフィックスプロセッサ910に直接結合することができる。
幾つかの実施態様では、システム900は、図9に図示していない様々なI/OデバイスとI/Oバス(同様に図示せず)を介して通信することができる。そのようなI/Oデバイスは、例えば、ユニバーサル非同期受信機/送信機(UART)デバイス、USBデバイス、I/O拡張インターフェース、又は他のI/Oデバイスを含むことができるが、これらに限定されるものではない。様々な実施態様では、システム900は、移動通信、ネットワーク通信、及び/又は無線通信を行うためのシステムの少なくとも一部分を表すことができる。
システム900は、メモリ912を更に備えることができる。メモリ912は、ダイナミックランダムアクセスメモリ(DRAM)デバイス、スタティックランダムアクセスメモリ(SRAM)デバイス、フラッシュメモリデバイス、又は他のメモリデバイス等の1つ又は複数のディスクリートメモリ構成要素とすることができる。図9は、プロセッサ902の外部のものとしてメモリ912を示しているが、様々な実施態様では、メモリ912は、プロセッサ902の内部とすることができる。メモリ912は、図3、図5A〜図5C、及び図7に関して説明した例示のプロセスを含む、本明細書において説明したプロセスのうちの任意のものを行う際に、プロセッサ902が実行することができるデータ信号によって表わされる命令及び/又はデータを記憶することができる。幾つかの実施態様では、メモリ912は、システムメモリ部分及びディスプレイメモリ部分を含むことができる。
図10は、本開示の様々な実施態様による一例示の画像セグメンテーションプロセス1000の流れ図を示している。プロセス1000は、図10のブロック1002〜1022のうちの1つ又は複数によって示されるような1つ又は複数の動作、機能、又は行為を含むことができる。プロセス1000の様々なブロックは、図5A、図5B、及び図5Cのプロセス500に関して本明細書において説明される。
プロセス1000は、プロセス500のブロック502及び504に関して上述したようにホモグラフィー行列をターゲット画像に適用することができるブロック1002において開始することができる。ブロック1004において、プロセス500のブロック506及び508に関して上述したように、ソース画像及び投影ターゲット画像のローパスフィルタリングを実行することができる。ブロック1006において、プロセス500のブロック510、512、及び514に関して上述したように、投影マスクを調整することができる。ブロック1008において、プロセス500のブロック516及び518に関して上述したように、カラーマッピングを実行することができる。ブロック1010において、プロセス500のブロック520に関して上述したように、画像差分を実行することができる。
プロセス1000は、ブロック1012において継続することができる。このブロックにおいて、プロセス500のブロック522に関して上述したように、二重閾値処理を実行することができる。その後、プロセス500のブロック524及び526に関して上述したように、色統計解析(ブロック1014)を実行することができる。ブロック1016において、プロセス500ブロック528及び530に関して上述したように、床の取り去りを行うことができる。ブロック1018において、プロセス500のブロック532に関して上述したように、境界アーティファクトを除去することができる。
プロセス1000は、ブロック1020において継続することができる。このブロックにおいて、プロセス500のブロック536、538、540、542、及び544に関して上述したように、顔領域セグメンテーションの精緻化を実行することができる。プロセス1000は、プロセス500のブロック546に関して上述したように、連結成分解析を実行することができるブロック1022において終了することができる。
上述したシステム、及び本明細書において説明したようなそれらのシステムによって実行される処理は、ハードウェア、ファームウェア、若しくはソフトウェア、又はそれらの任意の組み合わせで実施することができる。加えて、本明細書において開示した任意の1つ又は複数の特徴は、ディスクリートロジック及び集積回路ロジック、特定用途向け集積回路(ASIC)ロジック、並びにマイクロコントローラーを含むハードウェア、ソフトウェア、ファームウェア、及びそれらの組み合わせで実施することができ、特定領域集積回路パッケージの一部、又は集積回路パッケージの組み合わせとして実施することができる。ソフトウェアという用語は、本明細書において用いられるとき、本明細書において開示した1つ若しくは複数の特徴及び/又は特徴の組み合わせをコンピューターシステムに実行させるコンピュータープログラムロジックが記憶されているコンピューター可読媒体を含むコンピュータープログラム製品を指す。
本明細書において記載された或る特定の特徴を様々な実施態様に関して説明してきたが、この説明は、限定的な意味に解釈されることを意図するものではない。したがって、本開示が関係する技術分野の当業[請者に明らかである、本明細書において説明した実施態様及び他の実施態様の様々な変更は、本開示の趣旨及び範囲内にあるとみなされる。本発明の例を下記の各項目として示す。
[項目1]
コンピューター実施方法であって、
ソース画像を受信することであって、該ソース画像は、前景部分及び背景部分を含み、該背景部分は、3次元環境(3D環境)の画像コンテンツを含むことと、
前記ソース画像を前記3D環境の複数のターゲット画像と比較することによって、前記ソース画像のカメラ姿勢を求めることと、
前記カメラ姿勢に応じて、前記背景部分から前記前景部分をセグメンテーションすることによって、セグメンテーションされたソース画像を生成することと、
前記セグメンテーションされたソース画像及び前記カメラ姿勢をネットワークデータベースに記憶することと、
を含む、コンピューター実施方法。
[項目2]
前記カメラ姿勢を求めることは、
前記ソース画像から少なくとも1つのソース画像の視覚的特徴を抽出することと、
前記少なくとも1つのソース画像の視覚的特徴を前記複数のターゲット画像と比較することによって最もよく一致するターゲット画像を決定することと、
前記ソース画像を、前記最もよく一致するターゲット画像に関連付けられた前記3D環境における平面構造上に投影することであって、前記平面構造は、前記3D環境における3D座標を有することと、
を含む、項目1に記載の方法。
[項目3]
前記ソース画像を前記平面構造上に投影することは、
ホモグラフィー行列を求めることと、
前記ホモグラフィー行列、固有カメラ較正行列、及び最小二乗再投影誤差最小化技法を用いて、回転行列及び平行移動行列を解くことと、
前記回転行列及び前記平行移動行列を前記平面構造の前記3D座標に適用することと、
を含む、項目2に記載の方法。
[項目4]
前記前景部分をセグメンテーションすることは、
各ターゲット画像について、ホモグラフィー行列を該ターゲット画像に適用することであって、投影マスク及び投影ターゲット画像を生成し、該投影マスクは、前記ソース画像内の前記ターゲット画像の前記背景部分の少なくとも一部を示すことと、
各投影ターゲット画像を前記ソース画像に色調整することと、
前記色調整された投影ターゲット画像を前記ソース画像と比較することによって複数の差分マップを生成することと、
前記複数の差分マップをマージすることであって、混合差分マップを生成することと、
を含む、項目1に記載の方法。
[項目5]
前記混合差分マップに二重閾値処理を適用することであって、複数の第1のバイナリ前景マスクを生成することと、
前記ソース画像及び前記色調整された投影ターゲット画像の統計的解析を行うことによって、各第1のバイナリ前景マスクを精緻化することと、
を更に含む、項目4に記載の方法。
[項目6]
前記ソース画像及び前記色調整された投影ターゲット画像の統計的解析を行うことによって、前記各第1のバイナリ前景マスクを精緻化することは、
少なくとも1つのローカルなウィンドウにおいてカラーチャネルごとに、前記ソース画像及び前記色調整された投影ターゲット画像の統計を解析することと、
前記ローカルなウィンドウ内の各ピクセルにおいて少なくとも2つの分散量度を指定することと、
双方の分散量度が指定された閾値よりも大きいとき、各第1の前景マスクにピクセルを追加することと、
を含む、項目5に記載の方法。
[項目7]
フィルタリングされた前記ソース画像から床部分を取り去ることであって、床マスクを生成することと、
前記複数の第1の精緻化された前景マスク及び前記床マスクを混合することであって、第2のバイナリ前景マスクを生成することと、
前記第2のバイナリ前景マスクにメディアンフィルターを適用することと、
を更に含む、項目5に記載の方法。
[項目8]
前記第2のバイナリ前景マスクにおいて顔領域を検出することであって、顔マスクを生成することと、
前記顔マスクを前記第2のバイナリ前景マスクと混合することであって、第3のバイナリ前景マスクを生成することと、
前記第3のバイナリ前景マスクに連結成分解析を適用することと、
を更に含む、項目7に記載の方法。
[項目9]
各投影ターゲット画像を前記ソース画像に色調整することは、
各投影ターゲット画像を前記ソース画像と比較することによって差分マップを生成することと、
前記差分マップに固定閾値を適用することであって、粗くセグメンテーションされた前景マスクを生成することと、
前記粗くセグメンテーションされた前景マスクを前記投影マスクから取り去ることであって、調整された前記投影マスクを生成することと、
前記投影ターゲット画像から前記ソース画像への、前記調整された投影マスク内におけるカラーマッピングを推定することと、
元の投影マスク内における前記カラーマッピングを前記投影ターゲット画像に適用することであって、前記色調整された投影ターゲット画像を生成することと、
を含む、項目4に記載の方法。
[項目10]
前記カメラ姿勢及び前記セグメンテーションされたソース画像を用いることであって、前記3D環境における前記前景部分のシミュレーションを提供すること、
を更に含む、項目1に記載の方法。
[項目11]
システムであって、
プロセッサと、該プロセッサに結合されたメモリとを備え、該メモリ内の命令は、
ソース画像を受信することであって、該ソース画像は、前景部分及び背景部分を含み、該背景部分は、3次元環境(3D環境)の画像コンテンツを含むことと、
前記ソース画像を前記3D環境の複数のターゲット画像と比較することによって、前記ソース画像のカメラ姿勢を求めることと、
前記カメラ姿勢に応じて、前記背景部分から前記前景部分をセグメンテーションすることによって、セグメンテーションされたソース画像を生成することと、
前記セグメンテーションされたソース画像及び前記カメラ姿勢をネットワークデータベースに記憶することと、
を行うように前記プロセッサを構成する、システム。
[項目12]
前記カメラ姿勢を求めることを行うように前記プロセッサを構成する命令は、
前記ソース画像から少なくとも1つのソース画像の視覚的特徴を抽出することと、
前記少なくとも1つのソース画像の視覚的特徴を前記複数のターゲット画像と比較することによって最もよく一致するターゲット画像を決定することと、
前記ソース画像を、前記最もよく一致するターゲット画像に関連付けられた前記3D環境における平面構造上に投影することであって、前記平面構造は、前記3D環境における3D座標を有することと、
を行うように前記プロセッサを構成する命令を含む、項目11に記載のシステム。
[項目13]
前記ソース画像を前記平面構造上に投影することを行うように前記プロセッサを構成する命令は、
ホモグラフィー行列を求めることと、
前記ホモグラフィー行列、固有カメラ較正行列、及び最小二乗再投影誤差最小化技法を用いて、回転行列及び平行移動行列を解くことと、
前記回転行列及び前記平行移動行列を前記平面構造の前記3D座標に適用することと、
を行うように前記プロセッサを構成する命令を含む、項目12に記載のシステム。
[項目14]
前記前景部分をセグメンテーションすることを行うように前記プロセッサを構成する命令は、
各ターゲット画像について、ホモグラフィー行列を該ターゲット画像に適用することであって、投影マスク及び投影ターゲット画像を生成し、該投影マスクは、前記ソース画像内の前記ターゲット画像の前記背景部分の少なくとも一部を示すことと、
各投影ターゲット画像を前記ソース画像に色調整することと、
前記色調整された投影ターゲット画像を前記ソース画像と比較することによって複数の差分マップを生成することと、
前記複数の差分マップをマージすることであって、混合差分マップを生成することと、
を行うように前記プロセッサを構成する命令を含む、項目11に記載のシステム。
[項目15]
前記混合差分マップに二重閾値処理を適用することであって、複数の第1のバイナリ前景マスクを生成することと、
前記ソース画像及び前記色調整された投影ターゲット画像の統計的解析を行うことによって、各第1のバイナリ前景マスクを精緻化することと、
を行うように前記プロセッサを構成する命令を更に含む、項目14に記載のシステム。
[項目16]
前記ソース画像及び前記色調整された投影ターゲット画像の統計的解析を行うことによって、前記各第1のバイナリ前景マスクを精緻化することを行うように前記プロセッサを構成する命令は、
少なくとも1つのローカルなウィンドウにおいてカラーチャネルごとに、前記ソース画像及び前記色調整された投影ターゲット画像の統計を解析することと、
前記ローカルなウィンドウ内の各ピクセルにおいて少なくとも2つの分散量度を指定することと、
双方の分散量度が指定された閾値よりも大きいとき、各第1の前景マスクにピクセルを追加することと、
を行うように前記プロセッサを構成する命令を含む、項目15に記載のシステム。
[項目17]
フィルタリングされた前記ソース画像から床部分を取り去ることであって、床マスクを生成することと、
前記複数の第1の精緻化された前景マスク及び前記床マスクを混合することであって、第2のバイナリ前景マスクを生成することと、
前記第2のバイナリ前景マスクにメディアンフィルターを適用することと、
を行うように前記プロセッサを構成する命令を更に含む項目15に記載のシステム。
[項目18]
前記第2のバイナリ前景マスクにおいて顔領域を検出することであって、顔マスクを生成することと、
前記顔マスクを前記第2のバイナリ前景マスクと混合することであって、第3のバイナリ前景マスクを生成することと、
前記第3のバイナリ前景マスクに連結成分解析を適用することと、
を行うように前記プロセッサを構成する命令を更に含む、項目17に記載のシステム。
[項目19]
各投影ターゲット画像を前記ソース画像に色調整することを行うように前記プロセッサを構成する命令は、
各投影ターゲット画像を前記ソース画像と比較することによって差分マップを生成することと、
前記差分マップに固定閾値を適用することであって、粗くセグメンテーションされた前景マスクを生成することと、
前記粗くセグメンテーションされた前景マスクを前記投影マスクから取り去ることであって、調整された前記投影マスクを生成することと、
前記投影ターゲット画像から前記ソース画像への、前記調整された投影マスク内におけるカラーマッピングを推定することと、
元の投影マスク内における前記カラーマッピングを前記投影ターゲット画像に適用することであって、前記色調整された投影ターゲット画像を生成することと、
を行うように前記プロセッサを構成する命令を含む、項目14に記載のシステム。
[項目20]
前記カメラ姿勢及び前記セグメンテーションされたソース画像を用いることであって、前記3D環境における前記前景部分のシミュレーションを提供すること、
を行うように前記プロセッサを構成する命令を更に含む、項目11に記載のシステム。
[項目21]
命令を記憶しているコンピュータープログラム製品を含む物品であって、前記命令は実行されると、結果として
ソース画像を受信することであって、該ソース画像は、前景部分及び背景部分を含み、該背景部分は、3次元環境(3D環境)の画像コンテンツを含むことと、
前記ソース画像を前記3D環境の複数のターゲット画像と比較することによって、前記ソース画像のカメラ姿勢を求めることと、
前記カメラ姿勢に応じて、前記背景部分から前記前景部分をセグメンテーションすることによって、セグメンテーションされたソース画像を生成することと、
前記セグメンテーションされたソース画像及び前記カメラ姿勢をネットワークデータベースに記憶することと、
が行われる、コンピュータープログラム製品を含む物品。
[項目22]
結果として前記カメラ姿勢を求めることが行われる前記命令は、実行されると、結果として、
前記ソース画像から少なくとも1つのソース画像の視覚的特徴を抽出することと、
前記少なくとも1つのソース画像の視覚的特徴を前記複数のターゲット画像と比較することによって最もよく一致するターゲット画像を決定することと、
前記ソース画像を、前記最もよく一致するターゲット画像に関連付けられた前記3D環境における平面構造上に投影することであって、前記平面構造は、前記3D環境における3D座標を有することと、
が行われる命令を含む、項目21に記載の物品。
[項目23]
結果として前記ソース画像を前記平面構造上に投影することが行われる前記命令は、実行されると、結果として、
ホモグラフィー行列を求めることと、
前記ホモグラフィー行列、固有カメラ較正行列、及び最小二乗再投影誤差最小化技法を用いて、回転行列及び平行移動行列を解くことと、
前記回転行列及び前記平行移動行列を前記平面構造の前記3D座標に適用することと、
が行われる命令を含む、項目22に記載の物品。
[項目24]
結果として前記前景部分をセグメンテーションすることが行われる命令は、実行されると、結果として、
各ターゲット画像について、ホモグラフィー行列を該ターゲット画像に適用することであって、投影マスク及び投影ターゲット画像を生成し、該投影マスクは、前記ソース画像内の前記ターゲット画像の前記背景部分の少なくとも一部を示すことと、
各投影ターゲット画像を前記ソース画像に色調整することと、
前記色調整された投影ターゲット画像を前記ソース画像と比較することによって複数の差分マップを生成することと、
前記複数の差分マップをマージすることであって、混合差分マップを生成することと、
が行われる命令を含む、項目21に記載の物品。
[項目25]
実行されると、結果として、
前記混合差分マップに二重閾値処理を適用することであって、複数の第1のバイナリ前景マスクを生成することと、
前記ソース画像及び前記色調整された投影ターゲット画像の統計的解析を行うことによって、各第1のバイナリ前景マスクを精緻化することと、
が行われる命令を更に含む、項目24に記載の物品。
[項目26]
結果として、前記ソース画像及び前記色調整された投影ターゲット画像の統計的解析を行うことによって、前記各第1のバイナリ前景マスクを精緻化することが行われる前記命令は、実行されると、結果として、
少なくとも1つのローカルなウィンドウにおいてカラーチャネルごとに、前記ソース画像及び前記色調整された投影ターゲット画像の統計を解析することと、
前記ローカルなウィンドウ内の各ピクセルにおいて少なくとも2つの分散量度を指定することと、
双方の分散量度が指定された閾値よりも大きいとき、各第1の前景マスクにピクセルを追加することと、
が行われる命令を含む、項目25に記載の物品。
[項目27]
実行されると、結果として、
フィルタリングされた前記ソース画像から床部分を取り去ることであって、床マスクを生成することと、
前記複数の第1の精緻化された前景マスク及び前記床マスクを混合することであって、第2のバイナリ前景マスクを生成することと、
前記第2のバイナリ前景マスクにメディアンフィルターを適用することと、
が行われる命令を更に含む、項目25に記載の物品。
[項目28]
実行されると、結果として、
前記第2のバイナリ前景マスクにおいて顔領域を検出することであって、顔マスクを生成することと、
前記顔マスクを前記第2のバイナリ前景マスクと混合することであって、第3のバイナリ前景マスクを生成することと、
前記第3のバイナリ前景マスクに連結成分解析を適用することと、
が行われる命令を更に含む、項目27に記載の物品。
[項目29]
結果として、各投影ターゲット画像を前記ソース画像に色調整することが行われる前記命令は、実行されると、結果として、
各投影ターゲット画像を前記ソース画像と比較することによって差分マップを生成することと、
前記差分マップに固定閾値を適用することであって、粗くセグメンテーションされた前景マスクを生成することと、
前記粗くセグメンテーションされた前景マスクを前記投影マスクから取り去ることであって、調整された前記投影マスクを生成することと、
前記投影ターゲット画像から前記ソース画像への、前記調整された投影マスク内におけるカラーマッピングを推定することと、
元の投影マスク内における前記カラーマッピングを前記投影ターゲット画像に適用することであって、前記色調整された投影ターゲット画像を生成することと、
が行われる命令を含む、項目24に記載の物品。
[項目30]
実行されると、結果として、
前記カメラ姿勢及び前記セグメンテーションされたソース画像を用いることであって、前記3D環境における前記前景部分のシミュレーションを提供すること、
が行われる命令を更に含む、項目21に記載の物品。

Claims (19)

  1. ソース画像を受信することであって、該ソース画像は、前景部分及び背景部分を含み、該背景部分は、3次元環境(3D環境)の画像コンテンツを含むことと、
    前記ソース画像を前記3D環境の複数のターゲット画像と比較することによって、前記ソース画像のカメラ姿勢を求めることと、
    前記カメラ姿勢に応じて、前記背景部分から前記前景部分をセグメンテーションすることによって、セグメンテーションされたソース画像を生成することと、
    前記セグメンテーションされたソース画像及び前記カメラ姿勢をネットワークデータベースに記憶することと、
    を含
    前記前景部分をセグメンテーションすることは、
    各ターゲット画像について、ホモグラフィー行列を該ターゲット画像に適用することであって、投影マスク及び投影ターゲット画像を生成し、該投影マスクは、前記ソース画像内の前記ターゲット画像の前記背景部分の少なくとも一部を示すことと、
    各投影ターゲット画像を前記ソース画像に色調整することと、
    前記色調整された投影ターゲット画像を前記ソース画像と比較することによって複数の差分マップを生成することと、
    前記複数の差分マップをマージすることであって、混合差分マップを生成することと、
    を含む、方法。
  2. 前記カメラ姿勢を求めることは、
    前記ソース画像から少なくとも1つのソース画像の視覚的特徴を抽出することと、
    前記少なくとも1つのソース画像の視覚的特徴を前記複数のターゲット画像と比較することによって最もよく一致するターゲット画像を決定することと、
    前記ソース画像を、前記最もよく一致するターゲット画像に関連付けられた前記3D環境における平面構造上に投影することであって、前記平面構造は、前記3D環境における3D座標を有することと、
    を含む、請求項1に記載の方法。
  3. 前記ソース画像を前記平面構造上に投影することは、
    ホモグラフィー行列を求めることと、
    前記ホモグラフィー行列、固有カメラ較正行列、及び最小二乗再投影誤差最小化技法を用いて、回転行列及び平行移動行列を解くことと、
    前記回転行列及び前記平行移動行列を前記平面構造の前記3D座標に適用することと、
    を含む、請求項2に記載の方法。
  4. 前記混合差分マップに二重閾値処理を適用することであって、複数の第1のバイナリ前景マスクを生成することと、
    前記ソース画像及び前記色調整された投影ターゲット画像の統計的解析を行うことによって、各第1のバイナリ前景マスクを精緻化することと、
    を更に含む、請求項1から請求項3のいずれか1つに記載の方法。
  5. 前記ソース画像及び前記色調整された投影ターゲット画像の統計的解析を行うことによって、前記各第1のバイナリ前景マスクを精緻化することは、
    少なくとも1つのローカルなウィンドウにおいてカラーチャネルごとに、前記ソース画像及び前記色調整された投影ターゲット画像の統計を解析することと、
    前記ローカルなウィンドウ内の各ピクセルにおいて少なくとも2つの分散量度を指定することと、
    双方の分散量度が指定された閾値よりも大きいとき、各第1の前景マスクにピクセルを追加することと、
    を含む、請求項に記載の方法。
  6. フィルタリングされた前記ソース画像から床部分を取り去ることであって、床マスクを生成することと、
    前記複数の第1の精緻化された前景マスク及び前記床マスクを混合することであって、第2のバイナリ前景マスクを生成することと、
    前記第2のバイナリ前景マスクにメディアンフィルターを適用することと、
    を更に含む、請求項4または5に記載の方法。
  7. 前記第2のバイナリ前景マスクにおいて顔領域を検出することであって、顔マスクを生成することと、
    前記顔マスクを前記第2のバイナリ前景マスクと混合することであって、第3のバイナリ前景マスクを生成することと、
    前記第3のバイナリ前景マスクに連結成分解析を適用することと、
    を更に含む、請求項に記載の方法。
  8. 各投影ターゲット画像を前記ソース画像に色調整することは、
    各投影ターゲット画像を前記ソース画像と比較することによって差分マップを生成することと、
    前記差分マップに固定閾値を適用することであって、粗くセグメンテーションされた前景マスクを生成することと、
    前記粗くセグメンテーションされた前景マスクを前記投影マスクから取り去ることであって、調整された前記投影マスクを生成することと、
    前記投影ターゲット画像から前記ソース画像への、前記調整された投影マスク内におけるカラーマッピングを推定することと、
    元の投影マスク内における前記カラーマッピングを前記投影ターゲット画像に適用することであって、前記色調整された投影ターゲット画像を生成することと、
    を含む、請求項1から7の何れか1項に記載の方法。
  9. 前記カメラ姿勢及び前記セグメンテーションされたソース画像を用いることであって、前記3D環境における前記前景部分のシミュレーションを提供すること、
    を更に含む、請求項1からの何れか1項に記載の方法。
  10. 請求項1から請求項9のいずれか1つに記載の方法をコンピュータに実行させるためのプログラム。
  11. システムであって、
    ソース画像を受信することであって、該ソース画像は、前景部分及び背景部分を含み、該背景部分は、3次元環境(3D環境)の画像コンテンツを含むことと、前記ソース画像を前記3D環境の複数のターゲット画像と比較することによって、前記ソース画像のカメラ姿勢を求めることと、前記カメラ姿勢に応じて、前記背景部分から前記前景部分をセグメンテーションすることによって、セグメンテーションされたソース画像を生成することと、前記セグメンテーションされたソース画像及び前記カメラ姿勢をネットワークデータベースに記憶することとを行う処理手段、
    を備え
    前記前景部分をセグメンテーションするために、前記処理手段は、各ターゲット画像について、ホモグラフィー行列を該ターゲット画像に適用することであって、投影マスク及び投影ターゲット画像を生成し、該投影マスクは、前記ソース画像内の前記ターゲット画像の前記背景部分の少なくとも一部を示すことと、各投影ターゲット画像を前記ソース画像に色調整することと、前記色調整された投影ターゲット画像を前記ソース画像と比較することによって複数の差分マップを生成することと、前記複数の差分マップをマージすることであって、混合差分マップを生成することとを行う、システム。
  12. 前記カメラ姿勢を求めるために、前記処理手段は、前記ソース画像から少なくとも1つのソース画像の視覚的特徴を抽出することと、前記少なくとも1つのソース画像の視覚的特徴を前記複数のターゲット画像と比較することによって最もよく一致するターゲット画像を決定することと、前記ソース画像を、前記最もよく一致するターゲット画像に関連付けられた前記3D環境における平面構造上に投影することであって、前記平面構造は、前記3D環境における3D座標を有することとを行う、請求項11に記載のシステム。
  13. 前記ソース画像を前記平面構造上に投影するために、前記処理手段は、ホモグラフィー行列を求めることと、前記ホモグラフィー行列、固有カメラ較正行列、及び最小二乗再投影誤差最小化技法を用いて、回転行列及び平行移動行列を解くことと、前記回転行列及び前記平行移動行列を前記平面構造の前記3D座標に適用することとを行う、請求項12に記載のシステム。
  14. 前記処理手段は、前記混合差分マップに二重閾値処理を適用することであって、複数の第1のバイナリ前景マスクを生成することと、前記ソース画像及び前記色調整された投影ターゲット画像の統計的解析を行うことによって、各第1のバイナリ前景マスクを精緻化することとを行う、請求項13に記載のシステム。
  15. 前記ソース画像及び前記色調整された投影ターゲット画像の統計的解析を行うことによって、前記各第1のバイナリ前景マスクを精緻化するために、前記処理手段は、少なくとも1つのローカルなウィンドウにおいてカラーチャネルごとに、前記ソース画像及び前記色調整された投影ターゲット画像の統計を解析することと、前記ローカルなウィンドウ内の各ピクセルにおいて少なくとも2つの分散量度を指定することと、双方の分散量度が指定された閾値よりも大きいとき、各第1の前景マスクにピクセルを追加することとを行う、請求項14に記載のシステム。
  16. 前記処理手段は、フィルタリングされた前記ソース画像から床部分を取り去ることであって、床マスクを生成することと、前記複数の第1の精緻化された前景マスク及び前記床マスクを混合することであって、第2のバイナリ前景マスクを生成することと、前記第2のバイナリ前景マスクにメディアンフィルターを適用することとを行う、請求項14または15に記載のシステム。
  17. 前記処理手段は、前記第2のバイナリ前景マスクにおいて顔領域を検出することであって、顔マスクを生成することと、前記顔マスクを前記第2のバイナリ前景マスクと混合することであって、第3のバイナリ前景マスクを生成することと、前記第3のバイナリ前景マスクに連結成分解析を適用することとを行う、請求項16に記載のシステム。
  18. 各投影ターゲット画像を前記ソース画像に色調整するために、前記処理手段は、各投影ターゲット画像を前記ソース画像と比較することによって差分マップを生成することと、前記差分マップに固定閾値を適用することであって、粗くセグメンテーションされた前景マスクを生成することと、前記粗くセグメンテーションされた前景マスクを前記投影マスクから取り去ることであって、調整された前記投影マスクを生成することと、前記投影ターゲット画像から前記ソース画像への、前記調整された投影マスク内におけるカラーマッピングを推定することと、元の投影マスク内における前記カラーマッピングを前記投影ターゲット画像に適用することであって、前記色調整された投影ターゲット画像を生成することとを行う、請求項11から17の何れか1項に記載のシステム。
  19. 前記処理手段は、前記カメラ姿勢及び前記セグメンテーションされたソース画像を用いることであって、前記3D環境における前記前景部分のシミュレーションを提供することを行う、請求項11から18の何れか1項に記載のシステム。
JP2014529663A 2011-09-12 2011-09-12 ローカライズされ、セグメンテーションされた画像のネットワークキャプチャ及び3dディスプレイ Expired - Fee Related JP5822322B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2011/051203 WO2013039472A1 (en) 2011-09-12 2011-09-12 Networked capture and 3d display of localized, segmented images

Publications (2)

Publication Number Publication Date
JP2014530391A JP2014530391A (ja) 2014-11-17
JP5822322B2 true JP5822322B2 (ja) 2015-11-24

Family

ID=47883556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014529663A Expired - Fee Related JP5822322B2 (ja) 2011-09-12 2011-09-12 ローカライズされ、セグメンテーションされた画像のネットワークキャプチャ及び3dディスプレイ

Country Status (6)

Country Link
US (2) US9418438B2 (ja)
EP (1) EP2756682A4 (ja)
JP (1) JP5822322B2 (ja)
KR (1) KR101595537B1 (ja)
CN (1) CN103765880B (ja)
WO (1) WO2013039472A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5822322B2 (ja) 2011-09-12 2015-11-24 インテル・コーポレーション ローカライズされ、セグメンテーションされた画像のネットワークキャプチャ及び3dディスプレイ
US9098229B2 (en) * 2012-05-04 2015-08-04 Aaron Hallquist Single image pose estimation of image capture devices
US9020982B2 (en) * 2012-10-15 2015-04-28 Qualcomm Incorporated Detection of planar targets under steep angles
US9894269B2 (en) 2012-10-31 2018-02-13 Atheer, Inc. Method and apparatus for background subtraction using focus differences
US20140369557A1 (en) * 2013-06-14 2014-12-18 Qualcomm Incorporated Systems and Methods for Feature-Based Tracking
US9804392B2 (en) 2014-11-20 2017-10-31 Atheer, Inc. Method and apparatus for delivering and controlling multi-feed data
KR102493754B1 (ko) 2015-02-17 2023-02-01 네버마인드 캐피탈 엘엘씨 감축된 해상도 이미지들을 생성 및 이용하고 및/또는 재생 또는 컨텐트 분배 디바이스에 이러한 이미지들을 통신하기 위한 방법들 및 장치
US10362290B2 (en) 2015-02-17 2019-07-23 Nextvr Inc. Methods and apparatus for processing content based on viewing information and/or communicating content
US10275863B2 (en) * 2015-04-03 2019-04-30 Cognex Corporation Homography rectification
US10051206B2 (en) 2015-09-28 2018-08-14 Gopro, Inc. Automatic composition of video with dynamic background and composite frames selected based on frame and foreground object criteria
GB201608259D0 (en) * 2016-05-11 2016-06-22 Magic Pony Technology Ltd Feature transfer
US11159742B2 (en) 2016-06-30 2021-10-26 Intel Corporation High-speed video from camera arrays
CN106447585A (zh) * 2016-09-21 2017-02-22 武汉大学 城市地区和室内高精度视觉定位***及方法
CN106570877B (zh) * 2016-10-27 2017-12-05 西安科技大学 基于采煤机虚拟样机与真实图像配准的采煤机位姿定位***及方法
US10816354B2 (en) 2017-08-22 2020-10-27 Tusimple, Inc. Verification module system and method for motion-based lane detection with multiple sensors
US10602117B1 (en) * 2017-09-11 2020-03-24 Bentley Systems, Incorporated Tool for onsite augmentation of past events
US10772594B2 (en) * 2017-12-11 2020-09-15 Dentsply Sirona Inc. Methods, systems, apparatuses, and computer program products for extending the field of view of a sensor and obtaining a synthetic radiagraph
US11009356B2 (en) * 2018-02-14 2021-05-18 Tusimple, Inc. Lane marking localization and fusion
US11009365B2 (en) 2018-02-14 2021-05-18 Tusimple, Inc. Lane marking localization
CN110458755B (zh) * 2018-05-07 2023-01-13 华为技术有限公司 图像处理方法、相关设备及计算机存储介质
US11375293B2 (en) 2018-10-31 2022-06-28 Sony Interactive Entertainment Inc. Textual annotation of acoustic effects
US10977872B2 (en) * 2018-10-31 2021-04-13 Sony Interactive Entertainment Inc. Graphical style modification for video games using machine learning
US11636673B2 (en) 2018-10-31 2023-04-25 Sony Interactive Entertainment Inc. Scene annotation using machine learning
CN111223114B (zh) * 2020-01-09 2020-10-30 北京达佳互联信息技术有限公司 一种图像区域的分割方法、装置及电子设备
EP3893150A1 (en) 2020-04-09 2021-10-13 Tusimple, Inc. Camera pose estimation techniques
CN117152400B (zh) * 2023-10-30 2024-03-19 武汉苍穹融新科技有限公司 交通道路上多路连续视频与三维孪生场景融合方法及***

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002010230A (ja) * 2000-06-16 2002-01-11 Nippon Telegr & Teleph Corp <Ntt> 映像配信方法及び装置
US6965379B2 (en) 2001-05-08 2005-11-15 Koninklijke Philips Electronics N.V. N-view synthesis from monocular video of certain broadcast and stored mass media content
US7606417B2 (en) * 2004-08-16 2009-10-20 Fotonation Vision Limited Foreground/background segmentation in digital images with differential exposure calculations
JP2005210369A (ja) * 2004-01-22 2005-08-04 Konica Minolta Photo Imaging Inc 画像処理装置及び画像処理方法
JP2005339127A (ja) * 2004-05-26 2005-12-08 Olympus Corp 画像情報表示装置及び画像情報表示方法
US7702131B2 (en) * 2005-10-13 2010-04-20 Fujifilm Corporation Segmenting images and simulating motion blur using an image sequence
US7720283B2 (en) * 2005-12-09 2010-05-18 Microsoft Corporation Background removal in a live video
IES20060558A2 (en) * 2006-02-14 2006-11-01 Fotonation Vision Ltd Image blurring
EP1862969A1 (en) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene
JP4908088B2 (ja) 2006-07-13 2012-04-04 公益財団法人相模中央化学研究所 含フッ素プロピオン酸誘導体の製造方法
JP4789745B2 (ja) 2006-08-11 2011-10-12 キヤノン株式会社 画像処理装置および方法
US8073196B2 (en) * 2006-10-16 2011-12-06 University Of Southern California Detection and tracking of moving objects from a moving platform in presence of strong parallax
US7916944B2 (en) * 2007-01-31 2011-03-29 Fuji Xerox Co., Ltd. System and method for feature level foreground segmentation
TW201118791A (en) * 2009-11-27 2011-06-01 Inst Information Industry System and method for obtaining camera parameters from a plurality of images, and computer program products thereof
EP2339537B1 (en) * 2009-12-23 2016-02-24 Metaio GmbH Method of determining reference features for use in an optical object initialization tracking process and object initialization tracking method
JP5822322B2 (ja) 2011-09-12 2015-11-24 インテル・コーポレーション ローカライズされ、セグメンテーションされた画像のネットワークキャプチャ及び3dディスプレイ
EP4296963A3 (en) * 2012-08-21 2024-03-27 Adeia Imaging LLC Method for depth detection in images captured using array cameras
US9154773B2 (en) * 2013-03-15 2015-10-06 Seiko Epson Corporation 2D/3D localization and pose estimation of harness cables using a configurable structure representation for robot operations
US9436987B2 (en) * 2014-04-30 2016-09-06 Seiko Epson Corporation Geodesic distance based primitive segmentation and fitting for 3D modeling of non-rigid objects from 2D images

Also Published As

Publication number Publication date
US10192313B2 (en) 2019-01-29
US20160321817A1 (en) 2016-11-03
KR20140064908A (ko) 2014-05-28
WO2013039472A1 (en) 2013-03-21
JP2014530391A (ja) 2014-11-17
KR101595537B1 (ko) 2016-02-17
CN103765880A (zh) 2014-04-30
US20140233847A1 (en) 2014-08-21
EP2756682A4 (en) 2015-08-19
EP2756682A1 (en) 2014-07-23
US9418438B2 (en) 2016-08-16
CN103765880B (zh) 2016-05-18

Similar Documents

Publication Publication Date Title
JP5822322B2 (ja) ローカライズされ、セグメンテーションされた画像のネットワークキャプチャ及び3dディスプレイ
US11727661B2 (en) Method and system for determining at least one property related to at least part of a real environment
CN108701376B (zh) 三维图像的基于识别的对象分割
US10373380B2 (en) 3-dimensional scene analysis for augmented reality operations
US10573018B2 (en) Three dimensional scene reconstruction based on contextual analysis
JP6031464B2 (ja) 並列追跡及びマッピングのためのキーフレーム選択
US11051000B2 (en) Method for calibrating cameras with non-overlapping views
EP2711670B1 (en) Visual localisation
US20180189957A1 (en) Producing a segmented image of a scene
US9639943B1 (en) Scanning of a handheld object for 3-dimensional reconstruction
AU2013237718A1 (en) Method, apparatus and system for selecting a frame
US20150199572A1 (en) Object tracking using occluding contours
US9208606B2 (en) System, method, and computer program product for extruding a model through a two-dimensional scene
KR20160051804A (ko) 물리 평면의 디지털 표현의 확장
Recky et al. Façade segmentation in a multi-view scenario
Bazin et al. An original approach for automatic plane extraction by omnidirectional vision
US20220108476A1 (en) Method and system for extrinsic camera calibration
CN117917684A (zh) 图像处理方法、装置和计算机可读存储介质
Wang et al. Stereo Matching for Binocular Underwater Images Using SURF Operator and Epipolar Restriction
Khazaeli et al. Image Segmentation from RGBD Images by 3D Point Cloud Attributes and High-Level Features
Westaway An empirical assessment of real-time progressive stereo reconstruction

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151001

R150 Certificate of patent or registration of utility model

Ref document number: 5822322

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees