JP2017229067A - 少なくとも1つのライトフィールドカメラにより一対の立体画像を生成する方法及び装置 - Google Patents

少なくとも1つのライトフィールドカメラにより一対の立体画像を生成する方法及び装置 Download PDF

Info

Publication number
JP2017229067A
JP2017229067A JP2017121820A JP2017121820A JP2017229067A JP 2017229067 A JP2017229067 A JP 2017229067A JP 2017121820 A JP2017121820 A JP 2017121820A JP 2017121820 A JP2017121820 A JP 2017121820A JP 2017229067 A JP2017229067 A JP 2017229067A
Authority
JP
Japan
Prior art keywords
sub
aperture
image
camera parameters
aperture image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017121820A
Other languages
English (en)
Other versions
JP2017229067A5 (ja
Inventor
シュタウダー,ユルヘン
Stauder Jurgen
ヴァンダム,ブノワ
Vandame Benoit
テボー,セドリック
Cedric Thebault
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2017229067A publication Critical patent/JP2017229067A/ja
Publication of JP2017229067A5 publication Critical patent/JP2017229067A5/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4015Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

【課題】ライトフィールドカメラにより一対の立体画像を生成する方法を提供する。
【解決手段】方法は、左ビュー及び右ビューについての、理論上のステレオ画像対を定義する夫々の必要とされるカメラパラメータを受け取り、ライトフィールドカメラによって捕捉された画像に基づき生成される夫々のサブアパーチャ画像411、421の実際のカメラパラメータを取得し、左ビューについて必要とされるカメラパラメータをサブアパーチャ画像についての実際のカメラパラメータと比較することによって左ビューについてのベストマッチングのサブアパーチャ画像を、右ビューについて必要とされるカメラパラメータをサブアパーチャ画像についての実際のカメラパラメータと比較することによって右ビューについてのベストマッチングのサブアパーチャ画像を決定し、左ビュー及び右ビューについてのベストマッチングのサブアパーチャ画像を立体画像の対として関連付ける。
【選択図】図7

Description

本開示は、イメージングの分野に概して関係があり、より具体的には、プレノプティック(plenoptic)カメラを使用するライトフィールドイメージング技術に関係がある。
本項目は、以下で記載及び/又は請求される本開示の様々な態様に関係があり得る技術の様々な態様を読者に紹介することを目的とする。この議論は、本開示の様々な態様のより良い理解を助けるよう背景情報を読者に提供するのに有用であると信じられる。然るに、それらの記述は、この観点で読まれるべきであり、先行技術の承認としてではないことが理解されるべきである。
ステレオ(又は複数ビュー)イメージングのフレームワークにおいて、ステレオ(又は複数ビュー)ビデオコンテンツは、3D対応スクリーンにおいて生成され、処理され、再生される必要がある。ステレオビデオコンテンツの処理は、3D情報の生成又は強化(例えば、視差推定)を可能にする。それはまた、3D情報を使用した2D画像の強化(例えば、ビュー補間)を可能にする。
通常、ステレオビデオコンテンツは、2つ(以上)の捕捉された2D画像から生成される。2Dビデオは、時系列のフレームを有している古典的なシーン内のビデオであり、夫々のフレームは、夫ピクセルのラインから成る古典的な2D画像である。夫々のピクセルは、色空間における色座標によって定義される色を有している。一般に、ステレオイメージングは、2つよりも多い2Dビデオがシーンから捕捉される多重ビューイメージングである。ステレオイメージングはまた、3Dモデル及びコンピュータグラフィクスから合成により生成され得る。このように、アニメーションは、立体画像及び複数のビューを有している他の関連画像を生じさせるよう生成され得る。
図1は、複数のビューを生成する従来のプロセスを示す。いくつかの従来の2Dカメラ22が示されており、それらは、ロー(raw)画像ビュー33を生成するようリグ・アウトプット(rig output)上に固定されている。一実施形態において、カメラ較正モジュール44は、カメラの較正を実施する。この較正は、捕捉されたロー画像ビュー33に基づき外部及び内部のカメラパラメータの推定を提供する。その後に、ビュー生成モジュール55は、較正されたビュー66を生成する。
夫々のカメラは、外部及び内部のパラメータによって定義される。外部パラメータは、世界座標系において表され、カメラの位置及び向きを定義する。外部パラメータは、3D回転行列R及び3D並進ベクトルtを含む。内部カメラパラメータは、画像面における主点の座標p、p及び焦点長さfを含む。
例えば、ピンホールカメラについて、一様なシーンワールド座標(scene-world-coordinates)における点X=(X Y Z 1)は、x=PXに従って画像位置x(x y)上に投影される。このとき、Pは、P=K[R/Rt]に従うカメラ行列であり、Rは3×3の回転行列であり、tは3D並進ベクトルであり、Kは、
に従って定義されるカメラ較正行列である。
カメラの較正は、例えば、較正のためのオブジェクトを用いて、一様なシーンワールド座標内の位置(fX,iY,iZ,i 1)での既知の特徴点及び一様な座標(fx,iy,i 1)を有する位置での画像面内へのそれらの投影により、実施され得る。カメラパラメータは、Richard Hartley及びAndrew Zissermannによって、2004年3月24日付けでCambridge pressで公開された“Multiple view geometry in computer vision”と題された彼らの文献中で記載された方法に従って、推定され得る。
多重ビューイメージングにおける既知の処理の次なるステップは、ビュー調整である。調整は、ステレオ・リグ上のカメラによって撮影されたビュー(2つ以上のビュー)を、ジオメトリが補正されているビューへ変換するための必要なステップである。ビューの調整を実施することによって、同じ画像面を有しているカメラによって各ビューが撮影されたように見えるように、ビューのジオメトリは補正される。しかし、調整にはいくつかの制限がある。例えば、垂直視差は、ビューを回転することなしに容易には補正され得ない。ビューを回転することは、ほとんどの場合に受け入れられない。垂直視差は、例えば、カメラの光心が水平方向にアライメントされない、すなわち、異なった垂直位置を有している場合に、現れる。
垂直視差に関連したこの問題は、例えば、Simon Reeve等によって、2010年に、BskyBからの白書としての彼の文献“Basic principles of stereoscopic 3D”において説明されている。垂直視差は、垂直方向において同じ位置又はビューイング方向を有さないカメラによって引き起こされる。たとえステレオカメラのリグが機械的に較正されるとしても、未解決の垂直ミスアライメントがしばしば残る。垂直ミスアライメントは、ステレオコンテンツを見る際に問題を生じさせる。
Richard Hartley及びAndrew Zissermann,"Multiple view geometry in computer vision",Cambridge press,2004年3月24日 Simon Reeve等,"Basic principles of stereoscopic 3D",BskyB,2010年
本原理に従って、少なくとも1つのライトフィールドカメラにより一対の立体画像を生成する方法であって、左ビュー及び右ビューについての夫々の必要とされるカメラパラメータを受け取り、該必要とされるカメラパラメータは、理論上のステレオ画像対を定義し、前記ライトフィールドカメラによって捕捉された画像に基づき生成される夫々のサブアパーチャ画像についての夫々の実際のカメラパラメータを取得し、前記左ビューについての必要とされるカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のカメラパラメータと比較することによって前記左ビューについてのベストマッチングのサブアパーチャ画像を決定し、前記右ビューについての必要とされるカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のカメラパラメータと比較することによって前記右ビューについてのベストマッチングのサブアパーチャ画像を決定し、前記左ビューについてのベストマッチングのサブアパーチャ画像及び前記右ビューについてのベストマッチングのサブアパーチャ画像を立体画像の対として関連付けることを有する方法が提供される。
本原理はまた、一対の立体画像を生成するデバイスであって、左ビュー及び右ビューについての夫々の必要とされるカメラパラメータを取得し、該必要とされるカメラパラメータは、理論上のステレオ画像対を定義し、ライトフィールドカメラによって捕捉された画像に基づき生成される夫々のサブアパーチャ画像についての夫々の実際のカメラパラメータを取得し、前記左ビューについての必要とされるカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のカメラパラメータと比較することによって前記左ビューについてのベストマッチングのサブアパーチャ画像を決定し、前記右ビューについての必要とされるカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のカメラパラメータと比較することによって前記右ビューについてのベストマッチングのサブアパーチャ画像を決定し、前記左ビューについてのベストマッチングのサブアパーチャ画像及び前記右ビューについてのベストマッチングのサブアパーチャ画像を立体画像の対として関連付けることを実施するデバイスに関係がある。
先行技術における多重ビューイメージングの処理を示す。 本開示の実施形態に従うライトフィールドカメラのための構成を表す。 本開示の実施形態に従う、捕捉されたライトフィールド画像と、一連のサブアパーチャ画像との間の変換を表す。 本開示の実施形態に従う、捕捉されたライトフィールド画像と、一連のサブアパーチャ画像との間の変換を表す。 本開示の実施形態に従うデバイスのハイレベル機能ブロック図を示す。 本開示の実施形態に従うデバイスのハードウェア構成を説明するブロック図を表す。 本開示の実施形態に従って、回転行列Rパラメータ及び並進ベクトルtパラメータを含む必要とされるカメラパラメータの例を表す。 本開示の実施形態に従って、必要とされるカメラパラメータと実際のカメラパラメータとの間の比較に基づくサブアパーチャ画像の関連付けを表す。 本開示の実施形態に従って、実際のカメラパラメータを計算し、サブアパーチャ画像を関連付けるステップを実施するフローチャート説明図を表す。 本開示の実施形態に従って、左ビューについての残りのサブアパーチャ画像と右ビューについての残りのサブアパーチャ画像との関連付けについてのフローチャート説明図を示す。 本開示の実施形態に従って、2つのライトフィールドカメラが使用される場合において、左ビューについての残りのサブアパーチャ画像と右ビューについての残りのサブアパーチャ画像との関連付けを示す。 本開示の実施形態に従って、ステレオ対を生成するために単一のライトフィールドカメラが使用される場合に、サブアパーチャ画像を関連付ける実施形態の例を示す。 本開示の実施形態に従って、単一のライトフィールドカメラが使用される場合に、サブアパーチャ画像を異なる分類に分類する実施形態の例を示す。 本開示の実施形態に従って、単一のライトフィールドカメラによるサブアパーチャ画像の分類についてのフローチャート説明図を示す。
本開示の一実施形態に従って、一対の立体画像を生成する方法であって、特に、1つ以上のプレノプティックカメラ(以降、同義的に、ライトフィールドカメラとも呼ばれる。)によって複数のビューが生成される場合に、先行技術に付随した較正の問題の一部を解消する方法が提供される。ライトフィールドカメラは、従来、特定のビューイング方向についての一連の異なったサブアパーチャ画像を出力する。較正ステップにおいて、夫々のカメラパラメータは、サブアパーチャ画像に関して推定される(以降、このパラメータは、“実際のカメラパラメータ”と称される。)。その後に、実際のカメラパラメータは、立体画像対についての理想値を示す理論上の必要とされるカメラパラメータ(以降、このパラメータは、“必要とされるカメラパラメータ”と称される。)と比較される。
立体画像対についての理想的な又は理論上の値を定義するそれらの必要とされるカメラパラメータはまた、内部及び/又は外部のカメラパラメータを含む。必要とされるカメラパラメータは、標準化団体においてテーブルを囲んで理論的検討を経て用意されてよく、あるいは、(例えば、カメラの製造ラインにおける)基準となるステレオカメラについての平均化されたパラメータであってよい。必要とされるカメラパラメータは、一対の立体画像を生成するためにどのようなカメラが期待されるかを記述する。例えば、ステレオイメージングシステムにおいて、必要とされるカメラパラメータは、カメラ間の特定の距離、平行ビューイング、特定の焦点距離、及び画像中心である主点を含み得る。
必要とされるカメラパラメータの値は、視差及び何らかの他の様々な要件といった、ステレオ対画像に関する要件に応じて様々であり得る。必要とされるカメラパラメータの値はまた、ライトフィールドカメラ1の設定又は構成に応じて変更され得る。ステレオ対画像についての要件が変化すると、必要とされるカメラパラメータは変更又は更新され得る。必要とされるカメラパラメータは、例えば、前もって外部のソースから、取得され、実際のカメラパラメータとの比較のために、デバイスのメモリに記憶され得る。
一実施形態において、方法は、少なくとも1つ以上のライトフィールドカメラに由来するサブアパーチャ画像からステレオ対画像を生成するよう、説明されるように提供される。夫々のライトフィールドカメラは、一連のサブアパーチャ画像を出力する。夫々のサブアパーチャ画像は、サブカメラパラメータ(実際のカメラパラメータ)によって記述される個々のビューイング方向を有している。
本開示以外に、図示される要素は、よく知られており、詳細には説明されない。例えば、本開示以外に、プロセッサに基づくデバイスは、よく知られており、本明細書では詳細には説明されない。プロセッサに基づくデバイスのいくつかの例は、携帯電話機、タブレット、デジタル静止カメラ、ラップトップコンピュータ、デスクトップコンピュータ、デジタルテレビジョン、などである。また、発明概念は、従来のプログラミング技術、例えば、API(Application Programming Interfaces)を用いて実装され得、そのようなものとして、本明細書では説明されない点が留意されるべきである。最後に、図中の同じ参照符号は、同様の要素を表す。
図2は、本開示の実施形態に従うライトフィールドカメラのための構成を表す。ライトフィールドカメラ1は、画像センサアレイ13に関連したレンズ配置を有する。画像センサアレイ13は、Nx個の列及びNy個の行のグリッドの形で配置されている多数(m個)のピクセル131、132、133乃至13mを有する。mはNx×Nyに対応する。レンズ配置は、メインレンズとも呼ばれるプライマリレンズ10と、複数(n個)のマイクロレンズ111、112、11nを有するレンズレットアレイ11とを有する。nは、1以上の正の整数である。マイクロレンズ111、112、11nは、複数のピクセルと光学的に夫々が関連付けられるように配置されている。1つのマイクロレンズと光学的に関連付けられるp×pのピクセルの数は、ライトフィールドカメラにより捕捉されるシーンのビューの数に対応する。図2において、夫々のマイクロレンズ111、112、11nは(i,j)によって参照され、プライマリレンズ10における座標は(u,v)によって参照される。センサアレイ13は、2D画像内に配置された2Dの小画像の集合から成る画像を記録する。
図3A及び3Bは、本開示の実施形態に従う、捕捉されたライトフィールド画像と、サブアパーチャ画像の連続との間の変換を表す。捕捉されたライトフィールド画像の座標L(x,y,i,j)は、サブアパーチャ画像の連続S(α,β,u,v)に変換される。ここで、(u,v)はサブアパーチャ画像座標を特定し、(α,β)は、座標(u,v)のサブアパーチャ画像内のピクセル座標である。そのようなサブアパーチャ画像の数はp×pに等しい。センサアレイ13をカバーするマイクロレンズ111、112、11nの数は(I,J)によって参照される。定義により、I=Nx/p且つJ=Ny/p。サブアパーチャ画像の軸は、(α,β)∈[0,I/p]×[0,J/p]であるように、(α,β)によって標記される。サブアパーチャ画像は、(u,v)∈[0,p]であるように定義される(u,v)座標によって識別される。異なったサブアパーチャ画像を得るよう、ロー画像(すなわち、画像センサアレイ13により捕捉されたカラーセンサデータ)は、デモザイク処理され、次いで、逆多重化される。デモザイク処理ステップの後、RGB画像データが、ビューごとに夫々のピクセル位置で得られる。サブアパーチャ画像は、プライマリレンズ10において座標u及びvに相関している同じ(u,v)座標を有している、すなわち、同じビューイング方向を有している全ての4Dライトフィールドピクセルを集める。
逆多重化プロセスは、特定の入射角により光線を捕捉する全てのピクセルが、サブアパーチャ画像を生成する同じ画像において保持されるように、ロー画像のピクセルの再編成を有する。
図4は、本開示の実施形態に従うデバイスのハイレベル機能ブロック図を示す。発明概念に関連する部分のみが示されている。そのようなものとして、デバイス5は他の機能を実施することができる。
システムは、少なくとも1つのライトフィールドカメラ1及びデバイス5を有する。当業者に理解されるように、デバイス5内に表されている機能は、ライトフィールドカメラ1内で実装されるか、あるいは、ライトフィールドカメラ1とは別個に実装され得る。図4では、左ビューのためのライトフィールドカメラ1L及び右ビューのためのライトフィールドカメラ1Rが記載されているが、本開示の実施は、単一のライトフィールドカメラを使用することによって実現され得る。左ビューのためのライトフィールドカメラ1L及び右ビューのためのライトフィールドカメラ1Rを使用する場合に、それらのライトフィールドカメラ1L及び1Rは、相対画像を捕捉するようリグ上に固定される必要がある。夫々のサブアパーチャ画像について実際のカメラパラメータを推定するために、ライトフィールドカメラ1はオブジェクト2を捕捉する。オブジェクト2は、チェッカーボード・パターンのような既知のサイズ又はジオメトリを有するオブジェクトであり得る。言うまでもなく、特徴が既知のサイズ又はジオメトリを有している、較正のための他のオブジェクトが、使用され得る。オブジェクト(例えば、チェッカーボード・パターン)2の白黒の正方形の角は、サブアパーチャ画像S(α,β,u,v)のピクセル座標(α,β)において検出される。
オブジェクト2の特徴点の一様なシーンワールド座標及びサブアパーチャ画像S(α,β,u,v)内の対応するピクセル座標に基づき、パラメータ推定ユニット32は、最小二乗推定値を用いて回転行列R及び並進ベクトルtを計算することが可能である。よく知られているチェッカーボード・パターンを用いて回転行列R及び並進ベクトルtを推定することは、Barbara Frank、Cyrill Stachniss、Giorgio Grisetti、Kai Arras、Wolfram Burgardによる文献“Robotics 2 Camera Calibration”において説明されている。本開示に従って、“実際のカメラパラメータ”は、ライトフィールドカメラ1によるオブジェクト2の“実際に捕捉された”画像と、オブジェクト2の上記の対応する一様なシーンワールド座標とに基づき計算されたサブアパーチャ画像についてのカメラパラメータ(回転行列R及び並進ベクトルt)を意味する。
ライトフィールドカメラ1がオブジェクト2の画像を捕捉した後、この捕捉された画像は、サブアパーチャ画像生成ユニット31へ送られ、次いで、ロー画像は、サブアパーチャ画像生成ユニット31によってデモザイク処理され逆多重化される。i×jのマイクロレンズ111、112、11nのアレイ及び1つのマイクロレンズに光学的に関連付けられる複数(p×p)のピクセルが存在する場合に、p×pのサブアパーチャ画像が夫々のライトフィールドカメラ1から生成される。
パラメータ推定ユニット32は、サブアパーチャ画像生成ユニット31によって逆多重化された夫々のサブアパーチャ画像についてR行列及びt並進ベクトルを計算するためのものである。上述されたように、パラメータ推定ユニット32は、オブジェクト2の既知の特徴点の既知のシーンワールド座標とサブアパーチャ画像S(α、β、u,v)内の既知の特徴点のピクセル座標との間の対応に基づき、夫々のサブアパーチャ画像について回転行列R及び並進ベクトルtを計算する。例えば、較正行列Kが知られている場合には、回転行列R及び並進ベクトルtは、例えば、Barbara Frank等による“Robotics 2 Camera Calibration”において記載されている方法を用いて、サブアパーチャ画像ごとに決定され得る。他の例において、ライトフィールドカメラが、3×3のピクセル(p=3)をカバーするマイクロレンズから成る場合に、全部で9個のサブアパーチャ画像が抽出される。
パラメータ推定ユニット32は、3×3(全部で9個)のサブアパーチャ画像(u,v)∈[0,p]についてのRuv、tuv及びKuv(R、t及びkは、夫々のサブアパーチャ画像についての回転行列、並進ベクトル及び較正行列を夫々表す。)の全部で8乃至10のパラメータ(例えば、tについての3つのパラメータ、Rについての3つのパラメータ、及びKについての2又は3又は4つのパラメータ)をサブアパーチャ画像の夫々について推定する。マイクロレンズごとに3×3のピクセル、よって、3×3のサブアパーチャ画像(u,v)∈[0,p]を夫々が有している左ライトフィールドカメラ1L及び右ライトフィールドカメラ1Rを使用する場合に、パラメータ推定ユニット32は、全部で18組のカメラパラメータを推定する。9組のActRL,uv,tL,uv,KL,uv(左ビューのためのライトフィールドカメラ1Lによって捕捉された夫々のサブアパーチャ画像についての夫々のカメラパラメータ)及び9組のActRR,uv,tR,uv,KR,uv(右ビューのためのライトフィールドカメラ1Rによって捕捉された夫々のサブアパーチャ画像についての夫々のカメラパラメータ)が存在する。パラメータ推定ユニット32は、上述されたように既知の方法に従って実際のカメラパラメータを推定する。カメラパラメータの組は、いくつかの異なるアプローチにより推定され得ることが理解されるだろう。
パラメータ解析ユニット33は、夫々の実際のカメラパラメータを、必要とされるカメラパラメータと比較することによって、ベストマッチングのサブアパーチャ画像を見つけることに関与する。パラメータ解析ユニット33は、夫々のサブアパーチャ画像についての計算された夫々の実際のカメラパラメータ(例えば、回転行列R及び並進ベクトルt)を、R行列及びtを含む必要とされるカメラパラメータと比較して、ベストマッチを見つける。パラメータ解析ユニット33は、1つのライトフィールドカメラの場合に、ActRuvuvから検索する。左右のライトフィールドカメラ対1L及び1Rについて、パラメータ解析ユニット33は、Req_R(左ビューについての必要とされるカメラパラメータ)を、左ビューのためのライトフィールドカメラ1Lによって捕捉されたサブアパーチャ画像の(u,v)∈[0,p]によるActRL,uvL,uvと比較し、Req_R(右ビューについての必要とされるカメラパラメータ)を、右ビューのためのライトフィールドカメラ1Rによって捕捉されたサブアパーチャ画像の(u,v)∈[0,p]によるActRR,uvR,uvと比較する。正確にベストマッチングのサブアパーチャ画像が存在しない場合に、パラメータ解析ユニット33は、必要とされるカメラパラメータに最も近い実際のカメラパラメータのサブアパーチャ画像がベストマッチングのサブアパーチャ画像であると決定し得る。全てのサブアパーチャ画像について、パラメータ解析ユニット33は、サブアパーチャ画像の実際のカメラパラメータと必要とされるカメラパラメータとの間の差が閾範囲内であるかどうかを判定し得る。必要とされるカメラパラメータからの実際のカメラパラメータの差が閾範囲内にあるところのサブアパーチャ画像がない場合には、パラメータ解析ユニット33は、“適合しているサブアパーチャ画像は見つけられなかった”として結果を返し得る。閾値未満内で必要とされるカメラパラメータと値が異なる実際のカメラパラメータを有しているいくつかのサブアパーチャ画像をパラメータ解析ユニット33が見つけることができる場合があり得る。パラメータ解析ユニット33は、必要とされるカメラパラメータに最も近い実際のカメラパラメータのサブアパーチャ画像がベストマッチングのサブアパーチャ画像であると決定し得る。他のマッチング方法が使用されてよく、例えば、予め定義された3D位置を2D位置上に投影して、2D位置における差を評価する方法がある。他のマッチング方法は、予め定義された2D位置を3D位置上に再投影し、3D位置における差を評価することであってよい。
ビュー関連付けユニット34は、パラメータ解析ユニット33によって提供された比較の結果に基づき、夫々のサブアパーチャ画像を関連付けるために使用される。関連付けステップは、図5乃至7及び以下の記載において十分に説明される。
図5は、本開示の実施形態に従うデバイスのハードウェア構成を説明するブロック図を表す。図5に表されているように、デバイス5はライトフィールドカメラ1を含むが、ライトフィールドカメラ1は、デバイス5とは別個に構成され得る。デバイス5は、例えば、スマートフォン、スマートウォッチ、タブレット、コンピュータ、携帯電話機、ポータブル/パーソナルデジタルアシスタント(“PDA”)、及びライトフィールドカメラ1のみならずエンドユーザ間の情報のやり取りを助ける他のデバイスのような、如何なるデバイスであることもできる。
デバイス5は、クロック信号も運ぶ、アドレス及びデータのバスによって、互いへ接続されている次の要素、すなわち、プロセッサ51(又はCPU)、ROMタイプの不揮発性メモリ52、ランダムアクセスメモリ、すなわちRAM53、ラジオインターフェイス56、データの送信のために適応されたインターフェイス55、ライトフィールドカメラ1、ユーザのために情報を表示し及び/又はデータ若しくはパラメータを入力するよう適応されたMMI(Man Machine Interface)58を有する。
メモリ52及び53の記載において使用される語“レジスタ”又は“ストア”は、上記のメモリの夫々において、低容量のメモリ区間、及び大容量のメモリ区間(プログラム全体が記憶されることを可能にするもの又は受信及び復号されたデータを表すデータの全て若しくは部分)を表す。
ROM52は、特に、プログラム“Prog”を有する。本開示に特有であって、以下で記載される方法のステップを実施するアルゴリズムは、それらのステップを実装するデバイスに関連したROM52のメモリに記憶されている。起動されるとき、プロセッサ51は、それらのアルゴリズムの命令をロードして実行する。
RAM53は、レジスタにおいて、デバイス5をオンすることに関与するプロセッサ51の動作プログラム、受信パラメータ(例えば、変調、符号化、MIMO、フレームの再現のためのパラメータ)、送信パラメータ(例えば、変調、符号化、MIMO、フレームの再現のためのパラメータ)、ラジオインターフェイス56によって受信及び復号されるデータに対応する入来データ、インターフェイスでアプリケーション58へ送信されるよう形成される復号されたデータ、プライマリレンズ10のパラメータ、及び/又はマイクロレンズアレイのマイクロレンズによって形成されるマイクロ画像の中心を表す情報を特に有する。
図5に関して記載されている以外のデバイス5の構造は、本開示に適合する。特に、変形例に従って、デバイス5は、純粋にハードウェアによる実現に従って、例えば、専用の部品(例えば、ASIC(Application Specific Integrated Circuit)若しくはFPGA(Field-Programmable Gate Array)若しくはVLSI(Very Large Scale Integration)又は装置に埋め込まれたいくつかの電子部品の形で、あるいは、ハードウェア要素とソフトウェア要素との混成の形でさえ、実施され得る。
ラジオインターフェイス56及びインターフェイス55は、例えば、IEEE802.11(Wi−Fi)、IMT−2000仕様(3Gとも呼ばれる。)、3GPP LTE(4Gとも呼ばれる)、IEEE802.15.1(Bluetooth(登録商標)と呼ばれる。)のような1つ以上の電気通信標準に従う信号の送受信のために適応される。
変形例に従って、デバイス5は、如何なるROMも含まずRAMのみを含み、本開示に特有の方法のステップを実施するアルゴリズムは、RAMにおいて記憶される。
図6は、本開示の実施形態に従って、理論上の立体画像対を定義する回転行列Rパラメータ及び並進ベクトルtパラメータを含む必要とされるカメラパラメータの例を示す。この場合における必要とされるカメラパラメータは、本開示の実施形態に従って、回転行列R及び並進ベクトルtのパラメータの組を有する。左ビュー及び右ビューについての必要とされるカメラパラメータの対が準備され、メモリに記憶される。左ビューについての必要とされるカメラパラメータ41はReq_Rと示され、右ビューについての必要とされるカメラパラメータ42はReq_Rと示される。
[第1実施形態]
本発明の第1の態様の好適な実施形態は、2つのライトフィールドカメラ(1L及び1R)がステレオ対を生成するために使用されている場合に関係がある。
図7は、本開示の実施形態に従って、必要とされるカメラパラメータと実際のカメラパラメータとの間の比較に基づくサブアパーチャ画像の関連付けを示す。左ビュー411についての夫々のサブアパーチャ画像の実際のカメラパラメータ及び右ビュー421についての夫々のサブアパーチャ画像の実際のカメラパラメータは推定される。この例では、3×3(全部で9個)のサブアパーチャ画像が生成され、それにより、左右夫々のサブアパーチャ画像について、9組の実際のカメラパラメータが推定される。この図で、左ビュー411についてのサブアパーチャ画像の実際のカメラパラメータはAct_Rと示され、一方、右ビュー421についてのサブアパーチャ画像の実際のカメラパラメータはAct_Rと示される。左ビューについての必要とされるカメラパラメータ41(Req_R)は、左ビュー411についてのサブアパーチャ画像の夫々の実際のカメラパラメータ(Act_R)と比較され得る。右ビューについての必要とされるカメラパラメータ42(Req_R)は、右ビュー421についてのサブアパーチャ画像の夫々の実際のカメラパラメータ(Act_R)と比較され得る。比較は、例えば、Req_R及びAct_Rの行列間の距離、又はReq_R及びAct_Rの行列間の距離の計算である。
この例となる実施形態において、パラメータ解析ユニット33は、図7における中央のサブアパーチャ画像(u,v)=(1,1)L4の実際のカメラパラメータActRL,1,1L,1,1が、(左ビュー411についてのサブアパーチャ画像の全ての実際のカメラパラメータの中で)左ビューについての必要とされるカメラパラメータ41(Req_R)に最も近いと決定し得る。その場合に、パラメータ解析ユニット33は、図7における中央のサブアパーチャ画像(u,v)=(1,1)L4が、左ビュー411についてのベストマッチングのサブアパーチャ画像であると決定し得る。
パラメータ解析ユニット33は、図7における中央のサブアパーチャ画像(u,v)=(1,1)L4の実際のカメラパラメータActRL,1,1L,1,1が、(左ビュー411についてのサブアパーチャ画像の全ての実際のカメラパラメータの中で)左ビューについての必要とされるカメラパラメータ41(Req_R)に最も近いと決定し得る。その場合に、パラメータ解析ユニット33は、図7における中央のサブアパーチャ画像(u,v)=(1,1)L4が、左ビュー411についてのベストマッチングのサブアパーチャ画像であると決定し得る。
パラメータ解析ユニット33はまた、図7における中央左端のサブアパーチャ画像(u,v)=(1,0)R4の実際のカメラパラメータActRR,1,0R,1,0が、(右ビュー421についてのサブアパーチャ画像の全ての実際のカメラパラメータの中で)右ビューについての必要とされるカメラパラメータ42(Req_R)に最も近いと決定し得る。その場合に、パラメータ解析ユニット33は、図7における中央左端のサブアパーチャ画像(u,v)=(1,0)R4が、右ビュー421についてのベストマッチングのサブアパーチャ画像であると決定し得る。
ビュー関連付けユニット34は、左ビューについてのベストマッチングのサブアパーチャ画像(図7におけるL4)を、右ビューについてのベストマッチングのサブアパーチャ画像(図7におけるR4)と関連付ける。図7に示されるように、ビュー関連付けユニット34は、左ビューについての残りのサブアパーチャ画像を、右ビューについての残りのサブアパーチャ画像と関連付ける。本開示において、“残りのサブアパーチャ画像”は、ベストマッチングのサブアパーチャ画像以外の夫々のサブアパーチャ画像を指す。1つの例となる実施形態において、図7に表されているように、ビュー関連付けユニット34は、左ビューについての夫々のサブアパーチャ画像を、ベストマッチングのサブアパーチャ画像(図7におけるL4又はR4)から相対的に同じ位置にある右ビューについての夫々のサブアパーチャ画像と関連付けることができる。左ビューについての残りのサブアパーチャ画像を右ビューについての残りのサブアパーチャ画像と関連付ける詳細なステップは、本明細書中の以降の項で説明される。
図7に表されているように、いくつかのサブアパーチャ画像(図7におけるN4)は、他のビューのサブアパーチャ画像と関連付けられ得ず、それらのサブアパーチャ画像は無視されるか、又は適合するビューでないとして記録され得る。ビュー関連付けユニット34は、その関連付け結果をメモリに記憶する。
図8は、本開示の実施形態に従って、実際のカメラパラメータを計算し、サブアパーチャ画像を関連付けるステップを実施するための、実例となるフローチャートを示す。この例となるフローチャートにおいて、それは、2つのライトフィールドカメラ1L及び1Rが使用されている構成に従って説明されるが、言うまでもなく、それらのステップは、単一のライトフィールドカメラを用いて実施され得る。
ステップS1で、ライトフィールドカメラ1L及び1Rは、ライトフィールドカメラ1L及び1Rの前に置かれているシーン内のオブジェクト2の画像を捕捉する。オブジェクト2は、シーン内のオブジェクト2の世界座標を測定し又は適切に設定するために、所定の位置に位置付けられ得る。このステップで、又は続くステップで、オブジェクト2の夫々の特徴点のシーンワールド座標は取得され得る。オブジェクト2の夫々の特徴点のシーンワールド座標は、例えば、タイム・オブ・フライト(ToF;Time-of-Flight)カメラ、ステレオ三角測量、又は当該技術で知られている何らかの他の方法を用いて、取得され得る。オブジェクト2の夫々の特徴点のシーンワールド座標はまた、ユーザによって入力又は登録され、システムに予め登録され得る。捕捉された画像信号及びオブジェクト2の夫々の特徴点の取得されたシーンワールド座標は、デバイス5へ送られ得る。言うまでもなく、ライトフィールドカメラ1L及び1Rは、ほとんど同じ画像面を有しているカメラによって各ビューが撮影されたように見えるように、ステレオ・リグに機械的に設置される。2つのカメラをアライメントする際の不完全さは、提案される開示によって対処される。
ステップS2で、サブアパーチャ画像生成ユニット31は、ステップS1で取得された画像からサブアパーチャ画像を生成する。上述されたように、続くステップは、ライトフィールドカメラ1又はデバイス5のいずれかによって実施され得る。ライトフィールドカメラ1の外にあるデバイス5がそれらのステップを実施する場合に、捕捉された画像信号は、通信ネットワークインターフェイスを介してデバイス5へ送られ得る。全てのステップがライトフィールドカメラ1において実施される場合に、捕捉された画像信号は、ライトフィールドカメラ1において、デモザイク処理され、次いで、逆多重化される。
ステップS3で、パラメータ推定ユニット32は、夫々のサブアパーチャ画像について夫々の実際のカメラパラメータを推定する。上述されたように、パラメータ推定ユニット32は、先の項で説明された既知の方法を用いて、実際のカメラパラメータを推定する。例えば、パラメータ推定ユニット32は、サブアパーチャ画像における夫々の特徴点のピクセル座標S(α,β,0,0)と、対応する特徴点のシーンワールド座標(X,Y,Z)(iは、i=1・・・nのような正の整数であることができる。)とに基づき、サブアパーチャ画像(u,v)=(0,0)についての実際のカメラパラメータを推定する。画像における夫々の特徴点のピクセル座標の組がα,β,・・・,α,βであるとすると、対応するシーンワールド座標はX,Y,Z,・・・,X,Y,Zと表され得る([αi,βi,1]=P[Xi,Yi,Zi,1])。
実際のカメラパラメータの計算のためのステップは、ライトフィールドカメラの前にオブジェクト2を置いた後、起動信号(例えば、“実際のカメラパラメータを計算し始めよ”といった開始ボタン(図示せず。)を押すことによって受信される信号、又は起動コマンド)を受信した後に自動化され得る。実際のカメラパラメータの計算のための起動信号又はコマンドが与えられると、ステップS1からS3は、実際のカメラパラメータが成功裏に導出されたとステップS4で決定されるまで、繰り返し実施され得る。
夫々のサブアパーチャ画像についての実際のカメラパラメータが導出されると、プロセスはステップS5へ移る。ステップS5で、パラメータ解析ユニット33は、ベストマッチングのサブアパーチャ画像を決定する。ステップS5で、パラメータ解析ユニット33は、メモリに記憶されているか又はユーザによって指定されている必要とされるカメラパラメータ(左ビューについてのReq_R41及び右ビューについてのReq_R42)にアクセスし、次いで、必要とされるカメラパラメータ(Req_R又はReq_R)を、夫々のサブアパーチャ画像についての夫々の実際のカメラパラメータと比較する。2つのライトフィールドカメラ1L及び1Rが使用される場合に、パラメータ解析ユニット33は、左ビューについての必要とされるカメラパラメータ41を、左ビュー411についての夫々のサブアパーチャ画像についての夫々の実際のカメラパラメータ(Act_R)と比較し、更に、右ビューについての必要とされるカメラパラメータ42を、右ビュー421についての夫々のサブアパーチャ画像についての夫々の実際のカメラパラメータ(Act_R)と比較する。
ステップS6で、ビュー関連付けユニット34は、左ビューについてのサブアパーチャ画像を、右ビューについての夫々のサブアパーチャ画像と関連付ける。このステップは、図9を参照して本明細書の以降の項で念入りに説明される。
ステップS7で、ビュー関連付けユニット34は、関連付け結果をメモリに記録する。
図9は、本開示の実施形態に従って、左ビューについての残りのサブアパーチャ画像と右ビューについての残りのサブアパーチャ画像との関連付けについてのフローチャート説明図を示す。それは、2つのライトフィールドカメラ1L及び1Rが使用される場合に従って説明されているが、それらのステップは、単一のライトフィールドカメラが使用される場合において実施され得る。
ステップS11で、左ビューについての(u,v)番目の残りのサブアパーチャ画像について、ビュー関連付けユニット34は、実際のカメラパラメータAct_RLrem,uvLrem,uvを左ビューについての上述されたベストマッチングのサブアパーチャ画像の実際のカメラパラメータAct_RLbestLbestに移すことができる伝達行列DLrem,uvを計算する。伝達行列は、例えば、次の式:

DLrem=(RLDrem|tLDrem)=(RLrem -1RLbest|RLrem -1(tLbest-tLrem))

によって計算され得る。
ステップS11で、ビュー関連付けユニット34は、左ビューについての(u,v)番目の残りのサブアパーチャ画像の実際のカメラパラメータAct_RLrem,uvLrem,uvと、左ビューについての上述されたベストマッチングのサブアパーチャ画像の実際のカメラパラメータAct_RLbestLbestとから、伝達行列DLrem,uvを計算する。
ステップS12で、右ビューについての(u,v)番目の残りのサブアパーチャ画像について、ビュー関連付けユニット34は、実際のカメラパラメータAct_RRrem,uvRrem,uvを右ビューについての上述されたベストマッチングのサブアパーチャ画像の実際のカメラパラメータAct_RRbestRbestに移すことができる伝達行列DRrem,uvを計算する。伝達行列は、例えば、次の式:

DRem=(RRDrem|tRDrem)=(RRrem -1RRbest|RRrem -1(tRbest-tRrem))

によって計算され得る。
ステップS12で、ビュー関連付けユニット34は、右ビューについての(u,v)番目の残りのサブアパーチャ画像の実際のカメラパラメータAct_RRrem,uvRrem,uvと、右ビューについての上述されたベストマッチングのサブアパーチャ画像の実際のカメラパラメータAct_RRbestRbestとから、伝達行列DRrem,uvを計算する。
ステップS13で、左ビューについての全ての残りのサブアパーチャ画像についての全てのDLrem及び右ビューについての全ての残りのサブアパーチャ画像についての全てのDRremが計算されているかどうかが判定される。ステップS11及びS12は、左ビューについての全ての残りのサブアパーチャ画像についての全てのDLrem及び右ビューについての全ての残りのサブアパーチャ画像についての全てのDRremが計算されるまで、繰り返される。ライトフィールドカメラ1L及び1Rが9組のサブアパーチャ画像を生成することができる場合に、8組のDLrem及びDRremが計算され得る。左ビューについての全ての残りのサブアパーチャ画像についての全てのDLrem及び右ビューについての全ての残りのサブアパーチャ画像についての全てのDRremが計算されていないと決定される場合には、プロセスはステップS11に戻る。
ステップS14で、ビュー関連付けユニット34は、左ビューについての残りのサブアパーチャ画像のDLremに最も近い(又は最も類似している)DRremを有している右ビューについての残りのサブアパーチャ画像を決定する。例えば、ビュー関連付けユニット34は、DLrem((u,v)番目についての伝達行列)と右ビューについての全ての残りのサブアパーチャ画像の夫々のDRremとの間の距離を計算し、DLrem((u,v)番目についての伝達行列)に最も近いDRremを有している右ビューについての残りのサブアパーチャ画像を決定する。
RremとDLremとの間の距離は、次の式:

DRrem-DLrem=(RLDrem -1RRDrem|tRDrem-tLDrem)

を用いて計算され得る。
ステップS15で、ビュー関連付けユニット34は、左ビューについての(u,v)番目の残りのサブアパーチャ画像のDLremと右ビューについての決定された残りのサブアパーチャ画像のDRremとの間の距離が閾値以下であることを決定する。左ビューについての(u,v)番目の残りのサブアパーチャ画像のDLremと、左ビューについての(u,v)番目の残りのサブアパーチャ画像のDLremに最も近いDRremとの間の距離が閾値以下でないと決定される場合には、プロセスはステップS17へ進み、そうでない場合には、ステップS16へ進む。
距離が閾値以下でないとビュー関連付けユニット34が決定する場合に、ステップS17で、ビュー関連付けユニット34は、左ビューについての(u,v)番目の残りのサブアパーチャ画像に関連付けられ得る右ビューについての残りのサブアパーチャ画像が存在しないと決定し、その結果(関連付けなし)をメモリに記録する。
ステップS16で、(u,v)番目のDLremとDRrem((u,v)番目のDLremに最も近いもの)との間の距離が閾値以下であるとビュー関連付けユニット34が決定する場合に、ビュー関連付けユニット34は、左ビューについての(u,v)番目の残りのサブアパーチャ画像を、左ビューについての(u,v)番目の残りのサブアパーチャ画像のDLremに最も近いDRremを有する右ビューについての残りのサブアパーチャ画像と関連付ける。
ステップS18で、ビュー関連付けユニット34は、左ビューについての全ての残りのサブアパーチャ画像のための関連付けが完了しているかどうかを判定する。全ての計算及び関連付けが完了していると決定される場合には、プロセスは終了する。そうでない場合には、プロセスはステップS14へ戻り、左ビューについての次の(u,v)番目の残りの左サブアパーチャ画像のための関連付けのステップを繰り返す。
図10は、本開示の実施形態に従って、2つのライトフィールドカメラが使用される場合において、左ビューについての残りのサブアパーチャ画像と右ビューについての残りのサブアパーチャ画像との関連付けを示す。左ビュー又は右ビューについての夫々の残りのサブアパーチャ画像RM411又はRM421は、左ビュー411についての又は右ビュー421についてのベストマッチングのサブアパーチャ画像からの夫々の距離に従って、関連付けられ得る。図10において、左ビューについての残りのサブアパーチャ画像RM411は、点模様で表され、一方、右ビューについての残りのサブアパーチャ画像RM421は、縞模様で表される。左ビューについての残りのサブアパーチャ画像RM411は、左ビューについての残りのサブアパーチャ画像RM411の伝達行列(DLrem)に最も近い伝達行列(DRrem)を有している右ビューについての残りのサブアパーチャ画像RM421と関連付けられ得る。
[第2実施形態]
本発明の第2の態様の好適な実施形態は、単一のライトフィールドカメラがステレオ対を生成するために使用されている場合に関係がある。第1実施形態において記載された配置及びプロセスと重複する説明は、ここでは省略される。
図11は、本開示の実施形態に従って、単一のライトフィールドカメラがステレオ対を生成するために使用される場合に、サブアパーチャ画像を関連付ける実施形態の例を示す。この例となる実施形態は、ライトフィールドカメラが多くのマイクロレンズ(及び比較的大きいサイズのセンサ面)を有しており、単一のライトフィールドカメラによって撮影されたサブアパーチャ画像からステレオ対を見つけるのに十分な異なったビューを含む多くのサブアパーチャ画像400を生成する場合に、適用される。
代替の実施形態において、パラメータ解析ユニット33は、左ビューについての必要とされるカメラパラメータ41(Req_R)を、夫々のサブアパーチャ画像400についての夫々の実際のカメラパラメータと比較することによって、図11におけるL4(u,v)=(2,1)が左ビューについてのベストマッチングのサブアパーチャ画像であると決定し得る。パラメータ解析ユニット33はまた、右ビューについての必要とされるカメラパラメータ42(Req_R)を、夫々のサブアパーチャ画像400についての夫々の実際のカメラパラメータと比較することによって、図11におけるR4(u,v)=(2,5)が右ビューについてのベストマッチングのサブアパーチャ画像であると決定し得る。
(マッチング)結果に基づき、ビュー関連付けユニット34は、左ビューについてのベストマッチングのサブアパーチャ画像L4及び右ビューについてのベストマッチングのサブアパーチャ画像R4に従って、残りのサブアパーチャ画像RM4を関連付ける。図11に表されているように、対応を有さないサブアパーチャ画像が存在し得る(図11におけるN4)。図11において、関連付けられるサブアパーチャ画像は、同じ塗りつぶしタイプにより表されている。残りのサブアパーチャ画像RM4は、ベストマッチングのサブアパーチャ画像を除く全てのサブアパーチャ画像を指す。
図12は、本開示の実施形態に従って、単一のライトフィールドカメラが使用される場合において、夫々のサブアパーチャ画像が2つの分類に分けられるところの分類技術の一例を示し、1つの分類は、左ビューについての残りのサブアパーチャ画像のそれであり、第2の分類は、右ビューについての残りのサブアパーチャ画像である。1つのライトフィールドカメラが使用されている場合において、夫々のサブアパーチャ画像400は、(u,v)番目の残りのサブアパーチャ画像の実際のカメラパラメータ(Act_RRrem,uvRrem,uv)と、左ビューについてのベストマッチングのサブアパーチャ画像L4の実際のカメラパラメータ(Act_RLbestLbest)との間の距離、及び(u,v)番目の残りのサブアパーチャ画像の実際のカメラパラメータ(Act_RRrem,uvRrem,uv)と、右ビューについてのベストマッチングのサブアパーチャ画像R4の実際のカメラパラメータ(Act_RRbestRbest)との間の距離を考慮して、分類されるべきである。図12において、左ビューについての残りのサブアパーチャ画像RM411に分類される残りのサブアパーチャ画像は、点模様により表され、一方、右ビューについての残りのサブアパーチャ画像RM421に分類される残りのサブアパーチャ画像は、縞模様により表される。図12において、残りのサブアパーチャ画像(0,0)は、DLrem,00<DRrem,00を考慮して、左ビューについてのサブアパーチャ画像RM411に分類され得、一方、残りのサブアパーチャ画像(0,4)は、DLrem,04>DRrem,04を考慮して、右ビューについてのサブアパーチャ画像RM421に分類され得る。
図13は、本開示の実施形態に従って、単一のライトフィールドカメラを用いて夫々のサブアパーチャ画像を左ビューについての残りのサブアパーチャ画像又は右ビューについての残りのサブアパーチャ画像に分類するフローチャート説明図を示す。
ステップS111で、(u,v)番目の残りのサブアパーチャ画像について、ビュー関連付けユニット34は、(u,v)番目の残りのサブアパーチャ画像の実際のカメラパラメータAct_RRrem,uvRrem,uvと、左ビューについての前述のベストマッチングのサブアパーチャ画像L4の実際のカメラパラメータAct_RLbestLbestとの間の伝達行列を表す伝達行列DLrem,uvを計算する。
ステップS112で、(u,v)番目の残りのサブアパーチャ画像について、ビュー関連付けユニット34は、(u,v)番目の残りのサブアパーチャ画像の実際のカメラパラメータAct_RRrem,uvRrem,uvと、右ビューについての前述のベストマッチングのサブアパーチャ画像R4の実際のカメラパラメータAct_RRbestRbestとの間の伝達行列を表す伝達行列DRrem,uvを計算する。
ステップS113で、ビュー関連付けユニット34は、(u,v)番目の残りのサブアパーチャ画像のDLrem,uv及びDRrem,uvを比較し、次いで、(u,v)番目の残りのサブアパーチャ画像が左ビュー411についての残りのサブアパーチャ画像又は右ビュー421についての残りのサブアパーチャ画像のいずれかに属することを決定する。例えば、DLrem,uv<DRrem,uvと決定される場合に、この(u,v)番目の残りのサブアパーチャ画像は、左ビューについての残りのサブアパーチャ画像RM411に属すると決定される。DLrem,uv=DRrem,uvと決定される場合に、この(u,v)番目の残りのサブアパーチャ画像は、対応なしと登録され得る。
例えば、場合DLrem<DRremは、eが3次元のテストベクトルであって、例えばe=(1 1 1)であるとして、|RLDreme+tLDrem|<|RRDreme+tRDrem|を検証することによって、確認され得る。他の例において、場合DLrem<DRremは、|RLDrem|<|RRDrem|∧|tLDrem|<|tRDrem|を検証することによって、確認され得る。この後者の例において、場合は、DLrem<DRremもDLrem<DRremも真でない場合に起こり得る。それらのサブアパーチャ画像は、更なる処理のために使用されない。
ステップS114で、ビュー関連付けユニット34は、全てのサブアパーチャ画像が分類されているかどうかを判定する。これが分類されるべき最後のサブアパーチャ画像でない場合には、プロセスはステップS111に戻り、そうでない場合には、プロセスは終了する。
全ての残りのサブアパーチャ画像を左ビューについての又は右ビューについてのサブアパーチャ画像に分類した後、前述のステップS11からステップS18は関連付けのために実施され得る。それらは、単に、例となるフローチャートである。計算及びプロセスフローの順序は、この例に制限される必要はない。
本開示の実施形態に従って、夫々のサブアパーチャ画像の夫々の実際のパラメータは、左ビュー又は右ビューについての必要とされるカメラパラメータと比較される。左ビュー又は右ビューについての必要とされるカメラパラメータは、立体画像対のための理論上の理想的なカメラパラメータである。本開示に従って、サブアパーチャ画像は、夫々のサブアパーチャ画像の実際のパラメータと左又は右ビューについての必要とされるカメラパラメータとの間の関係を考慮して、互いに関連付けられ得る。
当然、本開示は、前述の実施形態に制限されない。
特に、本開示は、ライトフィールドカメラに制限されず、ライトフィールドカメラの制御及び/又は較正の方法、並びに制御/較正方法を実装するハードウェア回路にも及ぶ。
当業者に明らかなように、実施は、例えば、記憶又は送信され得る情報を運ぶようフォーマット化された様々な信号を生じさせ得る。情報は、例えば、方法を実施するための命令、又は記載される実施のうちの1つによって生成されたデータを含んでよい。例えば、信号は、記載される実施形態のシンタックスを読み出す又は書き込むための規則をデータとして運ぶよう、あるいは、記載される実施形態によって書き込まれる実際のシンタックス値をデータとして運ぶようフォーマット化され得る。そのような信号は、例えば、電磁波として(例えば、スペクトルの無線周波数部分を使用する。)、あるいは、ベースバンド信号としてフォーマット化され得る。フォーマッティングは、例えば、データストリームを符号化し、符号化されたデータストリームによりキャリアを変調することを含んでよい。信号が運ぶ情報は、例えば、アナログ又はデジタル情報であってよい。信号は、知られているように、多種多様な有線又は無線リンクを介して送信され得る。信号は、プロセッサ読み出し可能な媒体に記憶され得る。
多数の実施が記載されてきた。それでもなお、様々な変更が行われ得ることが理解されるだろう。例えば、異なる実施の要素は、他の実施をもたらすよう結合、補完、変更、又は削除され得る。その上、当業者は、他の構造及びプロセスが、開示されているものに代用されてよく、結果として現れる実施が、開示されている実施と少なくとも実質的に同じ結果を実現するよう、少なくとも実質的に同じ方法で、少なくとも実質的に同じ機能を実行することを理解するだろう。然るに、それら及び他の実施は、本願によって考えられている。
以上より、前述の説明は、本開示の原理を説明し、よって、当業者は、たとえ本明細書中で明示的に記載されていなくても、本開示の原理を具現化し且つその主旨及び適用範囲の中にある多数の代替の配置を思い付くことができると認識されるだろう。従って、多数の変更は、実例となる実施形態に対して行われ、他の配置は、本開示の適用範囲から逸脱することなしに想到され得ることが理解されるべきである。
1,1L,1R ライトフィールドカメラ
2 オブジェクト
5 デバイス
10 プライマリレンズ
11 レンズレットアレイ
13 画像センサアレイ
31 サブアパーチャ画像生成ユニット
32 パラメータ推定ユニット
33 パラメータ解析ユニット
34 ビュー関連付けユニット
41,42 必要とされるカメラパラメータ
51 プロセッサ
52 不揮発性メモリ(ROM)
53 RAM
55 インターフェイス
56 ラジオインターフェイス
58 MMI
400 サブアパーチャ画像
411 左ビュー
421 右ビュー

Claims (13)

  1. 少なくとも1つのライトフィールドカメラにより一対の立体画像を生成する方法であって、
    左ビュー及び右ビューについての夫々の必要とされるカメラパラメータを受け取り、該必要とされるカメラパラメータは、理論上のステレオ画像対を定義し、
    前記ライトフィールドカメラによって捕捉された画像に基づき生成される夫々のサブアパーチャ画像についての夫々の実際のカメラパラメータを取得し、
    前記左ビューについての必要とされるカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のカメラパラメータと比較することによって前記左ビューについてのベストマッチングのサブアパーチャ画像を決定し、前記右ビューについての必要とされるカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のカメラパラメータと比較することによって前記右ビューについてのベストマッチングのサブアパーチャ画像を決定し、
    前記左ビューについてのベストマッチングのサブアパーチャ画像及び前記右ビューについてのベストマッチングのサブアパーチャ画像を立体画像の対として関連付ける
    ことを有する方法。
  2. 前記サブアパーチャ画像についての前記実際のカメラパラメータは、
    前記ライトフィールドカメラによって捕捉された前記画像におけるシーン内のオブジェクトの画像を受け取り、該オブジェクトの夫々の特徴点のシーンワールド座標を取得し、
    前記オブジェクトの前記受け取られた画像から複数のサブアパーチャ画像を生成し、
    前記オブジェクトの夫々の特徴点の前記シーンワールド座標と、夫々の特徴点の前記シーンワールド座標に対応する前記サブアパーチャ画像内のピクセル座標とに基づき、前記実際のカメラパラメータを推定する
    ことによって推定される、
    請求項1に記載の方法。
  3. 前記実際のカメラパラメータ及び前記必要とされるカメラパラメータは、回転行列R及び並進ベクトルtを夫々有する、
    請求項1に記載の方法。
  4. 前記左ビューについての決定されたベストマッチングのサブアパーチャ画像の実際のカメラパラメータは、前記左ビューについての必要とされるカメラパラメータに対して最も近い値を有し、前記右ビューについての決定されたベストマッチングのサブアパーチャ画像の実際のカメラパラメータは、前記右ビューについての必要とされるカメラパラメータに対して最も近い値を有する、
    請求項1に記載の方法。
  5. 前記ライトフィールドカメラは、左ビューのためのライトフィールドカメラ及び右ビューのためのライトフィールドカメラを含み、
    前記決定することは、
    前記左ビューについての必要とされるカメラパラメータを、前記左ビューのためのライトフィールドカメラによって捕捉された画像に基づき生成される夫々のサブアパーチャ画像についての夫々の実際のカメラパラメータと比較することによって、前記左ビューについてのベストマッチングのサブアパーチャ画像を決定し、
    前記右ビューについての必要とされるカメラパラメータを、前記右ビューのためのライトフィールドカメラによって捕捉された画像に基づき生成される夫々のサブアパーチャ画像についての夫々の実際のカメラパラメータと比較することによって、前記右ビューについてのベストマッチングのサブアパーチャ画像を決定する
    ことを更に含む、
    請求項1に記載の方法。
  6. 前記関連付けることは、
    前記左ビューについてのベストマッチングのサブアパーチャ画像以外のサブアパーチャ画像である前記左ビューについての残りのサブアパーチャ画像の実際のカメラパラメータを前記左ビューについてのベストマッチングのサブアパーチャ画像の実際のカメラパラメータに移すことができる伝達行列DLremを計算し、該伝達行列DLremは、左ビューについての夫々のサブアパーチャ画像について計算され、
    前記右ビューについてのベストマッチングのサブアパーチャ画像以外のサブアパーチャ画像である前記右ビューについての残りのサブアパーチャ画像の実際のカメラパラメータを前記右ビューについてのベストマッチングのサブアパーチャ画像の実際のカメラパラメータに移すことができる伝達行列DRremを計算し、該伝達行列DRremは、右ビューについての夫々のサブアパーチャ画像について計算され、
    前記左ビューについての残りのサブアパーチャ画像を、前記DRremが前記DLremに対して最も近い値を有するところの前記右ビューについての残りのサブアパーチャ画像と関連付ける
    ことを更に有する、
    請求項4に記載の方法。
  7. 前記ベストマッチングのサブアパーチャ画像以外である残りのサブアパーチャ画像を、左ビューについての残りのサブアパーチャ画像又は右ビューについての残りのサブアパーチャ画像のいずれかに分類することを更に有し、
    前記分類することは、
    前記残りのサブアパーチャ画像の実際のカメラパラメータを前記左ビューについてのベストマッチングのサブアパーチャ画像の実際のカメラパラメータに移すことができるDLremを計算し、
    前記残りのサブアパーチャ画像の実際のカメラパラメータを前記右ビューについてのベストマッチングのサブアパーチャ画像の実際のカメラパラメータに移すことができるDRremを計算し、
    前記DLrem及び前記DRremを比較し、前記残りのサブアパーチャ画像を、前記DLremが前記DRremよりも小さい場合には、前記左ビューについての残りのサブアパーチャ画像に分類し、前記DLremが前記DRremよりも小さくない場合には、前記右ビューについての残りのサブアパーチャ画像に分類する
    ことを有する、
    請求項1に記載の方法。
  8. 前記DLrem及び前記DRremを比較し、前記DLremが前記DRremに等しい場合には、前記左ビューについての残りのサブアパーチャ画像にも、前記右ビューについての残りのサブアパーチャ画像にも分類しないことを更に有する
    請求項7に記載の方法。
  9. 前記左ビューについての残りのサブアパーチャ画像に分類された前記残りのサブアパーチャ画像を、前記DRremが、前記左ビューについての残りのサブアパーチャ画像に分類された前記残りのサブアパーチャ画像の前記DLremに対して最も近い値を有するところの、前記右ビューについての残りのサブアパーチャ画像に分類された前記残りのサブアパーチャ画像と関連付けることを更に有する
    請求項7に記載の方法。
  10. 一対の立体画像を生成するデバイスであって、
    プロセッサを有し、該プロセッサは、
    左ビュー及び右ビューについての夫々の必要とされるカメラパラメータを受け取り、該必要とされるカメラパラメータは、理論上のステレオ画像対を定義し、
    ライトフィールドカメラによって捕捉された画像に基づき生成される夫々のサブアパーチャ画像についての夫々の実際のカメラパラメータを取得し、
    前記左ビューについての必要とされるカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のカメラパラメータと比較することによって前記左ビューについてのベストマッチングのサブアパーチャ画像を決定し、前記右ビューについての必要とされるカメラパラメータを前記夫々のサブアパーチャ画像についての前記実際のカメラパラメータと比較することによって前記右ビューについてのベストマッチングのサブアパーチャ画像を決定し、
    前記左ビューについてのベストマッチングのサブアパーチャ画像及び前記右ビューについてのベストマッチングのサブアパーチャ画像を立体画像の対として関連付ける
    よう構成される、デバイス。
  11. 前記サブアパーチャ画像についての前記実際のカメラパラメータは、
    前記ライトフィールドカメラによって捕捉されたシーン内のオブジェクトの画像を受け取り、該オブジェクトの夫々の特徴点のシーンワールド座標を取得し、
    前記オブジェクトの前記受け取られた画像から複数のサブアパーチャ画像を生成し、
    前記オブジェクトの夫々の特徴点の前記シーンワールド座標と、夫々の特徴点の前記シーンワールド座標に対応する前記サブアパーチャ画像内のピクセル座標とに基づき、前記実際のカメラパラメータを推定する
    ことによって推定される、
    請求項10に記載のデバイス。
  12. コンピュータによって読み出し可能な及び/又はプロセッサによって実行可能な媒体に記録され且つ/あるいは通信ネットワークからダウンロードされるコンピュータプログラムであって、
    請求項1乃至9のうちいずれか一項に記載の方法を実施するプログラムコード命令を有する
    コンピュータプログラム。
  13. 請求項1乃至9のうちいずれか一項に記載の方法を実施するプログラムコード命令を含む、プロセッサによって実行されることが可能なコンピュータプログラムが記録されている非一時的なコンピュータ可読媒体。
JP2017121820A 2016-06-23 2017-06-22 少なくとも1つのライトフィールドカメラにより一対の立体画像を生成する方法及び装置 Pending JP2017229067A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP16305760.7 2016-06-23
EP16305760 2016-06-23

Publications (2)

Publication Number Publication Date
JP2017229067A true JP2017229067A (ja) 2017-12-28
JP2017229067A5 JP2017229067A5 (ja) 2020-08-06

Family

ID=56497690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017121820A Pending JP2017229067A (ja) 2016-06-23 2017-06-22 少なくとも1つのライトフィールドカメラにより一対の立体画像を生成する方法及び装置

Country Status (5)

Country Link
US (1) US10594999B2 (ja)
EP (1) EP3264761A1 (ja)
JP (1) JP2017229067A (ja)
KR (1) KR20180000696A (ja)
CN (1) CN108305293A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG11201907103QA (en) * 2017-08-25 2019-08-27 Maker Trading Pte Ltd Stereo machine vision system and method for identifying locations of natural target elements
CN108257185A (zh) * 2018-01-03 2018-07-06 上海兴芯微电子科技有限公司 多棋盘格角点检测方法及摄像机标定方法
KR102617940B1 (ko) * 2019-01-24 2023-12-22 주식회사 케이티 멀티 mla 라이트 필드 카메라를 이용한 6-자유도 지원 360도 영상 생성 장치및 그 방법
KR20220121533A (ko) 2021-02-25 2022-09-01 삼성전자주식회사 어레이 카메라를 통해 획득된 영상을 복원하는 영상 복원 방법 및 영상 복원 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248723A (ja) * 2010-05-28 2011-12-08 Sony Corp 画像処理装置および方法、並びにプログラム
WO2013038598A1 (ja) * 2011-09-14 2013-03-21 株式会社ニコン 撮像素子、撮像装置および画像処理装置
JP2013175948A (ja) * 2012-02-24 2013-09-05 Casio Comput Co Ltd 画像生成装置、画像生成方法及びプログラム
JP2015056790A (ja) * 2013-09-12 2015-03-23 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2016042689A (ja) * 2014-08-18 2016-03-31 三星電子株式会社Samsung Electronics Co.,Ltd. 映像処理方法及び装置

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
BE1011175A3 (fr) * 1997-05-23 1999-07-06 Ursel Wauthier D Procede d'obtention d'images en relief et dispositif pour la mise en oeuvre de ce procede.
JP2003141527A (ja) 2001-11-07 2003-05-16 Japan Science & Technology Corp 多視点画像処理システムのキャリブレーション装置及びキャリブレーション方法
US7643025B2 (en) * 2003-09-30 2010-01-05 Eric Belk Lange Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates
US7671893B2 (en) 2004-07-27 2010-03-02 Microsoft Corp. System and method for interactive multi-view video
DE102007001649A1 (de) * 2007-01-11 2008-07-17 Robert Bosch Gmbh Verfahren, Vorrichtung und Computerprogramm zur Selbstkalibrierung einer Überwachungskamera
US9094675B2 (en) * 2008-02-29 2015-07-28 Disney Enterprises Inc. Processing image data from multiple cameras for motion pictures
EP2175632A1 (en) * 2008-10-10 2010-04-14 Samsung Electronics Co., Ltd. Image processing apparatus and method
US8749620B1 (en) * 2010-02-20 2014-06-10 Lytro, Inc. 3D light field cameras, images and files, and methods of using, operating, processing and viewing same
EP2375376B1 (en) 2010-03-26 2013-09-11 Alcatel Lucent Method and arrangement for multi-camera calibration
JP2012034215A (ja) * 2010-07-30 2012-02-16 Sony Corp 画像処理装置および方法、並びにプログラム
WO2013111229A1 (ja) * 2012-01-23 2013-08-01 日本電気株式会社 カメラ校正装置、カメラ校正方法およびカメラ校正用プログラム
US9386297B2 (en) * 2012-02-24 2016-07-05 Casio Computer Co., Ltd. Image generating apparatus generating reconstructed image, method, and computer-readable recording medium
EP2835613B1 (de) * 2013-08-08 2019-01-16 Hexagon Technology Center GmbH Geodätisches Vermessungsgerät mit Mikrolinsenarray
IN2013CH05313A (ja) * 2013-11-18 2015-05-29 Nokia Corp
KR20150088355A (ko) * 2014-01-23 2015-08-03 한국전자통신연구원 눈동자 이동 시점 생성을 지원하는 스테레오 라이트필드 입출력 장치 및 방법
JPWO2015128918A1 (ja) * 2014-02-28 2017-03-30 パナソニックIpマネジメント株式会社 撮像装置
US9390508B2 (en) * 2014-03-03 2016-07-12 Nokia Technologies Oy Method, apparatus and computer program product for disparity map estimation of stereo images
TWI527434B (zh) * 2014-03-21 2016-03-21 國立臺灣大學 利用光場相機產生立體影像的方法及光場相機
US9436987B2 (en) * 2014-04-30 2016-09-06 Seiko Epson Corporation Geodesic distance based primitive segmentation and fitting for 3D modeling of non-rigid objects from 2D images
CN104089628B (zh) * 2014-06-30 2017-02-08 中国科学院光电研究院 光场相机的自适应几何定标方法
EP3026884A1 (en) * 2014-11-27 2016-06-01 Thomson Licensing Plenoptic camera comprising a light emitting device
US10085005B2 (en) * 2015-04-15 2018-09-25 Lytro, Inc. Capturing light-field volume image and video data using tiled light-field cameras
CN105488810B (zh) * 2016-01-20 2018-06-29 东南大学 一种聚焦光场相机内外参数标定方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248723A (ja) * 2010-05-28 2011-12-08 Sony Corp 画像処理装置および方法、並びにプログラム
WO2013038598A1 (ja) * 2011-09-14 2013-03-21 株式会社ニコン 撮像素子、撮像装置および画像処理装置
JP2013175948A (ja) * 2012-02-24 2013-09-05 Casio Comput Co Ltd 画像生成装置、画像生成方法及びプログラム
JP2015056790A (ja) * 2013-09-12 2015-03-23 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2016042689A (ja) * 2014-08-18 2016-03-31 三星電子株式会社Samsung Electronics Co.,Ltd. 映像処理方法及び装置

Also Published As

Publication number Publication date
CN108305293A (zh) 2018-07-20
KR20180000696A (ko) 2018-01-03
US20170374345A1 (en) 2017-12-28
US10594999B2 (en) 2020-03-17
EP3264761A1 (en) 2018-01-03

Similar Documents

Publication Publication Date Title
US11615546B2 (en) Systems and methods for depth estimation using generative models
US11790481B2 (en) Systems and methods for fusing images
CN110660088B (zh) 一种图像处理的方法和设备
JP6276475B2 (ja) カラービデオと深度ビデオとの同期方法、装置、および媒体
US9544574B2 (en) Selecting camera pairs for stereoscopic imaging
CN106210501B (zh) 图像合成方法与图像处理装置
TWI808987B (zh) 將相機與陀螺儀融合在一起的五維視頻穩定化裝置及方法
US9965861B2 (en) Method and system of feature matching for multiple images
JP2017520050A (ja) 局所的適応ヒストグラム平坦化
JP2017229067A (ja) 少なくとも1つのライトフィールドカメラにより一対の立体画像を生成する方法及び装置
KR20160090373A (ko) 듀얼 렌즈 장치를 위한 촬영 방법 및 듀얼 렌즈 장치
JP2015536057A (ja) 画像処理装置、方法及びコンピュータプログラム
JP7105062B2 (ja) 画像処理装置、コンテンツ処理装置、コンテンツ処理システム、および画像処理方法
CN109661815B (zh) 存在相机阵列的显著强度变化的情况下的鲁棒视差估计
CN109495733B (zh) 三维影像重建方法、装置及其非暂态电脑可读取储存媒体
CN114520906B (zh) 基于单目相机的三维人像补全方法和补全***
KR20210018348A (ko) 라이트 필드 코딩 및 디코딩을 위한 예측
JP2017103695A (ja) 画像処理装置、画像処理方法、及びそのプログラム
CN115834860A (zh) 背景虚化方法、装置、设备、存储介质和程序产品
KR101788005B1 (ko) 복수의 모바일 단말들을 이용한 다시점 영상 생성 방법
CN113870361A (zh) 深度相机的标定方法、装置、设备及存储介质
US20230072247A1 (en) Method and device for processing image content
Saha et al. A system for near real-time 3D reconstruction from multi-view using 4G enabled mobile
CN118115360A (zh) 图像数据的多路处理方法、装置、计算机设备和存储介质
TWI474286B (zh) 以色彩為基礎之立體影像產生方法及裝置

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181220

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181227

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200617

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210826

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220318