JP6847718B6 - ライトフィールドデータを処理する方法およびデバイス - Google Patents

ライトフィールドデータを処理する方法およびデバイス Download PDF

Info

Publication number
JP6847718B6
JP6847718B6 JP2017047117A JP2017047117A JP6847718B6 JP 6847718 B6 JP6847718 B6 JP 6847718B6 JP 2017047117 A JP2017047117 A JP 2017047117A JP 2017047117 A JP2017047117 A JP 2017047117A JP 6847718 B6 JP6847718 B6 JP 6847718B6
Authority
JP
Japan
Prior art keywords
ray
group
light field
rays
groups
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017047117A
Other languages
English (en)
Other versions
JP2017182796A (ja
JP6847718B2 (ja
JP2017182796A5 (ja
Inventor
サバタ,ネウス
ホグ,マシュー
インリア ギルモット,クリスティン
インリア ギルモット,クリスティン
Original Assignee
インターディジタル・シーイー・パテント・ホールディングス・ソシエテ・パ・アクシオンス・シンプリフィエ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インターディジタル・シーイー・パテント・ホールディングス・ソシエテ・パ・アクシオンス・シンプリフィエ filed Critical インターディジタル・シーイー・パテント・ホールディングス・ソシエテ・パ・アクシオンス・シンプリフィエ
Publication of JP2017182796A publication Critical patent/JP2017182796A/ja
Publication of JP2017182796A5 publication Critical patent/JP2017182796A5/ja
Publication of JP6847718B2 publication Critical patent/JP6847718B2/ja
Application granted granted Critical
Publication of JP6847718B6 publication Critical patent/JP6847718B6/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/162Segmentation; Edge detection involving graph-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

1.技術分野
本開示は、概して、ライトフィールド(light−field)イメージングに関し、より詳細には、ライトフィールドデータを編集および処理する技法に関する。
2.背景技術
本セクションは、以下で説明および/または特許請求される本開示の様々な態様に関連し得る様々な技術態様を読者に案内することを意図されている。本説明は、本発明の様々な態様のよりよい理解を促進する背景情報を読者に提供する一助になると考えられる。したがって、これらの陳述はこの観点から読まれるべきであり、従来技術の承認として読まれるべきではないことを理解されたい。
従来の画像キャプチャデバイスは、3次元のシーンを2次元のセンサ上に描画する。動作中、従来のキャプチャデバイスは、デバイス内の光センサ(または光検出器)に到達する光の量を反映する2次元(2−D)画像を捕捉する。しかし、この2−D画像は、光センサに到達する光線の方向分布に関する情報(ライトフィールドとも呼ばれ得る)を包まない。深度は、例えば、取得中に失われる。そのため、従来のキャプチャデバイスは、シーンからの光の分布に関する情報のほとんどを記憶しない。
ライトフィールドキャプチャデバイス(「ライトフィールドデータ取得デバイス」とも呼ばれる)はシーンの異なる視点または角度からの光を捕捉することによって、そのシーンの4次元(4D)ライトフィールドを測定するように設計されている。そのため、光センサと交差する光の各ビームに沿って進行する光の量を測定することによって、これらのデバイスは、後処理によって新たなイメージングアプリケーションをもたらすために、追加の光学情報(光線束の方向分布に関する情報)を捕捉することができる。ライトフィールドキャプチャデバイスによって取得された/得られた情報はライトフィールドデータと呼ばれる。ライトフィールドキャプチャデバイスは、本明細書において、ライトフィールドデータを捕捉することができる任意のデバイスとして定義される。いくつかの種類のライトフィールドキャプチャデバイスが存在する。その中には、画像センサとメインレンズとの間に配置されたマイクロレンズアレイおよびカメラアレイを使用し、全てのカメラが単一の共有画像センサ上に結像する、プレノプティックデバイスがある。
ライトフィールドデータの処理は、特に限定するものではないが、シーンの画像をセグメント化すること、シーンの利フォーカスされた画像を生成すること、シーンの斜視図を生成すること、シーンの深度マップを生成すること、拡張被写界深度(EDOF)画像を生成すること、立体画像を生成すること、(異なる焦点距離において各々合焦された画像の集合を含む)焦点スタックを生成すること、および/またはこれらの任意の組み合わせを含む。
ライトフィールドデータ取得デバイスを用いて大量のデータが取得されるので、ライトフィールドデータの処理は困難な作業である。
Hae-Gon Jeon Jaesik Park Gyeongmin Choe Jinsun Park,Yunsu Bok Yu-Wing Tai In So Kweon、"Accurate Depth Map Estimation from a Lenslet Light Field Camera" Li, Gunturk and Zhang、"Image demosaicing: a systematic survey"、Proc. SPIE、vol. 6822、p. 68221J (2008) Wanner, Sven, Christoph Straehle, and Bastian Goldluecke 、"Globally consistent multi-label assignment on the ray space of 4d light fields"、Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition、2013 Wanner, Sven, and Bastian Goldluecke、"Variational light field analysis for disparity estimation and super-resolution."、Pattern Analysis and Machine Intelligence、IEEE Transactions on 36.3 (2014): 606-619 Bastian Goldluecke, Sven Wanner、"The Variational Structure of Disparity and Regularization of 4D Light Fields"、In Proc. International Conference on Computer Vision and Pattern Recognition、2013 Drazic, Valter, and Neus Sabater、"A precise real-time stereo algorithm"、Proceedings of the 27th Conference on Image and Vision Computing New Zealand、ACM、2012 Boykov Yuri, Olga Veksler and Ramin Zabih、"Fast approximate energy minimization via graph cuts"、Pattern Analysis and Machine Intelligence、IEEE Transactions on 23.11.2001: 1222-1239
3.概要
本開示は、シーンを表すライトフィールドデータを処理する方法であって、ライトフィールドデータが複数の要素を含み、4次元座標が複数の要素の各要素に関連付けられ、本方法は、
− 光線を各要素に関連付けることであって、光線は、各要素に関連付けられた4次元座標から得られる、関連付けることと、
− 要素毎に深度情報を決定することと、
− 深度情報に従ってシーン内における各前記光線の起点を決定することと、
− シーンにおいて同じ起点を有する光線をグループ化して、複数のグループを形成することと、
− ライトフィールドデータを複数のグループに従って処理することと
を含む、方法に関する。
ある特徴によれば、4次元座標(s,t,x,y)を用いて表現された第1の光線、および4次元座標(s,t,x,y)を用いて表現された第2の光線は、以下:
+(s−s)×D(s,t,x,y)−x<E1、かつ
+(t−t)×D(s,t,x,y)−y<E2
の場合に、複数のグループのうちの同じ第1のグループにグループ化され、ここで、D(s,t,x,y)は、第1の光線に関連付けられた深度情報に対応し、E1は、第1の決定値に対応し、およびE2は、第2の決定値に対応する。
具体的な特徴によれば、第1の光線および第2の光線は、以下の場合:
+(s−s)×D(s,t,x,y)−x<E1、かつ
+(t−t)×D(s,t,x,y)−y<E2
の場合に、同じ第1のグループにグループ化され、ここで、D(s,t,x,y)は、第2の光線に関連付けられた深度情報に対応する。
特定の特徴によれば、少なくとも1つの光線が前記複数のグループのうちのグループに割り当てられない。
別の特徴によれば、複数のグループのうちのグループの少なくとも1つの対について、本方法は、少なくとも1つの対を形成する第2の光線グループと第3の光線グループとの間の関係を確立することであって、重みが関係に関連付けられ、重みは、
− 第2のグループの第4の光線毎に、第3のグループの第3の光線が第4の光線の近傍内に含まれる場合に、第3の光線と前記第4の光線との差を算出し、
− その差を合計することによって重みを決定する
ことによって決定される、確立することをさらに含む。
別の特徴によれば、処理は、ライトフィールドデータを関係に従ってセグメント化することを含む。
本開示は、ライトフィールドデータを処理する方法を遂行するように構成および/または適合された装置に関する。
本開示はまた、プログラムコードの命令であって、プログラムがコンピューティングデバイス上で実行されると、ライトフィールドデータを処理する方法のステップを実行するプログラムコードの命令を含むコンピュータプログラム製品に関する。
本開示はまた、プロセッサ可読媒体であって、プロセッサに、ライトフィールドデータを処理する方法の少なくともステップを遂行させるための命令をその中に記憶したプロセッサ可読媒体に関する。
本開示はまた、ライトフィールドカメラ、および/またはライトフィールドデータを処理する方法を実施するように構成された処理ユニットを含む通信端末に関連する。
4.図面の一覧
以下の説明を読むことで、本開示はよりよく理解され、他の特定の特徴および利点が明らかになるであろう。説明は添付の図面を参照する。
本原理の一実施形態に係る、ライトフィールドカメラのブロック図である。 本原理の一実施形態に係る、ライトフィールドカメラの例を示す図である。 本原理の一実施形態に係る、ライトフィールドカメラの例を示す図である。 図1または図2Aおよび図2Bならびに図8の実施形態によるライトフィールドカメラによって与えられたデータを処理するように構成された処理ユニットを示す一実施形態の例を示す図である。 図1または図2Aおよび図2Bと関連して示される実施形態と関連して提供されるものなど、例示的なライトフィールドカメラによって捕捉されるライトフィールドデータを示す図である。 図1の実施形態と関連して示される例示的なライトフィールドカメラを用いて得られるライトフィールドデータの例を示す図である。 一実施形態に係る、図4のライトフィールドデータに関連付けられる光線のグループ化を示す図である。 図4の例示的な実施形態において与えられているものなど、ライトフィールドデータの一部に関連付けられた2つの光線グループ間に与えられる関係の存在を示す図である。 図4の例示的な実施形態において与えられているものなど、ライトフィールドデータの一部に関連付けられた2つの光線グループ間に与えられる関係の存在を示す図である。 図4または図5に示される実施形態によるライトフィールドデータの処理を示すフローチャートである。 本原理の一実施形態に係る、図9に示される処理フローチャートなどとともに用いられるテレコミュニケーションデバイスを示す例示的なデバイスのブロック図である。
5.実施形態の詳細な説明
次に、図面を参照しながら本主題を説明する。全体を通じて、同様の要素を指すために同様の参照符号が用いられている。以下の説明では、説明の目的上、本主題の完全な理解を与えるために多くの特定の細部が説明される。しかし、本主題の実施形態は、これらの特定の細部を有することなく実施し得ることが明らかになり得る。
図1は、一実施形態に係る例示的なライトフィールド取得デバイスのブロック図である。図1は、レンズユニット101(光学的構造体(optical assembly)に対応する)およびカメラ本体102を有するプレノプティックカメラ1を示す。
レンズユニット101は、カメラ本体102に結合されるように有利に構成されている。カメラ本体102は光センサアレイ13を備えており、この光センサアレイ13は複数のm個の光センサ131、132、133〜13mを備えている。各光センサは、光センサアレイを用いて取得されたシーンの生画像のピクセルに対応し、各ピクセルは、シーンの1つの部分(点とも呼ばれる)を包含する。各光センサを用いて得られたシーンを表すデータはライトフィールドデータのセットを形成する。ライトフィールドデータは、最終的にライトフィールド画像を形成する。一実施形態によれば、生画像を処理する前(多重分離前および/またはデモザイク化前において)、ライトフィールド画像はまた生画像に対応してもよい。本実施形態では、生画像の多重分離後、ライトフィールド画像は、次にそれがサブアパチャビュー(sub−aperture view)に対応するように与えられてもよい。デモザイク化後、ライトフィールド画像はそれに応じてシーンのビューのセットに対応することになる。図解の目的のために、図示のとおりの光センサアレイ13は、比較的少数の光センサ131〜13mのみを設けている。しかし、代替的な実施形態では、図1の光センサの数は、変更し、増加または減少させることができる。例えば、代替的な一実施形態では、数千個または数百万個の光センサを利用することができる。別の例では、12.4メガピクセルのカメラにおいて、ピクセルを、それが各光センサに対応する(例えば、4088×3040ピクセル/光センサのアレイに対応する)ように設けることができる。一実施形態では、色フィルタアレイ(CFA)12を光センサアレイ13と関連して用いることができる。CFA12は一般的に、光センサアレイ上にRGB(赤色、緑色および青色)の色フィルタを提供し、RGB配列は、本例のためにベイヤーフィルタモザイクの形態を取っている。代替的な一実施形態によれば、CFAが(CFA12に加えて、またはCFA12の代わりに)レンズレットアレイ11上に配列される。レンズユニット101をカメラ本体102に結合させるために、レンズユニット101は第1の取り付け部分を備え、カメラ本体102は第2の取り付け部分を備え、第1および第2の取り付け部分は互いに適合している。第1および第2の取り付け部分により、レンズユニット101はカメラ本体102上にクリップで取り付けられてもよく、またはレンズユニット101はカメラ本体102にねじで取り付けられてもよい。第1および第2の取り付け部分は、レンズユニット101とカメラ本体102とが合体させられると、レンズユニット101およびカメラ本体102が、シーンの取得毎にシーンの複数のビューを取得するように構成されたプレノプティックカメラを形成するように構成されている。この目的を達成するために、カメラ本体102はまた、n個のマイクロレンズ111、112、113、11nから成るレンズレットアレイ11を備えており、nは2以上の整数である。レンズレットアレイ11はマイクロレンズアレイとも呼ばれる。説明の目的のために、レンズレットアレイ11は、比較的少数のマイクロレンズを有するように示されているが、マイクロレンズの数は、数千個またはさらには百万個もしくは数百万個のマイクロレンズにまで及んでもよい。光センサアレイ13の光センサのグループは、レンズレットアレイ11の各マイクロレンズ111〜11nに光学的に関連付けられている。例えば、レンズレットアレイ11の各マイクロレンズ111〜11nは、2×1、4×4または10×10個の光センサのアレイに対応するようにサイズが設定されている。マイクロレンズに関連付けられた光センサのグループ(または換言すれば、マイクロレンズの配下の光センサのグループ)は、このマイクロレンズに関連付けられたマイクロ画像を形成し、光センサのグループの各光センサはマイクロ画像のピクセルを形成している。1つの単一のマイクロレンズに光学的に関連付けられた複数の光センサのうちの各光センサによって、1つの位置に係るシーンのピクセルを表す生データを取得すること(ピクセルと同数の視差の取得)が可能になる。異なる実施形態によれば、レンズユニット101およびカメラ本体102は、集合的に1つの単一の本体を形成し、着脱不可能であるように組み立てられる。
レンズユニット101は、メインレンズまたは1次レンズとも呼ばれる、カメラレンズ10を備えており、このカメラレンズ10は、1つ以上のレンズ要素で有利に形成される。分かりやすくする目的のために、図1には1つのレンズ要素10のみが示されている。
プレノプティックカメラ1は、レンズレットアレイ11と光センサアレイ13との間の距離がマイクロレンズの焦点距離と等しいプレノプティックカメラに相当するタイプ1.0であっても、またはそうでないタイプ2.0(フォーカストプレノプティックカメラ(focused plenoptic camera)とも呼ばれる)であっても、同様である。
図2Aおよび図2Bは、ライトフィールド取得デバイスの他の実施例を提供する。より具体的には、図2Aおよび図2Bは各々、本原理の2つの特定の実施形態に係る、カメラアレイ2A、2B(マルチカメラアレイとも呼ばれる)を示す。
カメラアレイ2Aは、符号20により参照される、レンズまたはマイクロレンズのアレイと、符号21により参照される、1つまたはいくつかのセンサアレイとを備え、レンズまたはマイクロレンズのアレイは、pをマイクロレンズの数に対応する整数として、符号201、202〜20pにより参照されるいくつかのマイクロレンズを備える。カメラアレイ2Aはメインレンズを有しない。レンズのアレイ20は、一般にマイクロレンズアレイという名称の、小さいデバイスであってもよい。単一のセンサを有するカメラアレイは、メインレンズが無限焦点を有するプレノプティックカメラの特別な場合と考え得ることは注目に値する。光センサの数がマイクロレンズの数に等しい、すなわち、1つの光センサが1つのマイクロレンズに光学的に関連付けられている特定の配列によれば、カメラアレイ20は、例えば、(図2Aに示されるような)正方形配列または五の目形配列など、互いに接近して離間された、いくつかの個々のカメラ(例えば、マイクロカメラ)の配列と見なされてもよい。
カメラアレイ2Bは、レンズおよび光センサアレイを各々備える個々のカメラのリグに対応する。カメラは、例えば、数センチメートル以下、例えば、5、7または10cmに等しい距離で互いに離間されている。
このようなカメラアレイ2Aまたは2Bを用いて得られた(いわゆるライトフィールド画像を形成する)ライトフィールドデータは、シーンの複数のビュー、すなわち、図1のプレノプティックカメラなどのプレノプティックカメラを用いて得られた生画像の多重分離およびデモザイク化によって得られた最終ビューに対応する。カメラアレイのカメラは任意の周知の方法に従って校正される。すなわち、カメラの内部パラメータおよび外部パラメータは既知である。
図3は、ライトフィールドデータを処理する装置3の一実施例を示す概略ブロック図を示す。ライトフィールドデータは、例えば、図1または図2A、図2Bのライトフィールド取得デバイスから受信される。別の実施例によれば、ライトフィールドデータは、ライトフィールドデータが記憶された記憶デバイスから受信される。
装置3は、バス36によって接続されたプロセッサ31、記憶ユニット32、入力デバイス33、表示デバイス34、およびインターフェースユニット35を含む。当然のことながら、コンピュータ装置3の構成要素は、バス36を用いたバス接続以外の接続によって接続されてもよい。
プロセッサ31は装置3の動作を制御する。記憶ユニット32は、プロセッサ31によって実行されるべき少なくとも1つのプログラム、およびライトフィールドカメラによって捕捉され、与えられた4Dライトフィールド画像のデータ(ライトフィールドデータ)、プロセッサ31によって遂行される計算によって用いられるパラメータ、プロセッサ31によって遂行される計算の中間データなどを含む、様々なデータを記憶する。プロセッサ31は、任意の周知の好適なハードウェアもしくはソフトウェア、またはハードウェアとソフトウェアとの組み合わせによって形成され得る。例えば、プロセッサ31は、処理回路などの専用ハードウェアによって形成されるか、または中央処理装置(CPU)および/もしくはグラフィック処理ユニット(GPU)などのプログラム可能処理ユニットであって、そのメモリ内に記憶されたプログラムを実行する、プログラム可能処理ユニットによって形成されてもよい。
記憶ユニット32は、プログラム、データ、または同様のものをコンピュータ読み取り可能な方法で記憶する能力を有する任意の好適な記憶装置または手段によって形成され得る。記憶ユニット32の例としては、半導体メモリデバイス、ならびに読み出しおよび書き込みユニット内に挿入される磁気、光学、または磁気光学記録媒体などの非一時的コンピュータ可読記憶媒体が挙げられる。プログラムは、プロセッサ31に、ライトフィールドデータを、以下で図9を参照して説明されているとおりの本開示の一実施形態に従って処理する(例えば、それを編集またはセグメント化する)プロセスを遂行させる。
入力デバイス33は、ユーザが、シーン内の関心のあるオブジェクトのユーザの選択を行うためにコマンドを入力するために使用するキーボード、マウスなどのポインティングデバイスまたは同様のものによって形成されてもよい。出力デバイス34は、例えば、グラフィカルユーザインターフェース(GUI)、焦点スタックの画像、または深度マップ画像を表示する表示デバイスによって形成されてもよい。入力デバイス33および出力デバイス34は、例えば、タッチスクリーンパネルによって一体的に形成されてもよい。
インターフェースユニット35は、装置3と外部装置との間のインターフェースを提供する。インターフェースユニット35は、ケーブルまたは無線通信を介して外部装置と通信可能であってもよい。本実施形態では、外部装置は、ライトフィールド取得デバイス、例えばライトフィールドカメラであってもよい。この場合、ライトフィールド取得デバイスによって捕捉された4Dライトフィールド画像のデータは、インターフェースユニット35を通じてライトフィールド取得デバイスから装置3へ入力され得、その後、記憶ユニット32内に記憶される。
本実施形態では、装置3は、一実施形態においてケーブルまたは無線通信を介して互いに通信することができる、ライトフィールド取得デバイスから独立しているように例示的に説明されている。一実施形態では、装置3は、ライトフィールド取得デバイスと一体化されていてもよい。
図3には1つのプロセッサ31のみが示されているが、このようなプロセッサは、本開示の実施形態に係る装置3によって実行される機能を組み込んだ、以下のものなどの異なるモジュールおよびユニットを含み得ることが理解されなければならない:
− ライトフィールドデータをセグメント化する、すなわち、ライトフィールドデータの要素を、それらが表すシーンのオブジェクトに従ってグループ化するモジュール;
− シーン内の関心のあるオブジェクトを識別するモジュール;
− 関心のあるオブジェクトの深度を推定するモジュール;
− 関心のある各オブジェクトに関連付けられるべき焦点画像の数を決定するモジュール;
− ライトフィールドデータセットから、またはライトフィールドデータセットから生成されたビューのマトリックスから深度を算出する深度計算モジュール;
− 算出された深度からシーン内の関心のあるオブジェクトの位置を計算する計算ユニット。
代替的な実施形態では、これに応じて、モジュールおよびユニットは、互いに通信および協働するいくつかのプロセッサ31内に組み込まれていることができる。
図4は、本原理の一実施形態に係る、ライトフィールドカメラ1または2を用いて得られるライトフィールドデータ4の第1の実施例を示す。図4の実施例では、ライトフィールドデータは、図示のように、4行および4列のマトリックス4によって表現されるビュー400〜403、410〜413、420〜423および430〜433の集合によって表現される。各ビューのための各参照符号の2つの最後の桁は、ビューに関連付けられた対応する行および列を指示する。例えば、符号400により参照されるビューは、0を標識として有する1番目の行および0を標識として有する1番目の列に属し、符号421が付されたビューは、2を標識として有する3番目の行および1を標識として有する2番目の列に属する。行は0〜3のインデックスが付けられ、列は0〜3のインデックスが付けられている。
各ビュー400〜403、410〜413、420〜423および430〜433は特定の視点に係るシーンの画像であり、各ビューは異なる視点に関連付けられている。各ビューは、複数のピクセル、例えば、N行×M列のピクセル(要素とも呼ばれる)を含み、各ピクセル/要素は、例えば、RGB色情報またはCMY(シアン、マゼンタおよび黄色)色情報に関連付けられた色情報を有する。
ビューは、例えば、ライトフィールドカメラ2から直接得られ、1個のビューがレンズのアレイ20の1つのレンズを通して直接取得されるか、またはビューは、ライトフィールドカメラ1を用いて取得された生画像を処理することによって、すなわち、生画像を、(非特許文献1に記載されているように)多重分離し、(非特許文献2に記載されているように)デモザイク化することによって取得される。デモザイク化により、フルカラー生画像を回復すること、すなわち、生画像のピクセルのためのフルカラー情報(例えば、RGB情報)を回復することができる。その一方で、プレノプティック画像を用いて取得された生画像は1つの色成分(例えば、R、GまたはB)のみを各ピクセルに関連付ける。多重分離は、生画像特定の入射角度によって光線を捕捉する全てのピクセルが、いわゆるサブアパチャ画像を作り出す同じ画像内に記憶されるように、生画像のピクセルを再編成することに依拠する。各サブアパチャ画像は、異なる角度の下におけるシーンの投影像である。サブアパチャ画像のセットは、中心画像が光センサアレイと垂直な光線を捕捉するピクセルを記憶する、ブロックマトリックスを作り出す。
ビューの数は16個に限定されず、したがって、代替的な実施形態では、4個のビュー、10個のビュー、100個のビューまたはn個のビューなどの任意の整数に及ぶことができる。ビューの配列は長方形マトリックス配列にも限定されず、円形マトリックス配列、五の目形マトリックス配列またはその他のものなどの任意の幾何形状のものとすることができる。
ライトフィールドデータは複数の要素(またはピクセル)を含む。各要素は4次元座標(すなわち、要素が属するビューを識別する2つの座標、および、2つの他の座標は、それが表現するビュー内の要素のロケーションを識別するように与えられる)を用いて表現される。例えば、ライトフィールドデータの要素‘i’は4つの座標(s,t,x,y)によって表現される。sおよびtは、要素‘i’が属するビューのインデックスに対応する(例えば、sはビューの行標識に対応し、tはビューのマトリックス内のビューの列標識に対応する)。xおよびyは、例えば、ビュー(s,t)内の要素‘i’の行標識および列標識に対応し、0≦x≦N−1および0≦y≦M−1である。
光線rが要素‘i’に関連付けられてもよい。光線rは要素‘i’の4次元座標(s,t,x,y)を用いて表現される。ライトフィールドデータは、座標(s,t)を第1の平面のためのものとし、座標(x,y)を第2の平面のためのものとする2平面パラメータ化を用いて、光線(ライトフィールドデータの1つの要素につき1つの光線)のセットによって表現される。第1の平面および第2の平面は、基底ベクトルが平行であり、かつ原点が第1の平面および第2の平面の両方と直交する線上にあるという意味で適合した2D座標系を備える。
図5は、一実施形態に係る、ライトフィールドカメラ1に用いるために得られるライトフィールドデータ5の第2の実施例を示す。図5の実施例では、ライトフィールドデータ5は、図1上に示されるものなどのプレノプティックカメラを用いて取得された生画像に対応し得るピクセル(ライトフィールドデータ要素とも呼ばれる)のマトリックスである。マイクロレンズアレイのマイクロレンズは要素のセットに各々関連付けられ、マイクロ画像51〜58のセットを形成する。各マイクロ画像は、例えば赤色、緑色または青色の色情報に関連付けられた色情報を有する複数の要素を含む。
当然のことながら、マイクロレンズの数(または同等にマイクロ画像の数)は8個に限定されず、任意の整数、例えば4個、10個、100個のマイクロレンズまたはそれを超える数に及ぶ。マイクロレンズの配列は五の目形マトリックス配列に限定されず、任意の配列、例えば、長方形マトリックス配列に及ぶ。
ライトフィールドデータは複数の要素(またはピクセル)を含む。各要素は4次元座標、すなわち、要素が関連付けられている(それぞれ属する)マイクロレンズ(またはマイクロ画像)を識別する2つの座標、および、それが属するマイクロ画像内の要素のロケーションを識別する2つの他の座標、を用いて表現される。例えば、ライトフィールドデータの要素‘i’は4つの座標(s,t,x,y)によって表現される。sおよびtは、要素‘i’が属するマイクロ画像のインデックス(すなわち、マイクロ画像の配列内のマイクロ画像のロケーション)に対応する(例えば、sはマイクロ画像/マイクロレンズの行標識に対応し、tはマイクロ画像/マイクロレンズのマトリックス内のマイクロ画像/マイクロレンズの列標識に対応する)。xおよびyは、例えば、マイクロ画像(s,t)内の要素‘i’の行標識および列標識に対応する。xおよびyは、例えば、マイクロ画像の中心に対して表される。
光線rが要素‘i’に関連付けられてもよい。光線rは要素‘i’の4次元座標(s,t,x,y)を用いて表現される。ライトフィールドデータは、座標(s,t)を第1の平面のためのものとし、座標(x,y)を第2の平面のためのものとする2平面パラメータ化を用いて、光線(ライトフィールドデータの1つの要素につき1つの光線)のセットによって表現されてもよい。第1の平面および第2の平面は、基底ベクトルが平行であり、かつ原点が第1の平面および第2の平面の両方と直交する線上にあるという意味で適合した2D座標系を備える。
図6は、一実施形態に係る、ライトフィールドデータ4に関連付けられる光線のグループ化を示す。図6は、第1の光線グループ600(光線束とも呼ばれる)を示す。第1のグループ600の各光線の起点はシーンの同じ3D点60であり、各光線はライトフィールドデータの要素、すなわち、要素61〜68に関連付けられる。要素61、62、63、64、65、66、67および68はビュー400、401、402、410、411、412、420および421内にそれぞれ含まれる。要素61〜68は全て、シーンの同じ点60を参照するので、対応要素と呼ばれる。
ライトフィールドデータ4の所与の要素‘i’に関連付けられた光線rの起点は、前記所与の要素に関連付けられた深度値の形式で表された、深度情報D(r)(D(s,t,x,y)とも表される)を用いることによって決定される。光線は、要素‘i’に関連付けられた4次元座標(s,t,x,y)を用いて定義される。光線rの起点は、要素‘i’から出発し、光線rに沿って進行することによって、D(r)に対応する距離上で得られる。光線rの起点は、光線rに属し、光線rに沿って要素‘i’から距離D(r)に位置するシーンの点に対応する。
光線グループは、例えば、座標s,tの参照ビュー(例えば、行インデックス0および列インデックス0を有するビュー400)内の座標x,yを有する1つの要素61を取ることによって得られる。要素61は、要素61の投影像に対応する他のビュー内の要素を見つけるために、他のビュー内に投影される。例えば、ビュー400の要素61の投影像は、ビュー401内の要素62、ビュー402内の要素63、ビュー410内の要素64、ビュー411内の要素65、ビュー412内の要素66、ビュー420内の要素67、およびビュー421内の要素68である。他のビュー内の要素61の投影像は、例えば、(例えば、ピクセルの数で表される)視差値の形式で表された要素61に関連付けられた深度情報を用いることによって得られる。例えば、要素62(ビュー401内の要素61の投影像に対応する)が、座標(s,t,x,y)、関連付けられた光線rおよび関連付けられた深度情報D(r)(D(s,t,x,y)とも表される)を有する場合、光線rおよびrは、以下:
+(s−s)×D(s,t,x,y)−x≦E1、かつ
+(t−t)×D(s,t,x,y)−y≦E2
の場合に、同じグループに属すると見なされる。ここで、E1およびE2は、例えば、投影要素を決定する際の不正確性を考慮する決定値(例えば、閾値)である。E1およびE2は同じ値または異なる値であってもよく、例えば、0に近い値、例えば、0.01、0.02または0.5に等しくてもよい。
一変形形態によれば、
+(s−s)×D(s,t,x,y)−x≦E1、かつ
+(t−t)×D(s,t,x,y)−y≦E2
であるかどうかが、光線rおよびrを同じグループに割り当てる前にさらにチェックされる。この第2のチェックにより、要素62も要素61上に投影することをチェックすることができる。そうでない場合、それは、オクルージョン(occlusion)が検出されたことを意味し、それはまた、2つの一貫しない深度値が同じ光線グループに誤って割り当てられることを防止する。
代替的な一実施形態によれば、E1=E2=0である場合、光線rおよびrは、以下:
+(s−s)×D(s,t,x,y)−x=0、かつ
+(t−t)×D(s,t,x,y)−y=0、
および/または
+(s−s)×D(s,t,x,y)−x=0、かつ
+(t−t)×D(s,t,x,y)−y=0
の場合に、同じグループに属すると見なされる。
要素61の投影要素に関連付けられた全ての光線が同じ第1の光線グループに属するかどうか、すなわち、シーンの同じ点に対応するかどうかをチェックするために、要素61の投影要素ごとに同じ操作が遂行される。
参照ビュー(例えば、ビュー400)の要素が1つずつ考慮され、上述された操作が要素ごとに遂行され、異なる光線グループを生成する。参照ビューのそれぞれの全ての要素が処理されると、他のビューの残りの要素(すなわち、関連付けられた光線が光線グループに割り当てられていない要素)を1つずつ処理して、ライトフィールドデータの全ての要素を試験してもよい。
別の実施形態では、代替的に、他のビュー内の要素61の投影像は、シーン内の要素61の投影像を(ビュー400を取得するために用いられているカメラの内部パラメータおよび外部パラメータ、ならびに要素61に関連付けられた深度値を用いて)決定し、その後、要素61の投影像に対応するシーンの点が、(他のビューを取得するために用いられているカメラの内部パラメータおよび外部パラメータを用いることにより)他のビューの1つ1つの内部へ再投影されることによって得られる。潜在するオクルージョンをチェックするめに、カメラの内部パラメータおよび外部パラメータ、ならびに投影要素に関連付けられた深度情報を用いることによって、要素61の投影像に対応する要素が要素61上に投影するかどうかもチェックされる。
さらに別の実施形態によれば、ライトフィールドデータの要素に関連付けられたアレイの起点が、シーンの空間内におけるそれらの3次元座標に従って分類される。決められた数の3D点のクラスタが得られる。各クラスタは光線グループに対応する。
いずれのグループにも割り当てられない光線は、単一の光線の起点である(またはライトフィールドデータの単一の要素に関連付けられている)シーンの点に各々対応するので、自由光線と呼ばれる。
図7および図8は、一実施形態に係る、2つの光線グループ間の関係を示す。図7は、特に、ライトフィールドデータ4の部分7、例えば、4つの左上のビュー400、401、410および411、ならびに関連付けられた要素を示す。要素61、62、64および65、ならびに関連付けられた光線601、602、603および604はそれぞれ、シーンの同じ3D点60に関連付けられている。光線601〜604は、図6に関して説明された第1のグループ600の一部であり、破線で示されている。ビュー400、401および410にそれぞれ属する要素71、72および73は光線701、702および703にそれぞれ関連付けられ、シーンの同じ3D点70を参照する。光線701、702および703は、第2の光線グループまたはその一部を形成し、実線で示されている。
一実施形態では、グループ同士が近傍であるときに、2つの異なるグループ間の関係が決定される。2つの異なるグループは、それらが互いの要素の近傍内に少なくとも1つの要素を有するときに、近傍であると見なされる。第1のグループの光線、例えば、光線601を考慮すると、第1のグループの考慮されている光線61に関連付けられた要素61に関連付けられた要素の近傍内に位置する第2のグループの光線に関連付けられた要素が存在するかどうかが探索される。
図8は、要素61の近傍を示す一実施形態である。図8には、黒いセルで示されたライトフィールド要素61を含むビュー400が示されている。要素81〜88は、それらが同じビュー400に対応し、要素61に隣接しているため、要素61の近傍内に属するように定義される。代替的な一実施形態では、要素81〜88の一部のみ、この場合、特に、要素82、84、86および88(すなわち、要素61と同じ行または同じ列に属し、要素61に隣接した要素)が要素61の近傍内に属すると見なされる。さらに別の実施形態によれば、要素61の近傍は、要素81〜88および要素81〜88に隣接した要素を含むことができる。要素71は要素61のものと同じビュー400に属し、その要素の近傍内に同様に属する第2のグループの光線701に関連付けられている。その結果、第1の光線グループおよび第2の光線グループは近傍同士であると見なされ、それらの間に関係が確立される。その目的を達成するために、第1のグループの各光線について、要素を、第1のグループの各光線に関連付けられた要素の近傍内に位置する第2のグループの光線に関連付ける関係が確立される。図7の実施例によれば、要素71、72および73は第2のグループの光線701、702および703にそれぞれ関連付けられている。これらは、今度はそれぞれ、第1のグループの光線601、602および603に関連付けられた要素61、62および64の近傍内にある。図7の実施例では、第1のグループの光線604に関連付けられた要素65は、第2のグループの光線に関連付けられたいかなる要素もその近傍内に有しない。第1の光線グループと第2の光線グループとの間の関係は、第1のグループの各光線と、第1のグループの各光線の近傍内に位置する第2のグループの光線との差を算出し、それらの算出された差を全て合計することによって確立される。
第1のグループおよび第2のグループの近傍光線の差は、近傍光線に関連付けられた要素間に存在する色差情報に従って決定される。例えば、光線601および701の差は要素61および要素71の色情報の差に対応し、光線602および702の差は要素62および要素72の色情報の差に対応し、光線603および703の差は要素64および要素73の色情報の差に対応する。一変形形態によれば、差は、第1および第2のグループの近傍光線の近傍要素に関連付けられた深度情報に従って決定される。一変形形態によれば、差は、色情報の差および深度情報の差を考慮に入れることによって決定される。
一実施形態によれば、決定された光線グループと、決定された光線グループの近傍内に位置する自由光線との間の関係がさらに確立される。すなわち、自由光線が、決定された光線グループの光線のうちの1つの近傍内にある場合に確立される。一変形形態によれば、任意の光線グループと、光線グループの近傍内に位置する任意の自由光線との間の関係が確立される。
光線を複数のグループにグループ化し、異なる光線グループ間および異なる光線グループと自由光線との間の関係を確立することで、ライトフィールドの各要素を個々に考慮してライトフィールドデータが表現される場合に必要とされるデータ量よりも少ない量のデータを有する、ライトフィールドの単純化された(例えば、グラフの形式の)表現を得ることが可能になる。
図9は、一実施形態による、例えば、ライトフィールドデータ4または5に対応するライトフィールドデータ91を処理するフローチャートを示す。本実施形態では、ライトフィールドデータは、ライトフィールド取得デバイスから、記憶デバイスから、または遠隔に配置されたサーバから、例えば、インターネットを介して受信される。ライトフィールドデータは、例えば、要素(またはピクセル)のマトリックスの形式で配列された複数のライトフィールド要素を含む。
ステップ92において、光線をライトフィールドデータ91の要素に関連付ける。光線は、ライトフィールドデータの要素の4次元座標を用いることによって得られる。このとき、ライトフィールドデータは、2平面パラメータ化を用いて光線のセット(ライトフィールドデータの1つの要素につき1つの光線)によって表現されてもよい。ライトフィールドの所与の要素に関連付けられた4次元座標は、例えば、所与の要素が属するビューまたはマイクロレンズを識別するために用いられる2つのインデックス、およびビュー/マイクロレンズ内の所与の要素のロケーションを識別する2つの座標に対応する。一変形形態によれば、4次元座標は、(ライトフィールドデータに対応する)要素のマトリックス内の所与の要素の位置を特定する2つの座標および2つの角度座標を含む。
ステップ93において、ライトフィールドデータの要素に関連付けられた深度情報を決定する。深度情報は、例えば、深度値(例えば、メートル単位で表される)または視差値(例えば、ピクセル数で表される)に対応する。深度情報は、例えば、非特許文献3、または非特許文献4、または非特許文献5、または非特許文献6に記載されているとおりに決定される。
ステップ94において、各光線の起点を決定する。起点は、ライトフィールドデータによって表現されたシーンの3D点に対応する。ライトフィールドデータの要素から出発し、この要素に関連付けられた深度情報が分かっていると、光線の起点は、光線上において、光線に沿って、要素に関連付けられた深度に対応する距離に位置するシーンの3D点に対応する。換言すれば、所与の要素から光線が追跡され、起点は、所与の要素に関連付けられた光線に沿って、所与の要素に関連付けられた深度に対応する距離にある、光線とシーンとの交点になる。同じ操作がライトフィールドデータ91の一部または全体の要素ごとに遂行される。
ステップ94において、ライトフィールドデータ91の要素に関連付けられた光線をグループ化する。シーンにおいて同じ起点を有する光線は、同じグループに属する。2平面パラメータ化を用いてパラメータ化されたライトフィールドを所与として、rを、その4−D座標(s,t,x,y)によって表現された光線とする。そのローカル深度測定値を、座標(s,t)の1個のビューから、隣接したビュー(s+δ,t+δ)へのピクセルシフトを表現するD(r)として表す。ここで、δは小さい。光線グループ(光線束とも呼ばれる)bは、それらの深度測定値D(r)に従い、同じ3Dシーン点を記述する全ての光線のセットとして定義される。形式的には,x+(s−s)×D(s,s,x,y)=x(かつt−y方向についても同様)、またはx+(s−s)×D(s,s,x,y)−x≦ε1の場合にのみ、2つの光線rおよびrは同じグループに属する。ここで、ε1は、0に近いか、または0に等しい決定値に対応する。
代替的な一実施形態では、2つの光線を同じ光線グループに割り当てる前に、同じ等式x+(s−s)×D(s,y,x,y)=x(またはx+(s−s)×D(s,y,x,y)−x≦ε1)が逆方向に成立するかどうかをチェックする。等式が逆方向に成立しないときには、オクルージョンを検出することができるため、このチェックはオクルージョンの検出を可能にする。光線のグループ化の操作の終了時に、光線がいずれの光線グループにも割り当てられていなければ、光線は自由と呼ばれる。各光線グループは、例えば、一意の識別子を用いて識別され、各自由光線も一意の識別子を用いて識別される。
ステップ95において、光線グループに関する情報、および/または自由光線(自由光線は、1つの単一の光線を含むグループと見なされてもよい)に関する情報を用いることによって、ライトフィールドデータを処理する。処理は、例えば、(自由光線に対応する)オクルージョンの検出に対応してもよい。
代替的な一実施形態によれば、処理はライトフィールドデータのセグメント化に対応してもよい。セグメント化のその目的を達成するために、光線グループと自由光線との間の関係を決定してもよい。セットRを、全ての自由光線を包含するものと定義し、スーパーセットBを、光線の全てのグループを包含するものと定義する。この条件において、LFが全ての光線のセット(すなわち、ライトフィールド)を表す場合、それらが自由であるか否かにかかわらず、このとき、LF=R∪Bである。自由光線と光線束との間の近傍関係を定義するために、N(r)を、各ビュー上のrの4連結近傍
・座標(s,t,x−1,y)のr
・座標(s,t,x+1,y)のr
・座標(s,t,x,y−1)のr
・座標(s,t,x,y+1)のr
を有する光線{r,r,r,r}のセットとする。
1つの自由光線rは、bの1つの光線要素がrの近傍にある場合にのみ、光線束bの近傍である(すなわち、r∈N(b)⇔b∩N(r)≠φ)。同様に、2つの光線グループbおよびbは、それらが互いの要素の近傍内に少なくとも1つの要素を有する場合に近傍である(すなわち、b∈N(b)⇔∃r∈b|r∈N(b))。グラフG={V,E}は、グラフの各頂点がRおよびBの1つの要素に対応するように構築されてもよく(表記V=B∪Rの濫用)、辺は、2つの光線、2つのグループ間、および光線およびグループ間の近傍関係によって定義される(E=(r,r)|r∈N(r)∪(b,r)|r∈N(b)∪(b_i,b_j)|b∈N(b))。このようなアプローチは、例えば、ランダムマルコフ場(RMF)アルゴリズムの入力におけるデータ量を大幅に低減することができる。実際に、最大フローを用いた周知のグラフカットアルゴリズムを用いると、典型的な解決の複雑さはO(f|E|)またはO(|V||E|)である。ここで、fは最大フローであり、|V|、|E|は頂点および辺の数である。自由光線の決定は、オクルージョンに関連する問題を回避し、深度マップ内のアーチファクトを回避する。
頂点(すなわち、光線および自由光線のグループ)ならびに辺(頂点のグループおよび自由光線の間の関係)によるライトフィールドデータの表現の1つの可能な利用法は、グラフカットを用いた画像マルチラベルセグメント化である。Lが、各自由光線および光線グループにラベルαを付与するラベル付け関数に対応する場合、最小化されるよう求められるエネルギーは、形式:
Figure 0006847718

のものであり、ここで、Uはデータ項を表し、Pは平滑化項を表す。従来の非反復的グラフカットの場合のように、mは、近傍自由光線または光線グループ間のラベル一貫性をより強化する、ユーザによって調整される係数である。自由光線および色グループのためのデータ項は、例えば、混合ガウスモデル(GMM)を用いて定義されてもよい。ライトフィールドを所与として、スクリブル(scribble)画像がユーザ対話によって得られる。ユーザは、セグメント化しようとするオブジェクトの上に異なる色を与える。従来のグラフカットの場合のように、スクリブルは各オブジェクトの異なる色の異なる部分を覆う必要がある。光線の色はL(r)と表され、光線グループの色は、それが含む光線の平均である。
Figure 0006847718

Sを、編集のために用いられる座標(s,t)のビューと同じサイズのスクリブル画像と呼ぶ。スクリブルの下の各要素/ピクセル値は、ラベルコード(1〜スクリブルの数)およびその他の場合0を表現する。
Πが、光線または束が学習GMMおよびその色に従ってオブジェクトαに属する確率を表す場合、ラベルαのための光線r_iのデータ項は、光線色の前方確率の負のログ尤度として定義される。入力スクリブルは、スクリブルの下の自由光線の1変数項を0および∞に設定することにより、厳しい制約条件として用いられる。
Figure 0006847718

同様に、グループ/束データ項を次式のように定義する。
Figure 0006847718

ペアワイズ確率を、従来の色の連続性の場合のように、自由光線の対のためにおよび自由光線と光線グループとの間に定義する。
Figure 0006847718

ここで、σは局所的な色の分散であり、ΔEはCIELab色距離である。光線グループの対のために、互いに近傍にある各束の光線の合計からペアワイズ項を定義する。
Figure 0006847718

次に、例えば、非特許文献7に記載されているとおりのアルファ拡張を用いて、エネルギーを効率的に最小化する。
図10には、例えば、一実施形態では、一実施形態によるライトフィールドカメラを組み込んだスマートフォン、タブレットまたはその他の同様のデバイスなどのモバイルデバイスに相当するテレコミュニケーションデバイス100のハードウェアの一実施形態が概略的に例示されている。
図10によって提供される実施形態には、クロック信号も送る、アドレスおよびデータのバス1004によって互いに接続された、以下の要素を含むテレコミュニケーションデバイス100が示されている:
− マイクロプロセッサ1001(すなわちCPU)、
− ROM(リードオンリーメモリ)タイプの不揮発性メモリ1002、
− ランダムアクセスメモリ、すなわち、RAM1003、
− 無線インターフェース1006、
− データの伝送のために適合されたインターフェース1005、
− 例えば、図1のプレノプティックカメラ1または図2のマルチカメラアレイ2に相当するライトフィールドカメラ1007、
− ユーザに情報を表示する、および/または、データもしくはパラメータを入力するように適合されたマンマシンインターフェース(MMI)1008。
メモリ1002および1003の説明において使用される単語「レジスタ」は、言及されているメモリの各々において、低容量の記憶領域および大容量の記憶領域(プログラム全体の記憶が可能な、または受信された、および復号されたデータを表すデータの全てもしくは一部の記憶が可能な)を意味することに留意されたい。
メモリのROM1002は、特に「prog」プログラムを備えている。
後述される、本開示に固有の方法のステップを実施するアルゴリズムは、これらのステップを実施するテレコミュニケーションデバイス100に関連付けられたメモリであるROM1002に記憶されている。電源が投入されると、マイクロプロセッサ1001が、これらのアルゴリズムの命令をロードして実行する。
ランダムアクセスメモリ1003は、特に以下のものを含む:
− レジスタ内における、テレコミュニケーションデバイス100を起動する役割を果たすマイクロプロセッサ1001のオペレーティングプログラム、
− 受信パラメータ(例えば、変調、符号化、MIMO、フレームの反復のためのパラメータ)、
− 伝送パラメータ(例えば、変調、符号化、MIMO、フレームの反復のためのパラメータ)、
− 受信器1006によって受信されて復号されるデータに対応する入力データ、
− インターフェース1005からアプリケーションに伝送されるように形成された復号データ、
− ライトフィールドカメラのパラメータ、
− 生画像および/またはビューを形成するライトフィールドデータ、
− 光線グループおよび/または自由光線を表すデータ、
− 例えば、深度マップ内に含まれる、深度を表す情報。
図100に関して説明された構成以外のテレコミュニケーションデバイス100のその他の構成も本開示に適合する。特に、変形形態によれば、テレコミュニケーションデバイスは、例えば、専用構成部品(例えば、特定用途向け集積回路(ASIC)、もしくはフィールドプログラマブルゲートアレイ(FPGA)、もしくは超大規模集積回路(VLSI)の形態で、または装置に組み込まれた複数の電子部品の形態で、純粋にハードウェアによる実現に従って実施してもよく、あるいはさらにハードウェア要素とソフトウェア要素との混合の形態で実施してもよい。
無線インターフェース1006およびインターフェース1005は、例えば、IEEE 802.11(Wi-Fi(登録商標))、IMT−2000仕様(3Gとも呼ばれる)、3GPP LTE(4Gとも呼ばれる)、IEEE 802.15.1(Bluetooth(登録商標)とも呼ばれる)などに準拠した規格のような1つまたはいくつかのテレコミュニケーション(電気通信)規格に従う信号の受信および伝送のために適合されている。
代替的な一実施形態では、テレコミュニケーションデバイスはいかなるROMも含まず、RAMのみを含む。図9に関して説明された、本開示に固有の方法のステップを実施するアルゴリズムはRAM内に記憶される。別の変形形態によれば、テレコミュニケーションデバイス100は、ROMおよび/またはRAMの代わりに、ソリッドステートドライブ(SSD)メモリを含む。
当然のことながら、本開示は、上述された実施形態に限定されない。
特に、本開示は、ライトフィールドデータを処理するように構成された装置、またはライトフィールドデータを処理する方法に限定されず、さらにライトフィールドデータの表現を表示する、および/または前景オブジェクトを除去することにより、かつ光線グループに関する情報および/または深度マップ内に記憶された深度情報を用いることにより、シーンもしくはシーンの一部、例えば、シーンの背景部分の1つ以上のビューを再構築する方法/装置、あるいはこのような装置を含むか、またはこのような方法を実施する任意のデバイス、例えばテレコミュニケーションデバイスにも適用される。
テレコミュニケーションデバイスは、例えば、スマートフォン、スマートウォッチ、タブレット、コンピュータ、携帯電話、ポータブル/パーソナルデジタルアシスタント(「PDA」)、シースルーグラス、ヘッドマウントディスプレイ(HMD)、およびエンドユーザ間、さらにまたセットトップボックス間の情報の通信を容易にするその他のデバイスを含む。
本明細書において説明されている深度マップを得る方法は、命令がプロセッサによって遂行されることによって実施されてもよく、このような命令(および/または実施によって生成されたデータ値)は、例えば、集積回路、ソフトウェアキャリア、または例えばハードディスク、コンパクトディスケット(「CD」)、光学ディスク(例えば、デジタル多用途ディスクもしくはデジタルビデオディスクとしばしば呼ばれるDVDなど)、ランダムアクセスメモリ(「RAM」)、またはリードオンリーメモリ(「ROM」)などのその他の記憶デバイスなどのプロセッサ可読媒体上に記憶されてもよい。命令は、プロセッサ可読媒体上に有形に組み込まれたアプリケーションプログラムを形成してもよい。命令は、例えば、ハードウェア、ファームウェア、ソフトウェア、またはこれらの組み合わせの形態のものであってもよい。命令は、例えば、オペレーティングシステム、独立したアプリケーション、または両方の組み合わせ内に存在してもよい。したがって、プロセッサは、例えば、プロセスを実行するように構成されたデバイス、およびプロセスを実行する命令を有するプロセッサ可読媒体(記憶デバイスなど)を含むデバイスの両方として特徴付けられてもよい。さらに、プロセッサ可読媒体は、命令に加えてまたはそれらの代わりに、実施によって生成されたデータ値を記憶してもよい。
当業者には明らかであろうように、実装形態は、例えば、記憶または伝送され得る情報を伝達するようにフォーマットされた種々の信号を生成してもよい。情報は、例えば、方法を遂行する命令、または上述の実装形態のうちの1つによって生成されたデータを含んでもよい。例えば、信号は、上述の実施形態の構文を記述するかもしくは読み取るための規則をデータとして伝達するか、または上述の実施形態によって記述された実際の構文値をデータとして伝達するようにフォーマットされてもよい。このような信号は、例えば、(例えばスペクトルの無線周波数部分を使用する)電磁波として、またはベースバンド信号としてフォーマットされてもよい。フォーマッティングは、例えば、データストリームを符号化し、符号化されたデータストリームを用いて搬送波を変調することを含んでもよい。信号が伝達する情報は、例えば、アナログまたはデジタル情報であってもよい。信号は、周知のように、種々の異なる有線または無線リンクを通じて伝送されてもよい。信号はプロセッサ可読媒体上に記憶されてもよい。
多数の実装形態が説明された。それにもかかわらず、様々な変更形態がなされ得ることが理解されるであろう。例えば、異なる実装形態の要素が、他の実装形態をもたらすために、結合、補足、変更または除去されてもよい。加えて、当業者は、他の構造およびプロセスが、開示されているものの代わりに用いられてもよく、その結果得られる実装形態は、開示されている実装形態と少なくとも実質的に同じ機能を少なくとも実質的に同じ様態で遂行し、少なくとも実質的に同じ結果を達成することを理解するであろう。したがって、これらおよび他の実装形態が本出願によって企図されている。
また、上記実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限定されない。
(付記1)
シーンを表すライトフィールドデータを処理する方法であって、前記ライトフィールドデータが複数の要素を含み、4次元座標が前記複数の要素の各要素に関連付けられ、前記方法は、
光線を各要素に関連付けることであって、前記光線は、各前記要素に関連付けられた前記4次元座標から得られる、関連付けることと、
前記要素毎に深度情報を決定することと、
前記深度情報に従って前記シーン内における各前記光線の起点を決定することと、
前記シーンにおいて同じ起点を有する光線をグループ化して、複数のグループを形成することと、
前記複数のグループのうちのグループの少なくとも1つの対について、前記少なくとも1つの対を形成する第1の光線グループと第2の光線グループとの間の関係を確立することであって、重みが前記関係に関連付けられ、
前記第1のグループの前記光線の少なくとも一部の光線毎に、前記第2のグループの光線が前記第1のグループの前記光線の近傍内に含まれる場合に、前記第2のグループの前記光線と前記第1のグループの前記光線との差を算出し、
前記差を合計することによって前記重みを決定する
ことによって決定される、確立することと、
前記ライトフィールドデータを前記複数のグループおよび前記関係に従って処理することと
を含む、方法。
(付記2)
‘i’により参照され、4次元座標(si,ti,xi,yi)を用いて表現された第1の光線、および‘j’により参照され、4次元座標(sj,tj,xj,yj)を用いて表現された第2の光線は、以下:
xi+(si−sj)×D(si,ti,xi,yi)−xj<E1、かつ
yi+(ti−tj)×D(si,ti,xi,yi)−yj<E2
の場合に、前記複数のグループのうちの同じグループにグループ化され、ここで、D(si,ti,xi,yi)は、前記第1の光線に関連付けられた前記深度情報に対応し、E1は、第1の決定値に対応し、およびE2は、第2の決定値に対応する、付記1に記載の方法。
(付記3)
前記第1の光線および前記第2の光線は、以下の条件:
xj+(sj−si)×D(sj,tj,xj,yj)−xi<E1、かつ
yj+(tj−ti)×D(sj,tj,xj,yj)−yi<E2
がさらに満たされる場合に、前記同じグループにグループ化され、ここで、D(sj,tj,xj,yj)は、前記第2の光線に関連付けられた前記深度情報に対応する、付記2に記載の方法。
(付記4)
少なくとも1つの光線が前記複数のグループのうちのグループに割り当てられない、付記1〜3のいずれかに記載の方法。
(付記5)
前記処理は、前記ライトフィールドデータを前記関係に従ってセグメント化することを含む、付記1に記載の方法。
(付記6)
シーンを表すライトフィールドデータを処理するように適合されたデバイスであって、前記ライトフィールドデータが複数の要素を含み、4次元座標が前記複数の要素の各要素に関連付けられ、前記デバイスは、
光線を各要素に関連付けることであって、前記光線は、前記各要素に関連付けられた前記4次元座標から得られる、関連付けることと、
前記要素毎に深度情報を決定することと、
前記深度情報に従って前記シーン内における各前記光線の起点を決定することと、
前記シーンにおいて同じ起点を有する光線をグループ化して、複数のグループを形成することと、
前記複数のグループのうちのグループの少なくとも1つの対について、前記少なくとも1つの対を形成する第1の光線グループと第2の光線グループとの間の関係を確立することであって、重みが前記関係に関連付けられ、
前記第1のグループの前記光線の少なくとも一部の光線毎に、前記第2のグループの光線が前記第1のグループの前記光線の近傍内に含まれる場合に、前記第2のグループの前記光線と前記第1のグループの前記光線との差を算出し、
前記差を合計することによって前記重みを決定する
ことによって決定される、確立することと、
前記ライトフィールドデータを前記複数のグループおよび前記関係に従って処理することと
を行うように構成された少なくとも1つのプロセッサを含む、デバイス。
(付記7)
前記少なくとも1つのプロセッサは、‘i’により参照され、4次元座標(si,ti,xi,yi)を用いて表現された第1の光線、および‘j’により参照され、4次元座標(sj,tj,xj,yj)を用いて表現された第2の光線を、以下:
xi+(si−sj)×D(si,ti,xi,yi)−xj<E1、かつ
yi+(ti−tj)×D(si,ti,xi,yi)−yj<E2
の場合に、前記複数のグループのうちの同じグループにグループ化するように構成され、ここで、D(si,ti,xi,yi)は、前記第1の光線に関連付けられた前記深度情報に対応し、E1は、第1の決定値に対応し、およびE2は、第2の決定値に対応する、付記6に記載のデバイス。
(付記8)
前記少なくとも1つのプロセッサは、以下の条件:
xj+(sj−si)×D(sj,tj,xj,yj)−xi<E1、かつ
yj+(tj−ti)×D(sj,tj,xj,yj)−yi<E2
がさらに満たされる場合に、前記第1の光線および前記第2の光線を前記同じグループにグループ化するように構成され、ここで、D(sj,tj,xj,yj)は、前記第2の光線に関連付けられた前記深度情報に対応する、付記7に記載のデバイス。
(付記9)
少なくとも1つの光線が前記複数のグループのうちのグループに割り当てられない、付記6〜8のいずれかに記載のデバイス。
(付記10)
前記少なくとも1つのプロセッサは、前記ライトフィールドデータを前記関係に従ってセグメント化するようにさらに構成されている、付記6に記載のデバイス。
(付記11)
ライトフィールド取得デバイスと、請求項6〜10のいずれか一項に記載のデバイスとを含むマルチメディア端末。
(付記12)
プログラムコードの命令であって、プログラムがコンピュータ上で実行されると、付記1〜5のいずれかに記載の方法を実行するプログラムコードの命令を含むコンピュータプログラム製品。
(付記13)
プロセッサ可読媒体であって、プロセッサに、付記1〜5のいずれかに記載の方法の操作を遂行させるための命令をその中に記憶したプロセッサ可読媒体。

Claims (13)

  1. シーンを表すライトフィールドデータを処理する方法であって、前記ライトフィールドデータが複数の要素を含み、4次元座標が前記複数の要素の各要素に関連付けられ、前記方法は、
    光線を各要素に関連付けることであって、前記光線は、各前記要素に関連付けられた前記4次元座標から得られる、関連付けることと、
    前記要素毎に深度情報を決定することと、
    前記深度情報に従って前記シーン内における各前記光線の起点を決定することと、
    前記シーンにおいて同じ起点を有する光線をグループ化して、複数のグループを形成することと、
    前記複数のグループのうちのグループの少なくとも1つの対について、前記少なくとも1つの対を形成する第1の光線グループと第2の光線グループとの間の関係を確立することであって、重みが前記関係に関連付けられ、
    前記第1のグループの前記光線の少なくとも一部の光線毎に、前記第2のグループの光線が前記第1のグループの前記光線の近傍内に含まれる場合に、前記第2のグループの前記光線と前記第1のグループの前記光線との差を算出し、
    前記差を合計することによって前記重みを決定する
    ことによって決定される、確立することと、
    前記ライトフィールドデータを前記複数のグループおよび前記関係に従って処理することと
    を含む、方法。
  2. ‘i’により参照され、4次元座標(s,t,x,y)を用いて表現された第1の光線、および‘j’により参照され、4次元座標(s,t,x,y)を用いて表現された第2の光線は、以下:
    +(s−s)×D(s,t,x,y)−x<E1、かつ
    +(t−t)×D(s,t,x,y)−y<E2
    の場合に、前記複数のグループのうちの同じグループにグループ化され、ここで、D(s,t,x,y)は、前記第1の光線に関連付けられた前記深度情報に対応し、E1は、第1の決定値に対応し、およびE2は、第2の決定値に対応する、請求項1に記載の方法。
  3. 前記第1の光線および前記第2の光線は、以下の条件:
    +(s−s)×D(s,t,x,y)−x<E1、かつ
    +(t−t)×D(s,t,x,y)−y<E2
    がさらに満たされる場合に、前記同じグループにグループ化され、ここで、D(s,t,x,y)は、前記第2の光線に関連付けられた前記深度情報に対応する、請求項2に記載の方法。
  4. 少なくとも1つの光線が前記複数のグループのうちのグループに割り当てられない、請求項1〜3のいずれか一項に記載の方法。
  5. 前記処理は、前記ライトフィールドデータを前記関係に従ってセグメント化することを含む、請求項1に記載の方法。
  6. シーンを表すライトフィールドデータを処理するように適合されたデバイスであって、前記ライトフィールドデータが複数の要素を含み、4次元座標が前記複数の要素の各要素に関連付けられ、前記デバイスは、
    光線を各要素に関連付けることであって、前記光線は、前記各要素に関連付けられた前記4次元座標から得られる、関連付けることと、
    前記要素毎に深度情報を決定することと、
    前記深度情報に従って前記シーン内における各前記光線の起点を決定することと、
    前記シーンにおいて同じ起点を有する光線をグループ化して、複数のグループを形成することと、
    前記複数のグループのうちのグループの少なくとも1つの対について、前記少なくとも1つの対を形成する第1の光線グループと第2の光線グループとの間の関係を確立することであって、重みが前記関係に関連付けられ、
    前記第1のグループの前記光線の少なくとも一部の光線毎に、前記第2のグループの光線が前記第1のグループの前記光線の近傍内に含まれる場合に、前記第2のグループの前記光線と前記第1のグループの前記光線との差を算出し、
    前記差を合計することによって前記重みを決定する
    ことによって決定される、確立することと、
    前記ライトフィールドデータを前記複数のグループおよび前記関係に従って処理することと
    を行うように構成された少なくとも1つのプロセッサを含む、デバイス。
  7. 前記少なくとも1つのプロセッサは、‘i’により参照され、4次元座標(s,t,x,y)を用いて表現された第1の光線、および‘j’により参照され、4次元座標(s,t,x,y)を用いて表現された第2の光線を、以下:
    +(s−s)×D(s,t,x,y)−x<E1、かつ
    +(t−t)×D(s,t,x,y)−y<E2
    の場合に、前記複数のグループのうちの同じグループにグループ化するように構成され、ここで、D(s,t,x,y)は、前記第1の光線に関連付けられた前記深度情報に対応し、E1は、第1の決定値に対応し、およびE2は、第2の決定値に対応する、請求項6に記載のデバイス。
  8. 前記少なくとも1つのプロセッサは、以下の条件:
    +(s−s)×D(s,t,x,y)−x<E1、かつ
    +(t−t)×D(s,t,x,y)−y<E2
    がさらに満たされる場合に、前記第1の光線および前記第2の光線を前記同じグループにグループ化するように構成され、ここで、D(s,t,x,y)は、前記第2の光線に関連付けられた前記深度情報に対応する、請求項7に記載のデバイス。
  9. 少なくとも1つの光線が前記複数のグループのうちのグループに割り当てられない、請求項6〜8のいずれか一項に記載のデバイス。
  10. 前記少なくとも1つのプロセッサは、前記ライトフィールドデータを前記関係に従ってセグメント化するようにさらに構成されている、請求項6に記載のデバイス。
  11. ライトフィールド取得デバイスと、請求項6〜10のいずれか一項に記載のデバイスとを含むマルチメディア端末。
  12. プログラムコードの命令であって、プログラムがコンピュータ上で実行されると、請求項1〜5のいずれか一項に記載の方法を実行するプログラムコードの命令を含むコンピュータプログラム製品。
  13. プロセッサ可読媒体であって、プロセッサに、請求項1〜5のいずれか一項に記載の方法の操作を遂行させるための命令をその中に記憶したプロセッサ可読媒体。
JP2017047117A 2016-03-14 2017-03-13 ライトフィールドデータを処理する方法およびデバイス Active JP6847718B6 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP16305273.1A EP3220351A1 (en) 2016-03-14 2016-03-14 Method and device for processing lightfield data
EP16305273.1 2016-03-14

Publications (4)

Publication Number Publication Date
JP2017182796A JP2017182796A (ja) 2017-10-05
JP2017182796A5 JP2017182796A5 (ja) 2020-04-09
JP6847718B2 JP6847718B2 (ja) 2021-03-24
JP6847718B6 true JP6847718B6 (ja) 2021-05-26

Family

ID=55642383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017047117A Active JP6847718B6 (ja) 2016-03-14 2017-03-13 ライトフィールドデータを処理する方法およびデバイス

Country Status (5)

Country Link
US (1) US10055856B2 (ja)
EP (2) EP3220351A1 (ja)
JP (1) JP6847718B6 (ja)
KR (1) KR102354260B1 (ja)
CN (1) CN107194965B (ja)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10298834B2 (en) 2006-12-01 2019-05-21 Google Llc Video refocusing
US9858649B2 (en) 2015-09-30 2018-01-02 Lytro, Inc. Depth-based image blurring
US10334151B2 (en) 2013-04-22 2019-06-25 Google Llc Phase detection autofocus using subaperture images
US11328446B2 (en) 2015-04-15 2022-05-10 Google Llc Combining light-field data with active depth data for depth map generation
US10565734B2 (en) 2015-04-15 2020-02-18 Google Llc Video capture, processing, calibration, computational fiber artifact removal, and light-field pipeline
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US10440407B2 (en) 2017-05-09 2019-10-08 Google Llc Adaptive control for immersive experience delivery
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US10412373B2 (en) 2015-04-15 2019-09-10 Google Llc Image capture for virtual reality displays
US10419737B2 (en) 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US10275898B1 (en) 2015-04-15 2019-04-30 Google Llc Wedge-based light-field video capture
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US10341632B2 (en) 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
US10469873B2 (en) 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US9979909B2 (en) 2015-07-24 2018-05-22 Lytro, Inc. Automatic lens flare detection and correction for light-field images
US10275892B2 (en) 2016-06-09 2019-04-30 Google Llc Multi-view scene segmentation and propagation
US10679361B2 (en) 2016-12-05 2020-06-09 Google Llc Multi-view rotoscope contour propagation
US9900510B1 (en) * 2016-12-08 2018-02-20 Lytro, Inc. Motion blur for light-field images
US10594945B2 (en) 2017-04-03 2020-03-17 Google Llc Generating dolly zoom effect using light field image data
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
US10354399B2 (en) 2017-05-25 2019-07-16 Google Llc Multi-view back-projection to a light-field
US10545215B2 (en) 2017-09-13 2020-01-28 Google Llc 4D camera tracking and optical stabilization
US10776995B2 (en) * 2017-10-17 2020-09-15 Nvidia Corporation Light fields as better backgrounds in rendering
EP3493155A1 (en) * 2017-12-01 2019-06-05 Thomson Licensing Surface color segmentation
US10965862B2 (en) 2018-01-18 2021-03-30 Google Llc Multi-camera navigation interface
US10678056B2 (en) * 2018-02-26 2020-06-09 Google Llc Augmented reality light field head-mounted displays
WO2020018931A1 (en) 2018-07-19 2020-01-23 Activ Surgical, Inc. Systems and methods for multi-modal sensing of depth in vision systems for automated surgical robots
CN109360235B (zh) * 2018-09-29 2022-07-19 中国航空工业集团公司上海航空测控技术研究所 一种基于光场数据的混合深度估计方法
WO2020210168A1 (en) 2019-04-08 2020-10-15 Activ Surgical, Inc. Systems and methods for medical imaging
WO2021035094A1 (en) 2019-08-21 2021-02-25 Activ Surgical, Inc. Systems and methods for medical imaging
CN116630134A (zh) * 2023-05-23 2023-08-22 北京拙河科技有限公司 一种光场相机图像数据多线程处理方法及装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7129943B2 (en) * 2002-11-15 2006-10-31 Microsoft Corporation System and method for feature-based light field morphing and texture transfer
US20130070222A1 (en) * 2011-09-19 2013-03-21 D2S, Inc. Method and System for Optimization of an Image on a Substrate to be Manufactured Using Optical Lithography
ATE551841T1 (de) * 2009-04-22 2012-04-15 Raytrix Gmbh Digitales bildgebungsverfahren zum synthetisieren eines bildes unter verwendung der mit einer plenoptischen kamera aufgezeichneten daten
KR101675961B1 (ko) * 2010-12-29 2016-11-14 삼성전자주식회사 적응적 부화소 렌더링 장치 및 방법
GB2501936B (en) 2012-05-11 2016-11-30 Canon Kk Micro lens array and imaging apparatus
US9179126B2 (en) * 2012-06-01 2015-11-03 Ostendo Technologies, Inc. Spatio-temporal light field cameras
WO2014052974A2 (en) * 2012-09-28 2014-04-03 Pelican Imaging Corporation Generating images from light fields utilizing virtual viewpoints
CN103108452B (zh) * 2013-01-10 2015-01-21 北京航空航天大学 一种动态光场数据驱动的场景光照重现方法
US9786062B2 (en) * 2013-05-06 2017-10-10 Disney Enterprises, Inc. Scene reconstruction from high spatio-angular resolution light fields
US9460515B2 (en) 2013-10-25 2016-10-04 Ricoh Co., Ltd. Processing of light fields by transforming to scale and depth space
KR20160106045A (ko) * 2013-11-22 2016-09-09 비디노티 에스아 광필드 처리방법
US9305375B2 (en) 2014-03-25 2016-04-05 Lytro, Inc. High-quality post-rendering depth blur
JP2015198336A (ja) * 2014-04-01 2015-11-09 キヤノン株式会社 画像処理装置およびその制御方法、並びにプログラム
CN104156916B (zh) * 2014-07-31 2017-03-29 北京航空航天大学 一种用于场景光照恢复的光场投影方法
CN104598744B (zh) * 2015-01-27 2017-11-21 北京工业大学 一种基于光场的深度估计方法
CN104867129A (zh) 2015-04-16 2015-08-26 东南大学 一种光场图像分割方法

Also Published As

Publication number Publication date
CN107194965A (zh) 2017-09-22
EP3220352A1 (en) 2017-09-20
JP2017182796A (ja) 2017-10-05
KR20170106931A (ko) 2017-09-22
US20170263012A1 (en) 2017-09-14
CN107194965B (zh) 2021-11-09
KR102354260B1 (ko) 2022-01-21
EP3220351A1 (en) 2017-09-20
JP6847718B2 (ja) 2021-03-24
US10055856B2 (en) 2018-08-21
EP3220352B1 (en) 2020-12-02

Similar Documents

Publication Publication Date Title
JP6847718B6 (ja) ライトフィールドデータを処理する方法およびデバイス
CN110036410B (zh) 用于从视图中获得距离信息的设备和方法
CN108921781B (zh) 一种基于深度的光场拼接方法
KR101121034B1 (ko) 복수의 이미지들로부터 카메라 파라미터를 얻기 위한 시스템과 방법 및 이들의 컴퓨터 프로그램 제품
CN105144710B (zh) 用于增加深度相机图像的精度的技术
US10334229B2 (en) Method for obtaining a refocused image from a 4D raw light field data using a shift correction parameter
CN108292431B (zh) 光场数据表示
EP3144894B1 (en) Method and system for calibrating an image acquisition device and corresponding computer program product
EP3247107B1 (en) Method and device for obtaining a hdr image by graph signal processing
US20210314543A1 (en) Imaging system and method
CN115035235A (zh) 三维重建方法及装置
WO2021035627A1 (zh) 获取深度图的方法、装置及计算机存储介质
Liu et al. Two-stream refinement network for RGB-D saliency detection
Chen et al. A learning-based framework for hybrid depth-from-defocus and stereo matching
EP3200151A1 (en) Method and device for obtaining a depth map
US20240127407A1 (en) Image sensor apparatus for capturing depth information
Chen Enhanced processing methods for light field imaging
Guo Combining learning and computational imaging for 3D inference
Akuha Solomon Aondoakaa Depth Estimation from a Single Holoscopic 3D Image and Image Up-sampling with Deep-learning
CN115514877A (zh) 用于从多视角图像降噪的装置和方法
CN117197256A (zh) 一种标定方法、装置及电子设备
CN116112656A (zh) 一种获取点云图的方法
CN113191369A (zh) 一种基于光场角度域变化矩阵的特征点检测方法
Mustaniemi Image fusion algorithm for a multi-aperture camera

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210303

R150 Certificate of patent or registration of utility model

Ref document number: 6847718

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250