JP6847718B6 - ライトフィールドデータを処理する方法およびデバイス - Google Patents
ライトフィールドデータを処理する方法およびデバイス Download PDFInfo
- Publication number
- JP6847718B6 JP6847718B6 JP2017047117A JP2017047117A JP6847718B6 JP 6847718 B6 JP6847718 B6 JP 6847718B6 JP 2017047117 A JP2017047117 A JP 2017047117A JP 2017047117 A JP2017047117 A JP 2017047117A JP 6847718 B6 JP6847718 B6 JP 6847718B6
- Authority
- JP
- Japan
- Prior art keywords
- ray
- group
- light field
- rays
- groups
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 45
- 238000012545 processing Methods 0.000 claims description 30
- 230000008569 process Effects 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 description 27
- 239000011159 matrix material Substances 0.000 description 13
- 230000015654 memory Effects 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/557—Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B3/00—Simple or compound lenses
- G02B3/0006—Arrays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/162—Segmentation; Edge detection involving graph-based methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/305—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/55—Optical parts specially adapted for electronic image sensors; Mounting thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Optics & Photonics (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
本開示は、概して、ライトフィールド(light−field)イメージングに関し、より詳細には、ライトフィールドデータを編集および処理する技法に関する。
本セクションは、以下で説明および/または特許請求される本開示の様々な態様に関連し得る様々な技術態様を読者に案内することを意図されている。本説明は、本発明の様々な態様のよりよい理解を促進する背景情報を読者に提供する一助になると考えられる。したがって、これらの陳述はこの観点から読まれるべきであり、従来技術の承認として読まれるべきではないことを理解されたい。
本開示は、シーンを表すライトフィールドデータを処理する方法であって、ライトフィールドデータが複数の要素を含み、4次元座標が複数の要素の各要素に関連付けられ、本方法は、
− 光線を各要素に関連付けることであって、光線は、各要素に関連付けられた4次元座標から得られる、関連付けることと、
− 要素毎に深度情報を決定することと、
− 深度情報に従ってシーン内における各前記光線の起点を決定することと、
− シーンにおいて同じ起点を有する光線をグループ化して、複数のグループを形成することと、
− ライトフィールドデータを複数のグループに従って処理することと
を含む、方法に関する。
xi+(si−sj)×D(si,ti,xi,yi)−xj<E1、かつ
yi+(ti−tj)×D(si,ti,xi,yi)−yj<E2
の場合に、複数のグループのうちの同じ第1のグループにグループ化され、ここで、D(si,ti,xi,yi)は、第1の光線に関連付けられた深度情報に対応し、E1は、第1の決定値に対応し、およびE2は、第2の決定値に対応する。
xj+(sj−si)×D(sj,tj,xj,yj)−xi<E1、かつ
yj+(tj−ti)×D(sj,tj,xj,yj)−yi<E2
の場合に、同じ第1のグループにグループ化され、ここで、D(sj,tj,xj,yj)は、第2の光線に関連付けられた深度情報に対応する。
− 第2のグループの第4の光線毎に、第3のグループの第3の光線が第4の光線の近傍内に含まれる場合に、第3の光線と前記第4の光線との差を算出し、
− その差を合計することによって重みを決定する
ことによって決定される、確立することをさらに含む。
以下の説明を読むことで、本開示はよりよく理解され、他の特定の特徴および利点が明らかになるであろう。説明は添付の図面を参照する。
次に、図面を参照しながら本主題を説明する。全体を通じて、同様の要素を指すために同様の参照符号が用いられている。以下の説明では、説明の目的上、本主題の完全な理解を与えるために多くの特定の細部が説明される。しかし、本主題の実施形態は、これらの特定の細部を有することなく実施し得ることが明らかになり得る。
− ライトフィールドデータをセグメント化する、すなわち、ライトフィールドデータの要素を、それらが表すシーンのオブジェクトに従ってグループ化するモジュール;
− シーン内の関心のあるオブジェクトを識別するモジュール;
− 関心のあるオブジェクトの深度を推定するモジュール;
− 関心のある各オブジェクトに関連付けられるべき焦点画像の数を決定するモジュール;
− ライトフィールドデータセットから、またはライトフィールドデータセットから生成されたビューのマトリックスから深度を算出する深度計算モジュール;
− 算出された深度からシーン内の関心のあるオブジェクトの位置を計算する計算ユニット。
xi+(si−sj)×D(si,ti,xi,yi)−xj≦E1、かつ
yi+(ti−tj)×D(si,ti,xi,yi)−yj≦E2
の場合に、同じグループに属すると見なされる。ここで、E1およびE2は、例えば、投影要素を決定する際の不正確性を考慮する決定値(例えば、閾値)である。E1およびE2は同じ値または異なる値であってもよく、例えば、0に近い値、例えば、0.01、0.02または0.5に等しくてもよい。
xj+(sj−si)×D(sj,tj,xj,yj)−xi≦E1、かつ
yj+(tj−ti)×D(sj,tj,xj,yj)−yi≦E2
であるかどうかが、光線riおよびrjを同じグループに割り当てる前にさらにチェックされる。この第2のチェックにより、要素62も要素61上に投影することをチェックすることができる。そうでない場合、それは、オクルージョン(occlusion)が検出されたことを意味し、それはまた、2つの一貫しない深度値が同じ光線グループに誤って割り当てられることを防止する。
xi+(si−sj)×D(si,ti,xi,yi)−xj=0、かつ
yi+(ti−tj)×D(si,ti,xi,yi)−yj=0、
および/または
xj+(sj−si)×D(sj,tj,xj,yj)−xi=0、かつ
yj+(tj−ti)×D(sj,tj,xj,yj)−yi=0
の場合に、同じグループに属すると見なされる。
・座標(si,ti,xi−1,yi)のrj
・座標(si,ti,xi+1,yi)のrk
・座標(si,ti,xi,yi−1)のrl
・座標(si,ti,xi,yi+1)のrm
を有する光線{rj,rk,rl,rm}のセットとする。
のものであり、ここで、Uはデータ項を表し、Pは平滑化項を表す。従来の非反復的グラフカットの場合のように、mは、近傍自由光線または光線グループ間のラベル一貫性をより強化する、ユーザによって調整される係数である。自由光線および色グループのためのデータ項は、例えば、混合ガウスモデル(GMM)を用いて定義されてもよい。ライトフィールドを所与として、スクリブル(scribble)画像がユーザ対話によって得られる。ユーザは、セグメント化しようとするオブジェクトの上に異なる色を与える。従来のグラフカットの場合のように、スクリブルは各オブジェクトの異なる色の異なる部分を覆う必要がある。光線の色はLf(ri)と表され、光線グループの色は、それが含む光線の平均である。
Sを、編集のために用いられる座標(s,t)のビューと同じサイズのスクリブル画像と呼ぶ。スクリブルの下の各要素/ピクセル値は、ラベルコード(1〜スクリブルの数)およびその他の場合0を表現する。
同様に、グループ/束データ項を次式のように定義する。
ペアワイズ確率を、従来の色の連続性の場合のように、自由光線の対のためにおよび自由光線と光線グループとの間に定義する。
ここで、σは局所的な色の分散であり、ΔEはCIELab色距離である。光線グループの対のために、互いに近傍にある各束の光線の合計からペアワイズ項を定義する。
次に、例えば、非特許文献7に記載されているとおりのアルファ拡張を用いて、エネルギーを効率的に最小化する。
− マイクロプロセッサ1001(すなわちCPU)、
− ROM(リードオンリーメモリ)タイプの不揮発性メモリ1002、
− ランダムアクセスメモリ、すなわち、RAM1003、
− 無線インターフェース1006、
− データの伝送のために適合されたインターフェース1005、
− 例えば、図1のプレノプティックカメラ1または図2のマルチカメラアレイ2に相当するライトフィールドカメラ1007、
− ユーザに情報を表示する、および/または、データもしくはパラメータを入力するように適合されたマンマシンインターフェース(MMI)1008。
− レジスタ内における、テレコミュニケーションデバイス100を起動する役割を果たすマイクロプロセッサ1001のオペレーティングプログラム、
− 受信パラメータ(例えば、変調、符号化、MIMO、フレームの反復のためのパラメータ)、
− 伝送パラメータ(例えば、変調、符号化、MIMO、フレームの反復のためのパラメータ)、
− 受信器1006によって受信されて復号されるデータに対応する入力データ、
− インターフェース1005からアプリケーションに伝送されるように形成された復号データ、
− ライトフィールドカメラのパラメータ、
− 生画像および/またはビューを形成するライトフィールドデータ、
− 光線グループおよび/または自由光線を表すデータ、
− 例えば、深度マップ内に含まれる、深度を表す情報。
また、上記実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限定されない。
(付記1)
シーンを表すライトフィールドデータを処理する方法であって、前記ライトフィールドデータが複数の要素を含み、4次元座標が前記複数の要素の各要素に関連付けられ、前記方法は、
光線を各要素に関連付けることであって、前記光線は、各前記要素に関連付けられた前記4次元座標から得られる、関連付けることと、
前記要素毎に深度情報を決定することと、
前記深度情報に従って前記シーン内における各前記光線の起点を決定することと、
前記シーンにおいて同じ起点を有する光線をグループ化して、複数のグループを形成することと、
前記複数のグループのうちのグループの少なくとも1つの対について、前記少なくとも1つの対を形成する第1の光線グループと第2の光線グループとの間の関係を確立することであって、重みが前記関係に関連付けられ、
前記第1のグループの前記光線の少なくとも一部の光線毎に、前記第2のグループの光線が前記第1のグループの前記光線の近傍内に含まれる場合に、前記第2のグループの前記光線と前記第1のグループの前記光線との差を算出し、
前記差を合計することによって前記重みを決定する
ことによって決定される、確立することと、
前記ライトフィールドデータを前記複数のグループおよび前記関係に従って処理することと
を含む、方法。
(付記2)
‘i’により参照され、4次元座標(si,ti,xi,yi)を用いて表現された第1の光線、および‘j’により参照され、4次元座標(sj,tj,xj,yj)を用いて表現された第2の光線は、以下:
xi+(si−sj)×D(si,ti,xi,yi)−xj<E1、かつ
yi+(ti−tj)×D(si,ti,xi,yi)−yj<E2
の場合に、前記複数のグループのうちの同じグループにグループ化され、ここで、D(si,ti,xi,yi)は、前記第1の光線に関連付けられた前記深度情報に対応し、E1は、第1の決定値に対応し、およびE2は、第2の決定値に対応する、付記1に記載の方法。
(付記3)
前記第1の光線および前記第2の光線は、以下の条件:
xj+(sj−si)×D(sj,tj,xj,yj)−xi<E1、かつ
yj+(tj−ti)×D(sj,tj,xj,yj)−yi<E2
がさらに満たされる場合に、前記同じグループにグループ化され、ここで、D(sj,tj,xj,yj)は、前記第2の光線に関連付けられた前記深度情報に対応する、付記2に記載の方法。
(付記4)
少なくとも1つの光線が前記複数のグループのうちのグループに割り当てられない、付記1〜3のいずれかに記載の方法。
(付記5)
前記処理は、前記ライトフィールドデータを前記関係に従ってセグメント化することを含む、付記1に記載の方法。
(付記6)
シーンを表すライトフィールドデータを処理するように適合されたデバイスであって、前記ライトフィールドデータが複数の要素を含み、4次元座標が前記複数の要素の各要素に関連付けられ、前記デバイスは、
光線を各要素に関連付けることであって、前記光線は、前記各要素に関連付けられた前記4次元座標から得られる、関連付けることと、
前記要素毎に深度情報を決定することと、
前記深度情報に従って前記シーン内における各前記光線の起点を決定することと、
前記シーンにおいて同じ起点を有する光線をグループ化して、複数のグループを形成することと、
前記複数のグループのうちのグループの少なくとも1つの対について、前記少なくとも1つの対を形成する第1の光線グループと第2の光線グループとの間の関係を確立することであって、重みが前記関係に関連付けられ、
前記第1のグループの前記光線の少なくとも一部の光線毎に、前記第2のグループの光線が前記第1のグループの前記光線の近傍内に含まれる場合に、前記第2のグループの前記光線と前記第1のグループの前記光線との差を算出し、
前記差を合計することによって前記重みを決定する
ことによって決定される、確立することと、
前記ライトフィールドデータを前記複数のグループおよび前記関係に従って処理することと
を行うように構成された少なくとも1つのプロセッサを含む、デバイス。
(付記7)
前記少なくとも1つのプロセッサは、‘i’により参照され、4次元座標(si,ti,xi,yi)を用いて表現された第1の光線、および‘j’により参照され、4次元座標(sj,tj,xj,yj)を用いて表現された第2の光線を、以下:
xi+(si−sj)×D(si,ti,xi,yi)−xj<E1、かつ
yi+(ti−tj)×D(si,ti,xi,yi)−yj<E2
の場合に、前記複数のグループのうちの同じグループにグループ化するように構成され、ここで、D(si,ti,xi,yi)は、前記第1の光線に関連付けられた前記深度情報に対応し、E1は、第1の決定値に対応し、およびE2は、第2の決定値に対応する、付記6に記載のデバイス。
(付記8)
前記少なくとも1つのプロセッサは、以下の条件:
xj+(sj−si)×D(sj,tj,xj,yj)−xi<E1、かつ
yj+(tj−ti)×D(sj,tj,xj,yj)−yi<E2
がさらに満たされる場合に、前記第1の光線および前記第2の光線を前記同じグループにグループ化するように構成され、ここで、D(sj,tj,xj,yj)は、前記第2の光線に関連付けられた前記深度情報に対応する、付記7に記載のデバイス。
(付記9)
少なくとも1つの光線が前記複数のグループのうちのグループに割り当てられない、付記6〜8のいずれかに記載のデバイス。
(付記10)
前記少なくとも1つのプロセッサは、前記ライトフィールドデータを前記関係に従ってセグメント化するようにさらに構成されている、付記6に記載のデバイス。
(付記11)
ライトフィールド取得デバイスと、請求項6〜10のいずれか一項に記載のデバイスとを含むマルチメディア端末。
(付記12)
プログラムコードの命令であって、プログラムがコンピュータ上で実行されると、付記1〜5のいずれかに記載の方法を実行するプログラムコードの命令を含むコンピュータプログラム製品。
(付記13)
プロセッサ可読媒体であって、プロセッサに、付記1〜5のいずれかに記載の方法の操作を遂行させるための命令をその中に記憶したプロセッサ可読媒体。
Claims (13)
- シーンを表すライトフィールドデータを処理する方法であって、前記ライトフィールドデータが複数の要素を含み、4次元座標が前記複数の要素の各要素に関連付けられ、前記方法は、
光線を各要素に関連付けることであって、前記光線は、各前記要素に関連付けられた前記4次元座標から得られる、関連付けることと、
前記要素毎に深度情報を決定することと、
前記深度情報に従って前記シーン内における各前記光線の起点を決定することと、
前記シーンにおいて同じ起点を有する光線をグループ化して、複数のグループを形成することと、
前記複数のグループのうちのグループの少なくとも1つの対について、前記少なくとも1つの対を形成する第1の光線グループと第2の光線グループとの間の関係を確立することであって、重みが前記関係に関連付けられ、
前記第1のグループの前記光線の少なくとも一部の光線毎に、前記第2のグループの光線が前記第1のグループの前記光線の近傍内に含まれる場合に、前記第2のグループの前記光線と前記第1のグループの前記光線との差を算出し、
前記差を合計することによって前記重みを決定する
ことによって決定される、確立することと、
前記ライトフィールドデータを前記複数のグループおよび前記関係に従って処理することと
を含む、方法。 - ‘i’により参照され、4次元座標(si,ti,xi,yi)を用いて表現された第1の光線、および‘j’により参照され、4次元座標(sj,tj,xj,yj)を用いて表現された第2の光線は、以下:
xi+(si−sj)×D(si,ti,xi,yi)−xj<E1、かつ
yi+(ti−tj)×D(si,ti,xi,yi)−yj<E2
の場合に、前記複数のグループのうちの同じグループにグループ化され、ここで、D(si,ti,xi,yi)は、前記第1の光線に関連付けられた前記深度情報に対応し、E1は、第1の決定値に対応し、およびE2は、第2の決定値に対応する、請求項1に記載の方法。 - 前記第1の光線および前記第2の光線は、以下の条件:
xj+(sj−si)×D(sj,tj,xj,yj)−xi<E1、かつ
yj+(tj−ti)×D(sj,tj,xj,yj)−yi<E2
がさらに満たされる場合に、前記同じグループにグループ化され、ここで、D(sj,tj,xj,yj)は、前記第2の光線に関連付けられた前記深度情報に対応する、請求項2に記載の方法。 - 少なくとも1つの光線が前記複数のグループのうちのグループに割り当てられない、請求項1〜3のいずれか一項に記載の方法。
- 前記処理は、前記ライトフィールドデータを前記関係に従ってセグメント化することを含む、請求項1に記載の方法。
- シーンを表すライトフィールドデータを処理するように適合されたデバイスであって、前記ライトフィールドデータが複数の要素を含み、4次元座標が前記複数の要素の各要素に関連付けられ、前記デバイスは、
光線を各要素に関連付けることであって、前記光線は、前記各要素に関連付けられた前記4次元座標から得られる、関連付けることと、
前記要素毎に深度情報を決定することと、
前記深度情報に従って前記シーン内における各前記光線の起点を決定することと、
前記シーンにおいて同じ起点を有する光線をグループ化して、複数のグループを形成することと、
前記複数のグループのうちのグループの少なくとも1つの対について、前記少なくとも1つの対を形成する第1の光線グループと第2の光線グループとの間の関係を確立することであって、重みが前記関係に関連付けられ、
前記第1のグループの前記光線の少なくとも一部の光線毎に、前記第2のグループの光線が前記第1のグループの前記光線の近傍内に含まれる場合に、前記第2のグループの前記光線と前記第1のグループの前記光線との差を算出し、
前記差を合計することによって前記重みを決定する
ことによって決定される、確立することと、
前記ライトフィールドデータを前記複数のグループおよび前記関係に従って処理することと
を行うように構成された少なくとも1つのプロセッサを含む、デバイス。 - 前記少なくとも1つのプロセッサは、‘i’により参照され、4次元座標(si,ti,xi,yi)を用いて表現された第1の光線、および‘j’により参照され、4次元座標(sj,tj,xj,yj)を用いて表現された第2の光線を、以下:
xi+(si−sj)×D(si,ti,xi,yi)−xj<E1、かつ
yi+(ti−tj)×D(si,ti,xi,yi)−yj<E2
の場合に、前記複数のグループのうちの同じグループにグループ化するように構成され、ここで、D(si,ti,xi,yi)は、前記第1の光線に関連付けられた前記深度情報に対応し、E1は、第1の決定値に対応し、およびE2は、第2の決定値に対応する、請求項6に記載のデバイス。 - 前記少なくとも1つのプロセッサは、以下の条件:
xj+(sj−si)×D(sj,tj,xj,yj)−xi<E1、かつ
yj+(tj−ti)×D(sj,tj,xj,yj)−yi<E2
がさらに満たされる場合に、前記第1の光線および前記第2の光線を前記同じグループにグループ化するように構成され、ここで、D(sj,tj,xj,yj)は、前記第2の光線に関連付けられた前記深度情報に対応する、請求項7に記載のデバイス。 - 少なくとも1つの光線が前記複数のグループのうちのグループに割り当てられない、請求項6〜8のいずれか一項に記載のデバイス。
- 前記少なくとも1つのプロセッサは、前記ライトフィールドデータを前記関係に従ってセグメント化するようにさらに構成されている、請求項6に記載のデバイス。
- ライトフィールド取得デバイスと、請求項6〜10のいずれか一項に記載のデバイスとを含むマルチメディア端末。
- プログラムコードの命令であって、プログラムがコンピュータ上で実行されると、請求項1〜5のいずれか一項に記載の方法を実行するプログラムコードの命令を含むコンピュータプログラム製品。
- プロセッサ可読媒体であって、プロセッサに、請求項1〜5のいずれか一項に記載の方法の操作を遂行させるための命令をその中に記憶したプロセッサ可読媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP16305273.1A EP3220351A1 (en) | 2016-03-14 | 2016-03-14 | Method and device for processing lightfield data |
EP16305273.1 | 2016-03-14 |
Publications (4)
Publication Number | Publication Date |
---|---|
JP2017182796A JP2017182796A (ja) | 2017-10-05 |
JP2017182796A5 JP2017182796A5 (ja) | 2020-04-09 |
JP6847718B2 JP6847718B2 (ja) | 2021-03-24 |
JP6847718B6 true JP6847718B6 (ja) | 2021-05-26 |
Family
ID=55642383
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017047117A Active JP6847718B6 (ja) | 2016-03-14 | 2017-03-13 | ライトフィールドデータを処理する方法およびデバイス |
Country Status (5)
Country | Link |
---|---|
US (1) | US10055856B2 (ja) |
EP (2) | EP3220351A1 (ja) |
JP (1) | JP6847718B6 (ja) |
KR (1) | KR102354260B1 (ja) |
CN (1) | CN107194965B (ja) |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10298834B2 (en) | 2006-12-01 | 2019-05-21 | Google Llc | Video refocusing |
US9858649B2 (en) | 2015-09-30 | 2018-01-02 | Lytro, Inc. | Depth-based image blurring |
US10334151B2 (en) | 2013-04-22 | 2019-06-25 | Google Llc | Phase detection autofocus using subaperture images |
US11328446B2 (en) | 2015-04-15 | 2022-05-10 | Google Llc | Combining light-field data with active depth data for depth map generation |
US10565734B2 (en) | 2015-04-15 | 2020-02-18 | Google Llc | Video capture, processing, calibration, computational fiber artifact removal, and light-field pipeline |
US10546424B2 (en) | 2015-04-15 | 2020-01-28 | Google Llc | Layered content delivery for virtual and augmented reality experiences |
US10440407B2 (en) | 2017-05-09 | 2019-10-08 | Google Llc | Adaptive control for immersive experience delivery |
US10540818B2 (en) | 2015-04-15 | 2020-01-21 | Google Llc | Stereo image generation and interactive playback |
US10444931B2 (en) | 2017-05-09 | 2019-10-15 | Google Llc | Vantage generation and interactive playback |
US10412373B2 (en) | 2015-04-15 | 2019-09-10 | Google Llc | Image capture for virtual reality displays |
US10419737B2 (en) | 2015-04-15 | 2019-09-17 | Google Llc | Data structures and delivery methods for expediting virtual reality playback |
US10275898B1 (en) | 2015-04-15 | 2019-04-30 | Google Llc | Wedge-based light-field video capture |
US10567464B2 (en) | 2015-04-15 | 2020-02-18 | Google Llc | Video compression with adaptive view-dependent lighting removal |
US10341632B2 (en) | 2015-04-15 | 2019-07-02 | Google Llc. | Spatial random access enabled video system with a three-dimensional viewing volume |
US10469873B2 (en) | 2015-04-15 | 2019-11-05 | Google Llc | Encoding and decoding virtual reality video |
US9979909B2 (en) | 2015-07-24 | 2018-05-22 | Lytro, Inc. | Automatic lens flare detection and correction for light-field images |
US10275892B2 (en) | 2016-06-09 | 2019-04-30 | Google Llc | Multi-view scene segmentation and propagation |
US10679361B2 (en) | 2016-12-05 | 2020-06-09 | Google Llc | Multi-view rotoscope contour propagation |
US9900510B1 (en) * | 2016-12-08 | 2018-02-20 | Lytro, Inc. | Motion blur for light-field images |
US10594945B2 (en) | 2017-04-03 | 2020-03-17 | Google Llc | Generating dolly zoom effect using light field image data |
US10474227B2 (en) | 2017-05-09 | 2019-11-12 | Google Llc | Generation of virtual reality with 6 degrees of freedom from limited viewer data |
US10354399B2 (en) | 2017-05-25 | 2019-07-16 | Google Llc | Multi-view back-projection to a light-field |
US10545215B2 (en) | 2017-09-13 | 2020-01-28 | Google Llc | 4D camera tracking and optical stabilization |
US10776995B2 (en) * | 2017-10-17 | 2020-09-15 | Nvidia Corporation | Light fields as better backgrounds in rendering |
EP3493155A1 (en) * | 2017-12-01 | 2019-06-05 | Thomson Licensing | Surface color segmentation |
US10965862B2 (en) | 2018-01-18 | 2021-03-30 | Google Llc | Multi-camera navigation interface |
US10678056B2 (en) * | 2018-02-26 | 2020-06-09 | Google Llc | Augmented reality light field head-mounted displays |
WO2020018931A1 (en) | 2018-07-19 | 2020-01-23 | Activ Surgical, Inc. | Systems and methods for multi-modal sensing of depth in vision systems for automated surgical robots |
CN109360235B (zh) * | 2018-09-29 | 2022-07-19 | 中国航空工业集团公司上海航空测控技术研究所 | 一种基于光场数据的混合深度估计方法 |
WO2020210168A1 (en) | 2019-04-08 | 2020-10-15 | Activ Surgical, Inc. | Systems and methods for medical imaging |
WO2021035094A1 (en) | 2019-08-21 | 2021-02-25 | Activ Surgical, Inc. | Systems and methods for medical imaging |
CN116630134A (zh) * | 2023-05-23 | 2023-08-22 | 北京拙河科技有限公司 | 一种光场相机图像数据多线程处理方法及装置 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7129943B2 (en) * | 2002-11-15 | 2006-10-31 | Microsoft Corporation | System and method for feature-based light field morphing and texture transfer |
US20130070222A1 (en) * | 2011-09-19 | 2013-03-21 | D2S, Inc. | Method and System for Optimization of an Image on a Substrate to be Manufactured Using Optical Lithography |
ATE551841T1 (de) * | 2009-04-22 | 2012-04-15 | Raytrix Gmbh | Digitales bildgebungsverfahren zum synthetisieren eines bildes unter verwendung der mit einer plenoptischen kamera aufgezeichneten daten |
KR101675961B1 (ko) * | 2010-12-29 | 2016-11-14 | 삼성전자주식회사 | 적응적 부화소 렌더링 장치 및 방법 |
GB2501936B (en) | 2012-05-11 | 2016-11-30 | Canon Kk | Micro lens array and imaging apparatus |
US9179126B2 (en) * | 2012-06-01 | 2015-11-03 | Ostendo Technologies, Inc. | Spatio-temporal light field cameras |
WO2014052974A2 (en) * | 2012-09-28 | 2014-04-03 | Pelican Imaging Corporation | Generating images from light fields utilizing virtual viewpoints |
CN103108452B (zh) * | 2013-01-10 | 2015-01-21 | 北京航空航天大学 | 一种动态光场数据驱动的场景光照重现方法 |
US9786062B2 (en) * | 2013-05-06 | 2017-10-10 | Disney Enterprises, Inc. | Scene reconstruction from high spatio-angular resolution light fields |
US9460515B2 (en) | 2013-10-25 | 2016-10-04 | Ricoh Co., Ltd. | Processing of light fields by transforming to scale and depth space |
KR20160106045A (ko) * | 2013-11-22 | 2016-09-09 | 비디노티 에스아 | 광필드 처리방법 |
US9305375B2 (en) | 2014-03-25 | 2016-04-05 | Lytro, Inc. | High-quality post-rendering depth blur |
JP2015198336A (ja) * | 2014-04-01 | 2015-11-09 | キヤノン株式会社 | 画像処理装置およびその制御方法、並びにプログラム |
CN104156916B (zh) * | 2014-07-31 | 2017-03-29 | 北京航空航天大学 | 一种用于场景光照恢复的光场投影方法 |
CN104598744B (zh) * | 2015-01-27 | 2017-11-21 | 北京工业大学 | 一种基于光场的深度估计方法 |
CN104867129A (zh) | 2015-04-16 | 2015-08-26 | 东南大学 | 一种光场图像分割方法 |
-
2016
- 2016-03-14 EP EP16305273.1A patent/EP3220351A1/en not_active Withdrawn
-
2017
- 2017-03-08 EP EP17159797.4A patent/EP3220352B1/en active Active
- 2017-03-13 KR KR1020170031143A patent/KR102354260B1/ko active IP Right Grant
- 2017-03-13 JP JP2017047117A patent/JP6847718B6/ja active Active
- 2017-03-14 US US15/458,170 patent/US10055856B2/en active Active
- 2017-03-14 CN CN201710281208.9A patent/CN107194965B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN107194965A (zh) | 2017-09-22 |
EP3220352A1 (en) | 2017-09-20 |
JP2017182796A (ja) | 2017-10-05 |
KR20170106931A (ko) | 2017-09-22 |
US20170263012A1 (en) | 2017-09-14 |
CN107194965B (zh) | 2021-11-09 |
KR102354260B1 (ko) | 2022-01-21 |
EP3220351A1 (en) | 2017-09-20 |
JP6847718B2 (ja) | 2021-03-24 |
US10055856B2 (en) | 2018-08-21 |
EP3220352B1 (en) | 2020-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6847718B6 (ja) | ライトフィールドデータを処理する方法およびデバイス | |
CN110036410B (zh) | 用于从视图中获得距离信息的设备和方法 | |
CN108921781B (zh) | 一种基于深度的光场拼接方法 | |
KR101121034B1 (ko) | 복수의 이미지들로부터 카메라 파라미터를 얻기 위한 시스템과 방법 및 이들의 컴퓨터 프로그램 제품 | |
CN105144710B (zh) | 用于增加深度相机图像的精度的技术 | |
US10334229B2 (en) | Method for obtaining a refocused image from a 4D raw light field data using a shift correction parameter | |
CN108292431B (zh) | 光场数据表示 | |
EP3144894B1 (en) | Method and system for calibrating an image acquisition device and corresponding computer program product | |
EP3247107B1 (en) | Method and device for obtaining a hdr image by graph signal processing | |
US20210314543A1 (en) | Imaging system and method | |
CN115035235A (zh) | 三维重建方法及装置 | |
WO2021035627A1 (zh) | 获取深度图的方法、装置及计算机存储介质 | |
Liu et al. | Two-stream refinement network for RGB-D saliency detection | |
Chen et al. | A learning-based framework for hybrid depth-from-defocus and stereo matching | |
EP3200151A1 (en) | Method and device for obtaining a depth map | |
US20240127407A1 (en) | Image sensor apparatus for capturing depth information | |
Chen | Enhanced processing methods for light field imaging | |
Guo | Combining learning and computational imaging for 3D inference | |
Akuha Solomon Aondoakaa | Depth Estimation from a Single Holoscopic 3D Image and Image Up-sampling with Deep-learning | |
CN115514877A (zh) | 用于从多视角图像降噪的装置和方法 | |
CN117197256A (zh) | 一种标定方法、装置及电子设备 | |
CN116112656A (zh) | 一种获取点云图的方法 | |
CN113191369A (zh) | 一种基于光场角度域变化矩阵的特征点检测方法 | |
Mustaniemi | Image fusion algorithm for a multi-aperture camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20191111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200227 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210210 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210303 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6847718 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |