JP2016224948A - 4dローライトフィールドデータからリフォーカシングされた画像を得る方法 - Google Patents

4dローライトフィールドデータからリフォーカシングされた画像を得る方法 Download PDF

Info

Publication number
JP2016224948A
JP2016224948A JP2016105771A JP2016105771A JP2016224948A JP 2016224948 A JP2016224948 A JP 2016224948A JP 2016105771 A JP2016105771 A JP 2016105771A JP 2016105771 A JP2016105771 A JP 2016105771A JP 2016224948 A JP2016224948 A JP 2016224948A
Authority
JP
Japan
Prior art keywords
coordinates
function
image
light field
pixel value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016105771A
Other languages
English (en)
Inventor
サバテール,ノイ
Sabater Neus
ヴァンダム,ブノワ
Vandame Benoit
ホグ,マチウ
Hog Matthieu
ドラジック,ヴァルテール
Dravic Valter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2016224948A publication Critical patent/JP2016224948A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/232Image signal generators using stereoscopic image cameras using a single 2D image sensor using fly-eye lenses, e.g. arrangements of circular lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/957Light-field or plenoptic cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

【課題】所与のフォーカスプレーン値gについての4Dローライトフィールドデータからリフォーカシングされた画像を得る方法が提案される。【解決手段】方法は、電子デバイスによって実行され、少なくとも1つの色成分について、座標(k,l)∈N2でのリフォーカシングされた画像の少なくとも1つのピクセル値を決定するステップを有することを特徴とする。決定するステップは、少なくとも1つの色成分について、座標(k,l)の近傍に含まれる座標を有する少なくとも1つの投影ピクセル値を得るステップと、関数に基づき少なくとも1つの投影ピクセル値に重み付けし、加重値を出力するステップと、少なくとも1つの色成分について、座標(k,l)でのリフォーカシングされた画像の少なくとも1つのピクセル値を加重値により更新するステップとを有する。【選択図】図7c

Description

本開示は、4Dライトフィールドデータの処理に関する。もっと正確に言えば、本開示は、4Dローライトフィールドデータのデマルチプレキシングを実行することなしに、4Dローライトフィールドデータから直接に2Dのリフォーカシングされた画像を得る技術(すなわち、4Dローライトフィールドデータから導出/取得されたサブアパーチャ画像を使用せずに、リフォーカシングされた画像を得ること)に関する。
本項目は、以下で記載及び/又は請求される本開示の様々な態様に関連し得る技術の様々な態様を読者に紹介することを目的とする。この議論は、本開示の様々な態様のより良い理解を助けるよう読者に背景情報を提供するのに有用であると信じられている。然るに、それらの記述は、この観点から読まれるべきであり、先行技術の承認としてではないことが理解されるべきである。
4Dライトフィールドのサンプリングとして見られ得る4Dライトフィールドデータの取得(すなわち、Anat Levin et al.,“Understanding camera trade-offs through a Bayesian analysis of light field projections”,the Conference Proceedings of ECCV 2008(非特許文献1)の図1で説明されている光線の記録)は、非常に大変な研究テーマである。
実際に、カメラにより捕捉される古典的な2D画像と比較して、4Dライトフィールドデータは、ユーザが、画像のレンダリング及び/又はユーザとの双方向性を向上させる、より多くの後処理機能へのアクセスを有することを可能にする。例えば、4Dライトフィールドデータによれば、後天的な画像のリフォーカシング(すなわち、フォーカスプレーンのポジションが後天的に指定/選択され得ることを意味する、焦点調整の自由に選択された距離によるリフォーカシング)と、画像のシーンにおける視点をわずかに変更することとを容易に行うことが可能である。4Dライトフィールドデータを取得するために、幾つかの技術が使用され得る。特に、国際公開第2013/180192号パンフレット(特許文献1)において又は英国特許出願公開第2488905号明細書(特許文献2)において表されているプレンオプティックカメラは、4Dライトフィールドデータを取得することができる。プレンオプティックカメラのアーキテクチャの詳細は、本願の図1、2、3、4及び5において与えられている。
最新の技術では、4Dライトフィールドデータを提示(又は定義)するための方法が幾つか存在する。実際に、Ren Ng,“Digital Light Field Photography”,Phd dissertation thesis,2006年7月(非特許文献2)のチャプター3.3には、4Dライトフィールドデータを表すための3通りの異なる方法が記載されている。第1に、4Dライトフィールドデータは、例えば、図1に表されているようなプレンオプティックカメラによって記録される場合に、マイクロレンズ画像の収集によって表され得る(本願の図2の記載を参照。)。この表現における4Dライトフィールドデータは、ロー(raw)画像(又は4Dローライトフィールドデータ)と称される。第2に、4Dライトフィールドデータは、サブアパーチャ(sub-aperture)画像の組によって表され得る。サブアパーチャ画像は、ある視点からのシーンの捕捉画像に対応し、視点は、2つのサブアパーチャ画像間でわずかに異なる。それらのサブアパーチャ画像は、撮像されたシーンのパララックス及びデプスに関する情報を与える。第3に、4Dライトフィールドデータは、エピポーラ画像の組によって表され得る(例えば、S. Wanner et al.,“Generating EPI Representation of a 4D Light Fields with a Single Lens Focused Plenoptic Camera”,the conference proceedings of ISVC 2011(非特許文献3)を参照。)。
4Dライトフィールドデータからリフォーカシングを実行するために使用される一般的な技術は、国際公開第2013/167758号パンフレット(特許文献3)で(セクション“image refocusing method”において)説明されるように、マイクロレンズ画像の(すなわち、直接に、IRAWと示される4Dローライトフィールドデータからの)シフト及び付加に基づく。本願の図6は、2D画像を得るために4Dローライトフィールドデータにおいて座標(x,y)にあるピクセルを如何にして投影すべきかを大まかに表す。4Dローライトフィールドピクセル(すなわち、ミクロ画像のピクセル)は、リフォーカシングされた画像内に投影され、一方、重みマップは、積み重ねられた投影ピクセルの数を記録する。重みマップは、投影座標が非整数座標である場合に補間も記録する。全ての4Dローライトフィールドピクセルがリフォーカシングされた画像内に投影され、重みマップが決定されると、リフォーカシングされた画像は重みマップによって分けられ、それにより、夫々のリフォーカシングされたピクセルは、同じ平均寄与を受ける。結果として現れる2D画像は、例えば、ディスプレイ上で出力されるか、あるいは、記憶され及び/又は他のデバイスへ送信され得る。
2Dのリフォーカシングされた画像の品質(特にシャープネス)を改善するために、Juliet Fiss et al.,“Refocusing Plenoptic Images using Depth-Adaptive Splatting”(非特許文献4)に記載されている技術は、補間を目的として使用される。実際に、このアプローチに基づく補間は、2Dのリフォーカシングされた画像に対する4Dローライトフィールドピクセルの影響を広げることにある(座標(x,y)での4Dローライトフィールドピクセルが、スプラット(splat)カーネルの関数として定義される値を有する位置sへ投影される当該文献の図5を参照。)。この文献で記載されるように、「スプラッティングは、放射基底関数を用いる散乱データ補間の形としてみられ得る」。しかし、このアプローチの1つの欠点は、4Dローライトフィールドデータが、2Dのリフォーカシングされた画像上に4Dローライトフィールドピクセルを投影する前に、デモザイキングされるべき点である。このアプローチの他の欠点は、スプラットカーネルが(x,y)で等方性であり、シーンのデプスにのみ依存する点である。最後に、このアプローチの他の欠点は、スプラットカーネルが多焦点プレンオプティックカメラ(例えば、Todor Georgiev and Andrew Lumsdaine,“The Multi-Focus Plenoptic Camera”(非特許文献5))において表されているもの)又はシーンのジオメトリを考慮しない点である。
従って、それらの欠点を解消することができる技術を提供する必要がある。
国際公開第2013/180192号パンフレット 英国特許出願公開第2488905号明細書 国際公開第2013/167758号パンフレット
Anat Levin et al.,"Understanding camera trade-offs through a Bayesian analysis of light field projections",the Conference Proceedings of ECCV 2008 Ren Ng,"Digital Light Field Photography",Phd dissertation thesis,2006年7月 S. Wanner et al.,"Generating EPI Representation of a 4D Light Fields with a Single Lens Focused Plenoptic Camera",the conference proceedings of ISVC 2011 Juliet Fiss et al.,"Refocusing Plenoptic Images using Depth-Adaptive Splatting" Todor Georgiev and Andrew Lumsdaine,"The Multi-Focus Plenoptic Camera"
「一実施形態」、「実施形態」、「例となる実施形態」との明細書での言及は、記載されている実施形態が特定の機構、構造、又は特性を有してよいが、あらゆる実施形態が必ずしもその特定の機構、構造又は特性を有さなくてよいことを示す。更には、そのようなフレーズは、必ずしも同じ実施形態に言及しているわけではない。更には、特定の機構、構造、又は特性が実施形態に関連して記載される場合に、明示的に記載されていようとなかろうと、他の実施形態に関連してそのような機構、構造、又は特性に作用することは、当業者の知識範囲内にあることが提示される。
本開示は、所与のフォーカスプレーン値gについての4Dローライトフィールドデータからリフォーカシングされた画像を得る方法を対象とする。方法は、電子デバイスによって実行され、少なくとも1つの色成分について、座標(k,l)∈Nでの前記リフォーカシングされた画像の少なくとも1つのピクセル値を決定するステップを有することを特徴とする。前記決定するステップは、
前記少なくとも1つの色成分について、前記座標(k,l)の近傍に含まれる座標を有する少なくとも1つの投影ピクセル値を得るステップと、
関数に基づき前記少なくとも1つの投影ピクセル値に重み付けし、加重値を出力するステップと、
前記少なくとも1つの色成分について、座標(k,l)での前記リフォーカシングされた画像の前記少なくとも1つのピクセル値を前記加重値により更新するステップと
を有する。
従って、本技術は、リフォーカシングされた画像におけるピクセル値を色成分ごとに決定するよう行われる処理に関する。従って、本技術は、4Dローライトフィールドデータに対してデモザイキング法を使用する必要がない(デモザイキング法に関する更なる詳細は、Zhan Yu et al.による“An Analysis of Color Demosaicing in Plenoptic Cameras”と題された文献において見つけられ得る。)。そのため、本技術は、リフォーカシングされた画像におけるカラーアーチファクトの低減を可能にする。実際に、本技術が夫々の色について適用されると、リフォーカシングされた画像(色成分ごとに1つ)の結合は、カラー画像を得るために行われる。本技術では、デモザイキング法は使用されない。
好適な実施形態において、当該得る方法は、前記少なくとも1つの投影ピクセル値が座標(X,Y)を有し、前記関数が、次(数1)のように定義される、ことを特徴とする:
Figure 2016224948
このとき、h
[外1]
Figure 2016224948
に属する値に対応し、関数
[外2]
Figure 2016224948
はノルム関数である。
好適な実施形態において、当該得る方法は、前記少なくとも1つの投影ピクセル値が座標(X,Y)を有し、前記関数が次(数2)のように定義される、ことを特徴とする:
Figure 2016224948
このとき、h
[外3]
Figure 2016224948
に属する値に対応し、greal(X,Y)の値は、前記4Dローライトフィールドデータと関連したシーンにおけるgの実際の値に対応する。もっと正確に言えば、greal(X,Y)は、前記4Dローライトフィールドデータを取得したライトフィールド取得デバイスからの前記4Dローライトフィールドデータと関連したシーンにおける実際の距離に対応する。
好適な実施形態において、当該方法は、前記少なくとも1つの投影ピクセル値が座標(X,Y)を有し、前記関数が次(数3)のように定義される、ことを特徴とする:
Figure 2016224948
このとき、h及びh′は
[外4]
Figure 2016224948
に属する値に対応し、値a、b、c及びdが、前記リフォーカシングされた画像のテンソル構造に従って決定される平滑化値に対応する。
好適な実施形態において、当該方法は、前記少なくとも1つの投影ピクセル値が座標(X,Y)を有し、前記関数がW(k,l,X,Y)=χ((k,l)は([X],[Y])のK近傍ピクセルに属する)であるよう定義される、ことを特徴とする。このとき、χ(.)は、ステートメントが真である場合に1に等しく、それ以外の場合に0に等しい特性関数であり、[.]は端数処理関数であり、K.は2以上の整数である。
好適な実施形態において、当該方法は、前記少なくとも1つの投影ピクセル値が座標(X,Y)=(s[g(x−C)+C],s[g(y−C)+C])を有し、sが2Dの前記リフォーカシングされた画像の画像サイズを定義し、座標(x,y)が前記4Dローライトフィールドデータにおけるピクセルの座標に対応し、座標(C,C)が、座標(x,y)が属するミクロ画像の中心の座標に対応し、前記関数がW(k,l,X,Y)=PSF(x,y)であるよう定義され、PSFがプレンオプティックカメラの点拡がり関数の推定である、ことを特徴とする。
好適な実施形態において、当該方法は、前記少なくとも1つの投影ピクセル値が座標(X,Y)=(s[g(x−C)+C],s[g(y−C)+C])を有し、前記関数が次(数4)のように定義される、ことを特徴とする:
Figure 2016224948
このとき、sは、2Dの前記リフォーカシングされた画像の画像サイズを定義し、座標(x,y)は、前記4Dローライトフィールドデータにおけるピクセルの座標に対応し、座標(C,C)は、座標(x,y)が属するミクロ画像の中心の座標に対応する。また、χ(.)は、ステートメントが真である場合に1に等しく、それ以外の場合に0に等しい特性関数であり、ρは閾値であり、
[外5]
Figure 2016224948
は、ノルム関数である。
好適な実施形態において、当該方法は、前記少なくとも1つの投影ピクセル値は、座標(X,Y)=(s[g(x−C)+C],s[g(y−C)+C])を有し、前記関数が次(数5)のように定義される、ことを特徴とする:
Figure 2016224948
このとき、sは、2Dの前記リフォーカシングされた画像の画像サイズを定義し、座標(x,y)は、前記4Dローライトフィールドデータにおけるピクセルの座標に対応し、座標(C,C)は、座標(x,y)が属するミクロ画像の中心の座標に対応する。また、hは、
[外6]
Figure 2016224948
に属する値に対応し、
[外7]
Figure 2016224948
は、ノルム関数である。
好適な実施形態において、当該方法は、前記少なくとも1つの投影ピクセル値が座標(X,Y)=(s[g(x−C)+C],s[g(y−C)+C])を有し、前記関数が、i≠4として、次(数6)に等しいように定義される、ことを特徴とする:
Figure 2016224948
このとき、sは、2Dの前記リフォーカシングされた画像の画像サイズを定義し、座標(x,y)は、前記4Dローライトフィールドデータにおけるピクセルの座標に対応し、座標(C,C)は、座標(x,y)が属するミクロ画像の中心の座標に対応する。また、S(x,y)は、(x,y)が属するマイクロレンズのシャープネスの尺度であり、Smaxは、前記4Dローライトフィールドデータの全てのマイクロレンズにわたる最大シャープネス値に対応する。
好適な実施形態において、当該方法は、前記関数が、可分であるよう定義される、ことを特徴とする。
好適な実施形態において、前記関数は、h
[外8]
Figure 2016224948
に属する値に対応し、関数
[外9]
Figure 2016224948
がノルム関数であるとして、次の数(数7)と他の関数との積であるよう定義される、ことを特徴とする:
Figure 2016224948
好適な実施形態において、当該方法は、前記更新するステップが、前記加重値を前記少なくとも1つのピクセル値に加えることを含む、ことを特徴とする。
一実施形態において、前記少なくとも1つのピクセル値の初期化が存在する。例えば、前記少なくとも1つのピクセル値の前記初期化は、前記電子デバイス内のレジスタにおけるヌル値への初期化を含むことができる。
例となる実施に従って、当該方法の異なるステップは、1つ以上のコンピュータソフトウェアプログラムによって実施される。このソフトウェアプログラムは、本開示に従うリレーモジュールのデータプロセッサによって実行されるよう設計されたソフトウェアプログラムを含み、当該方法の異なるステップの実行を制御するよう設計される。
結果として、本開示の態様は、コンピュータによって又はデータプロセッサによって実行されるべきプログラムにも関係がある。このプログラムは、ここで上述された方法のステップの実行を命じる命令を含む。
このプログラムは、どんなものであれ如何なるプログラミング言語も使用し、例えば、部分的にコンパイルされた形で、又は何らかの他の望ましい形で、ソースコード、オブジェクトコード、又はソースコードとオブジェクトコードとの間の中間であるコードの形をとることができる。
本開示は、データプロセッサによって読み出し可能であって、ここで上述されたプログラムの命令を含む情報媒体にも関係がある。
情報媒体は、プログラムを記憶することが可能な如何なるエンティティ又はデバイスであることもできる。例えば、媒体は、ROM(“Read Only Memory”の略語である。)、例えば、CD−ROM(“Compact Disc − Read Only Memory”の略語である。)又は超小型電子回路ROM、あるいは、先と同じく、磁気記録手段、例えば、フロッピー(登録商標)ディスク又はハードディスクのような記憶手段を有することができる。
更に、情報媒体は、無線によって又は他の手段によって電気又は光ケーブルを通じて運ばれ得る電気又は光信号のような、伝送可能なキャリアであってよい。プログラムは、特に、インターネット型ネットワークにダウンロードされ得る。
代替的に、情報媒体は、プログラムが組み込まれている集積回路であることができる。回路は、問題となっている方法を実行するよう構成されるか、又はその実行において使用される。
一実施形態に従って、本開示の実施形態は、ソフトウェア及び/又はハードウェアコンポーネントを用いて実施される。この観点から、語「モジュール」は、本願では、ソフトウェアコンポーネント及びハードウェアコンポーネントの両方に、あるいは、ハードウェア及びソフトウェアコンポーネントの組に、対応することができる。
ソフトウェアコンポーネントは、関連するモジュールについて以下ここで記載されるものに従って機能又は機能の組を実施することが可能な1つ以上のコンピュータプログラム、プログラムの1つ以上のサブプログラム、あるいは、より一般的には、プログラム又はソフトウェアプログラムのいずれかの要素、に対応する。1つのそのようなソフトウェアコンポーネントは、物理エンティティ(端末、サーバ、など)のデータプロセッサによって実行され、この物理エンティティのハードウェアリソース(メモリ、記録媒体、通信バス、入出力電子基板、ユーザインターフェイス、など)にアクセスすることが可能である。
同様に、ハードウェアコンポーネントは、関連するモジュールについて以下ここで記載されるものに従って機能又は機能の組を実施することが可能なハードウェアユニットのいずれかの要素に対応する。それは、プログラム可能なハードウェアコンポーネント、あるいは、ソフトウェアの実行のための集積回路、例えば、集積回路、スマートカード、メモリカード、ファームウェアを実行するための電子基板、などを備えたコンポーネントであってよい。変形例において、ハードウェアコンポーネントは、中央演算処理装置のような集積回路であるプロセッサ、及び/又はマイクロプロセッサ、及び/又は特定用途向け集積回路(ASIC)、及び/又は特定用途向け命令セットプロセッサ(ASIP)、及び/又はグラフィクス処理ユニット(GPU)、及び/又は物理処理ユニット(PPU)、及び/又はデジタル信号プロセッサ(DSP)、及び/又は画像プロセッサ、及び/又はコプロセッサ、及び/又は浮動小数点ユニット、及び/又はネットワークプロセッサ、及び/又はオーディオプロセッサ、及び/又はマルチコアプロセッサを有する。更には、ハードウェアコンポーネントは、ベースバンドプロセッサ(例えば、メモリユニット及びファームウェアを有する。)、及び/又は無線信号を送信若しくは受信する無線電子回路(アンテナを有することができる。)を更に有することができる。一実施形態において、ハードウェアコンポーネントは、ISO/IEC18092/ECMA−340、ISO/IEC21481/ECMA−352、GSMA、StoLPaN、ETSI/SCP(スマートカードプラットフォーム)、グローバルプラットフォーム(すなわち、セキュアエレメント)のような1つ以上の標準に従う。変形例において、ハードウェアコンポーネントは、無線周波数識別(RFID)タグである。一実施形態において、ハードウェアコンポーネントは、Bluetooth(登録商標)通信、及び/又はWi−Fi(登録商標)通信、及び/又はZigbee(登録商標)通信、及び/又はUSB通信、及び/又はファイアワイヤ通信、及び/又はNFC(近距離)通信を可能にする回路を有する。
また、留意すべきは、本願における要素/値を得るステップは、電子デバイスのメモリユニットにおいてそのような要素/値を読み出すステップ、又は通信手段を介して他の電子デバイスからそのような要素/値を受信するステップのいずれかと見なされ得る。
他の実施形態において、所与のフォーカスプレーン値gについての4Dローライトフィールドデータからリフォーカシングされた画像を得る電子デバイスが提案される。当該電子デバイスは、少なくとも1つの色成分について、座標(k,l)∈Nでの前記リフォーカシングされた画像の少なくとも1つのピクセル値を決定するよう構成される回路を有する、ことを特徴とする。前記回路は、
前記少なくとも1つの色成分について、前記座標(k,l)の近傍に含まれる座標を有する少なくとも1つの投影ピクセル値を得るよう構成される取得回路と、
関数に基づき前記少なくとも1つの投影ピクセル値に重み付けし、加重値を出力するよう構成される重み付け回路と、
前記少なくとも1つの色成分について、座標(k,l)での前記リフォーカシングされた画像の前記少なくとも1つのピクセル値を前記加重値により更新するよう構成される更新回路と
を有する。
好適な実施形態において、当該電子デバイスは、前記少なくとも1つの投影ピクセル値が座標(X,Y)を有し、前記関数が次(数8)のように定義される、ことを特徴とする:
Figure 2016224948
このとき、h
[外10]
Figure 2016224948
に属する値に対応し、関数
[外11]
Figure 2016224948
は、ノルム関数である。
本発明の上記及び他の態様は、添付の図面を参照して、その例となる実施形態の以下の詳細な説明によって、より明らかとなるであろう。
本技術が適用され得るライトフィールドデータの取得を可能にするプレンオプティックカメラに含まれる主要なコンポーネントを図式的に示す。 図1のセンサアレイによって捕捉される画像を示す。 完ぺきな薄レンズモデルを仮定して、図式的なプレンオプティック・タイプIIカメラを表す。 完ぺきな薄レンズモデルを仮定して、図式的なプレンオプティック・タイプIIカメラを表す。 タイプIのプレンオプティックカメラを示す。 4Dローライトフィールドピクセルの投影を示す。 本開示の一実施形態に従うスプラッティングプロセスを表す。 本開示の一実施形態に従うスプラッティングプロセスを表す。 本開示の一実施形態に従うスプラッティングプロセスを表す。 ピクセル周囲のテンソル解析に基づく本開示の一実施形態を表す。 ピクセル周囲のテンソル解析に基づく本開示の一実施形態を表す。 マイクロレンズが異なる焦点長さを有するマイクロレンズアレイを有するプレンオプティックカメラから得られる画像及び該画像の部分を表す。 マイクロレンズが異なる焦点長さを有するマイクロレンズアレイを有するプレンオプティックカメラから得られる画像及び該画像の部分を表す。 色チャネルごとに少なくとも1つの値が受け取られる座標(k,l)を有する投影ピクセルを示す。 座標(x,y)にある4Dローライトフィールドデータのピクセル値が投影座標(X,Y)の周囲でK近傍(この場合に、K=6)に如何にしてスプラッティング/拡散されるかを表す。 4Dローライトフィールドデータからの画像をリフォーカシングする方法の幾つかのステップを表す。 本願で開示される方法の1つ以上のステップを実行するために使用され得るデバイスの例を示す。
図1は、本技術が適用され得るライトフィールドデータの取得を可能にするプレンオプティックカメラに含まれる主要なコンポーネントを図式的に示す。
もっと正確に言えば、プレンオプティックカメラは、符号101により参照されるメインレンズと、符号104により参照されるセンサアレイ(すなわち、ピクセルセンサ(例えば、CMOSテクノロジに基づくセンサ)のアレイ)とを有する。メインレンズ101とセンサアレイ104との間には、符号102により参照されるマイクロレンズアレイが位置し、マイクロレンズアレイ102は、符号103により参照される極小レンズのアレイを有する。留意すべきは、任意に幾つかのスペーサが、夫々のレンズの周囲でマイクロレンズアレイとセンサとの間に置かれ、1つのレンズからの光がセンサ側で他のレンズの光と重なり合うことを防ぐ。留意すべきは、メインレンズ101は、図1に表されているものよりも複雑な光学系であることができる(例えば、英国特許出願公開第2488905号明細書の図12及び13に記載される光学系)。従って、プレンオプティックカメラは、図1で表されるようにちょうどセンサの前に設置されたマイクロレンズアレイを従来のカメラに付加したものと見なされ得る。マイクロレンズを通過する光線は、それらの光線の放射を記録するセンサアレイの部分を覆う。センサのこの部分による記録は、マイクロレンズ画像を定義する。
図2は、センサアレイ104によって捕捉される画像を示す。実際に、そのようなビューにおいて、センサアレイ104は、符号201により参照されるピクセルの組を有するように見える。マイクロレンズを通過する光線は多数のピクセル201をカバーし、それらのピクセルは、入射する/受光される光線のエネルギ値を記録する。
従って、プレンオプティックカメラのセンサアレイ104は、2D画像(ロー4Dライトフィールド画像とも称される。)内に配置された2D小画像(すなわち、符号202により参照されるマイクロレンズ画像)の集合を有する画像を記録する。実際に、夫々の小画像(すなわち、マイクロレンズ画像)は、マイクロレンズによって生成される(マイクロレンズは、レンズのアレイの中で座標(i,j)によって識別され得る。)。従って、ライトフィールドのピクセルは、4座標(x,y,i,j)に関連する。センサによって記録される4DライトフィールドであるL(x,y,i,j)は、センサによって記録される画像を表す。夫々のマイクロレンズは、円によって表されるミクロ画像を生成する(小画像の形状は、通常円形であるマイクロレンズの形状に依存する。)。ピクセル座標(センサアレイにおける)は、(x,y)と標示される。pは、2つの連続したミクロ画像間の距離であり、pは整数である必要はない。マイクロレンズは、pがピクセルサイズδよりも大きいように選択される。マイクロレンズ画像は、それらの座標(i,j)によって参照される。夫々のマイクロレンズは、(u,v)座標系を用いてマイクロレンズの瞳をサンプリングする。幾つかのピクセルは、特に、マイクロレンズの形状が円形である場合に、如何なるマイクロレンズからの如何なる光子も受け取らないことがある。この場合に、マイクロレンズ間のスペースは、光子がマイクロレンズから外に出ないようにマスクされ、マイクロレンズにおいて幾つかの暗領域をもたらす。マイクロレンズが正方形状である場合には、マスキングは不要である。マイクロレンズ画像の中心(i,j)は、座標(xi,j,yi,j)でセンサ上に置かれる。θは、ピクセルの正方格子とマイクロレンズの正方格子との間の角度であり、図2ではθ=0である。正方格子に従ってマイクロレンズが配置されているとすると、(xi,j,yi,j)は、マイクロレンズイメージ(0,0)のピクセル座標を(x0,0,y0,0)として、次の式1(数9)によって計算され得る:
Figure 2016224948
図2は、幾つかの連続したマイクロレンズ画像(黒点)においてシーンからのオブジェクトが可視的であることを表す。オブジェクトの2つの連続したビュー間の距離はwであり、この距離は“レプリケーション(replication)”距離と呼ばれる。従って、対象は、次の式(数10)により、r個の連続したマイクロレンズ画像において可視的である:
Figure 2016224948
rは、一次元における連続したマイクロレンズ画像の数である。オブジェクトは、r個のマイクロレンズ画像において可視的である。マイクロレンズ画像の形状に応じて、オブジェクトのr個のビューのうちの幾つかは不可視である。
プレンオプティックカメラに関する更なる詳細は、Tom E. Bishop and Paolo Favaro,“The Light Field Camera: Extended Depth of Field, Aliasing, and Superresolution”,IEEE Transactions on Pattern Analysis and Machine Intelligence,vol.34,No.5,2012年5月におけるセクション4“Image formation of a Light field camera”において見つけられ得る。
留意すべきは、本技術は、従来のカメラのピクセルの少なくとも一部が米国特許公開第2013/258098号公報において記載されているのと同じ方法(又は類似した方法)において設計される場合に、そのような“従来のカメラ”(追加のマイクロレンズアレイが、メインレンズとピクセルのアレイとの間に位置付けられないという意味における。)に対しても適用され得る。実際に、この米国特許公開第2013/258098号公報は、幾つかの受光セクション(例えば、米国特許公開第2013/258098号公報における116及び117を参照されたい。)の使用によりライトフィールドデータを記録することができるピクセルを開示する。従って、当業者であれば、夫々のマイクロレンズがセンサ104に含まれている2つのピクセル上に光線を集中させる図1で表されたプレンオプティックカメラの一種として米国特許公開第2013/258098号公報の技術を解釈して、ピクセルのアレイを備えたそのような従来のカメラを理解する。留意すべきは、米国特許公開第2013/258098号公報の技術は、より多くの受光セクションがピクセルのアーキテクチャに組み込まれる場合に、ピクセルが2つよりも多いデータ情報(2つのロー及びハイ受光セクションによって得られる。)を記録することができるという意味において、一般化され得る。本開示は、上述されたようにライトフィールドデータを記録することができるピクセルを組み込む“従来のカメラ”のロー画像に対して使用され得る。実際に、それらのロー画像は、マイクロレンズ画像の組と同化され得る。
また、留意すべきは、本開示は、米国特許公開第2010/0265386号公報において、又はA. Levin et al.,“Image and depth from a conventional camera with a coded aperture”,the Proceedings of SIGGRAPH 2007において表されている符号アパーチャ要素(coded aperture elements)を有するか、あるいは、Edward R. Dowski, Jr. and W. Thomas Cathe,“Extended depth of field through wave-front coding”,Applied Optics,1995年4月10日において記載されている波面符号化(wavefront coding)技術を使用するデバイスのような、4Dライトフィールドデータを捕捉する他のデバイスにも適用され得る。
図3及び図4は、完ぺきな薄レンズモデルを仮定して、概略のプレンオプティック・タイプIIカメラを表す。先に導入された距離p及びwは、ピクセル単位で与えられる。それらは、ピクセルサイズδを乗じることによって、夫々物理的な単位距離P及びW(メートル)に変換される:W=δ・w及びP=δ・p。それらの距離は、ライトフィールドカメラの特性に依存する。
メインレンズは焦点長さF及び開口Φを有する。マイクロレンズアレイは、焦点長さfを有するマイクロレンズを有する。マイクロレンズアレイのピッチはφである。マイクロレンズアレイは、メインレンズからの距離D、及びセンサからの距離dに位置する。オブジェクト(図中見えない。)は、メインレンズ(左)からの距離zに位置する。このオブジェクトは、メインレンズ(右)からの距離z′でメインレンズによってフォーカシングされる。
図3及び図4は、夫々、D>z′及びD<z′の場合を表す。いずれの場合にも、マイクロレンズ画像は、d及びfに応じて焦点が合うことができる。この設計は、いわゆるタイプIIプレンオプティックカメラ(プレンオプティックカメラ2.0とも称される。)を指す。
図5は、f=dであるタイプIプレンオプティックカメラ(プレンオプティックカメラ1.0とも称される。)を表す。
図5において、設計は、メインレンズが、マイクロレンズアレイの近くに画像の焦点を合わせているようになされる。メインレンズがまさにマイクロレンズアレイ上に焦点を合わせている場合に、W=∞である。また、マイクロレンズ画像は、全く焦点外であり、定数に等しい(ノイズを考慮せず。)。
レプリケーション距離Wは、オブジェクトの距離zとともに変化する。Wとzとの間の関係を確立するよう、薄レンズの公式:

1/z+1/z′=1/F

及びタレス法:

(D−z′)/φ=(D−z′+d)/W

に依存して、先の2つの式を混合することで、次(数11)が演繹される:
Figure 2016224948
Wとzとの間の関係は、マイクロレンズ画像の焦点が合っていることを仮定しない。マイクロレンズ画像は、薄レンズの公式に従って、完全に焦点が合っている:

1/(D−z′)+1/d=1/f

また、タレス法から、次のように、Pが導出される:

e=(D+d)/D

P=φe

比eは、マイクロレンズのピッチとマイクロレンズ画像のピッチとの間の拡大を定義する。この比は、D≫dであるから、極めて1に近い。
同様の所見は、国際公開第2013/167758号パンフレットにおいて見出され得る。
図6は、座標(X,Y)=(s[g(x−C)+C],s[g(y−C)+C])にあるピクセル(2Dのリフォーカシングされた画像における。)上への4Dローライトフィールドピクセル(すなわち、座標(C,C)に中心を有する、符号600により参照されるマイクロレンズ画像に属する、座標(x,y)でのピクセル)の投影を示す。ここで、gは、リフォーカスプレーンを決定し、sは、2Dのリフォーカシングされた画像の画像サイズを定義する(従って、Iが2Dのリフォーカシングされた画像に対応するとして、size(I)=s・size(IRAW))。図6の例では、我々はs=1を有する。リフォーカシングプロセスに関する更なる詳細は、国際公開第2013/167758号パンフレットにおいて詳述されている。
従って、一定の画像サイズs及びフォーカスプレーンgを考えると、リフォーカシングされた画像Iは、4DローライトフィールドデータIRAWの全てのピクセル(x,y)を投影して推定される。留意すべきは、投影された座標(X,Y)は、一様に分布したグリッド上に、又は規則的なグリッド上に必ずしも置かれない。実際に、実数値ポジション(X,Y)の画像平面における分布は、値gに大いに依存する。
留意すべきは、画像のマイクロレンズ中心(C,C)は、いずれかの最新技術(例えば、Dansereau et al.,“Decoding, calibration and rectification for lenselet-based plenoptic cameras”,the conference proceedings of Computer Vision and Pattern Recognition (CVPR),2013 IEEE Conference on IEEEにおいて記載されるもの)によって推定されると仮定される。
提案される技術は、所与のフォーカスについて4Dローライトフィールドデータからリフォーカシングされた画像を(gの値に基づき)得る方法であって、(k,l)の近傍において投影されるピクセル値の加重和の決定を介して、ポジション(k,l)∈Nでのリフォーカシングされた画像におけるピクセルの値を決定することを含む方法に関する。そのため、リフォーカシングされた画像は、次(数12)のように定義される:
Figure 2016224948
このとき、Zkl=Σ(X,Y)∈BklW(k,l,X,Y)は、正規化係数であり、Bklは、(k,l)に中心がある近傍であり、ポジション(X,Y)=(s[g(x−C)+C],s[g(y−C)+C])であり、c={R,G,B}は色チャネルである(Rは赤色(Red)であり、Gは緑色(Green)であり、Bは青色(Blue)である。)。留意すべきは、IRAWはベイヤーパターンを有するので、IRAW (x,y)は、ただ1つの色チャネルについて非ゼロである。
図7a及び7bは、本開示の一実施形態に従うスプラッティングプロセスを表す。この定義によれば、スプラットカーネルはブラー(blur)の量を調整する点に留意されたい。カーネルが大きければ大きいほど、2Dのリフォーカシングされた画像はますますぼやける。
図7aは、強度値IRAW (x,y)がリフォーカシング面に投影されてポジション(X,Y)の周りで拡げられる(スプラッティングされる)ことを表す。拡がり値は、スプラットカーネルWによって重み付けされる。これは、(X,Y)の周りの全てのピクセルが同じピクセル値を受けるわけではないことを意味する。
図7bは、リフォーカシングされた画像をレンダリングするために、画像グリッドの夫々のピクセルポジション(k,l)について、このポジションでの全ての受け取られたピクセル値の(加重)和が決定されることを示す。この例では、ピクセル(k,l)は2つの値を受ける。例示のために、スプラッティングカーネルの形状はこの図では円形であるが、他の形状が可能である。
図7cは、ポジション(k,l)∈Nでのリフォーカシングされた画像におけるピクセルの値の決定の例を示す。第1のステップで、座標(k,l)∈Nに位置するピクセルの近傍Bklが選択される。本開示の実施形態において、そのような近傍は、座標(k,l)∈Nに中心が置かれ得る。変形例において、そのような近傍は、座標(k,l)∈Nに中心が置かれないが、近傍は座標(k,l)∈Nを有する。近傍のジオメトリは、(円から、図7cで表されているような、より複雑なジオメトリ構造まで)様々であることができる。図7cの例では、赤色成分を有する4DローライトフィールドデータIRAWからのただ3つのピクセルが、近傍Bklにおける投影を有する。そのため、一実施形態において、我々は、赤色成分について、I (k,l)=[W(1)(k,l,X,Y)IRAW (x,y)+W(2)(k,l,X,Y)IRAW (x,y)+W(3)(k,l,X,Y)IRAW (x,y)]×正規化係数を有する。
この式において、重み係数(スプラットカーネルとも称される。)W(1)、W(2)及びW(3)は、同じ関数又は異なる関数であることができる。
同じ近傍について、しかし、他の色成分について、他の投影されたピクセルはこの近傍に含まれる。これより、スプラットカーネルWのとり得る定義の夫々を記述させてもらう。Wの最も簡単な定義は、一定の半径rの円であり、本願ではこれをWと呼ぶこととする。とは言っても、簡単なスプラットカーネルは、リフォーカシングされた画像を申し分なく回復することができないであろう。
本開示の第1の実施形態において、スプラットカーネルは、
[外12]
Figure 2016224948
に対して減少関数である。これは、W(k,l,X,Y)がその最大値に達し、次いで、
[外13]
Figure 2016224948
が増大するにつれて比例的に減少することを意味する。そのようなスプラットカーネルの例は、次(数13)のように定義される:
Figure 2016224948
値hは、4Dローライトフィールドデータの取得を実行したライトフィールドデバイスのパラメータの関数として定義されるか又はユーザによって入力され得るパラメータである。
本開示の第2の実施形態において、夫々の点(x,y)について、gの実際の値であるgreal(x,y)(すなわち、ライトフィールド取得デバイスからの場面における実際の距離)を知っているとする。これは、点(x,y)が焦点を合わせられているはずである面である(これは、シーンのデプスを知ることで推定され得る。)。その場合に、スプラットカーネルは、grealに応じて夫々の点で適応され得る。gは、画像をリフォーカシングしようとしている所望のフォーカスプレーンであるとする。|g−greal|が減少する場合に、スプラットカーネルは、減少関数であると定義される。この定義によれば、リフォーカシングされた面gでの点は鮮明なままでありながら、他の点はぼやけており、不鮮明さの程度は、フォーカスプレーンgまでの距離に比例する。そのようなスプラットカーネルの例は、次(数14)によって与えられる:
Figure 2016224948
値hは、4Dローライトフィールドデータの取得を実行したライトフィールドデバイスのパラメータの関数として定義されるか又はユーザによって入力され得るパラメータである。
本開示の第3の実施形態において、画像(画像境界)の構造及びジオメトリは、スプラットカーネルによって利用され得る重要な情報である。画像エッジを考えると、スプラットカーネルは、その形状を画像境界に適応させる。この場合に、スプラットカーネルは異方性であり、それ自身を画像のエッジに適応させる。例えば、I、Iが画像Iの偏導関数であるとして、
[外14]
Figure 2016224948
と定義される画像のテンソル構造は、画像の局所ジオメトリに関する重要な情報を提供し、固有ベクトルv、vは、画像こう配の主方向(接線ベクトル及び法線ベクトルの方向)を提供し、対応する固有値λ、λは、夫々の主方向の大きさを提供する、ことが知られる。特に、固有ベクトルは、シーンの局所ジオメトリを特徴付ける(小さいλ、λは一様なエリアに対応し、大きいλ、λは画像の角に対応し、大きいλ及び小さいλは接線vを有する画像エッジに対応する。)。図8aは、接線ベクトル及び法線ベクトルが、黒点において計算されたテンソル行列の固有ベクトル及び固有値により推定される画像境界の場合を表す。テンソル解析のおかげで、スプラットカーネルは、画像エッジがある場合にその形状が適応的であるように定義され得る(図8bを参照)。
テンソル構造によって提供される画像のジオメトリを考慮するスプラットカーネルの例は、次(数15)のように定義される:
Figure 2016224948
ガウシアンカーネルは、方向
[外15]
Figure 2016224948
において値hにより平滑化し、方向
[外16]
Figure 2016224948
において値h′により平滑化する。
値h及びh′は、4Dローライトフィールドデータの取得を実行したライトフィールドデバイスのパラメータの関数として定義されるか又はユーザによって入力され得るパラメータである。
実際上、リフォーカシングされた画像のテンソルを推定することは、投影点(X,Y)の変則的なサンプリングに起因して容易でない点に留意されたい。しかし、テンソルは局所変数であり、それは、ロー(RAW)画像において推定されて、画像色値と同じように投影され得る。
第4の実施形態において、スプラットカーネルは、多焦点プレンオプティックカメラにおけるマイクロレンズタイプを考慮する。例えば、Raytrix社のカメラは、3つの異なった焦点長さを有する3種類のマイクロレンズが存在するプレンオプティックカメラである。図9aは、Raytrix社のR5カメラにより捕捉された4Dローライトフィールドデータを示す。
図9bは、同じ画像の異なる部分の3つの異なるクロップ(crop)を示す。マイクロレンズアレイは、焦点長さに関して3つの異なる種類のマイクロレンズによって形成される点に留意されたい。故に、異なるマイクロレンズは、焦点が異なるシーンの3つの部分を有する。左のクロップは、中央にあるクロップと比べて、焦点が合っている同じマイクロレンズを有さず、最後のクロップは、3つのマイクロレンズが焦点外であるシーンの部分を示す。
この実施形態において、我々は、我々のスプラットカーネルが、スプラッティングされる値に応じて変化するという事実を考える。そのような値が、焦点が合っているマイクロレンズに由来する場合に、スプラットカーネルは、焦点が合っていないマイクロレンズの値を拡げるスプラットカーネルと比べて、大きい重みを有すべきである。その考えは、焦点が合っていないマイクロレンズを、焦点が合わせられているマイクロレンズに対して不利にすることである。そのようなスプラットカーネルの例は、次(数16)のように定義される:
Figure 2016224948
このとき、Wi≠4は、本願において定義されるスプラットカーネルのいずれかであり、S(x,y)は、(x,y)が属するマイクロレンズのシャープネスの尺度であり、Smaxは、ロー画像の全てのマイクロレンズにわたる最大シャープネスである。幾つかのシャープネスの尺度が使用されてよい。例えば、Pertuz, Said et al.,“Analysis of focus measure operators for shape-from-focus”,Pattern Recognition 46.5 (2013): 1415-1432において定義されているシャープネスの尺度がある。
本開示の第5の実施形態において、画像サイズs及び所望のフォーカスプレーンgを考えると、リフォーカシングされた面における投影点(X,Y)の分布が決定される。sはスケールのみに責任を負い、一方、gの選択は分布自体を変える。
本技術において、スプラットカーネルは、2Dのリフォーカシングされた画像のレンダリングプロセスが色“ホール”を生成しないように、この分布を考慮する。言い換えると、本技術は、2Dのリフォーカシングされた画像Iの夫々のピクセルポジション(k,l)が、夫々の色の少なくとも1つの強度値をスプラッティングプロセスの間に得ていることを保証する。
実際に、このことは、最大サンプリングステップHによって与えられる最小サイズをスプラットカーネルのサポートが有することを意味する。
そのようなスプラットカーネルの例はW=Wであり、円は半径r=Hを有する。
図10は、色チャネルごとに少なくとも1つの値を受けるピクセルポジション(k,l)を示す。スプラットカーネルは、最小サイズ(“ホール”を生じさせないために必要なサイズ)が保証されると直ぐに、異なる形状及びサイズを有することができる。
スプラットカーネルの全ての上記の定義は、ピクセル値IRAW (x,y)を最も近いピクセルまで拡げるよう提案する。なお、本開示の第6の実施形態において、我々は、同じピクセル値を、所与の基準に関して、K近傍(K−NN;K-Nearest Neighbors)ピクセル(色、こう配、などに関する最近傍)まで拡げることができる。形式上:

(k,l,X,Y)=χ((k,l)は([X],[Y])のK−NNに属する)

このとき、χ(.)は、特性関数であり(ステートメントが真である場合に1に等しく、それ以外の場合に0に等しい。)、[.]は端数処理関数である。
図11は、K近傍にスプラッティングされる値IRAW (x,y)を示す。この例では、K=6である。K−NNは、必ずしもユークリッド距離における最も近いピクセルではなく、色、デプス又は何らかの他の基準にして最も近いものである。
本発明の第7の実施形態において、プレンオプティックカメラのPSF(点拡がり関数;Point Spread Function)(又はマイクロレンズアレイのPSF)は、推定され、スプラットカーネルの定義において考慮され得る。そのようなカーネルの1つのとり得る定義は、

(k,l,X,Y)=PSF(x,y)

である。夫々の色チャネルは異なるPSFを有するので、スプラットカーネルの定義も、スプラッティングされる色チャネルに応じて適応され得る点に留意されたい。
本開示の第8の実施形態において、プレンオプティックカメラは、口径食(vignetting)、特に、マイクロレンズの口径食に悩むことがよく知られている。我々は、スプラッティングプロセスの間に、マイクロレンズの中心からのピクセルと比べて口径食に見舞われるピクセルを不利にすることを提案する。ここで、口径食補正は、常に完ぺきであるわけでなく、補正されたピクセルは、信号対雑音比が悪いと考えられるので、口径食補正アルゴリズムがあっても、そのようなピクセルを不利にすることは有用である。そのようなスプラットカーネルの1つのとり得る定義は、次(数17)を定義すべきである:
Figure 2016224948
それは、マイクロレンズの境界に位置する全てのピクセルが無視され、半径ρの円内のピクセルのみが考慮されることを意味する。他のとり得る定義は、次(数18)によって与えられる:
Figure 2016224948
値hは、4Dローライトフィールドデータの取得を実行したライトフィールドデバイスのパラメータの関数として定義されるか又はユーザによって入力され得るパラメータである。
メインレンズの口径食を考慮に入れる特定のカーネルも可能である点に留意されたい。
第9の実施形態において、スプラットカーネルは、少なくとも2つの先に定義されたスプラットカーネルの積として計算され得る(例えば、W=W又はW=W)。
図12は、本発明の一実施形態に従うフローチャートを示す。
もっと正確に言えば、図12は、取得された4Dローライトフィールドデータから画像をリフォーカシングする方法の幾つかのステップを表す。
1201で参照されるステップにおいて、電子デバイスは4Dローライトフィールドデータを受ける。更に、幾つかのパラメータが、焦点合わせが行われるべきフォーカスプレーンを定義する前記電子デバイスによって取得される。一実施形態において、それらのパラメータは、ユーザによるユーザインターフェイスとのインタラクション(例えば、焦点合わせが行われるべきオブジェクトを選択するためのインタラクション)を介して得られる。それらのパラメータは、リフォーカシングされた画像のサイズを更に含むことができる。
次いで、1202で参照されるステップで、電子デバイスは、投影されたピクセル(例えば、図6で投影されたピクセル)の全ての座標を決定するために、4Dローライトフィールドデータの全てのピクセル座標を処理する。次いで、2Dのリフォーカシングされた画像における座標を定義するために規則的なグリッド(
[外17]
Figure 2016224948
において定義された有限グリッド)を使用することによって、この規則的なグリッドにおけるピクセル値を決定するプロセスが行われる。座標(k,l)∈Nでのピクセル値を決定するために、上記のプロセスが実行され得る。
変形例において、4Dローライトフィールドデータの全てのピクセルが“投影”されるわけではない。実際に、マイクロレンズ画像のエッジにあるピクセルは捨てられ、従って、リフォーカシングプロセスにおいて投影及び使用されない。
変形例において、2Dのリフォーカシングされた画像におけるピクセルの値の投影及び更新は、同時に行われる。
ステップ1202の終わりに、2Dのリフォーカシングされた画像が得られる。この2Dのリフォーカシングされた画像は、次いで、表示デバイスによって表示され得る。
図13は、本願で開示される方法の1つ以上のステップを実行するために使用され得るデバイスの例を示す。
1300で参照されるそのようなデバイスは、1301で参照されるコンピューティングユニット(例えば、CPU(Central Processing Unit))と、1302で参照される1つ以上のメモリユニット(例えば、中間結果がコンピュータプログラムの命令の実行中に一時的に記憶され得るRAM(Random Access memory)ブロック、又はとりわけ、コンピュータプログラムが記憶されるROMブロック、又はEEPROM(Electrically-Erasable Programmable Read-Only Memory)ブロック、又はフラッシュブロック)とを有する。コンピュータプログラムは、コンピューティングユニットによって実行され得る命令から成る。そのようなデバイス1300は、デバイス1300が他のデバイスと通信することを可能にする入出力インターフェイスを構成する、1303で参照される専用ユニットを更に有することができる。特に、この専用ユニット1303は、アンテナと(接触なしに通信を実行するため。)、あるいは、シリアルポートと(“接触”により通信を運ぶため。)接続され得る。留意すべきは、図13中の矢印は、リンクされたユニットが例えば一緒にバスを通じてデータを交換することができることを示す。
代替の実施形態において、上記の方法のステップの一部又は全ては、プログラム可能FPGA(Field Programmable Gate Array)コンポーネント又はASIC(Application―Specific Integrated Circuit)コンポーネントにおいてハードウェアで実装され得る。
代替の実施形態において、上記の方法のステップの一部又は全ては、図13において開示されているデバイスのような、メモリユニット及びプロセッシングユニットを有する電子デバイスで実行され得る。
本開示の一実施形態において、図13で表されている電子デバイスは、画像(すなわち、ライトフィールドのサンプリング)を捕捉するよう構成されるカメラデバイスに含まれ得る。それらの画像は、1つ以上のメモリユニットにおいて記憶される。従って、それらの画像は、ビットストリームデータ(すなわち、ビットのシーケンス)と見なされ得る。明らかに、ビットストリームは、バイトストリームにおいても変換され得、その逆も同様である。

Claims (15)

  1. 所与のフォーカスプレーン値gについての4Dローライトフィールドデータからリフォーカシングされた画像を得る方法であって、電子デバイスによって実行される方法において、
    少なくとも1つの色成分について、座標(k,l)∈Nでの前記リフォーカシングされた画像の少なくとも1つのピクセル値を決定するステップを有し、
    前記決定するステップは、
    前記少なくとも1つの色成分について、前記座標(k,l)の近傍に含まれる座標を有する少なくとも1つの投影ピクセル値を得るステップと、
    関数に基づき前記少なくとも1つの投影ピクセル値に重み付けし、加重値を出力するステップと、
    前記少なくとも1つの色成分について、座標(k,l)での前記リフォーカシングされた画像の前記少なくとも1つのピクセル値を前記加重値により更新するステップと
    を有する、ことを特徴とする方法。
  2. 前記少なくとも1つの投影ピクセル値は、座標(X,Y)を有し、
    前記関数は、h
    Figure 2016224948
    に属する値に対応し、関数
    Figure 2016224948
    がノルム関数であるとして、
    Figure 2016224948
    であるよう定義される、請求項1に記載の方法。
  3. 前記少なくとも1つの投影ピクセル値は、座標(X,Y)を有し、
    前記関数は、h
    Figure 2016224948
    に属する値に対応し、greal(X,Y)の値が、前記4Dローライトフィールドデータを取得したライトフィールド取得デバイスからの前記4Dローライトフィールドデータと関連したシーンにおける実際の距離に対応するとして、
    Figure 2016224948
    であるよう定義される、請求項1に記載の方法。
  4. 前記少なくとも1つの投影ピクセル値は、座標(X,Y)を有し、
    前記関数は、h及びh′が
    Figure 2016224948
    に属する値に対応し、値a、b、c及びdが、前記リフォーカシングされた画像のテンソル構造に従って決定される平滑化値に対応するとして、
    Figure 2016224948
    であるよう定義される、請求項1に記載の方法。
  5. 前記少なくとも1つの投影ピクセル値は、座標(X,Y)を有し、
    前記関数は、χ(.)が、ステートメントが真である場合に1に等しく、それ以外の場合に0に等しい特性関数であり、[.]が端数処理関数であり、K.が2以上の整数であるとして、
    (k,l,X,Y)=χ((k,l)は([X],[Y])のK近傍ピクセルに属する)
    であるよう定義される、請求項1に記載の方法。
  6. 前記少なくとも1つの投影ピクセル値は、座標(X,Y)=(s[g(x−C)+C],s[g(y−C)+C])を有し、
    sは、2Dの前記リフォーカシングされた画像の画像サイズを定義し、座標(x,y)は、前記4Dローライトフィールドデータにおけるピクセルの座標に対応し、座標(C,C)は、座標(x,y)が属するミクロ画像の中心の座標に対応し、
    前記関数は、W(k,l,X,Y)=PSF(x,y)であるよう定義され、
    PSFは、プレンオプティックカメラの点拡がり関数の推定である、
    請求項1に記載の方法。
  7. 前記少なくとも1つの投影ピクセル値は、座標(X,Y)=(s[g(x−C)+C],s[g(y−C)+C])を有し、
    sは、2Dの前記リフォーカシングされた画像の画像サイズを定義し、座標(x,y)は、前記4Dローライトフィールドデータにおけるピクセルの座標に対応し、座標(C,C)は、座標(x,y)が属するミクロ画像の中心の座標に対応し、
    前記関数は、
    Figure 2016224948
    であるよう定義され、
    χ(.)は、ステートメントが真である場合に1に等しく、それ以外の場合に0に等しい特性関数であり、ρは閾値であり、
    Figure 2016224948
    は、ノルム関数である、
    請求項1に記載の方法。
  8. 前記少なくとも1つの投影ピクセル値は、座標(X,Y)=(s[g(x−C)+C],s[g(y−C)+C])を有し、
    sは、2Dの前記リフォーカシングされた画像の画像サイズを定義し、座標(x,y)は、前記4Dローライトフィールドデータにおけるピクセルの座標に対応し、座標(C,C)は、座標(x,y)が属するミクロ画像の中心の座標に対応し、
    前記関数は、
    Figure 2016224948
    であるよう定義され、
    は、
    Figure 2016224948
    に属する値に対応し、関数
    Figure 2016224948
    は、ノルム関数である、
    請求項1に記載の方法。
  9. 前記少なくとも1つの投影ピクセル値は、座標(X,Y)=(s[g(x−C)+C],s[g(y−C)+C])を有し、
    sは、2Dの前記リフォーカシングされた画像の画像サイズを定義し、座標(x,y)は、前記4Dローライトフィールドデータにおけるピクセルの座標に対応し、座標(C,C)は、座標(x,y)が属するミクロ画像の中心の座標に対応し、
    前記関数は、i≠4として、
    Figure 2016224948
    に等しいよう定義され、
    S(x,y)は、(x,y)が属するマイクロレンズのシャープネスの尺度であり、Smaxは、前記4Dローライトフィールドデータの全てのマイクロレンズにわたる最大シャープネス値に対応する、
    請求項2乃至8のうちいずれか一項に記載の方法。
  10. 前記関数は、可分であるよう定義される、
    請求項2乃至9のうちいずれか一項に記載の方法。
  11. 前記関数は、
    Figure 2016224948
    と他の関数との積であるよう定義され、
    は、
    Figure 2016224948
    に属する値に対応し、関数
    Figure 2016224948
    はノルム関数である、
    請求項2乃至9のうちいずれか一項に記載の方法。
  12. 前記更新するステップは、前記加重値を前記少なくとも1つのピクセル値に加えることを含む、
    請求項1乃至11のうちいずれか一項に記載の方法。
  13. コンピュータによって実行される場合に4Dローライトフィールドデータを処理する方法を実施するコンピュータ実行可能命令の組を有するコンピュータプログラムを記憶しているコンピュータ読出可能な非一時的記憶媒体であって、
    前記命令は、実行される場合に、前記コンピュータを、請求項1乃至12のうちいずれか一項に記載の方法を実行するよう構成する命令を含む、
    コンピュータ読出可能な非一時的記憶媒体。
  14. 所与のフォーカスプレーン値gについての4Dローライトフィールドデータからリフォーカシングされた画像を得る電子デバイスであって、
    少なくとも1つの色成分について、座標(k,l)∈Nでの前記リフォーカシングされた画像の少なくとも1つのピクセル値を決定するよう構成される回路を有し、
    前記回路は、
    前記少なくとも1つの色成分について、前記座標(k,l)の近傍に含まれる座標を有する少なくとも1つの投影ピクセル値を得るよう構成される取得回路と、
    関数に基づき前記少なくとも1つの投影ピクセル値に重み付けし、加重値を出力するよう構成される重み付け回路と、
    前記少なくとも1つの色成分について、座標(k,l)での前記リフォーカシングされた画像の前記少なくとも1つのピクセル値を前記加重値により更新するよう構成される更新回路と
    を有する、ことを特徴とする電子デバイス。
  15. 前記少なくとも1つの投影ピクセル値は、座標(X,Y)を有し、
    前記関数は、h
    Figure 2016224948
    に属する値に対応し、関数
    Figure 2016224948
    がノルム関数であるとして、
    Figure 2016224948
    であるよう定義される、請求項14に記載の電子デバイス。
JP2016105771A 2015-05-29 2016-05-27 4dローライトフィールドデータからリフォーカシングされた画像を得る方法 Pending JP2016224948A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP15305816.9A EP3098778A1 (en) 2015-05-29 2015-05-29 Method for obtaining a refocused image from 4d raw light field data
EP15305816.9 2015-05-29

Publications (1)

Publication Number Publication Date
JP2016224948A true JP2016224948A (ja) 2016-12-28

Family

ID=53396409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016105771A Pending JP2016224948A (ja) 2015-05-29 2016-05-27 4dローライトフィールドデータからリフォーカシングされた画像を得る方法

Country Status (6)

Country Link
US (1) US10182183B2 (ja)
EP (2) EP3098778A1 (ja)
JP (1) JP2016224948A (ja)
KR (1) KR20160140453A (ja)
CN (1) CN106210465A (ja)
BR (1) BR102016011825A2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9693038B2 (en) * 2015-04-21 2017-06-27 Hand Held Products, Inc. Systems and methods for imaging
WO2018024490A1 (en) * 2016-08-05 2018-02-08 Thomson Licensing A method for obtaining at least one sub-aperture image being associated with one view
CN106937044B (zh) * 2016-12-14 2020-10-23 北京信息科技大学 不完备数据下由聚焦堆栈重建光场的代数迭代方法和装置
EP3416381A1 (en) 2017-06-12 2018-12-19 Thomson Licensing Method and apparatus for providing information to a user observing a multi view content
EP3416371A1 (en) * 2017-06-12 2018-12-19 Thomson Licensing Method for displaying, on a 2d display device, a content derived from light field data
US10230911B1 (en) * 2017-08-29 2019-03-12 Ricoh Company, Ltd Preview generation for plenoptic imaging systems
CN111382753B (zh) * 2018-12-27 2023-05-12 曜科智能科技(上海)有限公司 光场语义分割方法、***、电子终端及存储介质
US11030776B2 (en) 2019-02-01 2021-06-08 Molecular Devices (Austria) GmbH Calibration of a light-field imaging system
CN110222789B (zh) * 2019-06-14 2023-05-26 腾讯科技(深圳)有限公司 图像识别方法及存储介质
CN111028257B (zh) * 2019-11-06 2022-05-17 北京航空航天大学 微透镜子图像几何中心及边缘的提取方法及装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7792423B2 (en) 2007-02-06 2010-09-07 Mitsubishi Electric Research Laboratories, Inc. 4D light field cameras
US8315476B1 (en) 2009-01-20 2012-11-20 Adobe Systems Incorporated Super-resolution with the focused plenoptic camera
US8749694B2 (en) * 2010-08-27 2014-06-10 Adobe Systems Incorporated Methods and apparatus for rendering focused plenoptic camera data using super-resolved demosaicing
US8724000B2 (en) * 2010-08-27 2014-05-13 Adobe Systems Incorporated Methods and apparatus for super-resolution in integral photography
JP5623313B2 (ja) 2011-03-10 2014-11-12 キヤノン株式会社 撮像装置および撮像光学系
US9568606B2 (en) 2012-03-29 2017-02-14 Canon Kabushiki Kaisha Imaging apparatus for distance detection using high and low sensitivity sensors with inverted positional relations
CN104303493A (zh) * 2012-05-09 2015-01-21 莱特洛公司 用于改进的光场捕获和操作的光学***的优化
GB2501936B (en) 2012-05-11 2016-11-30 Canon Kk Micro lens array and imaging apparatus
JP6168794B2 (ja) 2012-05-31 2017-07-26 キヤノン株式会社 情報処理方法および装置、プログラム。
JP2014016965A (ja) 2012-07-11 2014-01-30 Toshiba Corp 画像処理装置、画像処理方法およびプログラム、ならびに、撮像装置
US9456141B2 (en) * 2013-02-22 2016-09-27 Lytro, Inc. Light-field based autofocus

Also Published As

Publication number Publication date
BR102016011825A2 (pt) 2017-01-24
US10182183B2 (en) 2019-01-15
EP3098779B1 (en) 2021-09-01
EP3098779A1 (en) 2016-11-30
EP3098778A1 (en) 2016-11-30
CN106210465A (zh) 2016-12-07
US20160353007A1 (en) 2016-12-01
KR20160140453A (ko) 2016-12-07

Similar Documents

Publication Publication Date Title
JP2016224948A (ja) 4dローライトフィールドデータからリフォーカシングされた画像を得る方法
JP7186672B2 (ja) マルチスコピック雑音削減およびハイ・ダイナミック・レンジのためのシステムおよび方法
US10334229B2 (en) Method for obtaining a refocused image from a 4D raw light field data using a shift correction parameter
CN110476185B (zh) 景深信息估算方法和装置
EP3053332B1 (en) Using a second camera to adjust settings of first camera
JP5362087B2 (ja) 距離情報を決定するための方法、距離マップを決定するための方法、コンピュータ装置、撮影システム、コンピュータプログラム
JP6347675B2 (ja) 画像処理装置、撮像装置、画像処理方法、撮像方法及びプログラム
US20170358094A1 (en) Adaptive Focus Sweep Techniques For Foreground/Background Separation
US8436912B2 (en) Range measurement using multiple coded apertures
WO2013145554A1 (ja) 画像処理装置及び画像処理方法
US10827107B2 (en) Photographing method for terminal and terminal
US9508153B2 (en) Distance measurement apparatus, imaging apparatus, distance measurement method, and program
EP3249607A1 (en) Method for obtaining a position of a main lens optical center of a plenoptic camera
US9007483B2 (en) Image synthesis device and computer program for image synthesis for synthesizing a plurality of images of different exposure times
US10366478B2 (en) Method and device for obtaining a HDR image by graph signal processing
EP3166073A1 (en) Method for obtaining a refocused image from 4d raw light field data
US11080873B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
WO2016113805A1 (en) Image processing method, image processing apparatus, image pickup apparatus, program, and storage medium
CN113673474A (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
WO2024091783A1 (en) Image enhancement for image regions of interest
WO2023192706A1 (en) Image capture using dynamic lens positions
EP4068200A1 (en) Imaging system and method
Manne et al. Asymmetric wide tele camera fusion for high fidelity digital zoom
JP2017182668A (ja) データ処理装置、撮像装置、及びデータ処理方法
JP2015026192A (ja) 画像処理装置、画像処理方法及びプログラム