JP2016224948A - 4dローライトフィールドデータからリフォーカシングされた画像を得る方法 - Google Patents
4dローライトフィールドデータからリフォーカシングされた画像を得る方法 Download PDFInfo
- Publication number
- JP2016224948A JP2016224948A JP2016105771A JP2016105771A JP2016224948A JP 2016224948 A JP2016224948 A JP 2016224948A JP 2016105771 A JP2016105771 A JP 2016105771A JP 2016105771 A JP2016105771 A JP 2016105771A JP 2016224948 A JP2016224948 A JP 2016224948A
- Authority
- JP
- Japan
- Prior art keywords
- coordinates
- function
- image
- light field
- pixel value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 230000006870 function Effects 0.000 claims description 66
- 238000012545 processing Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 5
- 238000005516 engineering process Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000013459 approach Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 238000010207 Bayesian analysis Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000010076 replication Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 102000006822 Agouti Signaling Protein Human genes 0.000 description 1
- 108010072151 Agouti Signaling Protein Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000004377 microelectronic Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/232—Image signal generators using stereoscopic image cameras using a single 2D image sensor using fly-eye lenses, e.g. arrangements of circular lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/218—Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/957—Light-field or plenoptic cameras or camera modules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
【課題】所与のフォーカスプレーン値gについての4Dローライトフィールドデータからリフォーカシングされた画像を得る方法が提案される。【解決手段】方法は、電子デバイスによって実行され、少なくとも1つの色成分について、座標(k,l)∈N2でのリフォーカシングされた画像の少なくとも1つのピクセル値を決定するステップを有することを特徴とする。決定するステップは、少なくとも1つの色成分について、座標(k,l)の近傍に含まれる座標を有する少なくとも1つの投影ピクセル値を得るステップと、関数に基づき少なくとも1つの投影ピクセル値に重み付けし、加重値を出力するステップと、少なくとも1つの色成分について、座標(k,l)でのリフォーカシングされた画像の少なくとも1つのピクセル値を加重値により更新するステップとを有する。【選択図】図7c
Description
本開示は、4Dライトフィールドデータの処理に関する。もっと正確に言えば、本開示は、4Dローライトフィールドデータのデマルチプレキシングを実行することなしに、4Dローライトフィールドデータから直接に2Dのリフォーカシングされた画像を得る技術(すなわち、4Dローライトフィールドデータから導出/取得されたサブアパーチャ画像を使用せずに、リフォーカシングされた画像を得ること)に関する。
本項目は、以下で記載及び/又は請求される本開示の様々な態様に関連し得る技術の様々な態様を読者に紹介することを目的とする。この議論は、本開示の様々な態様のより良い理解を助けるよう読者に背景情報を提供するのに有用であると信じられている。然るに、それらの記述は、この観点から読まれるべきであり、先行技術の承認としてではないことが理解されるべきである。
4Dライトフィールドのサンプリングとして見られ得る4Dライトフィールドデータの取得(すなわち、Anat Levin et al.,“Understanding camera trade-offs through a Bayesian analysis of light field projections”,the Conference Proceedings of ECCV 2008(非特許文献1)の図1で説明されている光線の記録)は、非常に大変な研究テーマである。
実際に、カメラにより捕捉される古典的な2D画像と比較して、4Dライトフィールドデータは、ユーザが、画像のレンダリング及び/又はユーザとの双方向性を向上させる、より多くの後処理機能へのアクセスを有することを可能にする。例えば、4Dライトフィールドデータによれば、後天的な画像のリフォーカシング(すなわち、フォーカスプレーンのポジションが後天的に指定/選択され得ることを意味する、焦点調整の自由に選択された距離によるリフォーカシング)と、画像のシーンにおける視点をわずかに変更することとを容易に行うことが可能である。4Dライトフィールドデータを取得するために、幾つかの技術が使用され得る。特に、国際公開第2013/180192号パンフレット(特許文献1)において又は英国特許出願公開第2488905号明細書(特許文献2)において表されているプレンオプティックカメラは、4Dライトフィールドデータを取得することができる。プレンオプティックカメラのアーキテクチャの詳細は、本願の図1、2、3、4及び5において与えられている。
最新の技術では、4Dライトフィールドデータを提示(又は定義)するための方法が幾つか存在する。実際に、Ren Ng,“Digital Light Field Photography”,Phd dissertation thesis,2006年7月(非特許文献2)のチャプター3.3には、4Dライトフィールドデータを表すための3通りの異なる方法が記載されている。第1に、4Dライトフィールドデータは、例えば、図1に表されているようなプレンオプティックカメラによって記録される場合に、マイクロレンズ画像の収集によって表され得る(本願の図2の記載を参照。)。この表現における4Dライトフィールドデータは、ロー(raw)画像(又は4Dローライトフィールドデータ)と称される。第2に、4Dライトフィールドデータは、サブアパーチャ(sub-aperture)画像の組によって表され得る。サブアパーチャ画像は、ある視点からのシーンの捕捉画像に対応し、視点は、2つのサブアパーチャ画像間でわずかに異なる。それらのサブアパーチャ画像は、撮像されたシーンのパララックス及びデプスに関する情報を与える。第3に、4Dライトフィールドデータは、エピポーラ画像の組によって表され得る(例えば、S. Wanner et al.,“Generating EPI Representation of a 4D Light Fields with a Single Lens Focused Plenoptic Camera”,the conference proceedings of ISVC 2011(非特許文献3)を参照。)。
4Dライトフィールドデータからリフォーカシングを実行するために使用される一般的な技術は、国際公開第2013/167758号パンフレット(特許文献3)で(セクション“image refocusing method”において)説明されるように、マイクロレンズ画像の(すなわち、直接に、IRAWと示される4Dローライトフィールドデータからの)シフト及び付加に基づく。本願の図6は、2D画像を得るために4Dローライトフィールドデータにおいて座標(x,y)にあるピクセルを如何にして投影すべきかを大まかに表す。4Dローライトフィールドピクセル(すなわち、ミクロ画像のピクセル)は、リフォーカシングされた画像内に投影され、一方、重みマップは、積み重ねられた投影ピクセルの数を記録する。重みマップは、投影座標が非整数座標である場合に補間も記録する。全ての4Dローライトフィールドピクセルがリフォーカシングされた画像内に投影され、重みマップが決定されると、リフォーカシングされた画像は重みマップによって分けられ、それにより、夫々のリフォーカシングされたピクセルは、同じ平均寄与を受ける。結果として現れる2D画像は、例えば、ディスプレイ上で出力されるか、あるいは、記憶され及び/又は他のデバイスへ送信され得る。
2Dのリフォーカシングされた画像の品質(特にシャープネス)を改善するために、Juliet Fiss et al.,“Refocusing Plenoptic Images using Depth-Adaptive Splatting”(非特許文献4)に記載されている技術は、補間を目的として使用される。実際に、このアプローチに基づく補間は、2Dのリフォーカシングされた画像に対する4Dローライトフィールドピクセルの影響を広げることにある(座標(x,y)での4Dローライトフィールドピクセルが、スプラット(splat)カーネルの関数として定義される値を有する位置sへ投影される当該文献の図5を参照。)。この文献で記載されるように、「スプラッティングは、放射基底関数を用いる散乱データ補間の形としてみられ得る」。しかし、このアプローチの1つの欠点は、4Dローライトフィールドデータが、2Dのリフォーカシングされた画像上に4Dローライトフィールドピクセルを投影する前に、デモザイキングされるべき点である。このアプローチの他の欠点は、スプラットカーネルが(x,y)で等方性であり、シーンのデプスにのみ依存する点である。最後に、このアプローチの他の欠点は、スプラットカーネルが多焦点プレンオプティックカメラ(例えば、Todor Georgiev and Andrew Lumsdaine,“The Multi-Focus Plenoptic Camera”(非特許文献5))において表されているもの)又はシーンのジオメトリを考慮しない点である。
従って、それらの欠点を解消することができる技術を提供する必要がある。
Anat Levin et al.,"Understanding camera trade-offs through a Bayesian analysis of light field projections",the Conference Proceedings of ECCV 2008
Ren Ng,"Digital Light Field Photography",Phd dissertation thesis,2006年7月
S. Wanner et al.,"Generating EPI Representation of a 4D Light Fields with a Single Lens Focused Plenoptic Camera",the conference proceedings of ISVC 2011
Juliet Fiss et al.,"Refocusing Plenoptic Images using Depth-Adaptive Splatting"
Todor Georgiev and Andrew Lumsdaine,"The Multi-Focus Plenoptic Camera"
「一実施形態」、「実施形態」、「例となる実施形態」との明細書での言及は、記載されている実施形態が特定の機構、構造、又は特性を有してよいが、あらゆる実施形態が必ずしもその特定の機構、構造又は特性を有さなくてよいことを示す。更には、そのようなフレーズは、必ずしも同じ実施形態に言及しているわけではない。更には、特定の機構、構造、又は特性が実施形態に関連して記載される場合に、明示的に記載されていようとなかろうと、他の実施形態に関連してそのような機構、構造、又は特性に作用することは、当業者の知識範囲内にあることが提示される。
本開示は、所与のフォーカスプレーン値gについての4Dローライトフィールドデータからリフォーカシングされた画像を得る方法を対象とする。方法は、電子デバイスによって実行され、少なくとも1つの色成分について、座標(k,l)∈N2での前記リフォーカシングされた画像の少なくとも1つのピクセル値を決定するステップを有することを特徴とする。前記決定するステップは、
前記少なくとも1つの色成分について、前記座標(k,l)の近傍に含まれる座標を有する少なくとも1つの投影ピクセル値を得るステップと、
関数に基づき前記少なくとも1つの投影ピクセル値に重み付けし、加重値を出力するステップと、
前記少なくとも1つの色成分について、座標(k,l)での前記リフォーカシングされた画像の前記少なくとも1つのピクセル値を前記加重値により更新するステップと
を有する。
前記少なくとも1つの色成分について、前記座標(k,l)の近傍に含まれる座標を有する少なくとも1つの投影ピクセル値を得るステップと、
関数に基づき前記少なくとも1つの投影ピクセル値に重み付けし、加重値を出力するステップと、
前記少なくとも1つの色成分について、座標(k,l)での前記リフォーカシングされた画像の前記少なくとも1つのピクセル値を前記加重値により更新するステップと
を有する。
従って、本技術は、リフォーカシングされた画像におけるピクセル値を色成分ごとに決定するよう行われる処理に関する。従って、本技術は、4Dローライトフィールドデータに対してデモザイキング法を使用する必要がない(デモザイキング法に関する更なる詳細は、Zhan Yu et al.による“An Analysis of Color Demosaicing in Plenoptic Cameras”と題された文献において見つけられ得る。)。そのため、本技術は、リフォーカシングされた画像におけるカラーアーチファクトの低減を可能にする。実際に、本技術が夫々の色について適用されると、リフォーカシングされた画像(色成分ごとに1つ)の結合は、カラー画像を得るために行われる。本技術では、デモザイキング法は使用されない。
好適な実施形態において、当該得る方法は、前記少なくとも1つの投影ピクセル値が座標(X,Y)を有し、前記関数が、次(数1)のように定義される、ことを特徴とする:
好適な実施形態において、当該得る方法は、前記少なくとも1つの投影ピクセル値が座標(X,Y)を有し、前記関数が次(数2)のように定義される、ことを特徴とする:
[外3]
に属する値に対応し、greal(X,Y)の値は、前記4Dローライトフィールドデータと関連したシーンにおけるgの実際の値に対応する。もっと正確に言えば、greal(X,Y)は、前記4Dローライトフィールドデータを取得したライトフィールド取得デバイスからの前記4Dローライトフィールドデータと関連したシーンにおける実際の距離に対応する。
好適な実施形態において、当該方法は、前記少なくとも1つの投影ピクセル値が座標(X,Y)を有し、前記関数が次(数3)のように定義される、ことを特徴とする:
好適な実施形態において、当該方法は、前記少なくとも1つの投影ピクセル値が座標(X,Y)を有し、前記関数がW6(k,l,X,Y)=χ((k,l)は([X],[Y])のK近傍ピクセルに属する)であるよう定義される、ことを特徴とする。このとき、χ(.)は、ステートメントが真である場合に1に等しく、それ以外の場合に0に等しい特性関数であり、[.]は端数処理関数であり、K.は2以上の整数である。
好適な実施形態において、当該方法は、前記少なくとも1つの投影ピクセル値が座標(X,Y)=(s[g(x−Cx)+Cx],s[g(y−Cy)+Cy])を有し、sが2Dの前記リフォーカシングされた画像の画像サイズを定義し、座標(x,y)が前記4Dローライトフィールドデータにおけるピクセルの座標に対応し、座標(Cx,Cy)が、座標(x,y)が属するミクロ画像の中心の座標に対応し、前記関数がW7(k,l,X,Y)=PSF(x,y)であるよう定義され、PSFがプレンオプティックカメラの点拡がり関数の推定である、ことを特徴とする。
好適な実施形態において、当該方法は、前記少なくとも1つの投影ピクセル値が座標(X,Y)=(s[g(x−Cx)+Cx],s[g(y−Cy)+Cy])を有し、前記関数が次(数4)のように定義される、ことを特徴とする:
[外5]
は、ノルム関数である。
好適な実施形態において、当該方法は、前記少なくとも1つの投影ピクセル値は、座標(X,Y)=(s[g(x−Cx)+Cx],s[g(y−Cy)+Cy])を有し、前記関数が次(数5)のように定義される、ことを特徴とする:
[外6]
に属する値に対応し、
[外7]
は、ノルム関数である。
好適な実施形態において、当該方法は、前記少なくとも1つの投影ピクセル値が座標(X,Y)=(s[g(x−Cx)+Cx],s[g(y−Cy)+Cy])を有し、前記関数が、i≠4として、次(数6)に等しいように定義される、ことを特徴とする:
好適な実施形態において、当該方法は、前記関数が、可分であるよう定義される、ことを特徴とする。
一実施形態において、前記少なくとも1つのピクセル値の初期化が存在する。例えば、前記少なくとも1つのピクセル値の前記初期化は、前記電子デバイス内のレジスタにおけるヌル値への初期化を含むことができる。
例となる実施に従って、当該方法の異なるステップは、1つ以上のコンピュータソフトウェアプログラムによって実施される。このソフトウェアプログラムは、本開示に従うリレーモジュールのデータプロセッサによって実行されるよう設計されたソフトウェアプログラムを含み、当該方法の異なるステップの実行を制御するよう設計される。
結果として、本開示の態様は、コンピュータによって又はデータプロセッサによって実行されるべきプログラムにも関係がある。このプログラムは、ここで上述された方法のステップの実行を命じる命令を含む。
このプログラムは、どんなものであれ如何なるプログラミング言語も使用し、例えば、部分的にコンパイルされた形で、又は何らかの他の望ましい形で、ソースコード、オブジェクトコード、又はソースコードとオブジェクトコードとの間の中間であるコードの形をとることができる。
本開示は、データプロセッサによって読み出し可能であって、ここで上述されたプログラムの命令を含む情報媒体にも関係がある。
情報媒体は、プログラムを記憶することが可能な如何なるエンティティ又はデバイスであることもできる。例えば、媒体は、ROM(“Read Only Memory”の略語である。)、例えば、CD−ROM(“Compact Disc − Read Only Memory”の略語である。)又は超小型電子回路ROM、あるいは、先と同じく、磁気記録手段、例えば、フロッピー(登録商標)ディスク又はハードディスクのような記憶手段を有することができる。
更に、情報媒体は、無線によって又は他の手段によって電気又は光ケーブルを通じて運ばれ得る電気又は光信号のような、伝送可能なキャリアであってよい。プログラムは、特に、インターネット型ネットワークにダウンロードされ得る。
代替的に、情報媒体は、プログラムが組み込まれている集積回路であることができる。回路は、問題となっている方法を実行するよう構成されるか、又はその実行において使用される。
一実施形態に従って、本開示の実施形態は、ソフトウェア及び/又はハードウェアコンポーネントを用いて実施される。この観点から、語「モジュール」は、本願では、ソフトウェアコンポーネント及びハードウェアコンポーネントの両方に、あるいは、ハードウェア及びソフトウェアコンポーネントの組に、対応することができる。
ソフトウェアコンポーネントは、関連するモジュールについて以下ここで記載されるものに従って機能又は機能の組を実施することが可能な1つ以上のコンピュータプログラム、プログラムの1つ以上のサブプログラム、あるいは、より一般的には、プログラム又はソフトウェアプログラムのいずれかの要素、に対応する。1つのそのようなソフトウェアコンポーネントは、物理エンティティ(端末、サーバ、など)のデータプロセッサによって実行され、この物理エンティティのハードウェアリソース(メモリ、記録媒体、通信バス、入出力電子基板、ユーザインターフェイス、など)にアクセスすることが可能である。
同様に、ハードウェアコンポーネントは、関連するモジュールについて以下ここで記載されるものに従って機能又は機能の組を実施することが可能なハードウェアユニットのいずれかの要素に対応する。それは、プログラム可能なハードウェアコンポーネント、あるいは、ソフトウェアの実行のための集積回路、例えば、集積回路、スマートカード、メモリカード、ファームウェアを実行するための電子基板、などを備えたコンポーネントであってよい。変形例において、ハードウェアコンポーネントは、中央演算処理装置のような集積回路であるプロセッサ、及び/又はマイクロプロセッサ、及び/又は特定用途向け集積回路(ASIC)、及び/又は特定用途向け命令セットプロセッサ(ASIP)、及び/又はグラフィクス処理ユニット(GPU)、及び/又は物理処理ユニット(PPU)、及び/又はデジタル信号プロセッサ(DSP)、及び/又は画像プロセッサ、及び/又はコプロセッサ、及び/又は浮動小数点ユニット、及び/又はネットワークプロセッサ、及び/又はオーディオプロセッサ、及び/又はマルチコアプロセッサを有する。更には、ハードウェアコンポーネントは、ベースバンドプロセッサ(例えば、メモリユニット及びファームウェアを有する。)、及び/又は無線信号を送信若しくは受信する無線電子回路(アンテナを有することができる。)を更に有することができる。一実施形態において、ハードウェアコンポーネントは、ISO/IEC18092/ECMA−340、ISO/IEC21481/ECMA−352、GSMA、StoLPaN、ETSI/SCP(スマートカードプラットフォーム)、グローバルプラットフォーム(すなわち、セキュアエレメント)のような1つ以上の標準に従う。変形例において、ハードウェアコンポーネントは、無線周波数識別(RFID)タグである。一実施形態において、ハードウェアコンポーネントは、Bluetooth(登録商標)通信、及び/又はWi−Fi(登録商標)通信、及び/又はZigbee(登録商標)通信、及び/又はUSB通信、及び/又はファイアワイヤ通信、及び/又はNFC(近距離)通信を可能にする回路を有する。
また、留意すべきは、本願における要素/値を得るステップは、電子デバイスのメモリユニットにおいてそのような要素/値を読み出すステップ、又は通信手段を介して他の電子デバイスからそのような要素/値を受信するステップのいずれかと見なされ得る。
他の実施形態において、所与のフォーカスプレーン値gについての4Dローライトフィールドデータからリフォーカシングされた画像を得る電子デバイスが提案される。当該電子デバイスは、少なくとも1つの色成分について、座標(k,l)∈N2での前記リフォーカシングされた画像の少なくとも1つのピクセル値を決定するよう構成される回路を有する、ことを特徴とする。前記回路は、
前記少なくとも1つの色成分について、前記座標(k,l)の近傍に含まれる座標を有する少なくとも1つの投影ピクセル値を得るよう構成される取得回路と、
関数に基づき前記少なくとも1つの投影ピクセル値に重み付けし、加重値を出力するよう構成される重み付け回路と、
前記少なくとも1つの色成分について、座標(k,l)での前記リフォーカシングされた画像の前記少なくとも1つのピクセル値を前記加重値により更新するよう構成される更新回路と
を有する。
前記少なくとも1つの色成分について、前記座標(k,l)の近傍に含まれる座標を有する少なくとも1つの投影ピクセル値を得るよう構成される取得回路と、
関数に基づき前記少なくとも1つの投影ピクセル値に重み付けし、加重値を出力するよう構成される重み付け回路と、
前記少なくとも1つの色成分について、座標(k,l)での前記リフォーカシングされた画像の前記少なくとも1つのピクセル値を前記加重値により更新するよう構成される更新回路と
を有する。
好適な実施形態において、当該電子デバイスは、前記少なくとも1つの投影ピクセル値が座標(X,Y)を有し、前記関数が次(数8)のように定義される、ことを特徴とする:
本発明の上記及び他の態様は、添付の図面を参照して、その例となる実施形態の以下の詳細な説明によって、より明らかとなるであろう。
本技術が適用され得るライトフィールドデータの取得を可能にするプレンオプティックカメラに含まれる主要なコンポーネントを図式的に示す。
図1のセンサアレイによって捕捉される画像を示す。
完ぺきな薄レンズモデルを仮定して、図式的なプレンオプティック・タイプIIカメラを表す。
完ぺきな薄レンズモデルを仮定して、図式的なプレンオプティック・タイプIIカメラを表す。
タイプIのプレンオプティックカメラを示す。
4Dローライトフィールドピクセルの投影を示す。
本開示の一実施形態に従うスプラッティングプロセスを表す。
本開示の一実施形態に従うスプラッティングプロセスを表す。
本開示の一実施形態に従うスプラッティングプロセスを表す。
ピクセル周囲のテンソル解析に基づく本開示の一実施形態を表す。
ピクセル周囲のテンソル解析に基づく本開示の一実施形態を表す。
マイクロレンズが異なる焦点長さを有するマイクロレンズアレイを有するプレンオプティックカメラから得られる画像及び該画像の部分を表す。
マイクロレンズが異なる焦点長さを有するマイクロレンズアレイを有するプレンオプティックカメラから得られる画像及び該画像の部分を表す。
色チャネルごとに少なくとも1つの値が受け取られる座標(k,l)を有する投影ピクセルを示す。
座標(x,y)にある4Dローライトフィールドデータのピクセル値が投影座標(X,Y)の周囲でK近傍(この場合に、K=6)に如何にしてスプラッティング/拡散されるかを表す。
4Dローライトフィールドデータからの画像をリフォーカシングする方法の幾つかのステップを表す。
本願で開示される方法の1つ以上のステップを実行するために使用され得るデバイスの例を示す。
図1は、本技術が適用され得るライトフィールドデータの取得を可能にするプレンオプティックカメラに含まれる主要なコンポーネントを図式的に示す。
もっと正確に言えば、プレンオプティックカメラは、符号101により参照されるメインレンズと、符号104により参照されるセンサアレイ(すなわち、ピクセルセンサ(例えば、CMOSテクノロジに基づくセンサ)のアレイ)とを有する。メインレンズ101とセンサアレイ104との間には、符号102により参照されるマイクロレンズアレイが位置し、マイクロレンズアレイ102は、符号103により参照される極小レンズのアレイを有する。留意すべきは、任意に幾つかのスペーサが、夫々のレンズの周囲でマイクロレンズアレイとセンサとの間に置かれ、1つのレンズからの光がセンサ側で他のレンズの光と重なり合うことを防ぐ。留意すべきは、メインレンズ101は、図1に表されているものよりも複雑な光学系であることができる(例えば、英国特許出願公開第2488905号明細書の図12及び13に記載される光学系)。従って、プレンオプティックカメラは、図1で表されるようにちょうどセンサの前に設置されたマイクロレンズアレイを従来のカメラに付加したものと見なされ得る。マイクロレンズを通過する光線は、それらの光線の放射を記録するセンサアレイの部分を覆う。センサのこの部分による記録は、マイクロレンズ画像を定義する。
図2は、センサアレイ104によって捕捉される画像を示す。実際に、そのようなビューにおいて、センサアレイ104は、符号201により参照されるピクセルの組を有するように見える。マイクロレンズを通過する光線は多数のピクセル201をカバーし、それらのピクセルは、入射する/受光される光線のエネルギ値を記録する。
従って、プレンオプティックカメラのセンサアレイ104は、2D画像(ロー4Dライトフィールド画像とも称される。)内に配置された2D小画像(すなわち、符号202により参照されるマイクロレンズ画像)の集合を有する画像を記録する。実際に、夫々の小画像(すなわち、マイクロレンズ画像)は、マイクロレンズによって生成される(マイクロレンズは、レンズのアレイの中で座標(i,j)によって識別され得る。)。従って、ライトフィールドのピクセルは、4座標(x,y,i,j)に関連する。センサによって記録される4DライトフィールドであるL(x,y,i,j)は、センサによって記録される画像を表す。夫々のマイクロレンズは、円によって表されるミクロ画像を生成する(小画像の形状は、通常円形であるマイクロレンズの形状に依存する。)。ピクセル座標(センサアレイにおける)は、(x,y)と標示される。pは、2つの連続したミクロ画像間の距離であり、pは整数である必要はない。マイクロレンズは、pがピクセルサイズδよりも大きいように選択される。マイクロレンズ画像は、それらの座標(i,j)によって参照される。夫々のマイクロレンズは、(u,v)座標系を用いてマイクロレンズの瞳をサンプリングする。幾つかのピクセルは、特に、マイクロレンズの形状が円形である場合に、如何なるマイクロレンズからの如何なる光子も受け取らないことがある。この場合に、マイクロレンズ間のスペースは、光子がマイクロレンズから外に出ないようにマスクされ、マイクロレンズにおいて幾つかの暗領域をもたらす。マイクロレンズが正方形状である場合には、マスキングは不要である。マイクロレンズ画像の中心(i,j)は、座標(xi,j,yi,j)でセンサ上に置かれる。θは、ピクセルの正方格子とマイクロレンズの正方格子との間の角度であり、図2ではθ=0である。正方格子に従ってマイクロレンズが配置されているとすると、(xi,j,yi,j)は、マイクロレンズイメージ(0,0)のピクセル座標を(x0,0,y0,0)として、次の式1(数9)によって計算され得る:
プレンオプティックカメラに関する更なる詳細は、Tom E. Bishop and Paolo Favaro,“The Light Field Camera: Extended Depth of Field, Aliasing, and Superresolution”,IEEE Transactions on Pattern Analysis and Machine Intelligence,vol.34,No.5,2012年5月におけるセクション4“Image formation of a Light field camera”において見つけられ得る。
留意すべきは、本技術は、従来のカメラのピクセルの少なくとも一部が米国特許公開第2013/258098号公報において記載されているのと同じ方法(又は類似した方法)において設計される場合に、そのような“従来のカメラ”(追加のマイクロレンズアレイが、メインレンズとピクセルのアレイとの間に位置付けられないという意味における。)に対しても適用され得る。実際に、この米国特許公開第2013/258098号公報は、幾つかの受光セクション(例えば、米国特許公開第2013/258098号公報における116及び117を参照されたい。)の使用によりライトフィールドデータを記録することができるピクセルを開示する。従って、当業者であれば、夫々のマイクロレンズがセンサ104に含まれている2つのピクセル上に光線を集中させる図1で表されたプレンオプティックカメラの一種として米国特許公開第2013/258098号公報の技術を解釈して、ピクセルのアレイを備えたそのような従来のカメラを理解する。留意すべきは、米国特許公開第2013/258098号公報の技術は、より多くの受光セクションがピクセルのアーキテクチャに組み込まれる場合に、ピクセルが2つよりも多いデータ情報(2つのロー及びハイ受光セクションによって得られる。)を記録することができるという意味において、一般化され得る。本開示は、上述されたようにライトフィールドデータを記録することができるピクセルを組み込む“従来のカメラ”のロー画像に対して使用され得る。実際に、それらのロー画像は、マイクロレンズ画像の組と同化され得る。
また、留意すべきは、本開示は、米国特許公開第2010/0265386号公報において、又はA. Levin et al.,“Image and depth from a conventional camera with a coded aperture”,the Proceedings of SIGGRAPH 2007において表されている符号アパーチャ要素(coded aperture elements)を有するか、あるいは、Edward R. Dowski, Jr. and W. Thomas Cathe,“Extended depth of field through wave-front coding”,Applied Optics,1995年4月10日において記載されている波面符号化(wavefront coding)技術を使用するデバイスのような、4Dライトフィールドデータを捕捉する他のデバイスにも適用され得る。
図3及び図4は、完ぺきな薄レンズモデルを仮定して、概略のプレンオプティック・タイプIIカメラを表す。先に導入された距離p及びwは、ピクセル単位で与えられる。それらは、ピクセルサイズδを乗じることによって、夫々物理的な単位距離P及びW(メートル)に変換される:W=δ・w及びP=δ・p。それらの距離は、ライトフィールドカメラの特性に依存する。
メインレンズは焦点長さF及び開口Φを有する。マイクロレンズアレイは、焦点長さfを有するマイクロレンズを有する。マイクロレンズアレイのピッチはφである。マイクロレンズアレイは、メインレンズからの距離D、及びセンサからの距離dに位置する。オブジェクト(図中見えない。)は、メインレンズ(左)からの距離zに位置する。このオブジェクトは、メインレンズ(右)からの距離z′でメインレンズによってフォーカシングされる。
図3及び図4は、夫々、D>z′及びD<z′の場合を表す。いずれの場合にも、マイクロレンズ画像は、d及びfに応じて焦点が合うことができる。この設計は、いわゆるタイプIIプレンオプティックカメラ(プレンオプティックカメラ2.0とも称される。)を指す。
図5は、f=dであるタイプIプレンオプティックカメラ(プレンオプティックカメラ1.0とも称される。)を表す。
図5において、設計は、メインレンズが、マイクロレンズアレイの近くに画像の焦点を合わせているようになされる。メインレンズがまさにマイクロレンズアレイ上に焦点を合わせている場合に、W=∞である。また、マイクロレンズ画像は、全く焦点外であり、定数に等しい(ノイズを考慮せず。)。
レプリケーション距離Wは、オブジェクトの距離zとともに変化する。Wとzとの間の関係を確立するよう、薄レンズの公式:
1/z+1/z′=1/F
及びタレス法:
(D−z′)/φ=(D−z′+d)/W
に依存して、先の2つの式を混合することで、次(数11)が演繹される:
1/z+1/z′=1/F
及びタレス法:
(D−z′)/φ=(D−z′+d)/W
に依存して、先の2つの式を混合することで、次(数11)が演繹される:
1/(D−z′)+1/d=1/f
また、タレス法から、次のように、Pが導出される:
e=(D+d)/D
P=φe
比eは、マイクロレンズのピッチとマイクロレンズ画像のピッチとの間の拡大を定義する。この比は、D≫dであるから、極めて1に近い。
同様の所見は、国際公開第2013/167758号パンフレットにおいて見出され得る。
図6は、座標(X,Y)=(s[g(x−Cx)+Cx],s[g(y−Cy)+Cy])にあるピクセル(2Dのリフォーカシングされた画像における。)上への4Dローライトフィールドピクセル(すなわち、座標(Cx,Cy)に中心を有する、符号600により参照されるマイクロレンズ画像に属する、座標(x,y)でのピクセル)の投影を示す。ここで、gは、リフォーカスプレーンを決定し、sは、2Dのリフォーカシングされた画像の画像サイズを定義する(従って、Igが2Dのリフォーカシングされた画像に対応するとして、size(Ig)=s・size(IRAW))。図6の例では、我々はs=1を有する。リフォーカシングプロセスに関する更なる詳細は、国際公開第2013/167758号パンフレットにおいて詳述されている。
従って、一定の画像サイズs及びフォーカスプレーンgを考えると、リフォーカシングされた画像Igは、4DローライトフィールドデータIRAWの全てのピクセル(x,y)を投影して推定される。留意すべきは、投影された座標(X,Y)は、一様に分布したグリッド上に、又は規則的なグリッド上に必ずしも置かれない。実際に、実数値ポジション(X,Y)の画像平面における分布は、値gに大いに依存する。
留意すべきは、画像のマイクロレンズ中心(Cx,Cy)は、いずれかの最新技術(例えば、Dansereau et al.,“Decoding, calibration and rectification for lenselet-based plenoptic cameras”,the conference proceedings of Computer Vision and Pattern Recognition (CVPR),2013 IEEE Conference on IEEEにおいて記載されるもの)によって推定されると仮定される。
提案される技術は、所与のフォーカスについて4Dローライトフィールドデータからリフォーカシングされた画像を(gの値に基づき)得る方法であって、(k,l)の近傍において投影されるピクセル値の加重和の決定を介して、ポジション(k,l)∈N2でのリフォーカシングされた画像におけるピクセルの値を決定することを含む方法に関する。そのため、リフォーカシングされた画像は、次(数12)のように定義される:
図7a及び7bは、本開示の一実施形態に従うスプラッティングプロセスを表す。この定義によれば、スプラットカーネルはブラー(blur)の量を調整する点に留意されたい。カーネルが大きければ大きいほど、2Dのリフォーカシングされた画像はますますぼやける。
図7aは、強度値IRAW c(x,y)がリフォーカシング面に投影されてポジション(X,Y)の周りで拡げられる(スプラッティングされる)ことを表す。拡がり値は、スプラットカーネルWによって重み付けされる。これは、(X,Y)の周りの全てのピクセルが同じピクセル値を受けるわけではないことを意味する。
図7bは、リフォーカシングされた画像をレンダリングするために、画像グリッドの夫々のピクセルポジション(k,l)について、このポジションでの全ての受け取られたピクセル値の(加重)和が決定されることを示す。この例では、ピクセル(k,l)は2つの値を受ける。例示のために、スプラッティングカーネルの形状はこの図では円形であるが、他の形状が可能である。
図7cは、ポジション(k,l)∈N2でのリフォーカシングされた画像におけるピクセルの値の決定の例を示す。第1のステップで、座標(k,l)∈N2に位置するピクセルの近傍Bklが選択される。本開示の実施形態において、そのような近傍は、座標(k,l)∈N2に中心が置かれ得る。変形例において、そのような近傍は、座標(k,l)∈N2に中心が置かれないが、近傍は座標(k,l)∈N2を有する。近傍のジオメトリは、(円から、図7cで表されているような、より複雑なジオメトリ構造まで)様々であることができる。図7cの例では、赤色成分を有する4DローライトフィールドデータIRAWからのただ3つのピクセルが、近傍Bklにおける投影を有する。そのため、一実施形態において、我々は、赤色成分について、Ig c(k,l)=[W(1)(k,l,X1,Y1)IRAW c(x1,y1)+W(2)(k,l,X2,Y2)IRAW c(x2,y2)+W(3)(k,l,X3,Y3)IRAW c(x3,y3)]×正規化係数を有する。
この式において、重み係数(スプラットカーネルとも称される。)W(1)、W(2)及びW(3)は、同じ関数又は異なる関数であることができる。
同じ近傍について、しかし、他の色成分について、他の投影されたピクセルはこの近傍に含まれる。これより、スプラットカーネルWのとり得る定義の夫々を記述させてもらう。Wの最も簡単な定義は、一定の半径rの円であり、本願ではこれをW0と呼ぶこととする。とは言っても、簡単なスプラットカーネルは、リフォーカシングされた画像を申し分なく回復することができないであろう。
本開示の第1の実施形態において、スプラットカーネルは、
[外12]
に対して減少関数である。これは、W(k,l,X,Y)がその最大値に達し、次いで、
[外13]
が増大するにつれて比例的に減少することを意味する。そのようなスプラットカーネルの例は、次(数13)のように定義される:
[外12]
に対して減少関数である。これは、W(k,l,X,Y)がその最大値に達し、次いで、
[外13]
が増大するにつれて比例的に減少することを意味する。そのようなスプラットカーネルの例は、次(数13)のように定義される:
本開示の第2の実施形態において、夫々の点(x,y)について、gの実際の値であるgreal(x,y)(すなわち、ライトフィールド取得デバイスからの場面における実際の距離)を知っているとする。これは、点(x,y)が焦点を合わせられているはずである面である(これは、シーンのデプスを知ることで推定され得る。)。その場合に、スプラットカーネルは、grealに応じて夫々の点で適応され得る。gは、画像をリフォーカシングしようとしている所望のフォーカスプレーンであるとする。|g−greal|が減少する場合に、スプラットカーネルは、減少関数であると定義される。この定義によれば、リフォーカシングされた面gでの点は鮮明なままでありながら、他の点はぼやけており、不鮮明さの程度は、フォーカスプレーンgまでの距離に比例する。そのようなスプラットカーネルの例は、次(数14)によって与えられる:
本開示の第3の実施形態において、画像(画像境界)の構造及びジオメトリは、スプラットカーネルによって利用され得る重要な情報である。画像エッジを考えると、スプラットカーネルは、その形状を画像境界に適応させる。この場合に、スプラットカーネルは異方性であり、それ自身を画像のエッジに適応させる。例えば、Ix、Iyが画像Iの偏導関数であるとして、
[外14]
と定義される画像のテンソル構造は、画像の局所ジオメトリに関する重要な情報を提供し、固有ベクトルv1、v2は、画像こう配の主方向(接線ベクトル及び法線ベクトルの方向)を提供し、対応する固有値λ1、λ2は、夫々の主方向の大きさを提供する、ことが知られる。特に、固有ベクトルは、シーンの局所ジオメトリを特徴付ける(小さいλ1、λ2は一様なエリアに対応し、大きいλ1、λ2は画像の角に対応し、大きいλ1及び小さいλ2は接線v1を有する画像エッジに対応する。)。図8aは、接線ベクトル及び法線ベクトルが、黒点において計算されたテンソル行列の固有ベクトル及び固有値により推定される画像境界の場合を表す。テンソル解析のおかげで、スプラットカーネルは、画像エッジがある場合にその形状が適応的であるように定義され得る(図8bを参照)。
[外14]
と定義される画像のテンソル構造は、画像の局所ジオメトリに関する重要な情報を提供し、固有ベクトルv1、v2は、画像こう配の主方向(接線ベクトル及び法線ベクトルの方向)を提供し、対応する固有値λ1、λ2は、夫々の主方向の大きさを提供する、ことが知られる。特に、固有ベクトルは、シーンの局所ジオメトリを特徴付ける(小さいλ1、λ2は一様なエリアに対応し、大きいλ1、λ2は画像の角に対応し、大きいλ1及び小さいλ2は接線v1を有する画像エッジに対応する。)。図8aは、接線ベクトル及び法線ベクトルが、黒点において計算されたテンソル行列の固有ベクトル及び固有値により推定される画像境界の場合を表す。テンソル解析のおかげで、スプラットカーネルは、画像エッジがある場合にその形状が適応的であるように定義され得る(図8bを参照)。
テンソル構造によって提供される画像のジオメトリを考慮するスプラットカーネルの例は、次(数15)のように定義される:
値h3及びh3′は、4Dローライトフィールドデータの取得を実行したライトフィールドデバイスのパラメータの関数として定義されるか又はユーザによって入力され得るパラメータである。
実際上、リフォーカシングされた画像のテンソルを推定することは、投影点(X,Y)の変則的なサンプリングに起因して容易でない点に留意されたい。しかし、テンソルは局所変数であり、それは、ロー(RAW)画像において推定されて、画像色値と同じように投影され得る。
第4の実施形態において、スプラットカーネルは、多焦点プレンオプティックカメラにおけるマイクロレンズタイプを考慮する。例えば、Raytrix社のカメラは、3つの異なった焦点長さを有する3種類のマイクロレンズが存在するプレンオプティックカメラである。図9aは、Raytrix社のR5カメラにより捕捉された4Dローライトフィールドデータを示す。
図9bは、同じ画像の異なる部分の3つの異なるクロップ(crop)を示す。マイクロレンズアレイは、焦点長さに関して3つの異なる種類のマイクロレンズによって形成される点に留意されたい。故に、異なるマイクロレンズは、焦点が異なるシーンの3つの部分を有する。左のクロップは、中央にあるクロップと比べて、焦点が合っている同じマイクロレンズを有さず、最後のクロップは、3つのマイクロレンズが焦点外であるシーンの部分を示す。
この実施形態において、我々は、我々のスプラットカーネルが、スプラッティングされる値に応じて変化するという事実を考える。そのような値が、焦点が合っているマイクロレンズに由来する場合に、スプラットカーネルは、焦点が合っていないマイクロレンズの値を拡げるスプラットカーネルと比べて、大きい重みを有すべきである。その考えは、焦点が合っていないマイクロレンズを、焦点が合わせられているマイクロレンズに対して不利にすることである。そのようなスプラットカーネルの例は、次(数16)のように定義される:
本開示の第5の実施形態において、画像サイズs及び所望のフォーカスプレーンgを考えると、リフォーカシングされた面における投影点(X,Y)の分布が決定される。sはスケールのみに責任を負い、一方、gの選択は分布自体を変える。
本技術において、スプラットカーネルは、2Dのリフォーカシングされた画像のレンダリングプロセスが色“ホール”を生成しないように、この分布を考慮する。言い換えると、本技術は、2Dのリフォーカシングされた画像Igの夫々のピクセルポジション(k,l)が、夫々の色の少なくとも1つの強度値をスプラッティングプロセスの間に得ていることを保証する。
実際に、このことは、最大サンプリングステップHによって与えられる最小サイズをスプラットカーネルのサポートが有することを意味する。
そのようなスプラットカーネルの例はW5=W0であり、円は半径r=Hを有する。
図10は、色チャネルごとに少なくとも1つの値を受けるピクセルポジション(k,l)を示す。スプラットカーネルは、最小サイズ(“ホール”を生じさせないために必要なサイズ)が保証されると直ぐに、異なる形状及びサイズを有することができる。
スプラットカーネルの全ての上記の定義は、ピクセル値IRAW c(x,y)を最も近いピクセルまで拡げるよう提案する。なお、本開示の第6の実施形態において、我々は、同じピクセル値を、所与の基準に関して、K近傍(K−NN;K-Nearest Neighbors)ピクセル(色、こう配、などに関する最近傍)まで拡げることができる。形式上:
W6(k,l,X,Y)=χ((k,l)は([X],[Y])のK−NNに属する)
このとき、χ(.)は、特性関数であり(ステートメントが真である場合に1に等しく、それ以外の場合に0に等しい。)、[.]は端数処理関数である。
W6(k,l,X,Y)=χ((k,l)は([X],[Y])のK−NNに属する)
このとき、χ(.)は、特性関数であり(ステートメントが真である場合に1に等しく、それ以外の場合に0に等しい。)、[.]は端数処理関数である。
図11は、K近傍にスプラッティングされる値IRAW c(x,y)を示す。この例では、K=6である。K−NNは、必ずしもユークリッド距離における最も近いピクセルではなく、色、デプス又は何らかの他の基準にして最も近いものである。
本発明の第7の実施形態において、プレンオプティックカメラのPSF(点拡がり関数;Point Spread Function)(又はマイクロレンズアレイのPSF)は、推定され、スプラットカーネルの定義において考慮され得る。そのようなカーネルの1つのとり得る定義は、
W7(k,l,X,Y)=PSF(x,y)
である。夫々の色チャネルは異なるPSFを有するので、スプラットカーネルの定義も、スプラッティングされる色チャネルに応じて適応され得る点に留意されたい。
W7(k,l,X,Y)=PSF(x,y)
である。夫々の色チャネルは異なるPSFを有するので、スプラットカーネルの定義も、スプラッティングされる色チャネルに応じて適応され得る点に留意されたい。
本開示の第8の実施形態において、プレンオプティックカメラは、口径食(vignetting)、特に、マイクロレンズの口径食に悩むことがよく知られている。我々は、スプラッティングプロセスの間に、マイクロレンズの中心からのピクセルと比べて口径食に見舞われるピクセルを不利にすることを提案する。ここで、口径食補正は、常に完ぺきであるわけでなく、補正されたピクセルは、信号対雑音比が悪いと考えられるので、口径食補正アルゴリズムがあっても、そのようなピクセルを不利にすることは有用である。そのようなスプラットカーネルの1つのとり得る定義は、次(数17)を定義すべきである:
メインレンズの口径食を考慮に入れる特定のカーネルも可能である点に留意されたい。
第9の実施形態において、スプラットカーネルは、少なくとも2つの先に定義されたスプラットカーネルの積として計算され得る(例えば、W9=W1W7又はW9=W2W3W6W8)。
図12は、本発明の一実施形態に従うフローチャートを示す。
もっと正確に言えば、図12は、取得された4Dローライトフィールドデータから画像をリフォーカシングする方法の幾つかのステップを表す。
1201で参照されるステップにおいて、電子デバイスは4Dローライトフィールドデータを受ける。更に、幾つかのパラメータが、焦点合わせが行われるべきフォーカスプレーンを定義する前記電子デバイスによって取得される。一実施形態において、それらのパラメータは、ユーザによるユーザインターフェイスとのインタラクション(例えば、焦点合わせが行われるべきオブジェクトを選択するためのインタラクション)を介して得られる。それらのパラメータは、リフォーカシングされた画像のサイズを更に含むことができる。
次いで、1202で参照されるステップで、電子デバイスは、投影されたピクセル(例えば、図6で投影されたピクセル)の全ての座標を決定するために、4Dローライトフィールドデータの全てのピクセル座標を処理する。次いで、2Dのリフォーカシングされた画像における座標を定義するために規則的なグリッド(
[外17]
において定義された有限グリッド)を使用することによって、この規則的なグリッドにおけるピクセル値を決定するプロセスが行われる。座標(k,l)∈N2でのピクセル値を決定するために、上記のプロセスが実行され得る。
[外17]
において定義された有限グリッド)を使用することによって、この規則的なグリッドにおけるピクセル値を決定するプロセスが行われる。座標(k,l)∈N2でのピクセル値を決定するために、上記のプロセスが実行され得る。
変形例において、4Dローライトフィールドデータの全てのピクセルが“投影”されるわけではない。実際に、マイクロレンズ画像のエッジにあるピクセルは捨てられ、従って、リフォーカシングプロセスにおいて投影及び使用されない。
変形例において、2Dのリフォーカシングされた画像におけるピクセルの値の投影及び更新は、同時に行われる。
ステップ1202の終わりに、2Dのリフォーカシングされた画像が得られる。この2Dのリフォーカシングされた画像は、次いで、表示デバイスによって表示され得る。
図13は、本願で開示される方法の1つ以上のステップを実行するために使用され得るデバイスの例を示す。
1300で参照されるそのようなデバイスは、1301で参照されるコンピューティングユニット(例えば、CPU(Central Processing Unit))と、1302で参照される1つ以上のメモリユニット(例えば、中間結果がコンピュータプログラムの命令の実行中に一時的に記憶され得るRAM(Random Access memory)ブロック、又はとりわけ、コンピュータプログラムが記憶されるROMブロック、又はEEPROM(Electrically-Erasable Programmable Read-Only Memory)ブロック、又はフラッシュブロック)とを有する。コンピュータプログラムは、コンピューティングユニットによって実行され得る命令から成る。そのようなデバイス1300は、デバイス1300が他のデバイスと通信することを可能にする入出力インターフェイスを構成する、1303で参照される専用ユニットを更に有することができる。特に、この専用ユニット1303は、アンテナと(接触なしに通信を実行するため。)、あるいは、シリアルポートと(“接触”により通信を運ぶため。)接続され得る。留意すべきは、図13中の矢印は、リンクされたユニットが例えば一緒にバスを通じてデータを交換することができることを示す。
代替の実施形態において、上記の方法のステップの一部又は全ては、プログラム可能FPGA(Field Programmable Gate Array)コンポーネント又はASIC(Application―Specific Integrated Circuit)コンポーネントにおいてハードウェアで実装され得る。
代替の実施形態において、上記の方法のステップの一部又は全ては、図13において開示されているデバイスのような、メモリユニット及びプロセッシングユニットを有する電子デバイスで実行され得る。
本開示の一実施形態において、図13で表されている電子デバイスは、画像(すなわち、ライトフィールドのサンプリング)を捕捉するよう構成されるカメラデバイスに含まれ得る。それらの画像は、1つ以上のメモリユニットにおいて記憶される。従って、それらの画像は、ビットストリームデータ(すなわち、ビットのシーケンス)と見なされ得る。明らかに、ビットストリームは、バイトストリームにおいても変換され得、その逆も同様である。
Claims (15)
- 所与のフォーカスプレーン値gについての4Dローライトフィールドデータからリフォーカシングされた画像を得る方法であって、電子デバイスによって実行される方法において、
少なくとも1つの色成分について、座標(k,l)∈N2での前記リフォーカシングされた画像の少なくとも1つのピクセル値を決定するステップを有し、
前記決定するステップは、
前記少なくとも1つの色成分について、前記座標(k,l)の近傍に含まれる座標を有する少なくとも1つの投影ピクセル値を得るステップと、
関数に基づき前記少なくとも1つの投影ピクセル値に重み付けし、加重値を出力するステップと、
前記少なくとも1つの色成分について、座標(k,l)での前記リフォーカシングされた画像の前記少なくとも1つのピクセル値を前記加重値により更新するステップと
を有する、ことを特徴とする方法。 - 前記少なくとも1つの投影ピクセル値は、座標(X,Y)を有し、
前記関数は、χ(.)が、ステートメントが真である場合に1に等しく、それ以外の場合に0に等しい特性関数であり、[.]が端数処理関数であり、K.が2以上の整数であるとして、
W6(k,l,X,Y)=χ((k,l)は([X],[Y])のK近傍ピクセルに属する)
であるよう定義される、請求項1に記載の方法。 - 前記少なくとも1つの投影ピクセル値は、座標(X,Y)=(s[g(x−Cx)+Cx],s[g(y−Cy)+Cy])を有し、
sは、2Dの前記リフォーカシングされた画像の画像サイズを定義し、座標(x,y)は、前記4Dローライトフィールドデータにおけるピクセルの座標に対応し、座標(Cx,Cy)は、座標(x,y)が属するミクロ画像の中心の座標に対応し、
前記関数は、W7(k,l,X,Y)=PSF(x,y)であるよう定義され、
PSFは、プレンオプティックカメラの点拡がり関数の推定である、
請求項1に記載の方法。 - 前記少なくとも1つの投影ピクセル値は、座標(X,Y)=(s[g(x−Cx)+Cx],s[g(y−Cy)+Cy])を有し、
sは、2Dの前記リフォーカシングされた画像の画像サイズを定義し、座標(x,y)は、前記4Dローライトフィールドデータにおけるピクセルの座標に対応し、座標(Cx,Cy)は、座標(x,y)が属するミクロ画像の中心の座標に対応し、
前記関数は、i≠4として、
S(x,y)は、(x,y)が属するマイクロレンズのシャープネスの尺度であり、Smaxは、前記4Dローライトフィールドデータの全てのマイクロレンズにわたる最大シャープネス値に対応する、
請求項2乃至8のうちいずれか一項に記載の方法。 - 前記関数は、可分であるよう定義される、
請求項2乃至9のうちいずれか一項に記載の方法。 - 前記更新するステップは、前記加重値を前記少なくとも1つのピクセル値に加えることを含む、
請求項1乃至11のうちいずれか一項に記載の方法。 - コンピュータによって実行される場合に4Dローライトフィールドデータを処理する方法を実施するコンピュータ実行可能命令の組を有するコンピュータプログラムを記憶しているコンピュータ読出可能な非一時的記憶媒体であって、
前記命令は、実行される場合に、前記コンピュータを、請求項1乃至12のうちいずれか一項に記載の方法を実行するよう構成する命令を含む、
コンピュータ読出可能な非一時的記憶媒体。 - 所与のフォーカスプレーン値gについての4Dローライトフィールドデータからリフォーカシングされた画像を得る電子デバイスであって、
少なくとも1つの色成分について、座標(k,l)∈N2での前記リフォーカシングされた画像の少なくとも1つのピクセル値を決定するよう構成される回路を有し、
前記回路は、
前記少なくとも1つの色成分について、前記座標(k,l)の近傍に含まれる座標を有する少なくとも1つの投影ピクセル値を得るよう構成される取得回路と、
関数に基づき前記少なくとも1つの投影ピクセル値に重み付けし、加重値を出力するよう構成される重み付け回路と、
前記少なくとも1つの色成分について、座標(k,l)での前記リフォーカシングされた画像の前記少なくとも1つのピクセル値を前記加重値により更新するよう構成される更新回路と
を有する、ことを特徴とする電子デバイス。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP15305816.9A EP3098778A1 (en) | 2015-05-29 | 2015-05-29 | Method for obtaining a refocused image from 4d raw light field data |
EP15305816.9 | 2015-05-29 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016224948A true JP2016224948A (ja) | 2016-12-28 |
Family
ID=53396409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016105771A Pending JP2016224948A (ja) | 2015-05-29 | 2016-05-27 | 4dローライトフィールドデータからリフォーカシングされた画像を得る方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10182183B2 (ja) |
EP (2) | EP3098778A1 (ja) |
JP (1) | JP2016224948A (ja) |
KR (1) | KR20160140453A (ja) |
CN (1) | CN106210465A (ja) |
BR (1) | BR102016011825A2 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9693038B2 (en) * | 2015-04-21 | 2017-06-27 | Hand Held Products, Inc. | Systems and methods for imaging |
WO2018024490A1 (en) * | 2016-08-05 | 2018-02-08 | Thomson Licensing | A method for obtaining at least one sub-aperture image being associated with one view |
CN106937044B (zh) * | 2016-12-14 | 2020-10-23 | 北京信息科技大学 | 不完备数据下由聚焦堆栈重建光场的代数迭代方法和装置 |
EP3416381A1 (en) | 2017-06-12 | 2018-12-19 | Thomson Licensing | Method and apparatus for providing information to a user observing a multi view content |
EP3416371A1 (en) * | 2017-06-12 | 2018-12-19 | Thomson Licensing | Method for displaying, on a 2d display device, a content derived from light field data |
US10230911B1 (en) * | 2017-08-29 | 2019-03-12 | Ricoh Company, Ltd | Preview generation for plenoptic imaging systems |
CN111382753B (zh) * | 2018-12-27 | 2023-05-12 | 曜科智能科技(上海)有限公司 | 光场语义分割方法、***、电子终端及存储介质 |
US11030776B2 (en) | 2019-02-01 | 2021-06-08 | Molecular Devices (Austria) GmbH | Calibration of a light-field imaging system |
CN110222789B (zh) * | 2019-06-14 | 2023-05-26 | 腾讯科技(深圳)有限公司 | 图像识别方法及存储介质 |
CN111028257B (zh) * | 2019-11-06 | 2022-05-17 | 北京航空航天大学 | 微透镜子图像几何中心及边缘的提取方法及装置 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7792423B2 (en) | 2007-02-06 | 2010-09-07 | Mitsubishi Electric Research Laboratories, Inc. | 4D light field cameras |
US8315476B1 (en) | 2009-01-20 | 2012-11-20 | Adobe Systems Incorporated | Super-resolution with the focused plenoptic camera |
US8749694B2 (en) * | 2010-08-27 | 2014-06-10 | Adobe Systems Incorporated | Methods and apparatus for rendering focused plenoptic camera data using super-resolved demosaicing |
US8724000B2 (en) * | 2010-08-27 | 2014-05-13 | Adobe Systems Incorporated | Methods and apparatus for super-resolution in integral photography |
JP5623313B2 (ja) | 2011-03-10 | 2014-11-12 | キヤノン株式会社 | 撮像装置および撮像光学系 |
US9568606B2 (en) | 2012-03-29 | 2017-02-14 | Canon Kabushiki Kaisha | Imaging apparatus for distance detection using high and low sensitivity sensors with inverted positional relations |
CN104303493A (zh) * | 2012-05-09 | 2015-01-21 | 莱特洛公司 | 用于改进的光场捕获和操作的光学***的优化 |
GB2501936B (en) | 2012-05-11 | 2016-11-30 | Canon Kk | Micro lens array and imaging apparatus |
JP6168794B2 (ja) | 2012-05-31 | 2017-07-26 | キヤノン株式会社 | 情報処理方法および装置、プログラム。 |
JP2014016965A (ja) | 2012-07-11 | 2014-01-30 | Toshiba Corp | 画像処理装置、画像処理方法およびプログラム、ならびに、撮像装置 |
US9456141B2 (en) * | 2013-02-22 | 2016-09-27 | Lytro, Inc. | Light-field based autofocus |
-
2015
- 2015-05-29 EP EP15305816.9A patent/EP3098778A1/en not_active Withdrawn
-
2016
- 2016-05-24 BR BR102016011825A patent/BR102016011825A2/pt not_active Application Discontinuation
- 2016-05-25 KR KR1020160064349A patent/KR20160140453A/ko unknown
- 2016-05-27 CN CN201610365799.3A patent/CN106210465A/zh active Pending
- 2016-05-27 EP EP16171605.5A patent/EP3098779B1/en active Active
- 2016-05-27 JP JP2016105771A patent/JP2016224948A/ja active Pending
- 2016-05-28 US US15/168,032 patent/US10182183B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
BR102016011825A2 (pt) | 2017-01-24 |
US10182183B2 (en) | 2019-01-15 |
EP3098779B1 (en) | 2021-09-01 |
EP3098779A1 (en) | 2016-11-30 |
EP3098778A1 (en) | 2016-11-30 |
CN106210465A (zh) | 2016-12-07 |
US20160353007A1 (en) | 2016-12-01 |
KR20160140453A (ko) | 2016-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016224948A (ja) | 4dローライトフィールドデータからリフォーカシングされた画像を得る方法 | |
JP7186672B2 (ja) | マルチスコピック雑音削減およびハイ・ダイナミック・レンジのためのシステムおよび方法 | |
US10334229B2 (en) | Method for obtaining a refocused image from a 4D raw light field data using a shift correction parameter | |
CN110476185B (zh) | 景深信息估算方法和装置 | |
EP3053332B1 (en) | Using a second camera to adjust settings of first camera | |
JP5362087B2 (ja) | 距離情報を決定するための方法、距離マップを決定するための方法、コンピュータ装置、撮影システム、コンピュータプログラム | |
JP6347675B2 (ja) | 画像処理装置、撮像装置、画像処理方法、撮像方法及びプログラム | |
US20170358094A1 (en) | Adaptive Focus Sweep Techniques For Foreground/Background Separation | |
US8436912B2 (en) | Range measurement using multiple coded apertures | |
WO2013145554A1 (ja) | 画像処理装置及び画像処理方法 | |
US10827107B2 (en) | Photographing method for terminal and terminal | |
US9508153B2 (en) | Distance measurement apparatus, imaging apparatus, distance measurement method, and program | |
EP3249607A1 (en) | Method for obtaining a position of a main lens optical center of a plenoptic camera | |
US9007483B2 (en) | Image synthesis device and computer program for image synthesis for synthesizing a plurality of images of different exposure times | |
US10366478B2 (en) | Method and device for obtaining a HDR image by graph signal processing | |
EP3166073A1 (en) | Method for obtaining a refocused image from 4d raw light field data | |
US11080873B2 (en) | Image processing apparatus, image capturing apparatus, image processing method, and storage medium | |
WO2016113805A1 (en) | Image processing method, image processing apparatus, image pickup apparatus, program, and storage medium | |
CN113673474A (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
WO2024091783A1 (en) | Image enhancement for image regions of interest | |
WO2023192706A1 (en) | Image capture using dynamic lens positions | |
EP4068200A1 (en) | Imaging system and method | |
Manne et al. | Asymmetric wide tele camera fusion for high fidelity digital zoom | |
JP2017182668A (ja) | データ処理装置、撮像装置、及びデータ処理方法 | |
JP2015026192A (ja) | 画像処理装置、画像処理方法及びプログラム |