JP5795324B2 - 光フィールドデータを利用した映像処理装置及び方法 - Google Patents

光フィールドデータを利用した映像処理装置及び方法 Download PDF

Info

Publication number
JP5795324B2
JP5795324B2 JP2012541014A JP2012541014A JP5795324B2 JP 5795324 B2 JP5795324 B2 JP 5795324B2 JP 2012541014 A JP2012541014 A JP 2012541014A JP 2012541014 A JP2012541014 A JP 2012541014A JP 5795324 B2 JP5795324 B2 JP 5795324B2
Authority
JP
Japan
Prior art keywords
image
video
field data
resolution
refocusing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012541014A
Other languages
English (en)
Other versions
JP2013512612A (ja
Inventor
イム,ジェ−ギュン
カン,ジュ−ヨン
パク,ビョン−グァン
リ,ソン−ドク
チェー,ウォン−ヒ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2013512612A publication Critical patent/JP2013512612A/ja
Application granted granted Critical
Publication of JP5795324B2 publication Critical patent/JP5795324B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本発明は、撮像アプリケーションに係り、より詳細には、光フィールドデータを用いて映像を処理する装置及び方法に関する。
現在、商用化された撮像システムは、1回の撮影で1つの映像のみ見られる。しかし、最近、フォーカスを再組合する機能付きプレノプティックカメラ(plenoptic camera)が研究されている。プレノプティックカメラは、光フィールド(lightfield)カメラと呼ばれ、マイクロレンズアレイ(通常、レンチキュラーレンズアレイ)または光符号化マスク(light coded mask)を用いて、場面に対する4次元光フィールド情報をキャプチャーする。このようなプレノプティックカメラは、1回の撮影後、フォーカス平面を変える機能(re−focusing)と場面を多くの角度から見るようなビューバリエーション(view variation)のような機能をユーザに提供する。
一方、多くの領域で高解像度(high−resolution)映像が必要である。監視用カメラ、精密診断のためのCT(Computed Tomography)写真、パターンを認識するコンピュータビジョン、地質調査位相写真などがその例である。このような高解像度映像を得るために、低解像度映像シーケンスから信号処理技術を用いて、高解像度映像を再構成する方法が研究されている。
本発明は、光フィールドデータを用いて所望のフォーカシング位置を含む映像の領域に対して解像度を高めるための映像処理装置及び方法が提案される。
本発明の一態様によれば、場面に対する光フィールドデータのうちから所望のフォーカシング位置によって、一部の光フィールドデータの位置を決定する光フィールドデータ位置決定部と、前記位置決定された一部の光フィールドデータを用いて、リフォーカシングされた第1映像を生成させるリフォーカシング映像生成部と、前記場面に対する光フィールドデータを用いて、前記第1映像に対する設定された比率の高解像度映像を生成させる高解像度映像生成部と、前記位置決定された一部の光フィールドデータの類似度を用いて、前記第1映像の高解像度映像及び前記リフォーカシングされた第1映像の地域的な合成比率を決定する合成比率決定部と、前記地域的な合成比率によって、前記高解像度映像及び前記第1映像を合成して合成映像を生成させる映像合成部と、を含む映像処理装置が提供される。
前記光フィールドデータ位置決定部は、前記所望のフォーカシング位置を含む前記場面を表わす映像の一部の領域に対応する第2映像を設定し、撮像面とリフォーカシング面との位置関係を表わすアルファ値を変化させながら、前記第2映像に対する複数個のリフォーカシング映像を生成させ、該生成されたリフォーカシング映像のうち、最も高鮮明度の映像を生成させたアルファ値を決定し、該決定されたアルファ値を用いて、前記一部の光フィールドデータの位置を決定する。
前記合成比率決定部は、前記一部の光フィールドデータの類似度が高い領域であるほど、前記高解像度映像の合成比率がさらに高くなるように、前記地域的な合成比率を決定する。
前記合成比率決定部は、前記決定された位置での光フィールドデータの強度値の不均一度を表わす不均一度マップを生成させる不均一度マップ生成部と、前記不均一度マップを用いて、前記高解像度映像及び前記拡大されたリフォーカシングされた映像の前記地域的な合成比率情報を含む不均一度比率マップを生成させる不均一度比率マップ生成部と、前記不均一度比率マップを前記設定された比率で拡大する不均一度比率マップ拡大部と、を含む。
前記映像合成部は、前記第1映像を設定された比率によって拡大し、該拡大された第1映像及び前記高解像度映像を前記決定された地域的合成比率で合成する。
前記高解像度映像生成部は、前記決定されたアルファ値を用いて決定された位置の光フィールドデータを用いて、1つの基準映像フレーム及び少なくとも1つの参照映像フレームを決定する映像フレーム決定部と、前記基準映像フレームと少なくとも1つの参照映像フレームとの間のサブピクセルシフト量に基づいて、ポイントスプレッド関数を決定するポイントスプレッド関数決定部と、前記基準映像フレームを前記基準映像フレームより高い解像度の高解像度基準映像フレームに補間する映像補間部と、生成された高解像度基準映像フレーム、前記ポイントスプレッド関数及び前記少なくとも1つの参照映像フレームを用いて、前記高解像度基準映像フレームを更新することによって、高解像度映像を復元する映像復元部と、を含む。
前記サブピクセルシフト量は、前記基準映像フレームと前記各参照映像フレームとでそれぞれ対応する光フィールドデータの間の位置差である。
前記映像フレーム決定部は、前記アルファ値を用いて位置決定された光フィールドデータを用いて、1つの角度から見えるビュー映像を前記基準映像フレームとして決定し、前記基準映像フレームとして決定されたビュー映像以外の他の角度から見える少なくとも1つのビュー映像を前記少なくとも1つの参照映像フレームとして決定する。
前記ポイントスプレッド関数決定部は、前記基準映像フレームと各参照映像フレームとの間のサブピクセルシフト量に基づくそれぞれの2次元ガウス関数を前記ポイントスプレッド関数として決定する。
前記映像復元部は、生成された高解像度基準映像フレーム、前記参照映像フレームのうちの1つ、及び前記1つの参照映像フレームと前記基準映像フレームとに基づいたポイントスプレッド関数を用いて、レジデュアル値を生成させるレジデュアル値生成部と、前記レジデュアル値を用いて、前記高解像度基準映像フレームを更新する映像更新部と、を含む。
前記レジデュアル値は、前記1つの参照映像フレームから、前記高解像度基準映像フレームと前記ポイントスプレッド関数とをコンボリューションした値を減算した値である。
前記レジデュアル値生成部は、前記高解像度基準映像フレームが更新された場合、前記更新された高解像度基準映像フレーム、前記参照映像フレームのうちの他の1つ、及び前記他の1つの参照映像フレームと前記基準映像フレームとに基づいたポイントスプレッド関数を用いて、レジデュアル値を生成させる。
前記レジデュアル値は、前記他の1つの参照映像フレームから、前記更新された高解像度基準映像フレームと前記ポイントスプレッド関数とをコンボリューションした値を減算した値である。
前記映像処理装置は、物体の像を結ぶための第1光学部と、光線をキャプチャーするフォトセンサーアレイと、前記第1光学部と前記フォトセンサーアレイとの間に位置し、光線を光線の方向に基づいて分離して、前記フォトセンサーアレイに向かわせる第2光学部を含む光フィールドデータキャプチャー部と、をさらに含む。
本発明の他の態様によれば、場面に対する光フィールドデータのうちから所望のフォーカシング位置によって、一部の光フィールドデータの位置を決定する段階と、前記位置決定された一部の光フィールドデータを用いて、リフォーカシングされた第1映像を生成させる段階と、前記場面に対する光フィールドデータを用いて、前記第1映像に対する設定された比率の高解像度映像を生成させる段階と、所望のフォーカシング位置によって選択された一部の光フィールドデータの類似度を用いて、前記高解像度映像及び前記第1映像の地域的な合成比率を決定する段階と、前記地域的な合成比率によって、前記高解像度映像及び前記第1映像を合成して合成映像を生成させる段階と、を含む映像処理方法が提供される。
場面に対する光フィールドデータのうちから所望のフォーカシング位置によって、一部の光フィールドデータの位置を決定する段階は、前記フォーカシング位置を含む前記映像の一部の領域に対応する第2映像を設定する段階と、撮像面とリフォーカシング面との位置関係を表わすアルファ値を変化させながら、前記第2映像に対する複数個のリフォーカシング映像を生成させる段階と、生成されたリフォーカシング映像のうち、最も高鮮明度の映像を生成させたアルファ値を決定する段階と、選択されたアルファ値を用いて、前記一部の光フィールドデータの位置を決定する段階と、を含む。
前記合成比率を決定する段階で、前記一部の光フィールドデータの類似度が高い領域であるほど、前記高解像度映像の合成比率がさらに高くなるように合成比率が決定される。
前記合成比率を決定する段階は、前記アルファ値によって決定された光フィールドデータの位置での光フィールドデータの強度値の不均一度を表わす不均一度マップを生成させる段階と、前記不均一度マップを用いて、前記高解像度映像及び前記拡大されたリフォーカシングされた映像の地域的な合成比率情報を含む不均一度比率マップを生成させる段階と、前記不均一度比率マップを前記設定された比率で拡大する段階と、を含む。
前記映像を合成する段階は、前記第1映像を設定された比率によって拡大する段階と、前記拡大された第1映像及び前記高解像度映像を前記決定された地域的合成比率で合成する段階と、を含む。
前記高解像度映像を生成させる段階は、前記決定されたアルファ値を用いて、1つの基準映像フレーム及び少なくとも1つの参照映像フレームを決定する段階と、前記基準映像フレームと少なくとも1つの参照映像フレームとの間のサブピクセルシフト量に基づいて、ポイントスプレッド関数を決定する段階と、前記基準映像フレームを前記基準映像フレームより高い解像度の高解像度基準映像フレームに補間する段階と、生成された高解像度基準映像フレーム、前記ポイントスプレッド関数及び前記少なくとも1つの参照映像フレームを用いて、前記高解像度基準映像フレームを更新することによって、高解像度映像を復元する段階と、を含む。
本発明のまた他の態様によれば、所望のフォーカシング位置を決定し、撮像面とリフォーカシング面との位置関係を表わす前記フォーカシング位置のアルファ値を決定する段階と、前記アルファ値による角度データからリフォーカシング映像を生成させる段階と、前記アルファ値による角度データのサブピクセル変位に基づいてリフォーカシング領域の解像度を高めて、高解像度映像を生成させる段階と、前記アルファ値による角度データの類似度を判断して、前記フォーカシング領域とアウトフォーカシング領域とを区分する段階と、前記リフォーカシング映像と前記高解像度映像とを合成する段階と、を含むことを特徴とする4次元光フィールド処理方法が提供される。
前記アルファ値は、最も鮮明なリフォーカシング映像が生成されるまでアルファ値を変化させて決定される。
本発明のさらに他の態様によれば、前記方法を具現することができるプログラムを保存するコンピュータで読取り可能な情報記録媒体が提供される。
映像処理装置の構成の一例を示す図である。 光フィールドデータを利用した映像処理を説明するための図である。 図1のデータ処理部150によるリフォーカシング映像を生成させる方法を説明するための図である。 プレノプティックカメラの方向分解能、空間分解能、及びフォトセンサーのピクセルサイズとの関係を示す図である。 図1の映像処理装置のデータ処理部150の構成の一例を示す図である。 アルファ値の決定動作の一例を示す図である。 アルファ値の決定動作の一例を示す図である。 アルファ値の決定動作の一例を示す図である。 決定されたアルファ値に基盤して不均一マップ生成のための光フィールドデータの値を示すための図である。 決定されたアルファ値に基盤して不均一マップ生成のための光フィールドデータの値を示すための図である。 図5の合成比率決定部550の構成の一例を示す図である。 比率関数の一例を示す図である。 一実施例による高解像度映像の再構成の概念を示す図である。 一実施例による高解像度映像の再構成の概念を示す図である。 一実施例による高解像度映像の再構成の概念を示す図である。 図5の高解像度映像生成部540の構成の一例を示すブロック図である。 一実施例によって、基準映像フレーム及び参照映像フレームを選定する方式を示す図である。 一実施例によって、基準映像フレーム及び参照映像フレームを選定する方式を示す図である。 一実施例による光フィールドデータ基盤基準映像フレームに比べてサブピクセルシフト量を示すための図である。 一実施例による光フィールドデータ基盤基準映像フレームに比べてサブピクセルシフト量を示すための図である。 一実施例による光フィールドデータ基盤基準映像フレームに比べてサブピクセルシフト量を示すための図である。 基準映像フレーム基盤で高解像度基準映像フレームを生成させる動作の一例を示す図である。 基準映像フレーム基盤PSF計算の一例を示す図である。 光フィールドデータを用いて所望のフォーカシング領域に対する高解像度映像を生成させる方法の一例を示す図である。 光フィールドデータを用いて高解像度映像を生成させる方法の一例を示す図である。
以下、添付した図面を参照して、本発明の一実施例を詳細に説明する。本発明を説明するに当って、関連した公知機能または構成についての具体的な説明が、本発明の要旨を不明にする恐れがあると判断される場合には、その詳細な説明を省略する。また、後述する用語は、本発明での機能を考慮して定義された用語であって、これは、ユーザ、運用者の意図または慣例などによって変わりうる。したがって、その定義は、本明細書の全般に亘った内容に基づいて下されなければならない。
図1は、映像処理装置の構成の一例を示す図である。一態様による映像処理装置100は、物体の像を結ぶためのメインレンズ110、メインレンズ110を通過した光線を、光線の方向に基づいて分離して、フォトセンサーアレイ130に向かわせるマイクロレンズアレイ120及びフォトセンサーアレイ130を有している光フィールドデータキャプチャー部140、及びキャプチャーされた光フィールドデータを処理するデータ処理部150を含む。この場合に、マイクロレンズアレイ120及びフォトセンサーアレイ130は、イメージセンサー160として具現可能である。このような映像処理装置を用いてリフォーカシングされた映像や多くの角度から見えるビュー映像(view image)を獲得(すなわち、映像のビュー調整)することができる。
イメージ化された場面内の被写体105上の単一点からの光線は、マイクロレンズアレイ120の焦点平面上の単一収斂点に到達されうる。この収斂点でのマイクロレンズ122は、これら光線を光の方向に基づいて分離させ、マイクロレンズ下のフォトセンサー上にメインレンズ110の口径のフォーカシングされたイメージを生成させる。
フォトセンサーアレイ130は、その上に入射される光を検出し、さまざまな成分の1つ以上を使って処理される出力を生成させる。出力光データは、例えば、被写体105、106、及び107を含む場面のイメージを生成する時、データを提供する各フォトセンサーについての位置情報と共にデータを使うデータ処理部150に送られる。
データ処理部150は、例えば、共通部品(例えば、1チップ)または異なる部品に選択的に具現されたコンピュータまたはその他の処理回路として具現可能である。データ処理部150の一部は、光フィールドデータキャプチャー部140内に具現され、他の部分は、外部コンピュータに具現可能である。データ処理部150は、イメージデータを処理し、被写体105、106、及び107を含む場面のイメージを計算するように具現される。
データ処理部150は、光がマイクロレンズアレイ120に到逹した公知された方向(各フォトセンサーの公知された位置を使って計算される)と共に検出された光または検出された光の特性を使って、リフォーカシング(refocusing)が校正されうるイメージを形成する時、データを選択的にリフォーカシング及び/または校正する。
映像処理装置は、アプリケーションによってさまざまな方式として具現される。例えば、マイクロレンズ120は、例として、幾つかの区別可能なマイクロレンズで示されるが、アレイは、一般的に多数の(例えば、数千または数百万)マイクロレンズとして具現される。メインレンズ110を通過した光線を光線の方向に基づいて分離する1つのマイクロレンズアレイ120以外に、光符号化マスクなどの他の形態で構成することができる。マイクロレンズアレイ120は、光符号化マスクのような他の形態の光分離装置として具現され、メインレンズ110は第1光学部と呼ばれ、マイクロレンズアレイ122は第2光学部と呼ばれる。当該技術分野の通常の知識を有した者は、現在利用可能であるか、将来に開発されるさまざまなレンズ及び/またはマイクロレンズアレイを用いて、メインレンズ110及びマイクロレンズアレイ120が具現可能であるということが分かる。
フォトセンサーアレイ130は、一般的に、マイクロレンズアレイ120内のそれぞれのマイクロレンズごとに幾つかのフォトセンサーを有する。フォトセンサーアレイ130の各ピクセルのサイズ、すなわち、ピッチ(pitch)は、マイクロレンズアレイ122より相対的に微細である。また、マイクロレンズアレイ120内のマイクロレンズ及びフォトセンサーアレイ130内のフォトセンサーは、一般的にそれぞれのマイクロレンズを通じてフォトセンサーアレイに進む光が、隣接したマイクロレンズを通じて進んだ光と重ならないように位置設定しうる。
映像処理装置は、メインレンズ110と例示的な撮像被写体105との間に例示されたような所望の深度“d”で関心のある被写体上にフォーカシングするために、光軸に沿って水平方向に移動するような性能を有する。したがって、獲得された光フィールドデータ基盤で各関心位置にリフォーカシングができる。
例として、被写体105の単一点からの光線は、このような説明のために示される。これら光線は、マイクロレンズアレイ120の焦点平面上のマイクロレンズ122から単一収斂点に到逹することができる。マイクロレンズ122は、これら光線の方向に基づいて分離して、マイクロレンズ下のピクセルアレイ内のピクセルセット上でメインレンズ110の口径のフォーカシングされたイメージ及び光フィールドデータを生成させる。
図2は、光フィールドデータを利用した映像処理を説明するための図である。映像処理装置100内部の2平面光フィールド“L”を考慮すれば、光フィールドデータL(u,v,s,t)は、(u,v)でメインレンズ110と交差し、(s,t)でマイクロレンズアレイ120の平面と交差する光線に沿って移動する光を表わす。光フィールドデータL(u,v,s,t)は、光線の位置情報及び光線の進行方向情報を表すことができる。例えば、光フィールドデータL(u,v,s,t)は、各マイクロレンズ(s,t)で、メインレンズ110の各サブアパーチュア(sub−aperture)の位置(u,v)を通過するインテンシティ値を表わす。ここで、サブアパーチュアは、メインレンズ110の方向分解能の個数を意味する。例えば、サブアパーチュアの個数が196個である場合、各マイクロレンズアレイ120は、フォトセンサーの196個のピクセルに対応して構成することができる。
再び図1を参照すると、フォトセンサーアレイ130内のそれぞれのフォトセンサーは、メインレンズ110及びマイクロレンズアレイ120を通じてフォトセンサーに向けた光線セットを表わす値を提供するように具現可能である。すなわち、それぞれのフォトセンサーは、フォトセンサー上に入射された光に応答して出力を生成させ、マイクロレンズアレイ120に対する各フォトセンサーの位置は、入射光についての方向情報を提供するために利用される。
一方、マイクロレンズアレイ120内の特定マイクロレンズ122下に形成されるイメージは、撮像平面上のその位置に対するシステムの方向分解能(directionalresoultion)を指示する。メインレンズ110は、有効にマイクロレンズの光学的無限距離にあり、マイクロレンズをフォーカシングするために、フォトセンサーアレイ130は、マイクロレンズの焦点深度で1平面内に位置しうる。メインレンズ110とマイクロレンズアレイ120との分離距離“s”は、マイクロレンズの視野深度内で鋭いイメージを果たすように選択されうる。
メインレンズ110の口径サイズ及びマイクロレンズアレイ120内のマイクロレンズの口径サイズ(例えば、レンズ内の開口部の有効サイズ)は、映像処理装置100が具現される特定アプリケーションに符合するように選択されうる。
データ処理部150は、光フィールドデータ、すなわち、L(u,v,s,t)を用いてリフォーカシング映像を生成することができる。この際、データ処理部150は、マイクロレンズに対する各フォトセンサーの位置を用いて、各フォトセンサー上の光の方向を決定することができる。また、データ処理部150は、検出された光が広がって出る場面内の被写体の視野深度を決定し、視野深度及び検出された光の方向を使って、焦点平面とは異なる焦点平面上でフォーカシングされるリフォーカシング映像を計算することができる。
図3は、図1のデータ処理部150によるリフォーカシング映像を生成させる方法を説明するための図である。図3に示したように、メインレンズ110の面310とフォトセンサーアレイ130が位置する撮像面330との距離がFであり、メインレンズ110の面とリフォーカシング面320との距離がF’である時、F’=αFとして設定することができる。この場合、リフォーカシング面320上の座標(s,t)の撮像面330での検出強度LFは、以下の式(1)で表すことができる。
Figure 0005795324
式(1)を利用すれば、撮像面330とリフォーカシング面320との位置関係を表わすアルファ値αによって、リフォーカシング面320上で焦点が生じる被写体に関する光フィールドデータ値が選択されうる。リフォーカシング面320で得られるイメージE(s,t)は、式(1)の検出強度LF’をメインレンズ100の口径に関して積分したものになるために、以下の式(2)のように表示される。
Figure 0005795324
したがって、式(2)からリフォーカシング演算を行って、データ処理後の映像データに基づいて、任意の焦点(リフォーカシング面320)に設定した映像を合成することができる。
図4は、プレノプティックカメラの方向分解能、空間分解能、及びフォトセンサーのピクセルサイズとの関係を示す図である。
カメラの空間サンプリングレート(spatial sampling rates)及びカメラの方向サンプリングレートをΔx及びΔuと言う。カメラセンサーの幅をWと言い、レンズ口径の幅をWと定義する。このように定義すれば、フォトセンサーの空間分解能N=W/Δxであり、光フィールドカメラの方向分解能N=W/Δuである。
所望の距離でリフォーカシングを行うためには、次の式(1)に満足せねばならないと知られている。
Figure 0005795324
Fは、メインレンズの焦点距離を表わし、Fは、物体からリフォーカシングを所望の範囲による焦点距離を表わす。すなわち、F及びFは、正確なリフォーカシングを果たすことができる焦点深度の範囲を表わす。
例えば、W=20mm、F=80mmである場合、リフォーカシングするための物体の距離が1mまでである場合、前記の値を式(1)に代入すれば、Δx・N≧1.59mmになる。4145×4145個のピクセルからなるセンサーでイメージの目標空間分解能が1400×1400である場合、方向分解能を表現することができるピクセルは、4150/1400によって3個程度になる。
ところが、リフォーカシング範囲を1mないし∞として設定し、センサーの1つのピクセルのピッチが9μmである場合、必要な方向分解能Nは、1.59mm/(3ピクセル×9μm)によって58以上でなければならない。すなわち、リフォーカシング範囲を1mないし∞にする時、空間分解能1400×1400を得ることは不可能である。したがって、リフォーカシング範囲を変えるか、それとも、目標空間分解能を変える必要がある。
次の表1は、前記のような仮定下で目標空間分解能に対する方向分解能を表わすために必要な許容Δxと必要Nとの値を表わす。
Figure 0005795324
表1を参照すると、リフォーカシング範囲を1mないし∞にする時、空間分解能を300×300に定める場合に、方向分解能13×13が可能であり、前記のリフォーカシング範囲を確保することができる。すなわち、センサーサイズが固定されている時、所望の性能の空間分解能を確保しにくく、所望の空間分解能を得るためには、さらに大きいサイズのセンサーが要求される問題点がある。
一実施例によれば、データ処理部150は、光フィールドデータを用いてリフォーカシングされた映像で、所望の位置の領域で高解像度映像を獲得するように光フィールドデータを処理する。高解像度映像を獲得するために、光フィールドデータを空間的にサブサンプリングされたデータとして決定し、解像度向上のための低解像度データと定義する。また、低解像度データのうち、基準低解像度映像位置に比べて、他のサブサンプリングされた低解像度映像位置に対するサブピクセルシフト量を定義して、低解像度データの登録(Registration)及び再構成(Reconstruction)を可能にしうる。したがって、光フィールドデータから形成された映像で、所望の位置の領域に対して信号処理によって空間解像度(Spatial Resolution)を向上させることができる。
図5は、図1の映像処理装置のデータ処理部150の構成の一例を示す図である。データ処理部150は、光フィールドデータ位置決定部510、リフォーカシング映像生成部520、映像拡大部530、高解像度映像生成部540、合成比率決定部550、及び映像合成部560を含みうる。
光フィールドデータ位置決定部510は、場面に対する光フィールドデータのうちから所望のフォーカシング位置によって、一部の光フィールドデータの位置を決定する。詳細には、光フィールドデータ位置決定部510は、所望のフォーカシング位置を含む場面を表わす映像の一部の領域に対応する第2映像を設定し、撮像面とリフォーカシング面との位置関係を表わすアルファ値を変化させながら、第2映像に対する複数個のリフォーカシング映像を生成させる。その後、光フィールドデータ位置決定部510は、生成されたリフォーカシング映像のうち、最も高鮮明度の映像を生成させたアルファ値を決定し、該決定されたアルファ値を用いて、一部の光フィールドデータの位置を決定することができる。
リフォーカシング映像生成部520は、場面に対する光フィールドデータのうちから撮像面とリフォーカシング面との位置関係を表わすアルファ値によって選択された光フィールドデータを用いて、リフォーカシングされた映像である第1映像を生成させる。
映像拡大部530は、第1映像を設定された比率(m)によって拡大する。設定された比率(m)は、高解像度映像生成部540で生成される映像と倍率とを一致させるために設定される。例えば、第1映像のサイズがS×Tである場合、リフォーカシングされた第1映像及び高解像度映像のサイズは、mS×mTのサイズを有する。映像拡大部530は、映像合成部560と別途に示されているが、映像合成部560に含まれて構成することができる。
高解像度映像生成部540は、場面に対する光フィールドデータを用いて、第1映像に対する設定された比率(m)の高解像度映像を生成させる。高解像度映像生成部540は、光フィールドデータを高解像度復元に利用される低解像度データと定義して、該定義された低解像度データを高解像度映像復元方法を用いて高解像度映像を生成させる。高解像度映像生成部540の詳細構成及び動作については、図11を参照してさらに詳細に説明する。
合成比率決定部550は、所望のフォーカシング位置によって決定された一部の光フィールドデータの類似度を用いて、高解像度映像及び拡大された第1映像の地域的な合成比率を決定する。合成比率決定部550は、一部の光フィールドデータの類似度が高い領域であるほど、高解像度映像の合成比率がさらに高くなるように合成比率を決定することができる。合成比率決定部550の構成及び動作については、図8を参照してさらに詳細に説明する。
映像合成部560は、決定された地域的な合成比率によって、高解像度映像及び拡大された第1映像を合成して合成映像を生成させる。
例えば、映像を構成する各ピクセル当たり拡大された第1映像の合成比率がRである場合、合成映像のピクセル値Cは、次の式(4)によってピクセルごとに計算されうる。
(x,y)=[(1−R)×RRM+R×ErFM](x,y) (4)
ここで、x及びyは、それぞれ合成映像を構成するピクセルの座標を表わし、RRM(Resolution−Recovered Image)は、高解像度映像生成部540で生成された高解像度映像の当該座標のピクセル値を表わし、ErFM(Enlarged re−Focusing Image)は、映像拡大部530から出力される拡大された第1映像の当該座標のピクセル値を表わす。
図6Aないし図6Cは、アルファ値の決定動作の一例を示す図である。
図6Aは、任意のアルファ値によってリフォーカシングされた映像が、映像処理装置600のディスプレイ610に表示されている状態を表わす。ユーザが、マウス、タッチパッドのようなユーザ入力装置を用いて、ディスプレイ610で所望のフォーカシング位置620を選択すれば、位置620を含む選択領域630が設定されうる。選択領域630に対応する映像を第2映像と言う。第2映像に該当する選択領域630は、位置620を含む図6Aに示したように、格子形態以外の任意の形態に設定しうる。
ユーザ入力信号によって場面を表わす映像の一部の領域に対応する第2映像が選択されれば、光フィールドデータ位置決定部510は、図6Bに示したように、アルファ値を変化させながら、第2映像に対する複数個のリフォーカシング映像を生成させる。そのために、光フィールドデータ位置決定部510が、アルファ値の変更によって第2映像に対してリフォーカシング映像を生成するように構成され、リフォーカシング映像生成部520を制御して、リフォーカシング映像を生成させうる。
光フィールドデータ位置決定部510は、生成されたリフォーカシング映像のうち、最も高鮮明度の映像を生成したアルファ値を選択することができる。図6Cは、図6Bのアルファ値の変化によるリフォーカシング映像に対する鮮明度(sharpness)を表わすグラフの一例である。映像に対する鮮明度は、知られているか、知られる、多様な鮮明度の測定方法によって測定されうる。例えば、図6Cで、最も高い鮮明度の映像を生成することができるアルファ値は、0.76であると決定されうる。
図7A及び図7Bは、決定されたアルファ値に基づいた不均一度マップ生成のための光フィールドデータの値を示すための図である。
図7Aで、光フィールドデータ730は、場面の映像710を生成するのに利用される光フィールドデータ観測値の一部を表わし、そのうち、一部の光フィールドデータ740は、場面の映像710でアルファ値が0.76である場合、リフォーカシング面上に光線の焦点が位置される被写体が位置する領域720、すなわち、フォーカシング領域に対する光フィールドデータを表わす。光フィールドデータ740で白色のポイントは、アルファ値が0.76である場合の光フィールドデータの位置を表わす。図7Aに示したように、フォーカシング領域によって決定されたアルファ値によって決定される位置の光フィールドデータの値(または、強度)は、互いに均一な特性を表わす。
図7Bは、フォーカシング領域ではないアウトフォーカシング領域(out−of−focus)に対する光フィールドデータの値を表わす。図7Bで、光フィールドデータ760は、場面の映像710の生成するのに利用される光フィールドデータ観測値の一部を表わし、そのうち、一部の光フィールドデータ770は、場面の映像710でフォーカシング領域から外れた被写体が位置した領域750に対する光フィールドデータを表わす。光フィールドデータ770で白色のポイントは、アルファ値が0.76である場合の光フィールドデータの位置を表わす。図7Aに示したように、アウトフォーカシング領域に対するアルファ値によって決定される位置の光フィールドデータの値(または、強度)は、均一ではない特性を表わす。
一実施例によれば、アルファ値によって決定されるフォーカシング領域とアウトフォーカシング領域での光フィールドデータの不均一度によって、単純に拡大されたリフォーカシング映像と高解像度映像との地域的合成比率を決定することができる。
図8は、図5の合成比率決定部550の構成の一例を示す図である。合成比率決定部550は、不均一度マップ生成部810、不均一度比率マップ生成部820、比率関数保存部830、及び不均一度比率マップ拡大部840を含みうる。
不均一度マップ生成部810は、所望のフォーカシング位置によって決定された各光フィールドデータの位置での光フィールドデータの強度値の不均一度を表わす不均一度マップを生成することができる。不均一度マップのサイズは、リフォーカシング映像のサイズと同一である。所望のフォーカシング位置によって決定された光フィールドデータの位置での光フィールドデータの強度値の類似度を測定するために、標準偏差(Standard Deviation)、1シグマ不均一度計算方法(1−sigma uniformity)などの知られているか、知られる、多様な均一度(uniformity)計算方法が利用されうる。均一度が計算されれば、該計算された均一度値から均一度と補償関係にある不均一度値が計算されうる。
不均一度比率マップ生成部820は、不均一度マップを用いて決定された位置での高解像度映像及び拡大されたリフォーカシングされた映像の合成比率情報を含む不均一度比率マップを生成させる。不均一度比率マップ生成部820は、比率関数保存部830に保存された比率関数を用いて生成されうる。比率関数は、比率関数保存部830などの保存空間にあらかじめ設定されて保存することができる。
図9は、比率関数の一例を示す図である。図9に示したように、比率関数は、不均一度値によるリフォーカシング映像の合成比率を表すことができる。不均一度値で不均一度値の最小値(Min)は、光フィールド値が均一な強度を有する時の強度値を0に表わし、不均一度値の最大値(Max)は、均一な強度での強度値で最も多く差がある強度値を表わす。図9には、比率関数がアルファ値によって異ならせて設定されているが、比率関数は、アルファと独立して均一な形態を保持することもできる。
再び図8を参照すると、拡大されたリフォーカシング映像及び高解像度映像の合成比率の和を1であるとする時、不均一度比率マップ生成部820は、拡大されたリフォーカシング映像の合成比率情報を含むように構成されるか、高解像度映像の合成比率情報を含むように構成されるか、両者の合成比率をいずれも含むように構成することができる。
不均一度比率マップ拡大部840は、不均一度比率マップを設定された比率(m)で拡大する。不均一度比率マップを合成に利用される拡大されたリフォーカシングされた第1映像及び高解像度映像のサイズと一致させるためである。例えば、第1映像及び高解像度映像のサイズは、mS×mTのサイズを有すれば、不均一度比率マップは、mS×mTのサイズを有するように拡大される。
図10Aないし図10Cは、一実施例による高解像度映像の再構成の概念を示す図である。
図10Aに示したように、光フィールドデータをキャプチャーする。前述したように、光フィールドデータを用いて映像を獲得すれば、同じフォトセンサーアレイを利用した一般的な撮像装置に比べて、空間解像度が低下した複数個の低解像度映像またはサブサンプリングされた映像が獲得される。一実施例によれば、基準映像フレームは、光フィールドデータを用いて生成される少なくとも1つの角度から見える映像フレーム(または、ビュー映像)のうちの1つに決定されうる。少なくとも1つの参照映像フレームは、生成された少なくとも1つの角度から見える映像フレームのうち、基準映像フレームとして決定された映像フレーム以外の少なくとも1つの映像フレームとして決定されうる。
図10Bは、HRグリッド上に光フィールドデータを登録した結果を表わす。図10Bは、一実施例による選定される基準映像フレーム及び参照映像フレームを構成する光フィールドデータを高解像度グリッド上に登録したことを示す図である。図10Bで、●、×、△、*は、それぞれオブジェクトの1点に対する光フィールドデータとして他のメインレンズの位置を通過した光フィールドデータを表わす。一実施例によれば、点1011、1012を含む●と表示された光フィールドデータを用いて形成された映像フレームが基準映像フレームである場合、高解像度グリッド上に図10Bに示したように登録されうる。
図10Cに示したように、高解像度映像フレームを再構成する。一実施例によれば、光フィールドデータを用いて基準映像フレームを構成する光フィールドデータの間の値を補間することによって、基準映像フレームの解像度を高めうる。例えば、光フィールドデータ1011と光フィールドデータ1012との間のHRグリッド上の値1013は、図10BのHRグリッド上の領域1010に属した光フィールドデータを用いて補間されうる。
図11は、図5の高解像度映像生成部540の構成の一例を示すブロック図である。
高解像度映像生成部540は、映像フレーム決定部1110、ポイントスプレッド関数(Point Spread Function)決定部1120、映像補間部1130、及び映像復元部1140を含む。
映像フレーム決定部1110は、場面に対する光フィールドデータを用いて1つの基準映像フレーム及び少なくとも1つの参照映像フレームを決定し、基準映像フレーム決定部1112及び参照映像フレーム決定部1114を含んで構成することができる。
基準映像フレーム決定部1112は、決定されたアルファ値によって位置決定された一部の光フィールドデータを用いて生成される1つのビュー(view)映像を基準映像フレームとして決定することができる。参照映像フレーム決定部1114は、決定されたアルファ値によって位置決定された光フィールドデータを用いて生成された少なくとも1つの角度から見えるビュー映像のうち、基準映像フレームとして決定されたビュー以外の少なくとも1つのビュー映像を少なくとも1つの参照映像フレームとして決定することができる。
ポイントスプレッド関数(以下、PSFと称する)決定部1120は、基準映像フレームと各参照映像フレームとの間のサブピクセルシフト量に基づいて、ポイントスプレッド関数を決定することができる。
サブピクセルシフト量は、基準映像フレームを構成する少なくとも1つの光フィールドデータと、少なくとも1つの光フィールドデータにそれぞれ対応する参照映像フレームでの光フィールドデータとの間の位置差であり得る。これは、フォトセンサーでセンシング位置の差ではないので、基準映像フレームと参照映像フレームとの間のシフト量で映像アルゴリズム処理によって計算される。ビュー映像、すなわち、基準映像フレームと参照映像フレームとの間のサブピクセルシフト量は、ルーカスカナデ(Lucas Kanade)アルゴリズムなどの知られるか、今後知られる、映像処理アルゴリズムによって計算されうる。
サブピクセルシフト量は、光フィールドデータキャプチャー部140で、メインレンズで被写体の各ポイントに対する光フィールドデータの通過位置によって、または光フィールドデータキャプチャー部140の構成によって設定される値であり、被写体との距離によって変更調整される値であり得る。また、サブピクセルシフト量は、アルファ値によってあらかじめ決定されうる。アルファ値及びアルファ値によるサブピクセルシフト量は、あらかじめ設定されて映像処理装置100の所定の保存領域に保存されて、一実施例による高解像度映像生成時に利用されうる。
一実施例によれば、PSF決定部1120は、基準映像フレームと各参照映像フレームとの間のサブピクセルシフト量に基づくそれぞれの2次元ガウス関数をポイントスプレッド関数として決定することができる。PSFは、基準映像に比べて、各参照映像ごとに異なるように決定されるものであって、基準映像フレームの更新と無関係に予め定められた各参照映像に該当するサブピクセル移動量によって定められる。
映像補間部1130は、基準映像フレームを基準映像フレームより高い解像度の高解像度基準映像フレームに補間する。映像補間部1130は、バイリニア補間(bilinear interpolation)方法またはバイキュービック補間(bicubicintepolation)方法を用いて補間することができる。
映像復元部1140は、生成された高解像度映像フレーム、ポイントスプレッド関数及び少なくとも1つの参照映像フレームを用いて高解像度基準映像フレームを更新することによって、高解像度映像を復元することができる。映像復元部1140は、複数個の低解像度映像フレームを用いて高解像度映像フレームを生成させるさまざまな高解像度映像処理方法が行われるように具現可能である。
一実施例によれば、映像復元部1140は、レジデュアル値生成部1142及び映像更新部1144を含みうる。
レジデュアル値生成部1142は、生成された高解像度基準映像フレーム、参照映像フレームのうちの1つ、及び1つの参照映像フレームと基準映像フレームとに基づいたポイントスプレッド関数を用いて、レジデュアル値を生成させる。ここで、レジデュアル値は、1つの参照映像フレーム(観測された映像)から、高解像度基準映像フレームとポイントスプレッド関数とをコンボリューションした値(予測された映像)を減算した値であり得る。映像更新部1144は、レジデュアル値、すなわち、観測された映像から予測された映像の差映像を用いて高解像度基準映像フレームを更新する。
レジデュアル値生成部1142は、高解像度基準映像フレームが更新された場合、更新された高解像度基準映像フレーム、参照映像フレームのうちの他の1つ、及び他の1つの参照映像フレームと基準映像フレームとに基づいたポイントスプレッド関数を用いて、レジデュアル値を生成することができる。ここで、レジデュアル値は、他の1つの参照映像フレームから更新された高解像度基準映像フレームとポイントスプレッド関数とをコンボリューションした値を減算した値であり得る。映像更新部1144は、レジデュアル値を用いて高解像度基準映像フレームを更新する。
このような動作は、複数個の参照映像全部に対して行われるまで繰り返し行われる。例えば、参照映像フレームが10個であれば、前述したような更新動作は、10回行われる。このように生成されたレジデュアル値を用いて高解像度基準映像フレームを更新する方法は、POCS(projection onto convex sets)を含めた多様な高解像度映像復元技術を利用できる。
また、高解像度基準映像フレームの更新動作は、復元された高解像度映像に対する品質が所望の所定の品質になるまで繰り返し行われる。例えば、10個の参照映像フレームに対して更新動作がいずれも完了した後、生成された高解像度映像を10個の参照映像フレーム及びPSFを用いて更新する動作をレジデュアル値が所定の臨界値以下になるまで繰り返し行うことができる。
図12A及び図12Bは、一実施例によって、基準映像フレーム及び参照映像フレームを選定する方式を示す図である。
図12Aは、アルファ値αが1であって、リフォーカシング面とマイクロレンズアレイ上の撮像面とが一致されるように光フィールドデータがキャプチャーされる場合を表わし、図12Bは、アルファ値αが1ではなくて、リフォーカシング面と撮像面とが一致されない場合に、光フィールドデータがキャプチャーされる場合を表わす。
図12Aに示したように、アルファ値αが1である場合、映像フレーム決定部1110は、光フィールドデータを用いて生成される少なくとも1つの角度から見える映像フレームのうち、1つを基準映像フレームとして決定し、生成された少なくとも1つの角度から見える映像フレームのうち、基準映像フレームとして決定された映像フレーム以外の少なくとも1つの映像フレームを少なくとも1つの参照映像フレームとして決定することができる。
図12Bに示したように、アルファ値αが1ではない場合には、決定される光フィールドデータの位置が変わることを表わす。したがって、得られるビュー映像が、図12Aで変わり、得られるビュー映像を用いて基準映像フレーム及び参照映像フレームが再定義されうる。決定された基準映像フレームと参照映像フレームとの間のサブピクセルシフト量を確認することができる。サブピクセルシフト量は、図13Cのように定義されるか、あらかじめ当該アルファ値に基盤して基準映像フレームと参照映像フレームとの間の移動量が測定されうる。
図13Aないし図13Cは、一実施例による光フィールドデータ基盤基準映像フレームに比べてサブピクセルシフト量を示すための図である。
図13Aは、場面1310のオブジェクト1311、1312に対する光信号は、9個のサブアパーチュアを有するメインレンズ1320を通過し、メインレンズ1320の各サブアパーチュアを通過した光信号が、光センサー1330でサブアパーチュアの個数に対応する光ピクセルに入射されることを表わす。図面符号1340は、センシングされたデータがLR(Low Resolution)グリッド上で位置定義されたことを表わす。図13Aでは、5番目の光センサーピクセルで感知された感知値、すなわち、インテンシティがLRグリッドに示されたが、残りの光センサーのピクセルで感知されたインテンシティもLRグリッド上に規定される。
図13Bは、センシングされたLRデータが、すなわち、光フィールドデータは、メインレンズ1320のサブアパーチュアを通過するデータであることを表わす。図13A及び図13Bで、説明の便宜上、メインレンズ1320のサブアパーチュアの配置及び光センサー1330のピクセルの配列が一列に示されたが、サブアパーチュアの配置及びピクセルの配置は、他のさまざまな形態を有しうる。
図13Cは、基準映像フレームに比べて残りの参照映像フレームのサブピクセルシフト量の一例を示す図である。図13Cに示したように、メインレンズのサブアパーチュアを通過するデータが基準映像フレームに比べて、どれほどサブピクセルシフトになっているかを定義することができる。図13Cで、5番のサブアパーチュアを通過した光フィールドデータからなる映像フレームを基準映像フレームとし、1番のサブアパーチュアを通過した光フィールドデータと9番のサブアパーチュアを通過した光フィールドとの間の配置差が1ピクセルであり、メインレンズ通過位置によるサブピクセルシフト量が、図13Cに示したように、比例する場合を仮定する。この場合、maxxは、0.5と定義すれば、6番目のサブアパーチュアを通過した光フィールドデータで構成される映像フレームは、基準映像フレームに比べて、0.125ピクセル差(pixel shift)があると決定されうる。
図14は、基準映像フレーム基盤で高解像度基準映像フレームを生成させる動作の一例を示す図である。
基準映像フレームを初期の高解像度映像に形成するために、向上させようとする解像度サイズ(Resolution Size)を決定し、基準映像フレームを信号処理、例えば、バイリニア補間またはバイキュービック補間などの補間処理によって、決定されたサイズに拡大する。
図面符号1410は、センシングされた光フィールドデータを、図面符号1420は、LRグリッド上に表示された基準映像フレームのデータを、図面符号1430は、高解像度処理になって基準映像フレームのデータがHRグリッド上に表示された例を、各々表わす。●は、基準映像フレームのデータを、○は、元の基準映像フレームのデータを用いて補間されたデータを、各々表わす。
図15は、基準映像フレーム基盤PSF計算の一例を示す図である。図15の左側に示される光フィールドデータは、PSFを計算する方法を説明するために獲得される光フィールドデータの簡略化された形態を表わす。●、▲、■は、被写体の1ポイントに対する光フィールドデータを表わす。
一実施例によれば、PSFは、次の式(5)のように定義されうる。
Figure 0005795324
例えば、■位置XXは、基準▲の(u,v)ドメインでのポイントの位置に、x軸方向に定義されたサブピクセルシフト量を合わせた値を表わす。R_XXは、round(XX)でPSFのガウス関数のピークのセンター位置を表わす。また、■位置YYは、基準▲の(u,v)ドメインでのポイントの位置に、y軸方向に定義されたサブピクセルシフト量を合わせた値を表わす。R_YYは、round(YY)でPSFのガウス関数のピークのセンター位置を表わす。すなわち、光フィールド位置に基盤してPSFが定義されうる。PSFは、サブピクセルシフト量程度によってガウス(Gaussian)のカーブ形態が変化する。
図16は、光フィールドデータを用いて所望のフォーカシング領域に対する高解像度映像を生成させる方法の一例を示す図である。
光フィールドデータキャプチャー部140は、場面に対する光フィールドデータをキャプチャーする(1610)。光フィールドデータ位置決定部510は、場面に対する光フィールドデータのうちから所望のフォーカシング位置によってアルファ値を決定し、該決定されたアルファ値を用いて、一部の光フィールドデータの位置を決定する(1620)。
リフォーカシング映像生成部520は、位置決定された一部の光フィールドデータを用いて、リフォーカシングされた映像を生成させる(1630)。
映像合成部560は、リフォーカシングされた映像を設定された比率によって拡大する(1640)。
高解像度映像生成部540は、場面に対する光フィールドデータを用いて、リフォーカシングされた映像に対する設定された比率の高解像度映像を生成させる(1650)。
合成比率決定部550は、アルファ値による選択された一部の光フィールドデータの類似度を用いて、高解像度映像及び拡大されたリフォーカシングされた映像の地域的合成比率を決定する(1660)。
映像合成部560は、地域的合成比率によって、高解像度映像及び拡大されたリフォーカシングされた映像を合成して合成映像を生成させる(1670)。
図17は、光フィールドデータを用いて高解像度映像を生成させる方法の一例を示す図である。光フィールドデータキャプチャー部140は、場面に対する光フィールドデータをキャプチャーする(1710)。高解像度映像生成部540は、キャプチャーされた光フィールドデータを用いて1つの基準映像フレーム及び少なくとも1つの参照映像フレームを決定する(1720)。高解像度映像生成部540は、基準映像フレームと少なくとも1つの参照映像フレームとの間のサブピクセルシフト量に基づいて、ポイントスプレッド関数を決定する(1740)。
高解像度映像生成部540は、基準映像フレームを基準映像フレームより高い解像度の高解像度基準映像フレームに補間する(1730)。高解像度映像生成部540は、生成された高解像度映像フレーム、ポイントスプレッド関数及び少なくとも1つの参照映像フレームを用いて高解像度基準映像フレームを更新することによって、高解像度映像を復元する(1750)。
高解像度映像を復元する動作は、複数個の参照映像全部に対して行われるまで繰り返し行われる。一実施例によれば、サブピクセル単位の高解像度映像を生成させるために、POCS(projection onto convex set)方法を利用できる。
本発明の一態様は、コンピュータで読み取り可能な記録媒体にコンピュータで読み取り可能なコードとして具現しうる。前記のプログラムを具現するコード及びコードセグメントは、当該分野のコンピュータプログラマーによって容易に推論されうる。コンピュータで読み取り可能な記録媒体は、コンピュータシステムによって読み取れるデータが保存されるあらゆる種類の記録装置を含む。コンピュータで読み取り可能な記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、光ディスクなどを含む。また、コンピュータで読み取り可能な記録媒体は、ネットワークで連結されたコンピュータシステムに分散されて、分散方式でコンピュータで読み取り可能なコードとして保存されて実行可能である。
以上の説明は、本発明の一実施例に過ぎず、当業者ならば、本発明の本質的特性から外れない範囲で変形された形態で具現することができる。したがって、本発明の範囲は、前述した実施例に限定されず、特許請求の範囲に記載の内容と同等な範囲内にある多様な実施例が含まれるように解析しなければならない。
本発明は、光フィールドデータを利用した映像処理装置及び方法関連の技術分野に適用可能である。

Claims (23)

  1. 場面に対する光フィールドデータのうちから所望のフォーカシング位置によって、一部の光フィールドデータの位置を決定する光フィールドデータ位置決定部と、
    前記位置決定された一部の光フィールドデータを用いて、リフォーカシングされた第1映像を生成るリフォーカシング映像生成部と、
    リフォーカシングされた第1映像に対して所定の比率を有する高解像度映像を生成する高解像度映像生成部と、
    前記位置決定された一部の光フィールドデータの類似度を用いて、前記高解像度映像及び前記リフォーカシングされた第1映像の拡大映像間の局所的な合成比率を決定する合成比率決定部と、
    前記局所的な合成比率によって、前記高解像度映像及び前記リフォーカシングされた第1映像を合成して合成映像を生成る映像合成部と、を含み、
    前記合成比率決定部は、前記位置が決定された一部の光フィールドデータに対する類似度が低い部分よりも、前記位置が決定された一部の光フィールドデータに対する類似度が高い部分について、より高い合成比率で前記高解像度映像が合成されるように、前記局所的な合成比率を決定し、前記所望のフォーカシング位置は最も鮮明なリフォーカシング映像に対応する、映像処理装置。
  2. 前記光フィールドデータ位置決定部は、前記場面を表わす映像の一部に対応しかつ前記所望のフォーカシング位置を含む第2映像を設定し、撮像面とリフォーカシング面との位置関係を表わすアルファ値を変化させながら、前記第2映像に対する複数個のリフォーカシング映像を生成し、
    前記アルファ値のうち、前記第2映像に対しても鮮なリフォーカシング映像をもたらす最終的なアルファ値を決定し、該決定された最終的なアルファ値を用いて、前記一部の光フィールドデータの位置を決定する請求項1に記載の映像処理装置。
  3. 前記合成比率決定部は、
    定された位置における光フィールドデータの強度値の不均一度を表わす不均一度マップを生成る不均一度マップ生成部と、
    前記不均一度マップを用いて、前記高解像度映像及び前記リフォーカシングされた第1映像の拡大映像の間の前記局所的な合成比率についての情報を含む不均一度比率マップを生成る不均一度比率マップ生成部と、
    前記不均一度比率マップを設定された比率で拡大する不均一度比率マップ拡大部と、
    を含む請求項1に記載の映像処理装置。
  4. 前記映像合成部は、前記リフォーカシングされた第1映像を設定された比率拡大し、前記リフォーカシングされた第1映像の拡大映像及び前記高解像度映像を決定された局所合成比率で合成する請求項1に記載の映像処理装置。
  5. 前記高解像度映像生成部は、
    前記決定された最終的なアルファ値により決定され位置を含む前記位置が決定された一部の光フィールドデータを用いて、1つの基準映像フレーム及び少なくとも1つの参照映像フレームを決定する映像フレーム決定部と、
    前記基準映像フレームと少なくとも1つの参照映像フレームとの間のサブピクセルシフト量に基づいて、ポイントスプレッド関数を決定するポイントスプレッド関数決定部と、
    前記基準映像フレームを補間することにより、前記基準映像フレームより高い解像度を有する高解像度基準映像フレームを生成する映像補間部と、
    生成された高解像度基準映像フレーム、前記ポイントスプレッド関数及び前記少なくとも1つの参照映像フレームを用いて、前記高解像度基準映像フレームを更新することによって、高解像度映像を復元する映像復元部と、
    を含む請求項2に記載の映像処理装置。
  6. 前記サブピクセルシフト量は、前記基準映像フレームに対応する光フィールドデータと前記各参照映像フレーム対応する光フィールドデータの間の位置の相違を表す、請求項に記載の映像処理装置。
  7. 前記映像フレーム決定部は、
    或る角度から見えるビュー映像を前記基準映像フレームとして決定し、前記最終的なアルファ値により決定される位置を含む前記位置が決定された一部の光フィールドデータを用いて、他の角度から見える少なくとも1つのビュー映像を前記少なくとも1つの参照映像フレームとして決定する請求項に記載の映像処理装置。
  8. 前記ポイントスプレッド関数決定部は、前記基準映像フレームと各参照映像フレームとの間のサブピクセルシフト量に基づいて、2次元ガウシアン関数を前記ポイントスプレッド関数として決定する請求項に記載の映像処理装置。
  9. 前記映像復元部は、
    生成された高解像度基準映像フレームと、前記参照映像フレームのうちの1つと、前記1つの参照映像フレーム及び前記基準映像フレームに基づポイントスプレッド関数を用いて、レジデュアル値を生成るレジデュアル値生成部と、
    前記レジデュアル値を用いて、前記高解像度基準映像フレームを更新する映像更新部と、
    を含む請求項に記載の映像処理装置。
  10. 前記レジデュアル値は、前記1つの参照映像フレームから、前記高解像度基準映像フレームと前記ポイントスプレッド関数とをコンボリューションした値を減算した値である請求項に記載の映像処理装置。
  11. 前記高解像度基準映像フレームが更新された場合に、前記レジデュアル値生成部は、前記更新された高解像度基準映像フレーム、前記参照映像フレームのうちの他の1つと、前記他の1つの参照映像フレーム及び前記基準映像フレームに基づポイントスプレッド関数を用いて、レジデュアル値を生成請求項に記載の映像処理装置。
  12. 物体の像を形成する第1光学部と、
    光線を取得するフォトセンサーアレイと、
    前記第1光学部と前記フォトセンサーアレイとの間に設けられ、前記光線の方向に基づいて前記光線を分離することにより、前記光線を前記フォトセンサーアレイの方に向かわせる第2光学部と、
    を含む光フィールドデータキャプチャー部をさらに含む請求項1に記載の映像処理装置。
  13. 場面に対する光フィールドデータのうちから所望のフォーカシング位置によって、一部の光フィールドデータの位置を決定する段階と、
    前記位置決定された一部の光フィールドデータを用いて、リフォーカシングされた第1映像を生成る段階と、
    リフォーカシングされた第1映像に対して所定の比率を有する高解像度映像を生成る段階と、
    前記位置が決定された一部の光フィールドデータの類似度を用いて、前記高解像度映像及び前記リフォーカシングされた第1映像の拡大映像間の局所的な合成比率を決定する段階と、
    前記局所的な合成比率によって、前記高解像度映像及び前記リフォーカシングされた第1映像の拡大映像を合成して合成映像を生成る段階と、を含み、
    前記局所的な合成比率を決定する段階において、前記位置が決定された一部の光フィールドデータに対する類似度が低い部分よりも、前記位置が決定された一部の光フィールドデータに対する類似度が高い部分について、より高い合成比率で前記高解像度映像が合成されるように、前記局所的な合成比率が決定され、前記所望のフォーカシング位置は最も鮮明なリフォーカシング映像に対応する、映像処理方法。
  14. 前記一部の光フィールドデータの位置を決定する段階は、
    前記場面を表す映像の一部に対応しかつ前記所望のフォーカシング位置を含む第2映像を設定する段階と、
    撮像面とリフォーカシング面との位置関係を表わすアルファ値を変化させながら、前記第2映像に対する複数個のリフォーカシング映像を生成る段階と、
    前記アルファ値のうち、前記第2映像に対しても鮮なリフォーカシング映像をもたらす最終的なアルファ値を決定する段階と、
    決定されたアルファ値を用いて、前記一部の光フィールドデータの位置を決定する段階と、を含む請求項13に記載の映像処理方法。
  15. 前記局所的な合成比率を決定する段階は、
    撮像面とリフォーカシング面との位置関係を表すアルファ値によって決定される位置における光フィールドデータの強度値の不均一度を表わす不均一度マップを生成る段階と、
    前記不均一度マップを用いて、前記高解像度映像及び前記リフォーカシングされた第1映像の拡大映像の間の局所的な合成比率についての情報を含む不均一度比率マップを生成る段階と、
    前記不均一度比率マップを設定された比率で拡大する段階と、
    を含む請求項13に記載の映像処理方法。
  16. 前記合成映像を生成する段階は、
    前記リフォーカシングされた第1映像を設定された比率拡大する段階と、
    前記リフォーカシングされた第1映像の拡大映像及び前記高解像度映像を決定された局所合成比率で合成する段階と、
    を含む請求項13に記載の映像処理方法。
  17. 前記高解像度映像を生成る段階は、
    前記決定されたアルファ値を用いて、1つの基準映像フレーム及び少なくとも1つの参照映像フレームを決定する段階と、
    前記基準映像フレームと少なくとも1つの参照映像フレームとの間のサブピクセルシフト量に基づいて、ポイントスプレッド関数を決定する段階と、
    前記基準映像フレームを補間することにより、前記基準映像フレームより高い解像度を有する高解像度基準映像フレームを生成する段階と、
    生成された高解像度基準映像フレーム、前記ポイントスプレッド関数及び前記少なくとも1つの参照映像フレームを用いて、前記高解像度基準映像フレームを更新することによって、高解像度映像を復元する段階と、
    を含む請求項14に記載の映像処理方法。
  18. 獲得された4次元光フィールドを処理する方法において、所望のフォーカシング位置を決定し、前記フォーカシング位置について、撮像面とリフォーカシング面との位置関係を表わすアルファ値を決定する段階と、
    前記アルファ値に従って角度データからリフォーカシング映像を生成る段階と、
    前記アルファ値に従って、角度データのサブピクセル変位に基づいてフォーカシング領域の解像度を高めることにより、高解像度映像を生成る段階と、
    前記アルファ値に従って、角度データの類似度を検査することにより、前記フォーカシング領域とアウトフォーカシング領域とを区分する段階と、
    前記リフォーカシング映像と前記高解像度映像とを合成する段階と、を含み、
    前記高解像度映像は、位置が決定された一部の光フィールドデータに対する類似度が低い部分よりも、前記位置が決定された一部の光フィールドデータに対する類似度が高い部分について、より高い合成比率で合成され、
    前記アルファ値は最も鮮明なリフォーカシング映像に対応する、4次元光フィールド処理方法。
  19. 前記アルファ値は、最も鮮明なリフォーカシング映像が生成されるまでアルファ値を変化させることにより決定される請求項18に記載の4次元光フィールド処理方法。
  20. 請求項13に記載映像処理方法をコンピュータに実行させるプログラムを保存するコンピュータで読取り可能な情報記録媒体。
  21. 請求項18に記載の4次元光フィールド処理方法をコンピュータに実行させるプログラムを保存するコンピュータで読取り可能な情報記録媒体。
  22. 場面に対応する光フィールドデータから前記場面を表わす映像の一部に対応し、所望のフォーカシング位置を含むリフォーカシング映像を生成する段階と、
    前記リフォーカシング映像の拡大映像を生成る段階と、
    前記映像の一部に対応する前記光フィールドデータを用いて、前記拡大映像に対応する高解像度映像を生成する段階と、
    前記高解像度映像と前記拡大映像とに基づいて合成映像を生成る段階と、
    を含み、前記高解像度映像は、位置が決定された一部の光フィールドデータに対する類似度が低い部分よりも、前記位置が決定された一部の光フィールドデータに対する類似度が高い部分について、より高い合成比率で合成され、
    前記所望のフォーカシング位置は最も鮮明なリフォーカシング映像に対応する、映像処理方法。
  23. 前記リフォーカシング映像は、前記映像の一部に対応する複数個の映像のうち最も鮮明な映像である請求項22に記載の映像処理方法。
JP2012541014A 2009-11-27 2010-11-24 光フィールドデータを利用した映像処理装置及び方法 Active JP5795324B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2009-0115912 2009-11-27
KR1020090115912A KR101608970B1 (ko) 2009-11-27 2009-11-27 광 필드 데이터를 이용한 영상 처리 장치 및 방법
PCT/KR2010/008328 WO2011065738A2 (en) 2009-11-27 2010-11-24 Image processing apparatus and method

Publications (2)

Publication Number Publication Date
JP2013512612A JP2013512612A (ja) 2013-04-11
JP5795324B2 true JP5795324B2 (ja) 2015-10-14

Family

ID=44067091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012541014A Active JP5795324B2 (ja) 2009-11-27 2010-11-24 光フィールドデータを利用した映像処理装置及び方法

Country Status (6)

Country Link
US (1) US8929677B2 (ja)
EP (1) EP2504992A4 (ja)
JP (1) JP5795324B2 (ja)
KR (1) KR101608970B1 (ja)
CN (1) CN102656878B (ja)
WO (1) WO2011065738A2 (ja)

Families Citing this family (158)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10298834B2 (en) 2006-12-01 2019-05-21 Google Llc Video refocusing
WO2009151903A2 (en) 2008-05-20 2009-12-17 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with hetergeneous imagers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US8866920B2 (en) * 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8908058B2 (en) * 2009-04-18 2014-12-09 Lytro, Inc. Storage and transmission of pictures including multiple frames
EP2502115A4 (en) 2009-11-20 2013-11-06 Pelican Imaging Corp RECORDING AND PROCESSING IMAGES THROUGH A MONOLITHIC CAMERA ARRAY WITH HETEROGENIC IMAGE CONVERTER
US8749620B1 (en) 2010-02-20 2014-06-10 Lytro, Inc. 3D light field cameras, images and files, and methods of using, operating, processing and viewing same
SG185500A1 (en) 2010-05-12 2012-12-28 Pelican Imaging Corp Architectures for imager arrays and array cameras
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
US8768102B1 (en) 2011-02-09 2014-07-01 Lytro, Inc. Downsampling light field images
JP5351195B2 (ja) * 2011-03-08 2013-11-27 株式会社東芝 固体撮像装置および携帯情報端末
JP5623313B2 (ja) * 2011-03-10 2014-11-12 キヤノン株式会社 撮像装置および撮像光学系
EP2708019B1 (en) 2011-05-11 2019-10-16 FotoNation Limited Systems and methods for transmitting and receiving array camera image data
US8531581B2 (en) 2011-05-23 2013-09-10 Ricoh Co., Ltd. Focusing and focus metrics for a plenoptic imaging system
JP5725975B2 (ja) * 2011-05-27 2015-05-27 キヤノン株式会社 撮像装置及び撮像方法
WO2012170111A1 (en) * 2011-06-08 2012-12-13 Lytro, Inc. Storage and transmission of pictures including multiple frames
JP5766034B2 (ja) * 2011-06-08 2015-08-19 キヤノン株式会社 画像処理方法、画像処理装置及びプログラム。
US9184199B2 (en) 2011-08-01 2015-11-10 Lytro, Inc. Optical assembly including plenoptic microlens array
JP5618943B2 (ja) * 2011-08-19 2014-11-05 キヤノン株式会社 画像処理方法、撮像装置、画像処理装置、および、画像処理プログラム
JP6080417B2 (ja) 2011-08-19 2017-02-15 キヤノン株式会社 画像処理装置、及び画像処理方法
WO2013043751A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures
CN104081414B (zh) 2011-09-28 2017-08-01 Fotonation开曼有限公司 用于编码和解码光场图像文件的***及方法
US9100574B2 (en) 2011-10-18 2015-08-04 Hewlett-Packard Development Company, L.P. Depth mask assisted video stabilization
US8854724B2 (en) 2012-03-27 2014-10-07 Ostendo Technologies, Inc. Spatio-temporal directional light modulator
US8928969B2 (en) 2011-12-06 2015-01-06 Ostendo Technologies, Inc. Spatio-optical directional light modulator
JP5818697B2 (ja) * 2012-01-13 2015-11-18 キヤノン株式会社 画像生成方法、撮像装置および表示装置、プログラム、記憶媒体
JP5871625B2 (ja) * 2012-01-13 2016-03-01 キヤノン株式会社 撮像装置、その制御方法および撮像システム
JP6004235B2 (ja) * 2012-02-03 2016-10-05 パナソニックIpマネジメント株式会社 撮像装置および撮像システム
US9137441B2 (en) 2012-02-16 2015-09-15 Ricoh Co., Ltd. Spatial reconstruction of plenoptic images
WO2013126578A1 (en) 2012-02-21 2013-08-29 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
US8948545B2 (en) 2012-02-28 2015-02-03 Lytro, Inc. Compensating for sensor saturation and microlens modulation during light-field image processing
US9420276B2 (en) 2012-02-28 2016-08-16 Lytro, Inc. Calibration of light-field camera geometry via robust fitting
US8995785B2 (en) 2012-02-28 2015-03-31 Lytro, Inc. Light-field processing and analysis, camera control, and user interfaces and interaction on light-field capture devices
US8831377B2 (en) 2012-02-28 2014-09-09 Lytro, Inc. Compensating for variation in microlens position during light-field image processing
US8811769B1 (en) 2012-02-28 2014-08-19 Lytro, Inc. Extended depth of field and variable center of perspective in light-field processing
JP5459337B2 (ja) 2012-03-21 2014-04-02 カシオ計算機株式会社 撮像装置、画像処理方法及びプログラム
US9300932B2 (en) 2012-05-09 2016-03-29 Lytro, Inc. Optimization of optical systems for improved light field capture and manipulation
GB2501936B (en) * 2012-05-11 2016-11-30 Canon Kk Micro lens array and imaging apparatus
US9179126B2 (en) 2012-06-01 2015-11-03 Ostendo Technologies, Inc. Spatio-temporal light field cameras
US9451147B2 (en) * 2012-06-11 2016-09-20 Canon Kabushiki Kaisha Image processing apparatus, image processing method, image pickup apparatus, method of controlling image pickup apparatus, and non-transitory computer-readable storage medium
JP5938281B2 (ja) * 2012-06-25 2016-06-22 キヤノン株式会社 撮像装置およびその制御方法ならびにプログラム
US9858649B2 (en) 2015-09-30 2018-01-02 Lytro, Inc. Depth-based image blurring
US10129524B2 (en) 2012-06-26 2018-11-13 Google Llc Depth-assigned content for depth-enhanced virtual reality images
KR101404183B1 (ko) * 2012-06-26 2014-06-05 인텔렉추얼디스커버리 주식회사 홀로그램 생성 장치 및 방법
US9607424B2 (en) 2012-06-26 2017-03-28 Lytro, Inc. Depth-assigned content for depth-enhanced pictures
JP5370542B1 (ja) * 2012-06-28 2013-12-18 カシオ計算機株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム
US9100635B2 (en) 2012-06-28 2015-08-04 Pelican Imaging Corporation Systems and methods for detecting defective camera arrays and optic arrays
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
JP2014016965A (ja) * 2012-07-11 2014-01-30 Toshiba Corp 画像処理装置、画像処理方法およびプログラム、ならびに、撮像装置
KR102001950B1 (ko) * 2012-07-26 2019-07-29 엘지이노텍 주식회사 시선 추적 장치 및 이의 시선 추적 방법
JP6029380B2 (ja) 2012-08-14 2016-11-24 キヤノン株式会社 画像処理装置、画像処理装置を具備する撮像装置、画像処理方法、及びプログラム
IL221491A (en) * 2012-08-15 2016-06-30 Aspect Imaging Ltd A magnetic resonance device integrated with a light field camera
AU2013305770A1 (en) 2012-08-21 2015-02-26 Pelican Imaging Corporation Systems and methods for parallax detection and correction in images captured using array cameras
CN104685513B (zh) 2012-08-23 2018-04-27 派力肯影像公司 根据使用阵列源捕捉的低分辨率图像的基于特征的高分辨率运动估计
JP5684205B2 (ja) * 2012-08-29 2015-03-11 株式会社東芝 画像処理装置、画像処理方法、及びプログラム
JP6071374B2 (ja) * 2012-09-21 2017-02-01 キヤノン株式会社 画像処理装置、画像処理方法およびプログラムならびに画像処理装置を備えた撮像装置
EP4307659A1 (en) 2012-09-28 2024-01-17 Adeia Imaging LLC Generating images from light fields utilizing virtual viewpoints
US9659237B2 (en) 2012-10-05 2017-05-23 Micro Usa, Inc. Imaging through aerosol obscurants
US9432604B2 (en) * 2012-10-12 2016-08-30 Samsung Electronics Co., Ltd. Image sensor chips
US8997021B2 (en) 2012-11-06 2015-03-31 Lytro, Inc. Parallax and/or three-dimensional effects for thumbnail image displays
US9001226B1 (en) 2012-12-04 2015-04-07 Lytro, Inc. Capturing and relighting images using multiple devices
TW201426018A (zh) * 2012-12-19 2014-07-01 Ind Tech Res Inst 影像處理裝置及影像再對焦方法
JP6210687B2 (ja) * 2013-01-11 2017-10-11 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US9462164B2 (en) 2013-02-21 2016-10-04 Pelican Imaging Corporation Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
WO2014133974A1 (en) 2013-02-24 2014-09-04 Pelican Imaging Corporation Thin form computational and modular array cameras
WO2014138697A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for high dynamic range imaging using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
WO2014164909A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Array camera architecture implementing quantum film sensors
US9519972B2 (en) 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
WO2014164550A2 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation System and methods for calibration of an array camera
WO2014159779A1 (en) 2013-03-14 2014-10-02 Pelican Imaging Corporation Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9100586B2 (en) 2013-03-14 2015-08-04 Pelican Imaging Corporation Systems and methods for photometric normalization in array cameras
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
WO2014145856A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
KR102049456B1 (ko) 2013-04-05 2019-11-27 삼성전자주식회사 광 필드 영상을 생성하는 방법 및 장치
US10334151B2 (en) 2013-04-22 2019-06-25 Google Llc Phase detection autofocus using subaperture images
JP6245892B2 (ja) 2013-08-21 2017-12-13 キヤノン株式会社 画像処理装置およびその制御方法、プログラム
JP6061816B2 (ja) 2013-08-22 2017-01-18 キヤノン株式会社 撮像装置、撮像装置の制御方法、プログラム、および、記憶媒体
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
US9264592B2 (en) 2013-11-07 2016-02-16 Pelican Imaging Corporation Array camera modules incorporating independently aligned lens stacks
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US9426361B2 (en) 2013-11-26 2016-08-23 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
CN104683684B (zh) * 2013-11-29 2018-06-26 华为技术有限公司 光场图像处理方法和装置以及光场相机
US9392153B2 (en) 2013-12-24 2016-07-12 Lytro, Inc. Plenoptic camera resolution
US20150185308A1 (en) * 2014-01-02 2015-07-02 Katsuhiro Wada Image processing apparatus and image processing method, image pickup apparatus and control method thereof, and program
US10244223B2 (en) 2014-01-10 2019-03-26 Ostendo Technologies, Inc. Methods for full parallax compressed light field 3D imaging systems
JP6321991B2 (ja) * 2014-02-21 2018-05-09 キヤノン株式会社 画像処理装置、制御方法、プログラム、及び記録媒体
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
WO2015137635A1 (en) 2014-03-13 2015-09-17 Samsung Electronics Co., Ltd. Image pickup apparatus and method for generating image having depth information
KR102228456B1 (ko) * 2014-03-13 2021-03-16 삼성전자주식회사 깊이 정보를 갖는 영상을 생성하는 영상 획득 장치 및 영상 획득 방법
US9712820B2 (en) 2014-04-24 2017-07-18 Lytro, Inc. Predictive light field compression
US9414087B2 (en) 2014-04-24 2016-08-09 Lytro, Inc. Compression of light field images
JP6351364B2 (ja) * 2014-05-12 2018-07-04 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US9438778B2 (en) 2014-08-08 2016-09-06 Industrial Technology Research Institute Image pickup device and light field image pickup lens
CN104144295A (zh) * 2014-08-12 2014-11-12 北京智谷睿拓技术服务有限公司 成像控制方法和装置及成像设备
US9494794B2 (en) 2014-09-02 2016-11-15 Ostendo Technologies, Inc. Split exit pupil heads-up display systems and methods
US10539791B2 (en) 2014-09-02 2020-01-21 Ostendo Technologies, Inc. Split exit pupil multiple virtual image heads-up display systems and methods
US9635332B2 (en) 2014-09-08 2017-04-25 Lytro, Inc. Saturated pixel recovery in light-field images
WO2016054089A1 (en) 2014-09-29 2016-04-07 Pelican Imaging Corporation Systems and methods for dynamic calibration of array cameras
CN104486537B (zh) * 2014-10-27 2018-09-04 北京智谷技术服务有限公司 光场采集控制方法和装置
WO2016106347A1 (en) * 2014-12-22 2016-06-30 The Research Foundation For The State University Of New York Determination of spatial distribution of charged particle beams
US20160241797A1 (en) * 2015-02-17 2016-08-18 Canon Kabushiki Kaisha Devices, systems, and methods for single-shot high-resolution multispectral image acquisition
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US11328446B2 (en) 2015-04-15 2022-05-10 Google Llc Combining light-field data with active depth data for depth map generation
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
US10419737B2 (en) 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US10341632B2 (en) 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
US10412373B2 (en) 2015-04-15 2019-09-10 Google Llc Image capture for virtual reality displays
US10440407B2 (en) 2017-05-09 2019-10-08 Google Llc Adaptive control for immersive experience delivery
US10565734B2 (en) 2015-04-15 2020-02-18 Google Llc Video capture, processing, calibration, computational fiber artifact removal, and light-field pipeline
US10275898B1 (en) 2015-04-15 2019-04-30 Google Llc Wedge-based light-field video capture
US10469873B2 (en) 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
CN108307675B (zh) 2015-04-19 2020-12-25 快图有限公司 用于vr/ar应用中的深度增强的多基线相机阵列***架构
CN107431797B (zh) 2015-04-23 2019-10-11 奥斯坦多科技公司 用于全视差光场显示***的方法和装置
JP7036599B2 (ja) 2015-04-23 2022-03-15 オステンド・テクノロジーズ・インコーポレーテッド 奥行き情報を用いて全方向視差を圧縮したライトフィールドを合成する方法
KR101683634B1 (ko) * 2015-04-29 2016-12-29 주식회사 큐티아이 플레놉틱 카메라 원리를 이용한 디지털 촬상 장치
EP4236310A3 (en) * 2015-04-30 2023-09-20 Google LLC Virtual eyeglass set for viewing actual scene that corrects for different location of lenses than eyes
EP3106912A1 (en) * 2015-06-17 2016-12-21 Thomson Licensing An apparatus and a method for obtaining a registration error map representing a level of fuzziness of an image
US9979909B2 (en) 2015-07-24 2018-05-22 Lytro, Inc. Automatic lens flare detection and correction for light-field images
US10448030B2 (en) 2015-11-16 2019-10-15 Ostendo Technologies, Inc. Content adaptive light field compression
CL2015003495A1 (es) * 2015-11-30 2016-07-15 Univ Concepcion Un proceso que permite eliminar el ruido de patrón fijo en imágenes efectivas formadas por arreglos de sensores electromagnéticos de un campo de luz mediante un reenfoque digital.
US10845591B2 (en) 2016-04-12 2020-11-24 Ostendo Technologies, Inc. Split exit pupil heads-up display systems and methods
US10453431B2 (en) 2016-04-28 2019-10-22 Ostendo Technologies, Inc. Integrated near-far light field display systems
US10089788B2 (en) * 2016-05-25 2018-10-02 Google Llc Light-field viewpoint and pixel culling for a head mounted display device
US10275892B2 (en) 2016-06-09 2019-04-30 Google Llc Multi-view scene segmentation and propagation
EP3264741A1 (en) 2016-06-30 2018-01-03 Thomson Licensing Plenoptic sub aperture view shuffling with improved resolution
KR20190052089A (ko) * 2016-09-19 2019-05-15 인터디지털 브이씨 홀딩스 인코포레이티드 명시야 데이터를 사용하여 장면을 표현하는 포인트 클라우드를 재구성하기 위한 방법 및 디바이스
CN106780300B (zh) * 2016-11-30 2020-05-05 努比亚技术有限公司 图片处理方法及装置
US10679361B2 (en) 2016-12-05 2020-06-09 Google Llc Multi-view rotoscope contour propagation
US10594945B2 (en) 2017-04-03 2020-03-17 Google Llc Generating dolly zoom effect using light field image data
CN107084794B (zh) * 2017-04-10 2021-06-22 东南大学 基于光场分层成像技术的火焰三维温度场测量***及其方法
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
US10354399B2 (en) 2017-05-25 2019-07-16 Google Llc Multi-view back-projection to a light-field
JP7033865B2 (ja) * 2017-08-10 2022-03-11 キヤノン株式会社 画像生成装置、画像生成方法、及びプログラム
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US10545215B2 (en) 2017-09-13 2020-01-28 Google Llc 4D camera tracking and optical stabilization
WO2019092844A1 (ja) * 2017-11-10 2019-05-16 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
CN107959805B (zh) * 2017-12-04 2019-09-13 深圳市未来媒体技术研究院 基于混合相机阵列的光场视频成像***及视频处理方法
US10965862B2 (en) 2018-01-18 2021-03-30 Google Llc Multi-camera navigation interface
BR112022004811A2 (pt) 2019-09-17 2022-06-21 Boston Polarimetrics Inc Sistemas e métodos para modelagem de superfície usando indicações de polarização
BR112022006617A2 (pt) 2019-10-07 2022-06-28 Boston Polarimetrics Inc Sistemas e métodos para detecção por sensor de normais à superfície com polarização
CA3162710A1 (en) 2019-11-30 2021-06-03 Boston Polarimetrics, Inc. Systems and methods for transparent object segmentation using polarization cues
US11195303B2 (en) 2020-01-29 2021-12-07 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
WO2021155044A1 (en) * 2020-01-30 2021-08-05 Dolby Laboratories Licensing Corporation Projection system and method for uniformity correction
WO2021154459A1 (en) 2020-01-30 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
CN111489323B (zh) * 2020-04-09 2023-09-19 中国科学技术大学先进技术研究院 双光场图像融合方法、装置、设备及可读存储介质
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
KR20220086866A (ko) 2020-12-17 2022-06-24 주식회사 케이티 라이트 필드 콘텐츠를 생성하는 콘텐츠 생성 장치, 방법 및 컴퓨터 프로그램
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
JP7288945B2 (ja) * 2021-11-03 2023-06-08 克貴 美木 保安管理システム、保安管理方法及び符号化撮像装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06350889A (ja) * 1993-06-03 1994-12-22 Fuji Photo Film Co Ltd ビデオカメラにおけるソフトフォーカス方法
JP3396992B2 (ja) * 1995-03-30 2003-04-14 セイコーエプソン株式会社 画像処理方法及び装置
KR100247938B1 (ko) 1997-11-19 2000-03-15 윤종용 영상처리 시스템의 디지탈 초점 조절방법 및 장치
JP3624859B2 (ja) * 2001-06-19 2005-03-02 カシオ計算機株式会社 撮像装置、ソフトフォーカス画像撮影方法
KR20050041640A (ko) 2003-10-31 2005-05-04 삼성전자주식회사 영상 촬영 장치 및 방법
JP4235539B2 (ja) 2003-12-01 2009-03-11 独立行政法人科学技術振興機構 画像構成装置及び画像構成方法
US7936392B2 (en) 2004-10-01 2011-05-03 The Board Of Trustees Of The Leland Stanford Junior University Imaging arrangements and methods therefor
JP2006350889A (ja) 2005-06-20 2006-12-28 Fujitsu Ltd 半導体集積回路
JP2007066199A (ja) 2005-09-01 2007-03-15 Canon Inc 画像処理装置及び画像処理方法
US7692696B2 (en) 2005-12-27 2010-04-06 Fotonation Vision Limited Digital image acquisition system with portrait mode
KR100808610B1 (ko) 2006-06-13 2008-02-28 중앙대학교 산학협력단 영상융합 기술을 이용한 다중초점 디지털 영상복원 방법 및장치
KR100809345B1 (ko) * 2006-06-16 2008-03-05 삼성전자주식회사 영상 생성 장치 및 방법
JP2008294741A (ja) * 2007-05-24 2008-12-04 Olympus Corp 撮像システム
JP4968527B2 (ja) 2007-07-10 2012-07-04 ソニー株式会社 撮像装置
JP5006727B2 (ja) * 2007-07-26 2012-08-22 株式会社リコー 画像処理装置およびデジタルカメラ
JP5028574B2 (ja) * 2007-08-10 2012-09-19 株式会社メガチップス デジタルカメラシステム
JP2009164896A (ja) * 2008-01-07 2009-07-23 Seven Corporation:Kk スピーカの振動板用の光拡散シート、スピーカの振動板及びスピーカ
JP2009217658A (ja) * 2008-03-12 2009-09-24 Hitachi Ltd 表示装置および画像処理回路
KR101563729B1 (ko) 2008-10-10 2015-10-27 삼성전자주식회사 고해상도 영상을 생성하기 위한 영상 처리 장치 및 방법
EP2403233B1 (en) * 2008-10-10 2022-12-28 Samsung Electronics Co., Ltd. Image processing apparatus and method
CN101562701B (zh) * 2009-03-25 2012-05-02 北京航空航天大学 一种用于光场成像的数字对焦方法及装置

Also Published As

Publication number Publication date
US20110129165A1 (en) 2011-06-02
JP2013512612A (ja) 2013-04-11
WO2011065738A3 (en) 2011-11-10
KR20110059247A (ko) 2011-06-02
US8929677B2 (en) 2015-01-06
EP2504992A4 (en) 2013-09-25
WO2011065738A2 (en) 2011-06-03
CN102656878A (zh) 2012-09-05
CN102656878B (zh) 2016-03-16
KR101608970B1 (ko) 2016-04-05
EP2504992A2 (en) 2012-10-03

Similar Documents

Publication Publication Date Title
JP5795324B2 (ja) 光フィールドデータを利用した映像処理装置及び方法
US8390728B2 (en) Image processing apparatus and method
TWI510086B (zh) 數位重對焦方法
Venkataraman et al. Picam: An ultra-thin high performance monolithic camera array
KR101563729B1 (ko) 고해상도 영상을 생성하기 위한 영상 처리 장치 및 방법
JP6223169B2 (ja) 情報処理装置、情報処理方法およびプログラム
US9535193B2 (en) Image processing apparatus, image processing method, and storage medium
JP2013211827A (ja) 画像処理方法および装置、プログラム。
JP5984493B2 (ja) 画像処理装置、画像処理方法、撮像装置およびプログラム
JP2017510831A (ja) 3dライトフィールドカメラ及び撮影方法
CN110519493B (zh) 图像处理设备、图像处理方法和计算机可读记录介质
JP6655379B2 (ja) 焦点スタックから適応スライス画像を生成する方法および装置
JP2017184217A (ja) 画像処理装置、撮像装置およびこれらの制御方法ならびにプログラム
JP2014010783A (ja) 画像処理装置、画像処理方法およびプログラム
JP6418770B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、および記憶媒体
JP2016001853A (ja) 画像処理装置、撮像装置、制御方法及びプログラム
JP6162971B2 (ja) 画像処理装置、画像処理方法、撮像装置及びその制御方法
KR101613682B1 (ko) 광 필드 데이터를 이용한 영상 처리 장치 및 방법
CN109923854B (zh) 图像处理装置、图像处理方法以及记录介质
JP2020193820A (ja) 計測装置、撮像装置、制御方法及びプログラム
JP6310418B2 (ja) 画像処理方法、画像処理装置及び画像処理プログラム
JP4695557B2 (ja) 要素画像群補正装置、要素画像群取得システム、要素画像群補正方法及び要素画像群補正プログラム
JP6569769B2 (ja) 任意視点画像合成方法及び画像処理装置
KR20090012982A (ko) 깊이 정보 생성 방법, 그 장치 및 그 방법을 실행하는프로그램이 기록된 기록매체
JP2013110711A (ja) 画像処理装置および画像処理方法、並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140916

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20141216

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20141224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150812

R150 Certificate of patent or registration of utility model

Ref document number: 5795324

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250