JP6245892B2 - 画像処理装置およびその制御方法、プログラム - Google Patents

画像処理装置およびその制御方法、プログラム Download PDF

Info

Publication number
JP6245892B2
JP6245892B2 JP2013170912A JP2013170912A JP6245892B2 JP 6245892 B2 JP6245892 B2 JP 6245892B2 JP 2013170912 A JP2013170912 A JP 2013170912A JP 2013170912 A JP2013170912 A JP 2013170912A JP 6245892 B2 JP6245892 B2 JP 6245892B2
Authority
JP
Japan
Prior art keywords
range
trimming
image data
image processing
light field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013170912A
Other languages
English (en)
Other versions
JP2015041169A (ja
JP2015041169A5 (ja
Inventor
祐矢 太田
祐矢 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013170912A priority Critical patent/JP6245892B2/ja
Priority to US14/457,495 priority patent/US9621797B2/en
Publication of JP2015041169A publication Critical patent/JP2015041169A/ja
Publication of JP2015041169A5 publication Critical patent/JP2015041169A5/ja
Priority to US15/444,676 priority patent/US10109036B2/en
Application granted granted Critical
Publication of JP6245892B2 publication Critical patent/JP6245892B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/957Light-field or plenoptic cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/22Cropping

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本発明は、撮影後に合焦範囲を変更可能な画像データに対して画像処理を行う技術に関するものである。
特殊なレンズと高解像度センサを活用することで、三次元空間での光の情報(ライトフィールド、以下、LFとも記す)を記録可能なカメラ(ライトフィールドカメラ、以下、LFカメラという)が知られている。LFカメラでは、高解像度センサの前面に、マイクロレンズと呼ばれる微小なレンズ群が配置されている。1つの光点に対し複数のマイクロレンズが対応しており、マイクロレンズごとに異なる方向、異なる被写界深度における光の情報を記録することでLF画像を取得可能である。LFカメラで撮影したLF画像は、撮影後に合焦範囲や視点を変更可能である。LF画像データは、撮像された画像に係る光の強度を示す光線情報および光線の方向情報を含む。
特許文献1には、カメラで被写体を撮影する時に、切り出し範囲内の撮影者の意図する被写体あるいは主要被写体に焦点の合った画像を得る技術が開示されている。特許文献2には、電子カメラからパーソナルコンピュータに入力される画像の切り出し実行時に、切り出し画像に対して入力調整(例えば、焦点調整、露出調整及び色調整)を行う技術が開示されている。
ところで、撮像素子の技術進歩により画素数は増加し続けている。このような状況において、画素を解像度方向のみならず複数のマイクロレンズに振り分けることで有効に活用できるため、LFカメラがより一般的となることが予想される。LF画像は撮影後に合焦範囲などを変更できる反面、表示の際には合焦範囲が確定していなければならない。そのため、例えば撮影時の合焦範囲を初期設定の合焦範囲(以下、デフォルト合焦範囲という)として付与することが、利便性の観点で一般的と考えられる。
特開2001−208961号公報 特開平10−79882号公報
撮影画像において、余分な映像部分が写り込んでいる場合や、ユーザが構図を調整する目的で、所望の被写体像を抜き出すトリミング編集を行うことは一般的である。一方、LF画像に対してトリミング編集を行う場合、デフォルト合焦範囲として設定されているトリミング領域の合焦状態が不適切な場合があると考えられる。例えば、ユーザが風景画像内の花の映像部分をトリミングしたい場合を想定する。この場合、花よりも奥側に存在している山や建築物といった背景側にデフォルト合焦範囲が設定されていると、手前側の花には合焦していない。また、撮影画像において、ユーザが画像内容を詳細に確認する目的で、所望の被写体像の周辺を拡大する拡大処理を行う場合も、同様に拡大領域の合焦状態が不適切な場合があると考えられる。
本発明は、撮影後に合焦範囲を変更可能な画像データに対して画像処理を行う画像処理装置において、トリミング処理後または拡大処理後の対象範囲に応じて合焦範囲を変更することにより、利便性を高めることを目的とする。
上記課題を解決するために、本発明の一実施形態に係る装置は、撮影後に合焦範囲を変更可能なライトフィールド画像データに対して画像処理を行う画像処理装置であって、前記ライトフィールド画像データに対して指定されたトリミング領域において焦点を合わせる奥行き範囲に関する合焦範囲を決定する範囲決定手段と、前記範囲決定手段により決定された前記合焦範囲を示す情報を、トリミング編集後のライトフィールド画像データに関連づけて記憶する記憶手段と、を備える。
前記範囲決定手段は、前記トリミング領域内に含まれる所定のオブジェクトの数が1つの場合に、1つの前記所定のオブジェクトの奥行き位置を中心として合焦範囲を決定し、前記トリミング領域内に含まれる前記所定のオブジェクトの数が複数の場合に、複数の前記所定のオブジェクトの奥行き位置を含むように合焦範囲を決定する。
本発明によれば、撮影後に合焦範囲を変更可能な画像データに対して画像処理を行う画像処理装置において、トリミング処理後または拡大処理後の対象範囲に応じて合焦範囲を変更することにより、利便性を高めることができる。
ライトフィールドカメラ内部の構成例(A)および(B)を示す模式図である。 マイクロレンズアレイ12とイメージセンサ13の各画素との位置関係を示した模式図である。 マイクロレンズへの入射光線の進行方向と、イメージセンサ13の記録領域との関係を説明する模式図である。 イメージセンサ13に入射する光線の情報を説明するための模式図である。 リフォーカス演算処理を説明するための模式図である。 マイクロレンズへの入射角の違いと、イメージセンサ13の記録領域との関係を説明する模式図である。 被写界深度の調整処理を説明するための模式図である。 本発明の第1実施形態に係る装置の構成を示すブロック図である。 第1実施形態において編集前後で合焦範囲が変化する様子を示した図である。 本発明の第2実施形態において編集前後で、トリミング領域の中心座標に着目して合焦範囲が変化する様子を示した図である。 第2実施形態において編集前後で、最も頻度の高い奥行き位置に着目して合焦範囲が変化する様子を示した図である。 本発明の第3実施形態において編集前後で合焦範囲が変化する様子を示した図である。 本発明の第4実施形態に係る装置の構成を示すブロック図である。 第4実施形態において拡大前後で合焦範囲が変化する様子を示した図である。
以下、添付図面を参照して、本発明の各実施形態について詳細に説明する。
本発明の実施形態に係る映像処理装置を説明する前に、ピント状態を指定可能な動画像の撮影に用いる撮像装置について説明する。図1(A)、図1(B)は、LFカメラの概略構成を例示する。撮像レンズ11を通過してマイクロレンズアレイ12に入射した被写体からの光は、イメージセンサ13によって光電変換されて電気信号が得られる。尚、ここで得られた撮像データをライトフィールドデータ(以下、LFデータという)と呼ぶ。
撮像レンズ11は、被写体からの光をマイクロレンズアレイ12に投射する。撮像レンズ11は交換可能であり、撮像装置10の本体部に装着して使用する。ユーザは撮像レンズ11のズーム操作により撮像倍率を変更することができる。マイクロレンズアレイ12は、微小レンズ(マイクロレンズ)を格子状に配列して構成されており、撮像レンズ11とイメージセンサ13の間に位置する。マイクロレンズアレイ12を構成する各マイクロレンズは、撮像レンズ11からの入射光を分割し、分割した光をイメージセンサ13に出力する。撮像部を構成するイメージセンサ13は、複数の画素を有する撮像素子であり、各画素にて光の強度を検出する。被写体からの光を受光するイメージセンサ13の各画素には、各マイクロレンズによって分割した光がそれぞれ入射する。
図2は、マイクロレンズアレイ12とイメージセンサ13の各画素との位置関係を示す模式図である。
マイクロレンズアレイ12の各マイクロレンズは、イメージセンサ13における複数の画素が対応するように配置される。イメージセンサ13の各画素には各マイクロレンズが分割した光が入射し、各画素にて異なる方向からの光の強度(光線情報)を検出することができる。また、各マイクロレンズとイメージセンサ13の各画素との位置関係に応じて、マイクロレンズを介してイメージセンサ13の各画素に入射した光線の入射方向(方向情報)が分かる。すなわち、光の強度分布と併せて、光の進行方向の情報が検出される。マイクロレンズアレイ12のレンズ頂点面からの距離が異なる焦点面での像は、各マイクロレンズの光軸からの偏心量に対応した位置にあるイメージセンサ13の画素の各出力を合成することで得られる。なお、光線は位置や方位、波長などのパラメータを用いて、平行な2平面によってパラメータ化される関数で表される。つまり、各マイクロレンズに対応する複数の画素の配置によって各画素への光の入射方向が決まっている。
以上のように、撮像装置10は光線情報と方向情報を取得し、光線の並べ替えと計算処理(以下、再構築という)を行うことにより、任意のフォーカス位置や視点を指定した画像データを生成できる。この光線情報および方向情報はLFデータに含まれる。
図3は、マイクロレンズアレイ12のマイクロレンズへの入射光線の進行方向と、イメージセンサ13の記録領域との関係を説明する模式図である。
撮像レンズ11による被写体の像は、マイクロレンズアレイ12上に結像し、マイクロレンズアレイ12への入射光線はマイクロレンズアレイ12を介してイメージセンサ13で受光される。このとき、図3に示すように、マイクロレンズアレイ12への入射する光線は、その進行方向に応じてイメージセンサ13上の異なる位置で受光され、撮像レンズ11の形状に相似形となる被写体の像がマイクロレンズ毎に結像する。
図4は、イメージセンサ13に入射する光線の情報を説明するための模式図である。
イメージセンサ13で受光される光線について図4を用いて説明する。撮像レンズ11のレンズ面上における直交座標系を(u,v)とし、イメージセンサ13の撮像面上における直交座標系を(x,y)とし、さらに、撮像レンズ11のレンズ面とイメージセンサ13の撮像面との距離をFとする。すると、撮像レンズ11およびイメージセンサ13を通る光線の強度は、4次元関数L(u,v,x,y)で表すことができる。
各マイクロレンズに入射する光線は、進行方向に応じて異なる画素に入射されることから、イメージセンサ13では、光線の位置情報に加え、光線の進行方向を保持する上記の4次元関数L(u,v,x,y)が記録される。
次に、撮像後のリフォーカス演算処理について説明する。図5は、リフォーカス演算処理を説明するための模式図である。図5に示すように、撮像レンズ面、撮像面、リフォーカス面の位置関係を設定した場合、リフォーカス面上の直交座標系(s、t)における光線の強度L’(u,v,s,t)は、以下の(1)式のように表される。
また、リフォーカス面で得られるイメージE’(s,t)は、上記強度L’をレンズ口径に関して積分したものとなるので、以下の(2)式のように表される。
従って、この(2)式からリフォーカス演算処理を行うことで、任意の焦点(リフォーカス面)に設定した画像を再構築することができる。
続いて、撮像後の被写界深度の調整処理について説明する。上記リフォーカス演算の前に、各マイクロレンズに割り当てられた画像領域を形成する画像データ毎に重み係数を乗じて重みづけを行う。例えば、被写界深度の深い画像を生成したい場合には、イメージセンサ13の受光面に対して相対的に小さな角度で入射する光線の情報のみを用いて積分処理が行われる。言い換えると、イメージセンサ13への入射角が相対的に大きい光線に関しては、重み係数0(ゼロ)を乗じることにより積分処理に含めない。
図6は、マイクロレンズへの入射角の違いと、イメージセンサ13の記録領域との関係を説明する模式図であり、図7は、被写界深度の調整処理を説明するための模式図である。図6に示すように、イメージセンサ13への入射角が相対的に小さい光線は、より中央の領域に位置することになる。従って、図7に示すように、領域の中央部(図中の斜線部)で取得された画素データのみを用いて積分処理を行う。このような処理を行うことで、一般的な撮像装置などに具備される開口絞りをあたかも絞ったかのように、被写界深度の深い画像を表現することができる。使用する中央部の画素データを更に少なくすることで、被写界深度のより深いパンフォーカス画像の生成も可能となる。以上のように、実際に取得したLFデータ(光線情報)に基づいて、撮影後に画像の被写界深度を調整することができる。
各実施形態ではLF画像を編集する画像処理装置を例示する。
[第1実施形態]
図8を参照して、第1実施形態のシステム構成例を説明する。本システムはLF画像の編集機能をユーザに提供し、高機能ディスプレイや、表示ディスプレイなどを含むPC(パーソナルコンピュータ)内に構成される。CPU(中央演算処理装置)がメモリから読み出したプログラムを実行することにより、以下に説明する処理が実現される。あるいは、LF画像を撮影可能な撮像装置において、撮影後に簡易編集を行うシステム形態もある。この場合、LFカメラ内部に以下のシステムが構成される。その他、LF画像の現像および編集処理が可能であれば、適用機器は限定されない。本発明は、例えば、LF画像データ(LFデータ)に含まれる光線情報と方向情報を取得し、光線の並べ替えと再構築により、任意のフォーカス位置や視点を指定した画像データの生成が可能な装置へ適用可能である。
トリミング対象指定部(以下、対象指定部という)101は、画像データに対してユーザが、画像内のトリミング領域を指定するIF(インタフェース)部である。対象指定部101は、マウスなどのポインティングデバイスや、タッチパネルといった一般的な入力デバイスである。トリミング対象指定には、例えば、以下の方法がある。
・オブジェクトを指定する方法。
・矩形枠を表現するための開始点と終了点を指定する方法。
・任意の多角形を指定するための任意個数の点を指定する方法。
トリミング領域決定部(以下、領域決定部という)102は、対象指定部101による指定内容、および記憶部106に記憶されているトリミング対象となるLF画像データから、トリミング対象となる領域を決定する。例えば、オブジェクトを指定する点座標が対象指定部101により指定された場合、領域決定部102は、指定された点を含むオブジェクト領域を、記憶部106からのLF画像の解析により判別し、トリミング領域として決定する。あるいは、領域決定部102は、矩形枠を表現するために開始点と終了点の座標が対象指定部101により指定された場合、開始点と終了点で規定される矩形領域を、画像内のトリミング領域として決定する。また、任意の多角形を指定するための任意個数の点座標が対象指定部101により指定された場合には、領域決定部102は任意個数の点座標で囲まれる領域をトリミング領域として決定する。
トリミング領域解析部(以下、領域解析部という)103は、領域決定部102からトリミング領域の情報を取得し、トリミング領域の画像データの内容を解析する。本実施形態では解析内容として、後述する奥行きマップ上でトリミング領域が奥行き方向のどこに位置しているかが解析される。奥行きマップとは、縦方向および横方向の2次元で表現される画像に対して、それぞれの画素がマッピングされている奥行き方向の位置を示す地図データを含む。本実施形態では、奥行き方向において、縦横の座標に関わらず存在する画素の数(度数)をカウントした画素数を示すヒストグラム形式の奥行きマップを用いる。
図9は、本実施形態に係る奥行きマップを例示する。トリミング編集前のLF画像については、撮影者側から見た場合、手前側の領域である合焦範囲201がデフォルト合焦範囲に設定されている。トリミング対象領域202は、奥側にて合焦していない範囲である。ユーザがこのままトリミング編集を実施した場合、トリミング編集後の画像は合焦していない、いわゆる暈けた画像になる。
領域解析部103は、領域決定部102から取得したトリミング領域の情報を解析する。これにより、トリミング対象は奥行きマップ上のトリミング対象領域202に存在すると判別される。
合焦範囲決定部104は、領域解析部103からの解析結果に基づいて、合焦範囲を決定する。図9を参照して、トリミング編集前のLF画像に対して、トリミング編集後に合焦範囲が変化する様子を説明する。トリミング編集前の合焦範囲201は、撮影時に付与されたデフォルト合焦範囲とする。なお、合焦範囲は、焦点を合わせる奥行き範囲とも言い換えられる。また、合焦範囲は、所定の幅を有する奥行き範囲に限定されず、合焦位置(焦点を合わせる奥行き位置)とも言い換えられる。
トリミング編集では、トリミング対象外203の領域が除外されると同時に、トリミング編集前の合焦範囲201から、トリミング編集後の領域全体に合焦範囲(範囲204参照)が変更される。その結果、トリミング編集後の表示画像は、暈けのない焦点の合った画像となる。合焦範囲付与部105は、合焦範囲決定部104で決定された範囲を、トリミング結果の画像に対応する合焦範囲として、トリミング結果であるLF画像に付与して記憶部106に記憶させる。決定された合焦範囲の情報は、トリミング編集前の合焦範囲として記憶されている形式で、トリミング編集後の情報へと変更される。そのため、デフォルト合焦位置の情報が上書きされることになる。
合焦範囲を示す情報の記憶形式としては、例えば、トリミング編集後のLF画像データに対して、メタデータとして付与される。メタデータを用いることで、トリミング編集後のLF画像を表示する際に適切な合焦範囲で画像が表示可能となる。例えば、合焦範囲については、奥行きマップ上の奥行き方向における位置(2点)として表現される。具体的には、2点を点Aと点Bとした場合に、奥行き方向における点Aの位置から点Bの位置までが合焦範囲として扱われる。
なお、トリミング編集前のLF画像データに対して、トリミング編集を行った際の履歴情報と併せて、トリミング編集後の合焦範囲の情報を追加記録してもよい。この場合、LF画像自体についてはトリミング編集前の全データが保存される。ユーザが履歴情報を利用してトリミング編集およびトリミング編集後の画像表示を行う際には、トリミング編集と併せて適切に変更された合焦範囲での画像表示が可能となる。この場合、デフォルト合焦位置を示す情報は上書きされないので、トリミング編集前の画像を表示する際には、撮影時のデフォルト合焦位置をそのまま使用可能である。
記憶部106はトリミング編集前のLF画像データや、領域決定部102から得られるトリミング編集後のLF画像データ、合焦範囲付与部105から取得した合焦範囲データ、およびサムネイル画像などの付随データを記憶する。表示部107は、トリミング編集前およびトリミング編集後のLF画像を表示する。また表示部107は、ユーザがトリミング対象を対象指定部101により指定する際のUI(ユーザインタフェース)画面などをユーザに提示する。表示機器に関しては、テレビジョン装置、PCディスプレイ、業務用ディスプレイ、タブレットデバイス、スマートフォンなどでもよい。なお、表示部107を備えていない装置の場合には、表示部107に代えて出力部から外部装置へ表示用の画像データなどが出力される。
本実施形態によれば、LF画像に対してトリミング編集を行った際、トリミング編集結果に応じた適切な合焦範囲への変更制御が行われる。すなわち、ユーザにとって利便性の高い合焦範囲が自動的に設定される。また、編集時に変更された合焦範囲から、さらに合焦範囲の微調整や追加のトリミング編集などを行う場合、ユーザは再度合焦範囲の変更指定が可能である。
[第2実施形態]
次に本発明の第2実施形態を説明する。第2実施形態では、第1実施形態に対し、領域解析部103および合焦範囲決定部104の動作が異なる。よって、第1実施形態の場合と同様の構成要素についての詳細な説明を省略し、相違点を主に説明する。このような説明の省略については、後述の実施形態でも同様である。
領域解析部103は、トリミング領域の中心座標を解析する。また領域解析部103は、トリミング領域内において最も画素数が多い、すなわち画素数を度数とする場合に最も度数が高い奥行きマップ上の位置(以後、最頻奥行き位置という)を解析する。領域解析部103は第1実施形態に記載した処理に加えて、トリミング領域の中心座標、およびトリミング領域の最頻奥行き位置のいずれか一方、または両方の情報を合焦範囲決定部104へ送る。
合焦範囲決定部104は、トリミング領域全体に合焦範囲を設定する。この場合、トリミング編集前のLF画像データ次第では、トリミング編集後の領域全体に合焦させることが不可能な場合がある。LFカメラにおいて、マイクロレンズ群の光学特性、メインレンズの光学特性、絞り値などの撮影パラメータを含めた撮影条件から、撮影後に調整または変更可能な合焦範囲は有限の範囲である。例えば、それほど明るくない環境下で、遠方の主被写体を撮影する場合、ユーザはメインレンズを望遠側に設定し、絞りを開放側に設定することが想定される。この状態では、広角側で絞りを絞った設定と比較して、光学的に合焦範囲が狭くなる。
本実施形態の合焦範囲決定部104は、トリミング領域の中心座標またはトリミング領域の最頻奥行き位置のいずれかを基準にして、トリミング編集後の合焦範囲を決定する。
まず、トリミング領域の中心座標の位置を基準にして合焦範囲を決定する処理について説明する。この場合、トリミング領域の中心座標の画素が存在する奥行き方向の位置を中心として、奥行き方向および手前方向に設定可能な範囲が、トリミング編集後の合焦範囲として設定される。
図10を参照して、トリミング編集前のLF画像に対して、トリミング編集後に合焦範囲が変化する様子を説明する。図10はトリミング編集前のLF画像に対しトリミング編集を行った結果、トリミング対象外301の領域を除いた部分全てに合焦範囲を設定することが不可能な場合を表している。
この場合、トリミング領域の中心座標の画素が存在する奥行きマップ上の位置302を中心として合焦可能な範囲に合焦範囲303が設定される。このような処理を行うことで、トリミング結果領域の中心部に合焦可能となる。トリミング領域の中心部はトリミング編集の意図として妥当である場合が多い。また第1実施形態でも述べたように、必要があれば追加の微調整や再変更も可能である。
次に、トリミング領域の最頻奥行き位置を基準にして合焦範囲を決定する処理について説明する。この場合、トリミング領域の最頻奥行き位置を中心として、奥行き方向および手前方向に設定可能な範囲が、トリミング編集後の合焦範囲として決定される。
図11を参照して、トリミング編集前のLF画像に対して、トリミング編集後に合焦範囲が変化する様子を説明する。図11はトリミング編集前のLF画像に対しトリミング編集を行った結果、トリミング対象外401の領域を除いた部分全てに合焦範囲を設定することが不可能な場合を表している。
この場合、トリミング領域の最頻奥行き位置402を中心として、奥行きおよび手前方向に合焦可能な範囲で合焦範囲403が設定される。このような処理を行うことで、トリミング結果領域の中心部に合焦したい対象が存在しない場合でも、トリミング編集の意図に応じた位置に合焦可能となる。なお、トリミング領域の中心座標から合焦範囲を決定するか、またはトリミング領域の最頻奥行き位置から合焦範囲を決定するかについては、ユーザが選択可能である。
[第3実施形態]
次に本発明の第3実施形態を説明する。第3実施形態では、第1実施形態に対し、領域解析部103および合焦範囲決定部104の動作が異なる。
領域解析部103は、トリミング領域内のオブジェクト(例えば、人物の顔、犬や猫などの動物の顔の画像など)を解析する。トリミング領域内に複数のオブジェクトが存在する場合、領域解析部103は各オブジェクトが存在する領域を解析する。領域解析部103は第1実施形態に記載の処理に加えて、上記解析の結果から得た各オブジェクトが存在する領域についての情報を、合焦範囲決定部104へ送る。合焦範囲決定部104では、トリミング領域全体に合焦範囲を設定するが、第2実施形態で説明したように、トリミング編集前のLF画像データ次第では、トリミング編集後の領域全体に合焦させることが不可能な場合がある。
本実施形態の合焦範囲決定部104は、トリミング領域内にオブジェクトが存在する領域を基準にしてトリミング編集後の合焦範囲を決定する。トリミング領域内に含まれるオブジェクトの数が単数の場合には、そのオブジェクトが存在する奥行き範囲を中心に合焦範囲が決定される。一方、トリミング領域内に含まれるオブジェクトの数が複数の場合には、全てのオブジェクトが含まれるよう合焦範囲が決定される。
図12を参照して、トリミング編集前のLF画像に対して、トリミング編集後に合焦範囲が変化する様子を説明する。図12では、トリミング編集前の全体画像501に対し、トリミング領域502を選択してトリミング編集を行う場合を示している。トリミング領域502内には、三角形503と円形504のオブジェクトが存在している。
トリミング編集前の画像全体に対する、前述の奥行きマップを図12に示す。撮影側から被写体に対して手前側にトリミング対象領域505があり、トリミング編集前の合焦範囲506はトリミング対象領域505から外れている。全体画像501に対してトリミング編集を行う場合、領域解析部103はトリミング領域502に含まれるオブジェクトである三角形503と円形504の領域を検出する。
合焦範囲決定部104は、トリミング編集後の三角形513が存在する奥行きマップ上の範囲508と、円形514が存在する奥行きマップ上の範囲507が含まれるように合焦範囲510を決定する。トリミング編集の前後で、合焦範囲506が合焦範囲510に変更される。このため、トリミング編集前には暈けていた三角形503や円形504は、領域512内で焦点が合った状態の三角形513と円形514として表示される。
なお、オブジェクトが多数存在し、全てのオブジェクトを含めることが困難な場合には、合焦範囲決定部104はオブジェクトの大きさ順で優先度を規定する。優先度の高いオブジェクトが優先的に含まれるように合焦範囲が決定される。または、合焦範囲決定部104はトリミング領域の中心に存在するオブジェクトについて優先度を高く規定する。また、上記優先度の規定については、ユーザが大きさ順を優先するか、または中心座標を優先するかを選択可能である。
[第4実施形態]
次に、図13を参照して本発明の第4実施形態を説明する。第1ないし第3実施形態では、編集処理としてトリミングについて示したが、拡大処理を行う場合にも本発明を適用可能である。つまり、撮影後の拡大処理は、見方を変えれば拡大して表示したい範囲をトリミング領域とし、残りの領域を削除する処理と見做すことが可能である。
図13の拡大操作部601は、LF画像データに対してユーザが拡大操作を指示するIF(インタフェース)部であり、マウスなどのポインティングデバイスやタッチパネルといった一般的な入力デバイスである。
拡大領域の指定方法としては、拡大したい領域の中心座標や、矩形枠での指定が一般的である。また、他の拡大領域の指定方法では、上下左右方向を指定するための十字操作部材を用いる場合がある。具体的には、デジタルカメラなどでプレビュー表示や簡易編集を行っている状態で、元の画像に対して拡大した領域が表示されているとする。その状態で、画像を拡大したままでユーザの操作指示に従って上下左右方向に表示領域を変更する処理が一般的に行われる。
拡大領域決定部602は、拡大操作部601による指定内容および記憶部106に記憶されている拡大対象(LF画像データ)に基づいて、拡大対象となる領域を決定する。中心座標が指定された場合には、予め定められた一定の拡大率に応じて拡大領域が決定される。拡大領域決定部602は、この拡大率に応じて拡大前の領域を拡大領域として決定する。また、拡大領域として矩形枠が指定された場合には、その矩形領域が拡大領域として決定される。
画像の拡大状態で十字ボタンなどの操作により表示画像の移動が指示された場合には、十字ボタンの各方向を押下した場合に規定されている変更量に応じて拡大領域が変更される。例えば、右方向への操作が行われた場合、拡大前の領域換算で所定画素数(例えば50画素)分の移動が規定されているものとする。この場合、拡大操作部601から右方向への操作が行われると、その時点で規定されている拡大領域から右方向に50画素分だけ領域がシフトする。
拡大領域解析部603は、拡大領域決定部602から送られる拡大領域の情報を取得して、拡大領域のLF画像データの内容を解析する。本実施形態では、奥行きマップ上での拡大領域が解析される。
図14に本実施形態での拡大事例および奥行きマップを示す。本実施形態では、拡大前のLF画像701に対して、円形703が表示されている対象領域を拡大領域702として処理が実行される。
拡大前画像の奥行きマップから判るように、拡大前のLF画像は撮影側から見た場合、奥側の領域が合焦範囲705となっている。拡大領域702に対応する範囲704は、合焦範囲705よりも手前側の、焦点の合っていない部分に存在しているので、このまま実施したのでは、拡大後の画像は暈けた画像になる。
拡大領域解析部603は、拡大領域決定部602から取得した拡大領域の情報を解析する。これにより、拡大対象は奥行きマップ上で範囲704に存在すると判定される。合焦範囲決定部604は、拡大領域解析部603からの解析結果に基づいて合焦範囲を決定する。
図14を参照して、拡大処理前のLF画像に対して、拡大処理後に合焦範囲が変化する様子を説明する。
拡大処理後の表示画像706の状態では、拡大処理前の合焦範囲705が、拡大領域702が存在する奥行きマップ上の範囲704の位置に変更され、合焦範囲708となる。その結果、拡大処理前には暈けた画像となっていた円形703が、拡大処理後には焦点の合った円形707となって表示される。
ユーザが拡大操作を行う場合、拡大対象となる領域に注目したいことが多いと考えられる。本実施形態によれば、上記処理によって、拡大操作を行った際に自動的に拡大領域に合焦するため、ユーザの利便性が向上する。
[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
101 対象指定部
102 領域決定部
103 領域解析部
104 合焦範囲決定部
105 合焦範囲付与部
106 記憶部

Claims (15)

  1. 撮影後に合焦範囲を変更可能なライトフィールド画像データに対して画像処理を行う画像処理装置であって、
    前記ライトフィールド画像データに対して指定されたトリミング領域において焦点を合わせる奥行き範囲に関する合焦範囲を決定する範囲決定手段と、
    前記範囲決定手段により決定された前記合焦範囲を示す情報を、トリミング編集後のライトフィールド画像データに関連づけて記憶する記憶手段と、
    を備え
    前記範囲決定手段は、前記トリミング領域内に含まれる所定のオブジェクトの数が1つの場合に、1つの前記所定のオブジェクトの奥行き位置を中心として合焦範囲を決定し、前記トリミング領域内に含まれる前記所定のオブジェクトの数が複数の場合に、複数の前記所定のオブジェクトの奥行き位置を含むように合焦範囲を決定することを特徴とする画像処理装置。
  2. 撮影後に合焦範囲を変更可能なライトフィールド画像データに対して画像処理を行う画像処理装置であって、
    前記ライトフィールド画像データに対して指定されたトリミング領域において焦点を合わせる奥行き範囲に関する合焦範囲を決定する範囲決定手段と、
    前記範囲決定手段により決定された前記合焦範囲を示す情報を、トリミング編集後のライトフィールド画像データに関連づけて記憶する記憶手段と、
    を備え、
    前記範囲決定手段は、前記トリミング領域内に含まれる所定のオブジェクトの数が1つの場合に、1つの前記所定のオブジェクトの奥行き位置を中心として合焦範囲を決定し、前記トリミング領域内に含まれる前記所定のオブジェクトの数が複数の場合に、前記所定のオブジェクトの大きい順に優先して合焦範囲を決定することを特徴とする画像処理装置。
  3. 撮影後に合焦範囲を変更可能なライトフィールド画像データに対して画像処理を行う画像処理装置であって、
    前記ライトフィールド画像データに対して指定されたトリミング領域において焦点を合わせる奥行き範囲に関する合焦範囲を決定する範囲決定手段と、
    前記範囲決定手段により決定された前記合焦範囲を示す情報を、トリミング編集後のライトフィールド画像データに関連づけて記憶する記憶手段と、
    を備え、
    前記範囲決定手段は、前記トリミング領域内に含まれる所定のオブジェクトの数が1つの場合に、1つの前記所定のオブジェクトの奥行き位置を中心として合焦範囲を決定し、前記トリミング領域内に含まれる前記所定のオブジェクトの数が複数の場合に、前記トリミング領域の中心に存在する前記所定のオブジェクトを優先して合焦範囲を決定することを特徴とする画像処理装置。
  4. 前記記憶手段により記憶された前記情報を用いて、前記トリミング編集後のライトフィールド画像データを再構築することにより、前記情報が示す合焦範囲に焦点が合った画像データを出力する出力手段をさらに備えることを特徴とする請求項1ないし3のいずれか1項に記載の画像処理装置。
  5. 前記所定のオブジェクトは顔であることを特徴とする請求項1ないし4のいずれか1項に記載の画像処理装置。
  6. 前記範囲決定手段は、前記ライトフィールド画像データを構成する各画素について奥行き方向の位置を示す奥行きマップを用いて、前記所定のオブジェクトの奥行き位置を解析することを特徴とする請求項1ないし5のいずれか1項に記載の画像処理装置。
  7. 前記ライトフィールド画像データは、撮像された画像に係る光の強度および方向を示す情報を含むことを特徴とする請求項1ないし6のいずれか1項に記載の画像処理装置。
  8. 撮影後に合焦範囲を変更可能なライトフィールド画像データに対して画像処理を行う画像処理装置にて実行される制御方法であって、
    前記ライトフィールド画像データに対して指定されたトリミング領域において焦点を合わせる奥行き範囲に関する合焦範囲を決定する範囲決定ステップと、
    前記範囲決定ステップで決定された前記合焦範囲を示す情報を、トリミング編集後のライトフィールド画像データに関連づけて記憶する記憶ステップと、
    を有し、
    前記範囲決定ステップでは、前記トリミング領域内に含まれる所定のオブジェクトの数が1つの場合に、1つの前記所定のオブジェクトの奥行き位置を中心として合焦範囲を決定し、前記トリミング領域内に含まれる前記所定のオブジェクトの数が複数の場合に、複数の前記所定のオブジェクトの奥行き位置を含むように合焦範囲を決定することを特徴とする画像処理装置の制御方法。
  9. 撮影後に合焦範囲を変更可能なライトフィールド画像データに対して画像処理を行う画像処理装置にて実行される制御方法であって、
    前記ライトフィールド画像データに対して指定されたトリミング領域において焦点を合わせる奥行き範囲に関する合焦範囲を決定する範囲決定ステップと、
    前記範囲決定ステップで決定された前記合焦範囲を示す情報を、トリミング編集後のライトフィールド画像データに関連づけて記憶する記憶ステップと、
    を有し、
    前記範囲決定ステップでは、前記トリミング領域内に含まれる所定のオブジェクトの数が1つの場合に、1つの前記所定のオブジェクトの奥行き位置を中心として合焦範囲を決定し、前記トリミング領域内に含まれる前記所定のオブジェクトの数が複数の場合に、前記所定のオブジェクトの大きい順に優先して合焦範囲を決定することを特徴とする画像処理装置の制御方法。
  10. 撮影後に合焦範囲を変更可能なライトフィールド画像データに対して画像処理を行う画像処理装置にて実行される制御方法であって、
    前記ライトフィールド画像データに対して指定されたトリミング領域において焦点を合わせる奥行き範囲に関する合焦範囲を決定する範囲決定ステップと、
    前記範囲決定ステップで決定された前記合焦範囲を示す情報を、トリミング編集後のライトフィールド画像データに関連づけて記憶する記憶ステップと、
    を有し、
    前記範囲決定ステップでは、前記トリミング領域内に含まれる所定のオブジェクトの数が1つの場合に、1つの前記所定のオブジェクトの奥行き位置を中心として合焦範囲を決定し、前記トリミング領域内に含まれる前記所定のオブジェクトの数が複数の場合に、前記トリミング領域の中心に存在する前記所定のオブジェクトを優先して合焦範囲を決定することを特徴とする画像処理装置の制御方法。
  11. 前記記憶ステップで記憶された前記情報を用いて、前記トリミング編集後のライトフィールド画像データを再構築することにより、前記情報が示す合焦範囲に焦点が合った画像データを出力する出力ステップをさらに備えることを特徴とする請求項8ないし10のいずれか1項に記載の画像処理装置の制御方法。
  12. 前記所定のオブジェクトは顔であることを特徴とする請求項8ないし11のいずれか1項に記載の画像処理装置の制御方法。
  13. 前記範囲決定ステップでは、前記ライトフィールド画像データを構成する各画素について奥行き方向の位置を示す奥行きマップを用いて、前記所定のオブジェクトの奥行き位置を解析することを特徴とする請求項8ないし12のいずれか1項に記載の画像処理装置の制御方法。
  14. 前記ライトフィールド画像データは、撮像された画像に係る光の強度および方向を示す情報を含むことを特徴とする請求項8ないし13のいずれか1項に記載の画像処理装置の制御方法。
  15. 請求項8から14のいずれか1項に記載の、画像処理装置の制御方法の各ステップをコンピュータに実行させるためのプログラム。
JP2013170912A 2013-08-21 2013-08-21 画像処理装置およびその制御方法、プログラム Expired - Fee Related JP6245892B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013170912A JP6245892B2 (ja) 2013-08-21 2013-08-21 画像処理装置およびその制御方法、プログラム
US14/457,495 US9621797B2 (en) 2013-08-21 2014-08-12 Image processing apparatus, control method for same, and program
US15/444,676 US10109036B2 (en) 2013-08-21 2017-02-28 Image processing apparatus, control method for same, and program that performs image processing for image data having a focus state that is changeable

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013170912A JP6245892B2 (ja) 2013-08-21 2013-08-21 画像処理装置およびその制御方法、プログラム

Publications (3)

Publication Number Publication Date
JP2015041169A JP2015041169A (ja) 2015-03-02
JP2015041169A5 JP2015041169A5 (ja) 2016-09-29
JP6245892B2 true JP6245892B2 (ja) 2017-12-13

Family

ID=52480028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013170912A Expired - Fee Related JP6245892B2 (ja) 2013-08-21 2013-08-21 画像処理装置およびその制御方法、プログラム

Country Status (2)

Country Link
US (2) US9621797B2 (ja)
JP (1) JP6245892B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150104101A1 (en) * 2013-10-14 2015-04-16 Apple Inc. Method and ui for z depth image segmentation
US9870058B2 (en) * 2014-04-23 2018-01-16 Sony Corporation Control of a real world object user interface
CN107545586B (zh) * 2017-08-04 2020-02-28 中国科学院自动化研究所 基于光场极线平面图像局部的深度获取方法及***
JP7173841B2 (ja) 2018-11-14 2022-11-16 キヤノン株式会社 画像処理装置およびその制御方法ならびにプログラム
JP7198055B2 (ja) * 2018-11-16 2022-12-28 キヤノン株式会社 画像処理装置およびその制御方法ならびにプログラム
US11776093B2 (en) * 2019-07-16 2023-10-03 University Of Florida Research Foundation, Incorporated Automatic sharpness adjustment for imaging modalities

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1079882A (ja) 1996-09-02 1998-03-24 Canon Inc 画像入力装置
JP2001208961A (ja) 2000-01-26 2001-08-03 Nikon Corp カメラ
US7046290B2 (en) 2000-01-26 2006-05-16 Nikon Corporation Multi-point auto-focus digital camera including electronic zoom
JP4507392B2 (ja) * 2000-11-15 2010-07-21 株式会社ニコン 電子カメラ
US20100265385A1 (en) * 2009-04-18 2010-10-21 Knight Timothy J Light Field Camera Image, File and Configuration Data, and Methods of Using, Storing and Communicating Same
JP5190882B2 (ja) * 2008-11-07 2013-04-24 富士フイルム株式会社 複眼撮影装置およびその制御方法並びにプログラム
JP5267149B2 (ja) * 2009-01-19 2013-08-21 ソニー株式会社 表示制御装置、表示制御方法及びプログラム
KR101608970B1 (ko) 2009-11-27 2016-04-05 삼성전자주식회사 광 필드 데이터를 이용한 영상 처리 장치 및 방법
JP2012002951A (ja) * 2010-06-15 2012-01-05 Ricoh Co Ltd 撮像装置、合焦位置検出方法および合焦位置検出プログラム
JP5423893B2 (ja) * 2010-06-28 2014-02-19 株式会社ニコン 撮像装置、画像処理装置、画像処理プログラム記録媒体
JP5762142B2 (ja) * 2011-05-31 2015-08-12 キヤノン株式会社 撮像装置、画像処理装置およびその方法
JP5947548B2 (ja) * 2012-01-13 2016-07-06 キヤノン株式会社 撮像装置、その制御方法、画像処理装置、画像生成方法、プログラム
JP2013153375A (ja) 2012-01-26 2013-08-08 Sony Corp 画像処理装置、画像処理方法および記録媒体
US9237263B2 (en) * 2012-10-05 2016-01-12 Vidinoti Sa Annotation method and apparatus

Also Published As

Publication number Publication date
US9621797B2 (en) 2017-04-11
US20170169542A1 (en) 2017-06-15
US20150054982A1 (en) 2015-02-26
US10109036B2 (en) 2018-10-23
JP2015041169A (ja) 2015-03-02

Similar Documents

Publication Publication Date Title
US9521320B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP6245892B2 (ja) 画像処理装置およびその制御方法、プログラム
JP6548367B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP6029380B2 (ja) 画像処理装置、画像処理装置を具備する撮像装置、画像処理方法、及びプログラム
US7949252B1 (en) Plenoptic camera with large depth of field
US9503633B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP6202910B2 (ja) 映像処理装置およびその制御方法、プログラム
KR20190021138A (ko) 이미지를 이용하여 획득된 깊이 정보의 속성에 따라 이미지와 연관하여 깊이 정보를 저장하는 전자 장치 및 전자 장치 제어 방법
US20180197324A1 (en) Virtual viewpoint setting apparatus, setting method, and storage medium
JP2011250125A (ja) 画像処理装置およびその方法
JP2013009274A (ja) 画像処理装置および画像処理方法、プログラム
JP6234401B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP5583242B2 (ja) 画像処理装置およびその制御方法、並びにプログラム
JP2017060010A (ja) 撮像装置、撮像装置の制御方法、およびプログラム
JP6012396B2 (ja) 画像処理装置、画像処理方法およびプログラム。
JP5743769B2 (ja) 画像処理装置および画像処理方法
JP2015198340A (ja) 画像処理装置およびその制御方法、並びにプログラム
JP2015198336A (ja) 画像処理装置およびその制御方法、並びにプログラム
JP6263024B2 (ja) 画像処理装置、画像処理方法および、プログラム、並びに画像再生装置
JP5744642B2 (ja) 画像処理装置および画像処理方法、プログラム。
JP6120535B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6377225B2 (ja) 画像処理装置およびその制御方法、プログラム
JP2015056790A (ja) 画像処理装置、画像処理方法およびプログラム
JP6210717B2 (ja) 画像再生装置及び方法
JP2017175400A (ja) 画像処理装置、撮像装置、制御方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160809

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171114

R151 Written notification of patent or utility model registration

Ref document number: 6245892

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees