JP6305053B2 - 画像処理装置、撮像装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、撮像装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP6305053B2
JP6305053B2 JP2013267102A JP2013267102A JP6305053B2 JP 6305053 B2 JP6305053 B2 JP 6305053B2 JP 2013267102 A JP2013267102 A JP 2013267102A JP 2013267102 A JP2013267102 A JP 2013267102A JP 6305053 B2 JP6305053 B2 JP 6305053B2
Authority
JP
Japan
Prior art keywords
image
subject
focus
interest
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013267102A
Other languages
English (en)
Other versions
JP2014158258A (ja
Inventor
堤 正平
正平 堤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013267102A priority Critical patent/JP6305053B2/ja
Priority to US14/155,463 priority patent/US9503633B2/en
Publication of JP2014158258A publication Critical patent/JP2014158258A/ja
Application granted granted Critical
Publication of JP6305053B2 publication Critical patent/JP6305053B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/634Warning indications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Description

本発明は、被写体のピント制御に関する情報を得るための画像処理装置、撮像装置、画像処理方法、プログラムに関するものである。
これまで、カメラのピント調整を誤って撮像した場合は、ピント調整をやり直して再撮像する必要があった。また、奥行きの異なる複数の被写体に対してそれぞれにピントが合った画像を得たい場合には、被写体毎にピントを合わせた撮像を複数回行う必要があった。
近年、光学系に新たな光学素子を追加することで多視点からの画像を取得し、後で画像処理によってピント位置を調節すること(リフォーカス)が可能なライトフィールドフォトグラフィという技術が発展している。
この技術を用いれば、撮像後にピント調整を行えるため、撮像時のピント調整の失敗を画像処理で補うことができるという利点がある。さらに、画像処理方法を変えることで画像中の任意の被写体にピントを合わせた複数の画像を一枚の撮像画像から得る事ができ、撮像回数を減らす事ができるという利点もある。
ライトフィールドフォトグラフィでは、複数視点の撮像データから、空間中の複数の位置について、それぞれの位置を通過する光線の方向と強度(ライトフィールド)を計算する。そして、得られたライトフィールドの情報を用いて、仮想の光学系を通過して仮想のセンサに結像した場合の画像を計算する。このような仮想の光学系やセンサを適宜設定する事で、前述したリフォーカスも可能となる。ライトフィールドを取得するための撮像装置としてはメインレンズの後ろにマイクロレンズアレイを置いたPlenoptic Camera(例えば、特許文献1)や、小型のカメラを並べたカメラアレイが知られている。いずれも被写体を異なる方向から撮像した複数視点の画像データを一回の撮像で得る事ができる。すなわち、ライトフィールドフォトグラフィとは、複数視点の画像データから仮想の光学条件下での仮想センサの取得する画像を計算することと言い換えることもできる。なお、以下では、この仮想のセンサが取得する画像を計算する処理を「リフォーカス処理」と呼ぶこととする。リフォーカス処理としては、取得した複数視点の画像データを仮想センサ上に射影変換し加算して平均化する方法が知られている(例えば、特許文献2)。
ピント位置を変更しながらリフォーカス処理された画像(以下、リフォーカス画像)を表示する方法としては、例えば、特許文献3に開示された方法がある。特許文献3の方法では、ピント位置を調整するユーザーインターフェィス(UI)を、リフォーカス画像が表示される画面上に用意し、該UIを介して、ピント位置を変更している。更に、特許文献3には、リフォーカス画像が表示される画面において、ピント位置を合わせたい被写体を、該画面を通じてユーザが指示し、同被写体にピント位置が調整されたリフォーカス画像を表示する方法が開示されている。
特開2009−124213号公報 WO2008050904 US特許2008/0131019号公報
Ren Ng著、「Fourier Slice Photography」、2005 ACM Trans. Graph.24、p735−744
特許文献1から3で提案される手法では、撮像時、或いは撮像した画像の編集時に、目的とする被写体がリフォーカス可能な範囲に含まれるか否かを確認することができず、ユーザは、自身の意図した撮像や画像編集を行うことが困難であった。
本発明に係る画像処理装置は、複数の異なる視点から撮像されて得た視差画像内の注目被写体を特定する特定手段と、前記視差画像を用いた画像合成処理により生成される画像における、前記特定された注目被写体の合焦状態をユーザに通知する通知手段と、を備えたことを特徴とする。
本発明に係る画像処理装置は、複数の異なる視点から撮像されて得た視差画像内の注目被写体を特定する特定手段と、前記視差画像を用いた画像合成処理により生成される画像において、前記画像合成処理により前記特定された注目被写体にピント位置を合わせることができるか否かを示す合焦可否情報をユーザに通知する通知手段と、を備えたことを特徴とする。
多眼方式の撮像装置の内部構成を示すブロック図である。 撮像部の構成例を示す図である。 撮像部の構成例を示す図である。 撮像部の構成例を示す図である。 撮像部の構成例を示す図である。 レンズアレイと撮像素子の関係を表した図である。 実施例1に係る像側ピント制御範囲と物体側ピント制御範囲の関係を示す図である。 実施例1に係る画像処理部の内部構成を示したブロック図である。 実施例1に係る画像処理部における処理の流れを示すフローチャートである。 図2で示す撮像部の構成における光学配置を示した図である。 物体側ピント制御範囲の詳細を説明する図である。 撮像装置と被写体との位置関係を示す図である。 実施例1に係る表示画像の一例を示す図である。 実施例2に係る画像処理部の内部構成を示したブロック図である。 実施例2に係る画像処理部における処理の流れを示すフローチャートである。 実施例2に係る表示画像の一例を示す図である。 実施例3に係る画像処理部の内部構成を示したブロック図である。 実施例3に係る画像処理部における処理の流れを示すフローチャートである。 評価値Eobjと注目被写***置との関係を示す図である。 実施例3に係る表示画像の一例を示す図である。 評価値に従ってピントレベルが段階分けされる様子を説明する図である。 図3で示す撮像部の構成における、レンズアレイ周辺の拡大図である。 実施例4に係る像側ピント制御範囲と物体側ピント制御範囲の関係を示す図である。 図5で示す撮像部を正面(物体側)から見た図である。 図5で示す撮像部における結像光学系と撮像素子を側面から見た図である。 実施例5に係る像側ピント制御範囲と物体側ピント制御範囲の関係を示す図である。 実施例6に係る画像処理部の内部構成を示したブロック図である。 実施例6に係る画像処理部における処理の流れを示すフローチャートである。 実施例6に係る、物体側におけるピント制御範囲が変化する場面の説明図である。 実施例6に係る、物体側におけるピント制御範囲が変化する場面の説明図である。 注目被写体の合焦状態が変化した際におけるユーザへの通知態様のバリエーションを説明する図である。
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照番号を付し、重複する説明は省略する。
[実施例1]
図1は、本実施例に係る多眼方式の撮像装置の内部構成を示すブロック図である。
撮像部100は、被写体の光情報を撮像素子で受光し、受光した信号をA/D変換して、画像データ(デジタルデータ)を取得する。この画像データは、ユーザからの撮像指示を受けて撮像データとして記録媒体に保存される。本実施例に係る撮像部100で取得される画像データは、被写体空間を複数の異なる視点から撮像されて得られた視差のある画像データ(以下、「視差画像データ」と呼ぶ。)である。また、撮像部100で取得された画像データは、撮像装置の背面に設けられた表示部106にリアルタイムに順次表示するいわゆるライブビュー機能にも利用される。以下では、ユーザからの撮像指示に応じて記録媒体に保存された画像を記録画像と呼び、ライブビュー表示においてリアルタイムに表示される画像をライブビュー画像と呼ぶこととする。
中央処理装置(CPU)101は、以下に述べる各部を統括的に制御する。
RAM102は、CPU101の主メモリ、ワークエリア等として機能する。
ROM103は、CPU101で実行される制御プログラム等を格納している。
バス104は、各種データの転送経路であり、例えば、撮像部100によって取得されたデジタルデータはこのバス104を介して所定の処理部に送られる。
ユーザの指示を受け取る操作部105には、ボタンやモードダイヤルなどが含まれる。
画像や文字の表示を行う表示部106には、例えば、液晶ディスプレイが用いられる。表示部106はタッチスクリーン機能を有していても良く、その場合はタッチスクリーンを用いたユーザ指示を操作部105の入力として扱うことも可能である。本実施例では、シーン内の注目する被写体(以下、「注目被写体」と呼ぶ。)が、リフォーカス可能な範囲内に存在しているかどうかが判定されるが、この判定対象となる注目被写体は、このようなタッチスクリーンを介したユーザ入力によって指定される。
表示制御部107は、表示部106に表示される画像や文字の表示制御を行う。
撮像部制御部108は、フォーカスを合わせる、シャッターを開く・閉じる、開口絞りを調節するなどの、CPU101からの指示に基づいた撮像系の制御を行う。
デジタル信号処理部109は、バス104を介して受け取ったデジタルデータに対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種処理を行う。
エンコーダ部110は、デジタルデータをJPEGやMPEGなどのファイルフォーマットに変換する処理を行う。
外部メモリ制御部111は、PCやその他のメディア(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)に繋ぐためのインターフェースである。
画像処理部112は、撮像部100で取得された画像データ或いは、デジタル信号処理部109から出力される画像データから、後述するリフォーカス処理などの画像処理を行う。画像処理部112の詳細については後述する。
露出状態予測部113は、撮像時における撮像部100の露出状態の予測を行う。
なお、撮像装置の構成要素は上記以外にも存在するが、本実施例の主眼ではないので、説明を省略する。
(撮像部)
まず、撮像部100の構成に関して詳しく説明する。
上述のとおり撮像部100は、視差画像データ、つまりライトフィールドデータを取得する。撮像部100の構成例を、図2〜図5に示す。このうち図2〜図4は結像光学系の像側にレンズアレイを配置した構成であり、図5は複数の結像光学系を配列した構成(カメラアレイ)である。撮像部の構成としては、図2〜図5に示したような、複数視点の画像を同時に得られる多眼方式の構成が望ましい。単眼方式の撮像装置を用いて位置を変化させながら複数回撮像を行う方法では、異なる時間における被写体空間を撮像した視差画像データとなり、被写体空間に移動物体が存在する場合には、正しい視差情報を得ることができないからである。
図2〜図5で示す構成の撮像部100で取得された視差画像データは、画素の抽出や並び換え、合成等の処理を行うことで、リフォーカスや被写界深度制御、視点の変更等を行うことができる。本明細書では、これらの処理を画像合成処理と呼び、画像合成処理によって生成された画像を合成画像と呼ぶ。合成画像は、ノイズリダクション等の処理や、被写界深度制御等の処理が施されていてもよい。また、被写体空間でリフォーカスが可能な範囲を「ピント制御範囲」と呼ぶこととする。
以下では、図2を例に撮像部100の内部構成について詳しく説明する。
レンズアレイ203は、結像光学系202の被写体面201に対する像側共役面上に配置されている。さらに、レンズアレイ203は、結像光学系202の射出瞳と撮像素子204が、概ね共役関係となるように構成されている。被写体面201からの光線は、結像光学系202及びレンズアレイ203を介することで、該光線の被写体面201上における位置と角度に応じて、撮像素子204の異なる画素へ入射する。これにより視差画像データ(ライトフィールドデータ)が取得される。ここでレンズアレイ203は、被写体面201上の異なる位置を通過した光線が、同一の画素へ入射するのを防ぐ役割を持つ。その結果、撮像素子204では、被写体面201上の同一の領域を複数の視点から捉えた画素群が並んだ画像が取得されることになる。
なお、図2〜図5における被写体面201上に、人物や建物などの物体が必ずしも存在している必要はない。これはリフォーカスによって、被写体面201より奥或いは手前に存在する人物や建物等に、撮像後にピント位置を合わせることができるためである。
<リフォーカスの原理>
ここからはリフォーカス処理に関して説明する。リフォーカスに関しては、非特許文献1で詳しく説明されているので、ここでは簡単に述べる。リフォーカスの基本的な原理は、図2〜図5のいずれの構成でも共通である。ここでは図2の構成を例に説明する。図2では、結像光学系の瞳が2次元で9つ(1次元で3つ)に分割されているため、9視点の画像が取得されていることとなる。ここで、ある分割された瞳に対応する画像を単視点画像と呼ぶこととする。9つの単視点画像は互いに視差があるため、被写体距離に応じて画像上の被写体の相対的な位置関係が変化する。ある被写体が重なるように単視点画像を合成すると、異なる被写体距離に位置する被写体は、ずれて合成されることとなる。このずれによって異なる被写体距離に位置する被写体はボケる。この時のボケは、合成に使用した単視点画像に対応した瞳で決まり、9枚全ての単視点画像を合成すると結像光学系202で取得した画像のボケを再現することができる。単視点画像の合成で重ね合わせる被写体は任意なので、これにより結像光学系202で任意の被写体に合焦した画像を再現することができる。これが撮像後のピント制御、つまりリフォーカスの原理である。
ここで、本実施例における単視点画像の生成方法を説明しておく。図6は、図2のレンズアレイ203と撮像素子204の関係を描いた図である。破線の円601は、レンズアレイ203を構成する1つのレンズ(マイクロレンズ)を通過した光線が入射する画素の領域を表している。図6は複数のマイクロレンズが格子状に配置された場合に対応しているが、マイクロレンズの配置はこれに限定されない。例えば、六回対称性(ハニカム構造)を持った配置にしてもよいし、規則的な配置から各マイクロレンズを微小にずらしてもよい。図6の斜線領域602は、結像光学系202の同じ瞳領域を通過した光線が入射する画素を表している。よって、斜線領域602の画素を抽出することで、結像光学系202の瞳の下部から被写体空間を見た単視点画像が生成できる。同様に、破線の各円601に対する相対位置が同じ画素を抽出することで、他の単視点画像も生成できる。
<ピント制御範囲>
次に、リフォーカスが可能な範囲であるピント制御範囲に関して説明する。
リフォーカスは単視点画像を重ね合わせて行うため、各単視点画像内でボケている被写体にピントを合わせ直すことはできない。これはボケた画像を重ね合わせても、高周波成分は得られず、ボケたままだからである。
ここで、瞳を小さく分割するほど、各単視点画像における被写界深度が深くなるため、ピント制御範囲は広がる。つまり、ピント制御範囲は結像光学系202の分割された瞳に依存するわけである。ただし、単視点画像における被写界深度とピント制御範囲は必ずしも一致しない。これは単視点画像とそれらを合成した合成画像の解像度比によって、ピント制御範囲が変化するためである。例えば、合成画像の解像度が各視点の単視点画像の解像度より低い場合、合成画像における空間成分のサンプリングピッチは単視点画像に対して大きくなる。そのため、単視点画像よりも合成画像は被写界深度が深くなり、それに伴ってそのピント制御範囲も広がる。逆に、合成画像の解像度が単視点画像よりも高い場合、ピント制御範囲は単視点画像の被写界深度よりも狭くなる。
合成画像の解像度を単視点画像より高くする方法として、画素ずらし超解像の使用などが考えられる。前述した通り、リフォーカスは単視点画像を互いにずらして合成する。この時のずれ量が単視点画像の画素ピッチの非整数倍になっていれば、画素ずらし超解像を行うことができ、合成画像の解像度を上げることができる。
ここまでの議論から、合成画像における正確なピント制御範囲を取得するためには、単視点画像を合成する時の条件を加味する必要があることが分かる。
次に、合成画像のピント制御範囲がどのようにして導出されるのかについて説明する。合成画像の被写界深度に対応する焦点深度を考える。焦点深度の許容錯乱円の大きさをε、光線の角度成分のサンプリングピッチをΔuとする。この時、リフォーカスの係数α±は以下の式(1)のように与えられる。
式(1)を用いて表される像側のリフォーカス可能な範囲α〜αと共役な範囲(結像光学系202に対して共役な範囲)が、物体側のリフォーカス可能な範囲であるピント制御範囲となる。この式(1)の関係を図で表したものが図7であり、リフォーカス可能な範囲の中心位置は結像光学系202のピント位置となる。(この場合、レンズアレイ203の位置がリフォーカス可能な範囲の中心位置となる)。ここで、sは、結像光学系202の像側主平面と被写体面201に対する結像光学系202の像側共役面との間隔である。図7において、像側ピント制御範囲とは、結像光学系202を介してピント制御範囲と共役な範囲を指す。また、Δyは光の2次元強度分布のサンプリングピッチであり、図2の構成ではレンズアレイ203のピッチΔLAに等しい。なお、式(1)の関係は、図2〜図5のいずれの構成でも成り立つものである。
そして、式(1)は、撮像素子204の画素ピッチΔが、結像光学系202の射出瞳距離Pに対して十分小さいことから、次の式(2)のように近似できる。
ここで、結像光学系202の射出瞳距離Pとは、結像光学系202の射出瞳面と被写体面201に対する結像光学系202の像側共役面との間隔である。また、Nは結像光学系202の瞳の1次元分割数、Fは結像光学系202のF値である。なお、F値は、結像光学系202の焦点距離fとレンズ有効径Dから、以下の式(3)によって導出することができる。
すなわち、リフォーカス可能な範囲(ピント制御範囲)は、結像光学系の瞳の1次分割数と結像光学系の焦点距離とレンズ有効径で規定される画角範囲に応じて決定される。更には、後述する合成画像データの解像度に応じて、リフォーカス可能な範囲が決定される。
<画像処理部>
次に、画像処理部の構成について詳しく説明する。
図8は、本実施例に係る画像処理部112の内部構成を示したブロック図である。
視差画像データ取得部801は、撮像部100等から供給される視差画像データを取得する。
注目被写体特定部802は、操作部105を介したユーザ入力に基づいて、取得した視差画像内(被写体空間)における注目被写体を特定する。本実施例の場合、操作部105としてのタッチスクリーンを介してユーザが指定したシーン内の人物等が注目被写体として特定されることになる。特定された注目被写体の情報は、距離導出部804及び画像生成部808に送られる。
光学パラメータ取得部803は、距離導出部804とピント制御範囲導出部806で必要となる撮像部100の光学パラメータを取得する。ここで、光学パラメータとは、具体的には、撮像部100の構成や、絞りなどの露出状態、フォーカス位置、ズームレンズにおける焦点距離などである。
距離導出部804は、特定された注目被写体までの距離情報を導出する。注目被写体までの距離は、視差画像データ取得部801から供給される視差画像データ及び光学パラメータ取得部803から供給される光学パラメータを用いて導出される。距離導出の詳細については後述する。
画像合成パラメータ取得部805は、画像合成に必要となるパラメータ(合成後の解像度、視点、ピント位置、被写界深度など)を取得する。
ピント制御範囲導出部806は、光学パラメータ取得部803から供給される光学パラメータと、画像合成パラメータ取得部805から供給される画像合成パラメータとを用いて、ピント制御範囲を導出する。
ピント判定部807は、距離導出部804から供給される注目被写体までの距離と、ピント制御範囲導出部806から供給されるピント制御範囲とを比較し、注目被写体がピント制御範囲内に含まれるか否かを判定する。
画像生成部808は、ピント判定部807の判定結果を反映した表示画像(特定された注目被写体の合焦状態を示す表示画像)を生成する。この表示画像の生成は、撮像前のライブビュー画像を対象に行ってもよいし、撮像後の記録画像を対象に行ってもよい。また、表示画像は、視差画像に含まれる任意の単視点画像をベースにしたものでもよいし、複数の単視点画像を合成して得られた合成画像をベースにしたものであってもよい。生成された表示画像のデータは、表示部106に出力される。さらに、本実施例に係る画像生成部808は、視差画像データを用いて、画像合成パラメータに従った画像合成処理も行うものとするが、画像合成処理を行う処理部を画像生成部808とは別個に設けてもよい。
図9は、本実施例に係る画像処理部112における処理の流れを示すフローチャートである。なお、この一連の処理は、以下に示す手順を記述したコンピュータ実行可能なプログラムをROM103からRAM102上に読み込んだ後、CPU101によって該プログラムを実行することによって実施される。
ステップ901において、視差画像データ取得部801は、撮像部100で取得された視差画像データを取得する。ここで取得される視差画像データは、上述のとおり、ライブビュー画像としての視差データであってもよいし、記録画像としての視差データであってもよい。
ステップ902において、CPU101は、注目被写体特定部802において、ユーザ入力に従った注目被写体の特定がなされたかどうかを判定する。注目被写体の特定がなされた場合には、ステップ903に進む。一方、注目被写体の特定がなければ、ステップ910に進む。
ステップ903において、光学パラメータ取得部803及び画像合成パラメータ取得部805は、それぞれ光学パラメータ及び画像合成パラメータを取得する。
ステップ904において、距離導出部804は、特定された注目被写体までの距離を、視差画像に含まれる単視点画像相互の間でステレオマッチングを行う等の方法により導出する。例えば、ステレオマッチング法では、まず基準となる単視点画像(例えば、瞳の中央付近を通過する光線に対応する単視点画像)を複数のブロックに分割し、その他の単視点画像の中から、対象となるブロックに一番近いブロック位置を検出する。そして、2つのブロックの位置関係、対応する瞳の位置関係、各瞳の画角を用いて、三角測量によって、対象ブロックの距離が導出される。なお、基準となる単視点画像は、視点位置が中心以外の単視点画像を選択してもよい。また、距離情報を取得する方法としては、上述のステレオマッチング法の他、DFD(Depth From Defocus)などの手法や、赤外線などを利用した測距部を用いて計測する方法もある。
ステップ905において、ピント制御範囲導出部806は、ステップ903で取得した光学パラメータと画像合成パラメータとを用いて、ステップ901で取得した視差画像について画像合成を行う場合におけるピント制御範囲を導出する。以下、詳しく説明する。
前述したようにピント制御範囲は、各単視点画像と合成画像との解像度比によって変化するが、ここでは説明を簡単にするため、解像度比が1の場合を考える。像側ピント制御範囲が上述の式(2)の範囲内に収まっていれば、ピント制御可能な領域を取得できていることとなる。よって、被写体面201に対する結像光学系202の像側共役面と像側ピント制御範囲drefocusとが、以下の式(4)を満たせばよい。
図10は、図2で示す撮像部100の構成における光学配置を示した図であり、σはレンズアレイ203の像側主平面と撮像素子204の間隔である。図10において、中央のマイクロレンズの両端から伸びる2本の平行な破線は、当該マイクロレンズに対応する撮像素子204の領域を表し、撮像素子204内の斜線の画素は光線の入射しない不感帯を表す。本実施例では不感帯が発生しないようにレンズアレイ203が構成されており、この場合はΔLA=NΔとなる。ただし、構成はこれに限らず、不感帯が存在していてもよい。図10から、幾何学的にNF=σ/Δだと分かる。ここで、焦点深度を決める許容錯乱円の大きさを、空間成分のサンプリングピッチΔy=ΔLAで特徴付けると、式(4)は以下の式(5)のように書き換えられる。
次に、単視点画像と合成画像との解像度比が1以外の一般的な場合について考える。合成画像と合成に使用する単視点画像の画角は等しいから、解像度比が1以外の場合、両者のΔyが異なることとなる。許容錯乱円は一般にΔyが小さいほど小さく、大きいほど大きくなる。よって、上記式(5)は、単視点画像と合成画像のΔyの比をとって、以下の式(6)のように拡張できる。
ここで、Rmonoは合成に使用する単視点画像の解像度、Rcombは合成画像の解像度を表す。RmonoとRcombとの比の平方根をとることで、Δyの比となる。単視点画像の解像度Rmonoは、図10から以下の式(7)で表されることが分かる。
ここで、Rtotalは、撮像素子204の有効画素数である。式(6)及び式(7)から、像側ピント制御範囲が満たすべき以下の条件式(8)が求まる。
上記条件式(8)では±10.0の範囲としているが、これを±6.0の範囲とすることで、より鮮鋭な合成画像を得ることができる。さらに望ましくは、±3.0の範囲とすることで、更に鮮鋭な合成画像を得ることができる。
以下に、各値の具体例を示す。
・撮像素子204の有効画素数Rtotal:46.7×10(pix)・レンズアレイ203の像側主平面と撮像素子204の間隔σ:0.0374(mm)
・撮像素子204の画素ピッチΔ:0.0043(mm)
・レンズアレイ203のピッチΔLA:0.0129(mm)
・結像光学系202の焦点距離f:14.0(mm)
・F値:2.9
・1次元瞳分割数N:3
・単視点画像1枚当たりの解像度Rmono:5.2×10(pix)・条件式(8)の範囲、条件式(8)の各範囲に対応する合成画像の解像度Rcomb、合成画像の各解像度に対応するdrefocusは、例えば以下の表(1)のとおり。
操作部105を介したユーザ入力によって、合成画像の解像度Rcombが例えば上記3種類の中から選択される。
上記の例において、例えば8.0×10pixの合成画像を生成するためには、単視点画像1枚当たりの解像度Rmonoが5.2×10pixであるため、画素ずらし超解像などによる高解像度化が必要となることが分かる。なお、上述の合成画像の各解像度Rcombの値は一例であり、種類も3種類に限られない。上記条件式(8)を満たすようなRcombとdrefocusを適宜決定すればよい。
ピント制御範囲は、像側ピント制御範囲と結像光学系202の焦点距離やフォーカス位置などを用いれば、結像公式から算出できる。このようにして取得したピント制御範囲の情報は、視差画像データや合成画像データにタグ情報として添付し、ROM103に保存してもよい。或いは、予め様々な条件に対応するピント制御範囲のテーブルを作成してROM103に記憶しておき、ピント制御範囲を導出する上述の演算を行う代わりに、入力された条件に対応するデータを読み込むようにしてもよい。
なお、ピント制御範囲を取得する他の方法として、リフォーカスした合成画像を実際に生成して、ピント位置に存在する被写体のコントラスト等を評価する方法が考えられる。しかし、この手法では、ピント位置を動かしながら合成画像を生成し、逐次リフォーカスができているかどうかを判断しなければならないため、処理に時間がかかってしまう。また、リフォーカスしたピント位置に被写体が存在していない場合、評価を行うことができないため、正確なピント制御範囲が取得できない。よって、ピント制御範囲の取得には、先に述べた手法を用いることが望ましい。
図9のフローチャートの説明に戻る。
ステップ906において、ピント判定部807は、特定された注目被写体が、ステップ905で導出されたピント制御範囲内にあるか否かを判定する。具体的には、距離導出部804から供給される注目被写体までの距離と、ピント制御範囲導出部806から供給されるピント制御範囲とを比較し、注目被写体がピント制御範囲内に含まれるか否かを、以下の式(9)を用いて判定する。
上記式(9)を満たす場合には、ピント制御範囲内に注目被写体が含まれると判定される。
ここで、Dobjは、撮像装置から注目被写体までの物体側における距離である。Dnearは物体側ピント制御範囲の間隔Drefocus内にあり、撮像装置に最も近い、前方ピントの端部位置である。Dfarは、物体側ピント制御範囲の間隔Drefocus内にあり、撮像装置に最も遠い、後方ピントの端部位置である。図11は、物体側における被写体面Dfocus、注目被写***置に対応する物体側の位置Dobj、前方ピントの端部位置Dnear、後方ピントの端部位置Dfarの位置関係を示している。Drefocusは、像側ピント制御範囲drefocusを物体側に置き換えて表現した、物体側ピント制御範囲である。
注目被写体がピント制御範囲内にあると判定されれば、ステップ907に進む。一方、注目被写体がピント制御範囲内にないと判定されれば、ステップ908に進む。
ステップ907において、画像生成部808は、注目被写体がピント制御範囲内にあることを示す表示画像を生成する。
ステップ908において、画像生成部808は、注目被写体がピント制御範囲外にあることを示す表示画像を生成する。
ここで、ステップ907及び908で生成される表示画像について説明する。図12は、撮像装置と被写体との位置関係を示した図であり、3種類の被写体(被写体A、被写体B、被写体C)が撮像装置から異なる位置に存在している。被写体Aが最も撮像装置から近い位置にあり、被写体Cが最も撮像装置から遠い位置にある。図12において、Drefocusは、ステップ905で導出した像側ピント制御範囲drefocusを物体側に置き換えて表現した、物体側ピント制御範囲を示している。以下、単に「ピント制御範囲」という場合にはこの物体側ピント制御範囲を指すものとする。図12では、被写体Aと被写体Bが、ピント制御範囲Drefocusの範囲内にあり、被写体Cはピント制御範囲Drefocusの範囲外にあることが分かる。このような状況下で生成される表示画像の一例を、図13の(a)〜(e)にそれぞれ示す。まず、図13の(a)及び(b)は、特定された注目被写体が、それぞれ被写体A及び被写体Bである場合における表示画像の一例である。被写体Aと被写体Bはピント制御範囲Drefocusの範囲内にあるため、リフォーカスが可能であることを示す「リフォーカス可」のメッセージが画像(ここでは単視点画像)にオーバーレイ表示されている。図13の(c)は、特定された注目被写体が、被写体Cである場合における表示画像の一例である。被写体Cはピント制御範囲Drefocusの範囲外にあるため、リフォーカスが不可能であることを示す「リフォーカス不可」のメッセージが画像にオーバーレイ表示されている。図13の(d)は、特定された注目被写体が複数である場合における表示画像の一例である。ユーザが同時に複数の注目被写体を指定した場合には、各注目被写体についてピント制御範囲Drefocusの範囲内にあるか否かが判定され、各注目被写体に対するリフォーカスの可否を示すメッセージが表示される。なお、図13の(a)〜(d)の表示画像中にある注目被写体上の矢印は、特定された注目被写体を確認しやすくするために表示したものであり、注目被写体が確認できる方法であれば矢印に限定されない。さらに、図13の(e)は、特定された注目被写体(被写体A)のみにピントが合った状態(注目被写体以外の他の被写体(被写体B及びC)についてはぼかした状態)の合成画像をベースにした表示画像の一例である。この場合は、注目被写体のみにピントが合っているので、より直感的に特定された注目被写体の確認が可能となる。このように、注目被写体がピント制御範囲内にあるかどうかを示す表示画像が、視差画像に含まれる任意の単視点画像をベースに或いは複数の単視点画像の合成によって得られた合成画像をベースに生成される。この場合において、合成画像をベースに生成する場合は、画像生成部808は、ステップ903で取得された画像合成パラメータに従って所定の画像合成処理を行った上で、上述の表示画像を生成することになる。
図9のフローチャートの説明に戻る。
ステップ909において、画像生成部808は、ステップ907又はステップ908で生成した表示画像のデータを表示部106に出力する。
ステップ910において、画像生成部808は、取得した視差画像データのうち任意の単視点画像(例えば、結像光学系202の瞳中心に最近接した視点の単視点画像)のデータを、表示部106へ出力する。なお、単視点画像の代わりに複数の単視点画像を合成した合成画像を出力してもよい。
ステップ911において、CPU101は、注目被写体特定部802で、新たな注目被写体の特定がなされたかどうかを判定する。新たな注目被写体の特定がなされた場合には、ステップ903に戻り、ステップ903〜ステップ911の一連の処理を繰り返す。一方、新たな注目被写体の特定がなければ、本処理を終える。
なお、本実施例では、撮像装置の表示部に、図13の(a)〜(e)に示したような表示画像を表示することで、ユーザが指定した注目被写体に対するピント制御の可否を通知している。しかし、通知方法はこれに限られるものではない。例えば、撮像装置に接続される表示装置(例えば撮像装置とは別個に用意される、視差画像を編集する際に用いるディスプレイ等)において、ユーザが指定した注目被写体に対するピント制御の可否を表示してもよい。また、音声、振動、光などの表示以外の方法による通知を併用或いは代用してもよい。
以上説明したように、本実施例によれば、撮像時や撮像した画像の編集時において、ユーザによって特定された注目被写体に対するピント制御の可否が通知される。これによりユーザは、撮像時及び/又は撮像した画像の編集時に、ピント位置の調整が可能な被写体を容易に把握することが可能となる。
[実施例2]
実施例1は、ユーザが指定した注目被写体についてピント制御の可否を判定し、その判定結果をユーザに通知する様態であった。次に、注目被写体を自動で特定し、該自動で特定された注目被写体についてピント制御の可否を判定する様態について、実施例2として説明する。なお、実施例1と共通する部分については説明を簡略化ないしは省略し、以下では本実施例に特有な点を中心に説明することとする。
<画像処理部の構成図>
図14は、本実施例に係る画像処理部112の内部構成を示したブロック図である。図8で説明した実施例1の画像処理部112と比較すると、注目被写体特定部802に代えて、注目被写体特定部802´が設けられている。
注目被写体特定部802´は、距離導出部804で導出されるシーンの距離情報と、視差画像データ取得部801から供給される視差画像データを用いて、同シーン内における注目被写体を特定する。
その他の処理部については実施例1の画像処理部112と基本的に同じであるが、例えば、本実施例の距離導出部804は、取得した視差画像データを用いて被写体空間の距離を導出する等、細かな点で相違する。これら微細な相違点については、以下に示す本実施例に係る画像処理の流れを示すフローチャートの説明において適宜触れるものとする。
図15は、本実施例に係る画像処理部112における処理の流れを示すフローチャートである。
ステップ1501において、視差画像データ取得部801は、撮像部100で取得された視差画像データを取得する。
ステップ1502において、光学パラメータ取得部803及び画像合成パラメータ取得部805は、それぞれ光学パラメータ及び画像合成パラメータを取得する。
ステップ1503において、距離導出部804は、視差画像データ取得部801から供給される視差画像データを用いて、被写体空間の距離(シーンに含まれる人物、建物等のすべての物体についての距離)を導出する。このように本実施例では、撮像されるシーン全体についての距離情報が導出される。距離を導出する方法は、実施例1と同様であるため説明を省略する。
ステップ1504において、注目被写体特定部802´は、被写体空間における注目被写体を特定する。特定方法としては、例えば、以下のような方法が挙げられる。
1)距離取得部804から供給されるシーン全体についての距離情報に基づき、略同一の距離を持つ画像領域をグループ化し、グループ化された画像領域を注目被写体として特定。
2)視差画像データに対して顔認識等の技術を適用し、人物、動物、植物などが存在する領域を識別して、識別された人物等を注目被写体として特定。
3)上記1)と2)の併用。
4)人物、動物、植物といった代表的な注目物体の画像データをテンプレートとして予め用意しておき、それらテンプレートとのパターンマッチングによって注目被写体を特定。
5)ニューラルネットワークのように事前学習を行い、その学習結果を用いて主要な物体を認識して、注目被写体を特定。
本実施例における注目被写体の特定は、上記1)〜5)に挙げたような公知の様々な手法を適用して実現することが可能である。
ステップ1505において、CPU101は、注目被写体特定部1401で被写体空間における注目被写体の特定がなされたか否か(注目被写体の有無)を判定する。被写体空間に注目被写体があると判定された場合には、ステップ1506に進む。一方、被写体空間に注目被写体が無いと判定された場合には、ステップ1511に進む。
ステップ1506において、ピント制御範囲導出部806は、ステップ1501で取得した視差画像について画像合成を行う場合におけるピント制御範囲を導出する。ピント制御範囲の導出方法は、実施例1と同様である。
ステップ1507において、ピント判定部807は、ステップ1504で特定された注目被写体が、ステップ1506で導出されたピント制御範囲内にあるか否かを判定する。ピント制御範囲内にあるかどうかの判定方法は、実施例1と同様である。注目被写体がピント制御範囲内にあると判定されれば、ステップ1508に進む。一方、注目被写体がピント制御範囲内にないと判定すれれば、ステップ1509に進む。
ステップ1508において、画像生成部808は、注目被写体がピント制御範囲内にあることを示す表示画像を生成する。
ステップ1509において、画像生成部808は、注目被写体がピント制御範囲外にあることを示す表示画像を生成する。
ここで、ステップ1508及び1509で生成される表示画像の一例を図16の(a)〜(c)にそれぞれ示す。撮像装置と被写体との位置関係や各被写体と撮像装置との距離、ピント制御範囲については、実施例1の図12と同様である。図16の(a)〜(c)は、被写体空間から注目被写体として被写体A〜Cが特定された場合における表示画像の一例を示している。図16の(a)では、被写体A〜Cのそれぞれに対して、リフォーカスの可否を示すメッセージが画像(ここでは単視点画像)にオーバーレイ表示されている。図16の(b)では、ピント制御範囲内にあると判定された被写体AとBについてのみ「リフォーカス可」のメッセージがオーバーレイ表示されている。一方、図16の(c)では、被写体Aのみがピント制御範囲内にあると判定され、被写体Aに対してのみ「リフォーカス可」のメッセージがオーバーレイ表示されている。また、表示画像としては、実施例1と同様、画像合成前の単視点画像をベースにしたものに限られず、合成画像をベースにしたものであってもよい。
図15のフローチャートの説明に戻る。
ステップ1510において、画像生成部808は、ステップ1508又はステップ1509で生成した表示画像のデータを表示部106に出力する。
ステップ1511において、画像生成部808は、取得した視差画像データのうち任意の単視点画像のデータを、表示部106へ出力する。実施例1と同様、単視点画像の代わりに複数の単視点画像を合成した合成画像を出力してもよい。
以上説明したように、本実施例に係る発明によれば、被写体空間における注目被写体が自動的に特定される。そして、自動で特定された注目被写体に対するピント制御の可否が自動的に判定され、その結果がユーザに示される。これによりユーザは、画像内の被写体に対する合焦の可否を、より手軽に知ることが可能となる。
[実施例3]
実施例1及び実施例2では、特定された注目被写体がピント制御範囲内にあるか否かを判定して、その結果をユーザに通知する様態について説明した。次に、ピント制御の達成度合いを数値化し、その度合いをユーザに通知する様態について、実施例3として説明する。なお、以下では本実施例に特有な点を中心に説明することとする。
<画像処理部の構成図>
図17は、本実施例に係る画像処理部112の内部構成を示したブロック図である。図8で説明した実施例1の画像処理部112と比較すると、ピント判定部807に代えて、ピント判定部807´が設けられている。
ピント判定部807´は、距離導出部804から供給される注目被写体の距離情報と、ピント制御範囲導出部806から供給されるピント制御範囲とを比較し、注目被写体に対するピント制御がどの程度可能であるかを定量的に評価する。これにより、ピント制御範囲の内外にある全ての被写体について、ユーザは、ピント制御の可否のみならず、ピントレベル(合焦度合い)を客観的に把握することが可能となる。
その他の処理部については、実施例1の図8と同様であるため説明を省略する。
図18は、本実施例に係る画像処理部112における処理の流れを示すフローチャートである。
ステップ1801〜ステップ1805までの処理は、実施例1の図9のフローチャートにおけるステップ901〜ステップ905と同様であるため、説明を省略する。
ステップ1806において、ピント判定部807´は、距離導出部804から供給される注目被写体までの距離情報と、ピント制御範囲導出部806から供給されるピント制御範囲を用いて、注目被写体の合焦度合いを定量的に評価する。具体的には、注目被写体が撮像装置から距離Dobjの位置にある時のピント制御の評価値Eobjを、以下の式(10)〜式(12)を用いて導出する。
この場合において、注目被写***置が後方ピント制御範囲内にある場合には式(10)を用いて、注目被写***置が前方ピント制御範囲内にある場合には式(11)を用いて、評価値Eobjが導出される(前述の図11を参照)。そして、注目被写***置が物体側ピント制御範囲Drefocusに含まれない場合には、式(12)を用いて、評価値Eobjが導出される。図19は、上述の式(10)〜式(12)を用いて導出される評価値Eobjと注目被写***置との関係を示している。評価値Eobjは、注目被写***置が被写体面と重なる位置で1となり、注目被写***置が被写体面から離れるに従って1から徐々に減少し、注目被写***置がピント制御範囲から外れたところでは0となることが分かる。このように、ピント制御範囲内にある被写体に対して、その合焦度合いが連続的な評価値として定量的に導出される。
図18のフローチャートの説明に戻る。
ステップ1807において、画像生成部808は、ステップ1806で導出された評価値Eobjに基づき、ピント制御範囲内にある注目被写体の合焦度合いを定量的に示した表示画像を生成する。図20の(a)〜(c)は、本実施例において生成される表示画像の一例であって、前述の図12における撮像装置と被写体との位置関係において、被写体A〜Cがそれぞれ注目被写体としてユーザによって選択された場合の表示画像の一例を示している。図20の(a)〜(c)の各表示画像では、注目被写体に対するピントレベルが、評価値Eobjに従って5段階で表したレベルバーによって画面左上に示されている。図21は、被写体A〜Cに対する評価値Eobjに従って、どのようにしてピントレベルが5段階に分けられるのかを説明する図である。本実施例では、ピントレベルの値が大きいほど、ピント制御した際のピントの合う度合いが低いことを表している。Eobj=0ではレベル5、0<Eobj≦0.25ではレベル4、0.25<Eobj≦0.50ではレベル3、0.50<Eobj≦0.75ではレベル2、0.75<Eobj≦1.0ではレベル1といったようにピントレベルが分けられている。図21において、被写体A対する評価値Eobjは0.4であるのでピントレベルは3となり、図20の(a)の表示画面ではレベルバーの目盛りは3になっている。同様に、被写体B対する評価値Eobjは0.7であるのでピントレベルは2となり、図20の(b)の表示画面ではレベルバーの目盛りは2になっている。そして、ピント制御範囲外にある被写体Cに対する評価値Eobjは0であるのでピントレベルは5となり、図20の(c)の表示画面ではレベルバーの目盛りは5になっている。本実施例では、5段階のピントレベルにて合焦度合いを示したが、合焦度合いを示す方法は、これに限定されない。例えば、ステップ1806で導出される評価値(0〜1.0)をそのまま表示しても構わない。また、合焦度合いを示す評価値の導出方法も上述の式(10)〜式(12)を用いる方法に限定されるわけではなく、合焦度合いを定量的に評価可能な値が導出できればよい。
図18のフローチャートの説明に戻る。
ステップ1808において、画像生成部808は、ステップ1807で生成した表示画像のデータを表示部106に出力する。
ステップ1809において、視差画像データ取得部801は、取得した視差画像データのうち任意の単視点画像のデータを、表示部106へ出力する。
ステップ1810において、CPU101は、注目被写体特定部802で、新たな注目被写体の特定があったかどうかを判定する。新たな注目被写体の特定があった場合には、ステップ1803に戻り、ステップ1803〜ステップ1810の一連の処理を繰り返す。一方、新たな注目被写体の特定がなければ、本処理を終える。
なお、本実施例では、撮像装置の表示部に、図20の(a)〜(c)に示したような表示画像を表示することで、ユーザが指定した注目被写体に対するピント制御の達成度合いを通知している。しかし、通知方法はこれに限られるものではない。例えば、撮像装置に接続される表示装置(例えば撮像装置とは別個に用意される、視差画像を編集する際に用いるディスプレイ等)において、ユーザが指定した注目被写体に対するピント制御の達成度合いを表示してもよい。また、音声、振動、光などの表示以外の方法による通知を併用或いは代用してもよい。その場合には、ピント制御の達成度合いを、音声、振動、光の出力の度合いに関連付けて通知してもよい。
なお、本実施例では、実施例1と同様、操作部105を介したユーザ入力に従って注目被写体が特定される様態を前提として説明したが、例えば実施例2のように自動的に注目被写体を特定する態様に適用してもよい。
以上説明したように、本実施例によれば、特定された注目被写体に対する合焦度合いが示されるので、ピント制御に関するより正確な情報をユーザは知ることができる。
[実施例4]
実施例1乃至3では、図2に示す構成の撮像部を有する撮像装置を前提として説明を行った。次に、図3及び図4に示す構成の撮像部を有する撮像装置を前提とする様態について、実施例4として説明する。なお、以下では本実施例に特有な点を中心に説明することとする。
図3及び図4に示された構成では、撮像視点及び撮像範囲が異なる複数の小画像が並んだ視差画像データが、撮像素子204で取得される。図3の構成では、レンズアレイが、結像光学系と像側共役面の間(像側共役面の左側)に配置されているのに対し、図4の構成では、レンズアレイが、結像光学系と像側共役面の間ではなく外(像側共役面の右側)に配置されている点で異なっている。そのため、図4の構成の場合は、レンズアレイ203が結像光学系202の形成した像を実物体として見て撮像素子204へ再結像させることになる。しかし、どちらも結像光学系202の結んだ像をレンズアレイ203が物体として見て、その像を撮像素子204へ結像しているため、両者は本質的には同じである。以下では、図3の構成を例に説明するが、その内容は、図4の構成に関しても同様に成立するものである。
まず、本実施例での画像合成(リフォーカス)処理に関して説明する。
定性的には実施例1と同様で、結像光学系202の分割された瞳の画像を、合焦したい被写体距離に対応したずれ量で重ね合わせればよい。
図22は、図3の構成において、レンズアレイ203と撮像素子204の部分を中心に拡大した図である。本実施例においてレンズアレイ203は、物体側の面が平面で、像側の面が凸形状のマイクロレンズによって構成されている。もちろん、レンズアレイ203の形状はこれに限らない。図22において一点鎖線は、各マイクロレンズの画角を表している。撮像素子204で得られた画素値を、その画素に対応するマイクロレンズを介して仮想結像面へ投影して合成することで、仮想結像面にピントの合った合成画像を生成することができる。ここで仮想結像面とは、画像合成により合焦したい物体側の面と共役な面(結像光学系202を介して共役な面)のことを指す。例えば、図3において、被写体面201にピントの合った画像を生成するためには、像側共役面301に仮想結像面を設定すればよい。図22においては、合成画像生成の際に投影した画素を、分かりやすくするために各マイクロレンズの画角単位でずらして、破線で表している。合成画像の生成は、上述した方法(撮像素子204で得られた画素値をその画素に対応するマイクロレンズを介して仮想結像面へ投影して合成する方法)と同様の画素の重なりになるならば、各画素を平行移動させて合成する方法でもよい。この時、画素に入射した光束が通過したレンズアレイ203の領域が同じである場合、それらの画素の平行移動量は同じになる。つまり、図3及び4における合成画像生成時の画素の操作は、画素に入射する光束が通過したレンズアレイ203の領域に応じて決まる。
次に、本実施例におけるピント制御範囲に関して説明する。
本実施例におけるピント制御範囲も、実施例1と同様に式(1)で記述される。すなわち、前述の式(1)を用いて表される像側のリフォーカス範囲α〜αと共役な範囲(結像光学系202に対して共役な範囲)が、物体側のリフォーカス範囲であるピント制御範囲となる。図23は、実施例1に係る図7に対応する図である。図23中のΔyは、光の2次元強度分布のサンプリングピッチを表し、Δy=Δσ/σ(σ:像側共役面301とレンズアレイ203の物体側主平面との間隔、σ:レンズアレイ203の像側主平面と撮像素子204との間隔)である。これは、結像光学系202が形成した像を、レンズアレイ203が虚物体として見ることで、撮像素子204へσ/σ倍で縮小結像するためである。そして、本実施例においても、Δ≪P(P:結像光学系202の射出瞳距離)から、式(1)は式(2)に近似できる。
本実施例に係る画像処理部112おける処理の流れは、実施例1に係る図9のフローチャートと同じであるが、撮像部100の構成の違いから、以下のようにしてピント制御範囲が導出される(ステップ905)。
図23から明らかなように、幾何学的にNF=σ/ΔLAであり、また、Δy=Δσ/σであるから、以下の式(13)が成り立つ。
この式(13)等から、本実施例における像側ピント制御範囲drefocusが満たすべき条件式(14)が求められる。
実施例1と同様、上記条件式(14)において±10.0となっている範囲を、±6.0或いは±3.0とすることで、より鮮鋭な合成画像を得ることができる。
以下に、具体例を示す。
・撮像素子204の有効画素数Rtotal:150.0×10(pix)・σ:0.3712(mm)
・σ:0.0740(mm)
・撮像素子204の画素ピッチΔ:0.0024(mm)
・レンズアレイ203のピッチはΔLA:0.0256(mm)
・結像光学系202の広角端における焦点距離f:72.2(mm)
・結像光学系202の望遠端における焦点距離f:194.0(mm)・F値(広角端から望遠端まで):2.9
・1次元瞳分割数N:5
・単視点画像1枚当たりの解像度Rmono:6.0×10pix
・条件式(14)の範囲、条件式(14)の各範囲に対応する合成画像の解像度Rcomb、合成画像の各解像度に対応するdrefocusは、例えば以下の表(2)のようになる。
実施例1と同様、操作部105を介したユーザ入力によって、合成画像の解像度Rcombが例えば上記3種類の中から選択される。
上記の例において、例えば10.0×10pixの合成画像を生成するためには、単視点画像1枚当たりの解像度Rmono:6.0×10pixであるため、画素ずらし超解像などによる高解像度化が必要となることが分かる。
[実施例5]
次に、図5に示す構成(カメラアレイ)の撮像部を有する撮像装置を前提とする様態について、実施例5として説明する。なお、以下では本実施例に特有な点を中心に説明することとする。
図24は、本実施例に係る図5のカメラアレイの構成を有する撮像部100を正面(物体側)から見た図であり、7つの各個眼カメラにおける結像光学系202a〜202gと撮像素子204a〜204gの配置が示されている。この撮像部100の場合、結像光学系202bの光軸を回転軸として、六回対称性を有したカメラアレイとなっている。しかし、カメラアレイの構成はこれに限定されるものではなく、結像光学系の個数や配列は任意である。また、各撮像素子204a〜204gが各結像光学系202a〜202gに対応してそれぞれ配列されているが、各結像光学系202a〜202gによって形成される像を取得できるならば撮像素子は1つでもよい。
図24に示す構成の撮像部100において、各結像光学系202a〜202gで屈折された光線は、それぞれに対応した撮像素子204a乃至204gで受光される。撮像素子204a〜204gで取得された複数の画像は、被写体空間を異なる視点から観察した視差画像となっている。これらの複数の視差画像を用いて画像合成を行うことで、被写体空間のライトフィールドを得ることができる。
図25は、結像光学系202aと撮像素子204aを側面から見た図(断面図)である。他の結像光学系202b乃至202g及び、撮像素子204b乃至204gも同様であるが、各結像光学系の構成はそれぞれ異なっていてもよい。結像光学系202aは、単焦点レンズであり、結像光学系202aと撮像素子204aとの間隔を変化させることで、リフォーカスを行う。
本実施例における画像合成処理も、実施例1と同様、ピントを合わせたい被写体距離に対応したずれ量で各視点の画像を重ね合わせればよい。また、ピント制御範囲に関しても、前述の式(1)で記述されるとおりである。図26は、実施例1の図7に対応する図であり、本実施例の場合、Δy=Δ、Δu=Pmono/Fmonoとなる。ここで、Fmonoは、各結像光学系202a乃至202gにおけるF値、Pmonoは、各結像光学系に対応する射出瞳距離を表している。そして、本実施例においては、Δ≪Pmonoから、式(1)は以下の式(15)に近似できる。
本実施例に係る画像処理部112における処理の流れは、実施例1に係る図9のフローチャートと同じであるが、撮像部100の構成の違いから、以下のようにしてピント制御範囲が導出される(ステップ903及びステップ905)。
本実施例の場合、撮像部100を構成する各結像光学系202a乃至202gは、絞り値が可変の開口絞りをそれぞれ有している。そのため、ステップ903では、撮像時の各結像光学系の絞り値が、光学パラメータとして取得される。
そして、ステップ905では、実施例1と同様の考え方に基づき、ステップ903で得られた撮像時の各結像光学系202a乃至202gのF値を、Fmonoに代入し、ピント制御範囲を導出する。ここで、FmonoのF値を持つ結像光学系で結像される画像の解像度をRmonoとした時、drefocusが満たすべき条件式(16)が求められる。
実施例1と同様、上記条件式(16)において±10.0となっている範囲を、±6.0或いは±3.0とすることで、より鮮鋭な合成画像を得ることができる。
以下に、具体例を示す。
・各撮像素子204a乃至204gの有効画素数Rmono:19.3×10(pix)・画素ピッチΔ:0.0012(mm)
・各結像光学系202a乃至202gの焦点距離f:50.0(mm)
・F値(Fmono):1.8
・条件式(16)の範囲、条件式(16)の各範囲に対応する合成画像の解像度Rcomb、合成画像の各解像度に対応するdrefocusは、例えば以下の表(3)のようになる。
そして、実施例1と同様、操作部105を介したユーザ入力によって、合成画像の解像度Rcombが例えば上記3種類の中から選択される。
なお、撮像時のF値が異なるF値だった場合は、条件式(16)を満たすようにdrefocusが決定される。
[実施例6]
実施例1〜5は、光学パラメータが固定される状態、或いは撮像装置と注目被写体との距離が固定される状態において、ユーザが指定した注目被写体についてのピント制御の可否を判定し、その判定結果をユーザに通知する様態であった。次に、動画撮影のように一定期間連続して撮像が行なわれる場面において、その撮像期間中に光学パラメータが変化、或いは撮像装置と注目被写体との位置関係が変化した場合の様態について、実施例6として説明する。なお、実施例1等と共通する部分については説明を簡略化ないしは省略し、以下では本実施例に特有な点を中心に説明することとする。
<画像処理部の構成図>
図27は、本実施例に係る画像処理部112の内部構成を示したブロック図である。実施例1に係る画像処理部112(前述の図8を参照)と比較すると、画像生成部808に代えて、判定結果出力制御部2701が設けられている。そして、判定結果出力制御部2701の出力先として、通知部2702及び撮像部制御部108が示されている。
判定結果出力制御部2701は、ピント判定部807の判定結果を反映した情報(特定された注目被写体の合焦状態を表す情報、以下「合焦状態情報」)を、通知部2702及び撮像部制御部108に出力する。
判定結果出力制御部2701から合焦状態情報を受け取った通知部2702は、前述したような様々な手法(音声・振動・光などのいずれか又はこれらの組合せ)によってその内容をユーザに通知する。もちろん、これまでの実施例で説明した、注目被写体の合焦状態を示す表示画像の表示と組み合わせて通知を行なうことも可能である。この場合は、画像生成部808が、実施例1等の場合と同様に設けられることになる。
また、撮像部制御部108は、受け取った注目被写体の合焦状態の情報(或いは当該情報を契機になされたユーザからの指示)に基づいて、撮像処理(視差画像データの取得)を継続し或いは終了する。
その他の処理部については実施例1の画像処理部112と基本的に同じであるが、例えば、本実施例における視差画像データ取得部801と光学パラメータ取得部803は、撮像期間中は連続的に動作する等、細かな点で相違する。これら微細な相違点については、以下に示す本実施例に係る画像処理の流れを示すフローチャートの説明において適宜触れるものとする。
図28は、本実施例に係る画像処理部112における処理の流れを示すフローチャートである。
ステップ2801において、画像合成パラメータ取得部805は、画像合成パラメータを取得する。
ステップ2802において、視差画像データ取得部801は、撮像部100で取得された視差画像データを取得する。
ステップ2803において、CPU101は、注目被写体特定部802において、ユーザ入力に従った注目被写体の特定がなされたかどうかを判定する。注目被写体の特定がなされた場合には、ステップ2804に進む。一方、注目被写体の特定がなければ、ステップ2802に戻る。
ステップ2804において、光学パラメータ取得部803は、光学パラメータを取得する。
ステップ2805において、距離導出部804は、視差画像データ取得部801から供給される視差画像データを用いて、被写体空間の距離(シーンに含まれる人物、建物等のすべての物体についての距離)を導出する。このように本実施例では、撮像されるシーン全体についての距離情報が導出される。距離を導出する方法は、実施例1と同様であるため説明を省略する。
ステップ2806において、ピント制御範囲導出部806は、ステップ2802、或いは後述するステップ2810で新たに取得する視差画像について画像合成を行う場合におけるピント制御範囲を導出する。ピント制御範囲の導出方法は、実施例1と同様である。
ステップ2807において、ピント判定部807は、ステップ2803で特定された注目被写体の合焦状態を導出する。例えば、ステップ2806で導出されたピント制御範囲内にあるか否かを判定する。ピント制御範囲内にあるかどうかの判定方法は、実施例1と同様である。導出された合焦状態の情報は、判定結果出力制御部2701によって、通知部2702及び/又は撮像部制御部108に出力される。
ステップ2808において、通知部2702は、受け取った合焦状態情報の内容を前述したような様々な方法によってユーザに通知する。
ステップ2809において、CPU101は、判定結果出力制御部2701から出力される合焦状態情報に基づいて、視差画像データの取得(撮像)を終了するか否かを判定し、撮像部制御部108に撮像の継続又は終了を指示する。例えば、注目被写体がピント制御範囲内にある場合には撮像を継続する旨の指示を行い、注目被写体がピント制御範囲外にある場合には撮像(或いは撮像データの記録)を終了する旨の指示を行うことが考えられる。この他、撮像を継続するかどうかをユーザが選択可能なように構成し、入力されたユーザ指示に従って撮像を継続するかどうかを決定するようにしてもよい。撮像を継続すると判定された場合(或いはユーザが撮像の継続を指示した場合)には、ステップ2810に進む、一方、撮像を終了すると判定された場合(或いはユーザが撮像の終了を指示した場合)には、ステップ2811に進む。
ステップ2810において、撮像部制御部108は撮像(或いは撮像データの記録)を継続し、視差画像データ取得部801によって、新たな視差画像データが取得される(視差画像データの更新)。そして、新たに取得された視差画像データについて、ステップ2804以下の処理が繰り返される。
ステップ2811において、撮像部制御部108は、撮像(或いは撮像データの記録)を終了する制御を行う。
以上が、本実施例に係る画像処理部112における処理の流れである。これにより、動画などの撮像シーンにおいて、光学パラメータや撮像装置と注目被写体との位置関係が撮像期間中に変化し、それに伴い注目被写体の合焦状態が変化した場合においても、その事実をユーザはリアルタイムに把握することができる。
なお、ステップ2810で視差画像データを新たに取得した際に、ステップ2803で特定された注目被写体が、取得された視差画像の中に含まれているかどうかを判定する処理を行い、含まれていなければその旨をユーザに通知するといった処理を行なってもよい。
以下で、撮像期間中に状況が変化した場合の具体例を、図を参照して説明する。
図29及び図30は、物体側におけるピント制御範囲が変化する場面を説明する図である。図12と同様、3種類の被写体(被写体A、被写体B、被写体C)が撮像装置から異なる位置に存在しており、被写体Aが最も撮像装置から近い位置にあり、被写体Cが最も撮像装置から遠い位置にある。図29及び図30において、Drefocusは、ステップ2806で導出した像側ピント制御範囲drefocusを物体側に置き換えて表現した、物体側ピント制御範囲を示している。また、Dfocusは、物体側における撮像装置のフォーカス位置を示している。
図29の(a)では、被写体Aと被写体Bが共にピント制御範囲Drefocusの範囲内にあり、被写体Aの位置にフォーカス位置Dfocusがある。このような状況において、注目被写体として被写体Bが特定されたとする。この場合、被写体Bはピント制御範囲Drefocusの範囲内にあるため、前述のステップ2808では、リフォーカスが可能であることが通知部2702によって通知される。そして、撮像が継続される場合は新たな視差画像データが取得され(ステップ2810)、当該取得された視差画像データに対するステップ2804以降の処理が続行される。
図29の(b)は、撮像装置の光学パラメータの一つであるフォーカス位置Dfocusが被写体Aの撮像装置側への移動に合わせて変化し、それに伴ってピント制御範囲Drefocusも変化した様子を示している。すなわち、撮像装置に近づいた被写体Aに合わせてフォーカス位置Dfocusが変化し、この変化に伴いピント制御範囲Drefocusが狭まったことで、ピント制御範囲Drefocusの範囲内であった注目被写体Bの合焦状態が、範囲外へと推移している。
図30の(a)は、撮像装置の光学パラメータの一つである焦点距離の変更に合わせて、ピント制御範囲Drefocusが変化した様子を示している。すなわち、焦点距離の変更に伴ってピント制御範囲Drefocusが狭まったことで、ピント制御範囲Drefocusの範囲内であった注目被写体Bの合焦状態が、範囲外へと推移している。
図30の(b)は、撮像装置(撮像者)が、注目被写体である被写体Bを含むすべての被写体から遠ざかったことで、ピント制御範囲Drefocusが変化した様子を示している。すなわち、撮像装置と被写体との位置関係の変化に伴ってフォーカス位置Dfocusが手前に移動し、これに伴ってピント制御範囲Drefocusも手前に移動したことで、ピント制御範囲Drefocus範囲内であった注目被写体Bが、範囲外へと推移している。この時、撮像装置の光学パラメータに変化はなく、撮像装置と被写体との位置関係だけが変化している。
最後に、上記のように注目被写体の合焦状態が変化したときのユーザへの通知態様について説明する。図31は、注目被写体の合焦状態が変化した際におけるユーザへの通知態様のバリエーションを説明する図である。
まず、図31の(a)は、被写体Bが注目被写体として特定された時点(前述の図29(a)を参照)に生成され、表示部106に表示される表示画面の一例である。この場合、被写体Bはピント制御範囲Drefocusの範囲内にあるため、リフォーカスが可能である旨が音声等によって通知される。この図では、実施例1で説明したような、「リフォーカス可」のメッセージをオーバーレイ表示(前述の図13(a)を参照)することはせず、単視点画像をそのまま表示画面としている。
図31の(b)〜(e)は、前述した図29の(b)〜(c)のように注目被写体Bがピント制御範囲外となった場合における、ユーザへの通知態様の一例をそれぞれ示している。
図31の(b)は、リフォーカスが不可能であることを示す「リフォーカス不可」のメッセージを画面上にオーバーレイ表示することによって、注目被写体の合焦状態の変化をユーザに通知する態様である。
図31の(c)は、注目被写体の合焦状態の変化を、音声によって通知する態様である。なお、音声の内容はビープ音などでもよい。
図31の(d)は、注目被写体の合焦状態の変化を、振動によって通知する態様である。
図31の(e)は、注目被写体の合焦状態の変化を、光(フラッシュ)によって通知する態様の一例である。
上述したような手法によるユーザへの通知は、撮影中の全期間に渡って行なってもよいし、注目被写体の合焦状態が変化した時にのみ行なうようにしてもよい。更には、注目被写体の合焦状態が変化した以降の全撮影期間に渡って、これらの通知を行なうようにしてもよい。
なお、ここまでに述べた実施例では、一つの被写体を注目被写体として特定する場合を例に説明をしたが、特定可能な注目被写体は複数であってもよい。例えば、図29の(a)において、被写体AとBの両方を注目被写体として特定可能としてもよい。その場合は、被写体AとBの両方についての合焦状態やその変化を通知するように構成すればよい。また、合焦状態の変化を通知する際には、特定された複数の注目被写体のうち変化が生じた注目被写体についてのみ通知を行えばよい。
以上説明したように、本実施例によれば、連続した撮像期間中、特定された注目被写体に対するピント制御の可否をユーザは常に知ることが可能となる。
[その他の実施形態]
また、本発明の目的は、以下の処理を実行することによっても達成される。即ち、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出す処理である。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。

Claims (27)

  1. 複数の異なる視点から撮像されて得た視差画像内の注目被写体を特定する特定手段と、
    前記視差画像を用いた画像合成処理により生成される画像において、前記画像合成処理により前記特定された注目被写体にピント位置を合わせることができるか否かを示す合焦可否情報をユーザに通知する通知手段と、
    を備えたことを特徴とする画像処理装置。
  2. 前記視差画像を用いた画像合成処理により生成される画像において、前記画像合成処理により前記特定された注目被写体にピント位置を合わせることができるか否かを示す合焦可否情報を含む表示画像を生成する生成手段を更に備え、
    前記表示画像は、前記注目被写体の像を含む第一の画像を含む画像であり、また、前記視差画像から生成される、前記第一の画像とは合焦状態が異なる第二の画像における、前記注目被写体の合焦可否情報を示す画像であり、
    前記通知手段は、前記表示画像を表示することで前記合焦可否情報をユーザに通知する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記表示画像は、前記第一の画像に、前記第二の画像における注目被写体の合焦可否情報を示す表示を重畳した画像であることを特徴とする請求項2に記載の画像処理装置。
  4. 前記第二の画像は、前記視差画像を用いた前記画像合成処理により生成されることを特徴とする請求項2又は3に記載の画像処理装置。
  5. 前記画像合成処理によりピント位置の調整が可能な、被写体距離の範囲を示すピント制御範囲を導出するピント範囲導出手段をさらに備え、
    前記通知手段は、導出された前記ピント制御範囲に基づいて前記合焦可否情報を通知する
    ことを特徴とする請求項2乃至4のいずれか一項に記載の画像処理装置。
  6. 前記ピント範囲導出手段は、前記視差画像の画角に応じて前記ピント制御範囲を導出することを特徴とする請求項5に記載の画像処理装置。
  7. 前記ピント範囲導出手段は、前記画像合成処理により生成される画像における解像度に応じて前記ピント制御範囲を導出することを特徴する請求項5又は6に記載の画像処理装置。
  8. 導出された前記ピント制御範囲に基づき、前記注目被写体の合焦状態を判定する判定手段をさらに備え、
    前記生成手段は、前記判定手段の判定結果に基づいて、前記表示画像を生成する
    ことを特徴とする請求項5乃至7のいずれか一項に記載の画像処理装置 。
  9. 前記判定手段は、前記画像合成処理によって前記注目被写体に合焦した画像を生成することが可能かどうかを判定し、
    前記表示画像は、前記画像合成処理によって前記注目被写体に合焦した画像を生成することが可能かどうかを示す画像である
    ことを特徴とする請求項8に記載の画像処理装置。
  10. 前記判定手段は、前記画像合成処理によって前記注目被写体に合焦可能な度合いを判定し、
    前記表示画像は、前記画像合成処理によって前記注目被写体に合焦可能な度合いを示す画像である
    ことを特徴とする請求項8又は9に記載の画像処理装置。
  11. 前記表示画像は、前記合焦可能な度合いを示すレベルバーを前記第一の画像に重畳した画像であることを特徴とする請求項10に記載の画像処理装置。
  12. 前記注目被写体までの距離を導出する距離導出手段をさらに備え、
    前記判定手段は、前記距離導出手段で導出された前記注目被写体までの距離及び前記ピント範囲導出手段で導出されたピント制御範囲に基づいて、前記注目被写体の合焦状態を判定する
    ことを特徴とする請求項8乃至11のいずれか1項に記載の画像処理装置。
  13. 前記視差画像は、前記視点それぞれから撮像される単視点画像から構成され、前記距離導出手段は、前記複数の単視点画像の間でステレオマッチングを行うことにより前記注目被写体までの距離を導出することを特徴とする請求項12に記載の画像処理装置。
  14. 前記視差画像は、前記視点それぞれから撮像される単視点画像から構成され、
    前記第一の画像は、前記複数の単視点画像のうちの1の単視点画像である
    ことを特徴とする請求項2乃至13のいずれか1項に記載の画像処理装置。
  15. 前記視差画像は、前記視点それぞれから撮像される単視点画像から構成され、
    前記第一の画像は、前記複数の単視点画像を合成して得られた合成画像である
    ことを特徴とする請求項2乃至13のいずれか1項に記載の画像処理装置。
  16. 前記特定手段は、ユーザからの指示に基づいて、前記注目被写体を特定することを特徴とする請求項1乃至15のいずれか1項に記載の画像処理装置。
  17. 前記特定手段は、前記視差画像を用いて被写体空間の距離を導出して、前記導出された当該被写体空間の距離に基づいて、前記注目被写体を特定することを特徴とする請求項1乃至16のいずれか1項に記載の画像処理装置。
  18. 前記通知手段は、前記視差画像を用いた画像合成処理により生成される画像における、前記特定された注目被写体の合焦状態を、音を用いてユーザに通知することを特徴とする請求項1乃至17のいずれか一項に記載の画像処理装置。
  19. 前記通知手段は、前記視差画像を用いた画像合成処理により生成される画像における、前記特定された注目被写体の合焦状態を、振動を用いてユーザに通知することを特徴とする請求項1乃至18のいずれか一項に記載の画像処理装置。
  20. 前記通知手段は、前記視差画像を用いた画像合成処理により生成される画像における、前記特定された注目被写体の合焦状態を、光を用いてユーザに通知することを特徴とする請求項1乃至18のいずれか一項に記載の画像処理装置。
  21. 前記通知手段は、前記視差画像を用いた画像合成処理により生成される画像における、前記特定された注目被写体の合焦状態の変化を、ユーザに通知することを特徴とする請求項1乃至20のいずれか一項に記載の画像処理装置。
  22. 請求項1乃至21のいずれか1項に記載の画像処理装置を備えたことを特徴とする撮像装置。
  23. 請求項2乃至15のいずれか1項に記載の画像処理装置を備えた撮像装置であって、
    前記撮像装置は、ライブビュー機能を有し、
    前記表示画像は、前記ライブビュー機能において表示される画像である
    ことを特徴とする撮像装置。
  24. 複数の異なる視点から撮像されて得た視差画像内の注目被写体を特定する特定手段と、
    前記視差画像を用いた画像合成処理により生成される画像において、前記画像合成処理により前記特定された注目被写体にピント位置を併せることができるか否かを示す合焦可否情報に基づいて、連続してなされる前記撮像の継続の可否を制御する制御手段と、
    を備えたことを特徴とする画像処理装置。
  25. 複数の異なる視点から撮像されて得られた視差画像内の注目被写体を特定するステップと、
    前記視差画像を用いた画像合成処理により生成される画像において、前記画像合成処理により前記特定された注目被写体にピント位置を併せることができるか否かを示す合焦可否情報をユーザに通知するステップと、
    を含むことを特徴とする画像処理方法 。
  26. 複数の異なる視点から撮像されて得た視差画像内の注目被写体を特定するステップと、
    前記視差画像を用いた画像合成処理により生成される画像において、前記画像合成処理により前記特定された注目被写体にピント位置を併せることができるか否かを示す合焦可否情報に基づいて、連続してなされる前記撮像の継続の可否を制御するステップと、
    を含むことを特徴とする画像処理方法。
  27. コンピュータを、請求項1乃至21、24のうちいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2013267102A 2013-01-15 2013-12-25 画像処理装置、撮像装置、画像処理方法、及びプログラム Expired - Fee Related JP6305053B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013267102A JP6305053B2 (ja) 2013-01-15 2013-12-25 画像処理装置、撮像装置、画像処理方法、及びプログラム
US14/155,463 US9503633B2 (en) 2013-01-15 2014-01-15 Image processing apparatus, image capturing apparatus, image processing method, and storage medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013004990 2013-01-15
JP2013004990 2013-01-15
JP2013267102A JP6305053B2 (ja) 2013-01-15 2013-12-25 画像処理装置、撮像装置、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2014158258A JP2014158258A (ja) 2014-08-28
JP6305053B2 true JP6305053B2 (ja) 2018-04-04

Family

ID=51164850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013267102A Expired - Fee Related JP6305053B2 (ja) 2013-01-15 2013-12-25 画像処理装置、撮像装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US9503633B2 (ja)
JP (1) JP6305053B2 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6029380B2 (ja) 2012-08-14 2016-11-24 キヤノン株式会社 画像処理装置、画像処理装置を具備する撮像装置、画像処理方法、及びプログラム
JP6214236B2 (ja) 2013-03-05 2017-10-18 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP5608803B1 (ja) * 2013-10-03 2014-10-15 オリンパス株式会社 撮影機器、撮影方法及び撮影制御プログラム
US9426365B2 (en) * 2013-11-01 2016-08-23 The Lightco Inc. Image stabilization related methods and apparatus
KR102149463B1 (ko) * 2014-02-19 2020-08-28 삼성전자주식회사 이미지를 처리하기 위한 전자 장치 및 방법
US9525819B2 (en) * 2014-03-07 2016-12-20 Ricoh Company, Ltd. Enhancing spatial resolution of images from light field imaging systems using sub-pixel disparity
WO2015137635A1 (en) * 2014-03-13 2015-09-17 Samsung Electronics Co., Ltd. Image pickup apparatus and method for generating image having depth information
JP6566800B2 (ja) * 2014-09-30 2019-08-28 キヤノン株式会社 撮像装置及び撮像方法
US9967451B2 (en) * 2014-09-30 2018-05-08 Canon Kabushiki Kaisha Imaging apparatus and imaging method that determine whether an object exists in a refocusable range on the basis of distance information and pupil division of photoelectric converters
US10511787B2 (en) * 2015-02-12 2019-12-17 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Light-field camera
JP6626257B2 (ja) 2015-03-03 2019-12-25 キヤノン株式会社 画像表示装置、撮像装置、画像表示方法、プログラム、記憶媒体
US9544514B2 (en) * 2015-03-06 2017-01-10 Ricoh Company, Ltd. Automatic adjustment of light field imaging systems for resolution enhancement
JP6546474B2 (ja) * 2015-07-31 2019-07-17 キヤノン株式会社 撮像装置およびその制御方法
JP6663193B2 (ja) * 2015-09-10 2020-03-11 キヤノン株式会社 撮像装置およびその制御方法
JP6867132B2 (ja) * 2016-09-30 2021-04-28 株式会社小松製作所 作業機械の検出処理装置及び作業機械の検出処理方法
KR102646437B1 (ko) * 2016-11-25 2024-03-11 삼성전자주식회사 멀티 렌즈 기반의 촬영 장치 및 방법
JP2021180446A (ja) * 2020-05-15 2021-11-18 キヤノン株式会社 撮像制御装置、撮像装置、撮像装置の制御方法、プログラム
JP2023062381A (ja) * 2021-10-21 2023-05-08 キヤノン株式会社 撮像装置及びその制御方法とプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4861057B2 (ja) * 2006-05-29 2012-01-25 キヤノン株式会社 撮像装置およびその制御方法
JP2008050904A (ja) 2006-08-28 2008-03-06 Hitachi Housetec Co Ltd 鋼板パネル及びこの鋼板パネルを用いた浴室壁パネル
US8559705B2 (en) 2006-12-01 2013-10-15 Lytro, Inc. Interactive refocusing of electronic images
JP4905326B2 (ja) 2007-11-12 2012-03-28 ソニー株式会社 撮像装置
JP5147645B2 (ja) * 2008-10-30 2013-02-20 キヤノン株式会社 撮像装置
WO2010065344A1 (en) * 2008-11-25 2010-06-10 Refocus Imaging, Inc. System of and method for video refocusing
JP5178553B2 (ja) * 2009-01-27 2013-04-10 オリンパス株式会社 撮像装置
US8233789B2 (en) * 2010-04-07 2012-07-31 Apple Inc. Dynamic exposure metering based on face detection
CN103261939B (zh) * 2010-12-09 2015-08-26 富士胶片株式会社 成像装置以及主要摄影对象识别方法
JP5906062B2 (ja) * 2010-12-17 2016-04-20 キヤノン株式会社 撮像装置およびその制御方法
JP5738606B2 (ja) * 2011-01-13 2015-06-24 オリンパス株式会社 撮像装置
JP5263310B2 (ja) * 2011-01-31 2013-08-14 株式会社ニコン 画像生成装置、撮像装置、画像生成方法
JP2013009274A (ja) * 2011-06-27 2013-01-10 Canon Inc 画像処理装置および画像処理方法、プログラム
JP5947548B2 (ja) * 2012-01-13 2016-07-06 キヤノン株式会社 撮像装置、その制御方法、画像処理装置、画像生成方法、プログラム
JP5943785B2 (ja) * 2012-09-12 2016-07-05 キヤノン株式会社 撮像装置、撮像システム、画像処理装置、および、撮像装置の制御方法
JP6214236B2 (ja) * 2013-03-05 2017-10-18 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6061816B2 (ja) * 2013-08-22 2017-01-18 キヤノン株式会社 撮像装置、撮像装置の制御方法、プログラム、および、記憶媒体

Also Published As

Publication number Publication date
JP2014158258A (ja) 2014-08-28
US9503633B2 (en) 2016-11-22
US20140198230A1 (en) 2014-07-17

Similar Documents

Publication Publication Date Title
JP6305053B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6112824B2 (ja) 画像処理方法および装置、プログラム。
JP6341736B2 (ja) 撮像装置、制御方法、プログラム、記憶媒体
JP5988790B2 (ja) 画像処理装置、撮像装置、画像処理方法、および、画像処理プログラム
JP5943785B2 (ja) 撮像装置、撮像システム、画像処理装置、および、撮像装置の制御方法
JP6436783B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体
JP6159097B2 (ja) 画像処理装置、撮像装置、制御方法、及びプログラム
JP6548367B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP5618943B2 (ja) 画像処理方法、撮像装置、画像処理装置、および、画像処理プログラム
JP6047025B2 (ja) 撮像装置及びその制御方法
JP2013145314A (ja) 画像処理装置、撮像装置、制御方法、及びプログラム
JP6234401B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2014153890A5 (ja)
JP6418770B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、および記憶媒体
JP2015041988A (ja) 撮像装置、撮像装置の制御方法およびプログラム
JP2010049152A (ja) 焦点情報検出装置
JP2020194454A (ja) 画像処理装置および画像処理方法、プログラム、並びに記憶媒体
JP6491442B2 (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
JP7373297B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5721891B2 (ja) 撮像装置
JP6470530B2 (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
JP5553863B2 (ja) 画像処理方法、撮像装置、画像処理装置、および、画像処理プログラム
JP5553862B2 (ja) 撮像装置および撮像装置の制御方法
JP2015084517A (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
JP6387149B2 (ja) 画像処理装置、撮像装置、制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180306

R151 Written notification of patent or utility model registration

Ref document number: 6305053

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees