JP2015004922A - 焦点調節装置及び撮像装置 - Google Patents
焦点調節装置及び撮像装置 Download PDFInfo
- Publication number
- JP2015004922A JP2015004922A JP2013131566A JP2013131566A JP2015004922A JP 2015004922 A JP2015004922 A JP 2015004922A JP 2013131566 A JP2013131566 A JP 2013131566A JP 2013131566 A JP2013131566 A JP 2013131566A JP 2015004922 A JP2015004922 A JP 2015004922A
- Authority
- JP
- Japan
- Prior art keywords
- area
- image
- image data
- focus
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
【課題】 主要被写体が人物以外の物体となる場合であっても、その物体に対して確実に焦点が合わせる。
【解決手段】 本発明の焦点調節装置は、被写体光を取り込む撮像光学系と、被写体が含まれる第1の画像を生成する生成部と、撮像光学系により取り込まれる被写体光に基づいて連続して取得される第2の画像に対して前記第1の画像を用いたテンプレートマッチングを行うことで、前記第2の画像のそれぞれから切り出す領域を対象領域として設定する設定部と、第2の画像から切り出した対象領域の画像のそれぞれに対して圧縮処理を行う圧縮部と、圧縮処理された対象領域の画像のデータ量の変化に基づいて、撮像光学系におけるフォーカスポジションを制御する制御部と、を備えたことを特徴とする。
【選択図】 図1
【解決手段】 本発明の焦点調節装置は、被写体光を取り込む撮像光学系と、被写体が含まれる第1の画像を生成する生成部と、撮像光学系により取り込まれる被写体光に基づいて連続して取得される第2の画像に対して前記第1の画像を用いたテンプレートマッチングを行うことで、前記第2の画像のそれぞれから切り出す領域を対象領域として設定する設定部と、第2の画像から切り出した対象領域の画像のそれぞれに対して圧縮処理を行う圧縮部と、圧縮処理された対象領域の画像のデータ量の変化に基づいて、撮像光学系におけるフォーカスポジションを制御する制御部と、を備えたことを特徴とする。
【選択図】 図1
Description
本発明は、焦点調節装置及び撮像装置に関する。
位相差検出方式やコントラスト検出方式のオートフォーカス(AF)制御を備えたデジタルカメラを用いて高速な連続撮影を行う場合、各撮影間において上記のAF制御を実行することが困難であることから、フォーカスを固定にすることが一般的である(特許文献1参照)。そこで、高速な連続撮影における個々の撮影で得られる画像データ自体のデータ量の変化に基づいて、高速な連続撮影におけるフォーカス制御を行うことが考案されている。
例えば画像データのデータ量の変化を、高速な連続撮影におけるフォーカス制御に用いる場合、得られる画像データのデータ量が一定であれば、主要被写体に焦点が合っていなくても、主要被写体に焦点が合っていると判定されてしまう。そこで、撮影時に使用される焦点検出位置や主要被写体を含む所定範囲を切り出した画像データのデータ量の変化を用いることが考案されている。しかしながら、人物以外の物体を主要被写体とする場合、主要被写体となる物体が、必ずしも主要被写体と認識されるとは限らないことから、主要被写体が人物以外の物体となる場合には、その物体に対して確実に焦点が合わせることが難しいという問題がある。
本発明は、主要被写体が人物以外の物体となる場合であっても、その物体に対して確実に焦点が合わせることができるようにした焦点調節装置及び撮像装置を提供することを目的とする。
本発明の焦点調節装置は、被写体光を取り込む撮像光学系と、被写体が含まれる第1の画像を生成する生成部と、前記撮像光学系により取り込まれる被写体光に基づいて連続して取得される第2の画像に対して前記第1の画像を用いたテンプレートマッチングを行うことで、前記第2の画像のそれぞれから切り出す領域を対象領域として設定する設定部と、前記第2の画像から切り出した前記対象領域の画像のそれぞれに対して圧縮処理を行う圧縮部と、前記圧縮処理された前記対象領域の画像のデータ量の変化に基づいて、前記撮像光学系におけるフォーカスポジションを制御する制御部と、を備えたことを特徴とする。
また、本発明の撮像装置は、取り込まれる被写体光に基づく画像を連続して出力することが可能な撮像素子と、前記撮像素子から出力される画像に基づいて、前記撮像光学系のフォーカスポジションを制御する、上記に記載の焦点調節装置と、を備えたことを特徴とする。
本発明によれば、主要被写体が人物以外の物体となる場合であっても、その物体に対して確実に焦点が合わせることができる。
以下、本発明の実施形態としてデジタルカメラ10を例に説明する。本発明のデジタルカメラ10は、1回の撮像処理により静止画像を取得する撮影の他、複数回の撮像処理を連続して行って複数の静止画像を取得する連続撮影を行うことが可能である。この連続撮影は、例えば30コマ/秒、50コマ/秒、60コマ/秒など高速な連続撮影を行うことができる。以下、高速な連続撮影を高速連写と称して説明する。
図1に示すように、デジタルカメラ10は、撮像光学系15、クイックリターンミラー16、メカニカルシャッタ17、撮像素子18、アナログフロントエンド(AFE)回路19、タイミングジェネレータ(TG)20、レンズ駆動機構21、シャッタ駆動機構22、バッファメモリ25、画像処理回路26、圧縮/伸長回路27、表示制御回路28、表示装置29、接続用I/F30、CPU40、不揮発性メモリ41、ワークメモリ42、焦点検出部43、レリーズボタン44、操作部45などを備えている。AFE回路19、バッファメモリ25、画像処理回路26、圧縮/伸長回路27、表示制御回路28、接続用I/F30、CPU40は、バス46を介して電気的に接続される。
撮像光学系15は、被写界光束を結像し、撮像素子18の撮像面近傍に被写界像を形成する。図1においては、撮像光学系15を単一のレンズにて記載しているが、実際には、フォーカシングレンズを備えた複数のレンズから構成される。このフォーカシングレンズは、レンズ駆動機構21を介して光軸方向に移動される。フォーカシングレンズを光軸方向に移動させることで、フォーカス制御が実行される。
また、撮像光学系15は、不図示の絞りを備えている。この絞りは、CPU40により設定されるAv値に応じて、絞り径が調整される。このAv値は、ユーザが入力した値であってもよいし、自動露出演算により算出された値であってもよい。
クイックリターンミラー16は、撮像光学系15と撮像素子18との間の被写界光束の光路上に配置される。このクイックリターンミラー16は、ミラーダウン状態と、ミラーアップ状態との間で切り替えられる。クイックリターンミラー16がミラーダウン状態の場合、被写体光束はクイックリターンミラー16により焦点検出部43及び不図示の測光部へと導かれる。一方、クイックリターンミラー16がミラーアップ状態の場合、被写体光束は、クイックリターンミラー16により撮像素子18へ導かれる。
メカニカルシャッタ17は、クイックリターンミラー16と撮像素子18との間の、被写界光束の光路上に配置される。このメカニカルシャッタ17は、TG20からの駆動信号を受けたシャッタ駆動機構22により開閉される。
撮像素子18は、CCDイメージセンサ、CMOSイメージセンサなどから構成される。この撮像素子18は、TG20から供給される駆動信号に応じて、信号の蓄積及び信号の読み出しを行う。
TG20は、CPU40からの指示に応じて、撮像素子18やシャッタ駆動機構22に対して駆動信号を出力する。また、TG20は、AFE回路19やCPU40に対して同期信号を供給する。ここで、TG20は、撮像素子18へ供給する駆動信号のパターンと、メカニカルシャッタ17へ供給する駆動信号のパターンとの組み合わせにより、1フレーム当たりの露光時間を制御する。この露光時間は、CPU40により指定されたTv値に応じた値に設定される。ここで、Tv値は、ユーザが入力した値であってもよいし、自動露出演算により算出された値であってもよい。ここで、高速連写を実行する場合には、メカニカルシャッタ17を開状態としたまま、撮像素子18の駆動制御(信号の蓄積及び信号の読み出し)を行う。この場合、露光時間は、撮像素子18に供給される駆動信号のみで制御される。つまり、高速連写を行う場合、メカニカルシャッタ17ではなく、電子シャッタとなる。
AFE回路19は、CDS回路、ゲイン回路、A/D変換回路などを備えている。CDS回路は、撮像素子18から出力されるアナログ信号のノイズ成分を相関二重サンプリングにより除去する。ゲイン回路は、ノイズが除去されたアナログ信号を増幅する。A/D変換回路は、増幅されたアナログ信号をデジタル信号に変換する。
ここで、ゲイン回路による信号の増幅時に用いられる信号増幅率(ゲイン)は、CPU40からのSv値に基づいた値である。このSv値は撮影時の感度(ISO感度)であり、このSv値は、ユーザが指定した値であってもよいし、自動露出演算にて算出された値であってもよい。
焦点検出部43は、ミラーダウン状態のクイックリターンミラー16から導かれた被写界光束を瞳分割してから再統合することにより、撮像素子18に対する撮像光学系15のデフォーカス信号を生成する位相差検出方式の焦点検出部から構成される。ここで、撮像光学系15のデフォーカス信号は、撮像範囲に対して複数配置される複数のAFエリアのそれぞれで生成される。
バッファメモリ25は、AFE回路19から出力されたデジタル信号が書き込まれる。このバッファメモリ25は、AFE回路19から出力されたデジタル信号が書き込まれる他、画像処理回路26から転送された他のデジタル信号が書き込まれる。ここで、バッファメモリ25は、複数フレーム分のデジタル信号を記憶することができる。
画像処理回路26は、ホワイトバランス処理回路、画素補間回路、マトリクス処理回路、非線形変換(γ補正)処理回路及び輪郭強調処理回路などを備え、バッファメモリ25から読み出されたデジタル信号に対して、ホワイトバランス、画素補間、マトリクス、非線形変換(γ補正)及び輪郭強調などの処理を施す。
画像処理回路26は、テンプレート生成部47、トリミング部48を備えている。テンプレート生成部47は、AF処理時に取り込まれる画像データから得られるコントラスト情報を用いて、主要被写体が含まれる領域を特定する。この特定の後、テンプレート生成部47は、特定された領域からなる画像をテンプレート画像として生成する。なお、テンプレート画像を生成する際に、AF処理時に取り込まれる画像データのコントラスト情報を用いているが、コントラスト情報に加えて、画像データにおける色情報を用いて、被写体が含まれる領域を特定することも可能である。
トリミング部48は、高速連写により得られた画像データのそれぞれから、後述する比較対象領域に該当する領域をトリミング処理する。なお、トリミング処理により生成される画像データ(対象画像データ)は、バッファメモリ25に記憶される。
圧縮/伸長回路27は、画像処理済みの画像データや、対象画像データに対して圧縮処理を施す。圧縮処理が施された画像データは、接続用I/F30を介して記憶媒体50に書き込まれる。ここで、記憶媒体50としては、不揮発性メモリからなるメモリーカード、光学ディスク、磁気ディスクなどが挙げられる。また、圧縮/伸長回路27は、記憶媒体50から読み出した圧縮処理済みの画像データに対して伸長処理を行う。表示制御回路28は、入力された画像データを表示用の所定方式の信号に変換して表示装置29に表示する。
CPU40は、不揮発性メモリ41に格納されている制御プログラムに従って、ワークメモリ42を一時記憶作業領域として利用して各部の制御を行う。このCPU40は、高速連写時に、顔検出部51、領域設定部52、データ比較部53、焦点制御部54の機能が有効となる。
顔検出部51は、画像中に含まれる人物の顔を検出する。この顔を検出する処理としては、例えば画像に含まれる肌色の領域を検出し、肌色の領域に含まれる特徴量から、顔であるか否かの判定を行う処理、又は顔形状のテンプレートを複数用意しておき、テンプレートと画像との相関から顔の領域を検出する処理等が挙げられる。顔検出部51は、顔が検出されると、検出された顔を含む矩形の領域の位置情報を求める。ここで、顔領域の位置情報は、顔領域の四隅の頂点の位置座標を示すアドレスデータである。
領域設定部52は、データ比較部53にて実行されるデータ量の比較の際に用いる領域(比較対象領域)を設定する。領域設定部52は、1回目の撮像処理により得られる画像を縦m個横n個の計m×n個の領域に分割する。この領域分割に関わるデータは例えばワークメモリ42に記憶される。以下、画像を分割することで得られる領域を分割領域と称して説明する。顔検出部51による顔検出処理において顔が検出された場合には、画像に設定される複数の分割領域のうち、検出された顔の領域が含まれる分割領域を、比較対象領域として設定する。一方、顔検出部51による顔検出処理において顔が検出されない場合、領域設定部52は、テンプレート画像が生成されているか否かにより、以下の処理を実行する。例えばテンプレート画像が生成されている場合、領域設定部52は、テンプレート画像と、高速連写により取得された画像とを用いてテンプレートマッチングを行う。そして、領域設定部52は、テンプレートマッチングによりテンプレート画像に一致する領域が含まれる矩形の領域を比較対象領域として設定する。一方、テンプレート画像が生成されていない場合、領域設定部52は、1回目の撮像処理におけるフォーカス制御にて使用されるAFエリアを含む分割領域を比較対象領域として設定する。そして、領域設定部52は、上述したいずれかの方法で比較対象領域を設定した後、比較対象領域の位置情報を求める。なお、比較対象領域の位置情報は、画像処理回路26に出力される。画像処理回路26のトリミング部48は、比較対象領域の位置情報に基づいて、高速連写により得られる各画像データに対してトリミング処理を実行する。このトリミング処理により、対象画像データが生成される。
データ比較部53は、圧縮処理が施された対象画像データのデータ量を比較する。一般に、同じ被写界を連続して2回撮影した場合、個々の撮影においてピントが合っていれば、それぞれの撮影にて得られる2つの画像データのデータ量は近似する。しかしながら、1回目の撮影においてピントが合い、2回目の撮影においてピントが合っていない場合には、1回目の撮影で得られる画像は鮮鋭度が高い画像となり、2回目の撮影で得られる画像は鮮鋭度が低い画像となる。ここで、鮮鋭度の高い画像のデータ量は、鮮鋭度の低い画像のデータ量よりも大きくなる傾向がある。また、比較対象領域は、人物の顔領域や人物以外の被写体の領域、又は焦点が合うAFエリアが含まれる領域である。したがって、圧縮処理済みの対象画像データのデータ量を比較することで、画像において注目すべき領域に対して焦点が合い、他の領域に焦点が合わないように、フォーカス制御を行うことができる。
焦点制御部54は、撮影時におけるフォーカス制御を実行する。例えば高速連写における1回目の撮像処理のフォーカス制御は、焦点検出部43における検出結果を利用したフォーカス制御である。また、高速連写における2回目以降のフォーカス制御は、データ比較部53による比較結果に基づいたフォーカス制御である。なお、2回目以降のフォーカス制御は、比較対象領域をトリミングすることで得られる対象画像データにおける鮮鋭度と対象画像データのデータ量との関係を利用したフィードバック制御となる。
次に、比較対象領域の設定について説明する。まず、領域設定部52は、1回目の撮像処理により得られた画像をm×n個の分割領域に分割する。図2は、1回目の撮像処理により得られた画像Pを縦4個、横6個計24個の領域A1〜A24に分割した場合である。
そして、以下の手順で比較対象領域を設定する。まず、顔検出部51により顔が検出されている場合、領域設定部52は、検出された顔が単数(1つ)であるか、複数(2以上)であるかを判定する。例えば画像Pから1つの顔が検出される場合、領域設定部52は、検出された顔の領域(顔領域)が1つの分割領域よりも小さいか否かを判定する。顔領域が分割領域よりも小さいと判定した場合、領域設定部52は、検出された顔領域が複数の分割領域のいずれかの領域に収まるか、複数の分割領域に跨るかを判定する。
図2(a)に示すように、検出された顔領域FR1が1つの分割領域よりも小さく、また顔領域FR1が分割領域A17に収まる場合、領域設定部52は、分割領域A17を比較対象領域として設定する。
図2(b)に示すように、検出された顔領域FR2が1つの分割領域よりも小さい場合であっても、顔領域FR2が複数の分割領域A10、A11、A16、A17に跨るときもある。このような場合には、領域設定部52は、分割領域A10、A11、A16、A17を比較対象領域として設定する。図2(b)においては、顔領域FR2が複数の分割領域A10、A11、A16、A17に跨る場合を説明しているが、顔領域が上下方向又は左右方向に隣り合う2つの分割領域に跨る場合には、顔領域が跨る2つの分割領域を比較対象領域に設定する。
図2(c)に示すように、顔領域FR3が1つの分割領域よりも大きい場合には、顔領域FR3は複数の分割領域に跨るので、このような場合、領域設定部52は、顔領域FR3が跨る分割領域A10、A11、A12、A16,A17、A18、A22、A23、A24を比較対象領域として設定する。なお、検出される顔領域が他の分割領域に跨る場合も同様にして、比較対象領域が設定される。
次に、顔検出部51により検出された顔が複数となる場合、領域設定部52は、まず、検出された複数の顔に基づく顔領域のうち、1つの分割領域よりも大きい顔領域があるか否かを判定する。図3(a)は、3つの顔領域FR4、FR5、FR6が検出された場合を示す。顔領域FR4、FR5、FR6のうち、顔領域FR6が最も大きい顔領域となる場合には、領域設定部52は顔領域FR6を選択する。そして、領域設定部52は、選択された顔領域FR6が跨る分割領域A16,A17、A22、A23を、比較対象領域として設定する。
図3(b)に示すように、検出された3つの顔領域FR7、FR8、FR9のいずれもが1つの分割領域よりも小さい場合がある。このような場合には、領域設定部52は、顔領域の位置とAFエリアの位置とに基づいて、AFエリアのいずれかに重畳する顔領域があるか否かを判定する。AFエリアのいずれかに重畳する顔領域があれば、領域分割部52は、その顔領域を選択し、選択された顔領域が収まる分割領域、或いは顔領域が跨る分割領域を比較対象領域として設定する。図3(b)においては、顔領域FR8がAFエリアに重畳しているので、領域設定部52は、顔領域FR8を選択する。そして、領域設定部52は、顔領域FR8が収まる分割領域A9を比較対象領域として設定する。なお、検出された顔領域のいずれもがAFエリアに重畳されない場合には、検出された顔領域のうち、最も大きい顔領域が位置する分割領域を比較対象領域としてもよいし、焦点が合うAFエリアが含まれる分割領域を比較対象領域としてもよい。
一方、顔検出部51により顔が検出されていない場合で、且つテンプレート画像が生成されている場合には、以下の方法で比較対象領域を設定する。高速連写を実行するときのAF処理は、レリーズボタン44の半押し操作に応答して実行される。そこで、テンプレート生成部47は、AF処理時に得られる画像データからコントラスト情報を取得した後、取得したコントラスト情報を用いて、テンプレート画像を生成する。図4に示すように、例えば走行するレース車両を高速連写する場合を考える。この場合、ドライバーが被るヘルメットにピントを併せて撮影を行うのが一般的である。したがって、ヘルメット付近のコントラストは他の領域に比べて高い。そこで、テンプレート生成部47は、コントラストが高いヘルメットが含まれる矩形の領域60を用いたテンプレート画像データを生成する。
したがって、領域設定部52は、高速連写における各撮像処理により得られた画像データに対して、テンプレート画像データを用いたテンプレートマッチングを行い、テンプレート画像データに対応する領域を比較対象領域として設定する。
さらに、顔検出部51により顔が検出されていない場合で、且つテンプレート画像が生成されていない場合もある。この場合、領域設定部52は、高速連写が開始されたときに実行されるフォーカス制御の結果に基づいて、複数の分割領域のうちのいずれかの領域を、比較対象領域として設定する。上述した1回目の撮像処理においては、焦点検出部43により求められるAFエリア毎のデフォーカス信号を用いたフォーカス制御が実行される。領域設定部52は、これらAFエリアのうち、焦点が合うAFエリアを用いて、比較対象領域を設定する。
図5(a)に示すように、AFエリアB1が焦点の合うAFエリアとなる場合、このAFエリアB1は分割領域A10に収まっている。したがって、領域設定部52は、AFエリアB1が収まる分割領域A10を比較対象領域として設定する。
図5(b)に示すように、分割領域A9、A10、A15、A16に跨るAFエリアB2が焦点の合うAFエリアとなる場合、領域設定部52は、分割領域A9、A10、A15、A16を比較対象領域として設定する。
例えば、撮影時においては、複数のAFエリアが焦点の合うAFエリアとなる場合がある。このような場合、領域設定部52は、焦点の合うAFエリアのそれぞれが1つの分割領域に収まるか否かを判定する。図6(a)は、焦点の合うAFエリアが複数、1つの分割領域に収まる場合であり、焦点の合うAFエリアは塗りつぶして示している。この場合、領域設定部52は、焦点が合うAFエリアが収まる分割領域A10を比較対象領域として設定する。
一方、焦点の合うAFエリアが複数あり、それぞれのAFエリアが複数の分割領域に収まる場合には、領域設定部52は、焦点の合うAFエリアが含まれる分割領域を全て比較対象領域として設定する。図6(b)の場合、塗りつぶしで示すAFエリアが焦点の合うAFエリアである。この場合、領域設定部52は、焦点が合うAFエリアが位置する分割領域A9、A10、A15、A16を比較対象領域として設定する。
なお、図6(c)に示すように、焦点が合うAFエリアが近接して位置せず、離散して位置している場合もある。このような場合には、領域設定部52は、焦点が合うAFエリアが含まれる分割領域A8及び分割領域A10、A11を比較対象領域として設定する。
以下、高速連写を行う際の処理の流れを図7〜図9のフローチャートに基づいて説明する。
ステップS101は、レリーズボタンが半押し操作されたか否かを判定する処理である。詳細は省略するが、レリーズボタン44には、その半押し操作及び全押し操作を検知する検知スイッチが設けられている。レリーズボタン44が半押し操作されると、半押し操作を検知する検知スイッチがオンとなり、その信号(以下、半押し信号)がCPU40に出力される。この半押し信号が入力されたことを受けて、CPU40は、ステップS101の判定処理の結果をYesとする。この場合、ステップS102に進む。
一方、レリーズボタン44が半押し操作されないときには半押し信号がCPU40に入力されない。この場合、CPU40は、ステップS101の判定処理の結果をNoとする。つまり、ステップS101の判定処理の結果がYesとなるまで、このステップS101の判定処理が繰り返し実行される。
ステップS102は、AE処理及びAF処理を実行する処理である。CPU40は、不図示の測光装置から出力される信号に基づいてAE処理を実行する。CPU40がAE処理を実行することで、Tv値、Av値及びSv値の組み合わせが決定される。また、CPU40は、焦点検出部43が出力するデフォーカス信号に基づいてAF処理を実行する。
ステップS103は、テンプレート画像データを生成する処理である。CPU40は、AF処理時に得られた画像データのコントラスト情報を用いて、コントラストが高い領域を主要被写体となる領域として特定する。そして、画像処理回路26は、特定した主要被写体となる領域に基づく画像データをテンプレート画像データとして生成する。
ステップS104は、レリーズボタンの半押し操作が解除されたか否かを判定する処理である。上述したように、レリーズボタン44が半押し操作されると、半押し信号がCPU40に入力される。また、レリーズボタン44の半押し操作が解除されると、CPU40への半押し信号の出力が停止される。すなわち、このステップS104においては、CPU40は、レリーズボタン44の半押し信号の出力が停止されたか否かによって、レリーズボタン44の半押し操作が解除されたか否かを判定する。
例えば半押し信号の出力が継続されている場合には、CPU40は、レリーズボタン44の半押し操作が解除されていないと判定する。この場合、ステップS104の判定処理の結果がNoとなり、ステップS105に進む。一方、半押し信号の出力が停止された場合には、CPU40は、レリーズボタン44の半押し操作が解除されたと判定する。この場合、ステップS104の判定処理の結果がYesとなり、ステップS101に戻る。
ステップS105は、レリーズボタンの全押し操作されたか否かを判定する処理である。レリーズボタン44が全押し操作されると、全押し操作を検知する検知スイッチがオンとなり、その信号(全押し信号)がCPU40に出力される。全押し信号が入力されたことを受けて、CPU40は、ステップS104の判定処理の結果をYesとする。この場合、ステップS106に進む。一方、全押し信号が入力されない場合には、CPU40は、ステップS105の判定処理の結果をNoとする。この場合、ステップS104に戻る。
ステップS106は、撮像処理(1回目)である。CPU40は、ステップS102で決定されたTv値、Av値及びSv値を、レンズ駆動機構21、TG20、AFE回路19に対して指定する。同時に、CPU40は、クイックリターンミラー16をミラーアップ状態に切り替える。そして、CPU40は、TG20に撮像開始の信号を出力する。これにより、撮像処理が実行される。
この撮像処理を行うことで、撮像素子18から画像信号が出力される。この画像信号はAFE回路19を介してバッファメモリ25に記憶される。画像処理回路26は、バッファメモリ25に記憶された画像信号を読み出す。画像処理回路26は、読み出した画像信号に対してホワイトバランス調整、色補間、階調変換、色変換などの画像処理を施す。これにより、画像データP1が生成される。圧縮/伸長回路27は、画像処理済みの画像データをバッファメモリ25上に複製(コピー)する。そして、複製した画像データP1に対して圧縮処理を施す。そして、圧縮処理された画像データP1をバッファメモリ25に記憶する。
ステップS107は、画像データP1及び画像データP1のデータ量を記憶する処理である。CPU40は、バッファメモリ25に記憶された圧縮処理済みの画像データP1を読み出し、記憶媒体50に記憶する。同時に、CPU40は、圧縮処理された画像データP1のデータ量をワークメモリ42に書き込む。
ステップS108は、顔検出処理である。CPU40は、バッファメモリ25から画像処理が施された画像データP1を読み出し、顔検出処理を実行する。この顔検出処理で顔が検出されると、CPU40は、検出された顔を含む矩形の領域を顔領域として抽出する。
ステップS109は、顔が検出されたか否かを判定する処理である。ステップS108の顔検出処理で顔が検出されている場合には、CPU40は、ステップS109の判定処理の結果をYesとする。この場合、ステップS110に進む。一方、ステップS108の顔検出処理で顔が検出されない場合には、CPU40は、ステップS109の判定処理の結果をNoとする。この場合、ステップS111に進む。
ステップS110は、顔領域を比較対象領域に設定する処理である。まず、CPU40は、画像処理済みの画像データP1に基づく画像を複数の分割領域に分割する。例えば画像データP1から1つの顔が検出されている場合、CPU40は、顔領域の大きさと分割領域の大きさとを比較する。顔領域の大きさが1つの分割領域の大きさ以下となる場合には、CPU40は、顔領域が1つの分割領域に収まるか、複数の分割領域に跨るかを判定する。顔領域が1つの分割領域に収まる場合には、CPU40は、顔領域が収まる分割領域を比較対象領域として設定する。一方、顔領域が複数の分割領域に跨る場合、CPU40は、顔領域が跨る分割領域を比較対象領域として設定する。顔領域の大きさが1つの分割領域の大きさを超過する場合には、CPU40は、顔領域が跨る複数の分割領域を比較対象領域として設定する。
次に、複数の顔が検出される場合には、CPU40は、検出される複数の顔領域のうち、1つの分割領域の大きさを超過する顔領域があるか否かを判定する。1つの分割領域の大きさを超過する顔領域がある場合には、CPU40は、該顔領域が跨る分割領域を比較対象領域として設定する。一方、検出される複数の顔領域のいずれもが、1つの分割領域の大きさよりも小さい場合には、CPU40は、AFエリアに重畳される顔領域が位置する分割領域を比較対象領域として設定する。ここで、AFエリアに重畳される顔領域が位置する分割領域とは、AFエリアに重畳される顔領域が収まる分割領域、又はAFエリアに重畳される顔領域が跨る分割領域である。CPU40は、比較対象領域を設定した後、比較対象領域に設定された分割領域の位置情報を取得し、ワークメモリ42に書き込む。
ステップS109における判定処理が実行され、該判定処理の結果がNoとなる場合、言い換えれば画像データP1から人物の顔が検出されない場合、ステップS111に進む。
ステップS111は、テンプレート画像データを生成しているか否かを判定する処理である。上述したステップS103の処理において、テンプレート画像データを生成している場合、CPU40は、ステップS111の判定処理の結果をYesとする。この場合、ステップS112に進む。一方、ステップS103の処理において、テンプレート画像データを生成していない場合、CPU40は、ステップS111の判定処理の結果をNoとする。この場合、ステップS113に進む。
ステップS112は、テンプレートマッチングを用いて比較対象領域を設定する処理である。CPU40は、テンプレート画像データと、1回目の撮像処理により得られた画像データP1とを用いたテンプレートマッチング処理を実行する。そして、CPU40は、画像データP1に基づく画像のうち、テンプレート画像データに基づく画像に一致する矩形の領域を比較対象領域として設定する。CPU40は、設定した比較対象領域の位置情報を取得し、ワークメモリ42に書き込む。
ステップS111の判定処理の結果がNoとなる場合、言い換えればテンプレート画像データを生成していない場合、ステップS113に進む。
ステップS113は、AFエリアに基づいて比較対象領域を設定する処理である。CPU40は、AFエリアのうち、焦点が合うAFエリアを特定する。そして、CPU40は、特定したAFエリアが位置する分割領域、或いは、AFエリアが跨る分割領域を比較対象領域として設定する。CPU40は、比較対象領域に設定した後、比較対象領域に設定された分割領域の位置情報を取得し、ワークメモリ42に書き込む。
上述したステップS110、ステップS112或いはステップS113のいずれかの処理を行うことで、比較対象領域が設定される。この比較対象領域の設定の後、ステップS114に進む。
ステップS114は、比較対象領域の位置情報を用いた画像データP1に対するトリミング処理である。画像処理回路26は、バッファメモリ25に記憶された画像処理済みの画像データP1を読み出す。そして、画像処理回路26は、設定した比較対象領域の位置情報を用いて、画像データP1に対するトリミング処理を行う。このトリミング処理を行うことで、比較対象領域に基づく対象画像データP1’が生成される。生成された対象画像データP1’は、バッファメモリ25に記憶される。
ステップS115は、トリミング処理された対象画像データP1’及び対象画像データP1’のデータ量を記憶する処理である。圧縮/伸長回路27は、バッファメモリ25に記憶された対象画像データP1’を読み出す。そして、圧縮/伸長回路27は、読み出した対象画像データP1’に対する圧縮処理を実行する。この圧縮処理が施された対象画像データP1’はバッファメモリ25に記憶される。同時に、CPU40は、圧縮処理された対象画像データP1’のデータ量をワークメモリ42に記憶する。
ステップS116は、レリーズボタンの操作が解除されたか否かを判定する処理である。上述したように、レリーズボタン44が操作されると、レリーズボタン44の操作に基づく信号(半押し信号、全押し信号)がCPU40に入力される。このステップS116においては、レリーズボタン44の操作に基づく信号の出力が停止されたか否かによって、レリーズボタン44の操作が解除されたか否かを判定する。
例えば、レリーズボタン44の操作に基づく信号の出力が継続されていれば、CPU40は、レリーズボタン44の操作が解除されていないと判定する。この場合、ステップS116の判定処理の結果はNoとなり、ステップS117に進む。一方、レリーズボタン44の操作に基づく信号の出力が停止された場合、CPU40は、レリーズボタン44の操作が解除されたと判定する。この場合、ステップS116の判定処理の結果はYesとなる。この場合には、高速連写に係る処理が終了する。
ステップS117は、撮像処理(2回目)である。この2回目の撮像処理は、撮像光学系15を構成するフォーカシングレンズの位置を固定した撮像処理である。2回目の撮像処理が実行されると、撮像素子18から出力される画像信号は、AFE回路19を介してバッファメモリ25に記憶される。画像処理回路26は、バッファメモリ25に記憶された画像信号を読み出し、ホワイトバランス調整、色補間、階調変換、色変換などの画像処理を施す。これにより、画像データP2が生成される。圧縮/伸長回路27は、バッファメモリ25に記憶された画像処理済みの画像データP2をバッファメモリ25上に複製(コピー)する。そして、複製した画像データP2に対して圧縮処理を施す。そして、圧縮処理された画像データP2をバッファメモリ25に記憶する。
ステップS118は、画像データP2及び画像データP2のデータ量を記憶する処理である。CPU40は、バッファメモリ25に記憶された圧縮処理済みの画像データP2を読み出し、記憶媒体50に記憶する。また、同時に、CPU40は、圧縮処理された画像データP2のデータ量をワークメモリ42に書き込む。
ステップS119は、テンプレートマッチングを用いた比較対象領域の設定が行われているか否かを判定する処理である。テンプレートマッチングを用いて比較対象領域を設定している場合、CPU40は、ステップS119の判定処理の結果をYesとする。この場合、ステップS120に進む。一方、テンプレートマッチングを用いて比較対象領域を設定していない、言い換えれば、検出された顔やAFエリアに基づいて比較対象領域を設定している場合、CPU40は、ステップS119の判定処理の結果をNoとする。この場合、ステップS121に進む。
ステップS120は、画像データP2に対象画像データP1’と一致する箇所があるか否かを判定する処理である。画像処理回路26は、対象画像データP1’及び画像データP2をそれぞれ読み出す。これら画像データを読み出した後、画像処理回路26は、これら画像データを用いたテンプレートマッチングを行う。テンプレートマッチングにより、画像データP2に対象画像データP1’と一致する箇所がある場合、画像処理回路26は、ステップS120の判定処理の結果をYesとする。この場合、ステップS121に進む。一方、画像データP2に、対象画像データP1’が一致する箇所がない場合、画像処理回路26は、ステップS120の判定処理の結果をNoとする。この場合、ステップS124に進む。
ステップS121は、画像データP2に対するトリミング処理である。顔の領域が含まれる分割領域を比較対象領域として設定している場合や、焦点が合うAFエリアが含まれる分割領域を比較対象領域として設定している場合には、画像処理回路26は、比較対象領域として設定された分割領域の位置情報に基づいて、画像データP2に対するトリミング処理を実行する。この場合、比較対象領域の位置は固定となる。
一方、テンプレートマッチングを行って画像データP2に対象画像データP1’と一致する箇所があれば、その一致する箇所が比較対象領域となる。したがって、画像処理回路26は、テンプレートマッチングにより取得された比較対象領域の位置情報に基づいて、画像データP2に対するトリミング処理を実行する。このトリミング処理を行うことで、対象画像データP2’が生成される。この生成された対象画像データP2’は、バッファメモリ25に記憶される。この場合、テンプレート画像に含まれる被写体の位置が変化(被写体が移動)している場合もあるので、この場合には、比較対象領域は必ずしも固定されない。
ステップS122は、対象画像データP2’及び対象画像データP2’のデータ量を記憶する処理である。圧縮/伸長回路27は、バッファメモリ25に記憶された対象画像データP2’を読み出す。そして、圧縮/伸長回路27は、読み出した対象画像データP2’に対する圧縮処理を実行する。この圧縮処理が施された対象画像データP2’はバッファメモリ25に記憶される。同時に、CPU40は、圧縮処理された対象画像データP2’のデータ量をワークメモリ42に記憶する。
ステップS123は、対象画像データP1’及び対象画像データP2’間のデータ量の変化量を算出する処理である。CPU40は、ワークメモリ42に記憶した対象画像データP1’及び対象画像データP2’のデータ量をそれぞれ読み出し、これら対象画像データのデータ量から、データ量の変化量Δ12を求める。詳細には、CPU40は、対象画像データP2’のデータ量から対象画像データP1’のデータ量を減算し、データ量の変化量Δ12を求める。
上述したステップS120における判定処理がNoとなる場合、つまり、テンプレートマッチングを行っても画像データP2において対象画像データP1’と一致する箇所がない場合、ステップS124に進む。
ステップS124は、画像データP1及び画像データP2間のデータ量の変化量を算出する処理である。CPU40は、ワークメモリ42に記憶した画像データP1及び画像データP2のデータ量をそれぞれ読み出し、これら画像データのデータ量から、データ量の変化量Δ12を求める。
ステップS125は、データ量の変化量が基準範囲を超過しているか否かを判定する処理である。ステップS123又はステップS124により求めたデータ量の変化量Δ12が基準範囲を越えている場合、CPU40は、ステップS125の判定処理の結果をYesとし、ステップS126に進む。一方、ステップS123又はステップS124により求めたデータ量の変化量Δ12が基準範囲以下となる場合、CPU40は、ステップS125の判定処理の結果をNoとし、ステップS129に進む。
つまり、ステップS125の判定処理の結果がNoとなる場合には、データ量の変化量は、誤差の範囲に含まれると推測できる。したがって、フォーカシングレンズの位置は、2回目の撮像処理におけるフォーカシングレンズの位置に固定される。なお、この基準範囲は、予め実験、統計などにより求められる範囲であることが望ましい。
ステップS126は、データ量の変化量が低下しているか否かを判定する処理である。ステップS123及びステップS124にて求めたデータ量の変化量Δ12が負の値となる場合、CPU40は、データ量の変化量が低下したと判定する。この場合、CPU40は、ステップS126の判定処理の結果をYesとする。この場合、ステップS127に進む。一方、データ量の変化量Δ12が正の値となる場合、CPU40は、データ量の変化量が増加したと判定する。この場合、CPU40は、ステップS126の判定処理の結果をNoとし、ステップS129に進む。
ステップS127は、フォーカシングレンズの移動量を算出する処理である。CPU40は、ステップS123又はステップS124により求めたデータ量の変化量を用いて、フォーカシングレンズの移動量を算出する。このフォーカシングレンズの移動量の算出においては、例えば焦点距離など、撮像光学系15に固有の特性が考慮される。
ステップS128は、フォーカシングレンズを移動させる処理である。CPU40は、ステップS127にて求めた移動量に基づいて、レンズ駆動機構21を介してフォーカシングレンズを移動させる。このとき、フォーカシングレンズの移動方向は、予め至近端方向又は無限端方向のいずれかに設定される。
例えば、撮影により得られる画像データのデータ量は、焦点が合わない画像データに比べて、焦点が合う画像データのデータ量は大きくなる。つまり、データ量の変化量が負の値となる場合には、2回目の撮像処理で得られた画像データは、1回目の撮像処理により得られた画像データに比べて主要被写体に焦点が合っていない画像データであると推定できる。一方、データ量の変化量が正の値となる場合には、2回目の撮像処理で得られた画像データは、1回目の撮像処理により得られた画像データよりも主要被写体に焦点が合う画像データであると推定できる。したがって、データ量の変化量が負の値となる場合には、上述したように、主要被写体に焦点を合わせるようにフォーカシングレンズを移動させる制御を行う。
ステップS129は、レリーズボタンの操作が解除されたか否かを判定する処理である。レリーズボタン44の操作に基づく信号の出力が継続されていれば、CPU40は、レリーズボタン44の操作が解除されていないと判定する。この場合、ステップS129の判定処理の結果はNoとなり、ステップS130に進む。つまり、3回目以降の撮像処理が実行される。
一方、レリーズボタン44の操作に基づく信号の出力が停止された場合、CPU40は、レリーズボタン44の操作が解除されたと判定する。この場合、ステップS129の判定はYesとなる。この場合には、高速連写に係る処理が終了する。
以下、3回目以降の撮像処理について説明する。なお、3回目以降の撮像処理が実行された後の処理の流れは同一の処理が実行されることから、図9においては、符号n(n≧3)を用いて説明している。
ステップS130は、3回目の撮像処理である。この撮像処理により、撮像素子18から出力される画像信号は、AFE回路19を介してバッファメモリ25に記憶される。画像処理回路26は、バッファメモリ25に記憶される画像信号を読み出し、ホワイトバランス調整、色補間、階調変換、色変換などの画像処理を施す。これにより、画像データP3が生成される。圧縮/伸長回路27は、バッファメモリ25に記憶された画像処理済みの画像データP3をバッファメモリ25上に複製(コピー)する。そして、複製した画像データP3に対して圧縮処理を施す。そして、圧縮処理された画像データP3をバッファメモリ25に記憶する。
ステップS131は、画像データP3及び画像データP3のデータ量を記憶する処理である。CPU40は、バッファメモリ25に記憶された圧縮処理済みの画像データP3を読み出し、記憶媒体50に記憶する。また、同時に、CPU40は、圧縮処理された画像データP3のデータ量をワークメモリ42に書き込む。
ステップS132は、テンプレートマッチングを用いた比較対象領域の設定が行われているか否かを判定する処理である。テンプレートマッチングを用いて比較対処領域を設定している場合、CPU40は、ステップS132の判定処理の結果をYesとする。この場合、ステップS133に進む。一方、テンプレートマッチングを用いて比較対象領域を設定していない、言い換えれば、検出された顔やAFエリアに基づいて比較対象領域を設定している場合、CPU40は、ステップS132の判定処理の結果をNoとする。この場合、ステップS134に進む。
ステップS133は、画像データP3に対象画像データP1’と一致する箇所があるか否かを判定する処理である。画像処理回路26は、対象画像データP1’及び画像データP3をそれぞれ読み出す。これら画像データを読み出した後、画像処理回路26は、これら画像データを用いたテンプレートマッチングを行う。テンプレートマッチングにより、画像データP3に対象画像データP1’と一致する箇所がある場合、画像処理回路26は、ステップS133の判定処理の結果をYesとする。この場合、ステップS134に進む。一方、画像データP3に、画像データP1’と一致する箇所がない場合、画像処理回路26は、ステップS133の判定処理の結果をNoとする。この場合、ステップS137に進む。
ステップS134は、画像データP3に対するトリミング処理である。顔の領域が含まれる分割領域を比較対象領域として設定している場合や、焦点が合うAFエリアが含まれる分割領域を比較対象領域として設定している場合には、画像処理回路26は、比較対象領域として設定された分割領域の位置情報に基づいて、画像データP3に対するトリミング処理を実行する。この場合、比較対象領域の位置は固定となる。
一方、テンプレートマッチングを行って画像データP3に対象画像データP1’と一致する箇所があれば、その一致する箇所が比較対象領域となる。したがって、画像処理回路26は、テンプレートマッチングにより取得された比較対象領域の位置情報に基づいて、画像データP3に対するトリミング処理を実行する。このトリミング処理を行うことで、対象画像データP3’が生成される。この生成された対象画像データP3’は、バッファメモリ25に記憶される。この場合、テンプレート画像に含まれる被写体の位置が変化(被写体が移動)している場合もあるので、この場合には、比較対象領域は必ずしも固定されない。
ステップS135は、トリミング処理された対象画像データP3’及び対象画像データP3’のデータ量を記憶する処理である。圧縮/伸長回路27は、バッファメモリ25に記憶された対象画像データP3’を読み出す。そして、圧縮/伸長回路27は、読み出した対象画像データP3’に対する圧縮処理を実行する。この圧縮処理が施された対象画像データP3’はバッファメモリ25に記憶される。同時に、CPU40は、圧縮処理された対象画像データP3’のデータ量をワークメモリ42に記憶する。
ステップS136は、対象画像データP1’、対象画像データP2’及び対象画像データP3’のデータ量の変化量を算出する処理である。CPU40は、ワークメモリ42に記憶した対象画像データP1’、対象画像データP2’及び対象画像データP3’のデータ量をそれぞれ読み出す。そして、CPU40は、データ量の変化量Δ13、Δ23を求める。詳細には、CPU40は、対象画像データP3’のデータ量から対象画像データP1’のデータ量を減算することでデータ量の変化量Δ13を求め、対象画像データP3’のデータ量から対象画像データP2’のデータ量を減算することでデータ量の変化量Δ23を求める。
一方、上述したステップS133における判定処理がNoとなる場合、つまり、テンプレートマッチングを行っても画像データP3において対象画像データP1’と一致することがない場合、ステップS137に進む。
ステップS137は、画像データP1、画像データP2及び画像データP3のデータ量の変化量を算出する処理である。CPU40は、ワークメモリに記憶した画像データP1、画像データP2及び画像データP3のデータ量をそれぞれ読み出し、これら画像データのデータ量から、データ量の変化量を求める。詳細には、CPU40は、画像データP3のデータ量から画像データP1のデータ量を減算することでデータ量の変化量Δ13を求め、画像データP3のデータ量から画像データP2のデータ量を減算することでデータ量の変化量Δ23を求める。
ステップS138は、データ量の変化量が基準範囲を超過しているか否かを判定する処理である。CPU40は、ステップS136又はステップS137において求めたデータ量の変化量のうち、データ量の変化量Δ23が基準範囲を超過しているか否かを判定する。例えばデータ量の変化量Δ23が基準範囲を超過している場合、CPU40は、ステップS138の判定処理の結果をYesとし、ステップS139に進む。一方、データ量の変化量Δ23が基準範囲以下であれば、CPU40は、ステップS138の判定処理の結果をNoとし、ステップS145に進む。この場合、フォーカシングレンズの位置が固定されたままとなる。
ステップS139は、データ量の変化量が低下したか否かを判定する処理である。CPU40は、求めたデータ量の変化量Δ13が、データ量の変化量Δ23に対して小さくなるか否かを判定する。例えばデータ量の変化量Δ13がデータ量の変化量Δ23以下となる場合、CPU40は、ステップS139の判定処理の結果をYesとする。この場合、ステップS140に進む。一方、データ量の変化量Δ13がデータ量の変化量Δ23を超過する場合、CPU40は、ステップS139の判定処理の結果をNoとする。この場合、ステップS143に進む。
ステップS140は、前回の撮像処理においてレンズ固定であるか否かを判定する処理である。例えば2回目の撮像処理において、フォーカシングレンズの位置を固定した場合、ステップS140の判定処理の結果をYesとする。この場合、ステップS145に進む。一方、2回目の撮像処理において、フォーカシングレンズの位置を移動させた場合には、ステップS140の判定処理の結果をNoとする。この場合、ステップS141に進む。
ステップS141は、フォーカシングレンズの移動量を算出する処理である。CPU40は、データの変化量Δ23を用いてフォーカシングレンズの移動量を算出する。
ステップS142はフォーカシングレンズを同一方向に移動させる処理である。CPU40は、レンズ駆動機構21を介して、フォーカシングレンズをステップS128におけるフォーカシングレンズの移動方向と同一方向に移動させる。なお、このときのフォーカシングレンズの移動量はステップS141にて求めた移動量である。
ステップS139において、データ量の変化量が低下していないと判定された場合、ステップS143に進む。
ステップS143は、フォーカシングレンズの移動量を算出する処理である。CPU40は、データの変化量Δ23を用いてフォーカシングレンズの移動量を算出する。
ステップS144は、フォーカシングレンズを逆方向に移動させる処理である。CPU40は、レンズ駆動機構21を介して、フォーカシングレンズをステップS128におけるフォーカシングレンズの移動方向と逆方向に移動させる。なお、このときのフォーカシングレンズの移動量はステップS141にて求めた移動量である。
ステップS145は、レリーズボタンの操作が解除されたか否かを判定する処理である。レリーズボタン44の操作に基づく信号の出力が継続されていれば、CPU40は、レリーズボタン44の操作が解除されていないと判定する。この場合、ステップS145の判定処理の結果はNoとなり、ステップS130に進む。つまり、4回目以降の撮像処理が実行される。一方、レリーズボタン44の操作に基づく信号の出力が停止された場合、CPU40は、レリーズボタン44の操作が解除されたと判定する。この場合、ステップS145の判定はYesとなる。この場合には、高速連写に係る処理が終了する。
以降、ステップS130からステップS145の処理がレリーズボタンの操作が解除されるまで繰り返し実行される。
このように、本実施形態においては、対象画像データに対する圧縮処理を行ったときのデータ量の変化に基づいて、各撮像処理におけるフォーカス制御が実行される。ここで、人物の顔を検出している場合には、検出された顔の領域が含まれる分割領域が比較対象領域として設定される。同様にして、焦点が合うAFエリアがあれば、焦点が合うAFエリアが含まれる分割領域を比較対象領域として設定される。したがって、このような場合には、人の顔など、予め焦点を合わせた領域に対して、従来のフォーカス制御を用いなくとも、適切にフォーカス制御を行うことが可能となる。
また、人物の顔以外の物体を主要被写体とした高速連写を行う場合には、上述した被写体検出処理を行っても、主要被写体となる物体を検出することができないこともある。例えば高速連写を行う前に、焦点を合わせた領域を主要被写体の領域として設定した場合、被写体検出にて主要被写体が検出されない場合、単なる領域に対するデータ量の変化量の比較を行うことになる。したがって、ユーザの意図する領域に焦点を合わせた画像を得ることができなくなる。しかしながら、本実施形態では、AF処理を行ったときに得られる画像データからコントラストの高い領域を主要被写体が含まれる領域として設定することで、ユーザの意図する領域内の特徴量を得ることができる。したがって、高速連写時には、ユーザの意図する領域を用いたテンプレートマッチングを行うことで、得られる画像において、ユーザの意図する領域の位置を特定することができ、その特定された領域に基づく画像データのデータ量の変化量を用いることで、主要被写体が人物でない場合や、主要被写体の位置が変化した場合であっても、主要被写体と思われる領域に対して、焦点を合わせたフォーカス制御を適切に行うことが可能である。
本実施形態では、AF処理の際に得られる画像データのコントラスト情報から主要被写体の領域を特定し、特定した領域に基づいたテンプレート画像を生成しているが、予めユーザの入力操作が行われた領域に基づいてテンプレート画像を生成することも可能である。また、予めテンプレート画像を複数記憶させておき、複数のテンプレート画像のいずれかを用いることも可能である。
本実施形態では、検出された顔が含まれる分割領域を比較対象領域として設定した場合、比較対象領域の位置は固定となる。しかしながら、比較対象領域として設定される分割領域に基づいて生成される対象画像データを用いたテンプレートマッチングを新たに取得される画像データに対して実行することで、検出された顔が含まれる分割領域を特定してもよい。つまり、上述した動作を行うことで、高速連写中に、検出される顔の位置が変化する場合にも対応することが可能となる。この場合、顔の位置が複数の分割領域に跨って位置する場合もある。したがって、トリミング処理を行う領域は、顔が跨って位置する分割領域ではなく、テンプレートマッチングを行う際に用いる比較対象領域の大きさと同一の大きさの領域とすればよい。
本実施形態では、各撮像処理により得られた画像データを用いているが、これに限定される必要はなく、デジタルカメラにおいては、得られた画像データを縮小した画像データを用いて顔検出処理を行っている場合もあるので、本実施形態のフォーカス制御を、縮小した画像データを用いて行うことも可能である。
本発明では、デジタルカメラにおけるフォーカス制御を、位相差検出方式のフォーカス制御としているが、これに限定される必要はなく、コントラスト検出方式のフォーカス制御としてもよい。
本発明のデジタルカメラとして、クイックリターンミラーを有するデジタルカメラを例にあげて説明しているが、これに限定する必要はなく、クイックリターンミラーを搭載していない、コンパクトカメラ、カメラ機能を備えた携帯電話機の他、コンピュータに搭載又は接続されたカメラなどであってもよい。
10…デジタルカメラ、18…撮像素子、26…画像処理回路、27…圧縮/伸長回路、40…CPU、41…不揮発性メモリ、42…ワークメモリ、47…テンプレート生成部、48…トリミング部、51…顔検出部、52…領域設定部、53…データ比較部、54…焦点制御部
Claims (9)
- 被写体光を取り込む撮像光学系と、
被写体が含まれる第1の画像を生成する生成部と、
前記撮像光学系により取り込まれる被写体光に基づいて連続して取得される第2の画像に対して前記第1の画像を用いたテンプレートマッチングを行うことで、前記第2の画像のそれぞれから切り出す領域を対象領域として設定する設定部と、
前記第2の画像から切り出した前記対象領域の画像のそれぞれに対して圧縮処理を行う圧縮部と、
前記圧縮処理された前記対象領域の画像のデータ量の変化に基づいて、前記撮像光学系におけるフォーカスポジションを制御する制御部と、
を備えたことを特徴とする焦点調節装置。 - 請求項1に記載の焦点調節装置において、
前記生成部は、前記第2の画像を取得する前に取り込まれる第3の画像の少なくともコントラスト情報を用いて、前記第3の画像に含まれる前記被写体の画像を前記第1の画像として生成することを特徴とする焦点調節装置。 - 請求項1又は請求項2に記載の焦点調節装置において、
前記被写体を検出する被写体検出部を、さらに備え、
前記設定部は、前記第2の画像を取得したときに前記被写体検出部により前記被写体を検出できない場合に、前記第1の画像を用いたテンプレートマッチングを行うことで、前記対象領域を設定することを特徴とする焦点調節装置。 - 請求項3に記載の焦点調節装置において、
前記設定部は、前記被写体検出部により前記被写体を検出した場合に、前記検出した被写体の領域を前記対象領域として設定することを特徴とする焦点調節装置。 - 請求項1から請求項4のいずれか1項に記載の焦点調節装置において、
画像を取得する範囲に対応して設けられる複数の焦点検出エリアを用いて、前記撮像光学系の焦点状態を検出する焦点検出部を備え、
前記設定部は、前記生成部により前記第1の画像が生成されていない場合に、前記複数の焦点検出エリアのうち、焦点が合う焦点検出エリアが含まれる領域を前記対象領域として設定することを特徴とする焦点調節装置。 - 請求項1から請求項5のいずれか1項に記載の焦点調節装置において、
前記制御部は、ユーザからの指示に従って前記フォーカスポジションの初期調節を行うことを特徴とする焦点調節装置。 - 請求項1から請求項5のいずれか1項に記載の焦点調節装置において、
前記制御部は、位相差検出方式により前記フォーカスポジションの初期調節を行うことを特徴とする焦点調節装置。 - 請求項1から請求項7のいずれか1項に記載の焦点調節装置において、
前記制御部は、前記データ量の変化量が基準範囲を超過したときに、前記フォーカスボジションを変位させることを特徴とする焦点調節装置。 - 取り込まれる被写体光に基づく画像を連続して出力することが可能な撮像素子と、
前記撮像素子から出力される画像に基づいて、前記撮像光学系のフォーカスポジションを制御する、請求項1から請求項8のいずれか1項に記載の焦点調節装置と、
を備えたことを特徴とする撮像装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013131566A JP2015004922A (ja) | 2013-06-24 | 2013-06-24 | 焦点調節装置及び撮像装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013131566A JP2015004922A (ja) | 2013-06-24 | 2013-06-24 | 焦点調節装置及び撮像装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015004922A true JP2015004922A (ja) | 2015-01-08 |
Family
ID=52300845
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013131566A Pending JP2015004922A (ja) | 2013-06-24 | 2013-06-24 | 焦点調節装置及び撮像装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015004922A (ja) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11403069B2 (en) | 2017-07-24 | 2022-08-02 | Tesla, Inc. | Accelerated mathematical engine |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US11487288B2 (en) | 2017-03-23 | 2022-11-01 | Tesla, Inc. | Data synthesis for autonomous control systems |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11665108B2 (en) | 2018-10-25 | 2023-05-30 | Tesla, Inc. | QoS manager for system on a chip communications |
US11681649B2 (en) | 2017-07-24 | 2023-06-20 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US11734562B2 (en) | 2018-06-20 | 2023-08-22 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
US11748620B2 (en) | 2019-02-01 | 2023-09-05 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US11790664B2 (en) | 2019-02-19 | 2023-10-17 | Tesla, Inc. | Estimating object properties using visual image data |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11841434B2 (en) | 2018-07-20 | 2023-12-12 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US11893774B2 (en) | 2018-10-11 | 2024-02-06 | Tesla, Inc. | Systems and methods for training machine models with augmented data |
US12014553B2 (en) | 2019-02-01 | 2024-06-18 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
-
2013
- 2013-06-24 JP JP2013131566A patent/JP2015004922A/ja active Pending
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11487288B2 (en) | 2017-03-23 | 2022-11-01 | Tesla, Inc. | Data synthesis for autonomous control systems |
US12020476B2 (en) | 2017-03-23 | 2024-06-25 | Tesla, Inc. | Data synthesis for autonomous control systems |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US11403069B2 (en) | 2017-07-24 | 2022-08-02 | Tesla, Inc. | Accelerated mathematical engine |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US11681649B2 (en) | 2017-07-24 | 2023-06-20 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US11797304B2 (en) | 2018-02-01 | 2023-10-24 | Tesla, Inc. | Instruction set architecture for a vector computational unit |
US11734562B2 (en) | 2018-06-20 | 2023-08-22 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
US11841434B2 (en) | 2018-07-20 | 2023-12-12 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
US11983630B2 (en) | 2018-09-03 | 2024-05-14 | Tesla, Inc. | Neural networks for embedded devices |
US11893774B2 (en) | 2018-10-11 | 2024-02-06 | Tesla, Inc. | Systems and methods for training machine models with augmented data |
US11665108B2 (en) | 2018-10-25 | 2023-05-30 | Tesla, Inc. | QoS manager for system on a chip communications |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11908171B2 (en) | 2018-12-04 | 2024-02-20 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US11748620B2 (en) | 2019-02-01 | 2023-09-05 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US12014553B2 (en) | 2019-02-01 | 2024-06-18 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US11790664B2 (en) | 2019-02-19 | 2023-10-17 | Tesla, Inc. | Estimating object properties using visual image data |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015004922A (ja) | 焦点調節装置及び撮像装置 | |
US8508652B2 (en) | Autofocus method | |
JP4665718B2 (ja) | 撮影装置 | |
US9635280B2 (en) | Image pickup apparatus, method of controlling image pickup apparatus, and non-transitory computer-readable storage medium | |
US10264173B2 (en) | Image capturing apparatus and control method thereof, and storage medium | |
JP2007139893A (ja) | 合焦検出装置 | |
JP6749791B2 (ja) | 撮像装置及び自動焦点調節方法 | |
JP2014081420A (ja) | 追尾装置及びその方法 | |
JP7022686B2 (ja) | カメラ | |
JP2017098631A (ja) | 画像合成処理装置 | |
US20100026819A1 (en) | Method and apparatus for compensating for motion of an autofocus area, and autofocusing method and apparatus using the same | |
JP5338197B2 (ja) | 焦点検出装置および撮像装置 | |
US10200612B2 (en) | Image stabilization apparatus and control method thereof, and storage medium | |
JP2009175442A (ja) | 撮像装置 | |
JP2008176113A (ja) | 焦点検出装置およびカメラ | |
JP2019203929A (ja) | 電子機器、電子機器の制御装置、制御プログラムおよび制御方法 | |
JP5359150B2 (ja) | 撮像装置 | |
US10992867B2 (en) | Image capturing apparatus and control method thereof and storage medium | |
JP2010014883A (ja) | カメラ | |
JP2014056260A (ja) | カメラ | |
JP2007110498A (ja) | 複眼式撮影装置 | |
JP6645690B2 (ja) | 自動焦点調節装置、撮像装置、および自動焦点調節方法 | |
JP2013134403A (ja) | 焦点調節装置及び撮像装置 | |
JP5245644B2 (ja) | 露出演算装置 | |
US20230131656A1 (en) | Image capturing apparatus and method for controlling the same, and non-transitory computer-readable storage medium |