JP5067047B2 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
JP5067047B2
JP5067047B2 JP2007177233A JP2007177233A JP5067047B2 JP 5067047 B2 JP5067047 B2 JP 5067047B2 JP 2007177233 A JP2007177233 A JP 2007177233A JP 2007177233 A JP2007177233 A JP 2007177233A JP 5067047 B2 JP5067047 B2 JP 5067047B2
Authority
JP
Japan
Prior art keywords
subject
image
cpu
main subject
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007177233A
Other languages
English (en)
Other versions
JP2009017271A (ja
Inventor
真樹 鈴木
卓也 白幡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007177233A priority Critical patent/JP5067047B2/ja
Publication of JP2009017271A publication Critical patent/JP2009017271A/ja
Application granted granted Critical
Publication of JP5067047B2 publication Critical patent/JP5067047B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、被写体の追尾機能を備えた撮像装置に関する。
従来から、動きのある主要被写体に追従してフォーカス調整や露光条件の演算などを行うために、被写体追尾機能を備えた撮像装置が種々提案されている。一例として、特許文献1には、複数のテンプレートを用いて入力画像にテンプレートマッチング処理を施して被写体追尾を行う撮像装置が開示されている。
特開2001−60269号公報
しかし、従来の撮像装置では、被写体追尾中に主要被写体が認識できなくなると被写体追尾の処理が終了する。そのため、例えばフレームアウトなどで主要被写体を一時的に認識できなくなった場合には主要被写体の追尾を最初からやり直す必要があるので、被写体追尾機能の精度が低いというのが実情であった。
本発明は上記従来技術の課題を解決するためのものである。本発明の目的は、主要被写体を一時的に認識できなくなる状況でも、比較的に高い精度での被写体追尾を可能とする手段を提供することである。
本発明の一態様である撮像装置は、撮像部と、メモリと、被写体認識部と、認識状態判定部と、被写体追尾部とを備える。撮像部は、被写体を撮像して画像のデータを生成する。メモリは、主要被写体に関する参照データを記憶する。被写体認識部は、画像のうちの部分領域を探索範囲に指定するとともに、探索範囲内の被写体の特徴と参照データが示す特徴との相関に基づいて主要被写体を認識する。認識状態判定部は、被写体認識部による認識が成功している第1状態と認識が失敗している第2状態とを判定する。被写体追尾部は、第1状態のときに、被写体認識部が認識した主要被写体の位置を撮影画面内で継続的に指定する。そして、被写体認識部は、第1状態から第2状態に移行して被写体追尾部による指定が中断された後に、探索範囲のサイズを拡大して主要被写体を再探索する。また、被写体追尾部は、第1状態から第2状態に移行して指定が中断したときに、認識した主要被写体の最後の位置が撮影画面の中心部と周辺部とのいずれに属するかを判定する。また、被写体認識部は、最後の位置が中心部に属する第1の場合と最後の位置が周辺部に属する第2の場合とで、探索範囲を拡大するときのアルゴリズムを変化させる。
主要被写体を一時的に認識できなくなる状況でも、比較的に高い精度での被写体追尾が可能となる。
<電子カメラの構成の説明>
図1は、本実施形態の電子カメラの構成を説明するブロック図である。本実施形態の電子カメラは、被写体認識に基づく被写体追尾機能を備えている。
電子カメラは、撮像光学系11およびレンズ駆動部12と、撮像素子13と、AFE14と、画像処理部15と、第1メモリ16と、記録I/F17と、モニタ18と、操作部材19と、レリーズ釦20と、第2メモリ21と、振動センサ22と、姿勢センサ23と、CPU24およびバス25とを有している。ここで、画像処理部15、第1メモリ16、記録I/F17、モニタ18、第2メモリ21およびCPU24は、バス25を介してそれぞれ接続されている。また、レンズ駆動部12、操作部材19、レリーズ釦20、振動センサ22および姿勢センサ23はそれぞれCPU24に接続されている。
撮像光学系11は、ズームレンズやフォーカシングレンズを含む複数のレンズ群で構成されている。撮像光学系11のフォーカシングレンズのレンズ位置は、レンズ駆動部12によって光軸方向に調整される。なお、簡単のため、図1では撮像光学系11を1枚のレンズとして図示する。
撮像素子13は、撮像光学系11の像空間側に配置されており、その受光面には受光素子が2次元配列されている。そして、撮像素子13は、撮像光学系11を通過した光束による被写体像を光電変換してアナログの画像信号を生成する。なお、撮像素子13の出力はAFE14に接続されている。
ここで、電子カメラの動作モードの一つである撮影モードにおいて、撮像素子13はレリーズ釦20の全押し操作に応答して記録画像(本画像)を撮像する。また、撮影モードでの撮像素子13は、撮影待機時にも所定間隔毎にスルー画像を撮像する。このスルー画像のデータは撮像素子13から間引き読み出しされて、モニタ18での画像表示やCPU24による各種の演算処理に使用される。
AFE14は、撮像素子13の出力に対してアナログ信号処理を施すアナログフロントエンド回路である。このAFE14は、相関二重サンプリングや、画像信号のゲインの調整や、画像信号のA/D変換を行う。なお、AFE14の出力は画像処理部15に接続されている。
画像処理部15は、1フレーム分のデジタル画像信号に対して、各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整など)を施す。また、画像処理部15は、画像の解像度変換処理や、本画像のデータの圧縮伸長処理も実行する。なお、画像処理部15は、撮影モードでの撮影待機時において、スルー画像からモニタ18表示用のビュー画像を生成して出力する。
第1メモリ16は、画像処理部15による画像処理の前工程や後工程で画像のデータを一時的に記憶するバッファメモリである。
記録I/F17には、記憶媒体26を接続するためのコネクタが形成されている。そして、記録I/F17は、コネクタに接続された記憶媒体26に対してデータの書き込み/読み込みを実行する。上記の記憶媒体26は、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。なお、図1では記憶媒体26の一例としてメモリカードを図示する。
モニタ18は、CPU24の指示に応じて各種画像を表示する。なお、本実施形態でのモニタ18は、接眼部を有する電子ファインダや、カメラ筐体の背面などに設けられる液晶表示パネルのいずれで構成されていてもよい。このモニタ18には、撮影モードでの撮影待機時において、CPU24の制御により上記のビュー画像が動画表示される。このとき、CPU24は、撮影に必要となる各種情報をモニタ18のビュー画像上にオーバーレイ表示させることもできる。また、CPU24は、モニタ18に、各種の設定項目の入力が可能なメニュー画面を表示させることもできる。
操作部材19は、例えば、コマンドダイヤル、十字状のカーソルキー、決定釦などで構成される。そして、操作部材19は電子カメラの各種入力をユーザーから受け付ける。例えば、操作部材19は、上記のメニュー画面での入力操作や、電子カメラの動作モードの切替操作などに用いられる。
レリーズ釦20は、半押し操作による撮影前のオートフォーカス(AF)動作開始の指示入力と、全押し操作による撮像動作開始の指示入力とをユーザーから受け付ける。なお、本実施形態でのレリーズ釦20は、主要被写体の登録処理の開始指示をユーザーが行うときにも使用される。
第2メモリ21は、フラッシュメモリ等の不揮発性の記憶媒体である。この第2メモリ21には、被写体認識の対象となる主要被写体の特徴を示す参照データや、被写体追尾処理時の各種データが記憶される。なお、本実施形態の電子カメラでは、人間、動物、建築物、乗物などを含むあらゆる物を主要被写体として登録することが可能である。
ここで、本実施形態の参照データは、主要被写体を撮像した画像から生成されたテンプレート画像のデータで構成される。そして、第2メモリ21には、1つの主要被写体に対して複数の参照データを記憶することが可能である。
一例として、本実施形態の電子カメラでは、1つの主要被写体に対する参照データとして、オールドテンプレート(OT)画像、カレントテンプレート(CT)画像、ニューテンプレート(NT)画像、イニシャルテンプレート(IT)画像の4種類のデータが被写体認識のときに使用される。
そして、第2メモリ21には、4つのテンプレート画像(OT画像、CT画像、NT画像、IT画像)のデータを保持しておくために4つの記憶領域がそれぞれ確保されている。第2メモリ21においてOT画像用の記憶領域およびCT画像用の記憶領域には、主要被写体の認識が成功したときに適用されたテンプレート画像のデータがそれぞれ保持される。また、第2メモリ21のNT画像用の記憶領域には、スルー画像から認識された主要被写体に基づいて所定のタイミングで生成されるテンプレート画像のデータが保持される。さらに、第2メモリ21のIT画像用の記憶領域には、被写体追尾を行うモードで主要被写体を登録したときに、スルー画像から生成された初期状態のテンプレート画像のデータが保持される。
さらに、第2メモリ21には、被写体追尾処理で適用されたテンプレート画像の種類と、OT画像の連続適用回数とを示す判定フラグを記憶することもできる。
振動センサ22は、電子カメラに対する振動を検知する。本実施形態での振動センサ22は、電子カメラの縦揺れを検出する縦方向角速度センサと、電子カメラの横揺れを検出する横方向角速度センサとを備えている。上記の各々の角速度センサには、例えば回転によるコリオリ力を検出する圧電振動式角速度センサなどが用いられる。
姿勢センサ23は、電子カメラを正位置(または正位置と上下逆の状態)に構えた横位置の撮影姿勢と、電子カメラの右手側または左手側を上にして構えた縦位置の撮影姿勢とを判別する。この姿勢センサ23の出力により、CPU24は、撮影姿勢の変化を検出することができる。
CPU24は、電子カメラの動作を統括的に制御するプロセッサである。一例として、CPU24は、撮影モードにおいてスルー画像のデータを用いてコントラスト検出方式によるAFを実行する。また、CPU24は、スルー画像のデータを用いて撮影画面内の被写体輝度を求め、この被写体輝度に基づいてAE演算を実行する。なお、本実施形態では、CPUが上記のテンプレート画像のデータを生成する。
また、CPU24は不図示のROMに格納されたプログラムの実行により、被写体認識部27、認識状態判定部28、被写体追尾部29として機能する。
被写体認識部27は、上記の参照データ(テンプレート画像)を用いてスルー画像から主要被写体を認識する。具体的には、被写体認識部27は、上記のテンプレート画像に基づいてスルー画像内の被写体を解析するマッチング処理を実行する。そして、被写体認識部27は、上記のマッチング処理の結果に基づいて、スルー画像の被写体とテンプレート画像の主要被写体との類似度を求める。
認識状態判定部28は、主要被写体の認識が成功している第1状態か、あるいは主要被写体の認識が失敗している第2状態かを判定する。具体的には、認識状態判定部28は、被写体認識部27の求めた類似度の値や、振動センサ22および姿勢センサ23の出力や、スルー画像による分割測光結果に基づいて上記の判定を行う。
被写体追尾部29は、主要被写体の認識が成功している第1状態のときに、撮影画面内において主要被写体の対応位置を継続的に指定する。これにより、CPU24は、主要被写体を追尾して合焦制御を行うことや、主要被写体の位置を基準としたスポット測光によるAE演算を行うことが可能となる。また、CPU24は、指定された主要被写体の位置を示すマークをモニタ18のビュー画像上に重畳表示させることもできる。
また、被写体追尾部29は、主要被写体がロストした場合(第1状態から第2状態に移行して指定が中断したとき)には、最後に指定された主要被写体の位置が撮影画面の中心部と周辺部とのいずれに属するかの判定処理も行う。
<電子カメラの動作説明>
次に、図2から図5の流れ図を参照しつつ、本実施形態における電子カメラの撮影モードでの動作例を説明する。なお、以下の動作例では、被写体追尾機能がオンに設定されている状態を前提として説明を行う。
(ステップS101)
CPU24は、撮像素子13を駆動させてスルー画像の撮像を開始する。その後、スルー画像は所定間隔ごとに逐次生成されることとなる。また、CPU24は、スルー画像から生成されたビュー画像をモニタ18に動画表示させる。したがって、ユーザーは、モニタ18のビュー画像を参照して、撮影構図を決定するためのフレーミングを行うことができる。
(ステップS102)
CPU24は、レリーズ釦20が半押しされたか否かを判定する。レリーズ釦20が半押しされた場合(YES側)にはS103に移行する。一方、レリーズ釦20が半押しされていない場合(NO側)には、CPU24はレリーズ釦20の半押しを待機する。
(ステップS103)
CPU24は、認識対象となる主要被写体の登録処理を開始する。具体的には、CPU24は、主要被写体として登録する範囲を示す矩形の緑色の枠表示をビュー画像に重畳させる(図6参照)。上記の枠表示は、CPU24の制御によってモニタ18の中央部に点滅状態で表示される。そして、CPU24は、上記の枠表示に対応する範囲のスルー画像からテンプレート画像を生成する。したがって、ユーザーは、上記の枠表示の中に認識対象の被写体を収めるようにフレーミングを行うことで、電子カメラに主要被写体を登録させることができる。
(ステップS104)
CPU24は、レリーズ釦20の半押しが解除されたか否かを判定する。レリーズ釦20の半押しが解除されたとき(YES側)はS105に移行する。一方、レリーズ釦20の半押しが継続しているとき(NO側)にはS107に移行する。
(ステップS105)
CPU24は、モニタ18上での主要被写体の位置を示す枠表示の出力を終了する。
(ステップS106)
CPU24は、第2メモリ21に記憶されているテンプレート画像を消去し、その後に一連の処理を終了する。なお、CPU24は、さらに撮影を継続する場合にはS102に戻って上記動作を繰り返す(流れ図ではこの場合のループの図示を省略する)。
(ステップS107)
CPU24は、適正なテンプレート画像が生成できないと考えられる所定の撮影条件に該当しないか否かを判定する。上記要件を満たす場合(YES側)にはS110に移行する。一方、上記要件を満たさない場合(NO側)にはS108に移行する。
ここで、S107では、(1)被写界輝度が閾値以下の場合、(2)撮像感度が高くスルー画像の出力にノイズ成分が多い場合、(3)振動センサ22の検出する振動の大きさが閾値以上である場合、のいずれかに該当する場合には、CPU24は適正なテンプレート画像が生成できない撮影条件である(S107のNO側)と判定する。
(ステップS108)
CPU24は、主要被写体の登録処理の開始から所定時間が経過したか否かを判定する。所定時間が経過した場合(YES側)にはS109に移行する。一方、所定時間が経過していない場合(NO側)にはS104に戻って、CPU24は上記動作を繰り返す。
(ステップS109)
CPU24は、テンプレート画像が生成できないことを示すエラー表示をモニタ18に出力し、その後にS105に移行する。なお、上記のエラー表示の内容は、文字またはアイコン等のキャラクタ表示や、上記の枠表示の表示色を変更するもの(例えば、緑色から赤色への変更)のいずれでもよい。
(ステップS110)
CPU24は、OT画像、CT画像、NT画像、IT画像のデータを生成するとともに、第2メモリ21の所定の記憶領域に各々のテンプレート画像のデータを記録する。
具体的には、第1に、CPU24は、スルー画像のうちから上記の枠表示に対応する範囲の画像を切り出して初期状態のテンプレート画像を生成する。そして、CPU24は、この初期状態のテンプレート画像を、第2メモリ21上のCT画像用の記憶領域とIT画像用の記憶領域とにそれぞれ記録する。したがって、主要被写体の登録処理の段階では、初期状態のテンプレート画像がCT画像およびIT画像として第2メモリ21に登録された状態となる。
第2に、CPU24は、上記の初期状態のテンプレート画像を0.9倍に縮小するとともに、この縮小画像を第2メモリ21上のOT画像用の記憶領域に記録する。したがって、主要被写体の登録処理の段階では、初期状態のテンプレート画像の縮小画像がOT画像として第2メモリ21に登録された状態となる。
第3に、CPU24は、上記の初期状態のテンプレート画像を1.1倍に拡大するとともに、この拡大画像を第2メモリ21上のNT画像用の記憶領域に記録する。したがって、主要被写体の登録処理の段階では、初期状態のテンプレート画像の拡大画像がNT画像として第2メモリ21に登録された状態となる。
(ステップS111)
CPU24の被写体認識部27は、撮影画面内で主要被写体の認識を行う探索範囲(被写体追尾エリア)を指定する。図7(a)は、本実施形態の被写体追尾エリアの初期状態を示した図である。S111での被写体認識部27は、3×3の配列をなすように撮影画面を9つに等分割した部分領域のうちで、画面中央に位置する部分領域を被写体追尾エリアに指定する。
(ステップS112)
CPU24の被写体追尾部29は、被写体追尾の実行状態を示す表示(被写体追尾マーク)をモニタ18に出力する。具体的には、CPU24は、主要被写体の位置を示す緑色の矩形の枠表示(S103)を点滅状態から点灯状態に変更する。これにより、ユーザーは主要被写体の登録処理と、被写体追尾が開始されたこととをモニタ18で確認できる。
(ステップS113)
CPU24は、姿勢センサ23の出力に基づいて、電子カメラの撮影姿勢に変化があったか否かを判定する。撮影姿勢に変化がある場合(YES側)にはS114に移行する。一方、撮影姿勢に変化がない場合(NO側)にはS115に移行する。
(ステップS114)
CPU24の被写体認識部27は、変更前後の撮影姿勢に応じて、各々のテンプレート画像の向きを変換する。例えば、電子カメラの撮影姿勢が正位置から縦位置に変化した場合には、被写体認識部27は、第2メモリ21の全てのテンプレート画像の向きを右方向または左方向に90°回転させてマッチング処理に適用する。
(ステップS115)
CPU24は、スルー画像のうちで被写体認識を行う判定フレームが撮像されたか否かを判定する。判定フレームが撮像された場合(YES側)にはS116に移行する。一方、判定フレームが撮像されていない場合にはS113に戻って、CPU24は上記動作を繰り返す。なお、スルー画像から被写体認識処理を行う間隔(判定フレームのフレームレート)は、ユーザーの設定操作などに応じてCPU24が適宜調整できる。
(ステップS116)
CPU24は、判定フレーム(S115)の被写体輝度値を求め、その値を第2メモリ21に記録する。なお、第2メモリ21に既に被写体輝度値が記憶されている場合には、CPU24は今回の判定フレームから求めた被写体輝度値を上書きして更新する。
(ステップS117)
CPU24の被写体認識部27は、スルー画像の判定フレーム(S115)と、OT画像とのマッチング処理を行って、最大類似度SiOを求める。具体的には、CPU24の被写体認識部27は、S117において以下の(イ)から(ホ)の処理を実行する。
(イ)被写体認識部27は、判定フレームのうちの被写体追尾エリアに対応する範囲から、OT画像とマッチング処理を行う対象領域を決定する。この対象領域のサイズは、OT画像のサイズと同じサイズに設定される。
(ロ)次に、被写体認識部27は、上記の対象領域の画像とOT画像とでそれぞれ対応位置にある注目画素間の階調差を求めるマッチング処理を行う。そして、被写体認識部27は、上記の対象領域の画像とOT画像との類似度を以下の式(1)で求める。
Figure 0005067047
ここで、式(1)において、I1はテンプレート画像に対応し、I2は対象領域の画像に対応する。そして、I1およびI2の注目画素は、テンプレート画像および対象領域の画像でそれぞれ対応位置にある画素を示す。また、式(1)では、テンプレート画像およびスルー画像のデータの階調がともに8bit(0〜255の階調値)であることを前提とする。なお、上記の類似度の単位は%である。
すなわち、上記の式(1)では、対応画素の階調差の絶対値を合計して類似度を求めている。そして、式(1)では、階調差の絶対値の総和が大きくなるほど類似度の値が小さくなる。なお、被写体認識部27は、画像がRGBデータのときにRGBの各階調値ごとに類似度を求めてもよく、あるいはGの階調値のみ類似度を求めてもよい。また、被写体認識部27は、画像がYUVデータのときにはYの階調値で類似度を求めるようにしてもよい。
(ハ)被写体認識部27は、上記の(ロ)の処理で求めた類似度の値を第2メモリ21に記録する。
(ニ)被写体認識部27は、対象領域の位置をシフトさせて上記の(ロ)および(ハ)の処理を繰り返す。そして、被写体認識部27は、被写体追尾エリア内のすべてを対象領域としてマッチング処理を実行し、被写体追尾エリア内の各位置でのOT画像との類似度をそれぞれ求める。
(ホ)被写体認識部27は、第2メモリ21に記憶されているOT画像との類似度のうちで最高値を抽出し、抽出された類似度の値を最大類似度SiOに設定する。また、被写体認識部27は、最大類似度を示す対象領域の位置を第2メモリ21に記録する。
(ステップS118)
CPU24の被写体認識部27は、スルー画像の判定フレーム(S115)と、CT画像とのマッチング処理を行って、最大類似度SiCを求める。なお、S118での処理は、OT画像の代わりにCT画像を適用する点を除いてはS117と共通するため、重複説明を省略する。
(ステップS119)
CPU24の被写体認識部27は、スルー画像の判定フレーム(S115)と、NT画像とのマッチング処理を行って、最大類似度SiNを求める。なお、S119での処理は、OT画像の代わりにNT画像を適用する点を除いてはS117と共通するため、重複説明を省略する。
(ステップS120)
CPU24の認識状態判定部28は、S117からS119で求めた最大類似度(SiO、SiC、SiN)の値のいずれかが50%以上であるか否かを判定する。上記要件を満たす場合(YES側)にはS121に移行する。一方、上記要件を満たさない場合(NO側)にはS128に移行する。
(ステップS121)
CPU24の認識状態判定部28は、対応する最大類似度(SiO、SiC、SiN)の値が一番大きなテンプレート画像を選択する。
OT画像に関する最大類似度SiOが最も大きい場合(CASE1)にはS122に移行する。CT画像に関する最大類似度SiCが最も大きい場合(CASE2)にはS123に移行する。NT画像に関する最大類似度SiNが最も大きい場合(CASE3)にはS124に移行する。
(ステップS122)
CPU24は、OT画像を適用して被写体追尾処理を実行する。その後、CPU24はS125に処理を移行する。
ここで、図8を参照しつつ、OT画像を適用した被写体追尾処理のサブルーチンを説明する。
ステップS201:CPU24の被写体追尾部29は、最大類似度SiOに対応する対象領域の位置を主要被写体の位置として指定する。
ステップS202:CPU24は、指定された主要被写体の位置(S201)を焦点検出エリアとしてAFを実行するとともに、公知のAE演算を実行する。なお、CPU24は、指定された主要被写体の位置(S201)を基準としてスポット測光によるAE演算を実行してもよい。
ステップS203:CPU24の被写体追尾部29は、指定された主要被写体の位置(S201)に基づいて、ビュー画像に重畳される被写体追尾マークを更新する。これにより、モニタ18上で上記の枠表示の位置が、認識されている主要被写体の位置に合わせてシフトすることとなる。
ステップS204:CPU24の被写体認識部27は、指定された主要被写体の位置(S201)に基づいて、サイズを変更することなく被写体追尾エリアの位置を更新する。図7(b)は、主要被写体の動きに伴う被写体追尾エリアのシフトを示す図である。被写体認識部27は、主要被写体の位置が被写体追尾エリアの中央と重なるように、撮影画面に対して被写体追尾エリアをシフトさせる。これにより、主要被写体の動きに合わせて被写体追尾エリアが移動するため、電子カメラにおいて主要被写体をロストする確率が低減する。
ステップS205:CPU24は、第2メモリ21から判定フラグを読み出して、前回の被写体追尾処理でOT画像以外のテンプレート画像が適用されたか否かを判定する。
上記要件を満たす場合(YES側)にはS206に移行する。なお、この場合(S205のYES側)には、被写体追尾処理を初めて行う場合も含まれる。一方、上記要件を満たさない場合(NO側)にはS207に移行する。なお、この場合(S205のNO側)は、OT画像を適用した被写体追尾処理が連続して行われている状態である。
ステップS206:CPU24は、判定フラグの示すテンプレート画像の種類をOT画像に設定するとともに、判定フラグの連続適用回数の値を「1」に設定する。その後、CPU24はS210に処理を移行する。
ステップS207:CPU24は、判定フラグの連続適用回数の値をインクリメントする。
ステップS208:CPU24は、判定フラグの連続適用回数の値を参照して、OT画像を適用した被写体追尾処理が3回連続しているか否かを判定する。上記要件を満たす場合(YES側)にはS209に移行する。一方、上記要件を満たさない場合(NO側)にはS210に移行する。
ステップS209:CPU24は、現在のOT画像を第2メモリ21のCT画像用の記憶領域に記録するとともに、現在のCT画像を第2メモリ21のOT画像用の記憶領域に記録する。これにより、第2メモリ21に保持されたOT画像とCT画像とが相互に入れ替わることとなる。
ステップS210:CPU24は、最大類似度SiOに対応する対象領域のスルー画像を切り出してテンプレート画像を新たに生成する。そして、CPU24は、新たに生成されたテンプレート画像を第2メモリ21のNT画像用の記憶領域に上書きして記録する。これにより、被写体追尾処理のときには、CPU24によって第2メモリ21のNT画像が更新されることとなる。以上で、図8のサブルーチンの説明を終了する。
(ステップS123)
CPU24は、CT画像を適用して被写体追尾処理を実行する。その後、CPU24はS125に処理を移行する。
ここで、図9を参照しつつ、CT画像を適用した被写体追尾処理のサブルーチンを説明する。なお、図9のS301からS304は、図8のS201からS204に対応するので重複説明を一部省略する。
ステップS301:CPU24の被写体追尾部29は、最大類似度SiCに対応する対象領域の位置を主要被写体の位置として指定する。
ステップS302:CPU24は、指定された主要被写体の位置(S301)を焦点検出エリアとしてAFを実行するとともに、公知のAE演算を実行する。
ステップS303:CPU24の被写体追尾部29は、指定された主要被写体の位置(S301)に基づいて、ビュー画像に重畳される被写体追尾マークを更新する。
ステップS304:CPU24の被写体認識部27は、指定された主要被写体の位置(S301)に基づいて、サイズを変更することなく被写体追尾エリアの位置を更新する。
ステップS305:CPU24は、最大類似度SiCに対応する対象領域のスルー画像を切り出してテンプレート画像を新たに生成する。そして、CPU24は、新たに生成されたテンプレート画像を第2メモリ21のNT画像用の記憶領域に上書きして記録する。これにより、被写体追尾処理のときには、CPU24によって第2メモリ21のNT画像が更新されることとなる。
ステップS306:CPU24は、判定フラグの示すテンプレート画像の種類をCT画像に設定するとともに、判定フラグの連続適用回数の値を「0」に変更する。以上で、図9のサブルーチンの説明を終了する。
(ステップS124)
CPU24は、NT画像を適用して被写体追尾処理を実行する。その後、CPU24はS125に処理を移行する。
ここで、図10を参照しつつ、NT画像を適用した被写体追尾処理のサブルーチンを説明する。なお、図10のS401からS404は、図8のS201からS204に対応するので重複説明を一部省略する。
ステップS401:CPU24の被写体追尾部29は、最大類似度SiNに対応する対象領域の位置を主要被写体の位置として指定する。
ステップS402:CPU24は、指定された主要被写体の位置(S401)を焦点検出エリアとしてAFを実行するとともに、公知のAE演算を実行する。
ステップS403:CPU24の被写体追尾部29は、指定された主要被写体の位置(S401)に基づいて、ビュー画像に重畳される被写体追尾マークを更新する。
ステップS404:CPU24の被写体認識部27は、指定された主要被写体の位置(S401)に基づいて、サイズを変更することなく被写体追尾エリアの位置を更新する。
ステップS405:CPU24は、現在のNT画像を第2メモリ21のCT画像用の記憶領域に記録するとともに、現在のCT画像を第2メモリ21のOT画像用の記憶領域に記録する。これにより、今までのNT画像が入れ替わりによってCT画像となる。また今までのCT画像が入れ替わりによってOT画像となる。
ステップS406:CPU24は、最大類似度SiNに対応する対象領域のスルー画像を切り出してテンプレート画像を新たに生成する。そして、CPU24は、新たに生成されたテンプレート画像を第2メモリ21のNT画像用の記憶領域に上書きして記録する。これにより、被写体追尾処理のときには、CPU24によって第2メモリ21のNT画像が更新されることとなる。
ステップS407:CPU24は、判定フラグの示すテンプレート画像の種類をNT画像に設定するとともに、判定フラグの連続適用回数の値を「0」に変更する。以上で、図10のサブルーチンの説明を終了する。
(ステップS125)
CPU24は、レリーズ釦20が全押しされたか否かを判定する。レリーズ釦20が全押しされた場合(YES側)にはS126に移行する。一方、レリーズ釦20が全押しされていない場合(NO側)にはS127に移行する。
(ステップS126)
CPU24は、撮像素子13を駆動させて本画像の撮像処理を実行する。本画像のデータは、AFE14および画像処理部15で所定の処理が施された後に、記録I/F17によって記憶媒体26に記録される。その後、CPU24はS105に処理を移行する。
(ステップS127)
CPU24は、レリーズ釦20の半押しが解除されたか否かを判定する。レリーズ釦20の半押しが解除されたとき(YES側)はS105に移行する。一方、レリーズ釦20の半押しが継続しているとき(NO側)にはS113に戻って、CPU24は上記動作を繰り返す。
(ステップS128)
CPU24は、判定フレームより後に撮像されたスルー画像から、現在の被写体輝度値を求める。そして、CPU24は、第2メモリ21に記憶されている被写体輝度値を読み出して、現在の被写体輝度値と判定フレームの被写体輝度値との差分から被写体輝度の変化量を求める。
(ステップS129)
CPU24の認識状態判定部28は、S128で求めた被写体輝度の変化量が所定の範囲内に収まるか否かを判定する。上記要件を満たす場合(YES側)にはS130に移行する。一方、上記要件を満たさない場合(NO側)にはS132に移行する。なお、この場合(S129のNO側)は被写体輝度の変化が大きく、かつ最大類似度の値がいずれも低い状態に相当する。そのため、認識状態判定部28は主要被写体の認識が失敗したものとして処理を行う。
(ステップS130)
CPU24の認識状態判定部28は、振動センサ22によって検出された振動の大きさが閾値以下であるか否かを判定する。上記要件を満たす場合(YES側)にはS131に移行する。一方、上記要件を満たさない場合(NO側)にはS132に移行する。なお、この場合(S130のNO側)は電子カメラに大きな振動が加わって画像に大きなブレが生じている可能性が高い。そのため、認識状態判定部28は主要被写体の認識が失敗したものとして処理を行う。
(ステップS131)
CPU24の認識状態判定部28は、姿勢センサ23の出力に基づいて、S113の判定後から判定フレームの取得前までの期間で電子カメラの撮影姿勢が維持されているか否かを判定する。上記要件を満たす場合(YES側)にはS121に移行する。一方、上記要件を満たさない場合(NO側)にはS132に移行する。なお、この場合(S131のNO側)は電子カメラの撮影姿勢が急に変化した状態に相当する。そのため、認識状態判定部28は主要被写体の認識が失敗したものとして処理を行う。
(ステップS132)
CPU24の被写体追尾部29は、被写体追尾マークの表示を停止するとともに、ロスト表示(主要被写体の認識が失敗してロスト状態にあることを示す表示)をビュー画像に重畳させて出力する。例えば、被写体追尾部29は、ビュー画像に重畳された上記の枠表示を点灯状態から再び点滅状態に変更にしてロスト表示を行う。これにより、ユーザーは主要被写体がロストした状態にあることをモニタ18で確認できる。
(ステップS133)
CPU24の被写体追尾部29は、指定された主要被写体の最後の位置が撮影画面の中心部に属するか否かを判定する。
ここで、図11に、S133で主要被写体の最後の位置を判定するときの画面の分割例を示す。被写体追尾部29は、図11に示すように撮影画面を5分割して、主要被写体中央部の最後の位置が、撮影画面の中央の第1領域と、この第1領域の上下左右を囲むように配置された4つの第2領域とのいずれに属するかを判定する。なお、上記の第1領域は撮影画面の約70%程度のサイズに設定される。
そして、被写体追尾部29は、主要被写体中央部の最後の位置が第1領域(画面中央部)に属する場合(YES側)にはS134に移行する。一方、被写体追尾部29は、主要被写体中央部の最後の位置が第2領域に属する場合(NO側)にはS149に移行する。
(ステップS134)
CPU24の被写体認識部27は、被写体追尾エリアのサイズを上下左右にそれぞれ10%ずつ拡大する。これにより、主要被写体の再探索の成功確率がより向上する。
(ステップS135)
CPU24は、スルー画像のうちで被写体認識を行う判定フレームが撮像されたか否かを判定する。判定フレームが撮像された場合(YES側)にはS136に移行する。一方、判定フレームが撮像されていない場合には、CPU24は判定フレームが撮像されるまで待機する。
(ステップS136)
CPU24の被写体認識部27は、スルー画像の判定フレーム(S135)と、OT画像とのマッチング処理を行って、最大類似度SiOを求める。なお、S136での処理はS117と共通するため、重複説明を省略する。
(ステップS137)
CPU24の被写体認識部27は、スルー画像の判定フレーム(S135)と、CT画像とのマッチング処理を行って、最大類似度SiCを求める。なお、S137での処理はS118と共通するため、重複説明を省略する。
(ステップS138)
CPU24の被写体認識部27は、スルー画像の判定フレーム(S135)と、NT画像とのマッチング処理を行って、最大類似度SiNを求める。なお、S138での処理はS119と共通するため、重複説明を省略する。
(ステップS139)
CPU24の被写体認識部27は、スルー画像の判定フレーム(S135)と、IT画像とのマッチング処理を行って、最大類似度SiIを求める。なお、S139での処理は、OT画像の代わりにIT画像を適用する点を除いてはS117と共通するため、重複説明を省略する。
(ステップS140)
CPU24の認識状態判定部28は、S136からS139で求めた最大類似度(SiO、SiC、SiN、SiI)の値のいずれかが50%以上であるか否かを判定する。上記要件を満たす場合(YES側)にはS143に移行する。一方、上記要件を満たさない場合(NO側)にはS141に移行する。
(ステップS141)
CPU24の被写体認識部27は、主要被写体の認識に失敗してから所定の探索時間T1が経過したか否かを判定する。探索時間T1が経過した場合(YES側)にはS142に移行する。一方、探索時間T1が経過していない場合(NO側)にはS135に戻って、CPU24は上記動作を繰り返す。
(ステップS142)
CPU24の被写体追尾部29は、主要被写体の再探索に失敗した旨のエラー表示をモニタ18に出力する。そして、被写体追尾部29は、モニタ18へのロスト表示(S132)の出力を停止する。その後、CPU24はS106に処理を移行する。
(ステップS143)
CPU24の認識状態判定部28は、対応する最大類似度(SiO、SiC、SiN、SiI)の値が一番大きなテンプレート画像を選択する。
OT画像に関する最大類似度SiOが最も大きい場合(CASE1)にはS144に移行する。CT画像に関する最大類似度SiCが最も大きい場合(CASE2)にはS145に移行する。NT画像に関する最大類似度SiNが最も大きい場合(CASE3)にはS146に移行する。IT画像に関する最大類似度SiIが最も大きい場合(CASE4)にはS147に移行する。
(ステップS144)
CPU24は、OT画像を適用して被写体追尾処理を実行する。その後、CPU24はS148に処理を移行する。なお、S144での被写体追尾処理の内容は、上記のS122で説明した図8の被写体追尾処理とほぼ共通するので重複説明は省略する。ただし、S144では、被写体追尾エリアの位置を更新する処理(S204)が省略される。
(ステップS145)
CPU24は、CT画像を適用して被写体追尾処理を実行する。その後、CPU24はS148に処理を移行する。なお、S145での被写体追尾処理の内容は、上記のS123で説明した図9の被写体追尾処理とほぼ共通するので重複説明は省略する。ただし、S145では、被写体追尾エリアの位置を更新する処理(S304)が省略される。
(ステップS146)
CPU24は、NT画像を適用して被写体追尾処理を実行する。その後、CPU24はS148に処理を移行する。なお、S146での被写体追尾処理の内容は、上記のS124で説明した図10の被写体追尾処理とほぼ共通するので重複説明は省略する。ただし、S146では、被写体追尾エリアの位置を更新する処理(S404)が省略される。
(ステップS147)
CPU24は、IT画像を適用して被写体追尾処理を実行する。その後、CPU24はS148に処理を移行する。
ここで、図12を参照しつつ、IT画像を適用した被写体追尾処理のサブルーチンを説明する。なお、図12のS501からS504は、図8のS201からS204に対応するので重複説明を一部省略する。
ステップS501:CPU24の被写体追尾部29は、最大類似度SiIに対応する対象領域の位置を主要被写体の位置として指定する。
ステップS502:CPU24は、指定された主要被写体の位置(S501)を焦点検出エリアとしてAFを実行するとともに、公知のAE演算を実行する。
ステップS503:CPU24の被写体追尾部29は、指定された主要被写体の位置(S501)に基づいて、ビュー画像に重畳される被写体追尾マークを更新する。
ステップS504:CPU24の被写体認識部27は、指定された主要被写体の位置(S501)に基づいて、サイズを変更することなく被写体追尾エリアの位置を更新する。なお、S147での被写体追尾処理では、このS504の処理は省略される。
ステップS505:CPU24は、IT画像を第2メモリ21のCT画像用の記憶領域に記録するとともに、現在のCT画像を第2メモリ21のOT画像用の記憶領域に記録する。これにより、CT画像としてIT画像と同じ画像が保持される。また今までのCT画像が入れ替わりによってOT画像となる。
ステップS506:CPU24は、最大類似度SiIに対応する対象領域のスルー画像を切り出してテンプレート画像を新たに生成する。そして、CPU24は、新たに生成されたテンプレート画像を第2メモリ21のNT画像用の記憶領域に上書きして記録する。これにより、被写体追尾処理のときには、CPU24によって第2メモリ21のNT画像が更新されることとなる。
ステップS507:CPU24は、判定フラグの示すテンプレート画像の種類をIT画像に設定するとともに、判定フラグの連続適用回数の値を「0」に変更する。以上で、図12のサブルーチンの説明を終了する。
(ステップS148)
CPU24の被写体認識部27は、指定された主要被写体の位置に基づいて、被写体追尾エリアの位置を再設定する。このとき、被写体認識部27は、被写体追尾エリアのサイズを初期化して撮影画面の1/9のサイズに戻す。そして、被写体認識部27は、主要被写体の位置が被写体追尾エリアの中央と重なるように、被写体追尾エリアを再設定する。その後、CPUはS125に移行する。
(ステップS149)
CPU24の被写体認識部27は、指定された主要被写体の最後の位置に応じて被写体追尾エリアを変更する。
具体的には、主要被写体の最後の位置が上部の第2領域に属する場合には、被写体認識部27は撮影画面を水平に3分割したうちの一番上の領域を被写体追尾エリアとする(図13(a)参照)。また、主要被写体の最後の位置が下部の第2領域に属する場合には、被写体認識部27は撮影画面を水平に3分割したうちの一番下の領域を被写体追尾エリアとする(図13(b)参照)。また、主要被写体の最後の位置が右部の第2領域に属する場合には、被写体認識部27は撮影画面を垂直に3分割したうちの一番右の領域を被写体追尾エリアとする(図13(c)参照)。また、主要被写体の最後の位置が左部の第2領域に属する場合には、被写体認識部27は撮影画面を垂直に3分割したうちの一番左の領域を被写体追尾エリアとする(図13(d)参照)。
ここで、主要被写体の最後の位置が撮影画面の周辺部に属するときは、一般的にフレームアウトで主要被写体が認識できなくなった可能性が高い。そして、この場合には、主要被写体がロストした方向から再びフレームインする可能性が高いと考えられる。そのため、S149での被写体認識部27は、主要被写体がロストした方向の撮影画面の端部に隣接する領域を含むように被写体追尾エリアを拡大している。これにより、主要被写体の再探索の成功確率がより向上する。
(ステップS150)
CPU24は、スルー画像のうちで被写体認識を行う判定フレームが撮像されたか否かを判定する。判定フレームが撮像された場合(YES側)にはS151に移行する。一方、判定フレームが撮像されていない場合には、CPU24は判定フレームが撮像されるまで待機する。
(ステップS151)
CPU24の被写体認識部27は、スルー画像の判定フレーム(S150)と、OT画像とのマッチング処理を行って、最大類似度SiOを求める。なお、S151での処理はS117と共通するため、重複説明を省略する。
(ステップS152)
CPU24の被写体認識部27は、スルー画像の判定フレーム(S150)と、CT画像とのマッチング処理を行って、最大類似度SiCを求める。なお、S152での処理はS118と共通するため、重複説明を省略する。
(ステップS153)
CPU24の被写体認識部27は、スルー画像の判定フレーム(S150)と、NT画像とのマッチング処理を行って、最大類似度SiNを求める。なお、S153での処理はS119と共通するため、重複説明を省略する。
(ステップS154)
CPU24の被写体認識部27は、スルー画像の判定フレーム(S150)と、IT画像とのマッチング処理を行って、最大類似度SiIを求める。なお、S154での処理はS139と共通するため、重複説明を省略する。
(ステップS155)
CPU24の認識状態判定部28は、S151からS154で求めた最大類似度(SiO、SiC、SiN、SiI)の値のいずれかが50%以上であるか否かを判定する。上記要件を満たす場合(YES側)にはS143に移行する。一方、上記要件を満たさない場合(NO側)にはS156に移行する。
(ステップS156)
CPU24の被写体認識部27は、主要被写体の認識に失敗してから所定の探索時間T2が経過したか否かを判定する。探索時間T2が経過した場合(YES側)にはS142に移行する。一方、探索時間T1が経過していない場合(NO側)にはS150に戻って、CPU24は上記動作を繰り返す。
ここで、撮影画面の周辺部で主要被写体がロストする場合は単にフレームアウトした可能性が高い。一方で、撮影画面の中央部で主要被写体がロストする場合は、主要被写体の向きや形状が急激に変わるなど電子カメラの被写体追尾能力を超える事態が原因となることもあり、長時間の探索を行っても実効性が低い場合がある。そのため、本実施形態では、撮影画面の周辺部で主要被写体がロストしたときの探索時間T2(S156)は、撮影画面の中央部で主要被写体がロストしたときの探索時間T1(S141)よりも長く設定されている(T1<T2)。以上で、本実施形態における電子カメラの動作例の説明を終了する。
本実施形態の電子カメラでは、被写体追尾中に主要被写体の認識が失敗したと判定されたときに主要被写体を再探索する。そして、主要被写体を再認識できた場合には被写体追尾を再開する。そのため、被写体追尾の精度をより向上させることができる。
特に、本実施形態の電子カメラでは、被写体追尾中に主要被写体の認識が失敗したと判定されたときに、被写体追尾エリアのサイズを拡大して主要被写体を再探索する(S134、S149)。また、本実施形態の電子カメラでは、被写体追尾中に主要被写体の認識が失敗したと判定されたときに、テンプレート画像の数を増やして主要被写体を再探索する(S139、S154)。さらに、本実施形態の電子カメラでは、被写体追尾中に主要被写体の認識が失敗したと判定されたときに、認識した主要被写体の最後の位置に応じて異なるアルゴリズムで主要被写体を再探索する(S134、S149、S141、S156)。これらの構成により、本実施形態では主要被写体を再認識できる確率が高まるので上記の効果が一層顕著となる。
<実施形態の補足事項>
(1)上記実施形態では、テンプレート画像を用いて被写体認識を行う例を説明したが、本発明の参照データは画像のデータに限定されない。例えば、参照データとして、画像の輝度成分、色差成分、輪郭成分、コントラスト比などのパターンを示す特徴データを使用して、被写体認識部27がマッチング処理を実行する構成であってもよい。
(2)上記実施形態でのテンプレート画像の組み合わせはあくまで一例にすぎない。例えば、通常の被写体追尾のときには、電子カメラはOT画像およびCT画像を適用して被写体認識を行ってもよい。そして、主要被写体をロストしたときには、OT画像およびCT画像に加えて、NT画像、IT画像の少なくとも一方をさらに適用して電子カメラが主要被写体を再探索してもよい。
また、本発明では、撮影画面の中央部で被写体をロストしたときと、撮影画面の周辺部で被写体をロストしたときとで、再探索時に適用するテンプレート画像の数を変化させてもよい。例えば、撮影画面の周辺部で被写体をロストしたときには、ユーザーがすぐに電子カメラの構図を調整する可能性が高いので、迅速に被写体の再探索を行える方が好ましい。そのため、主要被写体の最後の位置が第1領域に属するときは、OT画像、CT画像、NT画像、IT画像の全てを適用して電子カメラが主要被写体を再探索する。一方、主要被写体の最後の位置が第2領域に属するときは、OT画像、CT画像、NT画像を適用して電子カメラが主要被写体を再探索するようにしてもよい。
(3)上記実施形態では、被写体認識部27、認識状態判定部28、被写体追尾部29をプログラムによってソフトウエア的に実現する例を説明したが、これらの構成をASICなどでハードウエア的に実現しても勿論かまわない。
(4)上記実施形態で主要被写体を再探索する場合には、被写体認識部27は被写体追尾エリアのサイズを段階的に拡大してもよい。例えば、主要被写体の最後の位置が第1領域に属するとき(S134)には、被写体認識部27は全てのテンプレート画像で主要被写体の認識が失敗するたびに、被写体追尾エリアのサイズを段階的に拡大することもできる。なお、この場合には、被写体追尾エリアのサイズを拡大した上で、被写体認識部27は同じ判定フレームに対してマッチング処理を行ってもよい。
(5)上記実施形態では探索時間T2を探索時間T1よりも長く設定した例を説明した。しかし、本発明では、逆に探索時間T2を探索時間T1よりも短く設定してもよい。例えば、フレームアウトで主要被写体がロストした場合に、ユーザーが被写体の追尾を断念することも想定できるからである。なお、上記のような事情を考慮して、CPU24はメニュー画面に基づくユーザーの操作部材19の操作を受け付けて、探索時間T1と探索時間T2とを自由に設定できるようにしてもよい。
(6)上記実施形態のS120でNO側の場合には、認識状態判定部28は主要被写体の認識が失敗するものと判定し、S128からS131の各ステップを省略してもよい。
(7)上記実施形態でOT画像を適用して被写体追尾処理を実行する場合には、OT画像およびCT画像のテンプレート画像の入れ替えを行う場合のみ、CPU24がNT画像を生成するようにしてもよい。
なお、本発明は、その精神またはその主要な特徴から逸脱することなく他の様々な形で実施することができる。そのため、上述した実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明は、特許請求の範囲によって示されるものであって、本発明は明細書本文にはなんら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内である。
本実施形態の電子カメラの構成を説明するブロック図 電子カメラの撮影モードでの動作例を説明する流れ図 電子カメラの撮影モードでの動作例を説明する流れ図 電子カメラの撮影モードでの動作例を説明する流れ図 電子カメラの撮影モードでの動作例を説明する流れ図 本実施形態での主要被写体を示す枠表示の一例を示す図 (a)本実施形態の被写体追尾エリアの初期状態を示した図、(b)主要被写体の動きに伴う被写体追尾エリアのシフトを示す図 OT画像を適用した被写体追尾処理のサブルーチンを説明する流れ図 CT画像を適用した被写体追尾処理のサブルーチンを説明する流れ図 NT画像を適用した被写体追尾処理のサブルーチンを説明する流れ図 主要被写体の最後の位置を判定するときの画面の分割例を示す図 IT画像を適用した被写体追尾処理のサブルーチンを説明する流れ図 S149での設定される被写体追尾エリアを説明する図
符号の説明
13…撮像素子、18…モニタ、21…第2メモリ、22…振動センサ、23…姿勢センサ、24…CPU、27…被写体認識部、28…認識状態判定部、29…被写体追尾部

Claims (9)

  1. 写体を撮像して画像のデータを生成する撮像部と、
    主要被写体に関する参照データを記憶するメモリと、
    前記画像のうちの部分領域を探索範囲に指定するとともに、前記探索範囲内の被写体の特徴と前記参照データが示す特徴との相関に基づいて前記主要被写体を認識する被写体認識部と、
    前記被写体認識部による前記認識が成功している第1状態と前記認識が失敗している第2状態とを判定する認識状態判定部と、
    前記第1状態のときに、前記被写体認識部が認識した前記主要被写体の位置を撮影画面内で継続的に指定する被写体追尾部と、を備え、
    前記被写体追尾部は、前記第1状態から前記第2状態に移行して前記指定が中断したときに、認識した前記主要被写体の最後の位置が前記撮影画面の中心部と周辺部とのいずれに属するかを判定し、
    前記被写体認識部は、前記第1状態から前記第2状態に移行して前記被写体追尾部による前記指定が中断された後に、前記探索範囲のサイズを拡大して前記主要被写体を再探索し、前記最後の位置が前記中心部に属する第1の場合と前記最後の位置が前記周辺部に属する第2の場合とで、前記探索範囲を拡大するときのアルゴリズムを変化させることを特徴とする撮像装置。
  2. 請求項1に記載の撮像装置において、
    前記メモリには、1つの前記主要被写体に対して複数の前記参照データが記憶されており、
    前記被写体認識部は、前記第1の場合と前記第2の場合とで前記再探索に適用する前記参照データの数を変化させることを特徴とする撮像装置。
  3. 請求項2に記載の撮像装置において、
    前記被写体認識部は、前記第1の場合と前記第2の場合とで前記再探索のときに前記主要被写体の探索時間を変化させることを特徴とする撮像装置。
  4. 請求項に記載の撮像装置において、
    前記メモリには、1つの前記主要被写体に対して複数の前記参照データが記憶されており、
    前記被写体認識部は、前記再探索に適用する前記参照データの数を、前記第1状態で適用される前記参照データの数よりも増加させることを特徴とする撮像装置。
  5. 請求項1に記載の撮像装置において、
    前記被写体認識部は、前記再探索のときに前記探索範囲のサイズを段階的に拡大することを特徴とする撮像装置。
  6. 請求項1から請求項5のいずれか1項に記載の撮像装置において、
    前記画像に対応するビュー画像を表示するモニタをさらに備え、
    前記被写体追尾部は、前記主要被写体の位置を示す表示と、前記主要被写体の位置の指定が中断された状態を示す表示と、前記再探索の失敗を示す表示とのいずれかを前記ビュー画像とともに前記モニタに表示させることを特徴とする撮像装置。
  7. 請求項1から請求項5のいずれか1項に記載の撮像装置において、
    装置の保持姿勢を検出する第1センサをさらに備え、
    前記被写体認識部は、前記保持姿勢に応じて前記参照データの示す特徴の向きを調整することを特徴とする撮像装置。
  8. 請求項1から請求項5のいずれか1項に記載の撮像装置において、
    装置に加わる振動および装置の保持姿勢の少なくとも一方を検出する第2センサをさらに備え、
    前記認識状態判定部は、前記振動の大きさが閾値を超える場合または前記保持姿勢に変化のある場合に、前記第2状態と判定することを特徴とする撮像装置。
  9. 請求項1から請求項5のいずれか1項に記載の撮像装置において、
    被写体輝度を検出する測光部をさらに備え、
    前記認識状態判定部は、前記被写体輝度の変化量が所定の範囲よりも大きい場合に、前記第2状態と判定することを特徴とする撮像装置。
JP2007177233A 2007-07-05 2007-07-05 撮像装置 Expired - Fee Related JP5067047B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007177233A JP5067047B2 (ja) 2007-07-05 2007-07-05 撮像装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007177233A JP5067047B2 (ja) 2007-07-05 2007-07-05 撮像装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012011335A Division JP5246355B2 (ja) 2012-01-23 2012-01-23 撮像装置

Publications (2)

Publication Number Publication Date
JP2009017271A JP2009017271A (ja) 2009-01-22
JP5067047B2 true JP5067047B2 (ja) 2012-11-07

Family

ID=40357600

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007177233A Expired - Fee Related JP5067047B2 (ja) 2007-07-05 2007-07-05 撮像装置

Country Status (1)

Country Link
JP (1) JP5067047B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5205337B2 (ja) 2009-06-18 2013-06-05 富士フイルム株式会社 ターゲット追跡装置および画像追跡装置ならびにそれらの動作制御方法ならびにディジタル・カメラ
JP2011022499A (ja) * 2009-07-17 2011-02-03 Fujifilm Corp オートフォーカスシステム
JP5449980B2 (ja) * 2009-10-28 2014-03-19 京セラ株式会社 動き補正装置およびその方法
JP5888069B2 (ja) * 2012-03-30 2016-03-16 株式会社ニコン 領域判定装置、撮像装置、及び領域判定プログラム
CN103376616B (zh) * 2012-04-26 2016-01-13 华晶科技股份有限公司 图像获取装置及自动对焦的方法与自动对焦***

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3505872B2 (ja) * 1995-08-28 2004-03-15 日本ビクター株式会社 画像内動体追尾装置
JPH09114962A (ja) * 1995-10-18 1997-05-02 Nikon Corp 二次元撮像式スキャナ
JP3487045B2 (ja) * 1995-10-30 2004-01-13 松下電工株式会社 自動追尾装置
JP2001060265A (ja) * 1999-08-24 2001-03-06 Sony Corp 画像処理装置および方法、並びに媒体
JP3704045B2 (ja) * 2001-01-15 2005-10-05 株式会社ニコン 目標物体追尾装置
JP2006258943A (ja) * 2005-03-15 2006-09-28 Fujinon Corp オートフォーカスシステム
JP4594197B2 (ja) * 2005-09-01 2010-12-08 パナソニック株式会社 自動追尾装置

Also Published As

Publication number Publication date
JP2009017271A (ja) 2009-01-22

Similar Documents

Publication Publication Date Title
JP4457358B2 (ja) 顔検出枠の表示方法、文字情報の表示方法及び撮像装置
US10419675B2 (en) Image pickup apparatus for detecting a moving amount of one of a main subject and a background, and related method and storage medium
JP6539091B2 (ja) 撮像装置およびその制御方法
JP5699432B2 (ja) 画像処理装置
JP5115210B2 (ja) 撮像装置
JP2007279601A (ja) カメラ
JP6656035B2 (ja) 画像処理装置、撮像装置および画像処理装置の制御方法
JP5067047B2 (ja) 撮像装置
JP2009111716A (ja) 撮像装置、プログラムおよびテンプレート生成方法
JP2009141475A (ja) カメラ
JP5217451B2 (ja) 撮像装置
JP5499531B2 (ja) 電子カメラ
JP2008288797A (ja) 撮像装置
JP4807582B2 (ja) 画像処理装置、撮像装置及びそのプログラム
JP2019008706A (ja) 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム
JP4716266B2 (ja) 画像処理装置、撮像装置及びそのプログラム
JP5246355B2 (ja) 撮像装置
JP2007259004A (ja) デジタルカメラ、画像処理装置及び画像処理プログラム
JP2022036153A (ja) 撮像装置
JP6545229B2 (ja) 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム
JP5383207B2 (ja) 情報処理装置、制御方法、コンピュータプログラム、および記憶媒体
JP2010016693A (ja) 電子カメラ
JP2008187332A (ja) 画像追尾装置および撮像装置
US20220292692A1 (en) Image processing apparatus and method of processing image
JP5040669B2 (ja) 撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120717

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120730

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150824

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5067047

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150824

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees