JP2021132295A - 画像処理装置、撮像装置、画像処理方法及びプログラム - Google Patents

画像処理装置、撮像装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2021132295A
JP2021132295A JP2020026488A JP2020026488A JP2021132295A JP 2021132295 A JP2021132295 A JP 2021132295A JP 2020026488 A JP2020026488 A JP 2020026488A JP 2020026488 A JP2020026488 A JP 2020026488A JP 2021132295 A JP2021132295 A JP 2021132295A
Authority
JP
Japan
Prior art keywords
subject
priority
region
image processing
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020026488A
Other languages
English (en)
Inventor
淳史 長尾
Atsushi Nagao
淳史 長尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020026488A priority Critical patent/JP2021132295A/ja
Publication of JP2021132295A publication Critical patent/JP2021132295A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】複数の被写体が検出された場合において、ユーザーにとって最適な主被写体の決定を行うことが可能な画像処理装置を提供する。【解決手段】画像処理装置は、画像から、被写体の特定領域の情報と、特定領域の情報とは異なる被写体に関する情報である関連情報とを検出する検出部211と、画像において複数の被写体が検出部211によって検出された場合に特定領域の情報及び関連情報に基づいて被写体ごとの優先度を算出する算出部213と、優先度に基づいて画像における主被写体を決定する決定部214と、を有する。複数の被写体が検出された場合に、算出部213が、被写体の特定領域の情報のみならず被写体に関する関連情報にも基づいて被写体の優先度を算出するため、ユーザーにとって最適な主被写体の決定を行うことができる。【選択図】 図7

Description

本発明は、画像処理装置、撮像装置、画像処理方法及びプログラムに関するものである。
従来、デジタルカメラ等において、画像から被写体を認識し、当該被写体の情報をもとに、自動的にカメラの制御を行う機能を備えたものがある。特許文献1には、被写体の顔を検出して焦点を合わせると共に、最適な露出で撮影する装置が開示されている。
このようなカメラにおいて、複数の被写体が検出された場合には、どの被写体をカメラの制御対象の被写体(以後、主被写体と呼ぶ)として選択するべきかという問題が生じる。ユーザーにとって好ましい主被写体選択を考える上で、よりカメラに近い被写体ほど優先されるという技術思想が知られている。特許文献2においては、被写体の顔を検出し、より検出サイズが大きい顔を持つ被写体が優先的に選択されるようにした撮像装置が開示されている。
特開2005−318554号公報 特開2010−141616号公報
特許文献2では、顔という実空間上でのサイズが等しいとみなせる単一種類の領域を検出した結果を用いて主被写体の決定を行っている。そのため、より画像上での検出サイズが大きい検出結果を選択することで、カメラに最も近い被写体を選択することができる。
また、特許文献2は、人間の顔の実空間上でのサイズは等しいとみなせるという仮定に基づいている。一方で、近年では、人間だけでなく、犬や猫などのペットや鳥などの野生動物といった複数の種別の被写体を認識する機能を持ち、より多彩な撮影シーンへ対応したカメラが登場している。
しかしながら、複数の種別の被写体が検出されうる場合において、検出された顔領域の情報に基づいて主被写体を決定しようとする場合がある。この場合には、顔領域の実空間上でのサイズが等しいとみなせるという前提が成立しない。このため、特許文献2の手法を用いたとしても、ユーザーにとって最適な主被写体の決定を行うには不十分である。
そこで、本発明の目的は、複数の被写体が検出された場合において、ユーザーにとって最適な主被写体の決定を行うことである。
本発明の一実施形態の画像処理装置は、画像から、被写体の特定領域の情報と、前記特定領域の情報とは異なる前記被写体に関する情報である関連情報とを検出する検出部と、前記画像において複数の前記被写体が前記検出部によって検出された場合に前記特定領域の情報及び前記関連情報に基づいて前記被写体ごとの優先度を算出する算出部と、前記優先度に基づいて前記画像における主被写体を決定する決定部と、を有することを特徴とする。
本発明の画像処理装置によれば、複数の被写体が検出された場合において、ユーザーにとって最適な主被写体の決定を行うことができる。
第一実施形態に係る撮像装置の概略断面図。 第一実施形態に係る処理を行う制御系を示すブロック図。 第一実施形態に係る処理の1フレームの動作を説明するフローチャート。 第一実施形態に係る処理における主被写体演算処理のフローチャート。 第一実施形態に係る処理における顔領域と全身領域の対応付けの例を示す図。 第一実施形態に係る処理におけるフレーム間での検出結果の対応付けの例を示す図。 第一実施形態に係る処理における代表領域の選択の例を示す図。 第一実施形態に係る処理における優先度算出のフローチャート。 第一実施形態に係る処理における優先度算出に用いるグラフ。 第二実施形態に係る処理における優先度算出のフローチャート。 第三実施形態に係る処理における優先度算出のフローチャート。 第三実施形態に係る処理において検出履歴情報から補正パラメータを算出する処理を説明する図。 第三実施形態に係る処理において体向き情報から補正パラメータを算出する処理を説明する図。 第四実施形態に係る処理の制御系を示すブロック図。 第四実施形態に係る処理のフローチャート。 第四実施形態に係る処理におけるフレーム間での検出結果の対応付けの例を示す図。 第四実施形態に係る処理における優先度算出のフローチャート。 第四実施形態に係る処理において被写体種別情報から補正パラメータを算出する例を示した図。 第五実施形態に係る処理における優先度算出のフローチャート。
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。各実施形態で共通する構成については、必要に応じて、前出の符号や図番を用いることで、詳細な説明を省略する。
上述した通り、特許文献2では、顔という単一種類の領域を検出した結果を用いて主被写体の決定を行っている。一方で、被写体から単一の領域のみを検出する場合、もしその領域が何らかの要因で検出できなかった場合には、その被写体を見失ってしまう。そのため、被写体から複数種類の領域(例えば顔と全身など)を検出することで、被写体を見失うリスクを低減させることが考えられる。
しかしながら、同一の被写体から複数種類の領域が検出されうる状況において、検出された領域の情報に基づいて主被写体を決定しようとする場合には、検出された領域の実空間上でのサイズが等しいとみなせるという前提が成立しない。そこで、以下の第一実施形態では、複数種類の特徴的な領域から優先度に従って主被写体を決定するに当たって、検出された特徴に応じて補正されたサイズで領域間を比較する。これにより、検出される特徴の種類によらずユーザーの意図により近い主被写体の決定が可能となることを特徴とする。
[第一実施形態]
第一実施形態について、添付の図面に基づいて詳細に説明する。まず、図1及び図2を用いて、本実施形態の画像処理を用いた撮像装置の一例として、デジタル一眼カメラ(以下、単にカメラとも表記する)の構成例を示す。
図1は、第一実施形態に係る撮像装置100の概略断面図である。本実施形態の画像処理が行われる撮像装置100は、図1に示すように、カメラ本体101の正面側(被写体側)に、着脱可能な交換式のレンズユニット120が装着される。レンズユニット120は、フォーカスレンズ121および絞り122等を有し、カメラ本体101に対してマウント接点部123を介して電気的に接続される。これにより、カメラ本体101に取り込む光量と焦点位置を調節することができる。フォーカスレンズ121は、自動的に調整することもできるし、ユーザーが手動で調節することもできる。
撮像センサー104(撮像素子)は、CCDセンサーやCMOSセンサー等で構成され、赤外カットフィルターやローパスフィルター等を含む。撮像センサー104は、撮影された時にレンズユニット120の撮影光学系を通過して結像した被写体像を光電変換し、撮影画像を生成するための信号情報を演算装置102に送信する。シャッター103は、非撮影時に閉じることで、撮像センサー104を遮光し、撮影時に開くことで、撮像センサー104を露光する。表示部105は、例えばLCD等で構成され、撮影前には撮影対象となる被写体を表示し、撮影後には撮像した画像を表示する。操作部106は、レリーズスイッチやモードダイヤルなどを備えている。これにより、操作部106をユーザーが操作することによって、演算装置102は、ユーザーからの撮影指示やモード変更指示などを受け取ることができる。
図2は、第一実施形態に係る処理を行う制御系を示すブロック図である。図2に示すように、演算装置102は、複数のタスクを並列処理できるマルチコアCPU、RAMおよびROMに加え、特定の演算処理を高速に実行するための専用回路などを備えている。演算装置102は、制御部201、主被写体演算部202、追尾演算部203、フォーカス演算部204、露出演算部205等を備える。
主被写体演算部202は、検出部211、代表領域選択部212(選択部)、優先度算出部213(算出部)、主被写体判定部214(決定部)を有する。この構成により、被写体の顔領域及び全身領域の情報を検出部211が検出する。そして、ここで検出された情報に基づいて、代表領域選択部212が代表領域を選択する。次に、優先度算出部213が被写体ごとの優先度を算出する。その後、優先度に基づいて、主被写体判定部214が主被写体を決定する。
制御部201は、カメラ本体101およびレンズユニット120の各部を制御する。追尾演算部203は主被写体領域の追尾を行う。フォーカス演算部204は、主被写体領域にピントを合わせるためのフォーカスレンズ121の制御値の演算を行う。また、露出演算部205は、主被写体領域を適正露出にするための絞り122および撮像センサー104の制御値の演算を行う。
次に、図3を参照して、本実施形態におけるカメラの1フレームにおける動作の手順を説明する。図3は、第一実施形態に係る処理の1フレームの動作を説明するフローチャートである。なお、各動作を説明する場合、必要に応じて、図1または図2に示す各部の機能や動作を詳細に説明する。
まず、演算装置102(またはその一部)によって行われる制御動作の手順の概略を説明する。図3に示すように、カメラによって撮像が行われる場合には、まず、撮像センサー104の読み出し処理を行う(ステップS301)。初回フレームか否かを判定し(ステップS302)、初回フレームでない場合には、主被写体領域の追尾、フォーカス制御、及び露出制御を行う(ステップS303〜ステップS305)。その後、またはステップS302で初回フレームだった場合には、レリーズスイッチが押されているか否かを判定し(ステップS306)、レリーズスイッチが押されていれば、撮像処理をする(ステップS307)。その後、またはステップS306でレリーズスイッチが押されていない場合には、主被写体領域の検出を行い(ステップS308)、追尾参照情報の生成を行う(ステップS309)。次に、各ステップの内容を詳細に説明する。
ステップS301では、制御部201は、撮像センサー104の読み出し処理を行い、読みだされた信号情報から画像データを生成する。ステップS302では、初回フレーム時のみステップS306へ進む。それ以外の場合は、ステップS303へ進む。
ステップS303では、追尾演算部203は、前フレームで後述するステップS310において生成された追尾用参照情報を用いて、前フレームで設定された主被写体領域の現フレームにおける位置を算出する追尾処理を行う。追尾処理に用いるアルゴリズムは任意の方法を用いて良い。例えば、前フレームにおいて設定された主被写体領域から所定の特徴抽出手段によって抽出した特徴量を追尾用参照情報として、現フレームにおいて、特徴量同士の距離が近い領域を探索することによって行うことができる。また、アルゴリズムの実装の形態としては、CPU上で動くプログラムであっても、専用のハードウェアであっても、それらの組み合わせであっても良い。
ステップS304では、フォーカス演算部204は、ステップS303で生成された追尾結果と、ステップS301で生成された信号情報や画像データなどを用いて、追尾結果にピントが合うようにフォーカスレンズ121の制御値を算出する。制御値の算出方法はコントラスト方式や位相差検出方式など、公知の任意の方法を用いて良い。制御値の算出が完了したら、フォーカス演算部204が制御部201に制御値を通知する。すると、制御部201は、通知された制御値に基づき、マウント接点部123を通じて、フォーカスレンズ121の制御を行う。
ステップS305では、露出演算部205は、ステップS303で生成された追尾結果と、ステップS301で生成された信号情報や画像データを用いて、追尾結果の露出が適正になるように、撮像センサー104および絞り122の制御値を算出する。制御値の算出方法は公知の任意の方法を用いて良い。制御値の算出が完了したら、露出演算部205が制御部201に制御値を通知すると、制御部201は通知された制御値に基づき、撮像センサー104の制御を行うとともに、マウント接点部123を通じて、絞り122の制御を行う。
ステップS306では、制御部201は、操作部106の状態を読み取り、レリーズスイッチが押されているか否かを判定する。レリーズスイッチが押されている場合には、ステップS307へ進む。それ以外の場合はステップS308へ進む。
ステップS307では、制御部201は、静止画の撮像処理を行う。ステップS305で算出した露出制御の制御値に基づいてシャッター103を駆動させ、撮像センサー104を露光する。そして、露光された撮像センサー104から読みだした信号情報から画像データを生成する。生成された画像データはSDカードなどの外部媒体に保存される。
ステップS308では、主被写体演算部202は、ステップS301で生成した画像データから主被写体領域を決定する処理を行う。本処理については、後に詳述する。
ステップS309では、追尾演算部203は、ステップS308で生成した主被写体領域の情報と、ステップS301で生成した画像データに基づいて、次フレームのステップS302の追尾処理において使用するための追尾用参照情報を生成する。
ステップS309が終了したら、本実施形態におけるカメラの1フレームの動作は終了である。カメラが動作し続ける限り、再びステップS301に戻って、ここまで説明した処理を繰り返す。
次に、上述のステップS308において、主被写体領域を決定する手順を、図4を参照して、さらに詳細に説明する。図4は、第一実施形態に係る処理における主被写体演算処理のフローチャートである。
まず、主被写体領域演算処理の概略を説明する。主被写体領域演算処理は、主被写体演算部202(またはその一部)によって行われる。図4に示すように、まず、各フレームから被写体の顔領域と全身領域とを検出し(ステップS401)、顔領域と全身領域とを対応付ける(ステップS402)。次に、異なるフレームの被写体の検出結果を、被写体ごとに対応付ける(ステップS403)。その後、各被写体において代表となる領域を選択し(ステップS404)、各被写体の優先度を算出する(ステップS405)。このようにして算出された優先度に基づいて、主被写体を決定する(ステップS406)。次に、各ステップの内容を詳細に説明する。
ステップS401では、検出部211は、画像から0個以上の顔領域および0個以上の全身領域を検出する処理を行う。検出手法としてはAdaBoostや畳み込みニューラルネットワークなどの公知の任意の方法を用いて良い。また、その実装の形態としては、CPU上で動くプログラムであっても、専用のハードウェアであっても、それらの組み合わせであっても良い。
ここで、ステップS401によって検出された顔領域および全身領域の例を、図を用いて示す。図5は、第一実施形態に係る処理における顔領域と全身領域の対応付けの例を示す図である。図5(A)において、実線で示した501、502が顔領域として検出された領域であり、破線で示した503、504が全身領域として検出された領域である。図5に示すように、検出された顔領域は、正方形の領域として表現され、中心位置および辺の長さの情報を持っている。また、検出された全身領域は、それぞれ矩形の領域として表現され、中心位置および縦横の長さの情報を持っている。なお、領域を示す枠の形状は、正方形や矩形に限るものではなく、他の形状としてもよい。
ステップS402では、検出部211は、ステップS401において検出された顔領域および全身領域において、同一被写体を指す顔領域と全身領域の組が存在するかどうかの判定を行う。そして、同一被写体ごとに顔領域と全身領域とが対応付けられた構造情報に変換する。
ある顔領域とある全身領域が対応付け可能な条件は以下である。
<顔領域と全身領域の同一被写体判定条件>
{(顔領域∩全身領域)の面積}/{顔領域の面積}>{所定の閾値}
上記の判定条件を満たす顔領域と全身領域を対応付け、共通の仮IDを付与する。
図5(B)は、図5(A)で示した顔領域と全身領域の検出結果から、ステップS402による対応付けを行った結果の例である。顔領域502と全身領域504とは、上記の対応付け条件を満たしているため、共通の仮IDで対応付けられている。一方で、顔領域501に対応する全身領域は存在しないため、顔領域501に対応する全身領域がNULL(空白)となっている。また、全身領域503に対応する顔領域は存在しないため、全身領域503に対応する顔領域がNULL(空白)となっている。
ステップS403では、検出部211は、前フレームの検出結果との対応付けを行う。前フレームにおける被写体と、今フレームの被写体が対応付けられる条件は以下の通りである。
<フレーム間の同一被写体判定条件>
・以下の条件A1もしくは条件A2のいずれかを満たすこと。
(条件A1)共に顔領域が検出されており、2つの顔領域の検出位置の差が所定の閾値以内であり、2つの顔領域の検出サイズの差が所定の閾値以内であること。
(条件A2)共に全身領域が検出されており、2つの全身領域の検出位置の差が所定の閾値以内であり、2つの全身領域の検出サイズの差が所定の閾値以内であること。
なお、顔領域の検出サイズは正方形の辺の長さ、全身領域の検出サイズは矩形の対角線の長さ/√2として定義する。
ここで、ステップS403におけるフレーム間対応付けの結果の例を図を用いて示す。図6は、第一実施形態に係る処理におけるフレーム間での検出結果の対応付けの例を示す図である。図6(A)が前フレームの検出結果、図6(B)が現フレームの検出結果、図6(C)がフレーム間対応付けの結果の例である。
図6の例においては、顔領域501と顔領域603が上記の条件A1を満たしたため、仮ID1番は被写体ID7番と対応付けられている。また、顔領域502と顔領域602が上記の条件A1を満たしたため、仮ID3番は被写体ID6番と対応付けられている。また、全身領域503は全身領域604と上記の条件A2を満たしたため、仮ID2番は被写体ID4番と対応付けられている。なお、初回フレーム時は前フレームの情報が存在しないため、その場合は前フレームとの対応付けは行わない。その場合は、ステップS402で付与された仮IDがそのまま被写体IDとして扱われる。
本実施形態において、ステップS401〜S403で説明した手順は、これに限るものではない。例えば、画像から被写体ごとに顔領域と全身領域が対応付けられた構造情報を直接出力するような手法を用いて、ステップS401〜S403の代わりとしても良い。また、時系列画像を入力としてステップS403の結果と同等の情報を直接出力するような手法を用いて、ステップS401〜S403の代わりとしてもよい。
ステップS404では、代表領域選択部212は、被写体ごとに1つの代表領域を選択する。代表領域の選択ルールは以下のとおりである。
<代表領域選択ルール>
・顔領域が存在する場合には、全身領域の存在有無に関わらず、顔領域を選択する。
・顔領域が存在せず、全身領域のみが存在する場合には、全身領域を選択する。
ここで、ステップS404における代表領域の選択結果の例を図を用いて示す。図7は、第一実施形態に係る処理における代表領域の選択の例を示す図である。ステップ403までにおいて、図7(A)のように、各被写体について、それぞれに、顔領域と全身領域の検出結果が示される。そして、ステップS404では、代表領域選択部212による選択により、図7(B)に示すように、代表領域が選択される。図7(B)の例では、被写体ID7番からは、顔領域501が代表領域として選択されている。同様に、被写体ID4番からは、全身領域503が代表領域として選択されており、被写体ID6番からは、顔領域502が代表領域として選択されている。
ステップS405では、優先度算出部213は、ステップS404で選択した代表領域の情報に基づいて、各被写体の優先度を算出する。本処理については後に詳説する。すべての被写体に対して優先度の算出が終了したら、ステップS406へ進む。
ステップS406では、ステップS406で算出された被写体ごとの優先度を用いて、最も優先度が大きい被写体を主被写体として選択する。また、主被写体として選択された被写体の代表領域を、主被写体領域として設定する。以上が本実施形態における主被写体演算処理の詳細な手順である。
次に、上述のステップS405において、優先度算出部213が被写体ごとに優先度を算出する手順を、図8を参照して、さらに詳細に説明する。図8は、第一実施形態に係る処理における優先度算出のフローチャートである。
まず、優先度を算出する手順の概略を説明する。図8に示すように、まず、検出位置に基づく優先度重みを算出する(ステップS801)。次に、代表領域が全身領域か否かを判断し(ステップS802)、代表領域が全身領域である場合には、検出サイズの補正を行う(ステップS803)。その後、検出サイズや前回結果に基づいて優先度重みを算出し(ステップS804、ステップS805)、各重みから優先度を算出する(ステップS806)。ステップS801〜ステップS806は被写体ごとに実行される。次に、各ステップの内容を詳細に説明する。
ステップS801では、検出位置に基づく優先度重みを計算する。まず、代表領域の検出位置の画像中心からの距離を計算する。そして、画像中心からの距離を用いて検出位置に基づく優先度重みが算出される。
ここで、ステップS801において、優先度重みを求める関数の一例を示す。図9は、第一実施形態に係る処理における優先度算出に用いるグラフである。図9(A)は、検出位置に基づく優先度重みを求めるグラフである。ステップS801では、図9(A)に示すように、画像中心からの距離に基づいた関数を用いて優先度重みを求める。図9(A)の例では、画像中心からの距離が小さいほど優先度重みは大きくなり、画像中心からの距離が大きいほど優先度重みは小さくなる。なお、図9(A)の例のグラフは、距離に対して直線的に優先度が減少する関数となっているが、これに限るものではない。例えば、距離に対して指数関数的、対数関数的など曲線的に優先度が減少する関数を用いてもよい。
ステップS802では、代表領域が全身領域であるか否かを判定する。代表領域が全身領域でない場合はステップS803へ進み、ステップS803で検出サイズの補正を行う。一方、代表領域が顔領域である場合は、ステップS804へ進み、ステップS803における検出サイズの補正を行わない。
ステップS803では、代表領域が全身領域である場合、代表領域の検出サイズに対して、下記の式1によって補正を行う。
補正後の検出サイズ=検出サイズ×補正パラメータ …式1
式1における補正パラメータは、予め設計した値をROM上の領域として用意しておく。ステップS803が実行された場合には、以後のステップS804で用いる代表領域の検出サイズは、補正後の検出サイズを用いる。
ステップS804では、代表領域の検出サイズに基づいて優先度重みを算出する。ステップS804において、優先度重みを求める関数の一例を示す。図9(B)は検出サイズに基づく優先度重みを求めるグラフである。ステップS804では、図9(B)に示すように、検出サイズに基づいた関数を用いて優先度重みを求める。図9(B)の例では、代表領域の検出サイズが大きいほど優先度重みは大きくなり、代表領域の検出サイズが小さいほど優先度重みは小さくなる。なお、図9(B)の例のグラフは、検出サイズに対して直線的に優先度が増加する関数となっているが、これに限るものではない。例えば、検出サイズに対して指数関数的、対数関数的など曲線的に優先度が増加する関数を用いてもよい。
ステップS805では、前回の結果に基づく優先度重みを計算する。前フレームにおいて主被写体として選択された被写体は、他より大きい値を取るように、優先度重みを算出する。これは、主被写体が頻繁に切り替わることを防止するために機能する。
ステップS806では、ステップS801、ステップS804、ステップS805で算出された各優先度重みから、優先度を以下の式によって算出する。
優先度=(検出位置に基づく優先度重み)×(検出サイズに基づく優先度重み)×(前回の結果に基づく優先度重み) …式2
以上のように、本実施形態によれば、顔領域(特定領域)または全身領域(関連情報、全体領域)のいずれかを代表領域に設定し、代表領域の検出サイズに適切な補正を行って優先度を算出する。このため、複数の被写体が検出された場合において、ユーザーにとって最適な主被写体の決定を行うことができる。
[第二実施形態]
第二実施形態について、添付の図面に基づいて詳細に説明する。第一実施形態では、代表領域の検出サイズに補正を行ったのちに優先度の算出を行ったが、本実施形態では、優先度の算出を行った後に、その優先度に対して補正を行う。本実施形態における第一実施形態との差異は、各被写体の優先度を算出する手順(図4におけるステップS405の手順)が異なるのみであり、その他は第一実施形態と同様である。このため、ステップS405の詳細に関する説明以外を省略する。
上述のステップS405において、優先度算出部213が被写体ごとに優先度を算出する手順を、図10を参照して、さらに詳細に説明する。図10は、第二実施形態に係る処理における優先度算出のフローチャートである。
まず、本実施形態において、優先度を算出する手順の概略を説明する。図10に示すように、まず、検出位置に基づく優先度重みを算出する(ステップS1001)。次に、検出サイズや前回結果に基づいて優先度重みを算出し(ステップS1002、ステップS1003)、各重みから優先度を算出する(ステップS1004)。その後、代表領域が全身領域か否かを判断し(ステップS1005)、代表領域が全身領域である場合には、優先度の補正を行う(ステップS1006)。ステップS1001〜ステップS1006は被写体ごとに実行される。次に、各ステップの内容を詳細に説明する。
ステップS1001では、検出位置に基づく優先度重みを計算する。本処理は第一実施形態における図8のステップS801と同一の処理である。また、ステップS1002では、検出サイズに基づく優先度重みを計算する。本処理は第一実施形態における図8のステップS804と同一の処理である。また、ステップS1003では、前回の結果に基づく優先度重みを計算する。本処理は第一実施形態における図8のステップS805と同一の処理である。
ステップS1004では、ステップS1001、ステップS1002、ステップS1003で算出された各優先度重みから、優先度を以下の式によって算出する。
優先度=(検出位置に基づく優先度重み)×(検出サイズに基づく優先度重み)×(前回の結果に基づく優先度重み) …式2(再掲)
ステップS1005では、代表領域が全身領域であるか否かを判定する。代表領域が全身領域でない顔領域などの場合は、そのまま優先度算出処理を終了する。一方、代表領域が全身領域である場合は、ステップS1006へ進む。
ステップS1006では、代表領域が全身領域である場合、優先度に対して、下記の式3によって補正を行う。
補正後の優先度=優先度×補正パラメータ …式3
式3における補正パラメータは、予め設計した値をROM上の領域として用意しておく。
[第三実施形態]
第三実施形態について、添付の図面に基づいて詳細に説明する。本実施形態では、被写体ごとに最適なパラメータを動的に算出して補正を行う。本実施形態の主被写体領域演算処理の概略は、図4と同様である。しかしながら、ステップS401、ステップS403、ステップS405の具体的内容が、第一実施形態とは異なる。このため、以下では第一実施形態との差異がある箇所について説明する。
本実施形態におけるステップS401では、検出部211は、画像から複数(0個以上)の顔領域および複数(0個以上)の全身領域を検出する処理を行う。検出手法としてはAdaBoostや畳み込みニューラルネットワークなどの公知の任意の方法を用いて良い。また、その実装の形態としては、CPU上で動くプログラムであっても、専用のハードウェアであっても、それらの組み合わせであっても良い。検出された顔領域は正方形の領域として表現され、中心位置および辺の長さの情報を持っている。また、検出された全身領域は、それぞれ矩形の領域として表現され、中心位置および縦横の長さの情報に加え、体向き情報(後述)および被写体種別情報を持っている。
ステップS403では、検出部211は、前フレームの検出結果との対応付けを行う。さらに、本実施形態では、フレーム間対応付け後の検出情報を被写体IDごとに検出履歴情報として蓄積する処理を追加で行う。
ステップS405では、優先度算出部213は、ステップS404で選択した代表領域の情報に基づいて、各被写体の優先度を算出する。ここで、優先度算出部213が被写体ごとに優先度を算出する手順を、図11を参照して、さらに詳細に説明する。図11は、第三実施形態に係る処理における優先度算出のフローチャートである。
まず、優先度を算出する手順の概略を説明する。図11に示すように、まず、検出位置に基づく優先度重みを算出する(ステップS1101)。次に、代表領域が全身領域か否かを判断し(ステップS1102)、代表領域が全身領域である場合には、補正パラメータの算出を行い(ステップS1103)、検出サイズの補正を行う(ステップS1104)。その後、検出サイズや前回結果に基づいて優先度重みを算出し(ステップS1105、ステップS1106)、各重みから優先度を算出する(ステップS1107)。
ステップS1101では、検出位置に基づく優先度重みを計算する。本処理は第一実施形態における図8のステップS801と同一の処理である。ステップS1102では、代表領域が全身領域であるか否かを判定し、代表領域が全身領域である場合はステップS1103へ進み、代表領域が全身領域でない顔領域などの場合はステップS1105へ進む。
ステップS1103では、優先度算出部213は、ステップS803で用いる補正パラメータを被写体ごとに算出する。補正パラメータを算出する方法には、以下の3通りの方法がある。
(方法1)検出履歴情報を用いる方法
ステップS403で生成された検出履歴情報を参照して被写体ごとに適切な補正パラメータを算出することができる。ここでの検出履歴情報とは、被写体の過去の顔領域と全身領域の検出履歴に関する情報である。まず、補正パラメータを算出したい被写体の検出履歴情報から、その被写体の顔領域と全身領域が同時に検出されたフレームを探索する。同時に検出されたフレームが1つ以上存在した場合には、同時に検出されたフレームを用いて補正パラメータを算出する。まず、顔サイズ軸と全身サイズ軸からなる二次元空間上に顔領域の検出サイズと全身領域の検出サイズのペアをプロットする。そして、プロットされたすべての点を近似するような直線を最小二乗法などによって算出する。また、顔領域と全身領域が同時に検出されたフレームが1つも存在しなかった場合には、予め用意された補正パラメータを使用する。
ここで、顔サイズと全身サイズのプロットした例から近似曲線を求める例を図を用いて示す。図12は、第三実施形態に係る処理において検出履歴情報から補正パラメータを算出する処理を説明する図である。
図12で示したグラフにおいて、プロットされた黒点がそれぞれ、顔領域と全身領域が同時に検出されたフレームにおける、顔領域のサイズと全身領域のサイズの関係を示している。そして、破線で示された直線が、最小二乗法によって求められた近似直線である。このため、この直線の傾きが補正パラメータとなる。
(方法2)体向き情報を用いる方法
体向き情報に応じて異なるパラメータを用いることもできる。体向き情報とは、正面や横向きなど、カメラに対して全身がどちらの向きを向いているかを示す情報である。
ここで、体向き情報から補正パラメータを算出する例を図を用いて示す。図13は、第三実施形態に係る処理において体向き情報から補正パラメータを算出する処理を説明する図である。図13(A)は、あるフレームにおいてステップS401で検出された顔領域および全身領域の検出結果である。図13(B)は、このフレームにおいてステップS404で選択された各被写体の代表領域のリストである。図13(C)は事前に設計されROM上に配置された補正パラメータのテーブルである。
図13の例において、図13(A)及び(B)に示す全身領域1302は、体向き情報が正面である。このため、図13(C)に示す補正パラメータ表から、補正パラメータ1311が選択される。また、図13(A)及び(B)に示す全身領域1303は、体向き情報が横向きである。このため、図13(C)に示す補正パラメータ表から補正パラメータ1313が選択される。
なお、本実施形態においては、体向き情報を離散的なクラス情報として定義したが、角度などの連続的な数値として定義しても良い。その場合は、補正パラメータは事前に用意されたテーブルではなく、体向き情報を入力とする関数によって算出される。
(方法3)被写体種別情報を用いる方法
被写体種別に応じて異なるパラメータを用いることもできる。被写体種別情報とは、人間・犬・猫・鳥など、その被写体の種別を表す情報である。被写体種別ごとに事前に設計された補正パラメータをROM上に配置しておく。補正パラメータの算出においては、その被写体に関する被写体種別情報に応じた補正パラメータを選択する。
また、方法1、方法2、方法3は、個別に用いるのみならず、方法1、方法2、方法3を互いに組み合わせて用いることも可能である。例えば、方法1を行い、顔領域と全身領域が同時に検出されたフレームが1つも存在しなかった場合には、方法2や方法3の方法で補正パラメータを算出するなどを行ってもよい。
ステップS1104では、代表領域が全身領域である場合、代表領域の検出サイズに対して、下記の式1によって補正を行う。
補正後の検出サイズ=検出サイズ×補正パラメータ …式1(再掲)
式1における補正パラメータは、ステップS1103で算出したものを使用する。ステップS1104が実行された場合には、以後のステップS1105で用いる代表領域の検出サイズは、補正後の検出サイズを用いる。
ステップS1105では、検出サイズに基づく優先度重みを計算する。本処理は第一実施形態における図8のステップS804と同一の処理である。ステップS1106では、前回の結果に基づく優先度重みを計算する。本処理は第一実施形態における図8のステップS805と同一の処理である。
ステップS1107では、ステップS1101、ステップS1105、ステップS1106で算出された各優先度重みから、優先度を以下の式によって算出する。
優先度=(検出位置に基づく優先度重み)×(検出サイズに基づく優先度重み)×(前回の結果に基づく優先度重み) …式2(再掲)
[第四実施形態]
第四実施形態について、添付の図面に基づいて詳細に説明する。本実施形態における撮像装置100は、図1と同様であるため、説明を省略する。
図14は、第四実施形態に係る処理を行う制御系を示すブロック図である。図14に示すように、演算装置102は、複数のタスクを並列処理できるマルチコアCPU、RAMおよびROMに加え、特定の演算処理を高速に実行するための専用回路などを備えている。演算装置102は、制御部1401、主被写体演算部1402、追尾演算部1403、フォーカス演算部1404、露出演算部1405等を備える。
主被写体演算部1402は、検出部1411、優先度算出部1412(算出部)、主被写体判定部1413(決定部)を有する。この構成により、被写体の顔領域及び被写体種別情報の情報を検出部1411が検出する。そして、ここで検出された情報に基づいて優先度算出部1412が被写体ごとの優先度を算出する。その後、優先度に基づいて主被写体判定部1413が、主被写体を決定する。
制御部1401は、カメラ本体101およびレンズユニット120の各部を制御する。追尾演算部1403は主被写体領域の追尾を行う。フォーカス演算部1404は、主被写体領域にピントを合わせるためのフォーカスレンズ121の制御値の演算を行う。また、露出演算部1405は、主被写体領域を適正露出にするための絞り122および撮像センサー104の制御値の演算を行う。制御部1401は、操作部106が備えるレリーズスイッチやモードダイヤルなどを通してユーザーからの撮影指示やモード変更指示などを受け取ることができる。
本実施形態のカメラの1フレームにおける動作の手順の概略は、図3で示す第一実施形態と同様である。しかしながら、ステップS308の具体的内容が、第一実施形態とは異なる。このため、以下では第一実施形態との差異があるステップS308の具体的内容について説明する。
次に、上述のステップS308において、本実施形態における主被写体領域を決定する手順を、図15を参照して、さらに詳細に説明する。図15は、第四実施形態に係る処理における主被写体演算処理のフローチャートである。
まず、主被写体領域演算処理の概略を説明する。主被写体領域演算処理は、主被写体演算部1402(またはその一部)によって行われる。図15に示すように、まず、各フレームから被写体の顔領域を検出する(ステップS1501)。次に、異なるフレームの被写体の検出結果を、被写体ごとに対応付ける(ステップS1502)。その後、各被写体の優先度を算出する(ステップS1503)。このようにして算出された優先度に基づいて、主被写体を決定する(ステップS1504)。次に、各ステップの内容を詳細に説明する。
ステップS1501では、検出部1411は、画像から0個以上の顔領域を検出する処理を行う。検出手法としてはAdaBoostや畳み込みニューラルネットワークなどの公知の任意の方法を用いて良い。また、その実装の形態としては、CPU上で動くプログラムであっても、専用のハードウェアであっても、それらの組み合わせであっても良い。検出された顔領域は正方形の領域として表現され、中心位置および辺の長さの情報に加え、被写体種別情報を持っている。被写体種別情報とは、人間・犬・猫・鳥など、検出した顔が属する被写体の種別を表す情報である。また、検出された顔領域のそれぞれには、仮IDとして相違なる値が割り振られる。なお、領域を示す枠の形状は、正方形に限るものではなく、他の形状としてもよい。
ステップS1502では、検出部1411は、前フレームの検出結果との対応付けを行う。前フレームにおける顔領域と、現フレームの顔領域が対応付けられる条件は以下の通りである。
<フレーム間の同一被写体判定条件>
・2つの顔領域の検出位置の差が所定の閾値以内であり、2つの顔領域の検出サイズの差が所定の閾値以内であること。
ここで、ステップS1502においてフレーム間対応付けの結果の例を、図を用いて示す。図16は、第四実施形態に係る処理におけるフレーム間での検出結果の対応付けの例を示す図である。図16(A)が前フレームの検出結果、図16(B)が現フレームの検出結果、図16(C)がフレーム間対応付けの結果の例である。
図16の例においては、顔領域1601と顔領域1604が上記の判定条件を満たしたため、仮ID1番は被写体ID4番と対応付けられている。また、顔領域1602と顔領域1605が上記の判定条件を満たしたため、仮ID2番は被写体ID6番と対応付けられている。また、顔領域1603は顔領域1606と上記の判定条件を満たしたため、仮ID3番は被写体ID7番と対応付けられている。なお、初回フレーム時は前フレームの情報が存在しないため、その場合は前フレームとの対応付けは行わない。その場合は、ステップS1501で付与された仮IDがそのまま被写体IDとして扱われる。
本実施形態において、ステップS1501〜S1502で説明した手順は、これに限るものではない。例えば、時系列画像を入力としてステップS1502の結果と同等の情報を直接出力するような手法を用いて、ステップS1501〜S1502の代わりとしてもよい。
ステップS1503では、優先度算出部1412は、被写体ごとの優先度を顔領域の情報に基づいて算出する。本処理については後に詳説する。すべての被写体に対して優先度の算出が終了したら、ステップS1504へ進む。
ステップS1504では、ステップS1503で算出された被写体ごとの優先度を用いて、最も優先度が大きい被写体を主被写体として選択する。また、主被写体として選択された被写体の顔領域を、主被写体領域として設定する。以上が本実施形態における主被写体演算処理の詳細な手順である。
次に、上述のステップS1504において、優先度算出部1412が被写体ごとに優先度を算出する手順を、図17を参照して、さらに詳細に説明する。図17は、第四実施形態に係る処理における優先度算出のフローチャートである。
まず、優先度を算出する手順の概略を説明する。図17に示すように、まず、検出位置に基づく優先度重みを算出し(ステップS1701)、検出サイズの補正を行う(ステップS1702)。その後、検出サイズや前回結果に基づいて優先度重みを算出し(ステップS1703、ステップS1704)、各重みから優先度を算出する(ステップS1705)。ステップS1701〜ステップS1705は被写体ごとに実行される。次に、各ステップの内容を詳細に説明する。
ステップS1701では、検出位置に基づく優先度重みを計算する。まず、顔領域の検出位置の画像中心からの距離を計算する。そして、画像中心からの距離を用いて検出位置に基づく優先度重みが算出される。ステップS1701において、優先度重みを求める関数は、例えば、第一実施形態で示した図9(A)と同一の関数を用いる。図9(A)の例では、画像中心からの距離が小さいほど優先度重みは大きくなり、画像中心からの距離が大きいほど優先度重みは小さくなる。なお、図9(A)の例のグラフは、距離に対して直線的に優先度が減少する関数となっているが、これに限るものではない。例えば、距離に対して指数関数的、対数関数的など曲線的に優先度が減少する関数を用いてもよい。
ステップS1702では、顔領域の検出サイズに対して、下記の式1によって補正を行う。
補正後の検出サイズ=検出サイズ×補正パラメータ …式1(再掲)
式1における補正パラメータは、被写体種別情報に応じて異なるパラメータを使用する。被写体種別ごとに事前に設計された補正パラメータをROM上に配置しておき、検出された顔領域の被写体種別情報を参照して、補正パラメータを決定する。
ここで、被写体種別情報から補正パラメータを算出する例を図を用いて示す。図18は、第四実施形態に係る処理において被写体種別情報から補正パラメータを算出する例を示した図である。図18(A)は、あるフレームにおいてステップS1501〜S1502で得られた顔領域の検出結果である。図18(B)は、このフレームにおける各被写体のリストである。図18(C)は、事前に設計されROM上に配置された補正パラメータのテーブルである。
図18の例において、図18(A)及び(B)に示す顔領域1801及び顔領域1802は、被写体種別情報が犬である。このため、図18(C)に示す補正パラメータ表から補正パラメータ1812が選択される。また、図18(A)及び(B)に示す顔領域1803は、被写体種別情報が鳥である。このため、図18(C)に示す補正パラメータ表から補正パラメータ1314が選択される。
ステップS1703では、ステップS1702で得られた補正後の検出サイズに基づいて優先度重みを計算する。ステップS1702において、補正後の検出サイズから検出サイズに基づく優先度重みを求める関数としては、例えば第一実施形態で示した図9(B)と同一の関数を用いる。図9(B)の例では、検出サイズが大きいほど優先度重みは大きくなり、検出サイズが小さいほど優先度重みは小さくなる。なお、図9(B)の例のグラフは、検出サイズに対して直線的に優先度が増加する関数となっているが、これに限るものではない。例えば、検出サイズに対して指数関数的、対数関数的など曲線的に優先度が増加する関数を用いてもよい。
ステップS1704では、前回の結果に基づく優先度重みを計算する。前フレームにおいて主被写体として選択された被写体は、他より大きい値を取るように、優先度重みを算出する。これは、主被写体が頻繁に切り替わることを防止するために機能する。
ステップS1705では、ステップS1701、ステップS1703、ステップS1704で算出された各優先度重みから、優先度を以下の式によって算出する。
優先度=(検出位置に基づく優先度重み)×(検出サイズに基づく優先度重み)×(前回の結果に基づく優先度重み) …式2(再掲)
以上のように、本実施形態によれば、顔領域(特定領域)と種別情報(関連情報)を検出部1411が検出し、顔領域と種別情報に基づいて優先度を算出する。そして、優先度に基づいて主被写体を決定する。このため、複数の被写体が検出された場合において、ユーザーにとって最適な主被写体の決定を行うことができる。
[第五実施形態]
第五実施形態について、添付の図面に基づいて詳細に説明する。第四実施形態では、検出サイズに対して補正を行ったのちに優先度の算出を行ったが、本実施形態では、優先度の算出を行った後に、その優先度に対して補正を行う。本実施形態における第四実施形態との差異は、各被写体の優先度を算出する手順(図15におけるステップS1503の手順)が異なるのみであり、その他は第四実施形態と同様である。このため、ステップS1503の詳細に関する説明以外を省略する。
上述のステップS1503において、優先度算出部1412が被写体ごとに優先度を算出する手順を、図19を参照して、さらに詳細に説明する。図19は、第五実施形態に係る処理における優先度算出のフローチャートである。
まず、本実施形態において、優先度を算出する手順の概略を説明する。図19に示すように、まず、検出位置に基づく優先度重みを算出する(ステップS1901)。次に、検出サイズや前回結果に基づいて優先度重みを算出し(ステップS1902、ステップS1903)、各重みから優先度を算出する(ステップS1904)。その後、優先度の補正を行う(ステップS1905)。ステップS1901〜ステップS1905は被写体ごとに実行される。次に、各ステップの内容を詳細に説明する。
ステップS1901では、検出位置に基づく優先度重みを計算する。本処理は第四実施形態における図17のステップS1701と同一の処理である。また、ステップS1902では、検出サイズに基づく優先度重みを計算する。本処理は第四実施形態における図17のステップS1703と同一の処理である。またステップS1903では、前回の結果に基づく優先度重みを計算する。本処理は第四実施形態における図17のステップ1704と同一の処理である。
ステップS1904では、ステップS1901、ステップS1902、ステップS1903で算出された各優先度重みから、優先度を以下の式によって算出する。
優先度=(検出位置に基づく優先度重み)×(検出サイズに基づく優先度重み)×(前回の結果に基づく優先度重み) …式2(再掲)
ステップS1905では、ステップS1904で算出した優先度に対して、下記の式3によって補正を行う。
補正後の優先度=優先度×補正パラメータ …式3(再掲)
式3における補正パラメータは被写体種別情報に応じて異なるパラメータを使用する。被写体種別ごとに事前に設計された補正パラメータをROM上に配置しておき、検出された顔領域の被写体種別情報を参照して、補正パラメータを決定する。
なお、上述の実施形態では、被写体の特定領域として顔領域を例示して説明したが、これに限るものではなく、頭部全体の頭部領域を用いてもよい。また、被写体の全体領域を全身領域としたが、これに限るものではなく、特定の領域より大きい全身の一部の領域としてもよい。
また、上述の実施形態では、優先度の算出をする前に代表領域又は特定領域の検出サイズの補正を行う第一の場合と、優先度の算出をするまでは当該検出サイズの補正を行わない第二の場合とを示した。そして、第二の場合は、優先度の算出をした後に優先度の補正を行っていた。しかしながら、第一の場合と第二の場合とは、いずれか一方のみを行う必要はなく、優先度の算出をする前に代表領域又は特定領域の検出サイズの補正を行い、さらに、優先度を算出した後に優先度の補正を行ってもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の好ましい実施形態について説明したが、本発明は、これらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。例えば、本発明は、デジタル一眼レフカメラを例示したが、これに限るものではなく、他のデジタルカメラ、デジタルビデオカメラ、監視カメラ、Webカメラ、携帯電話に付帯されるカメラ等、他の撮像装置にも適用できる。
100 撮像装置
102 演算装置
201 制御部
202 主被写体演算部
211 検出部
212 代表領域選択部
213 優先度算出部
214 主被写体判定部
1402 主被写体演算部
1411 検出部
1412 優先度算出部
1413 主被写体判定部

Claims (17)

  1. 画像から、被写体の特定領域の情報と、前記特定領域の情報とは異なる前記被写体に関する情報である関連情報とを検出する検出部と、
    前記画像において複数の前記被写体が前記検出部によって検出された場合に前記特定領域の情報及び前記関連情報に基づいて前記被写体ごとの優先度を算出する算出部と、
    前記優先度に基づいて前記画像における主被写体を決定する決定部と、を有する
    ことを特徴とする画像処理装置。
  2. 前記関連情報は、前記被写体の全体領域の情報を含み、
    前記特定領域と前記全体領域のいずれか一方を代表領域として選択する選択部を有し、
    前記算出部は、前記選択部が前記代表領域を選択した後、前記代表領域に基づいて前記被写体の前記優先度を算出する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記算出部は、前記代表領域が前記全体領域であった場合、前記優先度の補正を行う
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記検出部は、前記代表領域のサイズを検出し、
    前記算出部は、前記代表領域のサイズの補正を行い、補正後の前記代表領域のサイズに基づいて前記被写体の前記優先度を算出する
    ことを特徴とする請求項2または3に記載の画像処理装置。
  5. 前記算出部は、前記代表領域のサイズの補正を行う場合に、前記被写体ごとに算出される補正パラメータを用いる
    ことを特徴とする請求項4に記載の画像処理装置。
  6. 前記補正パラメータは、前記被写体の過去の前記特定領域と前記全体領域の検出履歴に応じて算出される
    ことを特徴とする請求項5に記載の画像処理装置。
  7. 前記補正パラメータは、前記被写体の体向き情報に応じて算出される
    ことを特徴とする請求項5に記載の画像処理装置。
  8. 前記補正パラメータは、前記被写体の種別情報に応じて算出される
    ことを特徴とする請求項5に記載の画像処理装置。
  9. 前記特定領域は、顔領域であり、
    前記全体領域は、全身領域である
    ことを特徴とする請求項2乃至8のいずれか1項に記載の画像処理装置。
  10. 前記関連情報は、前記被写体の種別情報を含み、
    前記算出部は、前記特定領域と前記種別情報に基づいて前記被写体の前記優先度を算出する
    ことを特徴とする請求項1に記載の画像処理装置。
  11. 前記算出部は、前記特定領域から前記優先度を算出した後、前記優先度の補正を行う
    ことを特徴とする請求項10に記載の画像処理装置。
  12. 前記検出部は、前記特定領域のサイズを検出し、
    前記算出部は、前記特定領域のサイズの補正を行い、補正後の前記特定領域のサイズに基づいて前記被写体の前記優先度を算出する
    ことを特徴とする請求項10または11に記載の画像処理装置。
  13. 前記算出部は、前記特定領域のサイズの補正を行う場合に、前記被写体ごとに算出される補正パラメータを用いる
    ことを特徴とする請求項12に記載の画像処理装置。
  14. 前記特定領域は、前記被写体の顔領域または頭部領域である
    ことを特徴とする請求項10乃至13のいずれか1項に記載の画像処理装置。
  15. 請求項1乃至14のいずれか1項に記載の画像処理装置と、
    撮影された前記被写体の像を光電変換する撮像素子と、を備える
    ことを特徴とする撮像装置。
  16. 被写体の画像を処理する画像処理装置にて実行される画像処理方法であって、
    前記画像から、前記被写体の特定領域の情報と、前記特定領域の情報とは異なる前記被写体に関する情報である関連情報とを検出する検出工程と、
    前記画像において複数の前記被写体が前記検出工程にて検出された場合に前記特定領域の情報及び前記関連情報に基づいて前記被写体ごとに優先度を算出する算出工程と、
    前記優先度に基づいて前記画像における主被写体を決定する決定工程と、を有する
    ことを特徴とする画像処理方法。
  17. 請求項1乃至14のいずれか1項に記載の画像処理装置の各手段としてコンピュータを機能させることを特徴とするプログラム。

JP2020026488A 2020-02-19 2020-02-19 画像処理装置、撮像装置、画像処理方法及びプログラム Pending JP2021132295A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020026488A JP2021132295A (ja) 2020-02-19 2020-02-19 画像処理装置、撮像装置、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020026488A JP2021132295A (ja) 2020-02-19 2020-02-19 画像処理装置、撮像装置、画像処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2021132295A true JP2021132295A (ja) 2021-09-09

Family

ID=77551331

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020026488A Pending JP2021132295A (ja) 2020-02-19 2020-02-19 画像処理装置、撮像装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2021132295A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7497587B2 (ja) 2020-03-24 2024-06-11 Omデジタルソリューションズ株式会社 撮像装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7497587B2 (ja) 2020-03-24 2024-06-11 Omデジタルソリューションズ株式会社 撮像装置

Similar Documents

Publication Publication Date Title
CN106575027B (zh) 摄像装置及其被摄体跟踪方法
US10506164B2 (en) Depth information obtaining method and apparatus, and image acquisition device
US7801432B2 (en) Imaging apparatus and method for controlling the same
US8818055B2 (en) Image processing apparatus, and method, and image capturing apparatus with determination of priority of a detected subject and updating the priority
US10306133B2 (en) Image processing apparatus for generating a likelihood distribution of an object
US20100157135A1 (en) Passive distance estimation for imaging algorithms
JP6931369B2 (ja) 画像処理装置および画像処理方法、ならびに撮像装置
JP2015104016A (ja) 被写体検出装置、撮像装置、被写体検出装置の制御方法、被写体検出装置の制御プログラムおよび記憶媒体
US20120044408A1 (en) Image capturing apparatus and control method thereof
CN113141448B (zh) 摄像装置
EP3654236A2 (en) Information processing apparatus, control method of information processing apparatus, storage medium, and imaging system
CN112653835B (zh) 聚焦状态的判断方法、装置及存储介质
JP6742173B2 (ja) 焦点調節装置及び方法、及び撮像装置
CN110708463B (zh) 对焦方法、装置、存储介质及电子设备
JP5703788B2 (ja) 撮像装置、画像処理装置、画像処理プログラム
JP2021132295A (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP5127692B2 (ja) 撮像装置及びその追尾方法
JP2021132362A (ja) 被写体追尾装置、被写体追尾方法、コンピュータプログラム及び記憶媒体
US20210256306A1 (en) Image processing apparatus and control method therefor, image capturing apparatus, and storage medium
CN115037871A (zh) 控制对焦的方法、装置、电子设备及计算机可读存储介质
JP2015191074A (ja) 撮像装置
JP6210214B2 (ja) 主要被写体推定装置及びプログラム並びに情報処理装置
JP2021022783A (ja) 制御装置、追尾システム、制御方法、及びプログラム
JP2014216830A (ja) 画像追尾装置、画像追尾方法及びプログラム
CN113691731B (zh) 一种处理方法、装置和电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240502