JP7324160B2 - 撮影制御装置、撮像装置、撮影制御方法、及びプログラム - Google Patents

撮影制御装置、撮像装置、撮影制御方法、及びプログラム Download PDF

Info

Publication number
JP7324160B2
JP7324160B2 JP2020026471A JP2020026471A JP7324160B2 JP 7324160 B2 JP7324160 B2 JP 7324160B2 JP 2020026471 A JP2020026471 A JP 2020026471A JP 2020026471 A JP2020026471 A JP 2020026471A JP 7324160 B2 JP7324160 B2 JP 7324160B2
Authority
JP
Japan
Prior art keywords
subject
control
imaging
area
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020026471A
Other languages
English (en)
Other versions
JP2021132293A5 (ja
JP2021132293A (ja
Inventor
優 稲垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020026471A priority Critical patent/JP7324160B2/ja
Priority to US17/173,719 priority patent/US11455743B2/en
Publication of JP2021132293A publication Critical patent/JP2021132293A/ja
Publication of JP2021132293A5 publication Critical patent/JP2021132293A5/ja
Priority to US17/816,636 priority patent/US20220366595A1/en
Application granted granted Critical
Publication of JP7324160B2 publication Critical patent/JP7324160B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/73Colour balance circuits, e.g. white balance circuits or colour temperature control

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本発明は、撮影制御装置、撮像装置、撮影制御方法、及びプログラムに関する。
従来、被写体を検出して検出箇所で測距演算を行うことにより焦点調節を行う方法が知られている。特許文献1の技術では、検出した被写体の部位に応じて、焦点検出信号の検出方向を決定することで、被写体に応じた最適な測距を行うことができる。
特開2009-192774号公報
一般的な被写体検出処理では、検出対象の被写体が存在する領域と存在しない領域とが厳密に区別される訳ではなく、検出対象の被写体が存在しない領域(例えば背景領域)も含んだ領域が被写体領域として検出される。そのため、例えば被写体領域に基づいて焦点調節(フォーカス制御)を行った場合でも、検出対象の被写体が存在しない領域(例えば背景領域)に合焦する可能性がある。この点はフォーカス制御以外の撮影制御(例えば露光制御)を行う場合でも同様であり、被写体領域に基づいて撮影制御を行った場合でも、必ずしも検出対象の被写体に適した制御結果が得られるとは限らない。
本発明はこのような状況に鑑みてなされたものであり、検出対象の被写体を部分的に含んだ被写体検出領域に基づく撮影制御の精度を向上させる技術を提供することを目的とする。
上記課題を解決するために、本発明は、撮像データに基づいて、検出対象の被写体を含んだ被写体領域を検出する検出手段と、前記撮像データのうちの前記被写体領域に対応するデータと、前記被写体領域における前記被写体の存在確率の分布とに基づいて撮影制御を行う制御手段であって、前記撮像データのうちの第1の存在確率を持つ位置に対応するデータの寄与が、前記撮像データのうちの前記第1の存在確率より小さい第2の存在確率を持つ位置に対応するデータの寄与よりも大きくなるように前記撮影制御を行う、制御手段と、を備え、前記被写体の存在確率の分布は、前記被写体の種類および状態の少なくとも1つに応じて異なることを特徴とする撮影制御装置を提供する。
本発明によれば、検出対象の被写体を部分的に含んだ被写体検出領域に基づく撮影制御の精度を向上させることが可能となる。
なお、本発明のその他の特徴及び利点は、添付図面及び以下の発明を実施するための形態における記載によって更に明らかになるものである。
撮像制御装置を備える撮像装置10の構成を示すブロック図。 撮像素子122の撮像画素(及び焦点検出画素)の配列の概略図。 (a)図2に示した撮像素子122の1つの画素200Gを、撮像素子122の受光面側(+z側)から見た平面図、(b)図3(a)のa-a断面を-y側から見た断面図。 図3に示した本実施形態の画素構造と瞳分割との対応関係を示した概略説明図。 撮像素子122と瞳分割との対応関係を示した概略図。 第1焦点検出信号と第2焦点検出信号に基づくデフォーカス量と第1焦点検出信号と第2焦点検出信号との間の像ずれ量との概略関係図。 撮影処理のフローチャート。 被写体(検出対象)と検出領域(被写体領域)との概略関係図。 図7のS703における焦点調節処理の詳細を示すフローチャート。 第1の実施形態に係る、検出属性に応じた尤度の概略関係図。 測距領域内の優先順位設定の概略説明図。 図7のS705におけるホワイトバランス調整処理の詳細を示すフローチャート。 ホワイトバランス算出領域の設定の概略説明図。 図7のS706における露光調節処理の詳細を示すフローチャート。 露光量算出に用いる被写体領域内の重みづけの設定の概略説明図。 第2の実施形態に係る、検出属性に応じた尤度の概略図。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
[第1の実施形態]
(撮像装置10の構成)
図1は、撮像制御装置を備える撮像装置10の構成を示すブロック図である。図1の例においては、撮像装置10は、レンズ交換可能な一眼レフタイプのデジタルカメラである。撮像装置10は、レンズユニット100(交換レンズ)とカメラ本体120とを有するカメラシステムの形態を持つ。レンズユニット100は、図1において点線で示されるマウントMを介して、カメラ本体120と着脱可能に取り付けられる。但し、本実施形態は、図1に示す構成に限定されるものではなく、レンズユニット(撮像光学系)とカメラ本体とが一体的に構成された撮像装置(デジタルカメラ)にも適用可能である。また、本実施形態は、デジタルカメラに限定されるものではなく、ビデオカメラなど他の撮像装置にも適用可能である。
レンズユニット100は、光学系としての第1レンズ群101、絞り102、第2レンズ群103、フォーカスレンズ群(以下、単に「フォーカスレンズ」という)104、及び、駆動/制御系とを有する。このようにレンズユニット100は、フォーカスレンズ104を含み、被写体像を形成する撮影レンズ(撮像光学系)である。
第1レンズ群101は、レンズユニット100の先端に配置され、光軸方向OAに進退可能に保持される。絞り102は、その開口径を調節することで撮影時の光量調節を行い、また静止画撮影時においては露光秒時調節用シャッタとして機能する。絞り102及び第2レンズ群103は、一体的に光軸方向OAに移動可能であり、第1レンズ群101の進退動作との連動によりズーム機能を実現する。フォーカスレンズ104は、光軸方向OAに移動可能であり、その位置に応じてレンズユニット100が合焦する被写体距離(合焦距離)が変化する。フォーカスレンズ104の光軸方向OAにおける位置を制御することにより、レンズユニット100の合焦距離を調節する焦点調節(フォーカス制御)が可能である。
駆動/制御系は、ズームアクチュエータ111、絞りアクチュエータ112、フォーカスアクチュエータ113、ズーム駆動回路114、絞り駆動回路115、フォーカス駆動回路116、レンズMPU117、及び、レンズメモリ118を有する。ズーム駆動回路114は、ズームアクチュエータ111を用いて第1レンズ群101や第2レンズ群103を光軸方向OAに駆動し、レンズユニット100の光学系の画角を制御する(ズーム操作を行う)。絞り駆動回路115は、絞りアクチュエータ112を用いて絞り102を駆動し、絞り102の開口径や開閉動作を制御する。フォーカス駆動回路116は、フォーカスアクチュエータ113を用いてフォーカスレンズ104を光軸方向OAに駆動し、レンズユニット100の光学系の合焦距離を制御する(フォーカス制御を行う)。また、フォーカス駆動回路116は、フォーカスアクチュエータ113を用いてフォーカスレンズ104の現在位置(レンズ位置)を検出する位置検出部としての機能を有する。
レンズMPU117(プロセッサ)は、レンズユニット100に係る全ての演算、制御を行い、ズーム駆動回路114、絞り駆動回路115、及び、フォーカス駆動回路116を制御する。また、レンズMPU117は、マウントMを通じてカメラMPU125と接続され、コマンドやデータを通信する。例えば、レンズMPU117はフォーカスレンズ104の位置を検出し、カメラMPU125からの要求に対してレンズ位置情報を通知する。このレンズ位置情報は、フォーカスレンズ104の光軸方向OAにおける位置、光学系が移動していない状態の射出瞳の光軸方向OAにおける位置及び直径、及び、射出瞳の光束を制限するレンズ枠の光軸方向OAにおける位置及び直径などの情報を含む。またレンズMPU117は、カメラMPU125からの要求に応じて、ズーム駆動回路114、絞り駆動回路115、及び、フォーカス駆動回路116を制御する。レンズメモリ118は、自動焦点調節(AF制御)に必要な光学情報を記憶している。カメラMPU125は、例えば内蔵の不揮発性メモリやレンズメモリ118に記憶されているプログラムを実行することにより、レンズユニット100の動作を制御する。
カメラ本体120は、光学的ローパスフィルタ121、撮像素子122、及び、駆動/制御系を有する。光学的ローパスフィルタ121及び撮像素子122は、レンズユニット100を介して形成された被写体像(光学像)を光電変換し、画像データを出力する撮像部(撮像部)として機能する。本実施形態において、撮像素子122は、撮影光学系を介して形成された被写体像を光電変換し、画像データとして、撮像信号及び焦点検出信号をそれぞれ出力する。また本実施形態において、第1レンズ群101、絞り102、第2レンズ群103、フォーカスレンズ104、及び、光学的ローパスフィルタ121は、撮像光学系を構成する。
光学的ローパスフィルタ121は、撮影画像の偽色やモアレを軽減する。撮像素子122は、CMOSイメージセンサ及びその周辺回路で構成され、横方向m画素、縦方向n画素(m、nは2以上の整数)が配置されている。本実施形態の撮像素子122は焦点検出素子の役割も果たし、瞳分割機能を有し、画像データ(画像信号)を用いた位相差検出方式の焦点検出(位相差AF)が可能な瞳分割画素を有する。画像処理回路124は、撮像素子122から出力される画像データに基づいて、位相差AF用のデータと、表示、記録、及び、被写体検出用の画像データとを生成する。
駆動/制御系は、撮像素子駆動回路123、画像処理回路124、カメラMPU125、表示器126、操作スイッチ群(操作SW)127、メモリ128、位相差AF部129(撮像面位相差焦点検出部、撮影条件演算部)、AE部130(撮影条件演算部)、ホワイトバランス調整部131(撮影条件演算部)、及び被写体検出部132(検出部)を有する。撮像素子駆動回路123は、撮像素子122の動作を制御するとともに、撮像素子122から出力された画像信号(画像データ)をA/D変換し、カメラMPU125に送信する。画像処理回路124は、撮像素子122から出力された画像信号に対して、γ変換、色補間処理、圧縮符号化処理など、デジタルカメラで行われる一般的な画像処理を行う。また画像処理回路124は、位相差AF用の信号、AE用の信号、ホワイトバランス調整用の信号、及び、被写体検出用の信号を生成する。本実施形態では、位相差AF用の信号、AE用の信号、ホワイトバランス調整用の信号、及び、被写体検出用の信号をそれぞれ生成しているが、例えばAE用の信号、ホワイトバランス調整用の信号、被写体検出用の信号を共通の信号として生成してもよい。また、共通とする信号の組み合わせはこの限りではない。
カメラMPU125(プロセッサ、制御装置)は、カメラ本体120に係る全ての演算及び制御を行う。即ちカメラMPU125は、撮像素子駆動回路123、画像処理回路124、表示器126、操作スイッチ群127、メモリ128、位相差AF部129、AE部130、ホワイトバランス調整部131、及び、被写体検出部132を制御する。カメラMPU125は、マウントMの信号線を介してレンズMPU117と接続され、レンズMPU117とコマンドやデータを通信する。カメラMPU125は、レンズMPU117に対して、レンズ位置の取得や所定の駆動量でのレンズ駆動要求を発行し、また、レンズMPU117からレンズユニット100に固有の光学情報の取得要求などを発行する。
カメラMPU125には、カメラ本体120の動作を制御するプログラムを格納したROM125a、変数を記憶するRAM125b(カメラメモリ)、及び、各種のパラメータを記憶するEEPROM125cが内蔵されている。またカメラMPU125は、ROM125aに格納されているプログラムに基づいて、焦点検出処理を実行する。焦点検出処理においては、撮像光学系の互いに異なる瞳領域(瞳部分領域)を通過した光束により形成される光学像を光電変換した対の像信号を用いて、公知の相関演算処理が実行される。
表示器126はLCDなどから構成され、撮像装置10の撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像、焦点検出時の合焦状態表示画像などを表示する。操作スイッチ群127は、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチなどで構成される。メモリ128(記録部)は、着脱可能なフラッシュメモリであり、撮影済み画像を記録する。
位相差AF部129は、撮像素子122及び画像処理回路124から得られる焦点検出用画像データの像信号(位相差AF用の信号)に基づいて、位相差検出方式による焦点検出処理を行う。より具体的には、画像処理回路124は、撮像光学系の一対の瞳領域を通過する光束で形成される一対の像データを焦点検出用データとして生成し、位相差AF部129は、一対の像データのずれ量に基づいて焦点ずれ量を検出する。このように、本実施形態の位相差AF部129は、専用のAFセンサを用いず、撮像素子122の出力に基づく位相差AF(撮像面位相差AF)を行う。本実施形態において、位相差AF部129は、取得部129a及び算出部129bを有する。これらの各部の動作については後述する。
なお、位相差AF部129の少なくとも一部(取得部129a又は算出部129bの一部)を、カメラMPU125に設けてもよい。位相差AF部129の動作の詳細については後述する。位相差AF部129は、焦点検出結果を用いてフォーカスレンズ104の位置を制御するフォーカス制御部として機能する。
AE部130は、撮像素子122及び画像処理回路124から得られるAE用の信号に基づいて測光を行うことで、撮影条件を適切にする露光調整処理を行う。具体的には、AE用の信号に基づいて測光を行い、設定中の絞り値、シャッタスピード、ISO感度での露光量を算出する。算出した露光量と、予め定められた適正露光量との差から、撮影時に設定する適切な絞り値、シャッタスピード、ISO感度を演算し撮影条件として設定することで露光調整処理を行う。AE部130は、測光結果を用いて撮影時の露光条件を算出し、絞り102の絞り値、シャッタスピード、ISO感度を制御する露光調整部として機能する。
ホワイトバランス調整部131は、撮像素子122及び画像処理回路124から得られるホワイトバランス調整用の信号に基づいてホワイトバランス調整処理を行う。具体的には、ホワイトバランス調整用の信号のホワイトバランスを算出し、予め定められた適切なホワイトバランスとの差に基づいて、色の重みを調整することで、ホワイトバランス調整処理を行う。
被写体検出部132は、画像処理回路124により生成される被写体検出用の信号に基づいて、被写体検出処理を行う。被写体検出処理により、被写体の種類や状態(検出属性)、被写体の位置と大きさ(検出領域)が検出される。なお、被写体検出部132の動作の詳細については後述する。
このように、本実施形態の撮像装置10は、位相差AF、測光(露光調整)、ホワイトバランス調整と、被写体検出を組み合わせて実行可能であり、被写体検出の結果に応じて、位相差AF、測光、ホワイトバランス調整を行う位置(像高範囲)を選択することができる。
(撮像素子122の構成)
図2は、撮像素子122の撮像画素(及び焦点検出画素)の配列の概略図である。図2は、本実施形態の2次元CMOSセンサー(撮像素子122)の画素(撮像画素)配列を4列×4行の範囲で、焦点検出画素配列を8列×4行の範囲で示したものである。第1の実施形態において、図2に示した2列×2行の画素群200は、R(赤)の分光感度を有する画素200Rが左上に、G(緑)の分光感度を有する画素200Gが右上と左下に、B(青)の分光感度を有する画素200Bが右下に配置されている。更に、各画素は2列×1行に配列された第1焦点検出画素201と第2焦点検出画素202により構成されている。
図2に示した4列×4行の画素(8列×4行の焦点検出画素)を面上に多数配置し、撮像画像(焦点検出信号)の取得を可能としている。本実施形態では、画素の周期Pが4μm、画素数Nが横5575列×縦3725行=約2075万画素、焦点検出画素の列方向周期PAFが2μm、焦点検出画素数NAFが横11150列×縦3725行=約4150万画素であるものとする。
図3(a)は、図2に示した撮像素子122の1つの画素200Gを、撮像素子122の受光面側(+z側)から見た平面図であり、図3(b)は、図3(a)のa-a断面を-y側から見た断面図である。
図3に示すように、本実施形態の画素200Gでは、各画素の受光側に入射光を集光するためのマイクロレンズ305が形成され、x方向にNH分割(2分割)、y方向にNV分割(1分割)された光電変換部301と光電変換部302が形成される。光電変換部301と光電変換部302が、それぞれ、第1焦点検出画素201と第2焦点検出画素202に対応する。
光電変換部301と光電変換部302は、p型層とn型層の間にイントリンシック層を挟んだpin構造フォトダイオードであってもよいし、必要に応じて、イントリンシック層を省略し、pn接合フォトダイオードであってもよい。各画素には、マイクロレンズ305と、光電変換部301及び光電変換部302との間に、カラーフィルター306が形成される。また、必要に応じて、副画素毎にカラーフィルター306の分光透過率を変えてもよいし、カラーフィルター306を省略してもよい。
図3に示した画素200Gに入射した光は、マイクロレンズ305により集光され、カラーフィルター306で分光されたのち、光電変換部301と光電変換部302で受光される。光電変換部301と光電変換部302では、受光量に応じて電子とホールが対生成され、空乏層で分離された後、負電荷の電子はn型層(不図示)に蓄積される。一方、ホールは定電圧源(不図示)に接続されたp型層を通じて撮像素子122の外部へ排出される。光電変換部301と光電変換部302のn型層(不図示)に蓄積された電子は、転送ゲートを介して、静電容量部(FD)に転送され、電圧信号に変換される。
図4は、図3に示した本実施形態の画素構造と瞳分割との対応関係を示した概略説明図である。図4には、図3(a)に示した本実施形態の画素構造のa-a断面を+y側から見た断面図と撮像素子122の瞳面(瞳距離Ds)とが示されている。図4では、撮像素子122の瞳面の座標軸と対応を取るために、断面図のx軸とy軸を図3に対して反転させている。
図4において、第1焦点検出画素201の第1瞳部分領域501は、重心が-x方向に偏心している光電変換部301の受光面と、マイクロレンズによって、概ね、共役関係になっており、第1焦点検出画素201で受光可能な瞳領域を表している。第1焦点検出画素201の第1瞳部分領域501は、瞳面上で+X側に重心が偏心している。図4で、第2焦点検出画素202の第2瞳部分領域502は、重心が+x方向に偏心している光電変換部302の受光面と、マイクロレンズによって、概ね、共役関係になっており、第2焦点検出画素202で受光可能な瞳領域を表している。第2焦点検出画素202の第2瞳部分領域502は、瞳面上で-X側に重心が偏心している。また、図4で、瞳領域500は、光電変換部301と光電変換部302(第1焦点検出画素201と第2焦点検出画素202)を全て合わせた際の画素200G全体で受光可能な瞳領域である。
撮像面位相差AFでは、撮像素子のマイクロレンズを利用して瞳分割するため回折の影響を受ける。図4で、撮像素子の瞳面までの瞳距離が数10mmであるのに対し、マイクロレンズの直径は数μmである。そのため、マイクロレンズの絞り値が数万となり、数10mmレベルの回折ボケが生じる。よって、光電変換部の受光面の像は、明瞭な瞳領域や瞳部分領域とはならずに、受光感度特性(受光率の入射角分布)となる。
図5は、撮像素子122と瞳分割との対応関係を示した概略図である。撮像面600に撮像素子122が配置される。第1瞳部分領域501と第2瞳部分領域502の異なる瞳部分領域を通過した光束は、撮像素子122の各画素に、それぞれ、異なる角度で入射し、2×1分割された第1焦点検出画素201と第2焦点検出画素202で受光される。本実施形態は、瞳領域が水平方向に2つに瞳分割されている例である。必要に応じて、垂直方向に瞳分割を行ってもよい。
本実施形態の撮像素子122では、第1焦点検出画素201と、第2焦点検出画素202とを有する撮像画素が複数配列されている。第1焦点検出画素201は、撮影光学系の第1瞳部分領域501を通過する光束を受光する。また、第2焦点検出画素202は、第1瞳部分領域501と異なる撮影光学系の第2瞳部分領域502を通過する光束を受光する。また、撮像画素は、撮影光学系の第1瞳部分領域501と第2瞳部分領域502を合わせた瞳領域を通過する光束を受光する。
本実施形態の撮像素子122では、それぞれの撮像画素が第1焦点検出画素201と第2焦点検出画素202から構成されている。必要に応じて、撮像画素と第1焦点検出画素201、第2焦点検出画素202を個別の画素構成とし、撮像画素配列の一部に、第1焦点検出画素201と第2焦点検出画素202を部分的に配置する構成としてもよい。
本実施形態では、撮像素子122の各画素の第1焦点検出画素201の受光信号を集めて第1焦点信号を生成し、各画素の第2焦点検出画素202の受光信号を集めて第2焦点信号を生成して焦点検出を行う。また、撮像素子122の画素毎に、第1焦点検出画素201と第2焦点検出画素202の信号を加算することで、有効画素数Nの解像度の撮像信号(撮像画像)を生成する。各信号の生成方法は、前述の方法に限らず、例えば、第2焦点検出信号は、撮像信号と第1焦点信号の差分から生成してもよい。
(デフォーカス量と像ずれ量の関係)
以下、本実施形態の撮像素子122により取得される第1焦点検出信号と第2焦点検出信号に基づくデフォーカス量と像ずれ量の関係について説明する。
図6は、第1焦点検出信号と第2焦点検出信号に基づくデフォーカス量と第1焦点検出信号と第2焦点検出信号との間の像ずれ量との概略関係図である。撮像面600に撮像素子122が配置される。図4及び図5と同様に、撮像素子122の瞳面が、第1瞳部分領域501と第2瞳部分領域502とに2分割される。
デフォーカス量dは、被写体の結像位置から撮像面までの距離を大きさ|d|とし、被写体の結像位置が撮像面より被写体側にある前ピン状態を負符号(d<0)として定義される。また、被写体の結像位置が撮像面より被写体の反対側にある後ピン状態を正符号(d>0)として定義される。被写体の結像位置が撮像面(合焦位置)にある合焦状態において、d=0である。図6において、被写体601は合焦状態(d=0)の例を示しており、被写体602は前ピン状態(d<0)の例を示している。前ピン状態(d<0)と後ピン状態(d>0)を合わせて、デフォーカス状態(|d|>0)とする。
前ピン状態(d<0)では、被写体602からの光束のうち、第1瞳部分領域501(第2瞳部分領域502)を通過した光束は、一度、集光した後、光束の重心位置G1(G2)を中心として幅Γ1(Γ2)に広がり、撮像面600でボケた像となる。ボケた像は、撮像素子122に配列された各画素を構成する第1焦点検出画素201(第2焦点検出画素202)により受光され、第1焦点検出信号(第2焦点検出信号)が生成される。よって、第1焦点検出信号(第2焦点検出信号)は、撮像面600上の重心位置G1(G2)に、被写体602が幅Γ1(Γ2)にボケた被写体像として記録される。被写体像のボケ幅Γ1(Γ2)は、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね、比例して増加していく。同様に、第1焦点検出信号と第2焦点検出信号との間の被写体像の像ずれ量p(=光束の重心位置の差G1-G2)の大きさ|p|も、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね、比例して増加していく。後ピン状態(d>0)でも、第1焦点検出信号と第2焦点検出信号との間の被写体像の像ずれ方向が前ピン状態と反対となるが、同様である。
第1焦点検出信号と第2焦点検出信号、又は、第1焦点検出信号と第2焦点検出信号とを加算した撮像信号のデフォーカス量の大きさが増加するのに伴い、第1焦点検出信号と第2焦点検出信号との間の像ずれ量の大きさが増加する。従って、本実施形態で位相差AF部129は、撮像信号のデフォーカス量の大きさが増加するのに伴って第1焦点検出信号と第2焦点検出信号との間の像ずれ量の大きさが増加する関係性を利用し、基線長に基づいて算出された変換係数により、像ずれ量を検出デフォーカス量に変換する。
(撮影処理の流れ)
図7は、撮影処理のフローチャートである。この撮影処理は、カメラMPU125によって実行される。また、必要に応じてレンズMPU117が処理の一部を分担する。
S701で、カメラMPU125は、撮像素子122により生成された撮像データ(例えば、ライブビュー撮影により得られたデータ)に基づいて、被写体検出部132を制御し被写体検出を実行する。以下、本実施形態の被写体検出部132により検出される被写体の種類及び状態(属性)、並びに被写体の位置及び大きさ(被写体領域)について説明する。
図8は、被写体(検出対象)と検出領域(被写体領域)との概略関係図である。図8において被写体領域801~806は、被写体検出部132が検出した被写体領域である。図8から理解できるように、被写体領域は、検出対象の被写体(犬や鳥など)を部分的に含んだ領域である。換言すると、被写体領域は、検出対象の被写体を含まない領域(例えば背景領域)も含んでいる。即ち、本実施形態において「被写体検出」又は「被写体を検出する」のように言う場合、厳密に特定の被写体のみを含んだ領域が検出される訳ではなく、検出対象の被写体を部分的に含んだ領域が検出される。
各被写体の属性(種類及び状態)、並びに被写体領域の位置及び大きさは、表1のように表される。被写体検出部132は、画像処理回路124により生成される被写体検出用の信号に基づいて、被写体の属性及び被写体領域の検出を行う。
Figure 0007324160000001
図8の例では、1つの被写体検出用の信号から複数の被写体に関する属性及び被写体領域が検出されている。しかしながら、被写体検出部132は、主被写体である可能性が最も高い被写体の属性及び被写体領域のみを検出してもよい。また、ここでは、属性が種類及び状態を含むものとしたが、その限りではなく、属性は種類及び状態のいずれか一方のみであってもよいし、別の指標を含んでいてもよい。また、本実施形態では、犬や鳥の全身、車や飛行機の全体を被写体の種類として検出するものしたが、犬や鳥の顔や瞳などの特定部位や、車や飛行機の運転者や運転者の頭部などの特定部分を検出してもよい。
以下の説明において、「検出属性」は、被写体検出部132が検出対象とする属性を意味する。例えば、被写体検出部132が船を検出対象としない場合、船という被写体の種類は属性ではあるが、検出属性ではない。このように、厳密に言えば「検出属性」と「属性」とは同一ではない。しかしながら、以下の説明においては、原則として検出対象外の属性を考慮する必要はないため、特に断らない限り、「検出属性」と「属性」とを厳密には区別せず、「検出属性」を単に「属性」と呼ぶ場合もある。
図7に戻り、S702で、カメラMPU125は、S701で検出された被写体の中から主被写体を選択する。主被写体は、予め定められた検出属性(種類、状態)及び被写体領域(位置、大きさ)の優先順位に応じて選択(決定)される。例えば、撮影頻度の高い属性ほど優先順位を高く設定することができる。例えば、種類については、人、犬、鳥、車、飛行機の順、状態については、走り、飛行、静止の順に優先順位を高く設定する。また、位置については、中央像高ほど優先順位を高く設定し、大きさについては、大きいものほど優先順位を高く設定する。
S703で、カメラMPU125は、位相差AF部129を制御し焦点調節(フォーカス制御)を実行する。焦点調節の詳細については後述する。
S704で、カメラMPU125は、合焦判定を実施する。合焦と判定された場合、処理はS705へ進み、合焦でないと判定された場合、処理はS701へ戻る。
S705で、カメラMPU125は、ホワイトバランス調整部131を制御しホワイトバランス調整(ホワイトバランス制御)を実行する。ホワイトバランス調整の詳細については後述する。
S706で、カメラMPU125は、AE部130を制御し露光調節(露光制御)を実行する。露光調節の詳細については後述する。
S707で、カメラMPU125は、本撮影(記録用画像の撮影)を実行する。
(S703の焦点調節処理の詳細)
図9は、図7のS703における焦点調節処理の詳細を示すフローチャートである。なお、図9の処理は、カメラMPU125により制御される位相差AF部129によって実行される。
S901で、位相差AF部129は、S701~S702で検出した主被写体の被写体検出結果(検出属性及び被写体領域)を取得する。
S902で、位相差AF部129は、S901で取得した被写体領域の中心位置を基準に測距領域を設定する。中心位置を基準に測距領域を設定することで、同時に演算可能な測距点数が限られていた場合においても、主被写体近傍の測距結果を高密度に得ることができる。そして、得られた測距結果の中から最適な測距結果を選択することで、主被写体へ適切に合焦させることが可能となる。
S903で、位相差AF部129は、S902で設定した測距領域内の各測距点のデフォーカス量を算出する。
S904で、位相差AF部129(尤度設定部)は、S901で取得した検出属性に応じた尤度をカメラMPU125(尤度記憶部)より取得する。なお、ここではカメラMPU125に尤度が記憶されているものとしたが、本実施形態はその限りではない。例えば、位相差AF部129は、クラウド等に記憶した尤度を通信により取得してもよい。
ここで図10を参照して、検出属性に応じた尤度について説明する。図10は、検出属性に応じた尤度の概略関係図である。図10の符号1001~1006は、図8の被写体領域801~806に対応する検出属性(種類、状態)毎の尤度を示す。図10の符号1011~1016は、図10の尤度1001~1006の一点鎖線における尤度を表している。
図10における尤度は、S701~S702で検出した主被写体の被写体領域内の各座標において、検出属性の被写体(検出対象)が存在する確率を表している。換言すると、本実施形態における尤度は、被写体領域における被写体の存在確率の分布である。
存在確率の分布の算出方法の具体例を説明する。算出は、PC(パーソナルコンピュータ)などにより事前に行われる。まず、PCは、検出属性毎に複数シーンに対応する複数の撮像画像を取得する。そして、PCは、各撮像画像の被写体領域について、検出対象の被写体が存在する領域と存在しない領域とを識別する。そして、PCは、被写体領域内の各座標に対して、全シーン数の中で検出対象の被写体が存在したシーン数の割合を算出する。このように、統計的に被写体の存在確率の分布を算出することができる。なお、被写体領域の大きさは必ずしも一定ではない。そのため、存在確率の分布を算出する際には、例えば、各撮像画像における被写体領域の大きさを所定の大きさに正規化してもよい。
このように予め算出した存在確率の分布がカメラMPU125に記憶されており、位相差AF部129は、必要に応じてこれを取得して使用することができる。また、必要に応じて、別途算出した存在確率の分布を、PCやクラウド等から取得して後からカメラMPU125に記憶したり、予め記憶しておいた存在確率の分布を更新(変更)したりしてもよい。また、検出した被写体の属性が変わる度に、クラウドに記憶した確率分布を、クラウドから通信により取得してもよい。また、本実施形態では、被写体領域の形状が矩形であるものとしたが、その限りではなく、円形や台形等であってもよい。
被写体の属性に応じた、確率分布の特徴の例について説明する。図10の尤度1001は、被写体領域の中心ほど確率が高く、周辺ほど低くなっている。これは、静止している犬でも様々な体勢があり、中心はほとんどの場合犬であるが、周辺は背景や障害物である場合があるためである。
一方、図10の尤度1002は、被写体領域の上側ほど被写体確率が高く、下側ほど低くなっている。これは、静止している犬とは違い、走っている犬では、脚付近が背景となる場合が多く、また、信号取得タイミングによって脚の位置が違っているため、下側は犬でない場合が多くなるためである。
また、図10の尤度1003は、尤度1001よりも、被写体領域の周辺で被写体確率が低くなる度合いが大きくなっている。これは、同じ静止状態でも、犬と鳥とで形状が異なり、鳥の方が周辺に背景を含む場合が多くなるためである。
図10の尤度1004は、被写体領域の中心の確率が他の検出属性に比べて低く、更に周辺ほど低くなっている。飛行している鳥は、羽ばたいている場合が多く、羽ばたいている場合には、羽の状態によって検出領域の中心が背景となる場合も少なくない。そのため、被写体領域の中心でも確率が低くなっている。
図10の尤度1005は、被写体領域の周辺の確率が他の検出属性に比べて高くなっている。車は、四角に近い形状を持つ場合が多いため、被写体領域内の大部分が車となり背景等を含む場合が少ない。そのため、検出領域の周辺でも被写体確率が高くなっている。
図10の尤度1006は、被写体領域の周辺で確率が低くなる度合いが大きくなっている。飛行機は本体に翼等が付いているため、複雑な形状をしている。そのため、被写体領域の周辺に背景等を含みやすくなっており、被写体領域の周辺で確率が低くなる度合いが大きくなっている。
このように、検出属性(種類、状態)によって、被写体領域内の被写体の存在確率の分布状態は異なる。そのため、撮像装置10は、予め属性毎に決定された複数の存在確率の分布を保持し、実際に検出された被写体の属性に応じた分布に基づいて、被写体領域に含まれる被写体の存在確率の分布を取得することができる。これにより、被写体に適した測距結果の選択を行うことができる。
図9に戻り、S905で、位相差AF部129(領域設定部)は、S904で取得した尤度(存在確率の分布)に応じて、測距領域内の優先順位を設定する。
図11を参照して、本実施形態における、測距領域内の優先順位の設定について説明する。図11は、測距領域内の優先順位設定の概略説明図である。図11の符号1101~1103は、図8の被写体領域801に対して、図9のS904で取得した確率分布に基づいて設定した、測距領域内の第1領域~第3領域を表している。図11の符号1111~1113は、図8の被写体領域802に対して、図9のS904で取得した確率分布に基づいて設定した、測距領域内の第1領域~第3領域を表している。図11の符号1100_n及び1110_nは、S902で設定した測距領域内の測距点である。従って、撮像データのうちの第1領域に対応するデータに基づいて、第1領域の複数の位置に対応する複数のデフォーカス量(第1の複数のデフォーカス量)が算出される。同様に、撮像データのうちの第2領域に対応するデータに基づいて、第2領域の複数の位置に対応する複数のデフォーカス量(第2の複数のデフォーカス量)が算出される。更に、撮像データのうちの第3領域に対応するデータに基づいて、第3領域の複数の位置に対応する複数のデフォーカス量(第3の複数のデフォーカス量)が算出される。
位相差AF部129は、存在確率がX1%以上(確率閾値以上)となる領域を第1領域、被写体領域内で存在確率がX1%未満(確率閾値未満)となる領域を第2領域、被写体領域外の測距領域を第3領域として識別する。そして、位相差AF部129は、第1領域から順に優先順位を高く設定している。
なお、本実施形態では、X1%を閾値として、被写体領域内に第1領域及び第2領域を設定したが、その限りではない。また本実施形態では、測距領域内に第1領域~第3領域の3段階で優先順位を設定したがその限りではなく、2段階であってもよいし、4段階以上であってもよい。
図9に戻り、S906で、位相差AF部129は、S905で設定した優先順位に応じて、測距点を選択する。測距点の選択のために、位相差AF部129は、まず、最も優先順位の高い第1領域内の測距点の中で、デフォーカス量の信頼度が閾値以上(信頼度閾値以上)の測距点が存在するか否かを判定する。存在する場合、位相差AF部129は、信頼度が閾値以上のデフォーカス量の中で最至近のデフォーカス量を持つ測距点を選択する。換言すると、位相差AF部129は、第1領域の複数の位置に対応する複数のデフォーカス量(第1の複数のデフォーカス量)の中から、信頼度閾値以上の信頼度を持つ第1のデフォーカス量(例えば最至近のデフォーカス量)を選択する。
一方、第1領域内に閾値以上の信頼度を持つデフォーカス量が存在しない場合、位相差AF部129は、2番目に優先順位の高い第2領域の測距点の中で、デフォーカス量の信頼度が閾値以上の測距点が存在するか否かを判定する。存在する場合、位相差AF部129は、信頼度が閾値以上のデフォーカス量の中で最至近のデフォーカス量を持つ測距点を選択する。換言すると、位相差AF部129は、第2領域の複数の位置に対応する複数のデフォーカス量(第2の複数のデフォーカス量)の中から、信頼度閾値以上の信頼度を持つ第2のデフォーカス量(例えば最至近のデフォーカス量)を選択する。
第2領域内にも閾値以上の信頼度を持つデフォーカス量が存在しない場合、位相差AF部129は、第3領域の測距点の中で、閾値以上の信頼度を持つデフォーカス量のうちの最至近のデフォーカス量を持つ測距点を選択する。換言すると、位相差AF部129は、第3領域の複数の位置に対応する複数のデフォーカス量(第3の複数のデフォーカス量)の中から、信頼度閾値以上の信頼度を持つ第3のデフォーカス量(例えば最至近のデフォーカス量)を選択する。
このように、優先順位の高い領域の中から優先して測距点を選択することで、検出対象の被写体が存在する確率の高い領域における測距点を選択することができる。従って、被写体領域内に、検出対象の被写体が存在しない領域が含まれる場合においても、検出対象の被写体に対して適切な測距を行うことが可能となる。
S907で、位相差AF部129は、S906で選択した測距点が持つデフォーカス量に基づいて、フォーカスレンズ駆動量を算出する。
S908で、位相差AF部129は、S907で算出したフォーカスレンズ駆動量に基づいて、フォーカスレンズ104を駆動するための制御を行う。
(S705のホワイトバランス調整処理の詳細)
図12は、図7のS705におけるホワイトバランス調整処理の詳細を示すフローチャートである。なお、図12の処理は、カメラMPU125により制御されるホワイトバランス調整部131によって実行される。
S1201で、ホワイトバランス調整部131は、S701~S702で検出した主被写体の被写体検出結果(検出属性及び被写体領域)を取得する。
S1202で、ホワイトバランス調整部131(尤度設定部)は、S1201で取得した検出属性に応じた尤度(存在確率の分布)をカメラMPU125(尤度記憶部)より取得する。なお、ここではカメラMPU125に尤度が記憶されているものとしたが、本実施形態はその限りではない。例えば、ホワイトバランス調整部131は、クラウド等に記憶した尤度を通信により取得してもよい。
S1203で、ホワイトバランス調整部131(領域設定部)は、S1201で取得した尤度に応じて、以下に説明する第1領域を識別し、第1領域をホワイトバランス算出領域として設定する。
図13を参照して、本実施形態における、ホワイトバランス算出領域の設定について説明する。図13は、ホワイトバランス算出領域の設定の概略説明図である。図13の符号1301及び1302は、図8の被写体領域801に対して、図12のS1202で取得した確率分布に基づいて設定した、被写体領域内の第1領域及び第2領域を表している。図13の符号1311及び1312は、図8の被写体領域802に対して、図12のS1202で取得した確率分布に基づいて設定した、被写体領域内の第1領域及び第2領域を表している。
ホワイトバランス調整部131は、存在確率がX1%以上(確率閾値以上)となる領域を第1領域として識別し、存在確率がX1%未満(確率閾値未満)となる領域を第2領域として識別する。
本実施形態では、X1%を閾値として、被写体領域内に第1領域及び第2領域を設定したが、その限りではない。また本実施形態では、第1領域及び第2領域の2段階で被写体領域を分割したがその限りではなく、3段階以上であってもよい。
また、本実施形態では、第1領域をホワイトバランス算出領域として設定したが、第1領域を優先するように第1領域及び第2領域それぞれに重みをつけて、被写体領域全体をホワイトバランス算出領域として設定してもよい。
図12に戻り、S1204で、ホワイトバランス調整部131は、S1203で設定したホワイトバランス算出領域内のホワイトバランスを算出する。
S1205で、ホワイトバランス調整部131は、予め定められた適切なホワイトバランスを取得する。
S1206で、ホワイトバランス調整部131は、S1204で算出したホワイトバランスと、S1205で取得したホワイトバランスとの差を演算し、撮像データ(撮像信号)に対するホワイトバランスを調整する。
(S706の露光調節処理の詳細)
図14は、図7のS706における露光調節処理の詳細を示すフローチャートである。なお、図14の動作は、カメラMPU125により制御されるAE部130によって実行される。
S1401で、AE部130は、S701~S702で検出した主被写体の被写体検出結果(検出属性及び被写体領域)を取得する。
S1402で、AE部130(尤度設定部)は、S1401で取得した検出属性に応じた尤度(存在確率の分布)をカメラMPU125(尤度記憶部)より取得する。なお、ここではカメラMPU125に尤度が記憶されているものとしたが、本実施形態はその限りではない。例えば、AE部130は、クラウド等に記憶した尤度を通信により取得してもよい。
S1403で、AE部130(領域設定部)は、S1402で取得した尤度に応じて、露光量算出に用いる被写体領域内の重みづけを設定する。
図15を参照して、本実施形態における、露光量算出に用いる被写体領域内の重みづけの設定について説明する。図15は、露光量算出に用いる被写体領域内の重みづけの設定の概略説明図である。
図15に示す通り、露光量算出に用いる被写体領域内の重みづけのために、AE部130は、図14のS1402で取得した確率分布をそのまま重み係数として設定する。
図14に戻り、S1404で、AE部130は、S1403で設定した被写体領域内の重み係数により被写体領域内の測光結果を重みづけして露光量を算出する。従って、ここでの露光調節(露光制御)は、被写体領域の各位置における被写体の存在確率を撮像データのうちの各位置に対応するデータの重み係数として用いる演算を含む。
S1405で、AE部130は、予め定められた適切な露光量を取得する。
S1406で、AE部130は、S1404で算出した露光量と、S1405で取得した露光量との差を演算し、撮影時の露光条件を調整する。
以上説明したように、第1の実施形態によれば、撮像装置10は、撮像データに基づいて、検出対象の被写体を部分的に含んだ被写体領域を検出する。そして、撮像装置10は、撮像データのうちの被写体領域に対応するデータと被写体領域における被写体の存在確率の分布とに基づいて撮影制御を行う。その際に、撮像装置10は、第1の存在確率を持つ位置に対応するデータの寄与が第1の存在確率より小さい第2の存在確率を持つ位置に対応するデータの寄与よりも大きくなるように撮影制御を行う。そのような撮影制御の具体例として、図9に示す焦点調節(フォーカス制御)、図12に示すホワイトバランス調整(ホワイトバランス制御)、図14に示す露光調節(露光制御)などがあるが、本実施形態の撮影制御はこれらの具体例に限定されない。
本実施形態は、上述の構成により、検出対象の被写体を部分的に含んだ被写体検出領域に基づく撮影制御の精度を向上させることが可能である。
なお、上では、撮像装置10が複数の属性(犬、鳥、など)を検出対象とし、実際に検出された被写体の属性に基づいて尤度(被写体の存在確率の分布)を取得する構成について説明した。しかしながら、撮像装置10は、特定の属性(例えば、静止している犬)のみを検出対象としてもよい。この場合、尤度についても、撮像装置10は、予め決められている特定の尤度を用いればよい。
[第2の実施形態]
第2の実施形態では、焦点調節処理における検出属性に応じた尤度に関して、第1の実施形態とは異なる構成について説明する。なお、第2の実施形態において、撮像装置10の基本的な構成は第1の実施形態と同様である(図1参照)。以下、主に第1の実施形態と異なる点について説明する。
第1の実施形態の尤度は、被写体の存在確率の分布であった。一方、第2の実施形態の尤度は、被写体領域の中心から所定距離範囲に検出対象の被写体が含まれる確率(被写体含有確率)である。ここでいう「被写体領域の中心から所定距離範囲に検出対象の被写体が含まれる」とは、被写体領域の中心から所定距離範囲内の領域の少なくとも一部に検出対象の被写体が存在するという意味である。
焦点調節で最も優先される第1領域(第1の実施形態の場合、図11の符号1101など)は、広いほど検出対象の被写体を含む確率が高くなるが、それと同時に、検出対象の被写体以外の被写体も含む確率が高くなる。そのため、第1領域の範囲は、必要最小限に(可能な限り狭く)設定することが望ましい。
本実施形態では、被写体含有確率に基づいて第1領域を設定することで、第1領域の範囲を必要最小限に設定することができ、被写体領域が検出対象の被写体以外の被写体を含む場合であっても、検出対象の被写体に対して適切な測距を行うことが可能となる。
図9を参照して、第2の実施形態に係る焦点調節処理を説明する。なお、図9の処理は、カメラMPU125により制御される位相差AF部129によって実行される。
図9において、S901~S904の処理は、第1の実施形態と同様である。但し、S904において取得される尤度の構成が第1の実施形態と異なる。
図16は、第2の実施形態に係る、検出属性に応じた尤度の概略図である。図16の符号1603及び1604は、図8の被写体領域803及び804に対応する検出属性(種類、状態)毎の尤度を表している。図16の符号1600は、後述する図9のS905で第1領域(最も優先度の高い領域)を設定する際に用いられる閾値(図9の例ではX2%)を表す。
図16における尤度は、S701~S702で検出した主被写体の被写体領域の中心から所定距離範囲に被写体(検出対象)を含む確率(被写体含有確率)を表している。横軸は、被写体領域の中心からの距離範囲を検出領域の大きさに基づいて正規化した値を示し、縦軸は、被写体領域の中心からの距離範囲に被写体が含まれる確率を表している。図16から理解できるように、本実施形態の尤度は、被写体領域の中心からの距離範囲と距離範囲内の領域の少なくとも一部に被写体が存在する確率との関係を規定する情報である。
被写体含有確率の算出方法の具体例を説明する。算出は、PC(パーソナルコンピュータ)などにより事前に行われる。まず、PCは、検出属性毎に複数シーンに対応する複数の撮像画像を取得する。そして、PCは、各撮像画像の被写体領域について、検出対象の被写体が存在する領域と存在しない領域とを識別する。そして、PCは、各撮像画像について、被写体領域の中心から所定距離範囲内に被写体(検出対象)が含まれるか否かを判定し、全シーン数の中で被写体(検出対象)が含まれていたシーン数の割合を算出することで、統計的に被写体含有確率を算出する。なお、被写体領域の大きさは必ずしも一定ではない。そのため、被写体含有確率を算出する際には、例えば、各撮像画像における被写体領域の大きさを所定の大きさに正規化してもよい。
このように予め算出した被写体含有確率がカメラMPU125に記憶されており、位相差AF部129は、必要に応じてこれを取得して使用することができる。また、必要に応じて、別途算出した被写体含有確率を、PCやクラウド等から取得して後からカメラMPU125に記憶したり、予め記憶しておいた被写体含有確率を更新(変更)したりしてもよい。また、検出した被写体の属性が変わる度に、クラウドに記憶した被写体含有確率を、クラウドから通信により取得してもよい。
検出属性に応じた被写体含有確率の特徴の例について説明する。図16の符号1603で示すように、静止している鳥の場合、被写体領域の中心からの距離範囲が0%(被写体領域の中心)でも被写体含有確率が高く、この例ではp1%ある。そして、被写体領域の中心からの距離範囲が約r1%の位置において、被写体含有確率が閾値(X2%)を超える。これは、静止している鳥については、ほとんどの場合に(X2%)、被写体領域の中心から約r1%までの距離範囲をカバーする領域に被写体(検出対象)が含まれることを表している。
一方、図16の符号1604で示すように、飛行している鳥の場合、被写体領域の中心からの距離範囲が0%(被写体領域の中心)で被写体含有確率が比較的低く、この例ではp2%である。そして、被写体領域の中心からの距離範囲が約r2%の位置において、被写体含有確率が閾値(X2%)を超える。これは、静止している鳥については、高確率で被写体を含むためには、被写体領域の中心から約r2%までの距離範囲をカバーしなければならないことを表している。
このように、検出属性(種類、状態)によって、被写体領域の中心からの距離範囲と被写体含有確率との関係は異なる。そのため、検出属性毎に被写体含有確率(尤度)を保持し、検出属性に応じた被写体含有確率を取得して使用することで、被写体(検出対象)に適した測距結果の選択を行うことができる。
図9に戻り、S905で、位相差AF部129(領域設定部)は、S904で取得した尤度(被写体含有確率)に応じて、測距領域内の優先順位を設定する。
図11の上側を参照して、本実施形態における、測距領域内の優先順位の設定について説明する。図11の符号1101~1103は、図8の被写体領域801に対して、図9のS904で取得した被写体含有確率に基づいて設定した、測距領域内の第1領域~第3領域を表している。即ち、被写体領域のうちの、被写体含有確率が閾値(例えばX2%)に到達する中心からの距離範囲をカバーする領域が、最も優先順位の高い第1領域(符号1101)として設定される。また、被写体領域のうちの、被写体含有確率が閾値(例えばX2%)より大きくなる中心からの距離範囲に対応する領域が、2番目に優先順位の高い第2領域(符号1102)として設定される。また、測距領域のうちの被写体領域外の領域が、最も優先順位の低い第3領域(符号1103)として設定される。
なお、図11の上側の例では、第1領域(符号1101)は正方形である。即ち、この例では、被写体含有確率に関する距離範囲は、水平方向(横方向)の距離範囲として規定されている。従って、画像の横:縦の比が例えば3:2の場合、図16に示す距離範囲が0.67(2/3)であっても、垂直方向(縦方向)については画像の全体が距離範囲内に含まれることになる。もちろん、距離範囲を特定の方向に制限する必要はなく、第1領域が円形になるように構成してもよい。
また、本実施形態では、X2%を閾値として、被写体領域内に第1領域及び第2領域を設定したが、その限りではない。また本実施形態では、第1領域~第3領域の3段階で優先順位を設定したがその限りではなく、2段階であってもよいし、4段階以上であってもよい。
再び図9を参照すると、S906~S908の処理は、第1の実施形態と同様である。
以上説明したように、第2の実施形態によれば、撮像装置10は、撮像データに基づいて、検出対象の被写体を部分的に含んだ被写体領域を検出する。また、撮像装置10は、被写体領域の中心からの距離範囲と距離範囲内の領域の少なくとも一部に被写体が存在する確率との関係を規定する情報に基づいて、被写体が存在する確率が閾値に到達する特定の距離範囲を識別する。そして、撮像装置10は、撮像データのうちの被写体領域に対応するデータと特定の距離範囲とに基づいて撮影制御を行う。その際に、撮像装置10は、特定の距離範囲内の位置に対応するデータの寄与が特定の距離範囲外の位置に対応するデータの寄与よりも大きくなるように撮影制御を行う。そのような撮影制御の具体例として、図9に示す焦点調節(フォーカス制御)があるが、本実施形態の撮影制御はこれらの具体例に限定されない。例えば、第1の実施形態と同様、撮影制御はホワイトバランス調整(ホワイトバランス制御)又は露光調節(露光制御)であってもよい。
本実施形態は、上述の構成により、検出対象の被写体を部分的に含んだ被写体検出領域に基づく撮影制御の精度を向上させることが可能である。
なお、上では、撮像装置10が複数の属性(犬、鳥、など)を検出対象とし、実際に検出された被写体の属性に基づいて尤度(被写体含有確率)を取得する構成について説明した。しかしながら、撮像装置10は、特定の属性(例えば、静止している犬)のみを検出対象としてもよい。この場合、尤度についても、撮像装置10は、予め決められている特定の尤度を用いればよい。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
10…撮像装置、100…レンズユニット、120…カメラ本体、122…撮像素子、125…カメラMPU、129…位相差AF部、130…AE部、131…ホワイトバランス調整部、132…被写体検出部

Claims (18)

  1. 撮像データに基づいて、検出対象の被写体を含んだ被写体領域を検出する検出手段と、
    前記撮像データのうちの前記被写体領域に対応するデータと、前記被写体領域における前記被写体の存在確率の分布とに基づいて撮影制御を行う制御手段であって、前記撮像データのうちの第1の存在確率を持つ位置に対応するデータの寄与が、前記撮像データのうちの前記第1の存在確率より小さい第2の存在確率を持つ位置に対応するデータの寄与よりも大きくなるように前記撮影制御を行う、制御手段と、
    を備え、
    前記被写体の存在確率の分布は、前記被写体の種類および状態の少なくとも1つに応じて異なることを特徴とする撮影制御装置。
  2. 予め被写体の種類及び状態の少なくとも1つ毎に統計により得られた複数の存在確率の分布のうちの、前記検出手段によって検出された被写体の種類及び状態の少なくとも1つに対応する存在確率の分布を取得する取得手段を更に備える
    ことを特徴とする請求項1に記載の撮影制御装置。
  3. 前記制御手段は、
    前記被写体領域において確率閾値以上の存在確率を持つ第1領域を識別し、前記確率閾値は前記第1の存在確率より小さく前記第2の存在確率より大きく、
    前記被写体領域に対応する前記データのうちの前記第1領域に対応する第1のデータのみに基づいて前記撮影制御を行う
    ことを特徴とする請求項1又は2に記載の撮影制御装置。
  4. 前記撮影制御は、前記被写体領域の各位置における前記被写体の存在確率を前記撮像データのうちの前記各位置に対応するデータの重み係数として用いる演算を含むことで、前記各位置に対応するデータの寄与を制御する
    ことを特徴とする請求項1乃至3のいずれか1項に記載の撮影制御装置。
  5. 前記撮影制御は、フォーカス制御、ホワイトバランス制御、又は露光制御である
    ことを特徴とする請求項1乃至のいずれか1項に記載の撮影制御装置。
  6. 前記撮影制御は、フォーカス制御であり、
    前記制御手段は、
    前記被写体領域において確率閾値以上の存在確率を持つ第1領域を識別し、前記確率閾値は前記第1の存在確率より小さく前記第2の存在確率より大きく、
    前記被写体領域に対応する前記データのうちの前記第1領域に対応する第1のデータに基づいて、前記第1領域の複数の位置に対応する第1の複数のデフォーカス量を算出し、
    前記第1の複数のデフォーカス量の中から、信頼度閾値以上の信頼度を持つ第1のデフォーカス量を選択し、
    前記第1のデフォーカス量に基づいて前記フォーカス制御を行う
    ことを特徴とする請求項1又は2に記載の撮影制御装置。
  7. 前記第1の複数のデフォーカス量の中に前記信頼度閾値以上の信頼度を持つデフォーカス量が存在しない場合、前記制御手段は、
    前記被写体領域において前記確率閾値未満の存在確率を持つ第2領域を識別し、
    前記被写体領域に対応する前記データのうちの前記第2領域に対応する第2のデータに基づいて、前記第2領域の複数の位置に対応する第2の複数のデフォーカス量を算出し、
    前記第2の複数のデフォーカス量の中から、前記信頼度閾値以上の信頼度を持つ第2のデフォーカス量を選択し、
    前記第2のデフォーカス量に基づいて前記フォーカス制御を行う
    ことを特徴とする請求項6に記載の撮影制御装置。
  8. 撮像データに基づいて、検出対象の被写体を含んだ被写体領域を検出する検出手段と、
    前記撮像データのうち前記検出手段で検出された前記被写体領域に対応するデータと、
    予め統計によって得られた前記被写体領域における前記被写体の存在確率の分布とに基づいて、撮影制御を行う制御手段であって、前記撮像データのうちで前記被写体の存在確率が第1の存在確率を持つ位置に対応するデータの方が、前記撮像データのうちで前記被写体の存在確率が前記第1の存在確率より小さい第2の存在確率を持つ位置に対応するデータよりも大きな重みが付くように前記撮影制御を行う、制御手段と、
    を備え、
    前記被写体の存在確率の分布は、前記被写体の種類および状態の少なくとも1つに応じて異なることを特徴とする撮影制御装置。
  9. 撮像データに基づいて、検出対象の被写体を含んだ被写体領域を検出する検出手段と、
    前記被写体領域の中心からの距離範囲と前記距離範囲内の領域の少なくとも一部に前記被写体が存在する確率との関係を規定する情報に基づいて、前記被写体が存在する確率が閾値に到達する特定の距離範囲を識別する識別手段と、
    前記撮像データのうちの前記被写体領域に対応するデータと、前記特定の距離範囲とに基づいて撮影制御を行う制御手段であって、前記撮像データのうちの前記特定の距離範囲内の位置に対応するデータの寄与が、前記撮像データのうちの前記特定の距離範囲外の位置に対応するデータの寄与よりも大きくなるように前記撮影制御を行う、制御手段と、
    を備えることを特徴とする撮影制御装置。
  10. 撮像手段によって撮像された撮像データに基づいて、検出対象の被写体を含んだ被写体領域を検出する検出手段と、
    前記検出手段により検出される被写体領域に存在する被写体の種類及び状態の少なくとも1つに応じた被写体の存在確率の分布に基づいて、前記撮像手段の撮影制御を行う制御手段と、
    を備え、
    前記撮影制御は、フォーカス制御であり、
    前記制御手段は、
    前記被写体領域において前記存在確率が閾値以上の値を持つ第1領域を識別し、
    前記撮像データのうちの前記第1領域に対応する第1のデータに基づいて、前記第1領域の複数の位置に対応する第1の複数のデフォーカス量を算出し、
    前記第1の複数のデフォーカス量の中から、信頼度閾値以上の信頼度を持つ第1のデフォーカス量を選択し、
    前記第1のデフォーカス量に基づいて前記フォーカス制御を行う
    ことを特徴とする撮影制御装置。
  11. 前記第1の複数のデフォーカス量の中に前記信頼度閾値以上の信頼度を持つデフォーカス量が存在しない場合、前記制御手段は、
    前記被写体領域において前記存在確率が閾値未満の値を持つ第2領域を識別し、
    前記撮像データのうちの前記第2領域に対応する第2のデータに基づいて、前記第2領域の複数の位置に対応する第2の複数のデフォーカス量を算出し、
    前記第2の複数のデフォーカス量の中から、前記信頼度閾値以上の信頼度を持つ第2のデフォーカス量を選択し、
    前記第2のデフォーカス量に基づいて前記フォーカス制御を行う
    ことを特徴とする請求項10に記載の撮影制御装置。
  12. 請求項1乃至9のいずれか1項に記載の撮影制御装置と、
    前記撮像データを生成する撮像手段と、
    を備えることを特徴とする撮像装置。
  13. 請求項10又は11に記載の撮影制御装置と、
    前記撮像手段と、
    を備えることを特徴とする撮像装置。
  14. 撮影制御装置が実行する撮影制御方法であって、
    撮像データに基づいて、検出対象の被写体を含んだ被写体領域を検出する検出工程と、
    前記撮像データのうちの前記被写体領域に対応するデータと、前記被写体領域における前記被写体の存在確率の分布とに基づいて撮影制御を行う制御工程であって、前記撮像データのうちの第1の存在確率を持つ位置に対応するデータの寄与が、前記撮像データのうちの前記第1の存在確率より小さい第2の存在確率を持つ位置に対応するデータの寄与よりも大きくなるように前記撮影制御を行う、制御工程と、
    を備え、
    前記被写体の存在確率の分布は、前記被写体の種類および状態の少なくとも1つに応じて異なることを特徴とする撮影制御方法。
  15. 撮影制御装置が実行する撮影制御方法であって、
    撮像データに基づいて、検出対象の被写体を含んだ被写体領域を検出する検出工程と、
    前記撮像データのうち前記検出工程で検出された前記被写体領域に対応するデータと、予め統計によって得られた前記被写体領域における前記被写体の存在確率の分布とに基づいて、撮影制御を行う制御工程であって、前記撮像データのうちで前記被写体の存在確率が第1の存在確率を持つ位置に対応するデータの方が、前記撮像データのうちで前記被写体の存在確率が前記第1の存在確率より小さい第2の存在確率を持つ位置に対応するデータよりも大きな重みが付くように前記撮影制御を行う、制御工程と、
    を備え、
    前記被写体の存在確率の分布は、前記被写体の種類および状態の少なくとも1つに応じて異なることを特徴とする撮影制御方法。
  16. 撮影制御装置が実行する撮影制御方法であって、
    撮像データに基づいて、検出対象の被写体を含んだ被写体領域を検出する検出工程と、
    前記被写体領域の中心からの距離範囲と前記距離範囲内の領域の少なくとも一部に前記被写体が存在する確率との関係を規定する情報に基づいて、前記被写体が存在する確率が閾値に到達する特定の距離範囲を識別する識別工程と、
    前記撮像データのうちの前記被写体領域に対応するデータと、前記特定の距離範囲とに基づいて撮影制御を行う制御工程であって、前記撮像データのうちの前記特定の距離範囲内の位置に対応するデータの寄与が、前記撮像データのうちの前記特定の距離範囲外の位置に対応するデータの寄与よりも大きくなるように前記撮影制御を行う、制御工程と、
    を備えることを特徴とする撮影制御方法。
  17. 撮影制御装置が実行する撮影制御方法であって、
    撮像手段によって撮像された撮像データに基づいて、検出対象の被写体を含んだ被写体領域を検出する検出工程と、
    前記検出工程により検出される被写体領域に存在する被写体の種類及び状態の少なくとも1つに応じた被写体の存在確率の分布に基づいて、前記撮像手段の撮影制御を行う制御工程と、
    を備え、
    前記撮影制御は、フォーカス制御であり、
    前記制御工程では、
    前記被写体領域において前記存在確率が閾値以上の値を持つ第1領域を識別し、
    前記撮像データのうちの前記第1領域に対応する第1のデータに基づいて、前記第1領域の複数の位置に対応する第1の複数のデフォーカス量を算出し、
    前記第1の複数のデフォーカス量の中から、信頼度閾値以上の信頼度を持つ第1のデフォーカス量を選択し、
    前記第1のデフォーカス量に基づいて前記フォーカス制御を行う
    ことを特徴とする撮影制御方法。
  18. コンピュータを、請求項1乃至11のいずれか1項に記載の撮影制御装置の各手段として機能させるためのプログラム。
JP2020026471A 2020-02-19 2020-02-19 撮影制御装置、撮像装置、撮影制御方法、及びプログラム Active JP7324160B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020026471A JP7324160B2 (ja) 2020-02-19 2020-02-19 撮影制御装置、撮像装置、撮影制御方法、及びプログラム
US17/173,719 US11455743B2 (en) 2020-02-19 2021-02-11 Shooting control apparatus, image capturing apparatus, shooting control method, and storage medium
US17/816,636 US20220366595A1 (en) 2020-02-19 2022-08-01 Shooting control apparatus, image capturing apparatus, shooting control method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020026471A JP7324160B2 (ja) 2020-02-19 2020-02-19 撮影制御装置、撮像装置、撮影制御方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2021132293A JP2021132293A (ja) 2021-09-09
JP2021132293A5 JP2021132293A5 (ja) 2022-07-08
JP7324160B2 true JP7324160B2 (ja) 2023-08-09

Family

ID=77273804

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020026471A Active JP7324160B2 (ja) 2020-02-19 2020-02-19 撮影制御装置、撮像装置、撮影制御方法、及びプログラム

Country Status (2)

Country Link
US (2) US11455743B2 (ja)
JP (1) JP7324160B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018113660A (ja) 2017-01-13 2018-07-19 キヤノン株式会社 情報処理装置、情報処理方法、システム
WO2019188390A1 (ja) 2018-03-29 2019-10-03 ソニー株式会社 露光制御装置、露光制御方法、プログラム、撮影装置、及び、移動体

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4998308B2 (ja) 2008-02-14 2012-08-15 株式会社ニコン 焦点調節装置および撮像装置
JP5500916B2 (ja) * 2009-08-31 2014-05-21 キヤノン株式会社 撮像装置及びその制御方法
KR101720189B1 (ko) * 2010-09-13 2017-03-27 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법
JP5822492B2 (ja) * 2011-03-15 2015-11-24 キヤノン株式会社 撮像装置及び制御方法
KR20140041890A (ko) * 2011-07-28 2014-04-04 메사추세츠 인스티튜트 오브 테크놀로지 고해상도 표면 측정 시스템 및 방법
WO2014041733A1 (ja) * 2012-09-11 2014-03-20 ソニー株式会社 撮像装置およびフォーカス制御方法
US20190215440A1 (en) * 2018-01-10 2019-07-11 Duelight Llc Systems and methods for tracking a region using an image sensor
US9167151B2 (en) * 2013-03-07 2015-10-20 Canon Kabushiki Kaisha Focus detection apparatus, focus detection method, and image capturing apparatus
JP2016142925A (ja) * 2015-02-02 2016-08-08 キヤノン株式会社 撮像装置およびその制御方法、プログラム、記憶媒体
JP6546474B2 (ja) * 2015-07-31 2019-07-17 キヤノン株式会社 撮像装置およびその制御方法
JP6742173B2 (ja) * 2016-06-30 2020-08-19 キヤノン株式会社 焦点調節装置及び方法、及び撮像装置
CN107645632B (zh) * 2016-07-21 2020-06-16 佳能株式会社 焦点调节设备、焦点调节方法、摄像设备和存储介质
JP2018036507A (ja) * 2016-08-31 2018-03-08 キヤノン株式会社 レンズ制御装置、その制御方法
EP3507765A4 (en) * 2016-09-01 2020-01-01 Duelight LLC SYSTEMS AND METHODS FOR FOCUS ADJUSTMENT BASED ON TARGET DEVELOPMENT INFORMATION
WO2018150768A1 (ja) * 2017-02-20 2018-08-23 ソニー株式会社 測光装置、測光方法、プログラムおよび撮像装置
JP6630318B2 (ja) * 2017-08-03 2020-01-15 キヤノン株式会社 焦点調節装置及び方法
US10708486B2 (en) * 2018-02-15 2020-07-07 Qualcomm Incorporated Generation of a depth-artificial image by determining an interpolated supplementary depth through interpolation based on the original depths and a detected edge
US11006038B2 (en) * 2018-05-02 2021-05-11 Qualcomm Incorporated Subject priority based image capture
US11140311B2 (en) * 2018-06-21 2021-10-05 Canon Kabushiki Kaisha Detecting apparatus and detecting method
US11115583B2 (en) * 2018-06-29 2021-09-07 Canon Kabushiki Kaisha Apparatus and method for determination of a focus detection target
JP2020020931A (ja) * 2018-07-31 2020-02-06 オリンパス株式会社 フォーカス制御装置およびフォーカス制御方法
JP2020118764A (ja) * 2019-01-21 2020-08-06 オリンパス株式会社 フォーカス制御装置およびフォーカス制御方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018113660A (ja) 2017-01-13 2018-07-19 キヤノン株式会社 情報処理装置、情報処理方法、システム
WO2019188390A1 (ja) 2018-03-29 2019-10-03 ソニー株式会社 露光制御装置、露光制御方法、プログラム、撮影装置、及び、移動体

Also Published As

Publication number Publication date
US20210256726A1 (en) 2021-08-19
US20220366595A1 (en) 2022-11-17
US11455743B2 (en) 2022-09-27
JP2021132293A (ja) 2021-09-09

Similar Documents

Publication Publication Date Title
US10212334B2 (en) Focusing adjustment apparatus and focusing adjustment method
US9438786B2 (en) Focus adjustment apparatus, focus adjustment method and program, and imaging apparatus
US9641769B2 (en) Image capture apparatus and method for controlling the same
US10321044B2 (en) Image pickup apparatus and image pickup system with point image intensity distribution calculation
US9247122B2 (en) Focus adjustment apparatus and control method therefor
JP6381266B2 (ja) 撮像装置、制御装置、制御方法、プログラム、および、記憶媒体
CN107431755B (zh) 图像处理设备、摄像设备、图像处理方法和存储介质
US11375101B2 (en) Image capturing apparatus, control method thereof, and storage medium
JP2019041178A (ja) 撮像素子およびこの撮像素子を用いた撮像装置
JP2017032646A (ja) 撮像装置及びその制御方法
JP2016057546A (ja) 撮像装置およびその制御方法
JP7324160B2 (ja) 撮影制御装置、撮像装置、撮影制御方法、及びプログラム
JP2018031969A (ja) 撮像装置及びその制御方法
US20220279113A1 (en) Focus detection device, focus detection method, and image capture apparatus
US20220159191A1 (en) Image pickup apparatus
US11729502B2 (en) Apparatus including focusing function and method of the same
JP7395326B2 (ja) レンズ装置、撮像装置、通信方法、および、プログラム
JP2021179527A (ja) 撮影制御装置、撮像装置、撮影制御方法、及びプログラム
US20220351395A1 (en) Subject tracking apparatus, image capturing apparatus, subject tracking method, and storage medium
JP2017219786A (ja) 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体
JP2022170555A (ja) 撮像装置およびその制御方法
JP2022170554A (ja) 撮像装置およびその制御方法
US20230247290A1 (en) Image capture apparatus and control method thereof
JP7242278B2 (ja) 画像処理装置およびその制御方法
JP2021152600A (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220630

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220630

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230630

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230728

R151 Written notification of patent or utility model registration

Ref document number: 7324160

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151