JP6817590B1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
JP6817590B1
JP6817590B1 JP2020126649A JP2020126649A JP6817590B1 JP 6817590 B1 JP6817590 B1 JP 6817590B1 JP 2020126649 A JP2020126649 A JP 2020126649A JP 2020126649 A JP2020126649 A JP 2020126649A JP 6817590 B1 JP6817590 B1 JP 6817590B1
Authority
JP
Japan
Prior art keywords
face
detected
subject
exposure
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020126649A
Other languages
English (en)
Other versions
JP2022023603A (ja
Inventor
幸治 橋上
幸治 橋上
剛治 澁野
剛治 澁野
隆朗 山崎
隆朗 山崎
恭輔 大須賀
恭輔 大須賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2020126649A priority Critical patent/JP6817590B1/ja
Application granted granted Critical
Publication of JP6817590B1 publication Critical patent/JP6817590B1/ja
Priority to US17/181,003 priority patent/US11394874B2/en
Publication of JP2022023603A publication Critical patent/JP2022023603A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

【課題】被写体を検出し、露出を制御する機能を有する撮像装置において、露出の変動を抑制することができる撮像装置を提供する。【解決手段】撮像装置は、被写体を撮像して画像データを生成する撮像部(115)と、画像データにおいて被写体の顔に対応する顔領域を検出する第1検出部(122)と、画像データにおいて被写体の少なくとも一部に対応する被写体領域を検出する第2検出部(124)と、画像データに関する測光により露出を制御する制御部(135)とを備える。制御部は、第1検出部によって顔領域が検出されたとき(S22でYES)、検出された顔領域の測光に応じて、露出を補正し(S25)、その後に第1検出部によって顔領域が検出されず(S22でNO)、かつ検出された顔領域の被写体に対応する被写体領域が第2検出部によって検出されたとき(S40でYES)、検出された顔領域の測光に応じた露出の補正を継続する(S45)。【選択図】図6

Description

本開示は、被写体を検出し、露出を制御する機能を有する撮像装置に関する。
特許文献1は、画像データから特定の被写体を顔検出によって検出し、検出した被写体に合わせて露出を調整する機能を有する撮像装置を開示している。特許文献1の撮像装置は、顔検出に失敗しても、前回に顔検出されてからタイマにより測定される所定時間以内である場合には、前回の顔検出時の情報に基づく露出制御値を次の撮影に利用する。これにより、特許文献1の撮像装置は、被写体が横を向いた時などに、一時的に顔検出に失敗しても、急激な露出の変化が起きることを防いでいる。
特開2008−35415号公報
本開示は、被写体を検出し、露出を制御する機能を有する撮像装置において、露出の変動を抑制することができる撮像装置を提供する。
本開示の一態様に係る撮像装置は、被写体を撮像して画像データを生成する撮像部と、画像データにおいて被写体の顔に対応する顔領域を検出する第1検出部と、画像データにおいて被写体の少なくとも一部に対応する被写体領域を検出する第2検出部と、画像データに関する測光により露出を制御する制御部とを備える。制御部は、第1検出部によって顔領域が検出されたとき、検出された顔領域の測光に応じて、露出を補正し、その後に第1検出部によって顔領域が検出されず、かつ検出された顔領域の被写体に対応する被写体領域が第2検出部によって検出されたとき、検出された顔領域の測光に応じた露出の補正を継続する。
本開示における撮像装置によると、第1検出部により顔領域が検出されなくなったとき、当該顔領域に対応する被写体領域が第2検出部によって検出されているならば、当該顔領域の測光に応じた露出の補正を継続する。これにより、被写体を検出し、露出を制御する機能を有する撮像装置において、露出の変動を抑制することができる。
本開示の実施形態1に係るデジタルカメラの構成を示す図 デジタルカメラにおける設定メニュー画面の表示例を示す図 デジタルカメラにおけるAE制御の動作を説明するための図 デジタルカメラにおけるAE制御処理を例示するフローチャート マルチ測光モードを説明するための図 実施形態1における顔優先の露出補正処理を例示するフローチャート 実施形態2における顔優先の露出補正処理を例示するフローチャート
1.構成
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、発明者(ら)は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
(実施形態1)
実施形態1では、本開示に係る撮像装置の一例として、画像認識技術に基づき被写体の顔検出及び頭部検出を行い、顔検出及び頭部検出の結果に基づいて露出を補正するデジタルカメラについて説明する。
図1は、本実施形態に係るデジタルカメラ100の構成を示す図である。本実施形態のデジタルカメラ100は、イメージセンサ115と、画像処理エンジン120と、表示モニタ130と、コントローラ135とを備える。さらに、デジタルカメラ100は、バッファメモリ125と、カードスロット140と、フラッシュメモリ145と、操作部150と、通信モジュール155とを備える。また、デジタルカメラ100は、例えば光学系110及びレンズ駆動部112を備える。
光学系110は、フォーカスレンズ、ズームレンズ、光学式手ぶれ補正レンズ(OIS)、絞り、シャッタ等を含む。フォーカスレンズは、イメージセンサ115上に形成される被写体像のフォーカス状態を変化させるためのレンズである。ズームレンズは、光学系で形成される被写体像の倍率を変化させるためのレンズである。フォーカスレンズ等は、それぞれ1枚又は複数枚のレンズで構成される。
レンズ駆動部112は、光学系110におけるフォーカスレンズ等を駆動する。レンズ駆動部112はモータを含み、コントローラ135の制御に基づいてフォーカスレンズを光学系110の光軸に沿って移動させる。レンズ駆動部112においてフォーカスレンズを駆動する構成は、DCモータ、ステッピングモータ、サーボモータ、または超音波モータなどで実現できる。レンズ駆動部112は、コントローラ135の制御に基づいて光学系110における絞りを駆動する絞りアクチュエータを含む。
イメージセンサ115は、光学系110を介して形成された被写体像を撮像して、撮像データを生成する。撮像データは、イメージセンサ115による撮像画像を示す画像データを構成する。イメージセンサ115は、所定のフレームレート(例えば、30フレーム/秒)で新しいフレームの画像データを生成する。イメージセンサ115における、撮像データの生成タイミングおよび電子シャッタ動作は、コントローラ135によって制御される。イメージセンサ115は、CMOSイメージセンサ、CCDイメージセンサ、またはNMOSイメージセンサなど、種々のイメージセンサを用いることができる。
イメージセンサ115は、動画像、静止画像、またはスルー画像の撮像動作等を実行する。スルー画像は主に動画像であり、ユーザが例えば静止画像の撮像のための構図を決めるために表示モニタ130に表示される。イメージセンサ115は、露光、電子シャッタ等の各種動作を実行する。イメージセンサ115は、本実施形態における撮像部の一例である。
画像処理エンジン120は、イメージセンサ115から出力された撮像データに対して各種の処理を施して画像データを生成したり、画像データに各種の処理を施して、表示モニタ130に表示するための画像を生成したりする。各種処理としては、ホワイトバランス補正、ガンマ補正、YC変換処理、電子ズーム処理、圧縮処理、伸張処理等が挙げられるが、これらに限定されない。画像処理エンジン120は、ハードワイヤードな電子回路で構成してもよいし、プログラムを用いたマイクロコンピュータ、プロセッサなどで構成してもよい。
本実施形態において、画像処理エンジン120は、撮像画像の画像認識によって人の顔及び頭部といった被写体の検出機能を実現する顔認識部122及び頭部認識部124を含む。顔認識部122及び頭部認識部124は、それぞれ本実施形態における第1検出部及び第2検出部の一例である。
顔認識部122は、例えば、テンプレートマッチングといったルールベースの画像認識処理によって顔検出を行う。顔検出は、種々の画像認識アルゴリズムによって行われてもよい。例えば、目及び口など顔の局所領域に注目した特徴量ベースの手法を用いることができる。顔認識部122は、撮像画像において顔が映っている領域を示す顔領域を認識する。顔認識部122は、顔領域の検出結果に基づく顔認識情報を生成して、例えばコントローラ135に出力する。
頭部認識部124は、例えば、畳み込みニューラルネットワーク等のニューラルネットワークによる学習済みモデルによって頭部検出を行う。頭部認識部124が、撮像画像において頭部が映っている領域を示す頭部領域を認識する。頭部認識部124は、頭部領域の検出結果に基づく頭部認識情報を生成して、例えばコントローラ135に出力する。
頭部認識部124の学習済みモデルは、例えば、横顔、後頭部を含む全方向の頭部が映った画像を正解とする正解ラベルを関連付けた画像データを教師データとして用いた教師あり学習によって得ることができる。学習済みモデルは、検出結果に関する信頼度或いは尤度を生成してもよい。頭部認識部124の学習済みモデルはニューラルネットワークに限らず、種々の画像認識に関する機械学習モデルであってもよい。
顔認識部122が出力する顔認識情報及び頭部認識部124が出力する頭部認識情報は、例えば、それぞれ撮像画像における顔領域及び頭部領域の位置、サイズ及び特徴量などを含む。例えば、特徴量としてRGBヒストグラムといった色情報、Haar−like特徴量、HOG特徴量、及び/または頭部認識部124における学習済みモデルの一部を特徴抽出器として抽出した特徴量などを用いることができる。複数の被写体に対応する顔領域及び頭部領域が検出される場合、顔認識情報及び頭部認識情報は、それぞれ顔領域及び頭部領域と被写体とを対応付ける被写体IDのような情報を含んでもよい。
なお、顔認識部122及び頭部認識部124は、画像処理エンジン120とは別に構成されてもよく、コントローラ135と一体的に構成されてもよい。また、顔認識部122及び頭部認識部124は、人に限らず、動物を被写体として検出を行ってもよい。
表示モニタ130は、種々の情報を表示する表示部の一例である。例えば、表示モニタ130は、イメージセンサ115で撮像され、画像処理エンジン120で画像処理された画像データが示す画像(スルー画像)を表示する。また、表示モニタ130は、ユーザがデジタルカメラ100に対して種々の設定を行うためのメニュー画面等を表示する。表示モニタ130は、例えば、液晶ディスプレイデバイスまたは有機ELデバイスで構成できる。
操作部150は、デジタルカメラ100の外装に設けられた操作釦や操作ダイヤル等のハードキー及びソフトキーの総称であり、ユーザによる操作を受け付ける。操作部150は、例えば、レリーズ釦、モードダイヤル、表示モニタ130のタッチパネル、ジョイスティックなどを含む。操作部150はユーザによる操作を受け付けると、ユーザ操作に対応した操作信号をコントローラ135に送信する。
コントローラ135は、ハードウェアコントローラであり、デジタルカメラ100全体の動作を統括制御する。コントローラ135はCPU等を含み、CPUがプログラム(ソフトウェア)を実行することで所定の機能を実現する。コントローラ135は、CPUに代えて、所定の機能を実現するように設計された専用の電子回路で構成されるプロセッサを含んでもよい。すなわち、コントローラ135は、CPU、MPU、GPU、DSU、FPGA、ASIC等の種々のプロセッサで実現できる。コントローラ135は1つまたは複数のプロセッサで構成してもよい。また、コントローラ135は、画像処理エンジン120などと共に1つの半導体チップで構成してもよい。
コントローラ135は、例えばオートフォーカス制御(AF制御)やオート露出制御(AE制御)などを実行する。コントローラ135は、露出制御において、例えば絞り値、シャッタ速度、及びISO感度の変更により露出を調整する。
バッファメモリ125は、画像処理エンジン120やコントローラ135のワークメモリとして機能する記録媒体である。バッファメモリ125は、DRAM(Dynamic Random Access Memory)などにより実現される。フラッシュメモリ145は不揮発性の記録媒体である。例えばバッファメモリ125は、後述する露出補正値とそのバッファ値、被写体情報、シーン情報及びデジタルカメラ100における各種設定情報などを記憶する。各メモリ125,145は、それぞれ本実施形態における記憶部の一例である。
また、図示していないが、コントローラ135は各種の内部メモリを有してもよく、例えばROMを内蔵してもよい。ROMには、コントローラ135が実行する様々なプログラムが記憶されている。また、コントローラ135は、CPUの作業領域として機能するRAMを内蔵してもよい。上記各種メモリも、本実施形態における記憶部の一例である。
カードスロット140は、着脱可能なメモリカード142が挿入される手段である。カードスロット140は、メモリカード142を電気的及び機械的に接続可能である。メモリカード142は、内部にフラッシュメモリ等の記録素子を備えた外部メモリである。メモリカード142は、画像処理エンジン120で生成される画像データなどのデータを格納できる。
通信モジュール155は、通信規格IEEE802.11またはWi−Fi規格等に準拠した通信を行う通信モジュール(回路)である。デジタルカメラ100は、通信モジュール155を介して、他の機器と通信することができる。デジタルカメラ100は、通信モジュール155を介して、他の機器と直接通信を行ってもよいし、アクセスポイント経由で通信を行ってもよい。通信モジュール155は、インターネット等の通信ネットワークに接続可能であってもよい。
1−1.メニュー設定について
本実施形態のデジタルカメラ100は、設定メニュー等において、ユーザがAE制御に顔認識を用いるかどうかを設定可能に構成される。図2を用いて、デジタルカメラ100の設定メニューの構成例を説明する。
図2は、デジタルカメラ100における設定メニュー画面の表示例を示す。本表示例は、デジタルカメラ100に関する諸情報を設定するためのカスタム設定メニューを表示するためのタブ40が選択された状態を示す。カスタム設定メニューには、画質に関するメニュー項目を表示するためのアイコン41が設けられ、本表示例ではアイコン41が選択されている。この際に表示モニタ130に表示されるメニュー項目の一つとして、「マルチ測光時の顔優先」というメニュー項目が、本実施形態のデジタルカメラ100に設けられる。
本実施形態において、「マルチ測光時の顔優先」のメニュー項目は、ユーザがマルチ測光モードにおける顔優先機能の有効/無効をON/OFFで設定可能に設けられる。図2は、「マルチ測光時の顔優先」のメニュー項目が操作部150におけるユーザ操作により選択された状態を示す。操作部150は、例えば表示モニタ130のタッチパネル、またはジョイスティック等の操作釦によりメニュー項目を選択するユーザ操作を受け付ける。
マルチ測光モードは、スルー画像等の撮像画像を複数に分割した領域毎の輝度に基づいて、撮像データ全体の輝度(明るさの一例)を評価する測光(以下「マルチ測光」という)により露出を決定するAE制御の動作モードである。AE制御の動作モードは、マルチ測光モードの他に、例えば撮像画像の中央の領域に大きい重みづけを設定した測光により露出を決定する中央重点測光モード、及び撮像画像で予め設定された特定の領域の測光により露出を決定するスポット測光モードを含む。デジタルカメラ100は、例えば設定メニューにおいてユーザがこのようなAE制御の動作モードを設定可能なメニュー項目を備える。
顔優先機能は、デジタルカメラ100がマルチ測光モードに設定されたとき、顔認識部122の検出結果に基づいて被写体の顔領域が適切な明るさとなるように露出を補正する機能である。顔優先機能によると、顔領域の輝度が周囲の輝度よりも優先して評価され、マルチ測光モードにおいて撮像画像全体の輝度に基づいて決定された露出が補正される。
メニュー項目「マルチ測光時の顔優先」が選択された場合、例えば図2に示すように、ユーザが顔優先機能の有効/無効をON/OFFで選択可能な選択欄42がポップアップで表示される。本実施形態のデジタルカメラ100は、ユーザが操作部150により選択欄42のON/OFFを選択する操作に応じて、マルチ測光モードのAE制御において、顔優先機能により露出を補正するか否かを設定可能に構成される。
2.動作
以上のように構成されるデジタルカメラ100の動作を以下説明する。
2−1.動作の概要
本実施形態のデジタルカメラ100のマルチ測光モードにおける顔優先機能が有効な場合のAE制御の動作の概要を、図3を用いて説明する。
図3は、デジタルカメラ100における露出制御の動作を説明するための図である。図3(A)は、被写体である人物10の顔が映った撮像画像Imを例示する。本実施形態のデジタルカメラ100では、撮像画像Imに基づき、顔認識部122と頭部認識部124が並行して、それぞれ顔検出と頭部検出を行う。これにより、図3(A)に例示する撮像画像Imにおいては、人物10の顔領域60及び頭部領域70が検出されている。
図3(A)の例では、撮像画像Imにおける人物10の明るさと背景の明るさとが異なっている。マルチ測光モードにおいて、デジタルカメラ100は、背景等を含めた撮像画像Im全域の輝度を評価するマルチ測光により露出を決定する。さらに、デジタルカメラ100は、顔優先機能により、マルチ測光による露出を、顔領域60の輝度に基づいて補正する。こうしたAE制御により、被写体としての人物10の顔が適切な明るさで映るような露出の撮像画像Imを得ることができる。
図3(B)は、図3(A)の後で人物10の顔が映らなくなった撮像画像Imを例示する。このような場合、顔認識部122が顔領域60を検出できなくなる、すなわち顔検出のロストを生じる。こうした場合のAE制御においては、マルチ測光により撮像画像Im全体の輝度を評価した露出が、顔優先機能により補正されなくなってしまうことが考えられる。この場合、顔検出のロスト前後において撮像画像Imの露出がちらつくような変動を生じ、AE制御による露出が安定しない事態が想定される。
そこで、本実施形態のデジタルカメラ100は、頭部認識部124による頭部検出を用いて、人物10の顔領域60が検出されなくなっても、同じ人物10と判定される頭部領域70が検出されている限り、顔領域60に基づいた露出の補正を継続する。これにより、図3(A),(B)に示すように、撮像画像Imに人物10は映っているがその顔が映ったり映らなくなったりする際にAE制御による露出の変動を抑制し、マルチ測光時の顔優先機能における撮像画像Imの露出を安定させることができる。以上のようなデジタルカメラ100の動作の詳細を、以下説明する。
2−2.AE制御処理
本実施形態のデジタルカメラ100におけるライブビュー用のAE制御の動作例を、図4を用いて説明する。図4は、本実施形態におけるAE制御処理を例示するフローチャートである。
図4に示す処理は、各認識部122,124の動作と同期して、例えばコントローラ135により、所定の周期(例えばフレーム周期)で繰り返し実行される。図4に示す処理は、デジタルカメラ100がマルチ測光モードに設定され、且つライブビューのスルー画像としての撮像画像Im(図3)が表示された状態で開始する。
まず、コントローラ135は、イメージセンサ115から出力される撮像データをフレーム毎に取得する(S1)。撮像データは、例えば画素毎の輝度を示す情報を含む。
次に、コントローラ135は、マルチ測光により、撮像データが示す画像全体の輝度に基づく露出値Emを算出する(S2)。露出値(以下「EV値」という)は、AE制御において、絞り、電子シャッタ、及びイメージセンサ115の出力を増幅するゲインの設定により露出を制御するために用いられる。
図5は、マルチ測光モードを説明するための図である。コントローラ135は、マルチ測光モードにおいて、撮像画像Imを複数に分割した各領域190の輝度を取得し、各領域190の輝度に、各領域190に設定した重みを乗じた平均値を算出する。コントローラ135は、撮像画像Imの輝度の重み付け平均に基づき、マルチ測光によるEV値Emを算出する。各領域190の輝度は、例えば各領域190に含まれる画素の輝度の平均値として取得される。
図4に戻り、コントローラ135は、顔優先機能においてマルチ測光によるEV値Emを補正するための露出補正値(以下「顔優先補正値」という)Ecfを演算する顔優先の露出補正処理(S3)を行う。本実施形態のステップS3では、例えば図3(A)に示すように顔領域60が検出されたときに算出される顔優先補正値Ecfは、顔検出のロストを生じても、図3(B)に示すように頭部領域70が検出されている限り、維持される。また、本実施形態において、顔領域60だけでなく頭部領域70も検出されなくなると、コントローラ135は、維持した顔優先補正値Ecfを徐々に削減する。顔優先の露出補正処理(S3)の詳細については、後述する。
コントローラ135は、デジタルカメラ100における撮影状況に応じた露出等の撮像に関する条件を決定するためのシーン判定を行い、シーン判定に基づく露出補正値(以下「シーン補正値」という)Ecsを演算する(S4)。シーン判定は、例えば曇天判定、逆光判定、白飛び判定、及び夜景判定を含む。
曇天判定は、曇天の場合に露出アンダーになりやすいことから、明るく補正するための判定である。逆光判定は、逆光時に被写体が暗くなりやすいことから、被写体を明るく補正するための判定である。白飛び判定は、白飛びしやすい光源を判定して暗く補正するための判定である。夜景判定は、夜景の撮影時に露出オーバーになりやすいことから、暗く補正するための判定である。
シーン補正値の演算処理(S4)において、コントローラ135は、例えば撮像データにおける輝度の分布から各シーン判定の結果に応じた露出補正値を演算する。各露出補正値の合計を以下、シーン補正値Ecsとする。
コントローラ135は、マルチ測光によるEV値Emに顔優先補正値Ecf及びシーン補正値Ecsを反映する補正演算によって、ライブビュー用のEV値Evを算出する(S5)。補正演算は、例えば補正前のEV値Emへの各補正値Ecf,Ecsの加算である。
次に、コントローラ135は、ライブビュー用EV値Evから、次のフレームで使用するAV値、TV値、及びISO感度を算出する(S6)。AV値、TV値、及びISO感度は、それぞれ絞り値、シャッタ速度、及びゲインに対応する制御値である。これらの制御値は、例えばEV値に応じた当該制御値の組み合わせを規定するプログラム線図に基づいて算出される。プログラム線図は、例えばコントローラ135の内部メモリに予め格納される。
コントローラ135は、算出したAV値、TV値、及びISO感度に基づいて、次のフレームの露出を制御するための絞り、電子シャッタ、及びゲインを設定し(S7)、撮像動作を行った後、ステップS1以降の処理を繰り返す。
以上のAE制御処理によると、マルチ測光によるEV値Em(S2)に、顔優先補正値Ecf(S3)、及びシーン補正値Ecs(S4)による補正を行って、ライブビュー用のEV値Evが得られる(S5)。
2−3.顔優先の露出補正処理
図6は、本実施形態における顔優先の露出補正処理(S3)を例示するフローチャートである。図6に例示するフローチャートによる処理は、図4のステップS1で取得された現在のフレームについてのマルチ測光によるEV値Emの算出(S2)後に開始する。
まず、コントローラ135は、マルチ測光モードにおける顔優先機能がONに設定されているか否かを判断する(S20)。例えば、コントローラ135は予め、図2に例示した設定メニューのユーザ操作時に、操作部150を介して選択されたON又はOFFを設定情報として、バッファメモリ125等に格納する。ステップS20において、コントローラ135は、上記の設定情報を参照して、顔優先機能のON/OFFを判断する。
顔優先機能がONである場合(S20でYES)、コントローラ135は、顔認識部122から、現在のフレームを処理対象として生成された顔認識情報を取得する(S21)。同様に、コントローラ135は、頭部認識部124から、現在のフレームの頭部認識情報を取得する(S21)。図3(A)の例では、顔領域60を含む顔認識情報及び頭部領域70を含む頭部認識情報が取得される(S21)。
次に、コントローラ135は、取得した顔認識情報に基づいて、顔領域が検出されたか否かを判断する(S22)。例えば、図3(A)の例では人物10の顔領域60が検出されていることから、コントローラ135は、ステップS22でYESに進む。一方、図3(B)の例では顔領域60が検出されなくなっており、コントローラ135は、ステップS22でNOに進む。
顔領域が検出された場合(S22でYES)、コントローラ135は、検出された顔領域に対応する被写体を示す被写体情報を、例えばバッファメモリ125に格納する(S23)。被写体情報は、例えば顔認識情報および頭部認識情報に基づき構成され、顔領域および頭部領域における画像の各種特徴量などを含む。
図3(A)の例では、顔領域60と、同じ人物10の頭部領域70とに基づいた被写体情報が記憶される(S23)。例えばコントローラ135は、各フレームの画像上の位置関係に基づき、検出された顔領域と頭部領域との対応関係を被写体情報毎に管理する。なお、被写体情報は、顔領域及び頭部領域の一方に基づき構成されてもよい。
次に、コントローラ135は、取得した撮像データにおいて検出された顔領域の輝度等の明るさを示す情報に基づき顔優先補正値Ecfを算出する(S25)。図3(A)の例では、撮像画像Im全体又は背景からの顔領域60の輝度の違いに応じて、顔優先補正値Ecfが算出される。算出された顔優先補正値Ecfは、例えば、バッファメモリ125においてマルチ測光によるEV値Emの補正(図4のS5)に用いるための記憶領域に記憶される。
さらに、コントローラ135は、例えばバッファメモリ125においてバッファ値Ebとして、算出した顔優先補正値Ecfの現在の値を格納する(S26)。バッファ値Ebは、顔優先の露出補正処理(S3)を繰り返す際に、過去の顔優先補正値Ecfを参照するために用いられ、例えば上記の記憶領域と兼用されてもよい。
コントローラ135は、現在の顔優先補正値Ecfを格納(S26)した後、現在のフレームにおける顔優先の露出補正処理(S3)を終了して、図4のステップS4に進む。その後、図4のフローの繰り返しにより、次のフレームについての顔優先の露出補正処理(S3)が実行される。
なお、顔優先機能がOFFである場合(S20でNO)、コントローラ135は、例えばバッファメモリ125における被写体情報をリセットし(S30)、特に顔検出の結果に関わらず顔優先補正値Ecfを「0」に設定し(S31)、ステップS26に進む。リセットによると、被写体情報は、例えば被写体が検出されていないことを示す初期値等に設定される。
顔領域が検出されなかった場合(S22でNO)、コントローラ135は、ステップS21で取得した頭部認識情報に基づいて、頭部領域が検出されたか否かを判断する(S40)。例えば、図3(B)の例では、図3(A)から人物10の顔領域60が検出されなくなった(S22でNO)一方で、頭部領域70が検出されていることから、コントローラ135は、ステップS40でYESに進む。
頭部領域が検出されたとき(S40でYES)、コントローラ135は、格納された被写体情報に基づいて、直近に検出された顔領域に対応する被写体と、今回検出された頭部領域に対応する被写体とが同一であるか否かを判定する(S42)。ステップS42の処理は、例えば、被写体情報に含まれる頭部領域の特徴量と、現在のフレームにおける頭部認識情報に含まれる頭部領域の特徴量とを比較することによって行われる。
例えば、コントローラ135は、図3(A),(B)の各頭部領域70の比較により、図3(B)の例で検出された頭部領域70の人物10が、検出されなくなった顔領域60の人物10と同一の被写体であると判定する(S42でYES)。ステップS42の判定は、例えば種々の機械学習手法によって、様々な顔向きにおける人物の頭部画像により同一人物の識別を予め学習した識別器を用いて実現できる。
コントローラ135は、被写体情報が示す被写体と、今回検出された頭部領域に対応する被写体とが同一であると判定した場合(S42でYES)、今回の顔優先補正値Ecfを、格納されたバッファ値Ebと同じ値に設定する(S45)。これにより、図3(B)の例における顔優先補正値Ecfは、顔領域60が検出された図3(A)の時点で算出され(S25)、バッファ値Ebとして格納された(S26)露出補正値に設定される。このように、顔領域60が検出されなくなっても、顔領域60と同じ被写体の頭部領域70が検出されたとき、顔領域60が検出された時点の顔優先補正値Ecfが維持される。
また、コントローラ135は、以上のように設定した顔優先補正値Ecfを、次回以降の顔優先の露出補正処理において参照するためのバッファ値Ebとして格納する(S26)。
一方で、頭部領域が検出されなかったとき(S40でNO)、コントローラ135は、例えばバッファメモリ125に格納された被写体情報をリセットする(S50)。コントローラ135は、被写体情報が示す被写体と、検出された頭部領域に対応する被写体とが同一でないと判定した場合(S42でNO)も、ステップS50のリセットを行う。又、リセットされた被写体情報に基づいてステップS42の判定が行われると、判定結果はNOとなる。
ステップS50以降の処理は、顔優先補正値Ecfの維持を徐々に緩和するための処理である。例えば、コントローラ135は、格納されたバッファ値Ebが「0」か否かを判断する(S51)。この際のバッファ値Ebは、ステップS26により、前回の顔優先補正値Ecfを示している。
バッファ値Ebが「0」でないと判断すると(S51でNO)、コントローラ135は、バッファ値Eb(すなわち、前回の顔優先補正値Ecf)から大きさを削減するように今回の顔優先補正値Ecfを設定する(S52)。
例えば、コントローラ135は、新たな顔優先補正値Ecfを、バッファ値Ebと同じ値に一旦設定し、そこから所定値だけ大きさを削減する演算を行う(S52)。所定値は、露出の急激な変化を避ける観点から、ステップS52を繰り返すことで顔優先補正値Ecfを徐々に「0」に近づけるピッチとして予め設定される。所定値は、顔優先補正値Ecfが「0」に至るまでの時間長さを考慮し、顔検出のロスト後に初めてステップS50に進んだ時点の顔優先補正値Ecfの大きさに応じて設定されてもよい。
コントローラ135は、バッファ値Ebが「0」であると判断すると(S51でYES)、今回の顔優先補正値Ecfを「0」に設定する(S31)。ステップS52,S31による顔優先補正値Ecfの設定後、コントローラ135は、今回の顔優先補正値Ecfと同じ値をバッファ値Ebとして格納し(S26)、顔優先の露出補正処理(図4のS3)を終了する。
以上の顔優先の露出補正処理(S3)によると、顔領域が検出されたとき(S22でYES)、顔領域の明るさに応じて露出を補正するための顔優先補正値Ecfを算出する(S25)。顔領域が検出されなくなったときであっても(S22でNO)、直近に検出された顔領域の被写体と同一の被写体に対応する頭部領域が検出されれば(S40,S42でYES)、顔領域の輝度に基づく顔優先補正値Ecfが維持される(S45)。これにより、被写体の顔向き及び姿勢等が変化して顔検出のロストが生じたときであっても、被写体の頭部が撮像画像Imに映っている限り、維持した顔優先補正値Ecfを用いてAE制御処理(図4)が実行される。これにより、例えば被写体の動きによって顔優先機能に基づく補正の有無が頻繁に切り替わることを抑制し、露出を安定させることができる。
さらに、顔領域だけでなく頭部領域が検出されなくなったとき(S40でNO)には、維持した顔優先補正値Ecfを緩やかに削減する(S52)。これにより、例えば被写体の顔も頭部も撮像画像Imに映らなくなるときが生じたとしても、露出の急激な変化を抑制することができる。
3.効果等
以上のように、本実施形態のデジタルカメラ100は、被写体を撮像して画像データを生成するイメージセンサ115(撮像部の一例)と、画像データにおいて被写体の顔に対応する顔領域を検出する顔認識部122(第1検出部の一例)と、画像データにおいて被写体の少なくとも一部に対応する被写体領域を検出する頭部認識部124(第2検出部の一例)と、画像データに関する測光により露出を制御するコントローラ135(制御部の一例)とを備える。コントローラ135は、顔認識部122によって顔領域が検出されたとき(S22でYES)、検出された顔領域の測光に応じて、露出を補正し(S25,S5)、その後に顔認識部122によって顔領域が検出されず(S22でNO)、かつ検出された顔領域の被写体に対応する被写体領域が頭部認識部124によって検出されたとき(S40でYES)、検出された顔領域の測光に応じた露出の補正を継続する(S45)。
以上のデジタルカメラ100によると、AE制御において、顔領域が検出されたときの露出の補正を、その後に顔領域は検出されないが、顔領域の被写体に対応する頭部領域が検出されたときには継続する。これにより、被写体の顔向きの変化等により顔領域が検出されたり検出されなくなったりする際に、AE制御により露出が変動することを抑制することができる。
本実施形態において、頭部認識部124は、被写体の頭部に対応する領域を被写体領域として検出する。これにより、撮像画像Imに被写体の人物は映っているがその顔が映らなくなる場合が生じても、頭部が映っている場合には、AE制御による露出の変動を抑制することができる。
本実施形態のデジタルカメラ100は、測光に関する動作モードにおいて顔領域を優先する機能の有効又は無効を設定する設定メニュー(設定部の一例)をさらに備える。コントローラ135は、設定メニューにおいて当該機能が有効に設定された場合に、検出された顔領域の測光に応じた露出の補正を行う(S20,S3)。これにより、ユーザの意図に応じて顔優先機能により露出を補正するか否かを設定することができる。
コントローラ135は、顔認識部122によって顔領域が検出された(S22でYES)後で顔領域が検出されず(S22でNO)、かつ対応する被写体領域が頭部認識部124によって検出されない(S40,S42でNO)とき、検出された顔領域の測光に応じた露出の補正を次第に緩和する(S50〜S52)。これにより、顔領域だけでなく頭部領域も検出されない際に、顔優先補正値Ecfによる露出の補正量を徐々に削減することで、AE制御による露出の急激な変化を抑制し、露出を安定させることができる。
本実施形態のデジタルカメラ100は、情報を記憶するバッファメモリ125及びフラッシュメモリ145(記憶部の一例)をさらに備える。コントローラ135は、顔認識部122によって顔領域が検出されたとき、検出された顔領域の測光に応じて露出を補正する顔優先補正値Ecf(露出補正値の一例)を算出して(S25)、算出された顔優先補正値Ecfをバッファ値Ebとしてバッファメモリ125に格納し(S26)、その後に顔認識部122によって顔領域が検出されず(S22でNO)、かつ検出された顔領域の被写体に対応する頭部領域が頭部認識部124によって検出された(S40,S42でYES)とき、バッファメモリ125に格納された顔優先補正値Ecfを維持して、露出の補正を継続する(S45)。これにより、顔優先の露出補正処理(S3)を繰り返す際に、過去の顔優先補正値Ecfを参照して、補正の継続に用いることができる。
本実施形態において、コントローラ135は、顔認識部122によって顔領域が検出されたとき(S22でYES)、少なくとも顔領域及び被写体領域の一方に基づいて被写体を示す被写体情報を記憶部に格納し(S23)、その後に顔認識部122によって顔領域が検出されず、かつ頭部認識部124によって頭部領域が検出された(S40でYES)とき、格納した被写体情報を参照して、格納した顔優先補正値Ecfを維持するか否かを決定する(S42)。これにより、検出されていた顔領域に対応する被写体と、その後に検出された頭部領域に対応する被写体とが同一であるときに、顔優先補正値Ecfを維持することができる。
(実施形態2)
以下、図7を参照して、本開示の実施形態2を説明する。実施形態1では、画像撮影中において顔検出のロスト時に、頭部領域が検出される限りAE制御の顔優先補正値Ecfを維持するデジタルカメラ100について説明した。実施形態2では、シーン(すなわち画像全体)の明るさが顕著に変化したときには顔優先補正値Ecfを維持しないようにするデジタルカメラ100について説明する。
以下、実施形態1に係るデジタルカメラ100と同様の構成、動作の説明は適宜、省略して、本実施形態に係るデジタルカメラ100を説明する。
図7は、実施形態2における顔優先の露出補正処理を例示するフローチャートである。本実施形態のデジタルカメラ100は、実施形態1と同様に構成され、例えば図4と同様のAE制御処理を行う。この際のステップS3において、本実施形態におけるデジタルカメラ100のコントローラ135は、図7に例示するように、実施形態1と同様のステップS20〜S52(図6)を実行すると共に、更にシーンの明るさを考慮した処理(S24,S44)を行う。
具体的に、コントローラ135は、顔領域が検出されたとき(S22でYES)に被写体情報(S23)に加えて、現在の撮像データに基づき、撮像画像Imの明るさを示すシーン情報を生成する(S24)。シーン情報は、例えば撮像画像Imの全体にわたる輝度の平均値に基づくEV値として算出される。コントローラ135は、算出したシーン情報を例えばバッファメモリ125に格納する。
顔検出のロスト時(S22でNO)にコントローラ135は、例えばロスト前に格納された被写体情報と同じ被写体の頭部領域が検出された場合(S40,S42でYES)、ロスト前のシーン情報から今回のシーン情報が変化したか否かを判定する(S44)。例えば、コントローラ135は、今回のフレームにおけるシーン情報を上記と同様に算出して、今回のシーン情報と、格納されたシーン情報との間の差分が所定範囲内である場合、シーン情報は変化していないと判定する(S44でNO)。所定範囲は、例えばフレーム間で適正露出が変化しない明るさの変動とみなす範囲を規定する観点から、EV値の変化量で規定される(例えば、EV値が±2未満)。
コントローラ135は、シーン情報が変化していないと判定すると(S44でNO)、実施形態1と同様に顔優先補正値Ecfをバッファ値Ebに維持する(S45)。一方、コントローラ135は、シーン情報が変化したと判定した場合(S44でYES)、頭部領域が検出されない(S40でNO)、又は頭部領域の被写体が顔検出のロスト時と同一でない場合(S42でNO)と同様に、被写体情報及びシーン情報をリセットする(S50)。これにより、実施形態1と同様にステップS51以降の処理によって顔優先補正値Ecfが徐々に削減される。
例えば人物10の顔検出のロスト後にシーンの明るさが顕著に変化すると、ロスト前の顔優先補正値Ecfでは、その後に同じ人物10の顔領域が再び検出されても適切に露出を補正し難い事態が想定される。そこで、本実施形態における顔優先の露出補正処理によると、シーンの明るさの変化(S44でYES)に応じて、維持した顔優先補正値Ecf等を放棄し、適切な露出の撮像画像Imを得やすくすることができる。
コントローラ135は、顔認識部122によって顔領域が検出されたとき(S22でYES)、画像データにおけるシーンの明るさを示すシーン情報をバッファメモリ125に格納し(S24)、その後に顔認識部122によって顔領域が検出されないとき(S22でNO)、格納したシーン情報を参照して、バッファ値Ebとして格納した顔優先補正値Ecfを維持するか否かを決定する(S44)。これにより、顔検出のロスト時にシーンの明るさが顕著に変化するときには、顔優先補正値Ecfを維持しないことで、不適切な露出の補正を抑制することができる。
(他の実施形態)
以上のように、本出願において開示する技術の例示として、実施形態1及び実施形態2を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
上記の各実施形態では、AE制御処理(図4)において、顔優先機能による補正をライブビュー用のEV値Evに適用する(S5)例を説明した。本実施形態において補正されるEV値は、特にライブビュー用に限らず、例えば静止画及び/または動画像の撮像用のEV値であってもよい。
また、上記の各実施形態では、AE制御処理において、コントローラ135は、TV値に基づき電子シャッタを設定する(S7)例を説明した。ステップS7では、特にこれに限らず、光学系110のシャッタすなわちメカニカルシャッタのシャッタ速度が設定されてもよい。
また、上記の各実施形態では、AE制御処理において、露出補正値を算出して(S3,S4)、マルチ測光により決定した露出の補正を露出補正値の加算により行う(S5)例を説明した。本実施形態において、露出の補正は、露出補正値の加算に限らず、図5に例示するようなマルチ測光モードにおける撮像画像Imを分割した各領域190の重みを変更することで行われてもよい。この場合、図4のステップS3,S4において、露出補正値の代わりに、例えば各領域190の重みに掛け合わせるための補正係数が算出されてもよい。
また、上記の各実施形態では、顔優先の露出補正処理(S3)において、コントローラ135は、画像の特徴量を比較することで、格納された被写体情報の被写体と、今回検出された頭部領域に対応する被写体とが同一であるか否かを判定した(S42)。本実施形態ではステップS42において、コントローラ135は、被写体情報の頭部領域と、今回検出された頭部領域との間で、頭部領域の位置及びサイズを比較することにより、位置及びサイズが同程度であれば同一の被写体に対応すると判定してもよい。
また、上記の各実施形態では、顔優先の露出補正処理(S3)において、顔領域が検出されたときに被写体情報を記憶した(S23)。本実施形態では、ステップS23に加えて頭部領域が検出されたとき(S40でYES)にも、例えばステップS42の実行後に被写体情報を記憶することで、フレーム毎に被写体情報が更新されてもよい。これにより、ステップS42において、連続する2つのフレーム間で、記憶された被写体情報の頭部領域と検出された頭部領域が同一の被写体に対応するか否かが判定されてもよい。
また、上記の各実施形態では、第2検出部が頭部認識部124として構成されるデジタルカメラ100を説明した。本実施形態において、第2検出部は頭部認識部124に限らず、例えば画像認識によって人の体全体又は一部といった被写体の検出機能を実現するように構成されてもよい。
また、上記の各実施形態では、マルチ測光モードのAE制御において顔優先機能を適用する例を説明した。本開示は、マルチ測光モードのAE制御に限らず、各種の露出制御において顔優先機能のような露出補正を行う際に適用可能である。
また、上記の各実施形態では、AE制御において撮像データの輝度を用いて測光を行う例を説明した。本実施形態のデジタルカメラ100は、測光センサを備え、測光センサにより測光を行ってもよい。
また、上記の各実施形態では、光学系110及びレンズ駆動部を備えるデジタルカメラ100を例示した。本実施形態の撮像装置は、光学系110及びレンズ駆動部を備えなくてもよく、例えば交換レンズ式のカメラであってもよい。
また、上記の各実施形態では、撮像装置の例としてデジタルカメラ100を説明したが、これに限定されない。本開示の撮像装置は、露出制御が可能な画像撮影機能を有する電子機器(例えば、ビデオカメラ、スマートフォン、タブレット端末等)であればよい。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
本開示は、被写体を検出し、露出を制御する機能を有する撮像装置に適用可能である。
100 デジタルカメラ
115 イメージセンサ
120 画像処理エンジン
122 顔認識部
124 頭部認識部
125 バッファメモリ
130 表示モニタ
135 コントローラ
145 フラッシュメモリ
150 操作部

Claims (7)

  1. 被写体を撮像して画像データを生成する撮像部と、
    前記画像データにおいて前記被写体の顔に対応する顔領域を検出する第1検出部と、
    前記画像データにおいて前記被写体の少なくとも一部に対応する被写体領域を検出する第2検出部と、
    前記画像データに関する測光により露出を制御する制御部とを備え、
    前記制御部は、
    前記第1検出部によって前記顔領域が検出されたとき、検出された顔領域の測光に応じて、前記露出を補正し、
    その後に前記第1検出部によって前記顔領域が検出されず、かつ前記検出された顔領域の被写体に対応する被写体領域が前記第2検出部によって検出されたとき、前記検出された顔領域の測光に応じた前記露出の補正を継続する
    撮像装置。
  2. 前記第2検出部は、前記被写体の頭部に対応する領域を前記被写体領域として検出する
    請求項1に記載の撮像装置。
  3. 前記測光に関する動作モードにおいて前記顔領域を優先する機能の有効又は無効を設定する設定部をさらに備え、
    前記制御部は、前記設定部において前記機能が有効に設定された場合に、前記検出された顔領域の測光に応じた前記露出の補正を行う
    請求項1又は2に記載の撮像装置。
  4. 前記制御部は、前記第1検出部によって前記顔領域が検出された後で前記顔領域が検出されず、かつ前記対応する被写体領域が前記第2検出部によって検出されないとき、前記検出された顔領域の測光に応じた前記露出の補正を次第に緩和する
    請求項1から3のいずれか1つに記載の撮像装置。
  5. 情報を記憶する記憶部をさらに備え、
    前記制御部は、
    前記第1検出部によって前記顔領域が検出されたとき、検出された顔領域の測光に応じて前記露出を補正する露出補正値を算出して、算出された露出補正値を前記記憶部に格納し、
    その後に前記第1検出部によって前記顔領域が検出されず、かつ前記検出された顔領域の被写体に対応する被写体領域が前記第2検出部によって検出されたとき、前記記憶部に格納された露出補正値を維持して、前記露出の補正を継続する
    請求項1から4のいずれか1つに記載の撮像装置。
  6. 前記制御部は、
    前記第1検出部によって前記顔領域が検出されたとき、少なくとも前記顔領域及び前記被写体領域の一方に基づいて被写体を示す被写体情報を前記記憶部に格納し、
    その後に前記第1検出部によって前記顔領域が検出されず、かつ前記第2検出部によって前記被写体領域が検出されたとき、前記格納した被写体情報を参照して、前記格納した露出補正値を維持するか否かを決定する
    請求項5に記載の撮像装置。
  7. 前記制御部は、
    前記第1検出部によって前記顔領域が検出されたとき、前記画像データにおけるシーンの明るさを示すシーン情報を前記記憶部に格納し、
    その後に前記第1検出部によって前記顔領域が検出されないとき、前記格納したシーン情報を参照して、前記格納した露出補正値を維持するか否かを決定する
    請求項5又は6に記載の撮像装置。
JP2020126649A 2020-07-27 2020-07-27 撮像装置 Active JP6817590B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020126649A JP6817590B1 (ja) 2020-07-27 2020-07-27 撮像装置
US17/181,003 US11394874B2 (en) 2020-07-27 2021-02-22 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020126649A JP6817590B1 (ja) 2020-07-27 2020-07-27 撮像装置

Publications (2)

Publication Number Publication Date
JP6817590B1 true JP6817590B1 (ja) 2021-01-20
JP2022023603A JP2022023603A (ja) 2022-02-08

Family

ID=74164637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020126649A Active JP6817590B1 (ja) 2020-07-27 2020-07-27 撮像装置

Country Status (2)

Country Link
US (1) US11394874B2 (ja)
JP (1) JP6817590B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023008571A1 (ja) * 2021-07-30 2023-02-02 アニコム ホールディングス株式会社 個体識別システム及び個体識別方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7377078B2 (ja) * 2019-11-21 2023-11-09 キヤノン株式会社 画像処理装置および画像処理方法、ならびに撮像装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7298412B2 (en) * 2001-09-18 2007-11-20 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program
JP4130641B2 (ja) * 2004-03-31 2008-08-06 富士フイルム株式会社 ディジタル・スチル・カメラおよびその制御方法
JP4906034B2 (ja) * 2005-05-16 2012-03-28 富士フイルム株式会社 撮影装置および方法並びにプログラム
JP5319078B2 (ja) * 2006-07-07 2013-10-16 オリンパスイメージング株式会社 カメラ、カメラの画像処理方法、プログラム、記録媒体
JP4656657B2 (ja) 2006-07-31 2011-03-23 キヤノン株式会社 撮像装置及びその制御方法
US7885532B2 (en) * 2007-02-08 2011-02-08 Canon Kabushiki Kaisha Image sensing apparatus with pre-flash and image sensing method for calculating flash illumination amount using degree of convergence
JP4402710B2 (ja) * 2007-09-18 2010-01-20 オリンパス株式会社 撮像装置
JP4518157B2 (ja) * 2008-01-31 2010-08-04 カシオ計算機株式会社 撮像装置及びそのプログラム
JP2010021943A (ja) * 2008-07-14 2010-01-28 Sanyo Electric Co Ltd 撮像装置
JP2010093689A (ja) * 2008-10-10 2010-04-22 Panasonic Corp 撮像装置
JP5479068B2 (ja) * 2009-12-16 2014-04-23 キヤノン株式会社 画像処理装置及び画像処理方法
JP2012103979A (ja) 2010-11-11 2012-05-31 Sanyo Electric Co Ltd 画像処理装置
JP2012191442A (ja) * 2011-03-10 2012-10-04 Sanyo Electric Co Ltd 画像再生制御装置
JP5882644B2 (ja) * 2011-09-13 2016-03-09 キヤノン株式会社 画像処理装置、その制御方法、及びプログラム
JP6049448B2 (ja) * 2012-12-27 2016-12-21 キヤノン株式会社 被写体領域追跡装置、その制御方法及びプログラム
JP2014216832A (ja) 2013-04-25 2014-11-17 株式会社ニコン 撮像装置
WO2020129620A1 (ja) * 2018-12-21 2020-06-25 ソニー株式会社 撮像制御装置、撮像装置、撮像制御方法
JP2021153229A (ja) * 2020-03-24 2021-09-30 キヤノン株式会社 情報処理装置、撮像装置、方法、プログラム及び記憶媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023008571A1 (ja) * 2021-07-30 2023-02-02 アニコム ホールディングス株式会社 個体識別システム及び個体識別方法

Also Published As

Publication number Publication date
US20220030160A1 (en) 2022-01-27
US11394874B2 (en) 2022-07-19
JP2022023603A (ja) 2022-02-08

Similar Documents

Publication Publication Date Title
CN108200354B (zh) 控制方法及装置、成像设备、计算机设备及可读存储介质
US8345109B2 (en) Imaging device and its shutter drive mode selection method
US9762806B2 (en) Imaging apparatus having variable diaphragm
US9113075B2 (en) Image processing method and apparatus and digital photographing apparatus using the same
US20090231364A1 (en) Display system capable of auto-regulating brightness and brightness auto-regulating method thereof
US20110187914A1 (en) Digital photographing apparatus, method of controlling the same, and computer-readable medium
JP2008076902A (ja) デジタルカメラおよびその制御方法
JP6817590B1 (ja) 撮像装置
JP4551270B2 (ja) 画像処理装置、画像処理方法、画像処理プログラムおよびカメラ
US20100245590A1 (en) Camera sensor system self-calibration
JP5908181B2 (ja) 表示制御装置
JP2008301355A (ja) 撮像装置及びそのプログラム
JP2007165947A (ja) 撮像装置,被写体像の逆光補正装置,対象画像検出装置およびそれらの制御方法
JP6758950B2 (ja) 撮像装置、その制御方法とプログラム
US9912873B2 (en) Image pickup apparatus equipped with display section and method of controlling the same
US11394869B2 (en) Imaging device with focusing operation based on subject and predetermined region
US9456140B2 (en) Optimized image stabilization
JP2013088446A (ja) 撮像装置
US11356611B2 (en) Image capture apparatus and control method thereof
JP6346783B2 (ja) 表示制御装置
US11917293B2 (en) Imaging device
US20210195119A1 (en) Image processing apparatus, image capturing apparatus and image processing method
US20240031545A1 (en) Information processing apparatus, information processing method, and storage medium
US10728464B2 (en) Imaging apparatus including auto exposure correction
JP5393189B2 (ja) 撮像装置及び画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200909

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200909

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201211

R151 Written notification of patent or utility model registration

Ref document number: 6817590

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151