JP7451171B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP7451171B2
JP7451171B2 JP2019232534A JP2019232534A JP7451171B2 JP 7451171 B2 JP7451171 B2 JP 7451171B2 JP 2019232534 A JP2019232534 A JP 2019232534A JP 2019232534 A JP2019232534 A JP 2019232534A JP 7451171 B2 JP7451171 B2 JP 7451171B2
Authority
JP
Japan
Prior art keywords
image
subject
still image
live view
still
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019232534A
Other languages
English (en)
Other versions
JP2021101503A (ja
Inventor
裕一郎 君島
和紀 ▲高▼山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019232534A priority Critical patent/JP7451171B2/ja
Priority to US17/127,522 priority patent/US11743601B2/en
Publication of JP2021101503A publication Critical patent/JP2021101503A/ja
Application granted granted Critical
Publication of JP7451171B2 publication Critical patent/JP7451171B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • G03B7/093Digital circuits for control of exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)

Description

本発明は、被写体情報を用いた画像処理装置等に関する。
従来、デジタルカメラなどの画像処理装置では、静止画連写中であっても、被写体のフレーミングを可能とするため、静止画の連写撮影の隙間期間にライブビュー(LV)用の画像の撮影が行われている。
一方で、画像から被写体を検出する動作は、LV用の画像における被写体追尾のためだけでなく、静止画信号を処理する際の各種パラメータ生成のために必要である。従って、フレーミング時はLV用に撮影された画像から被写体検出を行い、また、静止画の現像時には静止画記録用に撮影された静止画像から被写体検出を行うようにしていた。
ここで、被写体検出をする際に、LV用の画像と静止画用の静止画とでは適正露出が異なるため、LV用の画像から検出された被写体情報と、静止画用の静止画像から検出される被写体情報とが異なってしまうなどして誤検出が発生する場合があった。
これに対し、特許文献1においては、所定以上の露出変化が発生する場合には、静止画用の静止画像から検出された被写体情報を用いないようにすることで、誤検出の発生を抑制している。
特開2018-14659号公報
一方、近年の動画の表示レートの高フレームレート化や、静止画連写速度の高速化に伴い、LV用画像、静止画それぞれから被写体検出しようとすると被写体検出のための処理時間が所定の時間内に収まらない可能性がある。また、画像認識を用いた被写体検出においては、近年、AI技術の導入など、処理が複雑化し、処理時間も多く要するようになってきている。一方、専用のハードウェアにより高速処理をしようとすると、コストや消費電力の問題が発生する。
また、被写体検出の処理時間は、被写体の数や画像認識の難易度等によって処理時間が増減する。従って、たとえばLV用の画像から被写体検出をしていて、被写体検出の処理時間が長くかかってしまった場合、静止画用の静止画像から被写体を検出するための時間が不足し、静止画の現像処理に悪影響を与える場合もある。
逆に、静止画用に撮影された静止画像から被写体検出を行うための処理時間が延びてしまった場合には、LV用の画像から被写体検出ができなくなり、例えば特許文献1に記載された構成では、被写体追尾に失敗してしまう可能性がある。
そこで本発明は被写体情報を適切に用いた画像処理ができる画像処理装置を提供することを目的とする。
画像処理装置において、
ライブビュー用画像と静止画像を選択的に取得可能な取得部、
前記ライブビュー用画像を所定の第1の周期で周期的に取得している際に、所定の操作によって前記静止画像を取得すると共に、前記静止画像を取得した直後にライブビュー用画像を再び取得する駆動制御部、
前記静止画像を取得した直前または直後のライブビュー用画像から被写体情報を検出する被写体検出部、
前記被写体検出部によって検出された被写体情報に基づき前記静止画像を処理する信号処理部、を有し、
前記ライブビュー用画像を前記所定の第1の周期より遅い所定の第2の周期で周期的に取得している際に、所定の操作によって前記静止画像を取得した場合には、前記被写体検出部によって前記静止画像から被写体情報を検出し、前記信号処理部は、前記被写体検出部によって検出された被写体情報に基づき前記静止画像を処理することを特徴とする。
本発明によれば、被写体情報を適切に用いた画像処理ができる画像処理装置を得ることができる。
本発明の実施例1における画像処理装置のブロック図である。 実施例1の高速LV時の被写体検出を説明するタイミングチャートである。 実施例1の高速LV中に静止画撮影がされた場合の例を説明するタイミングチャートである。 実施例1の高速LV中に静止画撮影がされ、絞りが駆動された場合の例を説明するタイミングチャートである。 実施例1の高速LV中に静止画撮影がされ、絞りが駆動された場合の他の例を説明するタイミングチャートである。 実施例1の高速LV中に静止画撮影がされ、絞りが駆動された場合の更に他の例を説明するタイミングチャートである。 実施例1における動作シーケンスを説明するフローチャートである。 実施例2の高速LV表示中に、静止画撮影が実施された場合のタイミングチャートである。 実施例3の画像処理装置のブロック図である。 実施例3の被写***置検出部107のための制御フローを示すフローチャートである。
以下、添付図面を参照して、本発明の好適な実施の形態について実施例を用いて説明する。なお、各図において、同一の部材ないし要素については同一の参照番号を付し、重複する説明は省略ないし簡略化する。
また、実施例においては、画像処理装置としてデジタルスチルカメラなどの撮像装置に適用した例について説明する。しかし、本実施例の画像処理装置は、デジタルムービーカメラ、カメラ付きのスマートフォン、カメラ付きのタブレットコンピュータ、車載カメラ、ネットワークカメラなど撮像機能を有する画像処理装置等を含む。
以下、図面を用いて本発明の実施例1を説明する。図1は実施例1に係るデジタルカメラの構成の一例を示すブロック図であり、100は光学系のレンズ、101は、撮像部に入射する光を制御するための絞りやフォーカスなどの調整機構の駆動を行う光学系駆動部である。
102は光学系を介して被写体からの光を受光し画像データを出力するセンサであり、例えばCMOSタイプのイメージセンサである。撮像部としてのセンサ102はLV(ライブビュー)用の画像と、静止画記録用の静止画像とを選択的に取得可能である。
103はデジタルカメラのモード(動画モードと静止画モード等)に応じてセンサの駆動方式を制御するセンサ駆動部、112はセンサから出力される画像データを一時的に記憶するDRAMなどの画像メモリである。
104はセンサから出力され画像メモリを介して得られた画像データに基づき、表示や記録に用いるデータを生成する信号処理部である。
信号処理部104では、画素補正、黒レベル補正、シェーディング補正、傷補正、ホワイトバランス調整、倍率色収差補正、ガンマ補正、輝度・色生成処理、幾何変形補正、ノイズリダクション、拡大縮小などの複数の処理を実行する。105は表示デバイスを含む表示部であり、信号処理部104と接続され、不図示の表示デバイスのサイズに応じたリサイズなどの処理を施す。更に、表示部105は表示画像データに重畳するOSD(On-Screen Display)画像を生成し、例えば被写体枠情報を表示デバイスの表示画像に重畳表示する。
106は信号処理部104と接続された記録部であり、静止画データや動画データを不図示のSDカードなどの着脱可能なストレージメディアに記録する。107は被写***置検出部であり、センサ102より入力された画像データから、例えば、画像認識により画像中の主被写体領域を検出する。108は被写体動き検出部であり、センサ102より入力された画像データと、被写***置検出部107より得られた、複数枚の被写***置検出結果に基づき、被写体の動きの量と方向を検出すると共に、被写体枠情報を生成する。被写***置検出部107と被写体動き検出部108により被写体検出部が構成されている。
被写体動き検出部108からの被写体枠情報は表示部105に供給され、被写体の枠データ等のマークが生成される。また、被写体動き検出部108は、被写***置検出部107に対して、被写***置を検出するための参考情報として被写体動き情報を供給する。109は前記の被写***置検出結果等の被写体情報等を取得し、光学系駆動部101、センサ駆動部103などに、制御指示を出すシステム制御部である。110はコンピュータとしてのCPU(Central Processing Unit)であり、各検出部などで得られシステム制御部109を介した検出結果に基づき、駆動信号等を生成するなどの処理を、システム制御部109と通信しながら実施する。
また、CPU110は不図示のメモリに記憶されたコンピュータプログラムに基づきシステム制御部109とともに装置全体の各種動作を実行する制御手段として機能する。111は露出検出部であり、センサ102から出力された画像データから、被写体の露出情報(明るさ情報)を検出する。検出された被写体露出情報はシステム制御部109に供給される。システム制御部109は被写体露出情報に基づき、光学系駆動部101を用いて絞りを制御し、信号処理部104の各種信号処理のパラメータ制御を行う。
なお、近年のデジタルカメラでは、LVのフレームレートが高速化され、また、連写速度(1秒間に撮影(取得)できる静止画の撮影フレーム数)も高速化されている。従って、ライブビューと静止画の各々のフレームから、検出結果を常に取得し続けることが困難となっている。そこで、例えばLVから被写体を検出する処理を、数枚のフレーム毎に実行するなど、撮影のフレームレートに対して低いレートで実行することが考えられている。
図2は、実施例1における、ライブビュー画像の撮影(取得)と表示、および、その時の検出結果を得るタイミングチャートを示している(横軸は時間)。撮像の同期信号は、センサ駆動部103から、センサ102へ出力されるフレーム単位の同期信号である。表示の同期信号は、不図示の表示デバイスに対する、同じくフレーム単位の同期信号である。信号処理部104からの画像信号(表示データ)と被写体枠データは、これらの同期信号と同期しながら、表示部105において重畳表示される。
LV1~LV5はLV画像データを示し、PB1~PB5は表示データを示す。
図2では、撮像(撮影)のフレームレート、表示のフレームレートは、例えば120fps(であり、1秒間に120枚のフレームを連続で撮影し、高速LV表示している。その際の被写体の画像認識等による検出処理を、撮像と表示の高速なフレームレートで処理することは大きな負荷となる。そのため、図2では、被写***置検出部107にて撮像のフレームレートの半分の周期で被写体検出を行い、検出された結果(被写体枠データ)は、検出されたフレームより、2フレーム後の表示データに反映されている。
なお、ここで被写体検出(被写体情報の検出)とは例えば画像認識により被写体の顔を検出したり、被写体の瞳を検出したり、全身の形や姿勢を検出したり、被写体の頭部を検出するものを含む。これらの被写体検出の結果である被写体情報に基づき例えばLV表示における被写体自動追尾や、LV表示や静止画現像処理における各種補正処理が行われる。補正処理としては例えば静止画中の被写体の顔部分の輪郭強調を弱めることによって美顔効果を出したり、被写体部分の圧縮率を下げて解像度を上げたり、被写体の顔部分の肌色補正をしたり、顔の肌色に合わせてホワイトバランス補正をする等の補正処理がある。
即ち、図2では、LV1と表記されたフレームから検出された結果は、PB3と表記される表示データにおいて反映されている。
理想的には、LV1と表記されている撮像データから得られた被写体検出結果は、PB1と表記されている表示データに反映されることが好ましい。しかし、120fps程度のフレームレートであれば、被写体検出結果が反映されるフレームが、2、3フレーム後になったとしても、被写体検出の遅れは、オートフォーカスの精度には大きく影響しない。
図3は、図2に対して、高速LV表示中に、静止画撮影が実施された場合のタイミングチャートの例を示す図であり、図2のLV3と表記されたタイミングで、静止画の撮影を行った場合を示している(横軸は時間)。図2では、ライブビュー用画像を第1の周期で周期的に取得している際に、所定のシャッタレリーズボタン操作によって静止画像を取得すると共に、静止画像を取得した直後にライブビュー用画像を再び取得するように駆動制御をしている。
図2では、LV3の撮像データから被写体の検出を実施し、PB5と表記されているフレームに検出結果(枠データ等)を反映させていた。しかし図3では、LV3が存在しないため、静止画から被写体検出を行うか、LV2から取得することが考えられる。
しかし、静止画から被写体検出を行った場合、静止画像は、ユーザが露出をマニュアル設定している場合などにおいては、不適正な露出となっている場合もありえるので、被写体検出結果が正しく得られないことがある。
したがって、図3の実施例では、静止画から被写体検出をせずに、LV2から被写体検出を行い、PB5の表示フレームに反映させている。また、静止画の信号処理をする際には、LV2のタイミングで得られた画像に基づき被写体検出をし、その結果を用いて、信号処理部104にて、静止画の信号処理を実施している。即ち、前述のように、例えば被写体検出結果により静止画中の被写体の顔部分の輪郭強調を弱めて美顔効果を得たり、被写体部分の圧縮率を下げて解像度を上げたり、被写体の顔部分の肌色補正をしたり、顔部分に合わせてホワイトバランス補正する等の処理をする。
図4は、実施例1において、高速LV時中に静止画撮影がされたとき、絞り駆動が発生した場合を説明するタイミングチャートである。図4においては、図3の例に対して、ユーザがシャッタレリーズボタンを押下した直後のLV画像から露出検出部111にて露出値(被写体の明るさの値)を取得する。そして、取得した露出値に基づきシステム制御部109にて絞り駆動量を算出し、光学系駆動部101にて絞り駆動量に応じた静止画撮影用の絞り駆動を行っている(横軸は時間)。
LV2の直前のタイミングで、シャッタレリーズボタンが押下され、直後のLV2の画像を用いて、露出検出部111にて、露出の検出を行っている。CPU110によって、露出検出結果を用いた演算が実施され、その演算結果に基づき光学系駆動部101にて、カメラの絞りを制御する。このとき、絞りの動作条件等にもよるが、絞りを適正に制御するまで、数10ms程度の時間を要する場合があり、また、絞りを動作中は、露出が変動するため、適正な撮像データを得ることができない。
図3のタイミングチャートでは、静止画像に対する被写体検出結果は、静止画の直前のLV用の画像データLV2の検出結果を用い、静止画の信号処理を実施している。しかしながら、図4の場合においては、LV2と静止画撮影の間隔が離れているため、静止画像とLV2の画像では、被写体ブレを起こしている可能性がある。しかもLV2の時点の絞り値と静止画の絞り値とが異なるため、LV2で得られた画像に基づく被写体検出結果の信頼性が低下する可能性がある。
図5は、図4に対して、静止画の信号処理における被写体検出結果を、静止画撮影の直後のLV用の画像データLV3から生成している。静止画像は、画像メモリ112にいったん蓄積され、LV3からの被写体検出結果が生成されたタイミングで、画像メモリ112から、静止画像を読み出し、信号処理が実施される(横軸は時間)。また、LV3の撮影時の露出を、静止画を撮影時の露出と同様とする(少なくとも、静止画撮影とLV3の撮影では露出を変更しない)。即ち、静止画像を取得する際の絞り状態と、静止画像を取得した直後に所定のライブビュー用画像を再び取得する際の絞り状態を同じにする。
このようにすることによって静止画像とLV3の画像は、撮像間隔が短いので被写体ブレを起こしにくい。またLV3の時点の絞り値と静止画の絞り値とが同じなので、LV3で得られた画像に基づく被写体検出結果の信頼性が高い。
図6は実施例1において、高速LV時中に静止画撮影がされ、絞りが駆動された場合の更に他の例を説明するタイミングチャートである。
図6では、静止画像の撮影が終了した後、システム制御部109により、撮像の同期信号と、表示の同期信号を、できるだけ、静止画撮影終了後、時間的に前倒ししている(横軸は時間)。即ち、静止画像を取得した直後に所定のライブビュー用画像を再び取得する際に、前記所定のライブビュー用画像を取得するための同期信号をリセットする。
つまり、静止画撮影が完了した直後に、撮像の同期信号と表示の同期信号をリセットする。これは、静止画像撮影とLV3の撮影の間隔をできるだけ詰めることにより、画像の被写体ブレを最小限に抑制するためである。
このような制御を実施することにより、高速撮影処理中であっても、LV表示の被写体枠を適正に表示しつつ、静止画像から被写体の検出結果を得ることなく、静止画の信号処理を適正に実施することが可能となる。
なお、LV2から得られた露出結果とLV4から得られた露出結果の比較をし、その結果(露出変動がどの程度であるか)に応じて、LV3から得られた被写体検出結果を表示画像PB5に反映するか否かを判断してもよい。
以上のように、図3~図6に示された例では、静止画像を取得した直前または直後のライブビュー用画像から被写体情報を検出し検出された被写体情報に基づき静止画像を現像処理している。また、ライブビュー用画像を処理する際には、ライブビュー用画像から検出された被写体情報に基づきライブビュー用画像を処理し、例えば被写体を追尾するための被写体枠などのマークを画面に表示している。
図7は、図6で説明したタイミングチャートに対応した、CPU110の動作シーケンスを説明するフローチャートである。
図7のステップS200にて、カメラの電源が入ると、LV表示を開始する。
LV表示開始後、ステップS201でシャッタレリーズボタン押下の判定をし、押下されたという判定があった場合は、ステップS202で、シャッタレリーズボタン押下直後のLV用画像から露出検出部111で露出を検出し、露出結果取得の完了を待つ。
露出結果を取得できたら、ステップS203に進み、CPU110により、絞り駆動値を算出し、システム制御部109を介して、光学系駆動部101により、絞り駆動を行う。ステップS204では、絞り駆動の完了を待つ。
絞り駆動完了後、ステップS205にて、センサ駆動部103にて、センサ102の駆動モードを、静止画駆動モードに切り替え、静止画駆動モード用の同期信号に切り替える。ステップS206では、センサ102から静止画のデータの出力が完了したかを、画像メモリ112に静止画像データの書き込みが完了したかを見ることにより判別する。
センサ102からの静止画データの出力が完了すると、ステップS207に進み、システム制御部109は、センサ駆動部103に対して、センサの同期信号と表示の同期信号をリセットし、LV用の撮像及び表示を速やかに再開する。ここでステップS200~S208は、ライブビュー用画像を第1の周期で周期的に取得している際に、所定の操作によって静止画像を取得すると共に、静止画像を取得した直後にライブビュー用画像を再び取得する駆動制御部として機能している。
以降、ステップS208でライブビュー表示が完了していない(カメラの電源が入り、静止画取得の待機状態となっている)ことが判別されればステップS201に戻る。そして、ステップS201~ステップS208のフローを繰り返す。ステップS208でLV表示が完了したと判別されると図7のフローを終了する。
なお、以上では、静止画の信号処理をする際に用いる被写体情報を、静止画撮影後のLV画像から取得する例について説明したが、これは高速LV用撮影と高速連写で静止画撮影をする場合の例である。
即ち、ライブビュー用画像を所定の第1の周期(高速)で周期的に取得している際に、所定の操作によって静止画像を取得する場合の例である。
一方、低速LV用撮影や低速連写で静止画撮影する場合は、それぞれ動画像、静止画像で検出された被写体情報をそれぞれ動画像、静止画像に反映するように制御する。即ち、ライブビュー用画像を第1の周期より遅い低速(第2の周期)で周期的に取得している際に、所定の操作によって静止画像を取得する場合には、静止画像から被写体情報を検出して静止画像を処理している。
実施例2は、高速LV表示中に、静止画撮影が実施された場合、記録される静止画現像の精度を優先し、静止画用に撮影された画像から被写体検出を行うようにする点に特徴がある。
なお、実施例1と同じ部材には同じ番号を付しており、その部分の説明は省略する。
図8は、図2に対して、高速LV表示中に、静止画撮影が実施された場合のタイミングチャートである。図2のLV3、LV5、と表記された位置に、また図2では示していないLV7のタイミングで、静止画の撮影が行われる例を示している(横軸は時間)。図2では、被写***置検出部107は、LV3の撮像データから被写体を検出し、PB5と表記されているフレームに検出結果を反映させていた。
一方、図8では、LV3、LV5、LV7が存在しないため、静止画から被写体検出を行うか、LV4、LV6から取得するかのどちらかをすることになる。
LV4、LV6の画像から被写体検出を行う場合、静止画撮影とLV用の撮影で時間差があり、被写体が移動している可能性がある。被写体が移動している場合、静止画像に写っている被写体の位置と、LV用の画像から検出した被写体の位置にずれが生じ、精度の高い静止画現像ができなくなってしまう。
一方で、静止画用に撮影された画像から被写体検出を行う場合には、LV用に撮影された画像から被写体検出ができない。従って、被写体追尾用の被写体検出ができず、被写体の追尾を失敗してしまう可能性がある。しかし、本実施例では、記録される静止画のための画質を優先し、静止画用に撮影された画像から被写体検出を行い、その被写体検出結果を静止画現像処理に反映させる。
以上、説明したように、実施例2によれば、高速LV表示中に、静止画撮影が実施された場合でも、記録される静止画の画質を優先している。そして、静止画用に撮影された静止画像から被写体検出を行い、その結果を静止画の現像処理に反映させるようにすることで、記録される静止画の画質を落とさないようにすることができる。
実施例3は静止画に適用する露出設定等に応じて、被写体検出する画像を切り替える点に特徴がある。なお、実施例1、実施例2と同じ部材には同じ番号を付しており、その部分の説明は省略する。
図9において、被写***置検出部107は、静止画撮影時の露出設定に基づき、静止画像から被写体検出を行うか、LV用の画像から取得するか、を選択し、被写体検出を行う。
また、113は動き補償部であり、信号処理において被写***置情報を補正するためのものである。具体的には、LV用の画像から被写体検出を行う場合に、静止画撮影とLV用の画像撮影の時間差があり、被写体が移動している可能性がある。そのため、動き補償部113は、被写体動き検出部108からの被写体動き情報に基づき、信号処理部104における被写***置を補正する。
図10は、実施例3の特徴である被写***置検出部107のためのCPU110の動作フローを示すフローチャートである。
図10のステップS300で、露出検出部111からの露出検出結果、および、ユーザによる露出設定に基づき、LV用の撮影時の露出制御と静止画撮影時の露出制御を比較する。そして、LV用の撮影時の露出制御と静止画撮影時の露出制御における露出差が所定値より大きいか否かを判別する。
ステップS300でLV用の撮影時の露出制御と静止画撮影時の露出制御で露出差が所定値より小さいと判断された場合は、ステップS301に進む。ステップS301では静止画用に撮影された画像から被写体検出を行っても追尾に失敗する可能性が低いため、静止画像に基づき被写体検出を行う。ステップS300で、LV用の撮影時の露出制御と静止画撮影時の露出制御で露出差が所定値以上の場合は、静止画用に撮影された画像から被写体検出を行うと追尾に失敗してしまう可能性が高い。従って、被写体追尾を優先しステップS302へ進む。
ステップS302においては、被写体動き検出部108からの被写体動き情報に基づき、主被写体の動き量が所定値より大きいか否かを判別する。ステップS302で主被写体が所定値より動いていないと判別されれば静止画用に撮影された画像から被写体検出を行っても追尾に失敗する可能性が低いためステップS303へ進む。ステップS303で静止画像より被写体検出を行う。ステップS302で主被写体が所定値より動いていれば静止画用に撮影された画像から被写体検出を行うと追尾に失敗してしまう可能性が高いためステップS304へ進む。
ステップS304においては、LV用の画像から被写体検出を行う。その際、静止画撮影の直前に撮影されたLV用の画像から被写体検出を行うか、静止画撮影直後に撮影されたLV用の画像から被写体検出を行うかを決めるため、静止画とLV用の画像の露光(露出)重心を計算する。ここで露光(露出)重心とは、露光(露出)期間(撮影期間)の重心を意味する。静止画と露光重心の近い方(すなわち、静止画の露出タイミングとの差が少ない方)のLV用の画像より被写体検出を行った方が、被写体が移動している可能性が低くなるためである。
静止画撮影の直前に撮影されたLV用の画像の方が静止画と露光重心が近い場合は、ステップS305へ進み静止画撮影の直前に撮影されたLV用の画像から被写体検出を行う。一方、静止画撮影の直後に撮影されたLV用の画像の方が静止画と露光重心が近い場合は、ステップS306へ進み静止画撮影の直後に撮影されたLV用の画像から被写体検出を行う。
ステップS307においては、LV用の画像から被写体検出を行った場合は、被写体が移動している可能性があるため、被写体動き検出部108からの被写体動き情報に基づき、静止画撮影時の被写体の位置を推測して静止画の現像処理を行う。ここでステップS307は被写体の動きを補正する補正部として機能する。
以上説明したように、本実施例によれば、所定の条件に応じて、前記ライブビュー用画像または前記静止画像の少なくとも1つから被写体情報を検出している。
更には、LV用の画像と静止画の露出制御、および、被写体の動き等の所定の条件に応じて、被写体検出するLV用の画像を選択する。このように、所定の条件に応じて、静止画像の直前のLV用の画像と、静止画像の直後のLV用の画像と静止画像の少なくとも1つを選択することで、静止画の画質を向上させ、被写体検出などの精度を向上することが可能となる。
なお上記の所定の条件として、例えば静止画像の直前のLV用の画像と、静止画像の直後のLV用の画像と静止画像のそれぞれの被写体のコントラストを比較し、例えばコントラストが最も高い画像を選択して被写体検出をするようにしても良い。それによって被写体検出の信頼性が向上する。
以上、本発明をその好適な実施例に基づいて詳述してきたが、本発明は上記実施例に限定されるものではなく、本発明の主旨に基づき種々の変形が可能であり、それらを本発明の範囲から除外するものではない。
なお、本実施例における制御の一部または全部を上述した実施例の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して画像処理装置に供給するようにしてもよい。そしてその画像処理装置におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。
100:レンズ
102:センサ
112:画像メモリ
104;信号処理部
107:被写***置検出部
105:表示部
106:記録部
108:被写体動き検出部
109:システム制御部
111:露出検出部
113:動き補償部

Claims (16)

  1. ライブビュー用画像と静止画像を選択的に取得可能な取得部、
    前記ライブビュー用画像を所定の第1の周期で周期的に取得している際に、所定の操作によって前記静止画像を取得すると共に、前記静止画像を取得した直後にライブビュー用画像を再び取得する駆動制御部、
    前記静止画像を取得した直前または直後のライブビュー用画像から被写体情報を検出する被写体検出部、
    前記被写体検出部によって検出された被写体情報に基づき前記静止画像を処理する信号処理部、を有し、
    前記ライブビュー用画像を前記所定の第1の周期より遅い所定の第2の周期で周期的に取得している際に、所定の操作によって前記静止画像を取得した場合には、前記被写体検出部によって前記静止画像から被写体情報を検出し、前記信号処理部は、前記被写体検出部によって検出された被写体情報に基づき前記静止画像を処理することを特徴とする画像処理装置。
  2. 前記信号処理部から得られた画像を表示する表示部を有することを特徴とする請求項1に記載の画像処理装置。
  3. 前記信号処理部は、前記ライブビュー用画像から検出された前記被写体情報に基づき前記ライブビュー用画像を処理することを特徴とする請求項1に記載の画像処理装置。
  4. 前記信号処理部は、前記ライブビュー用画像から検出された前記被写体情報に基づき前記ライブビュー用画像を処理して被写体を追尾するためのマークを表示することを特徴とする請求項に記載の画像処理装置。
  5. 前記被写体検出部が、前記静止画像を取得した直後のライブビュー用画像から被写体情報を検出する場合に、前記駆動制御部は、前記静止画像を取得した直後に所定のライブビュー用画像を再び取得する際に、前記所定のライブビュー用画像を取得するための同期信号をリセットすることを特徴とする請求項1に記載の画像処理装置。
  6. 前記静止画像を取得する際に前記取得部に入射する光を制御する絞りを有し、前記被写体検出部が、前記静止画像を取得した直後のライブビュー用画像から被写体情報を検出する場合には、前記絞り部は前記静止画像を取得する際の絞り状態と、前記静止画像を取得した直後に前記所定のライブビュー用画像を再び取得する際の絞り状態を同じにすることを特徴とする請求項1またはに記載の画像処理装置。
  7. ライブビュー用画像と静止画像を選択的に取得可能な取得部、
    前記ライブビュー用画像を周期的に取得している際に、所定の操作によって前記静止画像を取得すると共に、前記静止画像を取得した直後にライブビュー用画像を再び取得する駆動制御部、
    前記ライブビュー用画像を所定の第1の周期で周期的に取得している際には、所定の条件に応じて、前記ライブビュー用画像または前記静止画像の少なくとも1つから被写体情報を検出し、前記ライブビュー用画像を第1の周期より遅い所定の第2の周期で周期的に取得している際には、前記静止画像から被写体情報を検出する被写体検出部、
    前記被写体検出部によって検出された被写体情報に基づき前記静止画像を処理する信号処理部、を有することを特徴とする画像処理装置。
  8. 前記被写体検出部は、前記ライブビュー用画像を所定の第1の周期で周期的に取得している際には、所定の条件に応じて、前記静止画像の直前または直後の前記ライブビュー用画像から被写体情報を検出することを特徴とする請求項に記載の画像処理装置。
  9. 前記被写体検出部は、前記静止画像の直前または直後の前記ライブビュー用画像の内、前記静止画像の露出タイミングとの差が少ない方のライブビュー用画像から被写体情報を検出することを特徴とする請求項に記載の画像処理装置。
  10. 前記所定の条件は前記ライブビュー用画像と前記静止画像の露出差が所定値より大きいか否かを含むことを特徴とする請求項に記載の画像処理装置。
  11. 前記所定の条件は前記ライブビュー用画像と前記静止画像の露出差が所定値より小さい場合には前記静止画像から被写体情報を検出することを特徴とする請求項1に記載の画像処理装置。
  12. 前記所定の条件は主被写体の動き量、被写体のコントラストの少なくとも1つを含むことを特徴とする請求項に記載の画像処理装置。
  13. 前記主被写体の動き量が所定値より小さい場合には、前記静止画像から被写体情報を検出することを特徴とする請求項1に記載の画像処理装置。
  14. 前記ライブビュー用画像から前記被写体情報を検出する場合に、被写体の動きを補正する補正部を有することを特徴とする請求項に記載の画像処理装置。
  15. 前記取得部は、光学系を介して被写体からの光を受光し画像データを出力するイメージセンサを含むことを特徴とする請求項1に記載の画像処理装置。
  16. 請求項1~15のいずれか1項に記載の前記画像処理装置の各部としてコンピュータを機能させるためのコンピュータプログラム。
JP2019232534A 2019-12-24 2019-12-24 画像処理装置 Active JP7451171B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019232534A JP7451171B2 (ja) 2019-12-24 2019-12-24 画像処理装置
US17/127,522 US11743601B2 (en) 2019-12-24 2020-12-18 Image processing device, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019232534A JP7451171B2 (ja) 2019-12-24 2019-12-24 画像処理装置

Publications (2)

Publication Number Publication Date
JP2021101503A JP2021101503A (ja) 2021-07-08
JP7451171B2 true JP7451171B2 (ja) 2024-03-18

Family

ID=76441714

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019232534A Active JP7451171B2 (ja) 2019-12-24 2019-12-24 画像処理装置

Country Status (2)

Country Link
US (1) US11743601B2 (ja)
JP (1) JP7451171B2 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008028747A (ja) 2006-07-21 2008-02-07 Casio Comput Co Ltd 撮像装置及びそのプログラム
JP2010169954A (ja) 2009-01-23 2010-08-05 Nikon Corp 表示装置及び撮像装置
US20130162876A1 (en) 2011-12-21 2013-06-27 Samsung Electronics Co., Ltd. Digital photographing apparatus and method of controlling the digital photographing apparatus
JP2016213619A (ja) 2015-05-01 2016-12-15 オリンパス株式会社 撮像装置、及び撮像装置の制御方法
JP2017181797A (ja) 2016-03-30 2017-10-05 キヤノン株式会社 焦点検出装置およびその方法、撮像装置、プログラム、記憶媒体
US20190238748A1 (en) 2018-01-31 2019-08-01 Canon Kabushiki Kaisha Image pickup apparatus capable of consecutively displaying different types of image, control method, and storage medium
JP2019197295A (ja) 2018-05-08 2019-11-14 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5750864B2 (ja) * 2010-10-27 2015-07-22 ソニー株式会社 画像処理装置、画像処理方法、プログラム
US9143670B1 (en) * 2012-07-20 2015-09-22 COPsync, Inc. Video capture system including two independent image sensors
KR102232517B1 (ko) * 2014-09-15 2021-03-26 삼성전자주식회사 이미지 촬영 방법 및 이미지 촬영 장치
JP6598537B2 (ja) * 2015-07-01 2019-10-30 キヤノン株式会社 画像処理装置、撮像装置および画像処理プログラム
US20170076156A1 (en) * 2015-09-14 2017-03-16 Logitech Europe S.A. Automatically determining camera location and determining type of scene
JP2018014659A (ja) 2016-07-22 2018-01-25 キヤノン株式会社 撮像装置
KR102386398B1 (ko) * 2017-03-17 2022-04-14 삼성전자주식회사 촬영 모드에 따라 이미지에 대한 표시자를 다르게 제공하는 방법 및 그 전자 장치
KR102424984B1 (ko) * 2017-12-21 2022-07-25 삼성전자주식회사 복수 개의 카메라를 포함하는 전자 장치 및 그 동작 방법
EP3834134B1 (en) * 2018-09-19 2024-05-22 Motorola Solutions, Inc. Method and system for performing object detection using a convolutional neural network
US11128792B2 (en) * 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008028747A (ja) 2006-07-21 2008-02-07 Casio Comput Co Ltd 撮像装置及びそのプログラム
JP2010169954A (ja) 2009-01-23 2010-08-05 Nikon Corp 表示装置及び撮像装置
US20130162876A1 (en) 2011-12-21 2013-06-27 Samsung Electronics Co., Ltd. Digital photographing apparatus and method of controlling the digital photographing apparatus
JP2016213619A (ja) 2015-05-01 2016-12-15 オリンパス株式会社 撮像装置、及び撮像装置の制御方法
JP2017181797A (ja) 2016-03-30 2017-10-05 キヤノン株式会社 焦点検出装置およびその方法、撮像装置、プログラム、記憶媒体
US20190238748A1 (en) 2018-01-31 2019-08-01 Canon Kabushiki Kaisha Image pickup apparatus capable of consecutively displaying different types of image, control method, and storage medium
JP2019134335A (ja) 2018-01-31 2019-08-08 キヤノン株式会社 撮像装置、制御方法、およびプログラム
JP2019197295A (ja) 2018-05-08 2019-11-14 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Also Published As

Publication number Publication date
US20210195101A1 (en) 2021-06-24
JP2021101503A (ja) 2021-07-08
US11743601B2 (en) 2023-08-29

Similar Documents

Publication Publication Date Title
JP7346654B2 (ja) 画像処理装置、撮像装置、制御方法、プログラム、及び記憶媒体
EP1808014B1 (en) Camera and image processing method for camera
JP5029137B2 (ja) 撮像装置及びプログラム
US9247137B2 (en) Image pickup apparatus and image pickup method which acquires bright-time image data and dark-time image data to correct dark current
US20120057034A1 (en) Imaging system and pixel signal readout method
JP6911439B2 (ja) プロジェクター
JP4506779B2 (ja) 撮像装置及びプログラム
JP4953770B2 (ja) 撮像装置
JP5014267B2 (ja) 撮像装置
US11190704B2 (en) Imaging apparatus and control method for performing live view display of a tracked object
US20200177814A1 (en) Image capturing apparatus and method of controlling image capturing apparatus
JP7451171B2 (ja) 画像処理装置
US11330179B2 (en) Imaging device and control method thereof
JP2013218031A (ja) 撮像装置
US20210258473A1 (en) Electronic device, control method of electronic device, and non-transitory computer readable medium
US20210258472A1 (en) Electronic device
JP2019080261A (ja) 撮像装置
US9661204B2 (en) Image capturing apparatus and control method thereof
US11356603B2 (en) Image capturing apparatus and control method therefor
JP7346076B2 (ja) 制御装置、レンズ装置、撮像装置、制御方法、および、プログラム
JP4758379B2 (ja) 撮影装置
US11743597B2 (en) Electronic apparatus and control method thereof, and storage medium
US11665438B2 (en) Electronic device capable of acquiring line-of-sight information
JP2017125985A (ja) 撮像装置
JP4798654B2 (ja) デジタルカメラ

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240306

R151 Written notification of patent or utility model registration

Ref document number: 7451171

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151