JP5629564B2 - 画像処理装置およびその制御方法 - Google Patents

画像処理装置およびその制御方法 Download PDF

Info

Publication number
JP5629564B2
JP5629564B2 JP2010273017A JP2010273017A JP5629564B2 JP 5629564 B2 JP5629564 B2 JP 5629564B2 JP 2010273017 A JP2010273017 A JP 2010273017A JP 2010273017 A JP2010273017 A JP 2010273017A JP 5629564 B2 JP5629564 B2 JP 5629564B2
Authority
JP
Japan
Prior art keywords
image
subject
parameter
calculated
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010273017A
Other languages
English (en)
Other versions
JP2012124682A5 (ja
JP2012124682A (ja
Inventor
光明 服部
光明 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010273017A priority Critical patent/JP5629564B2/ja
Priority to US13/306,381 priority patent/US8687847B2/en
Publication of JP2012124682A publication Critical patent/JP2012124682A/ja
Publication of JP2012124682A5 publication Critical patent/JP2012124682A5/ja
Application granted granted Critical
Publication of JP5629564B2 publication Critical patent/JP5629564B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7904Processing of colour television signals in connection with recording using intermediate digital signal processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)

Description

本発明は、画像処理装置およびその制御方法に関し、特には撮像画像のホワイトバランス補正を行う画像処理装置及びその制御方法に関する。
従来、例えばデジタルスチルカメラのような撮像装置には、撮像画像のホワイトバランス補正を自動で行うオートホワイトバランス機能が設けられている。また、連続撮像された画像に対するホワイトバランス補正結果のバラツキを軽減するため、1コマ目(1枚目)に撮像された画像に基づいて算出されたホワイトバランス補正値を連続撮影中の次コマ(2枚目)以降に適用することが知られている。
しかし、この方法では、連続撮影中に被写体を照明している光の色温度が変化した場合、変化前後で撮像された画像の色が異なってしまうことがある。この問題を解決するため、特許文献1では、連続撮影して得た画像毎に被写体の輝度を測定し、1コマ前の画像の被写体輝度と最新のコマの画像の被写体輝度の変化量に応じて新たなホワイトバランス補正値を算出する技術が開示されている。
特許文献1記載の技術では、連続撮影中に被写体を照明している光の色温度が変化しない場合(輝度変化が少ない場合)は、一コマ前の画像に適用されたホワイトバランス補正値が最新コマの画像に適用される。そのため、連続撮像された画像のホワイトバランス補正結果のバラツキを軽減することができる。また、連続撮影中に被写体を照明している光の色温度が変化した場合(輝度変化が大きい場合)は、最新コマの画像のみに基づいて算出されたホワイトバランス補正値が最新コマの画像に適用される。そのため、1コマ前と最新コマの撮影間に被写体を照明している光の色温度が変化しても、最新コマの画像について適切なホワイトバランス補正結果が得られる。
特開2002−247590号公報
しかしながら、特許文献1に開示された技術では、以下の2つの例で適切なオートホワイトバランス補正結果が得られない場合がある。
1つ目の例は、図3に示すような、連続撮影中に撮影範囲が日向から日陰に徐々に変化する場合である。301は連続撮影時1コマ目の撮影範囲であり、302〜306はそれぞれ連続撮影時2コマ目〜6コマ目の撮影範囲を示している。このように、撮像画像に占める複数光源の面積の割合が徐々に変化する場合、最新コマと1コマ前の輝度変化は少ない。そのため、特許文献1の方法では適切に光源変化を検出できない。その結果、1コマ目301で算出された日向用のホワイトバランス補正が順次用いられ、6コマ目306の日陰の撮影でも使用されてしまう。
2つ目の例は、顔検出機能を有し、顔が検出された場合に顔の肌色が適切な色となるようにホワイトバランス補正を行う撮像装置において、図4(a)及び(b)に示すような、連続撮像された画像における人物の状態が変化する場合である。401と402は同一シーンを示しており、403〜405は1コマ目〜3コマ目の撮影範囲を示している。人物が401では正面を向いているのに対し、402では横を向いている。
ここで、1コマ目403では人物が正面を向いて写っているため、顔検出処理により顔が検出される。そして、検出された顔の色情報を元に、顔色が適切な肌色になるようなオートホワイトバランス補正が実行される。これにより、顔検出を行わない場合よりも精度の良いホワイトバランス補正結果を得ることが出来る。
2コマ目404では、1コマ目403とは全く異なる範囲が撮影されており、特に空が含まれた範囲を撮影している為、1コマ目403との輝度変化量が大きい。従って、特許文献1記載の方法では、2コマ目404のホワイトバランス補正は、2コマ目の画像のみに基づいて行われる。
3コマ目405で再び1コマ目403と同一撮像範囲が撮像されると、やはり2コマ目404との輝度変化量が大きいため、3コマ目405についても3コマ目405の画像のみに基づいたホワイトバランス補正が実行される。ここで、3コマ目405では、顔が横向きであったため、顔が検出できなかったものとする。この場合、顔が検出できた1コマ目403と異なり、3コマ目405では顔の色情報を用いずにホワイトバランス補正が行われる。
その結果、顔の色情報を用いた1コマ目403と顔の色情報を用いない3コマ目405のホワイトバランス補正値が異なった値となり、結果として1コマ目403と3コマ目405はほぼ同じ撮影範囲であるにもかかわらず、異なる色味の画像となってしまう。
本発明はこのような従来技術の課題に鑑みてなされたものであって、時系列的に撮像された複数の画像の色調を安定して適切に補正することが可能な画像処理装置およびその制御方法を提供することをその一目的とする。
上述の目的は、時系列的に撮像された複数の画像の各々に対して適用する画像処理に用いるパラメータを算出する画像処理装置であって、画像から予め定められた被写体を検出する検出手段と、2つの画像間の類似度を、各々の画像から得られる予め定められた特徴から算出する類似度算出手段と、複数の画像の各々について、画像から得られる情報に基づいてパラメータを算出するパラメータ算出手段と、処理対象の画像より過去に撮像された画像のうち、予め定められた被写体が検出された画像から決定された被写体基準画像と、予め定められた被写体が検出されない画像から決定された通常基準画像を記憶する記憶手段と、制御手段と、を有し、制御手段は、被写体基準画像からパラメータ算出手段が算出した第1のパラメータと、処理対象の画像からパラメータ算出手段が算出した第2のパラメータとを、被写体基準画像と処理対象の画像のうち検出手段により検出した被写体の信頼度が高い画像から算出されたパラメータの重み付けが高くなるように加重加算することにより第3のパラメータを算出し、通常基準画像からパラメータ算出手段が算出した第4のパラメータと、第3のパラメータとを、類似度算出手段により算出された通常基準画像と処理対象の画像との類似度が高いほど第4のパラメータの重み付けが高くなるように加重加算することにより処理対象の画像に対して適用する画像処理に用いるパラメータを算出する、ことを特徴とする画像処理装置によって達成される。
このような構成により、本発明によれば、時系列的に撮像された複数の画像の色調を安定して適切に補正することが可能になる。
本発明の実施形態に係る画像処理装置の一例としての撮像装置の動作を説明するフローチャート。 本発明の実施形態に係る撮像装置の構成例を示すブロック図。 撮像条件が徐々に変化する場合の例を説明する図。 撮像範囲の変化が大きい場合の例を説明する図。 図3の事例における本発明の実施形態に係る撮像装置の動作を説明する図。 図4の事例における本発明の実施形態に係る撮像装置の動作を説明する図。
以下、添付図面を参照して、本発明をその例示的な実施形態に基づいて詳細に説明する。
図2は、本発明の実施形態に係る画像処理装置の一例としての撮像装置の構成例を示すブロック図である。なお、撮像に係る構成(レンズ、撮像素子など)は本発明に必須ではなく、本発明は撮像によって得られた画像を処理可能な任意の装置に適用可能である。
図2において、200は撮像装置223に着脱可能な撮影レンズ、201は絞り、202はシャッター、203は光学像を電気信号に変換する撮像素子、204は撮像素子203のアナログ信号出力をデジタルデータに変換するA/D変換器である。タイミング発生部205は、撮像素子203、A/D変換器204にクロック信号や制御信号を供給して、それらの動作を制御している。このタイミング発生部205はメモリ制御部206及びシステム制御部218により制御されている。
画像処理部208はA/D変換器204からのデータやメモリ制御部206からの画像データに対して、各種の画像処理を適用する。画像処理には、例えば、ホワイトバランス補正処理、ベイヤー配列の信号をRGB3プレーン信号に変換するための色補間処理、ガンマ補正処理、色補正処理、シャープネス処理、ノイズ低減処理などが含まれる。また、画像処理部208では、画像データを解析して特定の被写体を検出する被写体検出処理も行う。被写体検出処理には、上述した顔検出処理も含まれる。なお、画像処理部208が行う顔検出の方法には特に制限はなく、公知の方法のいずれかを適用することができる。また、検出する被写体は人間の顔に限定されず、動物、植物、建造物、乗り物、食物、空、地面、雲、山、川、海、天体、花火、雪、文字、美術品などの1つ以上を検出するようにしてもよい。これら個々の被写体の検出方法についても特に制限はなく、画像から検出可能なこれら被写体の特徴を予め登録しておき、撮像画像から得られる特徴との類似性によって検出することが可能である。
画像処理部208は、ホワイトバランス補正処理、明るさ補正処理、コントラスト補正処理、色補正処理、シャープネス処理、ノイズ低減処理といった画像処理のパラメータの算出に、検出された被写体の情報を反映させる。被写体の情報を画像処理パラメータの算出にどのように反映させるかは自由であるが、通常は検出された被写体の色味や明るさが予め定められた適切な範囲となるように画像処理パラメータが算出される。
また、画像処理部208は、最新の撮像画像(最新画像)について算出された画像処理パラメータと過去の撮像画像から選択された基準画像に対応した画像処理パラメータとを重み付け合成して、最新画像に適用する画像処理パラメータを算出する。本処理については後で詳細に説明する。
また、画像処理部208は、画像の輝度ヒストグラムやRGBヒストグラムの算出、画像全体のRGB平均値、平均輝度値などの算出も行う。これらは、最新画像と基準画像との比較を行う際に使用する。本処理についても後述する。
メモリ制御部206は、A/D変換器204、タイミング発生部205、画像処理部208、メモリ207を制御する。これにより、A/D変換器204が出力するデジタルデータは、画像処理部208およびメモリ制御部206のうち少なくともメモリ制御部206を介してメモリ207に書き込まれる。
メモリ207は撮像画像を一時記憶するためのもので、所定枚数の静止画像を格納するのに十分な記憶容量を備えている。また、メモリ207はシステム制御部218や画像処理部208の作業領域としても使用することが可能である。
外部記憶装置209はメモリカードを代表とする着脱可能な記録媒体である。メモリ207に一時記憶された画像データは、必要に応じて符号化処理などが行われた後、最終的に外部記憶装置209に記録される。
RGB測光センサ214は外測センサであり、撮影範囲内の被写体の色と輝度を画素単位で測定することができる。システム制御部218はRGB測光センサ214の出力に応じて撮像時の露光量(シャッタースピードおよび絞り値)を決定する。露光制御部210は、露光量に応じて絞り201とシャッター202を駆動する。
測距センサ213は被写体の距離情報を検出する。測距制御部211は測距センサ213の出力によりレンズ200の焦点検出動作を制御する。
ズーム制御部212は、レンズ200がレンズのズームリングなどの操作により手動でズーミングされた際のズーム量の検出や、カメラの操作部217に含まれるズームキーの操作がなされた場合のレンズのズーム量制御などを行う。
姿勢検知センサ216は撮像装置223の水平/垂直方向の振れを検知するセンサで、縦位置撮影、横位置撮影の判定などに用いられる。
システム制御部218は撮像装置223全体の動作を制御する。システム制御部218は例えばマイクロプロセッサと、制御プログラムを格納したROMと、作業領域として用いるRAMを有する。ROMからRAMに読み出されたプログラムをマイクロプロセッサによって実行することで、後述の動作を含め、撮像装置223の機能を実現する。
SW1はレリーズボタン215の第1ストローク(例えば半押し)でONし、測光、測距を開始するスイッチである。SW2はレリーズボタン215の第2ストローク(例えば全押し)でONし、露光動作を開始するスイッチである。
ストロボ219は撮影時に被写体を照明する、撮像装置223に着脱可能な補助光源である。ストロボ219は閃光発光モードとハイスピードシンクロ発光モードを備える。更に、照明角度を変更することでバウンス撮影を行うことも可能である。
ストロボ219の前面にはストロボ用光学フィルタ220を装着することもできる。ストロボ用光学フィルタ220の例としては、ストロボ光を拡散する拡散フィルタやストロボ光の色温度を変更する色温度変換フィルタ等が挙げられる。
またレンズ200の前面にもレンズ用光学フィルタ221を装着することが可能である。レンズ用光学フィルタ221の例としては、色温度変換フィルタや偏光フィルタ等が挙げられる。
フィルタ検知センサ222は、レンズ用光学フィルタ221やストロボ用光学フィルタ220の種類を検知する。フィルタの検知方法は特に制限されないが、最も簡単なのは、装着したフィルタの種類をユーザが操作部217を通じて入力し、その入力内容を検知することである。
次に、図1のフローチャートを参照して、本実施形態における撮像装置223の撮像後の画像処理動作を説明する。
例えばレリーズボタン215が全押しされたことにより露光が行われると、撮像素子203から被写体像に対応するアナログ信号が画素単位で出力される。このアナログ信号はA/D変換器204で12ビットのデジタルデータに変換され、画像データとして画像処理部208に送られる。
画像処理部208は、この12ビット画像データを解析し、被写体、ここでは人物の検出を行う。ここで、人物とは顔のみならず、胴体を含んだ人体を指す。検出する被写体は人物に限定されず、動物、植物、建造物、乗り物、食物、空、地面、雲、山、川、海、天体、花火、雪、文字、美術品などの1つ以上を検出するようにしてもよい。ここで、動物は猫や犬等を指す。植物は草、木、花等を指す。建造物は家、ビル等の建物や橋、道路等を指す。乗り物は車、バイク、自転車、飛行機、電車などを指す。食べ物は皿に盛られた料理、飲み物、りんごやバナナといった一般的な果物、肉、魚等を指す。空は青空、曇り空、夕焼け(朝焼け)空、夜空等を指す。地面は土、芝、砂等を指す。雲、山、川、海は文字通りである。天体は星、月、太陽等を指す。花火は打ち上げ花火や手持ち花火等を指す。雪は雪山等の雪景色等を指す。文字は書籍等の文字や数字を指す。美術品は絵画や銅像等を指す。
これらの被写体検出は、例えば人物検出については顔のパターンを予めメモリ207に記憶しておき、そのパターンと一致もしくは類似度の高い被写体が画像に含まれているかどうかを解析する周知のパターンマッチング技術等を用いて行う。その他の被写体についてもパターンマッチング技術等を用いて検出する。そして、検出結果として、被写体の画像内での位置、大きさ、色、領域、信頼度等を得る。ここで信頼度とは被写体が検出すべき被写体であるかどうかの確からしさの指標であり、信頼度が高いほど被写体である確率が高いことを意味する。
次に、パラメータ算出手段としての画像処理部208は、S102において、撮像画像から画像処理パラメータを算出する。本実施形態において画像処理パラメータとは、ホワイトバランス補正処理、明るさ補正処理、コントラスト補正処理、色補正処理、ノイズ低減処理、シャープネス処理に用いるパラメータを指すものとする。以下に被写体検出として人物検出を用いた場合における、それぞれの画像処理パラメータの算出例について説明する。
なお、本実施形態では、ホワイトバランス補正処理、明るさ補正処理、コントラスト補正処理、色補正処理、ノイズ低減処理、シャープネス処理の順に画像処理が行われるものとする。
まず、ホワイトバランス補正処理用パラメータの算出例について説明する。
例えば、被写体検出で顔検出できていない場合、例えば撮像画像の全画素データをR、G、Bデータの種類毎に積分し、(式1)により算出する。
R補正値=G積分値/R積分値
G補正値=1 (式1)
B補正値=G積分値/B積分値
被写体検出で人物検出結果が得られた場合には、人物の顔領域に対応した12ビットRGBデータを得る。そしてこの12ビットRGB値と各肌色12ビットRGBデータに対応した適切なホワイトバランス補正値参照テーブルを用いてホワイトバランス補正パラメータを算出する。なお、各肌色に対応したホワイトバランス補正値参照テーブルは事前に算出しておきメモリ207に記録しておく。
次に、明るさ補正処理用パラメータの算出例について説明する。
被写体検出で顔検出されている場合、画像処理部208は、顔の明るさが目標の明るさになるように、12ビットRGBデータそれぞれに適用するゲインを明るさ補正パラメータとして算出する。被写体検出で顔検出されなかった場合、画像処理部208は、撮像画像全体の平均のRGB平均値が目標の明るさになるようなゲインを、明るさ補正パラメータとして算出する。なお、顔の明るさ目標値や顔検出されなかった場合の画像全体平均RGB積分値の明るさ目標値は事前に算出しておきメモリ207に記録しておく。
次に、コントラスト補正処理用パラメータの算出例について説明する。
コントラスト補正処理は、12ビットRGBデータを8ビットRGBデータに変換するガンマ補正処理も兼ねている。また、コントラスト補正処理前にはRGBベイヤー配列の信号をRGB3プレーン信号に変換するための既知の技術による色補間処理も行われるものとする。
メモリ207には事前に、標準的なガンマカーブと、顔の各明るさに対応した複数のガンマカーブを記録しておく。
被写体検出で顔検出できない場合、画像処理部208はメモリ207内の標準的なガンマカーブを選択する。被写体検出で顔検出された場合、画像処理部208は検出された顔の明るさに対応したガンマカーブをメモリ207から選択する。
なお、顔検出できた場合に顔の明るさを適切に補正する処理は、明るさ補正処理又はコントラスト補正処理のどちらか一方のみで行うようにしても良い。
次に、色補正処理用パラメータの算出例について説明する。
色補正処理では、コントラスト補正処理後の8ビットRGBデータに対してRGBの33×33×33の格子点を持つ3次元ルックアップテーブル(以下3DLUT)を適用することで、任意の色の色相、彩度、明度を補正する。なお本実施形態では3DLUTの格子点を33×33×33としているが、格子点の個数は幾つであっても良い。メモリ207には事前に、標準的な色調となる3DLUTと、検出した顔の色毎に、標準的な色調の3DLUTよりも肌色の彩度が低く明度が高い複数の3DLUT(例えば、検出した顔の色の彩度が高いほど低彩度化するような3DLUT)を記録しておく。
被写体検出で顔検出できない場合、画像処理部208はメモリ207内の標準的な3DLUTを選択する。被写体検出で顔検出された場合、画像処理部208は検出された顔の色の彩度に応じて、対応した3DLUTをメモリ207から選択する。
次に、ノイズ低減処理パラメータの算出例について説明する。
ノイズ低減処理は例えば、処理対象とする着目画素に対して上下左右それぞれN(Nは整数)画素のRGBデータの平均値を有する画素で着目画素を置き換える処理を、各画素に対して行う処理である。なお、着目画素に対する上下左右の画素数Nがノイズ低減処理パラメータとして与えられ、Nを大きくするほどよりノイズ低減効果が大きくなる。
メモリ207には事前に、通常のノイズ低減処理パラメータと通常よりもノイズ低減効果の大きいパラメータを記録しておく。
被写体検出で顔検出できない場合、画像処理部208はメモリ207内の標準的なノイズ低減処理パラメータを選択する。被写体検出で顔検出された場合、画像処理部208はメモリ207に記録されている通常よりもノイズ低減効果が大きいノイズ低減処理パラメータを選択する。
次に、シャープネス処理パラメータの算出例について説明する。
シャープネス処理は既知の技術を用いて画像からエッジ信号を抽出し、抽出したエッジ信号を強調する処理を行った後、そのエッジ信号を元の画像に足し合わせることで実現する。
メモリ207には事前に、エッジ強調効果が標準的なシャープネス処理パラメータと標準的なものよりもエッジ強調効果が低いシャープネス処理パラメータを記録しておく。なお、シャープネス処理パラメータはエッジ信号にかけるゲインの量という形で記録しておく。
被写体検出で顔検出できない場合、画像処理部208はメモリ207内の標準的なシャープネス処理パラメータを選択する。被写体検出で顔検出された場合、画像処理部208はメモリ207に記録されている通常よりもエッジ強調効果が低いシャープネス処理パラメータを選択する。
以上のように、人物検出(顔検出)された場合とされない場合で異なる画像処理パラメータの算出を行うことで、人物撮影時に人物検出(顔検出)結果が得られた場合のほうが、より人物撮影に適した画像処理パラメータを算出することができる。
なお、本実施形態では被写体検出で人物検出(顔検出)を行う例について説明したが、他の被写体を検出する場合には、個々の被写体に適した画像処理パラメータを算出するような構成としても良い。
画像処理部208は、このようにして最新の撮像画像(最新画像)から算出した画像処理パラメータを、後述のS105又はS111の処理で使用するために、メモリ207に記録しておく。
次にS103においてシステム制御部218は、撮像装置223の撮像状態を検出する。本実施形態でシステム制御部218は、撮像状態としてストロボ219の発光有無を検出する。ストロボ219が発光した状態を撮像状態Aとし、発光していない状態を撮像状態Bとして以降の処理を行う。
なお、本実施形態では撮像状態の一例として、ストロボ219が発光したかどうかを検出しているが、これに限定されない。例えば、ストロボ219の種類、発光種類(閃光/ハイスピードシンクロ)、バウンス撮影有無、ストロボ用光学フィルタ220の種類(ストロボ光拡散フィルタ、色温度変化フィルタなど)の1つ以上を検出してもよい。また、レンズ200の種類、レンズ用光学フィルタ221の種類(色温度変化フィルタや偏光フィルタなど)、絞り201の値の1つ以上を検出してもよい。あるいは、ISO感度、シャッタースピード、カメラの姿勢に関する情報の1つ以上を検出するような構成としても良い。
撮像状態の数には特に制限が無く、3つ以上の撮像状態が存在する場合、S103での分岐の数を増やせばよい。
S104においてシステム制御部218は、画像処理部208を用いて撮像状態A用の被写体基準画像(被写体基準画像A)と最新画像の類似度を算出する。
ここで被写体基準画像Aについて詳細に説明する。被写体基準画像Aは本実施形態では、過去(最新の撮像よりも前)のストロボ発光を伴う撮像画像であって、人物検出できた画像を指す。過去の撮像画像から被写体基準画像Aを決定する方法については後述する。
本実施形態では、過去のストロボ発光を伴う撮像画像のうち、直近に人物検出できた撮像がS104での被写体基準画像Aとなる。
次に、被写体基準画像Aと最新画像と類似度算出方法の例について説明する。
画像処理部208は、2つの画像の類似度を、それぞれの画像に対応した以下に挙げる要素の1つ以上を比較することにより決定する。
〔類似度を決定する要素の例〕
RGB測光センサ214で測定した輝度値、RGB測光センサ214のRGB値、撮像画像のRGBデータそれぞれの平均値、撮像画像のRGBデータから算出した平均輝度値、撮像画像の輝度ヒストグラム、撮像画像のRGBヒストグラム。撮像時刻、撮像時のISO感度、撮像時のシャッタースピード、撮像時のレンズの絞り、撮像レンズの種類、撮像時のレンズの焦点距離、撮像時の被写体距離。撮像時のストロボの種類、撮像時のストロボ219バウンス発光有無、撮像時のストロボ219の発光量、撮像時のストロボ219発光時の電圧、撮像装置223の姿勢。
ここで、それぞれの要素の算出方法について説明する。
RGB測光センサ214で測定した輝度値は簡易的に(式2)で表される。
RGB測光センサ214輝度値=3×R+6×G+B ・・・(式2)
(式2)においてR,G,BはそれぞれRGB測光センサ214のR,G,B値である。
RGB測光センサ214のRGB値はRGB測光センサ214で算出される。
撮像画像のRGBデータの輝度値は簡易的に(式3)で表される。
撮像画像のRGBデータの輝度値=3×R+6×G+B ・・・(式3)
(式3)においてR,G,Bはそれぞれ撮像画像全体のR,G,Bそれぞれの平均値である。
撮像画像の輝度ヒストグラムは、撮像画像の12ビットRGBデータから算出した各画素の輝度値の累積カウント数を求めることで算出する。なお各画素の輝度値は簡易的に(式4)で表される
ヒストグラム算出用各画素の輝度値=3×R+6×G+B ・・・(式4)
(式4)においてR,G,Bはそれぞれ撮像画像の色補間後の各画素の12ビットR,G,B値である。
撮像画像のRGBヒストグラムは、撮像画像の各画素の12ビットRGBデータを値毎にカウントすることで算出する。
撮像時刻はシステム制御部218内に持つタイマーにより、撮像時刻が年月日時分秒単位で出力される。
撮像時のISO感度、撮像時のシャッター秒時、撮像時のレンズの絞りは、それぞれ露光制御部210で制御された数値である。
レンズ200には機種IDが割り当てられており、撮像装置223に装着されたレンズ200から撮像装置223に機種ID情報が通信されることで、システム制御部218はレンズ200の種類(機種)を判定することができる。
撮像時のレンズの焦点距離はズーム制御部212で算出される。
撮像時の被写体距離は測距制御部211で算出される。
撮像時のストロボの種類については、レンズと同様にストロボ毎に機種IDが割り当てられており、撮像装置223に装着されたストロボ219から撮像装置223にストロボの機種ID情報が通信され、ストロボの種類が判定される。
撮像時のストロボ219のバウンス発光有無、撮像時のストロボ219の発光量、撮像時のストロボ219発光時の電圧についてはストロボ219が発光時の状態を撮像装置223に通信することで判定される。
撮像装置223の姿勢については、姿勢検知センサ216で検出された撮像装置223の姿勢情報である。
このようにして算出される類似度決定要素を、被写体基準画像Aと最新画像とで比較して、1つ以上の要素の比較結果を積分して最終的に1つの類似度を得る。
撮像画像の輝度ヒストグラム、撮像画像のRGBヒストグラム、の類似度については、それぞれのヒストグラムの形状が比較する2つの画像で近いほど類似度が100%に近づくようにし、離れるほど類似度が0%になるようにする。100%と0%の間の類似度については例えば線形補間して算出する。
撮像時刻については、2つの画像の時刻が近いほど類似度が100%に近づくようにし、離れるほど類似度が0%になるようにする。100%と0%の間の類似度については例えば線形補間して算出する。
撮像レンズの種類、撮像ストロボの種類、ストロボ219バウンス発光有無、撮像装置223の姿勢については、2つの画像でそれぞれの要素の状態が同じかどうかの判定を行い、同じ場合類似度100%、異なる場合類似度0%とする。
これ以外の要素については、値が近いほど類似度が100%に近づくようにし、離れるほど類似度が0%に近づくようにする。100%と0%の間の類似度については例えば線形補間して算出する。
なお、本実施形態ではS103でストロボ219の発光有無を判定し、それぞれの撮像状態毎に処理を行うため、ストロボ219の発光有無による類似度算出は行わない。しかし、撮像状態検出でストロボ219の発光有無以外の撮像状態を判定する場合、本ステップ104の類似度決定要素の一つとして撮像時のストロボ219発光有無を含めても良い。
なお、過去のストロボ撮像画像で人物検出できていない場合や、最新の撮像画像で人物検出できていない場合、類似度は0%とする。
次に、画像処理部208は、S105において、被写体基準画像Aから算出された画像処理パラメータ(第1のパラメータ)と、最新画像から算出された画像処理パラメータ(第2のパラメータ)とを、(式5)及び(式6)を用いて加重加算する。そして、画像処理部208は、加重加算結果を新たな画像処理パラメータα(第3のパラメータ)とする。
α=SpRef_A_Param × SpRef_A_Wt + CurrentParam × (1 - SpRef_A_Wt)
・・・(式5)
ここで、
α = 加重加算後の新たな画像処理パラメータ
SpRef_A_Param = 被写体基準画像Aの画像処理パラメータ
CurrentParam = 最新画像の画像処理パラメータ
SpRef_A_Wt = 被写体基準画像Aの画像処理パラメータの重み(0〜1)
又、SpRef_A_Wtは(式6)で与えられる。
SpRef_A_Wt = (SpRef_A_Reliability - CurrentReliability)×SpRef_A_Similarity
・・・(式6)
但し、SpRef_A_Wt < 0 の場合 SpRef_A_Wt = 0 とする。
SpRef_A_Reliability = 被写体基準画像Aの被写体信頼度(0〜1)
CurrentReliability = 最新画像の被写体信頼度(0〜1)
SpRef_A_Similarity = S104で算出した被写体基準画像Aと最新画像の類似度(0〜1)
(式5)及び(式6)による加重加算は、以下の(1)〜(3)のように説明できる。
(1)被写体基準画像Aと最新画像のうち、検出した被写体の信頼度が高い画像の画像処理パラメータが優先的に使用される。
(2)被写体基準画像Aと最新画像のうち、最新画像の被写体の信頼度が高い場合は最新画像の補正値が優先的に使用される。
(3)被写体基準画像Aの被写体信頼度が最新画像の被写体信頼度よりも高くても、2つの画像の類似度が低い場合は、被写体基準画像Aの画像処理パラメータは優先されない。
(式5)及び(式6)において画像処理パラメータは、ホワイトバランス補正処理、明るさ補正処理、コントラスト補正処理、色補正処理、ノイズ低減処理、シャープネス処理のそれぞれについて別々に算出される。
具体的には、ホワイトバランス補正処理用パラメータのR補正値の場合、(式5)の画像処理パラメータに被写体基準画像Aと最新画像それぞれのR補正値を代入して演算を行う。G補正値、B補正値についても同様である。
明るさ補正処理の場合、(式5)及び(式6)の画像処理パラメータに被写体基準画像Aと最新画像それぞれの明るさ補正用ゲインを代入して演算を行う。
コントラスト補正処理の場合、(式5)及び(式6)の画像処理パラメータに被写体基準画像Aと最新画像それぞれのコントラスト補正用ガンマカーブの各入力値に対する出力値を代入して演算を行う。
色補正処理の場合、(式5)及び(式6)の画像処理パラメータに被写体基準画像Aと最新画像それぞれの3DLUTの入力Rに対する出力Rの格子点の値を代入して演算を行う。G,Bについても同様である。
ノイズ低減処理の場合、(式5)及び(式6)の画像処理パラメータに被写体基準画像Aと最新画像それぞれの着目画素に対する上下左右の画素数Nを代入して演算を行う。
シャープネス処理の場合、(式5)及び(式6)の画像処理パラメータに被写体基準画像Aと最新画像それぞれのエッジ信号にかけるゲインの量を代入して演算を行う。
次に、S106において画像処理部208は、撮像状態A用の通常基準画像(通常基準画像A)と最新画像の類似度を算出する。
ここで通常基準画像Aについて詳細に説明する。通常基準画像Aとは本実施形態では、過去(最新の撮像よりも前)の、ストロボ発光を伴って撮像された撮像画像のうち、被写体の検出結果によらない基準画像の決定方法に従い決定された画像を指す。この、通常基準画像Aの決定方法(S109)の詳細は後述する。
次に通常基準画像Aと最新画像の類似度算出方法について説明する。
2つの画像(通常基準画像Aと最新画像)の類似度は、それぞれの画像に対応した上述の要素を、S104と同様の方法で比較することにより決定される。
次に、S107において画像処理部208は、通常基準画像Aから算出した画像処理パラメータ(第4のパラメータ)とS105で算出した画像処理パラメータαとを類似度に応じて加重加算することで、最新画像に適用する画像処理パラメータを算出する。加重加算の例を(式7)に示す。
FinalParam = NormRef_A_Param × NormRef_A_Similarity + α×(1 - NormRef_A_Similarity) ・・・(式7)
ここで、
FinalParam = 最新画像に適用する画像処理パラメータ
NormRef_A_Param =通常基準画像Aの画像処理パラメータ
α = S105の式(5)で算出した画像処理パラメータα
NormRef_A_Similarity = S106で算出した通常基準画像Aと最新画像の類似度(0〜1)
である。
(式7)を用いた画像処理パラメータの計算は、S105の(式5)及び(式6)と同様に、ホワイトバランス補正処理、明るさ補正処理、コントラスト補正処理、色補正処理、ノイズ低減処理、シャープネス処理のそれぞれのパラメータについて別々に算出する。
それぞれの具体的な算出方法は、S105の(式5)及び(式6)と同様でよいため説明を割愛する。
S108において画像処理部208は、次撮像用の被写体基準画像Aの更新処理を行う。この処理は、被写体基準画像Aを今回の撮像画像で更新するかどうかを決定する処理である。
〔被写体基準画像A更新条件〕
本実施形態において、被写体基準画像Aは以下の更新条件が満たされた場合に更新される。
現在の被写体基準画像Aの被写体信頼度(人物信頼度)≦最新画像の被写体信頼度(人物信頼度)
但し、最新画像での被写体(人物)が検出できなかった場合、被写体信頼度は0%とする。このように、最新画像で検出された被写体信頼度が、更新対象となる被写体基準画像Aの被写体信頼度以上であれば、最新画像を新たな被写体基準画像Aとする(メモリ207に記憶されている被写体基準画像Aを最新画像で更新する)。
ここで、更新する内容としては、
S104とS106の類似度判定で説明した類似度を決定する要素と、
S102で算出した最新画像から算出したホワイトバランス補正処理、明るさ補正処理、コントラスト補正処理、色補正処理、ノイズ低減処理、シャープネス処理に関する画像処理パラメータである。
これらの情報は全てメモリ207に記録しておき、次撮像時に読み出せるようにしておく。
次に、S109において通常基準画像Aの更新処理を行う。この処理は、今回の撮像画像を次回の撮像画像に対するS104,S105の処理における通常基準画像Aとして用いるかどうかを決定する処理である。
〔通常基準画像Aの更新条件〕
本実施形態において、通常基準画像Aは、次の条件を満たす場合に更新される。
S106で算出した類似度≦N%
Nは0〜100%の任意の数値でよいが、本実施形態では20%とする。即ち、最新画像と通常基準画像Aの類似度が予め定められた類似度以下(20%以下)の場合、最新画像を新たな通常基準画像Aとする(メモリ207に記憶されている通常基準画像Aを最新画像で更新する)。
通常基準画像Aの更新処理は、以下の情報の更新である。
・S106とS107の類似度判定で説明した類似度を決定する要素、
・S107で算出した最新画像に適用するホワイトバランス補正処理、明るさ補正処理、コントラスト補正処理、色補正処理、ノイズ低減処理、シャープネス処理に関する画像処理パラメータ。
これらの情報を、次の撮像画像に対する処理に用いるために、通常基準画像Aの情報としてメモリ207に記録しておく。
S103の説明に戻り、撮像状態検出で撮像状態Bであった場合の処理(本実施形態ではストロボ非発光であった場合の処理)について説明する。
撮像状態Bの場合に行うS110〜S115の処理と、撮像状態Aの場合に行うS104〜S109の処理とは、被写体基準画像Aと通常基準画像Aが被写体基準画像Bと通常基準画像Bとなること以外は同一であるため、詳細な説明は割愛する。
S116において画像処理部208は、最新画像に対して、S107またはS113で計算した画像処理パラメータを用いた現像処理を適用する。
次に、本実施形態の効果について説明する。
図3を参照して説明したような連続撮影が行われ、1コマ目〜6コマ目301〜306は全てストロボ非発光で撮像され、かつ各撮像画像において人物検出(顔検出)できていないものとする。さらに、1コマ目301の撮像画像に対する、2コマ目、3コマ目、4コマ目、5コマ目の撮像画像の類似度は、それぞれ100%、80%、60%、40%、20%であるものとする。
また、図5に、1〜6コマ目301〜306の撮像画像についての各種パラメータの例を示す。なお、上述したように、図3の例では各コマ間の撮影範囲の変化が少ないため、1コマ前の画像と最新画像との類似度は高く、特許文献1の方法では2〜6コマ目の画像全てで1コマ目と同じ画像処理パラメータが適用される。
まず、図1の処理を1コマ目301の画像に対して適用した際の具体的な動作を説明する。
人物が存在しないため、S101で人物は検出できない。
S102では、最新画像(1コマ目301)から画像処理パラメータが算出される。ここでは例えば、1コマ目301の画像のみから算出したホワイトバランス補正値(各色信号に対して適用するゲイン)が以下のようになったものとする。
(最新画像のみから算出したホワイトバランス補正値)
Rgain = 2.0倍
Ggain = 1.0倍
Bgain = 2.0倍
S103では、撮像時にストロボ非発光であるため、撮像状態Bと判定される。
S110では、被写体(人物)が検出できていないため、被写体基準画像Bと最新画像との類似度は0%となる。
S111では、S110で算出した類似度が0%のため、(式5)及び(式6)より、加重加算後の画像処理パラメータαはS102で算出した最新画像(1コマ目301)から算出されたパラメータとなる。
S112では、1コマ目の撮像であり通常基準画像Bが存在しないため、通常基準画像Bと最新画像(1コマ目301)の類似度は0%となる。
S113では、(式7)より、最新画像(1コマ目301)に適用する画像処理パラメータは画像処理パラメータα(即ち1コマ目301の画像のみから算出された画像処理パラメータ)となる。ホワイトバランス補正値を例に挙げると、最新画像(1コマ目301)に適用するホワイトバランス補正値は以下のようになる。
(最新画像に適用するホワイトバランス補正値)
Rgain = 2.0倍
Ggain = 1.0倍
Bgain = 2.0倍
S114では、被写体(人物)が検出できていないため、被写体基準画像Bの更新処理は行われない。
S115では、類似度が0%のため、最新画像(1コマ目301)が、通常基準画像Bとして用いられるように更新される。
次に、2コマ目302に対する処理を説明する。
人物が存在しないため、S101で人物は検出できない。
S102では、最新画像(2コマ目302)から画像処理パラメータが算出される。ここでは例えば、2コマ目302の画像のみから算出したホワイトバランス補正値が以下のようになったものとする。
(最新画像のみから算出したホワイトバランス補正値)
Rgain = 2.2倍
Ggain = 1.0倍
Bgain = 1.8倍
S103では、撮像時にストロボ非発光であるため、撮像状態Bと判定される。
S110では、被写体(人物)が検出できていないため、被写体基準画像Bと最新画像との類似度は0%となる。
S111では、S110で算出した類似度が0%のため、(式5)及び(式6)より、加重加算後の画像処理パラメータαはS102で算出した最新画像から算出されたパラメータとなる。
S112では、通常基準画像B(1コマ目301)と最新画像の類似度が100%と算出される。
S113では、(式7)より、最新画像(2コマ目302)に適用する画像処理パラメータは通常基準画像B(1コマ目301)に適用した画像処理パラメータが100%用いられる。ホワイトバランス補正値を例に挙げると、最新画像(2コマ目302)に適用するホワイトバランス補正値は下記のようになる。
(最新画像に適用するホワイトバランス補正値)
Rgain = 2.0倍
Ggain = 1.0倍
Bgain = 2.0倍
S114では、被写体(人物)が検出できていないため、被写体基準画像Bの更新処理は行われない。
S115では、類似度が100%のため、通常基準画像Bの更新処理は行われない。
次に、3コマ目303の画像に対する処理を説明する。
人物が存在しないため、S101で人物は検出できない。
S102では、最新画像(3コマ目303)から画像処理パラメータが算出される。ここでは例えば、3コマ目303の画像のみから算出したホワイトバランス補正値(各色信号に対して適用するゲイン)が以下のようになったものとする。
(最新画像のみから算出したホワイトバランス補正値)
Rgain = 2.4倍
Ggain = 1.0倍
Bgain = 1.6倍
S103では、撮像時にストロボ非発光であるため、撮像状態Bと判定される。
S110では、被写体(人物)が検出できていないため、被写体基準画像Bと最新画像との類似度は0%となる。
S111では、S110で算出した類似度が0%のため、(式5)及び(式6)より、加重加算後の画像処理パラメータαはS102で算出した最新画像から算出されたパラメータとなる。
S112では、通常基準画像B(1コマ目301)と最新画像の類似度が80%と算出される。
S113では、(式7)より、最新画像(3コマ目303)に適用する画像処理パラメータは、通常基準画像B(1コマ目301)に適用した画像処理パラメータが80%、最新画像から算出された画像処理パラメータが20%加重加算されたものとなる。ホワイトバランス補正値を例に挙げると、最新画像(3コマ目303)に適用するホワイトバランス補正値は下記のようになる。
(最新画像に適用するホワイトバランス補正値)
Rgain = 2.0 × 0.8 + 2.4×0.2 = 2.1倍
Ggain = 1.0 × 0.8 + 1.0×0.2 = 1.0倍
Bgain = 2.0 × 0.8 + 1.6×0.2 = 1.9倍
S114では、被写体(人物)が検出できていないため、被写体基準画像Bの更新処理は行われない。
S115では、類似度が80%のため、通常基準画像Bの更新処理は行われない。
4〜5コマ目304〜305の処理については2コマ目と同様のため説明は割愛し、6コマ目306に対する処理を説明する。
人物が存在しないため、S101で人物は検出できない。
S102では、最新画像(6コマ目306)から画像処理パラメータが算出される。ここでは例えば、6コマ目306の画像のみから算出したホワイトバランス補正値が以下のようになったものとする。
(最新画像のみから算出したホワイトバランス補正値)
Rgain = 3.0倍
Ggain = 1.0倍
Bgain = 1.0倍
S103では、撮像時にストロボ非発光であるため、撮像状態Bと判定される。
S110では、被写体(人物)が検出できていないため、被写体基準画像Bと最新画像との類似度は0%となる。
S111では、S110で算出した類似度が0%のため、(式5)及び(式6)より、加重加算後の画像処理パラメータαはS102で算出した最新画像から算出されたパラメータとなる。
S112では、通常基準画像B(1コマ目301の画像)と最新画像の類似度が20%と算出される。
S113では、(式7)より、最新画像(6コマ目306)に適用する画像処理パラメータは、通常基準画像B(1コマ目301)に適用した画像処理パラメータが20%、最新画像から算出された画像処理パラメータが80%加重加算されたものとなる。ホワイトバランス補正値を例に挙げると、最新画像(6コマ目306)に適用するホワイトバランス補正値は下記のようになる。
(最新画像に適用するホワイトバランス補正値)
Rgain = 2.0 × 0.2 + 3.0×0.8 = 2.8倍
Ggain = 1.0 × 0.2 + 1.0×0.8 = 1.0倍
Bgain = 2.0 × 0.2 + 1.0×0.8 = 1.2倍
S114では、被写体(人物)が検出できていないため、被写体基準画像Bの更新処理は行われない。
S115では、類似度が20%のため、最新画像(6コマ目306)が新たな通常基準画像Bとなるように更新される。
以上のようにして図3シーンの各画像の処理が行われるため、1コマ目301の画像との類似度が高い画像ほど1コマ目301に用いた画像処理パラメータに近い値が算出され、類似シーンの画像処理パラメータの変化における画像のバラツキを軽減できる。
一方、撮影範囲が徐々に変化して1コマ目の画像との類似度が低くなると、最新画像から算出された画像処理パラメータに近い画像パラメータが用いられる。そのため、図3シーンのように日向から日陰へ徐々に撮像範囲が変化した場合であっても、撮像範囲の変化に応じた画像処理パラメータが算出される。従って、1コマ目が日向で、6コマ目が日陰となるような場合でも、それぞれの環境に適した画像処理パラメータが算出される。このように、本実施形態によれば、類似シーンの画像処理パラメータのバラツキ軽減と、被写体環境が変化した場合の適切な画像処理パラメータの算出、の2つを両立することができる。
続いて、本実施形態の別の効果を、図4を参照して説明する。
図4を参照して説明したような連続撮影が行われ、1コマ目〜3コマ目403〜405は全てストロボ非発光で撮像されたものとする。また、1コマ目403と2コマ目404の画像の類似度は0%、1コマ目403と3コマ目405の画像の類似度は100%、2コマ目404と3コマ目405の画像の類似度は0%とする。さらに、1コマ目403で検出された人物信頼度は100%であり、2コマ目および3コマ目404および405では人物検出できず、人物信頼度は0%であるとする。
また、図6に、1〜3コマ目403〜405の撮像画像について、図5と同様に各種パラメータの例を示す。図4の例では各コマ間の撮影範囲の変化が大きく、1コマ前の画像と最新画像との類似度が低い(0%)。このような場合、特許文献1の方法では各コマにおいて最新画像のみから算出された画像処理パラメータのみが適用される。その結果、1コマ目403と3コマ目405が同一撮像範囲(または類似度100%)であっても、人物が検出された1コマ目403と人物が検出されなかった3コマ目40では異なる画像処理パラメータが適用されてしまう。
まず、図1の処理を1コマ目403の画像に対して適用した際の具体的な動作を説明する。
S101では人物が正面を向いているため、被写体(人物)が検出される。
S102では、最新画像から被写体検出された場合の画像処理パラメータが算出される。すなわち、検出された被写体に応じて予め定められた特性を満たすように画像処理パラメータが算出される。ホワイトバランス補正値を例に挙げると、最新画像(1コマ目403)のみから算出したホワイトバランス補正値は以下のようになるものとする。また、このホワイトバランス補正値の算出にはS102で検出された人物情報を利用した結果であるとする。
(最新画像のみから算出したホワイトバランス補正値)
Rgain = 2.0倍
Ggain = 1.0倍
Bgain = 2.0倍
S103では、撮像時にストロボ非発光であるため、撮像状態Bと判定される。
S110では、1コマ目の撮像であり被写体基準画像Bが存在しないため、被写体基準画像Bと最新画像(1コマ目403)の類似度は0%となる。
S111では、S110で算出した類似度が0%のため、(式5)及び(式6)より、加重加算後の画像処理パラメータαはS102で算出した最新画像(1コマ目403)から算出されたパラメータとなる。
S112では、1コマ目の撮像であり通常基準画像Bが存在しないため、通常基準画像Bと最新画像(1コマ目403)の類似度は0%となる。
S113では、(式7)より、最新画像(1コマ目403)に適用する画像処理パラメータは画像処理パラメータα(即ち1コマ目403の画像のみから算出された画像処理パラメータ)となる。ホワイトバランス補正値を例に挙げると、最新画像(1コマ目403)に適用するホワイトバランス補正値は以下のようになったとする。
(最新画像に適用するホワイトバランス補正値)
Rgain = 2.0倍
Ggain = 1.0倍
Bgain = 2.0倍
S114では、被写体(人物)が100%の信頼度で検出されているため、最新画像(1コマ目403)が、新たな被写体基準画像Bとなるように更新される。
S115では、類似度が0%のため、最新画像(1コマ目403)が、新たな通常基準画像Bとなるように更新される。
次に2コマ目404に対する処理を説明する。
人物が存在しないため、S101で人物は検出できない。
S102では、最新画像(2コマ目404)から画像処理パラメータが算出される。ここでは例えば、2コマ目404の画像のみから算出したホワイトバランス補正値が以下のようになったものとする。
(最新画像のみから算出したホワイトバランス補正値)
Rgain = 2.4倍
Ggain = 1.0倍
Bgain = 1.6倍
S103では、撮像時にストロボ非発光であるため、撮像状態Bと判定される。
S110では、被写体(人物)が検出できていないため、被写体基準画像Bと最新画像(2コマ目404)との類似度は0%となる。
S111では、S110で算出した類似度が0%のため、(式5)及び(式6)より、加重加算後の画像処理パラメータαはS102で算出した最新画像(2コマ目404)から算出されたパラメータとなる。
S112では、通常基準画像B(1コマ目403)と最新画像(2コマ目404)の類似度は0%となる。
S113では、(式7)より、最新画像(2コマ目404)に適用する画像処理パラメータは画像処理パラメータα(即ち2コマ目404の画像のみから算出された画像処理パラメータ)となる。ホワイトバランス補正値を例に挙げると、最新画像(2コマ目403)に適用するホワイトバランス補正値は以下のようになったとする。
(最新画像に適用するホワイトバランス補正値)
Rgain = 2.4倍
Ggain = 1.0倍
Bgain = 1.6倍
S114では、被写体(人物)が検出できていないため、被写体基準画像Bの更新処理は行われない。
S115では、類似度が0%のため、最新画像(2コマ目404)が新たな通常基準画像Bとなるように更新される。
次に3コマ目405に対する処理を説明する。
3コマ目405には人物が写っているが、横を向いているため、S101では被写体(人物)が検出できない。
S102では、最新画像から人物検出された場合の、画像処理パラメータが算出される。ホワイトバランス補正値を例に挙げると、最新画像(3コマ目405)のみから算出したホワイトバランス補正値は以下のようになったものとする。
(最新画像のみから算出したホワイトバランス補正値)
Rgain = 1.6倍
Ggain = 1.0倍
Bgain = 2.4倍
ここで、1コマ目403ではS101で被写体(人物)が検出されたため、被写体に適したホワイトバランス補正値が算出された。しかし、3コマ目405ではS101で人物が検出できないため、撮影範囲が1コマ目403と同一であるにもかかわらず、算出されるホワイトバランス補正値は異なっている。
S103では、撮像時にストロボ非発光であるため、撮像状態Bと判定される。
S110では、被写体(人物)が検出できていないが、人物が横を向いているか正面を向いているかの相違であるため、被写体基準画像Bと最新画像(3コマ目405)との類似度は100%となる。
S111では、S110で算出した類似度が100%のため、(式5)及び(式6)より、加重加算後の画像処理パラメータαは被写体基準画像B(即ち1コマ目403)の画像処理パラメータが100%反映された値となる。すなわち、ホワイトバランス補正値を例に挙げると、最新画像(3コマ目405)に適用するホワイトバランス補正値は以下のようになる。
(最新画像に適用するホワイトバランス補正値)
Rgain = 2.0倍
Ggain = 1.0倍
Bgain = 2.0倍
S112では、通常基準画像B(2コマ目404)と最新画像(3コマ目405)の類似度は0%となる。
S113では、(式7)より、最新画像(3コマ目405)に適用する画像処理パラメータは画像処理パラメータα(即ち1コマ目403に適用された画像処理パラメータ)となる。
S114では、被写体(人物)が検出できていないため、被写体基準画像Bの更新処理は行われない。
S115では、類似度が0%のため、最新画像(3コマ目405)が新たな通常基準画像Bとなるように更新される。
以上のようにして図4に示す各コマの処理が行われるため、3コマ目405で人物が検出できなくても、人物が検出された1コマ目403との類似度に基づいて、1コマ目403と同様の画像処理パラメータが適用される。このように、被写体検出ができなくても、被写体検出できた画像との類似度を考慮して画像処理パラメータを決定するので、被写体の検出に失敗した場合であっても、被写体が正しく検出できた画像との現像結果のバラツキを抑制することが可能である。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
なお、上述の実施形態においては、連続的に撮像された複数の画像間の補正処理について説明した。ここでいう「連続的な撮像」は、時系列的な撮像を意味し、撮像間隔に関しては特に制限がない。つまり、本明細書で言う「連続的な撮像」とは、連写モードやオートブラケットモードでの撮像のような、短時間での連続撮像に限定されない。また、連続的に撮像された画像の撮像間隔が等しくなくてもよい。
また、上述の実施形態においては、撮像条件が複数ある場合について説明したが、本発明の効果は撮像条件が1つである場合であっても実現できる。従って、撮像条件ごとの処理を用いることは本発明において必須ではない。例えば、ストロボ点灯しないでの撮像が条件となっている場合には、図1におけるS103及びS110〜S115の処理は不要である。

Claims (6)

  1. 時系列的に撮像された複数の画像の各々に対して適用する画像処理に用いるパラメータを算出する画像処理装置であって、
    画像から予め定められた被写体を検出する検出手段と、
    2つの画像間の類似度を、各々の画像から得られる予め定められた特徴から算出する類似度算出手段と、
    前記複数の画像の各々について、画像から得られる情報に基づいて前記パラメータを算出するパラメータ算出手段と、
    処理対象の画像より過去に撮像された画像のうち、予め定められた被写体が検出された画像から決定された被写体基準画像と、前記予め定められた被写体が検出されない画像から決定された通常基準画像を記憶する記憶手段と、
    制御手段と、を有し、
    前記制御手段は、
    前記被写体基準画像から前記パラメータ算出手段が算出した第1のパラメータと、前記処理対象の画像から前記パラメータ算出手段が算出した第2のパラメータとを、前記被写体基準画像と前記処理対象の画像のうち前記検出手段により検出した被写体の信頼度が高い画像から算出されたパラメータの重み付けが高くなるように加重加算することにより第3のパラメータを算出し、
    前記通常基準画像から前記パラメータ算出手段が算出した第4のパラメータと、前記第3のパラメータとを、前記類似度算出手段により算出された前記通常基準画像と前記処理対象の画像との類似度が高いほど前記第4のパラメータの重み付けが高くなるように加重加算することにより前記処理対象の画像に対して適用する画像処理に用いるパラメータを算出する、
    ことを特徴とする画像処理装置。
  2. 前記制御手段は、
    前記処理対象の画像から前記検出手段が検出した被写体の信頼度が前記被写体基準画像から前記検出手段が検出した被写体の信頼度以上の場合には、前記処理対象の画像が新たな被写体基準画像となるよう前記記憶手段を更新し、
    前記処理対象の画像から前記予め定められた被写体が検出されず、前記処理対象の画像と前記通常基準画像との類似度が予め定められた類似度以下の場合には、前記処理対象の画像が新たな通常基準画像となるように前記記憶手段を更新する、
    ことを特徴とする請求項記載の画像処理装置。
  3. 前記記憶手段は、予め定められた撮像状態ごとに前記被写体基準画像と前記通常基準画像とを記憶し、
    前記制御手段は、前記処理対象の画像の前記予め定められた撮像状態に対応した前記被写体基準画像と前記通常基準画像を用いることを特徴とする請求項又は請求項記載の画像処理装置。
  4. 画像を撮像する撮像手段と、
    前記撮像手段によって時系列的に撮像された複数の画像の各々に対して適用する画像処理に用いるパラメータを算出する請求項1乃至請求項のいずれか1項に記載の画像処理装置と、
    前記処理対象の画像に対して前記パラメータを用いた画像処理を適用する画像処理手段とを有することを特徴とする撮像装置。
  5. 時系列的に撮像された複数の画像の各々に対して適用する画像処理に用いるパラメータを算出する画像処理装置の制御方法であって、
    前記画像処理装置が、
    画像から予め定められた被写体を検出する検出手段と、
    2つの画像間の類似度を、各々の画像から得られる予め定められた特徴から算出する類似度算出手段と、
    前記複数の画像の各々について、画像から得られる情報に基づいて前記パラメータを算出するパラメータ算出手段と、
    処理対象の画像より過去に撮像された画像のうち、予め定められた被写体が検出された画像から決定された被写体基準画像と、前記予め定められた被写体が検出されない画像から決定された通常基準画像を記憶する記憶手段と、
    を有し、
    前記画像処理装置の制御方法が、
    前記画像処理装置の制御手段が、前記被写体基準画像から前記パラメータ算出手段が算出した第1のパラメータと、前記処理対象の画像から前記パラメータ算出手段が算出した第2のパラメータとを、前記被写体基準画像と前記処理対象の画像のうち前記検出手段により検出した被写体の信頼度が高い画像から算出されたパラメータの重み付けが高くなるように加重加算することにより第3のパラメータを算出するステップと、
    前記制御手段が、前記通常基準画像から前記パラメータ算出手段が算出した第4のパラメータと、前記第3のパラメータとを、前記類似度算出手段により算出された前記通常基準画像と前記処理対象の画像との類似度が高いほど前記第4のパラメータの重み付けが高くなるように加重加算することにより前記処理対象の画像に対して適用する画像処理に用いるパラメータを算出するステップと、
    を有することを特徴とする画像処理装置の制御方法。
  6. コンピュータを、請求項1乃至請求項のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2010273017A 2010-12-07 2010-12-07 画像処理装置およびその制御方法 Expired - Fee Related JP5629564B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010273017A JP5629564B2 (ja) 2010-12-07 2010-12-07 画像処理装置およびその制御方法
US13/306,381 US8687847B2 (en) 2010-12-07 2011-11-29 Image processing apparatus and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010273017A JP5629564B2 (ja) 2010-12-07 2010-12-07 画像処理装置およびその制御方法

Publications (3)

Publication Number Publication Date
JP2012124682A JP2012124682A (ja) 2012-06-28
JP2012124682A5 JP2012124682A5 (ja) 2013-12-19
JP5629564B2 true JP5629564B2 (ja) 2014-11-19

Family

ID=46162274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010273017A Expired - Fee Related JP5629564B2 (ja) 2010-12-07 2010-12-07 画像処理装置およびその制御方法

Country Status (2)

Country Link
US (1) US8687847B2 (ja)
JP (1) JP5629564B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6083897B2 (ja) * 2013-02-28 2017-02-22 株式会社 日立産業制御ソリューションズ 撮像装置及び画像信号処理装置
JP2014209681A (ja) * 2013-04-16 2014-11-06 リコーイメージング株式会社 色調調整装置および色調調整方法
JP6288816B2 (ja) * 2013-09-20 2018-03-07 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
US20200092448A1 (en) * 2014-07-25 2020-03-19 SMR Patents S.à.r.l. Apparatus for light intensity adjustment
EP2978209B1 (en) * 2014-07-25 2018-03-07 SMR Patents S.à.r.l. Apparatus for light intensity adjustment
US10212303B2 (en) * 2015-04-17 2019-02-19 Hewlett-Packard Development Company, L.P. Scanner
CN105407281A (zh) * 2015-11-13 2016-03-16 努比亚技术有限公司 一种基于场景的拍照装置、方法
US9792522B2 (en) * 2015-12-01 2017-10-17 Bloomsky, Inc. Weather information extraction using sequential images
JP6242552B1 (ja) * 2016-04-19 2017-12-06 オリンパス株式会社 画像処理装置
JP6762806B2 (ja) * 2016-08-26 2020-09-30 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
JP2018152799A (ja) * 2017-03-14 2018-09-27 株式会社リコー 画像処理装置、画像処理方法、プログラムおよび映像送受信システム
CN113890989B (zh) * 2017-10-14 2023-07-11 华为技术有限公司 一种拍摄方法以及电子装置
CN110012210B (zh) * 2018-01-05 2020-09-22 Oppo广东移动通信有限公司 拍照方法、装置、存储介质及电子设备
JP7307541B2 (ja) * 2018-12-19 2023-07-12 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
EP4138390A1 (en) * 2021-08-20 2023-02-22 Beijing Xiaomi Mobile Software Co., Ltd. Method for camera control, image signal processor and device with temporal control of image acquisition parameters

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002047590A (ja) 2000-07-28 2002-02-15 Shinko Pantec Co Ltd 電解セル
JP4717229B2 (ja) 2001-02-16 2011-07-06 キヤノン株式会社 撮像装置及びそのホワイトバランス処理方法
JP4320998B2 (ja) * 2002-02-01 2009-08-26 株式会社ニコン 電子カメラ
JP2005142830A (ja) * 2003-11-06 2005-06-02 Canon Inc デジタルスチルカメラ及びそのホワイトバランス調整方法、並びにプログラム
JP4871664B2 (ja) * 2006-07-25 2012-02-08 キヤノン株式会社 撮像装置及び撮像装置の制御方法
JP5162905B2 (ja) * 2007-01-10 2013-03-13 株式会社ニコン 撮像装置
JP5066398B2 (ja) * 2007-06-29 2012-11-07 富士フイルム株式会社 画像処理装置および方法並びにプログラム
JP5259291B2 (ja) * 2008-07-30 2013-08-07 オリンパス株式会社 ホワイトバランス補正装置及び信号処理プログラム
US8509482B2 (en) * 2009-12-21 2013-08-13 Canon Kabushiki Kaisha Subject tracking apparatus, subject region extraction apparatus, and control methods therefor
US9432617B2 (en) * 2011-04-26 2016-08-30 Dell Products L.P. White balance adjustment of an image at an information handling system

Also Published As

Publication number Publication date
US20120140985A1 (en) 2012-06-07
US8687847B2 (en) 2014-04-01
JP2012124682A (ja) 2012-06-28

Similar Documents

Publication Publication Date Title
JP5629564B2 (ja) 画像処理装置およびその制御方法
US7929796B2 (en) Image processing system and method, and terminal and server used for the same
CN101889435B (zh) 照相机闪光模块及其控制方法
JP5791336B2 (ja) 画像処理装置及びその制御方法
CN101365070B (zh) 摄像装置
US8111946B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US7084907B2 (en) Image-capturing device
JP4287179B2 (ja) デジタル画像の自動ホワイトバランスのための方法
CN108900782A (zh) 曝光控制方法、装置以及电子设备
KR20130031574A (ko) 영상 처리 방법 및 영상 처리 장치
JP2012124682A5 (ja)
CN110246101B (zh) 图像处理方法和装置
JP2019106045A (ja) 画像処理装置、方法及びプログラム
WO2009090992A1 (ja) 電子カメラ
CN108028894A (zh) 控制***、成像装置和程序
JP2008052428A (ja) 画像処理方法、画像処理装置、画像処理プログラム、撮像装置
JP5259291B2 (ja) ホワイトバランス補正装置及び信号処理プログラム
CN109005369A (zh) 曝光控制方法、装置、电子设备以及计算机可读存储介质
JP3889867B2 (ja) 撮像装置
JP4523629B2 (ja) 撮像装置
CN104780322B (zh) 摄像装置、摄像方法、图像处理装置
JP5706705B2 (ja) 画像処理装置およびその制御方法、ならびに撮像装置
JP2011234274A (ja) 画像処理装置及び方法、並びにプログラム
CN114339028A (zh) 拍照方法、电子设备以及计算机可读存储介质
US10341604B2 (en) Camera system, camera, interchangeable lens, and storage medium storing control program for camera system thereon

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131106

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141006

R151 Written notification of patent or utility model registration

Ref document number: 5629564

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees