JP2015198438A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2015198438A
JP2015198438A JP2014077280A JP2014077280A JP2015198438A JP 2015198438 A JP2015198438 A JP 2015198438A JP 2014077280 A JP2014077280 A JP 2014077280A JP 2014077280 A JP2014077280 A JP 2014077280A JP 2015198438 A JP2015198438 A JP 2015198438A
Authority
JP
Japan
Prior art keywords
reflection component
specular reflection
region
processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014077280A
Other languages
English (en)
Other versions
JP6410454B2 (ja
Inventor
寧司 大輪
Yasushi Owa
寧司 大輪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014077280A priority Critical patent/JP6410454B2/ja
Publication of JP2015198438A publication Critical patent/JP2015198438A/ja
Application granted granted Critical
Publication of JP6410454B2 publication Critical patent/JP6410454B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】鏡面反射領域を精度よく特定して鏡面反射成分に基づいたホワイトバランス処理を行うことができるようにする。
【解決手段】顔検出結果から得られた顔領域の位置、サイズ、角度、及び目、口など器官の位置などの情報、または人体検出結果から得られた人体領域の位置、サイズ、角度、頭部や肩などの部位の位置及び部位のサイズ情報を基に鏡面反射成分を抽出する候補領域を求め、これらの候補領域から鏡面反射成分を抽出する。このとき、RGBのうち一つ以上の成分が閾値よりも大きい画素、および想定色との差分が閾値T1以上である画素については、径面反射成分の算出に用いないようにする。
【選択図】図17

Description

本発明は、特に、ホワイトバランス処理を行うために用いて好適な画像処理装置、画像処理方法及びプログラムに関する。
従来、2色性反射モデルに基づいて光源色を推定する処理を行う画像処理装置が知られている。ここで、2色性反射モデルとは、物体からの反射光が、物体色に依存する乱反射成分と、光源色に依存する鏡面反射成分とからなるようにしたモデルである。このモデルを用いて鏡面反射成分を推定することにより、ホワイトバランスゲインを算出することができる。例えば特許文献1には、入力画像中の近接した位置にあり、かつ輝度差のある2点A,Bの画素値の差分を取ることによって、被写体物体からの反射光から鏡面反射成分のみを抽出して、光源色を推定する画像処理装置が開示されている。
特開2007−13415号公報
特許文献1に開示された光源色を推定する方法では、近接した画素は同一物体に属するものと仮定して画素値の差分を算出している。したがって、この方法では、画素値が同一または類似する被写体物体が重なっていると、入力画像中の被写体物体の境界領域において、異なる被写体物体に属する画素間で画素値の差分を算出してしまう可能性がある。同一物体に属する画素間での画素値の差分が光源色に対応した鏡面反射成分であるのに対し、異なる(色の)被写体間で算出された差分値は被写体物体色の差に依存しており、光源色には対応していない。このような場合に従来の方法では、光源色を精度よく推定することができない。
本発明は前述の問題点に鑑み、鏡面反射領域を精度よく特定して鏡面反射成分に基づいたホワイトバランス処理を行うことができるようにすることを目的としている。
本発明に係る画像処理装置は、入力画像からオブジェクトを検出する検出手段と、前記検出手段によって検出されたオブジェクトの情報に基づいて前記オブジェクトにおける鏡面反射成分を抽出する領域を特定する特定手段と、前記特定手段によって特定された領域から前記鏡面反射成分を抽出する抽出手段と、前記抽出手段によって抽出された鏡面反射成分に基づくホワイトバランスゲインにより前記入力画像に対してホワイトバランス処理を行う処理手段と、を備えることを特徴とする。
本発明によれば、鏡面反射領域を精度よく特定し、精度よく特定された鏡面反射成分に基づいて適切なホワイトバランス処理を行うことができる。
実施形態に係るデジタルカメラの構成例を示すブロック図である。 画像処理部の中の色信号などを抽出する構成例を示すブロック図である。 顔検出部によって検出される顔情報の一例を示す図である。 人体検出部によって検出される人体情報の一例を示す図である。 白抽出範囲の画素の平均値に基づいてホワイトバランスゲインを算出する処理手順の一例を示すフローチャートである。 入力画像の全画素から鏡面反射成分を抽出する詳細な処理手順の一例を示すフローチャートである。 処理対象画素と比較画素との差分を算出する方法を説明するための図である。 ブロックごとの差分合計値及び差分カウントの一例を示す図である。 画素の関係をRGB色空間で示した図である。 CxCy色空間における白抽出範囲の一例を示す図である。 顔が検出された場合の鏡面反射成分を抽出する候補領域を説明するための図である。 人体が検出された場合の鏡面反射成分を抽出する候補領域を説明するための図である。 候補領域グループの一例を説明するための図である。 抽出用領域を選択する処理手順の一例を示すフローチャートである。 輝度ヒストグラムの一例を示す図である。 候補領域または抽出用領域に基づいてホワイトバランスゲインを算出する処理手順の一例を示すフローチャートである。 重み付きCx,Cy値を算出する方法を説明するための図である。 領域によって異なるホワイトバランス処理を行う処理手順の一例を示すフローチャートである。
(第1の実施形態)
以下、本発明の好ましい実施形態について、添付の図面に基づいて詳細に説明する。本実施形態では、画像処理装置としてデジタルカメラに適用した例について説明する。また、本実施形態では、オブジェクトとして人物の顔及び人体を検出する例について説明する。
図1は、本実施形態に係るデジタルカメラ100の構成例を示すブロック図である。
図1において、撮影レンズ103はフォーカスレンズを含むレンズであり、シャッター101は絞り機能を備えている。撮像部22は光学像を電気信号に変換するCCDやCMOS素子等で構成されている。A/D変換器23は、アナログ信号をデジタル信号に変換するための回路であり、撮像部22から出力されるアナログ信号をデジタル信号に変換するために用いられる。バリア102は、デジタルカメラ100の、撮影レンズ103を含む撮像ユニットを覆うことにより、撮影レンズ103、シャッター101、及び撮像部22を含む撮像系の汚れや破損を防止する。
画像処理部24は、A/D変換器23から出力されるデータ、又は、メモリ制御部15から出力されるデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部24では、撮像して得られた画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部50が露光制御及び測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部24では更に、撮像して得られた画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。
A/D変換器23から出力される出力データは、画像処理部24及びメモリ制御部15を介して、或いは、メモリ制御部15を介してメモリ32に直接書き込まれる。メモリ32は、撮像部22によって得られ、A/D変換器23によりデジタルデータに変換された画像データや、表示部28に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声のデータを格納するのに十分な記憶容量を備えている。また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。
D/A変換器13は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28に供給する。こうして、メモリ32に書き込まれた表示用の画像データはD/A変換器13を介して表示部28により表示される。表示部28は、LCD等の表示器上に、D/A変換器13から出力されたアナログ信号に応じた表示を行う。
不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶されている。この不揮発性メモリ56に記憶されているプログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。
システム制御部50は、デジタルカメラ100全体を制御する。前述した不揮発性メモリ56に記憶されたプログラムを実行することにより、後述する本実施形態の各処理を実現する。また、システム制御部50はメモリ32、D/A変換器13、表示部28等を制御することにより表示制御も行う。システムメモリ52は例えばRAMが用いられ、システムメモリ52には、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出されたプログラム等を展開する。コーデック部33は、メモリ32に格納された画像データを圧縮符号化するとともに、記録媒体150に記録された圧縮画像データを復号する。
モード切替スイッチ60、シャッターボタン61、第1シャッタースイッチ62、第2シャッタースイッチ64、及び操作部70はシステム制御部50に各種の動作指示を入力するための操作手段である。モード切替スイッチ60は、システム制御部50の動作モードを静止画記録モード、動画記録モード、再生モード等のいずれかに切り替える。
シャッターボタン61は撮影指示を行うための操作手段であり、第1シャッタースイッチ62および第2シャッタースイッチによって構成されている。第1シャッタースイッチ62は、デジタルカメラ100に設けられたシャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1がシステム制御部50に入力されると、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作が開始される。
第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。第2シャッタースイッチ信号SW2がシステム制御部50に入力されると、撮像部22からの信号読み出しから記録媒体150に画像データを書き込むまでの一連の撮影処理の動作が開始される。
操作部70の各操作部材は、表示部28に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部28に表示される。利用者は、表示部28に表示されたメニュー画面と、4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。
電源制御部80は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体150を含む各部へ供給する。
電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。インターフェース18はメモリカードやハードディスク等の記録媒体150と接続するためのインターフェースである。記録媒体150は、メモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。電源スイッチ72は、電源オン、電源オフを切り替えるためのスイッチである。
顔検出部104は、メモリ32から画像データを読み出して被写体の顔情報を検出する。人体検出部105は、メモリ32から画像データを読み出して被写体の人体情報を検出する。また、本実施形態に係るデジタルカメラ100では、中央1点AFや顔AFを用いた撮影が可能である。中央1点AFとは、撮影画面内の中央位置1点に対してAFを行うことである。顔AFとは顔検出機能によって検出された撮影画面内の顔に対してAFを行うことである。
次に、システム制御部50の制御により行われる顔検出処理について説明する。顔検出部104は、当該画像データに水平方向バンドパスフィルタを作用させ、さらに、処理された画像データに垂直方向バンドパスフィルタを作用させる。これらの水平方向及び垂直方向のバンドパスフィルタにより、画像データからエッジ成分が検出される。
その後、顔検出部104は、検出されたエッジ成分に関してパターンマッチングを行い、目、鼻、口、及び耳の候補群を抽出する。そして、顔検出部104は、抽出された目の候補群の中から、予め設定された条件(例えば2つの目の距離、傾き等)を満たすものを目の対と判断し、目の対があるもののみ目の候補群として絞り込む。そして、顔検出部104は、絞り込まれた目の候補群とそれに対応する顔を形成する他のパーツ(鼻、口、耳)とを対応付け、また、予め設定した非顔条件フィルタを通すことにより顔を検出する。顔検出部104は、顔の検出結果に応じて顔情報を出力し、処理を終了する。このとき、顔情報をシステムメモリ52に記憶する。顔情報については後述する。
続いて、システム制御部50の制御により行われる人体検出処理について説明する。システム制御部50は、人体検出の対象となる画像データを人体検出部105に送る。そして、人体検出部105は、当該画像データに水平方向バンドパスフィルタを作用させ、さらに、処理された画像データに垂直方向バンドパスフィルタを作用させる。これらの水平方向及び垂直方向のバンドパスフィルタにより、画像データよりエッジ成分が検出される。
その後、人体検出部105は、検出されたエッジ成分に関してパターンマッチングを行い、人体の輪郭形状に相当するか否かを判断することにより、人体を検出する。人体検出部105は、人体の検出結果に応じて人体情報を出力し、処理を終了する。このとき、人体情報をシステムメモリ52に記憶する。人体情報については後述する。
次に、顔情報について説明する。図3は、顔検出部104によって検出される顔情報の一例を示す図である。図3において、顔位置情報301は、システム制御部50によって顔検出部104に送られた顔検出対象の画像データにおける、顔の始点となる水平方向および垂直方向の画素情報である。顔水平サイズ情報302は、システム制御部50によって顔検出部104に送られた顔検出対象の画像データにおける、顔の水平方向の大きさを示す画素情報である。顔垂直サイズ情報303は、システム制御部50によって顔検出部104に送られた顔検出対象の画像データにおける、顔の垂直方向の大きさを示す画素情報である。
顔ヨー方向角度304は、顔の水平方向の回転を示す角度情報である。顔ロール方向角度305は、顔の垂直方向の回転を示す角度情報である。顔ピッチ方向角度306は、顔の傾きを示す角度情報である。
続いて、人体情報について説明する。図4は、人体検出部105によって検出される人体情報の一例を示す図である。図4において、人***置情報411は、システム制御部50によって人体検出部105に送られた人体検出対象の画像データにおける、人体の始点となる水平方向および垂直方向の画素情報である。人体水平サイズ情報412は、人体検出対象の画像データにおける、人体の水平方向の大きさを示す画素情報であり、人体垂直サイズ情報413は、人体検出対象の画像データにおける、人体の垂直方向の大きさを示す画素情報である。
人体ヨー方向角度414は、人体の水平方向の回転を示す角度情報であり、人体ロール方向角度415は、人体の垂直方向の回転を示す角度情報である。また、人体ピッチ方向角度416は、人体の傾きを示す角度情報である。人体検出角度情報420は、人体ヨー方向角度414、人体ロール方向角度415、及び人体ピッチ方向角度416の集合である。
次に、画像処理部24の詳細について、図2を参照しながら説明する。
図2は、画像処理部24の中の色信号などを抽出する構成例を示すブロック図である。
図2において、画像処理部24は、輝度・色信号生成部200、WB増幅部201、色γ処理部202、色差信号生成部203、色補正部204、輝度γ処理部205、輪郭強調処理部206、及び色空間変換処理部207を備えている。
以下、図2を参照しながら画像処理部24における処理について説明する。まず、A/D変換器23から画像処理部24の輝度・色信号生成部200にベイヤー配列の画像データが入力される。輝度・色信号生成部200は、入力されたベイヤーRGBの画像信号から全画素に対応した輝度信号Yおよび色信号R、G、Bを生成し、生成した色信号R、G、BをWB増幅部201へ出力し、輝度信号Yを輝度γ処理部205へ出力する。また、輝度・色信号生成部200は、RGBの画像信号を、メモリ制御部15を介してメモリ32に出力する。さらに、輝度・色信号生成部200は、色空間変換処理部207にもRGBの画像信号を出力する。
色空間変換処理部207は、RGBの画像信号を色空間信号Cx、Cyに変換し、生成した画像信号(Cx,Cy)をメモリ32に出力する。ここで、色空間信号Cx、Cyは下記の式(1)から算出される。
Cx=(R−B)/Y
Cy=(R+B−2G)/Y ・・・式(1)
Y=(R+G+B)/2
WB増幅部201は、後述する処理によりシステム制御部50が算出するホワイトバランスゲイン値に基づき、RGBの色信号R、G、Bにゲインをかけ、ホワイトバランスを調整する。色γ処理部202は、色信号R、G、Bにガンマ補正を行う。色差信号生成部203は、色信号R、G、Bから色差信号R−Y、B−Yを生成し、色補正部204に出力する。そして、色補正部204は、色差信号R−Y、B−Yに対してゲインを加えるなどして色相や彩度を調整し、調整後の色差信号R−Y、B−Yをメモリ32に出力する。
一方、輝度γ処理部205は、輝度信号Yに対してガンマ補正を行い、輪郭強調処理部206へ出力する。輪郭強調処理部206は、輝度信号に対して輪郭強調処理を行い、処理後の輝度信号Yをメモリ32に出力する。以上の手順によりメモリ32に出力された輝度信号Y及び色差信号R−Y、B−Yは、コーデック部33によって圧縮符号化され、記録媒体150に画像データとして記録される。
(顔検出処理及び人体検出処理により人物が検出されなかった場合のゲイン算出処理)
次に、システム制御部50により、画像処理部24の輝度・色信号生成部200から出力された画像信号を解析し、光源色の成分を推定してホワイトバランスゲインを算出する処理について詳細に説明する。
図5は、システム制御部50によりホワイトバランスゲインを算出する処理手順の一例を示すフローチャートである。なお、図5に示す処理を行う前に、システム制御部50によりメモリ32からRGBの画像信号および色空間信号Cx、Cyを取得し、システムメモリ52に展開されているものとする。
まず、図5のステップS501において、鏡面反射成分を抽出する。ここで、鏡面反射成分を抽出する詳細な処理手順について図6のフローチャートを参照しながら説明する。
図6は、図5のステップS501における鏡面反射成分を抽出する詳細な処理手順の一例を示すフローチャートである。
図6のステップS601においては、ステップS602〜S608の処理に関して、入力画像の全画素に対して、処理対象画素をラスタスキャンしながらループ処理を行う。
まず、ステップS602において、ラスタスキャンした処理対象の画素が飽和していないか否かを確認する。具体的にはRGBの各成分の何れかが所定の閾値よりも大きいか(飽和しているか)否かを確認する。この確認の結果、RGB何れの成分も閾値以下である場合はステップS603に進む。一方、RGBのうち一つ以上の成分が閾値よりも大きい場合は、当画素の処理をスキップして次の画素の処理に進む。
続いてステップS603において、処理対象画素と想定色との差分を算出する。ここで想定色とは、例えば顔の頬部分の画像信号である場合には肌色(Rs,Gs,Bs)である。以下、肌色を想定色とした例について説明する。ステップS603では、処理対象画素との差分値(subRs,subGs,subBs)を算出する。
次に、ステップS604において、ステップS603で算出した差分値(subRs,subGs,subBs)の大きさSsが所定の閾値T1よりも小さいか否かを判定する。差分値の大きさSsについては、以下の式(2)から算出する。この判定の結果、差分値の大きさSsが閾値T1よりも小さい場合はステップS605に進み、閾値以上(閾値T1以上)である場合は当画素の処理をスキップして次の画素の処理に進む。
Figure 2015198438
次のステップS605においては、処理対象画素と比較画素との差分を算出する。ここで、処理対象画素および比較画素について、図7(a)を参照しながら説明する。図7(a)は、入力画像700の一部の画像701を拡大した図である。なお、画像701におけるメッシュは画素の境界を示している。ステップS601〜S608のループ処理では、画像701中の処理対象画素702を順次ラスタスキャンしながら処理を行う。画素703〜705は比較画素を示しており、本実施形態では、処理対象画素702から所定の位置だけ離れた位置の画素を比較画素とする。
ステップS605では、例えば処理対象画素702と比較画素703との差分を算出する。具体的には、処理対象画素702のRGB値(R1,G1,B1)と比較画素703のRGB値(R2,G2,B2)との差分値(subR,subG,subB)を算出する。
次のステップS606においては、ステップS605で算出した差分値(subR,subG,subB)の大きさSが所定の閾値T2よりも大きいか否かを判定する。差分値の大きさSについては、以下の式(3)から算出する。この判定の結果、差分値Sが閾値T2よりも大きい場合はステップS607に進み、閾値T2以下である場合はステップS608に進む。
Figure 2015198438
ステップS607においては、処理対象画素と比較画素との差分値の大きさSをブロック毎に、システムメモリ52の差分値合計用バッファに記録(加算)する。ここでブロックとは、図7(a)に示すような8×8のメッシュで分割されたブロックを指す。
また、図8には、ブロックごとの差分合計値及び差分カウントの一例を示す。図8に示すように、各画素に関して算出された差分値の大きさSを処理対象画素が属するブロック毎に差分合計値に加算し、ブロック毎の差分合計値sumSを得る。また、差分合計値sumSに加算した画素数のカウントとして、差分カウント値countSを算出する。差分カウント値countSは差分合計値sumSに差分値を加算した場合に1を加算して生成する。この差分カウント値countSについてもブロック単位で算出する。
なお、差分値の大きさSが閾値範囲内(>T2)の場合のみ差分値の大きさを格納する理由は、より光源の鏡面反射成分を示す差分値だけを抽出するためである。これについて、図7(b)および図9を参照しながらより具体的に説明する。
図7(b)は、鏡面反射を含む被写体の一例を示す図である。図7(b)において、処理対象画素706、及び比較画素707〜709が示されている。ここで、処理対象画素706および比較画素708は拡散反射成分が支配的な画素であり、比較画素707、709は鏡面反射成分と拡散反射成分とを含んでいる画素であるものとする。
図9(a)は、図7(b)に示す画素の関係をRGB色空間で示した図である。このRGB空間において、ある画素のRGB値はベクトルで表すことができる。ベクトル901は、図7(b)の処理対象画素706のような、物体色(拡散反射成分)を示しており、ベクトル902は、図7(b)の比較画素707のような物体色(拡散反射成分)+光源色(鏡面反射成分)を示している。ここで、得たい光源色のベクトル903で表される鏡面反射成分は、ベクトル902とベクトル901との差分をとることによって得ることができる。図7(b)に示す例では、処理対象画素706と比較画素707、709との差分をとることによって光源色のベクトルを得ることが可能である。
一方、図7(b)に示す処理対象画素706及び比較画素708はどちらも拡散反射成分が支配的であり、いずれもベクトル901に近い成分となる。図9(b)において、ベクトル911が処理対象画素706に対応しており、ベクトル912が比較画素708に対応しているものとする。これらの差分をとると、差分値は非常に小さい値となる。同様に比較画素707、709の場合を考えると、どちらも拡散反射成分と鏡面反射成分とを持っており、いずれもベクトル902に近い成分となる。これらの差分をとっても差分値は非常に小さい値となる。
一方、比較画素707に対応するベクトルを図9(b)のベクトル913とすると、ベクトル911とベクトル913との差分は大きくなる。この差分は光源色の成分に近いベクトルを持っており、抽出したい差分である。
このように、画素間の差分値が非常に小さくなるような場合は、同じ反射成分しか持っていない場合が多いと考えられ、これらの差分値は光源の特性を表していないため、本実施形態では使用しないようにする。このため前述のように閾値T2を設け、差分値の大きさSが閾値T2<Sを満たしているときのみ、差分値の大きさSをシステムメモリ52の差分合計値sumSに加算する。差分合計値は8×8ブロック毎に保持しており、1番目のブロックの差分合計値をsumS1、2番目のブロックの差分合計値をsumS2・・・、64番目のブロックの差分合計値をsumS64とする。
図6の説明に戻り、ステップS608においては、全ての比較画素についてS605〜S607の処理を行ったか否かを確認する。図7に示したように、本実施形態では1つの処理対象画素702に対して3つの比較画素703〜705が存在する。そのため、全ての比較画素に対して処理を行うまで繰り返す。以上のようにステップS602からステップS608までの処理を、処理対象画素をラスタスキャンしながら全画素に対して行う。
次に、ステップS609において、8×8=64個の全ブロックに対するループ処理を開始する。まず、ステップS610において、処理対象のブロックの差分カウント値countSを参照し、差分カウント値countSが所定の閾値T3より大きいか否かを判定する。この判定の結果、差分カウント値countSが閾値T3より大きい場合は、処理対象ブロックが鏡面反射を含んでいると判断できるため、ステップS611に進む。一方、差分カウント値countSが閾値T3以下の場合は、鏡面反射成分を含んでいないブロックであると判断できるため、処理をスキップして次のブロックの処理に移行する。
次に、ステップS611においては、ブロック毎の平均差分値(blkR,blkG,blkB)を算出する。具体的には、差分合計値sumSの値をRGB毎に差分カウント値countSで除算するによってブロック単位の平均差分値(blkR,blkG,blkB)が算出される。
続いてステップS612においては、ステップS611で算出したブロック毎の平均差分値(blkR,blkG,blkB)をブロック合計値(sumBlkR,sumBlkG,sumBlkB)に加算する。ブロック合計値は、後述する画像全体の平均差分値を算出するために利用される値である。そして、ステップS613において、鏡面反射ブロック数blkCountSに1を加算する。ここで、鏡面反射ブロック数blkCountSとは、入力画像全体における鏡面反射成分を持つブロックの数を示している。以上のように8×8=64個の全ブロックに対して処理が終了するまで前述のステップS610〜S613の処理を繰り返す。
次に、ステップS614においては、入力画像全体の平均差分値(aveR,aveG,aveB)を算出する。具体的には、前述のブロック合計値(sumBlkR,sumBlkG,sumBlkB)を鏡面反射ブロック数blkCountSで除算することによって算出される。この入力画像全体の平均差分値(aveR,aveG,aveB)は、鏡面反射成分の平均値を示している。
図5の説明に戻り、次のステップS502においては、被写体の明るさ(EV値)に基づいて白抽出範囲(白(無彩色)と見なす範囲)を決定する。図10は、CxCy空間における白抽出範囲の一例を示す図であり、特に図10(a)及び図10(b)は、明るさに基づいた白抽出範囲の一例を示す図である。
図10(a)における領域1001は被写体が暗い場合の白抽出範囲を示している。被写体が暗い場合は、白熱灯や蛍光灯などの人工照明、あるいは日陰など様々な色温度の光源が想定されるため、白抽出範囲を広く設定する。一方、図10(b)における領域1002は、被写体が明るい場合の白抽出範囲を示している。被写体が明るい場合は、日中の太陽光などを含む可能性が高くなるため、領域1002で示すような日中太陽光付近に限定した狭い範囲に白抽出範囲を設定する。ステップS502では、被写体の明るさに基づいて、図10(a)または図10(b)に示す白抽出範囲に切り替える処理を行う。なお、本実施形態では、被写体の明るさに基づいて2段階に白抽出範囲を切り替えているが、3段階以上の多段階で切り替えてもよい。
次に、ステップS503においては、被写体が鏡面反射成分を含むか否かを判定する。具体的には、図6のステップS613において算出した鏡面反射成分の鏡面反射ブロック数blkCountSが閾値T4よりも大きいか否かを判定する。この判定の結果、閾値T4よりも大きい場合は鏡面反射成分を所定面積よりも多く含むと判定し、ステップS504に進む。一方、ステップS503の判定の結果、閾値T4以下の場合はステップS505へ進む。
ステップS504においては、鏡面反射成分の色に基づいてステップS502で決定した白抽出範囲を補正する。この処理について、図10(c)を参照しながら説明する。図10(c)は、白抽出範囲と鏡面反射色の状態とを示した図である。以下、ステップS502で図10(a)に示す白抽出範囲に決定した場合を例に説明する。被写体が暗い場合、前述の通り白抽出範囲は広い領域1001の範囲となる。
この処理では、図6のステップS614において算出した鏡面反射成分の平均値(aveR,aveG,aveB)に基づいて白抽出範囲の領域1001を補正する。まず、鏡面反射成分の平均値(aveR,aveG,aveB)をCx,Cy空間に変形する。次に、図10(c)に示すように、Cx、Cy空間上の鏡面反射成分の平均値1003を基準にCx方向に±d1の距離、及びCy方向に±d2の距離をとった範囲を鏡面反射成分に基づく白抽出範囲の領域1004とする。そして、明るさに基づいて算出した白抽出範囲の領域1001と鏡面反射成分に基づく白抽出範囲の領域1004との両方を満たす範囲を最終的な白抽出範囲とする。図10(c)に示す例では、鏡面反射成分に基づく白抽出範囲の領域1004が、明るさに基づく白抽出範囲の領域1001に全て含まれるため、領域1004を最終的な白抽出範囲として出力する。
次に、ステップS505においては、白抽出処理を行う。この処理では、まず、入力画像の全ての画素に対して、その画素の色が白抽出範囲の領域1004に入るか否かを判定する。そして、白抽出範囲に入ると判定した画素の画素値(Cx,Cy)を、白抽出信号合計値に加算する。また、このとき、白抽出範囲に入った画素の数を白画素カウント値としてカウントする。
ステップS506においては、白抽出した結果に基づいてホワイトバランスゲインを算出する。具体的には、まず、前述の白抽出信号合計値を白画素カウント値で除算する。この処理により、例えば白抽出範囲の領域1004に含まれる画素の平均値(aveCx,aveCy)を算出することになる。図10(c)に示す平均値1005は、Cx,Cyの平均値の例を示している。そして、算出した平均値(aveCx,aveCy)をRGB値に変換する。このRGB値を白抽出平均RGB値(wR,wG,wB)とする。
最後に、白抽出平均RGB値(wR,wG,wB)からホワイトバランスゲインを算出する。ここで、Gのホワイトバランスゲインを固定とすると、R及びBのホワイトバランスゲイン(wR-Gain, wB-Gain)は、以下の式(4)により算出される。
wR-Gain=wG/wR
wB-Gain=wG/wB ・・・(4)
次に、ステップS507においては、算出したホワイトバランスゲインを、図2のWB増幅部201に設定する。これにより、WB増幅部201は、設定されたホワイトバランスゲインに基づいて、入力されたRGB値の増幅処理を行う。
(顔検出処理により顔が検出された場合の候補領域)
顔検出部104により顔が検出された場合には、画像信号全体ではなく、顔検出結果を用いて鏡面反射成分を抽出する。次に、顔検出結果を用いて鏡面反射成分を抽出する際の候補領域について説明する。
図11は、顔が検出された場合の鏡面反射成分を抽出する候補領域を説明するための図である。
図11において、顔検出部104により入力画像1100から顔領域1101が検出されている。候補領域1102〜1106は、図3に示したような顔検出結果から得られた顔領域の位置、サイズ、角度、及び目、口など器官の位置などの情報を基に決定される。候補領域1103、1104は、目の位置、及び顔の角度から求められ、候補領域1105は、鼻の位置、または目、口の位置と顔の角度とから相対的に求められる。また、候補領域1106は、顔領域の位置及びサイズから相対的に求められ、候補領域1107、1108は目の位置及びサイズから求められる。
これらの候補領域1102〜1108を、前述した複数のブロック領域として適用することにより鏡面反射成分を同様に求めることができる。図11に示す例では、7つの候補領域として説明したが、これらの領域に限定されるものでは無く、鏡面反射成分を含むと予測できる他の候補領域を定義し、より多くの候補領域を扱う場合も同様に適用することができる。
以上のように、顔検出結果から得られた顔領域の位置、サイズ、および目、口など器官の位置を基に候補領域を決定し、これに基づいて鏡面反射成分を求めることができる。
(人体検出処理により人体が検出された場合の候補領域)
人体検出部105により人体が検出された場合には、画像信号全体ではなく、人体検出結果を用いて鏡面反射成分を抽出する。次に、人体検出結果を用いて鏡面反射成分を抽出する際の候補領域について説明する。
図12は、人体が検出された場合の鏡面反射成分を抽出する候補領域を説明するための図である。
図12において、人体検出部105により入力画像1200から人体領域1201が検出されている。候補領域1202〜1204は、図4に示したような人体検出結果から得られた人体領域の位置、サイズ、角度、頭部や肩などの部位の位置及び部位のサイズ情報を基に決定される。候補領域1202は人体の頭部の位置、サイズ、及び角度から相対的に求められ、候補領域1203、1204は人体領域のサイズ、角度、及び肩の位置から相対的に求められる。
これらの候補領域1202〜1204を、前述した複数のブロック領域として適用することにより鏡面反射成分を同様に求めることができる。図12に示す例では、3つの候補領域を例として説明したが、これらの領域に限定されるものでは無く、鏡面反射成分を含むと予測できる他の候補領域を定義し、より多くの候補領域を扱う場合も同様に適用することができる。
以上のように、人体検出結果から得られた人体領域の位置、サイズ、及び頭部、肩など器官の位置を基に候補領域を決定し、これに基づいて鏡面反射成分を求めることができる。さらに、顔検出処理と人体検出処理との両方を行った場合には、顔検出結果から決定される候補領域1102〜1108、及び人体検出結果から決定される候補領域1202〜1204をブロック領域として適用してもよい。さらに、その他の多くの候補領域の場合も同様に適用してもよい。
(候補領域から鏡面反射成分を求める領域の選択)
ここで、顔検出処理または人体検出処理によって求められた候補領域をそのまま鏡面反射成分を抽出する際の複数のブロック領域として適用せず、さらに領域を絞り込むようにしてもよい。次に、前述した候補領域をグループ分けし、鏡面反射成分を求める領域(以下、抽出用領域)を選択する場合について、図13を参照しながら説明する。
図13において、候補領域1301〜1304は第1の候補領域グループに属し、候補領域1305〜1308は第2の候補領域グループに属している。また、候補領域1309〜1311は第3の候補領域グループに属し、候補領域1312〜1314は第4の候補領域グループに属している。これらのグループは推定光源方向が同じ場合によりよく鏡面反射する領域ごとに同一グループとしており、予めグループ分けしておくものとする。また、候補領域1301〜1314は、顔の位置、サイズ、および顔の角度(例えば角度(θfp)1315)といった情報から相対的に定義されている。
図14は、システム制御部50により、候補領域グループのうち、どの候補領域グループに属する候補領域を抽出用領域とするかを選択する処理手順の一例を示すフローチャートである。
まず、ステップS1401において、全候補領域グループの候補選択フラグGrFlagNを0(Nはグループ番号)に初期化する。そして、ステップS1402において、入力画像がストロボ撮影によって撮影された画像であるか否かを判定する。具体的には、入力画像を撮影するときに、システム制御部50の制御によりストロボを発光したか否かを判別することにより、その入力画像がストロボ撮影によるものかどうかを判定することができる。
この判定の結果、入力画像がストロボ撮影である場合は、ステップS1403に進み、予め定義された候補領域グループの候補選択フラグGrFlagNを1に設定する。図13に示す例では、第2の候補領域グループの候補選択フラグGrFlag2を1とする。すなわち、図13に示す候補領域1305〜1308は、ストロボ撮影では鏡面反射の候補領域に適していると判断する。一方、ステップS1402の判定の結果、入力画像がストロボ撮影でない場合は、ステップS1404に進む。
次に、ステップS1404においては、後述するステップS1405〜S1408の処理に関して全ての候補領域グループについてループ処理を行う。また、次のステップS1405においては、後述するステップS1406〜S1407の処理に関して、処理対象となる候補領域グループに属する全ての候補領域についてループ処理を行う。
まず、ステップS1406においては、候補領域内の輝度ヒストグラムを取得する。具体的には、輝度・色信号生成部200によって生成された候補領域内の全画素の輝度信号Yから輝度ヒストグラムを生成する。次に、ステップS1407において、輝度ヒストグラムの結果から輝度ヒストグラムにおけるピークの輝度Ypを求める。以上の処理を候補領域グループに属する全ての候補領域について行う。
図15は、輝度ヒストグラムの一例を示す図である。ここで、図15(a)及び図15(b)は、それぞれ2つの違う候補領域の輝度ヒストグラムを示している。図15(a)における輝度ヒストグラムのピークの輝度値はYp1であり、図15(b)における輝度ヒストグラムのピークの輝度値はYp2である。図15に示す例では、Yp1>Yp2であり、図15(a)の候補領域の方が図15(b)の候補領域よりも輝度ヒストグラムのピークの輝度値が大きい。
次に、ステップS1408において候補領域グループ内の全候補領域の輝度ヒストグラムのピークの平均輝度値Ypaveを求める。以上の処理を全ての候補領域グループについて行う。
次に、ステップS1409においては、ステップS1408で候補領域グループごとに求めた候補領域グループ内のピークの平均輝度値Ypaveを比較する。そして、比較した中で最大の平均輝度値Ypaveを有する候補領域グループの候補選択フラグをGrFlagN=1と設定する。そして、ステップS1410において、GrFlagN=1となった候補領域グループ内の全候補領域を、鏡面反射成分の抽出用領域として選択する。
なお、図14に示した処理手順では、輝度ヒストグラムに基づいて抽出用領域を選択したが、各候補領域グループの候補領域ごとに輝度平均を求め、この輝度平均に基づいて候補領域を選択してもよい。また、図13に示した例では、顔検出結果から顔を中心とした候補領域について説明したが、人体検出結果から人体を中心とした候補領域についても同様な処理を行うことができる。
(顔検出処理または人体検出処理により人物が検出された場合のゲイン算出処理)
次に、前述した候補領域または抽出用領域に基づいてホワイトバランスゲインを算出する処理について、図16のフローチャートを参照しながら説明する。
図16は、システム制御部50により候補領域または抽出用領域に基づいてホワイトバランスゲインを算出する処理手順の一例を示すフローチャートである。なお、図16に示す処理手順では顔検出処理が行われた場合を例としているが、人体検出処理でも同様に適用することができる。
まず、図16のステップS1601において、鏡面反射成分を抽出する。この処理の基本的な流れは、図6に示した手順と同様である。但し、図6に示した手順と異なる点は、入力画像の全画素を対象とするのではなく、図11または図12に示したすべての候補領域の中の全画素を対象とする点である。また、ステップS607、S609〜S614において、ブロック単位ではなく、候補領域の単位で処理を行う。また、顔検出処理または人体検出処理によって求められた候補領域ではなく、図14に示した手順によって選択された抽出用領域を適用してもよい。
次のステップS1602及びS1603においては、それぞれ図5のステップS502及びS503と同様である。ステップS1603の判定の結果、被写体が鏡面反射成分を含む場合はステップS1604に進み、鏡面反射成分を含まない場合はステップS1606へ進む。
ステップS1604においては、顔検出部104による顔検出結果から顔のサイズを取得する。そして、ステップS1605において、取得した顔のサイズに基づいて白抽出重みを求める。ここで、白抽出重みについて図17を参照しながら説明する。
図17(a)は、CxCy空間における鏡面反射成分の平均値(aveR,aveG,aveB)を説明するための図であり、図17(b)は、Cx軸に対する重みを説明するための図である。図17(a)において、領域1701はステップS1602で決定した白抽出範囲を示している。1702は、図6のステップS614において算出した鏡面反射成分の平均値(aveR,aveG,aveB)をCxCy空間に変換した値である。
ステップS1605では、鏡面反射成分の平均値(aveR,aveG,aveB)をCxCy空間上に変換し、ステップS1604で取得した顔のサイズに基づいて白抽出重みを決定する。具体的には、図17(b)の線1704〜1706に示すように、鏡面反射成分の平均値1702のCx値付近では重みを高く(2.0〜3.0)設定するように制御する。そして、鏡面反射成分の平均値1702からCx方向に離れると重みを低く(1.0)設定するように制御する。また、顔のサイズが大きいほど重みを高くするように制御する。
一方、ステップS1606においては、白抽出重みを一定とするように設定する。例えば図17(c)に示すように、Cx方向に対して重みを一定値(1.0)に設定する。
次に、ステップS1607においては、ステップS1605またはS1606で算出した重みに基づいて白抽出処理を行う。具体的には、入力画像の全ての画素に対して、その画素の色が白抽出範囲の領域1701の範囲に入るか否かを判定する。そして、白抽出範囲に入ると判定した画素の画素値(Cx,Cy)に関し、ステップS1605またはS1606で算出したCx値の白抽出重みを参照して重み値w(Cx)を取得し、重み付きCx,Cyを算出する。具体的には以下の式(5)により重み付きCx,Cyを算出する。
重み付きCx=w(Cx)×Cx
重み付きCy=w(Cx)×Cy ・・・(5)
そして、以上の式により算出した重み付きCx,Cy値を白抽出信号合計値に加算する。また、一画素毎に算出した重み値w(Cx)を白画素カウント値に加算する。例えば重みが3.0の場合は3を白画素カウント値に加算する。
ステップS1608においては、白抽出した結果に基づいてホワイトバランスゲインを算出する。具体的には、まず、前述の白抽出信号合計値を白画素カウント値で除算する。この処理により、白抽出範囲の領域1701に含まれる画素の重み付き平均値を算出することになる。図17(a)に示す平均値1703は、Cx,Cyの平均値の例を示している。そして、算出した平均値をRGB値に変換することによって、ホワイトバランスゲインを算出する。この処理は図5のステップS506と同様の処理であるため、説明は省略する。
次に、ステップS1609においては、算出したホワイトバランスゲインを、図2のWB増幅部201に設定する。これにより、WB増幅部201は、設定されたホワイトバランスゲインに基づいて、入力されたRGB値の増幅処理を行う。
なお、本実施形態では、顔のサイズに基づいて重み値を変更したが、このような方法に限定するものではなく、どのような重み付けを行ってもよい。例えば、検出された顔の数が複数である場合は個々の顔の重みを顔の数の分低くするようにしてもよい。また、顔の向きや角度によって重み値を変更してもよい。さらに、本実施形態では、Cx方向のみに重み付けをしたが、鏡面反射成分の色を用いてCy方向に対して重みを付けるようにしてもよい。
以上のように本実施形態によれば、入力画像中の鏡面反射領域を精度よく特定して鏡面反射成分を抽出し、鏡面反射成分に基づくホワイトバランス処理を行うことができる。これにより、精度の高いホワイトバランス制御が可能な画像処理装置を提供することができる。
(第2の実施形態)
本実施形態においては、顔検出された領域とそれ以外の領域とでそれぞれ別のホワイトバランスゲインによってホワイトバランス処理を行う例について説明する。本実施形態では、図16のステップS1608及びS1609の処理の代わりに、後述する図18の処理手順によりホワイトバランス処理を行う。なお、デジタルカメラの構成など基本的な点については第1の実施形態と同様であるため、説明は省略する。以下、第1の実施形態と異なる点についてのみ説明する。また、本実施形態では、顔検出部104により顔が検出されている場合の例について説明する。
図18は、本実施形態において、ホワイトバランス処理を行う処理手順の一例を示すフローチャートである。
ステップS1801においては、システム制御部50は、白抽出信号合計値を白画素カウント値で除算することによって白抽出範囲の画素の平均値(aveCx,aveCy)を取得する。具体的には、図5のステップS501〜S506に示した手順により、白抽出範囲の領域に含まれる画素の平均値(aveCx,aveCy)を算出する。続いてステップS1802において、システム制御部50は、図16のステップS1607で算出した重み付きCx,Cy値を取得する。
次に、ステップS1803においては、後述するステップS1804〜S1808の処理を、入力画像内の全画素に対してループ処理を行う。まず、ステップS1804において、システム制御部50は、処理対象となる画素が顔検出処理により検出された顔領域か否かを判定する。本実施形態においては、例えば図3に示す顔水平サイズ情報302及び顔垂直サイズ情報303に基づいてその画素が顔領域か否かを判定する。この判定の結果、顔領域である場合はS1805へ進み、システム制御部50は、その画素に関し、白として鏡面反射成分から算出した重み付きCx,Cy値を選択する。一方、ステップS1804の判定の結果、その画素が顔領域でない場合は、ステップS1806へ進み、システム制御部50は、その画素に関し、白として白抽出範囲の画素の平均値(aveCx,aveCy)を選択する。
次に、ステップS1807においては、システム制御部50は、ステップS1805またはS1806で選択した値に基づいてホワイトバランスゲインを算出する。重み付きCx,Cy値を選択した場合には、図16のステップS1608と同様の手順によりホワイトゲインを算出する。また、白抽出範囲の画素の平均値(aveCx,aveCy)を選択した場合には、図5のステップS506と同様の手順によりホワイトバランスゲインを算出する。
ステップS1808においては、システム制御部50は、S1807で算出したホワイトバランスゲインを図2のWB増幅部201に設定する。そして、WB増幅部201は、設定されたホワイトバランスゲインによって該当画素にホワイトバランス処理を行う。以上の処理を画素毎に行う。
以上のように本実施形態によれば、画像の領域ごとに適したより精度の高いホワイトバランス処理を施すことができる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
24 画像処理部
50 システム制御部
104 顔検出部
105 人体検出部

Claims (12)

  1. 入力画像からオブジェクトを検出する検出手段と、
    前記検出手段によって検出されたオブジェクトの情報に基づいて前記オブジェクトにおける鏡面反射成分を抽出する領域を特定する特定手段と、
    前記特定手段によって特定された領域から前記鏡面反射成分を抽出する抽出手段と、
    前記抽出手段によって抽出された鏡面反射成分に基づくホワイトバランスゲインにより前記入力画像に対してホワイトバランス処理を行う処理手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記オブジェクトは人物の顔であり、
    前記特定手段は、前記検出手段により検出された顔の領域の位置、サイズ、角度、及び器官の位置を含む情報に基づいて前記領域を特定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記オブジェクトは人体であり、
    前記特定手段は、前記検出手段により検出された人体の領域の位置、サイズ、角度、部位の位置及び部位のサイズ情報に基づいて前記領域を特定することを特徴とする請求項1に記載の画像処理装置。
  4. 前記抽出手段は、前記特定手段によって特定された領域における、RGBの各成分の何れかが閾値よりも大きい画素を鏡面反射成分の抽出に用いないようにすることを特徴とする請求項1〜3の何れか1項に記載の画像処理装置。
  5. 前記抽出手段は、前記特定手段によって特定された領域における、所定の色との差分が閾値以上である画素を鏡面反射成分の抽出に用いないようにすることを特徴とする請求項1〜4の何れか1項に記載の画像処理装置。
  6. 前記特定手段によって特定された領域から、さらに輝度ヒストグラムに基づいて鏡面反射成分を抽出する領域を選択する選択手段を備え、
    前記抽出手段は、前記選択手段によって選択された領域から前記鏡面反射成分を抽出することを特徴とする請求項1〜5の何れか1項に記載の画像処理装置。
  7. 前記選択手段は、前記特定手段によって特定された複数の領域ごとに前記輝度ヒストグラムのピークを算出して鏡面反射成分を抽出する領域を選択することを特徴とする請求項6に記載の画像処理装置。
  8. 前記選択手段は、さらにストロボの発光の有無に基づいて鏡面反射成分を抽出する領域を選択することを特徴とする請求項6又は7に記載の画像処理装置。
  9. 前記処理手段は、前記特定手段によって特定された領域から抽出された鏡面反射成分に基づいて重み付けされたホワイトバランスゲインにより前記入力画像に対してホワイトバランス処理を行うことを特徴とする請求項1〜8の何れか1項に記載の画像処理装置。
  10. 前記処理手段は、前記検出手段によって検出されたオブジェクトの領域に対して前記抽出手段によって抽出された鏡面反射成分に基づくホワイトバランスゲインを用い、それ以外の領域に対して白抽出範囲の画素の平均に基づくホワイトバランスゲインを用いることを特徴とする請求項1〜9の何れか1項に記載の画像処理装置。
  11. 入力画像からオブジェクトを検出する検出工程と、
    前記検出工程において検出されたオブジェクトの情報に基づいて前記オブジェクトにおける鏡面反射成分を抽出する領域を特定する特定工程と、
    前記特定工程において特定された領域から前記鏡面反射成分を抽出する抽出工程と、
    前記抽出工程において抽出された鏡面反射成分に基づくホワイトバランスゲインにより前記入力画像に対してホワイトバランス処理を行う処理工程と、
    を備えることを特徴とする画像処理方法。
  12. 入力画像からオブジェクトを検出する検出工程と、
    前記検出工程において検出されたオブジェクトの情報に基づいて前記オブジェクトにおける鏡面反射成分を抽出する領域を特定する特定工程と、
    前記特定工程において特定された領域から前記鏡面反射成分を抽出する抽出工程と、
    前記抽出工程において抽出された鏡面反射成分に基づくホワイトバランスゲインにより前記入力画像に対してホワイトバランス処理を行う処理工程と、
    をコンピュータに実行させることを特徴とするプログラム。
JP2014077280A 2014-04-03 2014-04-03 画像処理装置、画像処理方法及びプログラム Active JP6410454B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014077280A JP6410454B2 (ja) 2014-04-03 2014-04-03 画像処理装置、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014077280A JP6410454B2 (ja) 2014-04-03 2014-04-03 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2015198438A true JP2015198438A (ja) 2015-11-09
JP6410454B2 JP6410454B2 (ja) 2018-10-24

Family

ID=54547877

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014077280A Active JP6410454B2 (ja) 2014-04-03 2014-04-03 画像処理装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6410454B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105868735A (zh) * 2016-04-25 2016-08-17 南京大学 一种跟踪人脸的预处理方法及基于视频的智慧健康监视***
JP2017147535A (ja) * 2016-02-16 2017-08-24 リコーイメージング株式会社 ホワイトバランス調整装置、ホワイトバランス調整方法、ホワイトバランス調整プログラム及び撮影装置
CN107277479A (zh) * 2017-07-10 2017-10-20 广东欧珀移动通信有限公司 白平衡处理方法和装置
CN107277481A (zh) * 2017-07-14 2017-10-20 维沃移动通信有限公司 一种图像处理方法及移动终端
CN110853563A (zh) * 2019-11-18 2020-02-28 深圳传音控股股份有限公司 基于镜面的影像处理方法、移动终端及计算机存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0576037A (ja) * 1991-09-18 1993-03-26 Matsushita Electric Ind Co Ltd オートホワイトバランス装置
JP2006067561A (ja) * 2004-07-06 2006-03-09 Microsoft Corp フラッシュあり/フラッシュなしの拡張を用いるデジタル写真
JP2008225970A (ja) * 2007-03-14 2008-09-25 Matsushita Electric Ind Co Ltd 画像合成装置およびそれを用いた画像照合装置ならびに画像合成方法
JP2013258675A (ja) * 2012-05-16 2013-12-26 Canon Inc 画像処理装置、画像処理方法およびプログラム、並びに撮像装置
JP2014007611A (ja) * 2012-06-25 2014-01-16 Canon Inc 画像処理装置及びその制御方法
JP2014007528A (ja) * 2012-06-22 2014-01-16 Canon Inc 画像処理装置およびその制御方法
JP2014007530A (ja) * 2012-06-22 2014-01-16 Canon Inc 画像処理装置およびその制御方法
JP2014033358A (ja) * 2012-08-03 2014-02-20 Nikon Corp 撮像装置、画像処理装置、画像処理方法、画像処理プログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0576037A (ja) * 1991-09-18 1993-03-26 Matsushita Electric Ind Co Ltd オートホワイトバランス装置
JP2006067561A (ja) * 2004-07-06 2006-03-09 Microsoft Corp フラッシュあり/フラッシュなしの拡張を用いるデジタル写真
JP2008225970A (ja) * 2007-03-14 2008-09-25 Matsushita Electric Ind Co Ltd 画像合成装置およびそれを用いた画像照合装置ならびに画像合成方法
JP2013258675A (ja) * 2012-05-16 2013-12-26 Canon Inc 画像処理装置、画像処理方法およびプログラム、並びに撮像装置
JP2014007528A (ja) * 2012-06-22 2014-01-16 Canon Inc 画像処理装置およびその制御方法
JP2014007530A (ja) * 2012-06-22 2014-01-16 Canon Inc 画像処理装置およびその制御方法
JP2014007611A (ja) * 2012-06-25 2014-01-16 Canon Inc 画像処理装置及びその制御方法
JP2014033358A (ja) * 2012-08-03 2014-02-20 Nikon Corp 撮像装置、画像処理装置、画像処理方法、画像処理プログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017147535A (ja) * 2016-02-16 2017-08-24 リコーイメージング株式会社 ホワイトバランス調整装置、ホワイトバランス調整方法、ホワイトバランス調整プログラム及び撮影装置
CN105868735A (zh) * 2016-04-25 2016-08-17 南京大学 一种跟踪人脸的预处理方法及基于视频的智慧健康监视***
CN105868735B (zh) * 2016-04-25 2019-03-26 南京大学 一种跟踪人脸的预处理方法及基于视频的智慧健康监视***
CN107277479A (zh) * 2017-07-10 2017-10-20 广东欧珀移动通信有限公司 白平衡处理方法和装置
CN107277479B (zh) * 2017-07-10 2020-06-05 Oppo广东移动通信有限公司 白平衡处理方法和装置
US11082677B2 (en) 2017-07-10 2021-08-03 Guangdong Oppo Mobile Telecommunications Corp., Ltd. White balance processing method and apparatus
CN107277481A (zh) * 2017-07-14 2017-10-20 维沃移动通信有限公司 一种图像处理方法及移动终端
CN110853563A (zh) * 2019-11-18 2020-02-28 深圳传音控股股份有限公司 基于镜面的影像处理方法、移动终端及计算机存储介质
CN110853563B (zh) * 2019-11-18 2023-05-12 深圳传音控股股份有限公司 基于镜面的影像处理方法、移动终端及计算机存储介质

Also Published As

Publication number Publication date
JP6410454B2 (ja) 2018-10-24

Similar Documents

Publication Publication Date Title
JP4656657B2 (ja) 撮像装置及びその制御方法
JP6006543B2 (ja) 画像処理装置および画像処理方法
US20120133797A1 (en) Imaging apparatus, imaging method and computer program
JP6410454B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2006352795A (ja) 撮像装置及び画像処理方法
US9485436B2 (en) Image processing apparatus and image processing method
JP6124700B2 (ja) 撮像装置、その制御方法、プログラム、記憶媒体
JP2011182252A (ja) 撮像装置および画像撮影方法
US20160219227A1 (en) Image processing apparatus which performs image processing on photographic subject
JP2015082768A (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
US20160188959A1 (en) Image Capture Apparatus Capable of Processing Photographed Images
JP2019121860A (ja) 画像処理装置及びその制御方法
JP5956844B2 (ja) 画像処理装置およびその制御方法
JP4726251B2 (ja) 撮像装置及び画像処理方法
JP2015211233A (ja) 画像処理装置および画像処理装置の制御方法
US20120188437A1 (en) Electronic camera
JP2018074199A (ja) 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
JP6808482B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US20140023231A1 (en) Image processing device, control method, and storage medium for performing color conversion
JP2017157043A (ja) 画像処理装置、撮像装置、及び、画像処理方法
US11405562B2 (en) Image processing apparatus, method of controlling the same, image capturing apparatus, and storage medium
US8849040B2 (en) Image combining apparatus
JP7458723B2 (ja) 画像処理装置、撮像装置、制御方法、およびプログラム
US20160173756A1 (en) Focus control device and method and imaging apparatus
JP2010021956A (ja) 撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180925

R151 Written notification of patent or utility model registration

Ref document number: 6410454

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151