JP4748271B2 - 電子カメラおよび画像処理プログラム - Google Patents

電子カメラおよび画像処理プログラム Download PDF

Info

Publication number
JP4748271B2
JP4748271B2 JP2010010162A JP2010010162A JP4748271B2 JP 4748271 B2 JP4748271 B2 JP 4748271B2 JP 2010010162 A JP2010010162 A JP 2010010162A JP 2010010162 A JP2010010162 A JP 2010010162A JP 4748271 B2 JP4748271 B2 JP 4748271B2
Authority
JP
Japan
Prior art keywords
color
area
face
unit
color difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010010162A
Other languages
English (en)
Other versions
JP2010200312A (ja
Inventor
一惠 皆川
啓一 新田
岳志 西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010010162A priority Critical patent/JP4748271B2/ja
Priority to US12/692,152 priority patent/US8441544B2/en
Publication of JP2010200312A publication Critical patent/JP2010200312A/ja
Application granted granted Critical
Publication of JP4748271B2 publication Critical patent/JP4748271B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/643Hue control means, e.g. flesh tone control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、肌色補正を行う電子カメラおよび画像処理プログラムに関する。
近年、電子カメラが幅広く普及し、様々なシーンで人物撮影が行われている。このような人物撮影では、撮影された人物の肌色がきれいに再現できるか否かが撮影者や被撮影者の大きな関心事である。
そこで、人物の顔をきれいに撮影するために、各人物の特性に応じた補正を行う方法などが検討されている(例えば、特許文献1参照)。
特開2005−128600号公報
ところが、ファンデーションなどで化粧をした人物を電子カメラでフラッシュ撮影した場合、撮影された画像の人物の顔色が実際に見た印象よりも青白くなってしまうという問題がある。特に、ファンデーションを塗った顔色は青白くなるが、デコルテ部分(首筋から胸元にかけての部位)のようにファンデーションを塗っていないところは普通の肌色のままなので、顔の肌色とデコルテ部分の肌色との色の違いが目立ち、いかにも厚塗りの化粧に見えてしまうという問題があった。また、フラッシュ撮影を行わない場合でも、ファンデーションを塗った顔の肌色とデコルテ部分の肌色との色の違いが撮影画像に現れ、仮面のように見えることもある。
本発明の目的は、顔の肌色と顔周辺部分の肌色との色の違いが少なく、自然な感じの人物画像を得ることができる電子カメラおよび画像処理プログラムを提供することである。
本発明に係る電子カメラは、人物画像を撮影する撮像部と、前記撮像部が撮影した人物画像の中から顔部分および顔以外の部分を含む肌色領域を検出する領域検出部と、前記領域検出部が検出した肌色領域の色情報を判定し、前記顔部分の第1色情報と前記顔以外の部分の肌色領域の第2色情報との色差を求める色差算出部と、色変換を行う領域を指定するエリア指定部と、前記色差算出部が求めた色差に基づいて色補正係数を求める補正係数算出部と、前記色差算出部が求めた色差が所定値以上の場合に、前記エリア指定部で指定した領域を前記色補正係数を用いて色変換を行う色変換部と、閃光部とを有し、前記撮像部で撮影する際に前記閃光部がオンの場合に、色変換処理を実行することを特徴とする。
また、本発明に係る電子カメラは、人物画像を撮影する撮像部と、前記撮像部が撮影した人物画像の中から顔部分および顔以外の部分を含む肌色領域を検出する領域検出部と、前記領域検出部が検出した肌色領域の色情報を判定し、前記顔部分の第1色情報と前記顔以外の部分の肌色領域の第2色情報との色差を求める色差算出部と、色変換を行う領域を指定するエリア指定部と、前記色差算出部が求めた色差に基づいて色補正係数を求める補正係数算出部と、前記色差算出部が求めた色差が所定値以上の場合に、前記エリア指定部で指定した領域を前記色補正係数を用いて色変換を行う色変換部と、前記撮像部で予め撮影した人物画像に対して前記色差算出部が判定した肌色領域の色情報をプリセット色情報として保持する保持部とを有し、前記色差算出部は、前記撮像部で本撮影した人物画像に対して判定した肌色領域の本撮影色情報と、前記保持部に保持されている前記プリセット色情報との色差を求めることを特徴とする。
特に、前記保持部は、前記閃光部が非発光時に撮影した人物画像に対して前記色差算出部が判定した肌色領域の色情報をプリセット色情報として保持することを特徴とする。
また、本発明に係る電子カメラは、人物画像を撮影する撮像部と、前記撮像部が撮影した人物画像の中から顔部分および顔以外の部分を含む肌色領域を検出する領域検出部と、前記領域検出部が検出した肌色領域の色情報を判定し、前記顔部分の第1色情報と前記顔以外の部分の肌色領域の第2色情報との色差を求める色差算出部と、色変換を行う領域を指定するエリア指定部と、前記色差算出部が求めた色差に基づいて色補正係数を求める補正係数算出部と、前記色差算出部が求めた色差が所定値以上の場合に、前記エリア指定部で指定した領域を前記色補正係数を用いて色変換を行う色変換部と、前記撮像部で予め撮影した人物画像に対して前記色差算出部が判定した肌色領域の色情報をプリセット色情報として保持する保持部とを有し、前記色差算出部は、前記撮像部で本撮影した人物画像に対して判定した肌色領域の本撮影色情報と、前記保持部に保持されている前記プリセット色情報との色差を求めることを特徴とする。
特に、前記補正係数算出部は、前記色補正係数を求める際に、前記閃光部が発光時の顔部分に対する寄与度に応じて前記色補正係数の重み付けを行うことを特徴とする。
また、好ましくは、前記色差算出部が前記第2色情報を判定する顔以外の肌色領域は、人物の首周辺領域であることを特徴とする。
また、好ましくは、前記第1色情報および前記第2色情報の少なくとも一方の色相が所定範囲内にあるか否かを判定する色範囲判定部を更に設け、前記色範囲判定部の判定結果が所定範囲内にある場合は前記色変換処理を実行することを特徴とする。
また、好ましくは、前記色差算出部は、前記第2色情報を判定する際に、顔以外の肌色領域の色分布から最頻度の色分布を求め、当該色分布を顔以外の肌色領域の前記第2色情報とすることを特徴とする。
本発明に係る画像処理プログラムは、人物画像の中から顔部分および顔以外の部分を含む肌色領域を検出する領域検出ステップと、前記領域検出ステップで検出した肌色領域の色情報を判定し、前記顔部分の第1色情報と前記顔以外の部分の肌色領域の第2色情報との色差を求める色差算出ステップと、色変換を行う領域を指定するエリア指定ステップと、前記色差算出ステップ求めた色差に基づいて色補正係数を求める補正係数算出ステップと、前記色差算出ステップ求めた色差が所定値以上の場合に、前記エリア指定ステップで指定した領域を前記色補正係数を用いて色変換を行う色変換ステップとを有し、前記人物画像が閃光部をオンにして撮影された画像である場合に、色変換処理を実行することを特徴とする。
また、本発明に係る画像処理プログラムは、人物画像の中から顔部分および顔以外の部分を含む肌色領域を検出する領域検出ステップと、前記領域検出ステップで検出した肌色領域の色情報を判定し、前記顔部分の第1色情報と前記顔以外の部分の肌色領域の第2色情報との色差を求める色差算出ステップと、色変換を行う領域を指定するエリア指定ステップと、前記色差算出ステップで求めた色差に基づいて色補正係数を求める補正係数算出ステップと、前記色差算出ステップで求めた色差が所定値以上の場合に、前記エリア指定ステップで指定した領域を前記色補正係数を用いて色変換を行う色変換ステップと、予め撮影した人物画像に対して前記色差算出ステップで判定した肌色領域の色情報をプリセット色情報としてメモリに保持する保持ステップとを有し、前記色差算出ステップは、本撮影した人物画像に対して判定した肌色領域の本撮影色情報と、前記メモリに保持されている前記プリセット色情報との色差を求めることを特徴とする。
また、人物画像の中から顔部分および顔以外の部分を含む肌色領域を検出する領域検出ステップと、前記領域検出ステップで検出した肌色領域の色情報を判定し、前記顔部分の第1色情報と前記顔以外の部分の肌色領域の第2色情報との色差を求める色差算出ステップと、色変換を行う領域を指定するエリア指定ステップと、前記色差算出ステップで求めた色差に基づいて色補正係数を求め、求めた色補正係数に対して所定の重み付けを行う補正係数算出ステップと、前記色差算出ステップで求めた色差が所定値以上の場合に、前記エリア指定ステップで指定した領域を前記色補正係数を用いて色変換を行う色変換ステップとを有することを特徴とする。
本発明に係る電子カメラおよび画像処理プログラムは、顔の肌色と顔周辺部分の肌色との色の違いが少なく、自然な感じの人物画像を得ることができる。
本実施形態に係る電子カメラ101の構成を示すブロック図である。 本実施形態に係る電子カメラ101の処理を示すフローチャートである。 顔部分と顔周辺部分の領域を示す補助図である。 色空間と肌色領域の例を示す補助図である。 色の取得と色差を説明するための補助図である。 エリア指定を説明するための補助図である。 応用例1の処理を説明するための補助図である。 最頻度の色の求め方の例を示す補助図である。 応用例1に係る電子カメラ101の処理を示すフローチャートである。 プリセット色を設定する処理を示すフローチャートである。 応用例2に係る電子カメラ101の処理を示すフローチャートである。 応用例3の重み付け処理による「補正度合い選択メニュー」の例を示す補助図である。 寄与度を求める例を示す補助図である。 応用例4に係る電子カメラ101の処理を示すフローチャートである。 応用例5に係る電子カメラ101の処理を示すフローチャートである。 飽和時の色の推定処理を説明するための補助図である。 応用例6に係る電子カメラ101の処理を示すフローチャートである。 応用例7の処理方法を説明するための補助図である。
以下、本発明に係る電子カメラおよび画像処理プログラムに関する実施形態について説明する。
図1は、本実施形態に係る電子カメラ101の構成を示すブロック図である。尚、図1の電子カメラ101は、本発明に係る画像処理プログラムを含む。特に、本実施形態に係る電子カメラ101は「人物撮影モード」を有しており、撮影された人物の顔の肌色と顔周辺部分の肌色との色の違いを少なくし、自然な感じの人物画像を得ることができる。
図1において、電子カメラ101は、撮影光学系102と、メカニカルシャッタ103と、撮像素子104と、AFE(アナログフロントエンド)105と、A/D変換部106と、画像バッファ107と、制御部108と、メモリ109と、表示部110と、メモリカードI/F111と、操作部112と、フラッシュ113とで構成される。
図1において、撮影光学系102に入射された被写体光は、メカニカルシャッタ103を介して撮像素子104の受光面に入射される。ここで、撮影光学系102は、ズームレンズやフォーカスレンズなどの複数枚のレンズで構成され、絞り102aを有している。
撮像素子104の受光面には、二次元状に光電変換部が配置されており、各光電変換部に入射される光量に応じた電気信号に変換し、AFE105に出力する。
AFE105は、撮像素子104から出力される電気信号のノイズ除去や増幅などを行って、A/D変換部106に出力する。
A/D変換部106は、AFE105から出力される電気信号をデジタル信号に変換し、1画面分のデジタル信号を撮影画像データとして画像バッファ107に一時的に記憶する。また、画像バッファ107は画像処理を行う際の画像バッファや表示部110に画像を表示する際の表示用画像バッファとしても利用され、「人物撮影モード」における肌色補正も画像バッファ107上で行われる。尚、画像バッファ107は揮発性の高速メモリで構成される。
制御部108は、画像バッファ107に一時的に記憶されている画像データに対して、ホワイトバランス処理,色補正処理,ガンマ変換処理およびJPEG圧縮処理などの画像処理を実行する。そして、JPEG圧縮後のJPEG形式の画像データは、メモリカードI/F111を介してメモリカード111aに保存される。特に、本実施形態では、制御部108は「人物撮影モード」における肌色補正処理も行う。尚、制御部108の肌色補正処理については後で詳しく説明する。
メモリ109は、不揮発性のメモリで構成され、電子カメラ101の撮影モードや再生モードの設定内容、或いは露出情報やフォーカス情報などのパラメータや設定値などを記憶する。特に、本実施形態では、「人物撮影モード」における肌色補正処理で参照する肌色領域の範囲などのパラメータが記憶される。そして、これらのパラメータは、デフォルト値が電子カメラ101の製造時に記憶されているが、電子カメラ101の設定メニューで撮影者が変更することができる。
表示部110は、制御部108の指令に応じて、画像バッファ107に一時的に記憶されている撮影画像やメモリカード111aから画像バッファ107に読み出された撮影済みの画像などを表示する。また、制御部108が出力するメニュー画面なども表示部111に表示される。
操作部112は、電源ボタン、レリーズボタン、カーソルキーなどの操作ボタンで構成される。ユーザーは、これらの操作ボタンを操作して電子カメラ101を操作する。これらの操作ボタンの操作情報は制御部108に出力され、制御部108は操作部112から入力する操作情報に応じて電子カメラ101の全体の動作を制御する。
フラッシュ113は、制御部108の指令に応じて、露出不足の際やユーザーが強制発光に設定した場合に閃光を発する。
次に、図1の制御部108について詳しく説明する。制御部108は、内部に予め記憶されているプログラムに従って動作し、電子カメラ101の各部を制御する。制御部108は、撮影処理部121と、顔検出部122と、周辺領域検出部123と、色判定部124と、色差算出部125と、補正係数算出部126と、エリア指定部127と、色変換部128とで構成される。尚、本実施形態では説明が分かり易いように、顔検出部122,周辺領域検出部123,色判定部124,色差算出部125,補正係数算出部126,エリア指定部127および色変換部128は、制御部108に含めた構成で描いてあるが、制御部108とは別に専用のハードウェア回路で構成してもよい。
撮影処理部121は、撮影する画像のフォーカス制御や露出制御などを行う。例えば、フォーカス制御は、画像バッファ107に取り込まれた画像から焦点位置を求めて撮影光学系102のフォーカスレンズの位置を移動する。尚、これらの処理はプレビュー画像の撮影時に撮像素子104を介して画像バッファ107に取り込まれた画像を用いて行われるが、専用のAFセンサやAEセンサを用いてフォーカス制御や露出制御を行っても構わない。また、プレビュー画像の撮影時は、メカニカルシャッタ103を常に開放状態にして撮像素子104の露光時間によってシャッタ速度を制御する電子シャッタで撮影を行う。ここで、プレビュー画像とは、撮像素子104で時間的に連続して撮影される動画像を表示部110に表示して、撮影者が撮影構図などを決めるための画像である。そして、撮影者が操作部112のレリーズボタンを押下すると、本撮影された画像データが画像バッファ107に一時的に記憶される。尚、撮影処理部121は、露出不足の際やユーザーが強制発光に設定した場合にフラッシュ113を発光して適正露出になるように制御する。
次に、制御部108に含まれる各処理部(顔検出部122,周辺領域検出部123,色判定部124,色差算出部125,補正係数算出部126,エリア指定部127および色変換部128)の動作について、図2のフローチャートを用いて詳しく説明する。図2のフローチャートは、電子カメラ101が「人物撮影モード」に設定されている場合の撮影時の処理手順を示している。以下、図2のフローチャートに従って順番に説明する。
(ステップS100)撮影者が操作部112のレリーズボタンを押下する。
(ステップS101)レリーズボタンが押下されると、制御部108の撮影処理部121は、先に説明したように、撮影する画像のフォーカス制御や露出制御などを行った後、撮像素子104で撮影した画像を画像バッファ107に一時的に記憶する。尚、撮影処理部121は露出不足の場合や強制発光設定されている場合にフラッシュ113を発光する。
(ステップS102)制御部108は、ステップS101の撮影でフラッシュ撮影されたか否かを判別する。フラッシュ撮影された場合はステップS103に進み、フラッシュ撮影された場合はステップS113に進む。尚、フラッシュ撮影されたか否かは、撮影処理部121の処理結果により判別できる。
(ステップS103)制御部108は、ステップS101で撮影された画像から人物撮影であるか否かを判別する。人物撮影である場合はステップS104に進み、人物撮影でない場合はステップS113に進む。尚、人物撮影であるか否かの判別は、顔検出部122によって行われる。つまり、顔検出された場合に人物撮影であると判断する。
ここで、顔検出部122は、撮影画像に人物の顔があるか否かを検出する。顔検出は、例えば、予め設定された顔の特徴量(輪郭、目や鼻や口の配置など)に一致する部分が撮影画像にあるか否かをサーチする。そして、顔の特徴量に一致する部分を人物の顔と判断する。尚、顔検出自体は本実施形態の本質的な部分ではないので詳しい説明は省略するが、顔検出方法として様々な方法が知られており、いずれの方法を用いても構わない。また、顔検出部122の顔検出処理と共に、周辺領域検出部123は、顔周辺の領域を検出する。顔周辺の領域とは、例えば、首部分(デコルテ部分),肩部分,或いは耳部分などである。尚、顔周辺領域の検出方法は、例えば、顔と首と肩と耳の配置はほぼ決まっているので、顔と首と肩と耳の配置を示すテンプレートを予め準備しておき、テンプレートを拡大縮小して撮影画像の顔の輪郭に合わせれば、首や肩や耳のおよその位置がわかる。或いは、単純に顔領域の下方部分を首領域として判断しても構わない。尚、首領域は顎の影になりやすいので、できるだけ顔の位置から遠い部分を選択するようにする。
(ステップS104)制御部108の色判定部124は、ステップS103で判別した顔部分の色(第1色情報)を取得する。例えば、図3に示すように、頬の部分201の色を取得する。尚、頬の位置の検出は、顔検出部122が顔検出の際に求めた顔の輪郭,目,鼻および口の配置から推定することができる。例えば、両目と口とで形成される逆三角形において、両目と口の間の二辺の中央部分を頬の位置とすることができる。
(ステップS105)制御部108の色判定部124は、ステップS103で判別した顔周辺領域の色(第2色情報)を取得する。例えば、図3に示すように、首部分202や肩部分203や耳部分204などの色を取得する。尚、首,肩および耳の位置は、例えば、周辺領域検出部123が顔周辺の領域検出の際に求めた位置である。
(ステップS106)制御部108の色判定部124は、ステップS105で取得した顔周辺領域の色が所定範囲内の色であるか否かを判定する。所定範囲内の色である場合はステップS107に進み、所定範囲内の色でない場合はステップS113に進む。
ここで、色の判定方法について説明する。図4はCIE(国際照明委員会)が定めるL*a*b*表色系による色空間を示す図で、均等色空間とも呼ばれ、色空間上での距離や間隔が、人間の知覚的な色の距離や間隔に類似した色空間である。尚、L*の値は明るさを、a*の値は赤−緑の軸を、b*は黄−青の軸を表わす。本実施形態では、肌色領域の範囲を捉え易いことからL*a*b*表色系による色空間を用いるが、RGB表色系やXYZ表色系或いはYUV(YCrCb)表色系などの色空間を用いても構わない。いずれの色空間を用いる場合でも計算によって他の色空間に変換することができる。図4の影付き円で示した部分は肌色領域301を示す。尚、肌色の領域は、人や目的によって様々な考え方があるが、図4の例では、肌色領域をa*=10±8、b*=15±8として描いてある。
ステップS106において、色判定部124は、ステップS105で取得した顔周辺領域の色が図4の肌色領域301内にあるか否かを判定する。そして、肌色領域301内にある場合はステップS107に進み、肌色領域301内にない場合はステップS113に進む。尚、本ステップの処理によって、例えば肩が覆われた衣類を着用している場合や首にマフラーなどを巻いている場合、或いは耳が髪の毛で覆われている場合など、肌色検出ができない状態を除外することができる。また、ステップS105で取得する顔周辺領域として、図3に示した首部分202と肩部分203と耳部分204の3ヶ所が予め設定されている場合は、例えばこれら3ヶ所のいずれか1ヶ所が所定範囲内の色である場合に次のステップS107に進むようにしても構わない。尚、この場合は、所定範囲内の色のみを後で述べる目標色とする。
(ステップS107)制御部108の色差算出部125は、ステップS104で取得した顔部分の色と、ステップS105で取得した顔周辺領域の色との色差を算出する。図5は、図4で説明したL*a*b*表色系による色空間の肌色領域301を示す図で、点P1はステップS104で取得した顔部分の色座標を示し、点P2はステップS105で取得した顔周辺領域の色座標を示している。ステップS107において、色差算出部125は点P1と点P2の色差を計算する。尚、色差は、例えば点P1の色座標と点P2の色座標との距離として求めることができる。
尚、図4および図5では、分かり易いように、L*a*b*表色系による色空間のa*とb*の座標のみを示しているが、実際には肌色領域としての明るさL*の値の範囲を設けても構わない。例えば、肌色領域として、L*の値の範囲を30から80、a*の値の範囲を2から18、b*の値の範囲を7から23などのように設定して、設定値をメモリ109に予め記憶しておく。或いは、電子カメラ101に肌色領域設定メニューを設けて、ユーザーが任意に設定や変更を行えるようにしても構わない。
(ステップS108)制御部108は、ステップS107で色差算出部125が算出した顔部分の色と顔周辺領域の色との色差が所定値以上であるか否かを判定する。所定値以上である場合はステップS109に進み、所定値未満の場合はステップS113に進む。例えば、図5の場合は、点P1と点P2の色差が所定値以上であるか否かを判別する。そして、顔部分の色と顔周辺領域の色との色差が所定値に満たない場合は、既に顔部分の色と顔周辺領域の色とが類似した肌色になっていることがわかるので、肌色補正処理を行わずにステップS113に進んで処理を終了する。
ところが、被写体の人物がファンデーションなどで顔に化粧を施していた場合にフラッシュ113を発光して撮影すると、ステップS104で取得する顔部分の色は図5の肌色領域301から外れてしまい、例えば図5の点P’1の色座標になる。この場合は、ステップS107で点P’1と点P2の色差を求めることになり、点P’1と点P2の色差(色座標間の距離)は点P1と点P2の色差(色座標間の距離)よりも大きいので、例えばこれら2つを区別できる値に色差を判別する所定値を設定しておけば、顔部分の色と顔周辺領域の色との色差が所定値以上の場合は、顔部分の色と顔周辺領域の色とが大きく異なった肌色になっていることがわかるので、次のステップS109に進んで肌色補正処理を実行する。尚、色差判別の所定値はメモリ109に予め記憶しておく。また、電子カメラ101に色差判別の所定値を設定するメニューを設けて、ユーザーが任意に設定や変更を行えるようにしても構わない。
(ステップS109)制御部108は、目標とする顔色(新顔色)の作成を行う。尚、ステップS105で取得した顔周辺領域の色を新顔色のデフォルト値としてユーザーが操作することなく自動的に設定しても構わない。或いは、過補正や、首や肩などの顔周辺領域の選択や色取得の信頼性が低いときは、顔色と顔周辺領域の色との中間色を新顔色としても構わない。また、電子カメラ101に新顔色の設定メニューを設けて、ユーザーが任意に設定や変更を行えるようにしても構わない。
(ステップS110)制御部108の補正係数算出部126は、顔部分の色を新顔色に変換するための色変換マトリクスを算出する。
ここで、色変換マトリクスについて説明する。色変換マトリクスは、色空間上の特定の色相を目標とする色相に変換するための係数で、図4に示したL*a*b*表色系の色相座標の場合、2行2列の色変換マトリクスの4つの係数で構成される。2行2列の色変換マトリクスは、現在の顔色と新顔色(目標色)のポイントを2点ずつ選んで2つの色変換行列式を解くことにより算出することができる。
例えば、図4で説明したL*a*b*表色系による色空間の色座標(a*,b*)において、先ず、第1ポイントの目標色を色座標(a1,b1)とし、これに対する現在の顔色を色座標(a’1,b’1)とすると、(式1)の行列式が成立する。次に、第2ポイントの目標色を色座標(a2,b2)とし、これに対する現在の顔色を色座標(a’2,b’2)とすると、(式2)の行列式が成立する。尚、(式1)と(式2)の行列式において、g11,g12,g21およびg22は色変換マトリクスを構成する4つの係数である。
Figure 0004748271
Figure 0004748271
ここで、目標色を色座標(a1,b1)と色座標(a2,b2)は、ステップS109でユーザーの設定または自動的に決定されるので既知の値である。また、現在の顔色の色座標(a’1,b’1)と色座標(a’2,b’2)もステップS104で取得された値を用いるので既知の値である。従って、色変換マトリクスを構成するg11,g12,g21およびg22の4つの未知数は、(式1)と(式2)の2つの行列式から得られる4つの方程式を解くことによって求めることができる。
尚、(式1)および(式2)は、L*a*b*表色系を用いた場合の色変換マトリクスを示す式であるが、例えば電子カメラなどで多用されているYUV表色系を用いる場合の色変換マトリクスを示す式は、(式3)および(式4)に示すようになる。(式3)の行列式において、第1ポイントの目標色は色座標(U1,V1)、これに対する現在の顔色は色座標(U’1,V’1)で、この時の色変換マトリクスはh11,h12,h21およびh22の4つの係数で構成される。同様に、第2ポイントの色変換を示す(式4)の行列式において、第2ポイントの目標色は色座標(U2,V2)、これに対する現在の顔色は色座標(U’2,V’2)で、この時の色変換マトリクスはh11,h12,h21およびh22の4つの係数で構成される。
Figure 0004748271
Figure 0004748271
ここで、目標色を色座標(U1,V1)と色座標(U2,V2)は、ステップS109でユーザーの設定または自動的に決定されるので既知の値である。また、現在の顔色の色座標(U’1,V’1)と色座標(U’2,V’2)もステップS104で取得された値を用いるので既知の値である。従って、色変換マトリクスを構成するh11,h12,h21およびh22の4つの未知数は、(式3)と(式4)の2つの行列式から得られる4つの方程式を解くことによって求めることができる。このように、L*a*b*表色系だけでなく、YUV表色系など他の表色系を用いた場合でも同様に色変換マトリクスを求めることができる。
(ステップS111)制御部108のエリア指定部127は、色変換を行うための顔エリアを指定する。顔エリアの指定は、図6に示すように顔部分401を選択するが、例えば先に顔検出部122が人物の顔を検出する際に行った顔の輪郭検出を利用することができる。
尚、顔の輪郭は、図6に示すように顔部分401を忠実に検出しなくてもよく、すこし広めに選択するようにしても構わない。これは、現在の色を特定の目標色に強制的に置き換えるのではなく、色変換マトリクスを用いて肌色領域に近い色座標の色差分だけ現在の色をシフトするだけで、顔部分401をはみ出した部分の色が極端に異なった色に置き換えられるわけではない。
(ステップS112)制御部108の色変換部128は、ステップS111で指定した顔エリア内に対してステップS110で求めた色変換マトリクスを用いて色変換する。尚、色変換は顔エリア内の各画素に対してのみ行われる。
(ステップS113)制御部108は、一連の「人物撮影モード」での撮影を終了する。
このように、本実施形態に係る電子カメラ101は、「人物撮影モード」に設定されている場合に、顔の肌色と首や肩などデコルテ部分の肌色との色の違いを少なくし、自然な感じの人物画像を得ることができる。特に、ファンデーションなどで化粧をした人物を電子カメラ101でフラッシュ撮影した場合に、撮影された人物画像の顔色が青白くなっても、首や肩など顔周辺部分の肌色に応じて顔部分の肌色を補正するので、首や肩など顔周辺部分の肌色と顔の肌色との差を目立たなくすることができる。
尚、図2のフローチャートは、フラッシュ撮影した場合に顔部分の色補正を行うようにしたが、フラッシュ撮影を行わない通常撮影の場合においても、同様に顔部分の肌色を補正する処理を実行するようにしても構わない。この場合、制御部108は、図2のフローチャートからステップS102のフラッシュ撮影を判別する処理を削除したフローチャートを実行する。
また、上記の実施形態では、顔部分の肌色を首や肩など顔周辺部分の肌色(目標色)に応じて補正するようにしたが、逆に首や肩など顔周辺部分の肌色を顔部分の肌色(目標色)に応じて補正するようにしても構わない。例えば、図2のフローチャートにおいて、ステップS104で取得した顔の色と、ステップS105で取得した顔周辺の色とのいずれかの色でより理想的な肌色(例えばユーザーが予め設定しておいた肌色)に近い方のエリアの色を目標色として、理想的な肌色から離れている方のエリアを補正対象エリアとする補正エリア判別処理を追加しても構わない。この場合は、図2のフローチャートにおいて、ステップS109で上記の補正エリア判別処理を行い、理想的な肌色に近い方の肌色を目標色とする。そして、ステップS111の顔エリアの指定処理では顔エリアまたは首や肩などの顔以外のエリアを補正対象エリアとして選択し、さらに、ステップS112の顔エリアの色変換処理ではステップS111で指定した補正対象エリアに対して色変換処理を実行する。
このように、本実施形態に係る電子カメラ101は、顔の肌色と顔周辺部分の肌色との色の違いが少なくすることができるので、自然な感じの人物画像を得ることができる。
尚、上記の実施形態においては、電子カメラ101で人物画像を撮影する際に肌色補正を行うようにしたが、プレビュー画像の撮影時に肌色補正を行うようにしても構わない。
或いは、電子カメラ101で撮影済の画像を再生する際に肌色補正を行うようにしても構わない。例えば、メモリカード111aに記憶された複数枚の静止画像を再生して表示部110に表示する際に、一旦メモリカード111aから画像バッファ107に画像データを読み出し、読み出した画像データが人物画像であるか否かを判別する。そして、人物画像である場合は、先に説明したように、顔部分の肌色と顔周辺部分の肌色との色の違いが少なくなるように肌色補正を実行する。このような再生時の肌色補正処理は、制御部108は、図2のフローチャートのステップS103以降の処理をメモリカード111aから画像バッファ107に読み出した画像データに対して実行するようにすれば実現できる。
さらに、画像の撮影時や再生時に肌色補正を行う必要はなく、電子カメラ101に「肌色補正モード」を設けて、撮影済みの画像の中から肌色補正を行いたい画像をサムネイル表示された画像の中から選択し、選択された撮影済みの画像に対して一括して肌色補正を行うようにしても構わない。この場合の処理も、選択された撮影済みの画像を1枚ずつあるいは一括してメモリカード111aから画像バッファ107に読み出し、図2のフローチャートのステップS103以降の処理を実行するようにすれば実現できる。
このように、画像の撮影時ではなく画像の再生時や撮影後に肌色補正を実行することにより、連写撮影などで肌色補正する処理を同時に実行できない場合でも、顔部分の肌色と顔周辺部分の肌色との色の違いを少なくする補正を行うことができるので、自然な感じの人物画像を得ることができる。
さらに、上記の実施形態では電子カメラ101で肌色補正を行うようにしたが、画像の再生時や撮影後に肌色補正を実行する場合と同様に、撮影済みの画像が記憶されたメモリカード111aをコンピュータに接続し、コンピュータ上で画像処理プログラムを実行して肌色補正を行うようにしても構わない。この場合、コンピュータは図1の制御部108に相当し、コンピュータで実行される画像処理プログラムは、制御部108の各部が図2のフローチャートのステップS103以降の処理を実行するプログラムに相当する。
このように、本発明に係る電子カメラ101および画像処理プログラムは、顔の肌色と顔周辺部分の肌色との色の違いが少なく、自然な感じの人物画像を得ることができる。尚、上記の画像処理プログラムは、コンピュータが読み込み可能な記憶媒体に記憶された状態で配布され、コンピュータにインストールして実行するものとする。
(応用例1)
次に、上記の実施形態で説明した電子カメラ101および画像処理プログラムの応用例1について説明する。尚、応用例1においても、図1で説明した電子カメラ101の構成は変わらず、一部の処理が異なる。応用例1では、制御部108の色判定部124が顔周辺領域の色(第2色情報)を取得する際に、複数の色を取得して再頻度の色を顔周辺領域の代表色として取得する。
[顔周辺領域の色(第2色情報)の取得について]
ここで、図2のフローチャートでは、ステップS105において、制御部108の色判定部124は、ステップS103で判別した顔周辺領域の色(第2色情報)を取得する。ところが、例えば顔周辺領域として首やデコルテの領域を用いる場合、図7(a)に示すように撮影された人物はネックレス251を着けている可能性がある。このため、たまたま第2色情報を取得した部分261がネックレス251の部分である場合、実際の肌色とは異なる色が取得されることになる。尚、もし極端に色が異なる場合は、図2のステップS106で所定範囲外になるので問題にはならないが、例えば金や真珠など肌色に近い色のネックレス251を着けていた場合は、ステップS106でYesに判定される可能性がある。
そこで、本応用例1では、図7(b)に示すように、制御部108の色判定部124が顔周辺領域の色(第2色情報)を取得する際に、当該領域の複数の色(261(1),261(2),・・・,261(n))を取得して最頻度の色を顔周辺領域の代表色として用いる。これは、首やデコルテ部分に占めるネックレス部分は小さいので、取得した複数の色の多数はネックレス以外の部分の色であると見なせるからである。例えば図7(b)において、色を取得する部分261(1),261(2)の色がほぼ同じであるとした場合、ネックレス部分261(n)の色よりも最頻度になり、部分261(1),261(2)の色が顔周辺領域の色(第2色情報)として取得される。尚、実際には3ヶ所ではなくもっと多くの部分の色を取得して、図8(a),図8(b)および図8(c)に示すような方法で最頻度の色を求める。
図8(a)は、図4で説明したL*a*b*表色系による色空間の色座標(a*,b*)において、肌色領域301を複数の色領域に分割しておき、顔周辺領域から取得した複数の色をそれぞれ肌色領域301のどの色領域に入るかを判別する。そして、各色領域毎に判別された色の数がいくつあるかをカウントし、数の一番多い色領域の色を顔周辺領域の代表色として選択する。尚、各色領域は、ある範囲を持たせて分けてあるので、例えばその中心の色を代表色とする。例えば図8(a)の色領域351が最頻度の色領域であった場合、色領域351のa*軸の範囲は約9から約13なので、代表色のa*はその中央の11となり、色領域351のb*軸の範囲は約17から約21なので、代表色のb*はその中央の19となる。このようにして、顔周辺領域の代表色(色座標(a*,b*)=(11,19))を求めることができる。
ここで、図8(a)のように複数の色領域に分けてカウントする方法は、処理量が大きくなるので、簡易的な方法として、図8(b)および図8(c)のように、ヒストグラムを用いて最頻度の色を求めることもできる。この方法は、a*軸とb*軸で別々に頻度をカウントしたヒストグラムを作成して、それぞれの軸における最頻度の値を組み合わせて代表色とする方法である。例えば、図8(b)において、a*軸では10から15の値のヒストグラム352が最頻度になっているのでその中央の12.5をa*の代表値とする。同様に、図8(c)において、b*軸では15から20の値のヒストグラム353が最頻度になっているのでその中央の17.5をb*の代表値とする。このようにして、顔周辺領域の代表色の色座標(a*,b*)=(12.5,17.5)を求めることができる。尚、上記の方法は一例であり、頻度を求める方法であれば何でも構わない。
次に、顔周辺領域の複数の色を取得して最頻度の色を顔周辺領域の代表色として用いる応用例1の処理について、図9のフローチャートを用いて説明する。尚、図9は、先に説明した図2のフローチャートに対応する図で、図2と同じ符号のステップは同じ処理を行うので重複する説明は省略し、図2と異なる処理について説明する。
図9のフローチャートにおいて、図2のステップS105と、ステップS106と、ステップS107の処理の代わりにステップS105aと、ステップS106aと、ステップS107aとを実行する点が図2と異なる。以下、これらの処理について順番に説明する。
(ステップS105a)制御部108の色判定部124は、ステップS103で判別した顔周辺領域の色を取得する(第2色情報)。この時、色判定部124は、ステップS103で判別した顔周辺領域内の異なる位置から複数の色を取得し、先に図7および図8で説明したように、再頻度の色を顔周辺領域の代表色とする。この場合、この代表色が第2色情報となる。
(ステップS106a)制御部108の色判定部124は、ステップS105aで求めた顔周辺領域の代表色が所定範囲内の色であるか否かを判定する。所定範囲内の色である場合はステップS107aに進み、所定範囲内の色でない場合はステップS113に進む。尚、この判定方法は図2のステップS106と同じである。
(ステップS107a)制御部108の色差算出部125は、ステップS104で取得した顔部分の色と、ステップS105aで取得した顔周辺領域の代表色との色差を算出する。尚、この算出方法は図2のステップS107と同じである。
そして、顔周辺領域の代表色と顔部分の色との色差を求めた後のステップS108以降の処理は図2と同じなので説明を省略する。
尚、先の実施形態と同様に電子カメラ101だけでなく、図9と同様の処理を実行するコンピュータのプログラムであっても構わない。この場合は、撮影済みの画像が記憶されたメモリカード111aをコンピュータに接続し、図9のステップS101,S102の処理の代わりにメモリカード111aから撮影済みの画像を読み出す。そして、図9のステップ103以降の処理をコンピュータで実行する。尚、メモリカード111aから読み出された画像に対して図9のステップS103以降の処理を実行する画像処理プログラムが記憶された記憶媒体から予めコンピュータに当該プログラムをインストールしてあるものとする。
このように、本応用例1に係る電子カメラ101および画像処理プログラムでは、顔の肌色を予めプリセット撮影した肌色に近づけることができるので、好みの顔色の人物画像を得ることができる。
(応用例2)
次に、先に説明した電子カメラ101および画像処理プログラムの応用例2について説明する。尚、応用例2においても、図1で説明した電子カメラ101の構成は変わらず、一部の処理が異なる。応用例2では、予め撮影(プリセット撮影と称する)しておいた顔の色や肌色見本などをプリセット色としてメモリ109に保持しておき、本撮影時の顔の色をプリセット色の肌色に近づけるように補正する電子カメラ101である。尚、プリセット撮影する顔の色は、本撮影する人物と同じ人物である必要はなく、ファッション雑誌などからお気に入りのモデルの写真をプリセット撮影しても構わない。或いは、化粧品などの標準的な肌色見本をプリセット撮影しても構わない。
図10は、プリセット撮影した人物の顔の肌色をプリセット色としてメモリ109に記憶する処理を描いたフローチャートである。
尚、図10は、図1の制御部108によって実行される処理である。また、応用例2に係る電子カメラ101では、プリセット色を取得するための「プリセット撮影モード」が設けられ、ユーザーは操作部112の撮影モードダイヤルで「プリセット撮影モード」を選択しているものとする。
(ステップS200)撮影者が操作部112のレリーズボタンを押下する。
(ステップS201)レリーズボタンが押下されると、制御部108の撮影処理部121は、撮影する画像のフォーカス制御や露出制御などを行った後、撮像素子104で撮影した画像を画像バッファ107に一時的に記憶する。
(ステップS202)制御部108は、ステップS201で撮影された画像から人物撮影であるか否かを判別する。人物撮影である場合はステップS203に進み、人物撮影でない場合はステップS205に進む。尚、人物撮影であるか否かの判別は、顔検出部122によって行われる。この処理は、図2のステップS103と同じである。
(ステップS203)制御部108の色判定部124は、ステップS202で判別した顔部分の色を取得する。この処理は、図2のステップS104と同じである。
(ステップS204)制御部108は、ステップS203で判別した顔部分の色をプリセット色としてメモリ109に記憶する。
(ステップS205)制御部108は、一連のプリセット撮影を終了する。
このようにして、自分自身のお気に入りの顔の色(化粧直後などの顔の色)をプリセット色として取得することができる。尚、ステップS203の前にステップS203aを実行するようにし、表示部110の画面に撮影した画像を表示して、ユーザーが操作部112のカーソルボタンなどを用いて色を取得する位置を指定できるようにしても構わない。また、図10のフローチャートでは、人物の顔の色をプリセット色としてメモリ109に記憶するようにしたが、例えばステップS202,S203を行わず、肌色見本を画面全体に撮影した画像から取得した色(画像の所定位置の色や複数位置の色の平均値など)をプリセット色としてメモリ109に記憶するようにしても構わない。
[プリセット色を用いた「人物撮影モード」における肌色補正処理]
次に、応用例2における電子カメラ101の「人物撮影モード」における肌色補正処理について図11のフローチャートを用いて説明する。図11のフローチャートは図2で説明した「人物撮影モード」の肌色補正処理に対応するが、顔周辺領域の色に近づけるのではなく、プリセット色に近づける点が異なる。尚、図11において、図2のステップ番号と同番号のステップは同じ処理を示す。従って、図11のステップS100からS104までの処理は図2と同じ処理である。そして、ステップS104の後に次のステップS107bを実行する。
(ステップS107b)制御部108の色差算出部125は、ステップS104で取得した顔部分の色と、図10で説明した「プリセット撮影」で取得したプリセット色との色差を算出する。尚、この処理は、図2のステップS107において、顔周辺領域の色をメモリ109に記憶されているプリセット色に置き換えるだけで、算出方法は同じである。
そして、プリセット色と顔部分の色との色差を求めた後の処理(ステップS108以降の処理)は図2と同じなので説明を省略する。
尚、先の実施形態と同様に電子カメラ101だけではなく、図11の処理を実行するコンピュータのプログラムであっても構わない。この場合は、撮影済みの画像が記憶されたメモリカード111aをコンピュータに接続し、図11のステップS101,S102の処理の代わりにメモリカード111aから撮影済みの画像を読み出す処理を実行する。この後、図11のステップ103以降の処理をコンピュータで実行する。尚、メモリカード111aから読み出された画像に対して図11のステップS103以降の処理を実行する画像処理プログラムが記憶された記憶媒体から予めコンピュータに当該プログラムをインストールしてあるものとする。
このように、本応用例2に係る電子カメラ101および画像処理プログラムでは、顔の肌色を予めプリセット撮影した肌色に近づけることができるので、好みの顔色の人物画像を得ることができる。
(応用例3)
次に、先に説明した電子カメラ101および画像処理プログラムの応用例3について説明する。尚、応用例3においても、図1で説明した電子カメラ101の構成は変わらず、一部の処理が異なる。応用例3では、制御部108の補正係数算出部126が顔部分の色を新顔色に変換するための色変換マトリクスを算出する際に、色変換マトリクス係数に重み付け処理を行う。色変換マトリクスは、図4で説明したように、色空間上の特定の色を目標とする色に変換するための係数で、例えば(式1)および(式2)の行列式において、g11,g12,g21およびg22に相当する。
そして、重み付け係数をa11,a12,a21およびa22とし、重み付け後の色変換マトリクスの係数をg11’,g12’,g21’およびg22’とすると、(式5)から(式8)のように計算できる。
g11’=a11×g11 ・・・(式5)
g12’=a12×g12 ・・・(式6)
g21’=a21×g21 ・・・(式7)
g22’=a22×g22 ・・・(式8)
このようにして、色変換部128は、補正係数算出部126が求めた重み付け後の色変換マトリクスを用いて色変換処理を行うことによって、色変換の度合いを調整することができる。尚、重み付け係数の設定は、例えば「補正度合い選択メニュー」を設けて、撮影画像を見ながら好みの補正度合いを選択する。例えば図12(a)に示すように、撮影画像と一緒に補正度合いを調整するスライドバー361を表示部110に表示する。そして、操作部112のカーソルボタンでスライドバー361上のスライドボタン362を上下させて補正無しから補正強までの調整を行う。例えば、図12(a)の例ではスライドボタン362が補正強側にあるので、頬の部分201と首部分202の肌の色の差が少なくなるように補正される。また、図12(b)の例ではスライドボタン362が補正強と補正無しの中間にあるので、図12(a)よりも補正が弱く、頬の部分201と首部分202の肌の色の差が少し残る。更に、図12(c)の例ではスライドボタン362が補正無側にあるので補正は行われず、頬の部分201と首部分202の肌の色の差が大きくなる。
尚、制御部108の補正係数算出部126が顔部分の色を新顔色に変換するための色変換マトリクスを算出する際に、色変換マトリクス係数に重み付け処理を行うこと以外は、他の実施形態と同じである。
また、先の実施形態と同様に電子カメラ101だけではなく、色変換マトリクス係数に重み付け処理を行うコンピュータの画像処理プログラムであっても構わない。
このように、本応用例3に係る電子カメラ101および画像処理プログラムでは、顔の肌色を色変換する際の補正度合いを調整することができるので、ユーザーの好みに合った顔色の人物画像を得ることができる。尚、顔部分と顔周辺部分の肌色の差の大きさが大きい場合は一般的に化粧が濃いと見なせるので、化粧の濃さを判定するアプリケーションにも利用することができる。
(応用例4)
次に、先に説明した電子カメラ101および画像処理プログラムの応用例4について説明する。尚、応用例4においても、図1で説明した電子カメラ101の構成は変わらず、一部の処理が異なる。応用例4では、先に説明した応用例3において、フラッシュ113の光が顔部分に与える度合い(寄与度)に応じて重み付け係数を自動的に設定するようになっている。
ここで、フラッシュ113の光の寄与度は、フラッシュ113が発光時の顔の明るさと、発光時と同じ撮影条件(絞り,シャッタ速度,ISO感度)で非発光の時の顔の明るさとの差として求めることができる。例えば、図13(a)はフラッシュ無しで夜景を顔部分が最適な露出になるように自動露出で撮影した画像例である。ここで、図13(a)の露出条件は、シャッタ速度:1/8,絞り:F2.8,感度:ISO400であったと仮定する。また、図13(b)は、図13(a)と同じ夜景をフラッシュ有りで顔部分が最適な露出になるように自動露出で撮影した画像例である。ここで、図13(b)の露出条件は、シャッタ速度:1/60,絞り:F2.8,感度:ISO50であったと仮定する。そして、図13(b)の顔部分の明るさ(例えばBv値)をB1とする。尚、顔部分の明るさは、撮影画像に対して顔検出部122が顔検出した位置の画素値から求められる。
ここで、図13(b)のフラッシュ有りの露出条件と同じ露出条件でフラッシュ無し(非発光)で撮影した場合の顔部分の明るさを図13(a)の画像を撮影した時の露出条件から推定する。或いは、図13(b)と同じ露出条件で強制的に同じ夜景を撮影して、顔部分の明るさを求めても構わないが、露出アンダーになってSN比が劣化するので、正確な明るさを求められない可能性がある。ここでは、フラッシュ無しで自動露出で撮影された図13(a)の画像の顔部分の明るさから図13(c)の顔部分の明るさを推定する。尚、明るさの推定は、シャッタ速度,絞りおよびISO感度の各値から行うことができる。例えば図13(a)のシャッタ速度:1/8から図13(c)のシャッタ速度:1/60になった場合、明るさを示すBv値はシャッタ速度の3段階分の3だけ増加する。同様に、絞りや感度の違いからBv値を推定することができる。このようにして、フラッシュ無しで自動露出で撮影された図13(a)の画像の顔部分の明るさから図13(c)の顔部分の明るさを推定した値をB2とする。
この結果、シャッタ速度,絞りおよびISO感度の露出条件が同じでフラッシュ有りの場合の顔部分の明るさがB1で、フラッシュ無しの場合の顔部分の明るさがB2なので、フラッシュ113の光による顔部分の明るさへの寄与度Cdは、(式9)のように求めることができる。尚、(B1>B2)の関係になることを前提としているが、減算する順序を考えない場合は差の絶対値を寄与度Cdとしても構わない。尚、(B1>B2)とする。
Cd=B1−B2 ・・・(式9)
さらに、(式10)のように正規化した寄与度Cdsを求めても構わない。
Cds=(B1−B2)/B1 ・・・(式10)
(式10)の場合、B2は0(黒レベル)からB1(フラッシュ113の光が届かない場合はB2=B1となる)まで変化するので、寄与度Cdsは0から1までの範囲の値となる。つまり、寄与度Cdsが1に近い場合はフラッシュ113の光が顔の色に与える影響が大きく、逆に寄与度Cdsが0に近い場合はフラッシュ113の光が顔の色に与える影響が小さい。
そして、この寄与度Cdsを応用例3で説明した色変換マトリクス係数の重み付け係数として適用する。これにより、フラッシュ113の光が顔に与える影響が大きい場合に補正度合いを大きくして顔周辺領域の色との差が少なくなるように強い補正を行い、逆にフラッシュ113の光が顔に与える影響が小さい場合に補正度合いを小さくして顔周辺領域の色との差が少なくなるように弱めの補正を行うことができる。
次に、応用例4の電子カメラ101において、フラッシュ113の光が顔部分に与える度合い(寄与度)に応じて重み付け係数を自動的に設定する処理の流れについて図14のフローチャートを用いて説明する。ここで、図14のフローチャートは図2で説明した「人物撮影モード」の肌色補正処理に対応するが、フラッシュ113の光が顔部分に与える度合い(寄与度)に応じて色変換マトリクスの重み付け係数を自動的に変える点が異なる。尚、図14において、図2のステップ番号と同番号のステップは同じ処理を示す。また、図2ではステップ101で撮影後にステップS102でフラッシュ撮影されたか否かを判別するようにしたが、本応用例4ではステップS102において撮影前にフラッシュ撮影が適用されるか否かを露出状態や強制発光モードに設定されているか否かによって判断する。そして、フラッシュ撮影が行われる場合はステップS301に進み、フラッシュ撮影が行われない場合はステップS113に進んで補正処理を行わない。
以降、図2と異なる処理について説明する。
(ステップS301)制御部108の撮影処理部121は、撮影する画像のフォーカス制御や露出制御(フラッシュ113を発光しない場合の露出制御)などを行った後、撮像素子104で撮影した画像を画像バッファ107に一時的に記憶する(非発光撮影画像)。尚、ステップS301の処理は、次のステップS302の後で行うようにしても構わない。
(ステップS302)制御部108の撮影処理部121は、撮影する画像のフォーカス制御や露出制御(フラッシュ113を発光する場合の露出制御)などを行った後、撮像素子104で撮影した画像を画像バッファ107に一時的に記憶する(本撮影画像)。
次のステップS104およびステップS105は、ステップS302で撮影した本撮影画像に対して図2と同じ処理を行う。以降、ステップS109まで、図2と同様の処理を実行し、新顔色を作成する。この後、図2の色変換マトリクス算出処理へ移る前に次のステップS303の処理を実行する。
(ステップS303)制御部108の補正係数算出部126は、ステップS301で撮影したフラッシュ113が非発光時の画像と、ステップS302で撮影したフラッシュ113が発光時の画像とを用いて、先に図13で説明した寄与度を算出する。
そして、次のステップS110aで色変換マトリクスを算出する際に寄与度に応じて重み付けを行う。
(ステップS110a)制御部108の補正係数算出部126は、ステップS303で求めた寄与度に応じて、顔部分の色を新顔色に変換するための色変換マトリクスを算出する。
例えば、(式5)から(式8)の4つの重み付け係数(a11,a12,a21およびa22)の代わりに(式10)で示した寄与度Cdsを4つの係数として用いることによって、寄与度Cdsが大きい場合(フラッシュの光の影響が大きい場合)は重み付け係数を大きくし、逆に寄与度Cdsが小さい場合(フラッシュの光の影響が小さい場合)は重み付け係数を小さくすることができる。
そして、ステップS110aで色変換マトリクスを求めた後のステップS111以降の処理は図2と同じなので説明を省略する。
尚、先の実施形態と同様に電子カメラ101だけでなく、図11と同様の処理を実行するコンピュータのプログラムであっても構わないが、非発光時の画像を撮影して、本撮影画像と一緒にメモリカード111aに記憶しておく必要がある。或いは、撮影時に求めた寄与度を本撮影画像のヘッダ情報として付加しておく必要がある。このような操作を撮影時に行った上で、撮影済みの本撮影画像と非発光時の画像(または寄与度がヘッダ情報として付加された本撮影画像)が記憶されたメモリカード111aをコンピュータに接続し、図14のステップS102,S301およびS302の処理の代わりにメモリカード111aから撮影済みの本撮影画像と非発光時の画像(または寄与度がヘッダ情報として付加された本撮影画像)を読み出す処理を実行する。この後、図14のステップ103以降の処理をコンピュータで実行する。尚、メモリカード111aから読み出された画像に対して図14のステップS103以降の処理を実行する画像処理プログラムが記憶された記憶媒体から予めコンピュータに当該プログラムをインストールしてあるものとする。
このように、本応用例4に係る電子カメラ101および画像処理プログラムでは、顔の肌色をフラッシュ113の光の寄与度に応じて補正する度合いを変えることができるので、補正が極端に強くなってしまうことを避けることができ、自然な肌色に近づけることができる。
(応用例5)
次に、先に説明した電子カメラ101および画像処理プログラムの応用例5について説明する。尚、応用例5においても、図1で説明した電子カメラ101の構成は変わらず、一部の処理が異なる。応用例5では、先に説明した応用例4において、フラッシュ113の非発光時の顔の色合いを考慮する補正を行うようになっている。これにより、フラッシュ113が発光時の顔の色合いをフラッシュ113が非発光時の自然な顔の色合いに合わせることが可能になる。
応用例5における電子カメラ101の「人物撮影モード」における肌色補正処理について図15のフローチャートを用いて説明する。図15のフローチャートは図2で説明した「人物撮影モード」の肌色補正処理に対応するが、フラッシュ113の非発光時の顔の色合いを考慮する補正を行う点が異なる。尚、図15において、図2または図14のステップ番号と同番号のステップは同じ処理を示す。また、図2ではステップ101で撮影後にステップS102でフラッシュ撮影されたか否かを判別するようにしたが、本応用例5では図14の応用例4と同様に、ステップS102において撮影前にフラッシュ撮影が適用されるか否かを露出状態や強制発光モードに設定されているか否かによって判断する。そして、フラッシュ撮影が行われる場合にステップS301に進み、フラッシュ撮影が行われない場合はステップS113に進んで補正処理は行わない。
また、図15において、ステップS301とステップ302の処理は図14の同番号のステップと同じ処理であり、制御部108の撮影処理部121は、撮像素子104で撮影したフラッシュ113が非発光時の画像と発光時の画像(本撮影画像)とをそれぞれ画像バッファ107に取り込む。そして、次のステップS103は図2のステップS103と同じで、撮影画像が人物画像であるか否かを判別し、人物画像である場合はステップS401に進み、人物画像ではない場合はステップS113に進む。
以降、図2と異なる処理について説明する。
(ステップS401)この処理は、図2のステップS104の処理に相当するが、ステップS301で撮影したフラッシュ113が非発光時の画像について顔の色を取得する。
(ステップS402)この処理は、図2のステップS104の処理に相当するが、ステップS302で撮影したフラッシュ113が発光時の画像について顔の色を取得する。
(ステップS403)この処理は、図2のステップS107の処理に相当するが、ステップS401で取得したフラッシュ113が非発光時の顔の色と、ステップS402で取得したフラッシュ113が発光時の顔の色との色差を算出する。
そして、フラッシュ113が非発光時の顔の色と、フラッシュ113が発光時の顔の色との色差を求めた後のステップS108以降の処理は図2と同じなので説明を省略する。
尚、先の実施形態と同様に電子カメラ101だけでなく、図15と同様の処理を実行するコンピュータのプログラムであっても構わないが、応用例4と同様に、非発光時の画像を撮影して、本撮影画像と一緒にメモリカード111aに記憶しておく必要がある。このような操作を撮影時に行った上で、撮影済みの本撮影画像と非発光時の画像が記憶されたメモリカード111aをコンピュータに接続し、図15のステップS102,S301およびS302の処理の代わりにメモリカード111aから撮影済みの本撮影画像と非発光時の画像を読み出す処理を実行する。この後、図15のステップ103以降の処理をコンピュータで実行する。尚、メモリカード111aから読み出された画像に対して図15のステップS103以降の処理を実行する画像処理プログラムが記憶された記憶媒体から予めコンピュータに当該プログラムをインストールしてあるものとする。
このように、本応用例5に係る電子カメラ101および画像処理プログラムでは、フラッシュ113の非発光時の顔の色合いを考慮する補正を行うので、フラッシュ113が発光時の顔の色合いをフラッシュ113が非発光時の自然な顔の色合いに合わせることができる。
(応用例6)
次に、先に説明した電子カメラ101および画像処理プログラムの応用例6について説明する。尚、応用例6においても、図1で説明した電子カメラ101の構成は変わらず、一部の処理が異なる。応用例6では、先に説明した実施形態や応用例において、フラッシュ113を発光して撮影した画像の顔の部分が飽和している場合でも適正な補正が行えるようになっている。尚、一般的にRGB(赤,緑,青)で画像を撮影する場合、一番飽和しやすいのはGであることが知られている。そこで、本応用例では顔部分のGが飽和した場合に、顔周辺部分(首,デコルテ,肩など)の色から顔部分のGを推定する。
図16は、顔の頬部分201が飽和している場合に首部分202の色を用いて頬部分201の色を推定する処理を説明するための図である。図16において、頬部分201のRGB値は(R1,G1,B1)で、頬部分202のRGB値は(R0,G0,B0)であったと仮定する。そして、フラッシュ113の光によって頬部分201のG1が飽和しているものとする。この場合、R1とB1は飽和していない。また、首部分202のRGB値(R0,G0,B0)も飽和していないものとする。尚、飽和とは、例えば8ビット階調(0から255の256階調)でRGBの各データを表す場合、255の値に張り付いている状態である。
ここで、首部分202のRGB値(R0,G0,B0)からRとGの比率(R0/G0)と、BとGの比率(B0/G0)とを求める。そして、これらの比率を頬部分201のR1とB1とに適用してそれぞれGr1’とGb1’とを求める。もし、Gr1’とGb1’とが異なる場合は、例えばGr1’とGb1’の平均値を頬部分201のG1の推定値G1’とする。このようにして、頬部分201の飽和したG1の値を推定することができる。
尚、上記の処理は、顔の色の取得を行うステップS104からステップS107の間で行えばよく、例えば図17に示すように、ステップS107の直前でステップS501とステップS502とを実行する。
(ステップS501)ステップS104で取得した顔の色から飽和しているか否かを判別する。飽和している場合はステップS502に進み、飽和していない場合はステップS107に進む。尚、飽和しているか否かの判別は先に説明した通りである。また、飽和していない場合(ステップS107に進んだ場合)は図2のフローチャートと全く同じ処理になる。
(ステップS502)ステップS501で顔部分が飽和している場合は顔部分の色の推定処理を行う。尚、推定処理については、先に図16で説明した通りである。
このようにして、顔部分の色が飽和している場合に飽和した色の推定処理を行うので、フラッシュ113を発光して撮影した画像の顔部分が飽和している場合でも適正な補正を行うことができる。
(応用例7)
次に、先に説明した電子カメラ101および画像処理プログラムの応用例7について説明する。尚、応用例7においても、図1で説明した電子カメラ101の構成は変わらず、一部の処理が異なる。応用例7では、先に説明した実施形態や応用例では、顔の色を顔周辺部分の色に近づける処理について説明したが、顔と顔周辺部分の関係に限らず、2つの部分の色合いを同じようにしたい場合に適用可能である。
例えば、図18は、先に説明した電子カメラ101および画像処理プログラムの処理を髪に適用する例を示している。図18は、髪染めなどを行っている場合に、髪の成長に伴い髪の生え際や分け目部分601などで地毛が現れて斑に見えるようになる。例えば、図18の点線円601aに示すように髪染め直後は髪全体が同じ色になっているが、髪が成長すると図18の点線円601bに示すように生え際部分602に地毛が現れてくる。
そこで、応用例7に係る電子カメラ101および画像処理プログラムによる処理では、先に説明した実施形態や応用例において、顔部分の色として生え際部分602の色を用い、顔周辺部分の色として生え際ではない先の部分603,604の色を用いる。これにより、生え際部分602の髪の色を先の部分603,604の色に近づけることができる。
尚、髪の抽出は、制御部108の顔検出部122が行う顔検出処理を応用することで実現できる。例えば顔の輪郭は顔検出処理で検出できるので、検出した顔部分の上方に髪があることがわかる。また、生え際部分の検出は、髪部分で極端に色が変化している部分を抽出することで検出可能である。尚、極端に色が変化している部分がなければ処理を実行せず、極端に色が変化している部分がある場合だけ処理を実行するようにしても構わない。
このように、顔の色を顔周辺部分の色に近づける処理について説明したが、顔と顔周辺部分の関係に限らず、2つの部分の色合いを同じようにしたい場合に適用可能である。
以上、本発明に係る電子カメラ101および画像処理プログラムについて、各実施形態で例を挙げて説明してきたが、その精神またはその主要な特徴から逸脱することなく他の多様な形で実施することができる。そのため、上述した実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明は、特許請求の範囲によって示されるものであって、本発明は明細書本文にはなんら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内である。
101・・・電子カメラ 102・・・撮影光学系
103・・・メカニカルシャッタ 104・・・撮像素子
105・・・AFE(アナログフロントエンド)
106・・・A/D変換部 107・・・画像バッファ
108・・・制御部 109・・・メモリ
110・・・表示部 111・・・メモリカードI/F
111a・・・メモリカード 112・・・操作部
113・・・フラッシュ
121・・・撮影処理部 122・・・顔検出部
123・・・周辺領域検出部 124・・・色判定部
125・・・色差算出部 126・・・補正係数算出部
127・・・エリア指定部 128・・・色変換部

Claims (11)

  1. 人物画像を撮影する撮像部と、
    前記撮像部が撮影した人物画像の中から顔部分および顔以外の部分を含む肌色領域を検出する領域検出部と、
    前記領域検出部が検出した肌色領域の色情報を判定し、前記顔部分の第1色情報と前記顔以外の部分の肌色領域の第2色情報との色差を求める色差算出部と、
    色変換を行う領域を指定するエリア指定部と、
    前記色差算出部が求めた色差に基づいて色補正係数を求める補正係数算出部と、
    前記色差算出部が求めた色差が所定値以上の場合に、前記エリア指定部で指定した領域を前記色補正係数を用いて色変換を行う色変換部と
    閃光部と
    を有し、
    前記撮像部で撮影する際に前記閃光部がオンの場合に、色変換処理を実行することを特徴とする電子カメラ。
  2. 人物画像を撮影する撮像部と、
    前記撮像部が撮影した人物画像の中から顔部分および顔以外の部分を含む肌色領域を検出する領域検出部と、
    前記領域検出部が検出した肌色領域の色情報を判定し、前記顔部分の第1色情報と前記顔以外の部分の肌色領域の第2色情報との色差を求める色差算出部と、
    色変換を行う領域を指定するエリア指定部と、
    前記色差算出部が求めた色差に基づいて色補正係数を求める補正係数算出部と、
    前記色差算出部が求めた色差が所定値以上の場合に、前記エリア指定部で指定した領域を前記色補正係数を用いて色変換を行う色変換部と、
    前記撮像部で予め撮影した人物画像に対して前記色差算出部が判定した肌色領域の色情報をプリセット色情報として保持する保持部と
    を有し、
    前記色差算出部は、前記撮像部で本撮影した人物画像に対して判定した肌色領域の本撮影色情報と、前記保持部に保持されている前記プリセット色情報との色差を求めることを特徴とする電子カメラ。
  3. 人物画像を撮影する撮像部と、
    前記撮像部が撮影した人物画像の中から顔部分および顔以外の部分を含む肌色領域を検出する領域検出部と、
    前記領域検出部が検出した肌色領域の色情報を判定し、前記顔部分の第1色情報と前記顔以外の部分の肌色領域の第2色情報との色差を求める色差算出部と、
    色変換を行う領域を指定するエリア指定部と、
    前記色差算出部が求めた色差に基づいて色補正係数を求める補正係数算出部と、
    前記色差算出部が求めた色差が所定値以上の場合に、前記エリア指定部で指定した領域を前記色補正係数を用いて色変換を行う色変換部と
    を有し、
    前記補正係数算出部は、求めた色補正係数に対して所定の重み付けを行うことを特徴とする電子カメラ。
  4. 請求項2に記載の電子カメラにおいて、
    前記保持部は、前記閃光部が非発光時に撮影した人物画像に対して前記色差算出部が判定した肌色領域の色情報をプリセット色情報として保持する
    ことを特徴とする電子カメラ。
  5. 請求項3に記載の電子カメラにおいて、
    前記補正係数算出部は、前記色補正係数を求める際に、前記閃光部が発光時の顔部分に対する寄与度に応じて前記色補正係数の重み付けを行うことを特徴とする電子カメラ。
  6. 請求項1から5のいずれか一項に記載の電子カメラにおいて、
    前記色差算出部が前記第2色情報を判定する顔以外の肌色領域は、人物の首周辺領域であることを特徴とする電子カメラ。
  7. 請求項1から6のいずれか一項または2に記載の電子カメラにおいて、
    前記第1色情報および前記第2色情報の少なくとも一方の色相が所定範囲内にあるか否かを判定する色範囲判定部を更に設け、
    前記色範囲判定部の判定結果が所定範囲内にある場合は前記色変換処理を実行することを特徴とする電子カメラ。
  8. 請求項1からのいずれか一項に記載の電子カメラにおいて、
    前記色差算出部は、前記第2色情報を判定する際に、顔以外の肌色領域の色分布から最頻度の色分布を求め、当該色分布を顔以外の肌色領域の前記第2色情報とする
    ことを特徴とする電子カメラ。
  9. 人物画像の中から顔部分および顔以外の部分を含む肌色領域を検出する領域検出ステップと、
    前記領域検出ステップで検出した肌色領域の色情報を判定し、前記顔部分の第1色情報と前記顔以外の部分の肌色領域の第2色情報との色差を求める色差算出ステップと、
    色変換を行う領域を指定するエリア指定ステップと、
    前記色差算出ステップ求めた色差に基づいて色補正係数を求める補正係数算出ステップと、
    前記色差算出ステップ求めた色差が所定値以上の場合に、前記エリア指定ステップで指定した領域を前記色補正係数を用いて色変換を行う色変換ステップと
    を有し、
    前記人物画像が閃光部をオンにして撮影された画像である場合に、色変換処理を実行することを特徴とするコンピュータで実行可能な画像処理プログラム。
  10. 人物画像の中から顔部分および顔以外の部分を含む肌色領域を検出する領域検出ステップと、
    前記領域検出ステップで検出した肌色領域の色情報を判定し、前記顔部分の第1色情報と前記顔以外の部分の肌色領域の第2色情報との色差を求める色差算出ステップと、
    色変換を行う領域を指定するエリア指定ステップと、
    前記色差算出ステップで求めた色差に基づいて色補正係数を求める補正係数算出ステップと、
    前記色差算出ステップで求めた色差が所定値以上の場合に、前記エリア指定ステップで指定した領域を前記色補正係数を用いて色変換を行う色変換ステップと、
    予め撮影した人物画像に対して前記色差算出ステップで判定した肌色領域の色情報をプリセット色情報としてメモリに保持する保持ステップと
    を有し、
    前記色差算出ステップは、本撮影した人物画像に対して判定した肌色領域の本撮影色情報と、前記メモリに保持されている前記プリセット色情報との色差を求めることを特徴とするコンピュータで実行可能な画像処理プログラム。
  11. 人物画像の中から顔部分および顔以外の部分を含む肌色領域を検出する領域検出ステップと、
    前記領域検出ステップで検出した肌色領域の色情報を判定し、前記顔部分の第1色情報と前記顔以外の部分の肌色領域の第2色情報との色差を求める色差算出ステップと、
    色変換を行う領域を指定するエリア指定ステップと、
    前記色差算出ステップで求めた色差に基づいて色補正係数を求め、求めた色補正係数に対して所定の重み付けを行う補正係数算出ステップと、
    前記色差算出ステップで求めた色差が所定値以上の場合に、前記エリア指定ステップで指定した領域を前記色補正係数を用いて色変換を行う色変換ステップと
    を有することを特徴とするコンピュータで実行可能な画像処理プログラム。
JP2010010162A 2009-01-28 2010-01-20 電子カメラおよび画像処理プログラム Expired - Fee Related JP4748271B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010010162A JP4748271B2 (ja) 2009-01-28 2010-01-20 電子カメラおよび画像処理プログラム
US12/692,152 US8441544B2 (en) 2009-01-28 2010-01-22 Electronic camera and medium storing image processing program for skin color correction

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009016745 2009-01-28
JP2009016745 2009-01-28
JP2010010162A JP4748271B2 (ja) 2009-01-28 2010-01-20 電子カメラおよび画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2010200312A JP2010200312A (ja) 2010-09-09
JP4748271B2 true JP4748271B2 (ja) 2011-08-17

Family

ID=42353871

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010010162A Expired - Fee Related JP4748271B2 (ja) 2009-01-28 2010-01-20 電子カメラおよび画像処理プログラム

Country Status (2)

Country Link
US (1) US8441544B2 (ja)
JP (1) JP4748271B2 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4760999B1 (ja) * 2010-10-29 2011-08-31 オムロン株式会社 画像処理装置、画像処理方法、および制御プログラム
JP4862955B1 (ja) * 2010-10-29 2012-01-25 オムロン株式会社 画像処理装置、画像処理方法、および制御プログラム
JP5273208B2 (ja) * 2011-06-07 2013-08-28 オムロン株式会社 画像処理装置、画像処理方法、および制御プログラム
JP5978639B2 (ja) * 2012-02-06 2016-08-24 ソニー株式会社 画像処理装置、画像処理方法、プログラム、及び記録媒体
JP5919979B2 (ja) * 2012-04-06 2016-05-18 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
JP2013226286A (ja) * 2012-04-26 2013-11-07 Aitia Corp ヘアスタイル合成方法、ヘアスタイル合成装置およびヘアスタイル合成プログラム
JP6265640B2 (ja) 2013-07-18 2018-01-24 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム
JP6288816B2 (ja) * 2013-09-20 2018-03-07 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
KR102135155B1 (ko) * 2013-12-12 2020-07-17 삼성전자주식회사 디스플레이 장치 및 그 제어방법
JP6241320B2 (ja) * 2014-02-28 2017-12-06 富士ゼロックス株式会社 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP2016148933A (ja) * 2015-02-10 2016-08-18 キヤノン株式会社 画像処理装置および画像処理方法
CN104994363B (zh) * 2015-07-02 2017-10-20 广东欧珀移动通信有限公司 一种基于服饰的美颜方法、装置及智能终端
KR102500715B1 (ko) 2016-07-28 2023-02-17 삼성전자주식회사 전자 장치 및 전자 장치 제어 방법
US9886640B1 (en) 2016-08-08 2018-02-06 International Business Machines Corporation Method and apparatus to identify a live face image using a thermal radiation sensor and a visual radiation sensor
JP6808482B2 (ja) 2016-12-28 2021-01-06 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP7039183B2 (ja) * 2017-05-31 2022-03-22 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP6677221B2 (ja) * 2017-06-06 2020-04-08 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP7046340B2 (ja) * 2019-09-25 2022-04-04 株式会社モルフォ 画像処理装置、端末、画像処理方法、プログラム
CN112883821B (zh) * 2021-01-27 2024-02-20 维沃移动通信有限公司 图像处理方法、装置及电子设备

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5347371A (en) * 1990-11-29 1994-09-13 Hitachi, Ltd. Video camera with extraction unit for extracting specific portion of video signal
JP2923894B1 (ja) * 1998-03-31 1999-07-26 日本電気株式会社 光源判定方法、肌色補正方法、カラー画像補正方法、光源判定装置、肌色補正装置、カラー画像補正装置及びコンピュータ読み取り可能な記録媒体
JP2000242775A (ja) * 1999-02-19 2000-09-08 Fuji Photo Film Co Ltd 画像処理方法および装置並びに記録媒体
JP2001186323A (ja) * 1999-12-24 2001-07-06 Fuji Photo Film Co Ltd 証明写真システム及び画像処理方法
JP3806038B2 (ja) * 2002-01-07 2006-08-09 富士写真フイルム株式会社 画像処理システム及び撮像装置
US6975759B2 (en) * 2002-06-25 2005-12-13 Koninklijke Philips Electronics N.V. Method and system for white balancing images using facial color as a reference signal
JP4375781B2 (ja) * 2002-11-29 2009-12-02 株式会社リコー 画像処理装置および画像処理方法並びにプログラムおよび記録媒体
JP2005128600A (ja) * 2003-10-21 2005-05-19 Konica Minolta Photo Imaging Inc 画像処理方法及び被写体撮影システム
JP4662332B2 (ja) * 2004-10-04 2011-03-30 ソニー・エリクソン・モバイルコミュニケーションズ株式会社 カメラ撮影画像色調補正装置および携帯端末装置
JP2008236101A (ja) * 2007-03-19 2008-10-02 Ricoh Co Ltd 撮像装置および撮像方法
JP2009038737A (ja) * 2007-08-03 2009-02-19 Canon Inc 画像処理装置

Also Published As

Publication number Publication date
US8441544B2 (en) 2013-05-14
US20100188521A1 (en) 2010-07-29
JP2010200312A (ja) 2010-09-09

Similar Documents

Publication Publication Date Title
JP4748271B2 (ja) 電子カメラおよび画像処理プログラム
JP4217698B2 (ja) 撮像装置及び画像処理方法
KR101633460B1 (ko) 다중 노출 제어 장치 및 그 방법
US8446485B2 (en) Image processing apparatus, image processing method, and storage medium thereof
EP2426928B1 (en) Image processing apparatus, image processing method and program
JP6259185B2 (ja) 撮像装置及びその制御方法、プログラム並びに記憶媒体
US8237809B2 (en) Imaging camera processing unit and method
KR101906316B1 (ko) 화이트 밸런스 제어를 행하는 화상처리장치, 그 제어 방법 및 촬상장치
EP2426927B1 (en) Image processing apparatus, image processing method and computer program
US8111946B2 (en) Image processing apparatus, imaging apparatus, and image processing method
KR101408527B1 (ko) 화상 처리 장치 및 화상 처리 방법, 및 기록 매체
US9684988B2 (en) Imaging device, image processing method, and recording medium
US8294783B2 (en) Image-pickup apparatus and white-balance control method provided therefor
JP5052263B2 (ja) 画像処理装置および画像処理方法
JP2016213718A (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
JP7129520B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2004312139A (ja) 撮像装置
CN113691795A (zh) 图像处理设备、图像处理方法和存储介质
JP6904788B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP4726251B2 (ja) 撮像装置及び画像処理方法
JP3497801B2 (ja) 顔画像の表示方法および顔画像の処理装置
JP2010103672A (ja) 撮像装置
JP6570311B2 (ja) 画像処理装置及び画像処理方法
JP2014021782A (ja) 画像処理装置、その制御方法及びプログラム
JP6552165B2 (ja) 画像処理装置、その制御方法、および制御プログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110502

R150 Certificate of patent or registration of utility model

Ref document number: 4748271

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140527

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140527

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees