JP7321772B2 - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP7321772B2
JP7321772B2 JP2019095935A JP2019095935A JP7321772B2 JP 7321772 B2 JP7321772 B2 JP 7321772B2 JP 2019095935 A JP2019095935 A JP 2019095935A JP 2019095935 A JP2019095935 A JP 2019095935A JP 7321772 B2 JP7321772 B2 JP 7321772B2
Authority
JP
Japan
Prior art keywords
image
light
captured
subject
auxiliary light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019095935A
Other languages
English (en)
Other versions
JP2020191546A (ja
Inventor
千晶 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019095935A priority Critical patent/JP7321772B2/ja
Priority to US16/875,784 priority patent/US11509797B2/en
Publication of JP2020191546A publication Critical patent/JP2020191546A/ja
Application granted granted Critical
Publication of JP7321772B2 publication Critical patent/JP7321772B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6077Colour balance, e.g. colour cast correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6083Colour correction or control controlled by factors external to the apparatus
    • H04N1/6086Colour correction or control controlled by factors external to the apparatus by scene illuminant, i.e. conditions at the time of picture capture, e.g. flash, optical filter used, evening, cloud, daylight, artificial lighting, white point measurement, colour temperature
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/62Retouching, i.e. modification of isolated colours only or in isolated picture areas only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)

Description

本発明は、画像のホワイトバランスを調整するための画像処理技術に関する。
従来、デジタルカメラなどの撮像装置においてストロボ光等の補助光発光時に撮像された画像の色調を調整する技術として、例えば特許文献1に記載のような、被写体の奥行き方向の距離情報を用いて自動でホワイトバランスを調整する技術が知られている。この技術では、マイクロレンズアレイなどを用いて視差のある複数の撮像画像を取得し、これらの視差のある撮像画像に基づいて画像中の任意の領域ごとに距離情報を算出して距離画像が生成される。そして、得られた距離画像に基づいて撮像画像におけるストロボ光の寄与度を算出し、その寄与度に基づいてホワイトバランス補正が行われる。これにより、ストロボ光以外の光(環境光)とストロボ光とで色みが異なる場合においても、適正なホワイトバランス補正が可能となる。
特開2016-144042号公報
しかしながら、前述した技術は、距離画像を取得するためにマイクロレンズアレイなどの複雑な機構を必要とするため、撮像装置にかかるコストが増大してしまう。また、絞り値などの撮像条件によっては十分な視差のある画像を取得することできず、その結果、距離画像の精度が低下してストロボ光の寄与度を適切に算出し難くなり、適正なホワイトバランス補正が困難になる。
そこで、本発明は、距離画像を用いることなく適正なホワイトバランス補正を可能にすることを目的とする。
本発明の画像処理装置は、環境光のもとで補助光を発光した状態で撮像た撮像画像を取得する画像取得手段と、前記撮像画像に含まれる被写体の領域に対して3次元形状モデルを当てはめることにより、前記被写体の形状情報を生成する生成手段と、前記補助光を発光した際に前記被写体が受ける補助光の光量を表す光量特性と、前記被写体の形状情報とに基づき、前記撮像画像の各画素における補助光の強さを表す補助光成分を取得する成分取得手段と、前記環境光に応じて前記撮像画像の色みが補正された第1の補正画像を生成する第1の補正手段と、前記補助光に応じて前記撮像画像の色みが補正された第2の補正画像を生成する第2の補正手段と、前記第1の補正画像と前記第2の補正画像とを、前記補助光成分に基づ合成比率によって合成する合成手段と、を有し、前記第1の補正手段は、前記補助光を発光した状態で撮像した撮像画像から、前記取得した補助光成分が所定の閾値以下である画素の画素値を抽出し、該抽出した画素値に基づき前記環境光に対応したホワイトバランス補正係数を算出し、該ホワイトバランス補正係数を用いて前記撮像画像を補正することにより前記第1の補正画像を生成することを特徴とする。
本発明によれば、距離画像を基いることなく適正なホワイトバランス補正が可能となる。
第1の実施形態の画像処理装置の構成例を示す図である。 第1の実施形態の画像処理部の構成例を示す図である。 ストロボ発光画像とストロボ非発光画像の一例を示す図である。 標準形状情報の一例を示す図である。 法線マップの一例を示す図である。 第1の実施形態の画像処理のフローチャートである。 第1の実施形態の法線マップ生成処理のフローチャートである。 ストロボ光成分の一例を示す図である。 第2の実施形態の画像処理装置の構成例を示す図である。 第2の実施形態の画像処理部の構成例を示す図である。 第2の実施形態の画像処理のフローチャートである。 被写体と光源との位置関係を説明する図である。
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。
<第1の実施形態>
本実施形態は、環境光のもとストロボ光を発光して撮像した撮像画像に対して、撮像画像の色みを光源に応じて調整する。図1は、第1の実施形態における画像処理装置のハードウェア構成例を示す図である。
本実施形態の画像処理装置は、デジタルカメラなどの撮像装置100への適用例である。撮像装置100は、光学部101、撮像素子部102、A/D変換部103、画像処理部104、エンコーダ部105、メディアI/F106、CPU107、メモリ部108、及びシステムバス109を有する。さらに撮像装置100は、撮像系制御部110、発光部111、操作部112、キャラクタ生成部113、及び表示部114などをも備えている。
光学部101は、ズームレンズ、フォーカスレンズ、ブレ補正レンズ、絞り、およびシャッターによって構成される鏡筒であり、被写体等の光学像を撮像素子部102の撮像面上に結像させる。
撮像素子部102は、光学部101にて結像された光学像をアナログ電気信号へと変換する撮像素子を有する。撮像素子部102は、さらにR(赤),G(緑),B(青)のフィルタ素子がベイヤ配列などの所定の配列となされたカラーフィルタを備えており、光学部101にて集光された被写体からの光を色成分ごとに分離する。
A/D変換部103は、撮像素子部102にて取得された被写体の色成分ごとの信号をデジタル信号に変換する。A/D変換部103にてA/D変換されて得られたデジタル信号からなる画像データは、RAW画像データとして画像処理部104に出力される。また、撮像装置100がRAW画像データを記録又は外部出力する設定になされている場合、A/D変換部103から出力されたRAW画像データは、後述するメディアI/F106を介して例えばPC/メディア115に出力される。
画像処理部104は、A/D変換部103で生成されたRAW画像データに対して現像処理を行い、カラー画像データを生成する処理回路である。また、画像処理部104は、カラー画像データに対してWB補正処理を含む様々な画像処理を行う。画像処理部104の内部構成は後に詳述する。なお、画像処理部104は、画像処理を行う際に適宜画像データをメモリ部108に記憶し、また、適宜画像データの読み出しを行う。
エンコーダ部105は、画像処理部104にて処理した各種画像データを、Jpegなどのファイルフォーマットに変換する処理回路である。
メディアI/F106は、PC/メディア115との間で画像データ等を送受信するためのインタフェイスである。PC/メディア115は、例えば、パーソナルコンピュータ、又は、ハードディスク、メモリカード、CFカード(CF(コンパクトフラッシュ)は登録商標)、SDカードなどの記録メディアである。メディアI/F106は、例えばUSB(Universal Serial Bus)などが用いられる。
CPU107は、撮像装置100内の各構成の処理及び制御のすべてに関わり、ROM116及びRAM117で構成されるメモリ部108に格納された命令を順に読み込み、解釈し、その結果に従って処理を実行する。
なお本実施形態において、後述する標準形状情報と光量特性とは、予めROM116に格納されているものとする。これら標準形状情報および光量特性の詳細は後述する。
システムバス109は、撮像装置100の内部構成間でデータを送受信するためのバスである。
撮像系制御部110は、光学部101に対して、フォーカスを合わせる制御、シャッターを開く制御、絞りを調整する制御などの撮像系に関する各種の制御を行う制御回路である。
発光部111は、撮像時の照明補助を行うための補助光(いわゆるストロボ光)を発光する補助光源である。補助光源は、カメラの内蔵ストロボ装置でもよいし、外付けのストロボ装置であってもよい。発光部111は、撮像系制御部110によってストロボ発光やストロボ非発光といった発光動作が制御される。
操作部112は、シャッターボタン118や操作ボタン119からの信号を受け取り、撮像やカメラ設定の変更などのユーザ指示をCPU107へ伝える。シャッターボタン118は、いわゆる半押しと全押しの二つの状態を取り得るボタンである。
キャラクタ生成部113は、文字データやグラフィックデータなどを生成する処理回路である。キャラクタ生成部113により生成された文字データあるいはグラフィックデータは、各種画像データに重畳されて表示部114に送られて表示される。
表示部114は、各種の画像データやカメラ設定メニューなどを表示する液晶ディスプレイなどである。
本実施形態の撮像装置100は、シャッターボタン118の操作が行われていない状態では、撮像系制御部110が光学部101及び撮像素子部102を制御して所定のフレーム周期ごとに撮像を行い、いわゆるライブビュー表示用の画像を取得する。
シャッターボタン118が半押しされると、撮像系制御部110は、光学部101を制御してAFロックとAEロックとを行う。なお、AFロックは、光学部101内のフォーカスレンズを駆動するオートフォーカスの制御において、焦点距離をロックする制御である。AEロックは、自動露出制御において露出値をロックする制御である。
その後、シャッターボタン118が全押しされると、撮像系制御部110は、光学部101及び撮像素子部102を制御し、また発光部111のストロボを発光させるように制御して、実際に被写体を撮像する本露光を行うようにする。これにより、ストロボ発光状態で撮像したRAW画像データが取得されることになる。
ここで、第1の実施形態の撮像装置100は、本露光によって画像を撮像する際には、ストロボ光を発光して撮像した画像と、ストロボ光を発光せずに撮像した画像とを取得する。すなわち本実施形態において、撮像系制御部110は、シャッターボタン118が全押しされると、光学部101及び撮像素子部102を制御し、また発光部111のストロボを発光させるように制御して、実際に被写体を撮像する本露光を行うようにする。これにより、ストロボ発光状態で撮像したRAW画像データが取得される。さらに続けて、撮像系制御部110は、光学部101及び撮像素子部102を制御し、また発光部111のストロボを発光させないように制御して、被写体を撮像する露光を行うようにする。これにより、ストロボ非発光状態で撮像したRAW画像データが取得される。なお、ストロボ非発光状態での露光は、シャッターボタン118が全押しされてから本露光を開始するまでの間に行ってもよい。
ストロボ発光状態で撮像したRAW画像データは、発光部111のストロボ発光時に撮像素子部102で撮像がなされてA/D変換部103から出力された画像データである。また、ストロボ非発光状態で撮像したRAW画像データは、発光部111のストロボを発光させず、環境光のもとで撮像素子部102による撮像がなされてA/D変換部103から出力された画像データである。これらのRAW画像データは、メモリ部108に一時的に記憶される。
次に、本実施形態の撮像装置100は、ストロボ発光状態で撮像したRAW画像データに対し、デモザイク処理、ノイズリダクション処理などを施してストロボ光に対応したカラー画像データを生成する。以後、ストロボ光に対応したカラー画像をストロボ発光画像と呼び、その画像データをストロボ発光画像データIonとする。同様に、撮像装置100は、ストロボ非発光状態で撮像したRAW画像データに対し、デモザイク処理、ノイズリダクション処理などを施してストロボ光を含まない環境光のみに対応したカラー画像データを生成する。以後、ストロボ光を含まない環境光のみに対応したカラー画像をストロボ非発光画像と呼び、その画像データをストロボ非発光画像データIoffとする。なお、これらストロボ非発光画像データおよびストロボ非発光画像データの取得方法は前述した例に限るものではない。例えば、これらのカラー画像データは、PC/メディア115に記憶されているRAW画像データを読み出して処理することで生成されてもよい。あるいは、これらのカラー画像データは、メモリ部108またはPC/メディア115に記憶されているカラー画像データが読み出して取得されてもよい。
また、本実施形態の撮像装置100は、ストロボ発光画像に含まれている特定の被写体の領域に対し、予め用意されている3次元形状モデルを当てはめることにより、その特定の被写体の形状情報を生成する。
そして、撮像装置100は、得られた形状情報と予め用意した光量特性とに基づいて、ストロボ発光画像の各画素についてストロボ光の寄与度を算出する。本実施形態において、形状情報は、撮像された画像の各画素に対応する被写体表面の法線ベクトルを画素値として持つ法線マップである。光量特性とは、ストロボ発光画像内の被写体領域の平均輝度Yfonと、ストロボ非発光画像内の被写体領域の平均輝度Yfoffとを入力とし、被写体が受けるストロボ光の入射光量Esを出力する関数F(Yfon,Yfoff)である。これらストロボ光の寄与度、形状情報、及び光量特性の詳細は後述する。なお本実施形態において、ストロボ光は、被写体に対してその位置に依らず一様に同じエネルギーをもって入射するものとする。すなわち、被写体が受けるストロボ光の入射光量Esは、画像上の位置に依らず一様であるものとする。
また本実施形態の撮像装置100は、ストロボ光の寄与度に基づいて、ストロボ光に対応したホワイトバランス補正画像と環境光に対応したホワイトバランス補正画像とを生成する。ストロボ光に対応したホワイトバランス補正画像とは、ストロボ光に応じて撮像画像の色みが調整された画像である。また、ホワイトバランス補正画像とは、環境光に応じて撮像画像の色みが調整された画像である。以後、ホワイトバランスを「WB」と表記する。さらに、撮像装置100は、ストロボ光に対応したWB補正画像と環境光に対応したWB補正画像とを合成する際の合成比率を求める。そして、撮像装置100は、ストロボ発光画像に対応したWB補正画像とストロボ非発光画像に対応したWB補正画像とを、その合成比率に従い合成することにより、最終的なWB補正画像を得る。WB補正画像及び合成比率の詳細は後述する。
図2は、本実施形態の撮像装置100において、前述したようにして撮像された画像データから最終的なWB補正画像を生成する処理を行う、画像処理部104の内部構成を示すブロック図である。
入力部201は、ストロボ発光状態で撮像されたRAW画像データをメモリ部108から読み出す画像取得処理を行う。そして、入力部201は、そのRAW画像データに対し、デモザイク処理、ノイズリダクション処理などを施してストロボ発光画像データIonを生成する。生成されたストロボ発光画像データIonは、第1補正部202、第2補正部203、生成部204、算出部207、及び合成部208へ送られる。
また入力部201は、ストロボ非発光状態で撮像したRAW画像データをメモリ部108から読み出す画像取得処理を行う。そして、入力部201は、そのRAW画像データに対し、ストロボ発光画像データIonと同様の処理を行ってストロボ非発光画像データIoffを生成して、第1補正部202及び算出部207へ送る。
図3(a)と図3(b)は、特定の被写体である人物の顔を撮像した画像の一例を示した図である。図3(a)はストロボ発光画像300の例を示し、図3(b)はストロボ非発光画像310の例を示している。図3(a)に示すストロボ発光画像300の画素Ion(i,j)には、ストロボ発光時の被写体のRGB値(IonR(i,j),IonG(i,j),IonB(i,j))が画素値として格納されている。同様に、図3(b)に示すストロボ非発光画像310の画素Ioff(i,j)には、ストロボ非発光時の被写体のRGB値(IoffR(i,j),IonG(i,j),IonB(i,j))が画素値として格納されている。また、図3(a)に示したストロボ発光画像の顔の部分のデータには、顔領域Rfと器官位置Pとに関する情報が含まれている。顔領域Rfはストロボ発光画像300の画像上で被写体の顔が占める領域であり、被写体の顔を構成している各画素の集合である。器官位置Pは、顔領域Rf内の目や口などの各器官の画像上における位置座標の情報である。これら顔領域Rfと器官位置Pの情報を取得する処理の詳細は後述する。
また、入力部201は、以下に説明するような、標準形状情報をROM116から読み出して生成部204へ送り、また、光量特性をROM116から読み出して算出部207へ送る。
図4は、標準形状情報400の例を説明する図であり、標準形状情報は3次元形状モデルとして予め用意されている。図4に例示した標準形状情報400は、人の顔領域Rfの3次元形状モデルとなされている。標準形状情報は、標準法線マップNsとそれに対応する器官位置Psとから成る。標準法線マップNsは、予め一般的な顔形状に基づいて作成した顔の法線情報を画素値として持つ画像データである。標準形状情報において、顔に含まれる画素Ns(u,v)には、画素値として顔表面の単位法線ベクトルのxyz成分値(Nsx(u,v)、Nsy(u,v)、Nsz(u,v))が格納されている。また、図中の斜線部で示されている顔領域外の画素については、法線ベクトルが存在しないことを示すnull値が格納されている。これにより、法線マップ中の画素値に基づいて顔領域と顔領域外との判別ができるようになっている。また、器官位置Psは、標準法線マップNs上における目、鼻及び口などの各器官の位置座標である。
本実施形態における光量特性は、ストロボ発光画像の輝度とストロボ非発光画像の輝度とに応じた、被写体が受けるストロボ光の光量を示す特性である。具体的には本実施形態の光量特性は、ストロボ発光画像における顔領域の平均輝度Yfonと、ストロボ非発光画像における顔領域の平均輝度Yfoffとを入力とし、被写体が受けるストロボ光量Esを出力する関数F(Yfon,Yfoff)である。本実施形態の場合、この関数F(Yfon,Yfoff)は、例えば以下に説明するようにして、予めルックアップテーブル(LUT)の形で作成してROM116に格納されている。なお、関数F(Yfon,Yfoff)は、数式の形で作成して、ROM116に格納されていてもよい。
関数F(Yfon,Yfoff)を生成する際には、まずサンプルとしての人物の顔がストロボ発光状態とストロボ非発光状態とでそれぞれ撮像される。また、それぞれの撮像時における顔正面(撮像装置に正対した向き)の照度が、照度計を用いるなどして測定される。次に、それら撮像により得られた各画像から、ストロボ発光時の顔領域の平均輝度Yfonと、ストロボ非発光時の顔領域の平均輝度Yfoffとが算出される。また、ストロボ発光時の照度からストロボ非発光時の照度を引いた差分が、被写体が受けるストロボ光量Esとして算出される。さらに、前述のようにして得たストロボ発光時における顔領域の平均輝度Yfon、およびストロボ非発光時の顔領域の平均輝度Yfoffの組(Yfon,Yfoff)と、被写体が受けるストロボ光量Esとが対応付けられる。そして、以上のように説明した対応付けを、被写体距離、環境光、及びストロボ発光量を様々に変えながら撮像した画像から取得した平均輝度の組(Yfon,Yfoff)について行い、それらにより得られた対応関係からLUTまたは関係式が作成される。
なお、光量特性の作成方法は上述の方法に限らない。例えば、被写体が受けるストロボ光量Esは、ストロボ発光状態で撮像した際の撮像装置100から被写体の顔までの距離を測定し、既知のストロボ発光量と測定した距離とに基づいて求めてもよい。また、平均輝度の差分値ΔY(=Yfon-Yfoff)と被写体が受けるストロボ光量Esとが対応付けられてもよい。また、顔領域の平均輝度に代えて、肌色の領域の平均輝度、又は顔領域内の特定の部位の輝度が用いられてもよい。
図2の内部構成の説明に戻る。
第1補正部202は、ストロボ非発光画像データIoffを基に環境光に対応したホワイトバランス補正係数(WB補正係数)を算出し、この係数を用いて、ストロボ発光画像データIonから環境光に対応したWB補正画像データI'1を生成する。生成された画像データI'1は、合成部208へ送られる。
第2補正部203は、ストロボ発光画像データIonを基に、ストロボ光に対応したWB補正画像データI'2を生成する。生成された画像データI'2は、合成部208へ送られる。
生成部204は、検出部205と変形部206とを有する。
検出部205は、ストロボ発光画像データIonから被写体の顔情報を検出し、その検出した顔情報を変形部206へ送る。被写体の顔情報は、画像上において被写体の顔が占める領域を示す顔領域と、顔に含まれる目や口などの各器官の画像上における位置座標を示す器官位置とに関する情報を含む。
検出部205は、例えば図3(a)に示したストロボ発光画像300から、画像上で被写体の顔が占める領域を示す顔領域Rfと、目や口などの各器官の画像上における器官位置Pを示す位置座標と、に関する情報を取得する。検出部205は、例えばテンプレートマッチングまたはHaar-Like特徴量などを用いた顔検出手法を利用することで、顔領域Rfと器官位置Pに関する情報を取得する。
以下、例えば検出部205が、テンプレートマッチングにより顔領域Rfと器官位置Pを検出する場合について説明する。
検出部205は、まず、ストロボ発光画像データIonに対し、肌色の閾値を用いた閾値処理を行うことで、肌色の領域を検出し、その肌色領域を顔候補領域とする。そして、検出部205は、予め用意した顔画像テンプレートを用い、顔候補領域に対してマッチング処理を行い、尤度を算出する。次に、検出部205は、尤度に基づいて顔領域か否かの判定処理を行い、顔領域であると判定した場合に、その顔候補領域を顔領域として抽出する。また、検出部205は、抽出した顔領域内の各画素に対し、目、鼻、及び口にそれぞれの器官に対応した画像テンプレートを用いたマッチング処理により尤度を算出する。そして、検出部205は、その尤度が大きくなる画素位置を各器官の位置と判定する。検出部205は、以上の処理により顔領域Rfと器官位置Pとを検出する。
変形部206は、検出部205により撮像画像から検出された顔の各器官の位置と、予め用意された3次元形状モデル内の顔の各器官の位置とが略一致するように、3次元形状モデルを変形して当てはめる処理を行う。本実施形態の場合、変形部206は、検出部205により取得された顔情報に基づいて、3次元形状モデルである標準形状情報に含まれる標準法線マップNsを変形して、ストロボ発光画像に対応する法線マップを生成する。
図5は、図3(a)のストロボ発光画像300に対応する法線マップ500の例を示した図である。法線マップ500の画素N(i,j)には、被写体の顔に関する単位法線ベクトルの各要素の値が画素値として格納される。具体的には、ストロボ発光画像の顔領域Rf内の画素Ion(i,j)に対応する単位法線ベクトルのxyz成分値(Nx(i,j),Ny(i,j),Nz(i,j))が、画素N(i,j)の画素値Sとして格納される。また、図5中に斜線で示した顔領域外の各画素には、法線ベクトルが存在しないことを示す値が格納される。なお、本実施形態において、ストロボ発光画像を撮像した際の撮像装置100の水平方向がx軸、撮像装置100の鉛直方向がy軸、撮像装置100の光軸方向がz軸である。生成部204における処理の詳細は後述する。生成部204で生成された法線マップNは、算出部207へ送られる。
算出部207は、法線マップと光量特性とを用いて、ストロボ発光画像の各画素Ion(i,j)に対応する補助光成分であるストロボ光成分Ys(i,j)を算出する成分取得処理を行う。算出部207における処理の詳細は後述する。算出部207にて算出されたストロボ光成分Ys(i,j)は、合成部208へ送られる。
合成部208は、ストロボ発光画像データIonとストロボ光成分とに基づいて、画像の合成比率を算出し、この合成比率を用いて、環境光に対応したWB補正画像データI'1とストロボ光に対応したWB補正画像データI'2とを合成する。合成部208での合成処理により生成された画像データは、最終的なWB補正画像データI"として出力部209へ送られる。
出力部209は、合成部208で生成されたWB補正画像データI"を後段の処理部へ出力する。なお、出力部209は、出力前に、WB補正画像データI"に対してガンマ処理などの色処理を行ってもよい。
図6は、図2の画像処理部104における一連の処理の流れを示したフローチャートである。図6のフローチャートに示した一連の処理は、ソフトウェア構成により実現されてもよいし、ハートウェア構成により実現されてもよい。図6のフローチャートの処理を実現するハードウェア構成は、例えば図2に示した画像処理部104の各構成要素に相当する回路等からなる。また、図6のフローチャートの処理がソフトウェア構成により実現される場合、図6のフローチャートの処理を記述したコンピュータ実行可能なプログラムがROMからRAM上に読み込まれ、CPUがそのプログラムを実行することで実現される。ソフトウェア構成によって図6のフローチャートの処理が実現される場合、図2に示した各構成要素はCPUにより形成される。その他にも、図6のフローチャートの処理は、一部がハードウェア構成で残りがプログラムによるソフトウェア構成により実現されてもよい。
まずステップS601において、入力部201は、ストロボ発光画像データIon、ストロボ非発光画像データIoff、標準形状情報、及び光量特性の情報を取得し、後の処理を行う各部へ送る。
次にステップS602において、第1補正部202は、ストロボ非発光画像データIoffを用いて環境光に対応したWB補正係数を算出し、この係数を用いてストロボ発光画像データIonから環境光に対応したWB補正画像データI'1を生成する。WB補正係数の算出、および、WB補正画像の生成には、以下のようなオートWB調整手法を用いることができる。
第1補正部202はまずストロボ非発光画像データIoffの画素Ioff(i,j)のRGB値IoffR(i,j),IoffG(i,j),IoffB(i,j)を平均して平均RGB値aveIoffR,aveIoffG,aveIoffBを算出する。そして、第1補正部202は、この平均RGB値が示す色を無彩色に補正するようなWB補正係数(αr1,αg1,αb1)を、下記の式(1)~式(3)により算出する。
αr1=aveIoffG/aveIoffR ・・・式(1)
αg1=1 ・・・式(2)
αb1=aveIoffG/aveIoffB ・・・式(3)
次に、第1補正部202は、ストロボ発光画像データIonの各画素のRGB値と、前述のように算出したWB補正係数とを用いて下記の式(4)~式(6)の演算を行う。これにより、環境光に対応したWB補正画像データI'1の各画素のRGB値I'1R(i,j),I'1G(i,j),I'1B(i,j)が算出される。
I'1R(i,j)=IonR(i,j)*αr1 ・・・式(4)
I'1G(i,j)=IonG(i,j)*αg1 ・・・式(5)
I'1B(i,j)=IonB(i,j)*αb1 ・・・式(6)
次にステップS603において、第2補正部203は、ストロボ発光画像データIonからストロボ光に対応したWB補正画像データI'2を生成する。このとき、ストロボ光に対するWB補正係数(αr2,αg2,αb2)は、予め記憶しておいた既知の値を用いてもよいし、ステップS602におけるストロボ非発光画像データIoffをストロボ発光データIonに置き換えて算出してもよい。ストロボ光に対応したWB補正画像I'2のRGB値I'2R(i,j),I'2G(i,j),I'2B(i,j)は、ステップS602と同様、ストロボ発光画像データIonの各画素のRGB値にWB補正係数(αr2,αg2,αb2)を乗算して得られる。
次にステップS604において、生成部204は、ストロボ発光画像データIonに対応する法線マップNを生成する。
図7は、ステップS604において生成部204が行う法線マップ生成処理の詳細なフローチャートである。
ステップS701において、生成部204の検出部205は、ストロボ発光画像データIonから、前述したようにテンプレートマッチング等を用いて顔情報を検出する。
次にステップS702において、変形部206は、標準形状情報に含まれる標準法線マップNsをストロボ発光画像データIonの器官位置Pに合わせて変形し、法線マップNを生成する。変形部206は、まずステップS701で検出された器官位置Pと、標準形状情報の器官位置Psとに基づいて、標準法線マップNsの変形パラメータを求める。標準法線マップNsの変形は、アフィン変換や射影変換などを利用して行うことができる。本実施形態の場合、変形部206は、下記の式(7)に示すアフィン変換を用いて標準法線マップNs(u,v)を変形する。
u'=a0u+a1v+a2
v'=a3u+a4v+a5 ・・・式(7)
変換パラメータ(a0,a1,a2,a3,a4,a5)は、ストロボ発光画像の器官位置Pが示す各器官(目、鼻、及び口)の座標と、標準形状情報の器官位置Psが示す各器官の座標とを各々対応付け、最小二乗法等を用いて算出可能である。
次に、変形部206は、算出した変換パラメータを用いて標準法線マップを変形する。そして、変形部206は、ストロボ発光画像上の器官位置Pに標準法線マップ上の器官位置Psが一致するように、ストロボ発光画像と同サイズの画像上に変形後の標準法線マップを配置する。さらに変形部206は、配置した標準法線マップの周囲(顔領域外の部分)の画素に法線情報がないことを示すnull値を格納し、これをストロボ発光画像データに対応する法線マップNとする。
以上のような法線マップ生成処理が終了すると、算出部207が行う図6のステップS605の処理に進む。
ステップS605において、算出部207は、法線マップNと光量特性Fとを用い、ストロボ発光画像の各画素(i,j)についてストロボ光成分Ys(i,j)を算出する。
図8はストロボ光成分の例を示す図である。本実施形態におけるストロボ光成分とは、光学部101によって集光される光のうち、ストロボ光が被写体に反射して光学部101に入射する光量を表す。一般に、被写体の反射光量は、入射光量が一定であったとしても、光の入射方向と反射面の法線方向とのなす角に応じて変化する。したがって、被写体表面全体が一様な強さのストロボ光を受けたとしても、撮像画像データに含まれるストロボ光成分は、画素位置ごとに被写体の表面形状に応じて変化する。本実施形態では光学部101の撮像光軸と平行に進むストロボ光が被写体表面でランバートの余弦則に従い反射すると見なし、算出部207は式(8)及び式(9)によりストロボ発光画像の各画素(i,j)に対応するストロボ光成分Ys(i,j)を算出する。
Ys(i,j)=Es*(N(i,j)・L ) ・・・式(8)
Es=F(Yfon,Yfoff) ・・・式(9)
ここで、式(8)中のN(i,j)は法線マップNの画素(i,j)に格納されている単位法線ベクトルであり、Lは被写体に対するストロボ光の入射方向(すなわち撮像光軸方向)の単位ベクトルである。また、式中のEsは、ストロボ発光画像における顔領域の平均輝度Yfonと、ストロボ非発光画像における顔領域の平均輝度Yfoffとから、光量特性Fを用いて得られるストロボ光量である。ただし、法線マップNの画素(i,j)に法線ベクトルが存在しないことを示すnull値が格納されている場合には、反射する被写体面が存在しないと見なしてYs(i,j)=0とする。
次にステップS606において、合成部208は、ストロボ発光画像データIonとストロボ光成分Ys(i,j)とを用いて、次式(10)に従い各画素(i,j)における合成比率t(i,j)を算出する。
t(i,j)=Ys(i,j)/Yon(i,j) ・・・式(10)
ここで、式(10)のYon(i,j)はストロボ発光画像の画素値IonR(i,j),IonG(i,j), IonB(i,j)から算出される輝度値である。そして、合成部208は、得られた合成比率を用いて、環境光に対応したWB補正画像データI'1とストロボ光に対応したWB補正画像データI'2とを次式(11)に従い合成し、最終的なWB補正画像データI"を生成する。
I"(i,j)=I'1(i,j)*(1-t(i,j))+I'2(i,j)*t(i,j) ・・・式(11)
以上説明したように画像処理部104は、標準法線マップを変形して生成した被写体の法線マップと、撮像画像データの輝度に基づきストロボ反射特性から推定したストロボ光量とを用いて、被写体の形状を考慮したストロボ光成分を算出することができる。前述したように、本実施形態の画像処理部104は、撮像画像中の被写体領域に、予め保持された3次元形状モデルを当てはめることにより、視差の情報を含まない撮像画像から被写体の形状情報を生成する。そして、本実施形態の画像処理部104は、得られた形状情報に基づいてストロボ光の寄与度を算出することで、被写体に関する距離画像を用いることなく、ストロボ発光状態で撮像された画像のホワイトバランスを適正に補正を行うことができる。
なお、本実施形態では標準形状情報として標準法線マップをROM116から読み出す例を説明したが、一般的な顔の表面形状を表すポリゴンデータをROM116から読み出してもよい。その場合、標準法線マップは、ポリゴンデータが示す面の法線から生成すればよい。
また、前述の実施形態では、特定の被写体として、人の顔を例に挙げて説明したが、特定の被写体は人の顔に限らない。例えば特定のオブジェクトに関しても特徴点を持つ3次元形状モデルを予め用意し、さらに、公知のオブジェクト検出手法を用いてストロボ発光画像データから特定のオブジェクト領域と特徴点を検出すれば、顔以外の被写体に対しても適用可能である。このことは後述する第2の実施形態においても同様に適用可能である。
<第2の実施形態>
第1の実施形態では、ストロボ発光時の顔領域の輝度とストロボ非発光時の顔領域の輝度とに基づいて、被写体が受けるストロボ光量を取得する方法について説明した。また、第1の実施形態では、ストロボ非発光時の撮像画像データを用いて環境光に対応したWB補正係数を算出している。
第2の実施形態では、ストロボ光源と被写体との位置関係に基づいて、被写体が受けるストロボ光量を推定(取得)する例について説明する。また、第2の実施形態では、撮像画像中のストロボ光成分を用いることで、ストロボ発光時の撮像画像データから環境光に対応したWB補正係数を算出する例についても説明する。
図9は、第2の実施形態における画像処理装置としてのPC900のハードウェア構成例を示した図である。
PC900は、CPU907、システムバス909、ROM916、RAM917、HDDI/F901、入力I/F903、出力I/F905を有して構成される。HDDI/F901は、HDD902や光ディスクドライブなどの二次記憶装置を接続する、例えばシリアルATA(SATA)などのインタフェイスである。CPU907は、HDDI/F901を介して、HDD902からのデータ読み出し、およびHDD902へのデータ書き込み等を行う。さらにCPU907は、HDD902に格納されたデータをRAM917に展開し、同様に、RAM917に展開されたデータをHDD902に保存することが可能である。入力I/F903は、マウス・キーボード904などの入力デバイスを接続する、例えばUSBなどのシリアルバスインタフェイスである。CPU907は、入力I/F903を介してマウス・キーボード904から各種信号を読み込むことが可能である。出力I/F905は、ディスプレイ906などの表示デバイスを接続する、例えばDVIなどの映像出力インタフェイスである。CPU907は、出力I/F905を介してディスプレイ906にデータを送り、表示を実行させることができる。なお、USBやIEEE1394などの双方向通信インタフェイスを利用すれば、入力I/F903と出力I/F905を一つにまとめることができる。また、本実施形態では、CPU907が画像処理部として機能する。また、標準形状情報と光量特性に加えて、ストロボ発光画像データがExifなどの写真用のメタデータを含む画像ファイルフォーマットで予めROM916またはHDD902に格納されているものとする。
図10は、図9に示したPC900において第2の実施形態の画像処理装置を実現する場合の機能ブロック図である。この図10において、第2補正部203、生成部204、合成部208、及び出力部209は、前述した図2の対応した構成要素と同様な処理を行うため、それらの説明は省略する。以下、第1の実施形態とは異なる処理を中心に簡潔に説明する。
第2の実施形態において、入力部1001は、ストロボ発光画像データ、標準形状情報及び光量特性を、ROM116またはHDD902から読み出して取得する。ここで、第2の実施形態における光量特性とは、ストロボ光源からの距離と方向(すなわち、ストロボ光源に対する3次元位置情報)に応じた、被写体が受けるストロボ光の光量を示す特性である。具体的には、第2の実施形態の場合の光量特性は、被写体の3次元位置座標(x,y,z)を入力とし、その位置座標に存在する被写体が受けるストロボ光量Es'を出力する関数F'(x,y,z)である。
また、入力部1001は、取得したストロボ発光画像データのメタデータから、焦点距離fと被写体までの距離(被写体距離Dとする)を取得する。さらに、入力部1001は、Exif情報に基づき当該ストロボ発光画像データを撮像した撮像機器の機種を特定し、予め用意したデータベースなどを参照して撮像センサのサイズ(H、W)を取得する。本実施形態では、これらの焦点距離f、被写体距離D、撮像センササイズ(縦幅H、横幅W)が、撮像パラメータとして用いられる。なお一般に、被写体距離Dは撮像時の焦点距離およびフォーカスレンズの位置に応じて求めることができる。
取得されたストロボ発光画像データは、第1補正部1003、第2補正部203、生成部204、及び合成部208へ送られる。また、標準形状情報は、生成部204へ送られる。また、光量特性および撮像パラメータは、算出部1002へ送られる。
本実施形態における算出部1002は、入力部1001が取得した光量特性および撮像パラメータと、生成部204が前述のようにして生成した法線マップとを用いて、ストロボ発光画像データに対応するストロボ光成分を算出する。この算出処理の詳細は後述する。算出されたストロボ光成分は、合成部208へ送られる。
本実施形態における第1補正部1003は、入力部1001が取得したストロボ発光画像データと、算出部1002が算出したストロボ光成分とを用いて、環境光に対応したWB補正係数を算出する。この算出処理の詳細は後述する。また、第1補正部1003は、そのWB補正係数を用いて、ストロボ発光画像データから環境光に対応したWB補正画像データを生成する。そして、生成された環境光に対応したWB補正画像データは、合成部208へ送られる。
図11は、第2の実施形態の画像処理装置における一連の処理の流れを示したフローチャートである。
まずステップS1101において、入力部1001は、ストロボ発光画像データ、標準形状情報、光量特性、及び撮像パラメータを取得し、後の処理を行う各部へ送る。
次のステップS1102で行われる処理は第1の実施形態のステップS604と同一であるため説明は省略する。
次にステップS1103において、算出部1002は、撮像パラメータに基づいてストロボ発光画像中の各画素に対応する被写体の3次元座標を取得し、この座標と光量特性および法線マップを用いてストロボ光成分を算出する。
本実施形態では、ストロボ光源の位置および発光光軸を、それぞれ撮像装置の位置および撮像光軸と同一とみなす。さらに、ストロボ光源から被写体までの奥行き方向の距離を、撮像パラメータに含まれる被写体距離Dで近似する。その上で、算出部1002は、画素位置(i,j)に対応する被写体の3次元座標(x(i,j),y(i,j),z(i,j))を、式(12)~式(14)によって算出する。式(12)~式(14)に示すように、算出部1002は、撮像パラメータに含まれる焦点距離fと撮像センササイズ(H、W)を用いて3次元座標(x(i,j),y(i,j),z(i,j))を算出する。
x(i,j)=(i-W/2)*D/f ・・・式(12)
y(i,j)=(j-H/2)*D/f・・・式(13)
z(i,j)=D ・・・式(14)
そして、算出部1002は、式(15)~式(17)によりストロボ発光画像データの各画素(i,j)に対応するストロボ光成分Ys(i,j)を算出する。
Ys(i,j)=Es'(i,j)*Refl(i,j) ・・・式(15)
Es'(i,j)=F'(x(i,j),y(i,j),z(i,j)) ・・・式(16)
Refl(i,j)=(N(i,j)*L(i,j))*Cd+(L(i,j)*R(i,j))^n*Cs ・式(17)
ここで、式中のEs'(i,j)は、画素(i,j)に対応する被写体の3次元座標から光量特性F'を用いて得られるストロボ光量である。また、式(17)は公知の反射モデルであるフォンの鏡面反射モデルを表しており、Refl(i,j)は反射モデルにより算出される光の反射量である。式(17)において、L(i,j)は被写***置からストロボ光源位置へ向かう単位ベクトルである。また、R(i,j)は撮像装置から被写***置へ向かう視線ベクトルの、被写体表面に関する正反射方向を表す単位ベクトルである。
図12は、これらのベクトルの例を示す図である。図12において、原点Oは撮像装置およびストロボ光源の位置を表している。ベクトルL(i,j),R(i,j)は、被写体と撮像装置およびストロボ光源との位置関係に基づき算出可能である。また、式(17)におけるCdは被写体の拡散反射率、Csは被写体の鏡面反射率である。これらの反射率は予め一般的な肌の反射率に基づいて設定した値を用いればよい。
次にステップS1104において、第1補正部1003は、ストロボ発光画像データから環境光に対応したWB補正画像データを生成する。このとき、環境光に対応したWB補正係数は、ストロボ発光画像データとストロボ光成分とを用いて算出される点が第1の実施形態とは異なる。ストロボ発光画像データ中においてストロボ光の寄与が小さい画素のRGB値は、環境光を大きく反映した色情報であると考えられる。そこで第2の実施形態の場合、第1補正部1003は、ストロボ発光画像データからストロボ光成分Ys(i,j)が予め定めた閾値以下である画素を抽出する。次いで第1補正部1003は、これらの画素のRGB値を平均して、第1の実施形態のステップS602における平均RGB値aveIoffR,aveIoffG,aveIoffBを算出する。第1補正部1003は、こうして算出した平均RGBを用いて前述の式(1)~式(3)に従い算出したWB補正係数を、環境光に対応するWB補正係数とする。WB補正係数を用いてWB補正画像データを生成する処理は第1の実施形態と同一であるため説明を省略する。
次のステップS1105とステップS1106は、それぞれ第1の実施形態のステップS603とステップS606と同一であるため説明を省略する。
以上説明した処理制御を行うことで、第2の実施形態の画像処理装置は、ストロボ光源と被写体との位置関係を考慮した、より精度の高いストロボ光成分を算出することができる。また、第2の実施形態の画像処理装置は、ストロボ非発光時の撮像画像データを取得することなく、環境光に対応したWB補正画像データを生成することができる。
なお、本実施形態では、ステップS1103の式(17)において反射量を算出する際にフォンの鏡面反射モデルを用いたが、Blinn-PhongモデルやTorrance-Sparrowモデルなど、他の反射モデルを用いてもよい。
また、本実施形態では、被写体距離DをExif情報から取得したが、他の方法で取得してもよい。例えば、予め撮像画像の画角に対する顔領域の大きさと被写体距離とを対応付けたLUTをROM916に格納しておき、ストロボ発光画像データから検出した顔領域の大きさと撮像画角とを基に、このLUTを参照して被写体距離Dが取得されてもよい。なお、撮像画角は焦点距離fおよび撮像センササイズ(H、W)から算出可能である。
<その他の実施形態>
なお、上述した各処理部のうち、第1補正部202、第2補正部203等については、その代わりとして、機械学習された学習済みモデルを代わりに用いて処理しても良い。その場合には、例えば、その処理部への入力データと出力データとの組合せを学習データとして複数個準備し、それらから機械学習によって知識を獲得し、獲得した知識に基づいて入力データに対する出力データを結果として出力する学習済みモデルを生成する。学習済みモデルは、例えばニューラルネットワークモデルで構成可能である。第1の実施形態の場合、例えば、二つの学習済モデルを用いる。まず、撮像画像を入力データとし、上述の実施形態で説明した環境光に対応したWB補正画像データI'1を出力データとして、学習した学習済モデルを第1補正部202に用いる。また、撮像画像を入力データとし、上述の実施形態で説明した環境光に対応したストロボ光に対応したWB補正画像データI'2を出力データとして、学習した学習済モデルを第2補正部203に用いる。このような学習済モデルを用いて、第1補正部202は、環境光に応じて撮像画像の色みが補正された補正画像を、第2補正部203は、ストロボ光に応じて撮像画像の色みが補正された補正画像を、出力する。
各補正部に適用された学習済みモデルは、前記処理部と同等の処理をするためのプログラムとして、CPUあるいはGPUなどと協働で動作することにより、前記処理部の処理を行う。なお、上記学習済みモデルは、必要に応じて一定の処理後に更新しても良い。
前述した実施形態では、デジタルカメラ等の撮像装置に画像処理装置が適用された例に挙げたが、撮像装置はデジタルカメラに限定されない。撮像装置は、例えばデジタルカメラ機能を備えたパーソナルコンピュータやタブレット端末、スマートフォン、携帯ゲーム機などの各種情報端末、カムコーダ、車載カメラ、監視カメラ、医療用カメラ、あるいは工業用カメラ等で取得された画像であってもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける一つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
201:入力部、202:第1補正部、203:第2補正部、204生成部、207:算出部、208:合成部、209:出力部

Claims (11)

  1. 環境光のもとで補助光を発光した状態で撮像した撮像画像を取得する画像取得手段と、
    前記撮像画像に含まれる被写体の領域に対して3次元形状モデルを当てはめることにより、前記被写体の形状情報を生成する生成手段と、
    前記補助光を発光した際に前記被写体が受ける補助光の光量を表す光量特性と、前記被写体の形状情報とに基づき、前記撮像画像の各画素における補助光の強さを表す補助光成分を取得する成分取得手段と、
    前記環境光に応じて前記撮像画像の色みが補正された第1の補正画像を生成する第1の補正手段と、
    前記補助光に応じて前記撮像画像の色みが補正された第2の補正画像を生成する第2の補正手段と、
    前記第1の補正画像と前記第2の補正画像とを、前記補助光成分に基づく合成比率によって合成する合成手段と、
    を有し、
    前記第1の補正手段は、
    前記補助光を発光した状態で撮像した撮像画像から、前記取得した補助光成分が所定の閾値以下である画素の画素値を抽出し、
    該抽出した画素値に基づき前記環境光に対応したホワイトバランス補正係数を算出し、該ホワイトバランス補正係数を用いて前記撮像画像を補正することにより前記第1の補正画像を生成することを特徴とする画像処理装置。
  2. 前記第2の補正手段は、前記補助光に対応したホワイトバランス補正係数を用いて前記撮像画像を補正することにより、前記第2の補正画像を生成することを特徴とする請求項1記載の画像処理装置。
  3. 前記生成手段は、前記撮像画像から、前記被写体である人物の顔の器官の位置を検出し、当該位置と、前記3次元形状モデルの顔の器官の位置とがほぼ一致するように、前記3次元形状モデルを変形して当てはめることを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記生成手段は、前記撮像画像から、画像の特徴点に基づいて特定のオブジェクトの領域の位置を検出し、当該位置と、前記3次元形状モデルの特定のオブジェクトの領域の位置とがほぼ一致するように、前記3次元形状モデルを変形して当てはめることを特徴とする請求項1または2に記載の画像処理装置。
  5. 前記形状情報とは、前記撮像画像の各画素に対応する被写体表面の法線情報であることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記画像取得手段は、さらに、前記環境光のもとで前記補助光を発光しない状態で撮像した撮像画像を取得することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記光量特性は、前記補助光を発光した状態で撮像された撮像画像の輝度と、前記補助光を発光しない状態で撮像された撮像画像の輝度とに応じた、当該被写体が受ける前記補助光の光量を示す特性であることを特徴とする請求項に記載の画像処理装置。
  8. 前記光量特性は、前記補助光を発光した光源に対する前記被写体の3次元位置情報に応じた、当該被写体が受ける前記補助光の光量を示す特性であることを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  9. 前記第1の補正手段は、前記補助光を発光しない状態で撮像された撮像画像に基づいて、前記環境光に対応したホワイトバランス補正係数を算出することを特徴とする請求項に記載の画像処理装置。
  10. 画像処理装置が実行する画像処理方法であって、
    環境光のもとで補助光を発光した状態で撮像した撮像画像を取得する画像取得工程と、
    前記撮像画像に含まれる被写体の領域に対して3次元形状モデルを当てはめることにより、前記被写体の形状情報を生成する生成工程と、
    前記補助光を発光した際に前記被写体が受ける補助光の光量を表す光量特性と、前記被写体の形状情報とに基づき、前記撮像画像の各画素における補助光の強さを表す補助光成分を取得する成分取得工程と、
    前記環境光に応じて前記撮像画像の色みが補正された第1の補正画像を生成する第1の補正工程と、
    前記補助光に応じて前記撮像画像の色みが補正された第2の補正画像を生成する第2の補正工程と、
    前記第1の補正画像と前記第2の補正画像とを、前記補助光成分に基づく合成比率によって合成する合成工程と、
    を有し、
    前記第1の補正工程では、
    前記補助光を発光した状態で撮像した撮像画像から、前記取得した補助光成分が所定の閾値以下である画素の画素値を抽出し、
    該抽出した画素値に基づき前記環境光に対応したホワイトバランス補正係数を算出し、該ホワイトバランス補正係数を用いて前記撮像画像を補正することにより前記第1の補正画像を生成することを特徴とする画像処理方法。
  11. コンピュータを請求項1乃至9のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2019095935A 2019-05-22 2019-05-22 画像処理装置、画像処理方法、およびプログラム Active JP7321772B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019095935A JP7321772B2 (ja) 2019-05-22 2019-05-22 画像処理装置、画像処理方法、およびプログラム
US16/875,784 US11509797B2 (en) 2019-05-22 2020-05-15 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019095935A JP7321772B2 (ja) 2019-05-22 2019-05-22 画像処理装置、画像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020191546A JP2020191546A (ja) 2020-11-26
JP7321772B2 true JP7321772B2 (ja) 2023-08-07

Family

ID=73454810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019095935A Active JP7321772B2 (ja) 2019-05-22 2019-05-22 画像処理装置、画像処理方法、およびプログラム

Country Status (2)

Country Link
US (1) US11509797B2 (ja)
JP (1) JP7321772B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112950769A (zh) * 2021-03-31 2021-06-11 深圳市慧鲤科技有限公司 三维人体重建方法、装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010068064A (ja) 2008-09-09 2010-03-25 Ricoh Co Ltd 撮像装置及び撮像方法
JP2010187204A (ja) 2009-02-12 2010-08-26 Olympus Corp 画像撮像装置、画像処理方法、および画像処理プログラム
JP2016144042A (ja) 2015-02-02 2016-08-08 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2017130890A (ja) 2016-01-22 2017-07-27 キヤノン株式会社 画像処理装置およびその制御方法ならびにプログラム
JP2018182718A (ja) 2017-04-17 2018-11-15 キヤノン株式会社 画像処理装置およびその制御方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100996094B1 (ko) * 2002-07-18 2010-11-22 소니 주식회사 촬상 데이터 처리 방법, 촬상 데이터 처리 장치, 및 컴퓨터 프로그램이 기록된 기록 매체
JP4999763B2 (ja) * 2007-07-31 2012-08-15 パナソニック株式会社 撮像装置、撮像方法、プログラム、記録媒体、および集積回路
JP5665436B2 (ja) * 2010-09-02 2015-02-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
FR2998402B1 (fr) * 2012-11-20 2014-11-14 Morpho Procede de generation d'un modele de visage en trois dimensions
CN106576155B (zh) * 2014-07-08 2019-04-16 富士胶片株式会社 图像处理装置、摄像装置、图像处理方法以及程序
US9922452B2 (en) * 2015-09-17 2018-03-20 Samsung Electronics Co., Ltd. Apparatus and method for adjusting brightness of image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010068064A (ja) 2008-09-09 2010-03-25 Ricoh Co Ltd 撮像装置及び撮像方法
JP2010187204A (ja) 2009-02-12 2010-08-26 Olympus Corp 画像撮像装置、画像処理方法、および画像処理プログラム
JP2016144042A (ja) 2015-02-02 2016-08-08 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2017130890A (ja) 2016-01-22 2017-07-27 キヤノン株式会社 画像処理装置およびその制御方法ならびにプログラム
JP2018182718A (ja) 2017-04-17 2018-11-15 キヤノン株式会社 画像処理装置およびその制御方法

Also Published As

Publication number Publication date
US11509797B2 (en) 2022-11-22
US20200374420A1 (en) 2020-11-26
JP2020191546A (ja) 2020-11-26

Similar Documents

Publication Publication Date Title
US11948282B2 (en) Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
KR102385360B1 (ko) 이미지 보정을 수행하는 전자 장치 및 그 동작 방법
KR102338576B1 (ko) 이미지를 이용하여 획득된 깊이 정보의 속성에 따라 이미지와 연관하여 깊이 정보를 저장하는 전자 장치 및 전자 장치 제어 방법
US10956774B2 (en) Electronic device for acquiring image using plurality of cameras and method for processing image using the same
US10304164B2 (en) Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data
US20150278996A1 (en) Image processing apparatus, method, and medium for generating color image data
KR102452564B1 (ko) 광학식 이미지 안정화 움직임을 추정하기 위한 장치 및 방법
JP6576083B2 (ja) 画像処理装置、画像処理方法、およびプログラム
KR102318013B1 (ko) 복수의 이미지들을 합성하는 전자장치 및 방법
KR102383129B1 (ko) 이미지에 포함된 오브젝트의 카테고리 및 인식률에 기반하여 이미지를 보정하는 방법 및 이를 구현한 전자 장치
US11107198B2 (en) Method and apparatus for incorporating noise pattern into image on which bokeh processing has been performed
KR102452575B1 (ko) 광학식 이미지 안정화 움직임에 의한 이미지의 변화를 보상하기 위한 장치 및 방법
KR102383134B1 (ko) 우선 순위에 기반하여 이미지를 처리하는 전자 장치 및 그 동작 방법
US11509815B2 (en) Electronic device and method for processing image having human object and providing indicator indicating a ratio for the human object
US11710343B2 (en) Image processing device, image processing method, and storage medium for correcting brightness
JP2018163648A (ja) 画像処理装置、画像処理方法、及びプログラム
KR20190067438A (ko) 이미지를 제공하기 위한 방법 및 이를 지원하는 전자 장치
JP7321772B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2019179463A (ja) 画像処理装置、その制御方法、プログラム、記録媒体
JP2019205205A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2017138927A (ja) 画像処理装置、撮像装置およびそれらの制御方法、それらのプログラム
CN109120846A (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
US20230156349A1 (en) Method for generating image and electronic device therefor
KR20190105729A (ko) 전자장치의 이미지 처리 장치 및 방법
WO2018180860A1 (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220506

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230726

R151 Written notification of patent or utility model registration

Ref document number: 7321772

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151