JP2016213718A - 画像処理装置及び画像処理方法、プログラム、記憶媒体 - Google Patents

画像処理装置及び画像処理方法、プログラム、記憶媒体 Download PDF

Info

Publication number
JP2016213718A
JP2016213718A JP2015096920A JP2015096920A JP2016213718A JP 2016213718 A JP2016213718 A JP 2016213718A JP 2015096920 A JP2015096920 A JP 2015096920A JP 2015096920 A JP2015096920 A JP 2015096920A JP 2016213718 A JP2016213718 A JP 2016213718A
Authority
JP
Japan
Prior art keywords
image processing
gloss
image
attribute
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015096920A
Other languages
English (en)
Inventor
田島 香
Ko Tajima
香 田島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015096920A priority Critical patent/JP2016213718A/ja
Priority to US15/146,265 priority patent/US10223770B2/en
Publication of JP2016213718A publication Critical patent/JP2016213718A/ja
Priority to US16/260,654 priority patent/US10861136B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Abstract

【課題】仮想光源を用いてリライティング処理を行う場合に、被写体に応じて光沢感の調整を行えるようにする。
【解決手段】撮影された画像に対して、仮想的な光源である仮想光源を設定する設定部と、設定部により設定された仮想光源を用いて被写体の部分領域の明るさを補正する明るさ補正部と、部分領域の属性を検出する属性検出部と、属性検出部により検出された部分領域の属性に応じて、部分領域に与える光沢成分を生成する光沢成分生成部と、光沢成分生成部により生成された光沢成分を用いて、部分領域の光沢感を補正する光沢感補正部とを備える。
【選択図】 図5

Description

本発明は、画像処理装置に関し、特に入力された画像の光沢感を補正する画像処理装置に関するものである。
従来、画像中の被写体に対して、仮想的な光源からの光を照射することで、明るさを補正する技術(リライティング)が知られている(特許文献1)。これにより、環境光によって生じた影などの暗部領域を明るくすることができ、例えば黒つぶれした部分に存在する被写体が判別できるように画像を補正することが可能となる。
例えば、特許文献1には、撮影画像に対して疑似的なライティング処理を行うライティング処理技術について開示されている。具体的には、顔領域全体の平均輝度よりも低い輝度領域を影領域として抽出する。そして抽出した影領域の明度を上げる処理を行っている。これにより、被写体の影を抑制することができる。
特開2010−135996号公報
しかし、特許文献1に記載の技術では、仮想光源を照射してリライティングした際の、陰影に相当する画質は調整できるが、リライティングによって発生する光沢感の調整を行うことはできない。
本発明は上述した課題に鑑みてなされたものであり、その目的は、画像中の被写体に対して、仮想的な光源からの光を照射することで、明るさを補正する場合に、被写体に応じて光沢感の調整を行えるようにすることである。
本発明に係わる画像処理装置は、撮影された画像に対して、仮想的な光源である仮想光源を設定する設定手段と、前記設定手段により設定された仮想光源を用いて前記被写体の部分領域の明るさを補正する明るさ補正手段と、前記部分領域の属性を検出する属性検出手段と、前記属性検出手段により検出された前記部分領域の属性に応じて、前記部分領域に与える光沢成分を生成する光沢成分生成手段と、前記光沢成分生成手段により生成された前記光沢成分を用いて、前記部分領域の光沢感を補正する光沢感補正手段と、を備えることを特徴とする。
本発明によれば、画像中の被写体に対して、仮想的な光源からの光を照射することで、明るさを補正する場合に、被写体に応じて光沢感の調整を行うことが可能となる。
本発明の第1の実施形態に係るデジタルカメラの構成を示すブロック図。 第1の実施形態における画像処理部の構成を示すブロック図。 被写体と仮想光源の関係を示す模式図。 リライティングのパラメータ設定処理を示すフローチャート。 第1の実施形態におけるリライティング処理部の構成を示すブロック図。 第1の実施形態における光沢感補正処理の動作を示すフローチャート。 顔・器官検出結果と被写体の属性の対応例を示す図。 第2の実施形態におけるリライティング処理部の構成を示すブロック図。 第2の実施形態における光沢感補正処理の動作を示すフローチャート。 第3の実施形態におけるリライティング処理部の構成を示すブロック図。 第3の実施形態における光沢感補正処理の動作を示すフローチャート。
以下、本発明の例示的な実施形態を、添付の図面に基づいて詳細に説明する。なお、以下に説明する実施形態では、本発明に係る画像処理装置をデジタルカメラに適用した例について説明する。なお、デジタルカメラは光電変換素子を用いた撮影機能を有する電子機器を意味し、携帯電話機、ゲーム機、パーソナルコンピュータ等、カメラを有するまたは使用可能な任意の電子機器が含まれる。また、本発明に撮影機能は必須でなく、本発明に係る画像処理装置は、画像処理が可能な任意の電子機器に対して適用可能である。
(第1の実施形態)
図1は、本発明の第1の実施形態に係るデジタルカメラ100の構成例を示すブロック図である。
図1において、レンズ群101は、フォーカスレンズを含むズームレンズである。絞り機能を備えるシャッター102が、レンズ群101と撮像部103との間に設けられている。撮像部103は、レンズ群101によって撮像面に形成される光学像を画素単位の電気信号に変換するCCD/CMOSイメージセンサを代表とする撮像素子を有する。A/D変換器104は、撮像部103が出力するアナログ信号をデジタル信号(画像データ)に変換する。
画像処理部105は、A/D変換器104から出力される画像データに対し、色補間(デモザイク)、ホワイトバランス調整、γ補正、輪郭強調、ノイズリダクション、色補正などの各種画像処理を行う。画像メモリ106は画像データを一時的に記憶する。メモリ制御部107は、画像メモリ106の読み書きを制御する。D/A変換器108は、画像データをアナログ信号に変換する。表示部109はLCDや有機ELディスプレイ等の表示装置を有し、各種GUIやライブビュー画像、記録媒体112から読み出して再生した画像などを表示する。コーデック部110は、画像メモリ106に記憶されている画像データを記録媒体に記録するために予め定められた方法で符号化したり、画像ファイルに含まれる符号化画像データを例えば表示のために復号したりする。
インタフェース(I/F)111は、例えば半導体メモリカードやカード型ハードディスクなどの着脱可能な記録媒体112を、デジタルカメラ100と機械的および電気的に接続する。システム制御部50は例えばCPUやMPUなどのプログラマブルなプロセッサであってよい。システム制御部50は、例えば不揮発性メモリ121や内蔵する不揮発性メモリに記録されたプログラムを実行して必要なブロックや回路を制御することにより、デジタルカメラ100の機能を実現する。顔・器官検出部113は、撮影画像中から顔が映っている領域(顔検出)、および、眼、鼻、口、頬等、顔内の器官の位置を検出する。リライティング処理部114は、画像中の被写体に対して、仮想的な光源からの光を照射することで、明るさを補正する処理(リライティング処理)を行う。
操作部120は、ユーザがデジタルカメラ100に各種の指示を入力するためのボタンやスイッチなどをまとめて記載したものである。
不揮発性メモリ121は電気的に消去・記録可能な、例えばEEPROM等であってよい。不揮発性メモリ121は、各種の設定値、GUIデータをはじめ、システム制御部50がMPUやCPUである場合には、システム制御部50が実行するためのプログラムが記録される。
システムメモリ122は、システム制御部50の動作用の定数、変数、不揮発性メモリ121から読みだしたプログラム等を展開するために用いる。
次に、デジタルカメラ100における撮影時の動作について説明する。
例えば撮像部103は、シャッター102が開いている際にレンズ群101が撮像面に形成する被写体像を撮像素子によって光電変換し、アナログ画像信号としてA/D変換器104へ出力する。A/D変換器104は撮像部103から出力されるアナログ画像信号をデジタル画像信号(画像データ)に変換し画像処理部105に出力する。
画像処理部105は、A/D変換器104からの画像データ、又は、メモリ制御部107からの画像データに対し、色補間(デモザイク)、γ補正、輪郭強調、ノイズリダクション、色補正などの各種画像処理を行う。
また、画像処理部105では、顔・器官検出部113による顔・器官の位置、領域の検出結果や、撮像した画像データを用いて所定の評価値算出処理を行い、得られた評価値結果に基づいてシステム制御部50が露光制御、測距制御を行う。画像処理部105ではさらに、撮影で得られた画像データを用いたオートホワイトバランス(AWB)調整も行う。このように、本実施形態のデジタルカメラ100では、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理を行う。また、システム制御部50は、顔・器官検出部113による顔・器官の位置、領域の検出結果を参照して、リライティング処理部114でのリライティング、および顔内の光沢感の補正の処理も制御する。
画像処理部105から出力された画像データは、メモリ制御部107を介して画像メモリ106に書き込まれる。画像メモリ106は、撮像部103から出力された画像データや、表示部109に表示するための画像データを格納する。
また、D/A変換器108は、画像メモリ106に格納されている画像表示用のデータをアナログ信号に変換して表示部109に供給する。表示部109は、LCD等の表示装置に、D/A変換器108からのアナログ信号に応じた表示を行う。
コーデック部110は、画像メモリ106に記録された画像データをJPEGやMPEGなどの規格に基づき符号化する。システム制御部50は符号化した画像データに対して予め定められたヘッダなどを付与して画像ファイルを形成し、インタフェース111を介して記録媒体112に記録する。
なお、現在のデジタルカメラでは、撮影スタンバイ状態においては動画撮影を行い、撮影された動画を表示部109に表示し続けることにより表示部109を電子ビューファインダ(EVF)として機能させるのが一般的である。この場合、シャッター102は開いた状態とし、撮像部103のいわゆる電子シャッターを用いて例えば30フレーム/秒の撮影を行う。
そして、操作部120に含まれるシャッターボタンが半押しされると上述のAF,AE制御が行われ、全押しされると本撮影により記録用の静止画撮影が実行され、記録媒体112に記録される。また、動画撮影ボタンなどにより動画撮影が指示された場合は、記録媒体112への動画記録を開始する。
上記の基本動作以外に、システム制御部50は、前述した不揮発性メモリ121に記録されたプログラムを実行することで、後述する本実施形態の各処理を実行する。ここでいうプログラムとは、本実施形態において後述する各種フローチャートを実行するためのプログラムのことである。この際、システム制御部50の動作用の定数、変数、不揮発性メモリ121から読み出したプログラム等をシステムメモリ122に展開する。
次に、画像処理部105の詳細について図2を用いて説明する。図2は画像処理部105の構成を示すブロック図である。
図2において、画像処理部105は、輝度・色信号生成部200、輪郭強調処理部201、輝度ガンマ処理部202、WB(ホワイトバランス)増幅部203、色変換処理部204、色γ処理部205、色差信号生成部206を備える。
次に、画像処理部105における処理について説明する。図1のA/D変換部104から入力された画像信号が画像処理部105に入力される。画像処理部105に入力された画像信号は輝度・色信号生成部200に入力される。輝度・色信号生成部200は入力されたベイヤー配列のRGBの画像データに対して、同時化処理を行い、色信号R,G,Bを生成する。また、RGB信号から輝度信号Yを生成する。輝度・色信号生成部200は、生成した輝度信号Yを輪郭強調処理部201へ、色信号R,G,BをWB増幅部203へ出力する。
輪郭強調処理部201では、輝度信号に対して輪郭強調処理を行い、輝度ガンマ処理部202へ出力する。輝度ガンマ処理部202では輝度信号Yに対してガンマ補正を行い、輝度信号Yを画像メモリ106に出力する。
WB増幅部203は、後述する処理によりシステム制御部50が算出するホワイトバランスゲイン値に基づき、RGBの色信号にゲインをかけ、ホワイトバランスを調整する。色変換処理部204は、RGB信号に対してマトリクス演算などを行い、所望のカラーバランスへ変換する。色ガンマ処理部205では、RGBの色信号にガンマ補正を行う。色差信号生成部206では、RGB信号から色差信号であるR−Y信号、B−Y信号を生成する。画像メモリ106に出力された画像信号であるY信号、R−Y信号、B−Y信号はコーデック部110によって圧縮符号化され、記録媒体200に記録される。
次に、リライティング処理部114を動作させる前の準備動作について説明する。本実施形態では、リライティング処理の一例として、図3に示すような人物の顔を撮影した画像に対して、ユーザの指示に基づいた仮想光源を設定して照射し、明るさ、陰影とともに、肌、髪、瞳等の被写体領域内の光沢感を補正することを想定している。
リライティング処理部114の動作に先立ち、システム制御部50はリライティング処理部114に設定する制御パラメータを計算し、リライティング処理部114へ設定する。リライティング処理時のパラメータの設定動作について、図4のフローチャートを用いて説明する。
図4において、ステップS501では、操作部120に対するユーザからの操作を受け付ける。具体的には、操作部120に対するユーザの操作によって、図示しないメニューからリライティング処理が選択され、リライティング処理のパラメータが入力される。リライティング処理のパラメータとして、本実施形態では、仮想光源の位置、仮想光源の強度(α)、仮想光源の拡散特性(β)をユーザが入力するものとする。なお、ユーザの入力方法としては、プリセット値の中からユーザがパラメータ値を選択する方法を用いてもよい。
ステップS502では、ユーザが入力した光源の強度、光源の拡散特性が、リライティング処理部の制御パラメータとして設定される。
仮想光源の位置と、中心照射位置の設定の一例を図3に示す。図3において、701が仮想光源の位置、702が仮想光源の中心照射位置を示している。また、703は仮想光源の照射範囲を示しており、この範囲内のみが仮想光源の影響を受けるものとする。
ステップS503では、入力画像の画素毎に、仮想光源の中心照射位置702からの距離Rを算出し、画素位置と対応づけてシステムメモリ122に格納する。ステップS504では、入力画像の各画素位置において、どの程度の仮想光源反射色成分が付加されるか(反射特性)を示す重み情報RL_mapを式(1)によって算出し、システムメモリ122に格納する。
RL_map(p)=α×L・N(p)/D(p)2 …(1)
式(1)において、αは仮想光源の強度、Lは被写体に対する仮想光源の方向ベクトル、N(p)は画素位置pにおける被写体の法線ベクトル、D(p)は画素位置pにおける仮想光源と被写体との距離である。
次にリライティング処理部114の構成について説明する。図5はリライティング処理部114の構成を示すブロック図である。
図5において、RGB信号変換部601は、入力された輝度・色差信号(Y,B−Y,R−Y)をRGB信号に変換する。デガンマ処理部602は、デガンマ処理を行う。仮想光源付加処理部604は、デガンマ処理後のリニアなRGB信号に対して、システム制御部50によって設定された、仮想光源の特性、照射範囲、および照射範囲の被写体像の3次元情報を参照し、仮想光源による照明効果(ライティング効果)を付加する。ライティング効果としては、被写体像の、明るさ、陰影を調整するものとする。補正領域属性検出処理部605は、仮想光源が照射される被写体領域の属性を検出する。
ここで、被写体領域の属性とは、例えば被写体が人物である場合には、顔・器官検出部113の検出結果に基づいて分類される、髪、頬、鼻、瞳、唇等の領域の種別を示す情報である。また、光が照射されたときの反射、散乱の特性と対応付けて分類されるものとする。
質感特性情報DB606は、被写体領域の属性に対応した、複数種類の質感特性情報を保持している。光沢成分生成処理部607は、補正領域属性検出処理部605、質感特性情報DB606からの情報、およびシステム制御部50からのRL_mapを参照して、仮想光源を照射することにより付加される光沢成分を生成する。
光沢成分合成処理部608は、仮想光源付加処理部604と光沢成分生成処理部607の出力信号を参照し、仮想光源を照射することによって被写体像に発生する光沢成分を画像に付加する。ガンマ処理部609は、光沢成分合成処理部608の出力信号に対してガンマ変換を行う。輝度・色差信号変換部610は、RGB信号を輝度・色差信号(Y,B−Y,R−Y)に変換する。
次に上記のように構成されるリライティング処理部114の動作について説明する。リライティング処理部114は、画像メモリ106に記録された輝度・色差信号(Y,B−Y,R−Y)を読み出し、入力とする。RGB信号変換部601は、入力された輝度・色差信号(Y,B−Y,R−Y)をRGB信号に変換し、デガンマ処理部602へ出力する。デガンマ処理部602は、画像処理部105のガンマ処理部で掛けられたガンマ特性と逆の特性の演算を行い、RGB信号をリニアデータに変換する。リニア変換後のRGB信号Rt,Gt,Btは、仮想光源付加処理部604へ入力される。仮想光源付加処理部604では、仮想光源によるリライティングの効果を入力画像に付加するための補正信号の生成と補正処理を行う。
デガンマ処理部602から出力されるリニア変換後のRGB信号Rt,Gt,Btと、システム制御部50で生成されるRL_mapを参照し、仮想光源を照射した場合の仮想光源の反射色成分(Rv,Gv,Bv)を、式(2)〜(4)を用いて算出する。
Rv(p)=RL_map(p)・f(Rt(p),β) …(2)
Gv(p)=RL_map(p)・f(Gt(p),β) …(3)
Bv(p)=RL_map(p)・f(Bt(p),β) …(4)
式(2)〜(4)において、それぞれf(Rt(p),β)、f(Gt(p),β)、f(Bt(p),β)は、被写体の反射色成分Rt(p)、Gt(p)、Bt(p)を、それぞれ仮想光源の拡散特性βに応じて平滑化したものである。
推定した仮想光源の反射色成分(Rv,Gv,Bv)は、デガンマ処理部602から出力されるリニアRGB信号にそれぞれ、式(5)〜(7)に示すように加算される。これにより、仮想光源によって照射された処理対象画素の出力RGB値(RL,GL,BL)が生成される。
RL(p)=Rt(p)+Rv(p) …(5)
GL(p)=Gt(p)+Gv(p) …(6)
BL(p)=Bt(p)+Bv(p) …(7)
ここで、仮想光源付加処理部604での仮想光源付加処理では、撮影時の画像から求めた、被写体の反射色成分Rt(p)、Gt(p)、Bt(p)に対して、仮想光源の配光特性に応じた、ゲイン調整を行うのみである。したがって、撮影時の画像信号に、強調すべき光沢成分が含まれていない場合には、仮想光源を照射しても、新たに光沢感を生成することはできない。
そのため、本実施形態の画像処理装置では、双方向反射率分布関数を参照し、リライティングにともなう被写体表面での光沢感の付加、および調整処理を行う。ここで、双方向反射率分布関数は、照明方向からの入射光の強さに対する観測方向への反射光の強さの比として定義され、被写体表面の材質の特性を反映した情報である。そして、同じ仮想光源の光を照射した場合でも、照射される被写体領域の材質によって、表面での反射、内部での散乱の特性が異なるため、再現される光沢感は異なる。例えば、人物被写体において、頭髪、鼻、頬、眼、唇等の部位ごとに、光を照射した場合の光沢感は異なる。
そこで、本実施形態の画像処理装置では、質感特性情報DB606に、あらかじめ複数種類の双方向反射率分布関数を保持しておく。そして、補正領域属性検出処理部605において、被写体の部分領域の属性を判別した上で、光沢成分生成処理部607で最適な双方向反射率分布関数を選択し、リライティングによって発生する光沢成分を生成する。そして、光沢成分合成処理部608において、リライティングされる被写体の部分領域に最適な光沢感の付加、および調整処理を行う。
次に、図6のフローチャートを参照して、着目画素に対して補正領域属性検出処理部605から光沢成分合成処理部608で行われる処理(光沢感補正処理)の流れについて説明する。
ステップS410では、システム制御部50で作成したRL_mapを参照し、着目画素が、仮想光源の照射範囲内か否かを判定する。着目画素におけるRL_mapの値が、所定の値以上の場合には、仮想光源の照射範囲内であるとみなしステップS411に進む。着目画素におけるRL_mapの値が所定の値よりも小さい場合には、その着目画素の処理を終了する。
ステップS411では、着目画素における、顔・器官検出部113の検出結果Fdetを参照し、着目画素が、顔なのか、髪なのか、顔内の特定の器官領域(鼻、眼、唇、頬)なのかを判別し、属性情報Sを生成する。Fdetの値と被写体の部分領域の属性とは、あらかじめ図7に示すように対応づけられているものとする。
ステップS412では、補正領域属性検出処理部605から出力される属性情報Sに基づいて、質感特性情報DB606の中から、着目画素の被写体領域に最適な質感特性情報を選択する。なお、質感特性情報DB606には、あらかじめ顔、髪、顔内の特定の器官領域(鼻、眼、唇、頬)に対応した、複数種類の質感特性情報が記憶されているものとする。質感特性情報は、例えば、双方向反射率分布関数で定義されるものとする。
ステップS413では、RL_map、質感特性情報に基づいて、着目画素における光沢成分を生成する。本実施形態では、p(x,y)を画素位置、ω’を画素位置pに入射する仮想光源の光の方向、ωを画素位置pから出射し、カメラに入力される光の方向としたときの、双方向反射率分布関数を、fr(p,ω’,ω)と定義する。また、着目画素位置におけるRL_mapの値を、着目画素における仮想光源の入射光のレベルLi(p,ω’)として参照する。さらに、システム制御部50により、着目画素位置における被写体の法線ベクトルnを参照し、これらを用いて式(7)の演算を行うことにより、着目画素位置における光沢感を示す反射成分Lo(p,ω)を生成する。
Lo(p,ω)=∫fr(p,ω’,ω)・Li(p,ω’)・(ω’・n)dω’
…(8)
ステップS414では、ステップS413で生成した反射成分を、仮想光源付加処理部604の出力信号RL(p),GL(p),BL(p)と合成することにより、リライティングにともなう被写体表面での光沢感の付加及び調整処理を行う。
R_out(p)=RL(p)+Lo(p,ω) …(9)
G_out(p)=GL(p)+Lo(p,ω) …(10)
B_out(p)=BL(p)+Lo(p,ω) …(11)
以上の処理により、撮影時の画像の特徴を解析し、仮想光源が照射される被写体の部分領域の属性に基づいた光沢成分を生成し、合成することができる。これにより、リライティングによって、明るさや、陰影を調整するのみならず、仮想光源を照射した場合に発生する光沢感を調整した、より良好な画像を得ることができる。
また、本実施形態では、質感特性を示す情報として、双方向反射率分布関数を用いたが、双方向散乱面反射率分布関数を用いてもよい。また、双方向反射率分布関数、双方向散乱面反射率分布関数に基づいて生成されたテクスチャ情報をあらかじめ保持しておいてもよい。また、入射光の波長によっても、被写体内部での散乱、被写体表面での反射の特性は異なるため、R,G,Bの信号ごとに質感特性データを定義してもよい。
(第2の実施形態)
次に、図8、図9を参照して、本発明の第2の実施形態に係るデジタルカメラについて説明する。第2の実施形態のデジタルカメラでは、第1の実施形態とは、リライティング処理部114における補正領域属性検出処理部705の動作が異なる。以下、第1の実施形態と異なる部分についてのみ説明する。
顔領域であっても、男性と女性、大人と子供、また人種によって、肌や顔器官内での光の散乱、反射の特性が異なる。そこで、第2の実施形態では、器官検出結果だけでなく、画像の周波数成分や色情報の解析結果を参照して、被写体の部分領域の属性をより詳細に分類する。そして、最適な質感特性情報を選択し、被写体領域の光沢成分を調整する。
図9のフローチャートを参照して、着目画素に対して補正領域属性検出処理部705から光沢成分合成処理部608で行われる処理の流れについて説明する。
ステップS410では、システム制御部50で算出されたRL_mapを参照し、着目画素が仮想光源の照射範囲内か否かを判定する。着目画素におけるRL_mapの値が所定の値以上である場合には、仮想光源の照射範囲内であるとみなし、ステップS411に進む。着目画素におけるRL_mapの値が所定の値よりも小さい場合には、着目画素での処理を終了する。
ステップS411では、着目画素に対する顔・器官検出部113の検出結果Fdetを参照する。ステップS812では、顔・器官検出結果Fdetに基づいて、着目画素が顔領域か否かを判定する。図7に示すように、顔・器官検出結果Fdetと被写体領域の属性とが対応づけられているので、Fdetの値が0以外の場合には、ステップS813に進み、Fdetの値が0の場合には、ステップS412に進む。
ステップS813では、デガンマ処理部602から出力される画像信号を参照し、着目画素における周波数成分と、色情報を算出する。そして、顔・器官検出部113の検出結果、周波数成分、色情報に基づいて、着目画素が顔なのか、髪なのか、顔内の特定の器官領域(鼻、眼、唇、頬)なのか、さらに人種、性別、年齢も推定し、属性情報Sを生成する。
ステップS412では、着目画素の属性に適した質感特性データを、質感特性情報DB606から選択する。例えば、性別により質感特性データを選択する場合、男性のほうが女性よりも鏡面反射成分を多く含むものを選択する。また、年齢により質感特性データを選択する場合、年齢が若いほど拡散反射成分を多く含むものを選択する。ステップS413、S414の動作は、第1の実施形態と同様である。
以上の処理により、第2の実施形態においても、撮影時の画像の特徴を解析して、仮想光源が照射される被写体の部分領域の属性に基づいた光沢成分を生成し、合成することができる。これにより、リライティングによって、明るさや陰影を調整するのみならず、仮想光源を照射した場合に発生する光沢感を調整した、より良好な画像を得ることができる。
(第3の実施形態)
次に、図10、図11を参照して、本発明の第3の実施形態に係るデジタルカメラについて説明する。第3の実施形態のデジタルカメラでは、第1、第2の実施形態とは、リライティング処理部114における光沢成分生成処理部807、光沢成分合成処理部808の動作が異なる。以下、第1、第2の実施形態と異なる部分についてのみ説明する。
第3の実施形態では、ユーザの指示に基づいて仕上がりの画質目標を設定し、被写体領域の属性およびユーザの指示に基づいた光沢感となるよう、光沢成分生成処理部807、光沢成分合成処理部808を制御する。
図10において、光沢成分生成処理部807は、補正領域属性検出処理部705の出力信号Sと質感特性情報DB606の質感特性データに加えて、システム制御部50から入力されるリライティングの仕上がり設定RL_tuneを参照し、光沢成分を生成する。リライティングの仕上がり設定RL_tuneは、リライティング時に付加する光沢感の度合いを調整するパラメータであり、操作部120を用いたユーザの指示に基づいて決定される。
図11のフローチャートを参照して、着目画素に対して補正領域属性検出処理部705から光沢成分合成処理部808で行われる処理の流れについて説明する。
ステップS410では、システム制御部50で算出されたRL_mapを参照し、着目画素が仮想光源の照射範囲内か否かを判定する。着目画素におけるRL_mapの値が所定の値以上である場合には、仮想光源の照射範囲内であるとみなし、ステップS411に進む。着目画素におけるRL_mapの値が所定の値よりも小さい場合には、着目画素での処理を終了する。
ステップS411では、着目画素に対する顔・器官検出部113の検出結果Fdetを参照する。ステップS812では、顔・器官検出結果Fdetに基づいて、着目画素が顔領域か否かを判定する。図7に示すように、Fdetと被写体領域の属性とが対応づけられているので、Fdetの値が0以外の場合には、ステップS813に進み、Fdetの値が0の場合には、ステップS412に進む。
ステップS813では、デガンマ処理部602から出力される画像信号を参照し、着目画素における周波数成分と、色情報を算出する。そして、顔・器官検出部113の検出結果、周波数成分、色情報に基づいて、着目画素が顔なのか、髪なのか、顔内の特定の器官領域(鼻、眼、唇、頬)なのか、さらに人種、性別、年齢も推定し、属性情報Sを生成し、ステップS1014に進む。
ステップS1014では、操作部120を用いたユーザの指示に基づいて、リライティングの仕上がり設定パラメータであるRL_tuneの値が、システム制御部50から光沢成分生成処理部807に送られる。
ステップS1015では、ステップS813で決定された着目画素における被写体領域の属性情報Sに基づいて、質感特性情報DB606から、質感特性データを選択する。例えば、性別により質感特性データを選択する場合、男性のほうが女性よりも鏡面反射成分を多く含むものを選択する。また、年齢により質感特性データを選択する場合、年齢が若いほど拡散反射成分を多く含むものを選択する。
さらに、ステップS1015では、ユーザの指示したRL_tuneの値に基づいて選択された質感特性データにおいて、拡散反射成分の特性を調整し、被写体領域の属性およびユーザの好みに適した光沢成分を生成する。例えば、RL_tuneの値が小さい場合には、拡散反射成分が大きくなるように質感特性データを調整して、ツヤを抑えた光沢成分を生成する。また、RL_tuneの値が大きい場合には、拡散反射成分が小さくなるように質感特性データを調整し、ツヤを強調するような光沢成分を生成する。ステップS413、S414の動作は、第1の実施形態と同様である。
以上の処理により、第3の実施形態においては、撮影時の画像の特徴を解析して、仮想光源が照射される被写体の部分領域の属性に基づいた光沢成分を生成し、合成することができる。さらにユーザの好みに応じて、光沢感を調整することができる。これにより、リライティングによって、明るさや陰影を調整するのみならず、仮想光源を照射した場合に発生する光沢感を調整した、より良好な画像を得ることができる。
なお、上記の第1乃至第3の実施形態では、着目画素における光沢成分を生成するように説明したが、あらかじめ複数の光沢成分画像を生成しておき、その中から、部分領域の属性に対応した光沢成分画像を選択して、部分領域の光沢感を補正するようにしてもよい。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
50:システム制御部、101:光学系、102:シャッター、103:撮像部、104:A/D変換器、105:画像処理部、106:画像メモリ、107:メモリ制御部、109:表示部、110:コーデック部、111:記録I/F、112:記録媒体、113:顔・器官検出部、114:リライティング処理部、120:操作部、121:不揮発性メモリ、122:システムメモリ

Claims (14)

  1. 撮影された画像に対して、仮想的な光源である仮想光源を設定する設定手段と、
    前記設定手段により設定された仮想光源を用いて前記被写体の部分領域の明るさを補正する明るさ補正手段と、
    前記部分領域の属性を検出する属性検出手段と、
    前記属性検出手段により検出された前記部分領域の属性に応じて、前記部分領域に与える光沢成分を生成する光沢成分生成手段と、
    前記光沢成分生成手段により生成された前記光沢成分を用いて、前記部分領域の光沢感を補正する光沢感補正手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記光沢感補正手段は、前記光沢成分を前記画像の信号に加算することにより、前記部分領域の光沢感を補正することを特徴とする請求項1に記載の画像処理装置。
  3. 前記属性検出手段は、前記被写体の表面での光の反射の特性、または前記被写体の内部での光の散乱の特性に基づいて、前記部分領域の属性を検出することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記光沢成分生成手段は、複数の質感特性データの中から、前記部分領域に対応した質感特性データを選択して、前記光沢成分を生成することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記質感特性データは、双方向反射率分布関数に基づいた特性データであることを特徴とする請求項4に記載の画像処理装置。
  6. 前記質感特性データは、双方向散乱面反射率分布関数に基づいた特性データであることを特徴とする請求項4に記載の画像処理装置。
  7. 前記光沢感補正手段は、あらかじめ生成された複数の光沢成分画像の中から、前記部分領域の属性に対応した光沢成分画像を選択して、前記部分領域の光沢感を補正することを特徴とする請求項1に記載の画像処理装置。
  8. 前記光沢成分生成手段は、ユーザが光沢感を指示する指示手段を備えることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 前記属性検出手段は、前記画像から被写体の顔を検出する顔検出手段を有することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  10. 前記顔検出手段は、さらに前記被写体の顔の特定の器官を検出することを特徴とする請求項9に記載の画像処理装置。
  11. 前記被写体の部分領域の反射特性を推定する推定手段をさらに備え、前記明るさ補正手段は、前記推定手段により推定された前記反射特性に応じて、前記被写体の部分領域の明るさを補正することを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。
  12. 撮影された画像に対して、仮想的な光源である仮想光源を設定する設定工程と、
    前記設定工程において設定された仮想光源を用いて前記被写体の部分領域の明るさを補正する明るさ補正工程と、
    前記部分領域の属性を検出する属性検出工程と、
    前記属性検出工程において検出された前記部分領域の属性に応じて、前記部分領域に与える光沢成分を生成する光沢成分生成工程と、
    前記光沢成分生成工程において生成された前記光沢成分を用いて、前記部分領域の光沢感を補正する光沢感補正工程と、
    を有することを特徴とする画像処理方法。
  13. 請求項12に記載の画像処理方法の各工程をコンピュータに実行させるためのプログラム。
  14. 請求項12に記載の画像処理方法の各工程をコンピュータに実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。
JP2015096920A 2015-05-11 2015-05-11 画像処理装置及び画像処理方法、プログラム、記憶媒体 Pending JP2016213718A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015096920A JP2016213718A (ja) 2015-05-11 2015-05-11 画像処理装置及び画像処理方法、プログラム、記憶媒体
US15/146,265 US10223770B2 (en) 2015-05-11 2016-05-04 Image processing apparatus, image processing method, and storage medium
US16/260,654 US10861136B2 (en) 2015-05-11 2019-01-29 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015096920A JP2016213718A (ja) 2015-05-11 2015-05-11 画像処理装置及び画像処理方法、プログラム、記憶媒体

Publications (1)

Publication Number Publication Date
JP2016213718A true JP2016213718A (ja) 2016-12-15

Family

ID=57276186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015096920A Pending JP2016213718A (ja) 2015-05-11 2015-05-11 画像処理装置及び画像処理方法、プログラム、記憶媒体

Country Status (2)

Country Link
US (2) US10223770B2 (ja)
JP (1) JP2016213718A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019083008A (ja) * 2017-10-31 2019-05-30 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2020004007A (ja) * 2018-06-27 2020-01-09 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US11265524B2 (en) 2019-10-23 2022-03-01 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
WO2023120525A1 (ja) * 2021-12-21 2023-06-29 花王株式会社 印象変更支援方法
US11836900B2 (en) 2019-11-06 2023-12-05 Canon Kabushiki Kaisha Image processing apparatus
JP7408353B2 (ja) 2019-11-06 2024-01-05 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016213718A (ja) * 2015-05-11 2016-12-15 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、記憶媒体
CN111492374A (zh) 2017-10-24 2020-08-04 耐克创新有限合伙公司 图像识别***
CN110796617B (zh) * 2019-10-24 2022-09-02 北京小米智能科技有限公司 面部图像的增强方法及装置、电子设备
US11700458B2 (en) * 2021-08-06 2023-07-11 Ford Global Technologies, Llc White balance and color correction for interior vehicle camera

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010135996A (ja) * 2008-12-03 2010-06-17 Olympus Imaging Corp 撮像装置、ライティング処理装置、ライティング処理方法およびライティング処理用プログラム
WO2010087164A1 (ja) * 2009-01-29 2010-08-05 日本電気株式会社 カラー画像処理方法、カラー画像処理装置および記録媒体

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0727581B2 (ja) * 1988-09-09 1995-03-29 インターナショナル・ビジネス・マシーンズ・コーポレーション 図形処理装置
JPH10135996A (ja) * 1996-10-31 1998-05-22 Hitachi Cable Ltd トークンパッシングバス型lanの勧誘制御方式
JP3964646B2 (ja) * 2001-10-25 2007-08-22 富士フイルム株式会社 画像処理方法、画像処理装置、および画像信号作成方法
JP3626144B2 (ja) * 2002-03-01 2005-03-02 株式会社セルシス 立体オブジェクトデータからの漫画的表現の2次元画像の生成方法および生成プログラム
WO2004051186A1 (de) * 2002-11-29 2004-06-17 OBE OHNMACHT & BAUMGäRTNER GMBH & CO. KG Verfahren und vorrichtung zur optischen formvermessung und/oder beurteilung
JP2009147754A (ja) * 2007-12-14 2009-07-02 Canon Inc 画像処理装置およびその方法
JP5033049B2 (ja) 2008-04-30 2012-09-26 キヤノン株式会社 画像処理方法および画像処理装置
JP5202150B2 (ja) * 2008-07-16 2013-06-05 キヤノン株式会社 画像処理装置およびその方法
JP5158202B2 (ja) * 2008-08-19 2013-03-06 富士通株式会社 画像補正装置および画像補正方法
US8457389B2 (en) 2008-09-03 2013-06-04 Nec Corporation Image processing device, image processing method and image processing program
JP2010130405A (ja) * 2008-11-28 2010-06-10 Seiko Epson Corp 印刷制御装置及びそれを備える印刷制御システム
IL196161A (en) * 2008-12-24 2015-03-31 Rafael Advanced Defense Sys Download shadows from images within a video signal
JP5517685B2 (ja) * 2009-04-14 2014-06-11 キヤノン株式会社 画像処理装置および方法
JP5235805B2 (ja) * 2009-07-13 2013-07-10 キヤノン株式会社 色処理方法、色処理装置及びプログラム
EP2512124B1 (en) * 2009-12-08 2016-07-06 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus
JP5635810B2 (ja) * 2010-05-27 2014-12-03 キヤノン株式会社 画像処理装置およびその方法
JP5606193B2 (ja) * 2010-07-14 2014-10-15 キヤノン株式会社 画像形成装置
JP5591017B2 (ja) * 2010-08-09 2014-09-17 キヤノン株式会社 画像処理装置および画像処理方法
JP5874572B2 (ja) * 2011-09-16 2016-03-02 株式会社リコー 画像処理装置、画像形成システム、及び画像処理プログラム
CA2802605A1 (en) * 2012-01-17 2013-07-17 Pacific Data Images Llc Ishair: importance sampling for hair scattering
US9483815B2 (en) * 2013-10-23 2016-11-01 Cornell University Systems and methods for computational lighting
JP2015184952A (ja) * 2014-03-25 2015-10-22 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
US10281264B2 (en) * 2014-12-01 2019-05-07 Canon Kabushiki Kaisha Three-dimensional measurement apparatus and control method for the same
JP2016213718A (ja) * 2015-05-11 2016-12-15 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、記憶媒体
JP6685827B2 (ja) * 2016-05-09 2020-04-22 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010135996A (ja) * 2008-12-03 2010-06-17 Olympus Imaging Corp 撮像装置、ライティング処理装置、ライティング処理方法およびライティング処理用プログラム
WO2010087164A1 (ja) * 2009-01-29 2010-08-05 日本電気株式会社 カラー画像処理方法、カラー画像処理装置および記録媒体

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019083008A (ja) * 2017-10-31 2019-05-30 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP7169841B2 (ja) 2017-10-31 2022-11-11 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2020004007A (ja) * 2018-06-27 2020-01-09 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7199849B2 (ja) 2018-06-27 2023-01-06 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US11265524B2 (en) 2019-10-23 2022-03-01 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
US11836900B2 (en) 2019-11-06 2023-12-05 Canon Kabushiki Kaisha Image processing apparatus
JP7408353B2 (ja) 2019-11-06 2024-01-05 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
WO2023120525A1 (ja) * 2021-12-21 2023-06-29 花王株式会社 印象変更支援方法

Also Published As

Publication number Publication date
US20160335745A1 (en) 2016-11-17
US10223770B2 (en) 2019-03-05
US10861136B2 (en) 2020-12-08
US20190156461A1 (en) 2019-05-23

Similar Documents

Publication Publication Date Title
US10861136B2 (en) Image processing apparatus, image processing method, and storage medium
US10397486B2 (en) Image capture apparatus and method executed by image capture apparatus
JP6700840B2 (ja) 画像処理装置、撮像装置、制御方法及びプログラム
JP6423625B2 (ja) 画像処理装置および画像処理方法
KR20130031574A (ko) 영상 처리 방법 및 영상 처리 장치
JP6463177B2 (ja) 画像処理装置およびその制御方法
JP5052263B2 (ja) 画像処理装置および画像処理方法
JP6412386B2 (ja) 画像処理装置およびその制御方法、プログラムならびに記録媒体
JP2018006912A (ja) 撮像装置、画像処理装置及びそれらの制御方法、プログラム
JP7129520B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2017112462A (ja) 撮像装置及びその制御方法、プログラム並びに記憶媒体
JP5316070B2 (ja) 撮像装置
JP7292905B2 (ja) 画像処理装置及び画像処理方法、及び撮像装置
JP6718253B2 (ja) 画像処理装置及び画像処理方法
JP2017147568A (ja) 画像処理装置、撮像装置、制御方法及びプログラム
JP7199849B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2018050149A (ja) 画像処理装置
JP2014098859A (ja) 撮像装置および撮像方法
JP6300514B2 (ja) 撮像装置、および撮像装置の制御方法
JP6701299B2 (ja) 画像処理装置および画像処理方法
JP7462464B2 (ja) 画像処理装置および方法、プログラム、記憶媒体
JP7102192B2 (ja) 画像処理装置、その制御方法、プログラム
JP6663246B2 (ja) 画像処理装置、撮像装置およびこれらの制御方法ならびにプログラム
JP6703787B2 (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP2021175036A (ja) 画像処理装置及び方法、プログラム、記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190403

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190927