JP2016086246A - 画像処理装置及び方法、及び撮像装置 - Google Patents

画像処理装置及び方法、及び撮像装置 Download PDF

Info

Publication number
JP2016086246A
JP2016086246A JP2014216631A JP2014216631A JP2016086246A JP 2016086246 A JP2016086246 A JP 2016086246A JP 2014216631 A JP2014216631 A JP 2014216631A JP 2014216631 A JP2014216631 A JP 2014216631A JP 2016086246 A JP2016086246 A JP 2016086246A
Authority
JP
Japan
Prior art keywords
subject
image
light source
virtual light
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014216631A
Other languages
English (en)
Other versions
JP2016086246A5 (ja
JP6381404B2 (ja
Inventor
光太郎 北島
Kotaro Kitajima
光太郎 北島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014216631A priority Critical patent/JP6381404B2/ja
Priority to US14/887,884 priority patent/US9699386B2/en
Publication of JP2016086246A publication Critical patent/JP2016086246A/ja
Priority to US15/609,126 priority patent/US9813634B2/en
Publication of JP2016086246A5 publication Critical patent/JP2016086246A5/ja
Application granted granted Critical
Publication of JP6381404B2 publication Critical patent/JP6381404B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Stroboscope Apparatuses (AREA)
  • Image Processing (AREA)

Abstract

【課題】 フラッシュ等の照明装置による照明により被写体の陰影が失われた画像から、良好な陰影のある画像を得ること。
【解決手段】 照明装置を発光させて被写体を撮影した第1の画像と、前記被写体における複数の位置までの距離情報とを取得する取得手段(103、124)と、仮想的な光を照射する仮想光源の位置を決定する決定手段(50)と、前記距離情報に基づいて前記被写体の形状情報を求め、求めた前記被写体の形状情報、前記距離情報、及び前記被写体に対する前記仮想光源の位置に基づいて、前記第1の画像を処理して、前記仮想光源により前記被写体に光を照射した画像を生成する処理手段(50、114)とを有する。
【選択図】 図1

Description

本発明は、画像処理装置及び方法、及び撮像装置に関し、特に入力された画像の明るさを補正する技術に関するものである。
被写体を撮影する際に、被写体の明るさが不十分である場合、撮影した画像が暗くなることがある。暗い部分の明るさを補うためゲインをかけると、ノイズによって画質が劣化し、高品位な画像を取得することは難しい。明るさを補い、ノイズ感の少ない画像を取得するためには、従来から、例えばフラッシュなどの照明装置を利用して十分な光量を確保したうえで撮影する方法がある。しかし、フラッシュなどの照明装置を発光させて撮影を行うと、被写体の陰影が消失してしまうことにより、被写体の立体感が損なわれた平坦な画像となってしまう場合がある。
例えば、特許文献1では、被写体の立体感を損なわずに画像を取得する方法として、フラッシュなどの光源手段を複数備え、フラッシュの照射位置などの照射条件を複数設定して撮影を行い、該撮影された複数の画像の中から陰影のある画像を選択する方法が提案されている。
特開2005−167376号公報
しかしながら、特許文献1の方法では、複数の光源手段によって何度も照射条件を変更しながら撮影する必要があり、また、フラッシュを用いて撮影することで陰影を失った画像に関しては、陰影を付加することができないという課題がある。
本発明は上記問題点を鑑みてなされたものであり、フラッシュ等の照明装置による照明により被写体の陰影が失われた画像から、良好な陰影のある画像を得ることを目的とする。
上記目的を達成するために、本発明の画像処理装置は、照明装置を発光させて被写体を撮影した第1の画像と、前記被写体における複数の位置までの距離情報とを取得する取得手段と、仮想的な光を照射する仮想光源の位置を決定する決定手段と、前記距離情報に基づいて前記被写体の形状情報を求め、求めた前記被写体の形状情報、前記距離情報、及び前記被写体に対する前記仮想光源の位置に基づいて、前記第1の画像を処理して、前記仮想光源により前記被写体に光を照射した画像を生成する処理手段とを有する。
本発明によれば、フラッシュ等の照明装置による照明により被写体の陰影が失われた画像から、良好な陰影のある画像を得ることが可能となる。
本発明の実施形態におけるデジタルカメラの構成を示すブロック図。 実施形態における画像処理部の構成を示すブロック図。 実施形態における仮想光源のパラメータを決定する処理を示すフローチャート。 実施形態における環境光の状態例を示す模式図。 実施形態における仮想光源を設定する位置の例を示す模式図。 第1の実施形態におけるリライティング処理部の構成を示すブロック図。 実施形態における仮想光源からの仮想的な光の反射を説明する模式図。 第1の実施形態における仮想光源から仮想的な光による陰影付加の一例を示す図。 第2の実施形態におけるリライティング処理部の構成を示すブロック図。 第2の実施形態における仮想光源からの仮想的な光による陰影付加の一例を示す図。
以下、添付図面を参照して本発明を実施するための形態を詳細に説明する。なお、本実施形態では、画像処理装置として、本発明をデジタルカメラに適用した例について説明する。
<第1の実施形態>
以下、図1〜7を参照して本発明の第1の実施形態について説明する。図1は、第1の実施形態におけるデジタルカメラ100の構成例を示すブロック図である。
図1に示すデジタルカメラ100において、ズームレンズ、フォーカスレンズを含むレンズ群101(撮像光学系)、及び、絞り機能を備えるシャッター102を介して入射した光は、撮像部103において光電変換される。撮像部103は、CCDやCMOS素子などで構成され、光電変換により得られた電気信号は、画像信号としてA/D変換器104へ出力される。A/D変換器104は、撮像部103から出力されるアナログ画像信号をデジタル画像信号(画像データ)に変換し、画像処理部105に出力する。
画像処理部105は、A/D変換器104からの画像データ、または、メモリ制御部107を介して画像メモリ106から読み出された画像データに対し、ホワイトバランスなどの色変換処理、γ処理、輪郭強調処理、色補正処理などの各種画像処理を行う。画像処理部105から出力された画像データは、メモリ制御部107を介して画像メモリ106に書き込まれる。画像メモリ106は、画像処理部105から出力された画像データや、表示部109に表示するための画像データを格納する。
顔検出部113は、撮影された画像から人物の顔が存在する顔領域を検出する。画像処理部105では、顔検出部113の顔検出結果や、撮像した画像データを用いて所定の評価値算出処理を行い、得られた評価値に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理などを行う。
また、D/A変換器108は、画像メモリ106に格納されている表示用のデジタルの画像データをアナログ信号に変換して表示部109に供給する。表示部109は、LCD等の表示器上に、D/A変換器108からのアナログ信号に応じた表示を行う。
コーデック部110は、画像メモリ106に格納された画像データをJPEG、MPEGなどの規格に基いてそれぞれ圧縮符号化する。システム制御部50は符号化した画像データを、インタフェース(I/F)111を介して、メモリカードやハードディスク等の記録媒体112に格納する。
また、I/F111を介して記録媒体112から読み出された画像データをコーデック部110により復号して伸長し、画像メモリ106に格納する。そして、画像メモリ106に格納された画像データを、メモリ制御部107、D/A変換器108を介して表示部109に表示することで、画像を再生表示することができる。
リライティング処理部114は、撮影された画像にリライティング処理(再照明処理)を行う。なお、リライティング処理部114により行われるリライティング処理については、詳細に後述する。
システム制御部50はデジタルカメラ100のシステム全体を制御する。不揮発性メモリ121は、EEPROMなどのメモリにより構成され、システム制御部50の処理に必要なプログラムやパラメータなどを格納する。システムメモリ122はシステム制御部50の動作用の定数、変数、不揮発性メモリ121から読みだしたプログラム等を展開するために用いられる。
操作部120は、ユーザによる操作を受け付ける。フラッシュ123は照明装置であり、測距センサ124は被写体までの距離を測定する。
図2は、画像処理部105の構成を示すブロック図である。以下、図2を参照して、画像処理部105における処理について説明する。なお、本実施形態では、撮像部103はベイヤー配列のカラーフィルタにより覆われているものとする。従って、撮像部103の各画素からはR、G、Bいずれかの画像信号が出力される。
図1のA/D変換器104から画像処理部105に入力された画像信号は、まず、図2の同時化処理部200に入力される。同時化処理部200は、入力されたR、G、Bの画像信号に対して同時化処理を行い、各画素について色信号RGBを生成する。WB増幅部201は、公知の処理によりシステム制御部50が算出するホワイトバランスゲイン値に基づき、生成された各画素の色信号RGBにゲインをかけ、ホワイトバランスを調整する。WB増幅部201によりホワイトバランスが調整された色信号RGBは、輝度・色信号生成部202に入力される。輝度・色信号生成部202は色信号RGBから輝度信号Yを生成し、生成した輝度信号Yを輪郭強調処理部203へ、また、色信号RGBを色変換処理部205へ出力する。
輪郭強調処理部203では、輝度信号Yに対して輪郭強調処理を行い、輝度ガンマ処理部204へ出力する。輝度ガンマ処理部204では輝度信号Yに対してガンマ補正を行い、メモリ制御部107を介して輝度信号Yを画像メモリ106に出力する。
一方、色変換処理部205は、色信号RGBに、例えば、マトリクス演算を行って、所望のカラーバランスへ変換する。色ガンマ処理部206では、色信号RGBにガンマ補正を行う。色差信号生成部207では、RGB信号から色差信号R−Y、B−Yを生成する。
このようにして生成された輝度信号Y及び色差信号R−Y、B−Y(画像データ)は、画像メモリ106に一旦記憶され、コーデック部110によって圧縮符号化され、記録媒体112に記録する。
また、色変換処理部205により処理された色信号RGBは、環境光源情報抽出部208へも入力される。環境光源情報抽出部208は、実際の環境光源の状態を推定するための情報を取得する。本実施形態における環境光源の状態とは、カメラ100に対する光源の方向であり、光源の方向を推定するための輝度分布情報を環境光源情報として出力する。そして、出力された環境光源情報をシステムメモリ122に記憶する。なお、フラッシュ123を発光して撮影を行う際には、フラッシュ123の発光前の画像を取得し、取得した画像の輝度分布情報を環境光情報として出力する。環境光源情報の推定方法に関しては後述する。
次に、画像処理部105から出力された画像データ(輝度信号Y及び色差信号R−Y、B−Y)に対して、リライティング処理部114で行うリライティング処理について説明する。なお、システム制御部50は、リライティング処理部114における処理に先立って、リライティング処理部114に設定する制御パラメータを計算し、リライティング処理部114へパラメータを設定する。
図3は、リライティング処理時のシステム制御部50による処理を示すフローチャートである。以下、図3のフローチャートに従って、リライティング処理時のシステム制御部50の仮想光源パラメータ決定動作について説明する。
S301では、操作部120に対するユーザからの操作によってリライティング処理が選択されているか判定する。リライティング処理を行うモードの場合はS302に進み、リライティング処理を行わない場合は処理を終了する。
S302では、処理対象の画像が、フラッシュ123が発光されて撮影されたか否かを判定する。フラッシュ撮影された画像(第1の画像)である場合はS303に進み、フラッシュ撮影された画像でない場合は処理を終了する。S303では、フラッシュ123の発光前に取得した画像に基づいて、環境光源情報抽出部208により取得した環境光源情報から、環境光源の方向を推定する。この処理について、図4を用いて具体的に説明する。
まず、画像が逆光シーンであるかどうか判定する。この逆光シーンの判定は、公知の技術を用いて行うことができる。例えば、撮影時の露出情報及び撮影画像の輝度情報を利用して、露出情報から算出した照度が所定の閾値よりも高く、画面上部の輝度が高く画面中央部の輝度が低いシーンを逆光シーンであると判定する。逆光シーンと判断した例を図4(a)、逆光シーンでないと判断した例を図4(b)に示す。
また、逆光でないと判断した場合は、さらに詳細な環境光源の方向を推定する。本実施形態では、環境光源の方向は、フラッシュ123の発光前に取得した画像における主被写体への陰影のつき方から判断する。図4(b)を用いて、具体的な例を説明すると、主被写体が人物であった場合、その顔領域401中から肌色部分の平均輝度を取得する。402は、顔の肌色領域の水平方向の輝度分布を示している。水平方向の平均輝度分布に基づき、顔の左右のどちらの輝度が高いか、即ち、顔の左右のどちらが明るいかを判定する。図4(b)の例では左側の方が明るい分布をしている。そのため、環境光源は人物に向かって左側に位置していると推定する。同様に403は顔の肌色領域の垂直方向の輝度分布を示している。垂直方向の輝度分布に基づき、顔の上下でどちらの輝度が高いか、即ち、顔の上下のどちらが明るいかを判定する。図4(b)の例では、上下方向で大きな差はないため、光源の高さが顔の中心の高さ付近であると推定する。
図3に戻り、S304では、S303で環境光源の方向を推定した結果、逆光であるかを判断する。逆光と判断した場合はS305に進み、逆光でないと判断した場合はS306に進む。
S305では、主被写体(本実施形態では人物)の向き及び画像中の位置に基づき、仮想光源の位置を決定する。この方法について図5を用いて説明する。図5(a)はフラッシュ非発光時の被写体と、カメラ100及びフラッシュ123の位置関係を示している。カメラ100とフラッシュ123の位置関係は固定されており、被写体に対するフラッシュの方向が特定できる。S305では、フラッシュ123の照射位置とは異なる位置に仮想光源を配置する。具体的には、主被写体の顔の向きによって位置を決定する。例えば、図5(a)に示すように顔が向かって左側を向いている場合、顔の左側面の面積が大きく撮影される。そこで、主被写体に向かって右側の位置501に仮想光源を配置する。
顔が正面を向いている場合は、主被写体の画像中の位置によって、仮想光源の位置を決定する。例えば、図5(b)に示すように、向かって右側に主被写体がいる場合は、主被写体に対して左側から照射する位置502に仮想光源を配置する。
図3に戻り、逆光ではないと判断した場合、S306において、環境光源による光の照射方向と仮想光源による光の照射方向がおおよそ近くなるように仮想光源の位置を決定する。例えば、図5(c)の例ではS303で判定した通り、主被写体に対して、向かって左から環境光源が照射されていると判断しているので、仮想光源の位置も左側から照射する位置503に決定する。
S307では、仮想光源の色味を環境光の色味と同じになるように設定する。この制御に関しては後述する。S308では、仮想光源の配光特性をフラッシュ光よりも広くなるような特性に設定する。環境光により近い拡散した光を仮想光源の配光特性とすることで、より自然な画像を得ることが可能となる。以上の処理により、リライティング処理時の仮想光源パラメータを決定する。
次にリライティング処理部114の構成及び動作について説明する。図6はリライティング処理部114の構成を示すブロック図である。以下、図6を参照して、リライティング処理部114の動作について説明する。
リライティング処理部114は、画像処理部105により処理されて画像メモリ106に記録された輝度信号Y及び色差信号B−Y、R−Yを読み出し、入力とする。RGB信号変換部601は、入力された輝度信号Y及び色差信号B−Y、R−YをRGB信号に変換し、デガンマ処理部602へ出力する。
デガンマ処理部602は、画像処理部105の輝度ガンマ処理部204及び色ガンマ処理部206にけるガンマ補正のガンマ特性と逆の特性の演算(デガンマ処理)を行い、リニアデータに変換する。デガンマ処理部602は、リニアデータに変換後のRGB信号(Rt、Gt、Bt)を、仮想光源反射成分算出部604及び仮想光源付加処理部605に出力する。
一方、法線算出部603は測距センサ124から取得した被写体の距離情報から、被写体の形状を表す形状情報として法線マップを算出する。被写体の距離情報から法線マップを生成する方法に関しては、公知の技術を用いるものとする。その一例について、図7を用いて説明する。図7はカメラ撮影座標と、被写体の関係を示す図である。例えば、図7に示すようにある被写体701に対して、撮影画像の水平方向の差分ΔHに対する、距離Dの差分ΔDHと、不図示ではあるが、垂直方向の差分ΔVに対する距離Dの差分ΔDVとから、被写体の一部分における勾配情報を算出する。そして、求めた被写体の一部分における勾配情報から法線を算出する。なお、図7においては、撮影画像の垂直方向は紙面に対して垂直な方向である。この算出方法により、撮影画像の各画素に対応する法線Nを算出することが可能である。法線算出部603は、撮影画像の各画素に対応する被写体の複数の部分の法線Nを法線マップとして仮想光源反射成分算出部604に出力する。
仮想光源反射成分算出部604では、光源と被写体の距離K、法線N、仮想光源パラメータ(図3に示す処理で算出したもの)に基づき、設定した仮想光源から仮想的に照射された光のうち、被写体により反射される成分を算出する。具体的には、仮想光源と各画素に対応する被写体の部分との距離Kの二乗に反比例し、法線Nと光源方向Lとの内積に比例するように、撮影画像の座標位置に対応する被写体の部分における反射成分を算出する。
ここで、反射成分の算出方法について、図7を用いて説明する。図7において、702は、被写体701に対して設定した仮想光源の位置を示している。カメラ100で撮影された撮影画像における画素位置(H1,V1)に対応する被写体701の部分における仮想的な光の反射成分は、その部分の法線N1と仮想光源の方向ベクトルL1との内積に比例し、仮想光源と被写***置の距離K1に反比例する値となる。この関係を数式で表現すると仮想光源による被写体反射成分(Ra、Ga、Ba)は下記の式(1)に示す通りとなる。
Ra=α×(−L・N)/K2×Rw×Rt
Ga=α×(−L・N)/K2 ×Gt …(1)
Ba=α×(−L・N)/K2×Bw×Bt
ここで、αは仮想光源の光の強度、Lは仮想光源の3次元方向ベクトル、Nは被写体の3次元法線ベクトル、Kは仮想光源と被写体の距離である。また、Rt、Gt、Btはデガンマ処理部602から出力されたRGBデータ、Rw、Bwは光源の色を制御するパラメータである。本実施形態では、図3を参照して説明した通り、仮想光源の色を環境光源の色に合わせるパラメータを設定する。Rw、Bwは非発光でのRGB値と、発光後のRGB値の比率から次の式(2)に示すように算出する。
Rw=(R非発光/G非発光)/(Rt/Gt)
Bw=(B非発光/G非発光)/(Bt/Gt) …(2)
上述のようにして算出した仮想光源からの仮想的な光の反射成分(Ra、Ga、Ba)は、仮想光源付加処理部605へ出力される。仮想光源付加処理部605では、フラッシュが照射された被写体領域に対して、式(3)に示す処理を行う。
Rout=Rt/S+Ra
Gout=Gt/S+Ga …(3)
Bout=Bt/S+Ba
ここで、1/Sはフラッシュが照射された部分の明るさを落とすゲインである。即ち、フラッシュの影響を受けた領域に関して、一旦、予め決められた割合で明るさを低減するゲインをかけた後、仮想光源によるリライティング処理を行うことで、陰影を付けている。
この処理の様子を図8に示す。図8(a)はフラッシュ123を発光せずに(R非発光、G非発光、B非発光)撮影した画像を示している。図8(b)はフラッシュ撮影した画像(Rt、Gt、Bt)を示している。フラッシュ123の発光前後の画像を比較して、明るさが大きく変化している領域を特定し、その領域のみ明るさを落とす処理を行う。図8(c)はフラッシュの影響を受けた被写体領域の明るさを落とした画像(Rt/S、Gt/S、Bt/S)を示している。図8(d)は仮想光源によるリライティング処理を行った画像(Rout、Gout、Bout)を示している。
図6に戻り、仮想光源付加処理部605によりリライティング処理された画像信号(Rout、Gout、Bout)はガンマ処理部606に入力される。ガンマ処理部606では、入力されたRGB信号にガンマ補正を行う。輝度・色差信号変換部607では、RGB信号から輝度信号Y及び色差信号R−Y、B−Yを生成する。
システム制御部50は、リライティング処理部114が出力した輝度信号Y及び色差信号R−Y、B−Yを、メモリ制御部107の制御によって、画像メモリ106に蓄積した後、コーデック部110で圧縮符号化を行う。そして、I/F111を介して記録媒体112に記録する。
上記の通り第1の実施形態によれば、フラッシュ撮影された画像に対して、フラッシュとは異なる方向から光を照射する位置に仮想光源を設定し、被写体の形状に応じた、仮想光源からの仮想的な光の反射成分に基づいてリライティング処理を行う。これにより、陰影のある立体感のある画像を生成することが可能となる。
<第2の実施形態>
以下、図9及び図10を参照して、本発明の第2の実施形態について説明する。第1の実施形態では、仮想光源を設定し、仮想光源からの仮想的な光の反射成分を算出して元の画像に付加していたが、第2の実施形態では、仮想光源によって生じる陰影成分を算出し、陰影を付加する処理を行う。
なお、第2の実施形態における、デジタルカメラの全体構成及び仮想光源の位置の算出処理は、第1の実施形態において図3〜図5を参照して説明したものと同様であるため、説明を省略する。ただし、第2の実施形態のリライティング処理部114の内部構成が、図6を参照して上述した第1の実施形態における構成と異なる。
図9は、第2の実施形態におけるリライティング処理部114の内部構成を示すブロック図である。なお、図6と同様の構成には同じ参照番号を付して説明を省略する。図9のリライティング処理部114は、図6の仮想光源反射成分算出部604と仮想光源付加処理部605の代わりに、仮想光源陰影成分算出部901及び仮想光源陰影付加処理部902を備える。
仮想光源陰影成分算出部901では、光源と被写体の距離R、法線N、仮想光源パラメータ(図3に示す処理で算出したもの)に基づき、設定した仮想光源からの仮想的な光が被写体に照射されたときに生じる陰影成分を算出する。具体的には、被写体法線Nと光源の方向Lの内積が小さいほどより多くの陰影を付加するように、撮影画像に対応する座標位置の反射成分を算出する。
上記算出方法について、図7を用いて説明する。カメラ100で撮影された撮影画像における画素位置(H1,V1)における反射成分は、画素位置(H1,V1)における法線N1と仮想光源の方向ベクトルL1の内積に比例し、仮想光源と被写***置の距離K1に反比例する値となる。この関係を数式で表現すると仮想光源による陰影成分(Rs、Gs、Bs)は下記の式(4)に示す通りとなる。
Rs=α×(1−(−L・N))/K2×Rc×Rt
Gs=α×(1−(−L・N))/K2×Gc×Gt …(4)
Bs=α×(1−(−L・N))/K2×Bc×Bt
ここで、αは仮想光源の光の強度、Lは仮想光源の3次元方向ベクトル、Nは被写体の3次元法線ベクトル、Kは仮想光源と被写体の距離である。また、Rt、Gt、Btはデガンマ処理部602から出力されたRGBデータ、Rc、Gc、Bcは被写体色の補色である。第2の実施形態では、被写体が人物である場合を想定しているため、Rc、Gc、Bcとして、被写体の顔領域の色の平均値をデガンマ後の画像データ(Rt、Gt、Bt)から算出する。
上記のように仮想光源陰影成分算出部901で算出した仮想光源による陰影成分(Rs、Gs、Bs)は、仮想光源陰影付加処理部902へ出力される。仮想光源陰影付加処理部902では、被写体の距離が所定の距離よりも近い被写体に対して、式(5)に示す処理を行う。
Rout=Rt−Rs
Gout=Gt−Gs …(5)
Bout=Bt−Bs
この制御結果の様子を図10に示す。図10(a)はフラッシュ123を発光せずに撮影した画像を示している。図10(b)はフラッシュ撮影した画像(Rt、Gt、Bt)を示している。図10(c)は仮想光源によって生じる陰影を付加した画像(Rout、Gout、Bout)を示している。
図9に戻り、仮想光源陰影付加処理部902から出力された画像信号(Rout、Gout、Bout)に対して、ガンマ処理部606、及び、輝度・色差信号変換部607により処理する。そして処理の結果として、第1の実施形態と同様に、輝度信号Y、色差信号R−Y、B−Yを出力する。
上記の通り第2の実施形態によれば、フラッシュ撮影された画像に対して、フラッシュとは異なる方向から光を照射する位置に仮想光源を設定し、仮想光源によって生じる陰影成分を撮影画像に付加する処理を行う。これにより、陰影のある立体感のある画像を生成することが可能となる。
なお、第2の実施形態では、仮想光源を設定し、設定された仮想光源により生じる陰影成分を算出していた。しかしながら、本発明はこれに限るものではなく、事前にフラッシュの方向とは異なる方向から人物に照射したときに生じる陰影のテンプレートを備えておき、その陰影テンプレートを選択して、陰影成分を付加する構成をとってもよい。
また、上述した実施形態では、環境光の方向に基づき仮想光源の位置を決定したが、仮想光源の決め方はこれに限定されるものではなく、フラッシュ光と異なる方向からの光を当てる方法であれば、どのような形態をとってもかまわない。例えば、被写体に対して水平、垂直ともに45度の位置から仮想光源を照射するなどの構成をとることも可能である。
また、上述した実施形態では、仮想光源の配光特性をフラッシュよりも広くする例について述べたが、仮想光源の配光特性をこれに限定するものではなく、フラッシュと配光特性が異なっていればどのような特性であっても構わない。例えば、環境光源の光の配光特性を検出し、それに合わせるような特性をとってもよい。具体的には、撮影シーンが屋内であるか屋外であるかを判定し、屋外の場合には、仮想光源を平行光源として設定し、屋内の場合には、仮想光源としてスポット光源や、点光源を設定する。これにより、より自然な雰囲気で陰影のついた画像を得ることが可能となる。
<他の実施形態>
なお、本発明は、複数の機器(例えばホストコンピュータ、インターフェイス機器、スキャナ、ビデオカメラなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置など)に適用してもよい。
また、上述したリライティング処理は、フラッシュ撮影した画像と、その前または後にフラッシュを発光させずに撮影した画像と、距離情報とを関連づけて記録媒体に記録しておくことで、撮影手段を有さない画像処理装置においてリライティング処理を実行することが可能である。
また、上述した例では、測距センサにより距離情報を取得するものとしたが、本発明はこれに限られるものではない。例えば、撮像部103の各画素を、レンズ群101の異なる瞳領域を通過した光を受光するように、複数の光電変換部により構成し、各光電変換部から得られる画像信号による一対の画像の視差に基づいて、距離情報を求めるようにしてもよい。その場合、距離情報として、各光電変換部からそれぞれ得られた画像信号を取得可能に記録しておくことにより、画像処理装置においてもリライティング処理を実行することが可能となる。
また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
50:システム制御部、101:レンズ群、103:撮像部、105:画像処理部、106:メモリ制御部、106:画像メモリ、123:フラッシュ、124:測距センサ、603:法線算出部、604:仮想光源反射成分算出部、605:仮想光源付加処理部

Claims (15)

  1. 照明装置を発光させて被写体を撮影した第1の画像と、前記被写体における複数の位置までの距離情報とを取得する取得手段と、
    仮想的な光を照射する仮想光源の位置を決定する決定手段と、
    前記距離情報に基づいて前記被写体の形状情報を求め、求めた前記被写体の形状情報、前記距離情報、及び前記被写体に対する前記仮想光源の位置に基づいて、前記第1の画像を処理して、前記仮想光源により前記被写体に光を照射した画像を生成する処理手段と
    を有することを特徴とする画像処理装置。
  2. 前記決定手段は、前記仮想光源の位置を、前記照明装置の位置と異なる位置に設定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記決定手段は、前記第1の画像が逆光で撮影された画像であるかどうかを判断し、逆光で撮影された画像である場合に、前記仮想光源の位置を、予め決められた位置に設定することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記決定手段は、前記被写体の向き、または、前記第1の画像における前記被写体の位置に基づいて、前記仮想光源の位置を決定することを特徴とする請求項1または2に記載の画像処理装置。
  5. 前記取得手段は、更に、前記照明装置を発光させずに前記被写体を撮影した第2の画像を取得し、
    前記決定手段は、前記第1の画像が逆光で撮影された画像でない場合に、前記第2の画像を照明している環境光の方向を判定し、該環境光の方向に前記照明装置の位置を設定することを特徴とすることを特徴とする請求項3に記載の画像処理装置。
  6. 前記処理手段は、前記被写体の形状情報、前記距離情報、及び前記被写体に対する前記仮想光源の位置に基づいて、前記被写体により反射される仮想的な光の反射成分を求め、求めた前記反射成分を前記第1の画像に付加することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記処理手段は、前記距離情報に基づいて、前記第1の画像における被写体の予め決められた複数の位置に対応する、前記被写体の複数の部分における法線を算出し、前記仮想的な光が前記被写体により反射される反射成分として、前記仮想的な光の強度を、前記法線と前記仮想的な光の方向との内積に比例させ、且つ、前記被写体の複数の部分までの距離に反比例させて求めることを特徴とする請求項6に記載の画像処理装置。
  8. 前記処理手段は、前記第1の画像における被写体の輝度を予め決められた割合で低減した後に、前記反射成分を付加することを特徴とする請求項6または7に記載の画像処理装置。
  9. 前記処理手段は、前記被写体の形状情報、前記距離情報、及び前記被写体に対する前記仮想光源の位置に基づいて、前記被写体の陰影成分を求め、求めた前記陰影成分を前記第1の画像に付加することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  10. 前記処理手段は、前記距離情報に基づいて、前記第1の画像における被写体の予め決められた複数の位置に対応する、前記被写体の複数の部分における法線を算出し、前記法線と前記仮想的な光の方向との内積に比例させ、且つ、前記被写体の複数の部分までの距離に反比例させて求めた前記仮想的な光の強度が小さいほど、前記第1の画像における被写体の輝度が小さくなる値を、前記陰影成分として求めることを特徴とする請求項9に記載の画像処理装置。
  11. 被写体を撮影する撮像手段と、
    前記被写体における複数の位置までの距離を測定して、距離情報を取得する測距手段と、
    請求項1乃至10のいずれか1項に記載の画像処理装置と
    を有することを特徴とする撮像装置。
  12. 撮像光学系と、
    各画素が、前記撮像光学系の異なる瞳領域を通過した光を受光する複数の光電変換部を有する、複数の画素からなる撮像手段と、
    請求項1乃至10のいずれか1項に記載の画像処理装置と
    を有することを特徴とする撮像装置。
  13. 取得手段が、照明装置を発光させて被写体を撮影した第1の画像と、前記被写体における複数の位置までの距離情報とを取得する取得工程と、
    決定手段が、仮想的な光を照射する仮想光源の位置を決定する決定工程と、
    処理手段が、前記距離情報に基づいて前記被写体の形状情報を求める算出工程と、
    前記処理手段が、求めた前記被写体の形状情報、前記距離情報、及び前記被写体に対する前記仮想光源の位置に基づいて、前記第1の画像を処理して、前記仮想光源により前記被写体に光を照射した画像を生成する処理工程と
    を有することを特徴とする画像処理方法。
  14. コンピュータを、請求項1乃至10のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
  15. 請求項14に記載のプログラムを格納したコンピュータが読み取り可能な記憶媒体。
JP2014216631A 2014-10-23 2014-10-23 画像処理装置及び方法、及び撮像装置 Active JP6381404B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014216631A JP6381404B2 (ja) 2014-10-23 2014-10-23 画像処理装置及び方法、及び撮像装置
US14/887,884 US9699386B2 (en) 2014-10-23 2015-10-20 Image processing apparatus and method
US15/609,126 US9813634B2 (en) 2014-10-23 2017-05-31 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014216631A JP6381404B2 (ja) 2014-10-23 2014-10-23 画像処理装置及び方法、及び撮像装置

Publications (3)

Publication Number Publication Date
JP2016086246A true JP2016086246A (ja) 2016-05-19
JP2016086246A5 JP2016086246A5 (ja) 2017-12-07
JP6381404B2 JP6381404B2 (ja) 2018-08-29

Family

ID=55792992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014216631A Active JP6381404B2 (ja) 2014-10-23 2014-10-23 画像処理装置及び方法、及び撮像装置

Country Status (2)

Country Link
US (2) US9699386B2 (ja)
JP (1) JP6381404B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018092422A1 (ja) * 2016-11-15 2018-05-24 Kddi株式会社 画像処理装置および画像処理方法
JP2019179463A (ja) * 2018-03-30 2019-10-17 キヤノン株式会社 画像処理装置、その制御方法、プログラム、記録媒体
US11037279B2 (en) 2017-10-31 2021-06-15 Canon Kabushiki Kaisha Image processing apparatus, image capturing apparatus, image processing method, and storage medium

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2516883B (en) * 2013-08-02 2017-01-18 Anthropics Tech Ltd Image manipulation
CN108616700B (zh) * 2018-05-21 2020-11-17 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
EP3627194A1 (en) 2018-09-20 2020-03-25 Essilor International An optical device with reduced reflection in deep red, near infrared and visible ranges
JP2021158513A (ja) * 2020-03-26 2021-10-07 キヤノン株式会社 画像処理装置及びその制御方法、撮像装置、プログラム、記憶媒体
CN113643674B (zh) * 2021-08-13 2022-09-30 深圳创维-Rgb电子有限公司 显示装置及其屏幕亮度调节方法、装置和可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08297749A (ja) * 1995-02-28 1996-11-12 Hitachi Ltd シェーディング方法およびシェーディング装置
JPH10326351A (ja) * 1997-05-26 1998-12-08 Sony Computer Entertainment:Kk 画像作成方法および画像作成装置
JP2009267662A (ja) * 2008-04-24 2009-11-12 Casio Comput Co Ltd 画像生成装置、及びプログラム
JP2010135996A (ja) * 2008-12-03 2010-06-17 Olympus Imaging Corp 撮像装置、ライティング処理装置、ライティング処理方法およびライティング処理用プログラム
JP2012074963A (ja) * 2010-09-29 2012-04-12 Nikon Corp 画像処理装置、撮像装置、画像処理プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005167376A (ja) 2003-11-28 2005-06-23 Olympus Corp カメラ
US8217940B2 (en) * 2007-07-23 2012-07-10 Disney Enterprises, Inc. Directable lighting method and apparatus
EP2058764B1 (en) * 2007-11-07 2017-09-06 Canon Kabushiki Kaisha Image processing apparatus and image processing method
KR20090088715A (ko) * 2008-02-15 2009-08-20 삼성전자주식회사 무선 광 통신 시스템을 위한 망 설계 방법
EP2107446A1 (en) * 2008-04-04 2009-10-07 ETH Zurich System and a method for tracking input devices on LC-displays
WO2012007795A1 (en) * 2010-07-16 2012-01-19 Sony Ericsson Mobile Communications Ab Three dimensional face modeling and sharing based on two dimensional images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08297749A (ja) * 1995-02-28 1996-11-12 Hitachi Ltd シェーディング方法およびシェーディング装置
JPH10326351A (ja) * 1997-05-26 1998-12-08 Sony Computer Entertainment:Kk 画像作成方法および画像作成装置
JP2009267662A (ja) * 2008-04-24 2009-11-12 Casio Comput Co Ltd 画像生成装置、及びプログラム
JP2010135996A (ja) * 2008-12-03 2010-06-17 Olympus Imaging Corp 撮像装置、ライティング処理装置、ライティング処理方法およびライティング処理用プログラム
JP2012074963A (ja) * 2010-09-29 2012-04-12 Nikon Corp 画像処理装置、撮像装置、画像処理プログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018092422A1 (ja) * 2016-11-15 2018-05-24 Kddi株式会社 画像処理装置および画像処理方法
US11264416B2 (en) 2016-11-15 2022-03-01 Kddi Corporation Image processing apparatus and image processing method
US11037279B2 (en) 2017-10-31 2021-06-15 Canon Kabushiki Kaisha Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP2019179463A (ja) * 2018-03-30 2019-10-17 キヤノン株式会社 画像処理装置、その制御方法、プログラム、記録媒体
JP7059076B2 (ja) 2018-03-30 2022-04-25 キヤノン株式会社 画像処理装置、その制御方法、プログラム、記録媒体

Also Published As

Publication number Publication date
US9699386B2 (en) 2017-07-04
JP6381404B2 (ja) 2018-08-29
US20160119526A1 (en) 2016-04-28
US20170264808A1 (en) 2017-09-14
US9813634B2 (en) 2017-11-07

Similar Documents

Publication Publication Date Title
JP6381404B2 (ja) 画像処理装置及び方法、及び撮像装置
JP6445844B2 (ja) 撮像装置および撮像装置で実行される方法
JP5108093B2 (ja) 撮像装置及び撮像方法
US10861136B2 (en) Image processing apparatus, image processing method, and storage medium
JP5743696B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2018041380A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6412386B2 (ja) 画像処理装置およびその制御方法、プログラムならびに記録媒体
JP2021128791A (ja) 画像処理装置、画像処理方法、およびプログラム
US11115637B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP7059076B2 (ja) 画像処理装置、その制御方法、プログラム、記録媒体
JP2017138927A (ja) 画像処理装置、撮像装置およびそれらの制御方法、それらのプログラム
JP2019145097A (ja) 設定装置及び方法、プログラム、記憶媒体
JP2017152866A (ja) 画像処理装置及び画像処理方法
JP5854716B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2018098582A (ja) 画像処理装置及び方法、及び撮像装置
JP6917796B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2016213717A (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
JP2020024581A (ja) 画像処理装置、画像処理方法、及びプログラム
JP7462464B2 (ja) 画像処理装置および方法、プログラム、記憶媒体
JP7446080B2 (ja) 画像処理装置、撮像装置、制御方法、プログラム及び撮像システム
JP7356255B2 (ja) 画像処理装置及びその処理方法、撮像装置、プログラム、記憶媒体
JP6616674B2 (ja) 画像処理装置および方法、および撮像装置
JP6946055B2 (ja) 画像処理装置および画像処理方法、プログラム
JP2021087125A (ja) 画像処理装置、その制御装置、プログラム
JP2019003694A (ja) 画像処理装置およびその制御方法、ならびにプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171018

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180731

R151 Written notification of patent or utility model registration

Ref document number: 6381404

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151