JP6663223B2 - Image processing apparatus and method, and imaging apparatus - Google Patents

Image processing apparatus and method, and imaging apparatus Download PDF

Info

Publication number
JP6663223B2
JP6663223B2 JP2016001955A JP2016001955A JP6663223B2 JP 6663223 B2 JP6663223 B2 JP 6663223B2 JP 2016001955 A JP2016001955 A JP 2016001955A JP 2016001955 A JP2016001955 A JP 2016001955A JP 6663223 B2 JP6663223 B2 JP 6663223B2
Authority
JP
Japan
Prior art keywords
shadow
image
shadow area
edge feature
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016001955A
Other languages
Japanese (ja)
Other versions
JP2017123069A5 (en
JP2017123069A (en
Inventor
哲也 秦
哲也 秦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016001955A priority Critical patent/JP6663223B2/en
Publication of JP2017123069A publication Critical patent/JP2017123069A/en
Publication of JP2017123069A5 publication Critical patent/JP2017123069A5/ja
Application granted granted Critical
Publication of JP6663223B2 publication Critical patent/JP6663223B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明は、画像処理装置および方法、および撮像装置に関し、特に、入力された画像に含まれる影の領域を補正する技術に関する。   The present invention relates to an image processing apparatus and method, and an imaging apparatus, and more particularly, to a technique for correcting a shadow area included in an input image.

従来、撮影された画像に含まれる被写体の影領域を検出し、検出した影領域の明るさや色を補正することで、影を除去する補正を行う技術が知られている。   2. Description of the Related Art Conventionally, there has been known a technique of detecting a shadow area of a subject included in a captured image and correcting the brightness and color of the detected shadow area to perform a correction for removing a shadow.

特許文献1には、撮影画像中の影領域と非影領域とを検出し、影領域の輝度、色情報を、非影領域の輝度、色情報に近づけるよう補正し、影を除去する補正を行う技術が開示されている。   Patent Document 1 discloses a method of detecting a shadow area and a non-shadow area in a captured image, correcting the brightness and color information of the shadow area to be closer to the brightness and color information of the non-shadow area, and removing the shadow. Performing techniques are disclosed.

特開2010−237976号公報JP 2010-237976 A

影領域の明るさや色を、非影領域の明るさや色を参照して補正する場合、参照する非影領域は、影が重畳されている背景被写体と同一の背景被写体に属する領域から選ぶ必要がある。これは、選択された影領域と非影領域とが互いに異なる被写体に属する場合、影領域に対する補正量を適切に求めることができないからである。   When correcting the brightness and color of the shadow area by referring to the brightness and color of the non-shadow area, the non-shadow area to be referenced must be selected from the areas belonging to the same background subject as the background subject on which the shadow is superimposed. is there. This is because, when the selected shadow region and non-shadow region belong to different subjects, the correction amount for the shadow region cannot be appropriately obtained.

特許文献1では、非影領域より暗く、かつ、非影領域と色相が大きく異なっていない領域を影領域と判定することで、影領域と非影領域とを同一被写体領域から選び出すようにしている。しかしながら、影領域や非影領域に位置する背景被写体の配置や特性、照明環境によっては、明るさや色情報のみを用いる従来の検出方法では、影領域に対応する非影領域を適切に検出することができない場合がある。   In Patent Literature 1, an area that is darker than a non-shadow area and that does not greatly differ in hue from the non-shadow area is determined to be a shadow area, so that the shadow area and the non-shadow area are selected from the same subject area. . However, depending on the arrangement and characteristics of the background subject located in the shadow area and the non-shadow area, and the lighting environment, the conventional detection method using only brightness and color information needs to properly detect the non-shadow area corresponding to the shadow area. May not be possible.

例えば、影領域や非影領域に、似た色相の異なる被写体が位置している場合に、色相の近い領域を検出する方法を用いると、異なる被写体に属する領域を誤って検出してしまう場合がある。また、フラッシュを用いた撮影において、フラッシュ光によって生じた影を補正する場合では、影領域と非影領域とでは照射されている光源が異なるため、影領域と非影領域とが異なる色相になる場合が考えられる。   For example, when a similar subject having a different hue is located in a shadow region or a non-shadow region, using a method of detecting a region having a similar hue may result in an erroneous detection of a region belonging to a different subject. is there. Also, in the case of correcting a shadow caused by flash light in shooting using a flash, since the illuminated light source is different between the shadow area and the non-shadow area, the shadow area and the non-shadow area have different hues. The case is conceivable.

本発明は上記問題点を鑑みてなされたものであり、撮影された画像における影を、より精度良く低減できるようにすることを目的とする。   The present invention has been made in view of the above problems, and has as its object to reduce the shadow in a captured image with higher accuracy.

上記目的を達成するために、本発明の画像処理装置は、撮影画像を取得する取得手段と、前記撮影画像に含まれる被写体の影領域を検出する影領域検出手段と、前記撮影画像に含まれる前記影領域を除く非影領域の画像信号に基づいて、前記影領域の画像信号を補正し、被写体の影を低減させる補正処理を行う補正手段と、前記撮影画像に含まれるエッジ特徴量を検出するエッジ検出手段と、を備え、前記補正手段は、前記影領域におけるエッジ特徴量と前記非影領域のエッジ特徴量に基づいて、前記影領域に対応する非影領域を抽出し、前記抽出した非影領域の画像信号に基づき、前記補正処理を制御する。 In order to achieve the above object, an image processing apparatus according to the present invention includes: an acquisition unit that acquires a captured image; a shadow region detection unit that detects a shadow region of a subject included in the captured image; Correction means for correcting the image signal of the shadow area based on the image signal of the non-shadow area excluding the shadow area to perform a correction process for reducing the shadow of the subject; and detecting an edge feature amount included in the captured image comprising an edge detection means for the said correction means, based on the edge feature quantity of the edge feature quantity and the non-shadow region in the shadow region, extracts a non-shadow region corresponding to the shadow region, and the extracted The correction processing is controlled based on the image signal of the non-shadow area .

本発明によれば、撮影された画像における影を、より精度良く低減できるようにすることができる。   According to the present invention, it is possible to more accurately reduce shadows in a captured image.

本発明の実施形態におけるデジタルカメラの構成を示すブロック図。FIG. 1 is a block diagram illustrating a configuration of a digital camera according to an embodiment of the present invention. 実施形態における画像処理部の構成を示すブロック図。FIG. 2 is a block diagram illustrating a configuration of an image processing unit according to the embodiment. 第1の実施形態における撮影処理及び影低減処理を示すフローチャート。5 is a flowchart illustrating a photographing process and a shadow reduction process according to the first embodiment. 第1の実施形態における撮影画像および差分画像の一例を示す図。FIG. 4 is a diagram illustrating an example of a captured image and a difference image according to the first embodiment. 第1の実施形態における非影領域検出処理を示すフローチャート。9 is a flowchart illustrating a non-shadow area detection process according to the first embodiment. 第1の実施形態におけるエッジ特徴量の算出方法を説明する図。FIG. 4 is a diagram illustrating a method for calculating an edge feature amount according to the first embodiment. 第2の実施形態における撮影処理及び影低減処理を示すフローチャート。9 is a flowchart illustrating a shooting process and a shadow reduction process according to the second embodiment.

以下、添付図面を参照して本発明を実施するための形態を詳細に説明する。なお、本実施形態では、画像処理装置としてデジタルカメラに適用した例について説明する。特に、実施形態では、フラッシュ光を用いた撮影を行う場合に、フラッシュ光が照射された被写体の背後に生じる影を補正する場合を例に取って説明する。   Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. In the present embodiment, an example in which the image processing apparatus is applied to a digital camera will be described. In particular, the embodiment will be described by taking as an example a case where, when performing photographing using flash light, a shadow generated behind a subject irradiated with the flash light is corrected.

<第1の実施形態>
以下、図1〜6を参照して、本発明の第1の実施形態について説明する。図1は、第1の実施形態におけるデジタルカメラ100の構成例を示すブロック図である。
<First embodiment>
Hereinafter, a first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a block diagram illustrating a configuration example of a digital camera 100 according to the first embodiment.

図1に示すデジタルカメラ100において、ズームレンズ、フォーカスレンズを含むレンズ群101(撮像光学系)、及び、絞り機能を備えるシャッター102を介して入射した光は、撮像部103において光電変換される。撮像部103は、CCDやCMOS素子などで構成され、光電変換により得られた電気信号は、画像信号としてA/D変換器104へ出力される。A/D変換器104は、撮像部103から出力されるアナログ画像信号をデジタル画像信号(画像データ)に変換し、画像処理部105に出力する。   In the digital camera 100 shown in FIG. 1, light incident via a lens group 101 (imaging optical system) including a zoom lens and a focus lens and a shutter 102 having an aperture function is photoelectrically converted in an imaging unit 103. The imaging unit 103 is configured by a CCD, a CMOS element, or the like, and an electric signal obtained by photoelectric conversion is output to the A / D converter 104 as an image signal. The A / D converter 104 converts an analog image signal output from the imaging unit 103 into a digital image signal (image data), and outputs the digital image signal (image data) to the image processing unit 105.

画像処理部105は、A/D変換器104からの画像データ、または、メモリ制御部107を介して画像メモリ106から読み出された画像データに対し、ホワイトバランスなどの色変換処理、γ処理、輪郭強調処理、色補正処理などの各種画像処理を行う。画像処理部105から出力された画像データは、メモリ制御部107を介して画像メモリ106に書き込まれる。画像メモリ106は、画像処理部105が各種画像処理を行う際に一時的に画像データを記憶するほか、I/F111を介して記録媒体112から読み込まれた画像データや、表示部109に表示するための画像データを記憶する。   The image processing unit 105 performs color conversion processing such as white balance, γ processing, and the like on image data from the A / D converter 104 or image data read from the image memory 106 via the memory control unit 107. Various image processing such as contour enhancement processing and color correction processing are performed. The image data output from the image processing unit 105 is written to the image memory 106 via the memory control unit 107. The image memory 106 temporarily stores image data when the image processing unit 105 performs various types of image processing, displays image data read from the recording medium 112 via the I / F 111, and displays the image data on the display unit 109. For storing image data.

顔検出部113は、撮影された画像から人物の顔が存在する顔領域を検出する。画像処理部105では、顔検出部113の顔検出結果や、撮像した画像データを用いて所定の評価値算出処理を行い、得られた評価値に基づいてシステム制御部50が露光制御および焦点調節制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、フラッシュ発光部123の発光制御処理などを行う。また、画像処理部105は、後述する方法により、画像中の影を低減する影低減処理も行う。   The face detection unit 113 detects a face area where a human face exists from the captured image. The image processing unit 105 performs a predetermined evaluation value calculation process using the face detection result of the face detection unit 113 and the captured image data, and the system control unit 50 performs exposure control and focus adjustment based on the obtained evaluation values. Perform control. Thereby, TTL (through-the-lens) type AF (autofocus) processing, AE (automatic exposure) processing, AWB (auto white balance) processing, light emission control processing of the flash light emitting unit 123, and the like are performed. The image processing unit 105 also performs a shadow reduction process for reducing shadows in an image by a method described later.

D/A変換器108は、入力されたデジタル信号をアナログ信号に変換する。例えば画像メモリ106に格納されている表示用のデジタルの画像データをアナログ信号に変換して表示部109に出力する。表示部109は、LCD等の表示装置を有し、撮影された画像、記録媒体112から読み出された画像、ライブビュー画像等を表示するほか、操作を行うためのユーザインターフェースを表示する。   The D / A converter 108 converts the input digital signal into an analog signal. For example, display digital image data stored in the image memory 106 is converted into an analog signal and output to the display unit 109. The display unit 109 has a display device such as an LCD, and displays a captured image, an image read from the recording medium 112, a live view image, and the like, and also displays a user interface for performing an operation.

コーデック部110は、画像メモリ106に記録された画像データを、例えばMPEGなどの規格に準拠した形式で符号化または復号化する。インタフェース(I/F)111は、例えば半導体メモリカードやカード型ハードディスクなどの着脱可能な記録媒体112を、デジタルカメラ100と機械的および電気的に接続する。システム制御部50は符号化した画像データを、I/F111を介して、メモリカードやハードディスク等の記録媒体112に格納する。   The codec unit 110 encodes or decodes the image data recorded in the image memory 106 in a format conforming to a standard such as MPEG. An interface (I / F) 111 mechanically and electrically connects a removable recording medium 112 such as a semiconductor memory card or a card-type hard disk to the digital camera 100. The system control unit 50 stores the encoded image data in a recording medium 112 such as a memory card or a hard disk via the I / F 111.

システム制御部50は、CPUまたはMPUを含み、不揮発性メモリ121に記憶されているプログラムをシステムメモリ122の作業領域に展開することにより実行して、デジタルカメラ100全体の各機能を制御する。   The system control unit 50 includes a CPU or an MPU, executes a program stored in the nonvolatile memory 121 by expanding the program in a work area of the system memory 122, and controls each function of the entire digital camera 100.

操作部120は、上述したインターフェースを表示するタッチパネルやボタン、スイッチを含み、ユーザによる操作を検出すると、システム制御部50に検出された操作を通知する。不揮発性メモリ121は、補助記憶装置として、プログラムやパラメータなどを格納するEEPROMなどの不揮発性の半導体メモリを含む。システムメモリ122は、主記憶装置として、不揮発性メモリ121から読みだしたプログラム等を展開するほか、システム制御部50の動作用の定数、変数を記憶する。   The operation unit 120 includes a touch panel, buttons, and switches for displaying the above-described interface. When detecting an operation by the user, the operation unit 120 notifies the system control unit 50 of the detected operation. The nonvolatile memory 121 includes, as an auxiliary storage device, a nonvolatile semiconductor memory such as an EEPROM that stores programs, parameters, and the like. The system memory 122, as a main storage device, stores programs and the like read from the nonvolatile memory 121 and stores constants and variables for operation of the system control unit 50.

フラッシュ発光部123は、照明装置であり、デジタルカメラ100に内蔵された照明装置であっても、デジタルカメラ100に着脱可能な照明装置であってもよく、撮影環境が暗い場合に撮影補助光を発光する。フラッシュ発光部123を発光させるか否か、また、発光させる場合の発光量は、画像処理部105が決定する。   The flash light emitting unit 123 is a lighting device, and may be a lighting device built in the digital camera 100 or a lighting device detachable from the digital camera 100. Emits light. The image processing unit 105 determines whether or not the flash light emitting unit 123 emits light, and the amount of light emission when the light is emitted.

なお、図1に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。従って、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。   Note that one or more of the functional blocks illustrated in FIG. 1 may be realized by hardware such as an ASIC or a programmable logic array (PLA), or may be realized by a programmable processor such as a CPU or an MPU executing software. You may. Further, the present invention may be realized by a combination of software and hardware. Therefore, in the following description, even when different functional blocks are described as the operation subject, the same hardware can be realized as the subject.

次に、画像処理部105の主要な構成を、図2を参照して説明する。画像信号生成部201は、A/D変換器104、または、メモリ制御部107から出力されたベイヤー配列の画像データに対して同時化処理を行い、画像信号R,G,Bを生成する。なお、画像信号の形態として、輝度信号と色差信号とを用いるようにしても良い。画像信号生成部201は、生成した画像信号を出力する。   Next, a main configuration of the image processing unit 105 will be described with reference to FIG. The image signal generation unit 201 performs a synchronization process on the Bayer array image data output from the A / D converter 104 or the memory control unit 107, and generates image signals R, G, and B. Note that a luminance signal and a color difference signal may be used as the form of the image signal. The image signal generation unit 201 outputs the generated image signal.

影領域検出部202は、画像信号生成部201から出力された画像信号の中から、被写体の影領域を検出し、エッジ特徴量算出部203(エッジ検出手段)に影領域の情報を出力する。エッジ特徴量算出部203は、影領域検出部202から出力された影領域の情報に基づいて、画像信号生成部201から出力された画像に含まれる影領域および非影領域に対して、エッジの特徴を表すエッジ特徴量を算出し、非影領域検出部204に出力する。非影領域検出部204は、エッジ特徴量算出部203が算出したエッジ特徴量を用いて、画像信号生成部201から出力された画像信号から、影領域に対する非影領域を検出する。   The shadow area detection unit 202 detects a shadow area of the subject from the image signal output from the image signal generation unit 201, and outputs information on the shadow area to the edge feature amount calculation unit 203 (edge detection unit). The edge feature amount calculation unit 203 generates an edge based on the shadow area and the non-shadow area included in the image output from the image signal generation unit 201 based on the information on the shadow area output from the shadow area detection unit 202. An edge feature amount representing the feature is calculated and output to the non-shadow area detection unit 204. The non-shadow area detection unit 204 detects a non-shadow area for the shadow area from the image signal output from the image signal generation unit 201 using the edge feature amount calculated by the edge feature amount calculation unit 203.

影領域補正部205は、影領域検出部202および非影領域検出部204の検出結果に基づき、影領域の画像信号に対して、影を低減する補正を行う。   The shadow area correction unit 205 performs correction for reducing the shadow on the image signal of the shadow area based on the detection results of the shadow area detection unit 202 and the non-shadow area detection unit 204.

次に、図3のフローチャートを参照して、第1の実施形態における撮影処理及び影低減処理について説明する。なお、この処理は、ユーザによる操作部120の操作により、影低減処理を行う影低減撮影モードが設定されている場合であって、フラッシュ発光部123を用いたフラッシュ撮影を行う場合に実行される。   Next, the photographing process and the shadow reduction process in the first embodiment will be described with reference to the flowchart in FIG. This process is executed when the shadow reduction shooting mode for performing the shadow reduction process is set by the user's operation of the operation unit 120 and the flash shooting using the flash emission unit 123 is performed. .

まず、S301において、フラッシュ発光部123を発光しない状態で撮影を行い、非発光画像データを取得し、画像メモリ106へ記録する。次に、S302において、フラッシュ発光部123を発光した状態で撮影動作を行い、発光画像データを取得し、画像メモリ106へ記録する。   First, in step S <b> 301, shooting is performed in a state where the flash light emitting unit 123 does not emit light, and non-emission image data is acquired and recorded in the image memory 106. Next, in S302, a photographing operation is performed in a state where the flash light emitting unit 123 emits light, and emission image data is acquired and recorded in the image memory 106.

S303では、非発光画像データと発光画像データとを画像メモリ106より読み出し、影領域検出部202が、発光画像データの中のフラッシュ光によって生じた影領域を検出する。ここで、影領域の検出方法について、図4を用いて詳しく説明する。   In S303, the non-light-emitting image data and the light-emitting image data are read from the image memory 106, and the shadow area detection unit 202 detects a shadow area generated by the flash light in the light-emitting image data. Here, a method of detecting a shadow region will be described in detail with reference to FIG.

図4は、一連の撮影と影低減処理において得られる撮影画像および差分画像の画像データの例を示したものである。図4(a)はS301で撮影した非発光画像、図4(b)はS302で撮影した発光画像を表す。また、領域401は撮影の対象である主要な被写体を表し、網掛けしていない領域A402と、網掛けした領域B403は、壁などの背景となる被写体を表す。ここでは、領域A402と領域B403とで、背景となる被写体の色や模様が異なる場合を表している。また、影領域A404および影領域B405はそれぞれ、フラッシュ光によって、背景被写体領域A402および背景被写体領域B403上に生じた影領域を表す。   FIG. 4 shows an example of image data of a photographed image and a difference image obtained in a series of photographing and shadow reduction processing. FIG. 4A illustrates a non-emission image captured in S301, and FIG. 4B illustrates an emission image captured in S302. An area 401 represents a main subject to be photographed, and an unshaded area A402 and a shaded area B403 represent a background object such as a wall. Here, a case is shown where the color and pattern of the background subject are different between the region A402 and the region B403. A shadow area A404 and a shadow area B405 represent shadow areas generated on the background subject area A402 and the background subject area B403 by the flash light, respectively.

影領域検出部202は、まず、主要な被写体401の明るさが、非発光画像と発光画像において同一となるように非発光画像の明るさを補正した後、両者の画素値の差分を算出する。ここで差分が発生するのは、図4(c)に示したように影領域A404および影領域B405のみとなるため、差分が発生した領域を影領域として検出する。   The shadow area detection unit 202 first corrects the brightness of the non-light-emitting image so that the brightness of the main subject 401 is the same in the non-light-emitting image and the light-emitting image, and then calculates the difference between the pixel values of the two. . Since the difference occurs only in the shadow area A404 and the shadow area B405 as shown in FIG. 4C, the area in which the difference has occurred is detected as the shadow area.

S304では、非影領域検出部204が、発光画像データの中から、S303で検出した影領域に対応する非影領域を検出する。ここでの非影領域の検出方法は、後で詳しく説明する。   In S304, the non-shadow area detection unit 204 detects a non-shadow area corresponding to the shadow area detected in S303 from the luminescent image data. The method of detecting the non-shadow area will be described later in detail.

S305では、影領域補正部205が、画像信号生成部201より入力される発光画像データの中の影領域に対して、非影領域検出部204が検出した非影領域の色、輝度情報を参照して、影を低減する補正を行う。具体的には、図4に示す例の場合、影領域A404の画素値が背景被写体領域A402の非影領域での値に、影領域B405の画素値が背景被写体領域B403の非影領域での値に近づくように、所定のゲイン値を適用することによって補正を行い、処理を終了する。または、影領域A404および影領域B405における画像信号の少なくとも一部を、それぞれ背景被写体領域A402および背景被写体領域B403の非影領域における画像信号によって置き換えることによって補正を行う。   In S305, the shadow area correction unit 205 refers to the color and luminance information of the non-shadow area detected by the non-shadow area detection unit 204 for the shadow area in the luminescence image data input from the image signal generation unit 201. Then, a correction for reducing the shadow is performed. Specifically, in the case of the example shown in FIG. 4, the pixel value of the shadow area A404 is set to the value in the non-shadow area of the background subject area A402, and the pixel value of the shadow area B405 is set to the value in the non-shadow area of the background subject area B403. The correction is performed by applying a predetermined gain value so as to approach the value, and the process ends. Alternatively, the correction is performed by replacing at least a part of the image signals in the shadow areas A404 and B405 with the image signals in the non-shadow areas of the background subject area A402 and the background subject area B403, respectively.

次に、図4を参照して、S304で行われる、非影領域検出部204が発光画像データ中の非影領域を検出する方法について、詳しく説明する。第1の実施形態では、上述した通り、非影領域の色、輝度情報を参照して、影領域の色、輝度を補正する。このため、影領域と、参照する非影領域とが、同一の背景被写体領域に含まれている必要がある。図4に示す画像の場合、影領域A404を補正する際には、参照する非影領域として背景被写体領域A402の非影領域が、影領域B405を補正する際には、参照する非影領域として背景被写体領域B403の非影領域が、それぞれ検出される必要がある。   Next, with reference to FIG. 4, a method of detecting the non-shadow area in the luminescence image data by the non-shadow area detection unit 204 performed in S304 will be described in detail. In the first embodiment, as described above, the color and luminance of the shadow area are corrected with reference to the color and luminance information of the non-shadow area. Therefore, the shadow region and the non-shadow region to be referred to need to be included in the same background subject region. In the case of the image shown in FIG. 4, when correcting the shadow area A404, the non-shadow area of the background subject area A402 is referred to as a non-shadow area to be referred to, and when the shadow area B405 is corrected, the non-shadow area is referred to as a referred non-shadow area. Each non-shadow area of the background subject area B403 needs to be detected.

図5は、非影領域検出処理を示すフローチャートである。まず、S501において、エッジ特徴量算出部203が、画像信号生成部201から出力された発光画像データのうち、影領域検出部202が検出した影領域に対してエッジ検出を行い、エッジ特徴量を算出する。具体的には、図6に示す係数を有するラプラシアンフィルタを画像データから生成した輝度信号に対して適用し、出力値の絶対値を取った後に、輝度に対して正規化した値をエッジの特徴を表すエッジ特徴量として用いる。エッジ特徴量算出部203は、上述したようにして影領域に含まれる各画素に対して順次、エッジ特徴量を算出し、更に、影領域の画素のエッジ特徴量に基づいてクラスタリングする。図4(b)の影領域A404および影領域B405の場合のように、背景となる被写体が異なる場合には、エッジ特徴量も異なる値を持つ。従って、エッジ特徴量によるクラスタリングによって、背景となる被写体毎の影領域に分割することが可能である。   FIG. 5 is a flowchart showing the non-shadow area detection processing. First, in S501, the edge feature amount calculation unit 203 performs edge detection on the shadow area detected by the shadow area detection unit 202 in the luminescent image data output from the image signal generation unit 201, and determines the edge feature amount. calculate. Specifically, a Laplacian filter having the coefficients shown in FIG. 6 is applied to the luminance signal generated from the image data, and after taking the absolute value of the output value, the value normalized to the luminance is used as the edge characteristic. Is used as an edge feature quantity representing The edge feature value calculation unit 203 sequentially calculates the edge feature value for each pixel included in the shadow region as described above, and further performs clustering based on the edge feature value of the pixels in the shadow region. As in the case of the shadow area A404 and the shadow area B405 in FIG. 4B, when the background subject is different, the edge feature amount also has a different value. Therefore, it is possible to divide the image into a shadow area for each subject as a background by clustering based on the edge feature amount.

次にS502において、エッジ特徴量算出部203が、非影領域に対して、S501と同様の処理を行い、各画素に対するエッジ特徴量を算出し、エッジ特徴量に基づくクラスタリングによって、非影領域を分割する。   Next, in step S502, the edge feature amount calculation unit 203 performs the same processing as in step S501 on the non-shadow region, calculates an edge feature amount for each pixel, and performs clustering based on the edge feature amount to determine the non-shadow region. To divide.

S503では、算出したエッジ特徴量に基づいて、影領域に対応する非影領域を検出する。S501、S502で算出したエッジ特徴量は、画像に含まれる被写体に起因する高周波エッジの特徴を表すものである。したがって、影領域であるか非影領域であるかに関わらず、背景となる被写体が同一の場合には、算出したエッジ特徴量は近い値を取ると考えられる。第1の実施形態では、この特性を利用し、エッジ特徴量に基づいて、影領域に対応する非影領域を検出する。   In S503, a non-shadow area corresponding to the shadow area is detected based on the calculated edge feature amount. The edge feature amounts calculated in S501 and S502 represent the features of the high-frequency edge caused by the subject included in the image. Therefore, regardless of whether the region is a shadow region or a non-shadow region, when the subject as the background is the same, the calculated edge feature amount is considered to take a close value. In the first embodiment, a non-shadow area corresponding to a shadow area is detected based on the edge feature amount using this characteristic.

具体的には、非影領域検出部204は、まず、影領域、非影領域をクラスタリングした分割領域のそれぞれについて、エッジ特徴量の平均値を算出する。次に、影領域をクラスタリングした分割領域それぞれに対して、算出した影領域のエッジ特徴量の平均値に最も近いエッジ特徴量の平均値を持つ非影領域の分割領域を抽出する。対応する非影領域が抽出できた場合には、その結果を影領域補正部205へ出力する。そして、影領域補正部205は、上述したようにして、入力された影領域と非影領域の情報を用いて、影領域の補正処理を行う。   Specifically, first, the non-shadow area detection unit 204 calculates the average value of the edge feature amount for each of the shadow areas and the divided areas obtained by clustering the non-shadow areas. Next, for each of the divided regions obtained by clustering the shadow region, a divided region of a non-shadow region having the average value of the edge feature value closest to the calculated average value of the edge feature value of the shadow region is extracted. If the corresponding non-shadow area can be extracted, the result is output to the shadow area correction unit 205. Then, as described above, the shadow area correction unit 205 performs a shadow area correction process using the input information on the shadow area and the non-shadow area.

以上説明したように第1の実施形態によれば、エッジの特徴量に基づいて、影領域に対応する非影領域を検出し、検出した情報に基づいて、影低減処理を制御する。このようにすることで、非影領域を参照して影低減処理を行う際に、同一の背景被写体に属する非影領域を検出して低減することが可能となり、影低減処理の精度を向上させることが可能となる。   As described above, according to the first embodiment, a non-shadow area corresponding to a shadow area is detected based on the feature amount of the edge, and the shadow reduction processing is controlled based on the detected information. This makes it possible to detect and reduce a non-shadow area belonging to the same background subject when performing the shadow reduction processing with reference to the non-shadow area, thereby improving the accuracy of the shadow reduction processing. It becomes possible.

なお、第1の実施形態では、影領域のエッジ特徴量と近い値を持つ非影領域を参照して、影を補正する場合について説明したが、本発明は、エッジ特徴量を用いて影低減処理を行う方法であれば、どのような方法を用いても構わない。例えば、対象とする影領域のエッジ特徴量と近い値を持つ非影領域が存在するか否かによって、影低減処理を実行するか否かを切り替えるよう制御しても良い。   In the first embodiment, the case where the shadow is corrected by referring to the non-shadow region having a value close to the edge feature amount of the shadow region has been described. Any method may be used as long as it performs the processing. For example, it may be controlled to switch whether or not to execute the shadow reduction process depending on whether or not there is a non-shadow region having a value close to the edge feature amount of the target shadow region.

また、第1の実施形態では、影領域に対応する非影領域の抽出を、エッジ特徴量のみによって行う場合について説明したが、本発明は、エッジ特徴量を用いて、非影領域の検出を制御する方法であれば、どのような方法を用いても構わない。例えば、ある影領域に対して、エッジ特徴量が予め決められた閾値よりも近い値を持つ非影領域が複数存在する場合には、互いの間の距離が最も近い非影領域を優先して選択するようにして、影領域と非影領域を検出するようにしても良い。また、色相を比較して、エッジ特徴量が近い値を持ち、かつ、色相が互いに近い値を持つ領域を、影領域と非影領域として検出するようにしても良い。また、色、輝度情報に基づいて影領域と非影領域とを検出する場合に、影領域のエッジ特徴量と大きく異なるエッジ特徴量を持つ非影領域を、検出範囲から予め除外して検出するようにしても良い。   Further, in the first embodiment, the case where the extraction of the non-shadow area corresponding to the shadow area is performed using only the edge feature amount has been described. However, in the present invention, the detection of the non-shadow area is performed using the edge feature amount. Any control method may be used. For example, when there are a plurality of non-shadow areas having a value closer to a predetermined threshold value than the predetermined threshold value for a certain shadow area, priority is given to the non-shadow area having the closest distance between each other. The selection may be made so that the shadow area and the non-shadow area are detected. Further, by comparing the hues, an area having a similar edge feature value and a similar hue may be detected as a shadow area and a non-shadow area. When detecting a shadow region and a non-shadow region based on color and luminance information, a non-shadow region having an edge feature amount greatly different from the edge feature amount of the shadow region is detected by excluding it from the detection range in advance. You may do it.

また、第1の実施形態では、エッジ抽出フィルタの出力値をエッジの特徴を表す量として用いる場合について説明したが、本発明は、入力画像のエッジの特徴を表す量であれば、どのような方法を用いても構わない。例えば、縦方向、横方向、斜め方向など、特定の方向のエッジを検出するフィルタを方向毎に用意し、方向毎のエッジ検出フィルタの出力値(分布)をエッジ特徴量として用いるようにしても良い。すなわち、エッジの量だけでなく、エッジの方向に関する特徴も合致することを条件として、影領域と非影領域とを検出するようにしても良い。また、影領域中の振幅の大きい主要なエッジを抽出し、そのエッジのパターンが非影領域に存在するか否かを、公知のパターンマッチングの手法によって探索するようにしても良い。この場合、主要なエッジのパターンが合致する領域を、影領域と対応する非影領域として検出するようにする。   Further, in the first embodiment, the case where the output value of the edge extraction filter is used as the quantity representing the feature of the edge has been described. A method may be used. For example, a filter for detecting an edge in a specific direction such as a vertical direction, a horizontal direction, or an oblique direction is prepared for each direction, and an output value (distribution) of the edge detection filter for each direction may be used as an edge feature amount. good. That is, the shadow area and the non-shadow area may be detected on condition that not only the amount of the edge but also the feature regarding the direction of the edge match. Alternatively, a main edge having a large amplitude in the shadow area may be extracted, and whether or not the pattern of the edge exists in the non-shadow area may be searched by a known pattern matching method. In this case, an area where the pattern of the main edge matches is detected as a non-shadow area corresponding to the shadow area.

また、第1の実施形態では、エッジ特徴量に応じてクラスタリングした分割領域毎に、非影領域の検出を行う場合で説明したが、本発明は、非影領域の検出方法をこれに限定するものではない。例えば、画像を所定の大きさの複数のブロックに分割し、ブロック毎にエッジ特徴量を算出して、エッジ特徴量の平均値を算出するようにしても良い。この場合、影領域として判定されたブロックのエッジ特徴量の平均値に最も近い値を持つ非影領域のブロックを検出するようにする。   In the first embodiment, the case where the non-shadow area is detected for each of the divided areas clustered according to the edge feature amount has been described. However, the present invention restricts the non-shadow area detection method to this. Not something. For example, an image may be divided into a plurality of blocks of a predetermined size, an edge feature amount may be calculated for each block, and an average value of the edge feature amounts may be calculated. In this case, a block in a non-shadow area having a value closest to the average value of the edge feature amounts of the blocks determined as the shadow area is detected.

また、第1の実施形態では、影領域の補正方法として、影領域での画素値が非影領域での画素値に近づくようゲイン適用などの変換処理を行うものとして説明したが、本発明は、影領域の補正方法をこれに限定するものではない。例えば、影領域での画素値の変動を高周波成分と低周波成分とに分離し、低周波成分を非影領域での値に置き替えた後、影領域の高周波成分を重畳させるように補正しても良い。   Further, in the first embodiment, as a method of correcting a shadow area, conversion processing such as application of a gain is performed so that a pixel value in a shadow area approaches a pixel value in a non-shadow area. However, the method for correcting the shadow area is not limited to this. For example, the variation of the pixel value in the shadow area is separated into a high-frequency component and a low-frequency component, and the low-frequency component is replaced with a value in the non-shadow area. May be.

また、第1の実施形態では、撮影時のフラッシュ光によって生じた影を低減する場合を説明したが、本発明は、影低減処理の内容を、上記の場合に限定するものではない。例えば、撮影環境における環境光によって生じた影を補正する場合に用いても良い。その場合でも、影領域におけるエッジ特徴量と近い値を持つ非影領域を参照して、影の補正を行うよう処理すれば良い。   In the first embodiment, the case where the shadow caused by the flash light at the time of shooting is reduced has been described. However, the present invention does not limit the content of the shadow reduction processing to the above case. For example, it may be used when correcting a shadow caused by environmental light in a shooting environment. Even in such a case, the processing may be performed so as to correct the shadow by referring to a non-shadow area having a value close to the edge feature amount in the shadow area.

<第2の実施形態>
次に、本発明の第2の実施形態について説明する。第1の実施形態では、フラッシュ光を発光した時に撮影した発光画像データにおいて、非影領域を検出した。これに対して、第2の実施形態では、影領域に対応する非影領域の検出を、フラッシュ光を発光していない時に撮影した非発光画像データにおいて行う場合を説明する。
<Second embodiment>
Next, a second embodiment of the present invention will be described. In the first embodiment, a non-shadow area is detected in light emission image data captured when flash light is emitted. On the other hand, in the second embodiment, a case will be described in which the detection of a non-shadow area corresponding to a shadow area is performed on non-emission image data captured when no flash light is emitted.

このため、第2の実施形態は、非影領域の検出方法が第1の実施形態と異なるが、デジタルカメラ100の構成および画像処理部105の構成は、図1および図2に示した構成と同一の構成を用いることができるため、ここでは説明を省略する。以下、相違点について重点的に説明する。   For this reason, the second embodiment differs from the first embodiment in the method of detecting a non-shadow area. However, the configuration of the digital camera 100 and the configuration of the image processing unit 105 are the same as those shown in FIGS. Since the same configuration can be used, the description is omitted here. Hereinafter, differences will be mainly described.

図7は、第2の実施形態における撮影処理及び影低減処理のフローチャートである。なお、非発光画像、発光画像の撮影、及び、発光画像内の影領域の検出処理は、図3のS301〜S303で説明した処理と同様であるため、同じ参照番号を付して説明を省略する。   FIG. 7 is a flowchart of the photographing process and the shadow reduction process in the second embodiment. Note that the processes of capturing a non-light-emitting image and a light-emitting image and detecting a shadow area in the light-emitting image are the same as the processes described in S301 to S303 in FIG. I do.

S704では、非影領域検出部204が、非発光画像データから非影領域の検出を行う。ここで、具体的な処理を図4を参照して説明する。非影領域検出部204は、S703で発光画像において検出された影領域(影領域A404、影領域B405)と同じ位置の領域を、非発光画像の中で特定する。特定した例が図4(d)の影領域A406および影領域B407である。   In step S704, the non-shadow area detection unit 204 detects a non-shadow area from the non-emission image data. Here, specific processing will be described with reference to FIG. The non-shadow area detection unit 204 specifies, in the non-emission image, an area at the same position as the shadow areas (shadow area A404 and shadow area B405) detected in the light emission image in S703. The specified examples are the shadow area A 406 and the shadow area B 407 in FIG.

次に、非影領域検出部204は、図5を参照して説明した処理によって、非影領域を検出する。すなわち、影領域A406および影領域B407におけるエッジ特徴量に近い値のエッジ特徴量を持つ非影領域を、非発光画像の中から検出する。検出した例が非影領域A408および非影領域B409である。   Next, the non-shadow area detection unit 204 detects a non-shadow area by the processing described with reference to FIG. That is, a non-shadow area having an edge feature amount close to the edge feature amount in the shadow area A 406 and the shadow area B 407 is detected from the non-emission image. The detected examples are the non-shadow area A408 and the non-shadow area B409.

S705では、非影領域検出部204が、S704で非発光画像内で検出した非影領域と同じ位置の領域を、発光画像内で抽出する。図4の場合であれば、抽出される領域は背景被写体領域A402の非影領域、背景被写体領域B403の非影領域となる。このようにして、非発光画像データに基づいて、発光画像における影領域と非影領域とを検出することが可能となる。非影領域検出部204は、検出した影領域、非影領域の位置の情報を影領域補正部205へ出力する。   In step S705, the non-shadow area detection unit 204 extracts, in the light-emitting image, an area at the same position as the non-shadow area detected in the non-light-emitting image in step S704. In the case of FIG. 4, the extracted regions are the non-shadow region of the background subject region A402 and the non-shadow region of the background subject region B403. In this way, it is possible to detect a shadow area and a non-shadow area in a light-emitting image based on non-light-emitting image data. The non-shadow area detection unit 204 outputs information on the detected shadow area and the position of the non-shadow area to the shadow area correction unit 205.

S305では、影領域補正部205が、発光画像の影領域の補正処理を行う。ここでの補正処理の内容は、図3のS305で説明した処理と同様であるため、詳細な説明を省略する。   In step S305, the shadow area correction unit 205 performs a correction process on the shadow area of the luminescent image. The content of the correction processing here is the same as the processing described in S305 of FIG. 3, and thus detailed description is omitted.

以上説明したように第2の実施形態では、非発光画像において算出したエッジ特徴量に基づいて、影領域に対応する非影領域を検出し、検出した非影領域の位置の情報を用いて、発光画像の非影領域の情報を用いて影領域を補正する。このようにすることで、発光画像での影領域が暗く、エッジの特徴量を精度良く算出できない場合においても、非影領域の検出を適切に行うことが可能となる。   As described above, in the second embodiment, a non-shadow region corresponding to a shadow region is detected based on the edge feature amount calculated in the non-light-emission image, and information on the position of the detected non-shadow region is used. The shadow area is corrected using the information of the non-shadow area of the luminescent image. This makes it possible to appropriately detect the non-shadow area even when the shadow area in the light-emitting image is dark and the feature amount of the edge cannot be accurately calculated.

なお、上述した第1および第2の実施形態では、デジタルカメラ100内において、非発光画像および発光画像の撮影、および、影低減処理を共に行う場合について説明した。しかしながら、本発明はこれに限るものではなく、デジタルカメラ100により撮影され、記録媒体112に記録された非発光画像および発光画像を用いて、外部の画像処理装置により影低減処理を行うように構成してもよい。   In the first and second embodiments described above, a case has been described in which the non-light-emitting image and the light-emitting image are both captured and the shadow reduction processing is performed in the digital camera 100. However, the present invention is not limited to this, and is configured to perform a shadow reduction process by an external image processing device using a non-emission image and an emission image recorded by the digital camera 100 and recorded on the recording medium 112. May be.

また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   In addition, the present invention supplies a program realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus execute the program. The processing can be implemented by reading and executing. Further, it can also be realized by a circuit (for example, an ASIC) that realizes one or more functions.

50:システム制御部、103:撮像部、105:画像処理部、201:画像信号生成部、202:影領域検出部、203:エッジ特徴量算出部、204:非影領域検出部、205:影領域補正部、402,403:背景被写体領域、404,405:影領域、408:非影領域A、409:非影領域B   50: system control unit, 103: imaging unit, 105: image processing unit, 201: image signal generation unit, 202: shadow region detection unit, 203: edge feature amount calculation unit, 204: non-shadow region detection unit, 205: shadow Area correction unit, 402, 403: background subject area, 404, 405: shadow area, 408: non-shadow area A, 409: non-shadow area B

Claims (16)

撮影画像を取得する取得手段と、
前記撮影画像に含まれる被写体の影領域を検出する影領域検出手段と、
前記撮影画像に含まれる前記影領域を除く非影領域の画像信号に基づいて、前記影領域の画像信号を補正し、被写体の影を低減させる補正処理を行う補正手段と、
前記撮影画像に含まれるエッジ特徴量を検出するエッジ検出手段と、を備え、
前記補正手段は、前記影領域におけるエッジ特徴量と前記非影領域のエッジ特徴量に基づいて、前記影領域に対応する非影領域を抽出し、前記抽出した非影領域の画像信号に基づき、前記補正処理を制御することを特徴とする画像処理装置。
Acquisition means for acquiring a captured image;
A shadow area detecting means for detecting a shadow area of a subject included in the photographed image,
Correction means for correcting the image signal of the shadow area based on the image signal of the non-shadow area excluding the shadow area included in the captured image, and performing a correction process to reduce the shadow of the subject;
Edge detection means for detecting an edge feature amount included in the captured image,
It said correction means, based on the edge feature quantity of the edge feature quantity and the non-shadow region in the shadow region, extracts a non-shadow region corresponding to the shadow area, based on the image signal of the non-shadow area the extracted, An image processing apparatus for controlling the correction processing.
前記補正手段は、
前記影領域における前記エッジ特徴量に最も近い前記エッジ特徴量を有する前記非影領域を、前記影領域に対応する非影領域として出することを特徴とする請求項1に記載の画像処理装置。
The correction means,
The image processing apparatus according to claim 1, characterized in Rukoto issuing extract the non-shadow area having the edge feature quantity closest to the edge feature quantity in the shadow region, as a non-shadow region corresponding to the shadow region .
前記補正手段は、
前記エッジ特徴量に基づいて、前記影領域および前記非影領域をそれぞれ複数の分割領域に分割し、
前記影領域の各分割領域に対して、前記非影領域の分割領域のいずれかを抽出することを特徴とする請求項1または2に記載の画像処理装置。
The correction means,
Based on the edge feature amount, the shadow area and the non-shadow area are each divided into a plurality of divided areas,
The image processing apparatus according to claim 1 or 2, characterized in that for each divided area of the shadow region, extracts one of the divided regions of the non-shadow region.
前記エッジ検出手段は、前記撮影画像をそれぞれ複数の分割領域に分割し、分割領域毎に前記エッジ特徴量を求め、
前記補正手段は、前記影領域に含まれる各分割領域に対して、前記非影領域に含まれる分割領域のいずれかを抽出することを特徴とする請求項1または2に記載の画像処理装置。
The edge detection unit divides the captured image into a plurality of divided regions, and calculates the edge feature amount for each divided region,
It said correction means, the image processing apparatus according to each of the divided regions included in the shadow area, in claim 1 or 2, characterized in that to extract one of the divided regions included in the non-shadow region.
前記補正手段は、前記影領域の各分割領域のエッジ特徴量に予め決められた閾値よりも近いエッジ特徴量を有する前記非影領域の分割領域が複数存在する場合に、前記影領域の各分割領域からの距離が最も近い前記非影領域の分割領域を抽出することを特徴とする請求項3または4に記載の画像処理装置。   The correction unit is configured to, when there are a plurality of divided regions of the non-shadow region having an edge feature amount closer to a predetermined threshold value to the edge feature amount of each of the divided regions of the shadow region, The image processing apparatus according to claim 3, wherein a divided area of the non-shadow area closest to the area is extracted. 前記補正手段は、前記影領域の各分割領域のエッジ特徴量に予め決められた閾値よりも近いエッジ特徴量を有する前記非影領域の分割領域が複数存在する場合に、更に、前記影領域における画像信号と、前記非影領域における画像信号とを比較した結果に基づいて、前記非影領域の分割領域を抽出することを特徴とする請求項3または4に記載の画像処理装置。 The correction unit may further include, when there are a plurality of divided regions of the non-shadow region having an edge feature amount closer to a predetermined threshold value to the edge feature amount of each of the divided regions of the shadow region, The image processing apparatus according to claim 3, wherein a divided region of the non-shadow region is extracted based on a result of comparing an image signal with an image signal in the non-shadow region. 前記補正処理は、前記影領域における画像信号が、抽出された前記非影領域における画像信号に近い値となるように、前記影領域における画像信号に対して、所定の変換処理を行う処理であることを特徴とする請求項乃至6のいずれか1項に記載の画像処理装置。 The correction process, the image signal in the shadow area, so that a value close to the image signal in the non-shadow region issued extracted, the image signal in the shadow area, in the process of performing a predetermined conversion process the image processing apparatus according to any one of claims 1 to 6, characterized in that there. 前記補正処理は、前記影領域における画像信号の少なくとも一部を、抽出された前記非影領域における画像信号によって置き換える処理であることを特徴とする請求項乃至6のいずれか1項に記載の画像処理装置。 The correction process, wherein at least a portion of the image signal in the shadow area, in any one of claims 1 to 6, characterized in that a processing for replacing the image signal in the non-shadow region issued extracted the image processing apparatus. 前記補正手段は、前記影領域における前記エッジ特徴量と、前記非影領域における前記エッジ特徴量とを比較した結果に基づいて、前記補正処理を実行するか否かを切り替えることを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。   The correction means switches whether or not to execute the correction processing based on a result of comparing the edge feature value in the shadow region with the edge feature value in the non-shadow region. Item 9. The image processing device according to any one of Items 1 to 8. 前記エッジ特徴量は、前記撮影画像に含まれるエッジの量、エッジの方向毎の分布、所定の領域に含まれるエッジの量の平均値、エッジを検出するフィルタの出力値の少なくとも一つの情報を含むことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。   The edge feature amount includes at least one information of an edge amount included in the captured image, a distribution of each edge direction, an average value of the edge amounts included in a predetermined region, and an output value of a filter that detects an edge. The image processing device according to claim 1, wherein the image processing device includes the image processing device. 前記エッジ特徴量は、前記撮影画像に含まれる主要なエッジを抽出した情報であり、
前記補正手段は、前記影領域における前記エッジ特徴量と、前記非影領域における前記エッジ特徴量とが合致するか否かを判定した結果に基づいて、前記補正処理を制御することを特徴とする、請求項1に記載の画像処理装置。
The edge feature amount is information obtained by extracting a main edge included in the captured image,
Wherein the correction means includes a The edge feature in the shadow area, based on the result of the edge feature quantity and determines whether matches in the non-shadow region, and controls the correction process The image processing apparatus according to claim 1.
前記取得手段は、前記撮影画像として、照明手段を用いて撮影された第1の画像と、前記照明手段を用いずに撮影した第2の画像とを取得し、
前記エッジ検出手段は、前記第2の画像に含まれるエッジ特徴量を検出し、
前記補正手段は、前記第2の画像に含まれるエッジ特徴量に基づいて、前記第1の画像に対して前記補正処理を行う
ことを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
The acquiring means acquires, as the photographed image, a first image photographed using lighting means and a second image photographed without using the lighting means,
The edge detecting means detects an edge feature amount included in the second image,
The said correction | amendment means performs the said correction process with respect to the said 1st image based on the edge feature-value included in the said 2nd image. The Claim 1 characterized by the above-mentioned. Image processing device.
請求項1乃至12のいずれか1項に記載の画像処理装置と、
前記撮影画像を撮影するための撮像手段と
を有することを特徴とする撮像装置。
An image processing apparatus according to any one of claims 1 to 12,
An imaging unit for photographing the photographed image.
取得手段が、撮影画像を取得する取得工程と、
影領域検出手段が、前記撮影画像に含まれる被写体の影領域を検出する影領域検出工程と、
エッジ検出手段が、前記撮影画像に含まれるエッジ特徴量を検出するエッジ検出工程と、
補正手段が、前記撮影画像に含まれる前記影領域を除く非影領域の画像信号に基づいて、前記影領域の画像信号を補正し、被写体の影を低減させる補正処理を行う補正工程と、を備え、
前記補正工程では、前記影領域におけるエッジ特徴量と前記非影領域のエッジ特徴量に基づいて、前記影領域に対応する非影領域を抽出し、前記抽出した非影領域の画像信号に基づき、前記補正処理を制御することを特徴とする画像処理方法。
Acquiring means for acquiring a captured image,
A shadow area detecting step of detecting a shadow area of a subject included in the captured image,
Edge detection means for detecting an edge feature amount included in the captured image,
A correcting unit that corrects the image signal of the shadow region based on the image signal of the non-shadow region excluding the shadow region included in the captured image, and performs a correction process of reducing the shadow of the subject. Prepare,
Wherein the correction step, based on the edge feature quantity of the edge feature quantity and the non-shadow region in the shadow region, extracts a non-shadow region corresponding to the shadow area, based on the image signal of the non-shadow area the extracted, An image processing method comprising controlling the correction processing.
コンピュータを、請求項1乃至12のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   A program for causing a computer to function as each unit of the image processing apparatus according to claim 1. 請求項15に記載のプログラムを格納したコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 15.
JP2016001955A 2016-01-07 2016-01-07 Image processing apparatus and method, and imaging apparatus Expired - Fee Related JP6663223B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016001955A JP6663223B2 (en) 2016-01-07 2016-01-07 Image processing apparatus and method, and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016001955A JP6663223B2 (en) 2016-01-07 2016-01-07 Image processing apparatus and method, and imaging apparatus

Publications (3)

Publication Number Publication Date
JP2017123069A JP2017123069A (en) 2017-07-13
JP2017123069A5 JP2017123069A5 (en) 2019-02-14
JP6663223B2 true JP6663223B2 (en) 2020-03-11

Family

ID=59305807

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016001955A Expired - Fee Related JP6663223B2 (en) 2016-01-07 2016-01-07 Image processing apparatus and method, and imaging apparatus

Country Status (1)

Country Link
JP (1) JP6663223B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115601245B (en) * 2021-07-07 2023-12-12 同方威视技术股份有限公司 Shadow eliminating device and method, empty disc identifying device and method

Also Published As

Publication number Publication date
JP2017123069A (en) 2017-07-13

Similar Documents

Publication Publication Date Title
US20200043225A1 (en) Image processing apparatus and control method thereof
JP6445844B2 (en) Imaging device and method performed in imaging device
JP2009159496A (en) White balance control device, imaging apparatus using the same, and white balance control method
US9699386B2 (en) Image processing apparatus and method
US11089236B2 (en) Image processing apparatus and image processing method, and image capturing apparatus
US10972676B2 (en) Image processing method and electronic device capable of optimizing hdr image by using depth information
JP6412386B2 (en) Image processing apparatus, control method therefor, program, and recording medium
JP6718253B2 (en) Image processing apparatus and image processing method
JP6663223B2 (en) Image processing apparatus and method, and imaging apparatus
JP5956844B2 (en) Image processing apparatus and control method thereof
US10021314B2 (en) Image processing apparatus, image capturing apparatus, method of controlling the same, and storage medium for changing shading using a virtual light source
KR20110074443A (en) Photographing apparatus, photographing method and recording medium
JP6808482B2 (en) Image processing equipment, image processing methods, and programs
JP5754931B2 (en) Image analysis apparatus, image analysis method, and program
JP6541416B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND STORAGE MEDIUM
KR101710629B1 (en) Image pickup apparatus and image pickup method
US11265524B2 (en) Image processing apparatus, image processing method, and storage medium
JP2016091376A (en) Image processor and control method thereof, program and recording medium
JP6666735B2 (en) Image processing apparatus, imaging apparatus, control method for image processing apparatus, and program
JP6616674B2 (en) Image processing apparatus and method, and imaging apparatus
JP6053501B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP5367140B2 (en) White balance control device, imaging device using the same, and white balance control method
JP2021087125A (en) Image processing device, control method thereof, and program
JP2017151562A (en) Image processing device, imaging device, control method and program therefor

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200214

R151 Written notification of patent or utility model registration

Ref document number: 6663223

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees