WO2016171259A1 - 画像処理装置、及び撮像装置 - Google Patents

画像処理装置、及び撮像装置 Download PDF

Info

Publication number
WO2016171259A1
WO2016171259A1 PCT/JP2016/062782 JP2016062782W WO2016171259A1 WO 2016171259 A1 WO2016171259 A1 WO 2016171259A1 JP 2016062782 W JP2016062782 W JP 2016062782W WO 2016171259 A1 WO2016171259 A1 WO 2016171259A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
frame
image
correction
detection
Prior art date
Application number
PCT/JP2016/062782
Other languages
English (en)
French (fr)
Inventor
幹也 田中
陽子 貝塚
千佳 安孫子
慶 木谷
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Publication of WO2016171259A1 publication Critical patent/WO2016171259A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Definitions

  • the present invention relates to an image processing device and an imaging device.
  • This application claims priority based on Japanese Patent Application No. 2015-088078 filed on April 23, 2015, the contents of which are incorporated herein by reference.
  • the skin color classification area of the plurality of classification areas into which the photographed image is classified is classified into a plurality of classes according to a predetermined standard, and the luminance of the skin color classification area belonging to the optimum class in which the number of belonging skin color classification areas is closest to a predetermined value
  • An image processing apparatus that corrects the brightness of a captured image based on the above is known (for example, see Patent Document 1).
  • a subject detection unit that detects a subject from a plurality of frames, and a subject detection unit that detects a subject based on the position of the subject in a detection frame that is a frame in which the subject is detected by the subject detection unit.
  • a subject position determination unit that determines a position of a subject in an undetected frame that is a frame in which no image is detected, and determines an image correction range for the plurality of frames based on the position of the subject in the plurality of frames, and a correction processing unit that executes an image correction process on the image correction range.
  • an imaging unit that captures a moving image
  • an image correction range is determined for a plurality of frames that configure the moving image captured by the imaging unit, and image correction processing is performed on the image correction range.
  • An image processing apparatus including the above-described image processing apparatus to be executed.
  • a computer detects a subject from a plurality of frames, a subject detection unit, and the subject detection unit based on the position of the subject in a detection frame that is a frame in which the subject is detected by the subject detection unit.
  • a subject position determination unit that determines a position of a subject in an undetected frame that is a frame in which the subject is not detected by the step, and determines an image correction range for the plurality of frames based on the position of the subject in the plurality of frames,
  • FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention. It is a flowchart which shows the image processing procedure which concerns on one Embodiment. It is a figure which shows the example of the specific color range information which concerns on one Embodiment. It is a figure which shows the example of the specific color range information which concerns on one Embodiment. It is a figure which shows the example of the specific color range information which concerns on one Embodiment. It is a figure which shows the example of the specific color range information which concerns on one Embodiment. It is a conceptual diagram for demonstrating the example of the to-be-photographed object position determination process which concerns on one Embodiment. It is a conceptual diagram for demonstrating the example of the image correction process which concerns on one Embodiment.
  • FIG. 1 is a block diagram showing the configuration of the image processing apparatus 1 according to the first embodiment of the present invention.
  • the image processing apparatus 1 includes a frame buffer 10, a subject detection unit 11, a subject position determination unit 12, and a correction processing unit 13.
  • the image processing apparatus 1 receives a moving image Vin composed of a plurality of frames.
  • the frame is a still image.
  • a frame of the moving image Vin is input to the frame buffer 10 in order from the top.
  • the frame buffer 10 temporarily stores a certain amount of frames of the moving image Vin.
  • the image processing apparatus 1 includes a circuit such as a CPU (Central Processing Unit) for performing various calculations and controls.
  • CPU Central Processing Unit
  • the subject detection unit 11 detects a subject from a frame temporarily stored in the frame buffer 10.
  • the subject position determination unit 12 determines the position of the subject in a frame in which no subject is detected by the subject detection unit 11 (hereinafter referred to as an undetected frame).
  • the correction processing unit 13 executes image correction processing on the detected frame temporarily stored in the frame buffer 10 based on the position of the subject in a frame (hereinafter referred to as a detection frame) where the subject is detected by the subject detection unit 11. To do.
  • the correction processing unit 13 performs image correction processing on the undetected frame temporarily stored in the frame buffer 10 based on the position of the subject in the undetected frame determined by the subject position determination unit 12.
  • the correction processing unit 13 outputs a moving image Vout having a frame as a result of executing the image correction processing.
  • FIG. 2 is a flowchart showing an image processing procedure according to the first embodiment.
  • FIG. 2 shows processing for one frame.
  • the subject detection unit 11 reads a frame to be processed (hereinafter referred to as a subject detection target frame) from the frame buffer 10.
  • the subject detection unit 11 detects a subject from the subject detection target frame.
  • the subject detection unit 11 determines a specific color portion in the subject detection target frame.
  • the specific color is a color characteristic of the subject.
  • the specific color is a color corresponding to the human skin color.
  • the subject detection unit 11 has specific color range information indicating a specific color range. 3, 4, and 5 are diagrams illustrating examples of specific color range information.
  • the specific color range information shown in FIGS. 3, 4 and 5 uses the color representation of the HSV color system.
  • the HSV color system constitutes a color space with three components of H (Hue: Hue), S (Saturation: Saturation), and V (Value: Lightness).
  • the specific color range information in FIG. 3 indicates that a range 101 where the H component is 0 ° to 40 ° is a specific color range.
  • the specific color range information in FIG. 4 indicates that the range 102 in which the H component is 0 ° to 60 ° and 330 ° to 360 ° is the specific color range.
  • the specific color range information in FIG. 5 includes a range 102 where the H component is 0 ° to 60 ° and 330 ° to 360 °, an H component is 175 ° to 330 °, and an S component is 0 to 0.4.
  • a range 103 that is up to is a specific color range.
  • the specific color range indicated by the specific color range information in FIG. 3 is relatively narrow.
  • the specific color range indicated by the specific color range information in FIG. 5 is relatively wide.
  • the specific color range indicated by the specific color range information in FIG. 4 is wider than the specific color range indicated by the specific color range information in FIG. 3, and is larger than the specific color range indicated by the specific color range
  • the subject detection unit 11 has a plurality of specific color range information, appropriately selects any specific color range information from the plurality of specific color range information, and uses any of the selected specific color range information. Also good.
  • the specific color range information to be used is set in advance for the subject detection unit 11 in accordance with the input information related to the skin color of the subject person.
  • the subject detection unit 11 uses preset specific color range information according to input information related to the skin color of the subject person. Examples of information related to the skin color of the subject person include information such as the race of the subject person and the region where the moving image Vin is captured.
  • the position when the moving image Vin is imaged by the position detecting device is detected, and the position information output from the position detecting device is used as input information indicating the area where the moving image Vin is imaged.
  • the position detection device for example, using GPS (Global Positioning System) can be mentioned.
  • the subject detection unit 11 determines that the color portion in the specific color range indicated by the specific color range information in the subject detection target frame is the specific color portion.
  • the subject detection unit 11 detects a face portion from the specific color portion.
  • the specific color portion may be detected as a face portion.
  • a certain range (for example, a rectangular range) including a specific color portion and having facial features may be detected as the face portion.
  • a facial feature for example, there is a black portion (portion corresponding to eyes or eyebrows) in the central portion of a rectangular range including a specific color portion.
  • the ratio of pixels of a specific color among pixels in a rectangular range including a specific color portion is a certain level or more.
  • the subject detection unit 11 outputs subject position information indicating the position of the human face portion detected from the subject detection target frame to the subject position determination unit 12 and the correction processing unit 13.
  • the subject position information includes frame identification information for specifying the subject detection target frame and information indicating the position of the subject in the subject detection target frame. In the example of the subject detection process here, the subject position information indicates the position of a person's face in the subject detection target frame.
  • the subject is detected using a specific color.
  • the subject may be detected using a feature of the shape of the subject.
  • the specific color may or may not be used for detecting the subject.
  • the subject position determination unit 12 determines whether or not a subject has been detected by the subject detection unit 11 for a frame temporarily stored in the frame buffer 10. This determination is performed by recognizing a detection frame by inputting subject position information from the subject detection unit 11 and recognizing a frame from which subject position information has not been input by the subject detection unit 11 as an undetected frame. Is called. A frame in which subject position information is not input from the subject detection unit 11 is detected as a missing frame by detecting discontinuity of the detection frame based on the frame identification information of the input subject position information.
  • the subject position determination unit 12 does not execute the subject position determination process in step S3 for the frame in which it is determined that the subject is detected by the subject detection unit 11 as a result of the determination in step S2. In this case, the process proceeds to step S4 in FIG.
  • the subject position determination unit 12 performs the subject position determination process in step S3 on the frame determined as a result of the determination in step S2 that the subject detection unit 11 has not detected the subject. In this case, the process proceeds to step S3 in FIG.
  • the subject position determination unit 12 determines the position of the subject in the undetected frame using the detected frame.
  • the detection frame used for determining the position of the subject in the undetected frame is referred to as a use detection frame.
  • the use detection frame may be a previous detection frame based on an undetected frame.
  • the use detection frame may be a later detection frame based on an undetected frame.
  • the use detection frame may be both a detection frame before and after the undetected frame.
  • the use detection frame may be a detection frame immediately before or immediately after the undetected frame, or both detection frames immediately before and after.
  • the detection frame immediately before or immediately after the undetected frame is considered to have information most relevant to the position of the subject in the undetected frame, and therefore can be preferably used as the use detection frame.
  • the subject position determination unit 12 may determine the position of the subject in the undetected frame based on the time between the use detection frame and the undetected frame. It is considered that how much the position of the subject in the usage detection frame moves in the undetected frame varies depending on the time between the usage detection frame and the undetected frame. For this reason, the subject position determination unit 12 calculates a moving distance from the position of the subject in the use detection frame to the position of the subject in the undetected frame according to the time between the use detection frame and the undetected frame. Then, the position of the subject in the undetected frame may be determined based on the calculated moving distance.
  • FIG. 6 is a conceptual diagram for explaining an example of subject position determination processing.
  • detected frames F1 and F4 and undetected frames F2 and F3 are shown.
  • the rectangular range D1 is detected as the face position by the subject detection unit 11.
  • the subject detection unit 11 detects the rectangular range D4 as the face position.
  • no face was detected by the subject detection unit 11.
  • the subject position determination unit 12 determines the position of the face in the undetected frame F2 and F3 using the detection frame F1 before and the detection frame F4 after the detection frames F2 and F3. As shown in the determination process in FIG. 6, the subject position determination unit 12 determines the face from the detection frame F1 to the detection frame F4 based on the rectangular range D1 of the detection frame F1 and the rectangular range D4 of the detection frame F4.
  • the movement locus L is derived.
  • a straight line is used as the movement locus L.
  • the straight movement locus L can be preferably used when a person moves linearly and at a constant speed.
  • the subject position determination unit 12 determines the rectangular range D2 including the passage portion of the movement locus L in the undetected frame F2 as the face position.
  • the subject position determination unit 12 determines the rectangular range D3 including the passage portion of the movement locus L in the undetected frame F3 as the face position.
  • the subject position determination unit 12 may inspect the face position in the undetected frame of the determination result. For example, it is possible to pass the inspection only when there is a facial feature in the rectangular range in the undetected frame that is the determination result as the face position.
  • the subject position determination unit 12 outputs subject position information indicating the position of the human face portion detected from the undetected frame to the correction processing unit 13.
  • the correction processing unit 13 performs image correction processing on the frames temporarily stored in the frame buffer 10.
  • the correction processing unit 13 performs image correction processing on the detection frame temporarily stored in the frame buffer 10 based on the position of the subject in the detection frame indicated by the subject position information input from the subject detection unit 11.
  • the correction processing unit 13 recognizes the detection frame temporarily stored in the frame buffer 10 based on the subject position information input from the subject detection unit 11.
  • the correction processing unit 13 performs image correction processing on the undetected frame temporarily stored in the frame buffer 10 based on the position of the subject in the undetected frame indicated by the subject position information input from the subject position determination unit 12. To do.
  • the correction processing unit 13 recognizes an undetected frame temporarily stored in the frame buffer 10 based on the subject position information input from the subject position determination unit 12.
  • correction processing unit 13 may correct a subject portion in the frame, or may correct a portion other than the subject portion in the frame.
  • the correction processing unit 13 outputs a moving image Vout having a frame as a result of executing the image correction processing.
  • Backlight correction will be described as an example of image correction processing.
  • a human face is taken as an example of the subject.
  • the face portion indicated by the subject position information is assumed to be a rectangular range.
  • the correction processing unit 13 determines a specific color portion from a rectangular range (hereinafter referred to as a face rectangular range) of a face portion indicated by subject position information of a frame to be corrected (hereinafter referred to as a correction frame).
  • the specific color is a color characteristic of the subject. In the example of this correction process, the specific color is a color corresponding to the color of human skin.
  • the subject detection unit 11 has specific color range information indicating a specific color range. Examples of specific color range information are shown in FIGS. 3, 4 and 5 described above.
  • the correction processing unit 13 has a plurality of specific color range information, appropriately selects one specific color range information from the plurality of specific color range information, and uses one of the selected specific color range information. Also good.
  • the specific color range information to be used is set in the correction processing unit 13 according to the information related to the skin color of the subject person, and based on the input information related to the skin color of the subject person.
  • the corresponding specific color range information may be used. Examples of information related to the skin color of the subject person include information such as the race of the subject person and the region where the moving image Vin is captured. Further, the position when the moving image Vin is captured by the position detecting device is detected, and the position information output from the position detecting device is used as input information indicating the area where the moving image Vin is captured. May be.
  • An example of the position detection device is to use GPS.
  • the correction processing unit 13 determines that the color portion in the specific color range indicated by the specific color range information in the face rectangular range is the specific color portion.
  • the correction processing unit 13 performs backlight correction for the face rectangular range based on the determined image feature amount of only the specific color portion. This makes it possible to perform backlight correction on the face rectangular range without using the image feature amount of a portion that is clearly not human skin (a color portion outside the specific color range).
  • the face rectangular range D101 of the correction frame F101 includes a hair portion E101a and a background portion E101b as portions that are not skin. If the image feature amounts of the part E101a other than the skin and the part E101b other than the skin are used for backlight correction with respect to the face rectangular range D101, there is a possibility that the brightness is not appropriate for the skin part. For example, if the face rectangular area includes a face that is dark in the backlight and a background that is much brighter than that face, for example, the sky is used, the brightness of the sky is used for backlight correction, and the face is corrected sufficiently brightly. Therefore, there is a possibility that the backlight correction result is insufficient in luminance.
  • the image feature amount of only the remaining portion obtained by removing the non-skin portion E101a and the non-skin portion E101b from the face rectangle range D101 can be preferably used for backlight correction for the face rectangle range D101.
  • the part E101a other than the skin and the part E101b other than the skin are excluded from the part from which the image feature amount is acquired as the part of the color outside the specific color range.
  • the image feature amount of only the remaining portion obtained by removing the background portion E102b included in the face rectangular range D102 can be preferably used for backlight correction for the face rectangular range D102.
  • the background portion E102b is excluded from the portion from which the image feature amount is acquired as a color portion outside the specific color range. In other words, it aims to extract an image feature amount related to human skin.
  • the correction processing unit 13 may perform backlight correction on the face rectangular range and the peripheral portion of the face rectangular range.
  • the face of a person in the face rectangular range D110 appears dark due to the influence of backlight.
  • the backlight correction is performed only on the face rectangular range, the face of the person in the face rectangular range D110 is bright, but the brightness between the face rectangular range D110 and peripheral portions other than the face rectangular range D110 is bright.
  • the difference in height is increased, and unnaturalness is generated between the face rectangular range D110 and the peripheral portion.
  • backlight correction is performed on the face rectangular range D110 and the peripheral portion so that the face rectangular range D110 and the peripheral portion are naturally connected.
  • the backlight correction is performed on the correction range H110 including the face rectangular range D110 and the peripheral portion. Thereby, the effect which the face rectangular range D110 and a peripheral part connect naturally is acquired.
  • the correction processing unit 13 may change the size of the correction range including the face rectangular range and the peripheral part according to the intensity of backlight correction.
  • the intensity of the backlight correction for the correction frame F120 is a high level as shown in the luminance histogram 200a.
  • a waveform W201 is a luminance histogram of the correction frame F120 before backlight correction
  • a waveform W202a is a luminance histogram of the correction frame F120 after backlight correction
  • a waveform W203a is the luminance of the correction frame F120 before backlight correction.
  • the overlapping portion of the histogram and the brightness histogram after the backlight correction of the correction frame F120 are shown.
  • the correction range H120a of the correction frame F120 includes a face rectangular range D120 and a peripheral portion. As shown in FIG. 9, when the backlight correction for the correction frame F120 is at a high level, the size of the peripheral portion included in the correction range H120a is set to a wide level.
  • the intensity of the backlight correction for the correction frame F120 is at a weak level as shown in the luminance histogram 200b.
  • a waveform W201 is a luminance histogram of the correction frame F120 before backlight correction
  • a waveform W202b is a luminance histogram of the correction frame F120 after backlight correction
  • a waveform W203b is the luminance of the correction frame F120 before backlight correction.
  • the overlapping portion of the histogram and the brightness histogram after the backlight correction of the correction frame F120 are shown.
  • the correction range H120b of the correction frame F120 includes a face rectangular range D120 and a peripheral portion. As shown in FIG. 10, when the backlight correction for the correction frame F120 is at a weak level, the size of the peripheral portion included in the correction range H120b is set to a narrow level.
  • the correction processing unit 13 may set the difference in the image correction amount between consecutive frames to a certain amount or less. For example, when correcting the luminance, the difference in the luminance correction amount between consecutive frames is set to a certain amount or less. As a result, it is possible to prevent a difference in luminance between frames from increasing and causing flickering.
  • FIG. 11 is a block diagram showing a configuration of the imaging apparatus 2 according to the second embodiment of the present invention.
  • the imaging device 2 includes the image processing device 1 according to the first embodiment, an imaging unit 20, a recording unit 21, and a display unit 22.
  • the imaging unit 20 captures a moving image.
  • the imaging unit 20 outputs the captured moving image Vin to the image processing apparatus 1.
  • the image processing apparatus 1 performs image correction processing on the moving image Vin input from the imaging unit 20.
  • the image processing apparatus 1 outputs the moving image Vout as a result of executing the image correction process to the recording unit 21.
  • the recording unit 21 records the moving image Vout input from the image processing apparatus 1.
  • the display unit 22 displays the moving image recorded in the recording unit 21.
  • the imaging device 2 performs image correction processing on the moving image captured by the imaging unit 20 by the image processing device 1 and records a moving image as a result of the image correction processing being executed. Part 21 can be recorded. Further, the imaging device 2 can display the moving image recorded in the recording unit 21 by the display unit 22.
  • a human face is taken as an example of the subject, but the subject is not limited thereto.
  • Other examples of the subject include parts other than human faces, living things other than humans, and objects other than living things.
  • backlight correction is given as an example of image correction processing, but the present invention is not limited to this.
  • image correction processing include contrast correction and saturation correction.
  • SYMBOLS 1 ... Image processing apparatus, 2 ... Imaging device, 10 ... Frame buffer, 11 ... Subject detection part, 12 ... Subject position determination part, 13 ... Correction processing part, 20 ... Imaging part, 21 ... Recording part, 22 ... Display part.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)

Abstract

画像処理装置は、複数のフレームから被写体を検出する被写体検出部と、前記被写体検出部によって被写体が検出されたフレームである検出フレーム内の被写体の位置に基づいて、前記被写体検出部によって被写体が検出されなかったフレームである未検出フレーム内の被写体の位置を判定する被写***置判定部と、前記複数のフレーム内の被写体の位置に基づいて前記複数のフレームに画像補正範囲を決定し、前記画像補正範囲に対して画像補正処理を実行する補正処理部と、を備える。

Description

画像処理装置、及び撮像装置
 本発明は、画像処理装置、及び撮像装置に関する。
 本願は、2015年4月23日に出願された日本国特許出願2015-088078号に基づき優先権を主張し、その内容をここに援用する。
 撮影画像を区分した複数の区分領域のうちの肌色区分領域を所定の基準で複数の階級に分類し、所属する肌色区分領域の数が所定値に最も近い最適階級に所属する肌色区分領域の輝度に基づいて、撮影画像の明るさを補正する、画像処理装置が知られている(例えば、特許文献1参照)。
特開2009-98192号公報
 被写体の人の顔の明るさを補正する画像補正処理を動画像に対して実行する場合、動画像を構成するフレームのうち顔が検出されないフレームについては、フレームに顔が写っていたとしても、適切な補正がなされないという問題がある。
 本発明の態様は、動画像を構成するフレームのうち被写体が検出されないフレームについても、適切な補正を行うことができる画像処理装置、及び撮像装置を提供することを課題とする。
 本発明の一態様は、複数のフレームから被写体を検出する被写体検出部と、前記被写体検出部によって被写体が検出されたフレームである検出フレーム内の被写体の位置に基づいて、前記被写体検出部によって被写体が検出されなかったフレームである未検出フレーム内の被写体の位置を判定する被写***置判定部と、前記複数のフレーム内の被写体の位置に基づいて前記複数のフレームに画像補正範囲を決定し、前記画像補正範囲に対して画像補正処理を実行する補正処理部と、を備えた画像処理装置である。
 本発明の一態様は、動画像を撮像する撮像部と、前記撮像部によって撮像された動画像を構成する複数のフレームに画像補正範囲を決定し、前記画像補正範囲に対して画像補正処理を実行する上記に記載の画像処理装置と、を備えた撮像装置である。
 本発明の一態様は、コンピュータを、複数のフレームから被写体を検出する被写体検出部、前記被写体検出部によって被写体が検出されたフレームである検出フレーム内の被写体の位置に基づいて、前記被写体検出部によって被写体が検出されなかったフレームである未検出フレーム内の被写体の位置を判定する被写***置判定部、前記複数のフレーム内の被写体の位置に基づいて前記複数のフレームに画像補正範囲を決定し、前記画像補正範囲に対して画像補正処理を実行する補正処理部、として機能させるための画像処理プログラムである。
本発明の一実施形態に係る画像処理装置の構成を示すブロック図である。 一実施形態に係る画像処理手順を示すフローチャートである。 一実施形態に係る特定色範囲情報の例を示す図である。 一実施形態に係る特定色範囲情報の例を示す図である。 一実施形態に係る特定色範囲情報の例を示す図である。 一実施形態に係る被写***置判定処理の例を説明するための概念図である。 一実施形態に係る画像補正処理の例を説明するための概念図である。 一実施形態に係る画像補正処理の例を説明するための概念図である。 一実施形態に係る画像補正処理の例を説明するための概念図である。 一実施形態に係る画像補正処理の例を説明するための概念図である。 一実施形態に係る撮像装置の構成を示すブロック図である。
 以下、図面を参照し、本発明の実施形態について説明する。
[第1実施形態]
 図1は、本発明の第1実施形態に係る画像処理装置1の構成を示すブロック図である。
 図1において、画像処理装置1は、フレームバッファ10と被写体検出部11と被写***置判定部12と補正処理部13とを備える。画像処理装置1には、複数のフレームから構成される動画像Vinが入力される。フレームは静止画像である。フレームバッファ10には、動画像Vinのフレームが先頭から順番に入力される。フレームバッファ10は、動画像Vinのフレームを一定量だけ一時記憶する。
 画像処理装置1は、各種の演算、制御を行うための、CPU(Central Processing Unit)などの回路(circuitry)を備えている。
 被写体検出部11は、フレームバッファ10に一時記憶されるフレームから被写体を検出する。被写***置判定部12は、被写体検出部11によって被写体が検出されなかったフレーム(以下、未検出フレームと称する)内の被写体の位置を判定する。補正処理部13は、被写体検出部11によって被写体が検出されたフレーム(以下、検出フレームと称する)内の被写体の位置に基づいて、フレームバッファ10に一時記憶される検出フレームに対する画像補正処理を実行する。補正処理部13は、被写***置判定部12によって判定された未検出フレーム内の被写体の位置に基づいて、フレームバッファ10に一時記憶される未検出フレームに対する画像補正処理を実行する。補正処理部13は、画像補正処理を実行した結果のフレームを有する動画像Voutを出力する。
 以下、第1実施形態に係る画像処理装置1について詳細に説明する。図2は、第1実施形態に係る画像処理手順を示すフローチャートである。図2には、ある一フレーム分の処理を示している。
<ステップS1:被写体検出処理>
 被写体検出部11は、フレームバッファ10から処理の対象であるフレーム(以下、被写体検出対象フレームと称する)を読み出す。被写体検出部11は、被写体検出対象フレームから被写体を検出する。
(被写体検出処理の例)
 被写体として人の顔を検出する処理の例を説明する。被写体検出部11は、被写体検出対象フレーム内の特定色の部分を判定する。特定色は、被写体に特徴的な色である。本被写体検出処理の例では、特定色は、人の肌の色に対応する色である。被写体検出部11は、特定色の範囲を示す特定色範囲情報を有する。図3、図4及び図5は、特定色範囲情報の例を示す図である。図3、図4及び図5に示される特定色範囲情報は、HSV表色系の色の表現を使用している。HSV表色系は、H(Hue:色相)、S(Saturation:彩度)、及び、V(Value:明度)の3つの成分で色空間を構成する。
 図3の特定色範囲情報は、H成分が0°から40°までの範囲101が特定色の範囲であることを示す。図4の特定色範囲情報は、H成分が0°から60°までと330°から360°までの範囲102が特定色の範囲であることを示す。図5の特定色範囲情報は、H成分が0°から60°までと330°から360°までの範囲102と、H成分が175°から330°までであり且つS成分が0から0.4までである範囲103と、が特定色の範囲であることを示す。図3の特定色範囲情報で示される特定色の範囲は比較的狭い。図5の特定色範囲情報で示される特定色の範囲は比較的広い。図4の特定色範囲情報で示される特定色の範囲は、図3の特定色範囲情報で示される特定色の範囲よりも広く、図3の特定色範囲情報で示される特定色の範囲よりも狭い。
 被写体検出部11は、複数の特定色範囲情報を有し、複数の特定色範囲情報からいずれかの特定色範囲情報を適宜選択して、選択されたいずれかの特定色範囲情報を使用してもよい。例えば、被写体検出部11に対して、被写体の人の肌の色に関係する入力情報に応じてどの特定色範囲情報を使用するのか、を予め設定しておく。被写体検出部11は、被写体の人の肌の色に関係する入力情報に応じて、予め設定された特定色範囲情報を使用する。被写体の人の肌の色に関係する情報として、例えば、被写体の人の人種、動画像Vinが撮像された地域などの情報が挙げられる。また、位置検出装置によって動画像Vinを撮像している時の位置を検出し、その位置検出装置から出力される位置情報を、動画像Vinが撮像された地域を示す入力情報に使用してもよい。位置検出装置として、例えば、GPS(Global Positioning System)を利用することが挙げられる。
 被写体検出部11は、被写体検出対象フレーム内において、特定色範囲情報で示される特定色の範囲にある色の部分を、特定色部分であると判定する。被写体検出部11は、特定色部分から顔の部分を検出する。例えば、特定色部分を顔の部分として検出してもよい。又は、特定色部分を含む一定範囲(例えば、矩形範囲)を顔の部分として検出してもよい。又は、特定色部分を含み且つ顔の特徴を有する一定範囲(例えば、矩形範囲)を顔の部分として検出してもよい。顔の特徴として、例えば、特定色部分を含む矩形範囲の中央部分に黒色の部分(目や眉に対応する部分)が在ることが挙げられる。顔の特徴として、例えば、特定色部分を含む矩形範囲に在る画素のうち特定色の画素の割合が一定以上であることが挙げられる。
 被写体検出部11は、被写体検出対象フレームから検出された人の顔の部分の位置を示す被写***置情報を、被写***置判定部12と補正処理部13とに出力する。被写***置情報は、被写体検出対象フレームを特定するフレーム識別情報と、被写体検出対象フレーム内の被写体の位置を示す情報とを有する。ここでの被写体検出処理の例では、被写***置情報は、被写体検出対象フレーム内の人の顔の位置を示す。
 以上が被写体検出処理の例の説明である。
 なお、上記の被写体検出処理の例では、特定色を使用して被写体を検出したが、被写体の形状の特徴を使用して被写体を検出してもよい。また、被写体の検出に、特定色を使用してもよく、又は、使用しなくてもよい。
<ステップS2:被写体検出有無判断処理>
 被写***置判定部12は、フレームバッファ10に一時記憶されるフレームについて、被写体検出部11によって被写体が検出されたか否かを判断する。この判断は、被写体検出部11から被写***置情報が入力されることで検出フレームを認識し、被写体検出部11から被写***置情報が入力されなかったフレームを未検出フレームであると認識することで行われる。被写体検出部11から被写***置情報が入力されなかったフレームは、入力された被写***置情報のフレーム識別情報によって検出フレームの不連続が検出されることにより、抜けているフレームとして検出される。
 被写***置判定部12は、ステップS2の判断の結果、被写体検出部11によって被写体が検出されたと判断したフレームに対しては、ステップS3の被写***置判定処理を実行しない。この場合、図2中のステップS4へ処理が移行される。一方、被写***置判定部12は、ステップS2の判断の結果、被写体検出部11によって被写体が検出されなかったと判断したフレームに対して、ステップS3の被写***置判定処理を実行する。この場合、図2中のステップS3へ処理が移行される。
<ステップS3:被写***置判定処理>
 被写***置判定部12は、検出フレームを使用して、未検出フレーム内の被写体の位置を判定する。以下、未検出フレーム内の被写体の位置の判定に使用される検出フレームを使用検出フレームと称する。使用検出フレームは、未検出フレームを基準に前の検出フレームであってもよい。又は、使用検出フレームは、未検出フレームを基準に後の検出フレームであってもよい。又は、使用検出フレームは、未検出フレームを基準に前と後の両方の検出フレームであってもよい。又は、使用検出フレームは、未検出フレームを基準に直前もしくは直後の検出フレーム、又は、直前と直後の両方の検出フレームであってもよい。未検出フレームを基準に直前又は直後の検出フレームは、未検出フレーム内の被写体の位置に最も関連する情報を有すると考えられることから、使用検出フレームとして好ましく用いることができる。
 被写***置判定部12は、使用検出フレームと未検出フレームとの間の時間に基づいて、未検出フレーム内の被写体の位置を判定してもよい。使用検出フレーム内の被写体の位置が未検出フレーム内でどのくらい移動するかは、使用検出フレームと未検出フレームとの間の時間に応じて変わると考えられる。このため、被写***置判定部12は、使用検出フレームと未検出フレームとの間の時間に応じて、使用検出フレーム内の被写体の位置から、未検出フレーム内の被写体の位置までの移動距離を算出し、算出した移動距離に基づいて未検出フレーム内の被写体の位置を判定してもよい。
(被写***置判定処理の例)
 被写体として人の顔を例に挙げて説明する。図6は、被写***置判定処理の例を説明するための概念図である。図6中の判定前において、検出フレームF1及びF4と未検出フレームF2及びF3が示される。検出フレームF1では、被写体検出部11によって矩形範囲D1が顔の位置として検出された。検出フレームF4では、被写体検出部11によって矩形範囲D4が顔の位置として検出された。未検出フレームF2及びF3では、被写体検出部11によって顔が検出されなかった。
 被写***置判定部12は、未検出フレームF2及びF3よりも、前の検出フレームF1と後の検出フレームF4とを使用して、未検出フレームF2内及びF3内の顔の位置を判定する。図6中の判定処理に示されるように、被写***置判定部12は、検出フレームF1の矩形範囲D1と検出フレームF4の矩形範囲D4とに基づいて、検出フレームF1から検出フレームF4までの顔の移動軌跡Lを導出する。ここでは、移動軌跡Lとして直線を使用する。直線の移動軌跡Lは、人が線形かつ一定速度で移動する場合に好ましく用いることができる。
 被写***置判定部12は、未検出フレームF2内の移動軌跡Lの通過部分を含む矩形範囲D2を、顔の位置に判定する。被写***置判定部12は、未検出フレームF3内の移動軌跡Lの通過部分を含む矩形範囲D3を、顔の位置に判定する。
 被写***置判定部12は、判定結果の未検出フレーム内の顔の位置に対して、検査を行ってもよい。例えば、顔の位置としての判定結果である未検出フレーム内の矩形範囲に、顔の特徴がある場合にのみ、検査を合格とすることが挙げられる。
 被写***置判定部12は、未検出フレームから検出された人の顔の部分の位置を示す被写***置情報を、補正処理部13に出力する。
 以上が被写***置判定処理の例の説明である。
<ステップS4:補正処理>
 補正処理部13は、フレームバッファ10に一時記憶されるフレームに対して、画像補正処理を実行する。補正処理部13は、被写体検出部11から入力された被写***置情報で示される検出フレーム内の被写体の位置に基づいて、フレームバッファ10に一時記憶される検出フレームに対する画像補正処理を実行する。補正処理部13は、被写体検出部11から入力された被写***置情報に基づいて、フレームバッファ10に一時記憶される検出フレームを認識する。
 補正処理部13は、被写***置判定部12から入力された被写***置情報で示される未検出フレーム内の被写体の位置に基づいて、フレームバッファ10に一時記憶される未検出フレームに対する画像補正処理を実行する。補正処理部13は、被写***置判定部12から入力された被写***置情報に基づいて、フレームバッファ10に一時記憶される未検出フレームを認識する。
 なお、補正処理部13は、フレーム内の被写体部分を補正してもよく、又は、フレーム内の被写体部分以外の部分を補正してもよい。
 補正処理部13は、画像補正処理を実行した結果のフレームを有する動画像Voutを出力する。
(画像補正処理の例)
 画像補正処理の例として、逆光補正を説明する。また、被写体として、人の顔を例に挙げる。また、被写***置情報で示される顔の部分は矩形範囲であるとする。
 補正処理部13は、補正するフレーム(以下、補正フレームと称する)の被写***置情報で示される顔の部分の矩形範囲(以下、顔矩形範囲と称する)から、特定色の部分を判定する。特定色は、被写体に特徴的な色である。本補正処理の例では、特定色は、人の肌の色に対応する色である。被写体検出部11は、特定色の範囲を示す特定色範囲情報を有する。上記した図3、図4及び図5に、特定色範囲情報の例が示される。
 補正処理部13は、複数の特定色範囲情報を有し、複数の特定色範囲情報からいずれかの特定色範囲情報を適宜選択して、選択されたいずれかの特定色範囲情報を使用してもよい。例えば、被写体の人の肌の色に関係する情報に応じてどの特定色範囲情報を使用するのかを補正処理部13に設定しておき、被写体の人の肌の色に関係する入力情報に基づいて該当する特定色範囲情報を使用するようにしてもよい。被写体の人の肌の色に関係する情報として、例えば、被写体の人の人種、動画像Vinが撮像された地域などの情報が挙げられる。また、位置検出装置によって動画像Vinを撮像している時の位置を検出し、その位置検出装置から出力される位置情報を、動画像Vinが撮像された地域を示す入力情報として使用するようにしてもよい。位置検出装置として、例えば、GPSを利用することが挙げられる。
 補正処理部13は、顔矩形範囲において、特定色範囲情報で示される特定色の範囲にある色の部分を、特定色部分であると判定する。補正処理部13は、判定された特定色部分のみの画像特徴量に基づいて、顔矩形範囲に対する逆光補正を行う。これにより、明らかに人の肌ではない部分(特定色の範囲外の色の部分)の画像特徴量を使用しないで、顔矩形範囲に対する逆光補正を行うことができる。
 図7において、補正フレームF101の顔矩形範囲D101には、肌ではない部分として、髪の部分E101aと、背景の部分E101bとが含まれる。肌以外の部分E101a及び肌以外の部分E101bの画像特徴量を顔矩形範囲D101に対する逆光補正に使用すると、肌の部分にとって適切な明るさにすることができない可能性がある。例えば、顔矩形範囲に、逆光で暗く写っている顔と共にその顔よりもかなり明るい背景として例えば空が含まれている場合、その空の輝度を逆光補正に使用すると、顔が十分に明るく補正されず、輝度不足の逆光補正結果となる可能性がある。
 このため、顔矩形範囲D101から肌以外の部分E101a及び肌以外の部分E101bを取り除いた残りの部分のみの画像特徴量を、顔矩形範囲D101に対する逆光補正に好ましくは使用することができる。肌以外の部分E101a及び肌以外の部分E101bについては、特定色の範囲外の色の部分として画像特徴量を取得する部分から除外することを図る。補正フレームF102についても同様に、顔矩形範囲D102に含まれる背景の部分E102bを取り除いた残りの部分のみの画像特徴量を、顔矩形範囲D102に対する逆光補正に好ましくは使用することができる。このため、特定色の範囲外の色の部分として背景の部分E102bを、画像特徴量を取得する部分から除外することを図る。換言すると、人の肌に関する画像特徴量を抽出することを図る。
 補正処理部13は、顔矩形範囲と顔矩形範囲の周辺部とを対象にして、逆光補正を行うようにしてもよい。図8において、補正前の補正フレームF110aでは、逆光の影響によって、顔矩形範囲D110に在る人の顔が暗く写っている。顔矩形範囲のみに対して逆光補正を行った補正フレームF110bでは、顔矩形範囲D110に在る人の顔は明るくなっているが、顔矩形範囲D110と顔矩形範囲D110以外の周辺部との明るさの差が大きくなって、顔矩形範囲D110と周辺部との間で不自然さが発生している。このため、顔矩形範囲D110と周辺部とが自然につながるように、顔矩形範囲D110と周辺部とを対象にして逆光補正を行う。補正フレームF110cでは、顔矩形範囲D110と周辺部とを含む補正範囲H110に対して、逆光補正を行った。これにより、顔矩形範囲D110と周辺部とが自然につながる効果が得られる。
 補正処理部13は、逆光補正の強度に応じて、顔矩形範囲と周辺部とを含む補正範囲の大きさを変えてもよい。図9において、補正フレームF120に対する逆光補正の強度は、輝度のヒストグラム200aに示されるように、強レベルである。ヒストグラム200aにおいて、波形W201は補正フレームF120の逆光補正前の輝度のヒストグラムであり、波形W202aは補正フレームF120の逆光補正後の輝度のヒストグラムであり、波形W203aは補正フレームF120の逆光補正前の輝度のヒストグラムと補正フレームF120の逆光補正後の輝度のヒストグラムとの重なり部分を示す。補正フレームF120の補正範囲H120aは、顔矩形範囲D120と周辺部とを含む。図9に示されるように、補正フレームF120に対する逆光補正が強レベルの場合、補正範囲H120aに含まれる周辺部の大きさを広レベルとする。
 一方、図10において、補正フレームF120に対する逆光補正の強度は、輝度のヒストグラム200bに示されるように、弱レベルである。ヒストグラム200bにおいて、波形W201は補正フレームF120の逆光補正前の輝度のヒストグラムであり、波形W202bは補正フレームF120の逆光補正後の輝度のヒストグラムであり、波形W203bは補正フレームF120の逆光補正前の輝度のヒストグラムと補正フレームF120の逆光補正後の輝度のヒストグラムとの重なり部分を示す。補正フレームF120の補正範囲H120bは、顔矩形範囲D120と周辺部とを含む。図10に示されるように、補正フレームF120に対する逆光補正が弱レベルの場合、補正範囲H120bに含まれる周辺部の大きさを狭レベルとする。
 図9及び図10に示されるように、逆光補正の強度が強い場合には補正範囲に含める周辺部を広くし、一方、逆光補正の強度が弱い場合には補正範囲に含める周辺部を狭くする。これは、逆光補正の強度に応じて、逆光補正した部分と逆光補正しなかった部分との間で明るさの差が変わるので、補正範囲に含める周辺部の大きさを逆光補正の強度に応じて変えることにより、より自然な見え方にするためである。
 以上が画像補正処理の例の説明である。
 なお、補正処理部13は、連続するフレーム間で画像補正量の差を一定量以下にするようにしてもよい。例えば、輝度を補正する際に、連続するフレーム間で輝度補正量の差を一定量以下にする。これにより、フレーム間で輝度の差が大きくなってちらつきが発生することを防止することができる。
[第2実施形態]
 第2実施形態は、上記した第1実施形態に係る画像処理装置1の応用例である。図11は、本発明の第2実施形態に係る撮像装置2の構成を示すブロック図である。図11において、撮像装置2は、第1実施形態に係る画像処理装置1と、撮像部20と、記録部21と、表示部22とを備える。撮像部20は、動画像を撮像する。撮像部20は、撮像した動画像Vinを画像処理装置1に出力する。画像処理装置1は、撮像部20から入力された動画像Vinに対して画像補正処理を実行する。画像処理装置1は、画像補正処理を実行した結果の動画像Voutを記録部21に出力する。記録部21は、画像処理装置1から入力された動画像Voutを記録する。表示部22は、記録部21に記録された動画像を表示する。
 第2実施形態によれば、撮像装置2は、撮像部20により撮像された動画像に対して画像処理装置1により画像補正処理を実行し、画像補正処理が実行された結果の動画像を記録部21に記録することができる。さらに、撮像装置2は、記録部21に記録された動画像を表示部22により表示することができる。
 以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
 上述した実施形態では、被写体として人の顔を例に挙げたが、これに限定されない。被写体の他の例として、人の顔以外の部分、人以外の生物、生物以外の物体などが挙げられる。
 上述した実施形態では、画像補正処理の例として逆光補正を挙げたが、これに限定されない。画像補正処理の例として、コントラスト補正、彩度補正などが挙げられる。
 1…画像処理装置、2…撮像装置、10…フレームバッファ、11…被写体検出部、12…被写***置判定部、13…補正処理部、20…撮像部、21…記録部、22…表示部。

Claims (10)

  1.  複数のフレームから被写体を検出する被写体検出部と、
     前記被写体検出部によって被写体が検出されたフレームである検出フレーム内の被写体の位置に基づいて、前記被写体検出部によって被写体が検出されなかったフレームである未検出フレーム内の被写体の位置を判定する被写***置判定部と、
     前記複数のフレーム内の被写体の位置に基づいて前記複数のフレームに画像補正範囲を決定し、前記画像補正範囲に対して画像補正処理を実行する補正処理部と、
     を備えた画像処理装置。
  2.  前記被写***置判定部は、前記未検出フレームより前の検出フレーム内の被写体の位置と、前記未検出フレームより後の検出フレーム内の被写体の位置とに基づいて、前記未検出フレーム内の被写体の位置を判定する、
     請求項1に記載の画像処理装置。
  3.  前記未検出フレームより前の検出フレームは、前記未検出フレームの直前の検出フレームである、
     請求項2に記載の画像処理装置。
  4.  前記未検出フレームより後の検出フレームは、前記未検出フレームの直後の検出フレームである、
     請求項2又は3に記載の画像処理装置。
  5.  前記被写***置判定部は、さらに、前記未検出フレーム内の被写体の位置の判定に使用される前記検出フレームと、前記未検出フレームとの間の時間に基づいて、前記未検出フレーム内の被写体の位置を判定する、
     請求項1から4のいずれか1項に記載の画像処理装置。
  6.  前記補正処理部は、連続するフレームの間で、画像補正量の差を所定量以下にする、
     請求項1から5のいずれか1項に記載の画像処理装置。
  7.  前記被写体検出部は、被写体として人の顔を検出する、
     請求項1から6のいずれか1項に記載の画像処理装置。
  8.  前記補正処理部は、前記被写体の特定色の部分の画像特徴量に基づいて画像補正処理を実行する、
     請求項1から7のいずれか1項に記載の画像処理装置。
  9.  動画像を撮像する撮像部と、
     前記撮像部によって撮像された動画像を構成する複数のフレームに画像補正範囲を決定し、前記画像補正範囲に対して画像補正処理を実行する請求項1から8のいずれか1項に記載の画像処理装置と、
     を備えた撮像装置。
  10.  コンピュータを、
     複数のフレームから被写体を検出する被写体検出部、
     前記被写体検出部によって被写体が検出されたフレームである検出フレーム内の被写体の位置に基づいて、前記被写体検出部によって被写体が検出されなかったフレームである未検出フレーム内の被写体の位置を判定する被写***置判定部、
     前記複数のフレーム内の被写体の位置に基づいて前記複数のフレームに画像補正範囲を決定し、前記画像補正範囲に対して画像補正処理を実行する補正処理部、
     として機能させるための画像処理プログラム。
PCT/JP2016/062782 2015-04-23 2016-04-22 画像処理装置、及び撮像装置 WO2016171259A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-088078 2015-04-23
JP2015088078 2015-04-23

Publications (1)

Publication Number Publication Date
WO2016171259A1 true WO2016171259A1 (ja) 2016-10-27

Family

ID=57143179

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/062782 WO2016171259A1 (ja) 2015-04-23 2016-04-22 画像処理装置、及び撮像装置

Country Status (1)

Country Link
WO (1) WO2016171259A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006157617A (ja) * 2004-11-30 2006-06-15 Canon Inc 撮像装置
WO2010131416A1 (ja) * 2009-05-11 2010-11-18 パナソニック株式会社 電子カメラ、画像処理装置および画像処理方法
WO2012153661A1 (ja) * 2011-05-06 2012-11-15 シャープ株式会社 画像補正装置、画像補正表示装置、画像補正方法、プログラム、及び、記録媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006157617A (ja) * 2004-11-30 2006-06-15 Canon Inc 撮像装置
WO2010131416A1 (ja) * 2009-05-11 2010-11-18 パナソニック株式会社 電子カメラ、画像処理装置および画像処理方法
WO2012153661A1 (ja) * 2011-05-06 2012-11-15 シャープ株式会社 画像補正装置、画像補正表示装置、画像補正方法、プログラム、及び、記録媒体

Similar Documents

Publication Publication Date Title
CN111385482B (zh) 图像处理设备及其控制方法和机器可读介质
US11069057B2 (en) Skin diagnostic device and skin diagnostic method
US8675970B2 (en) Image processing apparatus, image processing method, and image processing program
US9552646B2 (en) Image processing device, image processing method, and image processing program, for detecting an image from a visible light image and a temperature distribution image
US10824906B2 (en) Image processing device, non-transitory computer readable storage medium, and image processing system
US8923554B2 (en) Information processing device, recognition method thereof and non-transitory computer-readable storage medium
US9811888B2 (en) Image processing apparatus and image processing method
US10058237B2 (en) Image processing device, image processing method, and program
EP3016376A1 (en) Image processing device, image processing method, and non-transitory storage medium storing image processing program
KR101715489B1 (ko) 화상 생성 장치 및 화상 생성 방법
JP5152405B2 (ja) 画像処理装置および画像処理方法、画像処理プログラム
US20140168078A1 (en) Electronic device and information processing method
US20190266392A1 (en) Image processing apparatus, image processing method, and storage medium
US10872229B2 (en) Image processing device, image processing method, and recording medium
US11039096B2 (en) Image processing device, image processing method and storage medium
WO2016171259A1 (ja) 画像処理装置、及び撮像装置
KR20150107581A (ko) 화상 처리 장치 및 화상 처리 방법
EP2775422A2 (en) Object detection apparatus, program, and integrated circuit
JP6399122B2 (ja) 顔検出装置およびその制御方法
KR100751467B1 (ko) 움직이는 타겟의 윤곽을 검지하는 화상 처리 장치 및 그방법
US9082002B2 (en) Detection device and detection method
Corcoran et al. Detection and repair of flash-eye in handheld devices
US9152855B2 (en) Enhanced object detection method using image discontinuousness
Lee et al. A Method of Obtaining Skin Color Distribution Areas Based on Illumination Compensation.
KR20220086213A (ko) 저조도 영상 개선을 위한 카메라 시스템 및 방법, 이 방법을 실행시키기 위한 매체에 저장된 컴퓨터 프로그램, 및 그 컴퓨터 판독가능 기록 매체

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16783280

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16783280

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP