WO2012008345A1 - まぶた検出装置及びプログラム - Google Patents

まぶた検出装置及びプログラム Download PDF

Info

Publication number
WO2012008345A1
WO2012008345A1 PCT/JP2011/065509 JP2011065509W WO2012008345A1 WO 2012008345 A1 WO2012008345 A1 WO 2012008345A1 JP 2011065509 W JP2011065509 W JP 2011065509W WO 2012008345 A1 WO2012008345 A1 WO 2012008345A1
Authority
WO
WIPO (PCT)
Prior art keywords
eyelid
pixel
feature amount
image
edge image
Prior art date
Application number
PCT/JP2011/065509
Other languages
English (en)
French (fr)
Inventor
明 角屋
悟 中西
小島 真一
Original Assignee
アイシン精機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アイシン精機株式会社 filed Critical アイシン精機株式会社
Priority to DE112011102346T priority Critical patent/DE112011102346T5/de
Priority to US13/805,597 priority patent/US8693784B2/en
Priority to CN201180033982.9A priority patent/CN102985948B/zh
Publication of WO2012008345A1 publication Critical patent/WO2012008345A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Definitions

  • the present invention relates to an eyelid detection device and program, and more particularly, to an eyelid detection device and program for detecting a boundary point of the eyelid from an image of a region including eyes.
  • an eyelid detection device that detects a boundary point between the eyelid and the eyeball by using a portion where the value changes greatly instead of the local maximum value of the first derivative value (edge value) as an eyelid feature amount (Patent No. 4309927) issue).
  • the maximum value of the first-order differential value (edge value) is set as the eyelid position. A place away from the boundary is detected as a boundary point. As a result, there is a problem that a correct boundary point cannot be detected.
  • the present invention has been made to solve the above-described problems, and provides an eyelid detection device and program capable of correctly detecting the boundary between the eyelid and the eyeball even when the eyelid is covered with makeup.
  • the purpose is to provide.
  • a first aspect of the present invention is based on an image of a region including an eye, a primary edge image representing a magnitude of a change in pixel value in a predetermined direction for each pixel in the region, and A generation unit that generates a secondary edge image representing a rate of change in the predetermined direction of the magnitude of the pixel value change in the predetermined direction for each pixel in the region; and a frequency cycle of the pixel value change at the eyelid boundary in the image
  • a feature amount calculation unit that calculates a feature amount based on the pixel value of the pixel, and at least one of a boundary between the upper eyelid and the eyeball and a boundary between the lower eyelid and the eyeball based on the calculated feature amount of each pixel.
  • To detect It is configured to include a
  • the computer causes the primary edge image representing the magnitude of the pixel value change in a predetermined direction for each pixel in the region based on the image of the region including the eye,
  • a generation unit that generates a secondary edge image representing a rate of change in the predetermined direction of the magnitude of the pixel value change in the predetermined direction for each pixel, according to the frequency period of the pixel value change at the eyelid boundary in the image, Either one of the primary edge image and the secondary edge image is shifted in the predetermined direction, and for each pixel, the pixel value of the pixel of the primary edge image and the pixel value of the pixel of the secondary edge image are set.
  • the eyelid that detects at least one of the boundary between the upper eyelid and the eyeball and the boundary between the lower eyelid and the eyeball Is a program for functioning as a detection unit.
  • the primary edge representing the magnitude of the pixel value change in the predetermined direction for each pixel in the region by the generation unit.
  • a secondary edge image is generated that represents the rate of change in the predetermined direction of the image and the magnitude of the change in pixel value in the predetermined direction for each pixel in the region.
  • the feature amount calculation unit shifts either the primary edge image or the secondary edge image in a predetermined direction according to the frequency cycle of the pixel value change at the boundary of the eyelid in the image, and the primary edge image for each pixel.
  • a feature amount is calculated based on the pixel value of the pixel and the pixel value of the pixel of the secondary edge image.
  • the eyelid detection unit detects at least one of the boundary between the upper eyelid and the eyeball and the boundary between the lower eyelid and the eyeball based on the calculated feature amount of each pixel.
  • either the primary edge image or the secondary edge image is shifted in a predetermined direction in accordance with the frequency cycle of the pixel value change at the eyelid boundary, and the primary edge image and the secondary edge for each pixel.
  • a feature amount is calculated based on the image, and a boundary between the upper eyelid and the eyeball or a boundary between the lower eyelid and the eyeball is detected. Thereby, even when the eyelid is covered with makeup, the boundary between the eyelid and the eyeball can be detected correctly.
  • the third aspect of the present invention further includes an eye detection unit that detects the size of the eye from the image, and the feature amount calculation unit is a boundary of the eyelid that is determined in advance corresponding to the detected size of the eye In accordance with the frequency cycle of the pixel value change in, one of the primary edge image and the secondary edge image is shifted in a predetermined direction, and the feature amount can be calculated for each pixel.
  • the fourth aspect of the present invention further includes a pixel value change extraction unit that extracts a pixel value change at the boundary of the eyelid from an image, and a frequency detection unit that detects a frequency of the extracted pixel value change, and a feature amount
  • the calculation unit calculates a feature amount for each pixel by shifting either the primary edge image or the secondary edge image in a predetermined direction according to the frequency cycle of the pixel value change detected by the frequency detection unit. Can be.
  • the feature amount calculation unit calculates one of the primary edge image and the secondary edge image by 1/4 of the period of the pixel value change frequency at the boundary of the eyelid in the image.
  • the feature amount can be calculated for each pixel by shifting in a predetermined direction.
  • the phase shift of the pixel value change at the eyelid boundary between the primary edge image and the secondary edge image can be matched.
  • the predetermined direction can be a blinking direction.
  • the feature amount calculating unit shifts the primary edge image in the blinking direction and downward, calculates the feature amount for each pixel, and the eyelid detection unit The boundary between the upper eyelid and the eyeball can be detected based on the calculated feature amount. This makes it possible to correctly detect the boundary between the upper eyelid and the eyeball by calculating the feature amount by combining the phase shift of the pixel value change at the boundary of the upper eyelid between the primary edge image and the secondary edge image. it can.
  • the feature amount calculation unit calculates the feature amount for each pixel by shifting the secondary edge image in the blinking direction and upward
  • the eyelid detection unit includes: A boundary between the upper eyelid and the eyeball can be detected based on the calculated feature amount. This makes it possible to correctly detect the boundary between the upper eyelid and the eyeball by calculating the feature amount by combining the phase shift of the pixel value change at the boundary of the upper eyelid between the primary edge image and the secondary edge image. it can.
  • the feature amount calculating unit performs, for each pixel, weighted addition or multiplication of the pixel value of the pixel of the primary edge image and the pixel value of the pixel of the secondary edge image, The feature amount can be calculated.
  • the eyelid detection unit determines at least one of the boundary between the upper eyelid and the eyeball and the boundary between the lower eyelid and the eyeball based on the peak point in the predetermined direction of the calculated feature value. Can be detected.
  • either the primary edge image or the secondary edge image is placed in a predetermined direction in accordance with the frequency cycle of the pixel value change at the eyelid boundary.
  • a feature amount is calculated based on the primary edge image and the secondary edge image, and the boundary between the upper eyelid and the eyeball or the boundary between the lower eyelid and the eyeball is detected.
  • the eyelid detection device 10 includes an image capturing unit 12 including a CCD camera or the like that captures an image including the face of a person to be detected, and shutters of the image capturing unit 12.
  • An illumination unit 14 composed of an infrared strobe, an infrared LED, and the like for illuminating a subject to be photographed in synchronization with the operation, a computer 16 that performs image processing, and a display device 18 that includes a CRT or the like are provided. .
  • the computer 16 includes a CPU, a ROM that stores a program for an image processing routine, which will be described later, a RAM that stores data, and a bus that connects these. If the computer 16 is described in terms of functional blocks divided for each function realizing means determined based on hardware and software, the computer 16 is a grayscale image output from the image capturing unit 12 as shown in FIG.
  • An image input unit 20 that inputs a face image, an image of a small region including eyes from the face image that is the output of the image input unit 20, that is, an eye image extraction unit 22 that extracts an eye image, and an eye image extraction unit 22
  • the first-order differential value in the vertical direction is calculated for the eye image extracted in step 1 to generate a primary edge image
  • the second-order differential value in the vertical direction is calculated to generate a secondary edge image.
  • the feature amount calculation unit 26 that calculates the eyelid feature amount for each pixel, and the eyelid position is detected based on the calculated eyelid feature amount And And a eyelid position detecting section 28 for displaying the pig opening to the display device 18.
  • the image input unit 20 includes, for example, an A / D converter, an image memory that stores image data of one screen, and the like.
  • the eye image extraction unit 22 searches the eye area from the face image, specifies the extraction position, and extracts an image of a small area including the eyes as the eye image based on the specified extraction position.
  • the edge image generation unit 24 blinks from the eye image as shown in FIG. 2 using a Prewitt filter as shown in FIG. 3A as a longitudinal first-order differential filter as shown in FIG.
  • a primary edge image having a pixel value as a primary differential value representing the magnitude of the change in shading for each pixel in the direction from the top to the bottom is generated.
  • the edge image generation unit 24 may generate a primary edge image using a Sobel filter as shown in FIG. 3B or a simple difference filter as shown in FIG. 3C as the vertical first-order differential filter. .
  • the edge image generation unit 24 uses the vertical second-order differential filter as shown in FIG. 4A from the eye image as shown in FIG. A secondary edge image is generated with a secondary differential value representing a change rate of the magnitude of the shade change for each pixel in the direction from top to bottom as a pixel value.
  • the edge image generation unit 24 may generate a secondary edge image using a filter as shown in FIGS. 4B to 4F as a vertical differential filter.
  • the eyeball part is photographed dark because it has a lower reflectance than the eyelid, which is the skin part. Therefore, in an image with eyes as shown in FIG. 2 above, as shown in FIG. 2 above, in the direction from top to bottom, “bright (skin)” ⁇ “dark (border part of skin and eyeball) ) ”Is detected as the upper eyelid boundary, and“ dark ” ⁇ “ light ”is changed as the lower eyelid boundary.
  • the edge image generation unit 24 calculates a first derivative value (edge value) of the image. Since the value of the primary differential value increases at the shade change portion, the boundary of the eyelid can be detected by detecting the portion where the primary differential value is large.
  • the edge image generation unit 24 further differentiates the primary differential value to calculate the secondary differential value.
  • the wrinkle feature value is calculated by combining the primary differential value and the secondary differential value.
  • the peak positions of the primary differential value and the secondary differential value are shifted by 1/4 period.
  • the secondary differential value is shifted by 1 ⁇ 4 period, and the primary differential value and the shifted secondary differential value are combined. Then, the wrinkle feature amount is calculated.
  • the feature amount calculation unit 26 shifts the secondary edge image upward and downward by 1 ⁇ 4 period based on the frequency period of the density change in the vertical direction at the eyelid boundary, which is obtained in advance. .
  • the frequency cycle of the concentration change in the vertical direction at the eyelid boundary is obtained in advance as described below.
  • an eye image is extracted from an image captured by the image capturing unit 12, and a vertical change in shade at the eyelid boundary is extracted from the eye image.
  • the frequency of the density change is detected using a sine wave as shown in FIG.
  • the section of the sine wave used for the frequency detection is between the cross points or between the maximum point and the minimum point.
  • the frequency and amplitude are changed, and fitting is performed so as to match the change in shade in the range according to the heel position as shown in FIG. Then, as shown in FIG. 7, the frequency at the shading change at the eyelid boundary is estimated, the frequency period is obtained, and stored in a memory (not shown).
  • the feature quantity calculation unit 26 converts the secondary edge image into the blinking direction by a quarter of the period of the frequency of the density change in the vertical direction at the eyelid boundary, and the top of the image. Shift in the direction. Based on the primary edge image and the secondary edge image shifted upward, the feature amount calculation unit 26 calculates the upper limit of each pixel from the pixel value of each pixel as shown in the following equation (1). The feature quantity e upper (x, y) is calculated.
  • e 1 (x, y) is a primary differential value at the coordinate position (x, y) of the primary edge image.
  • t is a phase shift amount
  • e 2 (x, y + t) is a secondary differential value at the coordinate position (x, y + t) of the secondary edge image before the shift corresponding to the coordinate position (x, y). It is. Further, 0 ⁇ ⁇ ⁇ 1.
  • the feature amount calculation unit 26 shifts the secondary edge image downward in the image by 1 ⁇ 4 of the frequency period of the density change in the vertical direction at the eyelid boundary. Based on the primary edge image and the secondary edge image shifted downward, the feature amount calculation unit 26 calculates the lower limit of each pixel from the pixel value of each pixel as shown in the following equation (2). The feature quantity e lower (x, y) is calculated.
  • e 1 (x, y) is a primary differential value at the coordinate position (x, y) of the primary edge image.
  • t is the phase shift amount
  • e 2 (x, y- t) corresponds to the coordinate position (x, y), shift of the coordinate position before the secondary edge image (x, y-t) Second derivative value.
  • is weighted to e 1 (x, y)
  • (1 ⁇ ) is weighted to e 2 (x, yt) and added.
  • the eyelid position detection unit 28 sets the vertical peak point of the upper eyelid feature amount as the first boundary point indicating the boundary between the upper eyelid and the eyeball.
  • the eyelid position detection unit 28 generates an upper eyelid shape model (which may be two-dimensional or three-dimensional) including the positions of the corners of the eyelids and the eyes with respect to a set of vertical peak points of the upper eyelid feature amount calculated for each pixel. Change the parameters in various ways to perform saddle shape fitting.
  • the eyelid position detection unit 28 detects the upper eyelid shape and position where the evaluation value is maximized. Further, the eyelid position detection unit 28 sets the vertical peak point of the lower eyelid feature value as the second boundary point indicating the boundary between the lower eyelid and the eyeball.
  • the eyelid position detection unit 28 generates a lower eyelid shape model (which may be two-dimensional or three-dimensional) including the positions of the corners of the eyelids and the eyes, with respect to a set of vertical peak points of the lower eyelid feature amount calculated for each pixel. Change the parameters in various ways to perform saddle shape fitting.
  • the eyelid position detector 28 detects the lower eyelid shape and position where the evaluation value is maximized.
  • the calculated upper eyelid feature amount or lower eyelid feature amount may be used as the fitting evaluation value.
  • the eyelid position detection unit 28 measures the eyelid opening degree from the detected upper eyelid shape and lower eyelid shape, and outputs the eyelid opening degree to the display device 18.
  • the image capturing unit 12 captures a face image of the subject.
  • the illumination unit 14 formed of an infrared strobe emits light in synchronization with photographing by the image capturing unit 12 to illuminate the face of the subject. . If continuous light is emitted from the illuminating unit 14, synchronization with the image capturing unit 12 is unnecessary, and the configuration is simplified.
  • step 100 the computer 16 captures the face image photographed by the image capturing unit 12 as a video signal.
  • step 102 the computer 16 A / D converts the video signal to generate a two-dimensional digital image.
  • the subsequent processing is performed by digital processing based on this digital image. Therefore, hereinafter, simply referring to an image means a digital image.
  • step 104 the computer 16 searches for an eye area from the face image, and sets an area including the eye as an extraction area.
  • the computer 16 extracts a small area including one eye as an eye image.
  • the eye region may be searched from the face image by image processing using a template matching method.
  • the operator may instruct the eye area by pointing the eyes on the face image with an eye area instruction means such as a keyboard, mouse, electronic pen, or light pen.
  • step 108 the computer 16 performs edge processing using the Prewitt filter as shown in FIG. 3A on the eye image extracted in step 106, and performs pixel-by-pixel processing in the direction from top to bottom.
  • a primary edge image is generated with a primary differential value representing the magnitude of the shade change as the pixel value change as a pixel value. For example, if the current image coordinates are (x, y) and the pixel value at (x, y) is A (x, y), the primary differential value E ((x, y) in the primary edge image E ( x, y) is obtained by the following equation.
  • E (x, y) A (x-1, y-1) + A (x, y-1) + A (x + 1, y-1) ⁇ A (x ⁇ 1, y + 1) ⁇ A (x, y + 1) ⁇ A (x + 1, y + 1)
  • the computer 16 performs edge processing on the eye image extracted in step 106 using a vertical second-order differential filter as shown in FIG. 4A.
  • the computer 16 generates a secondary edge image having a secondary differential value representing a change rate of the magnitude of the shade change as the pixel value change for each pixel in the direction from the top to the bottom. For example, if the current image coordinates are (x, y) and the pixel value at (x, y) is A (x, y), the secondary differential value E ′ of (x, y) in the secondary edge image (X, y) is obtained by the following equation.
  • E ′ (x, y) A (x-1, y-1) + A (x, y-1) + A (x + 1, y-1) -2A (x-1, y) -2A (x, y) -2A (x + 1, y) + A (x-1, y + 1) + A (x, y + 1) + A (x + 1, y + 1)
  • the computer 16 converts the secondary edge image of the image for calculation of the upper eyelid feature amount by a quarter of the frequency period of the density change in the vertical direction at the eyelid boundary obtained in advance. In addition to shifting upward, the secondary edge image is shifted downward for calculating the lower eyelid feature amount.
  • step 114 the computer 16 determines the upper eyelid feature amount for each pixel based on the primary edge image generated in step 108 and the secondary edge image shifted upward in step 112. Is calculated. Further, the computer 16 calculates a lower eyelid feature amount for each pixel based on the primary edge image generated in step 108 and the secondary edge image shifted downward in step 112.
  • the computer 16 detects the vertical peak point of the upper eyelid feature amount calculated in step 114 and detects the vertical peak point of the lower eyelid feature amount.
  • the computer 16 detects the shape and position of the upper eyelid from the set of vertical peak points of the upper eyelid feature value detected in step 116, and the lower eyelid feature value detected in step 116. The shape and position of the lower eyelid are detected from a set of peak points in the vertical direction.
  • step 120 the computer 16 causes the display device 18 to display the eyelid opening determined from the upper eyelid shape and position detected in step 118 and the lower eyelid shape and position, and executes the image processing routine. finish.
  • the eyelid detection apparatus shifts the secondary edge image in the vertical direction by 1 ⁇ 4 of the period of the frequency of the change in shading at the eyelid boundary, and thus the primary edge image. And the phase shift of the pixel value change at the eyelid boundary of the secondary edge image is matched.
  • the eyelid detection device calculates the upper eyelid feature amount and the lower eyelid feature amount based on the primary edge image and the secondary edge image for each pixel, and detects the eyelid position. Thereby, the eyelid detection device can correctly detect the position of the eyelid even when the eyelid is covered with makeup.
  • the eyelid detection device calculates the amount of change in the primary differential value, that is, the value of the secondary differential value and captures the value obtained by shifting the phase of the secondary differential value in order to capture the portion where the primary differential value changes.
  • the wrinkle feature amount calculation is performed so that the wrinkle feature amount increases in a place close to the actual wrinkle.
  • the eyelid detection device can increase the eyelid feature amount near the eyelid position and can detect the eyelid position with high accuracy even when the eyelid is covered with eye shadow or the like.
  • the eyelid detection device can measure the eyelid opening with high accuracy by accurately detecting the eyelid position.
  • the eyelid detection device is different from the first embodiment in that the eyelid detection device detects the frequency from the shade change obtained from the eye image every time the eyelid position is detected.
  • the computer 216 of the eyelid detection apparatus 210 includes an eye input from an image input unit 20, an eye image extraction unit 22, an edge image generation unit 24, and an eye image.
  • a gradation change extraction unit 230 that extracts a density change in the vertical direction at the boundary, a frequency detection unit 232 that detects a frequency of the extracted density change, a feature amount calculation unit 26, and an eyelid position detection unit 28 are provided. .
  • the shading change extracting unit 230 extracts the shading change in the vertical direction in the region including the eyelid boundary, which is obtained in advance, from the eye image extracted by the eye image extracting unit 22.
  • the frequency detection unit 232 performs fitting so as to match the shade change in the range corresponding to the eyelid position while changing the frequency and amplitude using the predetermined section of the sine wave for the extracted shade change in the vertical direction. And detect the frequency at the shading change at the eyelid boundary.
  • the feature amount calculation unit 26 shifts the secondary edge image upward by 1 ⁇ 4 of the detected frequency period, and according to the above equation (1), the upper edge feature amount e upper (x, y) of each pixel. ) Is calculated.
  • the feature quantity calculation unit 26 shifts the secondary edge image downward by 1 ⁇ 4 of the detected frequency period, and according to the above equation (2), the lower edge feature quantity e lower ( x, y) is calculated.
  • step 100 the computer 216 captures the face image captured by the image capturing unit 12 as a video signal.
  • step 102 the computer 216 generates a two-dimensional digital image.
  • step 104 the computer 216 searches for an eye area from the face image and sets an area including the eye as an extraction area.
  • step 106 the computer 216 extracts a small area including one eye as an eye image.
  • step 108 the computer 216 performs edge processing on the eye image extracted in step 106 to generate a primary edge image.
  • the computer 216 performs edge processing using a vertical second-order differential filter on the eye image extracted in step 106 to generate a secondary edge image.
  • step 200 the computer 216 extracts the change in lightness and darkness in the vertical direction from the previously obtained region including the eyelid boundary of the eye image extracted in step 106.
  • step 202 the computer 216 detects the frequency of the vertical shade change extracted in step 200.
  • step 204 the computer 216 shifts the secondary edge image upward for calculating the upper eyelid feature amount by 1 ⁇ 4 of the period of the frequency detected in step 202.
  • the secondary edge image is shifted downward in the image for calculating the feature amount.
  • step 114 the computer 216 calculates the upper eyelid feature amount and the lower eyelid feature amount for each pixel.
  • the computer 216 detects the vertical peak point of the upper eyelid feature amount calculated in step 114 and also detects the vertical peak point of the lower eyelid feature amount.
  • step 118 the computer 216 detects the upper eyelid shape and position from the set of vertical peak points of the upper eyelid feature value detected in step 116.
  • the computer 216 detects the shape and position of the lower eyelid from the set of vertical peak points of the lower eyelid feature value detected in step 116.
  • step 120 the computer 216 causes the display device 18 to display the upper eyelid shape and position detected in step 118 and the eyelid opening determined from the lower eyelid shape and position on the display device 18, thereby executing an image processing routine. finish.
  • the eyelid detection device detects the frequency of the pixel value change at the eyelid boundary, and shifts the secondary edge image in the vertical direction by 1/4 of the period of the detected frequency. .
  • the eyelid detection device can match the phase shift of the pixel value change at the boundary of the eyelid between the primary edge image and the secondary edge image, and the eyelid feature amount becomes large at a place close to the actual eyelid. Can be calculated.
  • the eyelid detection device detects the eye size from the eye image, and determines the frequency of the shade change at the eyelid boundary from the eye size. It is different from the form.
  • the computer 316 of the eyelid detection apparatus 310 acquires an image input unit 20, an eye image extraction unit 22, an edge image generation unit 24, an eye image, An eye size detection unit 330 that detects the size of the eye, a frequency determination unit 332 that determines the frequency of eyelid boundary density change according to the detected eye size, a feature amount calculation unit 26, and an eyelid position And a detector 28.
  • the eye size detection unit 330 acquires the eye image extracted by the eye image extraction unit 22, and detects the size of the eye (for example, the distance between the corners of the eyes and the eyes) from the eye image.
  • the frequency determining unit 332 stores in advance the correspondence between the size of the eyes and the frequency of the vertical shade change at the eyelid boundary. Based on the correspondence relationship, the frequency determination unit 332 determines the frequency of the shading change at the boundary of the eyelid corresponding to the detected eye size.
  • the feature amount calculation unit 26 shifts the secondary edge image upward by 1 ⁇ 4 of the determined frequency period, and according to the above equation (1), the upper edge feature amount e upper (x, y) of each pixel. ) Is calculated.
  • the feature amount calculation unit 26 shifts the secondary edge image downward by 1 ⁇ 4 of the determined frequency period, and according to the above equation (2), the lower edge feature amount e lower ( x, y) is calculated.
  • the computer 316 captures the face image captured by the image capturing unit 12 as a video signal, and A / D converts the video signal to generate a two-dimensional digital image.
  • the computer 316 searches for an eye region from the face image, sets a region including eyes as an extraction region, and extracts a small region including one eye as an eye image.
  • the computer 316 detects the eye size from the extracted eye image, determines the frequency of the shade change at the boundary of the eyelid corresponding to the detected eye size, and stores the memory (not shown). To remember.
  • an image processing routine is executed in the same manner as in the first embodiment described above.
  • the eyelid detection device detects the size of the eye from the eye image, determines the frequency of density change at the boundary of the eyelid according to the size of the eye, and is 1 ⁇ 4 of the determined frequency cycle. Only the secondary edge image is shifted in the vertical direction. Thereby, the eyelid detection device can match the phase shift of the pixel value change at the boundary of the eyelid between the primary edge image and the secondary edge image, and the eyelid feature amount becomes large at a place close to the actual eyelid. Can be calculated.
  • the eyelid detection device generates an edge image representing the magnitude of light and shade change from the light and shade image input by the image input unit.
  • the image input by the image input unit may be a color image.
  • the eyelid detection device may generate an edge image representing the magnitude of the change in the density value of the color image.
  • the eyelid detection device calculates a secondary differential value by performing edge processing using a vertical second-order differential filter on the eye image
  • the present invention is not limited thereto. is not.
  • the eyelid detection device may perform edge processing using a longitudinal first-order differential filter again on the primary edge image to calculate a second-order differential value.
  • the eyelid detection device may shift the primary edge image in the blinking direction.
  • the eyelid detection device shifts the primary edge image downward in the blinking direction by a quarter of the frequency period of the density change in the longitudinal direction at the boundary of the eyelid, and the primary shifted in the downward direction.
  • the upper eye feature amount of each pixel may be calculated based on the edge image and the secondary edge image.
  • the eyelid detection device shifts the primary edge image upward in the blinking direction by a quarter of the frequency period of the density change in the vertical direction at the boundary of the eyelid, and the primary edge image shifted upward.
  • the lower eyelid feature amount of each pixel may be calculated based on the secondary edge image.
  • the eyelid detection device calculates the wrinkle feature amount by weighting and adding the pixel value of the primary edge image and the pixel value of the secondary edge image
  • the present invention is not limited to this. Absent.
  • the eyelid detection apparatus may calculate the wrinkle feature amount of each pixel by multiplying the pixel value of the primary edge image by the pixel value of the secondary edge image.
  • the eyelid detection device detects the eyelid position by fitting the eyelid shape to the set of peak points of the eyelid feature amount
  • the present invention is not limited to this.
  • the eyelid detection device may detect the eyelid position by other methods.
  • the computer-readable medium is a computer-readable medium, wherein a primary edge image representing a magnitude of a change in pixel value in a predetermined direction for each pixel in the region based on an image of the region including the eye, and each pixel in the region.
  • a generating unit that generates a secondary edge image representing a rate of change in the predetermined direction of the magnitude of the change in the pixel value in the predetermined direction according to the frequency cycle of the pixel value change at the eyelid boundary in the image; Either one of the next edge image and the second edge image is shifted in the predetermined direction, and for each pixel, based on the pixel value of the first edge image and the pixel value of the second edge image.
  • a feature amount calculation unit that calculates a feature amount, and an eyelid detection unit that detects at least one of the boundary between the upper eyelid and the eyeball based on the calculated feature amount of each pixel.
  • the program for making it function is stored.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

 まぶた検出装置は、目画像におけるまぶたの境界における縦方向の濃淡変化の1次微分値と2次微分値とに基づいて、2次微分値を、まぶたの境界における濃淡変化の周波数の周期の1/4だけ、上方向にずらし、1次微分値と2次微分値とを組み合わせて、上瞼特徴量を算出する。まぶた検出装置は、算出された上瞼特徴量の縦方向のピーク点に基づいて、上まぶたと眼球との境界を検出する。これによって、まぶたに化粧をしている場合であっても、まぶたと眼球との境界を正しく検出することができる。

Description

まぶた検出装置及びプログラム
 本発明は、まぶた検出装置及びプログラムに係り、特に、目を含む領域の画像から、まぶたの境界点を検出するまぶた検出装置及びプログラムに関する。
 従来より、濃淡画像の濃淡変化の大きさを表す1次元エッジ画像上で、エッジ値が極大値又は極小値となる点に基づいて、まぶたと眼球との境界点を検出するまぶたの開度検出装置が知られている(特許第3143819号)。
 また、1次微分値(エッジ値)の極大値ではなく、大きく値が変化する部分を瞼特徴量として、まぶたと眼球との境界点を検出するまぶた検出装置が知られている(特許第4309927号)。
 しかしながら、上記特許第3143819号に記載の技術では、1次微分値(エッジ値)の極大値を瞼位置としているため、まぶたにアイシャドーが塗られ、化粧している場合には、まぶたと眼球との境界から離れた場所を境界点として検出してしまう。これによって、正しい境界点を検出することができない、という問題がある。
 また、上記特許第4309927号に記載の技術では、1次微分値(エッジ値)が大きく変化する位置を決めるために閾値を設定する必要があり、様々な画像を考慮した場合には、閾値の設定が困難である、という問題がある。
 本発明は、上記の問題点を解決するためになされたもので、まぶたに化粧をしている場合であっても、まぶたと眼球との境界を正しく検出することができるまぶた検出装置及びプログラムを提供することを目的とする。
 上記の目的を達成するために本発明の第1の態様は、目を含む領域の画像に基づいて、該領域における画素毎の所定方向の画素値変化の大きさを表す1次エッジ画像、及び該領域における画素毎の前記所定方向の画素値変化の大きさの前記所定方向の変化率を表わす2次エッジ画像を生成する生成部と、前記画像におけるまぶたの境界における画素値変化の周波数の周期に応じて、前記1次エッジ画像及び前記2次エッジ画像の何れか一方を前記所定方向にずらし、各画素について、前記1次エッジ画像の該画素の画素値及び前記2次エッジ画像の該画素の画素値に基づいて、特徴量を算出する特徴量算出部と、前記算出された各画素の特徴量に基づいて、上まぶたと眼球との境界及び下まぶたと眼球との境界の少なくとも一方を検出するまぶた検出部と、を含んで構成されている。
 また、本発明の第2の態様は、コンピュータを、目を含む領域の画像に基づいて、該領域における画素毎の所定方向の画素値変化の大きさを表す1次エッジ画像、及び該領域における画素毎の前記所定方向の画素値変化の大きさの前記所定方向の変化率を表わす2次エッジ画像を生成する生成部、前記画像におけるまぶたの境界における画素値変化の周波数の周期に応じて、前記1次エッジ画像及び前記2次エッジ画像の何れか一方を前記所定方向にずらし、各画素について、前記1次エッジ画像の該画素の画素値及び前記2次エッジ画像の該画素の画素値に基づいて、特徴量を算出する特徴量算出部、及び前記算出された各画素の特徴量に基づいて、上まぶたと眼球との境界及び下まぶたと眼球との境界の少なくとも一方を検出するまぶた検出部として機能させるためのプログラムである。
 本発明の第1の態様及び第2の態様によれば、生成部によって、目を含む領域の画像に基づいて、該領域における画素毎の所定方向の画素値変化の大きさを表す1次エッジ画像、及び該領域における画素毎の所定方向の画素値変化の大きさの所定方向の変化率を表わす2次エッジ画像を生成する。特徴量算出部によって、画像におけるまぶたの境界における画素値変化の周波数の周期に応じて、1次エッジ画像及び2次エッジ画像の何れか一方を所定方向にずらし、各画素について、1次エッジ画像の該画素の画素値及び2次エッジ画像の該画素の画素値に基づいて、特徴量を算出する。
 そして、まぶた検出部によって、算出された各画素の特徴量に基づいて、上まぶたと眼球との境界及び下まぶたと眼球との境界の少なくとも一方を検出する。
 このように、まぶたの境界における画素値変化の周波数の周期に応じて、1次エッジ画像及び2次エッジ画像の何れか一方を所定方向にずらし、各画素について、1次エッジ画像及び2次エッジ画像に基づいて特徴量を算出し、上まぶたと眼球との境界又は下まぶたと眼球との境界を検出する。これにより、まぶたに化粧をしている場合であっても、まぶたと眼球との境界を正しく検出することができる。
 本発明の第3の態様は、画像から、目の大きさを検出する目検出部を更に含み、特徴量算出部は、検出された目の大きさに対応して予め定められたまぶたの境界における画素値変化の周波数の周期に応じて、1次エッジ画像及び2次エッジ画像の何れか一方を所定方向にずらして、各画素について特徴量を算出するようにすることができる。
 本発明の第4の態様は、画像から、まぶたの境界における画素値変化を抽出する画素値変化抽出部と、抽出された画素値変化の周波数を検出する周波数検出部とを更に含み、特徴量算出部は、周波数検出部によって検出された画素値変化の周波数の周期に応じて、1次エッジ画像及び2次エッジ画像の何れか一方を所定方向にずらして、各画素について特徴量を算出するようにすることができる。
 本発明の第5の態様によれば、特徴量算出部は、画像におけるまぶたの境界における画素値変化の周波数の周期の1/4だけ、1次エッジ画像及び2次エッジ画像の何れか一方を所定方向にずらして、各画素について特徴量を算出するようにすることができる。これによって、1次エッジ画像及び2次エッジ画像の、まぶたの境界における画素値変化の位相のずれを合わせることができる。
 本発明の第6の態様によれば、上記の所定方向を、まばたき方向とすることができる。
 本発明の第7の態様によれば、特徴量算出部は、1次エッジ画像を、まばたき方向であって、かつ、下方向にずらし、各画素について前記特徴量を算出し、まぶた検出部は、算出された特徴量に基づいて、上まぶたと眼球との境界を検出するようにすることができる。これによって、1次エッジ画像及び2次エッジ画像の、上まぶたの境界における画素値変化の位相のずれを合わせて、特徴量を算出して、上まぶたと眼球との境界を正しく検出することができる。
 本発明の第8の態様によれば、特徴量算出部は、2次エッジ画像を、まばたき方向であって、かつ、上方向にずらし、各画素について特徴量を算出し、まぶた検出部は、算出された特徴量に基づいて、上まぶたと眼球との境界を検出するようにすることができる。これによって、1次エッジ画像及び2次エッジ画像の、上まぶたの境界における画素値変化の位相のずれを合わせて、特徴量を算出して、上まぶたと眼球との境界を正しく検出することができる。
 本発明の第9の態様によれば、特徴量算出部は、各画素について、1次エッジ画像の該画素の画素値及び2次エッジ画像の該画素の画素値の重み付き加算又は乗算により、特徴量を算出するようにすることができる。
 本発明の第10の態様によれば、まぶた検出部は、算出された特徴量の所定方向におけるピーク点に基づいて、上まぶたと眼球との境界及び下まぶたと眼球との境界の少なくとも一方を検出するようにすることができる。
 以上説明したように、本発明のまぶた検出装置及びプログラムによれば、まぶたの境界における画素値変化の周波数の周期に応じて、1次エッジ画像及び2次エッジ画像の何れか一方を所定方向にずらし、各画素について、1次エッジ画像及び2次エッジ画像に基づいて特徴量を算出し、上まぶたと眼球との境界又は下まぶたと眼球との境界を検出する。これにより、まぶたに化粧をしている場合であっても、まぶたと眼球との境界を正しく検出することができる、という効果が得られる。
本発明の第1の実施の形態に係るまぶた検出装置の構成を示すブロック図である。 目画像を示すイメージ図、及び縦方向の濃淡値の変化、1次微分値の変化、2次微分値の変化を示すグラフである。 Prewittフィルタを示すイメージ図である。 Sobelフィルタを示すイメージ図である。 単純差分フィルタを示すイメージ図である。 縦方向2次微分フィルタの例を示すイメージ図である。 縦方向2次微分フィルタの例を示すイメージ図である。 縦方向2次微分フィルタの例を示すイメージ図である。 縦方向2次微分フィルタの例を示すイメージ図である。 縦方向2次微分フィルタの例を示すイメージ図である。 縦方向2次微分フィルタの例を示すイメージ図である。 正弦波を示す図である。 正弦波をフィッティングする領域を示す図である。 正弦波をフィッティングする様子を示すイメージ図である。 縦方向の濃淡値の変化、1次微分値の変化、2次微分値の変化、及び上瞼特徴量の変化を示すグラフである。 本発明の第1の実施の形態に係るまぶた検出装置における画像処理ルーチンの内容を示すフローチャートである。 本発明の第2の実施の形態に係るまぶた検出装置の構成を示すブロック図である。 本発明の第2の実施の形態に係るまぶた検出装置における画像処理ルーチンの内容を示すフローチャートである。 本発明の第3の実施の形態に係るまぶた検出装置の構成を示すブロック図である。
 以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、本実施の形態では、濃淡画像からまぶたの開度を求めて出力するまぶた検出装置に本発明を適用した場合を例に説明する。
 図1に示すように、第1の実施の形態に係るまぶた検出装置10は、検出対象者の顔を含む画像を撮影するCCDカメラ等からなる画像撮像部12と、画像撮像部12のシャッターの作動に同期して撮影対象を照明するための、赤外ストロボや赤外LED等からなる照明部14と、画像処理を行うコンピュータ16と、CRT等で構成された表示装置18とを備えている。
 コンピュータ16は、CPU、後述する画像処理ルーチンのプログラムを記憶したROM、データ等を記憶するRAM、及びこれらを接続するバスを含んで構成されている。このコンピュータ16をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図1に示すように、コンピュータ16は、画像撮像部12から出力される濃淡画像である顔画像を入力する画像入力部20と、画像入力部20の出力である顔画像の中から目を含む小領域の画像、すなわち目画像を抽出する目画像抽出部22と、目画像抽出部22で抽出された目画像に対して、縦方向の1次微分値を算出して、1次エッジ画像を生成すると共に、縦方向の2次微分値を算出して、2次エッジ画像を生成するエッジ画像生成部24と、1次エッジ画像及び2次エッジ画像に基づいて、各画素について瞼特徴量を算出する特徴量算出部26と、算出された瞼特徴量に基づいて、まぶた位置を検出し、まぶた開度を表示装置18に表示させるまぶた位置検出部28とを備えている。
 画像入力部20は、例えば、A/Dコンバータや1画面の画像データを記憶する画像メモリ等で構成される。
 また、目画像抽出部22は、顔画像から目領域を検索して、抽出位置を特定し、特定された抽出位置に基づいて目を含む小領域の画像を目画像として抽出する。
 また、エッジ画像生成部24は、図2に示すような目画像から、縦方向1次微分フィルタとして、図3Aに示すようなPrewitt(ペレウィット)フィルタを用いて、図2に示すような、まばたき方向であって、上から下へ向かう方向の画素毎の濃淡変化の大きさを表す1次微分値を画素値とする1次エッジ画像を生成する。なお、エッジ画像生成部24は、縦方向1次微分フィルタとして、図3Bに示すようなSobelフィルタや、図3Cに示すような単純差分フィルタを用いて、1次エッジ画像を生成してもよい。
 また、エッジ画像生成部24は、上記図2に示すような目画像から、図4Aに示すような縦方向2次微分フィルタを用いて、上記図2に示すような、まばたき方向であって、上から下へ向かう方向の画素毎の濃淡変化の大きさの変化率を表す2次微分値を画素値とする2次エッジ画像を生成する。
 なお、エッジ画像生成部24は、縦方向2次微分フィルタとして、図4B~図4Fに示すようなフィルタを用いて、2次エッジ画像を生成してもよい。
 次に、まぶた特徴量を算出する原理について説明する。
 一般に、眼球部分は皮膚部分であるまぶたに比べて、反射率が小さいため、暗く撮影される。従って、上記図2に示すような、目の写っている画像で、上記図2に示すように、上から下への方向で、「明るい(肌)」→「暗い(肌と眼球の境界部分)」と変化している部分が上瞼の境界として検出され、「暗い」→「明るい」と変化している部分が下瞼の境界として検出される
 この変化を抽出するために、エッジ画像生成部24では、画像の1次微分値(エッジ値)を計算している。1次微分値は、濃淡変化部分で値が大きくなるので、1次微分値の大きい部分を検出すれば瞼の境界を検出可能である。
 しかし、瞼の上側にアイシャドーを塗って化粧をしている場合には、1次微分値が大きくなる。このため、化粧部分を瞼の境界として誤検出する場合がある。
 ここで、化粧部分の1次微分値はなだらかに変化し、一方、実際の瞼部分の1次微分値は、変化が急峻となる、という違いがある。
 この違いを抽出するために、エッジ画像生成部24では、1次微分値に対してさらに微分を行い、2次微分値を計算している。
 本実施の形態では、1次微分値と2次微分値とを組み合わせて、瞼特徴量を算出する。
 ここで、微分することにより、1次微分値と2次微分値のピークの位置が、1/4周期ずれる。例えば、sinθを微分するとcosθとなるが、1周期が2πであり、cosθ=sin(θ+π/2)であるため、1/4周期ずれている。
 そこで、本実施の形態では、1次微分値と2次微分値のピーク位置をそろえるために、2次微分値を1/4周期ずらし、1次微分値とずらした2次微分値とを組み合わせて、瞼特徴量を算出する。
 特徴量算出部26は、予め求められた、まぶたの境界における縦方向の濃度変化の周波数の周期に基づいて、1/4周期だけ、2次エッジ画像を、画像の上方向及び下方向にずらす。
 ここで、まぶたの境界における縦方向の濃度変化の周波数の周期は、以下に説明するように予め求めておく。
 まず、画像撮像部12によって撮像された画像から目画像を抽出し、目画像から、まぶた境界における縦方向の濃淡変化を抽出する。抽出された縦方向の濃淡変化について、図5に示すような正弦波を用いて、濃淡変化の周波数を検出する。周波数の検出に使用する正弦波の区間は、例えば、上記図5に示すように、クロスポイント間とするか、又は、極大点と極小点との間とする。
 正弦波の予め定めた区間を用いて、周波数と振幅を変更しながら、図6に示すような、瞼位置に応じた範囲の濃淡変化に合うようにフィッティングを行う。そして、図7に示すように、まぶたの境界における濃淡変化における周波数を推定し、周波数の周期を求めて、メモリ(図示省略)に記憶しておく。
 なお、正弦波ではなく三角波を用いて、濃淡変化の周波数を推定するようにしても良い。
 特徴量算出部26は、図8に示すように、まぶたの境界における縦方向の濃度変化の周波数の周期の1/4だけ、2次エッジ画像を、まばたき方向であって、かつ、画像の上方向にずらす。特徴量算出部26は、1次エッジ画像と、上方向にずらした2次エッジ画像とに基づいて、各画素の画素値から、以下の(1)式に示すように、各画素の上瞼特徴量eupper(x,y)を算出する。
Figure JPOXMLDOC01-appb-M000001
 ただし、e1(x,y)は、1次エッジ画像の座標位置(x、y)での1次微分値である。tは、位相ずらし量であり、e2(x,y+t)は、座標位置(x、y)に対応する、ずらし前の2次エッジ画像の座標位置(x、y+t)での2次微分値である。また、0≦α≦1である。上記(1)式は、e1(x,y)にαを重み付け、e2(x,y+t)に、-(1-α)を重み付けて、加算している。なお、図8の例では、α=0.25、t=2とし、瞼に化粧をして目を閉じている場合を示している。
 また、特徴量算出部26は、まぶたの境界における縦方向の濃度変化の周波数の周期の1/4だけ、2次エッジ画像を、画像の下方向にずらす。特徴量算出部26は、1次エッジ画像と、下方向にずらした2次エッジ画像とに基づいて、各画素の画素値から、以下の(2)式に示すように、各画素の下瞼特徴量elower(x,y)を算出する。
Figure JPOXMLDOC01-appb-M000002
 ただし、e1(x,y)は、1次エッジ画像の座標位置(x、y)での1次微分値である。tは、位相ずらし量であり、e2(x,y-t)は、座標位置(x、y)に対応する、ずらし前の2次エッジ画像の座標位置(x、y-t)での2次微分値である。また、0≦β≦1である。上記(2)式は、e1(x,y)にβを重み付け、e2(x,y-t)に、(1-β)を重み付けて、加算している。
 まぶた位置検出部28は、上瞼特徴量の縦方向のピーク点を、上まぶたと眼球との境界を示す第1の境界点とする。まぶた位置検出部28は、各画素について算出された上瞼特徴量の縦方向のピーク点の集合に対して、目尻・目頭位置を含んだ上瞼形状モデル(2次元でも3次元でも良い)のパラメータを様々に変更して瞼形状フィッティングを行う。まぶた位置検出部28は、評価値が最大となる上瞼形状及び位置を検出する。また、まぶた位置検出部28は、下瞼特徴量の縦方向のピーク点を、下まぶたと眼球との境界を示す第2の境界点とする。まぶた位置検出部28は、各画素について算出された下瞼特徴量の縦方向のピーク点の集合に対して、目尻・目頭位置を含んだ下瞼形状モデル(2次元でも3次元でも良い)のパラメータを様々に変更して瞼形状フィッティングを行う。まぶた位置検出部28は、評価値が最大となる下瞼形状及び位置を検出する。なお、フィッティング評価値には、算出した上瞼特徴量又は下瞼特徴量を用いればよい。
 また、まぶた位置検出部28は、検出された上瞼形状と下瞼形状から、まぶた開度を計測し、表示装置18に出力する。
 次に、まぶた検出装置10の動作について説明する。まず、画像撮像部12は被験者の顔画像を撮影する。この際に、周囲の外乱光の影響を低減させるために、例えば、赤外ストロボからなる照明部14を、画像撮像部12の撮影と同期して発光させることにより、被験者の顔部を照明する。なお、照明部14から連続光を発光させれば、画像撮像部12との同期は不要となり、構成が簡単になる。
 そして、コンピュータ16において、図9に示す画像処理ルーチンを実行する。まず、ステップ100において、コンピュータ16は、画像撮像部12で撮影された顔画像を、ビデオ信号として取り込む。ステップ102で、コンピュータ16は、ビデオ信号をA/D変換して、2次元ディジタル画像を生成する。本実施例においては、以降の処理は、このディジタル画像に基づいて、ディジタル処理により行われるので、以後、単に画像という場合にはディジタル画像を意味することとする。
 そして、ステップ104において、コンピュータ16は、顔画像の中から目の領域を検索して、目を含む領域を抽出領域として設定する。ステップ106で、コンピュータ16は、片目を含む小領域を目画像として抽出する。なお、目の領域を検索するには、例えば、テンプレートマッチング法による画像処理により顔画像の中から目の領域を検索してもよい。あるいは、操作者がキーボード、マウス、電子ペンまたはライトペン等の目領域指示手段により顔画像の上で目を指し示すことにより目の領域を指示してもよい。
 そして、ステップ108で、コンピュータ16は、上記ステップ106で抽出された目画像に対して、上記図3Aに示すようなPrewittフィルタを用いたエッジ処理を行い、上から下へ向かう方向の画素毎の画素値変化としての濃淡変化の大きさを表す1次微分値を画素値とする1次エッジ画像を生成する。例えば、現在の画像座標を(x、y)とし、(x、y)での画素値をA(x、y)とすると、1次エッジ画像における(x、y)の1次微分値E(x、y)は、以下の式で求められる。
E(x、y)=
   A(x-1、y-1)+A(x、y-1)+A(x+1、y-1)
   -A(x-1、y+1)-A(x、y+1)-A(x+1、y+1)
 次のステップ110では、コンピュータ16は、上記ステップ106で抽出された目画像に対して、上記図4Aに示すような縦方向2次微分フィルタを用いたエッジ処理を行う。コンピュータ16は、上から下へ向かう方向の画素毎の画素値変化としての濃淡変化の大きさの変化率を表す2次微分値を画素値とする2次エッジ画像を生成する。例えば、現在の画像座標を(x、y)とし、(x、y)での画素値をA(x、y)とすると、2次エッジ画像における(x、y)の2次微分値E´(x、y)は、以下の式で求められる。
E´(x、y)=
   A(x-1、y-1)+A(x、y-1)+A(x+1、y-1)
   -2A(x-1、y)-2A(x、y)-2A(x+1、y)
   +A(x-1、y+1)+A(x、y+1)+A(x+1、y+1)
 次のステップ112では、コンピュータ16は、予め求められた、まぶたの境界における縦方向の濃度変化の周波数の周期の1/4だけ、上瞼特徴量の算出用に、2次エッジ画像を画像の上方向にずらすと共に、下瞼特徴量の算出用に、2次エッジ画像を画像の下方向にずらす。
 そして、ステップ114において、コンピュータ16は、上記ステップ108で生成された1次エッジ画像と、上記ステップ112で上方向にずらされた2次エッジ画像とに基づいて、各画素について、上瞼特徴量を算出する。また、コンピュータ16は、上記ステップ108で生成された1次エッジ画像と、上記ステップ112で下方向にずらされた2次エッジ画像とに基づいて、各画素について、下瞼特徴量を算出する。
 次のステップ116では、コンピュータ16は、上記ステップ114で算出された上瞼特徴量の縦方向のピーク点を検出すると共に、下瞼特徴量の縦方向のピーク点を検出する。ステップ118において、コンピュータ16は、上記ステップ116で検出された上瞼特徴量の縦方向のピーク点の集合から、上瞼形状及び位置を検出すると共に、上記ステップ116で検出された下瞼特徴量の縦方向のピーク点の集合から、下瞼形状及び位置を検出する。
 そして、ステップ120において、コンピュータ16は、上記ステップ118で検出された上瞼形状及び位置と、下瞼形状及び位置とから求められるまぶた開度を、表示装置18に表示させて、画像処理ルーチンを終了する。
 以上説明したように、第1の実施の形態に係るまぶた検出装置は、まぶたの境界における濃淡変化の周波数の周期の1/4だけ、2次エッジ画像を縦方向にずらして、1次エッジ画像及び2次エッジ画像の、まぶたの境界における画素値変化の位相のずれを合わせる。まぶた検出装置は、各画素について、1次エッジ画像及び2次エッジ画像に基づいて上瞼特徴量及び下瞼特徴量を算出し、まぶた位置を検出する。これにより、まぶた検出装置は、まぶたに化粧をしている場合であっても、まぶた位置を正しく検出することができる。
 また、瞼に化粧していると、化粧部分と実際の瞼部分の間で瞼特徴量(1次微分値)の差が出にくい。このため、まぶた検出装置は、1次微分値が変化する部分を捉えるために、1次微分値の変化量、即ち、2次微分値を計算し、2次微分値の位相をずらした値を、瞼特徴量として加えて、実際の瞼に近い場所で瞼特徴量が大きくなるように算出する。これによって、まぶた検出装置は、アイシャドーなどにより瞼に化粧をしている場合でも、瞼位置に近い所で瞼特徴量を大きくでき、まぶた位置を高精度に検出することができる。
 また、まぶた検出装置は、まぶた位置を正確に検出することにより、まぶたの開度を高精度に計測することができる。
 次に、第2の実施の形態について説明する。なお、第1の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
 第2の実施の形態では、まぶた検出装置は、まぶた位置を検出する度に、目画像から得られる濃淡変化から周波数を検出している点が、第1の実施の形態と異なっている。
 図10に示すように、第2の実施の形態に係るまぶた検出装置210のコンピュータ216は、画像入力部20と、目画像抽出部22と、エッジ画像生成部24と、目画像から、まぶたの境界における縦方向の濃度変化を抽出する濃淡変化抽出部230と、抽出された濃淡変化の周波数を検出する周波数検出部232と、特徴量算出部26と、まぶた位置検出部28とを備えている。
 濃淡変化抽出部230は、目画像抽出部22によって抽出された目画像から、予め求められた、まぶた境界を含む領域における縦方向の濃淡変化を抽出する。
 周波数検出部232は、抽出された縦方向の濃淡変化について、正弦波の予め定めた区間を用いて、周波数と振幅を変更しながら、瞼位置に応じた範囲の濃淡変化に合うようにフィッティングを行い、まぶたの境界における濃淡変化における周波数を検出する。
 特徴量算出部26は、2次エッジ画像を、検出された周波数の周期の1/4だけ上方向にずらして、上記(1)式に従って、各画素の上瞼特徴量eupper(x,y)を算出する。
 また、特徴量算出部26は、2次エッジ画像を、検出された周波数の周期の1/4だけ、下方向にずらして、上記(2)式に従って、各画素の下瞼特徴量elower(x,y)を算出する。
 次に、第2の実施の形態に係る画像処理ルーチンについて、図11を用いて説明する。なお、第1の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。
 まず、ステップ100において、コンピュータ216は、画像撮像部12で撮影された顔画像を、ビデオ信号として取り込む。ステップ102で、コンピュータ216は、2次元ディジタル画像を生成する。そして、ステップ104において、コンピュータ216は、顔画像の中から目の領域を検索して、目を含む領域を抽出領域として設定する。ステップ106で、コンピュータ216は、片目を含む小領域を目画像として抽出する。
 そして、ステップ108で、コンピュータ216は、上記ステップ106で抽出された目画像に対して、エッジ処理を行い、1次エッジ画像を生成する。次のステップ110では、コンピュータ216は、上記ステップ106で抽出された目画像に対して、縦方向2次微分フィルタを用いたエッジ処理を行い、2次エッジ画像を生成する。
 そして、ステップ200において、コンピュータ216は、上記ステップ106で抽出された目画像の、予め求められた、まぶた境界を含む領域から、縦方向の濃淡変化を抽出する。次のステップ202において、コンピュータ216は、上記ステップ200で抽出した縦方向の濃淡変化の周波数を検出する。
 そして、ステップ204において、コンピュータ216は、上記ステップ202で検出された周波数の周期の1/4だけ、上瞼特徴量の算出用に、2次エッジ画像を画像の上方向にずらすと共に、下瞼特徴量の算出用に、2次エッジ画像を画像の下方向にずらす。
 そして、ステップ114において、コンピュータ216は、各画素について、上瞼特徴量を算出すると共に下瞼特徴量を算出する。次のステップ116では、コンピュータ216は、上記ステップ114で算出された上瞼特徴量の縦方向のピーク点を検出すると共に、下瞼特徴量の縦方向のピーク点を検出する。ステップ118において、コンピュータ216は、上記ステップ116で検出された上瞼特徴量の縦方向のピーク点の集合から、上瞼形状及び位置を検出する。コンピュータ216は、上記ステップ116で検出された下瞼特徴量の縦方向のピーク点の集合から、下瞼形状及び位置を検出する。
 そして、ステップ120において、コンピュータ216は、上記ステップ118で検出された上瞼形状及び位置と、下瞼形状及び位置とから求められるまぶた開度を、表示装置18に表示させて、画像処理ルーチンを終了する。
 このように、まぶた検出装置は、まぶた位置を検出する度に、まぶたの境界における画素値変化の周波数を検出し、検出した周波数の周期の1/4だけ、2次エッジ画像を縦方向にずらす。これにより、まぶた検出装置は、1次エッジ画像及び2次エッジ画像の、まぶたの境界における画素値変化の位相のずれを合わせることができ、実際の瞼に近い場所で瞼特徴量が大きくなるように算出することができる。
 次に、第3の実施の形態について説明する。なお、第1の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
 第3の実施の形態では、まぶた検出装置は、目画像から目の大きさを検出し、目の大きさから、まぶた境界における濃淡変化の周波数を決定している点が、第1の実施の形態と異なっている。
 図12に示すように、第3の実施の形態に係るまぶた検出装置310のコンピュータ316は、画像入力部20と、目画像抽出部22と、エッジ画像生成部24と、目画像を取得し、目の大きさを検出する目サイズ検出部330と、検出された目の大きさに応じた、まぶた境界の濃淡変化の周波数を決定する周波数決定部332と、特徴量算出部26と、まぶた位置検出部28とを備えている。
 目サイズ検出部330は、目画像抽出部22によって抽出された目画像を取得し、当該目画像から、目の大きさ(例えば、目尻・目頭間の距離など)を検出する。
 周波数決定部332には、目の大きさと、まぶた境界における縦方向の濃淡変化の周波数との対応関係が予め記憶されている。周波数決定部332は、当該対応関係に基づいて、検出された目の大きさに対応する、まぶたの境界における濃淡変化の周波数を決定する。
 特徴量算出部26は、2次エッジ画像を、決定された周波数の周期の1/4だけ上方向にずらして、上記(1)式に従って、各画素の上瞼特徴量eupper(x,y)を算出する。
 また、特徴量算出部26は、2次エッジ画像を、決定された周波数の周期の1/4だけ、下方向にずらして、上記(2)式に従って、各画素の下瞼特徴量elower(x,y)を算出する。
 次に、第3の実施の形態に係るまぶた検出装置310の動作について説明する。
まず、コンピュータ316は、画像撮像部12で撮影された顔画像を、ビデオ信号として取り込み、ビデオ信号をA/D変換して、2次元ディジタル画像を生成する。コンピュータ316は、顔画像の中から目の領域を検索して、目を含む領域を抽出領域として設定し、片目を含む小領域を目画像として抽出する。
 そして、コンピュータ316は、抽出された目画像から、目の大きさを検出し、検出された目の大きさに対応する、まぶたの境界における濃淡変化の周波数を決定して、メモリ(図示省略)に記憶する。
 そして、コンピュータ316において、上述した第1の実施の形態と同様に画像処理ルーチンを実行する。
 このように、まぶた検出装置は、目画像から目の大きさを検出し、目の大きさに応じて、まぶたの境界における濃度変化の周波数を決定して、決定した周波数の周期の1/4だけ、2次エッジ画像を縦方向にずらす。これにより、まぶた検出装置は、1次エッジ画像及び2次エッジ画像の、まぶたの境界における画素値変化の位相のずれを合わせることができ、実際の瞼に近い場所で瞼特徴量が大きくなるように算出することができる。
 なお、上記の実施の形態では、目の大きさと、まぶたの境界における濃度変化の周波数との対応関係を予め記憶しておく場合を例に説明したが、これに限定されるものではない。目の大きさと、まぶたの境界における濃度変化の周波数の周期との対応関係を予め記憶しておくようにしてもよい。
 また、上記の第1の実施の形態~第3の実施の形態では、まぶた検出装置が、画像入力部で入力した濃淡画像から濃淡変化の大きさを表すエッジ画像を生成する場合を例に説明したが、画像入力部で入力した画像がカラー画像であってもよい。この場合には、まぶた検出装置が、カラー画像の濃度値の変化の大きさを表すエッジ画像を生成すればよい。
 また、まぶた検出装置が、目画像に対して、縦方向2次微分フィルタを用いたエッジ処理を行うことにより、2次微分値を計算する場合を例に説明したが、これに限定されるものではない。まぶた検出装置が、1次エッジ画像に対して、縦方向1次微分フィルタを用いたエッジ処理をもう1度行って、2次微分値を計算するようにしてもよい。
 また、まぶた検出装置が、2次エッジ画像をまばたき方向(縦方向)にずらす場合を例に説明したが、これに限定されるものではない。まぶた検出装置が、1次エッジ画像をまばたき方向にずらすようにしてもよい。この場合には、まぶた検出装置が、まぶたの境界における縦方向の濃度変化の周波数の周期の1/4だけ、1次エッジ画像を、まばたき方向の下方向にずらし、下方向にずらした1次エッジ画像と、2次エッジ画像とに基づいて、各画素の上瞼特徴量を算出するようにすればよい。また、まぶた検出装置が、まぶたの境界における縦方向の濃度変化の周波数の周期の1/4だけ、1次エッジ画像を、まばたき方向の上方向にずらし、上方向にずらした1次エッジ画像と、2次エッジ画像とに基づいて、各画素の下瞼特徴量を算出するようにすればよい。
 また、化粧は上瞼に塗られるので、上瞼特徴量の算出用にのみ、1次エッジ画像及び2次エッジ画像の何れか一方をまばたき方向にずらすようにしてもよい。
 また、まぶた検出装置が、1次エッジ画像の画素値と2次エッジ画像の画素値とを重み付け加算して、瞼特徴量を算出する場合を例に説明したが、これに限定されるものではない。まぶた検出装置が、1次エッジ画像の画素値と2次エッジ画像の画素値とを乗算して、各画素の瞼特徴量を算出するようにしてもよい。
 また、まぶた検出装置が、瞼特徴量のピーク点の集合に対して、瞼形状をフィッティングして、まぶた位置を検出する場合を例に説明したが、これに限定されるものではない。まぶた検出装置は、他の手法により、まぶた位置を検出するようにしてもよい。
 本発明のプログラムを、記憶媒体に格納して提供することも可能である。
 本発明に係るコンピュータ可読媒体は、コンピュータを、目を含む領域の画像に基づいて、該領域における画素毎の所定方向の画素値変化の大きさを表す1次エッジ画像、及び該領域における画素毎の前記所定方向の画素値変化の大きさの前記所定方向の変化率を表わす2次エッジ画像を生成する生成部、前記画像におけるまぶたの境界における画素値変化の周波数の周期に応じて、前記1次エッジ画像及び前記2次エッジ画像の何れか一方を前記所定方向にずらし、各画素について、前記1次エッジ画像の該画素の画素値及び前記2次エッジ画像の該画素の画素値に基づいて、特徴量を算出する特徴量算出部、及び
 前記算出された各画素の特徴量に基づいて、上まぶたと眼球との境界及びの少なくとも一方を検出するまぶた検出部として機能させるためのプログラムを記憶する。
 日本出願2010-160053の開示はその全体が参照により本明細書に取り込まれる。
 本明細書に記載された全ての文献、特許出願、及び技術規格は、個々の文献、特許出願、及び技術規格が参照により取り込まれることが具体的かつ個々に記載された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (10)

  1.  目を含む領域の画像に基づいて、該領域における画素毎の所定方向の画素値変化の大きさを表す1次エッジ画像、及び該領域における画素毎の前記所定方向の画素値変化の大きさの前記所定方向の変化率を表わす2次エッジ画像を生成する生成部と、
     前記画像におけるまぶたの境界における画素値変化の周波数の周期に応じて、前記1次エッジ画像及び前記2次エッジ画像の何れか一方を前記所定方向にずらし、各画素について、前記1次エッジ画像の該画素の画素値及び前記2次エッジ画像の該画素の画素値に基づいて、特徴量を算出する特徴量算出部と、
     前記算出された各画素の特徴量に基づいて、上まぶたと眼球との境界及び下まぶたと眼球との境界の少なくとも一方を検出するまぶた検出部と、
     を含むまぶた検出装置。
  2.  前記画像から、目の大きさを検出する目検出部を更に含み、
     前記特徴量算出部は、前記検出された目の大きさに対応して予め定められた前記まぶたの境界における画素値変化の周波数の周期に応じて、前記1次エッジ画像及び前記2次エッジ画像の何れか一方を前記所定方向にずらして、各画素について前記特徴量を算出する請求項1記載のまぶた検出装置。
  3.  前記画像から、まぶたの境界における画素値変化を抽出する画素値変化抽出部と、
     前記抽出された画素値変化の周波数を検出する周波数検出部とを更に含み、
     前記特徴量算出部は、前記周波数検出部によって検出された前記画素値変化の周波数の周期に応じて、前記1次エッジ画像及び前記2次エッジ画像の何れか一方を前記所定方向にずらして、各画素について前記特徴量を算出する請求項1記載のまぶた検出装置。
  4.  前記特徴量算出部は、前記画像におけるまぶたの境界における画素値変化の周波数の周期の1/4だけ、前記1次エッジ画像及び前記2次エッジ画像の何れか一方を前記所定方向にずらして、各画素について前記特徴量を算出する請求項1~請求項3の何れか1項記載のまぶた検出装置。
  5.  前記所定方向を、まばたき方向とした請求項1~請求項4の何れか1項記載のまぶた検出装置。
  6.  前記特徴量算出部は、前記1次エッジ画像を、前記まばたき方向であって、かつ、下方向にずらし、各画素について前記特徴量を算出し、
     前記まぶた検出部は、前記算出された特徴量に基づいて、上まぶたと眼球との境界を検出する請求項5記載のまぶた検出装置。
  7.  前記特徴量算出部は、前記2次エッジ画像を、前記まばたき方向であって、かつ、上方向にずらし、各画素について前記特徴量を算出し、
     前記まぶた検出部は、前記算出された特徴量に基づいて、上まぶたと眼球との境界を検出する請求項5記載のまぶた検出装置。
  8.  前記特徴量算出部は、各画素について、前記1次エッジ画像の該画素の画素値及び前記2次エッジ画像の該画素の画素値の重み付き加算又は乗算により、前記特徴量を算出する請求項1~請求項7の何れか1項記載のまぶた検出装置。
  9.  前記まぶた検出部は、前記算出された特徴量の前記所定方向におけるピーク点に基づいて、前記上まぶたと眼球との境界及び前記下まぶたと眼球との境界の少なくとも一方を検出する請求項1~請求項8の何れか1項記載のまぶた検出装置。
  10.  コンピュータを、
     目を含む領域の画像に基づいて、該領域における画素毎の所定方向の画素値変化の大きさを表す1次エッジ画像、及び該領域における画素毎の前記所定方向の画素値変化の大きさの前記所定方向の変化率を表わす2次エッジ画像を生成する生成部、
     前記画像におけるまぶたの境界における画素値変化の周波数の周期に応じて、前記1次エッジ画像及び前記2次エッジ画像の何れか一方を前記所定方向にずらし、各画素について、前記1次エッジ画像の該画素の画素値及び前記2次エッジ画像の該画素の画素値に基づいて、特徴量を算出する特徴量算出部、及び
     前記算出された各画素の特徴量に基づいて、上まぶたと眼球との境界及びの少なくとも一方を検出するまぶた検出部
     として機能させるためのプログラム。
PCT/JP2011/065509 2010-07-14 2011-07-06 まぶた検出装置及びプログラム WO2012008345A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE112011102346T DE112011102346T5 (de) 2010-07-14 2011-07-06 Augenliderfassungsvorrichtung und Programm
US13/805,597 US8693784B2 (en) 2010-07-14 2011-07-06 Eyelid detection device and program
CN201180033982.9A CN102985948B (zh) 2010-07-14 2011-07-06 眼睑检测装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010160053A JP5180997B2 (ja) 2010-07-14 2010-07-14 まぶた検出装置及びプログラム
JP2010-160053 2010-07-14

Publications (1)

Publication Number Publication Date
WO2012008345A1 true WO2012008345A1 (ja) 2012-01-19

Family

ID=45469348

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/065509 WO2012008345A1 (ja) 2010-07-14 2011-07-06 まぶた検出装置及びプログラム

Country Status (5)

Country Link
US (1) US8693784B2 (ja)
JP (1) JP5180997B2 (ja)
CN (1) CN102985948B (ja)
DE (1) DE112011102346T5 (ja)
WO (1) WO2012008345A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9020199B2 (en) * 2011-04-19 2015-04-28 Aisin Seiki Kabushiki Kaisha Eyelid detection device, eyelid detection method, and recording medium
JP6227996B2 (ja) * 2013-12-18 2017-11-08 浜松ホトニクス株式会社 計測装置及び計測方法
KR102198852B1 (ko) * 2014-03-24 2021-01-05 삼성전자 주식회사 홍채 인식 장치 및 이를 포함하는 모바일 장치
JP6535223B2 (ja) * 2015-05-28 2019-06-26 浜松ホトニクス株式会社 瞬目計測方法、瞬目計測装置、及び瞬目計測プログラム
JP2019082743A (ja) * 2016-03-18 2019-05-30 三菱電機株式会社 情報処理装置及び情報処理方法
US10846517B1 (en) * 2016-12-30 2020-11-24 Amazon Technologies, Inc. Content modification via emotion detection
US11430264B2 (en) * 2018-07-16 2022-08-30 Honor Device Co., Ltd. Eye open or closed state detection method and electronic device
JP7137746B2 (ja) * 2019-01-30 2022-09-15 株式会社Jvcケンウッド 映像処理装置、映像処理方法および映像処理プログラム
CN113785258A (zh) * 2019-03-22 2021-12-10 惠普发展公司,有限责任合伙企业 检测眼睛测量
CN113240657B (zh) * 2021-05-25 2023-12-22 郑州新益华信息科技有限公司 一种基于医疗大数据的眼睑炎图像处理及预警***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0678901A (ja) * 1992-06-12 1994-03-22 Nec Corp 上まぶた領域、目頭・目尻・上まぶた領域及び目の構造の検出方法及び装置
JP2008226031A (ja) * 2007-03-14 2008-09-25 Toyota Central R&D Labs Inc まぶた検出装置及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04309927A (ja) 1991-04-09 1992-11-02 Hitachi Ltd アクティブマトリクス基板の製造方法とこれを用いた液晶表示素子
JP3214057B2 (ja) * 1992-04-14 2001-10-02 キヤノン株式会社 瞳孔中心検出方法、瞳孔中心検出装置、瞳孔輪部検出方法および瞳孔輪部検出装置
JP3143819B2 (ja) 1994-05-20 2001-03-07 株式会社豊田中央研究所 まぶたの開度検出装置
RU2330607C2 (ru) * 2001-06-13 2008-08-10 Компьюмедикс Лимитед Способ и устройство для мониторинга сознания
US20090252382A1 (en) * 2007-12-06 2009-10-08 University Of Notre Dame Du Lac Segmentation of iris images using active contour processing
JP2010160053A (ja) 2009-01-08 2010-07-22 Shimadzu Corp ガスクロマトグラフ及びガスクロマトグラフ分析方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0678901A (ja) * 1992-06-12 1994-03-22 Nec Corp 上まぶた領域、目頭・目尻・上まぶた領域及び目の構造の検出方法及び装置
JP2008226031A (ja) * 2007-03-14 2008-09-25 Toyota Central R&D Labs Inc まぶた検出装置及びプログラム

Also Published As

Publication number Publication date
CN102985948B (zh) 2016-02-10
US8693784B2 (en) 2014-04-08
DE112011102346T5 (de) 2013-04-18
JP5180997B2 (ja) 2013-04-10
CN102985948A (zh) 2013-03-20
JP2012022531A (ja) 2012-02-02
US20130101225A1 (en) 2013-04-25

Similar Documents

Publication Publication Date Title
WO2012008345A1 (ja) まぶた検出装置及びプログラム
JP4309927B2 (ja) まぶた検出装置及びプログラム
JP5873442B2 (ja) 物体検出装置および物体検出方法
JP5837508B2 (ja) 姿勢状態推定装置および姿勢状態推定方法
CN109684925B (zh) 一种基于深度图像的人脸活体检测方法及设备
JP5657494B2 (ja) シワ検出方法、シワ検出装置およびシワ検出プログラム、並びに、シワ評価方法、シワ評価装置およびシワ評価プログラム
US10304164B2 (en) Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data
CN103002225B (zh) 多曝光高动态范围图像捕捉
US11069057B2 (en) Skin diagnostic device and skin diagnostic method
JP2020526809A (ja) 仮想顔化粧の除去、高速顔検出およびランドマーク追跡
WO2012120697A1 (ja) 画像処理装置、画像処理方法、および制御プログラム
EP2720190A1 (en) Image processing device, image processing method, and control program
CN110619628A (zh) 一种人脸图像质量评估方法
EP3241151A1 (en) An image face processing method and apparatus
JP2008226125A (ja) 瞼検出装置、瞼検出方法、及び、プログラム
CN109816694A (zh) 目标跟踪方法、装置及电子设备
JP2008288684A (ja) 人物検出装置及びプログラム
JP5201184B2 (ja) 画像処理装置及びプログラム
JP2008191760A (ja) 対象物検出装置、対象物検出方法、及びプログラム
CN105320925B (zh) 图像捕获中的特征检测
CN108255298B (zh) 一种投影交互***中的红外手势识别方法及设备
Hang Real-time image acquisition and processing system design based on DSP
CN105323647B (zh) 电视观看环境的光线强度的检测方法和装置与智能电视
KR20160023417A (ko) 컬러 이미지 분석을 이용한 비접촉 멀티 터치 인식 방법 및 시스템
CN110532993B (zh) 一种人脸防伪方法、装置、电子设备及介质

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180033982.9

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11806675

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13805597

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1120111023464

Country of ref document: DE

Ref document number: 112011102346

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11806675

Country of ref document: EP

Kind code of ref document: A1