WO2022123751A1 - 判定方法、判定プログラム、及び情報処理装置 - Google Patents

判定方法、判定プログラム、及び情報処理装置 Download PDF

Info

Publication number
WO2022123751A1
WO2022123751A1 PCT/JP2020/046151 JP2020046151W WO2022123751A1 WO 2022123751 A1 WO2022123751 A1 WO 2022123751A1 JP 2020046151 W JP2020046151 W JP 2020046151W WO 2022123751 A1 WO2022123751 A1 WO 2022123751A1
Authority
WO
WIPO (PCT)
Prior art keywords
face image
color component
component
color
determined
Prior art date
Application number
PCT/JP2020/046151
Other languages
English (en)
French (fr)
Inventor
智明 松濤
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to JP2022567992A priority Critical patent/JPWO2022123751A1/ja
Priority to CN202080106991.5A priority patent/CN116472555A/zh
Priority to EP20965133.0A priority patent/EP4261773A1/en
Priority to PCT/JP2020/046151 priority patent/WO2022123751A1/ja
Publication of WO2022123751A1 publication Critical patent/WO2022123751A1/ja
Priority to US18/305,859 priority patent/US20230260322A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Definitions

  • the present invention relates to an image determination technique.
  • a technique for determining the presence or absence of a concealed object in an input target image based on the similarity of the feature amount at each corresponding sample point between the reference target image on the target image and the input target image obtained by imaging the object. ing.
  • the face in the face image is in the state of wearing the attached object.
  • the technology is known.
  • the center line between the uppermost part (top of the head) and the lowermost part (chin) of the human face is set as the vertical center, and the image information of the upper predetermined area and the lower predetermined area sandwiching the upper and lower centers is compared.
  • a technique of determining whether or not the photographed person is wearing a mask is known.
  • Patent Documents 1 to 1 to Patent there are some known techniques for determining the presence or absence of an attachment such as a mask or sunglasses that partially shields the person's face from the person's face image (for example, Patent Documents 1 to 1 to Patent). See Document 5).
  • Face recognition is to confirm the identity of the person to be authenticated by collating the captured face image obtained by imaging the person to be authenticated with the registered face image of the person to be authenticated in advance. be.
  • the person subject to certification may be wearing an accessory that partially shields the face, such as a mask or sunglasses.
  • face recognition When face recognition is performed using the captured face image obtained by imaging such a person to be authenticated, for example, it may cause a person's refusal due to a decrease in the similarity between the captured face image and the registered face image.
  • the accuracy of detecting the orientation and posture of the face may decrease.
  • the attachment that covers a part of the face of the person to be authenticated may affect the face recognition. Therefore, it is desired to accurately determine whether or not such an attachment is present on the subject's face in the subject's face image.
  • the computer acquires the face image taken by the camera. For each color component contained in the face image, the computer sets an index indicating the high possibility that an attachment that partially shields the face exists on the face image, for each color component in the face image. Obtained based on the distribution of lightness. The computer determines any color component contained in the face image based on the color information of the face image. The computer determines whether or not an attachment is present on the face image based on the determined color component and the index for each color component.
  • the image on the left side in each of FIGS. 1 and 2 is an example of a face image, and is an image of the face of the same person.
  • the face shown in the face image of FIG. 1 does not have a mask, which is an example of an attached object, whereas the face shown in the face image of FIG.
  • the part of the face including the mouth is shielded.
  • spectacles are attached to both faces shown in these facial images, the lenses of these spectacles have high transparency and do not block the eyes of the face.
  • the curves on the right side of each of FIGS. 1 and 2 represent the distribution of brightness for one of the color components contained in the facial image on the left side of each.
  • the total value for each pixel row or the average value for each pixel row for the pixel values of the respective color components of each pixel arranged in each horizontal pixel row of the image frame of the face image is used for the image frame. It shows the distribution arranged vertically according to the arrangement order of each pixel row in the vertical direction.
  • the horizontal direction in the drawings of these distributions indicates the magnitude of the value for each pixel row, and the right direction of the drawing indicates the direction in which the value is large, that is, the direction in which the brightness of the corresponding color component for the pixel row is high. Represents.
  • These distributions are examples of the distribution of the brightness of the color components contained in the facial image.
  • the brightness is minimized at each position corresponding to the pupil, nostril, and mouth fissure (between the upper lip and the lower lip) on the face shown in the facial image, and the tip of the nose. It is clear that it has the characteristic that the brightness is maximized at the position corresponding to (the tip of the nostril).
  • the characteristics of the maximum and minimum brightness at each position corresponding to the nostrils and the mouth fissure are unclear. This difference is due to the fact that the mask worn on the face shown in the facial image shields the nose and mouth.
  • an index indicating the high possibility that a wearer that partially shields the face is present on the face image is used as the distribution of brightness for each color component in the face image as described above. Get based on. Then, it is determined based on this index whether or not the attached object is present on the face image.
  • the above-mentioned is described for the input of the above-mentioned brightness distribution.
  • This model is generated by machine learning using a well-known machine learning algorithm such as a neural network.
  • a machine learning algorithm such as a neural network.
  • teacher data each of the data group representing the distribution of brightness for the face image with the attachment and the distribution of the brightness for the face image without the attachment for each color component.
  • the represented data group is used.
  • the model generated in this way is used to acquire an index indicating the high possibility of being present on the facial image.
  • the distribution of lightness for a face image in which the mask is attached to the face and the nose and mouth are shielded is the same as the distribution of lightness in the face image in which the mask is not attached to the face. May be exhibited.
  • a method for accurately determining the presence or absence of an attached object will be described even in such a case.
  • FIGS. 3 and 4 both show an example of the lightness distribution for a face image without a mask
  • FIG. 3 is for the reddish component
  • FIG. 4 is for the bluish component. ..
  • the maximum / minimum characteristics of the brightness at the positions of each part of the face which are clearly shown in the distribution example of FIG. Is clearly shown in both the distribution examples of FIGS. 3 and 4.
  • FIGS. 5 and 6 show the distribution of brightness for a facial image when a mask is worn on the face
  • FIG. 5 shows the redness component
  • FIG. 6 shows the bluish component. It is a thing.
  • the distribution examples of FIGS. 5 and 6 are for the case where the mask worn on the face is red.
  • the distribution example of FIG. 6 which shows the distribution example of the lightness of the bluish component
  • the lightness in the part where the red mask is attached is low, and the maximum and minimum are unclear. Therefore, in the distribution example of FIG. 6, it is easy to determine the presence / absence of the mask by comparison with the distribution example of FIG. 4 in which the mask does not exist.
  • the distribution example of FIG. 6, which shows the distribution of the lightness of the bluish component the lightness is low in the entire area of the red mask. Therefore, even if the wrinkles of the mask cause a dark portion in the mask portion of the face image, the features of maximum and minimum at the position corresponding to the mask wearing portion as in the distribution example of FIG. 5 do not clearly appear.
  • any color component contained in the face image is determined as a color component suitable for use in determining whether or not the attached object is present in the face image. This determination is made based on the color information of the face image, more specifically, for example, whether the face image has a small redness component or the image has a small bluish component. It is good to set it to. If the face image has a red attachment, the redness component of the face image is large, so that the bluish component of the face image is relatively small. This is because the bluish component is large and the reddish component of the face image is relatively small.
  • the color component determined as described above for determining whether or not the attached object is present on the face image and the above-mentioned high possibility that the attached object is present on the face image are determined. It is performed based on the index for each color component to be represented. More specifically, this determination is not made by using the indexes for each color component equally, but so that the weight for the determined color component is heavier than the weight for the color components other than the determined color component. It is performed using the index given the weight. By doing so, it is possible to accurately determine the presence or absence of an attached object in the face image.
  • FIG. 7 shows the configuration of an exemplary information processing apparatus 1.
  • a camera 2 is connected to this information processing device 1.
  • the camera 2 is used for photographing a person, and the photographed image including the image of the face of the person obtained by the photographing is input to the information processing apparatus 1.
  • the information processing device 1 includes a face image acquisition unit 11, an index acquisition unit 12, a color component determination unit 13, and a determination unit 14.
  • the face image acquisition unit 11 acquires an image (face image) of a person's face region from the captured image.
  • the face image acquisition unit 11 may apply any of these well-known techniques to acquire a face image from a captured image.
  • the face image acquisition unit 11 acquires a face image by adopting the following method described in the above-mentioned Cited Document 4 as a method for acquiring a face image.
  • the luminance value is set. It is determined that the pixels in the range of the sequentially added areas are included in the face area. This judgment utilizes the fact that the face region tends to be imaged relatively brightly as compared with the hair region and the background region.
  • the amount of change in the horizontal direction is calculated for the sequentially added luminance values, and the position where the calculated amount of change changes more than the threshold value is specified as the contour portion of the face in the horizontal direction.
  • the amount of change in the horizontal brightness value in the image frame tends to change significantly in the boundary region between the background region and the face region as compared with other parts. It is something that makes use of that.
  • the face region is specified by specifying the range between the vertical direction and the horizontal direction in the captured image in this way.
  • the index acquisition unit 12 creates a brightness distribution for each color component included in the face image acquired by the face image acquisition unit 11, and the wearer is on the face image based on the brightness distribution for each acquired color component. An index showing the high possibility of being present in is obtained for each color component.
  • the index acquisition unit 12 creates the above-mentioned distribution for each color component, and when the created distribution is input, the index acquisition unit 12 uses a model that outputs the above-mentioned index for each color component to generate the above-mentioned index. To get.
  • This model is, for example, a neural network.
  • This model is generated by executing a well-known machine learning algorithm using a pre-prepared data group as teacher data.
  • each color component of the data group representing the lightness distribution for each color component of the face image in which the attachment is present and the color component of the face image in which the attachment is not present.
  • the data group that represents the distribution of the lightness of is used. For example, to the input of the distribution for the face image in which the attachment is present, the value "1" indicating the existence of the attachment is associated as an output, and the distribution is input for the face image in which the attachment is not present. On the other hand, a value "0" indicating that there is no attached object is associated as an output. Then, machine learning is executed using these data groups as teacher data. By doing so, a model that outputs the above-mentioned index having a range of values that can be 0 or more and 1 or less is generated.
  • the index acquisition unit 12 may acquire the above-mentioned index without using such a machine learning model.
  • the distribution of the brightness standard for each color component included in the reference image for the face on which the attachment is present is prepared in advance, and the distribution of the brightness for each color component and the distribution of the brightness standard for each color component are prepared.
  • the degree of similarity of may be calculated as the above-mentioned index.
  • the color component determination unit 13 determines any color component included in the face image based on the color information of the face image acquired by the face image acquisition unit 11. In the present embodiment, the determination of the color component is performed as follows.
  • the image data of the face image is expressed in the YCrCb space.
  • the Cr component represents a reddish component
  • the Cb component represents a bluish component.
  • the image data may be converted into image data in the YCbCr space, and then each process described below may be performed. Further, for example, when the image data is represented in the RGB color space, it is assumed that the R component represents the reddish component and the B component represents the bluish component, and the Cr component and the Cb component in the following description are respectively. Each process may be performed by replacing it with the R component and the B component.
  • the Cr component value and the Cb component value for each pixel constituting the face image are normalized so that the range of the component value is 0 or more and 1 or less. In the following description, it is assumed that the Cr component value and the Cb component value are normalized by this.
  • the average value of each of the Cr component value and the Cb component value for each pixel constituting the face image is calculated for all the pixels constituting the face image.
  • the average value for each of the Cr component value and the Cb component value calculated at this time is taken as MI Cr and MI Cb , respectively.
  • the MI Cr and MI Cb are information indicating the height of the brightness of each of the reddish component and the bluish component contained in the face image, and are an example of the color information of the face image.
  • the color component determination unit 13 may determine the color component by comparing the magnitude of MI Cr and MIC b calculated in this way. That is, when MI Cb is smaller than MI Cr , the Cb component may be the result of determining the color component, and when MI Cr is smaller than MI Cb , the Cr component may be the result of determining the color component.
  • MI Cb is smaller than MI Cr
  • MI Cr is smaller than MI Cb
  • a comparison target is made based on this tendency. The color component is determined after correcting the color component of.
  • the color component determining unit 13 first determines the brightness of the reddish component or the bluish component based on the relationship of the brightness of each of the reddish component and the bluish component included in the reference face image in which no attachment is present. To correct. The color component determination unit 13 determines the color component based on the lightness corrected in this way.
  • a face image in which no attachment is present is prepared as a reference face image, and the average value of the normalized Cr component value and the Cb component value for each pixel constituting this reference face image is prepared. Is calculated in advance. The average value of each of the Cr component value and the Cb component value of the reference face image calculated at this time is defined as MT Cr and MT Cb , respectively.
  • the color component determination unit 13 substitutes the MICb of the MICr and the MICb calculated as described above into the following equation [Equation 1] to calculate the correction value MICb '.
  • the color component determination unit 13 compares the magnitude of the correction value MI Cb'and MI Cr , and if MI Cb'is smaller than MI Cr , the Cb component is taken as the result of color component determination, and MI Cr is MI. If it is smaller than Cb ', the Cr component is taken as the result of determining the color component. That is, in the color component determination unit 13, when the bluish component is lower than the reddish component in the relationship of the brightness of each of the bluish component and the reddish component contained in the face image, the bluish component is determined and the redness is determined. When the component is lower than the bluish component, the reddish component is determined.
  • the color component determining unit 13 determines the correction value MICb'obtained by correcting the high brightness MICb of the bluish component contained in the face image and the reddish component contained in the face image.
  • the color component is determined based on the result of the magnitude comparison with the high brightness MI Cr .
  • the color component determination unit 13 may determine the color component based on the result of.
  • the determination unit 14 determines whether or not an attachment is present on the face image based on the color component determined by the color component determination unit 13 and the above-mentioned index for each color component acquired by the index acquisition unit 12. conduct.
  • the determination unit 14 acquires the weight for each color component included in the face image. This weight is set so that the weight for the color component determined by the color component determination unit 13 is heavier than the weight for the other color components.
  • the determination unit 14 gives the above-mentioned index for each color component acquired by the index acquisition unit 12 the weight acquired for each color component.
  • the determination unit 14 determines whether or not an attachment is present on the face image based on the index for each color component weighted in this way.
  • the determination unit 14 calculates the weight W Cr of the Cr component and the weight WCb of the Cb component by performing the following formula [Equation 2], respectively.
  • the determination unit 14 calculates the comprehensive index Pt , which is an index indicating the high possibility that the attached object is present on the face image, by performing the calculation of the following equation [Equation 3].
  • the formula [Equation 3] is a formula for calculating the average value of the index for the above-mentioned weighted Cr component and the above-mentioned index for the weighted Cb component as the comprehensive index Pt.
  • the determination unit 14 makes a magnitude comparison between the calculated comprehensive index Pt and a predetermined threshold value (for example, 0.5). Based on the result of this magnitude comparison, the determination unit 14 determines that the wearer is present on the face image when the comprehensive index P t is equal to or greater than the threshold value, and when the comprehensive index P t is smaller than the threshold value. It is determined that the attached object does not exist on the face image, and the determination result is output.
  • a predetermined threshold value for example, 0.5
  • the output of the determination unit 14 is the output of the information processing device 1. This output is used, for example, in the face recognition process to perform collation using a separate registered face image depending on the presence or absence of the attached object on the face image.
  • the information processing device 1 of FIG. 7 includes each of the above-mentioned components.
  • the information processing device 1 may be configured by a combination of a computer and software.
  • FIG. 8 shows an example of the hardware configuration of the computer 20.
  • the computer 20 includes, for example, a processor 21, a memory 22, a storage device 23, a reading device 24, a communication interface 26, and an input / output interface 27 as components. These components are connected via the bus 28, and data can be exchanged between the components.
  • the processor 21 may be, for example, a single processor, a multiprocessor, and a multicore.
  • the processor 21 uses the memory 22 to execute, for example, an attachment presence / absence determination processing program that describes a procedure for attachment presence / absence determination processing described later.
  • the memory 22 is, for example, a semiconductor memory, and may include a RAM area and a ROM area.
  • the storage device 23 is, for example, a semiconductor memory such as a hard disk or a flash memory, or an external storage device.
  • RAM is an abbreviation for Random Access Memory.
  • ROM is an abbreviation for Read Only Memory.
  • the reading device 24 accesses the removable storage medium 25 according to the instructions of the processor 21.
  • the removable storage medium 25 is, for example, a semiconductor device (USB memory or the like), a medium to which information is input / output by magnetic action (magnetic disk or the like), a medium to which information is input / output by optical action (CD-ROM, etc.). It is realized by DVD etc.).
  • USB is an abbreviation for Universal Bus.
  • CD is an abbreviation for Compact Disc.
  • DVD is an abbreviation for Digital Versaille Disk.
  • the communication interface 26 transmits / receives data via a communication network (not shown) according to the instructions of the processor 21, for example.
  • the input / output interface 27 acquires various data such as image data of a captured image sent from the camera 2. Further, the input / output interface 27 outputs the result of the attachment presence / absence determination process described later, which is output from the processor 21.
  • the attachment presence / absence determination program executed by the processor 21 of the computer 20 is provided, for example, in the following form. (1) It is pre-installed in the storage device 23. (2) Provided by the removable storage medium 25. (3) It is provided to the communication interface 26 from a server such as a program server via a communication network.
  • the hardware configuration of the computer 20 is an example, and the embodiment is not limited to this.
  • some or all the functions of the above-mentioned functional parts may be implemented as hardware by FPGA, SoC, or the like.
  • FPGA is an abbreviation for Field Programmable Gate Array.
  • SoC is an abbreviation for System-on-a-chip.
  • attachment presence / absence determination process described in the attachment presence / absence determination program executed by the processor 21 will be described.
  • 9 and 10 are flowcharts showing the processing contents of the attachment presence / absence determination process.
  • the processor 21 outputs an index indicating the high possibility that the wearer is present on the face image for each color component in response to the input of the brightness distribution for each color component of the face image (a model ().
  • a model For example, a neural network
  • the above-mentioned model is generated in advance by executing a well-known machine learning algorithm using a data group prepared in advance as teacher data.
  • the data group used as the teacher data the data group representing the distribution of the brightness for each color component of the face image in which the attachment is present and the color component of each of the face image in which the attachment is not present.
  • a data group representing the distribution of lightness is used.
  • a process of acquiring a face image from the acquired photographed image is performed.
  • the face image is acquired by using the same method as described above as the method adopted by the face image acquisition unit 11 in the information processing apparatus 1 of FIG. 7.
  • the processor 21 provides the above-mentioned function of the face image acquisition unit 11 by executing the above processes of S101 and S102.
  • a process of creating a brightness distribution for the reddish component and the bluish component of the face image acquired by the process of S102 is performed.
  • the distribution created by this process is the distribution described above as created by the index acquisition unit 12 in the information processing apparatus 1 of FIG. 7.
  • a process of acquiring an index indicating the high possibility that an attached object is present in the face image acquired by the process of S102 is performed for the reddish component and the bluish component.
  • the index output from the model is acquired by inputting the brightness distribution of the reddish component and the bluish component created by the process of S103 into the above-mentioned model that outputs this index. Will be.
  • the processor 21 provides the above-mentioned function of the index acquisition unit 12 by executing the above processes of S103 and S104.
  • a process of calculating the high brightness of the reddish component and the bluish component of the acquired face image is performed.
  • the above-mentioned process is performed as the process performed by the color component determining unit 13 in the information processing apparatus 1 of FIG. 7. That is, in this process, from the Cr component value and the Cb component value for each pixel constituting the face image, the average value MI Cr for all the pixels constituting the face image for each of the Cr component value and the Cb component value. And the process of calculating MICb is performed.
  • a process of comparing the magnitude of the high brightness of the reddish component and the high brightness of the bluish component is performed.
  • the process of comparing the magnitude of MICb'and MIC Cr which is the process described above as that performed by the color component determining unit 13, is performed.
  • a determination process is performed based on the result of the magnitude comparison of S107. That is, a process of determining whether or not the height of the lightness of the bluish component is lower than the height of the lightness of the reddish component is performed.
  • the process proceeds to S109. Then, in S109, as a result of determining the color component, a process of selecting a bluish component is performed.
  • the reddish component is selected as a result of determining the color component. is doing. Instead, the bluish component may be selected as a result of determining the color component when both are determined to be equal.
  • the processor 21 provides the above-mentioned function of the color component determination unit 13 by executing the above processes from S105 to S110.
  • a process of acquiring weights for the reddish component and the bluish component is performed.
  • the process performed by the determination unit 14 in the information processing apparatus 1 of FIG. 7 the process of calculating the weights W Cr and WC b from MI Cr and MIC b'using the above-mentioned equation [Equation 2] is performed. Will be done.
  • the weight of the color component selected by executing the process of S109 or S110 of FIG. 9 is set to be heavier than the weight of the other color component.
  • a process of calculating a comprehensive index indicating the high possibility that an attached object is present in the face image acquired by the process of S102 of FIG. 9 is performed.
  • This process is a process described above as performed by the determination unit 14, which is a process of calculating a comprehensive index Pt from MI Cr and MIC b'and weights W Cr and WC b using the equation [Equation 3]. ..
  • a process of comparing the magnitude of the comprehensive index calculated in the process of S112 with a predetermined threshold value is performed.
  • the process of comparing the magnitude of the comprehensive index Pt and the threshold value which is described above as the process performed by the determination unit 14, is performed.
  • a determination process is performed based on the result of the magnitude comparison of S113. That is, a process of determining whether or not the comprehensive index is a value equal to or higher than the threshold value is performed.
  • the process proceeds to S115. Then, in S115, as a final determination result of the presence / absence of the attached object, a process of determining that the attached object is present in the face image acquired by the process of S102 of FIG. 9 is performed.
  • the process proceeds to S116. Then, in S116, as a final determination result of the presence / absence of the attached object, a process of determining that the attached object does not exist in the face image acquired by the process of S102 is performed.
  • the processor 21 provides the above-mentioned function of the determination unit 14 by executing the above processes from S111 to S117.
  • the process up to the above is the process of determining the presence or absence of an attached item.
  • the computer 20 of FIG. 8 operates as the information processing device 1 of FIG. 7, and it is possible to accurately determine the presence / absence of an attachment in the face image. ..
  • an index indicating the high possibility that the attached object is present in the face image is calculated by a model, and the presence or absence of the attached object is determined based on the calculated index and the weight.
  • the present invention is not limited to this. That is, for example, any mounting method can be adopted as long as it determines the presence or absence of an attachment based on the distribution of the brightness of the determined color component after determining the color component of either the reddish component or the bluish component. Needless to say. That is, it may be an implementation method that does not use a model or an index.
  • Information processing device 2 Camera 11 Face image acquisition unit 12 Index acquisition unit 13 Color component determination unit 14 Judgment unit 20 Computer 21 Processor 22 Memory 23 Storage device 24 Reader 25 Detachable storage medium 26 Communication interface 27 Input / output interface 28 Bus

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

コンピュータは、カメラにより撮影された顔画像を取得する。コンピュータは、当該顔画像に含まれる各色成分について、顔を部分的に遮蔽する装着物が当該顔画像上に存在する可能性の高さを表す指標を、当該顔画像における、それぞれの色成分の明度の分布に基づき取得する。コンピュータは、当該顔画像の色情報に基づき、当該顔画像に含まれるいずれかの色成分を決定する。コンピュータは、当該決定した色成分と、各色成分についての当該指標とに基づき、当該顔画像上に装着物が存在するか否かの判定を行う。

Description

判定方法、判定プログラム、及び情報処理装置
 本発明は、画像の判定の技術に関する。
 対象物に関する基準対象画像上と対象物を撮像した入力対象画像上との対応する各サンプル点における特徴量の類似度に基づいて、入力対象画像における隠蔽物の有無を判定するという技術が知られている。
 また、顔画像から抽出した特徴点についての、目や口などといった顔の構成部分の特徴としての信頼度に基づいて、顔画像中の顔が装着物を装着した状態か否かを判定するという技術が知られている。
 また、特定の人物の顔を含む複数の画像から抽出された、当該人物の顔の色の時間的な変化に基づいて、当該人物の顔が、変装用マスク等を用いたなりすましであるかを判定するという技術が知られている。
 また、顔の撮像画像の輝度値からマスク着用を判断するという技術が知られている。
 また、人の顔の最上部(頭頂部)と最下部(顎部)との中心線を上下中心とし、その上下中心を挟む上部の所定領域と下部の所定領域との画像情報を比較して、被撮影者がマスクを着用しているか否かを判定するという技術が知られている。
 以上のように、人物の顔画像から、マスクやサングラス等の、当該人物の顔を部分的に遮蔽する装着物の有無を判定する技術が幾つか知られている(例えば、特許文献1~特許文献5参照)。
国際公開第2010/126120号 国際公開第2019/102619号 特開2019-194888号公報 特開2010-157073号公報 特開2004-310397号公報
 生体認証技術のひとつとして、人物の顔の生体特徴を用いる顔認証の技術が知られている。顔認証は、認証対象者を撮像して得た撮像顔画像を、予め登録しておいた当該認証対象者の登録顔画像と照合することによって、当該認証対象者の本人確認を行うというものである。
 マスクやサングラス等といった、顔を部分的に遮蔽する装着物を認証対象者が装着していることがある。このような認証対象者を撮像して得た撮像顔画像を用いて顔認証を行った場合には、例えば、撮像顔画像と登録顔画像との類似度の低下による本人拒否の要因となることがあり、また、顔の向きや姿勢の検出の精度が低下することがある。このように、認証対象者の顔の一部を覆い隠してしまう装着物は顔認証に影響を及ぼすことがある。このため、対象者の顔画像において、このような装着物が当該対象者の顔に存在するかどうかを精度良く判定することが望まれている。
 1つの側面において、本発明は、顔画像における装着物の有無の判定を精度良く行うことを目的とする。
 1つの案では、コンピュータは、カメラにより撮影された顔画像を取得する。コンピュータは、当該顔画像に含まれる各色成分について、顔を部分的に遮蔽する装着物が当該顔画像上に存在する可能性の高さを表す指標を、当該顔画像における、それぞれの色成分の明度の分布に基づき取得する。コンピュータは、当該顔画像の色情報に基づき、当該顔画像に含まれるいずれかの色成分を決定する。コンピュータは、当該決定した色成分と、各色成分についての当該指標とに基づき、当該顔画像上に装着物が存在するか否かの判定を行う。
 1つの側面によれば、顔画像における装着物の有無の判定を精度良く行うことができる。
顔画像の色成分の明度の分布に基づく装着物の有無の判定手法を説明する図(その1)である。 顔画像の色成分の明度の分布に基づく装着物の有無の判定手法を説明する図(その2)である。 マスクが存在しない顔画像の赤み成分の明度の分布の例を示す図である。 マスクが存在しない顔画像の青み成分の明度の分布の例を示す図である。 赤いマスクが存在する顔画像の赤み成分の明度の分布の例を示す図である。 赤いマスクが存在する顔画像の青み成分の明度の分布の例を示す図である。 例示的な情報処理装置の構成を示す図である。 コンピュータのハードウェア構成例を示す図である。 装着物有無判定処理の処理内容を示したフローチャート(その1)である。 装着物有無判定処理の処理内容を示したフローチャート(その2)である。
 以下、図面を参照しながら、実施形態を詳細に説明する。
 本実施形態では、対象者の顔に装着物が存在するか否かの判定を、当該対象者の顔画像に含まれる色成分の明度の分布に基づいて行う。まず、この手法について、図1及び図2を用いて説明する。
 図1及び図2の各々における左側の画像は顔画像の一例であって、同一人物の顔の画像である。図1の顔画像に映っている顔には装着物の一例であるマスクが存在しないのに対し、図2の顔画像に映っている顔には白いマスクが装着されていて、マスクによって鼻と口とを含む顔の部分が遮蔽されている。なお、これらの顔画像に映っているどちらの顔にも眼鏡が装着されているが、この眼鏡のレンズは高い透明度を有しており、顔の目の部分を遮蔽するものではない。
 図1及び図2の各々における右側の曲線は、それぞれの左側の顔画像に含まれる各色成分のうちのひとつについての明度の分布を表している。この分布は、顔画像の画像フレームの水平方向の各画素列に並ぶ各画素の、それぞれの色成分の画素値についての画素列毎の合計値若しくは画素列毎の平均値を、当該画像フレームの垂直方向における各画素列の配置順に従って縦に並べた分布を表している。なお、これらの分布の図面における横方向は各画素列についての値の大小を表しており、図面の右方向が値の大きい方向、すなわち、画素列についての対応する色成分の明度が高い方向を表している。これらの分布は、顔画像に含まれる色成分の明度の分布の例である。
 図1の右側に表されている分布では、顔画像に映っている顔における、瞳、鼻孔、及び口裂(上唇と下唇との間)に相当するそれぞれの位置において明度が極小となり、鼻尖(鼻先)に相当する位置において明度が極大となるという特徴を有することが明瞭である。これに対し、図2の右側に表されている分布では、前述した特徴のうちの、鼻孔及び口裂に相当するそれぞれの位置においての明度の極大・極小の特徴が不明瞭である。この違いは、顔画像に映っている顔に装着されているマスクが鼻と口とを遮蔽していることに起因している。
 そこで、本実施形態では、顔を部分的に遮蔽する装着物が顔画像上に存在する可能性の高さを表す指標を、前述したような、当該顔画像における各色成分についての明度の分布に基づいて取得する。そして、顔画像上に装着物が存在するか否かを、この指標に基づき判定する。
 ここで、装着物の有無と上記の分布に認められる特徴との間には前述したような関係が存在する点に着目し、本実施形態では、上述した明度の分布の入力に対して上述した指標を出力するモデルを生成する。このモデルは、ニューラルネットワーク等の周知の機械学習アルゴリズムを用いた機械学習によって生成される。この機械学習では、教師データとして、各色成分についての、装着物が存在する顔画像についての明度の分布をそれぞれが表しているデータ群と装着物が存在しない顔画像についての明度の分布をそれぞれが表しているデータ群とが用いられる。本実施形態では、このようにして生成されるモデルを用いて、顔画像上に存在する可能性の高さを表す指標の取得を行う。
 ところで、マスクが顔に装着されていて鼻と口とが遮蔽されている顔画像についての明度の分布が、マスクが顔に装着されていない顔画像における明度の分布と同様の極大・極小の特徴を呈する場合がある。次に、このような場合でも装着物の有無の判定を精度良く行えるようにするための手法を説明する。
 図3及び図4は、どちらもマスクが存在しない顔画像についての明度の分布の例を示すものであって、図3は赤み成分についてのものであり、図4は青み成分についてのものである。図3及び図4の分布例と図1の分布例とを比較すると明らかなように、図1の分布例において明瞭に表れている、顔の各部位の位置における明度についての極大・極小の特徴が、図3及び図4の分布例のどちらにも明瞭に表れている。
 次に図5及び図6の分布例に注目する。これらの分布例は、どちらもマスクが顔に装着されている場合の顔画像についての明度の分布を示すものであって、図5は赤み成分についてのものであり、図6は青み成分についてのものである。但し、図5及び図6の分布例は、顔に装着されているマスクが赤色である場合のものである。
 赤み成分についての明度の分布例を表している図5の分布例では、赤色のマスクの装着部分に相当する位置においても明度についての極大・極小を呈する部分が表れてしまっている。このため、図5の分布例では、マスクが存在しない図3の分布例との対比によるマスクの存在有無の判別が困難である。このような極大・極小の特徴が図5の分布例に表われてしまうのは、装着しているマスクに皺があり、この皺が顔画像のマスク部分に生じさせる暗部が、明度の分布において極大・極小部分として表れてしまうためである。
 一方、青み成分についての明度の分布例を表している図6の分布例では、赤色のマスクの装着部分における明度が低く、極大・極小が不明瞭である。従って、図6の分布例では、マスクが存在しない図4の分布例との対比によるマスクの存在有無の判別が容易である。青み成分についての明度の分布を表している図6の分布例では、赤いマスクの部分の全域において明度が低くなる。従って、マスクの皺が顔画像のマスク部分に暗部を生じさせても、図5の分布例のようなマスクの装着部分に相当する位置での極大・極小の特徴が明瞭には表れない。
 以上のことから、赤色のマスクが顔画像に存在するか否かの判定には、赤み成分についての明度の分布よりも青み成分についての明度の分布を用いた方が、良好な判定精度が得られることが分かる。
 そこで、本実施形態では、まず、顔画像に含まれるいずれかの色成分を、装着物が顔画像に存在するか否かの判定に用いるのに好適な色成分として決定する。この決定は、顔画像の色情報に基づいて行われ、より具体的には、例えば、赤み成分が少ない顔画像であるかどうか、あるいは、青み成分が少ない画像であるかどうかに基づいて行うようにするとよい。赤い装着物が存在する顔画像であれば、当該顔画像の赤み成分は多くなるので当該顔画像の青み成分は相対的に少なくなり、青い装着物が存在する顔画像であれば当該顔画像の青み成分は多くなるので当該顔画像の赤み成分は相対的に少なくなるからである。
 本実施形態では、顔画像上に装着物が存在するか否かの判定を、以上のようにして決定した色成分と、前述した、装着物が顔画像上に存在する可能性の高さを表す各色成分についての指標とに基づいて行う。より具体的には、この判定を、各色成分についての指標を平等に用いて行うのではなく、決定した色成分についての重みが決定した色成分以外の色成分についての重みよりも重くなるようにした重みを与えた指標を用いて行う。このようにすることで、顔画像における装着物の有無の精度の良い判定が可能になる。
 次に、顔画像における装着物の存在有無の判定を行う装置の構成について説明する。図7は、例示的な情報処理装置1の構成を示している。
 この情報処理装置1にはカメラ2が接続される。カメラ2は人物の撮影に用いられるものであり、撮影により得られた、人物の顔の像を含む撮影画像は情報処理装置1に入力される。
 情報処理装置1は、顔画像取得部11、指標取得部12、色成分決定部13、及び判定部14を備えている。
 顔画像取得部11は、撮影画像から人物の顔の領域の画像(顔画像)を取得する。
 撮影画像から顔画像を取得する技術として多数の技術が知られている。顔画像取得部11は、このような周知の技術のいずれを適用して撮影画像から顔画像を取得するようにしてもよい。本実施形態では、顔画像取得部11は、顔画像の取得の手法として、前述した引用文献4においても説明されている、以下の手法を採用して顔画像の取得を行うようにする。
 この手法では、まず、撮像画像において画像フレームの垂直方向に隣接して配列されている各画素の輝度値を順次加算して得られる総和が予め設定された閾値よりも大きい場合に、輝度値を順次加算した範囲の画素が顔領域に含まれると判断する。この判断は、顔領域が髪の領域及び背景領域と比較して相対的に明るく撮像される傾向にあることを利用したものである。
 この手法では、次に、順次加算した輝度値に関して水平方向の変化量を算出し、夫々算出された変化量が閾値よりも大きく変化する位置を、水平方向における顔の輪郭部分と特定する。この顔の輪郭部分の特定は、画像フレームにおける水平方向の輝度値の変化量が、背景の領域と顔領域との境界領域において、他の箇所と比較して相対的に大きく変化する傾向にあることを利用したものである。
 この手法では、このようにして撮像画像における垂直方向と水平方向との範囲が特定されることにより、顔領域が特定される。
 指標取得部12は、顔画像取得部11が取得した顔画像に含まれる各色成分についての明度の分布を作成し、取得したそれぞれの色成分についての明度の分布に基づき、装着物が顔画像上に存在する可能性の高さを表す指標を、それぞれの色成分について取得する。
 明度の分布は、顔画像の画像フレームの水平方向の各画素列に並ぶ各画素の、それぞれの色成分の画素値についての画素列毎の合計値若しくは画素列毎の平均値を、当該画像フレームの垂直方向における各画素列の配置順に従って縦に並べた分布である。本実施形態では、指標取得部12は、各色成分についての上述した分布を作成すると共に、作成した分布を入力すると、それぞれの色成分についての上述の指標を出力するモデルを用いて、上述の指標を取得する。
 このモデルは例えばニューラルネットワークである。このモデルは、予め用意されているデータ群を教師データとした周知の機械学習アルゴリズムを実行することによって生成される。本実施形態においては、このデータ群として、装着物が存在する顔画像のそれぞれの色成分についての明度の分布をそれぞれが表しているデータ群と装着物が存在しない顔画像のそれぞれの色成分についての明度の分布をそれぞれが表しているデータ群とを用いる。例えば、装着物が存在する顔画像についての当該分布の入力に対し、装着物が存在することを示す値「1」を出力として対応付け、装着物が存在しない顔画像についての当該分布の入力に対し、装着物が存在しないことを示す値「0」を出力として対応付ける。そして、これらのデータ群を教師データとして機械学習を実行する。このようにすることで、0以上1以下を取り得る値の範囲とする上述した指標を出力するモデルが生成される。
 なお、指標取得部12は、このような機械学習モデルを用いることなく、上述した指標を取得するようにしてもよい。例えば、装着物が存在する顔についての基準の画像に含まれる各色成分についての明度の基準の分布を予め用意し、各色成分についての明度の分布とそれぞれの色成分についての明度の基準の分布との類似度を、上述した指標として算出するようにしてもよい。
 色成分決定部13は、顔画像取得部11が取得した顔画像の色情報に基づき、当該顔画像に含まれるいずれかの色成分を決定する。本実施形態では、この色成分の決定を、以下のようにして行う。
 本実施形態では、顔画像の画像データがYCrCb空間で表現されているものとする。YCrCb空間では、Cr成分が赤み成分を表し、Cb成分が青み成分を表している。
 なお、画像データが他の色空間で表現されている場合には当該画像データをYCbCr空間での画像データに変換した上で、これより説明する各処理を行うようにすればよい。また、例えば、画像データがRGB色空間で表現されている場合には、R成分が赤み成分を表し、B成分が青み成分を表しているものとして、以下の説明におけるCr成分及びCb成分をそれぞれR成分及びB成分と読み替えて各処理を行うようにしてもよい。
 まず、顔画像を構成する各画素についてのCr成分値とCb成分値とをそれぞれ正規化して、成分値の値域が0以上1以下となるようにする。以降の説明では、Cr成分値及びCb成分値は、この正規化がなされているものとする。
 次に、顔画像を構成する各画素についてのCr成分値とCb成分値とのそれぞれについての、顔画像を構成する全画素での平均値を算出する。このときに算出されるCr成分値及びCb成分値のそれぞれについての平均値を、それぞれMICr及びMICbとする。このMICr及びMICbは、顔画像に含まれる赤み成分と青み成分とのそれぞれについての明度の高さを表す情報であり、顔画像の色情報の一例である。
 色成分決定部13は、このようにして算出されたMICrとMICbとの大小比較により、色成分の決定を行ってもよい。すなわち、MICbがMICrよりも小さい場合には、Cb成分を色成分の決定の結果とし、MICrがMICbよりも小さい場合には、Cr成分を色成分の決定の結果としてもよい。但し、人の皮膚の色は一般的には赤み成分が多い傾向があるので、本実施形態では、顔画像における装着物の有無の判定精度を更に向上させるために、この傾向を踏まえて比較対象の色成分を補正した上で色成分の決定を行うようにする。
 すなわち、色成分決定部13は、まず、赤み成分若しくは青み成分の明度を、装着物が存在しない基準の顔画像に含まれる赤み成分と青み成分とのそれぞれについての明度の高さの関係に基づいて補正する。色成分決定部13は、このようにして補正された明度に基づいて色成分の決定を行うようにする。
 より詳細には、まず、装着物が存在しない顔画像を基準顔画像として用意し、この基準顔画像を構成する各画素についての正規化されたCr成分値とCb成分値とのそれぞれの平均値を予め算出しておく。このときに算出される基準顔画像についてのCr成分値及びCb成分値の各々についての平均値を、それぞれMTCr及びMTCbとする。
 色成分決定部13は、前述したようにして算出したMICr及びMICbとのうちのMICbを下記の[数1]式に代入して、補正値MICb’を算出する。
Figure JPOXMLDOC01-appb-M000001
 色成分決定部13は、この補正値MICb’とMICrとの大小比較を行い、MICb’がMICrよりも小さい場合にはCb成分を色成分の決定の結果とし、MICrがMICb’よりも小さい場合にはCr成分を色成分の決定の結果とする。すなわち、色成分決定部13では、顔画像に含まれる青み成分と赤み成分とのそれぞれについての明度の高さの関係において、青み成分が赤み成分よりも低い場合には青み成分が決定され、赤み成分が青み成分よりも低い場合には赤み成分が決定される。
 なお、上述した手法では、色成分決定部13は、顔画像に含まれる青み成分についての明度の高さMICbを補正して得られる補正値MICb’と、顔画像に含まれる赤み成分についての明度の高さMICrとの大小比較の結果に基づき色成分の決定を行っている。この代わりに、人の皮膚の色についての前述した傾向に応じて赤み成分についての明度の高さMICrを補正して得られる補正値と青み成分についての明度の高さMICbとの大小比較の結果に基づいた色成分の決定を色成分決定部13が行うようにしてもよい。
 判定部14は、色成分決定部13が決定した色成分と、指標取得部12が取得した各色成分についての上述した指標とに基づき、顔画像上に装着物が存在するか否かの判定を行う。
 判定部14は、まず、顔画像に含まれる各色成分についての重みを取得する。この重みは、色成分決定部13が決定した色成分についての重みが他の色成分についての重みよりも重くなるように設定される。判定部14は、次に、指標取得部12が取得した各色成分についての上述した指標に、それぞれの色成分について取得した重みを与える。判定部14は、このようにして重みを与えた各色成分についての指標に基づいて、顔画像上に装着物が存在するか否かの判定を行う。
 本実施形態では、判定部14は、Cr成分の重みWCr及びCb成分の重みWCbを、それぞれ下記の[数2]式の計算を行うことによって算出する。
Figure JPOXMLDOC01-appb-M000002
 次に、判定部14は、装着物が顔画像上に存在する可能性の高さを表す指標である総合指標Pを、下記の[数3]式の計算を行うことによって算出する。
Figure JPOXMLDOC01-appb-M000003
 なお、[数3]式において、Pcr及びPcbは、それぞれ、指標取得部12が取得した、Cr成分及びCb成分それぞれについての、装着物が顔画像上に存在する可能性の高さを表す指標である。つまり、[数3]式は、総合指標Pとして、上述した重みを与えたCr成分についての指標と上述した重みを与えたCb成分についての指標との平均値を算出する式である。
 判定部14は、算出した総合指標Pと所定の閾値(例えば0.5)との間で大小比較を行う。判定部14は、この大小比較の結果に基づき、総合指標Pが閾値以上である場合には装着物が顔画像上に存在するとの判定を下し、総合指標Pが閾値よりも小さい場合には装着物が顔画像上に存在しないとの判定を下し、判定結果を出力する。
 判定部14の出力は情報処理装置1の出力となる。この出力は、例えば、顔認証の処理において、装着物の顔画像上での有無に応じて別個の登録顔画像を用いて照合を行うために用いられる。
 図7の情報処理装置1は上述した各構成要素を備えている。なお、この情報処理装置1を、コンピュータとソフトウェアとの組合せにより構成するようにしてもよい。
 図8はコンピュータ20のハードウェア構成例を示している。
 コンピュータ20は、構成要素として、例えば、プロセッサ21、メモリ22、記憶装置23、読取装置24、通信インタフェース26、及び入出力インタフェース27を備えている。これらの構成要素はバス28を介して接続されており、構成要素間で相互にデータの授受を行える。
 プロセッサ21は、例えば、シングルプロセッサであっても、マルチプロセッサ及びマルチコアであってもよい。プロセッサ21は、メモリ22を利用して、例えば、後述する装着物有無判定処理の手順を記述した装着物有無判定処理プログラムを実行する。
 メモリ22は、例えば半導体メモリであり、RAM領域及びROM領域を含んでよい。記憶装置23は、例えばハードディスク、フラッシュメモリ等の半導体メモリ、または外部記憶装置である。なお、RAMは、Random Access Memoryの略称である。また、ROMは、Read Only Memoryの略称である。
 読取装置24は、プロセッサ21の指示に従って着脱可能記憶媒体25にアクセスする。着脱可能記憶媒体25は、例えば、半導体デバイス(USBメモリ等)、磁気的作用により情報が入出力される媒体(磁気ディスク等)、光学的作用により情報が入出力される媒体(CD-ROM、DVD等)などにより実現される。なお、USBは、Universal Serial Busの略称である。CDは、Compact Discの略称である。DVDは、Digital Versatile Diskの略称である。
 通信インタフェース26は、例えば、プロセッサ21の指示に従って通信ネットワーク(不図示)を介してデータを送受信する。
 入出力インタフェース27は、カメラ2から送られている撮影画像の画像データ等の各種のデータを取得する。また、入出力インタフェース27は、プロセッサ21から出力される、後述の装着物有無判定処理の結果を出力する。
 このコンピュータ20のプロセッサ21により実行される装着物有無判定プログラムは、例えば、下記の形態で提供される。
(1)記憶装置23に予めインストールされている。
(2)着脱可能記憶媒体25により提供される。
(3)プログラムサーバなどのサーバから通信ネットワークを介して通信インタフェース26へ提供される。
 なお、コンピュータ20のハードウェア構成は、例示であり、実施形態はこれに限定されるものではない。例えば、上述の機能部の一部または全部の機能がFPGA及びSoCなどによるハードウェアとして実装されてもよい。なお、FPGAは、Field Programmable Gate Arrayの略称である。SoCは、System-on-a-chipの略称である。
 以下、プロセッサ21により実行される装着物有無判定プログラムに記述される装着物有無判定処理について説明する。図9及び図10は、装着物有無判定処理の処理内容を示したフローチャートである。
 なお、プロセッサ21は、顔画像の各色成分についての明度の分布の入力に対し、それぞれの色成分についての、装着物が顔画像上に存在する可能性の高さを表す指標を出力するモデル(例えばニューラルネットワーク)が利用可能であるものとする。前述したように、本実施形態においては、予め用意されているデータ群を教師データとした周知の機械学習アルゴリズムを実行することによって、上述のモデルを予め生成しておく。この教師データとするデータ群としては、装着物が存在する顔画像のそれぞれの色成分についての明度の分布をそれぞれが表しているデータ群と装着物が存在しない顔画像のそれぞれの色成分についての明度の分布をそれぞれが表しているデータ群とを用いる。
 装着物有無判定処理が開始されると、図9において、まず、S101では、カメラ2から送られてくる、人物の顔の像を含む撮影画像を取得する処理が行われる。
 次に、S102において、取得した撮影画像から顔画像を取得する処理が行われる。この処理では、図7の情報処理装置1における顔画像取得部11が採用する手法として前述したものと同様の手法を用いて、顔画像の取得を行う。
 プロセッサ21は、以上のS101及びS102の処理を実行することで、顔画像取得部11の前述した機能を提供する。
 次に、S103では、S102の処理により取得した顔画像の赤み成分と青み成分とについての明度の分布を作成する処理が行われる。この処理により作成される分布は、図7の情報処理装置1における指標取得部12が作成するものとして前述した分布である。
 次に、S104において、S102の処理により取得した顔画像に装着物が存在する可能性の高さを表す指標を、赤み成分と青み成分とについて取得する処理が行われる。この処理では、この指標を出力する前述したモデルにS103の処理により作成された赤み成分と青み成分とについての明度の分布を入力することによって、当該モデルから出力される指標を取得する処理が行われる。
 プロセッサ21は、以上のS103及びS104の処理を実行することで、指標取得部12の前述した機能を提供する。
 次に、S105において、取得した顔画像の赤み成分と青み成分とについての明度の高さを算出する処理が行われる。この処理では、図7の情報処理装置1における色成分決定部13が行う処理として前述した処理が行われる。すなわち、この処理では、顔画像を構成する各画素についてのCr成分値とCb成分値とから、Cr成分値とCb成分値とのそれぞれについての顔画像を構成する全画素での平均値MICr及びMICbを算出する処理が行われる。
 次に、S106において、S105の処理で算出した明度の高さを補正する処理が行われる。この処理では、色成分決定部13が行うものとして前述した処理である、[数1]式を用いてMICbから補正値MICb’を算出する処理が行われる。
 次に、S107において、赤み成分についての明度の高さと青み成分についての明度の高さとを大小比較する処理が行われる。この処理では、色成分決定部13が行うものとして前述した処理である、MICb’とMICrとの大小比較を行う処理が行われる。
 次に、S108において、S107の大小比較の結果に基づく判定処理が行われる。すなわち、青み成分についての明度の高さが赤み成分についての明度の高さよりも低いか否かを判定する処理が行われる。
 このS108の判定処理において、青み成分についての明度の高さが赤み成分についての明度の高さよりも低いと判定された場合(判定結果がYESの場合)には、S109へ処理が進む。そして、S109において、色成分の決定の結果として、青み成分を選択する処理が行われる。
 一方、S108の判定処理において、赤み成分についての明度の高さが青み成分についての明度の高さよりも低い、若しくは両者は等しいと判定された場合(判定結果がNOの場合)には、S110へ処理が進む。そして、S110において、色成分の決定の結果として、赤み成分を選択する処理が行われる。
 S109とS110とのどちらかの処理を終えた後には、図10のS111に処理が進む。
 なお、上述したS108の判定処理では、赤み成分についての明度の高さと青み成分についての明度の高さとの両者が等しいと判定された場合には、色成分の決定の結果として、赤み成分を選択している。この代わりに、両者が等しいと判定された場合に、色成分の決定の結果として、青み成分を選択するようにしてもよい。
 プロセッサ21は、以上のS105からS110までの処理を実行することで、色成分決定部13の前述した機能を提供する。
 次に、図10において、S111では、赤み成分と青み成分とについての重みを取得する処理が行われる。この処理では、図7の情報処理装置1における判定部14が行う処理として前述した、[数2]式を用いてMICrとMICb’とから重みWCrとWCbとを算出する処理が行われる。この結果、図9のS109若しくはS110の処理が実行されて選択された色成分についての重みが他方の色成分についての重みよりも重くなるように設定される。
 次に、S112において、図9のS102の処理により取得した顔画像に装着物が存在する可能性の高さを表す総合指標を算出する処理が行われる。この処理は、判定部14が行うものとして前述した処理である、[数3]式を用いてMICr及びMICb’と重みWCr及びWCbとから総合指標Pを算出する処理である。
 次に、S113において、S112の処理で算出した総合指標と所定の閾値とを大小比較する処理が行われる。この処理では、判定部14が行う処理として前述した、総合指標Pと閾値との大小比較を行う処理が行われる。
 次に、S114において、S113の大小比較の結果に基づく判定処理が行われる。すなわち、総合指標が閾値以上の値であるか否かを判定する処理が行われる。
 このS114の判定処理において、総合指標が閾値以上の値であると判定された場合(判定結果がYESの場合)にはS115へ処理が進む。そして、S115において、装着物有無の最終的な判定結果として、図9のS102の処理により取得した顔画像には装着物が存在するとの判定を下す処理が行われる。
 一方、S114の判定処理において、総合指標が閾値に満たない値であると判定された場合(判定結果がNOの場合)には、S116へ処理が進む。そして、S116において、装着物有無の最終的な判定結果として、S102の処理により取得した顔画像には装着物が存在しないとの判定を下す処理が行われる。
 S115とS116とのどちらかの処理を終えた後にはS117に処理が進み、S117において、S115若しくはS116の処理の実行により下された最終的な判定結果を出力する処理が行われる。
 プロセッサ21は、以上のS111からS117までの処理を実行することで、判定部14の前述した機能を提供する。
 S117の処理を終えると、この装着物有無判定処理が終了する。
 以上までの処理が装着物有無判定処理である。この装着物有無判定処理をプロセッサ21が実行することによって、図8のコンピュータ20が図7の情報処理装置1として動作し、顔画像における装着物の有無の判定を精度良く行うことを可能にする。
 以上、開示の実施形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができるであろう。
 例えば、開示の実施形態では、装着物が顔画像に存在する可能性の高さを示す指標をモデルにより算出し、算出した指標と重みとに基づき、装着物の有無の判定を行っている。しかし、本発明は、これに限定されるものではない。すなわち、例えば赤み成分と青み成分のいずれかの色成分を決定した後、決定した色成分の明度の分布に基づき、装着物の有無を判定するものであれば、あらゆる実装方式を採用し得ることは言うまでもない。すなわち、モデルや指標を用いない実装方式であっても良い。
    1 情報処理装置
    2 カメラ
   11 顔画像取得部
   12 指標取得部
   13 色成分決定部
   14 判定部
   20 コンピュータ
   21 プロセッサ
   22 メモリ
   23 記憶装置
   24 読取装置
   25 着脱可能記憶媒体
   26 通信インタフェース
   27 入出力インタフェース
   28 バス

Claims (13)

  1.  カメラにより撮影された顔画像を取得し、
     前記顔画像に含まれる各色成分について、顔を部分的に遮蔽する装着物が前記顔画像上に存在する可能性の高さを表す指標を、前記顔画像における、それぞれの色成分の明度の分布に基づき取得し、
     前記顔画像の色情報に基づき、前記顔画像に含まれるいずれかの色成分を決定し、
     前記決定した色成分と、各色成分についての前記指標とに基づき、前記顔画像上に前記装着物が存在するか否かの判定を行う、
    処理をコンピュータが実行することを特徴とする判定方法。
  2.  前記色情報は、前記顔画像に含まれる各色成分のそれぞれについての明度の高さを表す情報であり、
     前記色成分の決定において、前記顔画像に含まれる各色成分のうちで前記明度の高さが他の色成分よりも低い色成分が決定される、
    ことを特徴とする請求項1に記載の判定方法。
  3.  前記顔画像に含まれる各色成分は、赤み成分と青み成分とを含み、
     前記色成分の決定において、
      前記顔画像に含まれる前記青み成分についての前記明度の高さが前記顔画像に含まれる前記赤み成分についての前記明度の高さよりも低い場合には前記青み成分が決定され、
      前記顔画像に含まれる前記赤み成分についての前記明度の高さが前記顔画像に含まれる前記青み成分についての前記明度の高さよりも低い場合には前記赤み成分が決定される、
    ことを特徴とする請求項2に記載の判定方法。
  4.  前記赤み成分についての前記明度の高さ若しくは前記青み成分についての前記明度の高さを、前記装着物が存在しない基準の顔画像に含まれる前記赤み成分と前記青み成分との間でのそれぞれの成分についての前記明度の高さの関係に基づいて補正し、
     前記色成分の決定を、補正された明度に基づいて行う、
    ことを特徴とする請求項3に記載の判定方法。
  5.  前記赤み成分及び前記青み成分は、それぞれYCrCb色空間におけるCr成分及びCb成分であることを特徴とする請求項3又は4に記載の判定方法。
  6.  前記顔画像に含まれる各色成分の明度の分布は、前記顔画像の画像フレームの水平方向の各画素列に並ぶ各画素の、それぞれの色成分の画素値についての画素列毎の合計値若しくは画素列毎の平均値を、該画像フレームの垂直方向における各画素列の配置順に従って並べた分布であることを特徴とする請求項1から5のうちのいずれか一項に記載の判定方法。
  7.  前記顔画像に含まれる各色成分について、それぞれの色成分についての前記分布の入力に対し、それぞれの色成分についての前記指標を出力するモデルを、前記装着物が存在する顔画像のそれぞれの色成分についての前記分布をそれぞれが表しているデータ群と前記装着物が存在しない顔画像のそれぞれの色成分についての前記分布をそれぞれが表しているデータ群とを教師データとして用いる機械学習を行うことによって生成しておき、それぞれの色成分についての前記生成しておいたモデルへ、前記顔画像に含まれるそれぞれの色成分についての前記分布を入力したときにおける該モデルからの出力を、それぞれの色成分についての前記指標として取得することを特徴とする請求項1から6のうちのいずれか一項に記載の判定方法。
  8.  前記顔画像に含まれる各色成分についての重みであって前記決定した色成分についての前記重みが前記決定した色成分以外の色成分についての前記重みよりも重い前記重みを、それぞれの色成分について取得し、
     各色成分についての前記指標にそれぞれの色成分についての前記重みを与え、
     前記前記装着物が存在するか否かの判定は、各色成分についての、前記重みを与えた前記指標に基づいて行われる、
    ことを特徴とする請求項1から7のうちのいずれか一項に記載の判定方法。
  9.  前記顔画像上に前記装着物が存在するか否かは、各色成分についての、前記重みを与えた前記指標の平均値と閾値との大小比較の結果によって判定されることを特徴とする請求項8に記載の判定方法。
  10.  前記決定した色成分についての前記重みを、前記顔画像に含まれる前記決定した色成分についての明度の高さが高いほど重くすることを特徴とする請求項8又は9に記載の判定方法。
  11.  カメラにより撮影された顔画像を取得し、
     前記顔画像に含まれる各色成分について、顔を部分的に遮蔽する装着物が前記顔画像上に存在する可能性の高さを表す指標を、前記顔画像における、それぞれの色成分の明度の分布に基づき取得し、
     前記顔画像の色情報に基づき、前記顔画像に含まれるいずれかの色成分を決定し、
     前記決定した色成分と、各色成分についての前記指標とに基づき、前記顔画像上に前記装着物が存在するか否かの判定を行う、
    処理をコンピュータに実行させるための判定プログラム。
  12.  カメラにより撮影された顔画像を取得する顔画像取得部と、
     前記顔画像に含まれる各色成分について、顔を部分的に遮蔽する装着物が前記顔画像上に存在する可能性の高さを表す指標を、前記顔画像における、それぞれの色成分の明度の分布に基づき取得する指標取得部と、
     前記顔画像の色情報に基づき、前記顔画像に含まれるいずれかの色成分を決定する色成分決定部と、
     前記決定した色成分と、各色成分についての前記指標とに基づき、前記顔画像上に前記装着物が存在するか否かの判定を行う判定部と、
    を備えることを特徴とする情報処理装置。
  13.  カメラにより撮影された顔画像を取得し、
     取得した前記顔画像の色情報に基づき、いずれかの色成分を決定し、
     取得した前記顔画像に含まれる色成分のうち、決定した前記色成分の明度分布に基づき、前記顔画像上に装着物が存在するか否かの判定を行う、
     処理をコンピュータが実行することを特徴とする判定方法。
PCT/JP2020/046151 2020-12-10 2020-12-10 判定方法、判定プログラム、及び情報処理装置 WO2022123751A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2022567992A JPWO2022123751A1 (ja) 2020-12-10 2020-12-10
CN202080106991.5A CN116472555A (zh) 2020-12-10 2020-12-10 判定方法、判定程序以及信息处理装置
EP20965133.0A EP4261773A1 (en) 2020-12-10 2020-12-10 Determination method, determination program, and information processing device
PCT/JP2020/046151 WO2022123751A1 (ja) 2020-12-10 2020-12-10 判定方法、判定プログラム、及び情報処理装置
US18/305,859 US20230260322A1 (en) 2020-12-10 2023-04-24 Determination method, storage medium, and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/046151 WO2022123751A1 (ja) 2020-12-10 2020-12-10 判定方法、判定プログラム、及び情報処理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/305,859 Continuation US20230260322A1 (en) 2020-12-10 2023-04-24 Determination method, storage medium, and information processing device

Publications (1)

Publication Number Publication Date
WO2022123751A1 true WO2022123751A1 (ja) 2022-06-16

Family

ID=81973473

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/046151 WO2022123751A1 (ja) 2020-12-10 2020-12-10 判定方法、判定プログラム、及び情報処理装置

Country Status (5)

Country Link
US (1) US20230260322A1 (ja)
EP (1) EP4261773A1 (ja)
JP (1) JPWO2022123751A1 (ja)
CN (1) CN116472555A (ja)
WO (1) WO2022123751A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000082147A (ja) * 1998-09-05 2000-03-21 Sharp Corp ヒトの顔を検出する方法および装置、ならびに観察者トラッキングディスプレイ
JP2004310397A (ja) 2003-04-07 2004-11-04 Toyota Central Res & Dev Lab Inc マスク着用判定装置
JP2005018466A (ja) * 2003-06-26 2005-01-20 Canon Inc 画像領域の抽出及び画像の再生
JP2010157073A (ja) 2008-12-26 2010-07-15 Fujitsu Ltd 顔認識装置、顔認識方法及び顔認識プログラム
WO2010126120A1 (ja) 2009-04-30 2010-11-04 グローリー株式会社 画像処理装置、画像処理方法、及び同方法をコンピュータに実行させるプログラム
WO2019102619A1 (ja) 2017-11-27 2019-05-31 三菱電機株式会社 表情認識装置
US20190259174A1 (en) * 2018-02-22 2019-08-22 Innodem Neurosciences Eye tracking method and system
JP2019194888A (ja) 2014-02-12 2019-11-07 日本電気株式会社 情報処理装置、情報処理方法及びプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000082147A (ja) * 1998-09-05 2000-03-21 Sharp Corp ヒトの顔を検出する方法および装置、ならびに観察者トラッキングディスプレイ
JP2004310397A (ja) 2003-04-07 2004-11-04 Toyota Central Res & Dev Lab Inc マスク着用判定装置
JP2005018466A (ja) * 2003-06-26 2005-01-20 Canon Inc 画像領域の抽出及び画像の再生
JP2010157073A (ja) 2008-12-26 2010-07-15 Fujitsu Ltd 顔認識装置、顔認識方法及び顔認識プログラム
WO2010126120A1 (ja) 2009-04-30 2010-11-04 グローリー株式会社 画像処理装置、画像処理方法、及び同方法をコンピュータに実行させるプログラム
JP2019194888A (ja) 2014-02-12 2019-11-07 日本電気株式会社 情報処理装置、情報処理方法及びプログラム
WO2019102619A1 (ja) 2017-11-27 2019-05-31 三菱電機株式会社 表情認識装置
US20190259174A1 (en) * 2018-02-22 2019-08-22 Innodem Neurosciences Eye tracking method and system

Also Published As

Publication number Publication date
JPWO2022123751A1 (ja) 2022-06-16
US20230260322A1 (en) 2023-08-17
CN116472555A (zh) 2023-07-21
EP4261773A1 (en) 2023-10-18

Similar Documents

Publication Publication Date Title
JP4345622B2 (ja) 瞳色推定装置
JP4214420B2 (ja) 瞳色補正装置およびプログラム
CN110377385B (zh) 一种屏幕显示方法、装置及终端设备
KR101301821B1 (ko) 안색 정보 생성 장치 및 그 방법, 안색 정보를 이용한 건강 상태 판단 장치 및 그 방법, 건강 분류 함수 생성 장치 및 그 방법
KR20200004841A (ko) 셀피를 촬영하도록 사용자를 안내하기 위한 시스템 및 방법
CN109086723B (zh) 一种基于迁移学习的人脸检测的方法、装置以及设备
KR100922653B1 (ko) 눈동자색 보정 장치 및 기록 매체
CN112818901B (zh) 一种基于眼部注意力机制的戴口罩人脸识别方法
WO2020071008A1 (ja) 生体認証システム、生体認証方法およびプログラム
JP5730044B2 (ja) 顔画像認証装置
CN106570447B (zh) 基于灰度直方图匹配的人脸照片太阳镜自动去除方法
JP5480532B2 (ja) 画像処理装置、画像処理方法、及び同方法をコンピュータに実行させるプログラム
CN111291701A (zh) 一种基于图像梯度和椭圆拟合算法的视线追踪方法
JP6396357B2 (ja) 顔画像認証装置
CN114894337A (zh) 一种用于室外人脸识别测温方法及装置
KR20210136092A (ko) 화상 처리 장치, 화상 처리 방법 및 화상 처리 프로그램
US20230020160A1 (en) Method for determining a value of at least one geometrico-morphological parameter of a subject wearing an eyewear
WO2022123751A1 (ja) 判定方法、判定プログラム、及び情報処理装置
JP4602688B2 (ja) 画像処理方法、画像処理装置およびそのプログラム
CN107847136B (zh) 弹力感评价装置、弹力感评价方法以及弹力感评价程序
KR20200049936A (ko) 생체 인식 장치 및 방법
US20230103555A1 (en) Information processing apparatus, information processing method, and program
CN115393695A (zh) 人脸图像质量评估方法、装置、电子设备及存储介质
Tang et al. Visualizing vein patterns from color skin images based on image mapping for forensics analysis
Kabbani et al. Robust Sclera Segmentation for Skin-Tone Agnostic Face Image Quality Assessment

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20965133

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022567992

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 202080106991.5

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020965133

Country of ref document: EP

Effective date: 20230710