WO2020071008A1 - 生体認証システム、生体認証方法およびプログラム - Google Patents

生体認証システム、生体認証方法およびプログラム

Info

Publication number
WO2020071008A1
WO2020071008A1 PCT/JP2019/033352 JP2019033352W WO2020071008A1 WO 2020071008 A1 WO2020071008 A1 WO 2020071008A1 JP 2019033352 W JP2019033352 W JP 2019033352W WO 2020071008 A1 WO2020071008 A1 WO 2020071008A1
Authority
WO
WIPO (PCT)
Prior art keywords
biometric
image
authentication
authentication system
region
Prior art date
Application number
PCT/JP2019/033352
Other languages
English (en)
French (fr)
Inventor
渓一郎 中崎
三浦 直人
長坂 晃朗
友輔 松田
洋 野々村
宮武 孝文
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to KR1020217005979A priority Critical patent/KR102538405B1/ko
Priority to CN201980057116.XA priority patent/CN112639871A/zh
Priority to US17/275,250 priority patent/US20220043895A1/en
Priority to EP19869851.6A priority patent/EP3862968A4/en
Publication of WO2020071008A1 publication Critical patent/WO2020071008A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2134Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on separation criteria, e.g. independent component analysis
    • G06F18/21342Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on separation criteria, e.g. independent component analysis using statistical independence, i.e. minimising mutual information or maximising non-gaussianity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/45Structures or tools for the administration of authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1382Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
    • G06V40/1388Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger using image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/50Maintenance of biometric data or enrolment thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities

Definitions

  • the present invention relates to a technology for authenticating an individual using a living body.
  • biometric authentication used by all people such as mobile terminals
  • authentication may be difficult due to biological changes such as wearing glasses and masks, rough skin, poor blood circulation, and the like. Therefore, it is required to be able to perform authentication using a plurality of non-overlapping living bodies, such as using fingerprint authentication instead of face authentication when wearing a mask, and using face authentication when skin is rough.
  • a single general-purpose sensor such as a visible light camera can simultaneously extract the biological characteristics of a plurality of tissues without increasing the number of required sensors according to the living body to be used.
  • it is important to suppress a decrease in authentication accuracy due to a change in the position or posture of the living body that occurs each time the authentication device is used, or to suppress a change in the position or posture itself.
  • Patent Literature 1 discloses a technique of extracting a plurality of feature amounts to be superimposed from an image obtained by photographing a finger and robustly authenticating a change in the position or posture of a living body.
  • Patent Literature 2 discloses a technique for extracting and authenticating a feature amount from a captured image while guiding a finger to an optimal presentation position / posture to suppress the fluctuation.
  • biometric authentication device In order to realize a user-friendly and high-accuracy biometric authentication device, it is important that a plurality of non-overlapping biometric features can be extracted from sensor data and used for authentication.
  • Patent Literature 1 a finger is illuminated with a light source, and a feature amount is extracted from an image obtained by photographing the reflected light from information on a distribution of dye densities related to a plurality of biological features to be superimposed inside the finger.
  • Techniques for highly accurate authentication have been proposed. However, there is no description about the problem that it is difficult to extract a plurality of biological features from a captured image due to the limitations of a light source and a sensor.
  • Patent Literature 2 discloses a technology in which a plurality of light sources having different wavelengths are illuminated on a finger while guiding the finger to an optimal presentation position, and a feature amount is extracted from an image obtained by photographing the reflected light to perform authentication. Proposed. However, there is no description about a method of guiding not only a finger but also a plurality of non-overlapping living bodies such as a face to an optimum presentation position without blocking each other and photographing.
  • the present invention guides a plurality of non-overlapping living bodies to an optimal presentation position without shielding each other, takes a picture, obtains a plurality of biometric features from the captured image, and performs collation, thereby stably and accurately. It is an object of the present invention to provide a technology for realizing a biometric authentication device that can perform authentication.
  • one embodiment of the present invention provides an image input unit that acquires an image of a living body and registration information about a plurality of biometric features obtained from a living body region of an image of each person.
  • a biometric authentication system comprising: a storage unit that stores the data, and an authentication processing unit that processes the biometric region of the image acquired by the image input unit and performs biometric authentication based on the registration information.
  • the plurality of biometric features obtained from the biometric region are a plurality of biometric features having a low pattern correlation with each other, and the authentication processing unit has a plurality of biometric features having a low pattern correlation with each other obtained by processing the image. And performing the biometric authentication.
  • authentication in a biometric authentication system, authentication can be performed stably and with high accuracy by extracting and collating a plurality of biometric features having low correlation with each other from an image obtained by a single photographing operation. .
  • FIG. 3 is a functional block diagram of an authentication processing unit according to the first embodiment.
  • FIG. 4 is a diagram illustrating an example of a state of authentication using the biometric authentication system according to the first embodiment.
  • 5 is a flowchart illustrating processing at the time of registration by the biometric authentication system according to the first embodiment.
  • 5 is a flowchart illustrating a process at the time of authentication by the biometric authentication system according to the first embodiment.
  • FIG. 4 is a diagram illustrating an example of a guide image displayed by the biometric authentication system according to the first embodiment.
  • FIG. 4 is a diagram illustrating an example of a guide image displayed by the biometric authentication system according to the first embodiment.
  • FIG. 4 is a diagram illustrating a state of a process of detecting a biological region using a display of the biometric authentication system according to the present embodiment as a light source.
  • 5 is a flowchart illustrating a process of detecting a biological region using a display of the biometric authentication system according to the present embodiment as a light source.
  • 6 is a flowchart illustrating an example of a detailed process of calculating a similarity with registered data by the biometric authentication system according to the present embodiment.
  • 5 is a flowchart illustrating an example of a detailed process of calculating a similarity by the biometric authentication system according to the present embodiment.
  • FIG. 5 is a flowchart illustrating a process of extracting a plurality of feature amounts having low correlation by the biometric authentication system according to the present embodiment.
  • 5 is a flowchart illustrating a process of extracting a plurality of feature amounts having low correlation by the biometric authentication system according to the present embodiment.
  • FIG. 5 is a diagram illustrating an example of a feature amount extraction process performed by the biometric authentication system according to the present embodiment.
  • FIG. 1A is a block diagram showing the overall configuration of a biometric authentication system using a finger and a face according to the first embodiment.
  • the present invention may be configured not only as a system but also as a device in which all or some of the components shown in FIG. 1A are mounted on a housing.
  • the device of the present invention may be a personal authentication device including an authentication process.
  • the authentication processing may be performed outside the apparatus, and the apparatus of the present invention may be a biological image acquiring apparatus specialized in acquiring a biological image.
  • the authentication system includes an image input unit 1, an authentication processing unit 2, a storage unit 3, a display unit 4, and an input unit 5.
  • the image input unit 1 is, for example, a color camera, and acquires an image including a biometric feature from a living body of a person to be authenticated, and inputs the acquired image to the authentication processing unit 2.
  • the image input unit 1 may be referred to as a camera 1 in some cases.
  • the authentication processing unit 2 performs image processing on the image input from the image input unit 1 and executes an authentication process.
  • the image processing unit includes the image input unit 1 in the image processing function of the authentication processing unit 2.
  • the authentication processing unit 2 has an image processing function.
  • FIG. 1A further shows a configuration diagram of the authentication processing unit 2.
  • the authentication processing unit 2 includes a central processing unit (CPU: Central Processing @ Unit) 6, a memory 7, and various interfaces 8 (IFs: Interfaces).
  • CPU Central Processing @ Unit
  • IFs Interfaces
  • the CPU 6 performs various processes by executing a program stored in the memory 7. As will be described later, the processing executed by the biometric authentication system of the present embodiment by the function of the authentication unit 9 or the registration unit 10 (FIG. 1B) is actually executed by the CPU 6 according to a program stored in the memory 7.
  • the memory 7 stores a program executed by the CPU 6. Further, the memory 7 temporarily stores the image input from the image input unit 1.
  • the interface 8 connects the authentication processing unit 2 to an external device. Specifically, the interface 8 is connected to the image input unit 1, the storage unit 3, the display unit 4, the input unit 5, and the like.
  • FIG. 1B is a functional block diagram of the authentication processing unit 2 according to the first embodiment.
  • the authentication processing unit 2 includes an authentication unit 9 and a registration unit 10.
  • the authentication unit 9 collates the input data input from the image input unit 1 with the registered data registered in the storage unit 3 to authenticate the user.
  • the registration unit 10 creates registration data from the image acquired by the image input unit 1, and stores the registration data in the storage unit 3.
  • the registration unit 10 executes the processing of FIG. 3 described below and the authentication unit 9 executes the processing of FIG. 4 by controlling the image input unit 1, the storage unit 3, the display unit 4, and the input unit 5 as necessary. Is also good.
  • the storage unit 3 stores user registration data in advance.
  • the registration data is information for collating users, and is, for example, an image of a finger vein pattern or the like.
  • the image of the finger vein pattern is an image obtained by imaging a blood vessel (finger vein) mainly distributed under the skin on the palm side of the finger as a dark shadow pattern.
  • the display unit 4 is, for example, a display device, and is an output device that displays information received from the authentication processing unit 2.
  • the display unit 4 may be referred to as the display 4.
  • the input unit 5 is, for example, a keyboard, and transmits information input by a user to the authentication processing unit 2.
  • FIG. 2 is a diagram for explaining an example of the state of authentication using the biometric authentication system according to the first embodiment.
  • FIG. 2 shows a state of authentication using a tablet PC equipped with a biometric authentication system.
  • the person to be authenticated that is, the user
  • presents a living body such as the face 11 and the hand 12.
  • the state is photographed by the image input unit 1 such as the in-camera of the tablet PC, and the authentication process is performed.
  • FIG. 3 is a flowchart showing a process at the time of registration by the biometric authentication system of the first embodiment.
  • the system sets parameters (camera control parameters) for controlling the image input unit 1, such as focus, white balance, exposure, and gain, in order to obtain an image of appropriate quality (S100).
  • parameters such as focus, white balance, exposure, and gain
  • a predetermined fixed value may be used, a value that was optimal at the time of previous shooting may be used, or if a moving image is being shot, the previous frame may be used. May be used based on the acquired image and camera control parameters.
  • the system takes an image of a living body such as a finger and a face with a camera and acquires an image (S101).
  • the system generates a guide image in the shape of a living body as a sample of the presentation and a guide message that teaches a method of presenting the living body, in order for the subject to present the living body at an appropriate position and posture ( S102).
  • the guide image may show a part or all of the outer shape of the living body.
  • the presented living body may be detected, and the outline of the living body or a figure such as a rectangle including the living body may be displayed as a guide image.
  • FIG. 2 illustrates an example of displaying a guide image of a dotted line indicating the contours of the head and the finger and a message “Match with the frame” in order to present the face and the finger as the living body.
  • the subject can recognize the difference between the presenting method of the living body and the appropriate presenting method, and more appropriately present the living body. Will be able to
  • the authentication processing unit 2 calculates a quality value of photographing from an image obtained by photographing, camera control parameters, and the like (S104).
  • the quality value is a value calculated from at least one of a focus control value, an exposure control value, a luminance value of an acquired image, and the like, according to some rule.
  • the contrast of luminance in an area at the same position as the guide image in the acquired image and an area where a living body is detected from the acquired image may be used as the focus quality value.
  • the amount of change between the exposure control value in the previous frame and the exposure control value in the current frame may be used as the exposure quality value.
  • an average value of the luminance of an area at the same position as the guide image in the acquired image or an area where a living body is detected from the acquired image may be used as the quality value related to the luminance of the acquired image.
  • the authentication processing unit 2 evaluates the appropriateness of the quality value from the difference between the above-described quality value and the appropriate value corresponding to the quality value (S105). If the quality value is not appropriate, the process proceeds to setting of camera control parameters (S100). If the quality value is appropriate, the authentication processing unit 2 detects a living body region from the acquired image (S106).
  • the detection of the living body region is performed, for example, by applying the Semantec Segmentation method of classifying each pixel of the acquired image into a living body region or another region, and extracting a region to which a feature amount extraction such as a face and a finger is applied from the detected living body region. It may be performed by extracting. Alternatively, an Object @ Localization technique for extracting a rectangular region including the living body region from the acquired image may be applied. Further, the living body region may be extracted by another method.
  • the authentication processing unit 2 calculates, for example, posture information such as the length, width, and angle of the detected finger from the extracted biological region, and calculates a difference from the appropriate value as a quality value (S107).
  • the authentication processing unit 2 determines whether the calculated quality value of the posture is appropriate (S108). If the quality value of the posture is not appropriate, the process proceeds to setting of camera control parameters (S100). When the quality value of the posture is appropriate, the authentication processing unit 2 normalizes the posture of the living body (S109).
  • Posture normalization means that, for example, a part of a finger area detected to have a constant finger length is cut or shortened by interpolation or extended by interpolation, or a finger area detected to have a constant finger width. Enlarging or reducing, or rotating the detected finger area so that the angle of the finger becomes constant.
  • the authentication processing unit 2 extracts a feature amount for collation from the biometric region whose posture has been normalized (S110).
  • the feature amount extraction may be performed by, for example, extracting a fingerprint or a face feature point, a vein line pattern, or the like from a biological region.
  • feature extraction from a biological region may be automatically designed by a machine learning technique such as a deep convolutional neural network (CNN: Convolutional @ Neural @ Network).
  • CNN Convolutional @ Neural @ Network
  • the authentication processing unit 2 determines whether the extracted feature amount is appropriate (S111). For example, the authentication processing unit 2 uses a machine learning method such as Random @ Forest or SVM (Support @ Vector @ Machine) to extract the extracted feature amount from a genuine living body or a fake living body such as a photograph or printed matter. May be determined.
  • a machine learning method such as Random @ Forest or SVM (Support @ Vector @ Machine) to extract the extracted feature amount from a genuine living body or a fake living body such as a photograph or printed matter. May be determined.
  • the authentication processing unit 2 temporarily holds the extracted feature amount as a registration candidate (S112).
  • the authentication processing unit 2 compares the number of saved registration candidates with a preset number (S113). If the number of stored registration candidates is less than the preset number, the number of stored registration candidates is not sufficient, and the process proceeds to camera control parameters (S100). When the number of stored registration candidates satisfies a preset number, the number of stored registration candidates is sufficient, and the authentication processing unit 2 calculates the similarity between the feature amounts to be registered candidates. (S114).
  • the authentication processing unit 2 compares the calculated similarity with a preset threshold (S115). When the calculated similarity is lower than the threshold value set in advance, the authentication processing unit 2 determines that the registration is rejected, deletes the registration candidate data stored in the memory 7, and sets the camera control parameters (S100). Move to When the calculated similarity exceeds the threshold, the authentication processing unit 2 determines that the registration is permitted (S116), and stores the registration candidate data in the memory 7. The registration of the biological information is completed by the above processing.
  • FIG. 4 is a flowchart showing a process at the time of authentication by the biometric authentication system according to the first embodiment.
  • setting of camera control parameters (S100), generation of a shooting guide (S101), acquisition of a camera image (S102), display of a shooting guide / camera image (S103), shooting Calculation of quality (S104), determination of appropriateness of imaging quality (S105), detection of living body region (S106), calculation of posture quality (S107), determination of appropriateness of posture quality (S108), normalization of living body posture (S109) ), Extraction of the feature amount (S110), and determination of the appropriateness of the feature amount (S111) are the same as the processing flow at the time of registration.
  • the authentication processing unit 2 calculates the similarity between the feature amount extracted in S110 and the biometric feature amount data registered in advance (S117). Next, the authentication processing unit 2 compares the calculated similarity with a preset threshold (S118). When the calculated similarity exceeds the threshold value set in advance, it is determined that the authentication is permitted (S119), and the authentication process ends. If the calculated similarity exceeds the threshold, it is determined that the authentication is rejected, and the process proceeds to setting of camera control parameters (S100).
  • a photographing guide such as an image imitating the shape of the face and the hand and a message prompting the presentation of the face and the hand
  • the displayed camera image is simultaneously displayed on the display.
  • the face and hand guide images are displayed side by side, whereby it is possible to guide the person to be authenticated to present the face and hands side by side with each other without difficulty.
  • the face and the hand can be projected on the camera image without blocking each other, and the image of the face and the hand can be acquired from a single camera.
  • FIGS. 5A and 5B are diagrams illustrating an example of a guide image displayed by the biometric authentication system according to the first embodiment.
  • a guide image 13 having a contour shape with the hand opened as shown in FIG. 5A is displayed, and the presented hand is displayed accordingly.
  • the distortion of living tissue such as finger fingerprints, veins, and surface wrinkles due to contact between adjacent fingers is avoided, and errors in normalization of living body posture (S109) and extraction of feature amounts (S110), etc. Can be reduced.
  • the guide image 13 by displaying the guide image 13 in which the contour of the crotch portion of the finger is removed from the contour of the hand, even if the subject has a longer or shorter finger than the hand of the guide image 13, the guide image is displayed. 13 makes it easier to fit their own hands, which leads to improved convenience.
  • the camera 1 captures the reflected light of the light emitted from the light source reflected on the living body surface such as the face 11 and the hand 12. It can be said that.
  • the distance from the display 4 to the wall of the room, which is the background is generally longer than the distance from the display 4 to the face 11 and the hand 12, which are the foreground.
  • the light intensity attenuates in proportion to the square of the distance, the amount of light that can be obtained by the camera 1 when light emitted from the display 4 as a light source is reflected by the background is reflected by the foreground. Much smaller than.
  • the brightness or color changes only in the foreground biological region, and in the other background region. Brightness or color does not change significantly.
  • FIG. 6 is a diagram showing a state of a process of detecting a biological region (S106) using the display 4 of the biometric authentication system according to the present embodiment as a light source.
  • FIG. 7 is a flowchart showing the processing.
  • the system performs N times of photographing to separate the background, which is not a living body region, from the camera image (S10601), and corrects the position between the acquired images to absorb camera shake and movement of the subject (S10605). ) To calculate the color difference of each pixel between the acquired images after the position correction (S10606).
  • the system In the ⁇ ⁇ N shootings (S10601), the system generates (S10602) and displays an image to be displayed on the display 4 as illumination (S10603), and acquires a camera image (S10604).
  • N 2
  • the system shoots an object using the color camera 1 arranged on the same surface as the display 4 while displaying an image to be illuminated using the display 4, for example.
  • the subject may be separated into the foreground and the background with reference to the two obtained images.
  • the color camera 1 has, for example, three types of light receiving elements having sensitivity to blue (B), green (G), and red (R), respectively, and these are arranged in a grid for each pixel.
  • the spectral sensitivity of each light receiving element has a sensitivity peak at, for example, around 480 nm for blue, around 550 nm for green, and around 620 nm for red.
  • the display 4 includes, for example, a backlight serving as a light source, a deflection filter for controlling luminance, and a color filter for controlling color.
  • the color filter has three types of filters that transmit blue (B), green (G), and red (R), respectively, and these are arranged in a grid pattern for each pixel, and have a luminance of 256 from 0 to 255. It can be controlled by gradation.
  • the product of the sensitivities of the blue (B) and red (R) light receiving elements of the color camera is substantially zero (that is, the other element has no sensitivity at a wavelength at which one element has sensitivity), and It is assumed that the wavelength at which the spectral sensitivity of each of the RGB light receiving elements of the camera becomes zero and the wavelength at which the transmittance of the RGB color filter of the display becomes zero are substantially the same.
  • Each pixel of the color difference image 16 is substantially equal to 0 in a background pixel that is not close to the display, but in a foreground pixel such as a living body region that is close to the display, depending on the brightness or color of the display image displayed as illumination. Change.
  • the authentication processing unit 2 controls the display (that is, the display unit 4) so as to change the luminance of blue (B) and red (R), and thereby the blue (B) and red
  • the intensity of (R) is changed, but this is an example, and the light source may be controlled so that the intensity of at least one color is changed. Further, a light source other than the display may be used.
  • the above is an example of a calculation method for maximizing the luminance difference between the foreground and the background in the color difference image 16 in the foreground / background separation using the display display as illumination.
  • the luminance difference between the foreground and the background is maximized accordingly. What is necessary is just to apply the display display and the calculation method of a color difference image.
  • the authentication processing unit 2 may extract, for example, a pattern such as a finger vein, an epidermis or a dermis, or an end point or a branch point of a ridge of a fingerprint as a feature amount.
  • a pattern such as a finger vein, an epidermis or a dermis, or an end point or a branch point of a ridge of a fingerprint
  • the end points of the eyebrows and eyes of the face and the outlines around the nose and mouth may be extracted as the feature amounts.
  • the feature amount may be automatically designed and extracted from the captured image using a machine learning technique such as CNN.
  • Fingerprints on the surface of a finger and veins inside the finger are generally known as unique features, and different persons have related patterns.
  • finger variations existing in the real world are overwhelmingly large compared to finger image data variations that can be actually prepared for CNN training for extracting feature values from finger images. Therefore, in a normal CNN in which the convolution process and the pooling process are alternately repeated, and the entire joining process of joining all the pixels in the image is performed on the output layer, over-learning is likely to occur.
  • FCN full-layer convolutional neural network
  • the image structure of the input image is held up to the output image, and overlearning hardly occurs even with learning using a small amount of data.
  • a method of robustly authenticating to position / posture fluctuation using the feature amount extracted by FCN a method of gradually lowering the resolution of each layer in FCN for each layer and extracting a low-frequency feature amount is used.
  • the above method cannot extract a high-frequency feature amount that can be originally used for personal identification.
  • a method of simultaneously extracting low-frequency features and high-frequency features a method is known in which the resolution of each layer in the FCN is gradually lowered for each layer, and then the layers are combined at a later stage. Have been. In this case, it is necessary to use a high-frequency feature amount and a method of calculating the similarity with the registered data which is hardly affected by the displacement.
  • FIG. 8 is a flowchart showing an example of a detailed process of calculating the similarity with the registration data (S117) by the biometric authentication system of the present embodiment.
  • FIG. 8 shows a processing flow for calculating the degree of similarity with the registered data (S117) and reducing the influence of the displacement while using a high-frequency feature amount.
  • the authentication processing unit 2 divides the registered image into M small areas (S1171).
  • the feature amount may be divided into three regions bounded by the first joint and the second joint.
  • the authentication processing unit 2 calculates the similarity between the small area of the authentication image and the small area of the registered image (S1172). For example, the Manhattan distance or the Euclidean distance may be used as the similarity measure. In the calculation of the similarity, the authentication processing unit 2 calculates the similarity with each small area of the registered image while scanning a certain area on the authentication image, and adopts the highest similarity among the scanned areas. .
  • the authentication processing unit 2 fuses the calculated M similarities to obtain a final similarity (S1173).
  • a fusion method for example, a method using an average value of M similarities may be adopted.
  • ⁇ Furthermore in the calculation of the degree of similarity with the registered data (S117), consider the case where the registered data and the authentication data are derived from different persons (other person verification). At this time, it is desirable that the calculated similarity be low.
  • the registered data is a plurality of images and the correlation of each pattern is low, for example, a living tissue to be superimposed, the similarity of the other feature at the position where the similarity of the one feature is maximum is used for authentication. By using this, it is possible to avoid using the similarity that maximizes the similarity with the registered data in the third person verification for authentication.
  • FIG. 9 is a flowchart illustrating an example of a detailed process of calculating a similarity by the biometric authentication system according to the present embodiment.
  • the authentication processing unit 2 first calculates the similarity of each feature amount (S11721). For example, first, the similarity to the registered image is calculated using the feature s1 (S11722), and then the similarity is calculated using the feature s2 at the position where the similarity is maximum at the feature s1 (S11723). The similarity of the feature amount is calculated. At this time, the feature amounts s1 and s2 are different from each other and are included in the S feature amounts extracted by the processing (see FIG. 10 and the like) described later. This method is applicable, for example, to the epidermis, dermis or vein pattern in a finger.
  • FIGS. 10 and 11 are flowcharts illustrating a process of extracting a plurality of feature values having low correlation by the biometric authentication system according to the present embodiment.
  • FIG. 10 and FIG. 11 show a plurality of low-correlation pluralities for calculating the similarity with the registered data (S117) in order to reduce the influence of the positional deviation and to reduce the similarity at the time of the other person verification.
  • 2 shows a process of extracting a feature amount.
  • This processing optimizes a machine learning model such that a feature amount extraction model (hereinafter, referred to as a machine learning model) generated by machine learning such as CNN generates a plurality of low-correlation feature amounts from an input image.
  • the process is divided into a process (FIG. 10) and a process of extracting a feature using a machine learning model at the time of registration and authentication (FIG. 11).
  • the authentication processing unit 2 first reads a plurality of images used for the optimization processing (S120), subsequently detects a biological region (S106), and normalizes the biological posture. (S109), extraction of S features (S110), calculation of the similarity of the features between the read S images (S121), and calculation of the loss value of the machine learning model based on the calculated similarity (S122). ) And updating the parameters of the machine learning model based on the loss value (S123). Lastly, the authentication processing unit 2 determines whether the number of parameter updates satisfies the specified number of times (S124), terminates the process if the number is satisfied, and shifts to image reading (S120) if not. .
  • the image read by the image reading (S120) is basically an image obtained by photographing a living body, and is obtained by performing detection of a living body region (S106) and normalization of a living body posture (S109) from the photographed image. It may be an image of a living body region.
  • the feature amount may be directly extracted by the machine learning model (S110).
  • the extraction of the feature amount (S110) is performed as in the processing flow shown in FIG.
  • the calculation of the similarity of the feature amounts between the images (S121) is the same as the processing flow shown in FIGS.
  • a loss value such as Contrast Loss or Triplet Loss may be calculated.
  • the model parameter update (S123) based on the above loss values, for example, when CNN is used as a machine learning model, the error backpropagation method is applied to update the kernel value of each layer of the CNN.
  • the loss value is calculated such that the higher the similarity of the biometric features of different persons is, the higher the loss value is, and the higher the similarity of the biometric features of the same person is, the lower the loss value is. Good.
  • the model parameters are updated so that the loss value becomes smaller. As a result, a feature amount extraction model for extracting a plurality of biometric features having a low pattern correlation from one biometric image is learned.
  • the authentication processing unit 2 first generates R images having different resolutions from the input image (S1101), and subsequently performs a convolution process on each of the generated images (S1102). They are combined (S1103). Finally, the authentication processing unit 2 performs a convolution process on the combined image (S1104), and generates an image of S feature amounts.
  • the authentication processing unit 2 may, for example, reduce or enlarge the input image, or generate a low-resolution image from the input image by a convolution process.
  • the authentication processing unit 2 may perform the convolution process a plurality of times instead of once, or may perform a process of normalizing the brightness of the image after each convolution process. Good.
  • the authentication processing unit 2 combines the respective image data in the channel direction to generate image data.
  • the authentication processing unit 2 performs a convolution process so as to reduce the number of channels of the combined image data to S.
  • S feature amounts represented by the density image can be obtained.
  • the processing of the model optimizing unit is executed by the CPU 6 according to the program stored in the memory 7, similarly to the processing of the registration unit 10 and the authentication unit 9.
  • the process of the model optimizing unit is executed before the registration and authentication processes shown in FIGS.
  • FIG. 12 is a diagram illustrating an example of a feature amount extraction process performed by the biometric authentication system according to the present embodiment.
  • a feature extraction image 18 and a feature extraction image 19 are obtained for the input finger image 17, and the correlation between the S feature amounts (two in the example of FIG. 12) of the pattern is low.
  • the registered data and the authentication data are derived from the same person, that is, at the time of identity verification, even if the pattern correlation between the feature amounts is low, those feature amounts are generated from the same input image.
  • the registered data and the collation position at which the degree of similarity is the maximum in the feature amount substantially match.
  • the biometric authentication system includes an image input unit (for example, the image input unit 1) for acquiring an image of a living body and a biometric region of an image of each person.
  • a storage unit for example, the storage unit 3) for storing registration information on a plurality of obtained biometric features
  • an authentication processing unit for example, for processing a biometric region of an image acquired by the image input unit and performing biometric authentication based on the registration information
  • Authentication processing unit 2 Authentication processing unit 2).
  • the plurality of biometric features obtained from the biometric region of each person are a plurality of biometric features having a low pattern correlation with each other.
  • the authentication processing unit performs the biometric authentication by combining a plurality of biometric features obtained by processing the image and having a low pattern correlation with each other.
  • the plurality of biometric features having a low pattern correlation with each other may be, for example, biometric features of a face and a finger obtained by the method shown in FIG. 2 or obtained by the methods shown in FIGS. 10 and 11. Alternatively, there may be S feature amounts.
  • the living body captured by the image input unit may include a finger.
  • the plurality of biometric features include a first biometric feature and a second biometric feature
  • the authentication processing unit determines the first biometric feature obtained from the biometric region of the image acquired by the image input unit and the second biometric feature in the registration information.
  • the similarity between the second biometric feature obtained from the biometric region of the image acquired by the image input unit and the first biometric feature of the registration information may be calculated based on the similarity with the one biometric feature.
  • the registration information image and the image captured by the camera are aligned so that the similarity of s1, which is one of the S feature amounts obtained by the methods illustrated in FIGS. 10 and 11, is maximized. Then, at that position, a feature amount s2 different from s1 may be collated. Since the correlation between s1 and s2 is low according to FIGS. 10 and 11, it is expected that the similarity of the feature quantity s2 will be sufficiently low in the case of the authentication of the other person, thereby improving the accuracy of the authentication.
  • the image input unit captures the same living body a plurality of times
  • the authentication processing unit changes the intensity of at least one color of light emitted to the living body when the plurality of times of shooting is performed.
  • the light irradiated to the living body may be controlled, and the living body region may be extracted from the images based on the magnitude of the change in the intensity of at least one of the colors in the plurality of images acquired by the plurality of imagings. This can be performed, for example, by the method shown in FIG.
  • the living body region can be easily extracted.
  • the biometric authentication system may further include a display unit (for example, the display unit 4) that displays an image captured by the image input unit and a guide indicating a desired position of the living body.
  • the authentication processing unit may control the light emitted to the living body by changing the intensity of at least one color output from the display unit. This can be done, for example, by the method shown in FIG.
  • the plurality of biometric features may be extracted from the same portion of the biometric region of each image. This can be performed, for example, by the method shown in FIGS.
  • the authentication processing unit extracts a plurality of biometric features from each of the plurality of person images using the feature amount extraction model (for example, S110 in FIG. 10 and FIG. 11), and extracts the plurality of biometric features from the plurality of person images.
  • the loss value of the feature amount extraction model is calculated (for example, S122 in FIG. 10), and the parameters of the feature amount extraction model may be learned so as to reduce the loss value. (For example, S123 in FIG. 10).
  • the authentication processing unit generates a plurality of images having different resolutions (for example, R images shown in FIG. 11) from the biological region of the image of each person, and convolves the plurality of images having different resolutions.
  • a feature amount extraction model to a plurality of images generated by convolution (for example, S images shown in FIGS. 10 and 11) to extract a plurality of biometric features. You may.
  • the plurality of biometric features may be extracted from different portions of the biometric region of each image.
  • different portions of the biological region of each image may be a person's face portion and a finger portion included in each image (see, for example, FIG. 2 or FIG. 6).
  • the above-described configurations, functions, processing units, processing means, and the like may be partially or entirely realized by hardware, for example, by designing an integrated circuit.
  • the above-described configurations, functions, and the like may be implemented by software by a processor interpreting and executing a program that implements each function.
  • Information such as a program, a table, and a file for realizing each function is stored in a non-volatile semiconductor memory, a hard disk drive, a storage device such as an SSD (Solid State Drive), or a computer-readable non-volatile device such as an IC card, an SD card, or a DVD. It can be stored on a temporary data storage medium.
  • control lines and information lines are shown to be necessary for the description, and do not necessarily indicate all control lines and information lines on the product. In fact, almost all components may be considered to be interconnected.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

生体を撮影した画像を取得する画像入力部と、各人物の画像の生体領域から得られる複数の生体特徴に関する登録情報を記憶する記憶部と、画像入力部によって取得された画像の生体領域を処理して登録情報に基づく生体認証を行う認証処理部と、を有する生体認証システムであって、各人物の生体領域から得られる複数の生体特徴は、互いにパターンの相関の低い複数の生体特徴であり、認証処理部は、画像を処理して得られた互いにパターンの相関の低い複数の生体特徴を組合せて生体認証を行う。

Description

生体認証システム、生体認証方法およびプログラム 参照による取り込み
 本出願は、平成30年(2018年)10月3日に出願された日本出願である特願2018-188420の優先権を主張し、その内容を参照することにより、本出願に取り込む。
 本発明は、生体を用いて個人を認証する技術に関する。
 従来、入退室コントロール、勤怠打刻及びコンピュータへのログインなどのアクセス管理のための個人認証手段として、ID(Identification)及びPW(Password)などの記憶認証、並びに、物理錠又はICカードなどの物体認証などが広く利用されてきた。しかし、これらの認証方式は忘失や紛失のリスクがある。これに対し、近年ではこれらのリスクのない生体認証が利用されている。生体認証では、生体情報を読み取るためのセンサを搭載した装置を利用し、PC(Personal Computer)、銀行ATM(Automated Teller Machine)、部屋の入口、又はロッカーなどのあらゆるアクセス管理に利用されている。特に最近では、スマートフォンやタブレットなどの携帯端末の普及に伴い、携帯端末上で生体認証を実施する例が増加している。携帯端末といったあらゆる人々が利用する生体認証では、メガネやマスクの着用や肌荒れ、血行不良などの生体変動によって認証が困難となる場合がある。そこで、マスクの着用時は顔認証ではなく指紋認証を利用する、肌荒れが発生している時は顔認証を利用するなど、重畳していない複数の生体を利用して認証できることが求められている。このとき、利用する生体に応じて必要となるセンサを増やすことなく、例えば可視光のカメラなどの単一の汎用的なセンサで複数の組織の生体特徴を同時に抽出できることが望ましい。また、認証装置を利用する度に生じる生体の位置や姿勢の変動による認証精度低下を抑制すること、または位置や姿勢の変動自体を抑制することが重要である。
 特許文献1では、指を撮影して得られた画像から重畳する複数の特徴量を抽出し、生体の位置や姿勢の変動にロバストに認証する技術が開示されている。
 特許文献2では、指を最適な提示位置・姿勢を誘導することでその変動を抑制しつつ、撮影画像から特徴量を抽出し認証する技術が開示されている。
特開2016-96987号公報 特開2017-91186号公報
 使い勝手が良く高精度な生体認証装置を実現するためには、センサの取得データから重畳していない複数の生体特徴を抽出し認証に利用できることが重要となる。
 特許文献1では、光源を指に照明し、その反射光を撮影して得られた画像から、指の内部に重畳する複数の生体特徴に関する色素濃度の分布の情報から特徴量を抽出することで高精度に認証する技術が提案されている。しかしながら、光源及びセンサの制約によって撮影画像から複数の生体特徴を抽出することが困難になるという課題に関する記述がない。
 特許文献2では、指を最適な提示位置に誘導しつつ、波長の異なる複数の光源を指に照明し、その反射光を撮影して得られた画像から、特徴量を抽出し認証する技術が提案されている。しかしながら、指だけでなく顔などの重畳していない複数の生体を、互いに遮蔽することなく最適な提示位置に誘導して撮影する方法に関する記述がない。
 そこで、本発明は重畳していない複数の生体を互いに遮蔽することなく最適な提示位置に誘導して撮影し、撮影画像から複数の生体特徴量を獲得し照合することで、安定かつ高精度に認証できる生体認証装置を実現する技術を提供することを目的とする。
 上記の課題の少なくとも一つを解決するため、本発明の一態様は、生体を撮影した画像を取得する画像入力部と、各人物の画像の生体領域から得られる複数の生体特徴に関する登録情報を記憶する記憶部と、前記画像入力部によって取得された画像の前記生体領域を処理して前記登録情報に基づく生体認証を行う認証処理部と、を有する生体認証システムであって、前記各人物の前記生体領域から得られる複数の生体特徴は、互いにパターンの相関の低い複数の生体特徴であり、前記認証処理部は、前記画像を処理して得られた互いにパターンの相関の低い複数の生体特徴を組合せて前記生体認証を行うことを特徴とする。
 本発明の一態様によれば、生体認証システムにおいて、一度の撮影で得られた画像から互いに相関の低い複数の生体特徴量を抽出し照合することで、安定かつ高精度に認証することができる。
 上記した以外の課題、構成及び効果は、以下の実施例の説明によって明らかにされる。
第1の実施の形態の指と顔を用いた生体認証システムの全体の構成を示すブロック図である。 第1の実施の形態の認証処理部の機能ブロック図である。 第1の実施の形態の生体認証システムを用いた認証の様子の一例を説明する図である。 第1の実施の形態の生体認証システムによる登録時の処理を示すフローチャートである。 第1の実施の形態の生体認証システムによる認証時の処理を示すフローチャートである。 第1の実施の形態の生体認証システムによって表示されるガイド画像の例を説明する図である。 第1の実施の形態の生体認証システムによって表示されるガイド画像の例を説明する図である。 本実施の形態の生体認証システムのディスプレイを光源として利用した生体領域の検出の処理の様子を示す図である。 本実施の形態の生体認証システムのディスプレイを光源として利用した生体領域の検出の処理を示すフローチャートである。 本実施の形態の生体認証システムによる登録データとの類似度の算出の詳細な処理の例を示すフローチャートである。 本実施の形態の生体認証システムによる類似度の算出の詳細な処理の例を示すフローチャートである。 本実施の形態の生体認証システムによる相関の低い複数の特徴量を抽出する処理を示すフローチャートである。 本実施の形態の生体認証システムによる相関の低い複数の特徴量を抽出する処理を示すフローチャートである。 本実施の形態の生体認証システムによる特徴量の抽出の処理の例を説明する図である。
 以下、添付図面を参照して本発明の実施例について説明する。なお、添付図面は本発明の原理に則った具体的な実施例を示しているが、これらは本発明の理解のためのものであり、決して本発明を限定的に解釈するために用いられるものではない。また、各図において共通の構成については同一の参照番号が付されている。
 図1Aは、第1の実施の形態の指と顔を用いた生体認証システムの全体の構成を示すブロック図である。
 尚、本発明はシステムとして構成されるだけでなく、図1Aに示した構成要素のすべてまたは一部を筐体に搭載した装置として構成されてもよいことは言うまでも無い。その場合、本発明の装置は、認証処理を含めた個人認証装置であっても良い。あるいは、認証処理は装置外部で行い、本発明の装置は生体画像の取得に特化した生体画像取得装置であってもよい。
 第1の実施の形態の認証システムは、画像入力部1、認証処理部2、記憶部3、表示部4及び入力部5を含む。
 画像入力部1は、例えばカラーカメラであり、被認証者の生体から生体特徴を含む画像を取得し、取得した画像を認証処理部2へ入力する。以下の説明において、画像入力部1を、カメラ1と記載する場合がある。
 認証処理部2は画像入力部1から入力された画像に対して画像処理し、認証処理を実行する。なお、認証処理部2の画像処理機能に画像入力部1を含めて画像処理部を構成する場合がある。いずれにしても認証処理部2は画像処理機能を備える。
 図1Aは、さらに、認証処理部2の構成図を示す。認証処理部2は、中央処理部(CPU:CentralProcessing Unit)6、メモリ7及び種々のインターフェイス8(IF:Interface)を含む。
 CPU6は、メモリ7に記憶されているプログラムを実行することによって各種処理を行う。後述するように、本実施形態の生体認証システムが認証部9又は登録部10(図1B)の機能によって実行する処理は、実際にはCPU6がメモリ7に記憶されているプログラムに従って実行する。メモリ7は、CPU6によって実行されるプログラムを記憶する。また、メモリ7は画像入力部1から入力された画像を一時的に記憶する。
 インターフェイス8は、認証処理部2と外部の装置とを接続する。具体的には、インターフェイス8は、画像入力部1、記憶部3、表示部4及び入力部5などと接続される。
 図1Bは、第1の実施の形態の認証処理部2の機能ブロック図である。
 認証処理部2は、認証部9と、登録部10とを備える。認証部9は、画像入力部1から入力された入力データと、記憶部3に登録されている登録データとを照合し、利用者の認証を行う。登録部10は、画像入力部1によって取得された画像から登録データを作成し、記憶部3内に格納する。例えば後述する図3の処理を登録部10が、図4の処理を認証部9が、必要に応じて画像入力部1、記憶部3、表示部4及び入力部5を制御して実行してもよい。
 記憶部3は、利用者の登録データを予め記憶している。登録データは、利用者を照合するための情報であり、例えば、指静脈パターンの画像等である。通常、指静脈パターンの画像は、主に指の掌側の皮下に分布する血管(指静脈)を暗い影のパターンとして撮像した画像である。
 表示部4は、例えば、ディスプレイ装置であり、認証処理部2から受信した情報を表示する出力装置である。以下の説明において、表示部4をディスプレイ4と記載する場合がある。入力部5は、例えば、キーボードであり、利用者から入力された情報を認証処理部2に送信する。
 図2は、第1の実施の形態の生体認証システムを用いた認証の様子の一例を説明する図である。
 具体的には、図2には、生体認証システムを搭載したタブレットPCを用いた認証の様子を示す。本実施例では、タブレットPCのディスプレイなどの表示部4に表示されるガイド画像及びメッセージに基づき、被認証者(すなわち利用者)は顔11及び手12などの生体を提示する。その様子をタブレットPCのインカメラなどの画像入力部1で撮影し、認証処理を実施する。
 図3は、第1の実施の形態の生体認証システムによる登録時の処理を示すフローチャートである。
 まず、システムは、適切な品質の画像を取得するため、フォーカス、ホワイトバランス、露出及びゲインなどの、画像入力部1を制御するためのパラメータ(カメラ制御パラメータ)を設定する(S100)。本パラメータにはあらかじめ決められた固定値を利用してもよいし、以前の撮影時に最適であった値を利用してもよいし、動画の撮影を行っている場合であれば以前のフレームでの取得画像およびカメラ制御パラメータから何らかのルールによって決められた値を利用してもよい。
 次に、システムは、カメラで指及び顔などの生体を撮影し、画像を取得する(S101)。次に、システムは、被認証者が適切な位置及び姿勢で生体を提示するため、提示の見本となる生体の形状をしたガイド画像、及び、生体の提示方法を教示するガイドメッセージを生成する(S102)。ガイド画像は、生体の外形の一部又は全部を示すものでもよい。あるいは、提示された生体を検出し、その生体の外形又はそれを包含する矩形などの図形などをガイド画像として表示してもよい。
 次に、システムは、ガイド画像及びメッセージをディスプレイに表示する(S103)。例えば図2は、生体として顔及び手指を提示するために、頭部及び手指の輪郭を示す点線のガイド画像と、「枠に合わせてください」というメッセージとを表示する例を示している。このとき、ガイド画像をカメラで取得した生体の画像に重畳して表示することで、被認証者は自身の生体の提示方法と適切な提示方法との違いを認識でき、より適切に生体を提示することができるようになる。
 次に、認証処理部2は、撮影によって得られた画像及びカメラ制御パラメータなどから撮影の品質値を算出する(S104)。この品質値とは、例えば、フォーカス、露出の制御値及び取得画像の輝度値等の少なくともいずれかから何らかのルールによって算出される値である。例えば、取得画像におけるガイド画像と同一位置の領域及び取得画像から生体を検出した領域などの輝度のコントラストをフォーカスの品質値としてもよい。また、例えば、以前のフレームでの露出制御値と今回のフレームでの露出制御値との変動量を露出の品質値としてもよい。また、例えば、取得画像におけるガイド画像と同一位置の領域又は取得画像から生体を検出した領域などの輝度の平均値を取得画像の輝度に関する品質値としてもよい。
 次に、認証処理部2は、上記の品質値とそれらに対応する適正値との差などから品質値の適正度を評価する(S105)。品質値が適正でない場合、カメラ制御パラメータの設定(S100)に移行する。品質値が適正である場合、認証処理部2は、取得画像から生体領域の検出を実施する(S106)。
 生体領域の検出は、例えば、取得画像の各画素を生体領域かその他の領域に分類するSemantec Segmentation手法を適用し、検出した生体領域から顔及び手の指などの特徴量抽出を適用する領域を抽出することによって実行されてもよい。あるいは、取得画像から生体領域を包含する矩形領域を抽出するObject Localization手法を適用してもよい。また、その他の手法によって生体領域を抽出してもよい。
 次に、認証処理部2は、抽出した生体領域から例えば検出した指の長さ、幅、角度などの姿勢情報を計算し、それらの適正値との差を品質値として算出する(S107)。次に、認証処理部2は、算出された姿勢の品質値が適正かどうかを判定する(S108)。姿勢の品質値が適正でない場合、カメラ制御パラメータの設定(S100)に移行する。姿勢の品質値が適正である場合、認証処理部2は、生体姿勢の正規化を実施する(S109)。
 姿勢の正規化とは、例えば指の長さが一定となるように検出した指領域の一部を切り取りによって短縮又は補間によって延長したり、指の幅が一定となるように検出した指領域を拡大又は縮小したり、指の角度が一定となるように検出した指領域を回転させたりすることである。
 次に、認証処理部2は、姿勢を正規化した生体領域から照合のための特徴量を抽出する(S110)。特徴量抽出は、例えば、指紋又は顔の特徴点、又は静脈の線パターンなどを生体領域から抽出することによって実行されてもよい。あるいは、深層畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)などの機械学習手法によって生体領域からの特徴量抽出を自動的に設計してもよい。
 次に、認証処理部2は、抽出した特徴量が適正かどうかを判定する(S111)。例えば、認証処理部2は、Random Forest又はSVM(Support Vector Machine)などの機械学習手法を用い、抽出した特徴量が本物の生体から抽出されたものか写真又は印刷物などの偽物の生体から抽出されたものかどうかを判定してもよい。
 次に、認証処理部2は、抽出した特徴量を登録候補として一時的に保持する(S112)。次に、認証処理部2は、保存済みの登録候補の数を事前に設定した数と比較する(S113)。保存済みの登録候補の数が事前に設定した数を下回っている場合、保存済みの登録候補の数が十分ではないため、カメラ制御のパラメータ(S100)に移行する。保存済みの登録候補の数が事前に設定した数を満たしている場合、保存済みの登録候補の数が十分であるため、認証処理部2は、登録候補となる特徴量同士で類似度を算出する(S114)。
 次に、認証処理部2は、算出した類似度を事前に設定した閾値と比較する(S115)。算出した類似度が事前に設定した閾値を下回っている場合、認証処理部2は、登録を拒否すると判定してメモリ7に保存された登録候補データを削除し、カメラ制御パラメータの設定(S100)に移行する。算出した類似度が閾値を上回っている場合、認証処理部2は、登録を許可すると判定して(S116)、登録候補データをメモリ7に保存する。以上の処理によって生体情報の登録を完了する。
 図4は、第1の実施の形態の生体認証システムによる認証時の処理を示すフローチャートである。
 図4に示した認証時の処理フローのうち、カメラ制御パラメータの設定(S100)、撮影ガイドの生成(S101)、カメラ画像の取得(S102)、撮影ガイド・カメラ画像の表示(S103)、撮影品質の算出(S104)、撮影品質の適正度判定(S105)、生体領域の検出(S106)、姿勢品質の算出(S107)、姿勢品質の適正度判定(S108)、生体姿勢の正規化(S109)、特徴量の抽出(S110)、及び特徴量の適正度判定(S111)は登録時の処理フローと同一である。
 特徴量の適正度判定(S111)ののち、認証処理部2は、S110で抽出した特徴量と事前に登録してある生体特徴量データとの類似度を算出する(S117)。次に、認証処理部2は、算出した類似度を事前に設定した閾値と比較する(S118)。算出した類似度が事前に設定した閾値を上回っている場合、認証を許可すると判定して(S119)、認証処理を終了する。算出した類似度が閾値を上回っている場合、認証を拒否すると判定してカメラ制御パラメータの設定(S100)に移行する。
 登録および認証処理のうち、ガイド画像・メッセージ等の表示(S103)では、図2に示すように顔と手の形を模した画像及び顔と手の提示を促すメッセージなどの撮影ガイドと、撮影されたカメラ画像とを同時にディスプレイに表示する。ディスプレイが横長である場合、顔と手のガイド画像をそれぞれ横に並べて表示することで、被認証者に無理なく顔と手を互いに並べて提示するように誘導することができる。これによって、カメラ画像に対し顔と手が互いに遮蔽することなく映すことができ、単一のカメラから顔と手の画像を取得することが可能となる。
 図5A及び図5Bは、第1の実施の形態の生体認証システムによって表示されるガイド画像の例を説明する図である。
 例えば、提示された手から1本以上の指の領域を検出し認証に利用する場合、図5Aのように手を開いた状態の輪郭形状のガイド画像13を表示し、それに従って提示された手を撮影することで、隣接する指同士の接触による指の指紋、静脈及び表面しわなどの生体組織の歪みを回避し、生体姿勢の正規化(S109)及び特徴量の抽出(S110)などにおける誤差を低減することができる。
 また、図5Bに示すように、手の輪郭のうち指の股部分の輪郭を除いたガイド画像13を表示することで、ガイド画像13の手よりも指が長い又は短い被認証者でもガイド画像13に自らの手を合わせやすくなり、利便性の向上につながる。
 登録および認証処理のうち、生体領域の検出(S106)においてディスプレイ4を光源とみなすと、カメラ1は光源から照射された光が顔11及び手12などの生体表面を反射した反射光を撮影しているといえる。ここで、一般にディスプレイ4から前景である顔11及び手12までの距離よりも、ディスプレイ4から背景である部屋の壁までの距離のほうが遠い。光の強度が距離の2乗に比例して減衰することを考慮すると、ディスプレイ4を光源として照射される光が背景で反射してカメラ1で取得できる光量は、前景で反射して取得できる光量よりも十分小さい。
 よって、ディスプレイ4で表示する映像の輝度又は色を種々に変更しながらカメラ1で撮影して得られる画像では、前景である生体領域でのみ輝度又は色が変化し、背景であるその他の領域では輝度又は色が大きく変化しない。この違いを利用し、生体領域を抽出することができる。
 図6は、本実施の形態の生体認証システムのディスプレイ4を光源として利用した生体領域の検出(S106)の処理の様子を示す図である。また、図7は、その処理を示すフローチャートである。
 本処理では、システムは、カメラ画像から生体領域ではない領域である背景を分離するためN回の撮影を実施し(S10601)、手ぶれ及び被写体の移動を吸収するため取得画像間の位置補正(S10605)を行い、位置補正後の取得画像間の各画素の色差を算出する(S10606)。
 N回の撮影(S10601)では、システムは、照明となるディスプレイ4に表示する画像を生成(S10602)および表示し(S10603)、カメラ画像を取得する(S10604)。ここで、N=2の例を示すと、システムは、例えばディスプレイ4を用いて照明となる画像を表示しつつ、ディスプレイ4と同じ面に配置されているカラーカメラ1を用いて被写体を撮影し、得られる2枚の画像を参照して被写体を前景及び背景に分離してもよい。
 カラーカメラ1は、例えばそれぞれ青(B)、緑(G)、赤(R)に感度を持つ三種類の受光素子を有し、これらが画素ごとに格子状に配置されている。各受光素子の分光感度は、例えば青で480nm付近、緑で550nm付近、赤で620nm付近に感度のピークを持つ。カラーカメラを用いた撮影によって、異なる三つの波長にそれぞれ感度のピークを持つ光の空間的な輝度分布を得ることができる。
 また、ディスプレイ4は、例えば光源となるバックライド、輝度を制御する偏向フィルタ、及び、色を制御するカラーフィルタから構成される。カラーフィルタはそれぞれ青(B)、緑(G)、赤(R)を透過する三種類のフィルタを有し、これらが画素ごとに格子状に配置されており、輝度は0から255までの256階調で制御可能とする。
 精度良く前景・背景を分離する(S10607)ためには、色差の算出(S10606)にて前景と背景とで色差が最大化するように照明用画像を生成する(S10602)必要がある。簡単のため上記カラーカメラの青(B)と赤(R)の受光素子の感度の積がほぼ0となり(すなわち一方の素子が感度を持つ波長においてもう一方の素子が感度を持たない)、カラーカメラのRGBの各受光素子の分光感度がゼロとなる波長と、ディスプレイのRGBのカラーフィルタの透過率がゼロとなる波長とがほぼ一致すると仮定する。1回目の撮影で得られた画像14のBGR各チャネルを(B,G,R)=(gB1、gG1,gR1)とし、2回目の撮影で得られた画像15のBGR各チャネルを(B,G,R)=(gB2,gG2,gR2)とする。色差画像16はe=(gB1-gB2)+(gR2-gR1)という数式で表される。
 色差画像16の各画素はディスプレイに近接していない背景の画素ではほぼ0に等しくなるが、ディスプレイに近接している生体領域などの前景の画素では照明として表示するディスプレイの画像の輝度又は色によって変化する。このとき、1回目の撮影ではディスプレイに(B,G,R)=(255,0,0)の画像を表示し、2回目の撮影ではディスプレイに(B,G,R)=(0,0,255)の画像を表示することで、上記色差画像16の前景における輝度が最大化する(1回目と2回目の撮影は順不同)。
 この例では認証処理部2が青(B)及び赤(R)の輝度を変更するようにディスプレイ(すなわち表示部4)を制御し、これによって生体に照射される光の青(B)及び赤(R)の強度が変更されるが、これは一例であり、少なくとも一つの色の強度が変更されるように光源を制御すればよい。また、ディスプレイ以外の光源を用いてもよい。
 上記は、ディスプレイ表示を照明とした前景・背景分離において、色差画像16における前景と背景の輝度差が最大化する計算方法の一例である。上記のカラーカメラ1の受光素子及びディスプレイ4のカラーフィルタに関する制約を満たさない場合、並びに、異なる色差画像16の算出方法を適用した場合には、それらに応じて前景と背景の輝度差が最大となるディスプレイ表示や色差画像の算出方法を適用すればよい。
 特徴量の抽出(S110)では、認証処理部2は、例えば指の静脈、表皮若しくは真皮などのパターン、又は、指紋の隆線の端点若しくは分岐点などを特徴量として抽出してもよい。例えば顔の眉と目の端点及び鼻と口の周囲の輪郭などを特徴量として抽出してもよい。あるいは、CNNなどの機械学習手法を活用し特徴量を撮影画像から自動的に設計・抽出してもよい。
 例として、生体領域のうち、指からCNNを用いて特徴量を抽出することを考える。指表面の指紋及び指内部の静脈などは万人不同の特徴として一般的に知られており、血縁関係のある者同士でも異なるパターンを有する。一般に指の画像から特徴量を抽出するCNNの訓練のために現実的に用意できる指の画像データのバリエーションに対し、実世界に存在する指のバリエーションは圧倒的に大きい。よって、畳み込み処理およびプーリング処理を交互に繰り返し、画像中の全ての画素を結合する全結合処理を出力層にかけて実施する通常のCNNでは、過学習を引き起こしやすい。
 過学習を回避する方法の一つに、全結合処理を用いないCNNの一種である全層畳み込みニューラルネットワーク(FCN:Fully Convolutional Network)を利用する方法がある。FCNでは、入力画像の画像構造を出力画像まで保持し、少量のデータによる学習でも過学習を引き起こしにくい。FCNで抽出した特徴量を用い、位置・姿勢変動にロバストに認証する方法としては、FCNにおける各層の解像度を、層を経るごとに徐々に下げていき、低周波な特徴量を抽出する方法が知られている。
 しかしながら、上記の方法では本来個人識別に利用可能な高周波な特徴量を抽出することができない。低周波な特徴量と高周波な特徴量とを同時に抽出する方法として、FCNにおける各層の解像度を、層を経るごとに徐々に下げていった上で、それぞれの層を後段で結合する方法が知られている。この場合、高周波な特徴量を用いつつ位置ずれの影響を受けづらい登録データとの類似度算出方法が必要となる。
 図8は、本実施の形態の生体認証システムによる登録データとの類似度の算出(S117)の詳細な処理の例を示すフローチャートである。
 具体的には、図8は、登録データとの類似度の算出(S117)において、高周波な特徴量を用いつつ位置ずれの影響を低減する処理フローを示す。まず、認証処理部2は、登録画像をM個の小領域に分割する(S1171)。指の画像から抽出した特徴量の場合、例えば第一関節及び第二関節をそれぞれ境とした3領域に分割してもよい。
 次に、認証処理部2は、認証画像と登録画像の小領域の類似度を算出する(S1172)。類似度の尺度としては、例えばマンハッタン距離又はユークリッド距離などを用いてもよい。類似度の算出では、認証処理部2は、認証画像上の一定の領域を走査しながら登録画像の各小領域との類似度を算出し、走査した領域の中で最も高い類似度を採用する。
 次に、認証処理部2は、算出したM個の類似度を融合し、最終的な類似度を求める(S1173)。融合の方法としては、例えばM個の類似度の平均値を用いる方法を採用してもよい。上記のように、登録画像の小領域ごとに類似度が最も高くなる位置の類似度を採用することで、高周波な成分を含む特徴量同士であっても位置ずれの影響を低減させることが可能になる。
 さらに、登録データとの類似度の算出(S117)において、登録データと認証データが異なる人物由来である(他人照合)場合を考える。このとき、算出される類似度は低くなることが望ましい。登録データが複数の画像でありそれぞれのパターンの相関が低い、例えば重畳する生体組織である場合、一方の特徴量で類似度が最大となる位置におけるもう一方の特徴量での類似度を認証に利用することで、他人照合での登録データとの類似度が最大となる類似度を認証に利用することを回避できる。
 登録データと認証データが同一人物由来であれば、上記二つの特徴量における類似度が最大となる位置はほぼ一致するが、同データが異なる人物由来であれば上記二つの特徴量における類似度が最大となる位置は一致しないことが多いためである。上記の処理をフローにまとめると、図9で示されるものとなる。
 図9は、本実施の形態の生体認証システムによる類似度の算出の詳細な処理の例を示すフローチャートである。
 認証画像と登録画像の小領域の類似度の算出(S1172)では、認証処理部2は、まず、特徴量毎の類似度を算出する(S11721)。例えば、まず特徴量s1で登録画像との類似度を算出し(S11722)、次に特徴量s1で類似度最大となる位置にて特徴量s2で類似度を算出する(S11723)ことで、各特徴量の類似度が算出される。このとき特徴量s1及び特徴量s2は、後述する処理(図10等参照)によって抽出されたS個の特徴量に含まれる、互いに異なる特徴量である。この方法は、例えば指における表皮、真皮又は静脈パターンなどに適用可能である。
 しかしながら、撮影時の照明変動又は機器の制約などによって上記のパターンが特徴量として安定に抽出することが困難な場合がある。例えば、指に近赤外光を照射しその透過光を撮影する場合、得られる透過光の画像において静脈のパターンは鮮明であるものの、皮膚表面のテクスチャ、つまり表皮及び真皮のパターンは非常に不鮮明である。また、例えば、指に可視光を照射しその反射光を撮影する場合、得られる反射光の画像において表皮及び真皮のパターンは鮮明であるものの、静脈のパターンは非常に不鮮明である。よって、重畳する複数の生体組織のパターンを同時に抽出することが困難な場合にも、複数の相関の低いパターンを抽出することが必要である。
 図10及び図11は、本実施の形態の生体認証システムによる相関の低い複数の特徴量を抽出する処理を示すフローチャートである。
 具体的には、図10及び図11は、登録データとの類似度の算出(S117)において、位置ずれの影響を低減し、かつ他人照合時の類似度を低下させるための、相関の低い複数の特徴量を抽出する処理を示す。本処理は、CNNなどの機械学習によって生成された特徴量抽出モデル(以下、機械学習モデルと記載)が入力画像から複数の相関の低い特徴量を生成するように、機械学習モデルを最適化する処理(図10)と、登録および認証時に機械学習モデルを用いて特徴量を抽出する処理(図11)とに分けられる。
 図10に示す機械学習モデルを最適化する処理では、認証処理部2は、まず最適化処理に用いる複数の画像を読み込み(S120)、続いて生体領域の検出(S106)、生体姿勢の正規化(S109)、S個の特徴量の抽出(S110)、読み込んだS個の画像間の特徴量の類似度の算出(S121)、算出した類似度に基づく機械学習モデルの損失値の算出(S122)、及び、損失値に基づく機械学習モデルのパラメータ更新(S123)を行う。最後に、認証処理部2は、パラメータ更新回数が規定回数を満たしているかを判定し(S124)、満たしている場合は処理を終了し、満たしていない場合は画像の読み込み(S120)に移行する。
 上記処理のうち、生体領域の検出(S106)及び生体姿勢の正規化(S109)は図3に示す登録時の処理フロー及び図4に示す認証時の処理フローと同一である。画像読み込み(S120)で読み込む画像は、基本的に生体を撮影して得られた画像であるが、撮影画像から生体領域の検出(S106)および生体姿勢の正規化(S109)を施して得られた生体領域の画像でもよい。このとき、画像読み込み(S120)の後には直接機械学習モデルによる特徴量の抽出(S110)を実施すればよい。
 特徴量の抽出(S110)は、後述する図11に示す処理フローのように実施される。画像間の特徴量の類似度の算出(S121)は、図8及び図9に示す処理フローと同一である。損失値の算出(S122)では、上記の類似度を基に、例えば機械学習モデルとしてCNNを用いる場合はContrastive Loss又はTriplet Lossなどの損失値を算出すればよい。モデルパラメータ更新(S123)では、上記の損失値を基に、例えば機械学習モデルとしてCNNを用いる場合は誤差逆伝搬法を適用しCNNの各層のカーネルの値を更新すればよい。
 S122では、例えば、異なる人物の生体特徴の類似度が高いほど損失値が高くなり、かつ、同一人物の生体特徴の類似度が高いほど損失値が低くなるように、損失値を計算してもよい。そして、S123では、損失値が小さくなるようにモデルパラメータが更新される。これによって、一つの生体の画像からパターンの相関が低い複数の生体特徴を抽出するための特徴量抽出モデルが学習される。
 図11に示すS個の特徴量の抽出(S110)では、機械学習モデルとしてCNNを用いることを想定する。認証処理部2は、まず入力画像から異なる解像度をもつR個の画像を生成し(S1101)、続いて生成した各画像に対して畳み込み処理を行い(S1102)、処理後のR個の画像を結合する(S1103)。最後に、認証処理部2は、結合した画像に対して畳み込み処理を行い(S1104)、S個の特徴量の画像を生成する。
 異なる解像度の画像生成(S1101)では、認証処理部2は、例えば入力画像を縮小又は拡大してもよいし、畳み込み処理によって入力画像から低解像度な画像を生成してもよい。R個の画像の対する畳み込み(S1102)では、認証処理部2は、畳み込み処理は一度ではなく複数回行ってもよいし、各畳み込み処理の後に画像の輝度を正規化する処理を実施してもよい。R個の画像の結合(S1103)では、認証処理部2は、それぞれの画像データをチャネル方向に結合し画像データを生成する。
 最後の畳み込み(S1104)では、認証処理部2は、結合した画像データのチャネル数をS個に削減するように畳み込み処理を行う。上記処理によって、濃度画像で表されるS個の特徴量を獲得できる。
 なお、図10及び図11の処理は、認証処理部2の登録部10又は認証部9によって実行されてもよいが、図示しない他の機能(例えばモデル最適化部)によって実行されてもよい。その場合、モデル最適化部の処理は、登録部10及び認証部9の処理と同様に、CPU6がメモリ7に格納されたプログラムに従って実行する。モデル最適化部の処理は、図3及び図4に示した登録及び認証の処理の前に実行される。
 図12は、本実施の形態の生体認証システムによる特徴量の抽出の処理の例を説明する図である。
 具体的には、図12は、上記の機械学習モデルの最適化処理(S120)およびそのモデルを用いた特徴量の抽出(S110)のS=2の場合の処理例を示す。入力の指画像17に対し、特徴抽出画像18及び特徴抽出画像19が得られ、これらS個(図12の例では2個)の特徴量はパターンの相関が低くなる。
 これは、登録データと認証データの特徴量が異なる人物由来であるとき、つまり他人照合時の類似度を小さくするように最適化した結果、特徴量間のパターンの相関が低下し、一つの特徴量における類似度が最大となる画像の位置が別の特徴量における類似度の最大となる画像の位置と異なるためである。
 一方、登録データと認証データが同一人物由来であるとき、つまり本人照合時は、特徴量間のパターンの相関が低くとも、それらの特徴量は同一の入力画像から生成されているため、それぞれの特徴量で登録データと類似度が最大となる照合位置とはほぼ一致する。
 以上のように、本発明の一態様の生体認証システム(例えば図1参照)は、生体を撮影した画像を取得する画像入力部(例えば画像入力部1)と、各人物の画像の生体領域から得られる複数の生体特徴に関する登録情報を記憶する記憶部(例えば記憶部3)と、画像入力部によって取得された画像の生体領域を処理して登録情報に基づく生体認証を行う認証処理部(例えば認証処理部2)と、を有する。ここで、各人物の生体領域から得られる複数の生体特徴は、互いにパターンの相関の低い複数の生体特徴である。認証処理部は、前記画像を処理して得られた互いにパターンの相関の低い複数の生体特徴を組合せて前記生体認証を行う。
 上記の互いにパターンの相関の低い複数の生体特徴は、例えば図2に示す方法で取得された顔と手の指の生体特徴であってもよいし、図10及び図11に示す方法で取得されたS個の特徴量であってもよい。
 これによって、一度に撮影した画像から、互いに相関の低い複数の生体特徴を抽出することができる。このような複数の生体特徴を照合することによって、安定的かつ高度な認証が可能になる。
 ここで、画像入力部が撮影する生体は、指を含んでもよい。
 これによって、生体認証の利便性が向上する。
 また、複数の生体特徴は、第1の生体特徴及び第2の生体特徴を含み、認証処理部は、画像入力部が取得した画像の生体領域から得られる第1の生体特徴と登録情報の第1の生体特徴との類似度に基づいて、画像入力部が取得した画像の生体領域から得られる第2の生体特徴と登録情報の第1の生体特徴との類似度を計算してもよい。
 例えば、図10及び図11に示す方法で取得されたS個の特徴量の一つであるs1の類似度が最大となるように、登録情報の画像とカメラが撮影した画像との位置合わせを行い、その位置で、s1とは別の特徴量s2を照合してもよい。図10及び図11によってs1とs2の相関が低いことから、他人認証の場合には特徴量s2の類似度が十分に低くなることが期待され、これによって認証の精度が向上する。
 また、画像入力部は、同一の生体を複数回撮影し、認証処理部は、複数回の撮影が行われるときに生体に照射される光のうち少なくとも一つの色の強度を変更するように、生体に照射される光を制御し、複数回の撮影によって取得された複数の画像における少なくとも一つの色の強度の変化の大きさに基づいて、画像から前記生体領域を抽出してもよい。これは、例えば図7に示した方法で行うことができる。
 これによって、画像入力部が撮影した画像に生体領域とそれ以外の領域が含まれる場合に、容易に生体領域を抽出することができる。
 また、生体認証システムは、画像入力部が撮影した画像と、生体の望ましい位置を示すガイドとを表示する表示部(例えば表示部4)をさらに有してもよい。この場合、認証処理部は、表示部が出力する少なくとも一つの色の強度を変更することによって、前記生体に照射される光を制御してもよい。これは、例えば図5に示した方法で行うことができる。
 これによって、撮影される生体の姿勢等を揃えることができるため、利用者の利便性が向上するとともに、生体特徴の抽出が確実になる。また、画面自体を光源として利用することによって、システムの導入コストを抑制することができる。
 また、上記の複数の生体特徴は、各画像の生体領域の同一の部分から抽出されてもよい。これは、例えば図10及び図11に示した方法で行うことができる。
 これによって、一度に撮影した画像から複数の生体特徴を抽出することができる。
 このとき、認証処理部は、複数の人物の画像の各々から特徴量抽出モデルを用いて複数の生体特徴を抽出し(例えば図10のS110及び図11)、複数の人物の画像から抽出された複数の生体特徴間の類似度に基づいて、特徴量抽出モデルの損失値を計算し(例えば図10のS122)、損失値が小さくなるように、特徴量抽出モデルのパラメータを学習してもよい(例えば図10のS123)。
 これによって、一度に撮影した画像から、互いに相関の低い複数の生体特徴を抽出することができる。
 さらに、このとき、認証処理部は、各人物の画像の生体領域から、異なる解像度を持つ複数の画像(例えば図11に示すR個の画像)を生成し、異なる解像度を持つ複数の画像に対する畳み込みを行うことによって複数の画像を生成し、畳み込みによって生成された複数の画像(例えば図10、図11に示すS個の画像)に特徴量抽出モデルを適用することによって複数の生体特徴を抽出してもよい。
 これによって、一度に撮影した画像から、互いに相関の低い複数の生体特徴を抽出することができ、安定的かつ高度な認証が可能になる。
 また、複数の生体特徴は、各画像の生体領域の異なる部分から抽出されてもよい。
 具体的には、各画像の生体領域の異なる部分は、各画像に含まれる人物の顔の部分及び指の部分であってもよい(例えば図2又は図6参照)。
 これによって、一度に撮影した画像から、互いに相関の低い複数の生体特徴を抽出することができ、安定的かつ高度な認証が可能になる。
 なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明のより良い理解のために詳細に説明したのであり、必ずしも説明の全ての構成を備えるものに限定されるものではない。
 また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によってハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによってソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、不揮発性半導体メモリ、ハードディスクドライブ、SSD(Solid State Drive)等の記憶デバイス、または、ICカード、SDカード、DVD等の計算機読み取り可能な非一時的データ記憶媒体に格納することができる。
 また、制御線及び情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線及び情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。

Claims (12)

  1.  生体を撮影した画像を取得する画像入力部と、
     各人物の画像の生体領域から得られる複数の生体特徴に関する登録情報を記憶する記憶部と、
     前記画像入力部によって取得された画像の前記生体領域を処理して前記登録情報に基づく生体認証を行う認証処理部と、を有する生体認証システムであって、
     前記各人物の前記生体領域から得られる複数の生体特徴は、互いにパターンの相関の低い複数の生体特徴であり、
     前記認証処理部は、前記画像を処理して得られた互いにパターンの相関の低い複数の生体特徴を組合せて前記生体認証を行うことを特徴とする生体認証システム。
  2.  請求項1に記載の生体認証システムであって、
     前記画像入力部が撮影する生体は、指を含むことを特徴とする生体認証システム。
  3.  請求項1に記載の生体認証システムであって、
     前記複数の生体特徴は、第1の生体特徴及び第2の生体特徴を含み、
     前記認証処理部は、前記画像入力部が取得した画像の生体領域から得られる第1の生体特徴と前記登録情報の第1の生体特徴との類似度に基づいて、前記画像入力部が取得した画像の生体領域から得られる第2の生体特徴と前記登録情報の第1の生体特徴との類似度を計算することを特徴とする生体認証システム。
  4.  請求項1に記載の生体認証システムであって、
     前記画像入力部は、同一の生体を複数回撮影し、
     前記認証処理部は、
     複数回の撮影が行われるときに前記生体に照射される光のうち少なくとも一つの色の強度を変更するように、前記生体に照射される光を制御し、
     複数回の撮影によって取得された複数の画像における前記少なくとも一つの色の強度の変化の大きさに基づいて、前記画像から前記生体領域を抽出することを特徴とする生体認証システム。
  5.  請求項4に記載の生体認証システムであって、
     前記画像入力部が撮影した画像と、前記生体の望ましい位置を示すガイドとを表示する表示部をさらに有し、
     前記認証処理部は、前記表示部が出力する少なくとも一つの色の強度を変更することによって、前記生体に照射される光を制御することを特徴とする生体認証システム。
  6.  請求項1に記載の生体認証システムであって、
     前記複数の生体特徴は、各画像の生体領域の同一の部分から抽出されることを特徴とする生体認証システム。
  7.  請求項6に記載の生体認証システムであって、
     前記認証処理部は、
     複数の人物の画像の各々から特徴量抽出モデルを用いて前記複数の生体特徴を抽出し、
     複数の人物の画像から抽出された前記複数の生体特徴間の類似度に基づいて、前記特徴量抽出モデルの損失値を計算し、
     前記損失値が小さくなるように、前記特徴量抽出モデルのパラメータを学習することを特徴とする生体認証システム。
  8.  請求項7に記載の生体認証システムであって、
     前記認証処理部は、
     前記各人物の画像の生体領域から、異なる解像度を持つ複数の画像を生成し、
     前記異なる解像度を持つ複数の画像に対する畳み込みを行うことによって複数の画像を生成し、
     前記畳み込みによって生成された複数の画像に前記特徴量抽出モデルを適用することによって前記複数の生体特徴を抽出することを特徴とする生体認証システム。
  9.  請求項1に記載の生体認証システムであって、
     前記複数の生体特徴は、各画像の生体領域の異なる部分から抽出されることを特徴とする生体認証システム。
  10.  請求項9に記載の生体認証システムであって、
     前記各画像の生体領域の異なる部分は、前記各画像に含まれる人物の顔の部分及び指の部分であることを特徴とする生体認証システム。
  11.  画像入力部と、記憶部と、認証処理部と、を有する生体認証システムによる生体認証方法であって、
     前記画像入力部が撮影した生体の画像を取得する第1手順と、
     前記認証処理部が各人物の画像の生体領域から得られる複数の生体特徴に関する登録情報を前記記憶部に記憶する第1手順と、
     前記認証処理部が前記画像入力部によって取得された画像の前記生体領域を処理して前記登録情報に基づく生体認証を行う第3手順と、を含み、
     前記各人物の画像の前記生体領域から得られる複数の生体特徴は、互いにパターンの相関の低い複数の生体特徴であり、
     前記第3手順において、前記認証処理部は、前記画像を処理して得られた互いにパターンの相関の低い複数の生体特徴を組合せて前記生体認証を行うことを特徴とする生体認証方法。
  12.  画像入力部と、記憶部と、プロセッサと、を有する生体認証システムを制御するためのプログラムであって、
     前記画像入力部が撮影した生体の画像を取得する第1手順と、
     各人物の画像の生体領域から得られる複数の生体特徴に関する登録情報を前記記憶部に記憶する第1手順と、
     前記画像入力部によって取得された画像の前記生体領域を処理して前記登録情報に基づく生体認証を行う第3手順と、を前記プロセッサに実行させ、
     前記各人物の画像の前記生体領域から得られる複数の生体特徴は、互いにパターンの相関の低い複数の生体特徴であり、
     前記第3手順は、前記画像を処理して得られた互いにパターンの相関の低い複数の生体特徴を組合せて前記生体認証を行う手順を含むことを特徴とするプログラム。
PCT/JP2019/033352 2018-10-03 2019-08-26 生体認証システム、生体認証方法およびプログラム WO2020071008A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020217005979A KR102538405B1 (ko) 2018-10-03 2019-08-26 생체 인증 시스템, 생체 인증 방법 및 프로그램
CN201980057116.XA CN112639871A (zh) 2018-10-03 2019-08-26 生物体认证***、生物体认证方法及程序
US17/275,250 US20220043895A1 (en) 2018-10-03 2019-08-26 Biometric authentication system, biometric authentication method, and program
EP19869851.6A EP3862968A4 (en) 2018-10-03 2019-08-26 BIOMETRIC AUTHENTICATION SYSTEM, BIOMETRIC AUTHENTICATION METHOD AND PROGRAM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-188420 2018-10-03
JP2018188420A JP7269711B2 (ja) 2018-10-03 2018-10-03 生体認証システム、生体認証方法およびプログラム

Publications (1)

Publication Number Publication Date
WO2020071008A1 true WO2020071008A1 (ja) 2020-04-09

Family

ID=70055768

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/033352 WO2020071008A1 (ja) 2018-10-03 2019-08-26 生体認証システム、生体認証方法およびプログラム

Country Status (6)

Country Link
US (1) US20220043895A1 (ja)
EP (1) EP3862968A4 (ja)
JP (1) JP7269711B2 (ja)
KR (1) KR102538405B1 (ja)
CN (1) CN112639871A (ja)
WO (1) WO2020071008A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220027660A1 (en) * 2020-07-22 2022-01-27 Nokia Technologies Oy Apparatus, method and computer program for authenticating images
GB2598016A (en) * 2020-07-22 2022-02-16 Hitachi Ltd Biometric authentication apparatus and biometric authentication method
JP7513451B2 (ja) 2020-07-22 2024-07-09 株式会社日立製作所 生体認証装置および生体認証方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11227155B2 (en) 2019-01-23 2022-01-18 Alclear, Llc Remote biometric identification and lighting
JP7268726B2 (ja) * 2019-04-26 2023-05-08 日本電気株式会社 認証データ生成装置、認証装置、認証データ生成方法、及び、プログラム
JPWO2021261295A1 (ja) * 2020-06-25 2021-12-30
KR102502631B1 (ko) * 2020-11-16 2023-02-23 고큐바테크놀로지 주식회사 사용자를 인증하기 위한 기법
JP7428675B2 (ja) * 2021-02-24 2024-02-06 株式会社日立製作所 生体認証システム、認証端末、および認証方法
KR102520513B1 (ko) * 2021-11-16 2023-04-11 주식회사 딥이티 사용자 단말을 이용한 안면 인식 장치 및 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07141506A (ja) * 1993-11-17 1995-06-02 Canon Inc 情報処理装置
JP2009211357A (ja) * 2008-03-04 2009-09-17 Fujitsu Ltd バイオメトリクス認証情報登録方法および装置ならびにバイオメトリクス認証方法および装置
JP2013200673A (ja) * 2012-03-23 2013-10-03 Fujitsu Ltd 生体情報処理装置、生体情報処理方法、および生体情報処理プログラム
JP2016096987A (ja) 2014-11-20 2016-05-30 株式会社日立製作所 生体認証装置
JP2016538656A (ja) * 2013-11-30 2016-12-08 ペキン センスタイム テクノロジー ディベロップメント カンパニー リミテッド 顔画像認識のための方法とシステム
JP2017091186A (ja) 2015-11-10 2017-05-25 株式会社日立製作所 生体情報を用いた認証装置及び認証方法
JP2018188420A (ja) 2017-04-28 2018-11-29 日東電工株式会社 経皮吸収型製剤

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100974815B1 (ko) * 2003-03-20 2010-08-10 주식회사 비즈모델라인 이중 생체 인증 시스템
US8189096B2 (en) * 2005-06-16 2012-05-29 Sensible Vision, Inc. Video light system and method for improving facial recognition using a video camera
JP2007241371A (ja) * 2006-03-06 2007-09-20 Konica Minolta Business Technologies Inc 認証システム
JP2007249585A (ja) * 2006-03-15 2007-09-27 Omron Corp 認証装置およびその制御方法、認証装置を備えた電子機器、認証装置制御プログラム、ならびに該プログラムを記録した記録媒体
JP5690556B2 (ja) * 2010-11-12 2015-03-25 株式会社 日立産業制御ソリューションズ 個人認証装置
CN102332093B (zh) * 2011-09-19 2014-01-15 汉王科技股份有限公司 一种掌纹和人脸融合识别的身份认证方法及装置
KR101446143B1 (ko) * 2013-01-07 2014-10-06 한남대학교 산학협력단 Cctv 환경에서의 얼굴 인식 기반 보안 관리 시스템 및 방법
KR102180226B1 (ko) * 2013-10-30 2020-11-18 삼성전자주식회사 복합 생체 정보를 이용한 보안을 제공하는 전자 장치 및 방법
JP6312485B2 (ja) * 2014-03-25 2018-04-18 キヤノン株式会社 情報処理装置、認証装置およびそれらの方法
JP6404011B2 (ja) * 2014-06-25 2018-10-10 株式会社日立製作所 生体情報を利用する認証システム
CN104615993B (zh) * 2015-02-12 2016-08-24 张丽琴 一种手指静脉识别与面部静脉识别相结合的认证装置及方法
KR101710478B1 (ko) * 2015-06-23 2017-02-27 주식회사 아이온커뮤니케이션즈 다중 생체 인증을 통한 모바일 전자 문서 시스템
KR20170000748A (ko) * 2015-06-24 2017-01-03 삼성전자주식회사 얼굴 인식 방법 및 장치
KR102477190B1 (ko) * 2015-08-10 2022-12-13 삼성전자주식회사 얼굴 인식 방법 및 장치
CN105139546A (zh) * 2015-09-08 2015-12-09 昆山古鳌电子机械有限公司 一种具有生物体认证功能的自动交易装置
CN105389703A (zh) * 2015-11-10 2016-03-09 陈雷 多模式生物识别混合认证支付***
CN105718874A (zh) * 2016-01-18 2016-06-29 北京天诚盛业科技有限公司 活体检测及认证的方法和装置
KR102570180B1 (ko) * 2016-11-28 2023-08-25 엘지디스플레이 주식회사 지문 센서 일체형 전계 발광 표시장치
JP6924031B2 (ja) * 2016-12-28 2021-08-25 日本放送協会 オブジェクト検出装置及びこれらのプログラム
KR102288302B1 (ko) * 2017-07-03 2021-08-10 삼성전자주식회사 적외선 영상을 이용한 사용자 인증 방법 및 장치

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07141506A (ja) * 1993-11-17 1995-06-02 Canon Inc 情報処理装置
JP2009211357A (ja) * 2008-03-04 2009-09-17 Fujitsu Ltd バイオメトリクス認証情報登録方法および装置ならびにバイオメトリクス認証方法および装置
JP2013200673A (ja) * 2012-03-23 2013-10-03 Fujitsu Ltd 生体情報処理装置、生体情報処理方法、および生体情報処理プログラム
JP2016538656A (ja) * 2013-11-30 2016-12-08 ペキン センスタイム テクノロジー ディベロップメント カンパニー リミテッド 顔画像認識のための方法とシステム
JP2016096987A (ja) 2014-11-20 2016-05-30 株式会社日立製作所 生体認証装置
JP2017091186A (ja) 2015-11-10 2017-05-25 株式会社日立製作所 生体情報を用いた認証装置及び認証方法
JP2018188420A (ja) 2017-04-28 2018-11-29 日東電工株式会社 経皮吸収型製剤

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220027660A1 (en) * 2020-07-22 2022-01-27 Nokia Technologies Oy Apparatus, method and computer program for authenticating images
GB2598016A (en) * 2020-07-22 2022-02-16 Hitachi Ltd Biometric authentication apparatus and biometric authentication method
GB2598016B (en) * 2020-07-22 2022-12-21 Hitachi Ltd Biometric authentication apparatus and biometric authentication method
US11798260B2 (en) * 2020-07-22 2023-10-24 Nokia Technologies Oy Apparatus, method and computer program for authenticating images
JP7513451B2 (ja) 2020-07-22 2024-07-09 株式会社日立製作所 生体認証装置および生体認証方法

Also Published As

Publication number Publication date
KR20210038644A (ko) 2021-04-07
KR102538405B1 (ko) 2023-06-01
EP3862968A1 (en) 2021-08-11
JP7269711B2 (ja) 2023-05-09
EP3862968A4 (en) 2022-12-28
JP2020057275A (ja) 2020-04-09
CN112639871A (zh) 2021-04-09
US20220043895A1 (en) 2022-02-10

Similar Documents

Publication Publication Date Title
WO2020071008A1 (ja) 生体認証システム、生体認証方法およびプログラム
US11188734B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
KR102561723B1 (ko) 모바일 디바이스를 사용하여 캡처된 화상을 사용하여 지문 기반 사용자 인증을 수행하기 위한 시스템 및 방법
US10339362B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US11263432B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
KR101495430B1 (ko) 바이오메트릭 인증을 위한 품질 메트릭
CN113614731A (zh) 使用软生物特征的认证验证
EP4343689A1 (en) Body part authentication system and authentication method
JP3970573B2 (ja) 顔画像認識装置および方法
JP7002348B2 (ja) 生体認証装置
KR20210050649A (ko) 모바일 기기의 페이스 인증 방법
WO2023210081A1 (ja) 生体認証システムおよび認証方法
WO2023112237A1 (ja) 生体判定装置、生体判定方法、及び、記録媒体
JP2005141678A (ja) 顔画像照合システム及びicカード
CN114067383A (zh) 基于宏观结构和微观结构图像尺寸的被动三维面部成像
KR20220052828A (ko) 생체 인증 장치 및 생체 인증 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19869851

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20217005979

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019869851

Country of ref document: EP

Effective date: 20210503