WO2008062891A1 - Dispositif d'authentification, registre, procédé d'enregistrement, programme d'enregistrement, procédé d'authentification et programme d'authentification - Google Patents

Dispositif d'authentification, registre, procédé d'enregistrement, programme d'enregistrement, procédé d'authentification et programme d'authentification Download PDF

Info

Publication number
WO2008062891A1
WO2008062891A1 PCT/JP2007/072709 JP2007072709W WO2008062891A1 WO 2008062891 A1 WO2008062891 A1 WO 2008062891A1 JP 2007072709 W JP2007072709 W JP 2007072709W WO 2008062891 A1 WO2008062891 A1 WO 2008062891A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
biometric identification
authentication
entropy
living body
Prior art date
Application number
PCT/JP2007/072709
Other languages
English (en)
French (fr)
Inventor
Hiroshi Abe
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to EP07859690A priority Critical patent/EP2073171A1/en
Priority to US12/515,360 priority patent/US20100045432A1/en
Publication of WO2008062891A1 publication Critical patent/WO2008062891A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1382Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
    • G06V40/1388Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger using image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Definitions

  • Authentication device registration device, registration method, registration program, authentication method and authentication program
  • the present invention relates to an authentication device, a registration device, a registration method, a registration program, an authentication method, and an authentication program, and is particularly suitable when applied to a biometric authentication process.
  • blood vessels are one of the targets for biometrics authentication.
  • an authentication device that uses this blood vessel as a target for biometric authentication, the image data of the blood vessel pattern obtained as a result of finger imaging is used as registration data, or as the verification data that should be checked against registered data.
  • a proposal has been made (for example, see Patent Document 1).
  • the present invention has been made in consideration of the above points, and has an authentication device, a registration device, a registration method, a registration program, an authentication method, and a simple configuration that can prevent erroneous authentication due to impersonation by someone other than the user with high probability. It is intended to propose a certification program.
  • a biometric identification target image is generated by imaging a biometric identification target in a predetermined part of the living body, and biometric identification is performed by performing predetermined feature extraction processing on the biometric identification target image.
  • the feature parameter for the target is extracted, the image entropy based on the biometric identification target image is calculated, and the registrant identification information is generated by pairing the feature parameter and the image entry lobby. It is made to register and memorize
  • the unique image entry port of the biometric identification target can also be registered as registrant identification information. It can be effectively prevented.
  • a plurality of biometric identification target images are generated by capturing a plurality of biometric identification targets in a predetermined part of the biological body of a registration target person within a predetermined time, and a predetermined number of biometric identification target images are determined. Multiple feature parameters for the biometric identification target are extracted, and a plurality of image entry points are calculated based on the plurality of biometric identification target images. Multiple types of weighted image entry ports are calculated by applying multiple types of weights with different patterns to the top edge, and the degree of variability for multiple types of weighted image entry ports is calculated.
  • a plurality of biometric identification target images are generated by capturing a plurality of biometric identification targets in a predetermined part of the biological body of the authentication target person within a predetermined time.
  • a plurality of feature parameters for a biometric identification target are extracted, and a plurality of image entropies are calculated based on a plurality of biometric identification target images, respectively.
  • Multiple types of weighted image entry tropies are calculated by applying multiple types of weights with different patterns to the top edge, and the degree of variation for each type of weighted image entry mouthpiece is determined.
  • the predetermined part of the person to be authenticated is a living body or a non-living body based on the degree of variation, and the predetermined part is identified as a non-living body
  • predetermined sites so as to determine the authenticity of the person to be authenticated by only performing an authentication process when it recognizes that the biometric.
  • those that have a small degree of variation with respect to multiple types of weighted image entries can be considered unnatural as a living body, and therefore, the predetermined part of the person to be registered is identified as being non-living. At that time, the authenticity of the person to be authenticated is denied, and the authentication process is performed only when the predetermined part is recognized as a living body, thereby effectively and effectively preventing imitation of the pseudo finger. You can.
  • the present invention in addition to the characteristic parameters representing the characteristics of the biometric identification target, it is also possible to register the unique image space that the biometric identification target has as the registrant identification information. It is possible to effectively prevent the false authentication due to the authentication, and thus to realize the authentication device, the registration method, and the registration program that can prevent the false authentication due to impersonation other than the principal with a simple configuration. Monkey. .
  • those having a small degree of variation with respect to a plurality of types of weighted image entry mouthpieces can be considered unnatural as a living body, so that a predetermined part of a person to be registered is non-living.
  • the authentication process is rejected at that time, and the authentication process is performed only when the specified part is recognized as a living body, effectively and effectively preventing impersonation with a pseudo finger.
  • an authentication device, an authentication method, and an authentication program that have a simple configuration and can prevent erroneous authentication due to impersonation other than the person with high probability.
  • FIG. 1 is a schematic diagram showing image entry mouth peas according to the presence or absence of a mask.
  • FIG. 2 is a schematic diagram showing imaging results with a pseudo finger and a human finger.
  • Fig. 3 is a schematic characteristic curve showing the change in image entropy of a continuous image without motion.
  • FIG. 4 is a schematic block diagram showing the overall configuration of the authentication device according to the first or second embodiment.
  • FIG. 5 is a schematic block diagram showing the configuration of the control unit in the first embodiment.
  • FIG. 6 is a flowchart showing a blood vessel registration processing procedure in the first embodiment.
  • FIG. 7 is a flowchart showing the authentication processing procedure in the first embodiment.
  • FIG. 8 is a schematic diagram showing a logarithmic curve in the vicinity of ⁇ 0 g 2 3 90.
  • Fig. 9 is a schematic diagram for explaining the logarithmic first-order approximation.
  • FIG. 10 is a characteristic curve diagram for explaining the size and accuracy of the logarithmic table.
  • Figure 11 is a flowchart showing the logarithmic calculation processing procedure, which is the basic concept.
  • Figure 12 is a flowchart showing the specific logarithmic calculation processing procedure.
  • Fig. 13 is a schematic diagram showing the logarithmic calculation speed results. .
  • Fig. 14 is a schematic diagram showing a standard image.
  • Fig. 15 is a schematic diagram showing the image entropy error of the standard image.
  • FIG. 16 is a characteristic curve diagram for explaining the pixel value histogram and weighting w L.
  • Fig. 17 is a characteristic curve diagram used to explain the change in image entropy (without weighting) of continuous images.
  • Fig. 18 is a characteristic curve diagram used to explain the change in image entropy (with weighting) of continuous images.
  • FIG. 19 is a characteristic curve diagram showing the pixel value histogram of human finger 1 and the weighting. .
  • FIG. 20 is a characteristic curve diagram showing the pixel value histogram of the finger 2 and the weighting.
  • Figure 21 is a schematic diagram showing the average value and standard deviation of the image entry mouth pea.
  • Figure 22 shows the characteristics used to explain the pixel value histogram and weight w L 2
  • FIG. 1 A first figure.
  • Figure 24 is a schematic diagram showing the standard deviation of image entropy.
  • FIG. 25 is a schematic block diagram showing the configuration of the control unit in the second embodiment.
  • FIG. 26 is a flowchart showing a blood vessel registration processing procedure according to the second embodiment.
  • FIG. 27 is a flowchart showing the authentication processing procedure in the second embodiment.
  • the feature quantity for the image of the blood vessel pattern such as the finger vein is extracted, and this is not stored as a template, but the original quantity used for extracting the feature quantity is used.
  • Image entropy is information entropy that uses the luminance value of the image, and is like the digest value of the luminance pattern at the time of imaging. is there.
  • This image entropy can be expressed as — 1 og P i , where P i is the probability of occurrence of a certain pixel value, and the expected self value of P i 1 og 2 pi Means the sum.
  • the image entry H is represented by the following equation.
  • the image entropy Hi mg can be expressed by the following equation.
  • the appearance probability PL of the pixel value L is the appearance probability p 1 / when the image size is the width S W.
  • p L ⁇ (3)
  • the masked part has a certain pixel value (usually set to zero), and other parts have meaningful image data. Will exist.
  • Figure 1 (A) is an 8-bit grayscale image of 2 5 6 X 2 5 6 size, and the image entry port H img in the unmasked state is in accordance with equation (4) above. “7. 4 6”.
  • the above-described method is adopted when performing personal authentication using a finger blood vessel pattern.
  • Fig. 2 (A 1) to (A3) show the captured image, mask image, and finger region extraction image after mask processing for a pseudo finger made of gummy
  • Fig. 2 (B 1) to (B 3 ) Shows the captured image, mask image, and finger region extracted image after the mask processing
  • Figures 2 (C 1) to (C 3) show the captured image, mask image, and mask processing for the finger 2.
  • 2 (D 1) to (D 3) show a captured image, a mask image, and a finger region extracted image after mask processing.
  • the graph of Fig. 3 shows the change of the image entry mouth H img for each frame in the finger region extraction image for these pseudo fingers, the finger 1, the finger 2 and the finger 3 fixed for a certain period of time.
  • the Results As is clear, the value of the image ene tropicity one H i mg is seen to have the ability of individuals difference a to some extent identification. However, if the blood vessel pattern of the finger 2 and the blood vessel pattern of the finger 3 are very similar, the value of the image chain mouth bee H i mg is close, so the person of the finger 2 and the person It is not always easy to reliably identify the finger 3 individual.
  • the authentication device 1 is connected to the control unit 10 with the operation unit 1 1, the blood vessel imaging unit 1 2, the flash memory 1 3, and the external device.
  • the interface to send and receive (hereinafter referred to as the external interface) .14 and the notification unit 15 are connected via the bus 16 respectively.
  • This control unit 10 is used as a central processing unit (CPU) that controls the entire authentication device 1, a read only memory (RM) that stores various programs and setting information, and a work memory for the CPU. It is composed of a microcontroller that includes a random access memory (RAM).
  • CPU central processing unit
  • RM read only memory
  • RAM random access memory
  • This control unit 10 includes a registration target user (hereinafter referred to as a registrant).
  • Execution command C0M 1 for the mode to register the fistula (hereinafter referred to as the blood vessel registration mode), or the mode for determining whether the registrant is true (hereinafter this is authenticated)
  • the execution command COM 2 is called according to the user's operation on the operation unit 11.
  • the control unit 10 determines a mode to be executed based on the execution instructions C O M 1 and C 0 M 2, and an application program corresponding to the determination result.
  • Registration program or authentication program is read from the ROM and expanded on the RAM, and the blood vessel registration mode is controlled by appropriately controlling the blood vessel imaging unit 1 2, flash memory 1 3, external interface 1 4, and notification unit 1.5. Or authentication mode.
  • the control unit 10 of the authentication device 1 changes the operation mode to the blood vessel registration mode, and controls the blood vessel imaging unit 12.
  • the drive control unit 12 a of the blood vessel imaging unit 12 irradiates near infrared light to the registrant's finger placed at a predetermined position in the temple authentication device 1.
  • the infrared light source LS and the image sensor ID made up of, for example, a CCD (Charge Coupled Device) in the imaging camera CM are driven and controlled.
  • the near-infrared light irradiated on the finger passes through the inside of the finger while being reflected and scattered, and projects light of the finger blood vessel (hereinafter referred to as blood vessel projection light).
  • the light enters the image sensor ID via the optical system OP and the aperture DH.
  • the imaging element ID photoelectrically converts the blood vessel projection light and outputs the photoelectric conversion result to the drive control unit 12 a as the image signal S 1.
  • the image of the image signal S 1 output from the image sensor ID is This includes not only the blood vessels inside the finger but also the finger outline and fingerprint. ' Based on the pixel value of this image, the drive control unit 1 2 a of the blood vessel imaging unit 1 2 adjusts the lens position of the optical lens in the optical system 0 P so as to focus on the blood vessel inside the finger, and The aperture value at the aperture DH is adjusted so that the amount of incident light incident on the element ID becomes an adaptive amount, and the image signal S 2 output from the image sensor ID after the adjustment is supplied to the control unit 10.
  • the control unit 10 performs predetermined image processing on the image signal S 2 to generate a blood vessel pattern image obtained by extracting a blood vessel pattern representing the characteristics of the blood vessel of the finger, and to the blood vessel pattern image.
  • the image entropy H img is calculated on the basis of the information for identifying the registrant, which is a combination of the blood vessel pattern image and the image entropy H i mg (hereinafter referred to as the registrant identification template
  • the registration process is terminated by storing T fv in flash memory 13.
  • the control unit 10 has a configuration functionally divided by a preprocessing unit 21, an image entry mouthpiece calculation block 2 3, a registration unit 2 6, and a collation unit 2 7.
  • the image signal S 2 supplied from the imaging unit 1 2 is input to the pre-processing unit 21, and the mask processing unit 2 4 of the image entropy calculation block 23 is input.
  • the pre-processing unit 2 1 performs an analog digital conversion process on the image signal S 2, a predetermined contour extraction process such as a single fill process, a predetermined smoothing process such as a Gaussian fill process, a binary value, etc.
  • the image data representing the blood vessel pattern image obtained as a result (hereinafter referred to as template image display) S 3 is sent to the registration unit 26.
  • the mask processing unit 24 of the image entropy calculation block 2 3 is a mask for extracting and extracting only the finger region where the blood vessel pattern appears based on the image signal S 2 supplied from the blood vessel imaging unit 12.
  • An image (Fig. 2) is generated, and a finger region extraction image S4 is generated by applying the mask image. It is sent to the point calculation unit 25.
  • the image entropy calculation unit 25 calculates the image entropy H img according to the above equation (4) based on the finger region extracted image S 4 and constitutes the registrant identification template data T fv . to be sent to the registration section 2 6 as templates ene tropicity one T H is an element.
  • the registration unit 26 has a template image S 3 representing the blood vessel pattern image supplied from the pre-processing unit 21 and a template chain 10 T supplied from the image entropy calculation unit 25.
  • the registrant identification template data T fv which is a combination of H and H , is generated, stored in the flash memory 13 and the registration process is terminated.
  • control unit 10 of the authentication apparatus 1 can execute the blood vessel registration mode.
  • the blood vessel registration processing procedure in this blood vessel registration mode will be described with reference to FIG. To do.
  • the control unit 10 of the authentication device 1 enters from the start step of the routine RT 1 and proceeds to the next step SP 1 to generate an image signal S 2 in which the finger of the user is imaged by the blood vessel imaging unit 1 2. Is sent to the pre-processing unit 21 of the control unit 10 and is sent to the mask processing unit 24 of the image entry block 23, and then the process proceeds to the next swap SP 2.
  • the control unit 10 uses the mask processing unit 24 to mask only the finger region where the blood vessel pattern appears based on the image signal S 2 supplied from the blood vessel imaging unit 12.
  • the pre-processing unit 21 generates template image data S 3 representing a blood vessel pattern image, and proceeds to the next step SP 3.
  • step SP 3 the control unit 10 generates the finger region extraction image S 4 by applying the mask image generated in step SP 2 to the image signal S 2 supplied from the blood vessel imaging unit 12. Move to next step SP 4.
  • step SP4 the control unit 10 performs the above-described operation based on the finger region extraction image S4.
  • the image entropy H img is calculated according to the equation (4), and this is transferred to the next step SP 5 as the template tentropy T H.
  • Control unit 10 in step SP 5 combines the template Ichito image data S 3 representing the blood vessel pattern image generated in step SP 2, the template E down tropicity one T H calculated in step SP 4 by the registration unit 26 As a result, a pair of cataloger identification template data T fv is generated, stored in the flash memory 13 and registered, and the process proceeds to the next step SP 6 to complete the blood vessel registration process.
  • control unit 10 of the authentication device 1 changes the operation mode to the authentication mode, and performs the blood vessel imaging unit in the same manner as in the blood vessel registration mode described above. 1 Controls 2 (Fig. 4).
  • the drive control unit 12a of the blood vessel imaging unit 12 drives and controls the near-infrared light source LS and the image sensor ID, and the optical system OP based on the image signal S10 output from the image sensor ID.
  • the lens position of the optical lens and the aperture value of the aperture DH are adjusted, and the image signal S 20 output from the image sensor ID is sent to the control unit 10 after the adjustment.
  • the control unit 10 (FIG. 5) performs image processing similar to that in the above-described blood vessel registration mode on the image signal S 20 by the pre-processing unit 21 and the above-described image entry calculation block 2.3.
  • the same image entropy calculation process as in the blood vessel registration mode is performed, and the registrant identification template data T fv registered in advance in the flash memory 13 in the blood vessel registration mode is read.
  • the control unit 10 displays the image pattern S 21 that represents the blood vessel pattern image obtained by the pre-processing unit 21 1 and the image entry H img obtained by the image entry port calculation block 23, and the flash memory.
  • Registrant identification template data read from 13 T fv template image data S 3 and Compares each a template ene tropicity one T H by collating unit 2 7, depending on the degree of matching of that, the user who placed the finger at this time determines whether the registrant (regular Interview one THE) .
  • template Toen tropicity one T H is like a Daijiesu bets value of the luminance pattern of the image signal S 2, since it is not a strictly accurate value, image ene tropicity one based on the image signal S 2 2 H img When comparing with, the judgment needs to have a certain range.
  • the value of the template entropy T H and the value of the image entropy H img are close to each other, it means that there is a high possibility that the person to be authenticated is the registrant. If the value of the entropy T H and the value of the image entry port H H img are far apart, it means that there is a high possibility that the person to be authenticated and the registrant are different persons.
  • control unit 10 determines that the user of the person to be authenticated who has placed his / her finger is a registrant, the control unit 10 responds to an operation processing device (not shown) connected to the external interface 14.
  • An execution instruction COM 3 for performing a predetermined operation is generated, and this is transferred to the operation processing device via the external interface 14.
  • the control unit 10 transfers an execution command COM 3 for performing a lock operation to the door. To do. .
  • control unit 10 when a computer in which some operation modes are restricted among a plurality of operation modes is employed, the control unit 10 The execution instruction COM 3 that releases the specified operation mode is transferred to the computer.
  • the motion processing device is connected to the external interface 14, but the motion The configuration of software or hardware in the image processing device
  • control unit 10 determines that the user of the authentication target person who has placed his / her finger is not a registrant
  • the control unit 10 displays that fact via the display unit 15 a of the notification unit 15 and By outputting the sound via the sound output unit 15 b of the notification unit 15, it is possible to notify visually and audibly that it is determined that the user is not a registrant.
  • the authentication device 1 can execute the authentication mode.
  • the authentication processing procedure in this authentication mode will be described with reference to FIG. ,
  • the control unit 10 of the authentication device 1 enters from the start step of the routine RT 2 and proceeds to the next step SP 1 1 to register the registrant identification template registered in the flash memory 13 in advance. Read the image data S3 and the template entropy ( ⁇ )), and go to the next step SP12 .
  • the control unit 10 In step S ⁇ 1 2, the control unit 10 generates an image signal S 20 by imaging the finger placed by the user using the blood vessel imaging unit 12, and outputs the image signal S 20 before the control unit 10.
  • the data is sent to the processing unit 21 and sent to the mask processing unit 24 of the image entry block 23, and then the process proceeds to the next step SP13.
  • step S ⁇ 1 3 the control unit 10 generates a preprocessing unit 2 1 (which generates an image data S 2 1 representing a blood vessel pattern image based on the image signal S 2 0. To extract only the finger area where the blood vessel pattern appears based on the image signal S 2 0 supplied from the blood vessel imaging unit 1 2 by the unit 2 4.
  • the next step SP 1 4 Move on.
  • step S ⁇ 14 the control unit 10 outputs the mask image generated in step S ⁇ 1 3 to the image signal S 2 0 supplied from the blood vessel imaging unit 12 by the image entry mouth piece calculation unit 25. To generate a finger region extraction image S 2 2, and proceed to the next step S ⁇ 1 5.
  • step SP 15 the control unit 10 calculates the image end lobby H img of the person to be authenticated who wants to authenticate based on the finger and region extraction image S 2 2 by the image entry point calculation unit 2 5. After sending this to the collation unit 27, the process proceeds to the next step SP16.
  • step SP 16 the control unit 10 uses the verification unit 27 to check the template entropy T H of the registrant identification template data T fv read in step SP 11 and the authentication calculated in step SP 16. It is determined whether the absolute value of the difference from the subject's image entropy H i mg is smaller than a predetermined allowable error ⁇ H.
  • the reason for determining whether or not the absolute difference between the template entry T H and the image entry mouthpiece H img of the person to be authenticated is smaller than a predetermined allowable error ⁇ ⁇ H is emissions
  • Doropi one H img is like a digest Bok value of the luminance pattern is in the image signal S 2,. since only not a precise value, when matching a template " ⁇ Ten Toropi T H, the determination somewhat This is because it is necessary to have a width of.
  • Image Entropy II There are many differences between the luminance distribution of finger region extraction image S 2 2 that is the source of i mg and the luminance distribution of finger region extraction image S 4 that is the source of calculation of template entropy T H At this time, the control unit 1 0. moves to the next step SP 2 0.
  • step SP 20 the control unit 10 registers with the authentication subject because the absolute difference between the template entropy TH and the image entropy H i mg of the authentication subject is larger than the predetermined allowable error ⁇ H. It is determined that the authentication is not successful, that is, authentication failure, and the process proceeds to the next step SP 21 and ends.
  • step SP 1 6 if a positive result is obtained in step SP 1 6, this is acknowledged.
  • Image E down Torobi H img proof subjects previously there from registered templates E down tropicity had values one T H within a predetermined range, that is, the image E down Toropi H img finger region extraction image S is calculated source 2 and 2 of the luminance distribution, the luminance distribution of the finger region extraction image S 4 is calculated original template E down Toropi T H are the same, than from the point of view of Entoropi registrant and is over Itasuruko the object's At this time, the control unit 10 moves to the next step SP 17.
  • step SP 17 the control unit 10 displays the template image data S 3 of the registrant identification template data T fv read in step SP 11 and the image data S indicating the blood vessel pattern image generated in step SP 13. 2 Perform pattern matching using 1 and and move to next step SP 1 8.
  • step SP 18 the control unit 10 determines whether or not the result of pattern matching performed in step SP 17 matches. If a negative result is obtained here, this indicates that the person to be authenticated and the registrant do not match from the viewpoint of pattern matching. At this time, the control unit 10 is in the next step SP 2 0. It moves to, it judges that it is an authentication failure, moves to the next step SP 2.1 and ends the process. On the other hand, if an affirmative result is obtained in step SP 1 8, this indicates that the person to be authenticated and the registrant matched from the viewpoint of pattern matching. 0 moves to the next step SP 1 9.
  • step SP 19 the control unit 10 determines that the authentication target and the registrant are successful from the viewpoint of entropy and pattern matching, so that the next step SP 2 1 To complete the authentication process.
  • the image entropy calculator 2 5 sets the size of the log table to be stored to 1
  • logarithmic values from 1 og 2 1 to 1 og 2 1 6 The logarithmic table size is called “1 6” when it is held as a logarithmic table, and the logarithmic table size when logarithmic values from 1 og 2 1 to 1 0 g 2 5 1 2 are held as a logarithmic table Call it “5 1 2”.
  • the image entry tropic calculation unit 25 enters from the start step of the routine RT 3 and moves to the next step SP 3 1 to determine whether or not log 2 x for which the logarithmic value should be obtained exists in the logarithmic table. If a negative result is obtained, proceed to step SP 32 in the next logarithmic table reference routine SRT 1.
  • step SP 32 the image entry mouthpiece calculation unit 25 reads the logarithm of 1 og 2 X based on the target table, thereby easily and quickly calculating the logarithm of 1 og 2 X. Find it and go to the next step SP 35 to finish the process.
  • step SP 3 1 if a positive result is obtained at step SP 3 1, this means that the logarithmic value should be obtained: 1 og 2 x to be found does not exist in the logarithmic table, and the logarithmic value of the logarithmic table is used. In this case, the image entropy calculating unit 25 proceeds to step SP33 in the next approximate calculation routine SRT2.
  • step SP 33 the image entry port calculation unit 25 obtains the power of 2 based on the equation (9) representing “x” of 1 o. G 2 X.
  • step SP 34 the image entry port calculation unit 25 obtains the power of 2 based on the equation (9) representing “x” of 1 o. G 2 X.
  • step SP 34 the image entry port calculation unit 25 obtains the power of 2 based on the equation (9) representing “x” of 1 o. G 2 X.
  • step SP 34 the image entropy calculation unit 25 calculates the internal division when log 2 y and log 2 (y + l) are internally divided into r: 2 a — r. According to the above-described equation (1 0). Calculate the points and use the logarithmic table to After calculating the logarithmic value corresponding to the point by approximate calculation, the process proceeds to the next step SP 3 5 and the process is terminated.
  • the authentication device 1 is intended to perform integer arithmetic processing with a low load while maintaining accuracy because it is considered to be mounted on a portable device.
  • C 2. ° ef multiple
  • the image entropy calculation unit 25 enters from the start step of the routine RT 4 and moves to the next step SP 41, where log 2 x for which the logarithmic value is to be obtained is stored in the power-multiplier log table table. It is determined whether or not it exists, and if a negative result is obtained, the process proceeds to step SP 4 2 in the next logarithmic table reference routine SRT 3.
  • Image Ento port pin one calculation unit 2-5 in step SP 4 2 by reading the logarithmic value of the first non-g 2 X based on exponentiation Target Table Te one table,. 1 og 2 X facilitate logarithm of In a short time, the logarithmic value is converted to an accurate logarithmic value by bit-shifting to the left by the power-multiplied amount, and the process proceeds to the next step SP 45 and ends.
  • step SP 41 if a positive result is obtained in step SP 41, this means that 1 og 2 X for which the logarithmic value should be obtained does not exist in the power-multiplier log table, and This shows that it is necessary to perform approximate calculation using numerical values.
  • the image entropy calculation unit 25 moves to step SP 43 in the next approximate calculation routine SRT 4.
  • step SP 4 3 the image entry mouthpiece calculation unit 25 obtains the power of 2 based on the equation (9) representing “x” of log 2 and the next step. Move to SP 44.
  • step S P 44 the image entry mouthpiece calculation unit 25
  • Equation (10) calculate the internal dividing point when log 2 y and log 2 (y + 1) are internally divided into r: 2 a -r. After calculating the logarithmic value corresponding to the point by approximate calculation, the logarithmic value is converted to an accurate logarithmic value by bit-shifting it to the left by the power-multiplied number, and the next step SP 45 is moved to. The process ends.
  • FIG. 13 shows the processing time TT 1 corresponding to the logarithmic table size when the logarithmic calculation is performed according to the specific logarithmic calculation processing procedure RT 4 described above, and a predetermined logarithmic calculation processing by a personal computer.
  • the comparison results when comparing the processing time TT 2 when the decimal point calculation is performed using the program as in the past are shown.
  • the processing time TT 1 is a logarithmic calculation for 1 og 2 x up to X 2-1,, 100000, 100 times while changing the logarithmic table size according to the logarithmic calculation processing procedure RT 4, and one logarithmic calculation processing time
  • the logarithm calculation processing procedure RT 4 is more specific than the processing time TT 2 when the decimal point calculation is performed by a personal computer using a predetermined logarithmic calculation processing program as in the past. It can be seen that the processing time TT 1 according to the logarithmic table size when the logarithmic calculation is performed is much shorter. If the logarithmic table size is large, the maximum error is suppressed to about 0; 0023% While maintaining high accuracy (Fig. 5), it is shown that the speed is increased by about 3 times. . (1-3-5) Image entropy error
  • the image entropy calculation unit 25 does not involve a decimal point calculation, so the processing load is small, and a large memory capacity is not required for an application program that performs decimal point calculation.
  • logarithmic calculations can be executed with high accuracy.
  • the authentication process can be executed with high accuracy in a sufficiently short calculation time, and the usability can be greatly improved. .
  • the authentication apparatus 1 utilizing the fact that the blood vessel registration mode, the finger can Furudo is representative of the luminance distribution of the image signal S 2 obtained by the image E emissions Bok port P.
  • the user identification template data T fv is stored in the flash memory 13 and registered in advance.
  • the absolute difference between the template entropy T H of the registrant identification template data T fv and the image entry mouthpiece H img of the authentication target is a predetermined allowable error ⁇ H
  • the first step is to execute the authentication process from an entropy perspective and then clear the template image of the registrant identification template data T fv only if it is cleared.
  • Pattern matching processing is performed using S 3 and image data S 2 1 indicating the blood vessel pattern image of the person to be authenticated.
  • the authentication device 1 can determine whether or not the person to be authenticated matches the registrant in two stages, from the viewpoint of entropy and from the viewpoint of pattern matching, with high accuracy.
  • the authentication device 1 only adds the value of the image entropy H img as the template entropy TH to the template image data S 3 compared to the histogram representing the luminance distribution of the finger image S 2. So image de overnight It is possible to effectively prevent spoofing with a much smaller amount of information than when the luminance distribution of S2 is kept as it is.
  • the authentication device 1 uses the concept of information entropy for authentication processing, so that the image data can be changed by changing the imaging conditions when the images S 2 and S 2 0 are generated. Even if the overall brightness changes between S 2 and image data S 2 0, the value of image entropy H i mg is not affected. There is no misjudgment due to differences in imaging conditions.
  • the authentication device 1 extracts the finger area outside the mask area and calculates the value obtained by calculating the image entry H img for the images S 4 and S 22 2 and the image display without the mask. Since the image entropy H img of S2 is almost equal to the calculated value, the image of the finger obtained from the image of the finger is extracted. Since image entropy H img can be calculated for item 4, the amount of calculation for unnecessary areas other than the finger area is reduced, and the time required for the authentication process from the viewpoint of the entry mouth is shortened. be able to.
  • the authentication device 1 only needs to calculate the image H img for the finger area extraction images S 4 and S 2 2, so even if there is an unclear image part other than the finger area, As a result, the imaging conditions for imaging the finger of the person to be authenticated can be relaxed, and the operability of the user during the authentication process can be greatly improved.
  • the authentication device 1 has a simple configuration and is configured by a person other than the user by performing authentication processing using an information entry mouthpiece in addition to the conventional authentication processing using template matching. It is possible to prevent false authentication due to spoofing with a high probability.
  • a weight w L having a pattern shape of a normal distribution as shown in FIG. 16 (A) For example, in the case of a pixel value histogram of an image as shown in FIG. 16 (A), for example, a weight w L having a pattern shape of a normal distribution as shown in FIG.
  • the pixel value distribution of the pixel value histogram is corrected so that it becomes the maximum value (in this case, “1”) at the center.
  • the value of the weighted image entropy H imgw calculated based on the applied pixel value histogram is different.
  • This method is adopted when performing personal authentication using blood vessel patterns. For example, when the artificial fingers made of gummy are fixed for a certain period of time and the image obtained as an imaging result is arranged, and three different human fingers are arranged for a certain period of time. The image data obtained as a result of imaging is prepared, and the image entropy after masking is calculated.
  • the pseudo finger by gummy placed at a predetermined position in the authentication device, the three types of finger 1, finger 2 and finger 3 are fixed for a certain period of time, and there is no weighting.
  • Figures 17 and 18 show the changes in image entropy for each frame when (B) is weighted.
  • the peak positions that make up the distribution shape of the pixel value histogram and the positions of the peaks that make up the weighted distribution shape almost overlap, and the distribution shapes are also very close to each other.
  • the expected amount of self-information for pixel values that are rare in probability is even smaller.
  • Fig. 21 shows the results of actually determining the average value and standard deviation of the image entry mouth peas for the pseudo finger, the finger 1, the finger 2, and the finger 3.
  • the difference in the average value of the image entropy represents the difference between the distribution shape of the weight and the distribution shape of the pixel value histogram
  • the difference in the standard deviation of the image entry mouthpiece represents the distribution of the pixel value histogram. It represents the degree of instability.
  • the difference between the average values of the image entropy is moderate for human finger 1 and 'finger 3', so the pixel value histogram shows the probability of appearance of pixel values outside the center of the distribution of the weighting w L Is expected to be unstable, but in a sense, in a living body, it is natural due to the presence of blood flow, etc., which is a natural result.
  • the finger 2 is a pixel value histogram similar to the distribution shape of the weight w L because the difference in the average value of the image entropy is relatively small, and the difference in the standard deviation of the image entropy Therefore, the probability of appearance of pixel values near the center of the weight distribution is predicted to be stable, which means that a very clear vein is captured.
  • the pseudo finger has a relatively large difference in the average value of the image entropy. Therefore, there is a high probability of appearance of pixel values outside the center of the weighting distribution, and in the standard deviation of the image entry mouth pie. Because the difference is small, It can be seen that the appearance probability is stable. This is a result that must be said to be extremely unnatural as an image obtained as a result of imaging a living body.
  • the finger 2 Since the difference in the standard deviation of the image entropy is relatively small for both the finger 2 and the pseudo finger, it is necessary to clearly distinguish the finger 2 and the pseudo finger. Since the distribution shape of weight w t is similar to the distribution shape of its own pixel value histogram, the finger 2 has a stable standard deviation of the image entry mouthpiece, but the distribution shape described above. Let us examine the case where weighting WL 2 with a distribution shape different from the weighting (Fig. 16 (B)) is given. In the case of the pixel value histogram of the image of the finger 2 as shown in Fig. 2 2 (A), 'Weighing w L 2 having a distribution shape as shown in Fig. 2 2 (B), for example, is used as the pixel value histogram. When applied, the image entropy change of continuous images is examined as in the case of weighting.
  • Fig. 23 (A) shows the image entropy change (standard deviation) of the continuous image weighted as described above in Fig. 1 ⁇ .
  • Fig. 23 (B) shows the weight w L 2 applied. Indicates the image entry mouth bee change (standard deviation) for continuous images.
  • the image entropy change (standard deviation) of the continuous image weighted w L 2 is the same for the fingers 1 and 3 It can be seen that the image entropy is in an unstable state.
  • Image entropy change of a continuous image without weighting (FIG. 1 7), the image ene tropicity one variant of sequential images only weighting w L is applied.
  • FIG. 2 3 (A) the weighting w L 2 Figure 24 shows the result of comparison with the change in the image entropy of the applied continuous images (Fig. 23 (B)).
  • the standard deviation in the image entry mouth pea of the continuous image with weight W L and the image entropy of the continuous image with weight w 2 are both small, Even when weighting W L 2 is applied, the image entropy change (standard deviation) of the continuous images is stable.
  • weighting W consisting of two or more mutually opposing distribution characteristics
  • the image entropy change (standard deviation) of the continuous image is small in any case for non-biological subjects, but it is always continuous for the first to third fingers. Since the image entropy change (standard deviation) of the image becomes large, it is possible to reliably identify the living body or the non-living body.
  • an authentication apparatus that performs authentication processing after identifying a living body or a non-living body will be described.
  • the authentication device 1 0 0 in the second embodiment is different from the control unit 1 0 in the first embodiment except that a control unit 1 1 0 is provided. Since the circuit configuration is the same, the description thereof is omitted here for convenience. - ⁇ Even in the authentication device 100 according to the second embodiment, the execution instruction COM 1 for executing the blood vessel registration mode for registering the blood vessel of the registrant or the execution of the authentication mode for determining whether the registrant is true or not is executed. Command COM 2 is given according to the user's operation on the operation unit 1 1.
  • the control unit 1 1 0 determines a mode to be executed based on the execution instructions COM 1 and COM 2, and an application program corresponding to the determination result.
  • the blood vessel registration mode or authentication mode is executed by appropriately controlling the blood vessel imaging unit 1 2, the flash memory ⁇ 3, the external interface 1 4, and the notification unit 1 5 according to the registration program or authentication program. It is made like this.
  • the control unit 110 of the authentication device 100 changes the operation mode to the blood vessel registration mode and controls the blood vessel imaging unit 12.
  • the drive control unit 12 a of the blood vessel imaging unit 12 irradiates the registrant's finger placed at a predetermined position in the authentication device 1 with near infrared light.
  • the infrared light source LS and the imaging element ID composed of CCD in the imaging camera CM are driven and controlled.
  • the near-infrared light applied to the registrant's finger is reflected and scattered through the inside of the finger, and is optically used as blood vessel projection light for projecting the blood vessel of the finger.
  • the imaging element I D photoelectrically converts the blood vessel projection light and outputs the photoelectric conversion result as an image signal S 1 to the drive control unit 12 a.
  • the near-infrared light applied to the finger is actually reflected by the surface of the finger and incident on the image sensor ID. Therefore, the image of the image signal S 1 output from the image sensor ID is This includes not only the blood vessels inside the finger but also the finger outline and fingerprint.
  • the drive control unit 1 2 a of the blood vessel imaging unit 1 2 adjusts the lens position of the optical lens in the optical system 0 P so as to focus on the blood vessel inside the finger, and
  • the aperture value at the aperture DH is adjusted so that the amount of incident light incident on the element ID becomes an adaptive amount, and the image signal S2 output from the image sensor ID after the adjustment is supplied to the control unit 110.
  • the control unit 1 1 0 performs predetermined image processing on the image signal S 2 Creates a blood vessel pattern image that extracts the blood vessel pattern that represents the characteristics of the blood vessels of the finger, and uses the image entropy based on the blood vessel pattern image.
  • H img is calculated, and the image entropy H img is a living body or a non-living body based on the entropy change (standard deviation) of the continuous image with two weightings w L and w L 2 or identifies, generates recognized the blood vessel pattern image and the image E down preparative port pin one H i mg combined with Na Ru registrant identification template de Isseki T fv of the case has to be a living body, it The registration process is completed by storing the data in flash memory 1 3.
  • control unit 1 1 0 functions by the pre-processing unit 2 1, the image entry port number calculation block 2 3, the registration unit 2 6, the biometric identification unit 1 1 1, and the verification unit 2 7.
  • the image signal S 2 supplied from the blood vessel imaging unit 1 2 is input to the pre-processing unit 2 1 and the image processing port 2 is calculated by the mask processing unit 2 of the image entry port 2 3. Input to 4.
  • the pre-processing unit 21 performs an analog digital conversion process on the image signal “S 2”, a predetermined contour extraction process such as a so-called single fill process, a predetermined smoothing process such as a Gaussian fill process, 2
  • the valuation process and the thinning process are sequentially performed, and the template image data S 3 representing the blood vessel pattern image obtained as a result is sent to the registration unit 26.
  • the mask processing unit 2 4 of the image entry mouth pea calculation block 2 3 is a mask for extracting only the finger region where the blood vessel pattern appears based on the image signal S 2 supplied from the blood vessel imaging unit 1 2.
  • An image (FIG. 2) is generated, a finger region extraction image S 4 is generated using the mask image, and this is sent to the image entropy calculation unit 25.
  • the image entropy calculation unit 25 calculates the image entropy H img according to the above-described equation (4) based on the finger region extraction image S 4, and uses this as the template entry tropy T H for the biometric identification unit. 1 1 Send to 1. Again, the above (11-3) It is possible to use the logarithmic calculation speed-up method in the image entry mouthpiece calculation unit 25.
  • Biometric identification section 1 1 described above (2 _ 1 4).
  • the template E down Toropi T H is determined to Ru value der of non-biological
  • the template ene bets Ropi - only when the T H is determined to be a value of a biological (human)
  • the template E It has been made to deliver emissions Toropi T H to the registration section 2 6.
  • Registration unit 2 6 the front processing unit 2 1 template image de Isseki S 3 representing the blood vessel pattern image supplied from the balance was supplied from the living body identifying section 1 1 1 Retoen preparative Ropi T H and a pair the combination with the registrant identification template Tode Isseki generate T fv, are adapted to register and stores it in flash memory 1.3.
  • control unit 10 of the authentication device 1 can execute the blood vessel registration mode, and the blood vessel registration processing procedure in this blood vessel registration mode will be described with reference to FIG. .
  • the control unit 1 1 0 of the authentication device 1 0 0 enters from the start step of the routine RT 5 and moves to the next step SP 5 1 to capture a continuous image of the registrant's finger. Set the initial value “1” and move to the next step SP 5: 2.
  • step SP 52 the control unit 1 1 0 generates an image signal S 2 obtained by imaging the user's finger using the blood vessel imaging unit 1 2, and sends this to the preprocessing unit 2 1 of the control unit 10. At the same time, the image is sent to the mask processing section 24 of the image entropy block 23, and then proceeds to the next step SP53.
  • step SP 53 the control unit 110 is used to extract only the finger region in which the blood vessel pattern appears based on the image signal S 2 supplied from the blood vessel imaging unit 12 by the mask processing unit 24.
  • a mask image is generated and
  • the template image data S 3 representing the blood vessel pattern image is generated by the processing unit 21, and the process proceeds to the next step SP 54.
  • step SP54 the control unit 110 applies the finger region extraction image S4 by applying the mask image generated in step SP53 to the image signal S2 supplied from the blood vessel imaging unit 12. Generate and move to next step SP 55.
  • step SP 55 the control unit 110 calculates the image entropy H img based on the finger region extraction image S 4 and holds it as the template entropy T H. Then , the next step SP 5 6 Move on.
  • step SP 56 the control unit 110 determines whether or not the frame number i has exceeded the maximum frame number necessary to generate a continuous image for a predetermined time. If a negative result is obtained here, this means that the image signal S2 of the predetermined number of frames necessary to generate a continuous image of the finger corresponding to the predetermined time has not yet been imaged. At this time, the controller 1 1 0 moves to the next step SP 5 7. .
  • step SP 5 7 the control unit 1 1 0 increments the force count value “1” for the frame number i, and then repeats the processing after the splicing SP 5 2. .
  • step SP 56 if a positive result is obtained in step SP 56, this means that the image signal S 2 having the predetermined number of frames necessary to generate a continuous image of the finger corresponding to the predetermined time has already been captured. At this time, the controller 1 1 0 moves to the next step SP 5 8.
  • step SP 58 the controller 1 1 0 assigns multiple types of weights ⁇ ⁇ ⁇ whose distribution shapes are mutually contradictory to the image entry H img calculated in step SP 55. To apply, set the initial value “1” for the weight number j, and go to the next step SP 59.
  • step SP 59 the control unit 1 1 0 is set as the weighting number “1”. To generate more weighted image entropy Hi mgw to weight the image entropy Hi mg by the constant has been weighted w L, and proceeds to the next step SP 60.
  • step SP 60 the control unit 110 obtains the entropy change (standard deviation) with respect to the weighted image entropy Hi mgw generated in step SP 59, and proceeds to the next step SP 61. .
  • step SP 61 the control unit 1 10 sets the standard deviation obtained in step SP 60 to a predetermined threshold value (in this case, it is only necessary to set “1 0” (see FIG. 24) to eliminate the artificial finger). It is determined whether or not.
  • a predetermined threshold value in this case, it is only necessary to set “1 0” (see FIG. 24) to eliminate the artificial finger. It is determined whether or not.
  • step SP 62 determines whether exceeds the maximum weight assigned number j corresponds to all types of weighting w L n. If a negative result is obtained here, this means that all types of weighting are not applied to the image input Higuchi Bi Hi Hi mg . Move to step SP 63.
  • step SP 63 the control unit 1 10 increments the count value “1” for the weighting number j, and then repeats the processing from step SP 59 onward, so Apply all types of weighting to i mg and determine whether each standard deviation is below the threshold. As a result, if a positive result is obtained in step SP 62, this means that there is little variation in the standard deviation of the weighted image entry port H i mgw as a result of applying all types of weighting w Ln. This indicates that there is a very high possibility that the finger is a pseudo finger. At this time, the control unit 110 moves to the next step SP64.
  • step SP 64 the control unit 1 10 is arranged in the authentication device 100. Since it is highly likely that the finger is a pseudo-finger, the process proceeds to the next step SP67 without performing the registration process, and the blood vessel registration process is terminated. At this time, the control unit 1 1 0 displays an error message “Cannot register”.
  • step SP 61 if a negative result is obtained in step SP 61 , this means that the standard deviation of the weighted image entry mouthpiece H imgw when given weighting w L n exceeds the threshold. This is because the standard deviation of the weighted image entropy H imgw varies, that is, it is a natural phenomenon due to factors such as blood flow if it is a living body. This means that there is a high possibility that the finger that is placed is an actual human finger, and at this time, the control unit 110 moves to the next step SP 65.
  • step SP 65 the control unit 110 can determine that the finger is not a pseudo finger based on the weighted image entropy H imgw , so the template image representing the blood vessel pattern image generated in step SP 53 By combining the data S3 and the template entropy TH obtained in step SP55 with the registration unit 26, a pair of registrant identification template data Tfv is generated. Move to step SP 6 6.
  • step SP 6 6 the control unit 1 1 0 performs registration processing by storing the registrant identification template data '— evening T fv in the flash memory 1 3, and proceeds to the next step SP 6 7 to perform blood vessel registration processing. finish.
  • the control unit 110 of the authentication device 100 changes the operation mode to the authentication mode and performs the blood vessel in the same manner as in the blood vessel registration mode described above.
  • the imaging unit 1 2 is controlled.
  • the drive control unit 12 a of the blood vessel imaging unit 12 2 drives and controls the near-infrared light source LS and the image sensor ID, and based on the image signal S 10 output from the image sensor ID. Adjust the lens position of the optical lens and aperture value of the aperture DH in the optical system 0 P, and output from the image sensor ID after the adjustment.
  • the image signal S 2 0 is sent to the control unit 1 1 0.
  • the control unit 1 1 0 performs image processing similar to that in the blood vessel registration mode described above on the image signal S 2 0 by the pre-processing unit 21 1, and the image entry port calculation block 2 3. Thus, image entropy calculation processing similar to that in the blood vessel registration mode is performed, and registrant identification template data T fv registered in advance in the flash memory 13 in the blood vessel registration mode is read.
  • control unit 110 has the image data S 21 representing the blood vessel pattern image obtained by the pre-processing unit 21 and the image entropy H i mg obtained by the image entry port calculation block 23. And the template image data S 3 and template entropy T H of the registrant identification template data T fv read from the flash memory 1 3 are collated by the collation unit 27, and this is determined according to the degree of collation. It is determined whether or not the user who placed the finger is a registrant (regular user).
  • the control unit 110 determines whether or not the finger placed on the authentication device 100 is a pseudo-finger before performing the above-described verification process. It is determined that the authentication process has failed, and it is notified that the process has not been performed.
  • control unit 10 determines that the user who has placed his / her finger on the authentication device 100 is a registrant, the control unit 10 is connected to the external interface 14 (not shown).
  • the execution instruction COM 3 for performing a predetermined operation is generated and transferred to the operation processing device via the external interface 14.
  • the control unit 110 performs the unlocking operation. Transfer the execution instruction COM 3 to the door.
  • the control unit 1 1 0 transfers the execution instruction COM 3 for releasing the restricted operation mode to the computer.
  • the operation processing device is connected to the external interface 14, but the software or hardware configuration of the operation processing device is mounted on the authentication device 100. You may do it.
  • control unit 1 1 0 determines that the user who placed his / her finger on the authentication device 1 0 0 is not a registrant
  • the control unit 1 10 0 notifies the display unit 1 5 a of the notification unit 1 5 to that effect. And a voice output via the voice output unit 15 b of the notification unit 15 so that it can be visually and audibly notified that the user is not a registrant. ing.
  • the authentication device 100 can execute the authentication mode.
  • the authentication processing procedure in this authentication mode will be described with reference to Fig. 27 below.
  • the control unit 11.0 of the authentication device 100 enters from the start step of the routine RT6 and proceeds to the next step SP7-1, where the registrant identification template stored in the flash memory 13 is registered.
  • the evening T fv template image data S 3 and template entropy T H ) is read, and the process proceeds to the next step SP 72.
  • step S P 72 the control unit 1 1 0 sets an initial value “1” for frame number i to capture a continuous image of the finger, and proceeds to the next step S P 73.
  • step SP 73 the control unit 110 generates the image signal S20 obtained by imaging the user's finger with the blood vessel imaging unit 12 and sends it to the preprocessing unit 21 of the control unit 10 At the same time, the image is sent to the mask processing unit 24 of the image entropy block 23, and then the process proceeds to the next step SP74.
  • step SP 74 the control unit 1 1 0 uses the mask processing unit 2 4 to extract only the finger region where the blood vessel pattern appears based on the image signal S 2 0 supplied from the blood vessel imaging unit 1 2. While generating the mask image, the pre-processing unit 21 generates the image data S 21 representing the blood vessel pattern image, and proceeds to the next step SP 75.
  • step SP 75 the control unit 1 1 0 applies the mask image generated in step SP 7 4 to the image signal S 2 0 supplied from the blood vessel imaging unit 1 2 to thereby extract the finger region extracted image S. 2 Generate 2 and go to next step SP 76.
  • step SP 76 the control unit 110 calculates the image :! entropy H img based on the finger region extraction image S 2 2, holds this, and proceeds to the next step SP 77.
  • step SP 77 the control unit 110 determines whether or not the frame number i has exceeded the maximum frame number necessary for generating a continuous image for a predetermined time. If a negative result is obtained here, this means that the image signal S2 of the predetermined number of frames necessary to generate a continuous image for the predetermined time of the finger has not yet been captured. Control unit 1 1 0 moves to next step SP 78.
  • step SP 78 the control unit 1 1 0 increments the force count value “1” for the frame number i, and then repeats the processing from step SP 73. -On the other hand, if a positive result is obtained in step SP77, this means that the image signal S2 of the predetermined number of frames necessary to generate the continuous image for the predetermined time of the finger has already been captured. At this time, the control unit 1 1 0 moves to the next step SP79.
  • step SP 7 9 the control unit 1 1 0 has a plurality of types whose distribution shapes are opposite to each other with respect to the image entry H img calculated in step SP 7 6.
  • To apply weight j set the initial value “1” for weight j, and go to the next step SP80.
  • step SP 80 the control unit 1 10 assigns the weighted image entropy H imgw by weighting the image entropy H img by weighting set by the biometric identification unit 1 1 1 as the weighting number “1”. Generate and move to the next step SP 8 1.
  • step SP81 the control unit 110 obtains a change in the entry port (standard deviation) with respect to the weighted image entropy H imgw generated in step SP80, and proceeds to the next step SP82 .
  • step SP 82 the control unit 1 10 determines that the standard deviation of the weighted image entropy H im gw obtained in step SP 8 1 is a predetermined threshold (in this case, the pseudo finger is It is necessary to set “1 0” because it is to be excluded).
  • the control unit 1 10 in step SP 83 determines whether exceeds the maximum weight assigned number j corresponds to all types of weighting w L n. If a negative result is obtained here, this means that not all kinds of weights w L n are applied to the image entropy H img . At this time, the control unit 1 10 Proceed to step SP 84. '
  • step SP 84 the control unit 1 10 increments the count value “1” with respect to the weighting number j, and then repeats the processing from step SP 80 onward, thereby repeating the image entry port H i. All kinds of weights are applied to mg , and it is determined whether each standard deviation is below the threshold. As a result, if a positive result is obtained in step SP 83 , this means that there is little variation in the standard deviation of the weighted image entropy H i mgw as a result of applying all types of weighting w Ln. This means that there is an extremely high possibility, and at this time, the control unit 110 moves to the next step SP85.
  • step SP 8 5 the control unit 1 1 0 is very likely to have a pseudo finger on the authentication device 1 0 0, and at this point, the verification unit 2 7 performs verification processing for authentication. Without proceeding to the next step SP90, the process is terminated. At this time, the control unit 1 1 0 displays an error message “Authentication failed”.
  • step SP82 if a negative result is obtained at step SP82 , this means that the weighted image hen when weighting w ln corresponding to the given weighting number j is applied.
  • the deviation exceeds the threshold, and this can occur very naturally due to factors such as blood flow if there is a variation in the standard deviation, and the finger placed on the authentication device 100 Represents a high possibility that it is an actual human finger.
  • the control unit 1.10 moves to the next step SP 86.
  • the control unit 1 1 0 determines the template entropy T H of the registrant identification template data read out at step SP 7 1 and the authentication target person calculated at step SP 7 6.
  • the collation unit 27 determines whether or not the absolute value of the difference from the image entropy H img is smaller than a predetermined allowable error ⁇ ⁇ ⁇ .
  • the reason for determining whether or not the absolute difference between the template entropy T H and the authentication subject's image entry port H i mg is smaller than the predetermined tolerance ⁇ is the image entry lobby Hi mg is like a digest value of the luminance pattern of the image signal S 2, only precision because an in value, when matching a template ene tropicity one T H, the determination needs to have a certain width Because there is. If a negative result is obtained here, this means that the image subject's image entry H i mg is not within a certain range from the pre-registered template entry value T H , that is, the image.
  • a luminance distribution of the finger region extraction image S 2 2 is E emissions simmer one H img of calculating source is different from the luminance distribution of the finger region extraction image S 4 is calculated Demoto template ene preparative Ropi one T H is In this case, the control unit 110 moves to the next step SP85.
  • step SP 85 the control unit 10 recognizes that the absolute value of the difference between the template entropy T H and the image entry mouth bee H i mg of the person to be authenticated is larger than the predetermined allowable error ⁇ . It is determined that the subject and the registrant do not agree, that is, authentication failure, and the process proceeds to the next step SP 90 and ends.
  • step SP 86 this means that the image entropy H img of the person to be authenticated is within a certain range from the value of the template entropy T H registered in advance.
  • the luminance distribution of the finger region extracted image S 22 that is the calculation source of the image entropy H i mg and the luminance distribution of the finger region extracted image S 4 that is the calculation source of the template entry T H This indicates that there is a high possibility that the person to be authenticated matches the registrant from the viewpoint of entropy.
  • the control unit 110 moves to the next step SP87.
  • Control unit 1 1 0 in step SP 8 7 includes a template image de Isseki S 3 of registrant identification template data T fv was read out in step SP 7 1, generated cry blood vessel pattern image in step SP 7, 4
  • the pattern matching process is performed by the collating unit 27 using the image data S 2 1 indicating that the process proceeds to the next step SPS 8.
  • step SP88 the control unit 110 determines whether or not the result of pattern matching performed in step SP88 matches. If a negative result is obtained here, this means that from the viewpoint of pattern matching, At this time, control unit 110 moves to step SP 8 5 to determine that the authentication is unsuccessful, and then proceeds to next step SP 90 to complete the authentication process. To do.
  • step SP88 if an affirmative result is obtained at step SP88, this indicates that the person to be authenticated and the registrant match from the viewpoint of pattern matching. At this time, the control unit 1 1 0 Moves to the next step SP 89.
  • step SP 89 the control unit 1 1 0 determines that the finger is not a pseudo-finger placed on the authentication device 100 but a human finger from the viewpoint of entropy, and also performs authentication from the viewpoint of pattern matching. Since the subject and the registrant match, it is determined that the authentication process has succeeded, and the process proceeds to the next step SP90 to end the authentication process.
  • the authentication device 100 represents the luminance distribution of the finger region extraction image S4 obtained by imaging the finger in the blood vessel registration mode as the image chain edge H img , and the image entry ⁇
  • the mouthpiece H img is given a plurality of weights w L n having a plurality of mutually opposite distribution shapes, and the weighted image entry mouthpiece H im is applied regardless of which weighting is applied. If the standard deviation of gw does not exceed the threshold, it is determined that there is no variation in the standard deviation, it is unnatural as a living body and the possibility of a pseudo finger is high, and registration processing is not performed.
  • the authentication device 100 can reliably eliminate the situation where the pseudo finger is registered by mistake.
  • a plurality of types of weights w L n having a plurality of mutually opposite distribution shapes are applied to the finger image entropy H i mg . If the standard deviation of the weighted image entry mouth pin H i mgw does not exceed the threshold even when the weight w L n is applied, the standard deviation will not vary and will be unnatural as a living body. Ah Therefore, it is determined that the possibility of a pseudo finger is high, and in that case, it can be determined that the authentication has failed until the verification process for authentication is performed.
  • the authentication device 100 only recognizes the image entropy based on the standard deviation of the weighted image entropy H imgw when the finger placed on the authentication device 100 is recognized as a human.
  • the authentication process By executing the authentication process from the viewpoint of entropy based on H img and then performing the pattern matching process, it is possible to reliably prevent the false user of the pseudo finger from being misidentified as a registrant. it can.
  • the authentication device 100 can eliminate the artificial finger before the authentication process and also perform the authentication process from the viewpoint of the image entry port H img. It is possible to effectively prevent spoofing by a malicious user who tries to imitate his finger or a malicious user who tries to imitate a blood vessel pattern.
  • the authentication device 100 determines whether or not it is a pseudo-finger with high accuracy, and then performs authentication processing based on information and entrepreneurship and authentication processing based on template matching. This makes it possible to prevent mis-authentication due to impersonation by someone other than the user with a high probability. : (3) Other embodiments
  • the image signals S 2 and S 20 are generated by imaging the blood vessel pattern for the vein at the tip of the finger as a predetermined part of the human body.
  • the present invention is not limited to this, and the image signals S 2 and S 20 may be generated by imaging vein patterns for various other parts such as the palm and face.
  • step SP 16 in step SP 86, the template entry T H and the authentication subject's image entry port H H img Authentication processing is performed from the viewpoint of entropy by determining whether or not the absolute value of the difference between The case where pattern matching is performed in step SP 1 7 (step SP 87) when a positive result is obtained has been described.
  • the present invention is not limited to this, and the pattern matching is performed after matching. Authentication processing may be performed from the viewpoint of tropy.
  • weighting w Ln of all types prepared is applied to the image entropy H img , but the present invention is not limited to this. If the weight wLn of the pattern different from the distribution shape of the image entropy H img can be applied, the weighted image entry mouth pie H im gw obtained as a result of applying only one type of weighting Whether the subject is a living body or a non-living body may be determined based on the standard deviation.
  • the control unit 10 or 110 reads out the registration program or the authentication program from the ROM and develops it on the RAM, and the blood vessel imaging unit 12, the flash memory 13, the external memory
  • the CD Compact Disc
  • DVD Digital Versatile Disc
  • registration program or authentication program installed from a recording medium such as semiconductor memory, or blood vessel registration mode or authentication mode according to the registration program or authentication program downloaded from the Internet. It may be executed.
  • the blood vessel imaging unit 12 as an imaging unit
  • Pre-processing section as a special parameter extraction means 2
  • Image entropy calculation section 25 as an image entry calculation means
  • Registration section 26 as a registration means
  • the authentication device of the present invention is configured in software by means of the biometric identification unit 11 1 1 as the biometric identification unit and the verification unit 27 7 as the authentication unit, the present invention is not limited to this.
  • the authentication apparatus of the present invention is not limited to various imaging means, feature parameter extraction means, image entropy calculation means, registration means, weighted image entropy calculation means, biometric identification means, and authentication means. It may be configured in a hardware manner.
  • the authentication device, registration device, registration method, registration program, authentication method, and authentication program of the present invention can also be applied to biometric authentication using, for example, an iris.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Security & Cryptography (AREA)
  • Vascular Medicine (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

認証装置、 登録装置、 登録方法、 登録プログラム、 認証方法及び認証プロ グラム 技術分野
本発明は、 認証装置、 登録装置、 登録方法、 登録プログラム、 認証方法 及び認証プログラムに関し、 特にバイオメ ト リクス認証処理を行う場合に 適用して好適なものである。 背景技術
従来、 バイ トメ ト リクス認証対象の一つとして血管がある。 この血管を バイオメ トリクス認証対象として用いた認証装置として、 指の撮像結果と して得られる血管パターンの画像デ一夕を登録データとして、 又は登録デ —夕と照合すべき照合デ一夕として用いるようになされたものが提案され ている (例えば、 特許文献 1参照) 。 特許文献 1 特開 2003- 331272公報。 ところでかかる構成の認証装置においては、 照合対象が血管パターンの 画像デ一夕であり、 当該血管パターンと類似した擬似指が用いられて照合 された場合、 不正ユーザを正当ユーザであると誤認識してしまう、 いわゆ るなりすましを防止することが出来ないという問題があった。
一方、 近年の認証装置としては小型化の要請が強く、 その観点からすれ ば、 簡易な構成であることが望ましい。 発明の開示 本発明は以上の点を考慮してなされたもので、 簡易な構成でかつ本人以 外のなりすましによる誤認証を高い確率で防止し得る認証装置、 登録装置、 登録方法、 登録プログラム、 認証方法及び認証プログラムを提案しようと するものである。
かかる課題を解決するため本発明においては、 生体の所定部位における 生体識別対象を撮像することにより生体識別対象画像を生成し、 生体識別 対象画像に対して所定の特徴抽出処理を施すことにより生体識別対象に対 する特徴パラメ一夕を抽出し、 生体識別対象画像に基づく画像ェントロピ —を算出し、 特徴パラメ一夕と画像ェン トロビーとを対にした登録者識別 情報を生成し、 これを所定の記憶手段に記憶させて登録するようにする。
これにより、 生体識別対象の特徴を表す特徴パラメ一夕に加えて、 生体 識別対象が持つ固有の画像ェント口ピ一をも登録者識別情報として登録さ せることができるので、 なりすましによる誤認証を効果的に防止すること ができる。
また本発明においては、 登録対象者における生体の所定部位における生 体識別対象を所定時間内で複数撮像することにより複数の生体識別対象画 像を生成し、 複数の生体識別対象画像に対して所定の特徴抽出処理を施す ことにより生体識別対象に対する複数の特徴パラメ一夕をそれぞれ抽出し、 複数の生体識別対象画像に基づいて複数の画像ェン ト口ピーをそれぞれ算 出し、 複数の画像ェン ト口ピーに対してパターンの異なる複数種類の重み 付けを施すことにより複数種類の重付け画像ェン ト口ピ一を算出し、 複数 種類の重付け画像ェン ト口ピ一に対するばらつき度合いをそれぞれ求め、 そのばらつき度合いに基づいて登録対象者の所定部位が生体であるか又は 非生体であるかを識別し、 所定部位が生体であると識別したときのみ、 特 徴パラメ一夕と画像ェント口ピーとを対にした登録者識別情報を生成し、 これを所定の記憶手段に記憶させて登録するようにする。
これにより、 複数種類の重付け画像ェントロピーに対するばらつき度合 いが少ないものは、 生体としては不自然であると考えることができるので、 登録対象者の所定部位が非生体であると識別し、 そのときは登録対象から 排除することにより、 非生体の擬似指を誤って登録してしまうという事態 を予め回避し、 なりすましによる誤認証を効果的に防止することができる。 さらに本発明においては、 認証対象者における生体の所定部位における 生体識別対象を所定時間内で複数撮像することにより複数の生体識別対象 画像を生成し、 複数の生体識別対象画像に対して所定の特徴抽出処 aを施 すことにより生体識別対象に対する複数の特徴パラメ一夕をそれぞれ抽出 し、 複数の生体識別対象画像に基づいて複数の画像ェン トロピーをそれぞ れ算出し、 複数の画像ェン ト口ピ一に対してパターンの異なる複数種類の 重み付けを施すことにより複数種類の重付け画像ェン トロピ一を算出し、 複数種類の重付け画像ェン ト口ピーに対するばらつき度合いをそれぞれ求 め、 そのばらつき度合いに基づいて認証対象者の所定部位が生体であるか 又は非生体であるかを識別し、 所定部位が非生体であると識別した時点で 認証対象者の正当性を否認し、 所定部位が生体であると認識したときのみ 認証処理を行うことにより認証対象者の正当性を判定するようにする。
これにより、 複数種類の重付け画像ェン トロピ一に対するばらつき度合 いが少ないものは、 生体としては不自然であると考えることができるので、 登録対象者の所定部位が非生体であると識別し、 その時点で認証対象者の- 正当性を否認し、 所定部位が生体であると認識したときのみ認証処理を行 うことにより、 擬似指によるなりすまじを効率的かつ効果的に防止するこ とができる。
本発明によれば、 生体識別対象の特徴を表す特徴パラメ一夕に加えて、 生体識別対象が持つ固有の画像ェン 卜口ピーをも登録者識別情報として登 録させることができるので、 なりすましによる誤認証を効果的に防止し得、 かく して簡易な構成でかづ本人以外のなりすましによる誤認証を高い確率 ½防止し得る認証装置、 登録方法及び登録プログラムを実現することがで さる。 .
また本発明によれば、 複数種類の重付け画像ェント口ピーに対するばら つき度合いが少ないものは、 生体としては不自然であると考えることがで きるので、 登録対象者の所定部位が非生体であると識別し、 そのときは登 録対象から排除することにより、 非生体の擬似指を誤って登録してしまう という事態を予め回避し、 なりすましによる誤認証を効果的に防止するこ とができ、 かく して簡易な構成でかつ本人以外のなりすましによる誤認証 を高い確率で防止し得る登録装置、 登録方法及び登録プログラムを実現す ることができる。
さらに本発明においては、 複数種類の重付け画像ェン ト口ピーに対する ばらつき度合いが少ないものは、 生体としては不自然であると考えること ができるので、 登録対象者の所定部位が非生体であると識別し、 その時点 で認証対象者の正当性を否認し、 所定部位が生体であると認識したときの み認証処理を行うことにより.、 擬似指によるなりすましを効率的かつ効果 的に防止することができ、 かく して簡易な構成でかつ本人以外のなりすま しによる誤認証を高い確率で防止し得る認証装置、 認証方法及び認証プロ グラムを実現することができる。 図面の簡単な説明
図 1は、 マスク有無に応じた画像ェン ト口ピーを示す略線図である。 図 2は、 擬似指と人間の指とによる撮像結果を示す略線図である。
図 3は、 動きのない連続画像の画像ェン トロピー変化を示す略線的特性 曲線図である。
図 4は、 第 1又は第 2の実施の形態における認証装置の全体構成を示す 略線的プロック図である。
図 5は、 第 1の実施の形態における制御部の構成を示す略線的プロック 図ある。 図 6は、 第 1の実施の形態における血管登録処理手順を示すフローチヤ —トである。
図 7は、 第 1の実施の形態における認証処理手順を示すフローチヤ一ト である。
図 8は、 丄 0 g 2 3 9 0付近の対数曲線を示す略線図である。
図 9は、 対数の 1次近似の説明に供する略線図である。
図 1 0は、 対数表の大きさと精度の説明に供する特性曲線図である。 図 1 1は、 基本概念となる対数計算処理手順を示すフローチヤ一トであ る。
図 1 2は、 具体的な対数計算処理手順を示すフローチヤ一トである。 図 1 3は、 対数計算速度結果を示す略線図である。 .
図 1 4は、 標準画像を示す略線図である。
図 1 5は、 標準画像の画像エン トロピー誤差を示す略線図である。
図 1 6は、 画素値ヒス トグラム及び重み付け w Lの説明に供する特性曲 線図である。
図 1 7は、 連続画像の画像エン トロピー変化 (重み付け無し) め説明に 供する特性曲線図である。
図 1 8は、 連続画像の画像ェントロピ一変化 (重み付け有り) の説明に 供する特性曲線図である。
図 1 9は、 人指 1の画素値ヒス トグラムと重み付けを示す特性曲線図で ある。 . '
図 2 0は、 人指 2の画素値ヒス トグラムと重み付けを示す特性曲線図で ある。
図 2 1は、 画像ェン ト口ピーの平均値と標準偏差を示す略線図である。 図 2 2は、 画素値ヒス トグラム及び重み付け w L 2の説明に供する特性
I
曲線図である。
図 2 3は、 重み付け w Lと重み付け w L 2とによる連続画像のェン ト口 ピー変化の相違を示す特性曲線図である。
図 2 4は、 画像エン トロピーの標準偏差を示す略線図である。
図 2 5は、 第 2の実施の形態における制御部の構成を示す略線的プロッ ク図である。
図 2 6は、 第 2の実施の形態における血管登録処理手順を示すフローチ ャ一トである。
図 2 7は、 第 2の実施の形態における認証処理手順を示すフローチヤ一 トである。 発明を実施するための最良の形態
以下、 図面について、 本発明の一実施の形態を詳述する。
( 1 ) 第 1の実施の形態
( 1 一 1 ) 第 1の実施の形態における基本原理
ここでは、 最初に第 1の実施の形態における基本原理を説明する。
( 1— 1 一 1 ) 画像エン トロピーを用いた排他制御
第 1の実施の形態では、 画像の特徴量を利用して認証を行う場合、 .なり すまし画像による、 もしくは、 ランダムに入力された画像により、 認証が 成功してしまうことを初期段階で排除するための手法である。
さらに第 1の実施の形態では、 例えば指静脈等の血管パターンの画像に 対する特徴量のみを抽出し、 これをテンプレートとして保持するのではな く、 その特徴量を抽出するために用いた元の画像の画像ェン トロビーにつ いてもテンプレー卜として保持することにより、 認証処理前の段階で画像 エン トロピ一により、 なりすまし画像を排除することを可能とするもので ある。 次に、 この画像エン トロピーについて説明する。
( 1— 1— 2 ) 画像ェント口ピー
画 f象ェントロピーとは、 画像の輝度値を用いた情報ェントロピーのこと であって、 撮像時における輝度パターンのダイジェス ト値のようなもので ある。
この画像エン ト ロピ一は、 ある画素値の出現確立 P iとした場合、 その 自己情報量は — 1 o g P iと表すことができ、 自己情報量の期待値一 P i 1 o g 2 p iの総和を意味する。 すなわち画像ェン ト口ピー Hを定義した 場合、 当該画像エン トロピ一 Hは、 次式で表される。
H = -} ipi\og2pi …… (1) 今、 画像を 8ビッ トのグ'レイスケールで画素値 L ( L = 0、 ···、 2 5
5 ) の 2 5 6階調であるとした場合、 画像ェン トロピ一 Hi mgは、 次式と 表すことができる。
Figure imgf000009_0001
画素値 Lの出現確率 PLは、 画像サイズを幅 SW.、 高さ S H、 総画素数 N = Swx S Hとし、 画素値 Lの画素数 とした場合、 出現確率 p1 /は、 次. 式となる。 pL =^ (3)
L N 従って、 ( 3 ) 式を用いれば、 画像エン ト ロピ一Hi mgは、 次式によつ て表される
Figure imgf000010_0001
1
= " 2 nL - l082
1 225555 "J 235
= w Σん =0"ん 10 g2W- ∑"/ l0g:
i ん =o
1 255
log2 V- , log2 nl (4) なお、 画素数 ま、 正数値であるため、 高速処理及び対数処理が出来 ない処理系においては、 l o g 2 nLの表を持てば画像ェン トロピー H i m gを瞬時に得ることができる。
( 1— 1— 3 ) マスグされた画像の画像エン トロピ一
所定部分がマスクされた画像に対する画像エン トロピー H i mgを考えた 場合、 マスクされた部分は画素値がある値 (普通ゼロにする) になり、 そ れ以外の部分に意味ある画像デ一夕が存在することとなる。
図 1 (A). は、 2 5 6 X 2 5 6サイズでなる 8ビッ トのグレイスケール 画像であり、 マスクされていない状態における画像ェン ト口ピー Himgは 上述した ( 4 ) 式に従って 「7. 4 6」 となる。
一方、 図 1 (B) は、 図 1 (A) におけるグレイスケール画像の上半分 がマスクされており、 この状態における画像ェン トロピー Hi m gは上述し た ( 4 ) 式に従って 「4. 7 2」 となる。 .
この場合、 図 1 (B) のグレイスケール画像では、 総画素数の半分が同 一の輝度値 (ゼロ) になったため、 図 1 (A) のグレイスケール画像に比 ベて大きく画像ェント口ピ一H i mgが減少しているのが分かる。 すなわち、 図 1 (A) 及び図 1 (B) に示した同一画像であっても、 マスク領域が大 きいグレイスケール画像 (図 1 (B) ) では、 画像エン トロピ一 H i mgの 減少が著しいことが分かる。
そこで、 マスクされたグレイスケール画像の場合、 マスク領域外だけで 画像エン トロピ一 Himgを計算する必要がある。 図 1 (C) に示すグレイ スケール画像について画像ェン ト口ピー Himgを計算した場合、 その値は
「7. 44」 となり、 図 1 (A) に示したオリジナルのマスクなしクレイ スケール画像と比べても大きな変化はないことが分かる。
このことから、 マスクが適用された血管パターンの画像を処理する場合、 画像ェン ト口ピ一Hi mgの計算において、 マスク領域以外に相当する部分 の画像を処理対象として甩いるように考慮する必要がある。
( 1 _ 1—4) 指血管による個人認証 '
例えば、 指血管パターンによる個人認証を行う場合に、 上述した手法を 取り入れる。
例えば、 図 2 (A 1 ) 〜 (A3) は、 グミで作られた擬似指に対する撮 像画像、 マスク画像、 マスク処理後の指領域抽出画像を示し、 図 2 (B 1) 〜 (B 3) は、 人指 1に対する撮像画像、 マスク画像、 マスク処理後 の指領域抽出画像を示し、 図 2 (C 1 ) 〜 (C 3) は、 人指 2に対する撮 像画像、 マスク画像、 マスク処理後の指領域抽出画像を示し、 図 2 (D 1 ) 〜 (D 3) は、 人指 3に対する撮像画像、 マスク画像、 マスク処理後 の指領域抽出画像を示す。
このような擬似指、 人指 1、 人指 2及び人指 3の撮像画像に対してマス ク画像によるマスク処理を施した結果得られる指領域抽出画像を基に画像 ェン トロピ一 Himgを計算すると、 擬似指の指領域抽出画像に対する画像 ェン トロピー Himgは 「7. 06」 になり、 人指 1の指領域抽出画像に対 する画像ェン トロピー Himgは 「5. 96」 になり、 人指 2の指領域抽出 画像に対する画像ェン トロピー H i mgは 「 6. 6 1」 になり、 人指 3の指 領域抽出画像に対する画像ェン トロピ一 Himgは 「 6. 7 1」 になる。
これらの擬似指、 人指 1、 人指 2及び人指 3に関して、 一定時間固定し、 指領域抽出画像におけるフレーム毎の画像ェント口ピー Himgの変化を図 3のグラフに示す。 この結果からも明らかなように、 画像エン トロピ一 H i mgの値は、 個人個人の違いをある程度識別できる能力を有していること が分かる。 但し、 人指 2の血管パターンと、 人指 3の血管パターンとが非 常に似ている場合、 画像ェン小口ビー H i mgの値が近接しているので、 人 指 2の個人と、 人指 3の個人とを確実に識別することは必ずしも容易では ない。
( 1— 2 ) 第 1の実施の形態における認証装置
上述した画像ェン ト口ピー H imgを認証処理に用いた第 1の実施の形態 における認証装置について説明する。 .
( 1— 2— 1 ) 第 1の実施の形態における認証装置の回路構成
図 4に示すように、 第 1の実施の形態における認証装置 1は、 制御部 1 0に対して、 操作部 1 1、 血管撮像部 1 2、 フラッシュメモリ 1 3、 外部 'とデ一夕を授受するィン夕フヱ一ス (以下、 これを外部ィン夕フェースと 呼ぶ) .1 4、 及び通知部 1 5がそれそれバス 1 6を介して接続された構成 を有する。
この制御部 1 0は、 認証装置 1全体の制御を司る C P U (Central Processing Unit)と、 各種プログラム及び設定情報等が格納される R〇 M (Read Only Memory)と、 当該 CPUのワークメモリとして用いられる RA M( Random Access Memory)とを含むマイクロコンビュー夕で構成されてい る。
この制御部 1 0には、 登録対象のユーザ (以下、 これを登録者と呼ぶ)
©ώ管を登録するモード (以下、 これを血管登録モードと呼ぶ) の実行命 令 C0M 1、 又は登録者本人の当否を判定するモード (以下、 これを認証 モードと呼ぶ) の実行命令 C O M 2が、 操作部 1 1に対するユーザの操作 に応じて与えられる。
制御部 1 0は、 かかる実行命令 C O M 1、 C 0 M 2に基づいて実行すベ きモードを決定し、 この決定結果に対応するアプリケーションプログラム
(袞録プログラム又は認証プログラム) を R O Mから読み出して R A M上 で展開し、 血管撮像部 1 2、· フラッシュメモリ 1 3、 外部インタフェース 1 4及び通知部 1.5を適宜制御することによって、 血管登録モ一ド又は認 証モードを実行するようになされている。
( 1 - 2 - 2 ) 血管登録モ一ド
この認証装置 1の制御部 1 0は、 実行すべきモ一ドとして血管登録モー ドを決定した場合、 動作モードを血管登録モ一ドへ遷移し、. 血管撮像部 1 2を制御する。
この場合、 血管撮像部 1 2の駆動制御部 1 2 aは、 こめ認証装置 1にお ける所定位置に配された登録者の指に対して近赤外光を照射する 1又は 2 以上の近赤外光光源 L S と、 撮像カメ ラ C Mにおける例えば C C D ( Charge Coupled Device )でなる撮像素子 I Dとを駆動制御するようにな されている。
この結果、 血管撮像部 1 2では、 指に照射された近赤外光が当該指の内 方を反射及び散乱しながら経由し、 指の血管を投影する光 (以下、 これを 血管投影光と呼ぶ) として、 光学系 O Pや絞り D Hを介して撮像素子 I D に入射する。 撮像素子 I Dは、 この血管投影光を光電変換し、 その光電変 換結果を画像信号 S 1 として駆動制御部 1 2 aへ出力するようになされて いる。
因みに、 指に照射される近赤外光は、 実際、 当該指の表面で反射して撮 像素子 I Dに入射するものであるため、 この撮像素子 I Dから出力される 画像信号 S 1の画像は、 指内方の血管だけではなく、 指輪郭や指紋につい ても含まれることになる。 ' 血管撮像部 1 2の駆動制御部 1 2 aは、 この画像の画素値に基づいて、 指内方の血管に焦点が合うように光学系 0 Pにおける光学レンズのレンズ 位置を調整すると共に、 撮像素子 I Dに入射する入射光量が適応量となる ように絞り D Hにおける絞り値を調整し、 当該調整後に撮像素子 I Dから 出力される画像信号 S 2を制御部 1 0へ供給する。
制御部 1 0は、 この画像信号 S 2に対して所定の画像処理を施すことに よって、 - 指の血管の特徴を表す血管パターンを抽出した血管パターン画像 を生成すると共に、 その血管パターン画像に基づいて画像ェン トロピー H i m gを算出し、 当該血管パターン画像及びその画像ェン トロピー H i m gの 組み合わせでなる、 登録者を識別するための情報 (以下、 これを登録者識 別テンプレートデ一夕と呼ぶ) T f vをフラッシュメモリ 1 3に記憶する ことにより登録処理を終了するようになされている。
次に、 制御部 Γ 0における画像処理の具体的な内容について説明する。 図 5に示すように制御部 1 0は、 前処理部 2 1、 画像ェント口ピー計算ブ ロック 2 3、 登録部 2 6及び照合部 2 7によって機能的に分けられた構成 を有し、 血管撮像部 1 2から供給される画像信号 S 2を前処理部 2 1へ入 力すると共に、 画像ェントロピ一計算プロック 2 3のマスク処理部 2 4ぺ 入力する。
. 前処理部 2 1は、 画像信号 S 2に対してアナ口グディジタル変換処理、 ソ一べルフィル夕処理等による所定の輪郭抽出処理、 ガウシアンフィル夕 処理等による所定の平滑化処理、 2値化処理及び細線化処理を順次施し、 その結果得られる血管パターン画像を表した画像データ (以下、 これをテ ンプレート画像デ一夕と呼ぶ) S 3を登録部 2 6へ送出する。
画像ェン トロピ一計算ブロック 2 3のマスク処理部 2 4は、 血管撮像部 1 2から供給される画像信号 S 2に基づいて血管パターンが表れている指 領域だけを抽,出するためのマスク画像 (図 2 ) を生成し、 そのマスク画像 を適用することにより指領域抽出画像 S 4を生成し、 これを画像ェン ト口 ピ一算出部 2 5へ送出する。
画像エン トロピ一算出部 2 5は、 指領域抽出画像 S 4を基に、 上述した ( 4 ) 式に従って画像エン トロピ一 H i m gを算出し、 これを登録者識別テ ンプレートデータ T f vを構成する一要素であるテンプレートエン トロピ 一 T Hとして登録部 2 6へ送出する。
登録部 2 6は、 前処理部 2 1から供給された血管パターン画像を表した テンプレート画像デ一夕 S 3と、 画像ェン トロピー算出部 2 5から供給さ れたテンプレートェン十口ピー T Hとを 1対の組み合わせとした登録者識 別テンプレートデータ T f vを生成じ、 これをフラッシュメモリ 1 3に記 憶して登録処理を終了するようになされている。
このようにして認証装置 1の制御部 1 0は、 血管登録モードを実行し得 るようになされており、 この血管登録モ一ドにおける血管登録処理手順に ついては、 次の図 6を用いて説明する。
認証装置 1の制御部 1 0は、 ルーチン R T 1の開始ステツプから入って 次のステップ S P 1へ移り、 血管撮像部 1 2により、 ユーザの指を撮像し た画像信号 S 2を生成し、 これを制御部 1 0の前処理部 2 1へ送出すると 共に、 画像ェン トロピ一プロック 2 3のマスク処理部 2 4へ送出した後、 次のスァップ S P 2へ移る。 . · ステップ S P 2において制御部 1 0は、 マスク処理部 2 4により、 血管 撮像部 1 2から供給される画像信号 S 2に基づいて血管パターンが表れて いる指領域だけを抽出するためのマスク画像を生成すると共に、 前処理部 2 1により血管パターン画像を表したテンプレート画像データ S 3を生成 し、 次のステップ S P 3へ移る。
ステップ S P 3において制御部 1 0は、 ステップ S P 2で生成したマス ク画像を血管撮像部 1 2から供給される画像信号 S 2に対して適用するこ とにより指領域抽出画像 S 4を生成し、 次のステップ S P 4へ移る。 ステップ S P 4において制御部 1 0は、 指領域抽出画像 S 4を基に上述 した (4) 式に従って画像エン トロピ一 Himgを算出し、 これをテンプレ 一トェン トロピ一 THとして次のステツプ S P 5へ移る。
ステップ S P 5において制御部 10は、 ステップ S P 2で生成した血管 パターン画像を表したテンプレ一ト画像データ S 3と、 ステップ S P 4で 算出したテンプレートェン トロピ一T Hとを登録部 26により組み合わせ ることにより 1対の ¾録者識別テンプレートデ一夕 T f vを生成し、 これ をフラッシュメモリ 13に記憶して登録し、 次のステップ S P 6へ移って 血管登録処理を終了する。
( 1 - 2 -3 ) 認証モード
一方、 この認証装置 1の制御部 1 0は、 実行すべきモードとして認証モ ードを決定した場合、 動作モードを認証モードへ遷移し、 上述の血管登録 モードの場合と同様にして血管撮像部 1 2 (図 4) を制御する。
この場合、 血管撮像部 12の駆動制御部 12 aは、 近赤外光光源 L S及 び撮像素子 I Dを駆動制御すると共に、 当該撮像素子 I Dから出力される 画像信号 S 10に基づいて光学系 OPにおける光学レンズのレンズ位置及 び絞り D Hの絞り値を調整し、 当該調整後に撮像素子 I Dから出力される 画像信号 S 20を制御部 10へ送出する。
制御部 10 (図 5) は、 この画像信号 S 20に対して、 上述の血管登録 モードの場合と同様の画像処理を前処理部 2 1によって施すと共に、 画像 ェン トロピ一計算ブロック 2.3により上述の血管登録モ一ドの場合と同様 の画像ェントロピー算出処理を施し、 血管登録モードのときにフラッシュ メモリ 1 3に予め登録した登録者識別テンプレートデ一夕 Tf vを読み出 す。
そして制御部 10は、 前処理部 2 1により得られた血管パターン画像を 表した画像デ一夕 S 2 1及び画像ェント口ピー計算プロック 23により得 られた画像エン トロピ一 Himgと、 フラッシュメモリ 13から読み出した 登録者識別テンプレートデ一夕 T f vのテンプレート画像デ一夕 S 3及び テンプレートエン トロピ一T Hとを照合部 2 7によりそれぞれ照合し、 そ の照合の程度に応じて、 このとき指を配したユーザが登録者 (正規ュ一 ザ) であるか否かを判定する。
ここでテンプレー トエン トロピ一T Hは、 画像信号 S 2における輝度パ ターンのダイジエス ト値のようなものであり、 あくまで精密な値ではない ため、 画像信号 S 2 2に基づく画像エン トロピ一 H i m gと照合する際、 判 定にはある程度の幅を持たせる必要がある。
すなわち、 テンプレー トエン トロピ一T Hの値と、 画像エン トロピ一 H i m gの値とが近接している場合、 認証対象者が登録者本人である可能性が 高いことを意味するのに対し、 テンプレートエン ト ロピー T Hの値と、 画 像ェン ト口ピー H i m gの値とが大きくかけ離れている場合、 認証対象者と 登録者とが別人である可能性が高いことを意味する。
この場合、 制御部 1 0は、 .指を配した認証対象者のユーザが登録者であ ると判定したとき、 外部インタフヱ一ス 1 4に接続された動作処理装置 (図示せず) に対して所定の動作を行わせる実行命令 C O M 3を生成し、 これを外部インタフヱ一ス 1 4を介して動作処理装置へ転送するようにな されている。
この外部インタフェース 1 4に接続された動作処理装置の実施態様とし て、 例えば閉錠状態にあるドアを採用した場合、 制御部 1 0は、 閧錠動作 を行わせる実行命令 C O M 3を ドアへ転送する。 .
また、:.他の動作処理装置の実施態様例として、. 複数の動作モ一ドのうち 一部の動作モードを制限した状態にあるコンピュータを採用した場合、 制 御部 1 0は、 その制限された動作モードを開放させる実行命令 C O M 3を コンピュータへ転送する。
なお、 実施態様として 2つの例を挙げたが、 これらだけに限らず、 他の 実施態様についても適宜選択することがで.きる。 また、 本実施の形態では、 動作処理装置を外部ィ ン夕フヱ一ス 1 4に接続するようにしたが、 当該動 作処理装置におけるソフ トウェア乃至ハードウェアの構成をこの認証装置
1に搭載するようにしても良い。
これに対して、 制御部 1 0は、 指を配した認証対象者のユーザが登録者 ではないと判定したとき、 その旨を通知部 1 5の表示部 1 5 aを介して表 示すると共に、 当該通知部 1 5の音声出力部 1 5 bを介して音声出力する ことにより、 登録者ではないと判定したことを視覚的及び聴覚的に通知し 得るようになされている。
このようにして認証装置 1は、 認証モ一ドを実行し得るようになされて いる。 この認証モードにおける認証処理手順について、 次の図 7を用いて 説明する。 ,
認証装置 1の制御部 1 0は、 ルーチン R T 2の開始ステップから入って 次のステップ S P 1 1へ移り、 フラッシュメモリ 1 3に予め登録された登 録者識別テンプレートデ一夕 Τ ΐ ν (テンプレート画像データ S 3及びテ ンプレートエン トロピ一Τ Η ) を読出し、 次のステップ S P 1 2へ移る。 ステヅプ S Ρ 1 2において制御部 1 0は、 血管撮像部 1 2により、 ー ザによって配された指を撮像することにより画像信号 S 2 0を生成し、.こ れを制御部 1 0の前処理部 2 1へ送出すると共に、 画像ェン トロピ一プロ ック 2 3のマスク処理部 2 4へ送出した後、 次のステップ S P 1 3へ移る。 ステップ S Ρ 1 3において制御部 1 0は、 前処理部 2 1 (こよ り画像信号 S 2 0に基づいて血管パターン画像を表した画像デ一夕 S 2 1を生成する ど共に、. マスク処理部 2 4により、 血管撮像部 1 2から供給される画像信 号 S 2 0に基づいて血管パターンが表れている指領域だけを抽出するため. のマスク画像を生成し、 次のステップ S P 1 4へ移る。
ステップ S Ρ 1 4において制御部 1 0は、 画像ェント口ピー算出部 2 5 により、 ステップ S Ρ 1 3で生成したマスク画像を血管撮像部 1 2から供 給される画像信号 S 2 0に対して適用することによって指領域抽出画像 S 2 2を生成し、 次のステップ S Ρ 1 5へ移る。 ステップ S P 1 5において制御部 1 0は、 画像ェント口ピ一算出部 2 5 により、 指、領域抽出画像 S 2 2に基づいて認証を希望する認証対象者の画 像エン ドロビー Himgを算出し、 これを照合部 2 7へ送出した後、 次のス テツプ S P 1 6へ移る。
ステップ S P 1 6において制御部 1 0は、 照合部 2 7により、 ステップ S P 1 1で読み出した登録者識別テンプレートデ一夕 T f vのテンプレー トエン トロピ一THと、 ステップ S P 1 6で算出した認証対象者の画像ェ ン トロピー H i mgとの差分絶対値が所定の許容誤差 Δ H りも小さいか否 かを判定する。
この場合、 テンプレートエン トロピ一THと、 認証対象者の画像ェン ト 口ピー Himgとの差分絶対値が所定の許容誤^△ H りも小さいか否かを 判定する理由は、 画像ェン ドロピ一 Himgが画像信号 S 2における輝度パ ターンのダイジェス 卜値のようなものであり、. あくまで精密な値ではない ため、 テンプレ"^トェン トロピー T Hと照合する際、 判定にはある程度の 幅を持たせる必要があるからである。
ここで否定結果が得られると、 このことは認証対象者の画像ェン トロピ — H i mgが、 予め登録されていたテンプレートェント.口ピ一 T Hの値から 一定範囲内にないこと、 すなわち画像ェントロピ一 II i mgの算出元である 指領域抽出画像 S 2 2の輝度分布と、 テンプレートエン トロピー THの算 出元である指領域抽出画像 S 4の輝度分布との相違点が多いことを表して おり、 このとき制御部 1 0.は次のステップ S P 2 0へ移る。
ステップ S P 20において制御部 1 0は、 テンプレートエン トロピ一 T Hと、 認証対象者の画像ェン トロピー H i mgとの差分絶対値が所定の許容 誤差△ Hよりも大きいため、 認証対象者と登録者とがー致しないこと、 す なわち認証失敗であると判断し、 次のステップ S P 2 1へ移って処理を終 了する。
これに対してステップ S P 1 6で肯定結果が得られると、 このことは認 証対象者の画像ェン トロビー H i m gが、 予め登録されていたテンプレート ェン トロピ一 T Hの値から一定範囲内にあり、 すなわち画像ェン トロピー H i m gの算出元である指領域抽出画像 S 2 2の輝度分布と、 テンプレート ェン トロピー T Hの算出元である指領域抽出画像 S 4の輝度分布とが同一 であり、 ェントロピーの観点からでは認証対象者と登録者とがー致するこ とを表しており、 このとき制御部 1 0は次のステップ S P 1 7へ移る。 ステップ S P 1 7において制御部 1 0は、 ステップ S P 1 1で読み出し た登録者識別テンプレー トデ一夕 T f vのテンプレート画像データ S 3 と、 ステップ S P 1 3で生成した血管パターン画像を示す画像データ S 2 1 と を用いてパターンマッチング処理を行い、 次のステップ S P 1 8へ移る。 ステップ S P 1 8において制御部 1 0は、 ステップ S P 1 7で行ったパ 夕一ンマッチングの結果が一致したか否かを判定する。 ここで否定結果が 得られると、 このことはパターンマツチングの観点からは認証対象者と登 録者とが一致しないことを表しており、 このとき制御部 1 0は次のステヅ プ S P 2 0へ移って認証失敗であると判断し、 次のステツプ S P 2 .1へ移 つて処理を終了する。 . これに対してステップ S P 1 8で肯定結果が得られると、 このことはパ ターンマッチングの観点からも認証対象者と登録者とがー致したことを表 しており、 このとき制御部 1 0は次のステツプ S P 1 9へ移る。
ステップ S P 1 9において制御部 1 0は、 エン トロピーの観点及びパ夕 ーンマッチングの観点からも認証対象者と登録者とがー致したので認証成 功であると判断し、 次のステップ S P 2 1へ移って認証処理を全て終了す る
( 1— 3 ) 画像ェン ト口ピ一算出部 2 5における対数計算高速化手法 ところで、 画像ェン ト口ピー計算プロック 2 3における画像エン トロピ 一算出部 2 5では、 実際上、 ( 4 ) 式に従って、 画像ェン トロピー H i m g を.求めるために底 2の対数計算を実行する必要がある。 しかしながら、 画像ェン トロピー H i mgを求めるための底 2の対数計算 としては、 少数点計算を伴うために画像ェン 卜口ピ一算出部 2 5に対する 処理負荷が大きく、 また小数点計算を行うアプリケ一シヨンプログラムの ため大きなメモリ容量を必要とする等の欠点を有することから、 処理負荷 が少なく、 大きなメモリ容量を必要とすることもなく、 短時間かつ高精度 に対数計算を実行する高速化手法が求められている。
( 1 —.3— 1 ) 対数計算高速化手法の基本的考え方
今、 任意の整数 Xに対する底 2の 1 o g 2 xについて、 その値を短時間 かつ高精度に求めることを考える。 具体的には、 1 o g 2 Xについて、 次 式 log2 (2α · < log2 x < log2 (2α (γ + ή) …… (5) が成立し、 この ( 5 ) 式中の y、 ひ、 Xが整数のとき、 この ( 5 ) 式を展 開すると、 次式 log^0, +log2 <log2 Jf <log22a +[qg2(y + \) (6 ) になり、 さらに次式、 . a + log2 y < log2 x<a + log2 \γ + \) k ) で表される。
従って、 画像ェン トロピー算出部 2 5では、 .1 o g 2 yの対数値、 1 o g 2 ( y + 1 ) の対数値を予め対数表テ一プル等により保持していれば、 1 o g 2 xの値をある程度の近似値として求めることが可能になる。
• 例えば、 X = 1 0 0 0 0 0の場合、 1 0 g 2 1 0 0 0 0 0は、 ( 5 ) 式 に従って、 次式 log2(28 -390)<log2100000<log2(28 ·39ΐ) …… (8)
19 のように表される。 すなわち、 10 g 21 0 0 0 0 0の対数値は、 「 8 + 1 o g 23 9 0」 の対数値と、 「 8 +対数 1 o g 23 9 1」 の対数値との 間にその解があることになる。
図 8に示すように、 1 0 g 239 0付近の対数曲線では、 3 9 0≤ X ≤ 3 9 1の範囲でほぼ直線近似が可能であることが分かり、 同様に他の範囲 でもほぼ直線近似が可能であることが分かる。
従って、 1 0 g 2 1 0 000 0に対し、 3 9 0≤ X≤ 3 9 1の範囲で 1 次近似を行う。 まず、 l o g21 0 00 0 0 = l o g2 ( 28 ' 3 9 0 + l 6 0 ) であるので、 図 9の右側に示したように、 1 o g 2 1 0 0 0 0 0は、 1 o g 2 ( 28 · 3 9 0 ) と l o g2 ( 28 · 3 9 1 ) との間にある 2 5 6 の隔たりを 1 6 0 : 9 6で内分する値となる。
1 o g 2 ( 28 · 3 9 0 ) 及び l o g2 ( 28 · 3 9 1 ) のうち、 28を 式から外に出した場合、 l o g2 ( 3 9 0 ) 及び l o g 2 ( 3 9 1) を同 様に考えれば、 図 9の左側に示すように、 l o g 2 ( 3 9 0 ) と l o g2 ( 3 9 1 ) とを 1 6 0 : 9 6で内分したときの値を得ることができ、 その 値に対して 8 ( 1 o g 228 ) を加算したものが、 1 o g 21 0 0 0 0 0の 対数値となる。
従って、 画像エン トロピ一算出部 2 5では、 l o g2 l〜 l o g2 1 0 0 0 0 0までの対数値を対数表テーブルとして保持していなくても、 せめ て l o g23 9 0、 1 o g 23 9 1の対数値が含まれている対数表テ一ブ ルを保持してさえいれば、 l o g2 1 00 0 0 0を簡単かつ短時間のうち に近似計算することが可能になる。
実際上、 任意の整数 Xに対する底 2の l o g 2xは、 ( 5 ) 式のとき、 Xを次式 x = 2a -y + r …… (9) で表すために整数 y、 rを用意すると、
Figure imgf000023_0001
2a -r)-log2 + r' log2( +1)
(10)
2 で表すことができる。
これは、 l o g 2 y及びユ o g 2 ( y + 1 ) 間を、 r : 2 "― rに内分し たときの 1 0 g2xの値に crを加算したものであり、 この ( 1 0 ) 式を用 いれば、 1 o g2xの値を短時間かつ高精度に求めることができる。
( 1 - 3 - 2 ) 検証結果
上述したような対数計算高速化手法を用いて近似計算された対数値の精 度及び計算速度の実験結果について次に説明する。
画像ェントロピー算出部 2 5は、 保持する対数表テ一ブルの大きさを 1
6〜 5 1 2まで変化させた場合に、 1 0 g2xの x = 1、 、 1 0 0 0
0 0までの対数値を計算し、
その最大誤差を図 1 0 (A) 及び (B) に示す。 .
ここで対数テーブルの大きさとは、 l o g2 l ~ l o g2 n (n = x) までの対数値の豊富さのことであり、 例えば 1 o g 21 ~ 1 o g 2 1 6ま での対数値を対数表テ一ブルとして持っているときを対数表サイズ 「 1 6」 と呼び、 1 o g 2 1〜 1 0 g 25 1 2までの対数値を対数表テーブル として持っているときを対数表サイズ 「 5 1 2」 と呼ぶ。
図 1 0 (A) に示すように、 画像ェン トロピ一算出部 2 5による対数表 サイズ 「 5 1 2」 の対数表テーブルを用いた近似計算では、 対数表サイズ が大きくなるにつれて近似計算ざれた対数値の精度が上昇すると共に、 最 大誤差が 0. 0 0 2 3 %に抑えられている。
この場合、 対数表サイズ 「 1 2 8」 以降、 対数表サイズ 「 5 1 2」 まで は、 最大誤差が 0. 0 0 2 3 %に収束しているように見えるが、 実際はそ うではない。 図 1 0 (B) に示すように、 1 o g 1 0 (最大誤差) を縦軸 に取った場合、 対数表サイズ 「 128」 以降、 対数表サイズ 「5 12」 を 超えた先までも、. 最大誤差が減少し続けていることがわかる。
( 1— 3— 3 ) 対数計算処理手順
次に、 基本概念となる対数計算処理手順と、 実際の携帯通信端末装置等 に実装されることを想定した場合の具体的な対数計算処理手順とを説明す る。 '
( 1— 3— 3— 1 ) 基本概念となる対数計算処理手順
画像ェン トロピ一算出部 25では、 ルーチン RT 3の開始ステップから 入って次のステップ S P 3 1へ移り、 対数値を求めるべき l o g2xが対 数表テーブルに存在するか否かを判定し、 否定結果が得られると、 次の対 数表参照ル一チン S R T 1におけるステップ S P 32へ移る。
ステップ S P 32において画像ェン ト口ピー算出部 2 5は、 対象表テー ブルに基づいて 1 o g 2 Xの対数値を読み取ることによ り、 1 o g 2 Xの 対数値を容易かつ短時間のうちに求め、 次のステップ S P 35へ移って処 理を終了する。
これに対し、 ステヅプ SP 3 1で肯定結果が得られると、 このことは対 数値を.求めるべき 1 o g2xが対数表テ一ブルには存在せず、 その対数表 テーブルの対数値を用いて近似計算する必要があることを表しており、 こ のとき画像ェントロピー算出部 25は次の近似計算ルーチン S R T 2にお けるステヅプ S P 33へ移る。
ステップ SP 33において.画像ェン ト口ピ一算出部 25は、 1 o. g 2 X. の 「x」 を表す ( 9 ) 式に基づいて 2のべき乗 (ひ) を求め、 次のステツ プ S P 34へ移る。
ステップ S P 34において画像ェン トロピー算出部 25は、 上述した ( 1 0) 式に従って、 l o g2y及び l o g2 (y+ l) 間を、 r : 2a— r.に内分したときの内分点を算出し、 対数表テ一ブルを用いて、 その内分 点に対応した対数値を近似計算により算出した後、 次のステップ S P 3 5 へ移って処理を終了する。
( 1 - 3 - 3 - 2 ) 具体的な対数計算処理手順
ところで、 認証装置 1 としては携帯機器への搭載を考慮している関係で、 精度を維持しながら負荷の少ない整数演算処理を行うことをも目的として いる。
従って、 画像エントロピー算出部 2 5では、 計算精度を維持するために、 対数表テーブルの対数値を整数倍 (この場合、 2のべき乗が望ましい : C = 2。° e f倍) し、 最も近い整数に丸めた後それを 2進数表示した、 べき 乗倍対数表を用意して保持しておくようになされている。
このような前提で画像ェン トロピー算出部 2 5は、 ルーチン R T 4の開 始ステップから入って次のステップ S P 4 1へ移り、 対数値を求めるべき l o g 2 xが、 べき乗倍対数表テーブルに存在するか否かを判定し、 否定 結果が得られると、 次の対数表参照ルーチン S R T 3におけるステップ S P 4 2へ移る。
ステップ S P 4 2において画像ェント口ピ一算出部 2 5は、 べき乗倍対 象表テ一ブルに基づいて 1 ひ g 2 Xの対数値を読み取ることにより、. 1 o g 2 Xの対数値を容易かつ短時間のうちに求め、 その対数値を、 べき乗倍 されている分だけ左へビッ トシフ トすることにより正確な対数値に変換し、 次のステップ S P 4 5へ移って処理を終了する。
これに対し、 ステップ S P 4 1で肯定結果が得られると、 こ ®ことは対 数値を求めるべき 1 o g 2 Xが、 べき乗倍対数表テーブルには存在せず、 当該べき乗倍対数表テーブルの対数値を用いて近似計算する必要があるこ とを表しており、 このとき画像ェン トロピー算出部 2 5は次の近似計算ル —チン S R T 4におけるステップ S P 4 3へ移る。
ステップ S P 4 3において画像ェン ト口ピー算出部 2 5は、 l o g 2 の 「x」 を表す ( 9 ) 式に基づいて 2のべき乗 (ひ) を求め、 次のステツ プ S P 44へ移る。
ステップ S P 44において画像ェン ト口ピー算出部 2 5は、 上述した
( 10) 式に従って、 l o g2y及び l o g2 (y+ 1 ) 間を、 r : 2a- rに内分したときの内分点を算出し、 べき乗倍対数表テーブルを用いて、 その内分点に対応した対数値を近似計算により算出した後、 その対数値を、 べき乗倍されている分だけ左へビッ トシフ トすることにより正確な対数値 に変換し、 次のステップ S P 45へ移って処理を終了する。
( 1— 3—4) 対数計算速度結果
ここで、 図 13には、 上述した具体的な対数計算処理手順 RT 4により 対数計算を行ったときの対数表サイズに応じた処理時間 TT 1と、 パ一ソ ナルコンピュータにより所定の対数計算処理プログラムを用いて従来のよ うに小数点計算を行ったときの処理時間 T T 2とを比較した場合の比較結 果を示す。
この場合、 処理時間 T T 1は、 X二 1、 、 100000までの 1 o g 2xに対する対数計算を対数計算処理手順 R T 4に従って対数表サイ ズを変えながら 100回行い、 1回の対数計算処理時間をそれぞれ計測し てプロヅ トしたものであり、 また処理時間 T T 2は、 所定の対数計算処理 プログラムを用いて X = 1、 、 100000までの 1 o g 2 Xに対 する小数点演算を含む対数計算を、 対数表サイズを変えながら 100回行 い、 1回の対数計算処理畤間をそれぞれ計測してプロッ トしたものである。 この比較結果からも明らかなように、 パーソナルコンピュータにより所 定の対数計算処理プログラムを用いて従来のように小数点計算を行ったと きの処理時間 T T 2よりも、 具体的な対数計算処理手順 R T 4により対数 計算を行ったときの対数表サイズに応じた処理時間 T T 1の方が遥かに短 くなつていることが分かり、 大きな対数表サイズであれば最大誤差を 0; 0023 %程度に抑えた高精度を維持しながら (図 5) 、 約 3倍程度に高 速化されていることが示されている。 . ( 1— 3— 5 ) 画像エン トロピ一の誤差
最後に、 上述した具体的な対数計算処理手順 R T 4を用いて、 図 1 4に 示すような複数の標準画像 (# 1〜# 1 4) に対するそれぞれの画像ェン トロピ一を計算し、 そのエントロピ一誤差を図 1 5に示す。
この場合、 # 2、 # 7等の標準画像におけるエン トロピ一誤差が大きく、 # 5の標準画像におけるェン ト口ピ一誤差が小さくなっていることがわか る。
ここで考えられるのは、 # 2、 # 7等の標準画像については、 画像中の 全体の多くを占める山や空等の割合と平坦な絵柄部分における輝度値の生 起確率が高く、 かつ輝度値の l o g 2 Xが対数表テーブルに表記されてい る対数値ではなく、 上述した ( 1 0 ) 式を用いた近似計算による誤差を含 んだ算出結果であることが予測される。
一方、 # 5の標準画像については、 画像中に色々な輝度値の絵柄が分散 しているものの、 上述した .( 1 0 ) 式を用いた近似計算による誤差を含ん だ算出結果が少なく、 色々な輝度値の l o g 2 Xが対数表テーブルに表記 されている対数値であることが予測される。
但し、 #.2、 # 7等の標準画像のように、 エン トロピ一誤差の大きなも のであっても、 その値は 0. 03 %以下であり、 近似計算による対数値の 算出結果であっても、 十分な誤差の範囲内にあるといえる。
. すなわち画像エン ト ロピー算出部 2 5では、 少数点計算を伴うことがな いため、 処理負荷が小さく、 また小数点計算を行うアプリケーションプロ グラムのため大きなメモリ容量を必要とすることもなく、 短時間かつ高精 度に対数計算を実行することができる。
従って認証装置 1は、 携帯機器に搭載された場合であっても、 十分短い 計算時間で高精度に認証処理を実行することができ、 使い勝手を大幅に向 上することができるようになされている。
( 1— 4 ) 第 1の実施の形態における動作及び効果 以上の構成において、 認証装置 1では、 血管登録モードにおいて、 指を 撮像することにより得られる画像信号 S 2の輝度分布を画像ェン 卜口ピー H i m gで表すこどができることを利用し、 その画像ェン トロピ一 H i m gを テンプレートェン トロピ一 T Hとして用いることにより、 当該テンプレー トェン トロピ一 T H-及び指の血管パターン画像を表したテンプレート画像 デ一夕 S 3による 1組の登録者識別テンプレートデ一夕 T f vをフラッシ ュメモリ 1 3に記憶することにより予めユーザ登録しておく。
従って認証装置 1では、 認証モードにおいて、 登録者識別テンプレード データ T f vのテンプレートエン トロピ一T Hと、 認証対象者の画像ェン ト 口ピー H i m gとの差分絶対値が所定の許容誤差△ Hよりも小さいか否かを 判定することにより、 第 1段階として、 エントロピ一の観点から認証処理 を実行したうえで、 そこをクリアした場合にのみ登録者識別テンプレート データ T f vのテンプレート画像デ一夕 S 3 と、 認証対象者の血管パ夕一 ン画像を示す画像デ一夕 S 2 1 とを用いてパターンマッチング処理を行う。 これにより認証装置 1は、 認証対象者と登録者とがー致するか否かをェ ン トロピーの観点及びパターンマッチングの観点の 2段階に分けて高精度. に判定することができる。
特に認証装置 1では、 テンプレートエン トロピ一 T Hを用いてェン ト D ピーの観点からも認証処理を.行うようにしたことにより、 仮にテンプレー ト画像データ S 3が盗まれたときであっても登録者の指の元画像を所持し ていない擬似指を作製しょうとする悪意の不正ユーザに画像ェント口ピ一 H i m gについてまで偽造させることを困難ならしめ、 エン トロピーの観点 からも認証処理を行うことにより誤認証を高い確率で防止しながら、 なり すましを効果的に防止することができる。
さらに認証装置 1は、 指の画像デ一夕 S 2の輝度分布を表したヒス トグ ラムに比べて画像ェン トロピー H i m gの値をテンプレートエン トロピ一 T Hとしてテンプレート画像データ S 3に付加するだけなので、 画像デ一夕 S 2の輝度分布をデ一夕として保持する場合よりも格段に少ない情報量で 効率良くなりすまし防止を実現することができる。
ところで認証装置 1では、 認証処理のために情報ェン トロピーという概 念を用いるようにしたことにより、 画像デ一夕 S 2、 S 2 0を生成したと きの撮像条件の変化によって、 画像データ S 2と画像デ一夕 S 2 0 とでは 全体的な明るさが変化していたとしても、 画像ェン トロピー H i m gの値に 影響がないので、 血管登録モード時と、 認証モード時の撮像条件に違いに よる誤判定を生じさせることがない。
さらに認証装置 1は、 図 1に示したように、 マスク領域外の指領域抽出 画像 S 4、 S 2 2について画像ェン トロピ一 H i m gを算出したときの値と、 マスクなしの画像デ一夕 S 2について画像ェン トロピー H i m gを算出した ときの値とがほぼ等しくなるため、 指を撮像した結果得られる画像デ一夕 S 2に含まれる指領域だけを抽出した指領域抽出画像 S 4について画像ェ ン トロピー H i m gを算出すればよいので、 指領域以外の不要な領域に対す る計算量を減少させ、 かつェン ト口ピーの観点からの認証処理に要する時 間を短縮することができる。
このように認証装置.1は、 指領域抽出画像 S 4、 S 2 2についてのみ画 像ェン トロピ一 H i m gを算出すればよいので、 指領域以外に不鮮明な画像 部分があった場合でもマスク処理してしまえばよく、 その結果として認証 対象者の指を撮像する際の撮像条件を緩和し得、 かく して認証処理時にお けるユーザの操作性を大幅に向上することができる。 . 以上の構成によれば、 認証装置 1は従来からあるテンプレートマツチン グによる認証処理に加えて、 情報ェン ト口ピーによる認証処理を行うよう にしたことにより、 簡易な構成でかつ本人以外のなりすましによる誤認証 を高い確率で防止することができる。
( 2 ) 第 2の実施の形態
( 2 - 1 ) 第 2の実施の形態における基本原理 ここでは、 最初に第 2の実施の形態における基本原理を説明する。
( 2 - 1 - 1 ) 画像ェン トロピーに重み付けを用いた排他制御
第 2の実施の形態では、 画像の特徴量を利用して認証を行う場合、 非生 体の擬似指によるなりすまし画像を用いた登録を初期段階で排除し、 認証 処理時において'も擬似指によるなりすましを確実に排除するための手法で ある。
具体的には、 例えば指静脈等の血管パターンの画像に対する特徴量を抽 出するために用いた画像の画像ェン トロピ一 H i mgに対して画素値分布に 依存した重み付け処理を施すことにより重付け画像エン トロピ一H i mgw (後述する) を生成し、 これを用いて非生体によるなりすまし画像の画像 登録や誤認証を排除することを可能とするものである。 ここでは、 重付け 画像エン トロピ一について最初に説明する。
( 2— 1一 2 ) 重付け画像エン トロピー ' ' 上述したように画像ェントロピーとは、 画像の輝度値を用いた情報ェン ドロピーのことであって.、 ある画素値の出現確立 p iとした場合、 その自 己情報量は— 1 o g P iと表すことができ、 自己情報量の期待値一 P i 1 0 g 2 p iの総和を意味する。 すなわち画像ェン トロピ一 Hを定義した場 合、 当該画像ェン トロピ一 Hは、 上述したように ( 1 ) 式で表される。 今、 画像を 8ビッ トのグレイスケールで画素値 1 ( 1 = 0、 ···、 2 5 5 ) の 2 5 6階調であるとした場合、 画像ェン トロピー H i mgは、 上述し たように ( 2 ) 式で表すことができる。 、 '
この ( 2 ) 式に対して、 画像の輝度を表す画素値分布に依存した重み付 け wLを用意し、 その重み付け wLによる重付け画像エン トロピ一 H imgw は次式によって表和される。
255
Himgw =-^wLpL log 2 pL (11) ここで、 画素値 Lの出現確率 p iは、 画像サイズを幅 Sw、 高さ SH、 総 画素数 N二 Swx SHとし、 画素値 Lの画素数 nLとした場合、 出現確率 p iは、 上述したように ( 3 ) 式となる。
従って、 ( 3 ) 式を用いれば、 重付け画像ェン ト ΰピ一 Hi mgwは、 次 式によって表される。
Figure imgf000031_0001
1
L=0
=
Figure imgf000031_0002
なお、 画素数 njま、.正数値であるため、 高速処理及び対数処理が出来 ない処理系においては、. l o g 2 nLの表を持てば重付け画像ェン トロピ 一 Himgwを瞬時に得ることができる。
( 2— 1— 3 ) 画素値分布による重み付け
ここでは、 上述した画像の輝度を表す画素値分布に依存した重み付け W の決め方について説明する。
重み付け ま、 例えば図 1 6 ( A) に示すような画像の画素値ヒ'ス ト グラムの場合、 例えば図 1 6 (B) に示すような正規分布のパターン形状 でなる重み付け wLを当該画素値ヒス トグラムに施すことにより、 画素値 ヒス トグラムの画素値分布をその中心で最大値 (この場合 「 1」 ) となる ように補正する。
この場合、 図 1 6 ( A) に示した画素値ヒス トグラムに基づいて算出し た画像エン トロピー H i mgの値と、 図 1 6 ( B ) に示した重み付け wLが 施された画素値ヒス トグラム (図示せず) に基づいて算出した重付け画像 ェン トロピー H i m g wの値とは、 当然異なった値になる。
( 2 - 1 - 4 ) 生体または非生体の識別
血管パターンによる個人認証を行う場合に、 この手法を取り入れる。 例 えば、 グミで作製された擬似指を一定時間固定して配置したときの撮像結 果として得られる画像デ一夕と、 それぞれ異なる 3人の人間の指を一定時 間固定して配置したときの撮像結果として得られる画像デ一夕とを用意し、 マスク処理後の画像エン トロピーをそれぞれ計算する。
具体的には、 認証装置における所定位置に配されたグミによる擬似指、 3種類の人指 1、 人指 2及び人指 3を一定時間固定し、 重み付け 無し の場合と、 上述した図 1 6 ( B》 の重み付け を施した場合とにおける フレーム毎の画像エン トロピ一変化を図 1 7及び図 1 8に示す。
この場合、 重み付け w L無しのェン ト口ピー変化では (図 1 7 ) 、 フレ ーム毎の画像ェン ト口ピーの値の変化は殆ど見られないのに対し、 重み付 け w Lが施された画像エントロピ一変化では、 人指 1、 人指 3で画像ェン ト口ビーの値が大きく変化しており、 このことからも画像ェン ト口ビ"^に よって人間の違いをある程度識別できることがわかる。
なお、 人指 2及び擬似指に関しては、 重み付け が施された画像ェン ト口ピ一であっても、 重み付け 無しの場合と同様にフレーム毎の画像 ェン トロピーの値の変化が見られない。 この原因は、 画素値ヒス トグラム の分布形状と、 重み付け の分布形状とが非常に近似していることによ ると考えられる。 .
例えば図 1 9 ( A ) 及び (B ) に示すように、 人指 1では、 画素値ヒス トグラムの分布形状を構成するピークの位置と、 重み付け の分布形状 を構成するビークの位置とがずれているのに対し、 図 2 0 ( A ) 及び ( B ) に示すように、 人指 2では画素値ヒス トグラムの分布形状を構成す るピークの位置と、 重み付け w Lの分布形状を構成するピークの位置とが ほぼ重なり、 互いの分布形状についても非常に近似していることが分かる。 つまり、 人指 1では画素値ヒス トグラムの分布形状を構成するピークの 位置と、 重み付け w Lの分布形状を構成するピークの位置とがずれている ため、 確率的に稀有な画素値の自己情報量期待値の影響が大きくなり、 画 像ェント口ピーが安定しない傾向になる。
一方、 人指 2では画素値ヒス トグラムの分布形状を構成するピークの位 置と、 重み付け の分布形状を構成するピークの位置とがほぼ重なり、 互いの分布形状についても非常に近似しているため、 確率的に稀有な画素 値の自己情報量期待値は一層小さくな 3
1り、 画像ェン トロピーとしてはより 安定する結果となる。
そこで実際に、 擬似指、 人指 1、 人指 2及び人指 3における画像ェン ト 口ピーの平均値と標準偏差どを求めてみた結果を図 2 1に示す。 画像ェン トロピーの平均値の差は、 重み付け の分布形状と、 画素値ヒス トグラ ムの分布形状との違いを表しており、 画像ェント口ピーの標準偏差の差は、 画素値ヒス トグラムの分布 状の不安定度を表して.いる。
つまり、 人指 1、 '人指 3では、. 画像エン トロピ一の平均値の差が中程度 であるため、 その画素値ヒストグラムは重み付け w Lの分布の中心から外 れた画素値の出現確率が不安定となっていることが予測されるが、 これは ある意味、 生体では血流等の存在により自然であって当然の結果といえる。 人指 2は、 画像エン トロピーの平均値の差が比較的小さいため、 重み付 け w Lの分布形状に似た画素値ヒス トグラムであって、 かつ画像ェン.トロ ピーの標準偏差における差が小さいため、 重み付け の分布の中心付近 における画素値の出現確率が安定していることが予測され、 これは非常に 明確な静脈が撮像されているといえる。
一方、 擬似指は、 画像エン トロピ一の平均値の差が比較的大きいため、 . 重み付け の分布の中心付近から外れた画素値の出現確率が高く、 かつ 画像ェン ト口ピーの標準偏差における差が小さいため、 画素値全体に渡つ て出現確率が安定していることが分かる。 これは生体を撮像した結果得ら れる画像としては、 極めて不自然と言わざるを得ない結果である。
ここで人指 2と擬似指とでは、 双方共に画像ェントロピーの標準偏差に おける差が比較的小さいため、 人指 2と擬似指とを明確に区別できるよう にする必要がある。 人指 2は、 重み付け wtの分布形状が自身の画素値ヒ ス トグラムの分布形状と似ているがために、 画像ェン ト口ピーの標準偏差 も安定しているが、 上述した分布形状の重み付け (図 1 6 (B) ) と は異なる分布形状の重み付け W L 2を与えた場合について調べてみる。 図 2 2 ( A) に示すような人指 2における画像の画素値ヒス トグラムの 場合、 '例えば図 2 2 (B ) に示すような分布形状でなる重み付け wL 2を 当該画素値ヒス トグラムに施した場合、 重み付け のときと同様、 連続 画像の画像エン トロピ一変化を調べる。
図 2 3 (A) は、 図 1 ◦において上述した重み付け が施された連続 画像の画像ェントロピ一変化 (標準偏差) を示し、 図 2 3 (B) は、 重み 付け wL 2が施された連続画像の画像ェン ト口ビー変化 (標準偏差) を示 す。
この場合、 図 2 3 (B) に示したように、 重み付け wL 2が施された連 続画像の画像エン トロピー変化 (標準偏差) では、 人指 1及び人指 3につ いては、 やはり画像エン トロピ一が不安定な状態にあることが分かる。 重み付け無しの連続画像の画像エン トロピー変化 (図 1 7 ) と、 重み付 け wLが施された連続画像の画像エン トロピ一変化.(図 2 3 ( A) ) と、 重み付け wL 2が施された連続画像の画像エン ト ロ ピ一変化 (図 2 3 (B) ) とを比較した結果を図 24に示す。
この場合、 人指 2については、 重み付け wL 2が施された連続画像の画 像ェン ト口ピ一における標準偏差に変化が見られるようになつた。 この理 由は、 重み付け W L 2 (図 2 2 (B ) ) の分布形状が人指 2の画素値ヒス トグラムの分布形状と近似していないため、 画素値として稀有な自己情報 量期待値をより重み付けし、 さらにその画寒自体が連続画像中で安定的に 出現していないことを意味しているからである。
一方、 擬似指に関しては、 重み付け W Lが施された連続画像の画像ェン ト口ピーにおける標準偏差、 及び重み付け w 2が施された連続画像の画 像ェン トロピーにおける.標準偏差ともに小さく、 重み付け W L 2が施され た場合であっても連続画像の画像エントロピー変化 (標準偏差) は安定し ている。
このように二つ以上の互いに相反する特性の分布形状でなる重み付け W
L s 重み付け を用いて動きのない連続画像の画像ェン ト口ビー変化
(標準偏差) を確認すれば、 非生体に関しては何れにしても連続画像の画 像ェン トロピー変化.(標準偏差) が小さいのに対し、 人指 1〜人指 3につ いては必ず連続画像の画像エン トロピ一変化 (標準偏差) が大きくなるた め、 生体若しくは非生体かを確実に識別することが可能となる。
( 2— 2 ) 第 2の実施の形態における認証装置
上述したように、 生体又は非生体を識別したうえで認証処理を行う第 2 の実施の形態における認証装置について説明する。
( 2— 2— 1 ) 第 2の実施の形態における認証装置の回路構成
図 4に示すように第 2の実施の形態における認証装置 1 0 0ついては、 第 1の実施の形態における制御部 1 0に替えて制御部 1 1 0が設けられて いる以外、 認証装置 1 と同一の回路構成であるため、 ここでは便宜上その 説明を省略する。 . - · 第 2の実施の形態における認証装置 1 0 0においても、 登録者の血管を 登録する血管登録モ一ドの実行命令 C O M 1、 又は登録者本人の当否を判 定する認証モードの実行命令 C O M 2が、 操作部 1 1に対するユーザの操 作に応じて与えられる。
制御部 1 1 0は、 かかる実行命令 C O M 1、 C O M 2に基づいて実行す べきモードを決定し、 この決定結果に対応するアプリケ一ションプログラ ム (登録プログラム又は認証プログラム) に従って、 血管撮像部 1 2、 フ ラッシュメモリ ί 3、 外部ィン夕フエース 1 4及び通知部 1 5を適宜制御 することによって、 血管登録モード又は認証モードを実行するようになさ れている。
( 2 - 2 - 2 ) 血管登録モード
この認証装置 1 0 0の制御部 1 1 0は、 実行すべきモ一ドとして血管登 録モードを決定した場合、 動作モードを血管登録モードへ遷移し、 血管撮 像部 1 2を制御する。
この場合、 血管撮像部 1 2の駆動制御部 1 2 aは、 この認証装置 1にお ける所定位置に配された登録者の指に対して近赤外光を照射する 1又は 2 以上の近赤外光光源 L Sと、 撮像カメラ C Mにおける C C Dでなる撮像素 子 I Dとを駆動制御するようになされている。
この結果、 血管撮像部 1 2では、 登録者の指に照射された近赤外光が当 該指の内方を反射及び散乱しながら経由し、 指の血管を投影する血管投影 光として、 光学系〇 Pや絞り D Hを介して撮像素子 I Dに入射する。 撮像. 素子 I Dは、 この血管投影光を光電変換し、 その光電変換結果を画像信号 S 1 として駆動制御部 1 2 aベ出力するようになされている。
因みに、 指に照射される近赤外光は、 実際、 当該指の表面で反射して撮 像素子 I Dに入射するものであるため、 この撮像素子 I Dから出力される 画像信号 S 1の画像は、 指内方の血管だけではなく、 指輪郭や指紋につい ても含まれることになる。
血管撮像部 1 2の駆動制御部 1 2 aは、 この画像の画素値に基づいて、 指内方の血管に焦点が合うように光学系 0 Pにおける光学レンズのレンズ 位置を調整すると共に、 撮像素子 I Dに入射する入射光量が適応量となる ように絞り D Hにおける絞り値を調整し、 当該調整後に撮像素子 I Dから 出力される画像信号 S 2を制御部 1 1 0へ供給する。
制御部 1 1 0は、 この画像信号 S 2に対して所定の画像処理を施すこと によって、 指の血管の特徴を表す血管パターンを抽出した血管パターン画 像を生成すると共に、 その血管パターン画像に基づいて画像ェン トロピー
H i m gを算出し、 その画像エントロピ一 H i m gに対して 2通りの重み付け w L及び w L 2が施された連続画像のエン トロピー変化 (標準偏差) を基に 生体であるか非生体であるかを識別し、 生体であることを認識した場合に 当該血管パターン画像及びその画像ェン ト口ピ一 H i m gの組み合わせでな る登録者識別テンプレートデ一夕 T f vを生成し、 これをフラッシュメモ リ 1 3に記憶することにより登録処理を終了する。
次に、 認証装置 1 0 0の制御部 1 1 0における画像処理の具体的な内容 について説明する。 図 2 5に示すように制御部 1 1 0は、 前処理部 2 1、 画像ェン ト口ピ一計算プロック 2 3、 登録部 2 6、 生体識別部 1 1 1及び 照合部 2 7によって機能的に分けられた構成を有し、 血管撮像部 1 2から 供給される画像信号 S 2を前処理部 2 1へ入力すると共に、 画像ェン ト口 ピ一計算プロック 2 3のマスク処理部 2 4へ入力する。
前処理部 2 1は、 画像信" S 2に対してアナログディジ夕ル変換処理、. ソ一べルフィル夕処理等による所定の輪郭抽出処理、 ガウシアンフィル夕 処理等による所定の平滑化処理、 2値化処理及び細線化処理を順次施し、 その結果得られる血管パターン画像を表したテンプレート画像データ S 3 を登録部 2 6へ送出する。
画像ェン ト口ピー計算プロック 2 3のマスク処理部 2 4は、' 血管撮像部 1 2から供給される画像信号 S 2に基づいて血管パターンが表れている指 領域だけを抽出するためのマスク画像 (図 2 ) を生成し、 そのマスク画像 を用いて指領域抽出画像 S 4を生成し、 これを画像ェン トロピ一算出部 2 5へ送出する。
画像エン トロピ一算出部 2 5は、 指領域抽出画像 S 4を基に、 上述した ( 4 ) 式に従って画像エン トロピ一 H i m gを算出し、 これをテンプレート ェン トロピ一 T Hとして生体識別部 1 1 1へ送出する。 この場合も、 上述 した ( 1 一 3 ) 画像ェント口ピー算出部 2 5における対数計算高速化手法 を用いることが可能である。
生体識別部 1 1 1は、 上述した ( 2 _ 1— 4 ). 生体または非生体の識別 における説明に従って、 テンプレートェン トロピー T Hが非生体の値であ ると判別したとき、 そのテンプレートェン トロピー T Hを登録部 2 6へ送 出することを停止し、 登録処理を中止する一方、 テンプレートエン ト ロピ — T Hが生体 (人間) の値であると判別したときのみ、 そのテンプレート ェン トロピー T Hを登録部 2 6へ送出するようになされている。
登録部 2 6は、 前処理部 2 1から供給された血管パターン画像を表した テンプレート画像デ一夕 S 3 と、 生体識別部 1 1 1から供給されたテンプ レートエン ト ロピー T Hとを 1対の組み合わせとした登録者識別テンプレ ートデ一夕 T f vを生成し、 これをフラッシュメモリ 1 .3に記憶して登録 するようになされている。
このようにして認証装置 1の制御部 1 0は、 血管登録モードを実行し得 るようになされており、 この血管登録モードにおける血管登録処理手順に ついて、 次の図 2 6を用いて説明する。
認証装置 1 0 0の制御部 1 1 0は、. ルーチン R T 5の開始ステヅプから 入って次のステップ S P 5 1へ移り、 登録者の指の連続画像を撮像するた め、 フレーム番号 iに対して初期値 「 1」 を設定し、 次のステツプ S P 5: 2へ移る。
ステップ S P 5 2において制御部 1 1 0は、 血管撮像部 1 2により、 ュ —ザの指を撮像した画像信号 S 2を生成し、 これを制御部 1 0の前処理部 2 1へ送出すると共に、 画像ェントロピーブロック 2 3のマスク処理部 2 4へ送出した後、 次めステップ S P 5 3へ移る。
ステップ S P 5 3において制御部 1 1 0は、 マスク処理部 2 4により、 血管撮像部 1 2から供給される画像信号 S 2に基づいて血管パターンが表 れている指領域だけを抽出するためのマスク画像を生成すると共に、 前処 理部 2 1により血管パターン画像を表したテンプレート画像データ S 3を 生成し、 次のステップ S P 5 4へ移る。
ステップ S P 5 4において制御部 1 1 0は、 ステップ S P 5 3で生成し たマスク画像を血管撮像部 1 2から供給される画像信号 S 2に対して適用 することにより指領域抽出画像 S 4を生成し、 次のステップ S P 5 5へ移 る。
ステップ S P 5 5において制御部 1 1 0は、 指領域抽出画像 S 4を基に 画像ェン トロピー H i m gを算出し、 これをテンプレートエン トロピ一 T H として保持した後、 次のステップ S P 5 6へ移る。
ステップ S P 5 6において制御部 1 1 0は、 フレーム番号 iが所定時間 分の連続画像を生成するのに必要なフレーム番号の最大値を超えたか否か を判定する。 ここで否定結果が得られると、 このことは所定時間分に相当 する指の連続画像を生成するのに必要な所定フレーム数の画像信号 S 2を 未だ撮像し終えていないこどを表しており、 このとき制御部 1 1 0は次の ステップ S P 5 7へ移る。 .
ステップ S P 5 7において制御部 1 1 0は、 フレーム番号 iに対して力 ゥン ト値 「 1」 をインクリメン トした後、 スチップ S P 5 2以降の処理を 繰り返す。.
これに対してステップ S P 5 6で肯定結果が得られると、 このことは所 定時間分に相当する指の連続画像を生成するのに必要な所定フレーム数の 画像信号 S 2を既に撮像し終えたことを表しており、 このとき制御部 1 1 0は次のステップ S P 5 8へ移る。
ステップ S P 5 8において制御部 1 1 0は、 ステップ S P 5 5で算出し た画像ェン トロピ一 H i m gに対して、 相互に分布形状がそれぞれ相反する ょぅな複数種類の重み付け ^〜 ^を施すため、 重付け番号 jに対して 初期値 「 1」 を設定し、 次のステップ S P 5 9へ移る。
ステップ S P 5 9において制御部 1 1 0は、 重付け番号 「 1」 として設 定された重付け wLにより画像エン トロピー Hi mgを重み付けすることに より重付け画像エン トロピー Hi mgwを生成し、 次のステップ SP 60へ 移る。
ステップ S P 60において制御部 1 1 0は、 ステップ S P 59で生成し た重付け画像エン ト ロ ピー Hi m gwに対するエン ト ロ ピー変化 (標準偏 差) を求め、 次のステップ S P 6 1へ移る。
ステップ S P 6 1において制御部 1 10は、 ステップ S P 60で求めた 標準偏差が所定の閾値 (この場合、 擬似指を排除するためなので、 「 1 0」 を設定 (図 24参照) すればよい) 以下か否かを判定する。
ここで肯定結果が得られると、 このことは重み付け番号により特定され た重付け wLにより生成された重付け画像エン ト ロ ピ一Hi mgwの標準偏 差にばらつきが少なく、 擬似指である可能性が高いことを表しており、 こ のとき制御部 1 10は次のステヅプ S P 62へ移る。
ステップ S P 62において制御部 1 10は、 重付け番号 jが重み付け w L nの全種類に相当する最大値を超えたか否かを判定する。 ここで否定結 果が得られると、 このことは画像ェン 卜口ビ一Hi mgに対して全種類の重 付けを行っていないことを表し'ており、 このとき制御部 1 10は次のステ . ヅプ S P 63へ移る。
ステップ S P 63において制御部 1 10は、 重付け番号 jに対してカウ ント値 「 1」 をインク リメン トした後、 ステップ S P 59以降の処理を繰 り返すことにより、 画像ェン 卜口ピー H i mgに対して全ての種類の重み付 け を施し、 それぞれの標準偏差が閾値以下になるか否かを判定する。 その結果、 ステップ S P 62で肯定結果が得られると、 このことは全て の種類の重付け wLnを施した結果の重付け画像ェン ト口ピ一 H i mgwの標 準偏差にばらつきが少なく、 擬似指である可能性が極めて高いことを表し ており、 このとき制御部 1 10は次のステップ S P 64へ移る。
ステップ S P 64において制御部 1 10は、 認証装置 100に配された 指が擬似指である可能性が極めて高いため、 登録処理を行うことなく、 次 のステップ S P 6 7へ移って血管登録処理を終了する。 なお、 このとき制 御部 1 1 0は、 「登録できません」 のエラ一メッセージを表示する。
これに対してステップ S P 6 1で否定結果が得られると、 このことは所 定の重付け w L nを施したときの重付け画像ェント口ピー H i m g wの標準偏 差が閾値を超えており、 これは重付け画像ェン トロピー H i m g wの標準偏 差にばらつきがあること、 すなわち生体であれば血流等の要因'によって極 めて自然な現象であるため、 認証装置 1 0 0に配された指が実際の人間の 指である可能性が高いことを表しており、 このとき制御部 1 1 0は次のス テツプ S P 6 5へ移る。
ステップ S P 6 5において制御部 1 1 0は、 重付け画像ェン トロピー H i m g wに基づいて擬似指ではないと判別し得たので、 ステップ S P 5 3で 生成した血管パターン画像を表したテンプレー卜画像データ S 3と、 ステ ップ S P 5 5で求めたテンプレートエン トロピ一 T Hとを登録部 2 6によ り組み合わせることにより 1対の登録者識別テンプレートデ一夕 T f vを . 生成し、 次のスデップ S P 6 6へ移る。
ステツプ S P 6 6において制御部 1 1 0は、 登録者識別テンプレートデ ' —夕 T f vをフラッシュメモリ 1 3に記憶することにより登録処理を行い、 次のステップ S P 6 7へ移って血管登録処理を終了する。
( 2— 2— 3 ) 認証モード
一方、 この認証装置 1 0 0の制御部 1 1 0は、 実行すべきモードとして 認証モードを決定した場合、 動作モードを認証モードへ遷移し、 上述の血 管登録モードの場合と同様にして血管撮像部 1 2を制御する。
この場合、 血管撮像部 1 2の駆動制御部 1 2 aは、 近赤外光光源 L S及 び撮像素子 I Dを駆動制御すると共に、 当該撮像素子 I Dから出力される 画像信号 S 1 0に基づいて光学系 0 Pにおける光学レンズのレンズ位置及 び絞り D Hの絞り値を調整し、 当該調整後に撮像素子 I Dから出力される 画像信号 S 2 0を制御部 1 1 0へ送出する。
制御部 1 1 0は、 この画像信号 S 2 0に対して、 上述の血管登録モード の場合と同様の画像処理を前処理部 2 1によって施すと共に、 画像ェン ト 口ピ一計算プロック 2 3により上述の血管登録モードの場合と同様の画像 ェン トロピー算出処理を施し、 血管登録モードのときにフラッシュメモリ 1 3に予め登録した登録者識別テンプレートデータ T f vを読み出す。
そして制御部 1 1 0は、 前処理部 2 1により得られた血管パターン画像 を表した画像データ S 2 1及び画像ェン ト口ピ一計算プロック 2 3により 得られた画像エン トロピー H i m gと、 フラッシュメモリ 1 3から読み出し た登録者識別テンプレートデータ T f vのテンプレート画像データ S 3及 びテンプレートェン トロピー T Hとを照合部 2 7によりそれぞれ照合し、 その照合の程度に応じて、 このとき指を配したユーザが登録者 (正規ユー ザ) であるか否かを判定する。
なお制御部 1 1 0は、 上述の照合処理を行う前に、 認証装置 1 0 0に配 ざれた指が擬似指であるか否かを判定し、 擬似指であると判定した場合に は照合処理を行うまでもなく、 認証処理が失敗したと判別し、 その旨を通 知するようになされている。
. 制御部 1 0は、 認証装置 1 0 0に指を配したユーザが登録者であると判 定したとき、 外部ィン夕フヱ一ス 1 4に接続された動作処理装置 (図示せ ず) に対して所定の動作を行わせる実行命令 C O M 3を生成し、 これを外 部イン夕フェース 1 4を介して動作処理装置へ転送するようになされてい - る。
この外部ィン夕フヱース 1 4に接続された動作処理装置の実施態様とし ては、 上述したように例えば閉錠状態にある ドアを採用した場合、 制御部 1 1 0は、 開錠動作を行わせる実行命令 C O M 3を ドアへ転送する。
また、 他の動作処理装置の実施態様例として、 複数の動作モードのうち 一部の動作モードを制限した状態にあるコンピュータを採用した場合、 制 御部 1 1 0は、 その制限された動作モードを開放させる実行命令 C O M 3 をコンピュー夕へ転送する。
なお、 この場合も実施態様として 2つの例を挙げたが、 これらだけに限 らず、 他の実施態様についても適宜選択することができる。 また、 本実施 の形態では、 動作処理装置を外部ィン夕フェース 1 4に接続するようにし たが、 当該動作処理.装置におけるソフ トウェア乃至ハードウェアの構成を この認証装置 1 0 0に搭載するようにしても良い。
これに対して、 制御部 1 1 0は、 認証装置 1 0 0に指を配したユ^ "ザが 登録者ではないと判定したとき、 その旨を通知部 1 5の表示部 1 5 aを介 して表示すると共に、 当該通知部 1 5の音声出力部 1 5 bを介して音声出 力することにより、 登録者ではないと判定したことを視覚的及び聴覚的に 通知し得るようになされている。
このようにして認証装置 1 0 0は、 認証モードを実行し得るようになさ れている。 この認証モードにおける認証処理手順について、 次の図 2 7を 用いて説明する。
認証装置 1 0 0の制御部 1 1 .0は、 ルーチン R T 6の開始ステップから 入って次のステップ S P 7- 1へ移り、 フラッシュメモリ 1 3に予め登録さ れた登録者識別テンプレー卜デ一夕 T f v (テンプレート画像データ S 3 及びテンプレートエン トロピ一T H ) を読出し、 次のステップ S P 7 2へ 移る。 . 、
ステップ S P 7 2において制御部 1 1 0は、 指の連続画像を撮像するた め、 フレーム番号 iに対して初期値 「 1」 を設定し、 次のステップ S P 7 3へ移る。
ステップ S P 7 3において制御部 1 1 0は、 血管撮像部 1 2により、 ュ 一ザの指を撮像した画像信号 S 2 0を生成し、 これを制御部 1 0の前処理 部 2 1へ送出すると共に、 画像ェン トロピーブロック 2 3のマスク処理部 2 4へ送出した後、 次のステップ S P 7 4へ移る。 ステップ S P 7 4において制御部 1 1 0は、 マスク処理部 2 4により、 血管撮像部 1 2から供給される画像信号 S 2 0に基づいて血管パターンが 表れている指領域だけを抽出するためのマスク画像を生成すると共に、 前 処理部 2 1により血管パターン画像を表した画像デ一夕 S 2 1を生成し、 次のステップ S P 7 5へ移る。
ステップ S P 7 5において制御部 1 1 0は、 ステップ S P 7 4で生成し たマスク画像を血管撮像部 1 2から供給される画像信号 S 2 0に対して適 用することにより指領域抽出画像 S 2 2を生成し、 次のステップ S P 7 6 へ移る。
ステップ S P 7 6において制御部 1 1 0は、 指領域抽出画像 S 2 2を基 に画像:! ントロピー H i m gを算出し、 これを保持した後、 次のステップ S P 7 7へ移る。
ステップ S P 7 7において制御部 1 1 0は、 フ レーム番号 iが所定時間 分の連続画像を生成するのに必要なフレーム番号の最大値を超えたか否か を判定する。 ここで否定結果が得られると、 このことは指の所定時間分の 連続画像を生成するのに必要な所定フレーム数の画像信号 S 2を未だ撮像 し終えていないことを表しており、 このとき制御部 1 1 0は次のステップ S P 7 8へ移る。
ステップ S P 7 8において制御部 1 1 0は、 フレーム番号 iに対して力 ゥン ト値 「 1」 をインクリメントした後、 ステップ S P 7 3以降の処理を 繰り返す。 - これに対してステップ S P 7 7で肯定結果が得られると、 このことは指 の所定時間分の連続画像を生成するのに必要な所定フレーム数の画像信号 S 2を既に撮像し終えたことを表しており、 このとき制御部 1 1 0は次の ステップ S P 7 9へ移る。
ステップ S P 7 9において制御部 1 1 0は、 ステップ S P 7 6で算出し た画像ェン トロピ一H i m gに対して互いに分布形状が相反する複数種類の 重み付け jを施すため、 重付け番号 jに対して初期値 「 1」 を設 定し、 次のステップ S P 80へ移る。
ステップ S P 80において制御部 1 10は、 生体識別部 1 1 1により、 重み付け番号 「 1」 として設定された重付け により画像ェン トロピー H i m gを重み付けすることにより重付け画像ェン トロピー Himgwを生成 し、 次のスデヅプ SP 8 1へ移る。
ステップ S P 8 1において制御部 1 10は、 ステップ S P 80で生成し た重付け画像ェン トロピ一 Himgwに対するェント口ピ一変化 (標準偏 差) を求め、 次のステップ S P 82へ移る。
ステップ S P 82において制御部 1 10は、 生体識別部 1 1 1により、 ステップ S P 8 1で求めた重付け画像ェン トロピ一 H i m gwの標準偏差が 所定の閾値 (この場合も、 擬似指を排除するためなので、 「 1 0」 を設定 すればよい) 未満であるか否かを判定する。
ここで肯定結果が得られると、 このことは重み付け番号 jにより特定さ れる重付け wLによって生成された重付け画像エン トロピ一Himgwの標 準偏差にばらつきが少なく、 擬似指である可能性が高いことを表しており、 このとき制御部 1 10は次のステップ S P 83へ移る。 .
ステップ S P 83において制御部 1 10は、 重付け番号 jが重み付け w L nの全種類に相当する最大値を超えたか否かを判定する。 ここで否定結 果が得られると、 このことは画像ェントロピ一Himgに対して全種類の重 み付け w L nを行つていないことを表しており、 このとき制御部 1 10は 次のステップ S P 84へ移る。 '
ステヅ プ S P 84において制御部 1 10は、 重付け番号 jに対してカウ ン ト値 「 1丄をインクリメン トした後、 ステップ S P 80以降の処理を繰 り返すことにより、 画像ェント口ピー H i mgに対して全ての種類の重み付 け を施し、 それぞれの標準偏差が閾値以下になったか否かを判定す る。 その結果、 ステップ S P 8 3で肯定結果が得られると、 このことは全て の種類の重み付け wLnを施した結果の重付け画像ェン トロピー H i mgwの 標準偏差にばらつきが少なく、 擬似指である可能性が極めて高いことを表 しており、 このとき制御部 1 1 0は次のステップ S P 8 5へ移る。
ステップ S P 8 5において制御部 1 1 0は、 認証装置 1 0 0に配された 指が擬似指である可能性が極めて高いため、 この時点で照合部 2 7による 認証のための照合処理を行うことなく、 次のステツプ S P 9 0へ移って処 理を終了する。 なお、 このとき制御部 1 1 0は、 「認証に失敗しました」 のエラーメッセージを表示する。
これに対してステップ S P 8 2で否定結果が得られると、 このことは所 定の重付け番号 jに対応した重み付け wl nを施したときの重付け画像ェ ン 卜ロピ一Hi mgwの標準偏差が閾値を超えており、 これは標準偏差にば らつきがあって生体であれば血流等の要因によって極めて自然に起こり得 ることであって、 認証装置 1 0 0に配された指が実際の人間の指である可' 能性が高いことを表しており、 このとき制御部 1.1 0は次のステップ S P 8 6へ移る。
. ステツプ S P 8 6において制御部 1 1 0は、 ステップ S P 7 1で読み出 した登録者識別テンプレートデ一夕 Τΐ νのテンプレートエン トロピー TH と、 ステップ SP 7 6で算出した認証対象者の画像ェントロピ一 Himgと の差分絶対値が所定の許容誤差 Δ Ηよりも小さいか否かを照合部 2 7によ り判定する。
この場合も、 テンプレートエントロピー THと、 認証対象者の画像ェン ト口ピ一Hi mgとの差分絶対値が所定の許容誤差 ΔΗよりも小さいか否か を判定する理由は、 画像ェントロビー Hi mgが画像信号 S 2における輝度 パターンのダイジェス ト値のようなものであり、 あくまで精密な値ではな いため、 テンプレートエン トロピ一THと照合する際、 判定にはある程度 の幅を持たせる必要があるからである。 ここで否定結果が得られると、 このことは認証対象者の画像ェン トロピ 一 H i m gが、 予め登録されていたテンプレートエン ト ロピ一THの値から 一定範囲内にないこと、 すなわち画像ェン トロビ一 Himgの算出元である 指領域抽出画像 S 2 2の輝度分布と、 テンプレートエン ト ロピ一THの算 出元である指領域抽出画像 S 4の輝度分布との相違点が多いことを表して おり、 このとき制御部 1 1 0は次のステップ S P 8 5へ移る。
ステップ S P 8 5において制御部 1 0は、 テンプレートエン トロピ一 T Hと、 認証対象者の画像ェン ト口ビー H i mgとの差分絶対値が所定の許容 誤差 Δ Ηよりも大きいため、 認証対象者と登録者とがー致しないこと、 す なわち認証失敗であると判断し、 次のステップ S P 9 0へ移って処理を終 了する。
これに対してステツプ S P 8 6で肯定結果が得られると、 このことは認 証対象者の画像ェン トロピ一 H imgが、 予め登録されていたテンプレート ェン トロピー T Hの値から一定範囲内にあり、 すなわち画像ェン トロピー H i mgの算出元である指領域抽出画像 S 22の輝度分布と、 テンプレート ェン トロピ一 THの算出元である指領域抽出画像 S 4の輝度分布とがほぼ 同一であり、 ェントロピーの観点からでは認証対象者と登録者とがー致す る可能性が高いことを表しており、 このとき制御部 1 1 0は次のステップ S P 8 7へ移る。
ステップ S P 8 7において制御部 1 1 0は、 ステップ S P 7 1で読み出 した登録者識別テンプレートデータ T f vのテンプレート画像デ一夕 S 3 と、 ステップ S P 7, 4で生成しナこ血管パターン画像を示す画像デ一夕 S 2 1 とを用いて照合部 2 7によりパターンマッチング処理を行い、 次のステ ップ S P S 8へ移る。
ステップ S P 8 8において制御部 1 1 0は、 ステップ S P 8 7で行った パターンマッチングの結果が一致したか否かを判定する。 ここで否定結果 が得られると、 このことはパターンマッチングの観点からは認証対象者と 登録者とがー致しないことを表しており、 このとき制御部 1 1 0のステヅ プ S P 8 5へ移って認証失敗であると判断し、 次のステップ S P 9 0へ移 つて認証処理を終了する。
これに対してステップ S P 8 8で肯定結果が得られると、 このことはパ 夕ーンマツチングの観点からも認証対象者と登録者とが一致したことを表 しており、 このとき制御部 1 1 0は次のステップ S P 8 9へ移る。
ステップ S P 89において制御部 1 1 0は、 認証装置 1 00に配された 指 擬似指ではなく人間の指であることをエン トロピ一の観点から判別し たうえで、 パターンマッチングの観点からも認証対象者と登録者とがー致 したので認証処理に成功したと判断し、 次のステップ S P 9 0へ移って認 証処理を終了する。
( 2— 3 ) 第 2の実施の形態における動作及び効果
以上の構成において、 認証装置 1 00では、 血管登録モードにおいて、 指を撮像することにより得られる指領域抽出画像 S 4の輝度分布を画像ェ ン小口ピ一 Himgで表し、 その画像ェン 卜口ピー Himgに対して、 複数の 互いに相反した分布形状を有する複数種類の重み付け w L nを施し、 何れ の重み付け が施された場合であっても重付げ画像ェン ト口ピー H i m g wの標準偏差が閾値を超えないときには、 標準偏差にばらつきが一切な く ·、 生体としては不自然であって擬似指の可能性が高いと判別し、 登録処 理を行わないようにする。
これにより認証装置 1 00では、 擬似指を誤って登録してしまうという 事態を確実に排除することができる。
また認証装置 1 00では、 認証モードにおいても登録モードと同様に、 指の画像ェン トロピー H i mgに対して、 複数の互いに相反した分布形状を 有する複数種類の重み付け wL nを施し、 何れの重み付け wL nが施された 場合であっても重付け画像ェン ト口ピ一 H i mgwの標準偏差が閾値を超え ないときには、 標準偏差にばらつきがー切なく、 生体としては不自然であ つて擬似指の可能性が高いと判別し、 その場合、 認証のための照合処理を 行うまでもなぐ認証失敗であると判断することができる。
従って認証装置 1 0 0は、 重付け画像ェン トロピー H i m g wの標準偏差 に基づいて、 当該認証装置 1 0 0に配された指が人間のものであると認識 したときのみ、 画像ェン トロピー H i m gに基づいてェン トロピーの観点か ら認証処理を実行したうえで、 パターンマッチング処理を行うことにより、 擬似指の悪意ユーザを登録者として誤認識するこ.とを確実に防止すること ができる。
このように認証装置 1 0 0では、 認証処理の前に擬似指を排除し得ると 共に、 画像ェント口ピ一 H i m gの観点からも認証処理を行うようにしたこ どにより、 擬似指を人間の指に見せかけようとする悪意ユーザや、 血管パ 夕一ンを真似しようとする悪意ユーザによるなりすましを効果的に防止す ることができる。
以上の構成によれば、 認証装置 1 0 0は擬似指であるか否かを高精度に 判別したうえで、 情報.ェント口ピーによる認証処理及びテンプレー卜マツ チングによる認証処理を行うようにしたことにより、 簡易な構成でかつ本 人以外のなりすましによる誤認証を高い確率で防止することができる。: ( 3 ) 他の実施の形態
なお上述の第 1及び第 2.の実施の形態においては、 人体の所定部位とし て指の先端の静脈に対する血管パターンを撮像することにより画像信号 S 2、 S 2 0を生成するようにした場合について述べたが、 本発明はこれに 限らず、 手の平や顔等のその他種々の部位に対する静脈パターンを撮像す ることにより画像信号 S 2、 S 2 0を生成するようにしても良い。
また上述の第 1 (第 2 ) の実施の形態においては、 ステップ S P 1 6 (ステップ S P 8 6 ) で、 テンプレー トエン ト ロピ一 T Hと、 認証対象者 の画像ェン ト口ピ一 H i m gとの差分絶対値が所定の許容誤差△ Hよりも小 さいか否かを判定することによりェン トロピーの観点から認証処理を行い、 肯定結果が得られたときにステップ SP 1 7 (ステップ SP 87) でパ夕 ーンマツチングを行うようにした場合について述べたが、 本発明はこれに 限らず、 パターンマッチングを行って一致した後にェン トロピーの観点か ら認証処理を行うようにしても良い。
さらに上述の第 2の実施の形態においては、 複数種類用意した全ての種 類の重み付け wLnを画像エン トロピー Himgに対して施すようにした場 合について述べたが、 本発明はこれに限らず、 画像エン トロピー H imgの 分布形状とは異なるパターンの重み付け wLnを施すことが出来るのであ れば、 1種類だけの重み付け を施した結果得られる重付け画像ェン ト口ピー H i m gwの標準偏差に基づいて生体であるか非生体であるかを判 別するようにしても良い。
さらに上述の第 2の実施の形態においては、 相互に相反する分布形状で なる複数の重み付け wLnを画像ェン ト口ピー H i mgに対して施すように した場合について述べたが、 本発明はこれに限らず、 互いに相反しなくて も分布形状が異なるパターンの重み付け wLnを画像ェン トロピ一 H img に対して施すようにしても良い。
さらに上述の第 1及び第 2の実施の形態においては、 制御部 10又は 1 10が登録プログラム又は認証プログラムを ROMから読み出して RAM 上で展開し、 血管撮像部.12、 フラ ッシュメモリ 13、 外部イン夕フエ一 ス 14及び通知部 1 5を適宜制御することによって、 血管登録モード又は 認証モ一ドを実行するよう:にした場合について述べたが、 本発明はこれに 限らず、 CD (Compact Disc)、 DVD (Digital Versatile Disc), 半導体 メモリ等の記録媒体からインス トールした登録プログラム又は認証プ口グ ラムや、 インターネッ トからダウンロードした登録プログラム又は認証プ ログラムに従って血管登録モ一ド又は認証モードを実行するようにしても 良い。 _
さらに上述の実施の形態においては、 撮像手段としての血管撮像部 1 2、 特徵パラメ一夕抽出手段としての前処理部 2 1、 画像ェン トロピー算出手 段としての画像エン トロピ一算出部 2 5、 登録手段としての登録部 2 6、 重付け画像ェン ト口ビー算出手段及び生体識別手段としての生体識別部 1 1 1、 認証手段としての照合部 2 7によって、 本発明の認証装置をソフ ト ウェア的に構成するようにした場合について述べたが、 本発明はこれに限 らず、 その他種々の撮像手段、 特徴パラメ一ダ抽出手段、 画像エン トロピ 一算出手段、 登録手段、 重付け画像エン トロピ一算出手段、 生体識別手段 及び認証手段によって本発明の認証装置をハ一ドゥ ±ァ的に構成するよう にしても良い。 4
9 産業上の.利用可能性
本発明の認証装置、 登録装置、 登録方法、 登録プログラム、 認証方法及 び認証プログラムは、 例えば虹彩等を用いたバイオメ ト リクス認証等に適 用することもできる。

Claims

請 求 の 範 囲
1 . 生体の所定部位における生体識別対象を撮像することにより生体識別 対象画像を生成する撮像手段と、 '
上記生体識別対象画像に対して所定の特徴抽出処理を施すことにより上 記生体識別対象に対する特徴パラメ一夕を抽出する特徴パラメータ抽出手 段と、
上記生体識別対象画像に基づく画像ェントロピ一を算出する画像ェン ト ロピ一算出手段と、
上記特徴パラメ一夕と上記画像ェント口ピーとを対にした登録者識別情 報を生成し、 これを所定の記憶手段に記憶させる登録手段と
を具えることを特徴とする認証装置。
2 . 上記画像ェント口ピー算出手段は、 上記生体識別対象画像のうち上記 所定部位以外の撮像領域をマスク処理したうえで上記画像ェン トロピーを 算出する
ことを特徴とする請求項 1に記載の認証装置。
3 . 上記撮像手段は、 上記生体識別対象として血管を撮像することにより 上記生体識別対象画像を生成する
ことを特徴とする請求項 1に記載の認証装置。
4 . 上記画像ェン ト口ピ一算出手段に、よって算出された認証対象者の上記 画像ェン ト口ピーと、 上記登録手段によって予め登録された上記登録者識 別情報の上記画像ェン トロピーとを比較することにより上記認証対象者の 正当性を判定したうえで、 上記特徴パラメ一夕抽出手段によって抽出され た認証対象者の上記特徴パラメ一夕と、 上記登録手段によって予め登録さ れた上記登録者識別情報の上記画像ェン トロピーとを照合することにより、 上記認証対象者の正当性を最終的に判定する認証手段と 、 を具えることを特徴とする請求項 1に記載の認証装置。
5 . 生体の所定部位における生体識別対象を撮像することにより生体識別 対象画像を生成する撮像ステツプと、
. 上記生体識別対象画像に対して所定の特徴抽出処理を施すことにより上 記生体識別対象に対する特徴パラメ一夕を抽出する特徴パラメ一夕抽出ス テツプと、
上記生体識別対象画像に基づく画像ェン トロピーを算出する画像ェン ト ロビー算出ステップと、
上記特徴パラメ一夕と上記画像ェント口ピーとを対にした登録者識別情 報を生成し、 これを所定の記憶手段に記憶させる登録ステップと
を具えることを特徴とする登録方法。
6 . 所定の情報処理装置に対して、
生体の所定部位における生体識別対象を撮像することにより生体識別対 象画像を生成する撮像ステップと、
上記生体識別対象画像に対して所定の特徴抽出処理を施すことにより上 記生体識別対象に対する特徴パラメ一夕を抽出する特徴パラメ一夕抽出ス テツプと、
上記生体識別対象画像に基づく画像ェントロピ一を算出する画像ェン ト 口ピー算出ステップと、
上記特徴パラメ一夕と上記画像ェント口ピーとを対にした登録者識別倩 報を生成し、 これを所定の記憶手段に記憶させる登録ステップと
を実行させることを特徴とする登録プログラム。
7 . 登録対象者における生体の所定部位における生体識別対象を所定時間 内で複数撮像することにより複数の生体識別対象画像を生成する撮像手段 と、
上記複数の生体識別対象画像に対して所定の特徴抽出処理を施すことに より上記生体識別対象に対する複数の特徴パラメ一夕をそれぞれ抽出する '特徴パラメ一夕抽出手段と、 上記複数の生体識別対象画像に基づいて複数の画像ェント口ピーをそれ それ算出する画像ェン ト口ピー算出手段と、
上記複数の画像ェン ト口ピーに対してパターンの異なる複数種類の重み 付けを施すことにより複数種類の重付け画像ェン トロピーを算出する重付 け画像エン トロピー算出手段と、
上記複数種類の重付け画像ェン ト口ピーに対するばらつき度合いをそれ それ求め、 そのばらつき度合いに基づいて上記登録対象者の上記所定部位 が上記生体であるか又は非生体であるかを識別する生体識別手段と、 上記生体識別手段によって上記所定部位が上記生体であると識別したと きのみ、 上記特徴パラメ一夕と上記画像ェン ト口ピーとを対にした登録者 識別情報を生成し、 これを所定の記憶手段に記憶させることにより登録す る登録手段と
を具えることを特徴とする登録装置。
8 . 上記生体識別手段は、 上記複数種類の重付け画像エントロピ一に対す るばらつき度合いとして標準偏差をそれぞれ求め、 その全ての標準偏差が 所定の閾値未満である場合、 上記登録対象者の上記所定部位が上記非生体 であることを識別する
ことを特徴とする請求項 7に記載の登録装置。
9 . 上記画像エン トロ ピー算出手段は、 上記生体識別対象画像のうち上記 所定部位以外の撮像領域をマスク処理したうえで上記画像ェン ト口ビーを 算出する
ことを特徴とする請求項 7に記載の登録装置。
1 0 . 上記撮像手段は、 上記生体識別対象として血管を撮像することによ り上記生体識別対象画像を生成する
ことを特徴とする請求項 7に記載の登録装置。
1 1 . 登録対象者における生体の所定部位における生体識別対象を所定時 間内で複数撮像することにより複数の生体識別対象画像を生成する撮像ス テツプと、
上記複数の生体識別対象画像に対して所定の特徴抽出処理を施すことに より上記生体識別対象に対する複数の特徴パラメ一夕をそれぞれ抽出する 特徴パラメ一夕抽出ステップと、
上記複数の生体識別対象画像に基づいて複数の画像ェン ト口ピーをそれ それ算出する画像ェン トロピ一算出ステップと、
上記複数の画像ェン ト口ピーに対してパターンの異なる複数種類の重み 付けを施すことにより複数種類の重付け画像ェント口ピーを算出する重付 け画像エン トロピ一算出ステップと、
上記複数種類の重付け画像ェント口ピーに対するばらつき度合いをそれ それ求め、 そのばらつき度合いに基づいて上記登録対象者の上記所定部位 が上記生体であるか又は非生体であるかを識別する生体識別ステツプと、 上記生体識別ズテップで上記所定部位が上記生体であると識別したとき のみ、 上記特徴パラメ一夕と上記画像ェントロピーとを対にした登録者識 別情報を生成し、 これを所定の記憶手段に記憶させることにより登録する 登録ステップと
を具えることを特徴とする登録方法。
1 2 . 所定の情報処理装置に対して、
登録対象者における生体の所定部位における生体識別対象を所定時間内 で複数撮像することにより複数の生体識別対象画像を生成する撮像ステツ プと、
上記複数の生体識別対象画像に対して所定の特徴抽出処理を施すことに より上記生体識別対象に対する複数の特徴パラメ一夕をそれぞれ抽出する 特徴パラメ一夕抽出ステップと、
. 上記複数の生体識別対象画像に基づいて複数の画像ェン ト口ピ一をそれ それ算出する画像エントロピー算出ステップと、
上記複数の画像ェン ト口ピーに対してパターンの異なる複数種類の重み 付けを施すことにより複数種類の重付け画像ェン トロピーを算出する重付 け画像ェン トロピー算出ステップと、
上記複数種類の重付け画像ェンドロピーに対するばらつき度合いをそれ それ求め、 そのばらつき度合いに基づいて上記登録対象者の上記所定部位 が上記生体であるか又は非生体であるかを識別する生体識別ステツプと、 上記生体識別ステツプで上記所定部位が上記生体であると識別したとき のみ、 上記特徴パラメ一夕と上記画像ェン トロピーとを対にした登録者識 別情報を生成し、 これを所定の記憶手段に記憶させることにより登録する 登録ステップと
を実行させることを特徴とする登録プログラム。
1 3 . 認証対象者における生体の所定部位における生体識別対象を所定時 間内で複数撮像することにより複数の生体識別対象画像を生成する撮像手 段と、
上記複数の生体識別対象画像に対して所定の特徴抽出処理を施すことに より上記生体識別対象に対する複数の特徴パラメ一夕をそれぞれ抽出する 特徴パラメ一夕抽出手段と、
上記複数の生体識別対象画像に基づいて複数の画像ェン ト口ピーをそれ それ算出する画像エン トロピー算出手段と、 . . 上記複数の画像ェン ト口ピ一に対してパターンの異なる複数種類の重み 付けを施すことにより複数種類の重付け画像ェント口ピーを算出する重付 け画像エン トロピ一算出手段と、
上記複数種類の重付け画像ェン ト口ピ一に対するばらつき度合いをそれ それ求め、 そのばらつき度合いに基づいて上記認証対象者の上記所定部位 が上記生体であるか又は非生体であるかを識別する生体識別手段と、 上記生体識別手段によって上記所定部位が上記非生体であると識別した 時点で上記認証対象者の正当性を否認し、 上記所定部位が上記生体である と認識したときのみ認証処理を行うことにより上記認証対象者の正当性を 判定する認証手段と
を具えることを特徴とする認証装置。
1 4 . 上記認証手段は、 上記認証処理として、 上記画像エン トロピ一算出 手段によって算出された上記認証対象者の上記画像ェン ト口ピーと、 予め 登録されている登録者識別情報の画像ェン トロピーとを比較することによ り上記認証対象者の正当性を判定したうえで、 上記特徴パラメ一夕抽出手 段によって抽出された上記認証対象者の上記特徴パラメ一夕と、 上記登録 者識別情報の画像ェン ト口ピーとを照合することにより、 上記認証対象者 の正当性を最終的に判定する
ことを特徴とする請求項 1 3に記載の認証装置。
1 5 . 認証対象者における生体の所定部位における生体識別対象を所定時 間内で複数撮像することにより複数の生体識別対象画像を生成する撮像ス テツプと、 '
上記複数の生体識別対象画像に対して所定の特徴抽出処理を施すことに より上記生体識別対象に対する複数の特徴パラメ一夕をそれぞれ抽出する 特徴パラメ一夕抽出ステップと、
上記複数の生体識別対象画像に基づいて複数の画像ェントロピーをそれ それ算出する画像エン トロピー算出ステップと、
' 上記複数の画像ェン トロピ一に対してパターンの異なる複数種類の重み 付けを施すことにより複数種類の重付け画像ェン ト口ピーを算出する重付 け画像エン トロピ一算出ステップと、
上記複数種類の重付け画像ェン ト口ピーに対するばらつき度合いをそれ それ求め、 そのばらつき度合いに基づいて上記認証対象者の上記所定部位 が上記生体であるか又は非生体であるかを識別する生体識別ステツプと、 上記生体識別ステツプで上記所定部位が上記非生体であると識別した時 点で上記認証対象者の正当性を否認し、 上記所定部位が上記生体であると 認識したときのみ認証処理を行うことにより上記認証対象者の正当性を判 定する認証ステップと
を具えることを特徴とする認証方法。
1 6 . 所定の情報処理装置に対して、
認証対象者における生体の所定部位における生体識別対象を所定時間内 で複数撮像することにより複数の生体識別対象画像を生成する撮像ステッ プと、
上記複数の生体識別対象画像に対して所定の特徴抽出処理を施すことに より上記生体識別対象に対する複数の特徴パラメ一夕をそれぞれ抽出する 特徴パラメ一夕抽出ステップと、
上記複数の生体識別対象画像に基づいて複数の画像ェン ト口ピーをそれ それ算出する画像ェン トロピー算出ステップと、
上記複数の画像ェン ト口ピーに対してパターンの異なる複数種類の重み 付けを施すことにより複数種類の重付け画像ェン ト口ピーを算出する重付 け画像エン トロピ一算出ステップと、
上記複数種類の重付け画像ェント口ピ一に対するばらつき度合いをそれ それ求め、 そのばらつき度合いに基づいて上記認証対象者の上記所定部位 が上記生体であるか又は非生体であるかを識別する生体識別ステップと、
'上記生体識別ステツプで上記所定部位が上記非生体であると識別した時 点で上記認証対象者の正当性を否認し、 上記所定部位が上記生体であると 認識したときのみ認証処理を行うことにより上記認証対象者の正当性を判 定する認証ステップと
を実行させることを特徴とする認証プログラム。
PCT/JP2007/072709 2006-11-20 2007-11-19 Dispositif d'authentification, registre, procédé d'enregistrement, programme d'enregistrement, procédé d'authentification et programme d'authentification WO2008062891A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP07859690A EP2073171A1 (en) 2006-11-20 2007-11-19 Authentication device, register, registration method, registration program, authentication method and authentication program
US12/515,360 US20100045432A1 (en) 2006-11-20 2007-11-19 Authentication apparatus, registration apparatus, registration method, registration program, authentication method and authentication program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-313212 2006-11-20
JP2006313212A JP4671049B2 (ja) 2006-11-20 2006-11-20 認証装置、登録装置、登録方法、登録プログラム、認証方法及び認証プログラム

Publications (1)

Publication Number Publication Date
WO2008062891A1 true WO2008062891A1 (fr) 2008-05-29

Family

ID=39429818

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/072709 WO2008062891A1 (fr) 2006-11-20 2007-11-19 Dispositif d'authentification, registre, procédé d'enregistrement, programme d'enregistrement, procédé d'authentification et programme d'authentification

Country Status (6)

Country Link
US (1) US20100045432A1 (ja)
EP (1) EP2073171A1 (ja)
JP (1) JP4671049B2 (ja)
KR (1) KR20090088358A (ja)
CN (1) CN101542528A (ja)
WO (1) WO2008062891A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010128822A (ja) * 2008-11-27 2010-06-10 Fujitsu Ltd 生体認証装置、生体認証方法及び生体認証プログラム

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4247691B2 (ja) * 2006-05-17 2009-04-02 ソニー株式会社 登録装置、照合装置、登録方法、照合方法及びプログラム
JP5240082B2 (ja) * 2009-06-11 2013-07-17 富士通株式会社 生体認証装置、認証精度評価装置及び生体認証方法
EP2546798A4 (en) * 2010-03-10 2017-08-16 Fujitsu Limited Biometric authentication device and biometric authentication method
JP2011215662A (ja) * 2010-03-31 2011-10-27 Hitachi Media Electoronics Co Ltd 生体認証装置
CZ305276B6 (cs) * 2010-08-03 2015-07-15 Vysoké Učení Technické V Brně Biometrické bezpečnostní zařízení pro snímání a rozpoznávání žil prstů lidské ruky
US8548207B2 (en) 2011-08-15 2013-10-01 Daon Holdings Limited Method of host-directed illumination and system for conducting host-directed illumination
US9390306B2 (en) * 2013-09-06 2016-07-12 Apple Inc. Finger biometric sensor including circuitry for acquiring finger biometric data based upon finger stability and related methods
US9519823B2 (en) * 2013-10-04 2016-12-13 The University Of Manchester Biomarker method
US9953417B2 (en) 2013-10-04 2018-04-24 The University Of Manchester Biomarker method
EP2890108A1 (en) * 2013-12-27 2015-07-01 Thomson Licensing Method for sorting a group of images of a database and method for color correcting an image, corresponding devices, computer program and non-transitory computer-readable medium
CN106778518B (zh) * 2016-11-24 2021-01-08 汉王科技股份有限公司 一种人脸活体检测方法及装置
TWI643087B (zh) * 2016-12-01 2018-12-01 財團法人資訊工業策進會 驗證方法以及驗證系統
CN112241657A (zh) * 2019-07-17 2021-01-19 华为技术有限公司 一种指纹防伪方法和电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61221883A (ja) * 1985-03-25 1986-10-02 Fujitsu Ltd 個人照合装置
JP2002092616A (ja) * 2000-09-20 2002-03-29 Hitachi Ltd 個人認証装置
JP2003516572A (ja) * 1999-12-07 2003-05-13 サン マイクロシステムズ インコーポレイテッド 安全な写真担持用識別装置及びこのような識別装置を認証する手段及び方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7386586B1 (en) * 1998-12-22 2008-06-10 Computer Associates Think, Inc. System for scheduling and monitoring computer processes
US7116805B2 (en) * 2003-01-07 2006-10-03 Avagotechnologies Ecbu Ip (Singapore) Pte. Ltd. Fingerprint verification device
US7103772B2 (en) * 2003-05-02 2006-09-05 Giritech A/S Pervasive, user-centric network security enabled by dynamic datagram switch and an on-demand authentication and encryption scheme through mobile intelligent data carriers
WO2004102481A1 (ja) * 2003-05-15 2004-11-25 Fujitsu Limited 生体情報検出装置
US7505613B2 (en) * 2005-07-12 2009-03-17 Atrua Technologies, Inc. System for and method of securing fingerprint biometric systems against fake-finger spoofing
US8098906B2 (en) * 2006-10-10 2012-01-17 West Virginia University Research Corp., Wvu Office Of Technology Transfer & Wvu Business Incubator Regional fingerprint liveness detection systems and methods

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61221883A (ja) * 1985-03-25 1986-10-02 Fujitsu Ltd 個人照合装置
JP2003516572A (ja) * 1999-12-07 2003-05-13 サン マイクロシステムズ インコーポレイテッド 安全な写真担持用識別装置及びこのような識別装置を認証する手段及び方法
JP2002092616A (ja) * 2000-09-20 2002-03-29 Hitachi Ltd 個人認証装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010128822A (ja) * 2008-11-27 2010-06-10 Fujitsu Ltd 生体認証装置、生体認証方法及び生体認証プログラム

Also Published As

Publication number Publication date
JP2008129799A (ja) 2008-06-05
KR20090088358A (ko) 2009-08-19
US20100045432A1 (en) 2010-02-25
JP4671049B2 (ja) 2011-04-13
CN101542528A (zh) 2009-09-23
EP2073171A1 (en) 2009-06-24

Similar Documents

Publication Publication Date Title
WO2008062891A1 (fr) Dispositif d&#39;authentification, registre, procédé d&#39;enregistrement, programme d&#39;enregistrement, procédé d&#39;authentification et programme d&#39;authentification
CN110555359B (zh) 面部识别的自动重试
CN100585616C (zh) 认证设备和认证方法
JP7191061B2 (ja) ライブネス検査方法及び装置
CN112639809A (zh) 生物测定认证的用户自适应
US8493178B2 (en) Forged face detecting method and apparatus thereof
EP2079039A2 (en) Face collation apparatus
CN101432777B (zh) 登记装置以及认证装置
US10769415B1 (en) Detection of identity changes during facial recognition enrollment process
JP4247691B2 (ja) 登録装置、照合装置、登録方法、照合方法及びプログラム
WO2007004498A1 (ja) 虹彩認証装置、虹彩認証方法および虹彩認証プログラム
JPH02178777A (ja) 個人認証装置
JP2007140823A (ja) 顔照合装置、顔照合方法及びプログラム
US20100239128A1 (en) Registering device, checking device, program, and data structure
WO2020065851A1 (ja) 虹彩認証装置、虹彩認証方法および記憶媒体
JP4887966B2 (ja) 照合装置
JP2006085289A (ja) 顔認証システムおよび顔認証方法
US20080063242A1 (en) Bioinformation authenticating device and bioinformation authenticating method
CN110663043B (zh) 生物度量对象的模板匹配
US8483449B2 (en) Registration device, checking device, program, and data structure
KR20210024877A (ko) 라이브니스 판단 방법 및 장치
WO2021234926A1 (ja) 認証方法、認証プログラム及び認証装置
JP2008000464A (ja) 認証装置および認証方法
KR20200127818A (ko) 라이브니스 검사 방법 및 장치, 얼굴 인증 방법 및 장치
JP4900701B2 (ja) 認証システム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200780043041.7

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07859690

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2007859690

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020097008342

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 12515360

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE