WO2008143271A1 - 登録装置、照合装置、プログラム及びデ-タ構造 - Google Patents

登録装置、照合装置、プログラム及びデ-タ構造 Download PDF

Info

Publication number
WO2008143271A1
WO2008143271A1 PCT/JP2008/059298 JP2008059298W WO2008143271A1 WO 2008143271 A1 WO2008143271 A1 WO 2008143271A1 JP 2008059298 W JP2008059298 W JP 2008059298W WO 2008143271 A1 WO2008143271 A1 WO 2008143271A1
Authority
WO
WIPO (PCT)
Prior art keywords
line
points
partial
blood vessel
parameters
Prior art date
Application number
PCT/JP2008/059298
Other languages
English (en)
French (fr)
Inventor
Abdul Muquit Mohammad
Hiroshi Abe
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US12/600,030 priority Critical patent/US8374419B2/en
Priority to EP08753026A priority patent/EP2146318A4/en
Priority to CN200880016157A priority patent/CN101681510A/zh
Publication of WO2008143271A1 publication Critical patent/WO2008143271A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1341Sensing with light passing through the finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Definitions

  • the present invention relates to a registration device, a verification device, a program, and a data structure, and is suitable for application to biometric authentication.
  • blood vessels are one of the targets for biometric authentication.
  • the end points and branch points in the blood vessel displayed in the captured image are extracted as feature points, and the extracted feature points are generated as a registration target or a comparison target with the registration target.
  • Authentication devices have been proposed (for example, patent literature)
  • Patent Document 1 Japanese Patent Laid-Open No. 2 0 0 3-3 0 3 1 7 8.
  • the reliability as an element for determining whether or not the user is a registrant is poor. Therefore, even if the feature points generated as a comparison target are generated in the same way as those generated as the registration target, external factors such as the imaging environment and noise, or Due to internal factors such as difficulty in the reflection of blood vessels in the living body (individual differences), it is mistakenly determined that the person is the person himself / herself or another person despite being the other person.
  • the probability is high, that is, the authentication accuracy (accuracy for determining whether or not the user is a registrant) is poor. Disclosure of the invention
  • the present invention has been made in consideration of the above points, and intends to propose a registration device, a verification device, and a program that can improve authentication accuracy, and a data structure for identification data that can improve reliability. Is.
  • the present invention is a registration apparatus, and for a blood vessel line displayed in an image, a parameter representing a shape of each partial line divided based on an end point and a branch point of the blood vessel line.
  • An extraction means for extracting the evening, a generation means for generating data including the parameters in each partial line, and the positions of the points at both ends of the partial line are provided.
  • the present invention is also a collation device, wherein each partial line divided on the basis of the end points and branch points of the blood vessel line displayed in the image is a parameter representing the shape, and the points at both ends of the partial line.
  • a storage means for storing the data including the location, and a verification means for verifying the parameters and the points at both ends of each partial line with the verification target as an element for determining whether or not the person is a registrant. And so on.
  • the present invention is a program, wherein the extraction means extracts, for each partial line divided on the basis of the end points and branch points of the blood vessel line displayed in the image, a parameter representing the shape,
  • the data generation means is made to execute generation of a parameter including parameters on each partial line and positions of points on both ends of the partial line.
  • the present invention is a data structure of identification data generated as a registration target, and the identification data represents the shape of each partial line divided based on the end points and branch points of the blood vessel line displayed in the image. It has a structure that includes parameters and the positions of the points at both ends of the partial line, and the parameters and points at both ends of each partial line are used as elements for determining whether or not the person is a registrant. It is assumed that it is used for the process of matching with the verification target.
  • the shape of the blood vessel line itself is extracted as a parameter for each partial line that is divided on the basis of the characteristic point.
  • the blood vessel line can be expressed discretely with a certain relationship with the line.
  • FIG. 1 is a block diagram showing the overall configuration of the authentication apparatus according to the present embodiment.
  • FIG. 2 is a block diagram showing the configuration of the image processing unit.
  • Fig. 3 is a schematic diagram showing images before and after pattern return.
  • Figure 4 is a schematic diagram showing the appearance pattern of white pixels around the end points, branch points and isolated points.
  • FIG. 5 is a schematic diagram for explaining the detection of end points, branch points and isolated points.
  • FIG. 6 is a schematic diagram showing an image in which end points and branch points are detected.
  • Fig. 7 is a schematic diagram used to explain the detection of inflection points based on end points and branch points.
  • FIG. 8 is a flowchart showing the registration processing procedure.
  • Fig. 9 is a schematic diagram showing an example of the structure of identification data.
  • FIG. 10 is a flowchart showing the authentication processing procedure.
  • FIG. 11 is a schematic diagram for explaining the connection of partial blood vessel lines. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 shows the overall configuration of authentication apparatus 1 according to the present embodiment.
  • This authentication device 1 has an operation unit 1 1, an imaging unit 1 2, an image processing unit 1 3, a memory 1 4, a verification unit 1 5, an interface 1 6 and a notification unit 1 7 with respect to the control unit 10. Are connected via buses 16 respectively.
  • the control unit 10 includes a central processing unit (CPU) that controls the entire authentication device 1, a read only memory (R 0 M) that stores various programs and setting information, and the work memory of the CPU. It is configured as a computer that includes RAM (Random Access Memory).
  • CPU central processing unit
  • R 0 M read only memory
  • RAM Random Access Memory
  • an execution command COM 1 for registering a blood vessel of a user to be registered (hereinafter referred to as a registrant) (hereinafter referred to as a blood vessel registration mode) is executed.
  • Execution command COM 2 for the presence / absence judgment mode (hereinafter referred to as “authentication mode”) is entered from the operation unit 11 in response to the user operation.
  • the control unit 10 determines the mode to be executed based on the execution instructions COM 1 and COM 2, and based on the program corresponding to the determination result, the imaging unit 1 2, the image processing unit 13 and the memory 1 4, verification unit 1 5, interface 1 6 and notification unit 1 7 are appropriately controlled to execute the blood vessel registration mode or authentication mode.
  • the imaging unit 12 has a camera that uses an imaging space on the area where the finger is placed in the housing of the authentication device 1.
  • the lens position of the optical system, the aperture value of the aperture, and imaging Adjust the shutter speed (exposure time) of the element based on the setting value set by the control unit 10.
  • the imaging unit 12 has a near-infrared light source that irradiates the imaging space with near-infrared light.
  • the near-infrared light source is turned on during a period specified by the control unit 10, and
  • the subject image displayed on the imaging surface of the imaging device is captured at predetermined intervals, and image data relating to the image generated as the imaging result is sequentially transmitted to the control unit 10. Output.
  • near-infrared light passing from the near-infrared light source through the inside of the finger is used as light for projecting blood vessels, and the optical system and aperture in the camera.
  • the blood vessel is incident on the imaging element via the, and a blood vessel inside the finger is projected onto the imaging surface of the imaging element. Accordingly, in this case, blood vessels are displayed in the image based on the image data generated as the imaging result in the imaging unit 12.
  • the image processing unit 1 3 is a feature point (hereinafter referred to as a feature point) among the blood vessel lines displayed in the image.
  • a feature point For each portion of the blood vessel line that can be divided based on the feature point (hereinafter referred to as a partial blood vessel line), a parameter that represents the shape (hereinafter referred to as a shape parameter). Call it).
  • the memory 14 is, for example, a flash memory, and stores data in an area designated by the control unit 10 or reads data stored in the area.
  • the matching unit 1.5 corresponds to the points on both ends of the partial blood vessel line corresponding to each shape parameter extracted by the image processing unit 13 and each shape parameter registered in the memory 14.
  • the points at both ends of the partial blood vessel line are collated, and when the amount of positional deviation of the point is equal to or greater than a predetermined threshold value, the control unit 10 is notified accordingly.
  • the matching unit 15 is configured to extract each shape parameter extracted by the image processing unit 13 and each memory 14 registered in the memory 14. Each shape parameter is collated, and the collation result is notified to the control unit 10.
  • the internal interface 16 exchanges various data with an external device connected via a predetermined transmission line.
  • the notification unit 17 includes a display unit 17a and an audio output unit 17b, and the display unit 17a displays characters and figures based on display data given from the control unit 10. Display on the screen.
  • the sound output unit 17 b outputs sound based on the sound data given from the control unit 10 from the speaker.
  • the image processing unit 13 includes a preprocessing unit 21, a patterning unit 2 2, a feature point detection unit 2 3, a blood vessel line tracking unit 24, and a shape parameter overnight extraction unit 25. Composed. .
  • the preprocessing unit 21 appropriately performs preprocessing such as image rotation correction, noise removal, and image cropping on the image data input from the imaging unit 12 through the control unit 10.
  • preprocessing such as image rotation correction, noise removal, and image cropping
  • the image data obtained after processing is sent to the patterning unit 22.
  • the patterning unit 22 patterns (converts) the multivalued image in the image display into a binary image in which the line width of the blood vessel line displayed in the image is constant.
  • the patterning unit 22 performs patterning into a binary image in which the line width of the blood vessel line is one pixel. A specific example of this patterning technique will be described.
  • the patterning unit 2 2 performs differential aisle processing such as Gaussian fill and log fill on the image data to make the contours of the blood vessels displayed in the image embossed, and the contours are embossed.
  • the converted image is converted into a binary image based on the set brightness value.
  • the patterning unit 22 extracts a blood vessel line whose line width is 1 pixel with reference to the center of the width or luminance peak in the blood vessel line displayed in the binary image. ing.
  • FIG. 3 shows the images before and after pattern conversion.
  • the multi-valued image (FIG. 3 (A)) obtained after the preprocessing has the line width of the blood vessel line displayed on the image by the patterning unit 22. It is generated as a constant binary image (Fig. 3 (B)). (2-3) Feature point detection
  • the feature point detection unit 23 detects a feature point (hereinafter referred to as a feature point) among points (pixels) constituting the blood vessel line displayed in the binary image.
  • a feature point a feature point among points (pixels) constituting the blood vessel line displayed in the binary image.
  • the pixels constituting the blood vessel line displayed in the binary image are white pixels or black pixels. In this embodiment, the pixels are described as white pixels.
  • the feature point detection unit 23 uses each pixel constituting the binary image as a target pixel in a predetermined order, and when the target pixel is a white pixel, the surrounding pixels (four pixels in the vertical and horizontal directions) Examine the number of white pixels present in a total of 8 pixels, 4 pixels in the diagonal direction.
  • Fig. 4 shows the appearance patterns of end points, branch points and isolated points in blood vessel lines.
  • the blood vessel is expressed as one pixel wide, the relationship between the number of white pixels around the pixel of interest that is a white pixel and the end points, branch points, and isolated points Is unambiguous, and the branch pattern is always either 3 branches or 4 branches.
  • the feature point detection unit 23 when there is one white pixel around a pixel of interest that is a white pixel (FIG. 5 (A)), uses that pixel of interest as an end point of the blood vessel line. Detect with. On the other hand, the feature point detection unit 23 detects the target pixel as a branch point when there are three white pixels around the target pixel as a white pixel (FIG. 5 (B)). The feature point detector 23 detects a target pixel as a branch point when there are four white pixels around the pixel (not shown). On the other hand, the feature point detection unit 23 detects the target pixel as an isolated point when there is no white pixel around the target pixel that is a white pixel (FIG. 5C).
  • the feature point detection unit 23 deletes isolated points that are not constituent elements of the blood vessel line among the detected end points, branch points, and isolated points.
  • the feature point detection unit 23 has a blood vessel line whose line width is fixed to one pixel.
  • the endpoints and Only branch points can be reliably detected as feature points.
  • the blood vessel line tracking unit 24 recognizes the interrelationship between each feature point by tracking the blood vessel line on the basis of the feature point. A specific example of this tracking method will be described.
  • the blood vessel line tracking unit 24 tracks the blood vessel line connected to the branch point from the branch point among the feature points until the other feature point is detected, and the detected other feature point, the branch point, Are connected to each other.
  • the blood vessel line tracking unit 24 selects the branch point DP 1 that is closest to the lower side of the image, for example, among the branch points DP 1, DP 2, and DP 3, and the branch point DP 1
  • the blood vessel line connected to is traced until another feature point (end point EP 1, EP 2, branch point DP 2) is detected. .
  • the blood vessel line tracking unit 24 finishes tracking the blood vessel line connected to the branch point DP 1, the blood vessel line tracking unit 24 selects the branch point DP 2 that is the second closest to the lower side of the image, and the blood vessel line connected to the branch point DP 2 is selected. Of these, except for the already tracked blood vessel line, the other feature points (end point EP 3, branch point DP 3) are traced.
  • the blood vessel line tracking unit 24 finishes tracking the blood vessel line connected to the branch point DP 2, the blood vessel line tracking unit 24 selects the third branch point DP 3 with respect to the lower side of the image, and the blood vessel line connected to the branch point DP 3 is selected. The line is traced until one other feature point (end point EP 4, EP 5) is detected except for the already traced blood vessel line.
  • the blood vessel line tracking unit 24 can detect the feature points DP 1—EP 1, DP I one EP 2, DP I—DP 2, DP 2—EP 3, DP 2—DP 3, DP 3—EP 4, DP 3—EP 5 is now recognized as being linked.
  • this blood vessel tracking unit 24 is connected to the branch points DP 1, DP 2, and DP 3.
  • the blood vessel lines connected to the relevant branch point are tracked in order starting from the branch point closest to the top, bottom, left, and right sides of the image, excluding the already tracked blood vessel lines.
  • the processing load can be reduced by eliminating unnecessary processing. It is made possible.
  • the shape parameter overnight extracting unit 25 extracts the shape parameter overnight for each partial blood vessel line between the feature points recognized as being connected by the blood vessel line tracking unit 24. A specific example of this extraction method will be described.
  • the shape parameter overnight extracting unit 25 selects each partial blood vessel line as a processing target in a predetermined order, and for the selected partial blood vessel line, both ends of the partial blood vessel line with respect to a reference direction such as a vertical direction of the image.
  • An angle formed by a straight line connecting the two hereinafter referred to as a partial line angle
  • a length of a partial blood vessel line represented by the number of pixels constituting the partial blood vessel line hereinafter referred to as a partial line length
  • a quadratic coefficient sequence is extracted.
  • the shape parameter extraction unit 25 when extracting the secondary coefficient sequence, the shape parameter extraction unit 25, each of the points constituting the partial blood vessel line selected as the processing target (hereinafter referred to as a blood vessel constituent point) ' Substituting into the polynomial of the quadratic curve shown by the following equation y- ⁇ ⁇ ⁇ + ⁇ 2 ⁇ ⁇ Ps-(1)
  • the shape parameter extraction unit 25 extracts the second-order coefficient sequence p 2 or 'P 0 when the curve is the closest approximation to each blood vessel constituent point in the partial blood vessel line. Has been made.
  • the control unit 10 changes the operation mode to the blood vessel registration mode, and proceeds to step SP1.
  • step SP 1 the control unit 10 informs the notification unit 17 that the finger must be placed in the imaging space, and in the following step SP 2, the imaging unit 1 2
  • step S3 the camera in FIG. 3 is imaged and the near-infrared light source in the imaging unit 12 is turned on.
  • step SP3 the control unit 10 starts the image parameter for each partial blood vessel line from the image data given by the image pickup unit 12 to the image processing unit 13 for each partial blood vessel line. (Partial line angle, partial line length and secondary coefficient sequence) are extracted.
  • the control unit 10 corresponds to the shape parameter and the shape parameter in the next step SP4.
  • the positions of both ends of the partial blood vessel line are generated as identification data and registered by storing the identification data in the memory 14, and then the blood vessel registration mode is terminated.
  • control unit 10 can execute the blood vessel registration mode.
  • Fig. 9 shows an example of the structure of this identification data.
  • This identification data includes a first file (hereinafter referred to as a position file) FL 1 representing the position of feature points (end points and branch points) in the blood vessel line, and shape parameters for each partial line in the blood vessel line. It has a data structure that has a second file that represents the evening (hereinafter referred to as the parameter file).
  • a value representing IEM is stored.
  • the parameters Isseki file FL 2, partial line angle 0 1 ⁇ 2N 6 »3, «, and a value representing the theta Micromax have partial line length L L 2, L 3, whil , a value representing the L M And secondary Coefficient sequence c 2, c 3, ⁇ ⁇ , and a value representing the C M are stored, respectively.
  • the values representing the second-order coefficient sequences C 2 C 2 , C 3 ,..., C M are p 2 and p 1 in equation (1), respectively. Each value.
  • This identification data represents the position of feature points (end points and branch points) instead of holding the X and y coordinate values that represent the positions of the ends of each partial blood vessel line.
  • the X-y coordinate value is used to refer to the positions of the points at both ends of each partial blood vessel line.
  • the bifurcation point is one of the two ends of the two or more partial blood vessel lines. Must be maintained for the number of branch points.
  • this identification data has a data structure that refers to the positions of the points at both ends of each partial blood vessel line from the XY coordinate values that represent the positions of the feature points (end points and branch points). Therefore, since the x-y coordinate value representing the same position is not held, the occupation amount for the memory 14 can be reduced. (5) Authentication mode
  • the control unit 10 determines the authentication mode as the mode to be executed, the control unit 10 changes the operation mode to the authentication mode and proceeds to Step S P 1 1.
  • step SP 11 the control unit 10 informs the notification unit 1.7 that the finger must be placed in the imaging space, and in the following step SP 1 2, the imaging unit The camera in 1 2 is imaged and the near infrared light source in the imaging unit 1 2 is turned on, and then the process proceeds to the next step SP 1 3.
  • control unit 10 sends the shape parameters for each partial blood vessel line to the image processing unit 13 from the image data given by the imaging unit 12 for each partial blood vessel line.
  • Overnight partial line angle, partial line length And second order coefficient sequence.
  • the control unit 10 reads out the identification data from the memory 14 in the next step SP 14, and the following step In SP 15, for each of the shape parameters extracted by the image processing unit 13 and the positions of the ends of the partial blood vessel lines corresponding to the shape parameters, the memory 1 In Fig. 4, each shape parameter registered as an identification parameter and the positions of both ends of the partial blood vessel line corresponding to that shape parameter are collated.
  • step SP 16 the control unit 10 determines whether or not it can be approved as a registrant from the notification contents notified from the verification unit 15, and performs processing according to the determination. Execute.
  • the verification unit 15 receives a notification that the amount of positional deviation between the ends of the partial vascular line corresponding to each shape parameter is greater than or equal to a predetermined threshold, this means that the vascular line This means that the relative positional relationship between the end points and branch points that should be called the roots is not similar.
  • the similarity of the shape parameter notified from the matching unit 15 is less than the standard, the relative position relationship between the end point and the branch point that should be called the root of the vascular line is approximated. This means that the shape of the line of each part is not approximated when the blood vessel line is viewed as a partial blood vessel line with these end points and branch points as references.
  • control unit 10 determines that it cannot be approved as a registrant, and notifies that fact visually and audibly via the display unit 17 a and the audio output unit 17 b. Has been made.
  • the similarity of the shape parameter notified from the matching unit 15 is equal to or higher than the reference, this indicates the relative positional relationship between the end point and the branch point that should be called the root of the blood vessel line, and the end point and branch point.
  • the vascular line is viewed as a partial vascular line with respect to the point, the shape of the line itself of each part is approximate, that is, the vascular line It means that it is approximated as a whole.
  • control unit 10 determines that it can be approved as a registrant, and sends data indicating that it has been approved as a registrant to a device connected to the interface 16.
  • a predetermined process that should be executed when authentication is successful such as, for example, locking the door for a certain period of time or releasing the operation mode of the restriction target, using the data indicating that the user has been approved as a registrant. Is performed.
  • control unit 10 can execute the authentication mode.
  • the authentication device 1 extracts the parameters (shape parameters) representing the shape for each of the plurality of partial blood vessel lines that are divided based on the end points and the branch points in the blood vessel line, and these are extracted.
  • An identification data including a shape parameter in the partial line and the positions of the ends of the partial line is generated.
  • this authentication device 1 can represent the shape of the blood vessel line itself in a state having a certain relationship with the blood vessel line in addition to the features that make up the blood vessel line. Regardless of whether you are a person or a person, due to external factors such as the environment and noise, or internal factors such as the difficulty of visualizing blood vessels in the living body (individual differences) Therefore, it is possible to reduce the probability of misjudgment as being someone else, thus improving the accuracy of authentication. In addition, the memory occupancy of the registration target can be reduced. ⁇ In this embodiment, the authentication device 1 extracts three types of partial line angles, partial line lengths, and secondary coefficient sequences as shape parameters.
  • the authentication device 1 represents the partial blood vessel line by a coefficient expressed by the relationship between the direction and length when viewed as a straight line, and a curve similar to the partial blood vessel line, that is, from three different viewpoints. Since the shape of the partial blood vessel line can be expressed, the authentication accuracy can be further improved. According to the above configuration, the shape of the blood vessel line itself can be discretely expressed in a state having a certain relationship with the blood vessel line in addition to the points that characterize the blood vessel line. It is possible to reduce the influence of external factors such as noise and noise, or internal factors such as the difficulty of displaying blood vessels in the living body (individual differences), thus realizing an authentication device 1 that can improve the authentication accuracy. .
  • the blood vessel line is made constant at the line width of one pixel.
  • the present invention is not limited to this, and it is made constant at other line widths. Also good. Further, the processing for making the line width of the blood vessel line constant may be omitted.
  • the blood vessel line is fixed to a line width other than one pixel, or if the process of making the blood vessel line constant is omitted, as shown in FIG.
  • the relationship between the “number” of surrounding white pixels and the end points, branch points, and isolated points is not unique. .
  • the feature point detection method is, for example, a Harris It is necessary to adopt a so-called detection method. In this way, the accuracy is inferior to the detection method in the above-described embodiment, but the same effect as in the above-described embodiment can be obtained. ...
  • the portion of the blood vessel line between the feature points that are connected in the closest state (between the feature points recognized by the blood vessel line tracking unit 24 as being connected).
  • the shape parameter overnight is extracted for each blood vessel line
  • the present invention is not limited to this.
  • the partial blood vessel line between the feature points is less than a predetermined line length.
  • the partial vascular line may be deleted, and the shape parameter may be extracted for each partial vascular line after the deletion. This is because the blood vessel line This means that there is no limitation on the mode of dividing the line as a plurality of partial blood vessel lines.
  • the blood vessel line tracking unit 24 detects a partial blood vessel line having a length (number of pixels) less than a predetermined threshold among the partial blood vessel lines between the feature points recognized as being connected, Check whether one of the end points on the partial blood vessel line is an end point.
  • the blood vessel line tracking unit 24 deletes the partial blood vessel line except for the branch point in the partial blood vessel line, assuming that the degree of influence on the entire blood vessel line is extremely small and the reliability of the characteristic part is poor.
  • the partial blood vessel line between the branch point D P 2 and the end point E P 4 is deleted except for the branch point D P 2.
  • both end points of the partial blood vessel line are branch points, and the partial blood vessel line corresponds to the middle of the blood vessel line.
  • the blood vessel line tracking unit 24 compares the number of partial blood vessel lines connected to one branch point with the number of partial blood vessel lines connected to the other branch point, for example, as shown in FIG. 11 (A). If there is a difference in the number, the branch point with the smaller number of partial blood vessel lines is deleted, and the partial blood vessel line is deleted by connecting it to the adjacent partial blood vessel line.
  • the partial blood vessel line PBLa is deleted by being connected to the partial blood vessel line PBLb and formed as one partial blood vessel line PBLa-b. It is deleted by being connected to PBL c and forming as one partial blood vessel line PBL a-c.
  • the blood vessel line tracking unit 24 when there is no difference in the number of partial blood vessel lines, the blood vessel line tracking unit 24 has the endpoints belonging to the partial blood vessel lines connected to one branch point. Belongs to the partial blood vessel line of the partial blood vessel line connected to the number and the other branch point Delete the bifurcation point with the smaller number of endpoints, and delete the partial blood vessel line by linking it to the adjacent partial blood vessel line.
  • the partial blood vessel line PBL a is connected to the partial blood vessel line PBL b to form one partial blood vessel line PBL a -b. Is deleted, and is connected to the partial blood vessel line PBL c to be formed as one partial blood vessel line PBL a -c.
  • the blood vessel line tracking unit 24 can delete a partial blood vessel line that is less than a predetermined line length.
  • the case where the partial line angle, the partial line length, and the secondary coefficient sequence are extracted as the shape parameter is described.
  • the partial line length and the second order coefficient sequence for example, various control points such as a Bezier function control point sequence, etc. Widely applicable.
  • the number of parameters per shape parameter may be 1 or 2 or more.
  • the present invention is not limited to this, and it may be made variable according to the degree of undulation of the partial blood vessel line. It may be.
  • the shape parameter extraction unit 2 5 uses the partial line angle, the partial line length, and the secondary coefficient sequence. Among them, only the secondary coefficient column is set as the extraction target and extracted.
  • the shape parameter overnight extraction unit 2 5 Of the line length and secondary coefficient sequence, the secondary coefficient sequence and the partial line angle and And one of the partial line lengths is set as an extraction target and extracted.
  • the shape parameter evening extraction unit 2 5 determines the partial line angle, the partial line length, and the secondary line.
  • a coefficient sequence is set as an extraction target and extracted.
  • the shape parameter extraction unit 25 is configured to select the shape parameter selected as an essential extraction target (in this example, a quadratic coefficient sequence obtained by approximating a quadratic curve to a partial blood vessel line). )
  • an essential extraction target in this example, a quadratic coefficient sequence obtained by approximating a quadratic curve to a partial blood vessel line.
  • the coefficient of each term when the partial blood vessel line is expressed by a polynomial expression of a quadratic curve is extracted as one of the shape parameters.
  • the order of the curve is not limited to the second order, but may be another order.
  • a straight line connecting points on both ends of the partial blood vessel line and the partial blood vessel The more the number of intersections with the line, the higher the order of the nth order curve is extracted. In this way, it is possible to extract a coefficient representing the shape of the blood vessel line in more detail.
  • the order of the nth-order curve is set higher and the number of extracted shape parameters is set higher. It may be.
  • the case where the identification data (FIG. 9) having the data structure having the position file FL 1 and the parameter file FL 2 is generated has been described.
  • the invention is not limited to this, and an identifier indicating that the content of each parameter file FL 2 (each shape parameter) is extracted through the extraction process of the shape parameter extraction unit 25 is used as a header. You may make it add.
  • the shape parameters (partial line angle, partial line length, and secondary coefficient sequence) stored in the parameter data file FL 2 have high reproducibility to the actual blood vessel line according to the identifier. It can be easily proved that it is an element.
  • the control unit 10 reads the identification data from the memory 14 in the authentication mode step SP 14 (Fig. 10). In some cases, an identifier indicating that the contents of the parameter parameter file FL 2 (FIG. 9) are extracted through the extraction process of the shape parameter parameter extraction unit 25 is added to the identification data. If it is not added, the authentication process may be terminated after discarding the identification data from the memory 14.
  • the program stored in R ⁇ ⁇ Accordingly, the case where the above-described registration process or authentication process is executed has been described.
  • the present invention is not limited to this, and a program storage medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), or a semiconductor memory.
  • the above registration process or authentication process may be executed in accordance with a program obtained by installing from a computer or downloading from a program providing server on the Internet.
  • the authentication device 1 having the imaging function, the verification function, and the registration function has been described.
  • the present invention is not limited to this, and the function is determined according to the application. Alternatively, a part of each function may be applied to a single device.
  • the present invention can be used in the field of biometric authentication.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

認証精度を向上し得る登録装置、照合装置及びプログラム並びに信頼性を向上し得る識別デ一タのデータ構造を提案する。画像に映し出される血管線について、該血管線の端点及び分岐点を基準として分けられる部分線ごとに、その形状を表すパラメータを抽出し、これら部分線におけるパラメータと、当該部分線の両端の点の位置とを含むデータを、生体の識別するためのデータとして生成するようにした。

Description

明 細 書 登録装置、 照合装置、 プログラム及びデータ構造 技術分野
本発明は登録装置、 照合装置、 プログラム及びデータ構造に関し、 バイ オメ トリクス認証する場合に適用して好適なものである。 背景技術
従来、 バイオメ トリクス認証対象の 1つとして血管がある。 この種の先 行技術として、 撮像画像に映し出される血管における端点及び分岐点を特 徴点として抽出し、 該抽出した特徴点を、 登録対象又は登録対象との比較 対象のデ一夕として生成する認証装置が提案されている (例えば特許文献
1参照) 。 この認証装置では、 画像データ自体を登録対象とする場合に比 して、 記憶すべきメモリの占有量を大幅に削減できることになる。 特許文献 1 特開 2 0 0 3— 3 0 3 1 7 8公報。 ところが、 端点及び分岐点は血管に対して離散的なものとなるため、 登 録者であるか否かを判定するための要素としての信頼性が乏しいものとな る。 したがって、 比較対象のデ一夕として生成された特徴点が、 登録対象 のデ一夕として生成されたものと同じように生成されているとしても、 撮 像環境やノイズ等の外的要因、 あるいは、 生体における血管の映り難さ (個人差) 等の内的要因に起因して、 他人であるにもかかわらず本人であ るもの又は本人であるにもかかわらず他人であるものと誤判定する確率が 高い、 つまり認証精度 (登録者であるか否かの判定の精度) が乏しいとい う問題があった。 発明の開示
本発明は以上の点を考慮してなされたもので、 認証精度を向上し得る登 録装置、 照合装置及びプログラムと、 信頼性を向上し得る識別データのデ —夕構造とを提案しょうとするものである。
かかる課題を解決するため本発明は、 登録装置であって、 画像に映し出 される血管線について、 該血管線の端点及び分岐点を基準として分けられ る部分線ごとに、 その形状を表すパラメ一夕を抽出する抽出手段と、 各部 分線におけるパラメ一夕と、 当該部分線の両端の点の位置とを含むデータ を生成する生成手段とを設けるようにした。
また本発明は、 照合装置であって、 画像に映し出される血管線の端点及 び分岐点を基準として分けられる部分線ごとに、 その形状を表すパラメ一 夕と、 該部分線の両端の点の位置とを含むデ一夕が記憶される記憶手段と、 各部分線におけるパラメ一夕及び両端の点を、 登録者であるか否かを判定 するための要素として、 照合対象と照合する照合手段とを設けるようにし た。
さらに本発明は、 プログラムであって、 抽出手段に対して、 画像に映し 出される血管線の端点及び分岐点を基準として分けられる部分線ごとに、 その形状を表すパラメ一夕を抽出すること、 データ生成手段に対して、 各 部分線におけるパラメーダと、 当該部分線の両端の点の位置とを含むデ一 ダを生成することを実行させるようにした。
さらに本発明は、 登録対象として生成される識別データのデータ構造で あって、 識別データは、 画像に映し出される血管線の端点及び分岐点を基 準として分けられる部分線ごとに、 その形状を表すパラメ一夕と、 該部分 線の両端の点の位置とを含む構造を有し、 各部分線におけるパラメ一夕及 び両端の点を、 登録者であるか否かを判定するための要素として、 照合対 象と照合する処理に用いられるものとした。 以上のように本発明によれば、 血管線の特徴をなす点以外に、 血管線自 体の形状を、 当該特徴点を基準として分けられる部分線ごとにパラメ一夕 として抽出することにより、 血管線と一定の関係をもつ状態でその血管線 を離散的に表すことができ、 この結果、 撮像環境やノイズ等の外的要因、 あるいは、 生体における血管の映り難さ (個人差) 等の内的要因による影 響を低減することができる。 かく して、 認証精度を向上し得る登録装置、 照合装置及びプログラムと、 信頼性を向上し得る識別デ一夕のデ一夕構造 とを実現できる。 図面の簡単な説明
図 1は、 本実施の形態による認証装置の全体構成を示すプロック図であ る。
図 2は、 画像処理部の構成を示すブロック図である。
図 3は、 'パターン返還前後の画像を示す略線図である。 . : 図 4は、 端点、 分岐点及び孤立点の周囲における白画素の出現パターン を示す略線図である。
図 5は、 端点、 分岐点及び孤立点の検出の説明に供する略線図である。 図 6は、 端点及び分岐点が検出された画像を示す略線図である。
図 7は、 端点及び分岐点を基準とする屈曲点の検出の説明に供する略線 図である'。
図 8は、 登録処理手順を示すフローチャートである。
図 9は、 識別データのデ一夕構造例を示す略線図である。
図 1 0は、 認証処理手順を示すフローチャートである。
図 1 1は、 部分血管線の連結の説明に供する略線図である。 発明を実施するための最良の形態
以下図面について、 本発明を適用した一実施の形態を詳述する。 ( 1 ) 認証装置の全体構成
図 1において、 本実施の形態による認証装置 1の全体構成を示す。 この 認証装置 1は、 制御部 1 0に対して、 操作部 1 1、 撮像部 1 2、 画像処理 部 1 3、 メモリ 1 4、 照合部 1 5、 イン夕一フェース 1 6及び通知部 1 7 をそれぞれバス 1 6を介して接続することにより構成される。
制御部 1 0 は、 認証装置 1 全体の制御を司 る C P U (Central Processing Unit)と、 各種プログラム及び設定情報などが格納される R 0 M (Read Only Memory)と、 当該 C P Uのワークメモリ としての R A M (Random Access Memory)とを含むコンピュー夕として構成される。
この制御部 1 0には、 登録対象のユーザ (以下、 これを登録者と呼ぶ) の血管を登録するモード (以下、 これを血管登録モードと呼ぶ) の実行命 令 C O M 1又は登録者本人の有無を判定するモード (以下、 これを認証モ ードと呼ぶ) の実行命令 C O M 2が、 ュ一ザ操作に応じて操作部 1 1から 入ガされる。
制御部 1 0は、 かかる実行命令 C O M 1、 C O M 2に基づいて実行すベ きモードを決定し、 この決定結果に対応するプログラムに基づいて、.撮像 部 1 2、 画像処理部 1 3、 メモリ 1 4、 照合部 1 5、 インターフェース 1 6及び通知部 1 7を適宜制御し、 血管登録モ一ド又は認証モ一ドを実行す るようになされている。
撮像部 1 2は、 この認証装置 1の筐体のうち、 .指が配される領域上を撮 像空間とするカメラを有し、 該カメラにおける光学系のレンズ位置、 絞 の絞り値及び撮像素子のシャッター速度 (露出時間) を、 制御部 1 0によ り設定される設定値を基準として調整する。
また撮像部 1 2は、 撮像空間に近赤外光を照射する近赤外光光源を有し、 該近赤外光光源を、 制御部 1 0により指定される期間に点灯させるととも に、 撮像素子の撮像面に映し出される被写体像を所定周期ごとに撮像し、 該撮像結果として生成される画像に関する画像デ一夕を制御部 1 0に順次 出力する。
ここで、 撮像空間に対して例えば指が配される場合、 近赤外光光源から その指の内方を経由した近赤外光は、 血管を投影する光として、 カメラに おける光学系及び絞りを介して撮像素子に入射され、 該撮像素子の撮像面 には指内方における血管が投影される。 したがってこの場合に撮像部 1 2 での撮像結果として生成される画像データに基づく画像には、 血管が映し 出されることとなる。
画像処理部 1 3は、 撮像部 1 2から制御部 1 0を介して与えられる画像 デ一夕に基づいて、 画像に映し出される血管線のなかから特徴となる点 (以下、 これを特徴点と呼ぶ) を検出し、 該特徴点を基準として分けられ る血管線の部分 (以下、 これを部分血管線と呼ぶ) ごとに、 その形状を表 すパラメ一夕 (以下、 これを形状パラメ一夕と呼ぶ) を抽出する。
メモリ 1 4は、 例えばフラッシュメモリでなり、 制御部 1 0により指定 される領域にデータを記憶し、 又は該領域に記憶されるデータを読み出す ようになされている。
照合部 1. 5は、 .画像処理部 1 3により抽出された各形状パラメ一夕に対 応する部分血管線の両端の点と、 メモリ 1 4に登録された各形状パラメ一 夕に対応する部分血管線の両端の点とを照合し、 当該点の位置ずれ量が所 定の閾値以上となる場合には、 その旨を制御部 1 0に通知する。 ·
. 一方、 照合部 1 5は、 位置ずれ量が所定の閾値未満となる場合には、.画 像処理部 1 3により抽出された各形状パラメ一夕と、 メモリ 1 4に登録さ れた各形状パラメ一夕とをそれぞれ照合し、 その照合結果を制御部 1 0に 通知する。
イン夕一フェース 1 6は、 所定の伝送路を介して接続された外部の装置 との間で各種デ一夕を授受するようになされている。
通知部 1 7は、 表示部 1 7 a及び音声出力部 1 7 bでなり、 該表示部 1 7 aは、 制御部 1 0から与えられる表示データに基づく文字や図形を表示 画面に表示する。 一方、 音声出力部 1 7 bは、 制御部 1 0から与えられる 音声データに基づく音声を、 スピーカから出力するようになされている。
( 2 ) 画像処理部の構成
次に、 画像処理部 1 3を具体的に説明する。 この画像処理部 1 3は、 図 2に示すように、 前処理部 2 1、 パターン化部 2 2、 特徴点検出部 2 3、 血管線追跡部 2 4及び形状パラメ一夕抽出部 2 5により構成される。 .
( 2— 1 ) 事前の画像処理
前処理部 2 1は、 撮像部 1 2から制御部 1 0を介して入力される画像デ —夕に対して、.画像回転補正、 ノイズ除去、 画像切出などの前処理を適宜 施し、 その処理後に得られる画像データをパターン化部 2 2に送出する。
( 2 - 2 ) 血管のパターン化
パターン化部 2 2は、 画像デ一夕における多値の画像を、 その画像に映 し出される血管線の線幅が一定でなる 2値画像にパターン化 (変換) する。 この実施の形態で.は、 .パターン化部 2 2は、 血管線の線幅が 1画素でなる 2値画像にパターン化するようになされている。.このパターン化手法の具 体例を説明する。
パターン化部 2 2は、 画像デ一夕に対して、 ガウシアンフィル夕や L o gフィル夕等の微分アイル夕処理を施し、 当該画像に映し出される血管の 輪郭を浮き彫りにし、 該輪郭が浮き彫りにされた画像を、 設定された輝度 値を基準として 2値画像に変換する。 · そしてパターン化部 2 2は、 この 2値画像に映し出される血管線におけ る幅の中心又は輝度ピークを基準として、 該血管線の線幅が 1画素でなる 血管線を抽出するようになされている。
ここで、 パターン変換前後の画像を図 3に示す。 この図 3の例からも明 らかなように、 前処理後に得られる多値の画像 (図 3 ( A ) ) は、 パター ン化部 2 2により、 その画像に映し出される血管線の線幅が一定でなる 2 値の画像 (図 3 ( B ) ) として生成されることとなる。 ( 2 - 3 ) 特徴点の検出
特徴点検出部 2 3は、 2値画像に映し出される血管線を構成する点 (画 素) のうち、 特徴となる点 (以下、 これを特徴点と呼ぶ) を検出する。 こ の検出手法の具体例を説明する。 ちなみに、 2値画像に映し出される血管 線を構成する画素は、 白画素又は黒画素となるが、 この実施の形態では、 白画素として説明する。
特徴点検出部 2 3は、 2値画像を構成する各画素を所定の順序で着目画 素とし、 該着目画素が白画素であった場合、 その周囲の画素 (上下左右方 向における 4画素及び斜め方向における 4画素の計 8画素) に存在する白 画素数を調べる。
ここで、 血管線における端点、 分岐点及び孤立点の出現パターンを図 4 に示す。 この図 4からも明らかなように、 血管が 1画素幅として表現され ている場合、 白画素となる着目画素の周囲の白画素の 「数」 と、 端点、 分 岐点及び孤立点との関係は一義的となり、 また、 分岐パターンとしては、 必ず、 3分岐又は 4分岐のいずれかとなる。
特徴点検出部 2 3は、 例えば図 5に示すように、 白画素となる着目画素 の周囲に 1つの白画素が存在する場合 (図 5 ( A ) ) 、 その着目画素を血 管線の端点としで検出する。 一方、 特徴点検出部 2 3は、 白画素となる着 目画素の周囲に 3つの白画素が存在する場合 (図 5 ( B ) ) 、 その着目画 素を分岐点として検出する。 また特徴点検出部 2 3は、 白画素となる着目. 画素の周囲に 4つの白画素が存在する場合 (図示せず) 、 その着目画素を 分岐点として検出する。 他方、 特徴点検出部 2 3は、 白画素となる着目画 素の周囲に白画素が存在しない場合 (図 5 ( C ) ) 、 その着目画素を孤立 点として検出する。
そして特徴点検出部 2 3は、 検出した端点、 分岐点及び孤立点のうち、 血管線の構成要素とはならない孤立点を削除する。
このように特徴点検出部 2 3は、 線幅が 1画素に一定とされる血管線の うち、 白画素の周囲に存在する白画素数に応じて特徴点を検出することで、 例えばハリスコーナ一と呼ばれる検出手法を採用する場合に比して、 例え ば図 6に示すように、 端点及び分岐点だけを特徴点として確実に検出する ことができるようになされている。
( 2— 4 ) 血管線の追跡
血管線追跡部 24は、 特徴点を基準として血管線を追跡することによつ て、 各特徴点間の相互関係を認識する。 この追跡手法の具体例を説明する。 血管線追跡部 24は、 特徴点のうち分岐点から、 該分岐点に連なる血管 線を他の一の特徴点を検出するまで追跡し、 該検出した他の一の特徴点と、 分岐点とが連結関係にある点同士であるものと認識する。
例えば図 7に示す場合、 血管線追跡部 24は、 各分岐点 DP 1、 DP 2、 D P 3のうち、 例えば画像の下辺に対して最も近い分岐点 D P 1を選択し、 その分岐点 D P 1に連なる血管線を他の一の特徴点 (端点 E P 1、 E P 2、 分岐点 DP 2) を検出するまで追跡する。 .
また血管線追跡部 24は、 分岐点 DP 1に連なる血管線を追跡し終わる と、 画像の下辺に対して 2番目に近い分岐点 D P 2を選択し、 その分岐点 D P 2に連なる血管線のうち、 既に追跡された血管線を除いて、 他の一の 特徴点 (端点 EP 3、 分岐点 DP 3) を検出するまで追跡する。
さらに血管線追跡部 24は、 分岐点 DP 2に連なる血管線を追跡し終わ ると、 画像の下辺に対して 3番目に近い分岐点 D P 3を選択し、 その分岐 . 点 D P 3に連なる血管線のうち、 既に追跡された血管線を除いて、 他の一 の特徴点 (端点 EP 4、 E P 5 ) を検出するまで追跡する。
このようにして血管線追跡部 24は、 各特徴点 DP 1— EP 1、 DP I 一 EP 2、 DP I— DP 2、 DP 2 - E P 3、 DP 2 - DP 3、 D P 3 - E P 4、 DP 3— EP 5同士が連結関係にあるものと認識するようになさ れている。
このようにこの血管線追跡部 24は、 分岐点 DP 1、 DP 2、 DP 3に 連なる血管線すベてを追跡するのではなく、 画像における上下左右の一の 辺に対して近い分岐点から順に、 既に追跡された血管線を除いて、 当該分 岐点に連なる血管線を追跡することによって、 該分岐点間 D P 1—D P 2、 D P 2— D P 3における血管線の重複追跡を回避することができ、 この結 果、 無駄な処理を省く分だけ処理負荷を低減することができるようになさ れている。
( 2 - 5 ) 形状パラメ一夕の抽出
形状パラメ一夕抽出部 2 5は、 血管線追跡部 2 4により連結関係にある ものと認識された特徴点同士の間における部分血管線ごとに、 その形状パ ラメ一夕を抽出する。 この抽出手法の具体例を説明する。
この形状パラメ一夕抽出部 2 5は、 各部分血管線を、 所定の順序で処理 対象として選択し、 該選択した部分血管線について、 画像の垂直方向等の 基準方向に対する、 部分血管線における両端を結ぶ直線のなす角度 (以下、 これを部分線角度と呼ぶ) と、 部分血管線を構成する画素数により表され る部分血管線の長さ (以下、 これを部分線長と呼ぶ) と、 部分血管線を 2 次曲線の多項式で表した場合における各項の係数 (以下、 これを 2次係数 列と呼ぶ) .とを抽出するようになされている。
.具体的に形状パラメ一夕抽出部 2 5は、 2次係数列を抽出する場合、 処 理対象として選択した部分血管線を構成する点 (以下、 これを血管構成点 と呼ぶ)' それぞれを、 次式 y - ρλχ + ρ2 χ ^ Ps -… ( 1 ) に示す 2次曲線の多項式に代入する。
例えば、 血管構成点が m個であった場合、 次式
Figure imgf000012_0001
ヌ 2 = , 2 2+ ?2½ + 3
Figure imgf000012_0002
のように、 m個の多項式が得られることとなる。 ちなみに、 これら ( 1 ) 式及び ( 2 ) 式における p 2、 pい ρ。は、 2次数、 1次数、 0次数にそ れぞれ対応する項の係数、 つまり 2次係数列である。
そして形状パラメ一夕抽出部 2 5は、 各血管構成点を ( 1 ) 式に代入し 終わると、 該代入により血管構成点の数分だけ得られる各多項式の 2次係 数列 P 2、 P.い 。を変化させて、 これら多項式の左辺と右辺との値の差 が最小となるときの 2次係数列 p 2、 p p。を抽出する。
このように形状パラメ一夕抽出部 2 5は、 部分血管線における各々の血 管構成点に対して最も近似する曲線となるときの 2次係数列 p 2、 い' P 0を抽出するようになされている。
( 3 ) 血管登録モード. '
次に、 血管登録モードについて図 8に示すフローチャートを用いて説明 する。 制御部 1 0は、 実行すべきモ一ドとして血管登録モードを決定した 場合、 動作モードを血管登録モ一ドに遷移し、 ステップ S P 1に進む。 制御部 1 0は、 このステヅプ S P 1において、 通知部 1 7に対して、 撮 像空間に対して指を配置させなければならないことを通知させ、 続くステ ヅプ S P 2において、 撮像部 1 2におけるカメラを撮像動作させるととも に、 該撮像部 1 2における近赤外光光源を点灯動作させた後、 次のステツ プ S P 3に進む。 制御部 10は、 このステップ S P 3において、 画像処理部 1 3に対して、 撮像部 1 2から与えられる画像デ一夕から、 当該画像に映し出される血管 線について部分血管線ごとに形状パラメ一夕 (部分線角度、 部分線長及び 2次係数列) を抽出させる。
そして制御部 10は、 画像処理部 13において部分血管線ごとの形状パ ラメ一夕が抽出された場合、 次のステップ S P 4において、 これら形状パ ラメ一夕と、 その形状パラメ一夕に対応する部分血管線の両端の点の位置 とを識別デ一夕として生成し、 該識別データをメモリ 14に記憶すること により登録した後、 この血管登録モードを終了する。
このようにして制御部 10は、 血管登録モードを実行することができる ようになされている。
('4) 識別デ一夕のデ一夕構造
ここで、 この識別デ一夕のデ一夕構造例を図 9に示す。 この識別データ は、 血管線における特徴点 (端点及び分岐点) の位置を表す第 1のフアイ ル (以下、 これを位置ファイルと呼ぶ) FL 1と、 該血管線における部分 線ごとの形状パラメ一夕を表す第 2のファイル (以下、 これをパラメ一夕 ファイルと呼ぶ) F L 2とを有するデ一夕構造となっている。
この位置ファイル F L 1には、 特徴点の数を 「N」 とした場合、 各特徴 点 (端点及び分岐点) の位置を表す X— y座標値 (Xい. y ) 、 (X 2、 y 2 ) s (x3、. y.3) 、 .' 、 (χΝ、 yN) が格納される。 .
一方、 パラメ一夕ファイル F L 2には、 部分血管線の数を 「M」 とした 場合、 部分血管線の両端の点のうち一方の点における位置を参照するため' のイ ンデックス I S 1、 I S 2、 I S 3、 ……、 I SMを表す値と、 他方の点 における位置を参照するためのインデックス I Eい IE2、 IE3、 、
I EMを表す値とがそれぞれ格納される。
またパラメ一夕ファイル FL 2には、 部分線角度 01 θ 2N3, ……、 ΘΜを表す値と、 部分線長 Lい L2、 L3、 ……、 LMを表す値と、 2次 係数列 c 2、 c 3、 ··· ···、 C Mを表す値とがそれぞれ格納される。
ちなみに、 2次係数列 Cい C 2、 C 3、 ……、 C Mを表す値は、 それぞ れ、 ( 1 ) 式における p 2、 pい p。の各値である。
この識別デ一夕は、 各部分血管線の両端の点の位置を表す X— y座標値 をそれぞれ保持するのではなく、 特徴点 (端点及び分岐点) の位置を表す
X— y座標値から各部分血管線の両端の点の位置を参照するデ一夕構造と なっている。
仮に、 部分血管線の両端の点における位置をそれぞれ保持するデータ構 造とした場合、 分岐点は 2以上の部分血管線の両端の一方の点となるので、 同位置を表す X— y座標値を分岐点数分だけ保持しなければならないこと になる。
これに対し、 この識別データは、 特徴点 (端点及び分岐点) の位置を表 す X— y座標値から各部分血管線の両端の点の位置を参照するデ一夕構造 となって.いるので、 同位置を表す x— y座標値を保持することがないので、 メモリ 1 4に対する占有量を削減することができるようになされている。 ( 5 ) 認証モード
次に、 認証モードについて図 1 0に示すフローチャートを用いて説明す る。 制御部 1 0は、 実行すべきモ一ドとして認証モードを決定した場合、 動作乇一ドを認証モードに遷移し、 ステップ S P 1 1に進む。
制御部 1 0は、 この.ステップ S P 1 1において、 通知部 1 .7に対して、 撮像空間に対して指を配置させなければならないことを通知させ、 続くス テツプ S P 1 2において、 撮像部 1 2におけるカメラを撮像動作させると ともに、 該撮像部 1 2における近赤外光光源を点灯動作させた後、 次のス テツプ S P 1 3に進む。
制御部 1 0は、 このステップ S P 1 3において、 画像処理部 1 3に対し て、 撮像部 1 2から与えられる画像デ一夕から、 当該画像に映し出される 血管線について部分血管線ごとに形状パラメ一夕 (部分線角度、 部分線長 及び 2次係数列) を抽出させる。
そして制御部 1 0は、 画像処理部 1 3において部分血管線ごとの形状パ ラメ一夕が抽出された場合、 次のステップ S P 1 4において、 メモリ 1 4 から識別デ一夕を読み出し、 続くステップ S P 1 5において、 照合部 1 5 に対して、 該画像処理部 1 3において抽出された各形状パラメ一夕および その形状パラメ一夕に対応する部分血管線の両端の点の位置と、 メモリ 1 4に識別デ一夕として登録される各形状パラメ一夕およびその形状パラメ 一夕に対応する部分血管線の両端の点の位置とを照合させる。
この後、 制御部 1 0は、 ステップ S P 1 6において、 照合部 1 5から通 知ざれる通知内容から、 登録者と承認することができるか否かを判定し、 その判定に応じた処理を実行する。
すなわち、 照合部 1 5かち、 各形状パラメ一夕に対応する部分血管線の 両端の点の位置ずれ量が所定の閾値以上となる旨の通知を受けた場合、 こ のことは、 血管線の根幹ともいうべき端点及び分岐点の相対位置関係が近 似して.いないことを意味する。
また、 照合部 1 5から通知される形状パラメ一夕の類似度が基準未満と なる場合、 このこどは、 血管線の根幹ともいうべき端点及び分岐点の相対 位置関係は近似しているが、 これら端点及び分岐点を基準として血管線を 部分血管線としてみたときの各部分の線の形状が近似していないことを意 味する。
これらの場合、 制 部 1 0は、 登録者と承認することができないものと 判定し、 その旨を表示部 1 7 a及び音声出力部 1 7 bを介して視覚的及び 聴覚的に通知するようになされている。
一方、 照合部 1 5から通知される形状パラメ一夕の類似度が基準以上と なる場合、 このことは、 血管線の根幹ともいうべき端点及び分岐点の相対 位置関係、 および、 これら端点及び分岐点を基準として血管線を部分血管 線としてみたときの各部分の線自体の形状が近似している、 つまり血管線 全体として近似していることを意味する。
この場合、 制御部 1 0は、 登録者と承認することができるものと判定し、 登録者と承認したことを表すデータを、 インターフェース 1 6に接続され た装置に送出する。 この装置では、 登録者と承認したことを表すデ一夕を トリガとして、 例えば、 ドアを一定期間閉錠させる、 あるいは、 制限対象 の動作モードを解除させる等、 認証成功時に実行すべき所定の処理が行わ れる。
このようにしてこの制御部 1 0は、 認証モードを実行することができる ようになされている。
( 6 ) 動作及び効果
以上のように、 この認証装置 1は、 血管線における端点及び分岐点を基 準として分けられる複数の部分血管線ごとに、 その形状を表すパラメ一夕 (形状パラメ一夕) を抽出し、 これら部分線における形状パラメ一夕と、 当該部分線.の両端の点の位置とを含む識別デ一夕を生成する。 ·
したがつてこの認証装置 1は、 血管線の特徴をなす点以外に、 血管線自 体の形状を、. 当該血管線と一定の関係をもつ状態で離散的に表すことがで きるため、 撮像環境やノイズ等の外的要因、 あるいは、 生体における血管 の映り難さ (個人差) 等の内的要因に起因して、 他人であるにもかかわら ず本人であるもの又は本人であるにもかかわらず他人であるものと誤判定 する確率を低減することができ、 かく して認証精度を向上することができ る。 また、 登録対象のメモリ占有量を低減することもできる。 . · この実施の形態の場合、 認証装置 1は、 形状パラメ一夕として、 部分線 角度、 部分線長及び 2次係数列の 3種を抽出する。 したがって、 認証装置 1は、 部分血管線を、 直線としてみたときの方向、 長さ、 部分血管線に近 似される曲線との関係で表される係数によって表現する、 つまり 3つの異 なる観点から部分血管線の形状を表現できるため、 より一段と認証精度を 向上することができる。 以上の構成によれば、 血管線の特徴をなす点以外に、 血管線自体の形状 を、 当該血管線と一定の関係をもつ状態で離散的に表すことができるよう にしたことにより、 撮像環境やノイズ等の外的要因、 あるいは、 生体にお ける血管の映り難さ (個人差) 等の内的要因による影響を低減することが でき、 かくして認証精度を向上し得る認証装置 1を実現できる。
( 7 ) 他の実施の形態
上述の実施の形態においては、 血管線を、 1画素の線幅に一定とするよ うにした場合について述べたが、 本発明はこれに限らず、 これ以外の線幅 に一定とするようにしてもよい。 また、 血管線の線幅を一定とする処理を 省くようにしてもよい。
ただし、 血管線を、 1画素以外の線幅に一定とする場合、 または、 血管 線の線幅を一定とする処理を省く場合、 図 3に示したように、 白画素とな る着目画素の周囲の白画素の 「数」 と、 端点、 分岐点及び孤立点との関係 は一義的ではなくなる。 .
したがって、 これらの場合、 特徴点の検出手法は、 白画素となる着目画 素の周囲における白画素数に応じて端点又は分岐点を検出する上述の手法 に代えて、 例えば、 ハリスコ一ナ一と呼ばれる検出手法等を採用すること を要する。 このようにすれば、 上述の実施の形態における検出手法に比し て精度が劣るが、 上述の実施の形態の場合と同様の効果を得ることができ 'る。 . . . . .
また.上述の実施の形態においては、 血管線について、 最も近い状態で連 結関係にある特徴点間 (血管線追跡部 2 4により連結関係にあるものと認 識された特徴点間) における部分血管線ごとに、 その形状パラメ一夕を抽 出するようにした場合について述べたが、 本発明はこれに限らず、 例えば、 当該特徴点間における部分血管線のうち、 定められた線長未満の部分血管 線を削除し、 その削除後の部分血管線ごとに、 その形状パラメ一夕を抽出 するようにしてもよい。 このことは、 特徴点を基準としていれば、 血管線 を複数の部分血管線として分ける態様は問わないということである。
なお、 削除手法の一例を挙げる。 血管線追跡部 2 4は、 連結関係にある ものと認識された特徴点間における各部分血管線のうち、 長さ (画素数) が所定の閾値未満となる部分血管線を検出した場合、 該部分血管線におけ る両端の点の一方が端点であるか否かを調べる。
ここで、 両端の点の一方が端点である場合、 このことは、 当該部分血管 線が血管線の端に相当するものであることを意味する。 この場合、 血管線 追跡部 2 4は、 血管線全体に対する影響の程度が極めて小さく特徴部分の 信頼性が乏しいものとして、 当該部分血管線を、 その部分血管線における 分岐点を除いて削除する。 ちなみに図 7の例では、 例えば分岐点 D P 2と、 端点 E P 4との間の部分血管線が、 該分岐点 D P 2を除いて削除されるこ ととなる。
—方、 両端の点の一方が端点でない場合、 このことは、 当該部分血管線 の両端の点の双方が分岐点であって、 当該部分血管線が血管線の中間に相 当するものであることを意味する。
この場合、 血管線追跡部 2 4は、 一方の分岐点に連なる部分血管線の数 と、 他方の分岐点に連なる部分血管線の数とを比較し、 例えば図 1 1 ( A ) に示すように、 その数に差があるときには、 部分血管線の数が少な いほうの分岐点を削除し、 当該部分血管線を、 隣接する部分血管線と連結 させることで削除する。
この図 1 .1 ( A ) の例では、 部分血管線 P B L aが、 部分血管線 P B L bと連結されて一の部分血管線 P B L a - bとして形成されることで削除 され、 該部分血管線 P B L cと連結されて一の部分血管線 P B L a - c.と して形成されることで削除されることになる。
これに対して、 例えば図 1 1 ( B ) に示すように、 部分血管線の数に差 がないとき、 血管線追跡部 2 4は、 一方の分岐点に連なる部分血管線に属 する端点の数と、 他方の分岐点に連なる部分血管線の部分血管線に属する 端点の数とのうち、 その数の少ないほうの分岐点を削除し、 当該部分血管 線を、 '隣接する部分血管線と連結させることで削除する。
この図 1 1 ( B ) の例では、 図 1 1 ( A ) と同様に、 部分血管線 P B L aが、 部分血管線 P B L bと連結されて一の部分血管線 P B L a - bとし て形成されることで削除され、 該部分血管線 P B L cと連結されて一の部 分血管線 P B L a - cとして形成されることで削除されることになる。
このようにして、 例えば血管線追跡部 2 4において、.定められた線長未 満の部分血管線を削除することができる。
さらに上述の実施の形態においては、 形状パラメ一夕として、 部分線角 度、 部分線長及び 2次係数列を抽出するようにした場合について述べたが、 本発明は、 これら部分線角度、 部分線長及び 2次係数列の全部もしくは一 部に代えて、 又は、 部分線角度、 部分線長及び 2次係数列に加えて、 例え ばベジエ関数の制御点列等、 この他種々のものを幅広く適用することがで きる。 ちなみに、 形状パラメ一夕のパラメ一夕数としては 1つであっても 2以上であってもよい。
さらに上述の実施の形態においては、 形状パラメ一夕の抽出数を固定と した場合について述べたが、 本発明はこれに限らず、 該部分血管線の起伏 · の程度に応じて可変とするようにしてもよい。
この可変手法の一例を挙げる。 形状パラメ一夕抽出部 2 5は、 処理対象 として部分血管線を選択するごとに、 当該部分血管線と、. その部分血管線' の両端の点を.結ぶ直線との交差数を調べる。 ここで、 交差数が、 第 1の範 囲として割り当てられた 「0」 以上 「2」 未満となる場合、 形状パラメ一 夕抽出部 2 5は、 部分線角度、 部分線長及び 2次係数列のうち、. 2次係数 列だけを抽出対象として設定して抽出する。
一方、 交差数が、 第 1の範囲よりも大きい第 2の範囲として割り当てら れた 「 2」 以上 「 5」 未満となる場合、 形状パラメ一夕抽出部 2 5は、 部 分線角度、 部分線長及び 2次係数列のうち、 2次係数列と、 部分線角度及 び部分線長のいずれか一方を抽出対象として設定して抽出する。 他方、 交差数が、 第 2の範囲よりも大きい第 3の範囲として割り当てら れた 「 5」 以上となる場合、 形状パラメ一夕抽出部 2 5は、 部分線角度、 部分線長及び 2次係数列を抽出対象として設定して抽出する。
このようにして形状パラメ一夕抽出部 2 5は、 必須の抽出対象として選 定された形状パラメ一夕 (この例では部分血管線に対して 2次曲線近似さ せたときの 2次係数列) に対して、 部分血管線と、 その部分血管線の両端 の点を結ぶ直線との交差数が多いほど、 他の形状パラメ一夕を抽出対象と して加えて、 形状パラメ一夕の抽出数を多くする。
このようにすれば、 デ一夕量を極力抑えた状態で、 血管線の形状を一段 と詳細に特定することが可能となる。
さらに上述の実施の形態においては、 部分血管線について 2次曲線の多 項式で表した場合における各項の係数を、 形状パラメ一夕の 1つとして抽 出するようにした.場合について述べたが、 曲線の次数としては、' 2次に限 るものではなく、 他の次数であってもよい。
また、 n次曲線の多項式で表した場合における各項の係数については、. ( 1 ) 式のように、 X方向に対する係数を抽出するようにした場合につい て述べたが、 本発明はこれに限らず、 次式 x = Pxy2 + p2y + P3 …… (3 ) のように、 y方向.に対する係数を求めるようにしてもよい。 ただし、 血管 凝は、 おおよそ同方向に伸びるという性質があることから、 当該血管線の 伸長方向と同方向となる方向に対する係数を求めるほうが望ましい。
さらに、 n次曲線の多項式で表した場合における各項の係数を固定、 つ まり曲線の次数を固定するようにした場合について述べたが、 該部分血管 線の曲線の起伏の程度に応じて可変とするようにしてもよい。
具体的には、 例えば、 部分血管線の両端の点を結ぶ直線と、 該部分血管 線との交差数が多いほど、 n次曲線の次数を高く設定して抽出するように する。 このようにすれば、 一段と詳細に血管線の形状を表す係数を抽出す ることが可能となる。
なお、 部分血管線の両端の点を結ぶ直線と、 該部分血管線との交差数が 多いほど、 n次曲線の次数を高く設定するとともに、 形状パラメ一夕の抽 出数を多く設定するようにしてもよい。
さらに上述の実施の形態においては、 位置ファイル F L 1及びパラメ一 夕ファイル F L 2を有するデ一夕構造でなる識別デ一夕 (図 9 ) を生成す るようにした場合について述べたが、 本発明はこれに限らず、 該パラメ一 夕ファイル F L 2の内容 (各形状パラメ一夕) が形状パラメ一夕抽出部 2 5の抽出過程を経て抽出されたものであることを表す識別子をヘッダとし て付加するようにしてもよい。
このようにすれば、 識別子によって、 パラメ一夕ファイル F L 2に保持 される形状パラメ一夕 (部分線角度、 部分線長及び ·2次係数列) が実際の 血管線への高い再現性をもつ要素となるものであることを簡易に証明する ことができる。
また、 識別子を識別デ一夕に付加するようにした場合、 認証モ一ドのス テヅプ S P 1 4 (図 1 0 ) において、 制御部 1 0が、. メモリ 1 4から識別 · データを読み出したときに、 該識別デ一夕に、 パラメ一夕ファイル F L 2 (図 9 ) の内容が形状パラメ一夕抽出部 2 5の抽出過程を経て抽出された ものであることを表す識別子が付加されているか否かを判定し、 付加され ていない場合、 メモリ 1 4から識別デ一夕を破棄した後に、 認証処理を終 了するようにしてもよい。
このようにすれば、 一定レベルの抽出精度を経て抽出された形状パラメ —夕以外のものとの照合を回避して、 認証精度の低下を未然に防止するこ とができる。
さらに上述の実施の形態においては、 R Ο Μに格納されたプログラムに したがって上述の登録処理又は認証処理を実行するようにした場合につい て述べたが、 本発明はこれに限らず、 C D ( Compact Disc )、 D V D (Digital Versati le Disc ), 半導体メモリ等のプログラム格納媒体からィ ンス トールし、 又はィン夕一ネッ ト上のプログラム提供サーバからダウン 口一ドすることにより取得したプログラムにしたがって上述の登録処理又 は認証処理を実行するようにしてもよい。
さらに上述の実施の形態においては、 撮像機能、 照合機能及び登録機能 を有する認証装置 1を適用するようにした場合について述べたが、 本発明 はこれに限らず、 当該用途に応じて、 機能ごとに又は各機能の一部を単体 の装置に分けた態様で適用するようにしてもよい。 産業上の利用可能性
本発明は、 バイオメ ト リクス認証分野において利用可能である。

Claims

1 . 画像に映し出される血管線について、 該血管線の端点及び分岐点を基 準として分けられる部分線ごとに、 その形状を表すパラメ一夕を抽出する 抽出手段と、
各上記部分線における上請記パラメ一夕と、 当該部分線の両端の点の位置 とを含むデータを生成する生成手段と
を具えることを特徴とする登録装置。
2 . 上記抽出手段は、
上記部分線ごとに、 その部分線を n次曲線の多項式で表した場合におけ 囲
る各項の係数と、 基準方向に対するその部分線の両端を結ぶ直線のなす角 度、 その部分線の長さ又は上記角度かつ上記長さとを抽出する
ことを特徴とする請求項 1に記載の登録装置。
3 . 上記抽出手段は、 · '
上記部分線の両端の点を結ぶ直線との交差数が多いほど、 上記パラメ一 夕の抽出数を多く設定する
ことを特徴とする請求項 1に記載の登録装置。 ' .
4 . 上記抽出手段は、
上記部分線ごとに、 その部分線を n次曲線の多項式で表した場合におけ る各項の係数を抽出し、
上記部分線の両端の点を結ぶ直線との交差数が多いほど、 上記 n次曲線 の次数を高く設定する
ことを特徴とする請求項 1に記載の登録装置。
5 . 上記抽出手段は、
上記部分線の両端の点を結ぶ直線との交差数が多いほど、 上記 n次曲線 の次数を高く設定するとともに、 上記係数以外の上記パラメ一夕の抽出数 を多く設定する ことを特徴とする請求項 4に記載の登録装置。
6 . 画像に映し出される血管線の端点及び分岐点を基準として分けられる 部分線ごとに、 その形状を表すパラメ一夕と、 該部分線の両端の点の位置 とを含むデータが記憶される記憶手段と、
各上記部分線における上記パラメ一夕及び上記両端の点を、 登録者であ るか否かを判定するための要素として、 照合対象と照合する照合手段と を具えることを特徴とする照合装置。
7 . 上記照合手段は、
各上記部分線における上記両端の点と、 照合対象とされる点とを照合し、 当該点の位置ずれ量が許容される限度以上となる場合、 各上記部分線にお ける上記パラメ一夕と、 照合対象とされるパラメ一夕とを照合する照合手 段と
を具えることを特徴とする請求項 6に記載の照合装置。 '·
8 . 上記照合手段は、
上記データに、 上記パラメ一夕が所定の抽出過程を経て抽出されたもの であることを表す識別子が含まれていない場合には、 上記照合対象との照 合を停止する
ことを特徴とする請求項 6に記載の照合装置。
9 . 上記抽出過程は、
上記部分線の両端の点を結ぶ直線との交差数が多いほど、 上記パラメ一 夕の抽出数を多く設定するものである
ことを特徴とする請求項 8に記載の照合装置。
1 0 . 抽出手段に対して、 画像に映し出される血管線の端点及び分岐点を 基準として分けられる部分線ごとに、 その形状を表すパラメ一夕を抽出す ること、
データ生成手段に対して、 各上記部分線における上記パラメ一夕と、 当 該部分線の両端の点の位置とを含むデ一夕を生成すること を具えることを特徴とするプログラム。
1 1 . 登録対象として生成される識別デ一夕のデ一夕構造であって、 上記識別デ一夕は、
画像に映し出される血管線の端点及び分岐点を基準として分けられる部 分線ごとに、 その形状を表すパラメ一夕と、 該部分線の両端の点の位置と を含む構造を有し、
各上記部分線における上記パラメ一夕及び上記両端の点を、 登録者であ るか否かを判定するための要素として、 照合対象と照合する処理に用いら れる
ことを特徴とするデ一夕構造。
1 2 . 上記画像に映し出される血管線の端点及び分岐点を基準として分け られる部分線ごとに、 その形状を表すパラメータと、.該部分線の両端の点 の位置を参照するための情報とがーのファイルとして保持され、
上記端点及び分岐点の位置が、 上記位置の参照対象となるファイルとし て保持された構造を有する
ことを特徴とする請求項 1 1に記載のデ一夕構造。 ·
1 3 . 上記識別デ一夕は、
各上記部分線における上記両端の点を、 照合対象とされる点と照合し、 当該点の位置ずれ量が許容される限度以上となる場合、 各上記部分線にお ける上記パラメ一夕を、 照合対象とされるパラメ一夕とを照合する処理に 用いられる
ことを特徴とする請求項 1 1に記載のデ一夕構造。 . ノ
1 . 上記識別データは、
各上記部分線における上記パラメ一夕及び上記両端の点と、 当該パラメ 一夕が所定の抽出過程を経て抽出されたものであることを表す識別子とを 含む構造を有し、
上記抽出過程は、 上記部分線の両端の点を結ぶ直線との交差数が多いほど、 上記パラメ一 夕の抽出数を多く設定するものである
ことを特徴とする請求項 1 1に記載のデータ構造。
PCT/JP2008/059298 2007-05-15 2008-05-14 登録装置、照合装置、プログラム及びデ-タ構造 WO2008143271A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US12/600,030 US8374419B2 (en) 2007-05-15 2008-05-14 Registering device, checking device, program, and data structure
EP08753026A EP2146318A4 (en) 2007-05-15 2008-05-14 RECORDING DEVICE, TEST DEVICE, PROGRAM AND DATA STRUCTURE
CN200880016157A CN101681510A (zh) 2007-05-15 2008-05-14 登记设备、检查设备、程序和数据结构

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007129524A JP5050642B2 (ja) 2007-05-15 2007-05-15 登録装置、照合装置、プログラム及びデータ構造
JP2007-129524 2007-05-15

Publications (1)

Publication Number Publication Date
WO2008143271A1 true WO2008143271A1 (ja) 2008-11-27

Family

ID=40031966

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2008/059298 WO2008143271A1 (ja) 2007-05-15 2008-05-14 登録装置、照合装置、プログラム及びデ-タ構造

Country Status (5)

Country Link
US (1) US8374419B2 (ja)
EP (1) EP2146318A4 (ja)
JP (1) JP5050642B2 (ja)
CN (1) CN101681510A (ja)
WO (1) WO2008143271A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018077862A (ja) * 2013-09-16 2018-05-17 アイベリファイ インコーポレイテッド バイオメトリック認証のための特徴抽出およびマッチングおよびテンプレート更新

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008052701A (ja) * 2006-07-28 2008-03-06 Sony Corp 画像処理方法、画像処理装置及びプログラム
WO2008143270A1 (ja) * 2007-05-15 2008-11-27 Sony Corporation 登録装置、照合装置、プログラム及びデータ構造
JP5050644B2 (ja) 2007-05-15 2012-10-17 ソニー株式会社 登録装置、照合装置、プログラム及びデータ構造
JP2011203822A (ja) * 2010-03-24 2011-10-13 Sony Corp 生体認証装置、生体認証方法及びプログラム
JP5671281B2 (ja) * 2010-08-20 2015-02-18 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
CN104751112B (zh) * 2013-12-31 2018-05-04 石丰 一种基于模糊特征点信息的指纹模板及指纹识别方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274630A (ja) * 1993-03-18 1994-09-30 Komatsu Ltd 線状パターン認識装置
JP2003303178A (ja) 2002-04-12 2003-10-24 Nec Corp 個人識別システム
JP2004054698A (ja) * 2002-07-22 2004-02-19 Io Network:Kk 個人識別装置
JP2005122480A (ja) * 2003-10-16 2005-05-12 Konica Minolta Photo Imaging Inc Idカードシステム及び認証方法
JP2006330872A (ja) * 2005-05-24 2006-12-07 Japan Science & Technology Agency 指紋照合装置、方法およびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6728561B2 (en) * 2001-08-14 2004-04-27 University Of Alabama In Huntsville Multispectral image processing method, apparatus and computer program product for determining the blood oxygen saturation in a vessel
JP4262471B2 (ja) * 2002-11-12 2009-05-13 富士通株式会社 生体特徴データ取得装置
JP2005219630A (ja) * 2004-02-05 2005-08-18 Pioneer Electronic Corp 操作制御装置、処理制御装置、操作制御方法、そのプログラム、および、そのプログラムを記録した記録媒体
JP4556111B2 (ja) * 2004-09-02 2010-10-06 ソニー株式会社 情報処理装置
JP2008052701A (ja) * 2006-07-28 2008-03-06 Sony Corp 画像処理方法、画像処理装置及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274630A (ja) * 1993-03-18 1994-09-30 Komatsu Ltd 線状パターン認識装置
JP2003303178A (ja) 2002-04-12 2003-10-24 Nec Corp 個人識別システム
JP2004054698A (ja) * 2002-07-22 2004-02-19 Io Network:Kk 個人識別装置
JP2005122480A (ja) * 2003-10-16 2005-05-12 Konica Minolta Photo Imaging Inc Idカードシステム及び認証方法
JP2006330872A (ja) * 2005-05-24 2006-12-07 Japan Science & Technology Agency 指紋照合装置、方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2146318A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018077862A (ja) * 2013-09-16 2018-05-17 アイベリファイ インコーポレイテッド バイオメトリック認証のための特徴抽出およびマッチングおよびテンプレート更新

Also Published As

Publication number Publication date
CN101681510A (zh) 2010-03-24
US20100226558A1 (en) 2010-09-09
JP5050642B2 (ja) 2012-10-17
EP2146318A1 (en) 2010-01-20
EP2146318A4 (en) 2012-04-04
US8374419B2 (en) 2013-02-12
JP2008287354A (ja) 2008-11-27

Similar Documents

Publication Publication Date Title
KR102466997B1 (ko) 라이브니스 검사 방법 및 장치
US8049596B2 (en) Correlation-based biometric authentication apparatus, authentication method and program
WO2008143271A1 (ja) 登録装置、照合装置、プログラム及びデ-タ構造
JP4247691B2 (ja) 登録装置、照合装置、登録方法、照合方法及びプログラム
WO2018042996A1 (ja) 生体検知装置
US20100239128A1 (en) Registering device, checking device, program, and data structure
US20100135531A1 (en) Position Alignment Method, Position Alignment Device, and Program
WO2008062891A1 (fr) Dispositif d'authentification, registre, procédé d'enregistrement, programme d'enregistrement, procédé d'authentification et programme d'authentification
KR20210069404A (ko) 라이브니스 검사 방법 및 라이브니스 검사 장치
KR20090058460A (ko) 인증 장치 및 인증 방법
US20100008546A1 (en) Pattern identification method, registration device, verification device and program
JP4882794B2 (ja) 画像判定装置、画像判定方法及びプログラム
KR102174083B1 (ko) 딥 러닝 기반의 지정맥을 이용한 생체 인식 장치 및 방법
JP2008102607A (ja) 登録装置、照合装置、認証方法及び認証プログラム
JP2008198083A (ja) 個人識別装置
US8483449B2 (en) Registration device, checking device, program, and data structure
US7912293B2 (en) Image processing system and image judgment method and program
JP2006277146A (ja) 照合方法および照合装置
JP4900701B2 (ja) 認証システム
JP2006072555A (ja) 生体情報画像補正装置
JP4624039B2 (ja) 生体情報認証装置
JP4257264B2 (ja) パターン照合装置、画像品質検証方法及び画像品質検証プログラム
JPH09147113A (ja) 指紋照合方法及び装置
JP4386347B2 (ja) 画像認識装置及び画像認識方法
EP2146317A1 (en) Registering device, checking device, program, and data structure

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200880016157.6

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08753026

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2008753026

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 12600030

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE