WO2021250858A1 - 認証方法、認証プログラム、および情報処理装置 - Google Patents

認証方法、認証プログラム、および情報処理装置 Download PDF

Info

Publication number
WO2021250858A1
WO2021250858A1 PCT/JP2020/023056 JP2020023056W WO2021250858A1 WO 2021250858 A1 WO2021250858 A1 WO 2021250858A1 JP 2020023056 W JP2020023056 W JP 2020023056W WO 2021250858 A1 WO2021250858 A1 WO 2021250858A1
Authority
WO
WIPO (PCT)
Prior art keywords
similarity
feature
feature points
feature point
person
Prior art date
Application number
PCT/JP2020/023056
Other languages
English (en)
French (fr)
Inventor
福田充昭
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to JP2022530462A priority Critical patent/JP7315884B2/ja
Priority to CN202080101186.3A priority patent/CN115668311A/zh
Priority to EP20940142.1A priority patent/EP4167179A4/en
Priority to PCT/JP2020/023056 priority patent/WO2021250858A1/ja
Publication of WO2021250858A1 publication Critical patent/WO2021250858A1/ja
Priority to US17/980,072 priority patent/US20230070660A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1359Extracting features related to ridge properties; Determining the fingerprint type, e.g. whorl or loop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1382Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
    • G06V40/1388Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger using image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Definitions

  • This case relates to an authentication method, an authentication program, and an information processing device.
  • the calculation load becomes large in order to identify the palmistry. Therefore, if an attempt is made to specify the palmistry with a small calculation load, the identification accuracy will decrease, and as a result, the authentication accuracy will also decrease.
  • the authentication method extracts the feature amount of each of the plurality of feature points of the living body from the photographed data of the living body, and corresponds to the feature amount of each of the extracted feature points and each of the plurality of feature points.
  • the storage unit that calculates the similarity with the feature amount stored in the storage unit in association with the feature points, and stores the weight information indicating the weight applied to the similarity in association with the similarity.
  • the weight information associated with the calculated similarity is acquired, and the authentication process of the living body is performed based on the similarity newly generated by applying the acquired weight information to the calculated similarity.
  • the computer performs the processing.
  • biometric authentication technology using a part of the human body such as a fingerprint pattern, a vein pattern, and a facial image has become widespread in recent years.
  • biometric authentication the user's biometric information is acquired using a sensor such as a camera, the acquired biometric information is converted into collable biometric features, and collation data is generated and collated with the registered data.
  • a sensor such as a camera
  • collation data is generated and collated with the registered data.
  • a plurality of feature points suitable for biometric authentication are selected from an image of a biological part acquired by a sensor, and the biometric feature amount for each selected feature point is extracted and the feature points.
  • Identity verification is performed by collating the biometric features of each.
  • the similarity score (hereinafter referred to as the feature point score) is obtained by collating the biological feature amount for each feature point corresponding to the collation data and the registered data, and the feature point scores of multiple feature points are integrated. do.
  • the integrated feature point score is hereinafter referred to as a total collation score.
  • Identity verification can be performed by determining whether the total collation score is larger than the predetermined identity determination threshold.
  • FIG. 1 is a diagram illustrating feature points.
  • attention is paid to the feature points appearing on the fingerprint.
  • the biological feature amount (branch direction, number of branches, etc.) at the feature point such as the branch point can be used.
  • the similarity score (feature point score) of the biological feature amount is calculated between each feature point in the registered data and each corresponding feature point in the collation data generated at the time of collation. ..
  • Total matching score for example, the feature point scores obtained by matching the N feature points respectively as s i, it is determined by the following formula (1). And associating the N feature points extracted from the biometric image registration and matching, calculates a feature point score s_ i for each is associated with the feature point pairs, as a total matching score, the feature point of each feature point pairs Find the average score. Since there is a range of variation in the degree of similarity for each feature point, a total collation score obtained by averaging the feature point scores of a plurality of feature points is calculated and used for personal determination. As a result, the identity determination result is stable.
  • the biometric feature amount of each feature point is a value unique to the individual.
  • the biometric sensor acquires biometric information, so that even the person himself / herself may not always be able to obtain exactly the same biometric features.
  • the biological feature amount of each feature point is a value peculiar to an individual, even if some fluctuation occurs, in the case of the person himself / herself, the feature point score is high because the biological feature amount is very similar, and another person. In the case of, the feature point score is low because the biological features are not similar.
  • the collation data may include "features that are commonly detected in biometric information acquired by biosensors (hereinafter referred to as resident features) regardless of the person or others".
  • resident features features that are commonly detected in biometric information acquired by biosensors
  • the biological feature amount of the collation data and the biological feature amount of the registered data of another person may be similar, and the feature point score may be high.
  • the influence of the resident feature spreads to the total collation score.
  • the total collation score between the collation data and the registered data of another person becomes high, the probability of an authentication error in which the person is erroneously determined to be the person is high, and the authentication accuracy may decrease.
  • a resident feature that is common to many people regardless of the person or others
  • a feature that many people have in common such as wrinkles on the surface of the living body.
  • the wrinkles may be similar between the person and another person.
  • the feature point score of the feature points in the vicinity of the detected wrinkles may be high regardless of whether the person is the person or another person.
  • resident features include scratches and dirt on biosensors. As illustrated in FIG. 3, when the sensor has scratches or stains, the appearance of the scratches or stains may be similar regardless of the person or another person. In this case, the feature point score of the feature points in the vicinity of the detected scratches or stains may be high regardless of whether the person is the person or another person.
  • FIG. 4 Another example of a resident feature is due to environmental influences such as lighting reflections. As illustrated in FIG. 4, when a specific part always appears bright due to reflection of lighting or the like, the appearance of the bright part may be similar regardless of the person or another person. In this case, the feature point score of the feature point of the part that looks bright may be high regardless of whether the person or another person.
  • palmistry (lifeline, etc.). Since palmistry may vary from individual to individual, it may be used as a biological feature. However, palmistry is not always suitable for biometrics because it may be similar to other people. As illustrated in FIG. 5, palmistry may be similar even among other people. In this case, the feature point score of the feature points near the palmistry may be high regardless of the person or another person.
  • a method in which the weight of authentication is reduced for the part where the resident feature exists by extracting and identifying the resident feature such as palmistry from the photographed image each time the identity is confirmed. Will be.
  • the calculation load becomes large in order to identify the resident special work every time the identity is confirmed. Therefore, if an attempt is made to specify a resident feature with a small calculation load, the identification accuracy is lowered, and as a result, the authentication accuracy is also lowered.
  • the appearance frequency of the feature point score obtained by collating each of the corresponding feature points between the registered data and the collation data is shown in FIG. ..
  • the score distribution of the person pair is the frequency distribution of the feature point score when the collation data and the registered data of the person are collated.
  • the score distribution for another person is the frequency distribution of the feature point score when the collation data and the registered data of another person are collated.
  • the frequency distribution of the feature point score for each person is largely distributed in the range where the feature point score is large.
  • the frequency distribution of the feature point score of another pair is largely distributed in the range where the feature point score is small.
  • the frequency distribution of the feature point score of the person pair and the frequency distribution of the feature point score of the other person partially overlap, the appearance frequency of the feature point score of the other person is low in the overlapping part.
  • the degree of separation between the frequency distribution of the feature point score of the person pair and the frequency distribution of the feature point score of the other person pair is high. Due to this characteristic, the total collation score, which is the average of multiple feature point scores, is also large for the person pair and small for the other person pair, so it is possible to distinguish between the person and another person by looking at the magnitude of the total collation score. can.
  • the feature point score when the influence of the resident feature is large is described below.
  • the feature point score distribution of the individual pair will be described.
  • the score distribution of the feature points to which the influence of the resident feature is small is the same as that in FIG.
  • the total number of feature points that are greatly affected by resident features is small.
  • the feature point score for collating the feature points to which the influence of the resident feature is large becomes larger than usual. From the above, the feature point scores of the individual pair have a frequency distribution as shown in FIG. 7 (b) in total.
  • the feature point score distribution for other people will be explained.
  • the score distribution of the feature points to which the influence of the resident feature is small is the same as that in FIG.
  • the total number of feature points that are greatly affected by resident features is small.
  • the feature point score for collating the feature points to which the influence of the resident feature is large becomes larger than usual.
  • the feature point scores of other people's pairs have a frequency distribution as shown in FIG. 8 (b) in total. That is, the feature point score of another person's pair has a high frequency of appearance in a region where the feature point score is relatively high.
  • the application frequency of the feature point score of the other person is high in the part where the feature point score distribution of the person pair and the feature point score distribution of the other person overlap. ..
  • the difference between the feature point score distribution of the person pair and the feature point score distribution of the other person pair becomes small, and the degree of separation between the feature point score distribution of the person pair and the feature point score distribution of the other person pair decreases.
  • the total collation score which is the average of a plurality of feature point scores
  • the difference between the feature point scores of the person pair and the other person pair becomes small, and the degree of separation between the person pair and the other person pair decreases.
  • the error probability of erroneously determining another person as the person increases, and the authentication accuracy deteriorates.
  • this score distribution For the characteristics of this score distribution, as illustrated in FIG. 10, pay attention to the region where the feature point score distribution of the person pair and the feature point score distribution of the other person pair overlap. Due to the influence of the resident features, the degree of separation of the score area where the feature point score distribution of the person's pair and the feature point score distribution of the other person's pair overlap is deteriorated, so that the score distribution changes due to the influence of the resident features.
  • the authentication accuracy is improved by adding a weight to the feature point score so as to compensate for the ratio. That is, the feature point score distribution when the influence of the indigenous features as illustrated in FIG. 9 is large approaches the feature point score distribution when the influence of the indigenous features as illustrated in FIG. 6 is small. , Determine the weighting factor.
  • FIG. 11 is a block diagram illustrating the overall configuration of the information processing apparatus 100 according to the present embodiment.
  • the information processing apparatus 100 includes a biological sensor 10, a feature point extraction unit 20, a feature amount extraction unit 30, a correspondence unit 40, a feature point score calculation unit 50, a total score calculation unit 60, and an authentication unit 70.
  • the biological sensor 10 is an image sensor or the like that can acquire a biological image.
  • the biosensor 10 is a sensor that acquires the fingerprint of one or more fingers arranged in contact with the reading surface, and is an optical sensor that acquires the fingerprint using light. It is a capacitance sensor that acquires fingerprints by using the difference in capacitance.
  • the biological sensor 10 is a vein sensor, it is a sensor that acquires a palm vein in a non-contact manner.
  • the subcutaneous vein of the palm is imaged using near infrared rays having high transparency to the human body.
  • the vein sensor is equipped with, for example, a CMOS (Complementary Metal Oxide Semiconductor) camera or the like. Further, lighting or the like that irradiates light including near infrared rays may be provided.
  • the display device 80 is a device for displaying the result of each process by the information processing device 100, such as a liquid crystal display.
  • FIG. 12 is a flowchart showing an example of the biological registration process.
  • the bioregistration process is a process performed when the user registers the registration data in advance.
  • the biosensor 10 captures a bioimage (step S1).
  • the feature point extraction unit 20 extracts a plurality of feature points from the biological image taken in step S1 (step S2).
  • the feature amount extraction unit 30 extracts the feature amount of each feature point extracted in step S2 and stores it in the storage unit 90 as registration data (step S3).
  • the registration data can be registered in advance.
  • FIG. 13 is a flowchart showing an example of biometric authentication processing.
  • the biometric authentication process is a process performed when identity verification is required.
  • the biosensor 10 captures a bioimage (step S11).
  • the feature point extraction unit 20 extracts a plurality of feature points from the biological image taken in step S11 (step S12).
  • the feature amount extraction unit 30 extracts the feature amount of each feature point extracted in step S12 and generates collation data (step S13).
  • the matching unit 40 associates each feature point of the registered data stored in the storage unit 90 with each feature point of the collation data (step S14).
  • the matching unit 40 may improve the matching accuracy by performing affine transformation on at least one of the collation data and the registered data to perform alignment.
  • the feature point score calculation unit 50 calculates the feature point score for each feature point pair associated with each other in step S14 (step S15).
  • the total score calculation unit 60 refers to the weighting coefficient stored in the storage unit 90, weights the feature point scores of all the feature point pairs, and calculates the total collation score (step S16).
  • the total collation score can be expressed by the following equation (2).
  • N is the number of feature point pairs.
  • s i is a feature point score of the feature point i (1 ⁇ i ⁇ N).
  • w (s i ) is a weighting factor (0 ⁇ w (s i ) ⁇ 1) applied to the feature point i.
  • Weighting coefficient w (s i) is definite with respect to the value of the feature point score, a weighting factor to reduce the influence of high-impact feature point score indigenous characteristics. Accordingly, in this embodiment, in the range of values of a small feature point scores affect indigenous features, the weight coefficient w a (s i) to "1". In the range of the value of high-impact feature point score indigenous features, the weight coefficient w a (s i) to a value smaller than "1".
  • weighting factor value is applied to the feature point score
  • the effect of the resident feature is experimentally evaluated in advance, and a value that cancels the effect of the resident feature is determined. You should leave it.
  • a formula for calculating the weighting coefficient may be created by inputting the feature point score, and the formula may be used.
  • the weighting factor may be derived from the feature point score by referring to the table.
  • Figure 14 is a diagram illustrating a weighting factor w (s i).
  • the weight coefficient w (s i) is large when the characteristic point score is small, decreases as the feature point score is increased, so further increases as feature points score increases It has been decided.
  • the weighting factor w (s i) is in the range feature point score is smaller is "1" smaller than "1" in the range of values of high-impact feature point score indigenous characteristics, feature points In the range where the score is large, it is also "1".
  • the authentication unit 70 determines whether or not the total collation score is equal to or higher than the threshold value (step S17).
  • the display device 80 displays the determination result of step S17 (step S18).
  • the feature point score is calculated for each feature point pair associated between the collation data and the registered data, and the weighting coefficient associated with the feature point score is applied to the feature point score.
  • Biometric processing is performed based on the newly generated feature point score. Since the weighting coefficient that reduces the influence of the resident feature is stored in the storage unit 90 in advance, the process of specifying the resident feature during the biometric authentication process is omitted. As a result, the authentication accuracy can be improved while suppressing the calculation load.
  • the characteristic point score distribution of the person pair and the feature point score distribution of the other person overlap with each other.
  • the weight will be smaller and the total collation score will be lower.
  • the frequency of appearance in the medium feature point score is low, so that the degree of decrease in the total collation score is small even if the weight is small. Thereby, the influence on the authentication accuracy can be reduced.
  • the appearance frequencies of (1) and (2) are acquired for each feature point score.
  • the frequency of appearance of (1) in the score s is p1 (s)
  • the frequency of appearance of (2) in the score s is p2 (s).
  • the weighting factor w (s) in the score s can be expressed as p1 (s) / p2 (s).
  • the coordinates of the feature points may be reflected in the determination of the weighting factor. For example, when the position where the resident feature occurs (coordinates in the biological image) is biased to a specific coordinate, the coordinate of the feature point is added as a parameter to the calculation of the weighting coefficient.
  • the feature point coordinates are normalized to standard coordinates that do not depend on the shooting conditions of the biological image so that the coordinates can be compared even if the biological images are different. For example, it is assumed that wrinkles always appear at the same position.
  • the formula for calculating the total collation score at this time is as follows (3). In the following equation (3), N is the number of feature points. s i is a feature point score of the feature point i.
  • (X i , y i ) is the coordinates of the feature point i.
  • w (s i , x i , y i ) is a weight applied to the feature point i (0 ⁇ w (s i , x i , y i ) ⁇ 1).
  • the effect probability of the resident feature can be expressed as p (x, y) depending on the coordinates, and the weight relationship according to the feature point score does not depend on the coordinates but depends only on the feature point score.
  • w_0 (s) the calculation formula of the weighting coefficient w can be expressed as the following formula (4).
  • the total collation score can be expressed by the following equation (5).
  • FIG. 16 shows the hardware configuration of the feature point extraction unit 20, the feature amount extraction unit 30, the association unit 40, the feature point score calculation unit 50, the total score calculation unit 60, the authentication unit 70, and the storage unit 90 of the information processing apparatus 100. It is a block diagram exemplifying. As illustrated in FIG. 16, the information processing device 100 includes a CPU 101, a RAM 102, a storage device 103, an interface 104, and the like.
  • the CPU (Central Processing Unit) 101 is a central processing unit.
  • the CPU 101 includes one or more cores.
  • the RAM (Random Access Memory) 102 is a volatile memory that temporarily stores a program executed by the CPU 101, data processed by the CPU 101, and the like.
  • the storage device 103 is a non-volatile storage device. As the storage device 103, for example, a ROM (Read Only Memory), a solid state drive (SSD) such as a flash memory, a hard disk driven by a hard disk drive, or the like can be used.
  • the storage device 103 stores the authentication program.
  • the interface 104 is an interface device with an external device.
  • the feature point extraction unit 20 When the CPU 101 executes the authentication program, the feature point extraction unit 20, the feature amount extraction unit 30, the association unit 40, the feature point score calculation unit 50, the total score calculation unit 60, the authentication unit 70, and the storage of the information processing apparatus 100 are stored. Part 90 is realized. Hardware such as a dedicated circuit is used as the feature point extraction unit 20, the feature amount extraction unit 30, the association unit 40, the feature point score calculation unit 50, the total score calculation unit 60, the authentication unit 70, and the storage unit 90. You may.
  • the registration data to be collated may be specified by inputting an ID or the like, and then the collation data and the registration data may be collated (1: 1 authentication).
  • the collation data and all the registered data may be collated without specifying the registration data to be collated (1: N authentication).
  • N authentication if the highest degree of matching is equal to or higher than the threshold value, the user to be collated and the user of the registered data match, and the collation is successful.
  • the feature amount extraction unit 30 is an example of an extraction unit that extracts the feature amount of each of the plurality of feature points of the living body from the photographed data of the living body.
  • the feature point score calculation unit 50 has a feature amount of each of the plurality of feature points extracted by the extraction unit and a feature amount stored in the storage unit in association with the feature points corresponding to the plurality of feature points. This is an example of a calculation unit that calculates the degree of similarity.
  • the total score calculation unit 60 and the authentication unit 70 refer to the storage unit that stores the weight information indicating the weight applied to the similarity in association with the similarity, and store the weight information associated with the calculated similarity.
  • the storage unit 90 is an example of a storage unit.
  • the feature point score distribution in FIG. 6 is an example of the first frequency distribution of the similarity obtained by collation using shooting data acquired in a situation where the influence of features commonly existing in the person and others is small.
  • the feature point score distribution in FIG. 9 is an example of the second frequency distribution of the similarity obtained by collation using shooting data acquired in a situation where the influence of the feature is large, which is common to the person and others. be.
  • Biosensor 20 Feature point extraction unit 30 Feature quantity extraction unit 40 Correspondence unit 50 Feature point score calculation unit 60 Total score calculation unit 70 Authentication unit 80 Display device 90 Storage unit 100 Information processing device

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Vascular Medicine (AREA)
  • Collating Specific Patterns (AREA)

Abstract

認証方法は、生体の撮影データから前記生体の複数の特徴点それぞれの特徴量を抽出し、抽出した前記複数の特徴点それぞれの特徴量と、前記複数の特徴点それぞれに対応する特徴点に対応付けて記憶部に記憶された特徴量との類似度を算出し、類似度に適用する重みを示す重み情報を前記類似度に対応付けて記憶する記憶部を参照して、算出した前記類似度に対応付けられた重み情報を取得し、算出した前記類似度に対して、取得した前記重み情報を適用することにより新たに生成した類似度に基づき、前記生体の認証処理を行う、処理をコンピュータが実行する。

Description

認証方法、認証プログラム、および情報処理装置
 本件は、認証方法、認証プログラム、および情報処理装置に関する。
 近年、指紋または静脈パターンなどの生体情報を利用して、個人を認証する技術が開示されている。認証精度を向上させるために、撮影画像から手相などを特定し、手相が存在する部分について認証の重みを小さくする手法が開示されている(例えば、特許文献1参照)。
特開2015-129997号公報
 しかしながら、手相を特定するためには計算負荷が大きくなる。そこで、小さい計算負荷で手相を特定しようとすると特定精度が低下し、結果として認証精度も低下してしまう。
 1つの側面では、本発明は、認証精度を向上させることができる認証方法、認証プログラム、および情報処理装置を提供することを目的とする。
 1つの態様では、認証方法は、生体の撮影データから前記生体の複数の特徴点それぞれの特徴量を抽出し、抽出した前記複数の特徴点それぞれの特徴量と、前記複数の特徴点それぞれに対応する特徴点に対応付けて記憶部に記憶された特徴量との類似度を算出し、類似度に適用する重みを示す重み情報を前記類似度に対応付けて記憶する記憶部を参照して、算出した前記類似度に対応付けられた重み情報を取得し、算出した前記類似度に対して、取得した前記重み情報を適用することにより新たに生成した類似度に基づき、前記生体の認証処理を行う、処理をコンピュータが実行する。
 認証精度を向上させることができる。
特徴点を例示する図である。 常在的特徴を例示する図である。 常在的特徴を例示する図である。 常在的特徴を例示する図である。 常在的特徴を例示する図である。 特徴点スコアの出現頻度を例示する図である。 (a)および(b)は常在的特徴の影響を受けた場合の本人対の特徴点スコア分布を例示する図である。 (a)および(b)は常在的特徴の影響を受けた場合の他人対の特徴点スコア分布を例示する図である。 本人対の特徴点スコア分布と他人対の特徴点スコア分布との重なりを例示する図である。 本人対の特徴点スコア分布と他人対の特徴点スコア分布との重なりを例示する図である。 情報処理装置の全体構成を例示するブロック図である。 生体登録処理の一例を表すフローチャートである。 生体認証処理の一例を表すフローチャートである。 重み係数w(s)を例示する図である。 重み係数の決定手順を例示する図である。 ハードウェア構成を例示する図である。
 近代社会では、様々なシチュエーションにおいて本人確認が必要とされている。本人確認を精度よく行なう一つの方法として、指紋パターン、静脈パターン、顔画像などの人体の一部の特徴を用いる生体認証技術が近年広まってきている。
 例えば、手のひらに近赤外線を照射して近赤外波長領域の画像を撮影すると、手のひらの皮下の静脈が黒く映った画像を撮影することができる。この画像から、手のひらを網目の様に流れる静脈のパターン情報を抽出することができる。静脈パターン情報は、全ての人で異なっている。そこで、個人認証が必要とされる様々な場面においてセンサで取得した静脈パターンと、予めデータベースやICカードなどに記録しておいた登録データとの類似度を算出することにより、本人確認などの用途に利用することができる。生体認証技術は、許可された人しか入ることのできない制限エリアへの入退室の可否判定や、パソコンへのログイン判定や、オンライン取引における利用者確認など様々なサービスへのアクセスの可否などで既に広く利用されている。
 生体認証では、カメラなどのセンサを用いて利用者の生体情報を取得し、取得した生体情報を照合可能な生体特徴量に変換して照合データを生成し、登録データと照合する。例えば、特徴点を用いた生体認証方式では、センサで取得した生体部位の画像などから生体認証に適した特徴点を複数選択し、選択した特徴点ごとの生体特徴量を抽出し、その特徴点ごとの生体特徴量を照合することで本人確認を行なう。
 照合データと登録データとで対応する特徴点ごとに生体特徴量を照合することによって類似度スコア(以降は、これを特徴点スコアと称す)を求め、さらに複数の特徴点の特徴点スコアを統合する。統合した特徴点スコアを、以下ではトータル照合スコアと称する。トータル照合スコアが予め決められた本人判定閾値より大きいかどうかを判定することで、で本人確認を行なうことができる。
 図1は、特徴点を例示する図である。図1の例では、指紋に現れる特徴点に着目している。指紋については、分岐点などの特徴点における生体特徴量(分岐の向き、分岐数など)を用いることができる。図1で例示するように、登録データにおける各特徴点と、照合時に生成された照合データにおいて対応する各特徴点との間で、生体特徴量の類似度スコア(特徴点スコア)が算出される。
 トータル照合スコアは、例えば、N個の特徴点をそれぞれ照合することによって得られた特徴点スコアをsとして、下記式(1)で求められる。登録・照合の各生体画像から抽出したN個の特徴点を対応付けし、対応付けされた特徴点ペアごとに特徴点スコアs_iを算出し、トータル照合スコアとして、各特徴点ペアの特徴点スコアの平均を求める。特徴点ごとに類似度の変動に幅が有るので、複数の特徴点の特徴点スコアの平均を取ったトータル照合スコアを算出し、これを本人判定に用いる。これにより、本人判定結果が安定する。
Figure JPOXMLDOC01-appb-M000001
 生体認証によって精度良く本人判定を実施するには、各特徴点の生体特徴量が、個人に固有の値であることが理想である。通常、生体認証では、生体センサが生体情報を取得するたびに若干の揺らぎが生じるため、本人であっても全く同じ生体特徴量が得られるとは限らない。しかしながら、各特徴点の生体特徴量が個人固有の値であれば、多少の値の揺らぎが生じたとしても、本人の場合は生体特徴量がよく似ているため特徴点スコアが高くなり、他人の場合は生体特徴量が似ていないため特徴点スコアが低くなる。
 しかしながら、「本人・他人に関わらず、生体センサが取得する生体情報に共通して検出される特徴(以下、常在的特徴と称する)」が照合データに含まれていることがある。この場合、常在的特徴の影響により、照合データの生体特徴量と、他人の登録データの生体特徴量とが似てしまい、特徴点スコアが高くなってしまう場合がある。
 特徴点の特徴点スコアを総合したトータル照合スコアで本人の判別を行なう従来方式では、常在的特徴の影響がトータル照合スコアにも波及する。この場合、照合データと他人の登録データとのトータル照合スコアが高くなり、誤って本人であると判定してしまう認証エラー確率が高くなり、認証精度が低下するおそれがある。生体認証の精度を向上させるためには、本人判定に際し、常在的特徴の影響を低減し、認証精度低下を抑えることが望まれる。
 本人・他人に関わらず多くの人に共通する常在的特徴の例として、多くの人が共通してもっている特徴、例えば、生体表面の皺などが有る。例えば、図2で例示するように、生体センサによって皺が検出される場合に、本人と他人とで皺が類似する場合がある。この場合、検出された皺の近傍の特徴点の特徴点スコアが、本人か他人かどうかに関わらず、高くなってしまう場合がある。
 常在的特徴のその他の例として、生体センサの傷・汚れなどが有る。図3で例示するように、センサに傷や汚れが有る場合、本人・他人に関わらず、傷や汚れの部分の見え方が似てしまう場合がある。この場合、検出された傷や汚れの近傍の特徴点の特徴点スコアが、本人か他人かどうかに関わらず、高くなってしまう場合がある。
 常在的特徴のその他の例として、照明の反射など環境の影響によるものが有る。図4で例示するように、照明の反射などにより特定の部分が常に明るく写ってしまったりする場合、本人・他人に関わらず、明るく写る部分の見え方が似てしまう場合がある。この場合、明るく見える部分の特徴点の特徴点スコアが、本人か他人かどうかに関わらず、高くなってしまう場合がある。
 常在的特徴のその他の例として、手相(生命線など)も挙げられる。手相は、個人ごとに異なることがあるため、生体特徴として用いることも考えられる。しかしながら、手相は、他人同士であっても似通ることがあるため、必ずしも生体認証に適するものではない。図5で例示するように、他人同士であっても手相が似通ってしまう場合がある。この場合、手相付近の特徴点の特徴点スコアが、本人・他人に関わらず、高くなってしまう場合がある。
 そこで、認証精度を向上させるために、本人確認のたびに撮影画像から手相などの常在的特徴を抽出して特定し、常在的特徴が存在する部分について認証の重みを小さくする手法が考えられる。しかしながら、本人確認のたびに常在的特著を特定するためには計算負荷が大きくなる。そこで、小さい計算負荷で常在的特徴を特定しようとすると特定精度が低下し、結果として認証精度も低下してしまう。
 そこで、以下の実施例では、計算負荷を抑制しつつ、認証精度を向上させることができる情報処理装置、認証方法、および認証プログラムについて説明する。
 まず、常在的特徴の影響が小さい場合について、登録データと照合データとの間で対応する特徴点それぞれを照合して得られる特徴点スコアの出現頻度をグラフにすると、図6のようになる。本人対のスコア分布は、照合データと本人の登録データとを照合したときの、特徴点スコアの頻度分布である。他人対のスコア分布は、照合データと他人の登録データとを照合したときの、特徴点スコアの頻度分布である。
 図6で例示するように、本人対の特徴点スコアの頻度分布は、特徴点スコアが大きい範囲に多く分布する。他人対の特徴点スコアの頻度分布は、特徴点スコアが小さい範囲に多く分布する。本人対の特徴点スコアの頻度分布と他人対の特徴点スコアの頻度分布とが一部で重複するものの、当該重複部分では他人対の特徴点スコアの出現頻度が低くなっている。それにより、本人対の特徴点スコアの頻度分布と他人対の特徴点スコアの頻度分布との分離度は高くなっている。この特性により、複数の特徴点スコアの平均をとったトータル照合スコアも、本人対では大きくなり、他人対では小さくなるため、トータル照合スコアの大小を見ることで本人と他人とを判別することができる。
 これに対し、常在的特徴の影響が大きい場合の特徴点スコアについて下記に述べる。先ず、本人対の特徴点スコア分布について説明する。図7(a)で例示するように、常在的特徴の影響が小さい特徴点のスコア分布は、図6と同様の分布となる。常在的特徴の影響が大きい特徴点の総数自体は少ない。しかしながら、常在的特徴は生体センサが生体情報を取得するたびに同じように映るため、常在的特徴の影響が大きい特徴点を照合した特徴点スコアは通常よりも大きくなる。以上のことから、本人対の特徴点スコアは、総合すると図7(b)のような頻度分布になる。
 次に、他人対の特徴点スコア分布について説明する。図8(a)で例示するように、常在的特徴の影響が小さい特徴点のスコア分布は、図6と同様の分布となる。常在的特徴の影響が大きい特徴点の総数自体は少ない。しかしながら、常在的特徴は生体センサが生体情報を取得するたびに同じように映るため、常在的特徴の影響が大きい特徴点を照合した特徴点スコアは通常よりも大きくなる。以上のことから、他人対の特徴点スコアは、総合すると図8(b)のような頻度分布になる。すなわち、他人対の特徴点スコアは、特徴点スコアが比較的高い領域において出現頻度が高くなる。
 図9のように、常在的特徴の影響により、本人対の特徴点スコア分布と他人対の特徴点スコア分布とが重複する部分において、他人対の特徴点スコアの出願頻度が高くなっている。それにより、本人対の特徴点スコア分布と他人対の特徴点スコア分布の差異が小さくなり、本人対の特徴点スコア分布と他人対の特徴点スコア分布との分離度が下がる。複数の特徴点スコアの平均をとったトータル照合スコアも、本人対と他人対の特徴点スコアの差異が小さくなり、本人対と他人対の分離度が下がる。誤って、他人を本人と判定してしまうエラー確率が増大し、認証精度が劣化することになる。
 このスコア分布の特性に対し、図10で例示するように、本人対の特徴点スコア分布と他人対の特徴点スコア分布とが重複する領域に着目する。常在的特徴の影響により、本人対の特徴点スコア分布と他人対の特徴点スコア分布とが重複するスコア領域の分離度が悪化しているので、常在的特徴の影響によりスコア分布が変化した割合に応じて、それを補償するように、特徴点スコアに重みを付加することで、認証精度を向上させる。すなわち、図9で例示したような常在的特徴の影響が大きい場合の特徴点スコア分布が、図6で例示したような常在的特徴の影響が小さい場合の特徴点スコア分布に近づくように、重み係数を定めておく。
 図11は、本実施例に係る情報処理装置100の全体構成を例示するブロック図である。図11で例示するように、情報処理装置100は、生体センサ10、特徴点抽出部20、特徴量抽出部30、対応付け部40、特徴点スコア算出部50、トータルスコア算出部60、認証部70、表示装置80、格納部90などを備える。
 生体センサ10は、生体画像を取得できるイメージセンサなどである。例えば、生体センサ10は、指紋センサである場合、読み取り面に接触して配置された1本以上の指の指紋を取得するセンサであって光を利用して指紋を取得する光学式センサ、静電容量の差異を利用して指紋を取得する静電容量センサなどである。生体センサ10は、静脈センサである場合、非接触で手のひら静脈を取得するセンサであり、たとえば、人体への透過性が高い近赤外線を用いて手のひらの皮下の静脈を撮影する。静脈センサには、たとえばCMOS(Complementary Metal Oxide Semiconductor)カメラなどが備わっている。また、近赤外線を含む光を照射する照明などが設けられていてもよい。表示装置80は、情報処理装置100による各処理の結果などを表示するための装置であり、液晶ディスプレイなどである。
(生体登録処理)
 図12は、生体登録処理の一例を表すフローチャートである。生体登録処理は、ユーザが登録データを予め登録する際に行なわれる処理である。図12で例示するように、生体センサ10は、生体画像を撮影する(ステップS1)。次に、特徴点抽出部20は、ステップS1で撮影された生体画像から、複数の特徴点を抽出する(ステップS2)。次に、特徴量抽出部30は、ステップS2で抽出された各特徴点の特徴量を抽出し、格納部90に登録データとして格納する(ステップS3)。以上の処理によって、登録データを予め登録しておくことができる。
(生体認証処理)
 図13は、生体認証処理の一例を表すフローチャートである。生体認証処理は、本人確認が必要な場面で行なわれる処理である。図13で例示するように、生体センサ10は、生体画像を撮影する(ステップS11)。次に、特徴点抽出部20は、ステップS11で撮影された生体画像から、複数の特徴点を抽出する(ステップS12)。次に、特徴量抽出部30は、ステップS12で抽出された各特徴点の特徴量を抽出し、照合データを生成する(ステップS13)。
 次に、対応付け部40は、格納部90に格納されている登録データの各特徴点と照合データの各特徴点とを対応付ける(ステップS14)。対応付け部40は、照合データおよび登録データの少なくともいずれか一方に対してアフィン変換を施して位置合わせを行なうことによって、対応付け精度を向上させてもよい。次に、特徴点スコア算出部50は、ステップS14で対応付けられた各特徴点対について、特徴点スコアを算出する(ステップS15)。
 次に、トータルスコア算出部60は、格納部90に格納されている重み係数を参照し、全特徴点対の特徴点スコアに対して重み付けを行ない、トータル照合スコアを算出する(ステップS16)。トータル照合スコアは、下記式(2)のように表すことができる。下記式(2)において、Nは特徴点対の数である。sは、特徴点i(1≦i≦N)の特徴点スコアである。w(s)は、特徴点iに適用する重み係数(0≦w(s)≦1)である。
Figure JPOXMLDOC01-appb-M000002
 トータル照合スコアでは、特徴点スコアの値に応じて重みが変化している。重み係数w(s)は、特徴点スコアの値に対して定まっており、常在的特徴の影響が大きい特徴点スコアの影響を軽減する重み係数である。そこで、本実施例においては、常在的特徴の影響が小さい特徴点スコアの値の範囲においては、重み係数w(s)を「1」とする。常在的特徴の影響が大きい特徴点スコアの値の範囲においては、重み係数w(s)を「1」よりも小さな値とする。
 特徴点スコアに対して、どのような重み係数の値を適用するかは、予め常在的特徴の影響を実験的に評価して、常在的特徴の影響を打ち消すような値を決定しておけばよい。特徴点スコアを入力として、重み係数を算出するような数式を作成し、当該数式を用いてもよい。テーブル参照により、特徴点スコアから重み係数を導出するようにしてもよい。
 図14は、重み係数w(s)を例示する図である。図14で例示するように、重み係数w(s)は、特徴点スコアが小さい場合には大きく、特徴点スコアが大きくになるにつれて小さくなり、さらに特徴点スコアが大きくなるにつれて大きくなるように定められている。例えば、重み係数w(s)は、特徴点スコアが小さい範囲では「1」であり、常在的特徴の影響が大きい特徴点スコアの値の範囲においては「1」よりも小さく、特徴点スコアが大きい範囲ではまた「1」である。
 次に、認証部70は、トータル照合スコアが閾値以上であるか否かを判定する(ステップS17)。表示装置80は、ステップS17の判定結果を表示する(ステップS18)。
 本実施例によれば、照合データと登録データとの間、対応付けられた特徴点対ごとに特徴点スコアが算出され、特徴点スコアに対応付けられた重み係数が特徴点スコアに適用され、新たに生成された特徴点スコアに基づいて生体認証処理が行われる。常在的特徴の影響が小さくなるような重み係数が予め格納部90に格納されていることから、生体認証処理の際に常在的特徴を特定する処理が省略される。それにより、計算負荷を抑えつつ、認証精度を向上させることができる。
 また、本実施例によれば、照合データと本人の登録データとの照合の際にも、本人対の特徴点スコア分布と他人対の特徴点スコア分布とが重複する中程度の特徴点スコアについて重みが小さくなることになり、トータル照合スコアが低下することになる。しかしながら、照合データと本人の登録データとの照合の場合には中程度の特徴点スコアにおける出現頻度が低くなるため、重みが小さくなってもトータル照合スコアの低下程度は小さくなる。それにより、認証精度への影響を小さくすることができる。
 重み係数の決定手順の例について説明する。(1)まず、常在的特徴の影響のない理想的なデータを準備する。たとえば、常在的特徴が入り込まないような理想的な環境で、ユーザの生体情報を実際に採取する。または、手作業や人工知能により常在的特徴の影響を除外した生体情報を人工的に作成する。(2)次に、実際に運用する環境などで常在的特徴の影響が有るデータを採取する。(3)次に、(1)と(2)の特徴点スコアの出現頻度分布を比較することで、重み係数を算出する。
 例えば、図15で例示するように、特徴点スコアごとに、(1)と(2)の出現頻度を取得する。スコアsにおける(1)の出現頻度をp1(s)とし、スコアsにおける(2)の出現頻度をp2(s)とする。この場合、スコアsにおける重み係数w(s)を、p1(s)/p2(s)と表すことができる。
 重み係数の決定に、特徴点の座標を反映してもよい。例えば、常在的特徴が生じる位置(生体画像中の座標)が特定の座標に偏っている場合、重み係数の算出に、特徴点の座標をパラメータとして追加する。特徴点座標は、生体画像が異なっていても座標比較ができるように、生体画像の撮影状況に依存しない標準的な座標に正規化しておく。例えば、皺などが常に同じ位置に現れる場合などが想定される。この際のトータル照合スコアの計算式は下記式(3)のようになる。下記式(3)において、Nは特徴点の数である。sは、特徴点iの特徴点スコアである。(x,y)は、特徴点iの座標である。w(s,x,y)は、特徴点iに適用する重み(0≦w(s,x,y)≦1)である。
Figure JPOXMLDOC01-appb-M000003
 さらに、常在的特徴の影響確率が座標に依存してp(x,y)として表すことができ、特徴点スコアに応じた重みの関係が座標に依存せず特徴点スコアにのみ依存してw_0(s)と表すことができる場合、重み係数wの計算式は下記式(4)のように表すことができる。トータル照合スコアは、下記式(5)のように表すことができる。
Figure JPOXMLDOC01-appb-M000004
Figure JPOXMLDOC01-appb-M000005
(ハードウェア構成)
 図16は、情報処理装置100の特徴点抽出部20、特徴量抽出部30、対応付け部40、特徴点スコア算出部50、トータルスコア算出部60、認証部70、および格納部90のハードウェア構成を例示するブロック図である。図16で例示するように、情報処理装置100は、CPU101、RAM102、記憶装置103、インタフェース104等を備える。
 CPU(Central Processing Unit)101は、中央演算処理装置である。CPU101は、1以上のコアを含む。RAM(Random Access Memory)102は、CPU101が実行するプログラム、CPU101が処理するデータなどを一時的に記憶する揮発性メモリである。記憶装置103は、不揮発性記憶装置である。記憶装置103として、例えば、ROM(Read Only Memory)、フラッシュメモリなどのソリッド・ステート・ドライブ(SSD)、ハードディスクドライブに駆動されるハードディスクなどを用いることができる。記憶装置103は、認証プログラムを記憶している。インタフェース104は、外部機器とのインタフェース装置である。CPU101が認証プログラムを実行することで、情報処理装置100の特徴点抽出部20、特徴量抽出部30、対応付け部40、特徴点スコア算出部50、トータルスコア算出部60、認証部70、および格納部90が実現される。なお、特徴点抽出部20、特徴量抽出部30、対応付け部40、特徴点スコア算出部50、トータルスコア算出部60、認証部70、および格納部90として、専用の回路などのハードウェアを用いてもよい。
 上記例において、IDの入力などによって照合対象の登録データを特定したうえで照合データと登録データとを照合してもよい(1:1認証)。または、照合対象の登録データを特定せずに、照合データと全登録データとを照合してもよい(1:N認証)。1:N認証の場合、最も高い一致度が閾値以上であれば、照合対象のユーザと当該登録データのユーザとが一致することになり、照合成功となる。
 上記例において、特徴量抽出部30が、生体の撮影データから前記生体の複数の特徴点それぞれの特徴量を抽出する抽出部の一例である。特徴点スコア算出部50が、前記抽出部が抽出した前記複数の特徴点それぞれの特徴量と、前記複数の特徴点それぞれに対応する特徴点に対応付けて記憶部に記憶された特徴量との類似度を算出する算出部の一例である。トータルスコア算出部60および認証部70が、類似度に適用する重みを示す重み情報を前記類似度に対応付けて記憶する記憶部を参照して、算出した前記類似度に対応付けられた重み情報を取得し、前記算出部が算出した前記類似度に対して、取得した前記重み情報を適用することにより新たに生成した類似度に基づき、前記生体の認証処理を行う認証処理部の一例である。格納部90が記憶部の一例である。図6の特徴点スコア分布が、本人他人に共通して存在する特徴の影響が小さい状況で取得した撮影データを用いた照合によって得られた前記類似度の第1頻度分布の一例である。図9の特徴点スコア分布が、本人他人に関わらず共通して存在する前記特徴の影響が大きい状況で取得した撮影データを用いた照合によって得られた前記類似度の第2頻度分布の一例である。
 以上、本発明の実施例について詳述したが、本発明は係る特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
 10 生体センサ
 20 特徴点抽出部
 30 特徴量抽出部
 40 対応付け部
 50 特徴点スコア算出部
 60 トータルスコア算出部
 70 認証部
 80 表示装置
 90 格納部
 100 情報処理装置

Claims (15)

  1.  生体の撮影データから前記生体の複数の特徴点それぞれの特徴量を抽出し、
     抽出した前記複数の特徴点それぞれの特徴量と、前記複数の特徴点それぞれに対応する特徴点に対応付けて記憶部に記憶された特徴量との類似度を算出し、
     類似度に適用する重みを示す重み情報を前記類似度に対応付けて記憶する記憶部を参照して、算出した前記類似度に対応付けられた重み情報を取得し、
     算出した前記類似度に対して、取得した前記重み情報を適用することにより新たに生成した類似度に基づき、前記生体の認証処理を行う、
    処理をコンピュータが実行することを特徴とする認証方法。
  2.  前記重み係数は、生体センサで生体情報を取得する際に、本人他人に共通して存在する特徴の影響が小さい状況で取得した撮影データを用いた照合によって得られた前記類似度の第1頻度分布と、本人他人に関わらず共通して存在する前記特徴の影響が大きい状況で取得した撮影データを用いた照合によって得られた前記類似度の第2頻度分布とを比較し、前記第2頻度分布が前記第1頻度分布に近づくように決定された値であることを特徴とする請求項1に記載の認証方法。
  3.  本人他人に共通して存在する前記特徴は、手相であり、
     前記特徴点は、手のひらの静脈パターンの特徴点であることを特徴とする請求項1または請求項2に記載の認証方法。
  4.  前記類似度の値とともに、当該類似度が算出された特徴点の撮影画像中での正規化座標を使用し、前記正規化座標に応じて重み係数の値を変化させる処理を前記コンピュータが実行することを特徴とする請求項1から請求項3のいずれか一項に記載の認証方法。
  5.  前記重み係数は、複数の特徴点の前記類似度が小さい場合には大きく、前記類似度が大きくになるにつれて小さくなり、さらに前記類似度が大きくなるにつれて大きくなるように定められていることを特徴とする請求項1から請求項4のいずれか一項に記載の認証方法。
  6.  生体の撮影データから前記生体の複数の特徴点それぞれの特徴量を抽出する抽出部と、
     前記抽出部が抽出した前記複数の特徴点それぞれの特徴量と、前記複数の特徴点それぞれに対応する特徴点に対応付けて記憶部に記憶された特徴量との類似度を算出する算出部と、
     類似度に適用する重みを示す重み情報を前記類似度に対応付けて記憶する記憶部を参照して、算出した前記類似度に対応付けられた重み情報を取得し、前記算出部が算出した前記類似度に対して、取得した前記重み情報を適用することにより新たに生成した類似度に基づき、前記生体の認証処理を行う認証処理部と、を備えることを特徴とする情報処理装置。
  7.  前記重み係数は、生体センサで生体情報を取得する際に、本人他人に共通して存在する特徴の影響が小さい状況で取得した撮影データを用いた照合によって得られた前記類似度の第1頻度分布と、本人他人に関わらず共通して存在する前記特徴の影響が大きい状況で取得した撮影データを用いた照合によって得られた前記類似度の第2頻度分布とを比較し、前記第2頻度分布が前記第1頻度分布に近づくように決定された値であることを特徴とする請求項6に記載の情報処理装置。
  8.  本人他人に共通して存在する前記特徴は、手相であり、
     前記特徴点は、手のひらの静脈パターンの特徴点であることを特徴とする請求項6または請求項7に記載の情報処理装置。
  9.  前記認証処理部は、前記類似度の値とともに、当該類似度が算出された特徴点の撮影画像中での正規化座標を使用し、前記正規化座標に応じて重み係数の値を変化させることを特徴とする請求項6から請求項8のいずれか一項に記載の情報処理装置。
  10.  前記重み係数は、複数の特徴点の前記類似度が小さい場合には大きく、前記類似度が大きくになるにつれて小さくなり、さらに前記類似度が大きくなるにつれて大きくなるように定められていることを特徴とする請求項6から請求項9のいずれか一項に記載の情報処理装置。
  11.  コンピュータに、
     生体の撮影データから前記生体の複数の特徴点それぞれの特徴量を抽出する処理と、
     抽出した前記複数の特徴点それぞれの特徴量と、前記複数の特徴点それぞれに対応する特徴点に対応付けて記憶部に記憶された特徴量との類似度を算出する処理と、
     類似度に適用する重みを示す重み情報を前記類似度に対応付けて記憶する記憶部を参照して、算出した前記類似度に対応付けられた重み情報を取得する処理と、
     算出した前記類似度に対して、取得した前記重み情報を適用することにより新たに生成した類似度に基づき、前記生体の認証処理を行う処理と、を実行させることを特徴とする認証プログラム。
  12.  前記重み係数は、生体センサで生体情報を取得する際に、本人他人に共通して存在する特徴の影響が小さい状況で取得した撮影データを用いた照合によって得られた前記類似度の第1頻度分布と、本人他人に関わらず共通して存在する前記特徴の影響が大きい状況で取得した撮影データを用いた照合によって得られた前記類似度の第2頻度分布とを比較し、前記第2頻度分布が前記第1頻度分布に近づくように決定された値であることを特徴とする請求項11に記載の認証プログラム。
  13.  本人他人に共通して存在する前記特徴は、手相であり、
     前記特徴点は、手のひらの静脈パターンの特徴点であることを特徴とする請求項11または請求項12に記載の認証プログラム。
  14.  前記コンピュータに、前記類似度の値とともに、当該類似度が算出された特徴点の撮影画像中での正規化座標を使用し、前記正規化座標に応じて重み係数の値を変化させる処理を実行させることを特徴とする請求項11から請求項13のいずれか一項に記載の認証プログラム。
  15.  前記重み係数は、複数の特徴点の前記類似度が小さい場合には大きく、前記類似度が大きくになるにつれて小さくなり、さらに前記類似度が大きくなるにつれて大きくなるように定められていることを特徴とする請求項11から請求項14のいずれか一項に記載の認証プログラム。
PCT/JP2020/023056 2020-06-11 2020-06-11 認証方法、認証プログラム、および情報処理装置 WO2021250858A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2022530462A JP7315884B2 (ja) 2020-06-11 2020-06-11 認証方法、認証プログラム、および情報処理装置
CN202080101186.3A CN115668311A (zh) 2020-06-11 2020-06-11 认证方法、认证程序以及信息处理装置
EP20940142.1A EP4167179A4 (en) 2020-06-11 2020-06-11 AUTHENTICATION METHOD, AUTHENTICATION PROGRAM AND INFORMATION PROCESSING DEVICE
PCT/JP2020/023056 WO2021250858A1 (ja) 2020-06-11 2020-06-11 認証方法、認証プログラム、および情報処理装置
US17/980,072 US20230070660A1 (en) 2020-06-11 2022-11-03 Authentication method, non-transitory computer-readable storage medium for storing authentication program, and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/023056 WO2021250858A1 (ja) 2020-06-11 2020-06-11 認証方法、認証プログラム、および情報処理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/980,072 Continuation US20230070660A1 (en) 2020-06-11 2022-11-03 Authentication method, non-transitory computer-readable storage medium for storing authentication program, and information processing device

Publications (1)

Publication Number Publication Date
WO2021250858A1 true WO2021250858A1 (ja) 2021-12-16

Family

ID=78847064

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/023056 WO2021250858A1 (ja) 2020-06-11 2020-06-11 認証方法、認証プログラム、および情報処理装置

Country Status (5)

Country Link
US (1) US20230070660A1 (ja)
EP (1) EP4167179A4 (ja)
JP (1) JP7315884B2 (ja)
CN (1) CN115668311A (ja)
WO (1) WO2021250858A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023242899A1 (ja) * 2022-06-13 2023-12-21 富士通株式会社 類似度算出方法、類似度算出プログラム、および類似度算出装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07220075A (ja) * 1994-02-07 1995-08-18 Sharp Corp 指紋識別装置
WO2011061862A1 (ja) * 2009-11-17 2011-05-26 株式会社日立製作所 生体情報を用いた認証システム及び認証装置
JP2015129997A (ja) 2014-01-06 2015-07-16 富士通株式会社 生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム
JP2019028532A (ja) * 2017-07-26 2019-02-21 富士通株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP2020501264A (ja) * 2016-12-08 2020-01-16 ヴェリディウム アイピー リミテッド モバイルデバイスを用いてキャプチャした画像を使用する、指紋によるユーザ認証を実施するためのシステムおよび方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010129045A (ja) * 2008-12-01 2010-06-10 Mitsubishi Electric Corp 生体認証装置
WO2010106644A1 (ja) * 2009-03-17 2010-09-23 富士通株式会社 データ照合装置およびプログラム
KR102466676B1 (ko) * 2017-08-16 2022-11-14 삼성전자주식회사 생체 센서의 성능 평가 방법, 생체 영상을 이용한 인증 방법 및 인증 방법을 적용한 전자 기기
US10572749B1 (en) * 2018-03-14 2020-02-25 Synaptics Incorporated Systems and methods for detecting and managing fingerprint sensor artifacts
JP7220075B2 (ja) 2018-12-26 2023-02-09 花王株式会社 インクジェット印刷用水系インク

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07220075A (ja) * 1994-02-07 1995-08-18 Sharp Corp 指紋識別装置
WO2011061862A1 (ja) * 2009-11-17 2011-05-26 株式会社日立製作所 生体情報を用いた認証システム及び認証装置
JP2015129997A (ja) 2014-01-06 2015-07-16 富士通株式会社 生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム
JP2020501264A (ja) * 2016-12-08 2020-01-16 ヴェリディウム アイピー リミテッド モバイルデバイスを用いてキャプチャした画像を使用する、指紋によるユーザ認証を実施するためのシステムおよび方法
JP2019028532A (ja) * 2017-07-26 2019-02-21 富士通株式会社 画像処理装置、画像処理方法、及び画像処理プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4167179A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023242899A1 (ja) * 2022-06-13 2023-12-21 富士通株式会社 類似度算出方法、類似度算出プログラム、および類似度算出装置

Also Published As

Publication number Publication date
EP4167179A4 (en) 2023-05-24
US20230070660A1 (en) 2023-03-09
EP4167179A1 (en) 2023-04-19
JPWO2021250858A1 (ja) 2021-12-16
CN115668311A (zh) 2023-01-31
JP7315884B2 (ja) 2023-07-27

Similar Documents

Publication Publication Date Title
Tome et al. On the vulnerability of finger vein recognition to spoofing
US7599530B2 (en) Methods for matching ridge orientation characteristic maps and associated finger biometric sensor
US8265347B2 (en) Method and system for personal identification using 3D palmprint imaging
JP5228872B2 (ja) 生体認証装置、生体認証方法及び生体認証用コンピュータプログラムならびにコンピュータシステム
RU2670798C1 (ru) Способ аутентификации пользователя по радужной оболочке глаз и соответствующее устройство
US20020048014A1 (en) Personal identification system
US20060008124A1 (en) Iris image-based recognition system
JP5375823B2 (ja) 画像照合装置、画像照合方法および画像照合用プログラム
Hemalatha A systematic review on Fingerprint based Biometric Authentication System
Sharma et al. Two-stage quality adaptive fingerprint image enhancement using Fuzzy C-means clustering based fingerprint quality analysis
JP2008071158A (ja) 生体認証装置の生体誘導制御方法及び生体認証装置
WO2019130670A1 (ja) 生体認証システム
JP2008287433A (ja) 静脈パターン管理システム、静脈パターン登録装置、静脈パターン認証装置、静脈パターン登録方法、静脈パターン認証方法、プログラムおよび静脈データ構造
US20060120578A1 (en) Minutiae matching
US20070292005A1 (en) Method and apparatus for adaptive hierarchical processing of print images
WO2021250858A1 (ja) 認証方法、認証プログラム、および情報処理装置
JP6187262B2 (ja) 生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム
US20050152586A1 (en) Print analysis
Latha et al. A robust person authentication system based on score level fusion of left and right irises and retinal features
EP3639197B1 (en) Template matching of a biometric object
WO2009008550A1 (ja) 登録装置、照合装置、データ構造及び記憶媒体
Burgues et al. Detecting invalid samples in hand geometry verification through geometric measurements
JP2011086202A (ja) 照合装置、照合方法および照合プログラム
WO2022185486A1 (ja) 認証方法、認証プログラム、および情報処理装置
JP2007179267A (ja) パターン照合装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20940142

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022530462

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020940142

Country of ref document: EP

Effective date: 20230111