WO2010001447A1 - 認証装置、認証方法および認証プログラム - Google Patents

認証装置、認証方法および認証プログラム Download PDF

Info

Publication number
WO2010001447A1
WO2010001447A1 PCT/JP2008/061828 JP2008061828W WO2010001447A1 WO 2010001447 A1 WO2010001447 A1 WO 2010001447A1 JP 2008061828 W JP2008061828 W JP 2008061828W WO 2010001447 A1 WO2010001447 A1 WO 2010001447A1
Authority
WO
WIPO (PCT)
Prior art keywords
correction
line information
difference
unit
image data
Prior art date
Application number
PCT/JP2008/061828
Other languages
English (en)
French (fr)
Inventor
登樹 安部
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to EP08790741.6A priority Critical patent/EP2296113B1/en
Priority to PCT/JP2008/061828 priority patent/WO2010001447A1/ja
Priority to CN2008801301278A priority patent/CN102077247B/zh
Priority to JP2010518834A priority patent/JP5365632B2/ja
Publication of WO2010001447A1 publication Critical patent/WO2010001447A1/ja
Priority to US12/929,086 priority patent/US8464323B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern

Definitions

  • the present invention relates to an authentication device, an authentication method, and an authentication program.
  • a correction method for improving authentication accuracy by correcting image data including characteristic line information used for authentication for example, fingerprints, fingerprints, finger veins, palm veins, blood vessel patterns, etc.
  • characteristic line information used for authentication for example, fingerprints, fingerprints, finger veins, palm veins, blood vessel patterns, etc.
  • a local correction that performs correction using local information and a global correction that performs correction using global information are known.
  • the apparatus uses the characteristic line information included in the neighboring area for the characteristic line information included in the own area. For example, correction is performed using a smoothing filter or the like.
  • the apparatus performs correction using line information included in a wider area than the neighboring area, and for example, corrects using modeling using mathematical expressions.
  • each of the conventional methods described above has a problem that it cannot be corrected appropriately depending on the quality of an image used for authentication.
  • the present invention has been made to solve the above-described problems of the prior art, and an authentication device, an authentication method, and an authentication program capable of selecting a correction method suitable for the quality of an image used for authentication.
  • the purpose is to provide.
  • the shape of the line included in the own region is determined for each region into which the image data is divided.
  • First correction means is provided for executing correction using the local line shape indicated by the line information included in the vicinity area of the own area with respect to the indicated line information.
  • a second correction that executes correction using the overall line shape indicated by the line information included in a wider area than the neighboring area with respect to the line information included in the own area.
  • the image processing apparatus further includes a calculation unit that calculates a difference between the line information included in the image data corrected by the first correction unit and the line information included in the image data corrected by the second correction unit.
  • the difference calculated by the calculation unit is compared with a threshold value, and when the difference is smaller than the threshold value, the line information corrected by the first correction unit is used as the line information included in the image data.
  • output means for outputting the line information corrected by the second correction means as line information included in the image data is provided.
  • FIG. 1 is a diagram for explaining the outline of the authentication apparatus according to the first embodiment.
  • FIG. 2 is a block diagram for explaining the configuration of the authentication apparatus according to the first embodiment.
  • FIG. 3 is a diagram for explaining an example of a Sobel filter according to the first embodiment.
  • FIG. 4 is a diagram for explaining an example of the smoothing filter according to the first embodiment.
  • FIG. 5 is a diagram for explaining local correction in the first embodiment.
  • FIG. 6 is a diagram for explaining the correction selection unit according to the first embodiment.
  • FIG. 7 is a flowchart for explaining the processing flow of the authentication apparatus according to the first embodiment.
  • FIG. 8 is a block diagram for explaining the configuration of the authentication apparatus according to the second embodiment.
  • FIG. 9 is a flowchart for explaining the flow of processing of the authentication apparatus according to the second embodiment.
  • FIG. 10 is a diagram for explaining the program of the authentication device according to the first embodiment.
  • FIG. 1 is a diagram for explaining the outline of the authentication apparatus according to the first embodiment.
  • the authentication apparatus receives a fingerprint image from a user. Then, as shown in (2-1) of FIG. 1, the authentication apparatus performs local correction on the fingerprint image. For example, the authentication device performs correction using a smoothing filter or the like.
  • the authentication apparatus performs global correction on the fingerprint image.
  • the authentication device performs correction by regarding the flow of line information as a phase diagram often used in physics, and modeling with mathematical formulas.
  • the authentication apparatus performs local correction and global correction separately. That is, the authentication apparatus creates line information for which only local correction has been performed and line information for which only global correction has been performed.
  • the authentication apparatus calculates a difference between the line information in which only the local correction is performed and the line information in which only the global correction is performed. .
  • the authentication apparatus compares the difference with a threshold value, and if the difference is smaller than the threshold value, as shown in (4-1) of FIG.
  • the line information corrected by the automatic correction is selected and output.
  • the authentication apparatus selects and outputs the line information corrected by the global correction as the line information included in the image data as shown in (4-2) of FIG. To do.
  • the authentication apparatus can select a correction method suitable for the quality of an image used for authentication. That is, the authentication device separately applies a local correction for maintaining detailed information and a global correction with a large correction effect to the fingerprint image, and adopts the former if there is little difference between the two correction fingerprints, If the difference is large, select the latter. Thereby, correction suitable for the quality of the fingerprint is executed.
  • FIG. 2 is a block diagram for explaining the configuration of the authentication apparatus according to the first embodiment.
  • the authentication device 100 includes a fingerprint image detection unit 101, a storage unit 200, and a control unit 300.
  • a method for extracting a feature amount from a user's fingerprint image and inputting it to the storage unit 200 as a feature amount used for authentication will be mainly described.
  • the fingerprint image detection unit 101 is connected to a line information calculation unit 301 to be described later, and a plurality of partial images are intermittently detected and visualized with respect to the biometric information of the user, and the feature amount extracted from the line shape is authenticated.
  • a fingerprint image also referred to as “image data” used in the above is detected.
  • the fingerprint image detection unit 101 corresponds to a fingerprint sensor or the like, and detects the user's fingerprint image when the user's finger is pressed.
  • the fingerprint sensor corresponds to, for example, a capacitive fingerprint sensor, a thermal fingerprint sensor, an electric field fingerprint sensor, an optical fingerprint sensor, or the like.
  • the fingerprint image detection unit 101 sends the detected fingerprint image to the line information calculation unit 301.
  • the storage unit 200 stores data necessary for the authentication process by the control unit 300, and includes a feature amount storage unit 201.
  • the feature quantity storage unit 201 is connected to a feature quantity storage unit 307, which will be described later, and stores a feature quantity used for authentication extracted from the line shape.
  • the feature amount is information necessary for biometric authentication, and corresponds to a ridge branch point or an end point in the case of a fingerprint image. Note that the information stored in the feature amount storage unit 201 is stored by a feature amount storage unit 307 described later.
  • the control unit 300 executes various correction processing procedures. For example, when a fingerprint image is received from the fingerprint image detection unit 101, the control unit 300 extracts a feature amount from the fingerprint image and inputs the feature amount to the feature amount storage unit 201.
  • the control unit 300 also includes a line information calculation unit 301, a local correction unit 302, a global correction unit 303, a difference calculation unit 304, a correction selection unit 305, a feature amount extraction unit 306, and a feature amount storage. Part 307.
  • the line information calculation unit 301 is connected to the fingerprint image detection unit 101, the local correction unit 302, and the global correction unit 303, and for the fingerprint image received from the fingerprint image detection unit 101, the line information (“ (Also referred to as “line angle” or “ridge direction”). Specifically, the line information calculation unit 301 calculates line information, which is information about the shape of the line included in each area of the fingerprint image, for example, “30 degrees” or “50 degrees”. Calculate that there is. The line information is an angle indicated by the shape of a line included in the region.
  • the line information calculation unit 301 divides a fingerprint image into regions of size “w ⁇ w” and uses a Sobel filter as shown in FIG. Partial differentiation is performed in the y direction) to obtain ⁇ x and ⁇ y. Then, the line information calculation unit 301 calculates local line information ⁇ (i, j) with respect to the central pixel (i, j) of each block from ⁇ x and ⁇ ⁇ y using Equation (1).
  • the Sobel filter is a filter used when detecting edges of vertical lines and horizontal lines.
  • FIG. 3 is a diagram for explaining an example of the Sobel filter in the first embodiment. Further, (1) in FIG. 3 is a filter in the vertical direction, and (2) in FIG. 3 is a filter in the horizontal direction.
  • Formula (1) is calculating
  • Vx and Vy are values that represent the arctan parameters by numerator and denominator in order to improve the visibility of the formula.
  • U and “v” are variables that are reused in the mathematical expression.
  • the line information calculation unit 301 sends the line information calculated for each region to the local correction unit 302 and the global correction unit 303.
  • the local correction unit 302 is connected to the line information calculation unit 301 and the difference calculation unit 304, receives line information calculated for each region from the line information calculation unit 301, and calculates line information calculated for each region of the fingerprint image. Perform local correction on.
  • the local correction unit 302 also sends local correction line information, which is line information corrected by local correction, to the difference calculation unit 304.
  • the local correction is a correction performed on the line information calculated for the self area for each area into which the fingerprint image is divided, and the local information indicated by the line information included in the vicinity area of the self area. Correction using a simple line shape.
  • the local correction corresponds to correction using a smoothing filter as shown in FIG.
  • FIG. 4 is a diagram for explaining an example of the smoothing filter according to the first embodiment.
  • the local correction maintains detailed information about the line information, while, for example, as shown in (1) of FIG. 5, when noise larger than the size of the smoothing filter is present in the fingerprint image, The noise cannot be corrected.
  • no line information is included in the smoothing filter, and in the local correction, as shown at the tip of the arrow in (1) of FIG. It cannot be corrected.
  • FIG. 5 is a diagram for explaining local correction in the first embodiment.
  • the detailed information corresponds to, for example, fine changes in line information.
  • the global correction unit 303 is connected to the line information calculation unit 301 and the difference calculation unit 304, receives the line information calculated for each region from the line information calculation unit 301, and calculates the line information calculated for each region of the fingerprint image. Perform global correction on. Also, the global correction unit 303 sends global correction line information, which is line information corrected by the global correction, to the difference calculation unit 304.
  • the global correction refers to the entire line indicated by the line information calculated for each of the areas included in a wider area than the neighboring area with respect to the line information calculated for the own area of the fingerprint image. This is correction using the shape.
  • the global correction corresponds to a correction in which the shape of a line or the flow of line information is regarded as a phase diagram often used in physics and is modeled by a mathematical expression.
  • the global correction has a larger correction effect than the local correction, but lacks detailed information on the line information.
  • the difference calculation unit 304 is connected to the local correction unit 302, the global correction unit 303, and the correction selection unit 305, receives local correction line information from the local correction unit 302, and performs global correction from the global correction unit 303. Receive line information. Then, the difference calculation unit 304 calculates the difference between the local correction line information and the global correction line information. For example, the difference calculation unit 304 first converts the local correction line information and the global correction line information into a continuous vector field, and then calculates the difference between the local correction line information and the global correction line information for each region. Then, the difference calculation unit 304 calculates a cumulative difference that is a cumulative value of the calculated differences. Also, the difference calculation unit 304 sends the calculated cumulative difference to the correction selection unit 305.
  • the difference calculation unit 304 calculates that the difference is “20 degrees”. To do.
  • the difference calculation unit 304 does not consider only the difference in angle when calculating the difference. For this reason, for example, “0 degrees” and “180 degrees” are treated as the same thing, and the difference is calculated to be “0 degrees”.
  • the conversion to a continuous vector field is a process for treating “0 degrees” and “180 degrees” as the same, for example.
  • the correction selection unit 305 is connected to the difference calculation unit 304 and the feature amount extraction unit 306, receives the accumulated difference from the difference calculation unit 304, and compares the accumulated difference with a threshold value. Then, as illustrated in FIG. 6, when the difference is smaller than the threshold, the correction selection unit 305 selects the local correction line information as the line information included in the fingerprint image and outputs it to the feature amount extraction unit 306. Further, when the difference is larger than the threshold, the correction selection unit 305 selects the global correction line information as the line information included in the fingerprint image and outputs it to the feature amount extraction unit 306.
  • FIG. 6 is a diagram for explaining the correction selection unit according to the first embodiment.
  • the correction selection unit 305 if there is little difference between the local correction line information and the global correction line information, the local correction line that is the line information on which the local correction for maintaining the detailed information about the line information is performed. Select information. On the other hand, if the difference between the local correction line information and the global correction line information is large, the correction selection unit 305 selects the global correction line information that is the line information on which the global correction having a large correction effect has been executed.
  • the correction selection unit 305 selects the global correction line information as shown in (2-3) of FIG. In other words, the correction selection unit 305 employs low-quality global correction when there are many cracks. Here, the low quality indicates that detailed information cannot be maintained as compared with the local correction.
  • the case where the difference between the local correction line information and the global correction line information is small is, for example, a case where there is no noise larger than that of the smoothing filter in the fingerprint image. This is a case where noise in the image can be corrected.
  • (1-1) of FIG. 6 when a fingerprint image without large noise is detected by the fingerprint image detection unit 101, local correction is performed as shown in (1-2) of FIG.
  • the difference between the line information and the global correction line information is reduced.
  • the global correction line information since fine changes in the line information are not captured and detailed information is missing, as shown in (1-3) of FIG. In order to hold the information, local correction line information is selected. That is, the correction selection unit 305 adopts high-quality local correction when there are few cracks.
  • the threshold used by the correction selection unit 305 is set in advance by the user, for example.
  • the feature amount extraction unit 306 is connected to the correction selection unit 305 and the feature amount storage unit 307, receives a local correction line information image or global correction line information from the correction selection unit 305, and extracts a feature amount from the received line information. . Then, the feature amount extraction unit 306 sends the extracted feature amount to the feature amount storage unit 307.
  • the feature amount storage unit 307 is connected to the feature amount extraction unit 306 and the feature amount storage unit 201, receives the feature amount from the feature amount extraction unit 306, and inputs the received feature amount to the feature amount storage unit 201. For example, when the feature amount is input, the feature amount storage unit 307 encrypts the feature amount and stores it in the feature amount storage unit 201.
  • FIG. 7 is a flowchart for explaining the processing flow of the authentication apparatus according to the first embodiment.
  • the line information calculation unit 301 calculates line information for each region of the fingerprint image received from the fingerprint image detection unit 101 (step S102). It is calculated to be “30 degrees” or “50 degrees”.
  • the global correction unit 303 executes correction of each line information by the global correction (step S103). Then, the difference calculation unit 304 converts the global correction line information, which is the line information corrected by the global correction unit 303, into a continuous vector field (step S104).
  • amendment part 302 performs correction
  • the difference calculation unit 304 calculates the difference between the local correction line information and the global correction line information (step S107). Then, the correction selection unit 305 compares the cumulative difference with the threshold value (step S108). Here, when the threshold value is larger than the cumulative difference (Yes at Step S108), the correction selection unit 305 selects local correction line information (Step S109). On the other hand, when the threshold is not larger than the cumulative difference (No at Step S108), the correction selection unit 305 selects the global correction line information (Step S110).
  • the correction selection unit 305 if there is little difference between the local correction line information and the global correction line information, the local correction line that is the line information on which the local correction for maintaining the detailed information about the line information is performed. Select information. Further, if the difference between the local correction line information and the global correction line information is large, the correction selection unit 305 selects the global correction line information that is the line information on which the global correction having a large correction effect has been executed.
  • the feature amount extraction unit 306 extracts feature amounts from the line information received from the correction selection unit 305 (step S111), and the feature amount storage unit 307 stores the feature amounts in the feature amount storage unit 201 (step S112). ).
  • the local correction and the global correction are separately performed on the fingerprint image, and the difference between the local correction line information and the global correction line information is calculated. Then, the difference is compared with the threshold value, and if the difference is smaller than the threshold value, the local correction line information is output. If the difference is larger than the threshold value, the global correction line information is output. It is possible to select a correction method suitable for quality.
  • a correction method suitable for the quality of the image used for authentication can be selected, and as a result, correction suitable for the quality of the fingerprint can be executed.
  • the method of selectively using the local correction and the global correction has been described as the correction method.
  • the present invention is not limited to this, and is correction performed as the correction method? It may be properly used whether or not correction is performed.
  • FIG. 8 is a block diagram for explaining the configuration of the authentication apparatus according to the second embodiment.
  • the line information calculation unit 301 is connected to the correction unit 401 and the difference calculation unit 304, and the line information calculated for each region is transferred to the correction unit 401 and the difference calculation unit 304. send.
  • the correction unit 401 receives the line information calculated for each region from the line information calculation unit 301, and performs correction on the line information calculated for each region.
  • the correction unit 401 uses, for example, local correction or global correction as a correction method.
  • the correction unit 401 sends correction line information, which is corrected line information, to the difference calculation unit 304.
  • the difference calculation unit 304 receives the correction line information from the correction unit 401 and receives from the line information calculation unit 301 uncorrected line information that is line information for which no correction is performed. Then, the difference calculation unit 304 calculates a difference between the correction line information and the non-correction line information, and calculates a cumulative difference.
  • the correction selection unit 305 compares the cumulative difference calculated by the difference calculation unit 304 with a threshold value. If the difference is smaller than the threshold, the correction selection unit 305 selects and outputs uncorrected line information as line information included in the fingerprint image. Further, when the difference is larger than the threshold, the correction selection unit 305 selects and outputs correction line information as line information included in the fingerprint image.
  • the correction selection unit 305 outputs uncorrected line information that is line information that has not been corrected at all to the feature amount extraction unit 306. If the difference between the corrected image and the non-corrected image is large, the corrected line information that is the corrected line information is output to the feature amount extraction unit 306.
  • the case where the difference between the correction line information and the non-correction line information is small is, for example, the case where the quality of the fingerprint image detected by the fingerprint image detection unit 101 is high, and the correction processing is not required. It is. In such a case, uncorrected line information without any correction is output without performing correction.
  • the fingerprint image detected by the fingerprint image detection unit 101 is changed.
  • the difference between the correction line information and the non-correction line information is small, the quality of the detected fingerprint image is high, and the data is output as it is without being changed by correction.
  • FIG. 9 is a flowchart for explaining the flow of processing of the authentication apparatus according to the second embodiment.
  • the difference calculation unit 304 converts the uncorrected line information into a continuous vector field (Step S203).
  • the correction unit 401 performs correction on the line information calculated for each region of the fingerprint image (step S204). Then, the difference calculation unit 304 converts the correction line information, which is the line information corrected by the correction unit 401, into a continuous vector field (step S205).
  • the difference calculation unit 304 calculates the difference between the uncorrected line information and the corrected line information (step S206). Then, the correction selection unit 305 compares the cumulative difference with the threshold value (step S207). Here, when the threshold value is larger than the cumulative difference (Yes at Step S207), the correction selection unit 305 selects uncorrected line information (Step S208). On the other hand, when the threshold is not larger than the cumulative difference (No at Step S207), the correction selection unit 305 selects correction line information (Step S209).
  • steps S201 and S202 in FIG. 9 correspond to steps S101 and S102 in FIG.
  • steps S210 and S211 in FIG. 9 correspond to steps S111 and S112 in FIG.
  • the difference between the uncorrected line information and the corrected line information is calculated, and the difference is compared with the threshold value. If the difference is smaller than the threshold, uncorrected line information is selected, and if the difference is larger than the threshold, corrected line information is selected. That is, when the quality of the fingerprint image is high, “no correction” is selected as the correction method, and when the quality of the fingerprint image is high, “correction” is selected as the correction method, which is suitable for the quality of the image used for authentication. It is possible to select and execute a correction.
  • a corrected image that has not been corrected is output without correction.
  • the method for processing a fingerprint image has been described.
  • a living body such as a palm print, a finger vein, a palm vein, or a blood vessel pattern is used.
  • Information may be processed.
  • the present invention may be applied to information other than biological information as long as characteristic line information used for authentication is included. For example, you may apply to the process which authenticates the authenticity of a banknote.
  • the method of inputting the feature quantity to the feature quantity storage unit 201 has been described.
  • the present invention is not limited to this, and the authentication process may be executed using the extracted feature quantity.
  • the feature amount obtained by the feature amount extraction unit 306 may be collated with the feature amount input in advance in the feature amount storage unit 201, and whether or not they match may be output.
  • a method one-to-one matching
  • a keyword ID or the like
  • a method one-to-N verification or the like is used.
  • the present invention is not limited to this, and for example, it may be determined whether correction is performed or not, and when it is determined that correction is performed, a technique of selectively using local correction and global correction may be executed. .
  • the correction means local correction, global correction, and no correction
  • the correction means can be used properly. Good.
  • each component of each illustrated apparatus is functionally conceptual and does not necessarily need to be physically configured as illustrated.
  • the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.
  • the feature amount storage unit 201 and the fingerprint image detection unit 101 may be physically distributed, and the local correction unit 302 and the global correction unit 303 are integrated. May be configured.
  • FIG. 10 is a diagram for explaining the program of the authentication apparatus according to the first embodiment.
  • the authentication device 3000 includes an operation unit 3001, a microphone 3002, a speaker 3003, a fingerprint image detection device 304, a display 3005, a feature amount storage unit 3006, a communication unit 3008, a CPU 3010, a ROM 3011, and an HDD 3012.
  • the RAM 3013 is connected by a bus 3009 or the like.
  • the ROM 3011 stores the line information calculation unit 301, the local correction unit 302, the global correction unit 303, the difference calculation unit 304, the correction selection unit 305, and the feature amount extraction unit 306 described in the first embodiment.
  • a control program that exhibits the same function as the feature quantity storage unit 307 that is, as shown in the figure, a line information calculation program 3011a, a local correction program 3011b, a global correction program 3011c, and a difference calculation program 3011d, a correction selection program 3011e, a feature quantity extraction program 3011f, and a feature quantity storage program 3011g are stored in advance.
  • these programs 3011a to 3011g may be appropriately integrated or separated in the same manner as each component of the authentication apparatus shown in FIG.
  • each of the processes 3010a to 3010g includes a line information calculation unit 301, a local correction unit 302, a global correction unit 303, a difference calculation unit 304, a correction selection unit 305, and a feature amount illustrated in FIG. Each corresponds to the extraction unit 306.
  • the CPU 3010 executes an authentication program using the fingerprint image data 3013a and the line information data 3013b stored in the RAM 3013.
  • the authentication apparatus described in the present embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation.
  • This program can be distributed via a network such as the Internet.
  • the program can also be executed by being recorded on a computer-readable recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, and a DVD and being read from the recording medium by the computer.
  • a computer-readable recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, and a DVD and being read from the recording medium by the computer.

Landscapes

  • Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

 線の形状から抽出される特徴量が認証に用いられる画像データについて、自領域の近傍領域に含まれる線情報が示す局所的な線の形状を用いた局所的補正を実行し、画像データについて、近傍領域よりも広範な領域に含まれる線情報が示す全体的な線の形状を用いた大局的補正を実行し、局所的補正によって補正された画像データに含まれる線情報と大局的補正によって補正された画像データに含まれる線情報との差分を算出し、差分と閾値とを比較し、差分が閾値より小さい場合には、画像データに含まれる線情報として局所的補正によって補正された線情報を出力し、差分が閾値より大きい場合には、画像データに含まれる線情報として大局的補正によって補正された線情報を出力する。

Description

認証装置、認証方法および認証プログラム
 この発明は、認証装置、認証方法および認証プログラムに関する。
 従来より、認証に用いる特徴的な線情報(例えば、指紋や嘗紋、指静脈、手のひら静脈、血管パターンなど)を含む画像データを補正して、認証精度を向上させる補正手法が知られている。例えば、局所的な情報を利用して補正を行う局所的補正や、大局的な情報を利用して補正を行う大局的補正が知られている。
 具体的には、局所的補正では、装置が、画像データの領域ごとに、自領域に含まれる特徴的な線情報に対して、近傍にある領域に含まれる特徴的な線情報を用いた補正を行い、例えば、平滑化フィルタなどを利用して補正する。また、大局的補正では、装置が、近傍領域よりも広範な領域に含まれる線情報を用いた補正を行い、例えば、数式を用いたモデリングを利用して補正する。
WO2005/086091(第13頁、第5図) 特開2006-72553号公報(第1-5頁、第1図) 特開平10-334237号公報(第1-8頁、第1図) 特開平5-181956号公報(第1-4頁、第1図) 特開平9-62836号公報(第1-3頁、第1図)
 ところで、上記した従来の手法各々は、認証に用いる画像の品質によっては、適した補正とはならないという課題があった。
 例えば、上記の局所的補正では、平滑化フィルタよりも大きなノイズを補正することができず、大きなノイズが含まれる画像に対して適した補正とはならなかった。また、例えば、上記の大局的補正では、補正処理に伴い詳細な線情報を維持することができず、大きなノイズが含まれない品質の高い画像に対して適した補正とはならなかった。
 そこで、この発明は、上述した従来技術の課題を解決するためになされたものであり、認証に用いる画像の品質に適した補正手法を選択することが可能である認証装置、認証方法および認証プログラムを提供することを目的とする。
 上述した課題を解決し、目的を達成するため、線の形状から抽出される特徴量が認証に用いられる画像データについて、当該画像データを区分けした領域ごとに、自領域に含まれる線の形状を示す線情報に対して、当該自領域の近傍領域に含まれる線情報が示す局所的な線の形状を用いた補正を実行する第一の補正手段を備える。また、前記画像データについて、自領域に含まれる線情報に対して、前記近傍領域よりも広範な領域に含まれる線情報が示す全体的な線の形状を用いた補正を実行する第二の補正手段を備える。また、前記第一の補正手段によって補正された画像データに含まれる線情報と前記第二の補正手段によって補正された画像データに含まれる線情報との差分を算出する算出手段を備える。また、前記算出手段によって算出された差分と閾値とを比較し、当該差分が当該閾値より小さい場合には、当該画像データに含まれる線情報として前記第一の補正手段によって補正された線情報を出力し、当該差分が当該閾値より大きい場合には、当該画像データに含まれる線情報として前記第二の補正手段によって補正された線情報を出力する出力手段を備える。
 認証に用いる画像の品質に適した補正手法を選択することが可能である。
図1は、実施例1に係る認証装置の概要を説明するための図である。 図2は、実施例1に係る認証装置の構成を説明するためのブロック図である。 図3は、実施例1におけるソーベルフィルタの一例を説明するための図である。 図4は、実施例1における平滑化フィルタの一例を説明するための図である。 図5は、実施例1における局所的補正を説明するための図である。 図6は、実施例1における補正選択部を説明するための図である。 図7は、実施例1における認証装置の処理の流れを説明するためのフローチャートである。 図8は、実施例2に係る認証装置の構成を説明するためのブロック図である。 図9は、実施例2における認証装置の処理の流れを説明するためのフローチャートである。 図10は、実施例1に係る認証装置のプログラムを説明するための図である。
符号の説明
 100 認証装置
 101 指紋画像検出部
 200 記憶部
 201 特徴量記憶部
 300 制御部
 301 線情報算出部
 302 局所的補正部
 303 大局的補正部
 304 差分算出部
 305 補正選択部
 306 特徴量抽出部
 307 特徴量格納部
 401 補正部
 以下に添付図面を参照して、この発明に係る認証装置、認証方法および認証プログラムの実施例を詳細に説明する。なお、以下では、本実施例に係る認証装置の概要、認証装置の構成および処理の流れを順に説明し、その後、その他の実施例について説明する。
[認証装置の概要]
 まず最初に、図1を用いて、実施例1に係る認証装置の概要を説明する。図1は、実施例1に係る認証装置の概要を説明するための図である。
 図1の(1)に示すように、実施例1に係る認証装置は、利用者から指紋画像が入力される。そして、図1の(2-1)に示すように、認証装置は、指紋画像に、局所的補正を実行する。例えば、認証装置は、平滑化フィルタなどを利用して補正を実行する。
 また、図1の(2-2)に示すように、実施例1に係る認証装置は、指紋画像に、大局的補正を実行する。例えば、認証装置は、線情報の流れを物理学でよく用いられる相図と見立て、数式でモデリングすることで補正を実行する。
 ここで、実施例1に係る認証装置は、局所的補正と大局的補正とをそれぞれ別個に実行する。すなわち、認証装置は、局所的補正のみが実行された線情報と、大局的補正のみが実行された線情報とを作成する。
 そして、図1の(3)に示すように、実施例1に係る認証装置は、局所的補正のみが実行された線情報と、大局的補正のみが実行された線情報との差分を算出する。
 そして、実施例1に係る認証装置は、差分と閾値とを比較し、差分が閾値より小さい場合には、図1の(4-1)に示すように、画像データに含まれる線情報として局所的補正によって補正された線情報を選択して出力する。また、認証装置は、差分が閾値より大きい場合には、図1の(4-2)に示すように、画像データに含まれる線情報として大局的補正によって補正された線情報を選択して出力する。
 このようなことから、実施例1に係る認証装置は、認証に用いる画像の品質に適した補正手法を選択することが可能である。すなわち、認証装置は、詳細な情報を維持する局所的な補正と補正効果の大きい大局的な補正とを指紋画像に別個に適用し、二つの補正指紋間に差が少なければ前者を採用し、差が大きければ後者を選択する。これにより、指紋の品質に適した補正を実行する。
[実施例1に係る認証装置の構成]
 次に、図2を用いて、図1に示した認証装置100の構成を説明する。図2は、実施例1に係る認証装置の構成を説明するためのブロック図である。同図に示すように、この認証装置100は、指紋画像検出部101と、記憶部200と、制御部300とを有する。なお、実施例1では、利用者の指紋画像から特徴量を抽出し、認証する際に用いる特徴量として記憶部200に入力する際の手法について主に説明する。
 指紋画像検出部101は、後述する線情報算出部301と接続され、利用者の生体情報について、複数の部分画像を断続的に検出して映像化し、線の形状から抽出される特徴量が認証に用いられる指紋画像(「画像データ」とも称する)を検出する。
 例えば、指紋画像検出部101は、指紋センサなどが該当し、利用者の指が押し当てられると、利用者の指紋画像を検出する。なお、指紋センサとは、例えば、静電容量式指紋センサや、感熱式指紋センサ、電界式指紋センサ、あるいは光学式指紋センサなどが該当する。
 また、指紋画像検出部101は、検出した指紋画像を線情報算出部301に送る。
 記憶部200は、制御部300による認証処理に必要なデータを格納し、特徴量記憶部201を備える。特徴量記憶部201は、後述する特徴量格納部307と接続され、線の形状から抽出される認証に用いられる特徴量を記憶する。ここで、特徴量とは、生体認証に必要な情報であり、指紋画像である場合には、隆線の分岐点や端点などが該当する。なお、特徴量記憶部201に記憶されている情報は、後述する特徴量格納部307によって格納される。
 制御部300は、各種の補正処理手順を実行し、例えば、指紋画像検出部101から指紋画像を受信すると、指紋画像から特徴量を抽出して特徴量記憶部201に入力する。また、制御部300は、線情報算出部301と、局所的補正部302と、大局的補正部303と、差分算出部304と、補正選択部305と、特徴量抽出部306と、特徴量格納部307とを備える。
 線情報算出部301は、指紋画像検出部101と局所的補正部302と大局的補正部303と接続され、指紋画像検出部101から受信した指紋画像について、線の形状を示す線情報(「隆線角度」や「隆線方向」とも称する)を算出する。具体的には、線情報算出部301は、指紋画像の領域各々について、当該領域に含まれる線の形状についての情報である線情報を算出し、例えば、「30度」や「50度」であると算出する。なお、線情報とは、領域に含まれる線の形状が示している角度である。
 例えば、線情報算出部301は、指紋画像を大きさ「w×w」の領域に分割し、図3に示すようなソーベルフィルタなどを利用して、水平方向(x方向)、垂直方向(y方向)にそれぞれ偏微分し、∂x、∂yを得る。そして、線情報算出部301は、∂x、∂yから式(1)より各ブロックの中心画素(i、j)に対して、局所的な線情報θ(i、j)を算出する。なお、ソーベルフィルタとは、縦線や横線のエッジを検出する際に用いられるフィルタである。なお、図3は、実施例1におけるソーベルフィルタの一例を説明するための図である。また、図3の(1)は、垂直方向についてのフィルタであり、また、図3の(2)は、水平方向についてのフィルタである。
Figure JPOXMLDOC01-appb-M000001
 なお、式(1)は、Gradient Squared Averaging Methodの計算手法に基づきブロック内の各画素に対して2乗誤差が最小となる方向を求めている。式(1)においては、VxやVyは、式の視認性を向上するためarctanのパラメータを分子、分母別に表した値である。また「u」や「v」は、数式において使いまわされる変数である。
 また、線情報算出部301は、領域各々について算出された線情報を局所的補正部302と大局的補正部303とに送る。
 局所的補正部302は、線情報算出部301と差分算出部304と接続され、領域各々について算出された線情報を線情報算出部301から受信し、指紋画像の領域各々について算出された線情報に対して局所的補正を実行する。また、局所的補正部302は、局所的補正により補正された線情報である局所補正線情報を差分算出部304に送る。
 ここで、局所的補正とは、指紋画像を区分けした領域ごとに、自領域について算出された線情報に対して行われる補正であって、自領域の近傍領域に含まれる線情報が示す局所的な線の形状を用いた補正である。例えば、局所的補正とは、図4に示すような平滑化フィルタなどを利用した補正が該当する。なお、図4は、実施例1における平滑化フィルタの一例を説明するための図である。
 また、局所的補正は、線情報についての詳細な情報を維持する一方、例えば、図5の(1)に示すように、平滑化フィルタの大きさよりも大きいノイズが指紋画像にある場合には、当該ノイズを修正することができない。図5の(1)に示す例では、平滑化フィルタ内に線情報がなにも含まれておらず、局所的補正では、図5の(1)の矢印の先に示すように、ノイズを修正することができない。
 すなわち、局所的補正では、図5の(2)に示すように、平滑化フィルタの大きさよりも小さいノイズがある場合にのみ、補正することができる。なお、図5は、実施例1における局所的補正を説明するための図である。なお、詳細な情報とは、例えば、線情報の細かい変化が該当する。
 大局的補正部303は、線情報算出部301と差分算出部304と接続され、領域各々について算出された線情報を線情報算出部301から受信し、指紋画像の領域各々について算出された線情報に対して大局的補正を実行する。また、大局的補正部303は、大局的補正により補正された線情報である大局補正線情報を差分算出部304に送る。
 ここで、大局的補正とは、指紋画像について、自領域について算出された線情報に対して、近傍領域よりも広範な領域に含まれる領域各々について算出された線情報が示す全体的な線の形状を用いた補正である。例えば、大局的補正とは、線の形状や線情報の流れを物理学でよく用いられる相図と見立て、数式でモデリングする補正などが該当する。また、大局的補正とは、局所的補正と比較して補正効果が大きい一方、線情報についての詳細な情報が欠落する。
 差分算出部304は、局所的補正部302と大局的補正部303と補正選択部305と接続され、局所的補正部302から局所補正線情報を受信し、また、大局的補正部303から大局補正線情報を受信する。そして、差分算出部304は、局所補正線情報と大局補正線情報との差分を算出する。例えば、差分算出部304は、まず、局所補正線情報と大局補正線情報とを連続ベクトル場に変換し、その後、領域各々について、局所補正線情報と大局補正線情報との差分を計算する。そして、差分算出部304は、算出した差分の累計値である累計差分を算出する。また、差分算出部304は、算出した累計差分を補正選択部305に送る。
 なお、ここで、連続ベクトル場に変換する意義について簡単に説明する。差分算出部304は、領域各々についての差分について、例えば、任意の領域についての線情報が、「30度」と「50度」とである場合には、差分が「20度」であると算出する。ここで、差分算出部304は、差分を算出する際に角度の差しか考慮しない。このため、例えば、「0度」と「180度」とを同じものとして扱い、差分が「0度」であると算出する。連続ベクトル場に変換するとは、例えば、「0度」と「180度」とが同じであるものとして扱うための処理である。
 補正選択部305は、差分算出部304と特徴量抽出部306と接続され、差分算出部304から累計差分を受信し、累計差分と閾値とを比較する。そして、補正選択部305は、図6に示すように、差分が閾値より小さい場合には、指紋画像に含まれる線情報として局所補正線情報を選択し、特徴量抽出部306に出力する。また、補正選択部305は、差分が閾値より大きい場合には、指紋画像に含まれる線情報として、大局補正線情報を選択し、特徴量抽出部306に出力する。なお、図6は、実施例1における補正選択部を説明するための図である。
 すなわち、補正選択部305は、局所補正線情報と大局補正線情報との間に差分が少なければ、線情報についての詳細な情報を維持する局所的補正が実行された線情報である局所補正線情報を選択する。一方、補正選択部305は、局所補正線情報と大局補正線情報との間に差分が大きければ、補正効果の大きい大局的補正が実行された線情報である大局補正線情報を選択する。
 つまり、局所補正線情報と大局補正線情報との間にある差分が大きくなる場合とは、例えば、指紋画像に平滑化フィルタよりも大きいノイズがあり、当該大きいノイズを局所的補正では補正できず、大局的補正のみが補正できる場合である。図6の(2-1)に示すように、大きなノイズが入っている指紋画像が指紋画像検出部101によって検出された場合には、図6の(2-2)に示すように、局所補正線情報ではノイズを補正できていないのに対して、大局補正線情報では補正効果を確認できる。この結果、局所補正線情報と大局補正線情報との間にある差分が大きくなり、図6の(2-3)に示すように、補正選択部305は、大局補正線情報を選択する。つまり、補正選択部305は、亀裂が多い場合には、低品質な大局的補正を採用する。ここで、低品質とは、局所的補正と比較して、詳細な情報を維持できないことを示す。
 また、局所補正線情報と大局補正線情報との間に差分が少なくなる場合とは、例えば、指紋画像に平滑化フィルタよりも大きいノイズがない場合であり、局所的補正でも大局的補正でも指紋画像にあるノイズを補正できる場合である。図6の(1-1)に示すように、大きなノイズが入っていない指紋画像が指紋画像検出部101によって検出された場合には、図6の(1-2)に示すように、局所補正線情報と大局補正線情報との間の差分が小さくなる。ここで、大局補正線情報では、線情報の細かな変化が捉えられておらず詳細な情報が欠落するため、図6の(1-3)に示すように、補正選択部305は、なるべく詳細情報を保持すべく、局所補正線情報を選択する。つまり、補正選択部305は、亀裂が少ない場合には、高品質な局所的補正を採用する。
 なお、補正選択部305によって用いられる閾値は、例えば、利用者によって予め設定される。
 特徴量抽出部306は、補正選択部305と特徴量格納部307と接続され、局所補正線情報画像または大局補正線情報を補正選択部305から受信し、受信した線情報から特徴量を抽出する。そして、特徴量抽出部306は、抽出した特徴量を特徴量格納部307に送る。
 特徴量格納部307は、特徴量抽出部306と特徴量記憶部201と接続され、特徴量抽出部306から特徴量を受信し、受信した特徴量を特徴量記憶部201に入力する。例えば、特徴量格納部307は、特徴量を入力する際に、特徴量を暗号化した後に、特徴量記憶部201に格納する。
[実施例1に係る認証装置による処理]
 次に、図7を用いて、実施例1に係る認証装置100による処理の流れを説明する。図7は、実施例1における認証装置の処理の流れを説明するためのフローチャートである。
 指紋画像が入力されると(ステップS101肯定)、線情報算出部301は、指紋画像検出部101から受信した指紋画像の領域各々について線情報を算出し(ステップS102)、例えば、隆線角度「30度」や「50度」であると算出する。
 また、大局的補正部303は、大局的補正によって線情報各々の補正を実行する(ステップS103)。そして、差分算出部304は、大局的補正部303により補正された線情報である大局補正線情報を連続ベクトル場に変換する(ステップS104)。
 そして、局所的補正部302は、局所的補正によって線情報各々の補正を実行する(ステップS105)。つまり、局所的補正部302は、指紋画像の領域各々について算出された線情報に対して、局所的補正を実行する。そして、差分算出部304は、局所的補正部302により補正された線情報である局所補正線情報を連続ベクトル場に変換する(ステップS106)。
 そして、差分算出部304は、局所補正線情報と大局補正線情報との差分を算出する(ステップS107)。そして、補正選択部305は、累計差分と閾値とを比較する(ステップS108)。ここで、補正選択部305は、累計差分より閾値が大きい場合には(ステップS108肯定)、局所補正線情報を選択する(ステップS109)。一方、補正選択部305は、累計差分より閾値が大きくない場合には(ステップS108否定)、大局補正線情報を選択する(ステップS110)。
 すなわち、補正選択部305は、局所補正線情報と大局補正線情報との間に差分が少なければ、線情報についての詳細な情報を維持する局所的補正が実行された線情報である局所補正線情報を選択する。また、補正選択部305は、局所補正線情報と大局補正線情報との間に差分が大きければ、補正効果の大きい大局的補正が実行された線情報である大局補正線情報を選択する。
 そして、特徴量抽出部306は、補正選択部305から受信した線情報から特徴量を抽出し(ステップS111)、特徴量格納部307は、特徴量を特徴量記憶部201に格納する(ステップS112)。
[実施例1の効果]
 上記したように、実施例1によれば、指紋画像について、局所的補正と大局的補正とをそれぞれ別個に実行し、局所補正線情報と大局補正線情報との差分を算出する。そして、差分と閾値とを比較し、差分が閾値より小さい場合には、局所補正線情報を出力し、差分が閾値より大きい場合には、大局補正線情報を出力するので、認証に用いる画像の品質に適した補正手法を選択することが可能である。
 また、従来の技術では、「ノイズ除去効果」と「詳細情報の維持」との間にトレードオフがあった。すなわち、補正手法によって、指紋画像によっては詳細情報が維持されず、線情報が類似した他人の指紋と誤照合する場合があり、また、亀裂などのノイズの影響を除去できない場合があった。しかし、実施例1によれば、認証に用いる画像の品質に適した補正手法を選択することができ、その結果、指紋の品質に適した補正を実行することが可能である。
 さて、これまで、実施例1として、補正手法として、局所的補正と大局的補正とを使い分ける手法について説明したが、本発明はこれに限定されるものではなく、補正手法として、補正を行うか補正を行わないかを使い分けてもよい。
 そこで、以下では、実施例2として、補正手法として、補正を行うか補正を行わないかを使い分ける手法について説明する。なお、以下では、実施例1に係る認証装置と同様の点については、簡単に説明し、または、説明を省略する。
[実施例2に係る認証装置の構成]
 図8を用いて、実施例2に係る認証装置100の構成について説明する。なお、図8は、実施例2に係る認証装置の構成を説明するためのブロック図である。
 図8に示すように、実施例2では、線情報算出部301は、補正部401と差分算出部304と接続され、領域各々について算出された線情報を補正部401と差分算出部304とに送る。
 実施例2では、補正部401は、領域各々について算出された線情報を線情報算出部301から受信し、領域各々について算出された線情報に対して補正を実行する。ここで、補正部401は、補正手法として、例えば、局所的補正や、大局的補正を用いる。また、補正部401は、補正された線情報である補正線情報を差分算出部304に送る。
 実施例2では、差分算出部304は、補正線情報を補正部401から受信し、なんら補正が実行されていない線情報である無補正線情報を線情報算出部301から受信する。そして、差分算出部304は、補正線情報と無補正線情報との差分を算出し、累計差分を算出する。
 実施例2では、補正選択部305は、差分算出部304によって算出された累計差分と閾値とを比較する。そして、補正選択部305は、差分が閾値より小さい場合には、指紋画像に含まれる線情報として、無補正線情報を選択して出力する。また、補正選択部305は、差分が閾値より大きい場合には、指紋画像に含まれる線情報として、補正線情報を選択して出力する。
 すなわち、補正選択部305は、補正線情報と無補正線情報との間に差分が少なければ、なんら補正が実行されていない線情報である無補正線情報を特徴量抽出部306に出力し、補正画像と補正無画像との間に差が大きければ、補正が行われた線情報である補正線情報を特徴量抽出部306に出力する。
 つまり、補正線情報と無補正線情報との間に差分が小さくなる場合とは、例えば、指紋画像検出部101により検出された指紋画像の品質が高い場合であり、補正処理を必要としない場合である。このような場合には、補正を行うことなく、なんら補正を行っていない無補正線情報を出力する。
 すなわち、補正を行うことによって、指紋画像検出部101によって検出された指紋画像には変更が加えられることになる。補正線情報と無補正線情報との間に差分が小さくなる場合には、検出された指紋画像の品質が高い場合であり、補正により変更を加えることなく、そのままの状態にて出力する。
[実施例2に係る認証装置による処理]
 次に、図9を用いて、実施例2に係る認証装置100による処理の流れを説明する。図9は、実施例2における認証装置の処理の流れを説明するためのフローチャートである。
 実施例2では、指紋画像が入力されて、線情報を算出すると(ステップS201肯定~ステップS202)、差分算出部304は、無補正線情報を連続ベクトル場に変換する(ステップS203)。
 また、補正部401は、指紋画像の領域各々について算出された線情報に対して補正を実行する(ステップS204)。そして、差分算出部304は、補正部401により補正された線情報である補正線情報を連続ベクトル場に変換する(ステップS205)。
 そして、差分算出部304は、無補正線情報と補正線情報との差分を算出する(ステップS206)。そして、補正選択部305は、累計差分と閾値とを比較する(ステップS207)。ここで、補正選択部305は、累計差分より閾値が大きい場合には(ステップS207肯定)、無補正線情報を選択する(ステップS208)。一方、補正選択部305は、累計差分より閾値が大きくない場合には(ステップS207否定)、補正線情報を選択する(ステップS209)。
 なお、図9におけるステップS201とS202とは、図7におけるステップS101とステップS102とに対応する。また、図9におけるステップS210とS211とは、図7におけるステップS111とステップS112とに対応する。
[実施例2の効果]
 上記したように、実施例2によれば、無補正線情報と補正線情報との差分を算出し、差分と閾値とを比較する。そして、差分が閾値より小さい場合には、無補正線情報を選択し、差分が閾値より大きい場合には、補正線情報を選択する。すなわち、指紋画像の品質が高い場合には補正手法として補正無しを選択し、また、指紋画像の品質が高い場合には補正手法として補正ありを選択するので、認証に用いる画像の品質に適した補正を選択して実行することが可能である。
 例えば、指紋画像検出部101によって検出された指紋画像の品質が補正を必要としないほど高品質な場合には、補正を行うことなく、なんら補正が実行されていない補正画像を出力する。
 さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、その他の実施例にて実施されてよいものである。そこで、以下では、その他の実施例について説明する。
[指紋画像]
 例えば、実施例1や実施例2では、指紋画像について処理を行う手法について説明したが、本発明はこれに限定されるものではなく、例えば、掌紋や指静脈、手のひら静脈、血管パターン等の生体情報について処理を行ってもよい。また、認証に用いる特徴的な線情報が含まれていれば、生体情報以外の情報に対して本発明を適用してもよい。例えば、紙幣の真贋を認証する処理に適用してもよい。
[認証]
 また、実施例1では、特徴量を特徴量記憶部201に入力する手法について説明したが、本発明はこれに限定されるものではなく、抽出した特徴量を用いて認証処理を実行してもよい。例えば、特徴量抽出部306により得られた特徴量と特徴量記憶部201に予め入力されている特徴量とを照合し、一致しているか否かを出力してもよい。なお、特徴量同士の照合処理を行う際には、例えば、特徴量と紐付けされたキーワード(IDなど)を指定して照合する方式(1対1照合)や、IDを指定せずに照合する方式(1対N照合)などを用いる。
[指紋画像検出]
 また、実施例1や実施例2では、指紋画像検出部101によって検出された指紋画像に対して実施する手法について説明したが、本発明はこれに限定されるものではなく、予め記憶部に入力されている指紋画像に対して実施してもよい。
[実施例の組み合わせ]
 また、実施例1では、局所的補正と大局的補正とを使い分ける手法について説明し、実施例2では、補正ありか無しかを使い分ける手法について説明した。しかし、本発明はこれに限定されるものではなく、例えば、補正ありか無しかを判定し、補正ありと判定した場合に、局所的補正と大局的補正とを使い分ける手法を実行してもよい。また、例えば、局所的補正と大局的補正とを使い分けて得られた線情報と、補正無しとを比較することで、補正手段(局所的補正と大局的補正と補正無しと)を使い分けてもよい。
[システム構成]
 また、本実施例において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、例えば、補正手法を選択する処理を利用者が手動で行ってもよい。また、この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については(例えば、図1~図9)、特記する場合を除いて任意に変更することができる。
 また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図2に示す例では、特徴量記憶部201や指紋画像検出部101を物理的に分散して構成してもよく、また、局所的補正部302と大局的補正部303とを統合して構成してもよい。
[コンピュータ]
 また、上記の実施例で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図10を用いて、上記の実施例と同様の機能を有する認証プログラムを実行するコンピュータの一例を説明する。なお、図10は、実施例1に係る認証装置のプログラムを説明するための図である。
 同図に示すように、実施例1における認証装置3000は、操作部3001、マイク3002、スピーカ3003、指紋画像検出装置304、ディスプレイ3005、特徴量記憶部3006、通信部3008、CPU3010、ROM3011、HDD3012、RAM3013をバス3009などで接続して構成されている。
 ROM3011には、上記の実施例1で示した線情報算出部301と、局所的補正部302と、大局的補正部303と、差分算出部304と、補正選択部305と、特徴量抽出部306と、特徴量格納部307と同様の機能を発揮する制御プログラム、つまり、同図に示すように、線情報算出プログラム3011aと、局所的補正プログラム3011bと、大局的補正プログラム3011cと、差分算出プログラム3011dと、補正選択プログラム3011eと、特徴量抽出プログラム3011fと、特徴量格納プログラム3011gとが予め記憶されている。なお、これらのプログラム3011a~3011gについては、図2に示した認証装置の各構成要素と同様、適宜統合または分離してもよい。
 そして、CPU3010が、これらのプログラム3011a~3011gをROM3011から読み出して実行することにより、図10に示すように、各プログラム3011a~3011gについては、線情報算出プロセス3010aと、局所的補正プロセス3010bと、大局的補正プロセス3010cと、差分算出プロセス3010dと、補正選択プロセス3010eと、特徴量抽出プロセス3010fと、特徴量格納プロセス3010gとして機能するようになる。なお、各プロセス3010a~3010gは、図2に示した、線情報算出部301と、局所的補正部302と、大局的補正部303と、差分算出部304と、補正選択部305と、特徴量抽出部306とにそれぞれ対応する。
 そして、CPU3010は、RAM3013に格納された指紋画像データ3013aと、線情報データ3013bとを用いて、認証プログラムを実行する。
[その他]
 なお、本実施例で説明した認証装置は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。このプログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。

Claims (2)

  1.  線の形状から抽出される特徴量が認証に用いられる画像データについて、当該画像データを区分けした領域ごとに、自領域に含まれる線の形状を示す線情報に対して、当該自領域の近傍領域に含まれる線情報が示す局所的な線の形状を用いた補正を実行する第一の補正手段と、
     前記画像データについて、自領域に含まれる線情報に対して、前記近傍領域よりも広範な領域に含まれる線情報が示す全体的な線の形状を用いた補正を実行する第二の補正手段と、
     前記第一の補正手段によって補正された画像データに含まれる線情報と前記第二の補正手段によって補正された画像データに含まれる線情報との差分を算出する算出手段と、
     前記算出手段によって算出された差分と閾値とを比較し、当該差分が当該閾値より小さい場合には、当該画像データに含まれる線情報として前記第一の補正手段によって補正された線情報を出力し、当該差分が当該閾値より大きい場合には、当該画像データに含まれる線情報として前記第二の補正手段によって補正された線情報を出力する出力手段と、
     を備えることを特徴とする認証装置。
  2.  線の形状から抽出される特徴量が認証に用いられる画像データについて、自領域に含まれる線情報に対して、当該画像データに含まれる線情報を用いた補正を実行する補正手段と、
     前記補正手段によって補正された画像データに含まれる線情報と当該補正手段によって補正されていない画像データに含まれる線情報との差分を算出する補正有無時算出手段と、
     前記補正有無時算出手段によって算出された差分と閾値とを比較し、当該差分が当該閾値より小さい場合には、前記補正手段によって補正されていない画像データに含まれる線情報を出力し、当該差分が当該閾値より大きい場合には、当該画像データに含まれる線情報として前記補正手段によって補正された画像データに含まれる線情報を出力する補正有無時出力手段と、
     を備えることを特徴とする認証装置。
PCT/JP2008/061828 2008-06-30 2008-06-30 認証装置、認証方法および認証プログラム WO2010001447A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP08790741.6A EP2296113B1 (en) 2008-06-30 2008-06-30 Authentication device, authentication method and authentication program
PCT/JP2008/061828 WO2010001447A1 (ja) 2008-06-30 2008-06-30 認証装置、認証方法および認証プログラム
CN2008801301278A CN102077247B (zh) 2008-06-30 2008-06-30 认证装置
JP2010518834A JP5365632B2 (ja) 2008-06-30 2008-06-30 認証装置及び認証方法
US12/929,086 US8464323B2 (en) 2008-06-30 2010-12-29 Authentication apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2008/061828 WO2010001447A1 (ja) 2008-06-30 2008-06-30 認証装置、認証方法および認証プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US12/929,086 Continuation US8464323B2 (en) 2008-06-30 2010-12-29 Authentication apparatus

Publications (1)

Publication Number Publication Date
WO2010001447A1 true WO2010001447A1 (ja) 2010-01-07

Family

ID=41465563

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2008/061828 WO2010001447A1 (ja) 2008-06-30 2008-06-30 認証装置、認証方法および認証プログラム

Country Status (5)

Country Link
US (1) US8464323B2 (ja)
EP (1) EP2296113B1 (ja)
JP (1) JP5365632B2 (ja)
CN (1) CN102077247B (ja)
WO (1) WO2010001447A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014099039A (ja) * 2012-11-14 2014-05-29 Fujitsu Ltd 生体情報補正装置、生体情報補正方法及び生体情報補正用コンピュータプログラム
EP2544147A4 (en) * 2010-03-01 2016-08-10 Fujitsu Ltd DEVICE AND METHOD FOR MANAGING BIOLOGICAL INFORMATION
JP2020077291A (ja) * 2018-11-09 2020-05-21 日本電気株式会社 情報処理システム、情報処理方法及びプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020181040A (ja) * 2019-04-24 2020-11-05 三菱電機株式会社 表示装置
CN114124455B (zh) * 2021-10-22 2023-05-05 中国联合网络通信集团有限公司 短信验证方法及短信验证***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05181956A (ja) 1992-01-07 1993-07-23 Nec Corp 隆線方向パターン平滑化方法およびその装置
JPH0962836A (ja) 1995-08-25 1997-03-07 Ge Yokogawa Medical Syst Ltd 画像処理方法および画像処理装置
JPH10334237A (ja) 1997-06-04 1998-12-18 Mitsubishi Electric Corp 指紋照合装置
WO2005086091A1 (ja) 2004-03-04 2005-09-15 Nec Corporation 指紋掌紋画像処理システムおよび指紋掌紋画像処理方法
JP2006072553A (ja) 2004-08-31 2006-03-16 Secom Co Ltd 生体情報照合装置
JP2006303581A (ja) * 2005-04-15 2006-11-02 Mitsubishi Electric Corp 雑音除去装置および雑音除去装置用プログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3647885B2 (ja) * 1993-05-07 2005-05-18 日本電信電話株式会社 画像処理装置
DE10038873C2 (de) * 2000-08-09 2002-10-31 Infineon Technologies Ag Verfahren zum Bearbeiten eines Fingerabdruck-Bildes und Fingerabdruck-Sensor
KR100474760B1 (ko) * 2001-10-08 2005-03-08 엘지전자 주식회사 영상내의 오브젝트 영역 추출방법
JP4027118B2 (ja) * 2002-02-25 2007-12-26 富士通株式会社 本人認証方法、プログラム及び装置
CN1238809C (zh) * 2002-09-04 2006-01-25 长春鸿达光电子与生物统计识别技术有限公司 指纹识别方法、以及指纹控制方法和***
JP3758042B2 (ja) * 2002-09-27 2006-03-22 日本電気株式会社 指紋認証方法/プログラム/装置
JP4286790B2 (ja) * 2003-03-14 2009-07-01 富士通株式会社 紙葉類識別方法及び紙葉類識別装置
JP2005004718A (ja) * 2003-05-16 2005-01-06 Canon Inc 信号処理装置及び制御方法
JP2005051379A (ja) * 2003-07-31 2005-02-24 Canon Inc 画像処理装置及び画像処理方法
JP2006072555A (ja) 2004-08-31 2006-03-16 Secom Co Ltd 生体情報画像補正装置
CN100365646C (zh) * 2006-09-15 2008-01-30 哈尔滨工业大学 基于差分运算的高精度掌纹识别方法
EP2249309A1 (en) * 2008-02-19 2010-11-10 NEC Corporation Pattern matching device, pattern matching method, and program
JP5181956B2 (ja) 2008-03-03 2013-04-10 株式会社リコー 電子写真装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05181956A (ja) 1992-01-07 1993-07-23 Nec Corp 隆線方向パターン平滑化方法およびその装置
JPH0962836A (ja) 1995-08-25 1997-03-07 Ge Yokogawa Medical Syst Ltd 画像処理方法および画像処理装置
JPH10334237A (ja) 1997-06-04 1998-12-18 Mitsubishi Electric Corp 指紋照合装置
WO2005086091A1 (ja) 2004-03-04 2005-09-15 Nec Corporation 指紋掌紋画像処理システムおよび指紋掌紋画像処理方法
JP2006072553A (ja) 2004-08-31 2006-03-16 Secom Co Ltd 生体情報照合装置
JP2006303581A (ja) * 2005-04-15 2006-11-02 Mitsubishi Electric Corp 雑音除去装置および雑音除去装置用プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2296113A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2544147A4 (en) * 2010-03-01 2016-08-10 Fujitsu Ltd DEVICE AND METHOD FOR MANAGING BIOLOGICAL INFORMATION
JP2014099039A (ja) * 2012-11-14 2014-05-29 Fujitsu Ltd 生体情報補正装置、生体情報補正方法及び生体情報補正用コンピュータプログラム
JP2020077291A (ja) * 2018-11-09 2020-05-21 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
JP7381997B2 (ja) 2018-11-09 2023-11-16 日本電気株式会社 情報処理システム、情報処理方法及びプログラム

Also Published As

Publication number Publication date
US8464323B2 (en) 2013-06-11
CN102077247B (zh) 2013-08-21
CN102077247A (zh) 2011-05-25
EP2296113A4 (en) 2015-06-24
JPWO2010001447A1 (ja) 2011-12-15
US20110162068A1 (en) 2011-06-30
EP2296113A1 (en) 2011-03-16
JP5365632B2 (ja) 2013-12-11
EP2296113B1 (en) 2019-11-13

Similar Documents

Publication Publication Date Title
EP2444933B1 (en) Biometric authentication device, biometric authentication method and computer program for biometric authentication
EP2104059B1 (en) Apparatus and method for processing image
US8908934B2 (en) Fingerprint recognition for low computing power applications
JP5365632B2 (ja) 認証装置及び認証方法
KR20140061966A (ko) 생체 정보 보정 장치, 생체 정보 보정 방법 및 생체 정보 보정용 컴퓨터 판독 가능한 기록 매체
WO2011022212A1 (en) Automatic identification of fingerprint inpainting target areas
WO2016104712A1 (ja) 画像処理装置、画像処理方法及びプログラム
WO2007088926A1 (ja) 画像処理、画像特徴抽出、および画像照合の装置、方法、およびプログラム並びに画像照合システム
WO2017024667A1 (zh) 一种指纹验证方法和装置
JP5480532B2 (ja) 画像処理装置、画像処理方法、及び同方法をコンピュータに実行させるプログラム
US20190188443A1 (en) Information processing apparatus, biometric authentication method, and recording medium having recorded thereon biometric authentication program
JP5703068B2 (ja) 顔検出方法および顔検出装置、ならびに、プログラム
JP5061370B2 (ja) 隆線領域抽出装置、隆線領域抽出システム、隆線領域抽出方法、およびプログラム
KR100795187B1 (ko) 지문 인식 장치 및 방법
WO2023028947A1 (zh) 掌静脉非接触式三维建模方法、装置及认证方法
JP2010122994A (ja) 顔認証システム
JP7290198B2 (ja) 縞模様画像照合装置、縞模様照合方法、及び、そのプログラム
KR101751871B1 (ko) 이미지 데이터 특질 추출 방법 및 장치
US8548212B2 (en) Fingerprint recognition apparatus and method thereof
CN108009464B (zh) 一种指纹识别方法和装置
JP2008276758A (ja) 指紋特異点抽出装置及び指紋特異点抽出方法
JP4601245B2 (ja) 顔部位抽出装置
JP2007179267A (ja) パターン照合装置
JP6935832B2 (ja) 画像処理システム
JP2014021510A (ja) 画像処理装置および画像処理方法、ならびに、プログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200880130127.8

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08790741

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010518834

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2008790741

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE