JP5729029B2 - Identification device and identification method - Google Patents

Identification device and identification method Download PDF

Info

Publication number
JP5729029B2
JP5729029B2 JP2011052610A JP2011052610A JP5729029B2 JP 5729029 B2 JP5729029 B2 JP 5729029B2 JP 2011052610 A JP2011052610 A JP 2011052610A JP 2011052610 A JP2011052610 A JP 2011052610A JP 5729029 B2 JP5729029 B2 JP 5729029B2
Authority
JP
Japan
Prior art keywords
feature
registrant
identification
target person
identification target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011052610A
Other languages
Japanese (ja)
Other versions
JP2012190220A (en
Inventor
広和 笠原
広和 笠原
公威 溝部
公威 溝部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2011052610A priority Critical patent/JP5729029B2/en
Publication of JP2012190220A publication Critical patent/JP2012190220A/en
Application granted granted Critical
Publication of JP5729029B2 publication Critical patent/JP5729029B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)

Description

本発明は、識別装置及び識別方法に関する。   The present invention relates to an identification device and an identification method.

撮影した静脈画像等に基づいて認証を行うシステムが開発されている。このようなシス
テムにおいては、撮影した画像とテンプレートを比較して認証を行うテンプレート比較方
式が一般的である。テンプレート比較方式においては認証精度を高めるために正確に位置
合わせする必要がある。例えば、特許文献1には、認証時に指の輪郭から回転補正を行う
ことが示されている。また、特許文献2には、登録時に複数の角度のテンプレートを保存
しておき、それぞれに対して認証処理をすることが示されている。
A system for performing authentication based on a photographed vein image or the like has been developed. In such a system, a template comparison method that performs authentication by comparing a photographed image with a template is generally used. In the template comparison method, it is necessary to accurately align in order to increase the authentication accuracy. For example, Patent Document 1 shows that rotation correction is performed from the contour of a finger during authentication. Japanese Patent Laid-Open No. 2004-26853 discloses that templates at a plurality of angles are stored at the time of registration, and authentication processing is performed on each of them.

特開2009−87363号公報JP 2009-87363 A 特開2007−287080号公報JP 2007-287080 A

しかしながら、特許文献1または特許文献2に記載の方法には、以下のように正確に補
正ができない場合があるという問題がある。
However, the method described in Patent Document 1 or Patent Document 2 has a problem that correction cannot be performed accurately as follows.

例えば、特許文献1の手法であると、指の先端まで撮影されていない場合、輪郭だけで
は指の向きを判別できないので正確に補正ができない。また、指の太さや形状が異なる場
合、正確にテンプレートとマッチングできない。さらに、複数の指が画像内に存在する場
合にもマッチングすることができない。また、特許文献2の手法であると、撮影された画
像とテンプレートとの間で回転以外に位置シフトが発生した場合、合致するテンプレート
が存在しなくなる。登録する角度が少ない場合、認証時の角度とズレが生じて認証精度が
低下する。
よって、登録時の画像と認証時の画像との位置や方向が異なっていても高精度に認証で
きるようにすることが望ましい。ここで、認証とは、登録された画像等と認証時に得られ
た画像等を照合することによって、認証(識別)対象者が登録者であるか否かを識別し、
識別結果に基づいて、例えば電子錠等の制御対象を制御することである。したがって、認
証の精度は識別の精度に依存するので、認証においては、登録時の画像と認証時の画像と
で撮影された指の位置や姿勢が異なっていても高精度に識別できるようにすることが望ま
しい。
For example, in the method of Patent Document 1, when the finger tip is not photographed, the orientation of the finger cannot be determined only by the contour, and thus correction cannot be performed accurately. Further, when the thickness or shape of the finger is different, it cannot be accurately matched with the template. Furthermore, matching cannot be performed even when a plurality of fingers are present in the image. Further, according to the method of Patent Document 2, when a position shift occurs other than rotation between a photographed image and a template, there is no matching template. When there are few registration angles, the angle at the time of authentication and a shift | offset | difference arise, and authentication accuracy falls.
Therefore, it is desirable to be able to authenticate with high accuracy even if the position and direction of the image at the time of registration and the image at the time of authentication are different. Here, the authentication identifies whether or not an authentication (identification) target person is a registrant by comparing a registered image or the like with an image or the like obtained at the time of authentication.
For example, the control target such as an electronic lock is controlled based on the identification result. Therefore, since the accuracy of authentication depends on the accuracy of identification, authentication can be performed with high accuracy even if the position and posture of a finger photographed between the image at the time of registration and the image at the time of authentication are different. It is desirable.

本発明は、このような事情に鑑みてなされたものであり、登録時の画像と認証時の画像
との位置や姿勢が異なっていても高精度に識別対象者を識別できるようにすることを目的
とする。
The present invention has been made in view of such circumstances, and it is possible to identify an identification target person with high accuracy even if the position and orientation of an image at the time of registration and an image at the time of authentication are different. Objective.

上記目的を達成するための主たる発明は、
登録者の被写体の血管画像に基づいて、前記被写体の位置及び姿勢によらずに特徴付けられる、前記登録者の特徴量を記憶する記憶部と、
識別対象者の被写体の血管画像を撮影する撮影部と、
前記識別対象者の血管画像に基づいて前記識別対象者の特徴量を抽出し、前記登録者の特徴量と前記識別対象者の特徴量とを照合することによって前記識別対象者を識別する識別部と、
を備え
前記識別部は、前記識別対象者の特徴量と前記登録者の特徴量との類似度に応じて前記識別対象者を識別し、
前記識別部は、前記類似度が所定の値よりも高い特徴量の数をカウントし、前記カウントした値が所定の値よりも大きい場合に、前記識別対象者が前記登録者であると識別し、
前記識別部は、前記類似度が所定の値よりも高いと複数の特徴量において判定された場合には、その中で最も類似度が高い特徴量を有する登録者のカウンタのみを増やす識別装置である。
The main invention for achieving the above object is:
A storage unit for storing the registrant's feature quantity characterized based on the blood vessel image of the registrant's subject, regardless of the position and orientation of the subject;
An imaging unit that captures a blood vessel image of the subject of the person to be identified;
An identification unit that identifies the identification target person by extracting the characteristic amount of the identification target person based on the blood vessel image of the identification target person and comparing the feature quantity of the registrant and the characteristic amount of the identification target person When,
Equipped with a,
The identification unit identifies the identification target person according to the similarity between the feature quantity of the identification target person and the feature quantity of the registrant,
The identification unit counts the number of feature quantities whose similarity is higher than a predetermined value, and identifies the identification target person as the registrant when the counted value is larger than a predetermined value. ,
The identification unit is an identification device that increases only a counter of a registrant having a feature amount having the highest similarity among the plurality of feature amounts when the similarity is determined to be higher than a predetermined value. is there.

本発明の他の特徴については、本明細書及び添付図面の記載により明らかにする。   Other features of the present invention will become apparent from the description of the present specification and the accompanying drawings.

本実施形態における静脈認証装置1のブロック図である。It is a block diagram of the vein authentication apparatus 1 in this embodiment. 登録処理のフローチャートである。It is a flowchart of a registration process. 特徴量抽出処理を説明するフローチャートである。It is a flowchart explaining a feature-value extraction process. 特徴点の一例を示す図である。It is a figure which shows an example of a feature point. 得られた輝度勾配の一例を示す図である。It is a figure which shows an example of the obtained brightness | luminance gradient. 輝度勾配のヒストグラムの一例を示す図である。It is a figure which shows an example of the histogram of a brightness | luminance gradient. 図7Aは、基準方向に座標軸を合わせたときの輝度勾配の一例を示す図、図7Bは図7Aの輝度勾配に基づいて求めたベクトルの一例を示す図である。FIG. 7A is a diagram illustrating an example of a luminance gradient when the coordinate axis is aligned with the reference direction, and FIG. 7B is a diagram illustrating an example of a vector obtained based on the luminance gradient of FIG. 7A. 特徴量のデータベースの例を示す表である。It is a table | surface which shows the example of the database of a feature-value. 認証処理のフローチャートである。It is a flowchart of an authentication process. 認証処理の概念を説明するための図である。It is a figure for demonstrating the concept of an authentication process.

本明細書及び添付図面の記載により、少なくとも、以下の事項が明らかとなる。
登録者の被写体の血管画像に基づいて、前記被写体の位置及び姿勢によらずに特徴付け
られる、前記登録者の特徴量を記憶する記憶部と、
識別対象者の被写体の血管画像を撮影する撮影部と、
前記識別対象者の血管画像に基づいて前記識別対象者の特徴量を抽出し、前記登録者の
特徴量と前記識別対象者の特徴量とを照合することによって前記識別対象者を識別する識
別部と、
を備える識別装置。
At least the following matters will become clear from the description of the present specification and the accompanying drawings.
A storage unit for storing the registrant's feature quantity characterized based on the blood vessel image of the registrant's subject, regardless of the position and orientation of the subject;
An imaging unit that captures a blood vessel image of the subject of the person to be identified;
An identification unit that identifies the identification target person by extracting the characteristic amount of the identification target person based on the blood vessel image of the identification target person and comparing the feature quantity of the registrant and the characteristic amount of the identification target person When,
An identification device comprising:

このようにすることで、記憶部に記憶されている登録者の特徴量及び識別対象者の特徴
量を照合できる。被写体の位置及び姿勢によらない特徴量に基づいて照合を行うので、登
録者の被写体の血管画像と識別対象者の被写体の血管画像とで被写体の位置や姿勢が異な
っていても高精度に識別対象者を識別することができる。
By doing in this way, the registrant's feature-value memorize | stored in the memory | storage part and the identification target person's feature-value can be collated. Since collation is performed based on feature quantities that do not depend on the position and orientation of the subject, even if the subject's blood vessel image of the registrant's subject and the blood vessel image of the subject of identification are different, the subject's position and orientation are identified with high accuracy. The target person can be identified.

かかる識別装置であって、前記特徴量は、SIFT(Scale Invariant
Feature Transform)特徴量であることが望ましい。
このようにすることで、被写体の位置及び姿勢によらない特徴量として好適なSIFT
特徴量を採用することができる。
In this identification device, the feature amount is SIFT (Scale Invariant).
(Feature Transform) feature quantity is desirable.
By doing so, SIFT is suitable as a feature quantity independent of the position and orientation of the subject.
Features can be used.

また、前記識別対象者の被写体の血管画像は、前記登録者の被写体の血管画像よりも狭
い範囲を撮影した画像であることが望ましい。
このようにすることで、識別対象者の被写体の血管画像に基づいて抽出された特徴量が
、記憶部に記憶されている登録者の特徴量に高い確率で含まれる。したがって、より高精
度に識別対象者を識別することができる。
The blood vessel image of the subject of the identification target person is preferably an image obtained by photographing a narrower range than the blood vessel image of the subject of the registrant.
By doing in this way, the feature amount extracted based on the blood vessel image of the subject of the person to be identified is included in the feature amount of the registrant stored in the storage unit with a high probability. Therefore, the person to be identified can be identified with higher accuracy.

また、前記記憶部には、前記登録者について複数の前記特徴量が記憶されることが望ま
しい。
このようにすることで、登録者についての複数の特徴量を識別に使用できるので、正確
に識別できる確率が高くなる。したがって、より高精度に識別対象者を識別することがで
きる。
The storage unit preferably stores a plurality of the feature amounts for the registrant.
By doing in this way, since the several feature-value about a registrant can be used for identification, the probability that it can identify correctly becomes high. Therefore, the person to be identified can be identified with higher accuracy.

また、前記識別部は、前記識別対象者の特徴量と前記登録者の特徴量との類似度に応じ
て前記識別対象者を識別することが望ましい。
このようにすることで、識別対象者の特徴量と登録者の特徴量とを類似度に応じて識別
を行う事ができる。したがって、統計学に基づいて、より高精度に識別対象者を識別でき
る。
Moreover, it is preferable that the identification unit identifies the identification target person according to the similarity between the feature quantity of the identification target person and the feature quantity of the registrant.
In this way, it is possible to identify the feature quantity of the person to be identified and the feature quantity of the registrant according to the degree of similarity. Therefore, the person to be identified can be identified with higher accuracy based on statistics.

また、前記類似度は、前記識別対象者の特徴量と前記登録者の特徴量とのユークリッド
距離に基づいて求められることが望ましい。
このようにすることで、ユークリッド距離に基づいて、適切に類似度を求めることがで
きる。
The similarity may be obtained based on a Euclidean distance between the feature quantity of the identification target person and the feature quantity of the registrant.
By doing in this way, similarity can be calculated | required appropriately based on a Euclidean distance.

また、前記識別部は、前記類似度が所定の値よりも高い特徴量の数をカウントし、前記
カウントした値が所定の値よりも大きい場合に、前記識別対象者が前記登録者であると識
別することが望ましい。
このようにすることで、類似度が高い特徴量の数に応じて識別対象者を識別することが
できるので、高精度に識別対象者を識別することができる。
Further, the identification unit counts the number of feature quantities whose similarity is higher than a predetermined value, and the identification target person is the registrant when the counted value is larger than a predetermined value. It is desirable to identify.
In this way, the identification target person can be identified in accordance with the number of feature quantities having a high degree of similarity, and therefore the identification target person can be identified with high accuracy.

また、本明細書及び添付図面の記載により、少なくとも、以下の事項も明らかとなる。
すなわち、
識別対象者の血管画像を撮影することと、
前記識別対象者の血管画像に基づいて前記識別対象者の特徴量を抽出し、記憶部に記憶
された登録者の特徴量と前記識別対象者の特徴量とを照合して識別することと、
を含む識別方法である。
このようにすることで、記憶部に記憶されている登録者の特徴量及び識別対象者の特徴
量を照合できる。被写体の位置及び姿勢によらない特徴量に基づいて照合を行うので、登
録者の被写体の血管画像と識別対象者の被写体の血管画像とで被写体の位置や姿勢が異な
っていても高精度に識別対象者を識別することができる。
In addition, at least the following matters will become clear from the description of the present specification and the accompanying drawings.
That is,
Taking a blood vessel image of the person to be identified;
Extracting the feature quantity of the identification target person based on the blood vessel image of the identification target person, comparing the feature quantity of the registrant stored in the storage unit with the feature quantity of the identification target person, and identifying,
It is the identification method containing.
By doing in this way, the registrant's feature-value memorize | stored in the memory | storage part and the identification target person's feature-value can be collated. Since collation is performed based on feature quantities that do not depend on the position and orientation of the subject, even if the subject's blood vessel image of the registrant's subject and the blood vessel image of the subject of identification are different, the subject's position and orientation are identified with high accuracy. The target person can be identified.

===実施形態===
図1は、本実施形態における静脈認証装置1のブロック図である。静脈認証装置1は、
識別(認証)対象者を認証する。すなわち、静脈認証装置1は、識別対象者を識別して、
後述する制御対象50を制御する。静脈認証装置1は、演算部10とセンサー部20と光
源部30とを備える。センサー部20はインターフェース28を介して演算部10に接続
されており、また、光源部30はインターフェース38を介して演算部10に接続されて
いる。また、静脈認証装置1は、インターフェース48とインターフェース58を介して
トリガーセンサー40と制御対象50に接続されている。
=== Embodiment ===
FIG. 1 is a block diagram of a vein authentication device 1 according to this embodiment. The vein authentication device 1
Authentication (authentication) target person is authenticated. That is, the vein authentication device 1 identifies the person to be identified,
A control target 50 to be described later is controlled. The vein authentication device 1 includes a calculation unit 10, a sensor unit 20, and a light source unit 30. The sensor unit 20 is connected to the calculation unit 10 via an interface 28, and the light source unit 30 is connected to the calculation unit 10 via an interface 38. The vein authentication device 1 is connected to the trigger sensor 40 and the control target 50 via the interface 48 and the interface 58.

演算部10は、演算を行うCPU(Central Processing Unit)12と記憶部としてのR
AM(Random Access Memory)14及びEEPROM(Electronically Erasable and Progr
ammable Read Only Memory)16を含む。CPU12は、EEPROM16に記憶された
プログラムを実行することにより静脈認証を行う。RAM14には、静脈認証を行う際に
必要な演算結果等が記憶される。そして、演算部10は、後述する登録処理及び認証処理
を行う。つまり、演算部10は認証部および記憶部として機能し、認証部は識別を行う識
別部および制御対象を制御する制御部としての機能を含む。
The calculation unit 10 includes a CPU (Central Processing Unit) 12 that performs calculation and an R as a storage unit.
AM (Random Access Memory) 14 and EEPROM (Electronically Erasable and Progr
ammable Read Only Memory) 16. The CPU 12 performs vein authentication by executing a program stored in the EEPROM 16. The RAM 14 stores calculation results and the like necessary for performing vein authentication. And the calculating part 10 performs the registration process and authentication process which are mentioned later. That is, the calculation unit 10 functions as an authentication unit and a storage unit, and the authentication unit includes a function as an identification unit that performs identification and a control unit that controls a control target.

センサー部20は、指の静脈を撮影するためのセンサーである。つまり、本実施形態に
おける被写体は指であり、静脈画像(血管画像)が撮影される。センサー部20は、識別
対象者の指を撮影するが、その際の露光時間を調整することができるようになっている。
The sensor unit 20 is a sensor for photographing a finger vein. That is, the subject in this embodiment is a finger, and a vein image (blood vessel image) is captured. The sensor unit 20 captures the finger of the person to be identified, and the exposure time at that time can be adjusted.

光源部30は、撮影する指に所定波長の光を照らすための装置である。ここでは、近赤
外線のLED(Light Emitting Diode)光源を含み、700nm〜900nmの波長帯を多
く含む光を照射する。このように、700nm〜900nmの波長帯を多く含む光を照射
することとしているのは、この波長帯は特に、血液のヘモグロビンと水の両方の吸収が低
くなり、透過率が高くなる波長であるためである。本実施形態においては、センサー部2
0及び光源部30が撮影部に相当する。
The light source unit 30 is a device for illuminating a finger to be photographed with light having a predetermined wavelength. Here, a near-infrared LED (Light Emitting Diode) light source is included, and light including a large wavelength band of 700 nm to 900 nm is irradiated. As described above, the light that includes a large wavelength band of 700 nm to 900 nm is irradiated with light that has a low absorption of blood hemoglobin and water and a high transmittance. Because. In the present embodiment, the sensor unit 2
0 and the light source unit 30 correspond to an imaging unit.

トリガーセンサー40は、指の接近を感知し、撮影処理を開始するためのトリガーを演
算部10に送る装置である。トリガーセンサー40には、例えば、静電容量センサーが用
いられる。このトリガーセンサー40により、後述するドアなどに静脈認証装置1を設け
た場合において、指をドアに近づけただけでセンサー部20が指の撮影処理を開始するこ
とができるようになる。
The trigger sensor 40 is a device that senses the approach of a finger and sends a trigger for starting a photographing process to the calculation unit 10. For example, a capacitance sensor is used as the trigger sensor 40. With the trigger sensor 40, when the vein authentication device 1 is provided on a door, which will be described later, the sensor unit 20 can start the finger photographing process just by bringing the finger close to the door.

制御対象50は、静脈認証装置1による識別結果に応じて制御される対象物である。例
えば、制御対象50がコンピュータであるときには、静脈認証装置1による識別結果に応
じて、識別対象者に対してコンピュータのアクセス権を付与する。また、制御対象50は
、ドアの電子錠である場合には、静脈認証装置1による識別結果に応じてドアの電子錠の
解錠を行う。本実施形態では、以下に制御対象50がドアの電子錠であるものとして説明
を行う。
The control object 50 is an object controlled according to the identification result by the vein authentication device 1. For example, when the control object 50 is a computer, the access right of the computer is given to the person to be identified according to the identification result by the vein authentication device 1. Further, when the control target 50 is an electronic lock of the door, the electronic lock of the door is unlocked according to the identification result by the vein authentication device 1. In the present embodiment, description will be given below assuming that the control target 50 is an electronic lock of a door.

本実施形態における静脈認証装置1では、後述する登録処理と、認証処理の2つの処理
が行われる。
In the vein authentication device 1 according to the present embodiment, two processes of a registration process and an authentication process described later are performed.

図2は、登録処理のフローチャートである。登録処理とは、登録者の指の静脈の特徴量
を登録する処理である。本実施形態における特徴量は、位置不変、及び、回転不変なもの
が採用される。これは、同じ人物の静脈パターンに対しては、撮影範囲が変化(位置が変
化した場合)した場合でも、撮影方向が回転(回転変化)した場合でも、パターンに対し
て同じ位置が特定され(位置不変)、その位置周辺の局所領域の特徴を数値化した特徴量
と同じ値が得られる(回転不変)という特性を有するものである。
FIG. 2 is a flowchart of the registration process. The registration process is a process of registering the feature quantity of the registrant's finger vein. As the feature amount in the present embodiment, a position invariant and a rotation invariant are employed. This is because, for the same person's vein pattern, the same position is specified for the pattern regardless of whether the shooting range changes (when the position changes) or the shooting direction rotates (rotation changes) ( (Position invariant), and the same value as the feature quantity obtained by quantifying the characteristics of the local region around the position can be obtained (rotation invariant).

まず、登録者の静脈画像撮影が行われる(S102)。指の静脈パターン画像を撮影す
るにあたり、光源部30から700nm〜900nmの波長帯を多く含む光が照射される
。この波長帯においては、ヘモグロビンによる光の吸収が水による光の吸収よりも大きい
ため、指の静脈が影となった画像が撮影される。静脈画像の撮影は、静脈認証装置1のセ
ンサー部20を用いて行うこともできるし、他の撮影可能な装置を用いて行うこともでき
る。このようにすることにより、指の静脈画像が撮影される。
First, a registrant's vein image is photographed (S102). In capturing a finger vein pattern image, the light source unit 30 emits light including a large wavelength band of 700 nm to 900 nm. In this wavelength band, the absorption of light by hemoglobin is greater than the absorption of light by water, so an image in which the finger vein is shaded is taken. The vein image can be captured using the sensor unit 20 of the vein authentication device 1 or using another device capable of capturing images. In this way, a finger vein image is captured.

静脈画像撮影処理(S102)において、識別に用いる可能性のある領域は全て撮影し
ておくことが好ましい。例えば、全ての指を撮影することとしてもよいし、手のひらの領
域も撮影することとしてもよい。また、左右両方の手の指について撮影することとしても
よい。特にここでは、後述する認証処理で撮影される領域よりも広い領域が撮影されるこ
とになる。また、このような広い領域を撮影するにあたり、一括で撮影を行う必要はなく
、分割して撮影することとしてもよい。
In the vein image photographing process (S102), it is preferable to photograph all areas that may be used for identification. For example, all fingers may be photographed, or a palm region may be photographed. Moreover, it is good also as image | photographing about the finger of both right and left hands. In particular, here, a region wider than the region captured by the authentication process described later is captured. Further, when shooting such a wide area, it is not necessary to perform shooting in a lump, and it is also possible to shoot in a divided manner.

次に、撮影された静脈画像から特徴量抽出を行う(S104)。
図3は、特徴量抽出処理を説明するフローチャートである。
本実施形態の特徴量抽出処理(S104)においては、最初に、撮影した静脈画像の画
像補正が行われる(S202)。ここで画像補正が行われるのは、主に以下の3つの理由
からである。
Next, feature amount extraction is performed from the photographed vein image (S104).
FIG. 3 is a flowchart for explaining the feature amount extraction processing.
In the feature amount extraction process (S104) of the present embodiment, first, image correction of the captured vein image is performed (S202). The image correction is performed mainly for the following three reasons.

(1)指の透過率には個人差があり、取得した画像の全体の輝度がばらつくことがある。
(2)指の透過率の個人差により明暗分布が生じてしまうことがある。例えば、指の関節
部は明るく画像が取得され、関節と関節との間は暗く画像が取得される。
(3)静脈と表皮との間の生体組織により、光が拡散し、撮影した静脈パターンがぼやけ
る場合がある。
(1) The finger transmittance varies from person to person, and the overall brightness of the acquired image may vary.
(2) A light-dark distribution may occur due to individual differences in finger transmittance. For example, a bright image is acquired at the joint portion of the finger, and a dark image is acquired between the joints.
(3) The living tissue between the vein and the epidermis may diffuse light and blur the photographed vein pattern.

これらの課題を解決するために、フィルタ処理を行う。上記(1)の課題を解決するた
めには、正規化が必要であり、そのために平均値(直流成分)を除去する必要がある。ま
た、上記(2)の課題を解決するためには、均一化が必要であり、そのために、緩やかな
変動を除去する必要がある。よって、これら(1)と(2)の課題を解決するために、静
脈画像に対してハイパスフィルタを適用する。
In order to solve these problems, filter processing is performed. In order to solve the above problem (1), normalization is required, and therefore, it is necessary to remove the average value (DC component). Moreover, in order to solve the above problem (2), it is necessary to make uniform, and for this reason, it is necessary to remove moderate fluctuations. Therefore, in order to solve the problems (1) and (2), a high-pass filter is applied to the vein image.

また、上記(3)の課題を解決するためには、シャープネス処理が必要であるから、静
脈画像に対してアンシャープマスクを適用し高周波成分を強調する。すなわち、これらハ
イパスフィルタとアンシャープマスクを統合したフィルタを作成し適用する。具体的には
、2つのフィルタの周波数応答(MTF: Modulation Transfer Function)を周波数空間で積
算し、これを逆フーリエ変換したフィルタを適用することになる。
Further, in order to solve the above problem (3), sharpness processing is necessary. Therefore, an unsharp mask is applied to the vein image to emphasize high frequency components. That is, a filter integrating these high-pass filter and unsharp mask is created and applied. Specifically, the frequency response (MTF: Modulation Transfer Function) of the two filters is integrated in the frequency space, and a filter obtained by performing inverse Fourier transform on this is applied.

次に、特徴点抽出処理(S204)が行われる。本実施形態における特徴点抽出及び特
徴量抽出は、SIFT(Scale Invariant Feature Transform)が採用される。センサー部
20と指との位置関係が固定ではない場合、センサー部20に対する指の位置及び角度が
一定とならない可能性がある。このような認証装置において高精度な識別を行うために、
位置及び回転によらない特徴量を与える特徴点を抽出したいという要求がある。この要求
を満たす手法の一例としてSIFTを採用している。
Next, feature point extraction processing (S204) is performed. SIFT (Scale Invariant Feature Transform) is employed for feature point extraction and feature quantity extraction in the present embodiment. When the positional relationship between the sensor unit 20 and the finger is not fixed, the position and angle of the finger with respect to the sensor unit 20 may not be constant. In order to perform highly accurate identification in such an authentication device,
There is a demand for extracting feature points that give a feature quantity independent of position and rotation. SIFT is adopted as an example of a method that satisfies this requirement.

S204の処理においては、まず、ノイズを取り除き、安定した特徴点を得るために、
静脈画像にガウスフィルタを適用して平均化処理を行う。そして、ある周波数以上の成分
をカットする処理を行う。また、ガウスフィルタを適用した画像の二次微分を算出し、そ
の極値を特徴点候補とする。さらに、ノイズに由来する特徴点を取り除くために、極値の
絶対値が所定のしきい値以上の点を特徴点として採用する。上記において、特徴点候補を
得るために二次微分を算出しているのは、均一な領域ではなく、変化があるエッジ部を画
像から抽出するためである。また、撮影において斜めから光源照射がなされたときにおい
て、一定の傾きで変化する領域が画像に生ずることがあるが、このような領域を特徴点候
補としないためである。二次微分の算出は、具体的には、ガウス導関数の畳み込み積分に
より行われる。
In the process of S204, first, in order to remove noise and obtain a stable feature point,
An averaging process is performed by applying a Gaussian filter to the vein image. And the process which cuts the component more than a certain frequency is performed. Further, the second derivative of the image to which the Gaussian filter is applied is calculated, and the extreme value is set as a feature point candidate. Further, in order to remove feature points derived from noise, a point having an absolute value of an extreme value equal to or greater than a predetermined threshold is adopted as a feature point. In the above description, the second derivative is calculated in order to obtain the feature point candidate because the edge portion having a change is extracted from the image instead of the uniform region. In addition, when light source irradiation is performed obliquely during photographing, a region that changes with a certain inclination may appear in the image, but such a region is not used as a feature point candidate. Specifically, calculation of the second derivative is performed by convolution integration of a Gaussian derivative.

図4は、特徴点の一例を示す図である。図には、撮影された静脈と、その静脈の分岐点
において特定された特徴点が示されている。特徴点は、輝度勾配の二次微分の極値の場所
が選択されるので、輝度の変化量が大きな箇所が選択されることになる。また、二次微分
の極値の場所は、一次微分の変化量が極大となる場所であるから、周囲に比べて曲率(す
なわり曲がり方)が大きい点が選択される。よって、静脈の分岐点や血管内部も特徴点と
して選択されることになる。すなわち、静脈とそうでない場所とを分ける場所が特徴点と
して選択されることになる。
FIG. 4 is a diagram illustrating an example of feature points. In the figure, the photographed vein and the feature point specified at the branch point of the vein are shown. As the feature point, the location of the extreme value of the second derivative of the luminance gradient is selected, so that a portion having a large luminance change amount is selected. Further, since the place of the extreme value of the second derivative is a place where the amount of change of the first derivative is maximized, a point having a larger curvature (ie, how to bend) than the surroundings is selected. Therefore, the branch point of the vein and the inside of the blood vessel are also selected as the feature points. That is, a place that separates a vein from a place that is not so is selected as a feature point.

次に、特徴量抽出が行われる(S206)。特徴量抽出は、上記の処理において得られ
たそれぞれの特徴点に対して以下の処理を行うことにより行われる。まず、特徴点周辺の
輝度勾配を算出する。
Next, feature amount extraction is performed (S206). The feature amount extraction is performed by performing the following processing on each feature point obtained in the above processing. First, the brightness gradient around the feature point is calculated.

図5は、得られた輝度勾配の一例を示す図である。図5には、特徴点を中心とした複数
のマス目(本実施形態では、8×8のマス目)が示されている。そして、各マス目におけ
る輝度勾配がベクトル量として示されている。
FIG. 5 is a diagram illustrating an example of the obtained luminance gradient. FIG. 5 shows a plurality of grids (in this embodiment, 8 × 8 grids) centering on the feature points. And the brightness | luminance gradient in each square is shown as a vector amount.

次に、図5のように得られた輝度勾配についてヒストグラムを作成する。そして、最も
頻度の高い方向を特徴量の基準方向とする。
Next, a histogram is created for the luminance gradient obtained as shown in FIG. The direction with the highest frequency is set as the reference direction of the feature amount.

図6は、輝度勾配のヒストグラムの一例を示す図である。本図では、36方向のヒスト
グラムが示されている。本図では、「peak」と記載した方向の値が最も高くなってい
る。よって、この方向が特徴量の基準方向となる。
FIG. 6 is a diagram illustrating an example of a histogram of luminance gradient. In this figure, a histogram in 36 directions is shown. In this figure, the value of the direction described as “peak” is the highest. Therefore, this direction becomes the reference direction of the feature amount.

次に、特徴点を中心として、前述の処理で選択された基準方向に合わせて、再度8×8
のマス目を作成する。そして、この8×8のマス目を4×4のマス目に対応させ、この4
×4のマス目毎の輝度勾配について、マス目ごとに8方向のベクトルに分解する。
Next, centering on the feature point, the 8 × 8 is again set in accordance with the reference direction selected in the above-described processing.
Create the squares. Then, this 8 × 8 cell is made to correspond to the 4 × 4 cell,
The luminance gradient for each square of × 4 is decomposed into eight-direction vectors for each square.

図7は、基準方向に座標軸を合わせたときの輝度勾配の一例を示す図である。図7Aに
おいては、太矢印の方向が前述の基準方向であり、基準方向に方向を合わせた8×8のマ
ス目を再作成して、基準方向を基準として輝度勾配を求め直したものである。また、図7
Bは、この8×8のマス目を4×4のマス目に対応させ、マス目毎に輝度勾配を8方向の
ベクトルに分解したものである。
FIG. 7 is a diagram illustrating an example of the luminance gradient when the coordinate axis is aligned with the reference direction. In FIG. 7A, the direction of the thick arrow is the above-described reference direction, and an 8 × 8 cell whose direction is aligned with the reference direction is re-created, and the luminance gradient is obtained again using the reference direction as a reference. . In addition, FIG.
B corresponds to the 8 × 8 cells corresponding to the 4 × 4 cells, and the luminance gradient is decomposed into vectors in eight directions for each cell.

ここでは、8方向のベクトルに分解しているので、0°、45°、90°、135°、
180°、225°、270°、及び、315°のそれぞれの方向について、ベクトルの
スカラー量が得られる。また、4×4のマス目のそれぞれについて、これらのスカラー量
が得られるため、4×4×8=128次元のスカラー量を得ることができる。本実施形態
において、特徴点における特徴量は、これら複数次元のスカラー量である。
Here, since it is decomposed into vectors in 8 directions, 0 °, 45 °, 90 °, 135 °,
A vector scalar quantity is obtained for each direction of 180 °, 225 °, 270 °, and 315 °. In addition, since these scalar quantities are obtained for each 4 × 4 cell, 4 × 4 × 8 = 128-dimensional scalar quantities can be obtained. In the present embodiment, the feature quantity at the feature point is a multi-dimensional scalar quantity.

次に、上述のようにして求めた特徴量と登録者のIDとをセットにして演算部10(記
憶部)に保存する。すなわち、特徴量と登録者のIDの登録処理を行う(ステップS10
6)。
Next, the feature amount obtained as described above and the registrant ID are set and stored in the calculation unit 10 (storage unit). That is, the registration processing of the feature amount and the registrant ID is performed (step S10).
6).

図8は、特徴量のデータベースの例を示す表である。表には、登録者のIDと、特徴量
として0〜127の128次元のスカラー量が示されている。登録者IDとして複数の同
じ数字が並んでいるのは、一人の登録者について複数の特徴点に関する特徴量が登録され
るためである。なお、一人の登録者について一つの特徴点に関する特徴量が登録されるよ
うにしてもよい。
FIG. 8 is a table showing an example of a feature amount database. The table shows the ID of the registrant and 128-dimensional scalar quantities from 0 to 127 as feature quantities. The reason why a plurality of the same numbers are arranged as the registrant ID is that feature quantities relating to a plurality of feature points are registered for one registrant. Note that a feature amount related to one feature point may be registered for one registrant.

保存する特徴量の数は任意である。但し、複数の登録者が登録されている場合には、後
述する識別時において、特定の登録者の特徴量の登録数が他の登録者の特徴量の登録数よ
りも極端に多いと、識別対象者が登録数の多い登録者に一致すると誤って識別してしまう
可能性が確率的に高まる。このような認証の偏りを減らすために、各登録者についてそれ
ぞれ一定数の制限を設けた数の特徴量を保存することとしてもよい。また、その際、保存
しておく特徴量は、ランダムに選択することとしてもよいし、選択基準を設けてその上位
から一定数を登録することとしてもよい。
The number of feature quantities to be stored is arbitrary. However, when multiple registrants are registered, at the time of identification described later, if the number of registered feature quantities of a specific registrant is extremely greater than the number of registered feature quantities of other registrants, If the target person matches a registrant who has a large number of registrations, the possibility of erroneous identification increases probabilistically. In order to reduce such an authentication bias, it is also possible to store a number of feature quantities each having a certain number of restrictions for each registrant. In this case, the feature amount to be stored may be selected at random, or a predetermined number may be registered from the top by providing a selection criterion.

また、一人の登録者が複数本の指の特徴量を登録することとしてもよい。このようにす
ることによって、認証可能な指の本数を増やすことができる。
One registrant may register the feature quantities of a plurality of fingers. In this way, the number of fingers that can be authenticated can be increased.

以上のような登録処理が完了すると、静脈認証装置1の演算部10に記憶された、登録
者の特徴量を用いて認証処理を行うことができるようになる。以下、認証処理について説
明する。
When the registration process as described above is completed, the authentication process can be performed using the registrant's feature quantity stored in the calculation unit 10 of the vein authentication device 1. Hereinafter, the authentication process will be described.

図9は、認証処理のフローチャートである。図10は、認証処理の概念を説明するため
の図である。認証処理では、最初に、静脈画像撮影処理(S302)が行われる。静脈画
像撮影処理は、前述の登録処理における静脈画像撮影処理と同様に、識別対象者の指の静
脈画像を撮影する処理であり、前述のステップS102と同様の処理であるので説明を省
略する。尚、ここで撮影される指の面積は、登録処理において撮影された面積よりも少な
くてもよい。言い換えると、認証処理で撮影される静脈画像は、登録処理において記憶部
に記憶される静脈画像よりも狭い範囲を撮影した画像であってもよい。また、撮影される
指の本数も、登録された指よりも少ない本数でよい。すなわち、認証時において取得され
る画像のサイズは、登録時において取得された画像のサイズの一部に相当するものでよい
ことになる。また、登録時と撮影される指の位置及び角度が異なっていてもよい。
FIG. 9 is a flowchart of the authentication process. FIG. 10 is a diagram for explaining the concept of the authentication process. In the authentication process, first, a vein image photographing process (S302) is performed. The vein image capturing process is a process for capturing a vein image of the finger of the person to be identified, similar to the vein image capturing process in the registration process described above, and will not be described because it is the same process as in step S102 described above. The area of the finger photographed here may be smaller than the area photographed in the registration process. In other words, the vein image captured in the authentication process may be an image captured in a narrower range than the vein image stored in the storage unit in the registration process. Also, the number of fingers to be photographed may be smaller than the number of registered fingers. That is, the size of the image acquired at the time of authentication may correspond to a part of the size of the image acquired at the time of registration. Moreover, the position and angle of the finger to be photographed may differ from those at the time of registration.

次に、特徴量抽出処理(S304)が行われる。特徴量抽出処理も、前述のステップS
202〜S206の処理と同様であるので説明を省略する。尚、ここではS203におい
て撮影された静脈画像内の特徴点の特徴量を全て抽出することになる。
Next, feature amount extraction processing (S304) is performed. The feature amount extraction process is also performed in the above-described step S.
Since it is the same as the process of 202-S206, description is abbreviate | omitted. Here, all feature quantities of feature points in the vein image photographed in S203 are extracted.

このようにして求められた特徴量は、前述のように128次元のスカラー量として得る
ことができる。図10には、予め登録された登録者の特徴量が「登録特徴量」として複数
の棒グラフとして示されている。また、ステップS304において求められた識別対象者
の特徴量が「認証特徴量」として複数の棒グラフとして示されている。概念的には、以下
において、認証特徴量に類似する登録特徴量を検索し、類似度として示す指数が所定の値
よりも大きいか否かに基づいて識別対象者を識別する。
The feature quantity obtained in this way can be obtained as a 128-dimensional scalar quantity as described above. In FIG. 10, the feature amounts of the registrants registered in advance are shown as “registered feature amounts” as a plurality of bar graphs. Further, the feature quantity of the person to be identified obtained in step S304 is shown as a plurality of bar graphs as “authentication feature quantities”. Conceptually, in the following, a registered feature amount similar to the authentication feature amount is searched, and an identification target person is identified based on whether or not an index indicated as the similarity is larger than a predetermined value.

次に、類似特徴量抽出処理(S306)が行われる。この処理では、登録された特徴量
と比較するために、登録された特徴量と認証時に取得された特徴量との類似度を求める。
ここで類似度は、得られた128次元のスカラー量についてのユークリッド距離に基づい
て求めることができる。そして、これらの距離の値が所定のしきい値よりも小さい場合に
は類似度が高いと判定することができる。尚、ここでは、ユークリッド距離に基づいて類
似度を求めることとしたが、市街地距離やマハラノビスの距離に基づいて類似度を求める
こととしてもよい。このようにすることによって、認証処理において撮影された静脈画像
に基づいて求められた特徴量と登録された特徴量との類似度を求めることができる。
Next, a similar feature amount extraction process (S306) is performed. In this process, in order to compare with the registered feature value, the similarity between the registered feature value and the feature value acquired at the time of authentication is obtained.
Here, the similarity can be obtained based on the Euclidean distance for the obtained 128-dimensional scalar quantity. And when these distance values are smaller than a predetermined threshold value, it can be determined that the similarity is high. Here, the similarity is obtained based on the Euclidean distance, but the similarity may be obtained based on the city distance or the Mahalanobis distance. By doing in this way, it is possible to obtain the degree of similarity between the feature quantity obtained based on the vein image photographed in the authentication process and the registered feature quantity.

次に、統合判定(S308)が行われる。統合判定では、求められた上記の全ての類似
度を統合して、登録されたIDごとに統合類似度を求める。具体的には、前述の類似特徴
量抽出処理(S306)において、類似度が高い(所定のしきい値よりも値が小さい)と
判定された特徴量のIDの登録者のカウンタを増やすことを行う。
Next, an integration determination (S308) is performed. In the integrated determination, all the obtained similarities are integrated to obtain an integrated similarity for each registered ID. Specifically, in the above-described similar feature amount extraction processing (S306), the counter of the registrant of the feature amount ID determined to have a high degree of similarity (a value smaller than a predetermined threshold) is increased. Do.

また、ここでは、類似度が高いと判定された特徴量に対応するIDの登録者のカウンタ
を増やす、すなわち類似度が所定の値よりも高い特徴量の数をカウントすることとしたが
、類似度が高いと複数の特徴量において判定された場合には、その中で最も類似度が高い
(すなわち、距離が近い)特徴量を有するIDの登録者のカウンタのみを増やすこととし
てもよい。また、上記のユークリッド距離が所定のしきい値以内となる全ての登録者のカ
ウンタを増やすこととしてもよい。このようにして、IDの登録者ごとにカウンタの総和
を算出する。そして、このIDの登録者ごとに算出したカウンタの総和をその登録者の統
合類似度とする。
Here, the counter of the registrant of the ID corresponding to the feature amount determined to have a high similarity is increased, that is, the number of feature amounts having a similarity higher than a predetermined value is counted. When it is determined that the degree is high in a plurality of feature amounts, only the counter of the registrant of the ID having the feature amount having the highest similarity (that is, the distance is close) among them may be increased. Moreover, it is good also as increasing the counter of all the registrants whose said Euclidean distance is less than a predetermined threshold value. In this way, the sum of the counters is calculated for each ID registrant. The sum of the counters calculated for each registrant of this ID is used as the integrated similarity of the registrant.

次に、識別処理(S310)が行われる。ここでは、最も高い統合類似度が所定のしき
い値以上であった場合に、識別対象者がその統合類似度に対応するIDの登録者であると
判定する。最も高い統合類似度が所定のしきい値よりも小さかった場合には、識別対象者
は登録者でないと判定する。このようにすることで、識別対象者が登録者であると判定さ
れた場合には、識別対象者がどのIDの登録者であるかも特定することができる。そして
、S310の識別結果に基づいて、制御対象50を演算部10が制御する(S312)。
すなわち、識別対象者が登録者であると判定された場合には、制御対象であるドアの電子
錠を解錠する。識別対象者は登録者でないと判定された場合には、電子錠を解錠しないよ
うに制御する。
Next, identification processing (S310) is performed. Here, when the highest integrated similarity is equal to or greater than a predetermined threshold, it is determined that the person to be identified is a registrant of an ID corresponding to the integrated similarity. When the highest integrated similarity is smaller than a predetermined threshold value, it is determined that the person to be identified is not a registered person. By doing in this way, when it is determined that the identification target person is a registrant, it is also possible to specify which ID the registrant is a registered person. And based on the identification result of S310, the calculating part 10 controls the control object 50 (S312).
That is, when it is determined that the identification target person is a registrant, the electronic lock of the door that is the control target is unlocked. When it is determined that the identification target person is not a registered person, the electronic lock is controlled not to be unlocked.

上述のようにして登録処理を行い、さらに識別処理を行うことによって、撮影時におい
て被写体に回転及び位置シフトが発生した場合であっても、適切に認証を行うことができ
る。
By performing the registration process as described above and further performing the identification process, it is possible to appropriately perform the authentication even when rotation and position shift occur in the subject during photographing.

尚、特徴点の検索手法、及び、特徴量の算出において、上記ではSIFTを用いること
としたが、特徴点及び特徴量の求め方はこれに限られない。
In the above description, the SIFT is used in the feature point search method and the feature amount calculation. However, the method for obtaining the feature point and the feature amount is not limited to this.

例えば、MSER(Maximally Stable External Regions)を用いることとし、グレース
ケール画像に対して領域分割を行い、しきい値を徐々に上げて行った場合に、二値化の結
果が最も変わらない領域を特徴点として採用することとしてもよい。
For example, when MSER (Maximally Stable External Regions) is used, and the region is divided into grayscale images and the threshold is gradually increased, the binarization result is the most unchanged region. It is good also as adopting as a point.

また、特徴量を求める際に、SURF(Speeded Up Robust Features)、GLOH(Gradi
ent Location and Orientation Histogram)、Shape Contextなどの手法を
用いることとしてもよい。
Also, when obtaining the feature amount, SURF (Speeded Up Robust Features), GLOH (Gradient
ent Location and Orientation Histogram) and Shape Context may be used.

また、上述した実施形態では静脈認証装置を例として説明したが、これに限らず、動脈
を撮影し、認証するようにしてもよい。
In the above-described embodiment, the vein authentication device has been described as an example. However, the present invention is not limited to this, and an artery may be imaged and authenticated.

1 静脈認証装置、
10 演算部、12 CPU、14 RAM、16 EEPROM、
20 センサー部、
30 光源部、
40 トリガーセンサー、
50 制御対象
1 vein authentication device,
10 arithmetic units, 12 CPU, 14 RAM, 16 EEPROM,
20 Sensor part,
30 light source section,
40 trigger sensor,
50 Control target

Claims (6)

登録者の被写体の血管画像に基づいて、前記被写体の位置及び姿勢によらずに特徴付けられる、前記登録者の特徴量を記憶する記憶部と、
識別対象者の被写体の血管画像を撮影する撮影部と、
前記識別対象者の血管画像に基づいて前記識別対象者の特徴量を抽出し、前記登録者の特徴量と前記識別対象者の特徴量とを照合することによって前記識別対象者を識別する識別部と、
を備え
前記識別部は、前記識別対象者の特徴量と前記登録者の特徴量との類似度に応じて前記識別対象者を識別し、
前記識別部は、前記類似度が所定の値よりも高い特徴量の数をカウントし、前記カウントした値が所定の値よりも大きい場合に、前記識別対象者が前記登録者であると識別し、
前記識別部は、前記類似度が所定の値よりも高いと複数の特徴量において判定された場合には、その中で最も類似度が高い特徴量を有する登録者のカウンタのみを増やす識別装置。
A storage unit for storing the registrant's feature quantity characterized based on the blood vessel image of the registrant's subject, regardless of the position and orientation of the subject;
An imaging unit that captures a blood vessel image of the subject of the person to be identified;
An identification unit that identifies the identification target person by extracting the characteristic amount of the identification target person based on the blood vessel image of the identification target person and comparing the feature quantity of the registrant and the characteristic amount of the identification target person When,
Equipped with a,
The identification unit identifies the identification target person according to the similarity between the feature quantity of the identification target person and the feature quantity of the registrant,
The identification unit counts the number of feature quantities whose similarity is higher than a predetermined value, and identifies the identification target person as the registrant when the counted value is larger than a predetermined value. ,
The discriminating device that increases only a counter of a registrant having a feature amount having the highest similarity among the plurality of feature amounts when the similarity is determined to be higher than a predetermined value .
前記特徴量は、SIFT(Scale Invariant Feature Transform)特徴量である、請求項1に記載の識別装置。   The identification device according to claim 1, wherein the feature amount is a SIFT (Scale Invant Feature Transform) feature amount. 前記識別対象者の被写体の血管画像は、前記登録者の被写体の血管画像よりも狭い範囲を撮影した画像である、請求項1又は2に記載の識別装置。   The identification device according to claim 1, wherein the blood vessel image of the subject of the identification target person is an image obtained by photographing a narrower range than the blood vessel image of the subject of the registrant. 前記記憶部には、前記登録者について複数の前記特徴量が記憶される、請求項1〜3のいずれか1項に記載の識別装置。   The identification device according to claim 1, wherein the storage unit stores a plurality of the feature amounts for the registrant. 前記類似度は、前記識別対象者の特徴量と前記登録者の特徴量とのユークリッド距離に基づいて求められる、請求項1〜4のいずれか1項に記載の識別装置。   5. The identification device according to claim 1, wherein the similarity is obtained based on a Euclidean distance between a feature amount of the identification target person and a feature amount of the registrant. 識別対象者の血管画像を撮影することと、
前記識別対象者の血管画像に基づいて前記識別対象者の特徴量を抽出し、記憶部に記憶された登録者の特徴量と前記識別対象者の特徴量とを照合して識別することと、
を含み、
前記識別対象者の特徴量と前記登録者の特徴量との類似度に応じて前記識別対象者を識別し、
前記類似度が所定の値よりも高い特徴量の数をカウントし、前記カウントした値が所定の値よりも大きい場合に、前記識別対象者が前記登録者であると識別し、
前記類似度が所定の値よりも高いと複数の特徴量において判定された場合には、その中で最も類似度が高い特徴量を有する登録者のカウンタのみを増やす識別方法。
Taking a blood vessel image of the person to be identified;
Extracting the feature quantity of the identification target person based on the blood vessel image of the identification target person, comparing the feature quantity of the registrant stored in the storage unit with the feature quantity of the identification target person, and identifying,
Including
Identifying the identification target person according to the similarity between the feature quantity of the identification target person and the feature quantity of the registrant,
Counting the number of feature quantities whose similarity is higher than a predetermined value, and when the counted value is larger than a predetermined value, the identification target person is identified as the registrant;
An identification method for increasing only a counter of a registrant having a feature amount having the highest similarity among the plurality of feature amounts when the similarity is determined to be higher than a predetermined value.
JP2011052610A 2011-03-10 2011-03-10 Identification device and identification method Active JP5729029B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011052610A JP5729029B2 (en) 2011-03-10 2011-03-10 Identification device and identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011052610A JP5729029B2 (en) 2011-03-10 2011-03-10 Identification device and identification method

Publications (2)

Publication Number Publication Date
JP2012190220A JP2012190220A (en) 2012-10-04
JP5729029B2 true JP5729029B2 (en) 2015-06-03

Family

ID=47083307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011052610A Active JP5729029B2 (en) 2011-03-10 2011-03-10 Identification device and identification method

Country Status (1)

Country Link
JP (1) JP5729029B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111222456B (en) * 2020-01-04 2023-06-23 圣点世纪科技股份有限公司 High-speed retrieval algorithm under ultra-large user quantity of finger veins

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005331615A (en) * 2004-05-18 2005-12-02 Nippon Telegr & Teleph Corp <Ntt> Sentence evaluation device and method
US7623685B2 (en) * 2004-08-20 2009-11-24 The Regents Of The University Of Colorado Biometric signatures and identification through the use of projective invariants
JP5110983B2 (en) * 2007-06-29 2012-12-26 日立オムロンターミナルソリューションズ株式会社 Biometric authentication processing system
JP2009020698A (en) * 2007-07-11 2009-01-29 Sony Corp Registration device, collation device, data structure and storage medium
US20090185746A1 (en) * 2008-01-22 2009-07-23 The University Of Western Australia Image recognition
JP4945505B2 (en) * 2008-04-22 2012-06-06 株式会社日立製作所 Biological information processing device
JP5259456B2 (en) * 2009-03-02 2013-08-07 株式会社東芝 Learning device and object detection device
JP5809792B2 (en) * 2010-11-04 2015-11-11 株式会社日立製作所 Biometric authentication apparatus and method

Also Published As

Publication number Publication date
JP2012190220A (en) 2012-10-04

Similar Documents

Publication Publication Date Title
US9042606B2 (en) Hand-based biometric analysis
CN110326001B (en) System and method for performing fingerprint-based user authentication using images captured with a mobile device
EP2833294B1 (en) Device to extract biometric feature vector, method to extract biometric feature vector and program to extract biometric feature vector
JP5445584B2 (en) Biometric authentication apparatus, biometric authentication method, and biometric authentication computer program
Connaughton et al. Fusion of face and iris biometrics
US20080298642A1 (en) Method and apparatus for extraction and matching of biometric detail
US8811681B2 (en) Biometric authentication apparatus and biometric authentication method
EP3121759A2 (en) System and method of biometric enrollment and verification
JP2012256272A (en) Biological body identifying device and biological body identifying method
EP2068270B1 (en) Authentication apparatus and authentication method
CN110738222B (en) Image matching method and device, computer equipment and storage medium
US20060120578A1 (en) Minutiae matching
Bera et al. Human identification using selected features from finger geometric profiles
JP2018049569A (en) Collation method, collation device, and collation program
WO2018198500A1 (en) Collation device, collation method and collation program
JP5729029B2 (en) Identification device and identification method
Alonso-Fernandez et al. Quality factors affecting iris segmentation and matching
JP2012248047A (en) Biological identification device and biological identification method
WO2009008550A1 (en) Registering apparatus, collaiting apparatus, data structure, and storage medium
Ramaiah et al. Enhancements to latent fingerprints in forensic applications
JP6840652B2 (en) Image processing equipment, image processing method and image processing program
JP5914995B2 (en) Biological identification device and biological identification method
JP2007179267A (en) Pattern matching device
Brown et al. Improved palmprint segmentation for robust identification and verification
JP2010181970A (en) Equipment for biometric identification, biometric identification device, biometric identification system, discrimination reference determination method, biometric identification method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140213

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140909

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150323

R150 Certificate of patent (=grant) or registration of utility model

Ref document number: 5729029

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350