JP2020501264A - モバイルデバイスを用いてキャプチャした画像を使用する、指紋によるユーザ認証を実施するためのシステムおよび方法 - Google Patents
モバイルデバイスを用いてキャプチャした画像を使用する、指紋によるユーザ認証を実施するためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2020501264A JP2020501264A JP2019529997A JP2019529997A JP2020501264A JP 2020501264 A JP2020501264 A JP 2020501264A JP 2019529997 A JP2019529997 A JP 2019529997A JP 2019529997 A JP2019529997 A JP 2019529997A JP 2020501264 A JP2020501264 A JP 2020501264A
- Authority
- JP
- Japan
- Prior art keywords
- finger
- image
- images
- processor
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 194
- 238000004422 calculation algorithm Methods 0.000 claims description 57
- 238000001514 detection method Methods 0.000 claims description 47
- 238000013527 convolutional neural network Methods 0.000 claims description 39
- 238000012549 training Methods 0.000 claims description 23
- 238000012545 processing Methods 0.000 claims description 19
- 230000011218 segmentation Effects 0.000 claims description 19
- 238000001914 filtration Methods 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 5
- 230000002829 reductive effect Effects 0.000 claims description 4
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 2
- 238000005282 brightening Methods 0.000 claims 1
- 210000003811 finger Anatomy 0.000 description 398
- 238000012795 verification Methods 0.000 description 40
- 230000008569 process Effects 0.000 description 39
- 238000013459 approach Methods 0.000 description 32
- 239000013598 vector Substances 0.000 description 27
- 238000009826 distribution Methods 0.000 description 22
- 238000004891 communication Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 16
- 239000000523 sample Substances 0.000 description 15
- 230000006870 function Effects 0.000 description 14
- 238000004458 analytical method Methods 0.000 description 13
- 230000003287 optical effect Effects 0.000 description 13
- 210000004247 hand Anatomy 0.000 description 12
- 210000004932 little finger Anatomy 0.000 description 11
- 230000000670 limiting effect Effects 0.000 description 10
- 230000008901 benefit Effects 0.000 description 8
- 238000005286 illumination Methods 0.000 description 8
- 210000000554 iris Anatomy 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 238000012360 testing method Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 230000004927 fusion Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 206010065042 Immune reconstitution inflammatory syndrome Diseases 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- VJYFKVYYMZPMAB-UHFFFAOYSA-N ethoprophos Chemical compound CCCSP(=O)(OCC)SCCC VJYFKVYYMZPMAB-UHFFFAOYSA-N 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000000704 physical effect Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 230000007480 spreading Effects 0.000 description 2
- 238000009966 trimming Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000003657 Likelihood-ratio test Methods 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 230000002902 bimodal effect Effects 0.000 description 1
- 230000004071 biological effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000011109 contamination Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 238000007648 laser printing Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000000059 patterning Methods 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 230000036548 skin texture Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 210000003371 toe Anatomy 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
- 230000035899 viability Effects 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1347—Preprocessing; Feature extraction
- G06V40/1353—Extracting features related to minutiae or pores
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/755—Deformable models or variational models, e.g. snakes or active contours
- G06V10/7553—Deformable models or variational models, e.g. snakes or active contours based on shape, e.g. active shape models [ASM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/13—Sensors therefor
- G06V40/1318—Sensors therefor using electro-optical elements or layers, e.g. electroluminescent sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1347—Preprocessing; Feature extraction
- G06V40/1359—Extracting features related to ridge properties; Determining the fingerprint type, e.g. whorl or loop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1365—Matching; Classification
- G06V40/1371—Matching features related to minutiae or pores
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1365—Matching; Classification
- G06V40/1376—Matching features related to ridge properties or fingerprint texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1382—Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
- G06V40/1388—Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger using image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1382—Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
- G06V40/1394—Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/117—Biometrics derived from hands
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computer Security & Cryptography (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Pure & Applied Mathematics (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Algebra (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Hardware Design (AREA)
- Collating Specific Patterns (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Telephone Function (AREA)
- Image Input (AREA)
- Image Analysis (AREA)
Abstract
Description
2.普遍性:非普遍的な問題を解決し、誤り登録の失敗を減らす。例えば、切断された指、指の切り傷、怪我、または擦り切れた隆線(すなわち、対象者の1本または複数の指に、隆線の擦り切れが物理的に生じることがある)のために、人が特定の指を登録できない場合でも、まだ他の指を使って識別され得る。
3.なりすまし攻撃:ユーザの複数の指を登録する、開示する実施形態を使用して、なりすまし攻撃に対する認証システムの耐性を向上させる。これは、同時に複数の指をすり抜ける、またはそれらになりすますのは、ますます困難となるためである。
Bozorth NIST照合機に含まれるような特徴点抽出アルゴリズムは、通常、接触模様の品質を評価するように設計されているアルゴリズムによって判定される、品質スコアを提供する。例えば、模様に染みがある領域を判定する。ぼやけた領域またはレンズの汚れが、隆線のコントラストに類似の影響を与える可能性があるため、同じアルゴリズムが光学的にキャプチャされた模様にも同様にうまく適用される。したがって、例示的なシステムおよび方法は、特徴点に対する初期品質スコアとして、既製の特徴点抽出器によって生成される品質スコアを使用する。
図7Aは、本明細書に開示する少なくとも1つの実施形態による、指のキャプチャ画像700、ならびに指の上および指の間で検出される対応する特徴点を示す。図7Aに示すように、多数の特徴点が指先の上および周囲に検出され得る。特徴点は、特徴点の場所を示す点(例えば、702)と、特徴点の特徴の方向に配向する尾部(例えば、704)とによって示される。示すように、例えば、特徴点は、対応する品質スコアを意味する様々な点(すなわち、丸い点702はより高品質の特徴点を表し、四角い点(図示せず)は平凡な品質を表し、三角形706の点は最低品質の特徴点を表す)を使用して描写できる。図7Aは、指710間で誤って検出された特徴点(三角形の点として示される、誤って検出された/不良な特徴点)を示す。以下に詳述するアルゴリズムを使用することによって、システムは、制約に基づいて連結された特徴点の連鎖(例えば、712、714)を見つけ、そのように誤って検出された特徴点を実質的に抑制し、照合プロセスの性能および速度を大幅に向上できる。この方法の高い信頼性によって、問題を起こすすべての特徴点を、それらの品質スコアにゼロを掛けることによって、品質で順序付けられた選択リストの末尾に移動させることができる。
2.皮膚検出モデルを用いたバイナリ分割(結果を画像724で図示)。
3.背景領域にある特徴点の品質値は減少する(0.01倍)(結果を画像726で図示)。
4.連鎖フィルタリングはすべての特徴点に適用され、品質スコアはゼロに設定される(結果を画像728で図示)。
5.品質スコアの観点から上位40%の特徴点がテンプレート用に選択される(結果を画像724で図示)。
4F指紋認識システムまたはスキャンデバイスからのキャプチャ画像は、異なる縮尺であってもよいため、照合性能を向上させるために、画像を類似の縮尺にするのが好ましい。さらに本明細書において提示するのは、この問題を克服するための異なる手法である。
この手法は、異なる縮尺を適用することによって、対応する正しい特徴点間の距離を最小化し、それによって縮尺を誤った模様の影響を最小化することを目的としている。最高の一致スコアでの最善の縮尺を見つけることによって、システムは、模様の縮尺による照合プロセスへの影響を減らすことができる。
あるいは、強調された指のトリミング画像の拡大縮小は、照合/比較されているプローブ画像およびギャラリー画像の局所の隆線数を利用することによって行うことができる(シナリオに適用可能:4Fに対して4F、またはフラットに対して4F)。
各指紋について様々な一致スコアを得た後、手全体としてより良い総合スコアを得るために、これらのスコアを組み合わせることが重要となる可能性がある。以下の議論では、片手の指の間、または同じ手の複数の例の間のいずれかで、スコアを組み合わせるための様々な手法を提示する。
1本の指が他の指と一致するかどうかを判定する1つの手法は、テストされたデータからのスコアの算出に基づいて、カットオフ閾値を判定することであり、それによって特定の他人受入率が提供される。しかしながら、調査では、本物および偽者の照合分布は、指によって異なり、それゆえ、4本の指すべての結果を単一の閾値を使用して組み合わせると、結果が低下する可能性があると示されている(例えば、カメラアングル、照度に対する角度、ccdにわたる焦点などの結果)。その結果、スコアを足し合わせることによって、指紋全体でスコアを組み合わせると、場合によっては悪い結果が生じる可能性がある。
この手法では、登録および/または検証用の複数のテンプレートを使用する。登録および検証テンプレートのすべて(または一部)の組み合わせを照合することで、本物と偽者とを区別するシステムの能力が向上する。両方の複数のテンプレートを使用すると、単一のテンプレート内に存在する可能性がある、低品質領域の影響が最小限に抑えられ、指の中の領域のキャプチャを改善したり悪化させたりする可能性がある、変形の原因(例えば、キャプチャの角度)がより覆い隠される。
登録時に複数のテンプレートをキャプチャすると、ユーザが登録を完了するのに必要な時間が増えるが、2つの重要な利点が得られる。第1に、検証するユーザに必要とされるのは、単一のテンプレートのみをキャプチャすることであり、手早く済む。第2に、システムは、登録テンプレートを処理して、テンプレートを相互照合することによって、ユーザの適合性を評価できる。これにより、質が低下した模様を持つ人々を、早期に拒絶したり、任意の物体を登録する試みが可能になる。これは、品質の低い登録による、検証中のセキュリティホールを軽減するのに役立つ。
現実の手となりすましとの間の差異を判定する方法は、手もしくは指の三次元(3D)形状が予想通りであること、および/またはなりすましについて予想されることとは異なることを確認することである。
歪んだ画像における指紋照合の課題を解決するために、様々な手法が適用されてきた。この歪みによって、指紋の特徴点間の空間的関係が変化し、指紋照合機が正しい一致を見つけるのが妨げられる。以前の手法はいくらか成功していたが、大部分が同じセンサから得られた指紋の照合に重点を置いていた。また、それらの手法が扱っている歪みは、大部分が画像内のアーチファクトから生じる。
当業者によって理解されるであろうように、歪みモデリングのために様々な方法が存在する。例えば、いくつかの構成では、RossおよびNadgirが説明した手法(Ross A.およびNadgir R.、「A thin−plate spline calibration model For fingerprint sensor interoperability」、IEEE Transaction Data and Knowledge Engineering、第20巻、No.8、P1097〜1110、2008年)、すなわち、薄板スプラインを用いた2つの歪みタイプ間のマッピングをモデル化できる。このモデルを携帯電話の画像から得られた特徴点に適用することにより、システムは、それらの特徴点を、表面画像上の対応する正しい特徴点にマッピングし、検証に使用するように構成できる。これにより、照合機は2つの画像タイプ間に、より多くの対応する一致を見つけることが可能になる。
以前の手法は、通常、照合プロセスの前後に適用される。しかしながら、この歪みに頑強な照合機の手法を適用する際には、照合機内のパラメータを調整して、より高いレベルの歪みを許容することができる。これにより、より高度の歪みを受ける正しい照合を、一致させることが可能になり、その結果、より正確な一致が得られる。
この手法では、例示的なシステムおよび方法は、歪みの問題が画像キャプチャ段階で解決されるように構成される。指紋をキャプチャしながら同時にスキャナを使用して、システムは、人の指によって加えられた圧力を、その方向および大きさに関して記憶する。これが指を横切るベクトルとなり、そのベクトルを画像およびその特徴点に適用することによって、システムは、圧力の結果として生じた歪みを拡散して再マッピングできる。
特徴点ベースの抽出器および照合機を使用する代わりとして、システムを使用して畳み込みニューラルネットワーク(CNN)を適用して、検証指紋を登録画像と照合もできる。既存の「GoogleNet」または「AlexNet」など、様々なネットワークを訓練プロセスに使用できる。システムが訓練で用いる各データセットは、次のタイプの画像から成ることができる。
2)グレースケール:RGB画像をグレースケールに変換する。
3)隆線強調画像:グレースケール画像を使用し、以前の特許で概説した指紋強調技術を使用して強調を実施する。
4)隆線画像:指紋画像から隆線を検索して作成する強化画像に対して、隆線部作成を実施する。これにより、指紋の隆線の二値画像が生成される。
5)強調隆線画像の組み合わせ:強調画像からの有用な情報を最大化するために、強調画像および隆線画像を組み合わせる。
CNNは、指紋照合プロセスの一部として使用できる。この手法は、各人の指がクラスであるCNNの訓練を伴う。訓練は人の指紋の様々なインスタンス を含むことができ、試験/照合は、以前に見た人の、まだ見たことがないインスタンスに対して実施される。したがって、この手法を使用することによって、試験される指紋は以前に見た人に分類される。
システムはまた、以前のモデルを使用して、以前に見たことのない人を識別し検証もできる。この手法では、新しい人が確率のベクトルを取得し、このベクトルの各値は、その人が特定の人にどれだけ類似しているかを表す。このベクトルは、識別および検証において、その人を表すために使用されることがある。
以前の場合、モデルは一定数の人々に対して訓練された。これにより、以前に見た人達に対して高い分類性能を提供するが、新しい人を認証する必要がある場合、CNNは以前に見た人達を完全に表すことができない場合がある。CNNの特徴を、個人に固有の特徴から一般的な指紋の特徴に変更するには、2段階の訓練プロセスが使用できる。1つ目は、1対多の場合の分類と同様に、CNNの訓練を伴う。しかしながら、第2の訓練フェーズは、分類モデルの訓練を継続する、類似性学習に基づいて実施される。この新しいモデルは、分類段階に存在していなかった、以前に見たことのない人達に使用できる。
CNNはまた、大規模な識別のためにも使用できる。例えば、以前の手法は、1対多の場合に識別を実施するように適用できる。ここでは、識別したいすべての人達に対するベクトルが得られる。指紋の新しいセットが与えられると、新しい人の指紋を表すためのベクトルを得られる。このベクトルを他のすべての人達のベクトルと比較し、各比較について類似度尺度(ユークリッド距離など)を取得することによって、最も高い類似度を持つ対を識別できる。この場合、その人は、最も高い類似性を得た人物として識別される。
4FからフラットへのシナリオにCNNを適用するには、以前の手法に加えて、4Fおよびフラット両方の実例画像が、同じタイプの画像、例えば、組み合わせた強調隆線画像であれば、訓練データ内にまとめて置くことができる。これによって、CNNが、両タイプの指紋の間で、共通の特徴を学習することを可能にする。
4Fからフラットへのシナリオに対する別の手法は、4Fおよびフラット画像の個々のモデルを訓練し、類似性学習を使用して各モデルを再訓練し、次に、4Fおよびフラットベクトル間のマッピングを見つけることである。その後、このマッピングは、照合で本物または偽物のベクトルを予測するために使用できる。
4F指紋からフラットへの変換器
検証4F画像を登録フラット画像と照合する性能を向上させるために、CNNを使用して、4F検証画像をフラット検証画像に変換できる。これによって、システムが、変換された検証フラット画像を、登録フラット画像と照合することを可能にする。例えば、Gatysらが提案した方法(Leon A. Gatys、Alexander S. Ecker、Matthias Bethge;The IEEE Conference on Computer Vision and Pattern Recognition(CVPR)、2016年、P2414〜2423)を使用して、画像を別のスタイルに変換できる。この場合、システムは、4F画像を変換して、フラット画像のように見せることができる。
CNNはまた、指紋内の特定のパターンを検出するようにも使用できる。CNNを訓練することによって、システムは特徴点を検出し抽出することができる。これには、様々な特徴点のタイプ、それらの異なる回転、縮尺、および変換された中心の場所を包含する、指紋画像のパッチに関する訓練を伴い得る。加えて、訓練されたモデルを適用した結果として低いスコアを得る、特徴点パッチをフィルタリングする類似の手法を使用できる。
この手法を使用することで、システムは指紋のタイプ(渦巻き、アーチなど)を分類し、この情報を使用して、互換性のない指紋の照合を回避できる。システムは、各フォルダが指紋タイプのクラスを表すデータセットを作成することによって、これを実施し得る。CNNを訓練することによって、システムは、各指紋がどのように見えるかを学習でき、モデルを試験用の指紋に適用することによって、システムは、その指紋タイプのクラスを予測できる。
CNNはまた、画像がシステムによって要求される品質基準内であるかを判定するように、訓練され利用され得る。一例は、4Fシステムを使用してキャプチャできる、ぼやけて使用できない画像を自動的に検出することである。CNNは、鮮明(Sharp)およびぼやけ(Blur)の2つのクラスに基づいて分類する。画像がぼやけていると分類され、使用不可能と見なされた場合、4Fシステムはユーザに別の画像キャプチャを要求する。これには、各々ぼやけているクラスおよび鮮明なクラスを表す、2つのフォルダから成るデータセットで、CNNを訓練する必要があり、各フォルダには、各クラスを表す画像が存在する。
CNNネットワークは、本物の画像となりすまし画像を検出して区別するように訓練することができる。この手法では、ネットワークは、(i)任意の技法を使用してキャプチャできる本物、および(ii)様々なプレゼンテーション攻撃より取られた画像から成る場合がある、なりすましの2つのタイプの画像で構成されるデータセットに関して訓練される。これには、各々本物のクラスおよびなりすましのクラスを表す、2つのフォルダから成るデータセットで、CNNを訓練する必要がある可能性があり、各フォルダには、各クラスを表す画像が存在する。
CNNを使用して、システムは、固定閾値ではなく超平面を使用して、本物のスコアと偽者のスコアとを分離できる。ユークリッド距離の合計を取るのではない、CNNの場合、システムは、要素ごとの減算を実施し、次いで、固定の一次元閾値の代わりに超平面を当てはめるために、本物のベクトルおよび偽者のベクトルを機械学習アルゴリズム(例えば、SVM)に供給し得る。このように、特徴ベクトル内の各特徴は、それらをすべて単一のスコアに組み合わせていた以前とは異なり、保存される。加えて、いくつかの特徴は、より識別力が低い可能性があるので、機械学習アルゴリズムによって、より識別力の高い特徴により多くの注意を向けることができる。
CNNは通常、信頼できるモデルを取得するように、大規模なデータセットに依存する。データセットは、データセット内の既存のインスタンスを修正して、新しいインスタンスを生成することで拡張できる。これらの修正には、画像のアスペクト比または色空間の回転、変換、拡大縮小、トリミング、変更を含むことができる。例示的な手法では、図9に示すように、アスペクト比を回転、拡大縮小、および変更することによって、単一の指紋のみの多数のインスタンスを得ることができる。図9は、指紋の修正に基づくそのような拡張データセットを示す。
顔認識の目的のために、従来CNNは顔面全体画像について訓練されるが、システムは、顔の特定の領域について個々のCNNを訓練し、次いで、各モデルからの全スコアを組み合わせることもできる。例えば、異なるCNNを眉、目、口、鼻などについて訓練することができる。認識を実施するとき、システムは、テスト画像上で各モデルを別々に実行することができ、各モデルからスコアおよび/またはベクトルを取得する。次にシステムは、スコアとベクトルとを組み合わせて、最終認識スコアを得ることができる。
良好な登録段階を持つことは、認証性能にとって非常に重要である。以下の議論では、登録中に収集されたデータが最適であることを保証するための手法について説明する。
登録品質を向上させる1つの方法は、複数のテンプレートをキャプチャすることである。複数のテンプレートを使用することによる改善は、変形を包含するテンプレートから生じる。すべてのテンプレートが同一であれば、たとえ高品質であっても性能は向上しない。したがって、登録表現および検証表現の両方が、同じ特徴を包含する尤度がより高いため、変形を最大化すると性能が向上する。
画像の中心に置かれた手の4F画像をキャプチャするとき、焦点のぼやけおよび特定の領域に当たる光の欠如のために、特定の指の面積は、それほど多くの特徴点情報を提供しない場合がある。これは特に小指の場合である。これらの問題を回避するために、システムは「マルチビュー」技法を実装でき、手の3つの登録画像すべてを中央位置でキャプチャする代わりに、システムは、異なる場所、すなわち、図10に示すように中央、左および右で手をキャプチャするように構成され、図10は、各指紋からの特徴点データを最大化するように、登録段階でキャプチャされた「中央」、「左」および「右」の画像を示す。
2.反復最接近点を利用して対応の特徴点を見つけ、次に薄く遅いスプラインを使用してそれらを登録することにより、2番目に良いテンプレート(レジスタテンプレート)を最善のテンプレート(基準テンプレート)と整列させる。
3.境界ボックスを使用して2つのテンプレートをマージして、互いに非常に近い特徴点を見つけ、保持すべき1つを最善のテンプレート(基準テンプレート)から選び、保持された特徴点の品質尺度を、その一貫性を反映するように更新できる。
4.すべてのテンプレートがマージされるまで、ステップ2および3を繰り返すことができる。
Claims (20)
- 指紋認識を実施するための方法であって、
カメラ、記憶媒体、前記記憶媒体に記憶された命令、および前記命令を実行することにより構成されたプロセッサを有するモバイルデバイスによって、対象者の複数の指を描く画像をキャプチャすることと、
前記プロセッサが指検出アルゴリズムを使用して、1つまたは複数の前記画像に描かれている前記複数の指を検出することと、
前記プロセッサで、セグメンテーションアルゴリズムを使用して少なくとも1つの画像を処理し、前記少なくとも1つの画像に描かれている、1本または複数の指のそれぞれの指先セグメントを識別することと、
前記プロセッサを用いて、前記1本または複数の指について前記識別されたそれぞれの指先セグメントから、前記1本または複数の指の特徴を抽出することと、
前記プロセッサを用いて、前記抽出された特徴を含むバイオメトリック識別子を生成することと、
前記生成されたバイオメトリック識別子を前記メモリに記憶することと、を含む、方法。 - 前記それぞれの指先セグメントから特徴を抽出する前記ステップはさらに、
特徴点抽出アルゴリズムを使用して、特徴点の集合を検出することと、
前記集合内の前記特徴点について、それぞれの品質スコアを計算することと、
それぞれの特徴点の測定された特性および誤って検出された特徴点に対応する予想される特性に基づいて、前記特徴点の中から特徴点の連鎖を識別することと、
前記集合から前記識別された特徴点の連鎖をフィルタリングすることと、
前記それぞれの品質スコアに従って、前記バイオメトリック識別子に含めるために、前記集合内の前記特徴点の少なくとも部分集合を選択することと、を含む、請求項1に記載の方法。 - セグメンテーションアルゴリズムおよび皮膚検出モデルのうちの1つまたは複数を使用して、前記少なくとも1つの画像の背景および前記それぞれの指先セグメントを描く前景を検出することと、
前記背景に対応する検出された特徴点を、前記集合からフィルタリングすることと、をさらに含む、請求項2に記載の方法。 - 所与の特徴点をフィルタリングする前記ステップが、前記所与の特徴点の前記それぞれの品質スコアを割り引くことと、前記所与の特徴点を前記集合から除外することとのうちの1つまたは複数を含む、請求項3に記載の方法。
- 前記それぞれの指先セグメントを強調することであって、強調することは、皮膚検出モデルに従って皮膚を表さない画素を有する領域に対して、皮膚を表すと判定された画素を有する前記少なくとも1つの画像の領域を明るくすることと、指紋の溝と隆線とのコントラストを高めることとのうちの1つまたは複数を含む、こと、をさらに含む、請求項1に記載の方法。
- 前記カメラを使用して、前記カメラに対して第1位置にある前記複数の指を描く第1画像をキャプチャすることと、
前記カメラに対して第2位置にある前記複数の指を描いた第2画像をキャプチャすることであって、前記第1および第2位置は異なる、ことと、
前記プロセッサで、前記第1および第2画像を整列させることと、
前記プロセッサが前記整列した第1および第2画像を使用して、前記整列した第1および第2の指の画像に描かれた、少なくとも1本の指の三次元表現を生成することと、
前記プロセッサで、前記少なくとも1本の指の前記三次元表現に基づいて、前記対象者の実在性(liveness)を判定することと、をさらに含む、請求項1に記載の方法。 - 前記第1および第2画像が、回転方向および垂直方向に整列し、前記垂直方向は、前記指が伸びている方向である、請求項6に記載の方法。
- 前記整列させるステップは、
前記第1および第2画像の各々について、そこに描かれている前記少なくとも1本の指の垂直および水平エッジを表すそれぞれのエッジマップを生成することと、
前記それぞれのエッジマップに基づいて、前記第1および第2画像を整列させることと、
前記それぞれのエッジマップに従って、前記第1および第2画像のうちの1つまたは複数を拡大縮小することと、を含む、請求項6に記載の方法。 - 所与の画像から前記エッジマップを生成することは、
前記所与の画像に描かれた前記指の間に、影線を検出することと、
前記所与の画像に描かれた前記指のそれぞれの先端を検出することと、を含む、請求項8に記載の方法。 - 前記三次元表現を生成する前記ステップの前に、指検出アルゴリズムを使用して、前記整列した第1および第2画像にそれぞれ描かれた前記少なくとも1本の指を検出することと、
前記少なくとも1本の指を描く、前記整列した第1および第2画像を強調することと、をさらに含む、請求項6に記載の方法。 - 前記三次元表現を生成する前記ステップは、
前記プロセッサが前記整列した第1および第2画像を使用して、前記整列した第1画像に描かれた前記少なくとも1本の指と、前記整列した第2画像に描かれた前記少なくとも1本の指との視差を測定することを含み、
1つまたは複数の所与の方向に沿って生じる前記視差に基づいて、実在性が判定される、請求項6に記載の方法。 - 前記視差を計算する前記ステップは、
前記整列した第1および第2画像の少なくともそれぞれの部分から、前記プロセッサがブロックマッピング法を使用して、前記第1画像および前記第2画像に前記少なくとも1本の指を描く画像の画素間の差を表す視差マップをそれぞれ生成することを含む、請求項11に記載の方法。 - 実在性を判定する前記ステップは、
前記少なくとも1本の指に対する前記視差マップから前記プロセッサにより、前記マップ上の線の曲率を計算することであって、前記曲率は、1つまたは複数の方向で計算される、ことと、
前記計算された曲率に基づいて、前記少なくとも1本の指が、実在性を表す三次元特性を有すると判定することと、をさらに含む、請求項12に記載の方法。 - 前記カメラで画像のフィードをキャプチャすることと、
ディスプレイ上に前記プロセッサを用いて、ほぼリアルタイムで前記画像のフィードを表示し、前記フィード上に指配置ガイドを重ねることと、
前記プロセッサが指発見アルゴリズムを使用して、前記フィードの1つまたは複数の画像に描かれたいずれの指をも検出することと、
前記複数の指と前記ガイドとの整列が検出されると、前記カメラを用いて前記第1画像をキャプチャすることであって、前記ガイドは、第1位置にある、ことと、
前記複数の指が前記ガイドと並んでいることを検出すると、前記カメラを用いて前記第2画像をキャプチャすることであって、前記ガイドは、第2位置にある、ことと、をさらに含む、請求項6に記載の方法。 - 前記プロセッサを用いて、前記対象者の実在性を判定することをさらに含み、実在性を判定する前記ステップは、
畳み込みニューラルネットワーク(CNN)を使用して、前記識別されたそれぞれの指先セグメントの画像を処理することを含み、前記CNNは、実在する対象者からキャプチャされた指の画像、およびなりすました指の画像を含む、画像の2つのクラスに基づいて訓練される、請求項1に記載の方法。 - 指紋認識を実施するための方法であって、
カメラ、記憶媒体、前記記憶媒体に記憶された命令、および前記命令を実行することにより構成されたプロセッサを有するモバイルデバイスによって、対象者の複数の指を描く画像をキャプチャすることと、
前記プロセッサが指検出アルゴリズムを使用して、前記画像の少なくとも1つに描かれている1本または複数の指を検出することと、
前記プロセッサがセグメンテーションアルゴリズムを使用して、少なくとも1つの画像を処理して、そこに描かれている少なくとも1本の指のそれぞれの指先セグメントを識別することと、
前記プロセッサを用いて、前記識別されたそれぞれの指先セグメントから、前記少なくとも1本の指の1つまたは複数の特徴を測定することと、
前記測定された特徴に基づいて、前記少なくとも1つの画像を拡大縮小することと、
バイオメトリック識別子を記憶することであって、前記バイオメトリック識別子は、前記それぞれの指先セグメントを描く、前記拡大縮小された画像の少なくとも一部分を含む、ことと、を含む、方法。 - 前記測定された特徴は、指紋の隆線数であり、前記少なくとも1つの画像は、前記指紋の隆線数、ならびに所定の基準隆線数および目標解像度のうちの1つまたは複数に基づいて拡大縮小される、請求項16に記載の方法。
- 前記隆線数を測定することは、前記それぞれの指先セグメントの局所エリアにおける隆線間の距離中央値の逆数を計算することを含み、前記距離は、前記少なくとも1本の指の隆線の配向に対して垂直方向に測定される、請求項17に記載の方法。
- 前記目標解像度は、レガシーデータベースに記憶され、前記バイオメトリック識別子と照合するために使用される画像の解像度である、請求項17に記載の方法。
- 前記画像は、前記指から離れてキャプチャされ、それによって、三次元の指を描き、前記バイオメトリック識別子を生成する前記ステップは、
畳み込みニューラルネットワーク(CNN)を使用して、前記それぞれの指先セグメントの画像を、前記指先セグメントの二次元表面の画像へ変換することをさらに含み、前記CNNは、カメラを使用して離れてキャプチャされたそれぞれの指の第1画像、および接触スキャナを使用してキャプチャされた前記それぞれの指の二次元表面を描く第2画像を各々含む、画像の対に基づき訓練される、請求項16に記載の方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662431629P | 2016-12-08 | 2016-12-08 | |
US62/431,629 | 2016-12-08 | ||
US15/704,561 | 2017-09-14 | ||
US15/704,561 US10521643B2 (en) | 2015-02-06 | 2017-09-14 | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices |
PCT/US2017/065240 WO2018106987A1 (en) | 2016-12-08 | 2017-12-08 | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020501264A true JP2020501264A (ja) | 2020-01-16 |
JP7242528B2 JP7242528B2 (ja) | 2023-03-20 |
Family
ID=62491647
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019529997A Active JP7242528B2 (ja) | 2016-12-08 | 2017-12-08 | モバイルデバイスを用いてキャプチャした画像を使用する、指紋によるユーザ認証を実施するためのシステムおよび方法 |
Country Status (12)
Country | Link |
---|---|
EP (1) | EP3552150A4 (ja) |
JP (1) | JP7242528B2 (ja) |
KR (2) | KR20230116095A (ja) |
CN (1) | CN110326001B (ja) |
AU (1) | AU2017370720B2 (ja) |
BR (1) | BR112019011205A8 (ja) |
CA (1) | CA3044063C (ja) |
CO (1) | CO2019005833A2 (ja) |
MA (1) | MA48606A (ja) |
MX (3) | MX2019006480A (ja) |
WO (1) | WO2018106987A1 (ja) |
ZA (1) | ZA201903326B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3893147A1 (en) * | 2020-04-09 | 2021-10-13 | Touchless ID SL | Liveliness detection using a device comprising an illumination source |
WO2021250858A1 (ja) * | 2020-06-11 | 2021-12-16 | 富士通株式会社 | 認証方法、認証プログラム、および情報処理装置 |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3540633B1 (en) * | 2018-03-16 | 2020-09-23 | Identy Inc. | Method for identifying an object within an image and mobile device for executing the method |
CN109191367B (zh) * | 2018-08-02 | 2023-06-16 | 哈尔滨理工大学 | 刀具磨损图像的拼接方法及刀具的寿命预测方法 |
FR3084943B1 (fr) * | 2018-08-10 | 2021-04-16 | Idemia Identity & Security France | Procede pour obtenir une image d'empreinte digitale |
AT521934A1 (de) * | 2018-12-05 | 2020-06-15 | Ait Austrian Inst Tech Gmbh | Verfahren zur Erfassung von Fingerabdrücken |
AT521935A1 (de) * | 2018-12-05 | 2020-06-15 | Ait Austrian Inst Tech Gmbh | Verfahren zur Erfassung von Fingerabdrücken |
JP7147886B2 (ja) * | 2019-02-14 | 2022-10-05 | 日本電気株式会社 | 画像処理装置、指紋照合システム、画像処理方法およびプログラム |
EP4115622A4 (en) * | 2020-03-01 | 2024-03-27 | Leia Inc | SYSTEMS AND METHODS FOR MULTIPLE VIEW TRANSMISSION |
FR3112221B1 (fr) * | 2020-07-01 | 2022-06-10 | Idemia Identity & Security France | Evaluation du biais d’une fonction d’identification biométrique |
KR102604837B1 (ko) * | 2021-05-26 | 2023-11-22 | 대한민국 | 현출된 지문의 수준 판단 장치 및 방법 |
CN113569715B (zh) * | 2021-07-23 | 2024-04-16 | 北京眼神智能科技有限公司 | 一种指纹图像增强方法及装置 |
KR20230083208A (ko) * | 2021-12-02 | 2023-06-09 | (주)위닝아이 | Ai를 이용한 위조지문판별기능이 포함된 비접촉식 지문인증방법 |
CN114299555A (zh) * | 2022-01-27 | 2022-04-08 | 敦泰电子(深圳)有限公司 | 指纹识别方法、指纹模组及电子设备 |
CN114419719B (zh) * | 2022-03-29 | 2022-08-12 | 北京爱笔科技有限公司 | 一种生物特征的处理方法及装置 |
CN115512427B (zh) * | 2022-11-04 | 2023-04-25 | 北京城建设计发展集团股份有限公司 | 一种结合配合式活检的用户人脸注册方法与*** |
CN116576994B (zh) * | 2023-05-12 | 2024-05-10 | 爱梦睡眠(珠海)智能科技有限公司 | 一种基于压电传感器的在离床辅助判断装置和方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006072553A (ja) * | 2004-08-31 | 2006-03-16 | Secom Co Ltd | 生体情報照合装置 |
JP2006172258A (ja) * | 2004-12-17 | 2006-06-29 | Mitsubishi Electric Corp | 指紋照合装置、指紋照合方法、指紋照合プログラム、および指紋登録装置 |
JP2006215975A (ja) * | 2005-02-07 | 2006-08-17 | Mitsubishi Electric Corp | 指紋照合装置 |
JP2009544108A (ja) * | 2006-07-19 | 2009-12-10 | ルミダイム インコーポレイテッド | 多重生体認証のマルチスペクトル画像 |
JP2011048602A (ja) * | 2009-08-27 | 2011-03-10 | Secom Co Ltd | 指紋照合装置 |
JP2012088918A (ja) * | 2010-10-19 | 2012-05-10 | Nec Soft Ltd | 指紋品質計算装置、指紋品質計算方法、指紋品質計算プログラム |
US20160232401A1 (en) * | 2015-02-06 | 2016-08-11 | Hoyos Labs Ip Ltd. | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103268469B (zh) * | 2006-04-26 | 2016-07-06 | 阿瓦尔有限公司 | 指纹预检质量和分割 |
US8200037B2 (en) * | 2008-01-28 | 2012-06-12 | Microsoft Corporation | Importance guided image transformation |
US8411913B2 (en) * | 2008-06-17 | 2013-04-02 | The Hong Kong Polytechnic University | Partial fingerprint recognition |
US10445555B2 (en) * | 2009-01-27 | 2019-10-15 | Sciometrics, Llc | Systems and methods for ridge-based fingerprint analysis |
CN102446268A (zh) * | 2010-09-30 | 2012-05-09 | 神盾股份有限公司 | 指纹防伪装置及其方法 |
AU2011311818B2 (en) * | 2010-10-08 | 2015-07-02 | Apple Inc. | Finger sensing device including differential measurement circuitry and related methods |
US8724861B1 (en) * | 2010-12-06 | 2014-05-13 | University Of South Florida | Fingertip force, location, and orientation sensor |
US20130067545A1 (en) * | 2011-09-13 | 2013-03-14 | Sony Computer Entertainment America Llc | Website Security |
US9349033B2 (en) * | 2011-09-21 | 2016-05-24 | The United States of America, as represented by the Secretary of Commerce, The National Institute of Standards and Technology | Standard calibration target for contactless fingerprint scanners |
US9727969B2 (en) * | 2012-08-17 | 2017-08-08 | Sony Corporation | Image processing device, image processing method, program, and image processing system |
US20140270409A1 (en) * | 2013-03-15 | 2014-09-18 | Eyelock, Inc. | Efficient prevention of fraud |
US9818020B2 (en) * | 2013-04-02 | 2017-11-14 | Precise Biometrics Ab | Fingerprint pore analysis for liveness detection |
US9294475B2 (en) | 2013-05-13 | 2016-03-22 | Hoyos Labs Ip, Ltd. | System and method for generating a biometric identifier |
FR3017230B1 (fr) * | 2014-02-04 | 2016-03-11 | Morpho | Procede de validation de l'utilisation d'un vrai doigt comme support d'une empreinte digitale |
CN103927542B (zh) * | 2014-04-25 | 2017-04-26 | 陕西科技大学 | 一种三维指纹特征提取方法 |
CA2902093C (en) * | 2014-08-28 | 2023-03-07 | Kevin Alan Tussy | Facial recognition authentication system including path parameters |
US9767358B2 (en) * | 2014-10-22 | 2017-09-19 | Veridium Ip Limited | Systems and methods for performing iris identification and verification using mobile devices |
US9361507B1 (en) * | 2015-02-06 | 2016-06-07 | Hoyos Labs Ip Ltd. | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices |
CN105303179A (zh) * | 2015-10-28 | 2016-02-03 | 小米科技有限责任公司 | 指纹识别方法、装置 |
CN105354560A (zh) * | 2015-11-25 | 2016-02-24 | 小米科技有限责任公司 | 指纹识别方法及装置 |
-
2017
- 2017-12-08 BR BR112019011205A patent/BR112019011205A8/pt unknown
- 2017-12-08 AU AU2017370720A patent/AU2017370720B2/en active Active
- 2017-12-08 WO PCT/US2017/065240 patent/WO2018106987A1/en active Search and Examination
- 2017-12-08 MX MX2019006480A patent/MX2019006480A/es unknown
- 2017-12-08 JP JP2019529997A patent/JP7242528B2/ja active Active
- 2017-12-08 KR KR1020237025660A patent/KR20230116095A/ko not_active Application Discontinuation
- 2017-12-08 MA MA048606A patent/MA48606A/fr unknown
- 2017-12-08 CA CA3044063A patent/CA3044063C/en active Active
- 2017-12-08 KR KR1020197015805A patent/KR102561723B1/ko active IP Right Grant
- 2017-12-08 EP EP17877953.4A patent/EP3552150A4/en active Pending
- 2017-12-08 CN CN201780082847.0A patent/CN110326001B/zh active Active
-
2019
- 2019-05-27 ZA ZA2019/03326A patent/ZA201903326B/en unknown
- 2019-06-03 MX MX2021008626A patent/MX2021008626A/es unknown
- 2019-06-03 MX MX2021008624A patent/MX2021008624A/es unknown
- 2019-06-04 CO CONC2019/0005833A patent/CO2019005833A2/es unknown
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006072553A (ja) * | 2004-08-31 | 2006-03-16 | Secom Co Ltd | 生体情報照合装置 |
JP2006172258A (ja) * | 2004-12-17 | 2006-06-29 | Mitsubishi Electric Corp | 指紋照合装置、指紋照合方法、指紋照合プログラム、および指紋登録装置 |
JP2006215975A (ja) * | 2005-02-07 | 2006-08-17 | Mitsubishi Electric Corp | 指紋照合装置 |
JP2009544108A (ja) * | 2006-07-19 | 2009-12-10 | ルミダイム インコーポレイテッド | 多重生体認証のマルチスペクトル画像 |
JP2011048602A (ja) * | 2009-08-27 | 2011-03-10 | Secom Co Ltd | 指紋照合装置 |
JP2012088918A (ja) * | 2010-10-19 | 2012-05-10 | Nec Soft Ltd | 指紋品質計算装置、指紋品質計算方法、指紋品質計算プログラム |
US20160232401A1 (en) * | 2015-02-06 | 2016-08-11 | Hoyos Labs Ip Ltd. | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices |
Non-Patent Citations (2)
Title |
---|
ARUNALATHA G, M. EZHILARASAN: ""Fingerprint Liveness detection using probabality density function"", 2016 INTERNATIONAL CONFERENCE ON COMMUNICATION AND SIGNAL PROCESSING (ICCSP), JPN6021046537, 6 April 2016 (2016-04-06), pages 199 - 204, ISSN: 0004644996 * |
RODRIGO FRASSETTO NOGUEIRA,外2名: "Fingerprint Liveness Detection Using Convolutional Neural Networks", IEEE TRANSACTIONS ON INFORMATION FORENSICS AND SECURITY, vol. Volume 11,Issue 6, JPN6022035131, June 2016 (2016-06-01), pages 1206 - 1213, ISSN: 0004853853 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3893147A1 (en) * | 2020-04-09 | 2021-10-13 | Touchless ID SL | Liveliness detection using a device comprising an illumination source |
WO2021205016A1 (en) * | 2020-04-09 | 2021-10-14 | Touchless Id Sl. | Liveliness detection using a device comprising an illumination source |
EP4246454A3 (en) * | 2020-04-09 | 2023-11-29 | Identy Inc. | Liveliness detection using a device comprising an illumination source |
WO2021250858A1 (ja) * | 2020-06-11 | 2021-12-16 | 富士通株式会社 | 認証方法、認証プログラム、および情報処理装置 |
JPWO2021250858A1 (ja) * | 2020-06-11 | 2021-12-16 | ||
JP7315884B2 (ja) | 2020-06-11 | 2023-07-27 | 富士通株式会社 | 認証方法、認証プログラム、および情報処理装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110326001A (zh) | 2019-10-11 |
JP7242528B2 (ja) | 2023-03-20 |
AU2017370720A1 (en) | 2019-06-13 |
MX2021008626A (es) | 2021-08-19 |
MA48606A (fr) | 2020-03-18 |
BR112019011205A2 (pt) | 2019-10-08 |
MX2019006480A (es) | 2019-08-01 |
KR20230116095A (ko) | 2023-08-03 |
AU2017370720B2 (en) | 2022-06-09 |
MX2021008624A (es) | 2021-08-19 |
EP3552150A4 (en) | 2020-10-21 |
KR102561723B1 (ko) | 2023-07-31 |
ZA201903326B (en) | 2020-01-29 |
CA3044063C (en) | 2023-02-28 |
CN110326001B (zh) | 2023-07-18 |
CO2019005833A2 (es) | 2019-10-21 |
KR20190094352A (ko) | 2019-08-13 |
CA3044063A1 (en) | 2018-06-14 |
WO2018106987A1 (en) | 2018-06-14 |
BR112019011205A8 (pt) | 2023-04-11 |
EP3552150A1 (en) | 2019-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10339362B2 (en) | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices | |
US11188734B2 (en) | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices | |
JP7242528B2 (ja) | モバイルデバイスを用いてキャプチャした画像を使用する、指紋によるユーザ認証を実施するためのシステムおよび方法 | |
US11263432B2 (en) | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices | |
US9361507B1 (en) | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices | |
CN112016525A (zh) | 非接触式指纹采集方法和装置 | |
WO2022068931A1 (zh) | 非接触指纹识别方法、装置、终端及存储介质 | |
CN112232152B (zh) | 非接触式指纹识别方法、装置、终端和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211124 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220412 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220823 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230216 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230308 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7242528 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |