CN110326001B - 使用利用移动设备捕捉的图像执行基于指纹的用户认证的***和方法 - Google Patents

使用利用移动设备捕捉的图像执行基于指纹的用户认证的***和方法 Download PDF

Info

Publication number
CN110326001B
CN110326001B CN201780082847.0A CN201780082847A CN110326001B CN 110326001 B CN110326001 B CN 110326001B CN 201780082847 A CN201780082847 A CN 201780082847A CN 110326001 B CN110326001 B CN 110326001B
Authority
CN
China
Prior art keywords
image
finger
images
fingers
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201780082847.0A
Other languages
English (en)
Other versions
CN110326001A (zh
Inventor
A.奥思曼
R.泰森
A.塔瓦奈
Y.薛
A.辛普森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoyos Labs Ip Ltd
Original Assignee
Hoyos Labs Ip Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US15/704,561 external-priority patent/US10521643B2/en
Application filed by Hoyos Labs Ip Ltd filed Critical Hoyos Labs Ip Ltd
Publication of CN110326001A publication Critical patent/CN110326001A/zh
Application granted granted Critical
Publication of CN110326001B publication Critical patent/CN110326001B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1353Extracting features related to minutiae or pores
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24143Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7553Deformable models or variational models, e.g. snakes or active contours based on shape, e.g. active shape models [ASM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1318Sensors therefor using electro-optical elements or layers, e.g. electroluminescent sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1359Extracting features related to ridge properties; Determining the fingerprint type, e.g. whorl or loop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • G06V40/1371Matching features related to minutiae or pores
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • G06V40/1376Matching features related to ridge properties or fingerprint texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1382Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
    • G06V40/1388Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger using image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1382Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
    • G06V40/1394Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/117Biometrics derived from hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computer Security & Cryptography (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Algebra (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Hardware Design (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Telephone Function (AREA)
  • Image Input (AREA)
  • Image Analysis (AREA)

Abstract

本文呈现了支持用于执行指纹辨识的***和方法的技术。本发明的实施例涉及用于捕捉用户的生物计量特征并且使用诸如智能手机的移动设备生成表征用户的生物计量特征的标识符的***和方法。使用捕捉的用户的多个手指的图像生成生物计量标识符,以用于根据所捕捉的生物计量来认证/识别用户并确定用户的活性的目的。本公开还描述了用于防止由欺骗引起的错误认证的附加技术。在一些示例中,反欺骗技术可以包括捕捉用户的手指的一个或多个图像并分析捕捉的图像以用于活性的指示。

Description

使用利用移动设备捕捉的图像执行基于指纹的用户认证的系 统和方法
技术领域
本发明涉及用于捕捉和表征生物计量特征的***和方法,具体地涉及用于使用由诸如智能手机的移动设备的嵌入式相机捕捉的手指的图像来捕捉和表征生物计量特征的***和方法。
背景技术
由于生物计量(biometric)是个体的生物特性(诸如指纹、手的几何形状、视网膜图案、虹膜纹理等),生物计量技术可以用作额外的验证因素,因为生物计量通常比其它非生物计量凭证更难以获得。生物计量可以用于识别和/或认证(也称为身份声明和/或验证)。
生物计量身份声明可能要求由应用规定的某个级别的安全性。例如,与金融交易或者获得对安全位置的访问权相关的认证需要更高的安全性级别。结果,优选地,用户的生物计量表示的准确性足以确保准确地认证用户并且维持安全性。
此外,新生儿的遗失、掉换、混合和非法收养是全球挑战,并且已经提出使用自动化生物计量***来基于新生儿的面部、虹膜、指纹、脚印和/或掌纹来识别新生儿。
然而,在虹膜、面部、手指和语音身份声明***存在并且提供需要的准确度的程度上,这样的***需要专用设备和应用,并且不容易在具有有限的相机分辨率和发光能力的传统智能手机上实施。
电子指纹传感器已经被添加到智能手机设备中,加州库比蒂诺的苹果公司的iPhone 6智能手机和三星韩国的三星公司的三星S5智能手机就是这样的示例。在这些设备中,用户必须通过将他们的手指放在传感器上来登记他们的指纹数据,在以后用户可以通过将他们的手指重新定位在传感器上来验证他们的身份,将指纹数据与登记数据相比较,并且如果匹配,则确认用户的身份。如果指纹不匹配,那么可以将用户识别为冒名顶替者。这些***的缺点是指纹传感器增加了设备的尺寸重量和成本。此外,由于这些原因,最小化指纹传感器的尺寸是有利的,因此指纹传感器通常仅捕捉指纹的一部分,这降低了识别的有效性。指纹传感器的捕捉区域越小,另一个手指将偶然匹配的机会就越大,并且指纹数据中的任何错误将越有可能导致对真实用户的误拒绝。
此外,由于手指的尺寸以及握住新生儿的手并将其放在传感器上的困难,通过使用传统指纹传感器捕捉新生儿的指纹是具有挑战性的。
实际上,这意味着用户(即,成人和新生儿)遭受来自误拒绝的更高程度的不便,并且传感器的应用限于非关键用途,诸如,低价值支付。指纹传感器还可能是欺骗攻击的对象(subject),其中例如将真实用户指纹的模具放在指纹传感器中以使得冒名顶替者能够通过认证。这提供了限制对非关键应用的使用的另一个原因。
另一个挑战是只有一些移动设备配备有指纹传感器,这限制了有权访问指纹授权***的人数,并且导致设备之间的认证方法不一致。
已经提出了使用移动设备的相机分析单个手指的图像的***,这些***可能更方便,然而,对于需要更高安全性的、诸如中到高价值的购买和企业***(即,大规模***)的应用来说,用于成像和分析单个手指的这样的***的最低误接受率和误拒绝率仍然不够可靠。
因此,需要更可靠且更普遍的手指辨识***。
发明内容
本文呈现了支持用于执行指纹辨识的***和方法的技术。
根据第一方面,提供了一种用于执行指纹辨识的方法。该方法包括步骤:由具有相机、存储介质、存储在存储介质上的指令、以及通过执行指令而配置的处理器的移动设备捕捉描绘对象的多个手指的图像。该方法还包括使用手指检测算法检测一个或多个所述图像中描绘的多个手指。该方法还包括使用分段算法处理至少一个图像,以为至少一个图像中描绘的一个或多个手指识别相应的指尖段。另外,该方法包括从为一个或多个手指所识别的相应的指尖段提取一个或多个手指的特征、基于所提取的特征生成生物计量标识符并将生物计量标识符存储在存储器中。
根据另一方面,提供了一种用于执行指纹辨识的方法。该方法包括步骤:由具有相机、存储介质、存储在存储介质上的指令、以及通过执行指令而配置的处理器的移动设备捕捉描绘对象的多个手指的图像。该方法还包括使用手指检测算法检测至少一个所述图像中描绘的一个或多个手指。该方法还包括使用分段算法处理至少一个图像,以为其中描绘的至少一个手指识别相应的指尖段。另外,该方法包括从所识别的相应的指尖段测量所述至少一个手指的一个或多个特征,并基于所测量的特征缩放所述至少一个图像。另外,该方法包括步骤:生成至少包括所缩放的图像的描绘相应的指尖段的至少一部分的生物计量标识符,并将生物计量标识符存储在存储器中。
这些和其它方面、特征和优点可以从本发明的某些实施例的附随描述以及附图和权利要求中理解。
附图说明
图1是根据本文公开的至少一个实施例的、用于根据用户的生物计量特征来认证用户的计算机***的高级图。
图2A是根据本文公开的至少一个实施例的、用于根据用户的生物计量特征来认证用户的计算机***的框图;
图2B是根据本文公开的至少一个实施例的、用于根据用户的生物计量特征来认证用户的软件模块的框图;
图2C是根据本文公开的至少一个实施例的、用于根据用户的生物计量特征来认证用户的计算机***的框图;
图3是示出根据本文公开的至少一个实施例的、用于根据用户的生物计量特征生成生物计量标识符并且登记或认证用户的例程的流程图;
图4A是示出根据本文公开的至少一个实施例的、用于从视觉图像和对应的图像检测手指的例程的流程图;
图4B是示出根据本文公开的至少一个实施例的、用于过滤从视觉图像内检测的指尖区域的例程的流程图;
图4C描绘了根据图4B的用于过滤指尖区域的例程捕捉和生成的图像;
图5A是示出根据本文公开的至少一个实施例的、用于从手指的视觉图像检测活性(liveness)的例程的流程图;
图5B是根据用于从手指的视觉图像检测活性的例程捕捉的一系列图像;
图5C是根据用于从手指的视觉图像检测活性的例程捕捉的一系列图像;
图6A描绘了根据本文公开的至少一个实施例生成的手指的捕捉图像和对应的脊(ridge)反射(reflectivity)图像;
图6B描绘了根据本文公开的至少一个实施例生成的手指的捕捉图像和对应的脊反射图像;
图6C描绘了根据本文公开的至少一个实施例生成的手指的捕捉图像和对应的脊反射图像;
图6D描绘了根据本文公开的至少一个实施例生成的手指的捕捉图像和对应的脊反射图像;
图6E描绘了根据本文公开的至少一个实施例生成的手指的捕捉图像和对应的脊反射图像;及
图6F描绘了根据本文公开的至少一个实施例生成的手指的捕捉图像和对应的脊反射图像。
图7A描绘了根据本文公开的至少一个实施例的、手指的捕捉图像和在手指之间可能误检测的对应的微小细节点;
图7B描绘了根据本文公开的至少一个实施例的、手指的捕捉图像和在用于微小细节选择的整个示例性流水线(pipeline)中的处理的图像数据。
图8A描绘了根据本文公开的至少一个实施例的:(a)在不同位置(沿着手指位移)从用户收集的两个手指图像;(b)生成垂直边缘图以对准对应的手指;(c)生成水平边缘图以对准对应的手指;(d)从两个图像裁剪和增强的中指;
图8B描绘了根据本文公开的至少一个实施例的、对于真实手指和2D欺骗图片的视差图;
图8C描绘了根据本文公开的至少一个实施例的、对于真实手指的图像的视差图和拟合表面;
图8D描绘了根据本文公开的至少一个实施例的、对于2D欺骗图片的视差图和拟合表面;
图9描绘了根据本文公开的至少一个实施例的、使用旋转的数据集修改;以及
图10描绘了根据本文公开的至少一个实施例的、在登记阶段捕捉的“中心”、“左”和“右”图像。
具体实施方式
仅作为示例并且出于概述和介绍的目的,下面描述本发明的实施例,其涉及用于使用诸如智能手机的移动设备捕捉用户的生物计量特征并生成表征用户的生物计量特征的标识符的***和方法。生物计量标识符优选地使用从用户的多个手指捕捉的图像来生成,用于根据所捕捉的生物计量来认证/识别用户并确定用户的活性的目的。本公开还描述了用于防止由欺骗导致的误认证的附加技术。在一些示例中,反欺骗技术可以包括捕捉用户的生物计量的一个或多个图像并分析所捕捉的图像以用于活性的指示。
在一些实施方式中,该***包括基于云的***服务器平台,其与固定的PC、服务器以及诸如由用户操作的膝上型计算机、平板型计算机和智能手机的设备通信。当用户尝试访问访问受控制的联网环境(例如,需要安全登录的网站)时,用户被提示使用用户的预先注册的移动设备进行认证。认证可以包括通过使用移动设备以至少用户的手指的图像的形式捕捉生物计量信息、提取独特的特征并将特征编码为指示用户的生物计量特征和/或活性的生物计量识别符,来验证用户的身份和/或验证用户是活生生的(例如,确定活性)。因此,可以由移动设备和/或***服务器或前述的组合通过分析图像、所生成的生物计量标识符和/或将图像和/或生物计量标识符与在用户向***的初始登记期间生成的生物计量标识符相比较,来验证用户身份和/或活性。
根据主题申请的一方面,所公开的实施例提供了一种在普遍且便于使用的移动设备上使用基于手指的生物计量辨识的可靠的用户识别/认证手段。所公开的实施例使用通常存在于移动设备上的相机执行基于四指的辨识,使得在设计上不会产生额外的体积、成本或重量,并且使用可以是普遍的。该***的另一个目的是提供对欺骗攻击的防御。
本发明同时从多个手指捕捉生物计量信息,并从每个手指捕捉大的纹印(print)区域。此外,本发明还可以用于从手的其它区域捕捉纹印信息,包括掌纹和手印,以进一步增加***的可靠性。而且,在新生儿识别的情况下,本发明可以用于捕捉脚趾。此外,所提出的创新可以与现有的移动面部辨识***组合。作为非限制性示例,在本文以及在共同未决和共同转让的于2015年5月13日提交的题为“SYSTEM AND METHOD FOR AUTHORIZINGACCESS TO ACCESS CONTROLLED ENVIRONMENTS”的美国专利申请第14/668,352号和于2014年3月7日提交的题为“SYSTEMS AND METHODS FOR BIOMETRIC AUTHENTICATION OFTRANSACTIONS”的美国专利第9,208,492号中描述了用于从面部特征的图像的基于生物计量的用户认证的示例性***和方法。此外,本发明可以用于处理使用存在于移动设备上的相机所获取的手指照片,以便生成对应于所获取的手指照片的并且可以与在集成自动指纹识别***(IAFIS)中使用的滚动和普通指纹图像匹配的指纹图像。IAFIS是由联邦调查局(FBI)维护的全国自动指纹识别和犯罪历史***。IAFIS提供自动指纹搜索能力、潜在搜索能力、电子图像存储、以及指纹和响应的电子交换。
公开的实施例可以称为多模式生物计量认证***。因此,与使用智能手机中的嵌入式传感器捕捉的手指图像或指纹的单个手指移动辨识***相比,存在多个独立的生物计量(即,4-10个手指)提供了以下优点。
1.性能:不相关的模态的组合(例如,一个人的四个手指和新生儿的十个手指)可以得到比单个手指辨识***更好的性能改善。此准确性改进由于两个原因而发生。首先,来自不同手指的生物计量证据的融合有效地增加了有辨别力的特征并减少了不同用户的特征之间的重叠。换句话说,多个手指的组合对于个体而言比单个手指更具辨别力。其次,可以通过剩余手指提供的信息来解决在获取手指子集期间的噪声(由如污垢或墨水污迹的因素引起的)和不精确性。
2.通用性:解决非通用性问题并减少登记错误的失败。例如,如果一个人由于截掉手指、手指切割、受伤或磨损的脊(即,磨损的脊可能在对象的一个或多个手指中物理地发生)而无法登记特定的手指,则他仍然可以使用他的其它手指来识别。
3.欺骗攻击:使用其中执行登记用户的多个手指的所公开的实施例将改善认证***对欺骗攻击的抵抗力。这是因为同时规避或欺骗多个手指变得越来越困难。
用于根据用户的生物计量特征100的图像来认证用户和/或确定用户的活性的示例性***被示出为图1中的框图。在一个布置中,该***包括***服务器105和用户设备,用户设备包括移动设备101a和用户计算设备101b。***100还可以包括一个或多个远程计算设备102。
***服务器105实际上可以是能够与用户设备和远程计算设备通信并且接收、发送和存储电子信息和处理请求的任何计算设备和/或数据处理装置,如本文进一步描述的。类似地,远程计算设备102实际上可以是能够与***服务器和/或用户设备通信并且接收、发送和存储电子信息和处理请求的任何计算设备和/或数据处理装置,如本文进一步描述的。还应该理解,***服务器和/或远程计算设备可以是多个联网或基于云的计算设备。
在一些实施方式中,计算设备102可以与维护用户帐户(“企业帐户”)并向企业帐户持有者提供服务并且在提供对这样的***和服务的用户访问之前要求用户的认证的企业组织(例如,银行或网站)相关联。
用户设备(移动设备101a和用户计算设备101b)可以被配置为彼此通信,***服务器105和/或远程计算设备102向其发送电子信息并从其接收电子信息,如本文进一步描述的。用户设备还可以被配置为接收用户输入并且捕捉和处理生物计量信息,例如,用户124的数字图像和语音记录。
移动设备101a可以是能够体现本文描述的***和/或方法的任何移动计算设备和/或数据处理装置,包括但不限于个人计算机、平板式计算机、个人数字助理、移动电子设备、蜂窝电话、或智能手机设备等。计算设备101b意图表示用户可以与之交互的各种形式的计算设备,诸如,工作站、个人计算机、膝上型计算机、专用销售点***、ATM终端、访问控制设备或其它适当的数字计算机。
如本文进一步描述的,***100使用移动设备101a根据用户的生物计量特征来促进用户124的认证。在一些实施方式中,根据用户的生物计量特征的识别和/或认证在两阶段处理中利用用户的生物计量信息。第一阶段称为登记。在登记阶段中,从个体收集适当生物计量的样本(例如,图像)。分析和处理这些生物计量的样本以提取每个样本中存在的特征(或特性)。存在于个体的成像的生物计量中的特征集合构成用于该人的标识符并且可用于认证用户,并且在一些实施方式中可用于确定该用户是否是活生生的对象。然后,存储这些标识符以完成登记阶段。在第二阶段中,测量个体的相同生物计量。就像在登记阶段中那样提取来自此生物计量的特征,以获得当前的生物计量标识符。如果目标是确定活性,则可以分析特征或特性以确定它们是否代表活生生的对象。如本文进一步描述的,可以分析生物计量的所捕捉的图像的其它特征和特性以确定活性。如果目标是识别,那么在第一阶段中生成的标识符的数据库中搜索此标识符。如果匹配发生,则揭示个体的识别,否则识别失败。如果目标是认证,那么将在第二阶段中生成的标识符与在第一阶段中为该特定人员生成的标识符相比较。如果匹配发生,则认证成功,否则认证失败。
应该注意的是,虽然图1描绘了用于关于移动设备101a和用户计算设备101b以及远程计算设备102而认证用户100的***,但是应该理解,任何数目的这样的设备可以以本文描述的方式与***交互。还应该注意,虽然图1描绘了用于关于用户124而认证用户100的***,但是应该理解,任何数目的用户可以以本文描述的方式与***交互。
应该进一步理解,虽然本文引用的各种计算设备和机器(包括但不限于移动设备101a和***服务器105以及远程计算设备102)在本文中称为单独/单个设备和/或机器,但是在某些实施方式中,所引用的设备和机器、以及它们关联的和/或附带的操作、特征和/或功能性可以在多个这样的设备和/或机器上组合或布置或另外采用,诸如,通过网络连接或有线连接,如本领域技术人员已知的。
还应该理解,本文在移动设备101a(也称为智能手机)的上下文中描述的示例性***和方法不具体限于移动设备,并且可以使用其它启用的计算设备(例如,用户计算设备102b)实施。
参考图2A,***100的移动设备101a包括用于启用***的操作的各种硬件和软件组件,包括一个或多个处理器110、存储器120、麦克风125、显示器140、相机145、音频输出155、存储装置190和通信接口150。处理器110用于以可以加载到存储器120中的软件指令的形式执行客户端应用。取决于特定实施方式,处理器110可以是多个处理器、中央处理单元CPU、图形处理单元GPU、多处理器核、或任何其它类型的处理器。
优选地,存储器120和/或存储装置190可由处理器110访问,由此使得处理器能够接收和执行在存储器中和/或在存储装置上编码的指令,以便使移动设备及其各种硬件组件对于***和方法的各方面进行操作,如将在下面更详细地描述的。存储器可以是例如随机存取存储器(RAM)或任何其它合适的易失性或非易失性计算机可读存储介质。此外,存储器可以是固定的或可移除的。取决于特定实施方式,存储装置190可以采取各种形式。例如,存储装置可以包含一个或多个组件或设备,诸如,硬盘驱动器、闪存、可重写光盘、可重写磁带、或上述的某个组合。存储装置也可以是固定的或可移除的。
一个或多个软件模块130被编码在存储装置190和/或存储器120中。软件模块130可以包括在处理器110中执行的一个或多个软件程序或具有计算机程序代码或指令集的应用(也称为“移动认证客户端应用”)。如图2B中所描绘的,优选地,软件模块130之中包括的是由处理器110执行的用户接口模块170、生物计量捕捉模块172、分析模块174、登记模块176、数据库模块178、认证模块180和通信模块182。这样的计算机程序代码或指令将处理器110配置为进行本文公开的***和方法的操作,并且可以以一个或多个编程语言的任何组合来编写。
程序代码可以完全在移动设备101上、作为独立软件包、部分在移动设备上、部分在***服务器105上、或者完全在***服务器或另一个远程计算机/设备上执行。在后一场景中,远程计算机可以通过任何类型的网络(包括局域网(LAN)或广域网(WAN)、移动通信网络、蜂窝网络)连接到移动设备101,或者可以进行到外部计算机的连接(例如,使用因特网服务提供商通过因特网)。
也可以说,软件模块130的程序代码和一个或多个计算机可读存储设备(诸如,存储器120和/或存储装置190)形成可以根据本发明制造和/或分发的计算机程序产品,如本领域普通技术人员已知的。
应该理解,在一些说明性实施例中,一个或多个软件模块130可以通过网络从另一个设备或***经由通信接口150下载到存储装置190以用于在***100内使用。此外,应该注意,与本***和方法的操作相关的其它信息和/或数据(诸如,数据库185)也可以存储在存储装置上。优选地,这种信息被存储在具体分派的加密数据存储器上,以便安全地存储由执行安全认证应用的处理器收集或生成的信息。优选地,加密措施用于在移动设备存储装置上本地存储信息并将信息发送到***服务器105。例如,可以使用1024比特多态密码、或者取决于导出(export)控制而使用AES 256比特加密方法,来加密这样的数据。此外,可以使用远程密钥(种子)或本地密钥(种子)来执行加密。如本领域技术人员将理解的,可以使用替代的加密方法,例如,SHA256。
另外,可以使用用户的生物计量信息、活性信息或移动设备信息作为加密密钥,来加密存储在移动设备101a和/或***服务器105上的数据。在一些实施方式中,前述的组合可以用于为用户创建复杂的唯一密钥,其可以使用椭圆曲线密码术在移动设备上加密,优选地,长度至少为384比特。此外,该密钥可用于保护存储在移动设备和/或***服务器上的用户数据。
还优选地,存储在存储装置190上的是数据库185。如下面将更详细描述的,数据库包含和/或维护在用于认证用户100的***和方法的各种操作中的各处利用的各种数据项和元素。存储在数据库中的信息可以包括但不限于用户生物计量模板和简档信息,如本文将更详细描述的。应该注意,尽管数据库被描绘为对于移动设备101a而本地配置的,但是在某些实施方式中,数据库和/或存储在其中的各种数据元素可以另外或替代地远程地定位(诸如,在远程设备102或***服务器105上—未示出)并以本领域普通技术人员已知的方式通过网络连接到移动设备。
用户接口115也可以可操作地连接到处理器。接口可以是一个或多个输入或输出设备,诸如,开关、按钮、键、触摸屏、麦克风等,如电子计算设备领域中将理解的。用户接口用于促进捕捉来自用户的命令(诸如,开关命令)或与用于认证用户100的***的操作有关的用户信息和设置。例如,接口用于促进捕捉来自移动设备101的某些信息,诸如,用于对***进行登记以便创建用户简档的个人用户信息。
计算设备101a还可以包括显示器140,其也可以可操作地连接到处理器110。显示器包括屏幕或任何其它这样的呈现设备,其使得***能够关于用于验证用户100的***的操作而指示或另外提供反馈给用户。举例来说,显示器可以是数字显示器,诸如,点阵显示器或其它二维显示器。
通过另一示例,界面和显示器可以集成到触摸屏显示器中。因此,显示器还用于示出图形用户界面,该图形用户界面可以显示各种数据并提供包括允许用户输入信息的字段的“形式”。在对应于图形用户界面的显示的位置处触摸该触摸屏允许人员与设备交互以输入数据、改变设置、控制功能等。因此,当触摸该触摸屏时,用户界面将此改变传递给处理器,并且可以改变设置,或者可以捕捉并在存储器中存储用户输入的信息。
移动设备101a还包括能够捕捉数字图像的相机145。相机可以是一个或多个成像设备,其被配置为在利用移动设备101a的同时捕捉用户的身体的至少一部分(包括用户的眼睛和/或面部)的图像。相机用于促进捕捉用户的图像以用于由执行安全认证客户端应用的移动设备处理器110进行图像分析的目的,所述安全认证客户端应用包括识别用于从图像中(生物计量地)认证用户的生物计量特征并确定用户的活性。移动设备101a和/或相机145还可以包括一个或多个光或信号发射器(例如,LED,未示出),例如,可见光发射器和/或红外光发射器等。相机可以集成到移动设备中,诸如,前置摄像头或后置摄像头,其并入了传感器(例如但不限于CCD或CMOS传感器)。如本领域技术人员将理解的,相机145还可以包括附加硬件,诸如,透镜、测光表(例如,勒克斯计)、以及其它可用于调整图像捕捉设置(诸如,变焦、焦点、光圈、曝光、快门速度等)的传统硬件和软件特征。替代地,相机可以在移动设备101a的外部。本领域技术人员将理解相机和光发射器的可能变化。另外,如本领域技术人员将理解的,移动设备还可以包括用于捕捉音频记录的一个或多个麦克风104。
音频输出155还可操作地连接到处理器110。音频输出可以是任何类型的扬声器***,其被配置为播放电子音频文件,如本领域技术人员将理解的。音频输出可以集成到移动设备101中或者在移动设备101的外部。
各种硬件设备/传感器160也可操作地连接到处理器。传感器160可以包括:板载时钟,用于跟踪一天中的时间等;启用GPS的设备,用于确定移动设备的位置;加速度计,用于跟踪移动设备的取向(orientation)和加速度;重力磁力计,用于检测地球的磁场以确定移动设备的三维取向;接近传感器,用于检测移动设备与其它物体(object)之间的距离;RF辐射传感器,用于检测RF辐射水平;以及如本领域技术人员将理解的其它这样的设备。
通信接口150还可操作地连接到处理器110,并且可以是使得能够在移动设备101a与包括***服务器105的外部设备、机器和/或元件之间进行通信的任何接口。优选地,通信接口包括但不限于调制解调器、网络接口卡(NIC)、集成网络接口、射频发送器/接收器(例如,蓝牙、蜂窝、NFC)、卫星通信发送器/接收器、红外端口、USB连接、和/或用于将移动设备连接到其它计算设备和/或诸如私有网络和因特网的通信网络的任何其它这样的接口。这样的连接可以包括有线连接或无线连接(例如,使用802.11标准),但是应该理解,通信接口实际上可以是使得能够向/从移动设备进行通信的任何接口。
在用于认证用户100的***的操作期间的各个点处,移动设备101a可以与一个或多个计算设备(诸如,***服务器105、用户计算设备101b和/或远程计算设备102)通信。这样的计算设备向/从移动设备101a发送和/或接收数据,由此优选地发起、维护和/或增强***100的操作,如下面将更详细描述的。
图2C是图示***服务器105的示例性配置的框图。***服务器105可以包括处理器210,其可操作地连接到用于使得能够进行用于用户100的认证的***的操作的各种硬件和软件组件。处理器210用于执行指令以执行与用户认证和交易处理相关的各种操作,如下面将更详细描述的。取决于特定实施方式,处理器210可以是多个处理器、多处理器核、或某个其它类型的处理器。
在某些实施方式中,存储器220和/或存储介质290可由处理器210访问,由此使得处理器210能够接收和执行存储在存储器220上和/或存储装置290上的指令。存储器220可以是例如随机存取存储器(RAM)或任何其它合适的易失性或非易失性计算机可读存储介质。另外,存储器220可以是固定的或可移除的。取决于特定实施方式,存储装置290可以采取各种形式。例如,存储装置290可以包含一个或多个组件或设备,诸如,硬盘驱动器、闪存、可重写光盘、可重写磁带、或上述的某个组合。存储装置290也可以是固定的或可移除的。
一个或多个软件模块130被编码在存储装置290和/或存储器220中。一个或多个软件模块130可以包括具有在处理器210中执行的计算机程序代码或指令集的一个或多个软件程序或应用(统称为“安全认证服务器应用”)。用于进行用于本文公开的***和方法的各方面的操作的这样的计算机程序代码或指令可以以一个或多个编程语言的任何组合来编写,如本领域技术人员将理解的。程序代码可以完全在***服务器105上作为独立软件包执行、部分在***服务器105上且部分在远程计算设备(诸如,远程计算设备102、移动设备101a和/或用户计算设备101b)上执行、或者完全在这样的远程计算设备上执行。如图2B中所描绘的,优选地,软件模块130之中包括的是由***服务器的处理器210执行的分析模块274、登记模块276、认证模块280、数据库模块278和通信模块282。
还优选地,存储在存储装置290上的是数据库280。如下面将更详细描述的,数据库280包含和/或维护在***100的各种操作中的各处利用的各种数据项和元素,包括但不限于用户简档,如将在本文中更详细描述的。应该注意,尽管数据库280被描绘为对于计算设备205而本地配置,但是在某些实施方式中,数据库280和/或存储在其中的各种数据元素可以存储在远程定位并通过网络(未示出)以本领域普通技术人员已知的方式连接到***服务器105的计算机可读存储器或存储介质上。
通信接口255也可操作地连接到处理器210。通信接口255可以是使得能够在***服务器105与外部设备、机器和/或元件之间进行通信的任何接口。在某些实施方式中,通信接口255包括但不限于调制解调器、网络接口卡(NIC)、集成网络接口、射频发送器/接收器(例如,蓝牙、蜂窝、NFC)、卫星通信发送器/接收器、红外端口、USB连接和/或用于将计算设备205连接到其它计算设备和/或通信网络(诸如,专用网络和因特网)的任何其它这样的接口。这样的连接可以包括有线连接或无线连接(例如,使用802.11标准),但是应该理解,通信接口255实际上可以是使得能够向/从处理器210进行通信的任何接口。
参考如下所述的用于促进捕捉生物信息和认证的方法,将进一步理解上述用于认证用户100的***的操作以及各种元件和组件。本文描绘的处理从移动设备101a和/或***服务器105的角度示出,然而,应该理解,处理可以全部或部分地由移动设备101a、***服务器105、和/或其它计算设备(例如,远程计算设备102和/或用户计算设备101b)、或前述的任何组合执行。应该理解,可以执行比图中所示和本文所述更多或更少的操作。这些操作也可以以与本文描述的顺序不同的顺序执行。还应该理解,一个或多个步骤可以由移动设备101a和/或在其它计算设备(例如,计算设备101b、***服务器105和远程计算设备102)上执行。
现在转至图3,流程图图示了根据本文公开的至少一个实施例的用于从一个或多个图像检测用户的生物计量特征的例程300。通常,例程包括捕捉和分析用户的至少多个手指的一个或多个图像。优选地,捕捉四个手指,然而,可以捕捉和分析更多或更少的手指,如本文所述的。如上所述,捕捉处理可以在用户的登记期间以及在随后的认证会话期间执行,这也关于图3而被描述。
应该理解,根据所公开的实施例,使用移动设备(例如,移动设备101a),可以捕捉图像并且可以来生成指示用户的独特生物计量特征和/或活性的生物计量标识符,所述移动设备是广泛可用的并且具有能够在至少可见光谱带中捕捉用户手指的图像的数字相机145。
该处理开始于步骤305,其中通过执行一个或多个软件模块130(优选地,包括捕捉模块172)配置的移动设备处理器110使相机145捕捉用户(124)的至少一部分的一个或多个图像,捕捉一只手的所有四(4)个手指。优选地,相机例如使用传统智能手机设备的后置摄像头捕捉高分辨率图像。如果可用,则可以用闪光照明捕捉图像以用于增加细节。
在一些实施方式中,在捕捉处理期间,提示用户将他们的手指定位在相机前面。在此过程期间,可以在设备显示器上给予用户来自相机的视觉反馈,使得用户可以适当地定位他们的手指。在一些实施方式中,显示器上显示的标记可用于引导用户将他们的手指放置在相机的视场中的具***置处,并且在离开特定距离处。例如,可以要求用户将他们的手指与覆盖在相机图像预览屏幕上的四(4)个手指轮廓对准,因此,当用户填充相机预览上的手指的轮廓时,用户将知道他们的手指距相机适当的距离。在一些实施方式中,用户可以将他们的食指、中指、无名指和小拇指保持在一起、而不是将它们间隔开。然后,在一些实施方式中,可以要求用户分别开捕捉每只手的大拇指。在一些实施方式中,用户将是新生儿,其将由成人帮助捕捉手指的图像。可以通过所配置的处理器来设置相机的焦点以聚焦在手指上,这可以被假设为屏幕上手指位置指引的位置。在一些实施方式中,将训练分类器以检测图像中的手指,并且一旦手指被检测到并且聚焦,此分类器就可以触发相机捕捉图像。在一些实施方式中,可用于检测图像中的手指的分类器可以是已经使用常规Haar特征训练的Haar级联分类器、或适合于检测手图像(以及脚图像,例如,在新生儿识别***的情况下)中的手指的预定义和预设计的滤波器。在一些实施方式中,可在使用分类器来检测所捕捉的图像中的手指之前将图像增强过程应用于图像。在一些实施方式中,可以在应用手指分类器之前应用的图像增强过程可以被设计为带通滤波器,其使指纹脊频率通过但最小化失焦背景频率。
然后,可以检查所捕捉的图像,并且将通过分析手指的脊来确定所捕捉的生物计量样本的质量。此质量度量可以是以下脊性质的融合度量:频率、取向、锐度和连通性。如果质量度量低于预定阈值,则可以建议并引导用户再次重复捕捉过程。
在捕捉手指之后,然后在步骤310,将识别每个手指的区域。然后,在步骤315,增强区域,然后,在步骤320,可以独立地提取并且分别存储每个手指的有辨别力的特征空间。更具体地,在步骤310,所配置的处理器110可以执行自动手指检测算法以检测图像中的手指。例如,示例性手指检测算法可以包括分段算法的应用以将手指与背景区分开。例如,这可以通过将图像分成均匀区域、然后检查每个区域并将其分类为手指或非手指区域来执行。此外,这可以例如通过使用检测和分类手指和指尖的分类器来执行。在一些实施方式中,可以用于检测不同手指、对它们进行分类以及检测指尖的分类器可以是训练的Haar级联分类器、HOG级联分类器、LBP级联分类器或这些分类器的组合。可以对已知示例图像执行分类器的训练,如本领域已知的。注意,可以首先使用被训练来找到手的分类器来缩小搜索区域,以用于其它手指寻找分类器提高速度和准确性。还注意,这样的分类器可以与其它指尖位置寻找技术结合使用,以提供提高的准确性。在一些实施方式中,使用分类器识别的区域可以通过边界突出显示并在移动设备显示器上显示给用户。例如,标识为指尖段的区域可以由图像中突出显示所识别的区域的边界限定。边界可以是各种形状,包括矩形或椭圆形边界,并且可以突出显示不同的段,包括指尖、手、一组手指、其它手指区域等。一旦指尖位置已经由用户确认,用户登记数据就可用于帮助训练分类器。例如,在一些实施方式中,捕捉和检测手指和指尖的处理可以在以下步骤中概括。(1)捕捉手图像,然后(2)调用被训练以找到第一指尖区域的级联分类器,然后调用被训练以找到第二指尖区域的另一个分类器,等等。
作为示例而非限制地,可以实施对分类器(诸如,LBP分类器)的使用以在图像中找到指尖,此外,也有利的是,首先使用分类器以找到手的主要区域,比如整只手或手的4个手指),然后是在主要区域内定位次要(minor)区域(诸如,指尖或中间指骨)的其次的方法。该其次的方法可以是被训练为定位每个次要区域的另一个分类器。可以使用预期关系(例如,每个次要区域(例如,当手被保持平坦且手指闭合时的四(4)个手指)之间的规定关系具有可用于排除误匹配的已知位置关系)的知识来进一步过滤次要分类器的结果。可以通过找到其它突出的手特征(诸如,手指之间的连接)的位置、并使用此信息以过滤来自分类器的结果,来应用进一步的过滤。此外,当用户将手指呈现给相机时,主要的分类器可以被实时使用来跟随手指,并确保在自动触发图像捕捉和/或生物计量匹配之前对于手优化焦点和曝光。
如前所述并在本文中进一步描述的,处理器可以被配置为当用户正将手指呈现给相机并且正使用相机捕捉图像时实时检测和跟踪手指。可以使用图像的跟踪位置以检测手指何时在位置上足够稳定,并且改善验证图像的质量和手指辨识的可靠性。
在一些实施方式中,处理器可以被配置为通过在客体检测方法与更快的跟踪方法(诸如,模板匹配或光流)之间动态切换来加速实时手指检测。例如,当已经检测到四个指尖的集合并且已经确定它们表示手时,所配置的处理器可以使用光流算法来跟踪手指。结果,与例如级联分类器也被应用于随后的图像帧的情况相比,可以以显著更低的等待时间和更高的帧速率来跟踪手指位置。可以通过将由处理器搜索的图像中的搜索空间限制到局部图像区域来实现高速,并且处理器可以被配置为仅匹配表示不同特征(诸如,手指的中心)的像素。
如果手指移位太远或者离开视场,则客体跟踪可能失败。在处理器检测到失败时,处理器可以恢复到初始客体检测方法,例如,级联分类器。在跟踪四个手指的情况下,处理器可以测量手指的相对位置(例如,手指中心之间的距离)并且如果已经确定距离已经显著改变(例如,超过规定的阈值),则***可以恢复到客体检测。
优选地,捕捉***能够检测用户的手指何时保持静止(在某个容忍度内)以防止验证图像中的运动模糊。例如,这可以通过跟踪帧之间的客体(例如,计算行进的矢量)并且当客体的速度落在阈值速率之下时捕捉高分辨率验证图像来实现。
定位客***置时的小错误可以传播到速率矢量的计算中。诸如级联分类器的方法通常在帧间引入客***置中的人为波动(客体中心“抖动”)。此位置噪声干扰确定客体何时静止。然而,如上所述,使用光流进行跟踪具有更低的噪声并且提供客***置的更快更新,并且可以使静止客体检测明显更可靠。
此外,在一些实施方式中,手指长度信息可以被存储并用作指尖识别算法的一部分,可以对在图像中的特定相对位置处预期指纹的事实赋予某个权重,并且这可以改善指纹寻找算法的可靠性,并且例如帮助拒绝错误的纹印匹配。对于关于每个手指的高度和宽度的信息,也是如此。另外,用户皮肤的颜色可以在登记时存储并用作进一步的生物计量识别和/或活性验证度量。这具有以下优点:拥有正确纹印但不具有正确肤色的欺骗纹印可以作为欺骗被拒绝(例如,粉色硅胶模具、或来自恢复的潜在指纹的黑白激光纹印)。
图4描绘了用于从手指的捕捉图像的指尖检测的示例性例程400和对应的图像。如所示的,在步骤405,获得包括多个手指的捕捉图像。示例性高分辨率图像被示出为图像405a。在步骤410,将图像缩小/转换为灰度图像,并且应用主要级联以检测图像内的手。在图像410a中描绘了示例性灰度图像和在所检测的手区域周围描绘的多个边界。在步骤415,选择最大的检测的手区域,并且扩大该区域以包括进一步指尖检测的周围区域(例如,扩展区域)。在图像415a中描绘了示例性灰度图像和在所选择和扩展的手指区域周围描绘的边界。然后,在步骤420,应用一个或多个更高灵敏度级联分类器以检测次要区域,即,每个手指的指尖区域。在图像420a中描绘了示例性灰度图像和在多个检测的指尖区域周围描绘的边界。如所示的,所检测的指尖区域可能超过图像中实际指尖的数目。然后,在步骤425,过滤指尖区域。本文关于图4B进一步描述过滤。在图像425a中描绘了示例性灰度图像和在所过滤的检测的指尖区域周围描绘的边界。然后,在步骤430,调整指尖感兴趣区域(ROI)(例如,调整尺寸或向下延伸)以校正纵横比。在图像430a中描绘了示例性灰度图像和在所检测且调整尺寸的ROI周围描绘的边界。
手指检测优选地对室内和室外光照是稳健的,其中利用照明拍摄的图像可以是显著不同的。例如,在低光环境中,背景通常曝光不足并变暗,而在强烈的漫射阳光下,背景亮度可超过手指的亮度,并且阴影可显著不同。因此,在一些实施方式中,可以通过由移动设备处理器确定环境光的量、并且基于所检测的光级实时切换到用于特定光级的更优路径,来改善手指检测方法。例如,光级可以从基于硬件的勒克斯计(诸如,在移动电话上找到的用于调整屏幕亮度的基于硬件的勒克斯计)读取、或者从相机曝光设置估计。
在一个这样的实施方式中,特定于各个光级的一个或多个分类器可以被存储并且可用于处理器执行手指分段。例如,可以对在高环境光下拍摄的图像训练用于检测手指的一个或多个区域的第一级联分类器,而对在低环境光下拍摄的图像训练第二级联分类器。基于所测量的光级,所配置的移动设备处理器可以应用适当的分类器。更具体地,处理器可以作为默认而使用第一分类器用于检测,除非光级超过阈值,在该情况下可以使用第二分类器。分类器之间的切换可以实时发生,例如,如果正在捕捉和分析具有不同环境光照水平的图像帧序列。还可以理解,应用环境光特定分类器的前述方法可以应用于在处理期间初始捕捉的图像(例如,在用户正将他们的手指在相机前面的适当位置的同时捕捉的低分辨率图像)或随后的高分辨率图像捕捉(例如,在手指在初始图像捕捉中被检测到并且被确定为对焦之后捕捉的高分辨率图像)。
此外,在一些实施方式中,基于所测量的光级,所配置的移动设备处理器可以选择性地实施人工闪光(artificial flash)图像预处理步骤,如下面进一步描述的。例如,当光级足够高时,可以应用人工闪光处理,以便避免利用闪光灯照明对象。
没有一种方法对于手指检测保证100%成功,但是,处理器可以被配置为计算用于检测质量的计量,并且基于该计量应用一系列检测方法,直到达到足够高质量的结果为止。例如,在检测所有四个手指的情况下,所配置的处理器可以计算分数以确定四个检测的哪个集合最有可能表示手,如本文进一步描述的。如果此分数差(例如,不满足规定阈值)、或者手指缺失,则所配置的处理器可以应用进一步的检测技术。进一步的检测技术可以是不同训练的分类器或一些其它不相关的方法的形式。此外,在一些实施方式中,所配置的处理器可以根据用户的已知手计量(例如,如从先前的登记或认证捕捉确定的)来估计缺失的手指位置。可以理解,应用这些方法的特定顺序不必是不可变的,并且实施的特定检测技术和应用的顺序可以由处理器作为测量的环境条件、特定移动设备的硬件能力的函数而选择性地应用,或者为具体用户随时间定制(例如,基于训练和/或机器学习算法)。鉴于前述,可以理解,为了改善检测的速度,处理器可以被配置为应用分层分段方法,其中首先应用更快(并且可能更不准确)的分段算法,并且在结果的质量不够的情况下,过渡到更稳健(并且有时处理更密集)的分段算法,以更准确地检测指尖段。
如上所述并且本文进一步描述的,由移动设备处理器实施的示例性基于手指的辨识算法可以包括一个或多个图像增强步骤,以改善手指检测和特征提取。因为诸如级联分类器的检测方法通常在灰度图像上运作,因此,例如,如果仅使用亮度作为输入,则颜色信息丢失。因此,通过在转换到灰度之前增强表示预期颜色的区域,可以有益地改善用于检测具有已知颜色特性的客体(诸如,人手)的方法。
在一个示例性实施方式中,适用于由处理器实施的手指检测的图像预处理方法包括自适应皮肤模型。更具体地,处理器可以被配置为分析所捕捉的图像中的一个或多个并且例如通过检测图像内的手来定位已知肤色的区域,然后计算颜色模型。然后,将图像转换为HSV颜色空间,并且将概率密度函数(PDF)拟合到预定皮肤区域内色调的分布和像素的饱和度值两者。图像中的剩余像素位于PDF内,并且提取表示像素表示皮肤的可能性的概率(p值)。优选地,该处理是迭代的,因为超过阈值p值的所有像素用于完善先前模型,然后使用处理器将所更新的模型应用于所有像素。在一些实施方式中,通过假设皮肤区域是连续的,具有低p值但被具有高p值的像素包围的像素也可以包括在模型中。在固定次数的迭代之后、或者当皮肤像素的数目不再显著增加(即,不再增加规定量,收敛)时,可以停止该处理。然后,所收敛的p值可以被直接使用(转换为灰度图像)作为用于进一步检测算法的输入,或者另外或者替代地,可以用于相对于背景、非皮肤区域变亮加亮图像中的皮肤区域(例如,充当“人工闪光”)。
在手指在相对的预定位置呈现给移动设备相机(例如,如使用屏幕上指引而引导的)的情况下时,处理器可以被配置为假设特定区域很有可能表示肤色(例如,指南中手的集中区域)。因此,此假设的区域可以充当用于构建皮肤模型的初始区域。另外或替代地,可以当用户对***进行登记(例如,在不使用皮肤模型的情况下完成)时记录肤色。
图4B描绘了用于过滤检测的指尖区域/段的示例性例程450(即,图4A的步骤425)。过滤通常是指选择最佳的指尖段集合(即,为每个手指选择最有可能对应于实际指尖段的指尖段)。
该处理开始于步骤455,其中指尖检测在水平(“X”)方向上排序(sort)(例如,根据手指的顺序在垂直于手指取向的方向上布置)。然后,在步骤460,使用多个检测的指尖区域生成四个指尖区域的组合。在图像460a中描绘了示例性灰度图像和在四个检测的指尖区域的组合周围描绘的边界。
然后,在步骤465-480,对四个指尖区域的组合集合中的每个进行评分。评分包括分析指尖区域以确定各个指尖区域和/或多个指尖区域的物理特性,并将所测量的特性与预期特性相比较。如本文进一步描述的,评分可以基于一个或多个指尖段相对于其它指尖段、并且另外或替代地相对于多个手指的物理特性、诸如先前检测的手区域的总宽度(例如,如在步骤415检测的“手宽”)的物理特性的比较分析。
更具体地,在一些实施方式中,可以将集合中的检测的组合宽度与手宽相比较并且基于该比较对组合宽度进行评分。另外或替代地,考虑到手宽,也可以相对于手指段的预期宽度分布对检测的宽度(例如,相邻手指段之间的中心到中心距离)的分布进行评分。可以将预期宽度分布确定为从先前识别的手指的训练集合的平均。训练集合和该集合可以根据手宽进行归一化,以用于准确比较。例如,图像470A描绘了四个手指的示例性灰度图像、在四个检测的指尖区域/段的组合周围描绘的边界、以及相邻段d1、d2和d3之间的所测量的中间到中间距离。
在一些实施方式中,每个特定比较可以被分配权重,使得所计算的分数是权重的函数。例如,可以通过分配较低的权重来使不太确凿/重要的度量(例如,具有较低精度或准确度或具有较低可靠性的测量值)打折扣(discount),以便不会使评分的整体结果偏斜。作为示例而非限制地,由于小拇指的相对长度在个体之间具有较高的变化幅度(variance),因此可以相应地“向下加权”与小拇指相关地确定的Y中所测量的距离的影响。图4C中的表470B描绘了用于对相对距离特性进行评分的示例性宽度、权重和预期宽度。如表470B所示,相邻手指之间的示例性预期相对距离是四个手指的总宽度的1/4,并且每个手指被分配权重1。
在步骤475,指尖段的宽度也可以相对于其它指尖段进行评分。手指宽度的比较可以基于特定手指的预期相对宽度。例如,预期食指相对于端指更大,因此,可以根据这样的个体手指段比较来对指尖区域/段的相对宽度进行评分。在图像475a中描绘了手指的示例性灰度图像和对应于两个中间手指(食指和中指)的四个可能的检测的指尖区域。
类似地,在步骤480,可以根据各个指尖段的预期长度对指尖区域在Y方向上的相对位置进行评分。例如,通常预期中间两个手指相对于端指(end finger)在Y方向上更高,并且可以根据这样的预期的相对位置特性对指尖段进行评分。因此,可以分析指尖段在Y方向(即,与手指的取向平行的方向)上的高度的分布。更具体地,分析Y中的分布包括分析手指的“长度图案”,如480a所示。也就是说,预期食指比中指短,中指比无名指长,并且无名指比小拇指长。因此,对于对象的感兴趣区域应该从食指到小拇指具有在Y中遵循“向上,向下,向下”图案的位置。可以将精确预期的图案确定为从先前识别的手指的训练集合的平均。可以理解,训练集合和指尖段集合可以根据相应的手指和/或手的尺寸而被归一化,以用于准确比较Y中的相对长度和/或位置。因此,处理器可以被配置为计算在各个感兴趣的区域/段的顶部界限之间在Y中的距离,由此给出三个距离:食指到中指、中指到无名指、无名指到小拇指。然后,处理器可以使用手宽来使距离归一化,使它们在手的不同缩放比例上可比。此后,可以将距离与预期图案相比较,并且可以将手指的组合评分为比较的函数。在图像480a中描绘了手指的示例性灰度图像和在Y方向上正被比较的四个可能的检测的指尖区域。还可以理解,指尖区域的相对高度、宽度、Y位置和X位置也可以根据重要性和/或可靠性而被加权。
除了前述度量之外,所配置的处理器还可以根据所描绘的指尖段的照明特性对指尖段的组合进行评分。更具体地,可以预期手指在图像中以大致相等的照明出现。因此,对于指尖段的每个组合,所配置的处理器可以测量指尖段的组合上的照明并对照明的变化(variance)进行评分。对于速度和准确度,仅每个指尖段的中心处的像素值(例如,在10乘16的矩形内)可以被求和,并且确定4个求和的变化。高变化意味着一个或多个指尖段被错误地定位并且可以被分配更差的分数。
然后,在步骤485,对指尖区域的组合的累积分数进行加权、求和,并且根据所计算的分数识别段的最佳组合。在图像485a中描绘了手指的示例性灰度图像和在四个检测的指尖区域的最佳评分组合周围描绘的边界。
此外,在一些实施方式中,可以通过分析每个区域内的边缘的频率和取向来执行检查。另外或替代地,图像的包含手指的段可以被识别为主要填充屏幕上手指定位指引的位置的段。
在一些实施方式中,在例如仅使用四(4)个手指用于识别的情况下,用于登记和验证四(4)个指纹的强健过程可以如下运行:a).引导用户将他们四(4)个手指定位在相机前面并捕捉闪光图像。b).可选地,使用图像处理算法(如前所述)以识别四个纹印(和其它感兴趣区域)的位置。c).通过例如在纹印区域上叠加椭圆来向用户突出显示这些区域,并请求用户接受指纹辨识为准确的,或者通过将椭圆拖动到正确位置来调整错误定位的指纹椭圆。这样确保准确的登记纹印。d).使用准确登记的纹印用于未来的验证过程。这可以包括使用登记的纹印在验证图像中找到验证纹印的处理。
此外,在一些实施方式中,在捕捉四(4)个手指的情况下,然后可以通过在每个相邻手指之间定义接缝、例如通过定位在脊取向上存在扰动的点,来将四个手指的所检测的图像分割成四个单独的手指。这些点被称为奇点。然后,可以利用K均值聚类算法以将所确定的点聚类成表示四个手指的四(4)个聚类。在一些实施方式中,K均值可以使用特殊距离函数以计算将在聚类算法中使用的距离矩阵。此特殊函数将导致对位于同一手指上的点的更少的距离度量,即使这些点相对于传统的欧几里德距离较远也是如此。然后,可以利用区域增长分段算法来分别对每个手指进行分段。
然后,对于每个手指,可以在图像内至少识别每个手指的远端指骨的区域。优选地,识别位于手指段的尖部与中间和远端指骨之间的较粗线之间的手指区域,因为其包含作为微小细节的最有辨别力的特性。
手指和手都具有相对受限的可能造型的空间,因此,在一些实施方式中,主动形状模型和主动外观模型可以是用于实施非接触式指纹辨识的有用方法。例如,为了从目标图像对手进行定位和分段,首先通过在示例图像内的手特征(诸如,指尖界限)上放置点集来计算点分布模型。然后,通过使用对用户手放置的指引或其它图像处理技术形成关于手位置的初始估计,在目标图像内初始化模型。例如,级联分类器可用于提供对于手位置的初始估计。然后,通过迭代地将模型的最佳拟合与图像数据相比较并更新点位置,找到模型的最佳拟合。
拟合模型的点用于提取感兴趣区域以用于辨识。例如,描述指尖界限的点用于提取指纹。
类似地,描述手指的形状的主动形状模型可用于对各个指尖进行分段。例如,首先使用级联分类器找到包含指尖的图像区域,然后使用该模型对所述图像区域进行分段以移除背景和相邻手指两者。此外,可以为各个用户定制主动形状模型。例如,在给定由用户在***登记期间确认的正确的模型拟合的情况下,调整模型以更好地描述各个手和手指形状。这提高了辨识的速度和可靠性,并且与模型的偏差可以用于识别欺骗。
为了最大的指纹提取质量,可以提示用户将他们的手和手指放在相对于照明光源和相机的位置的最优位置,例如,在设备的显示器上提供最优手指放置的视觉指引或轮廓。这可以是将指纹定位在相机的视场的中心附近,其中纹印对相机的最大角度约为+/-20度。例如,可以将手指放置得离光源足够远,以便使利用照明光线的入射角最小化,从而在为了足够强烈的照明而足够靠近的同时防止有角度的表面上的细节的损失。同时,手指被确定取向为最大程度地将照明朝向相机反射并且被定位得足够靠近相机以确保足够的像素密度以用于辨识。
可以通过向智能手机相机***添加额外的照明源或扩展源以扩张照明源的空间范围,进一步增强捕捉的纹印质量。例如,通过在智能手机或平板型计算机的角落添加4个LED,将有利地通过指纹的更多区域反射光,从而导致更高的纹印捕捉质量。
一旦识别了手指的相关区域,在步骤315,可以增强相关区域。更具体地,通过执行软件模块130(优选地,包括分析模块172)配置的移动设备处理器110可以处理图像的部分以增强图像的细节,例如,使用调谐到平滑的脊取向图的贾柏(Gabor)滤波器集合。在一些实施方式中,此图像增强的主要目的是生成指纹图像,该指纹图像类似于使用现场扫描传感器捕捉并且通常存储在作为IAFIS的遗留数据库中的指纹压痕的图像。此相似性意味着使用移动设备捕捉的图像模仿与从实时扫描传感器捕捉的图像相同的质量和属性。期望此相似性以保证将由移动设备捕捉的图像与存储在诸如IAFIS的遗留数据库中的指纹压痕的图像匹配的可能性。
为了改善来自指尖的有辨别力的特征的提取,使用增强滤波器提升脊与沟之间的对比度可能是有利的。在一些实施方式中,移动设备处理器可应用直方图均衡以通过在可能的值范围(通常在灰度图像中为[0,255])上均匀分布强度来提升局部图像对比度。这可以通过计算像素强度的累积直方图、归一化到允许范围中的最大值、以及根据源像素在此分布中的位置重新映射源像素来实现。
对比度增强具有不加区分并因此增强背景噪声以及感兴趣的信号的缺点。因此,在对比度增强之前通过过滤仅隔离出那些感兴趣的信号可能是有益的。例如,处理器可以应用带通滤波器以移除具有与指纹脊的预期频率不对应的频率的信号。一个这样的实施方式通过从原始源图像中减去高斯模糊过滤的源图像来移除高频。然后,可以通过应用具有适当地更小的半径的另一高斯模糊滤波器来再次对结果进行过滤以移除低频。然后,可以将直方图均衡应用于带通的结果,以得到用于特征提取的最优图像。
在步骤320,提取每个手指的微小细节并且生成生物计量标识符。如本领域技术人员将理解的,微小细节指的是指纹的脊结束的点,并且纹理指的是由脊定义的图案。更具体地,通过执行软件模块130(优选地,包括分析模块172)配置的移动设备处理器110使用诸如微小细节提取算法的算法分析增强的图像以从每个手指的至少远端区域提取特征。
大多数用于指纹比较的自动***是基于微小细节匹配;因此,可靠的微小细节提取是重要任务。许多这样的方法需要将指纹灰度图像转换成骨架图像。然后,简单的图像扫描允许检测对应于指纹脊结束和分叉的微小细节的像素。提取的微小细节可以被存储为二维平面中的点集。
最后,基于微小细节的匹配算法可以由所配置的处理器执行,以生成指纹之间的相似性分数。这些匹配算法通过找到模板与导致最大数目的微小细节配对的输入微小细节集之间的对准,来计算指纹之间的相似性分数。
可以将从远端区域提取的特征与从手指和/或手的其余识别的区域类似地提取的其它特征一起存储。这样的特征可以以包括一个或多个特征矢量的一个或多个生物计量标识符来表征。
在登记期间,在步骤325,将这样的特征矢量作为生物计量标识符(例如,模板)存储在存储器中,以用于确保用户验证步骤。替代地,在用户验证(步骤330)期间,将生物计量标识符与在登记期间存储的版本相比较。
更具体地,在验证处理期间,捕捉用户的手指并且生成生物计量标识符,如关于步骤305-320而描述的。然而,在步骤330,然后将查询特征矢量与所登记和存储的特征矢量相比较。基于该比较,由所配置的处理器110生成与匹配的相似性相关的匹配分数。如果匹配分数表示足够接近的匹配,则可以确定用户通过验证过程。
在一个或多个实施方式中,匹配分数可以是基于分别将查询指纹(例如,查询特征矢量)与登记的指纹匹配并确定组合匹配分数的组合匹配分数。更具体地,从手图像的数据库中,可以将图像配对,其中具有两个不同类别的对:同一只手的图像对和不同手的图像对。对于这些手上的每对手指(例如,食指与食指),可以计算匹配分数,其测量这些手图像的靠近度,其中更高分数表示更靠近的匹配。
可以绘制这些分数以形成分数分布。对于每个类型的手指(例如,无名指),存在两个分布,即,来自同一只手的同一手指、以及来自不同手(即,冒名顶替者)的同一手指的匹配图像的那些分数。
这些分数分布可以被认为是概率分布,其给出给定匹配分数属于分布之一的概率。这些在经验上推导出的分布可以被平滑噪声,并通过将它们拟合到已知分布、例如伽马分布而被紧凑地表征。
在给定未表征的手指图像对的情况下,示例性识别***可以被配置为确定匹配分数。然后,可以使用这些拟合的概率分布以确定该手指图像对属于同一手指或不同手指的概率比(似然比)。
当进行全四指匹配时,所配置的***可以针对已知对象的先前登记图像(“图库”图像)测试一个未知图像(“探测”图像)。对于针对图库手指的每对探测手指,***可以确定似然比。然后,可以将这些比相乘在一起,并且最终结果提供探测图像属于提供图库图像的对象的机会的总体度量。
此方法具有不会被具有较差预测能力的具体手指降级的优点;具体地,小拇指与其它手指相比不太可能提供清晰的预测匹配。还允许针对坏图像的某个容忍度;如果一个手指进行较差匹配,则如果另一个手指进行特别好的匹配,则可以进行补偿。
虽然在多个手指上组合分数提供了对坏图像的容忍度,但理论上可以使单个探测/图库匹配分数足够大以导致整体通过。例如,如果攻击者能够生成所授权的用户的一个手指的非常高质量的复制本(facsimile),则这可以使得更容易产生欺骗。缓解此问题的示例性方法可以包括在匹配和评分处理期间由处理器要求最小数目的探测手指以分别产生跨越次要阈值的匹配分数、以及要求匹配分数的组合通过主要匹配阈值,以便确定正匹配。因此,此措施将需要任何成功的欺骗成功地复制该最小数目的手指,这是比成功复制单个手指更困难的任务。可以理解,可以调整评分在认证处理所需的次要阈值之上的手指的最小数目以及次要阈值的值,以在满足实施方式的安全需求时在欺骗的风险与对降低的图像质量的适应力(resilience)之间交换(trade)。
通常,当将查询手指数据与登记的手指数据相比较时,重要的是,确保各个图像的缩放比例类似。因此,在步骤320的指纹图像的分析期间,所配置的处理器110可以确定指纹脊的基频。在登记(例如,步骤325)期间,所配置的处理器可以存储基频。在验证(例如,步骤330)期间,所配置的处理器可以在比较之前缩放验证纹印的基频以匹配所登记的纹印的基频。另外或替代地,处理器可以将纹印的频率归一化到规定的参考频率,例如一(1),使得不必存储实际频率。因此,在辨识期间,可以将查询纹印归一化到所规定的参考值。
应该理解,可以在生成特征矢量之前或者在认证期间比较特征矢量之前对图像帧执行一个或多个预处理操作。作为示例而非限制地,在分析之前对图像数据的预处理可以包括在坐标空间等中定向图像帧,如本领域技术人员将理解的。
涉及实施现有缩放算法的基于图像的指纹识别的现有技术通常错误缩放大约2%的指纹,导致在认证期间的误拒绝。这部分地是由于那些使用图像中的不足数量的参考点(即,仅使用两个点,即,指纹的尖点/起点和纹印的基点/终点)来据此推断尺寸和缩放比例的算法导致的。为了改善缩放操作,根据所公开的实施例中的一个或多个,处理器可以实施分析指纹的平均频率(例如,每英寸的线条的典型数目)并相应地归一化纹印的缩放比例的算法。由于此技术基于在纹印的区域上的许多点处取得的纹印的像素的更大集合来判断缩放,因此可以在缩放处理期间实现相当高的可靠性。
在登记和验证步骤之前和/或之后,该方法还可以包括检测活性的步骤。活性检测在图3中被描绘为步骤335。可以实施活性检测方法以验证所捕捉的四(4)个手指图像来自真实手指、而不是例如手指的印刷欺骗或模具。更具体地,在一些实施方式中,通过执行软件模块130(优选地,包括分析模块172)配置的移动设备处理器110可以分析手指的图像质量并确定它们是否与来自活性手指和/或假手指的图像一致,假手指通常具有明显的伪像,诸如,降低的分辨率和锐度。
例如,如本文进一步描述的,一种活性检测技术可以是在成像期间提示用户旋转手,并且所配置的处理器可以使用例如来自运动技术的深度和来自聚焦技术的深度来确定成像的手适当地是三维的。替代地,***可以实施用于被动活性检测的技术,例如,用以分析图像质量以核查其足够锐利而不是低分辨率(例如,来自手的欺骗印刷物)。所配置的处理器还可以分析手指的颜色以确定着色是否与活性手图像和/或用户的手的已知颜色一致。因此,在一些实施方式中,可以通过同时检测指尖和手来执行手的颜色一致性(换句话说,颜色均匀性)。然后,分离不包含指尖的手的由手掌和下指骨(即,近端和中间)组成的区域,然后确定此区域的颜色直方图和4个检测指尖区域的颜色直方图。最后,在一些实施方式中,比较这两个直方图可以用作用于手和手指的颜色均匀性的测试,以确定活性度量,尤其是,如果攻击者使用模具(即,假手指)来欺骗***。另外,所配置的处理器还可以请求用户用他们的手指做出一个或多个手势,例如,展开和闭合手指、或者以特定方式移动某些手指。
此外,在一些实施方式中,可以训练分类器以区分活者与欺骗。可以训练分类器以使得其学习真实手指图像与各种欺骗图像之间的差异。然后,实施分类器的处理器将被配置为基于其训练提供通过失败结果。
此外,在一些实施方式中,作为生物计量活性的额外因素,可以考虑指纹在图像中的位置,即,真正的(genuine)用户将具有特定长度的第一、第二、第三和第四手指。因此,当用户将他们的手保持为手指一起伸开和闭合时,四(4)个指纹的位置应该具有与该特定用户一致的相对定位。此信息可用作附加安全核查,以帮助防止欺骗攻击。例如,在手机屏幕上找到潜在纹印的攻击者不太可能能够推断用户的手指的长度,因此不太可能正确地呈现它们。
进一步对于关于图3描述的示例性***和方法,考虑各种替代和变化。在一些实施方式中,用户的手指的登记图像不一定由移动设备相机捕捉。相反,可以从诸如预记录的手指图像数据库的替代源获取手指特征矢量。
在一些实施方式中,在登记处理期间,为了捕捉手指(例如而非限制地,具有改善的分辨率的四个或十个手指),可以在各个图像中顺序地捕捉每个手指的图像。在此情况下,在登记过程期间,所配置的显示屏幕上手指指引的处理器可以提示用户一次将一个手指定位在屏幕上,并且分段算法可以用于分别识别手指的远端指骨和指纹区域。
在一些实施方式中,代替将匹配处理(例如,步骤330)限制于指尖(例如,远端指骨)区域的比较,除了指纹之外或者代替指纹,比较还可以包括手的其它部分。例如,感兴趣的区域可以包括手的具有可检测图案的任何部分、或远端和中间指骨、或掌骨。这些区域中的一些具有增加的优点:它们更能抵抗欺骗攻击,从而提供更高级别的安全性。例如,用户的指尖纹印通常可以在智能手机外壳或用户已经触摸的其它表面上找到。这些潜在的指纹可以被冒名顶替者拷贝,并且创建可以通过验证的模具。然而,在掌骨处的纹印更难以找到,因为手的这些区域接触表面以留下潜在纹印是不太常见的。
在一些实施方式中,代替使用奇点以将四手指簇分离成单独的手指,可以提示用户在捕捉期间展开他们的手指。然后,可以使用分段算法来隔离手指,并且可以使用轮廓变形方法来识别每个指尖的位置。
在一些实施方式中,可使用肤色、频率和取向来执行相关手指区域的分段。例如,索贝尔算子可以由所配置的处理器实施以强调聚焦的区域(即,手指而不是背景),以帮助分段处理。另外或替代地,还可以通过简单地从所捕捉的图像中提取与在捕捉处理期间用户被引导以放置其手指的区域相关的固定区域来完成分段。
在一些实施方式中,在认证处理期间,可以使用登记的纹印信息来执行分段。通过基于在登记期间生成的纹印模板来对指纹特征进行分段和识别和/或匹配可以提供对现有技术的改进。例如,现有的基于图像的指纹识别技术在登记和认证期间以相同的方式隔离指纹,并且因此将单个指纹与图像隔离,从而不能令人满意地成功进行可靠使用。在某些实例中,使用现有方法的成功隔离仅在96%的时间发生,导致在认证期间4%的误拒绝。通过分别在多个手指上使用该技术,此问题很复杂。
然而,根据所公开的实施例中的一个或多个,由所配置的处理器、即在认证期间使用登记的纹印以找到手指并隔离/匹配纹印的处理器执行用于指纹隔离的不同算法。这提供了显著地更稳健的性能。在一些实施方式中,所配置的处理器可以例如通过从整个四手指图像中提取手指特征(例如,微小细节)、并通过穷尽地比较图像中的所有位置与来自登记的纹印的手指特征来定位手指区域,实施分段处理。将知道手指区域位于找到所登记的手指以匹配图像中的手指特征的位置。此外,为了最小化由图像中的随机特征误匹配的可能性,可以核查所匹配的区域的有效性,例如,在捕捉四(4)个手指过程的情况下,通过确保第一、第二、第三和第四手指被大致找到为如从用户指引覆盖图像预期的,肤色如预期的,等等(例如,使用登记模板来引导比较的模板匹配)。此外,不是使用此处理以搜索整个图像以用于手指定位,而是可以将搜索范围限制到从用户指引覆盖图像预见手指的区域。
除了使手指缩放基于基本脊频率之外、或替代于使手指缩放基于基本脊频率,处理器110可以被配置为基于以下中的一个或多个来缩放纹印:所分段的四手指簇的宽度、每个感兴趣的手指区域的宽度或长度、或在手指上的具体点(诸如,奇点)和指骨关节处的较粗线条上。
连同基于微小细节匹配手指一起(或代替基于微小细节匹配手指),处理器110还可以被配置为基于纹理来匹配纹印。
此外,在一些实施方式中,代替使用手指的一个图像,可以使用若干图像以登记或认证用户。可以由所配置的处理器110在各种曝光和/或焦距下使用相机145捕捉多个图像,以创建具有增强的景深和/或动态范围的图像。利用这样的变化的曝光和/或焦距捕捉图像可以帮助确保在手上的各个位置处的纹印的焦点是最优的。因此,所配置的处理器可以选择和分析在感兴趣的手指部分上具有最优焦点的图像或图像的部分。
另外或替代地,可以通过核查其它计量与真实手指、而不是印刷物或视频或模制的手指欺骗的计量一致来实施活性检测。这些计量可以包括分析来自图像中捕捉的闪光的镜面反射、与不使用闪光拍摄的图像相比较而分析来自闪光的镜面反射、颜色、彩度计量(以便拒绝黑白和单色欺骗)。
在一些实施方式中,可以通过分析来自从手指的图像获得的焦点信息的镜面反射或深度来检测活性。作为非限制性示例,用于基于镜面反射和来自焦点的深度的信息的活性确定的示例性***和方法在本文中并且在共同未决和共同转让的于2014年10月15日提交的题为“SYSTEMS AND METHODS FOR PERFORMING IRIS IDENTIFICATION ANDVERIFICATION USING MOBILE DEVICES UTILIZING VISIBLE SPECTRUM LIGHTING”的美国专利申请序第62/066,957号中描述。还可以通过分析手指的动态移动(例如,手指手势)、比如倾斜手指或展开/缩窄手指,如在由相机捕捉的图像序列中的各处描绘的,来检测活性。作为非限制性示例,用于基于生物计量特征和手势的动态移动的活性确定的示例性***和方法在本文中并且在共同未决和共同转让的于2014年8月26日提交的题为“SYSTEM ANDMETHOD FOR DETERMINING LIVENESS”的美国专利申请第62/041,803号中描述。
在一些实施方式中,可以通过在捕捉手指的图像期间执行对发射到手指脊上的光的反射率分析来检测活性。活性手指脊不均匀地反射闪光,而印刷的手指均匀地反射闪光。因此,可以分析在手指的图像中捕捉的脊反射率性质以确定活性。本文关于图5的流程图以及图5B-5C中的对应图像进一步描述用于基于反射率确定活性的示例性处理。在步骤505,获得对活性检测算法的输入。输入包括在闪光开(on)的情况下捕捉的一个或多个手指的高分辨率图像、以及在闪光关(off)的情况下捕捉的手指的高分辨率图像。手指的示例性闪光开图像505A和闪光关图像505B在图5B中示出。在步骤510,调整闪光开图像的尺寸,使得图像内的指纹被隔离。在步骤515,对闪光关图像中的包括对应手指的区域进行分段(例如,根据上述示例性指纹分段算法)。因此,闪光开图像中描绘的指纹和闪光关图像中的对应指纹被隔离以用于进一步处理。示例性的指尖的隔离的闪光开和闪光关图像在图5B中分别示出为图像510A和515B。然后,在步骤520,应用高通滤波器以保留描绘脊的图像的部分。指尖的示例性经过滤的闪光开和闪光关图像在图5B中示出为图像520A和520B。然后,在步骤525,计算活性分数。在一个示例性布置中,将活性分数计算为从经过滤的闪光关图像生成的直方图的标准偏差(a)和从经过滤的闪光开图像生成的直方图的对应标准偏差(b)的函数(即,活性分数=a/b)。作为示例,在图5C中描绘了在将处理500应用于指纹的欺骗图像期间获得的类似图像。在其它实施方式中,可以从经过滤的闪光开和闪光关图像的直方图计算其它度量以计算活性分数。以下是可以使用的度量的一些示例:(1)直方图的均值之间的差、(2)直方图频率的均值之间的差、(3)直方图频率的标准偏差的比、(4)直方图的峰度之间的差、和/或(5)经过滤的闪光开和闪光关图像中的对应关键点的数目。在一些实施方式中,闪光开和闪光关图像的背景的像素强度的差可以用作活性度量。
图6A-6F描绘了在关于相机视场的各个位置处捕捉的手指的示例性脊图像。具体地,图6A描绘了对于距离相机太远并且具有低纹印分辨率的手指的捕捉的图像和对应脊图像。图6B描绘了对于距离相机太远并且具有低纹印分辨率的手指的捕捉的图像和对应脊图像。图6C描绘了捕捉的图像和对应脊图像,其示出了由于作为视场的中心并且足够靠近相机的手指放置而导致的良好分辨率。图6D描绘了捕捉的图像和对应脊图像,其示出了由于高角度LED反射导致在食指和小拇指的边缘处的反射损失。图6E描绘了捕捉的图像和对应脊图像,其示出了当手指被放在相机视场的边缘附近时由于高角度LED反射导致在手指的尖端处的反射损失。图6F描绘了捕捉的图像和对应脊图像,其示出了当手指被放在相机视场的边缘附近时由于高角度LED反射导致在手指的尖端处的反射损失。
在一些实施方式中,基于指纹的认证可以进一步与面部识别相结合,以提供多模态生物计量的增强的安全性/可靠性。例如,在智能手机的情况下,可以使用智能手机后置摄像头同时或顺序地捕捉用户的四个手指,因为使用前置摄像头进行面部和/或虹膜捕捉。作为非限制性示例,在共同未决且共同转让的于2015年5月4日提交的题为“SYSTEM ANDMETHOD FOR GENERATING HYBRID BIOMETRIC IDENTIFIERS”的美国专利申请第62/156,645号中描述了用于生成混合生物计量标识符并使用混合生物计量标识符执行识别/认证的示例性***和方法。
作为又一示例,除了通过根据例程300生成手指特征矢量来表征用户之外,如上所述,还可以从在步骤305捕捉的图像、或单独捕捉的生物信息提取附加生物计量特征。作为示例而非限制地,这样的附加生物计量特征可以包括软生物计量特点和硬生物计量特点。“软生物特征”特点是物理、行为或依附的(adhered)人类特性,而诸如指纹、虹膜、眼周特性等的硬生物计量通常是不变的。作为又一示例,软生物计量特点可以包括物理特点,诸如,皮肤纹理或肤色。软生物计量还可以包括由智能手机陀螺仪/加速度计检测的运动、通过眼睛跟踪算法检测的眼睛运动特性、以及通过跟踪面部和/或头部的移动而检测的头部运动特性。可以根据前述方法以及现有生物计量分析算法来提取和表征这样的生物计量特征。另外,用户的生物计量特征的附加表征可以被编码为在步骤320生成的生物计量标识符的一部分,或者另外包括在例如通过融合多个生物计量标识符而包括指纹生物计量标识符的复合生物计量标识符中。
在一个或多个示例性实施例中,可以在比由用户使用诸如智能手机的手持设备通常执行的距离更大的距离处执行手指的图像捕捉。可以使用被配置为使用可能的短程到远程图像获取模态来捕捉图像的***类似地实施示例性实施例。在一定距离处的图像获取可以利用诸如各种基于光学的***(例如使用远摄镜头)以及基于激光聚焦的***和基于声纳的***的光学模态来执行。这些类型的较长距离图像捕捉模态的应用在执法、军事和情报中可能是至关重要的,并且最终可以部署在商业环境中。
此外,可以在对象不是静止的同时执行图像捕捉,这样的实施方式在本文中称为移动指纹(FOM)***。此类型的机会主义捕捉可以随着时间而在人的指纹在隐蔽操作和/或监视模式中变得对于负责此工作的特殊操作者可见时同时发生。
为了在一定距离处的捕捉,可以实施超分辨率技术以通过使用来自多个帧的数据提高纹印质量,并且将来自不同帧的部分纹印区域拼接成更大的纹印图像。作为非限制性示例,在本文中以及在共同未决且共同转让的于2014年10月15日提交的题为“SYSTEMS ANDMETHODS FOR PERFORMING IRIS IDENTIFICATION AND VERIFICATION USING MOBILEDEVICES UTILIZING VISIBLE SPECTRUM LIGHTING”的美国专利申请第62/066,957号中描述了用于执行超分辨率技术以基于多个图像捕捉生成标识符并使用其执行识别/认证的示例性***和方法。
另外,可以理解,可以使用在NIR光和IR光谱中捕捉的图像以及使用配备有NIR和/或IR光发射器的设备,类似地执行用于执行指纹获取和识别的前述过程。此实施方式对于并入静脉图案识别作为附加生物计量因子来说尤其有用。作为非限制性示例,在本文中以及在共同未决且共同转让的于2015年3月6日提交的题为“SYSTEMS AND METHODS FORPERFORMING IRIS IDENTIFICATION AND VERIFICATION USING MOBILE DEVICES”的美国专利申请第62/129,277号中描述了用于使用NIR和IR光发射器捕捉NIR和IR光谱带中的生物计量图像并执行识别/认证的示例性***和方法。
以下讨论描述了根据本发明的一个或多个公开的实施例的用于改善光学指纹捕捉***的性能的示例性方法(这里在具有相机的移动设备的上下文中描述的)、以及用于将非接触式光学***的输出与使用其它类型的传感器捕捉的纹印(例如,使用接触式扫描仪捕捉的那些纹印)匹配的方法。使用非接触式光学***(例如,相机)捕捉的图像在本文中称为“4F”或“4F图像”。因为这样的图像是使用光学***捕捉的并且在手指与传感器/检测器之间没有接触,所以它们是三维客体的图像。使用传统接触式扫描仪捕捉的图像在本文中称为“平坦”或“平坦图像”。因为通常通过手指接触扫描仪/传感器来捕捉这样的“平坦图像”,所以图像表示客体的二维表面。
为了改善性能,本文提供了优化最高质量微小细节的选择、在考虑个体手指匹配性能的变化的同时跨多个手指和模板而组合匹配分数(称为分数融合)的方法,避免了未知缩放比例/估计指纹缩放比例的问题,并且提供了对于用户登记的详细的改进方案。
为了匹配用不同设备捕捉的纹印,示例性***和方法解决了纹印失真的问题。每个捕捉技术都引入其自己的失真类型,因此使匹配性能降低。本文还描述了用于在指纹匹配域中应用卷积神经网络的方法,所述指纹匹配域可以通过训练的处理而对失真稳健,因此胜过传统的指纹匹配器。
另外,本文还描述了通过从多个图像数字重建手指的3D形状来为利用单个相机的光学纹印捕捉检测呈现欺骗的方法。由于有限的可用硬件,这尤其适用于移动设备上的捕捉。
示例性微小细节选择流水线
微小细节是从在非受控制的环境中并利用不同的硬件、光照、背景和镜头而光学捕捉的纹印中提取的。因此,图像可以包含实际上是光学纹印捕捉的伪影的被检测为微小细节点的特征。虽然平板(flatbed)扫描仪也遭受类似的问题(污垢、污迹等),但是背景客体、不良焦点的区域、镜头上的标记以及扫描捕捉中通常不捕捉的其它手特征可能导致额外的伪影。例如,在照片中清晰可见的手指的边缘不存在于平板扫描的印刷物中,并且可能导致错误的微小细节出现在脊在手指边界处终止的地方。
示例性***和方法采用一系列操作以针对人工的和/或质量差的微小细节最优地进行选择,同时防止在不可预见的环境中失败;在很大比例可能被错误地视为人工的/质量差的情况下,仍然选择最佳微小细节。
检测的微小细节被分配了受几种过滤算法影响的质量分数。微小细节不被删除,仅根据它们的质量排序到选择列表中,在给定某个阈值的情况下,从所述列表选择顶部微小细节。这提供了稳健性,以防许多微小细节可能已经被错误地丢弃,同时在通常情况下维持对微小细节的可靠选择。
初始质量分数
微小细节提取算法(诸如,Bozorth NIST匹配器中包括的算法)通常提供由被设计为评估接触纹印的质量的算法确定的质量分数。例如,确定纹印已经弄脏的区域。相同的算法同样适用于光学捕捉的纹印,因为模糊区域或透镜污垢可能对脊对比度具有类似的影响。因此,示例性***和方法使用由现成的微小细节提取器产生的质量分数作为我们用于微小细节的初始质量分数。
细节链过滤
图7A图示了根据本文公开的至少一个实施例的手指的捕捉图像700和在手指上和手指之间检测的对应的微小细节点。如图7A所示,可以在指尖上和周围检测许多微小细节点。微小细节点由示出微小细节的位置的点(例如,702)和在微小细节特征的方向上取向的尾部(例如,704)图示。如所示的,例如,可以使用表明对应的质量分数的各个点来描绘微小细节(即,圆点702象征较高质量微小细节点,方形点(未示出)象征普通质量,并且三角形706点象征最低质量微小细节)。图7A图示了在手指之间误检测的微小细节710(示出为三角形点的误检测的/不良的微小细节点)。通过使用下面详述的算法,***可以基于约束找到连接的微小细节点链(例如,712、714)并且基本上抑制这样的误检测的微小细节点的影响,大大提高了匹配处理的性能和速度。此方法的高可靠性允许通过将其质量分数乘以零来将所有不符的(offending)微小细节移动到质量排序选择列表的底部。
用于找到错误微小细节链的算法通过在给定某些约束的情况下创建更长的链来工作。具体地,***可以使用按级别挖掘技术,其中初始地在第一级别,***通过获得所有微小细节点对来构造微小细节链的子集,然后如果(i)该对具有大于阈值d的距离并且(ii)如果微小细节取向之间的角度差大于阈值θ,则从此子集中移除对。在第二级别中并且对于未来的级别类似地,***通过合并较小的链来构造更长的链。也就是说,如果两条链各自具有N个微小细节点的长度并且它们在它们的链中共享N-1个微小细节,则将这两条链组合并合并成单个N+1链。在未来的级别中,N+1长度链将被合并以创建N+2长度链,等等。测试已经示出:在一些实施方式中,运行算法直到获得长度为5的链可能是足够的,并且运行算法以获得更长的链可能是冗余的。然而,在一些实施方式中,运行算法以获得更长的链可能是有益的。
背景微小细节增强
背景图像像素通常可以被解译为指纹微小细节,尽管通常背景不聚焦并且微小细节似乎具有低质量。然而,可以通过从前景手指对背景进行分段并降低微小细节的质量分数来识别这样的微小细节。例如,假设手指被光源高度照明,则可以执行图像的亮度通道上的阈值分段。
例如,更可靠的方法是使用皮肤检测模型(先前描述的)。具体地,可以采用皮肤检测模型的实施来人工提亮手的肤色。可以应用相同的模型来对前景手指进行分段。
在一个这样的应用中,手指检测***的结果(例如,级联分类器)为每个手指(感兴趣区域/边界框)提供ROI。通过用适当的ROI裁剪原始图像来创建指尖图像。然后可以选择覆盖图像的20%的中央正方形区域并且计算模型。这生成初始皮肤模型,该模型在检测算法的第一次迭代中应用。这基于手指检测***正确识别手指位置并且图像的中心几乎肯定仅包含表示皮肤的像素的假设而起作用。然后,皮肤检测算法如前所述继续进行,应用模型并在每次迭代时更新模型。
在一些实施方式中,结果是概率图(p图),其中表示皮肤的像素取值接近于1,而背景的像素取值接近于零。p图还可以需要将阈值设定在例如0.5,以创建二进制图。
位于背景区域中的微小细节将其质量值乘以较小的值(例如,0.01)。此方法维持微小细节在质量方面的顺序,并且还维持它们的位置在被确定为链(具有为零的值)的一部分的位置之上。在发生错误(例如,整个图像被错误地确定为背景)的情况下,微小细节选择不受影响。
最后,因为固定的阈值设定可能是不可靠的,所以***可以应用例如Otus的阈值设定方法(如本领域技术人员将理解的)以动态地确定由背景和皮肤产生的双模态直方图内的阈值。此算法对于例如图像中仅存在皮肤的情况是稳健的。
微小细节选择流水线
图7B描绘了根据本文公开的至少一个实施例的手指的捕捉图像以及在用于微小细节选择的示例性流水线的阶段中的各处的经处理图像数据。用于微小细节选择的示例性流水线可以如下并且在图7B中描绘:
1.裁剪的手指经历脊增强并且提取所有可能的微小细节(由图像722图示的结果)。
2.使用皮肤检测模型的二进制分段(由图像724图示的结果)。
3.背景区域中的微小细节的质量值被减小(乘以0.01)(由图像726图示的结果)。
4.链过滤应用于所有微小细节,质量分数被设置为零(由图像728图示的结果)。
5.在质量分数方面,前40%微小细节被选择用于模板(由图像724图示的结果)。
示例性缩放方法
由于来自4F指纹辨识***或扫描设备的捕捉图像可以处于不同的缩放比例,因此,为了提高匹配性能,优选使图像达到类似的缩放比例。本文进一步提出了克服此问题的不同方法。
最小成本缩放
此方法旨在通过应用不同的缩放比例来最小化在正确的对应微小细节之间的距离,由此最小化错误缩放的纹印的影响。通过找到具有最高匹配分数的最佳缩放比例,***可以减少纹印缩放比例对匹配处理的影响。
例如,可以使用该***在10%的步骤中在80%至120%的范围上测试测试纹印,并且取得最佳匹配分数。可以取决于诸如匹配器的缩放容忍度等因素来调整这些参数。独立地缩放X和Y轴也是有利的,尤其是当与用接触式扫描仪拍摄的纹印匹配时,所述纹印可能已经主要在一个方向上拉伸(stretch)。
脊缩放
替代地,可以通过利用被匹配/比较的探测和图库图像的局部脊频率来完成增强的裁剪的手指图像的缩放(适用于场景:4F与4F、或4F与平坦(Flat))。
局部脊频率是在垂直于局部取向的方向上局部区域中脊之间的平均距离的倒数(inverse)。如本领域普通技术人员将理解的,存在用于确定脊频率的各种方法。例如,在一些配置中,由Hong等人描述的方法(L.Hong、Y.Wan和A.Jain,“Fingerprint imageenhancement:algorithm and performance evaluation”,IEEE Transactions onPattern Analysis and Machine Intelligence,20(8):777-789,1998年8月)可用于找到指纹图像的局部脊频率。然而,局部脊频率可以在不同的手指上变化,并且还可以在相同指纹的不同区域上显著变化。因此,可以优选使用手指图像的局部脊频率的中值作为缩放图像的计量。
假设探测手指图像的中值频率是f1,并且图库手指图像的中值频率是f2。例如,为了基于频率信息缩放探测手指图像,缩放因子S=f2/f1。通过使用此缩放因子来缩放探测图像的宽度和高度,指纹脊的分辨率将与图库图像的分辨率接近得多。
可以扩展此方法以对探测手指图像进行归一化,而不需要图库图像或者在图库图像的情况下计算中值频率。在文献中,已经建议在生物计量应用中成功处理和匹配需要每英寸500个点(ppi)的图像分辨率,其中点是像素或圆点。例如,在此分辨率下,相邻脊之间的距离大约为9个像素。通过考虑9个像素作为获取具有500ppi分辨率的指纹图像的波长,***可以基于其中值频率来缩放探测指纹图像。因此,可以通过用归一化缩放因子NS=f2*9缩放探测图像来完成归一化。基于经验结果,已经发现:如果用于归一化的波长是8个像素而不是9个像素,则某个类型的指纹(中指、无名指、小拇指)将获得更好的匹配结果。
示例性分数融合处理
在获得用于每个指纹的各种匹配分数之后,将这些分数组合以用于整个手的更好的总分可能是重要的。以下讨论呈现了组合分数的各种方法,无论在单手上的手指之间、还是同一只手的多个实例。
经由多个指纹的分数融合
确定单个手指是否与另一个手指匹配的一种方法是基于计算来自测试数据的分数而确定截止阈值,其提供特定的误接受率。然而,调查表明,真正者和冒名顶替者匹配的分布在手指之间是不同的,因此,使用单个阈值组合所有四个手指的结果可能导致减弱的结果(例如,相机角度、照明角度、ccd上的焦点等的结果)。因此,通过将分数加在一起来跨指纹组合分数在某些情况下产生差的结果。
解决此问题的一个示例性方法是独立地推断用于每个手指的概率模型,然后将这些分数在概率上组合成整个手匹配的一个概率。因此,使用概率,***在理论上可以准确地组合来自各个手指的匹配结果,从而考虑到不同的分布。
例如,这可以通过将用于每个手指的概率分布(例如,伽马分布)拟合到冒名顶替者和真正者分数分布来完成。此方法基于似然比测试,并且需要明确估计真正者和冒名顶替者匹配分数密度。基于密度的方法具有如下优点:如果准确地估计分数密度,则其在任何期望的操作点(FAR)处直接实现最优性能。
在给定用户是真正者的情况下的分数的似然(P(S|G))可以使用拟合曲线作为概率密度函数而确定,如在给定用户是冒名顶替者的情况下的分数的似然(P(S|I))可以的那样。在简单的情况下,在给定匹配分数的情况下单个手指是真正者的概率(P(G|S))可以使用贝叶斯定理被计算为:
其中P(G)是用户为真正者的概率,其被估计为0.5(这可以从数据确定,如果可用的话),P(S)是分数的概率,无论是真正者还是冒名顶替者:
P(S)=P(S|G=0)·P(G=0)+P(S|G=1)·P(G=1)。
为了计算整只手是真正者的概率,***可以对四个手指应用乘积:
注意,在处理器上进行计算时,当概率非常小时,需要防止数值不稳定。例如,这可以通过在对数空间中计算来完成。
经由多个模板的分数融合
在此方法中,使用用于登记和/或验证的多个模板。通过匹配登记和验证模板的所有组合(或组合的子集),改善了***辨别冒名顶替者与真正者的能力。多个模板的使用既最小化可能驻留在单个模板内的劣质区域的影响,又更好地覆盖可能导致手指内的区域的更好/更差捕捉的变化源(例如,捕捉角度)。
作为示例,***可以捕捉三个登记模板;也就是说,用户的手的三个图像,每只手提取四个手指模板,总共12个手指模板。为了认证,可以使用单个验证模板(4个手指模板)。对于每个手指,***执行三个匹配,可以组合来自所述匹配的分数。分数的组合可以采取任何形式,例如,求和、中值或经由概率方法(经由多个指纹的分数融合)。
多个模板纲要—在登记时的捕捉
在登记时捕捉多个模板增加用户完成登记所需的时间,但是提供两个重要的益处。首先,验证用户只需要捕捉单个快速的模板。其次,***可以处理登记模板以通过交叉匹配模板来评估用户的适合性。这允许尽早拒绝那些具有退化的纹印或尝试登记任意客体的人。这帮助缓解由于劣质登记导致的在验证期间的安全漏洞。
示例性的基于手指的活性检测方法
确定真实的手与欺骗者之间的差异的方法是核查手或手指的三维(3D)形状是如预期的那样、和/或不是对于欺骗所预期的那样。
在一个示例性实施例中,可以从不同角度拍摄用户的手指的两个图像,推断手指的形状并且产生与真实手指的契合度相关的计量。如果形状足够接近从真实手指预期的形状,则通过活性测试。
可以通过首先在一个位置中在屏幕上显示手指引,从用户收集两个图像。在用户已经将其手定位在指引中之后,拍摄图像,然后将指引移动到另一个位置,鼓励用户将他们的手移动到新位置。当用户已经将他们的手移动到新位置时,捕捉第二图像。可以使用多于两(2)个图像来构建手部的更稳健的3D模型。生成3D手模型的计算上高效的方法是从水平移位的位置收集两(2)个手指图像,然后执行对应性匹配以创建如现有技术中公知的深度图。
图8A描绘了:(a)在不同位置(沿着手指移动)从用户收集的两个手指图像;(b)和(c)生成垂直和水平边缘图以对准对应的手指;(d)从两个图像裁剪和增强的中指。
如果这两个手指图像旋转和垂直地对准并且一致地缩放,则可以使对应性匹配更高效。此对准可以通过定位手指之间的阴影线并旋转它们直到它们为水平的为止来进行。可以通过定位和对准手指的尖端来进行垂直对准。可以通过归一化每个手指之间的阴影线之间的距离来进行缩放。在恰当对准之后,使用直方图均衡算法来裁剪和增强手指图像。
可以使用块映射技术逐个像素地计算两个手指图像之间的视差(disparity)图。仅沿手指方向的视差被用于活性检测。然后使用二阶多项式表面模型拟合该图以减少噪声。图8B示出了来自真实手指的视差图(800a)和2D图片的视差图(800b)。由于手指的3D性质,可以在视差图800a中在垂直于手指的方向上看到曲面。相反,来自欺骗图片的视差图800b平坦得多,因为所有点都来自2D表面。然后,每条垂直线的曲率被计算并用于确定活性,并且通过核查每个手指的活性来做出活性的最终判决。图8C图示了对于真实手指的视差图数据(点,810)和数学拟合的表面815(800c),并且图8D图示了对于2D欺骗图片的视差图数据(点,820)和数学拟合的表面835(800d)。
示例性失真校正方法
已经应用了各种方法来解决失真图像中的指纹匹配的挑战。此失真改变了指纹微小细节之间的空间关系,并妨碍指纹匹配器找到正确的匹配。虽然先前的方法在某种程度上已经成功,但是它们主要集中在匹配从同一传感器获得的指纹。此外,它们应对的失***要产生于图像中的伪影。
本文公开的示例性***和方法目标在于在更具挑战性的水平上解决此问题。首先,除了单个捕捉设备之外,该***还被配置为进行额外的尝试以匹配从两个不同的图像捕捉技术获得的指纹。具体地,例如,第一技术使用移动电话设备上的相机捕捉手指的图像以用于验证,而第二技术也可以使用指纹扫描设备而不是相机以用于登记。其次,由这些设备引入的失真类型显著不同,并且在匹配时引入新的问题。
虽然上述两个图像捕捉技术都包括图像失真,但是每个技术还引入了其自己的失真类型,从而引起了新的挑战。
在使用本文公开的示例性非接触式手指辨识技术用移动电话捕捉的图像中,图像的中心可能是最少失真的,而手指的最外侧区域可能是更高度失真的。这由于手指的曲率而产生,其中最高的失真来自具有最高曲率的区域,即,手指的边界。
在从平板扫描仪获得的图像(此后称为Flat)中,虽然存在很少至没有曲率失真,但是在指纹的不同部分中存在局部失真。这是由于手指施加到扫描仪表面上的不同压力点导致的。此外,这些局部失真可能在指纹的各处显著变化。
在使用单个传感器类型进行匹配的情况下,登记和验证指纹都具有相同的失真类型。然而,在不同捕捉设备的情况下,登记图像可以来自例如扫描仪,并且验证图像可以来自移动相机(例如,“4F”或“4F图像”)。因此,匹配处理被配置为尝试在不同类型的失真之间找到正确的匹配。
虽然所描述的上述技术可用于帮助应付手指图像与Flat的匹配问题,但是以下讨论针对于解决此问题等,并且可以显著改善手指辨识***的性能。
使用薄板样条的失真建模
如本领域普通技术人员将理解的,存在用于失真建模的各种方法。例如,在一些配置中,由Ross和Nadgir描述的方法(Ross A.和Nadgir R.,“Athin-plate splinecalibration model For fingerprint sensor interoperability”,IEEE TransactionData and Knowledge Engineering,vol.20,no.8,pp.1097-1110,2008年)可以建模使用薄板样条的在两个失真类型之间的映射。通过将此模型应用于从移动电话图像获得的微小细节上,***可以被配置为将它们映射到它们在表面图像上的正确的对应微小细节上并使用它们用于验证。这允许匹配器在两个图像类型之间找到更多对应的匹配。
失真稳健匹配器
先前的方法通常在匹配处理之前或之后应用。然而,在应用此失真稳健匹配器方法时,可以调整匹配器中的参数以允许更高水平的失真。这允许匹配经历了更高程度的失真的正确匹配,从而得到更正确的匹配。
使用扫描设备的失真校正:
在此方法中,示例性***和方法被配置为使得在图像捕捉阶段解决失真问题。使用扫描仪,同时在捕捉指纹的同时,***在由人的手指施加的压力的方向和大小方面存储由人的手指施加的压力。这得到手指上的矢量,并且通过将其应用到图像及其微小细节上,***因此可以散开(diffuse)并重新映射由于压力而导致的任何失真。
使用CNN的示例性指纹匹配方法
作为使用基于微小细节的提取器和匹配器的替代方案,还可以使用***应用卷积神经网络(CNN)以将验证指纹与登记的图像匹配。诸如现有“GoogleNet”或“AlexNet”的各种网络可用于训练处理。***训练的每个数据集可包含以下类型的图像:
1)RGB图像:这些类型的图像是4个手指的经裁剪指纹或拍打(Slap)图像
2)灰度:RGB图像转换为灰度。
3)脊增强图像:我们使用灰度图像并使用我们在我们的先前专利中概述的指纹增强技术执行增强。
4)脊图像:我们在增强图像上执行脊创建,其中我们从指纹图像中搜索并创建脊。这产生指纹脊的二进制图像。
5)组合的增强脊图像:我们组合增强图像和脊图像,以最大化来自增强图像的有用信息。
以下实施例描述了使用CNN以在手指图像(4F)到4F或4F到Flat应用中执行匹配指纹的不同方法。
实施例A
CNN可以用作指纹匹配处理的一部分。此方法涉及训练CNN,其中每个人的手指都是一类别。训练可以包括人的指纹的各种实例,并且将对先前看见的人的未见实例执行测试/匹配。因此,通过使用此方法,测试指纹将被分类到先前看见的人。
实施例B
***还可以使用先前的模型以识别和验证先前未见的人。在此方法中,新的人将获得概率的矢量,其中此矢量中的每个值表示该人与特定人有多相似。此矢量可用于在识别和验证中表示该人。
实施例C
在先前的种情况下,已经对于固定数目的人训练了该模型。虽然这为先前看见的人提供了高分类性能,但是,如果需要认证新的人,则CNN可能不能完全表示他们。为了将CNN特征从人特定的特征改变到通用指纹特征,可以使用两步训练处理。第一步涉及训练CNN,类似于一对多情况的分类。然而,基于相似性学习执行第二训练阶段,其继续训练分类模型。此新模型可以用于在分类阶段中不存在的先前未见的人。
例如,通过用经训练的相似性学习模型应用CNN,可以获得对于先前未见的验证指纹和登记的指纹两者的特征矢量。通过比较这两个指纹,我们可以执行验证,其中它们越相似,它们就越有可能是正确的匹配。因此,此方法可以用于我们想要登记和验证的任何新的人。
实施例D
CNN还可以用于大规模识别的目的。例如,可以应用先前的方法以在一对多的情况下执行识别。这里,获得对于期望识别的所有人的矢量。在给定新的指纹集合的情况下,可以获得表示新人指纹的矢量。通过将此矢量与所有其它人的矢量相比较并获得对于每个比较的相似性度量(诸如,欧几里德距离),可以识别具有最高相似性的对。在此情况下,该人将被识别为它们获得了与其的最高相似性的人。
实施例E
为了在4F到Flat的场景上应用CNN,除了先前的方法之外,还可以在假定4F和Flat示例的图像是相同类型的图像、例如组合的增强脊图像的情况下,将4F和Flat示例的图像一起放置在训练数据内。这将使得CNN能够学习两种类型的指纹之间的共同特征。
实施例F
用于4F到Flat的场景的另一方法是训练用于4F和Flat图像的单独的模型,使用相似性学习重新训练每个模型,然后找到4F和Flat矢量之间的映射。然后,此映射可用于预测匹配中的真正者或冒名顶替者矢量。
4F指纹到Flat转换器
为了提高将验证4F图像与登记的Flat图像匹配的性能,可以使用CNN将4F验证图像转换为Flat验证图像。这将允许***将经转换的验证Flat图像与登记的Flat图像匹配。例如,由Gatys等人提出的方法(Leon A.Gatys、Alexander S.Ecker、Matthias Bethge;TheIEEE Conference on Computer Vision and Pattern Recognition(CVPR),2016年,pp.2414-2423)可用于将图像变换为另一风格。在此情况下,***可以进行4F图像变换,并且看起来像Flat图像。
CNN微小细节提取和过滤
CNN还可以用于检测指纹内的某些图案。通过训练CNN,***可以检测和提取微小细节。这可以涉及对包含各种各样的微小细节类型、它们的不同旋转、缩放和平移的中心位置的指纹图像的补丁(patch)的训练。另外,可以使用用于过滤由于应用经训练的模型而获得低分数的微小细节补丁的类似的方法。
CNN指纹类型分类器
使用此方法,***可以对指纹的类型(螺纹、拱形等)进行分类,并使用此信息以避免匹配不兼容的指纹。***可以通过创建数据集来执行此,在数据集中每个文件夹将表示一类的指纹类型。通过训练CNN,***可以学习每个指纹看起来像什么,并且,通过在测试指纹上应用该模型,***可以预测其指纹类型类别。
基于CNN的模糊分类
CNN还可以被训练并用于确定图像是否不在***所需的质量标准内。一个示例是自动检测可以使用4F***捕捉的模糊和不可用的图像。CNN将基于两个类别、即锐利(Sharp)和模糊(Blur)进行分类。如果图像被分类为模糊并且被视为不可用,则4F***将请求来自用户的另一图像捕捉。这将需要在包括各自表示模糊和锐利类别的两个文件夹的数据集上训练CNN,其中在每个文件夹中将存在表示每个类别的图像。
CNN活性检测
可以训练CNN网络以检测和区分真正的图像与欺骗图像。在此方法中,在包括如下两个类型的图像的数据集上训练网络:(i)真正的,其可以使用任何技术捕捉;以及(ii)欺骗,其可以包括从各种各样呈现攻击中取得的图像。这可能需要在包括各自表示真正的和欺骗类别的两个文件夹的数据集上训练CNN,其中在每个文件夹中将存在表示每个类别的图像。
寻找最佳阈值
使用CNN,***可以使用超平面而不是固定阈值来分离真正者分数与冒名顶替者分数。在CNN的情况下,不是取欧几里德距离的和,***可以执行按元素的减法,然后将真正者和冒名顶替者矢量馈送到机器学***面、而不是固定的一维阈值。以此方式,特征矢量中的每个特征都被保留,与之前将它们全部组合成单个分数不同。另外,由于某些特征可能较不具有辨别力,因此机器学习算法可以更多地关注更具有辨别力的特征。
CNN数据集扩展
CNN通常依靠大数据集以获得可靠的模型。可以通过修改数据集中的现有实例以生成新的实例,来扩展数据集。这些修改可以包括旋转、平移、缩放、裁剪、改变图像的纵横比或颜色空间。在示例性方法中,如图9所示,可以通过旋转、缩放和改变纵横比,获得仅单个指纹的多个实例。图9图示了基于指纹修改的这样的扩展数据集。
基于CNN的各个面部分类器
为了面部辨识的目的,虽然传统上在全面部图像上训练CNN,但是***也可以在面部的特定区域上训练各个CNN,然后组合来自每个模型的所有分数。例如,可以为眉毛、眼睛、嘴巴、鼻子等训练不同的CNN。当执行辨识时,***可以在测试图像上单独地运行每个模型,其中***从每个模型获得分数和/或矢量。然后,***可以组合分数和矢量以获得最终辨识分数。
示例性最优登记处理
具有良好的登记阶段对于认证性能非常重要。以下讨论描述了用于确保在登记期间聚集的数据最优的方法。
最大化模板变化
用于改善登记质量的一个方法是捕捉多个模板。来自使用多个模板的改善源于包含变化的模板。如果所有模板都相同,则即使它们具有高质量,性能也不会提高。因此,最大化变化导致改善的性能,因为存在登记和验证表示两者包含相同特征的更大可能性。
当使用移动设备相机捕捉图像时,存在三个突出的变化源:光照/环境、在捕捉期间手的角度/位置、用户如何将其手指保持在一起(当这样做时他们是否遮挡某些纹印区域)。作为示例,鼓励用户在捕捉之间从相机视图移除他们的手的登记方案将捕捉比简单地拍摄快速连续的图像更多的先前描述的变化。
可以由***结合上述而实施的更复杂的方法是使用来自成功认证尝试的模板,并且假设用户正在许多不同环境中进行认证。例如,基本方法将是在登记时捕捉两个模板,并当用户首次认证时添加第三模板(优选地,注意正确地对***参数化以用于匹配1、2或3个模板)。然而,此方法可以进一步扩展以利用更大的变化连续更新登记模板,具有适应用户在更长时间段上改变的纹印的附加益处。
如前所述,照明源(通常是点源LED闪光)和纹印脊的入射角对脊对比度具有显著影响。值得注意的是,例如,小拇指通常比中指或食指更少被良好照明,但是将手定位得更高可以对此补救。因此,用户将其手放在相对于照明的不同位置中是有益的。
使用该***实施的一个这样的登记方案将如下:要求用户捕捉其手的两个图像。对于第一图像,屏幕上手指引定位为离开中心朝向屏幕的顶部,并且来自手指跟踪的实时反馈指导用户将他们的手放在此略升高的位置。用户移开他们的手,然后要求他们验证第一个登记图像。对于此第二捕捉,手指引定位为离开中心朝向屏幕的底部。这向登记添加所需的位置变化。为了附加性能,可以为这些不同位置独立地计算概率模型,每个位置编码当用户的手在特定位置中时组合来自不同手指的匹配分数的最优方式。当然,这不限于两个位置,并且可以扩展到手位置的全2D阵列。
多视图数据捕捉
当捕捉放在图像的中心处的手的4F图像时,由于来自焦点的模糊和照到某些区域的光线不足,手指的某些区域可能无法提供那么多的微小细节信息。对于小拇指来说尤其如此。为了避免这些问题,***可以实施“多视图”技术,其中,代替捕捉在中心位置中的全部手的三个登记图像,***被配置为在不同位置中、即如图10中图示的中心、左侧和右侧捕捉手,图10描绘了在登记阶段捕捉的“中心”、“左侧”和“右侧”图像,以最大化来自每个指纹的微小细节数据。
此方法有助于确保每个手指已经在至少一个图像中清晰可见,并且已经以最高质量被捕捉以用于微小细节提取。通过将验证图像与三个多视图图像中的每个匹配,可以获得三个指纹分数集合,并且当使用对于每个手指的最大值(或任何其它分数融合技术)时,可以获得对于每个手指的更可靠的分数,因为***拥有来自多视图图像的每个手指的好得多的表示。
无论***被配置为使用标准登记还是多视图,此方法都组合三个登记图像中对于每个手指的微小细节信息,以找到最优模板。这可以通过以下完成:
1.基于不同模板的质量、或通过将不同模板彼此匹配并确定给出与其它模板的最高匹配分数的模板,来对不同模板进行排序。
2.通过利用迭代最接近点找到对应性微小细节然后使用薄板样条来注册它们,来将第二最佳模板(寄存器模板)与第一模板(参考模板)对准。
3.通过使用边界框找到彼此非常接近的微小细节并从最佳模板(参考模板)中选择一个以保持来合并两个模板,并且可以更新所保持的微小细节的质量度量以反映其一致性。
4.可以重复步骤2和3,直到合并所有模板为止。
在此处,应该注意,虽然前面的描述中的大部分已经针对于用于根据使用传统智能手机设备捕捉的用户的生物计量特征来认证用户的***和方法,但是可以在参考的场景之外的场景、情形和设置中类似地部署和/或实施本文公开的***和方法。
虽然本说明书包含许多具体实施细节,但是这些不应被解释为对任何实施方式或可能要求保护的范围的限制,而是作为特定于特定实施方式的特定实施例的特征的描述。在单独的实施例的上下文中在本说明书中描述的某些特征也可以在单个实施例中组合地实施。相反,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合在多个实施例中实施。此外,虽然上面可以将特征描述为以某些组合而作用,甚至最初如此要求保护,但是在某些情况下可以从组合中删除来自要求保护的组合的一个或多个特征,并且所要求保护的组合可以针对于子组合或子组合的变化。
类似地,虽然在附图中以特定顺序描绘了操作,但是这不应该被理解为需要以所示的特定顺序或按顺序执行这样的操作,或者执行所有图示的操作,以实现期望的结果。在某些情况下,多任务和并行处理可能是有利的。此外,上述实施例中的各个***组件的分离不应该被理解为在所有实施例中都需要这种分离,并且应该理解,所描述的程序组件和***通常可以在单个软件产品中集成在一起或打包成多个软件产品。
本文使用的术语仅用于描述特定实施例的目的,而不意图限制本发明。如本文所使用的,单数形式“一”,“一个”和“该”意图也包括复数形式,除非上下文另有明确说明。将进一步理解,当在本说明书中使用时,术语“包括”和/或“包含”指定所述特征、整体、步骤、操作、元件和/或组件的存在,但不排除存在或者添加一个或多个其它特征、整体、步骤、操作、元件、组件和/或其组。应该注意,在权利要求中使用诸如“第一”、“第二”、“第三”等的序数术语以修饰权利要求元素本身并不意味着一个权利要求元素相比于另一个权利要求元素的任何优先级、优先性或顺序、或者执行方法的行为的时间顺序,但仅用作标签以区分具有某个名称的一个权利要求元素与(要不是使用序数术语则)具有相同名称的另一个元素以区分权利要求元素。此外,本文使用的措辞和术语用于描述的目的,而不应被视为限制。本文对“包括”、“包含”或“具有”、“含有”、“涉及”及其变型的使用意味着涵盖其后列出的项及其等同物、以及附加项。应该理解,附图中相同的数字表示若干附图之间的相同元素,并且并非所有实施例或布置都需要参考附图描述和图示的所有组件和/或步骤。
因此,本***和方法的说明性实施例和布置提供了用于根据用户的生物计量来认证用户的计算机实施的方法、计算机***和计算机程序产品。附图中的流程图和框图图示了根据各种实施例和布置的***、方法和计算机程序产品的可能实施方式的架构、功能和操作。在这方面,流程图或框图中的每个框可以表示代码的模块、片段或部分,其包括用于实施所指定的逻辑功能的一个或多个可执行指令。还应该注意,在一些替代实施方式中,框中所示的功能可以不按图中所示的顺序发生。例如,连续示出的两个框实际上可以基本上同时执行,或者所述框有时可以以相反的顺序执行,这取决于所涉及的功能。还应该注意,框图和/或流程图图示的每个框、以及框图和/或流程图图示中的框的组合可以由执行特定功能或行为的基于专用硬件的***、或专用硬件和计算机指令的组合来实施。
上述主题仅作为说明提供,不应该被解释为限制。可以不遵循所图示和描述的示例实施例和应用并且不脱离在所附权利要求中阐述的本发明的真实精神和范围而对本文描述的主题进行各种修改和改变。

Claims (18)

1.一种用于执行指纹辨识的方法,该方法包括:
由移动设备捕捉描绘对象的多个手指的图像,所述移动设备具有相机、存储介质、存储在该存储介质上的指令、以及通过执行所述指令而配置的处理器,其中,所述相机被配置为在没有所述多个手指接触所述移动设备的情况下捕捉所述图像,使得在捕捉所述图像期间所述多个手指距所述移动设备的所述相机一距离;
利用该处理器使用手指检测算法检测所述图像中的一个或多个中描绘的多个手指;
利用该处理器使用分段算法处理至少一个图像,以识别对于所述至少一个图像中描绘的一个或多个手指的相应指尖段;
利用该处理器从所识别的对于一个或多个手指的相应指尖段中提取所述一个或多个手指的特征;
利用该处理器生成包括所提取的特征的生物计量标识符;
将所生成的生物计量标识符存储在所述存储介质中;以及
利用该处理器确定所述对象的活性,其中,确定活性的步骤包括:
使用卷积神经网络(CNN)处理所识别的相应指尖段的图像,其中,在两个类别的图像上训练CNN,所述两个类别的图像包括在一距离处从活性对象捕捉的手指的图像和欺骗的手指的图像,并且
其中,生成所述生物计量标识符包括:
使用CNN将所述识别的相应指尖段的图像转换为指尖段的二维表面的图像,其中,在图像对上训练CNN,所述图像对的每对包括使用相机在一距离处捕捉的相应手指的第一图像以及使用接触式扫描仪捕捉的描绘相应手指的二维表面的第二图像。
2.如权利要求1所述的方法,其中,从相应的指尖段提取特征的步骤还包括:
使用微小细节提取算法检测微小细节点集合;
计算对于集合中的微小细节点的相应质量分数;
基于相应微小细节点的测量特性和对应于误检测的微小细节点的预期特性,从微小细节点之中识别微小细节点链;
从所述集合中过滤所识别的微小细节点链;以及
根据相应的质量分数至少选择所述集合中的微小细节点子集以用于包括在生物计量标识符中。
3.如权利要求2所述的方法,还包括:
使用分段算法和皮肤检测模型中的一个或多个来检测所述至少一个图像的背景和描绘相应指尖段的前景;以及
从所述集合中过滤对应于所述背景的检测的微小细节点。
4.如权利要求3所述的方法,其中,过滤给定微小细节点的步骤包括以下中的一个或多个:将给定微小细节点的相应质量分数打折扣;以及从所述集合中排除给定微小细节点。
5.如权利要求1所述的方法,还包括:
增强相应的指尖段,其中增强包括以下中的一个或多个:根据皮肤检测模型,相对于具有不表示皮肤的像素的区域而提亮具有被确定为表示皮肤的像素的至少一个图像的区域;以及增大指纹脊相对于沟的对比度。
6.如权利要求1所述的方法,还包括:
使用相机捕捉描绘在相对于相机的第一位置处的多个手指的第一图像;以及
捕捉描绘在相对于相机的第二位置处的多个手指的第二图像,其中第一位置与第二位置不同;以及
利用该处理器对准第一图像与第二图像;
利用该处理器使用所对准的第一图像和第二图像生成在所对准的第一和第二手指图像中描绘的至少一个手指的三维表示;以及
利用该处理器基于所述至少一个手指的三维表示确定所述对象的活性。
7.如权利要求6所述的方法,其中,所述第一图像和第二图像在旋转方向上且在垂直方向上对准,并且其中,所述垂直方向是所述手指延伸的方向。
8.如权利要求6所述的方法,其中,对准步骤包括:
对于第一图像和第二图像中的每个,生成表示其中描绘的至少一个手指的垂直边缘和水平边缘的相应边缘图;以及
基于所述相应边缘图对准所述第一图像与第二图像;以及
根据所述相应边缘图缩放所述第一图像和第二图像中的一个或多个。
9.如权利要求8所述的方法,其中,从给定图像生成边缘图包括:
检测给定图像中描绘的手指之间的阴影线;以及
检测给定图像中描绘的手指的相应尖端。
10.如权利要求6所述的方法,还包括:
在生成三维表示的步骤之前,使用手指检测算法检测分别在所对准的第一图像和第二图像中描绘的至少一个手指;以及
增强描绘所述至少一个手指的所对准的第一图像和第二图像。
11.如权利要求6所述的方法,其中,生成三维表示的步骤包括:
利用该处理器使用所对准的第一图像和第二图像测量在所对准的第一图像中描绘的至少一个手指与在所对准的第二图像中描绘的至少一个手指之间的视差;并且
其中,基于沿一个或多个给定方向发生的视差来确定活性。
12.如权利要求11所述的方法,其中,计算视差的步骤包括:
利用该处理器使用块映射技术至少从所对准的第一图像和第二图像的相应部分生成表示分别在第一图像和第二图像中描绘所述至少一个手指的图像像素之间的差异的视差图。
13.如权利要求12所述的方法,其中,确定活性的步骤还包括:
利用该处理器从用于所述至少一个手指的视差图计算所述图上的线的曲率,其中,在一个或多个方向上计算所述曲率;以及
基于所计算的曲率确定所述至少一个手指具有表示活性的三维性质。
14.如权利要求6所述的方法,还包括:
利用该相机捕捉图像的馈送;
利用该处理器在显示器上显示近实时的图像的馈送以及覆盖在所述馈送上的手指放置指引;
利用该处理器使用手指寻找算法检测在所述馈送的一个或多个图像中描绘的任何手指;
在检测到多个手指与所述指引对准时,利用相机捕捉第一图像,其中,所述指引位于第一位置;以及
在检测到多个手指与所述指引对准时,利用相机捕捉第二图像,其中所述指引位于第二位置。
15.一种用于执行指纹辨识的方法,所述方法包括:
由移动设备捕捉描绘对象的多个手指的图像,所述移动设备具有相机、存储介质、存储在存储介质上的指令、以及通过执行所述指令而配置的处理器,其中,所述图像在距所述手指一距离处捕捉,从而描绘三维手指;
利用该处理器使用手指检测算法检测所述图像中的至少一个中描绘的一个或多个手指;
利用该处理器使用分段算法处理至少一个图像,以识别对于其中描绘的至少一个手指的相应指尖段;
利用该处理器从所识别的相应指尖段测量所述至少一个手指的一个或多个特征;
基于所测量的特征缩放所述至少一个图像;以及
生成并存储生物计量标识符,其中,所述生物计量标识符包括描绘所述相应指尖段的所缩放的图像的至少一部分,并且其中,生成所述生物计量标识符的步骤还包括:
使用卷积神经网络(CNN)将相应指尖段的图像转换为指尖段的二维表面的图像,其中,在图像对上训练CNN,所述图像对的每对包括使用相机在一距离处捕捉的相应手指的第一图像以及使用接触式扫描仪捕捉的描绘相应手指的二维表面的第二图像。
16.如权利要求15所述的方法,其中,所测量的特征是指纹脊的频率,并且其中,基于指纹脊的频率、以及规定的参考频率和目标分辨率中的一个或多个来缩放所述至少一个图像。
17.如权利要求16所述的方法,其中,测量所述频率包括:计算所述相应指尖段的局部区域中的脊之间的中值距离的倒数,其中,在垂直于所述至少一个手指的脊取向的方向上测量所述距离。
18.如权利要求16所述的方法,其中,所述目标分辨率是存储在遗留数据库中并且用于与所述生物计量标识符进行匹配的图像的分辨率。
CN201780082847.0A 2016-12-08 2017-12-08 使用利用移动设备捕捉的图像执行基于指纹的用户认证的***和方法 Active CN110326001B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662431629P 2016-12-08 2016-12-08
US62/431,629 2016-12-08
US15/704,561 2017-09-14
US15/704,561 US10521643B2 (en) 2015-02-06 2017-09-14 Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
PCT/US2017/065240 WO2018106987A1 (en) 2016-12-08 2017-12-08 Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices

Publications (2)

Publication Number Publication Date
CN110326001A CN110326001A (zh) 2019-10-11
CN110326001B true CN110326001B (zh) 2023-07-18

Family

ID=62491647

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780082847.0A Active CN110326001B (zh) 2016-12-08 2017-12-08 使用利用移动设备捕捉的图像执行基于指纹的用户认证的***和方法

Country Status (12)

Country Link
EP (1) EP3552150A4 (zh)
JP (1) JP7242528B2 (zh)
KR (2) KR20230116095A (zh)
CN (1) CN110326001B (zh)
AU (1) AU2017370720B2 (zh)
BR (1) BR112019011205A8 (zh)
CA (1) CA3044063C (zh)
CO (1) CO2019005833A2 (zh)
MA (1) MA48606A (zh)
MX (3) MX2019006480A (zh)
WO (1) WO2018106987A1 (zh)
ZA (1) ZA201903326B (zh)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3540633B1 (en) * 2018-03-16 2020-09-23 Identy Inc. Method for identifying an object within an image and mobile device for executing the method
CN109191367B (zh) * 2018-08-02 2023-06-16 哈尔滨理工大学 刀具磨损图像的拼接方法及刀具的寿命预测方法
FR3084943B1 (fr) * 2018-08-10 2021-04-16 Idemia Identity & Security France Procede pour obtenir une image d'empreinte digitale
AT521934A1 (de) * 2018-12-05 2020-06-15 Ait Austrian Inst Tech Gmbh Verfahren zur Erfassung von Fingerabdrücken
AT521935A1 (de) * 2018-12-05 2020-06-15 Ait Austrian Inst Tech Gmbh Verfahren zur Erfassung von Fingerabdrücken
JP7147886B2 (ja) * 2019-02-14 2022-10-05 日本電気株式会社 画像処理装置、指紋照合システム、画像処理方法およびプログラム
EP4115622A4 (en) * 2020-03-01 2024-03-27 Leia Inc SYSTEMS AND METHODS FOR MULTIPLE VIEW TRANSMISSION
EP3893147B1 (en) * 2020-04-09 2024-01-03 Identy Inc. Liveliness detection using a device comprising an illumination source
CN115668311A (zh) * 2020-06-11 2023-01-31 富士通株式会社 认证方法、认证程序以及信息处理装置
FR3112221B1 (fr) * 2020-07-01 2022-06-10 Idemia Identity & Security France Evaluation du biais d’une fonction d’identification biométrique
KR102604837B1 (ko) * 2021-05-26 2023-11-22 대한민국 현출된 지문의 수준 판단 장치 및 방법
CN113569715B (zh) * 2021-07-23 2024-04-16 北京眼神智能科技有限公司 一种指纹图像增强方法及装置
KR20230083208A (ko) * 2021-12-02 2023-06-09 (주)위닝아이 Ai를 이용한 위조지문판별기능이 포함된 비접촉식 지문인증방법
CN114299555A (zh) * 2022-01-27 2022-04-08 敦泰电子(深圳)有限公司 指纹识别方法、指纹模组及电子设备
CN114419719B (zh) * 2022-03-29 2022-08-12 北京爱笔科技有限公司 一种生物特征的处理方法及装置
CN115512427B (zh) * 2022-11-04 2023-04-25 北京城建设计发展集团股份有限公司 一种结合配合式活检的用户人脸注册方法与***
CN116576994B (zh) * 2023-05-12 2024-05-10 爱梦睡眠(珠海)智能科技有限公司 一种基于压电传感器的在离床辅助判断装置和方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105354560A (zh) * 2015-11-25 2016-02-24 小米科技有限责任公司 指纹识别方法及装置
US9361507B1 (en) * 2015-02-06 2016-06-07 Hoyos Labs Ip Ltd. Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4564804B2 (ja) 2004-08-31 2010-10-20 セコム株式会社 生体情報照合装置
JP4298644B2 (ja) * 2004-12-17 2009-07-22 三菱電機株式会社 指紋照合装置、指紋照合方法、指紋照合プログラム、および指紋登録装置
JP4675636B2 (ja) 2005-02-07 2011-04-27 三菱電機株式会社 指紋照合装置
CN103268469B (zh) * 2006-04-26 2016-07-06 阿瓦尔有限公司 指纹预检质量和分割
US7899217B2 (en) 2006-07-19 2011-03-01 Lumidign, Inc. Multibiometric multispectral imager
US8200037B2 (en) * 2008-01-28 2012-06-12 Microsoft Corporation Importance guided image transformation
US8411913B2 (en) * 2008-06-17 2013-04-02 The Hong Kong Polytechnic University Partial fingerprint recognition
US10445555B2 (en) * 2009-01-27 2019-10-15 Sciometrics, Llc Systems and methods for ridge-based fingerprint analysis
JP5498096B2 (ja) 2009-08-27 2014-05-21 セコム株式会社 指紋照合装置
CN102446268A (zh) * 2010-09-30 2012-05-09 神盾股份有限公司 指纹防伪装置及其方法
AU2011311818B2 (en) * 2010-10-08 2015-07-02 Apple Inc. Finger sensing device including differential measurement circuitry and related methods
JP5679282B2 (ja) 2010-10-19 2015-03-04 Necソリューションイノベータ株式会社 芯線幅測定装置、芯線幅計算方法、芯線幅計算プログラム
US8724861B1 (en) * 2010-12-06 2014-05-13 University Of South Florida Fingertip force, location, and orientation sensor
US20130067545A1 (en) * 2011-09-13 2013-03-14 Sony Computer Entertainment America Llc Website Security
US9349033B2 (en) * 2011-09-21 2016-05-24 The United States of America, as represented by the Secretary of Commerce, The National Institute of Standards and Technology Standard calibration target for contactless fingerprint scanners
US9727969B2 (en) * 2012-08-17 2017-08-08 Sony Corporation Image processing device, image processing method, program, and image processing system
US20140270409A1 (en) * 2013-03-15 2014-09-18 Eyelock, Inc. Efficient prevention of fraud
US9818020B2 (en) * 2013-04-02 2017-11-14 Precise Biometrics Ab Fingerprint pore analysis for liveness detection
US9294475B2 (en) 2013-05-13 2016-03-22 Hoyos Labs Ip, Ltd. System and method for generating a biometric identifier
FR3017230B1 (fr) * 2014-02-04 2016-03-11 Morpho Procede de validation de l'utilisation d'un vrai doigt comme support d'une empreinte digitale
CN103927542B (zh) * 2014-04-25 2017-04-26 陕西科技大学 一种三维指纹特征提取方法
CA2902093C (en) * 2014-08-28 2023-03-07 Kevin Alan Tussy Facial recognition authentication system including path parameters
US9767358B2 (en) * 2014-10-22 2017-09-19 Veridium Ip Limited Systems and methods for performing iris identification and verification using mobile devices
US9424458B1 (en) * 2015-02-06 2016-08-23 Hoyos Labs Ip Ltd. Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
CN105303179A (zh) * 2015-10-28 2016-02-03 小米科技有限责任公司 指纹识别方法、装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9361507B1 (en) * 2015-02-06 2016-06-07 Hoyos Labs Ip Ltd. Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
CN105354560A (zh) * 2015-11-25 2016-02-24 小米科技有限责任公司 指纹识别方法及装置

Also Published As

Publication number Publication date
CN110326001A (zh) 2019-10-11
JP7242528B2 (ja) 2023-03-20
AU2017370720A1 (en) 2019-06-13
MX2021008626A (es) 2021-08-19
MA48606A (fr) 2020-03-18
BR112019011205A2 (pt) 2019-10-08
MX2019006480A (es) 2019-08-01
JP2020501264A (ja) 2020-01-16
KR20230116095A (ko) 2023-08-03
AU2017370720B2 (en) 2022-06-09
MX2021008624A (es) 2021-08-19
EP3552150A4 (en) 2020-10-21
KR102561723B1 (ko) 2023-07-31
ZA201903326B (en) 2020-01-29
CA3044063C (en) 2023-02-28
CO2019005833A2 (es) 2019-10-21
KR20190094352A (ko) 2019-08-13
CA3044063A1 (en) 2018-06-14
WO2018106987A1 (en) 2018-06-14
BR112019011205A8 (pt) 2023-04-11
EP3552150A1 (en) 2019-10-16

Similar Documents

Publication Publication Date Title
US10339362B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US11188734B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
CN110326001B (zh) 使用利用移动设备捕捉的图像执行基于指纹的用户认证的***和方法
US11263432B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US9361507B1 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
Gottemukkula et al. Method for using visible ocular vasculature for mobile biometrics
Brown Investigating Combinations of Feature Extraction and Classification for Improved Image-Based Multimodal Biometric Systems at the Feature Level
Esteves Mobile multimodal biometric identification for african communities
Kanhangad Biometric identification using contact-free 3D hand scans

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant