CN113826110B - 利用移动设备检测生物特征身份识别的欺骗的方法、***和介质 - Google Patents
利用移动设备检测生物特征身份识别的欺骗的方法、***和介质 Download PDFInfo
- Publication number
- CN113826110B CN113826110B CN202080035642.9A CN202080035642A CN113826110B CN 113826110 B CN113826110 B CN 113826110B CN 202080035642 A CN202080035642 A CN 202080035642A CN 113826110 B CN113826110 B CN 113826110B
- Authority
- CN
- China
- Prior art keywords
- data representation
- data
- user
- predictive model
- software module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 121
- 230000001815 facial effect Effects 0.000 claims abstract description 103
- 238000012545 processing Methods 0.000 claims abstract description 24
- 230000008859 change Effects 0.000 claims description 58
- 230000008569 process Effects 0.000 claims description 31
- 238000004590 computer program Methods 0.000 claims description 23
- 230000003247 decreasing effect Effects 0.000 claims description 9
- 238000004891 communication Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 229920001621 AMOLED Polymers 0.000 description 2
- VYZAMTAEIAYCRO-UHFFFAOYSA-N Chromium Chemical compound [Cr] VYZAMTAEIAYCRO-UHFFFAOYSA-N 0.000 description 2
- 238000004883 computer application Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 239000010979 ruby Substances 0.000 description 2
- 229910001750 ruby Inorganic materials 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 240000000594 Heliconia bihai Species 0.000 description 1
- 240000002853 Nelumbo nucifera Species 0.000 description 1
- 235000006508 Nelumbo nucifera Nutrition 0.000 description 1
- 235000006510 Nelumbo pentapetala Nutrition 0.000 description 1
- 108091081062 Repeated sequence (DNA) Proteins 0.000 description 1
- 241000700605 Viruses Species 0.000 description 1
- NUFNQYOELLVIPL-UHFFFAOYSA-N acifluorfen Chemical compound C1=C([N+]([O-])=O)C(C(=O)O)=CC(OC=2C(=CC(=CC=2)C(F)(F)F)Cl)=C1 NUFNQYOELLVIPL-UHFFFAOYSA-N 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000001574 biopsy Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- APTZNLHMIGJTEW-UHFFFAOYSA-N pyraflufen-ethyl Chemical compound C1=C(Cl)C(OCC(=O)OCC)=CC(C=2C(=C(OC(F)F)N(C)N=2)Cl)=C1F APTZNLHMIGJTEW-UHFFFAOYSA-N 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- WZWYJBNHTWCXIM-UHFFFAOYSA-N tenoxicam Chemical compound O=C1C=2SC=CC=2S(=O)(=O)N(C)C1=C(O)NC1=CC=CC=N1 WZWYJBNHTWCXIM-UHFFFAOYSA-N 0.000 description 1
- 229960002871 tenoxicam Drugs 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/235—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/08—Network architectures or network communication protocols for network security for authentication of entities
- H04L63/0861—Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/14—Network architectures or network communication protocols for network security for detecting or protecting against malicious traffic
- H04L63/1441—Countermeasures against malicious traffic
- H04L63/1483—Countermeasures against malicious traffic service impersonation, e.g. phishing, pharming or web spoofing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computer Security & Cryptography (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Hardware Design (AREA)
- Signal Processing (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
描述了用于通过使用移动设备的相机来检测生物特征身份识别的欺骗和/或确认身份识别匹配的方法、***和介质,处理用户在第一距离和第二距离处的面部图像或图像集以生成第一数据表示和第二数据表示,将第一数据表示处理成预测模型,并将数据表示与预测模型进行比较。
Description
交叉引用
本申请要求于2019年3月12日提交的美国临时申请第62/817,554号的权益,该申请的全部内容通过引用并入本文。
背景技术
“欺骗”安全***通常被定义为通过提交虚假数据伪装成经过身份确认的用户的行为。在这种情况下,可以采用活体检测方法来确定生物特征模态,例如面部、手掌(掌纹)、手指(指纹)或耳朵,是否载有原始三维生物特征模态的独特结构特性,或者是否是二维复制。
发明内容
在一个方面,本文公开了一种使用移动设备的相机检测生物特征身份识别的欺骗(spoofing of biometric identity recognition)的计算机实现方法,所述方法包括:(a)通过相机在第一距离处记录用户的面部图像或图像集;(b)使用算法处理在所述第一距离处的所述用户的面部图像或图像集,以生成所述用户的图像或图像集的第一数据表示;(c)将所述第一数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;(d)改变所述用户的面部与所述相机之间的所述距离,其中改变所述距离包括增加所述用户的面部与所述相机之间的所述距离,减小所述用户的面部与所述相机之间的所述距离,改变所述相机相对于所述用户的面部的方向,改变所述用户的面部相对于所述相机的所述方向,或其任意组合;(e)通过所述相机在第二距离处记录所述用户的面部图像或图像集;(f)使用算法处理在所述第二距离处的所述用户的面部图像或图像集以生成所述用户的第二图像或图像集的第二数据表示;(g)将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较以确定它们是否匹配;以及(h)如果所述第二数据表示匹配从所述第一数据表示生成的所述预测模型,则确认身份识别匹配。在一些实施方式中,所述方法还包括如果在将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝所述身份识别匹配。在一些实施方式中,所述方法还包括如果所述一个或多个附加数据表示匹配从所述第一数据表示生成的所述预测模型,则确认附加数据表示身份识别匹配。在一些实施方式中,所述方法还包括如果所述一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝附加数据表示身份识别匹配。在一些实施方式中,所述方法还包括如果所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则比较附加数据以确定在所述第一距离处呈现所述面部图像或图像集的所述用户是否与在所述第二距离处呈现所述面部图像或图像集的所述用户匹配。在一些实施方式中,附加数据包括姓名、密码、身份号码、地址、地理位置、设备ID、在所述移动设备上所述用户的软件环境的唯一数据特征、其他生物特征数据、用户数据的预测模型或生物特征数据、其他数据或其任何组合。在一些实施方式中,所述方法还包括:(a)将所述第二数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;(b)将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较以确定它们是否匹配;(c)如果所述第一数据表示匹配从所述第二数据表示生成的所述预测模型,则确认身份识别匹配。在一些实施方式中,预测模型与数据表示的所述比较包括配置匹配架构。在一些实施方式中,预测模型与数据表示的所述比较包括将从第一数据表示生成的预测模型与第二数据表示进行比较,将从第二数据表示生成的预测模型与第一数据表示进行比较,或其任何组合。在一些实施方式中,匹配架构的所述配置随着连续匹配练习而改变,或者随着某些连续匹配练习而不是其他而改变,其中改变能够在匹配练习之间随机化,或者基于非随机化的确定数据或协议,或者可能不会改变。在一些实施方式中,对匹配架构的所述配置的改变基于在匹配练习之间随机化的改变、基于非随机化确定数据或协议的改变或其任何组合。在一些实施方式中,匹配架构的所述配置不改变。在一些实施方式中,使用引导用户界面来捕获所述第一数据表示和/或第二数据表示。在一些实施方式中,从所述引导用户界面捕获的信息用于匹配练习。所述方法还包括:(a)从所述移动设备上的一个或多个传感器记录所述用户的面部图像或图像集在所述第一距离处被所述相机记录时的运动和/或位置数据;(b)从所述移动设备上的一个或多个传感器记录所述用户的面部图像或图像集在所述第二距离处被所述相机记录时的运动和/或位置数据;(c)将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第一数据表示生成的所述预测模型和所述第二数据表示进行比较;以及(d)如果(I)所述第二数据表示与从所述第一数据表示预测建模生成的所述预测模型匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据。在一些实施方式中,所述方法还包括比较(I)在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第一数据表示生成的所述预测模型和所述第二数据表示。在一些实施方式中,所述方法还包括如果(I)所述第二数据表示与从所述第一数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
在另一方面,本文公开了一种计算机实现的***,包括计算设备,所述计算设备包括至少一个处理器、被配置为执行可执行指令的操作***、存储器、以及包括可由所述计算设备执行以创建用于使用移动设备的相机检测生物特征身份识别的欺骗的应用的指令的计算机程序,所述应用包括:(a)软件模块,其被配置为记录用户在第一距离处的面部图像或图像集;(b)软件模块,其被配置为使用算法处理在所述第一距离处的所述用户的面部图像或图像集,以生成所述用户的图像或图像集的第一数据表示;(c)软件模块,其被配置为将所述第一数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;(d)软件模块,其被配置为改变所述用户的面部与所述相机之间的所述距离,其中改变所述距离包括增加所述用户的面部与所述相机之间的所述距离,减小所述用户的面部与所述相机之间的所述距离,改变所述相机相对于所述用户的面部的方向,改变所述用户的面部相对于所述相机的所述方向,或其任意组合;(e)软件模块,其被配置为记录所述用户在第二距离处的面部图像或图像集;(f)软件模块,其被配置为使用算法处理在所述第二距离处的所述用户的面部图像或图像集以生成所述用户的第二图像或图像集的第二数据表示;(g)软件模块,其被配置为将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较以确定它们是否匹配;和(h)软件模块,其被配置为如果所述第二数据表示匹配从所述第一数据表示生成的所述预测模型,则确认身份识别匹配。在一些实施方式中,所述***还包括软件模块,所述软件模块被配置为如果在所述软件模块配置为将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝所述身份识别匹配。在一些实施方式中,所述***还包括软件模块,所述软件模块被配置为如果在将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后,所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则从来自所述第一距离或第二距离的所述用户的面部图像或图像集捕获一个或多个附加数据表示,并将所述捕获的一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型进行比较以确定它们是否匹配。在一些实施方式中,所述***还包括软件模块,所述软件模块被配置为如果所述一个或多个附加数据表示匹配从所述第一数据表示生成的所述预测模型,则确认附加数据表示身份识别匹配。在一些实施方式中,所述***还包括软件模块,所述软件模块被配置为如果所述一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝附加数据表示身份识别匹配。在一些实施方式中,所述***还包括软件模块,所述软件模块被配置为如果所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则比较附加数据以确定在所述第一距离处呈现所述面部图像或图像集的所述用户是否与在所述第二距离处呈现所述面部图像或图像集的所述用户匹配。在一些实施方式中,附加数据包括姓名、密码、身份号码、地址、地理位置、设备ID、在所述移动设备上所述用户的软件环境的唯一数据特征、其他生物特征数据、用户数据的预测模型或生物特征数据、其他数据或其任何组合。在一些实施方式中,所述***还包括:(a)软件模块,其被配置为将所述第二数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;(b)软件模块,其被配置为将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较以确定它们是否匹配;和(c)软件模块,其被配置为如果所述第一数据表示匹配从所述第二数据表示生成的所述预测模型,则确认身份识别匹配。在一些实施方式中,被配置为将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较的所述软件模块包括匹配架构配置。在一些实施方式中,被配置为将预测模型与数据表示进行比较的任何软件模块包括将从第一数据表示生成的预测模型与第二数据表示进行比较,将从第二数据表示生成的预测模型与第一数据表示进行比较,或其任何组合。在一些实施方式中,匹配架构的所述配置随着连续匹配练习而改变,或者随着某些连续匹配练习而不是其他而改变,其中改变能够在匹配练习之间随机化,或者基于非随机化的确定数据或协议,或者可能不会改变。在一些实施方式中,对匹配架构的所述配置的改变基于在匹配练习之间随机化的改变、基于非随机化确定数据或协议的改变或其任何组合。在一些实施方式中,所述匹配架构配置不改变。在一些实施方式中,所述***还包括用于捕获所述第一数据表示和/或第二数据表示的引导用户界面。在一些实施方式中,从所述引导用户界面捕获的信息用于匹配练习。在一些实施方式中,所述***还包括:(a)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录所述用户的面部图像或图像集在所述第一距离处被所述相机记录时的运动和/或位置数据;(b)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录所述用户的面部图像或图像集在所述第二距离处被所述相机记录时的运动和/或位置数据;(c)软件模块,其被配置为将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第一数据表示生成的所述预测模型和所述第二数据表示进行比较;和(d)软件模块,其被配置为如果(I)所述第二数据表示与从所述第一数据表示预测建模生成的所述预测模型匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据。在一些实施方式中,所述***还包括软件模块,所述软件模块被配置为比较(I)在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第一数据表示生成的所述预测模型和所述第二数据表示。在一些实施方式中,所述***还包括软件模块,所述软件模块被配置为如果(I)所述第二数据表示与从所述第一数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,所述***还包括:(a)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录在所述用户的面部图像或图像集在所述第一距离处被所述相机记录时的运动和/或位置数据;(b)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录在所述用户的面部图像或图像集在所述第二距离处被所述相机记录时的运动和/或位置数据;(c)软件模块,其被配置为将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第二数据表示生成的所述预测模型和所述第一数据表示进行比较;和(d)软件模块,其被配置为如果(I)所述第一数据表示与从所述第二数据表示预测建模生成的所述预测模型相匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据。在一些实施方式中,所述***还包括软件模块,所述软件模块被配置为比较(I)在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第二数据表示生成的所述预测模型和所述第一数据表示。在一些实施方式中,所述***还包括软件模块,所述软件模块被配置为如果(I)所述第一数据表示与从所述第二数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
在又一方面,本文公开了一种使用计算机程序编码的非暂时性计算机可读存储介质,所述计算机程序包括可由一个或多个处理器执行以创建用于使用移动设备的相机检测生物特征身份识别的欺骗的应用的指令,所述应用包括:(a)软件模块,其被配置为记录用户在第一距离处的面部图像或图像集;(b)软件模块,其被配置为使用算法处理在所述第一距离处的所述用户的面部图像或图像集,以生成所述用户的图像或图像集的第一数据表示;(c)软件模块,其被配置为将所述第一数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;(d)软件模块,其被配置为改变所述用户的面部与所述相机之间的所述距离,其中改变所述距离包括增加所述用户的面部与所述相机之间的所述距离,减小所述用户的面部与所述相机之间的所述距离,改变所述相机相对于所述用户的面部的方向,改变所述用户的面部相对于所述相机的所述方向,或其任意组合;(e)软件模块,其被配置为记录所述用户在第二距离处的面部图像或图像集;(f)软件模块,其被配置为使用算法处理在所述第二距离处的所述用户的面部图像或图像集以生成所述用户的第二图像或图像集的第二数据表示;(g)软件模块,其被配置为将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较以确定它们是否匹配;和(h)软件模块,其被配置为如果所述第二数据表示匹配从所述第一数据表示生成的所述预测模型,则确认身份识别匹配。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果在所述软件模块配置为将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝所述身份识别匹配。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果在将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后,所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则从来自所述第一距离或第二距离的所述用户的面部图像或图像集捕获一个或多个附加数据表示,并将所述捕获的一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型进行比较以确定它们是否匹配。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果所述一个或多个附加数据表示匹配从所述第一数据表示生成的所述预测模型,则确认附加数据表示身份识别匹配。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果所述一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝附加数据表示身份识别匹配。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则比较附加数据以确定在所述第一距离处呈现所述面部图像或图像集的所述用户是否与在所述第二距离处呈现所述面部图像或图像集的所述用户匹配。在一些实施方式中,附加数据包括姓名、密码、身份号码、地址、地理位置、设备ID、在所述移动设备上所述用户的软件环境的唯一数据特征、其他生物特征数据、用户数据的预测模型或生物特征数据、其他数据或其任何组合。在一些实施方式中,所述介质还包括:(a)软件模块,其被配置为将所述第二数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;(b)软件模块,其被配置为将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较以确定它们是否匹配;和(c)软件模块,其被配置为如果所述第一数据表示匹配从所述第二数据表示生成的所述预测模型,则确认身份识别匹配。在一些实施方式中,被配置为将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较的所述软件模块包括匹配架构配置。在一些实施方式中,被配置为将预测模型与数据表示进行比较的任何软件模块包括将从第一数据表示生成的预测模型与第二数据表示进行比较,将从第二数据表示生成的预测模型与第一数据表示进行比较,或其任何组合。在一些实施方式中,匹配架构的所述配置随着连续匹配练习而改变,或者随着某些连续匹配练习而不是其他而改变,其中改变能够在匹配练习之间随机化,或者基于非随机化的确定数据或协议,或者可能不会改变。在一些实施方式中,对匹配架构的所述配置的改变基于在匹配练习之间随机化的改变、基于非随机化确定数据或协议的改变或其任何组合。在一些实施方式中,所述匹配架构配置不改变。在一些实施方式中,所述介质还包括用于捕获所述第一数据表示和/或第二数据表示的引导用户界面。在一些实施方式中,从所述引导用户界面捕获的信息用于匹配练习。在一些实施方式中,所述介质还包括:(a)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录所述用户的面部图像或图像集在所述第一距离处被所述相机记录时的运动和/或位置数据;(b)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录所述用户的面部图像或图像集在所述第二距离处被所述相机记录时的运动和/或位置数据;(c)软件模块,其被配置为将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第一数据表示生成的所述预测模型和所述第二数据表示进行比较;和(d)软件模块,其被配置为如果(I)所述第二数据表示与从所述第一数据表示预测建模生成的所述预测模型匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为比较(I)在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第一数据表示生成的所述预测模型和所述第二数据表示。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果(I)所述第二数据表示与从所述第一数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,所述介质还包括:a)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录在所述用户的面部图像或图像集在所述第一距离处被所述相机记录时的运动和/或位置数据;b)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录在所述用户的面部图像或图像集在所述第二距离处被所述相机记录时的运动和/或位置数据;c)软件模块,其被配置为将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第二数据表示生成的所述预测模型和所述第一数据表示进行比较;和d)软件模块,其被配置为如果(I)所述第一数据表示与从所述第二数据表示预测建模生成的所述预测模型相匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为比较(I)在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第二数据表示生成的所述预测模型和所述第一数据表示。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果(I)所述第一数据表示与从所述第二数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
附图说明
通过参考以下阐述示例性实施方式和附图的详细描述,将获得对本主题的特征和优点的更好理解,其中:
图1示出了计算设备的非限制性示例;在这种情况下,根据本文的实施方式,设备具有一个或多个处理器、存储器、存储装置和网络接口;
图2示出了网络/移动应用供应***的非限制性示例;在这种情况下,根据本文的实施方式,***提供基于浏览器和/或本地移动用户界面;
图3示出了基于云的网络/移动应用供应***的非限制性示例;在这种情况下,根据本文的实施方式,***包括弹性负载平衡、自动缩放的网络服务器和应用服务器资源以及同步复制的数据库;
图4示出了根据本文的实施方式的第一和第二数据预测匹配架构的非限制性示例;
图5示出了根据本文的实施方式的连续数据预测匹配架构的非限制性示例;以及
图6示出了连续数据预测匹配架构的非限制性示例;在这种情况下,根据本文的实施方式,架构使用多个过去的帧。
具体实施方式
在一个方面,本文公开了一种使用移动设备的相机检测生物特征身份识别的欺骗的计算机实现方法,所述方法包括:(a)通过相机在记录用户第一距离处的面部图像或图像集;(b)使用算法处理在所述第一距离处的所述用户的面部图像或图像集,以生成所述用户的图像或图像集的第一数据表示;(c)将所述第一数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;(d)改变所述用户的面部与所述相机之间的所述距离,其中改变所述距离包括增加所述用户的面部与所述相机之间的所述距离,减小所述用户的面部与所述相机之间的所述距离,改变所述相机相对于所述用户的面部的方向,改变所述用户的面部相对于所述相机的所述方向,或其任意组合;(e)通过所述相机记录所述用户在第二距离处的面部图像或图像集;(f)使用算法处理在所述第二距离处的所述用户的面部图像或图像集以生成所述用户的第二图像或图像集的第二数据表示;(g)将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较以确定它们是否匹配;以及(h)如果所述第二数据表示匹配从所述第一数据表示生成的所述预测模型,则确认身份识别匹配。在一些实施方式中,所述方法还包括如果在将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝所述身份识别匹配。在一些实施方式中,所述方法还包括如果所述一个或多个附加数据表示匹配从所述第一数据表示生成的所述预测模型,则确认附加数据表示身份识别匹配。在一些实施方式中,所述方法还包括如果所述一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝附加数据表示身份识别匹配。在一些实施方式中,所述方法还包括如果所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则比较附加数据以确定在所述第一距离处呈现所述面部图像或图像集的所述用户是否与在所述第二距离处呈现所述面部图像或图像集的所述用户匹配。在一些实施方式中,附加数据包括姓名、密码、身份号码、地址、地理位置、设备ID、在所述移动设备上所述用户的软件环境的唯一数据特征、其他生物特征数据、用户数据的预测模型或生物特征数据、其他数据或其任何组合。在一些实施方式中,所述方法还包括:(a)将所述第二数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;(b)将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较以确定它们是否匹配;(c)如果所述第一数据表示匹配从所述第二数据表示生成的所述预测模型,则确认身份识别匹配。在一些实施方式中,预测模型与数据表示的所述比较包括配置匹配架构。在一些实施方式中,预测模型与数据表示的所述比较包括将从第一数据表示生成的预测模型与第二数据表示进行比较,将从第二数据表示生成的预测模型与第一数据表示进行比较,或其任何组合。在一些实施方式中,匹配架构的所述配置随着连续匹配练习而改变,或者随着某些连续匹配练习而不是其他而改变,其中改变能够在匹配练习之间随机化,或者基于非随机化的确定数据或协议,或者可能不会改变。在一些实施方式中,对匹配架构的所述配置的改变基于在匹配练习之间随机化的改变、基于非随机化确定数据或协议的改变或其任何组合。在一些实施方式中,匹配架构的所述配置不改变。在一些实施方式中,使用引导用户界面来捕获所述第一数据表示和/或第二数据表示。在一些实施方式中,从所述引导用户界面捕获的信息用于匹配练习。所述方法还包括:(a)从所述移动设备上的一个或多个传感器记录所述用户的面部图像或图像集在所述第一距离处被所述相机记录时的运动和/或位置数据;(b)从所述移动设备上的一个或多个传感器记录所述用户的面部图像或图像集在所述第二距离处被所述相机记录时的运动和/或位置数据;(c)将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第一数据表示生成的所述预测模型和所述第二数据表示进行比较;以及(d)如果(I)所述第二数据表示与从所述第一数据表示预测建模生成的所述预测模型匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据。在一些实施方式中,所述方法还包括比较(I)在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第一数据表示生成的所述预测模型和所述第二数据表示。在一些实施方式中,所述方法还包括如果(I)所述第二数据表示与从所述第一数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
在另一方面,本文公开了一种计算机实现的***,包括计算设备,所述计算设备包括至少一个处理器、被配置为执行可执行指令的操作***、存储器、以及包括可由所述计算设备执行以创建用于使用移动设备的相机检测生物特征身份识别的欺骗的应用的指令的计算机程序,所述应用包括:(a)软件模块,其被配置为记录用户在第一距离处的面部图像或图像集;(b)软件模块,其被配置为使用算法处理在所述第一距离处的所述用户的面部图像或图像集,以生成所述用户的图像或图像集的第一数据表示;(c)软件模块,其被配置为将所述第一数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;(d)软件模块,其被配置为改变所述用户的面部与所述相机之间的所述距离,其中改变所述距离包括增加所述用户的面部与所述相机之间的所述距离,减小所述用户的面部与所述相机之间的所述距离,改变所述相机相对于所述用户的面部的方向,改变所述用户的面部相对于所述相机的所述方向,或其任意组合;(e)软件模块,其被配置为记录所述用户在第二距离处的面部图像或图像集;(f)软件模块,其被配置为使用算法处理在所述第二距离处的所述用户的面部图像或图像集以生成所述用户的第二图像或图像集的第二数据表示;(g)软件模块,其被配置为将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较以确定它们是否匹配;和(h)软件模块,其被配置为如果所述第二数据表示匹配从所述第一数据表示生成的所述预测模型,则确认身份识别匹配。在一些实施方式中,所述***还包括软件模块,所述软件模块被配置为如果在所述软件模块配置为将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝所述身份识别匹配。在一些实施方式中,所述***还包括软件模块,所述软件模块被配置为如果在将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后,所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则从来自所述第一距离或第二距离的所述用户的面部图像或图像集捕获一个或多个附加数据表示,并将所述捕获的一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型进行比较以确定它们是否匹配。在一些实施方式中,所述***还包括软件模块,所述软件模块被配置为如果所述一个或多个附加数据表示匹配从所述第一数据表示生成的所述预测模型,则确认附加数据表示身份识别匹配。在一些实施方式中,所述***还包括软件模块,所述软件模块被配置为如果所述一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝附加数据表示身份识别匹配。在一些实施方式中,所述***还包括软件模块,所述软件模块被配置为如果所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则比较附加数据以确定在所述第一距离处呈现所述面部图像或图像集的所述用户是否与在所述第二距离处呈现所述面部图像或图像集的所述用户匹配。在一些实施方式中,附加数据包括姓名、密码、身份号码、地址、地理位置、设备ID、在所述移动设备上所述用户的软件环境的唯一数据特征、其他生物特征数据、用户数据的预测模型或生物特征数据、其他数据或其任何组合。在一些实施方式中,所述***还包括:(a)软件模块,其被配置为将所述第二数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;(b)软件模块,其被配置为将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较以确定它们是否匹配;和(c)软件模块,其被配置为如果所述第一数据表示匹配从所述第二数据表示生成的所述预测模型,则确认身份识别匹配。在一些实施方式中,被配置为将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较的所述软件模块包括匹配架构配置。在一些实施方式中,被配置为将预测模型与数据表示进行比较的任何软件模块包括将从第一数据表示生成的预测模型与第二数据表示进行比较,将从第二数据表示生成的预测模型与第一数据表示进行比较,或其任何组合。在一些实施方式中,匹配架构的所述配置随着连续匹配练习而改变,或者随着某些连续匹配练习而不是其他而改变,其中改变能够在匹配练习之间随机化,或者基于非随机化的确定数据或协议,或者可能不会改变。在一些实施方式中,对匹配架构的所述配置的改变基于在匹配练习之间随机化的改变、基于非随机化确定数据或协议的改变或其任何组合。在一些实施方式中,所述匹配架构配置不改变。在一些实施方式中,所述***还包括用于捕获所述第一数据表示和/或第二数据表示的引导用户界面。在一些实施方式中,从所述引导用户界面捕获的信息用于匹配练习。在一些实施方式中,所述***还包括:(a)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录所述用户的面部图像或图像集在所述第一距离处被所述相机记录时的运动和/或位置数据;(b)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录所述用户的面部图像或图像集在所述第二距离处被所述相机记录时的运动和/或位置数据;(c)软件模块,其被配置为将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第一数据表示生成的所述预测模型和所述第二数据表示进行比较;和(d)软件模块,其被配置为如果(I)所述第二数据表示与从所述第一数据表示预测建模生成的所述预测模型匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据。在一些实施方式中,所述***还包括软件模块,所述软件模块被配置为比较(I)在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第一数据表示生成的所述预测模型和所述第二数据表示。在一些实施方式中,所述***还包括软件模块,所述软件模块被配置为如果(I)所述第二数据表示与从所述第一数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,所述***还包括:(a)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录在所述用户的面部图像或图像集在所述第一距离处被所述相机记录时的运动和/或位置数据;(b)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录在所述用户的面部图像或图像集在所述第二距离处被所述相机记录时的运动和/或位置数据;(c)软件模块,其被配置为将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第二数据表示生成的所述预测模型和所述第一数据表示进行比较;和(d)软件模块,其被配置为如果(I)所述第一数据表示与从所述第二数据表示预测建模生成的所述预测模型相匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据。在一些实施方式中,所述***还包括软件模块,所述软件模块被配置为比较(I)在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第二数据表示生成的所述预测模型和所述第一数据表示。在一些实施方式中,所述***还包括软件模块,所述软件模块被配置为如果(I)所述第一数据表示与从所述第二数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
在又一方面,本文公开了一种使用计算机程序编码的非暂时性计算机可读存储介质,所述计算机程序包括可由一个或多个处理器执行以创建用于使用移动设备的相机检测生物特征身份识别的欺骗的应用的指令,所述应用包括:(a)软件模块,其被配置为记录用户在第一距离处的面部图像或图像集;(b)软件模块,其被配置为使用算法处理在所述第一距离处的所述用户的面部图像或图像集,以生成所述用户的图像或图像集的第一数据表示;(c)软件模块,其被配置为将所述第一数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;(d)软件模块,其被配置为改变所述用户的面部与所述相机之间的所述距离,其中改变所述距离包括增加所述用户的面部与所述相机之间的所述距离,减小所述用户的面部与所述相机之间的所述距离,改变所述相机相对于所述用户的面部的方向,改变所述用户的面部相对于所述相机的所述方向,或其任意组合;(e)软件模块,其被配置为记录所述用户在第二距离处的面部图像或图像集;(f)软件模块,其被配置为使用算法处理在所述第二距离处的所述用户的面部图像或图像集以生成所述用户的第二图像或图像集的第二数据表示;(g)软件模块,其被配置为将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较以确定它们是否匹配;和(h)软件模块,其被配置为如果所述第二数据表示匹配从所述第一数据表示生成的所述预测模型,则确认身份识别匹配。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果在所述软件模块配置为将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝所述身份识别匹配。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果在将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后,所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则从来自所述第一距离或第二距离的所述用户的面部图像或图像集捕获一个或多个附加数据表示,并将所述捕获的一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型进行比较以确定它们是否匹配。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果所述一个或多个附加数据表示匹配从所述第一数据表示生成的所述预测模型,则确认附加数据表示身份识别匹配。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果所述一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝附加数据表示身份识别匹配。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则比较附加数据以确定在所述第一距离处呈现所述面部图像或图像集的所述用户是否与在所述第二距离处呈现所述面部图像或图像集的所述用户匹配。在一些实施方式中,附加数据包括姓名、密码、身份号码、地址、地理位置、设备ID、在所述移动设备上所述用户的软件环境的唯一数据特征、其他生物特征数据、用户数据的预测模型或生物特征数据、其他数据或其任何组合。在一些实施方式中,所述介质还包括:(a)软件模块,其被配置为将所述第二数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;(b)软件模块,其被配置为将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较以确定它们是否匹配;和(c)软件模块,其被配置为如果所述第一数据表示匹配从所述第二数据表示生成的所述预测模型,则确认身份识别匹配。在一些实施方式中,被配置为将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较的所述软件模块包括匹配架构配置。在一些实施方式中,被配置为将预测模型与数据表示进行比较的任何软件模块包括将从第一数据表示生成的预测模型与第二数据表示进行比较,将从第二数据表示生成的预测模型与第一数据表示进行比较,或其任何组合。在一些实施方式中,匹配架构的所述配置随着连续匹配练习而改变,或者随着某些连续匹配练习而不是其他而改变,其中改变能够在匹配练习之间随机化,或者基于非随机化的确定数据或协议,或者可能不会改变。在一些实施方式中,对匹配架构的所述配置的改变基于在匹配练习之间随机化的改变、基于非随机化确定数据或协议的改变或其任何组合。在一些实施方式中,所述匹配架构配置不改变。在一些实施方式中,所述介质还包括用于捕获所述第一数据表示和/或第二数据表示的引导用户界面。在一些实施方式中,从所述引导用户界面捕获的信息用于匹配练习。在一些实施方式中,所述介质还包括:(a)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录所述用户的面部图像或图像集在所述第一距离处被所述相机记录时的运动和/或位置数据;(b)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录所述用户的面部图像或图像集在所述第二距离处被所述相机记录时的运动和/或位置数据;(c)软件模块,其被配置为将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第一数据表示生成的所述预测模型和所述第二数据表示进行比较;和(d)软件模块,其被配置为如果(I)所述第二数据表示与从所述第一数据表示预测建模生成的所述预测模型匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为比较(I)在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第一数据表示生成的所述预测模型和所述第二数据表示。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果(I)所述第二数据表示与从所述第一数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,所述介质还包括:a)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录在所述用户的面部图像或图像集在所述第一距离处被所述相机记录时的运动和/或位置数据;b)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录在所述用户的面部图像或图像集在所述第二距离处被所述相机记录时的运动和/或位置数据;c)软件模块,其被配置为将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第二数据表示生成的所述预测模型和所述第一数据表示进行比较;和d)软件模块,其被配置为如果(I)所述第一数据表示与从所述第二数据表示预测建模生成的所述预测模型相匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为比较(I)在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第二数据表示生成的所述预测模型和所述第一数据表示。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果(I)所述第一数据表示与从所述第二数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
本文提供了一种使用移动设备的相机检测生物特征身份识别的欺骗的方法,其中:通过相机记录用户在第一距离处的面部图像或图像集;使用算法在第一距离处处理用户的面部图像或图像集,以生成用户的图像或图像集的第一数据表示;将第一数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的数据表示;用户脸部和相机之间的距离会发生变化,无论是靠近还是远离,和/或随着脸部相对于相机的方向发生变化;通过相机记录用户在第二距离处的面部图像或图像集;使用算法在第二距离处处理用户的面部图像或图像集以生成用户的第二图像或图像集的第二数据表示;将第二数据表示与从第一数据表示生成的预测模型进行比较以确定它们是否匹配;如果第二数据表示与从第一数据表示生成的预测模型相匹配,则确认身份识别匹配。
在该方法的一些实施方式中,在将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后如果所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝所述身份识别匹配。
在该方法的一些实施方式中,其中在将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后,如果所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则允许从所述用户的面部图像或图像集捕获一个或多个附加数据表示,并将所述捕获的一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型进行比较以确定它们是否匹配;以及如果所述一个或多个附加数据表示匹配从所述第一数据表示生成的所述预测模型,则确认附加数据表示身份识别匹配。
在该方法的一些实施方式中,其中在将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后,如果所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则比较附加数据,例如姓名、密码、身份号码、地址、地理位置、设备ID、在所述移动设备上所述用户的软件环境的唯一数据特征、其他生物特征数据、用户数据的预测模型或生物特征数据、其他数据,以确定在所述第一距离处呈现所述面部图像或图像集的所述用户是否与在所述第二距离处呈现所述面部图像或图像集的所述用户匹配。
在该方法的一些实施方式中,从第二数据表示生成预测模型,并且根据从第二数据表示生成的预测模型和第一数据表示的比较来确定身份识别匹配的确认。
改变数据和软件架构以进行匹配提供了安全优势,其中包括***并获得对部分或全部软件和/或数据的访问权限的专用攻击者不太能够理解匹配是如何进行,并且不太可能或不能破坏***和/或重放攻击代表一个或多个用户的用户身份匹配练习,这可能是访问信息或资源的努力的一部分,或导致信息或资源的改变。
在该方法的一些实施方式中,匹配架构的配置,可以来自(a)从第一数据表示生成的预测模型与第二数据表示的比较,或(b)从第二数据表示生成的预测模型与第一数据表示的比较、随着连续匹配练习而改变,或者随着某些连续匹配练习而不是其他而改变,其中改变能够在匹配练习之间随机化,或者基于非随机化的确定数据或协议,或者可能不会改变。
在该方法的一些实施方式中,使用引导用户界面来捕获所述第一数据表示和/或第二数据表示。引导信息用于匹配练习。
在该方法的一些实施方式中,预测建模架构的配置可以来自(a)来自给定数据或数据表示的预测建模以生成和匹配另一数据或数据表示,或(b)来自多于一个的捕获数据或数据表示的预测建模以生成多个预测以匹配多个其他数据或数据表示,其具有第一数据、第二数据和/或用于预测建模以匹配其他数据或数据表示的附加数据。
在该方法的一些实施方式中,可以基于安全级别和执行速度优化预测建模架构的配置,例如在解决数据消耗、文件大小、处理步骤以及其他数据和软件架构特性方面以改变执行速度,在某些情况下,这可能取决于相关的实现安全规范。
在该方法的一些实施方式中,使用包括机器学习、图像分析、深度学习和其他方法的方法训练生成一个或多个预测数据的预测模型。基于从用户收集的真实数据和/或通过图像渲染或本领域已知的图像数据表示的其他技术生成的合成数据来训练预测模型。
在该方法的一些实施方式中,在第一距离处的相机记录用户的面部图像或图像集时,从移动设备上的传感器记录运动和/或位置数据;在第二距离处的相机记录用户的面部图像或图像集时,从移动设备上的传感器记录运动和/或位置数据;将在第一距离处记录的运动和/或位置数据和在第二距离处记录的运动和/或位置数据与从第一数据表示生成的预测模型和第二数据表示进行比较;如果第二数据表示与从第一数据表示生成的预测模型相匹配,并且如果运动和/或位置数据与归因于移动设备相对于用户面部的位置的预期运动和/或位置数据匹配,则确认身份识别匹配,因为在第一数据表示的记录时间和第二数据表示的记录时间之间,所述位置可以随着移动设备的移动和/或用户面部的移动而改变。
在该方法的一些实施例中,在第一数据表示的记录时间和第二数据表示的记录时间之间连续地或以多个间隔记录运动和/或位置数据;将在第一数据表示的记录时间和第二数据表示的记录时间之间连续或以多个间隔记录的运动和/或位置数据与从第一数据表示以及第二数据表示生成的预测模型进行比较;如果第二数据表示与从第一数据表示生成的预测模型相匹配,并且如果连续或以多个间隔记录的运动和/或位置数据与归因于移动设备相对于用户面部的位置的预期的运动和/或位置数据相匹配,则确认身份识别匹配,因为在第一数据表示的记录时间和第二数据表示的记录时间之间,所述位置可以随着移动设备的移动和/或用户面部的移动而改变。
在该方法的一些实施方式中,在第一距离处的相机记录用户的面部图像或图像集时,从移动设备上的传感器记录运动和/或位置数据;在第二距离处的相机记录用户的面部图像或图像集时,从移动设备上的传感器记录运动和/或位置数据;将在第一距离处记录的运动和/或位置数据和在第二距离处记录的运动和/或位置数据与从第二数据表示生成的预测模型和第一数据表示进行比较;如果第一数据表示与从第二数据表示生成的预测模型相匹配,并且如果运动和/或位置数据与归因于移动设备相对于用户面部的位置的预期运动和/或位置数据匹配,则确认身份识别匹配,因为在第一数据表示的记录时间和第二数据表示的记录时间之间,所述位置可以随着移动设备的移动和/或用户面部的移动而改变。
在该方法的一些实施方式中,在第一数据表示的记录时间和第二数据表示的记录时间之间连续地或以多个间隔记录运动和/或位置数据;将在第一数据表示的记录时间和第二数据表示的记录时间之间连续或以多个间隔记录的运动和/或位置数据与从第一数据表示以及第二数据表示生成的预测模型进行比较;如果第一数据表示与从第二数据表示生成的预测模型相匹配,并且如果连续或以多个间隔记录的运动和/或位置数据与归因于移动设备相对于用户面部的位置的预期的运动和/或位置数据相匹配,则确认身份识别匹配,因为在第一数据表示的记录时间和第二数据表示的记录时间之间,所述位置可以随着移动设备的移动和/或用户面部的移动而改变。
术语和定义
除非另有定义,本文使用的所有技术术语与本公开内容所属领域的普通技术人员通常理解的含义相同。
除非另有定义,本文使用的所有技术术语与本发明所属领域的普通技术人员通常理解的含义相同。在本说明书和所附权利要求书中使用的单数形式“一”、“一个”和“该”包括复数形式,除非上下文另有明确规定。除非另有说明,本文中对“或”的任何引用均旨在涵盖“和/或”。
如本文所用,术语“约”是指接近所述量10%、5%或1%的量,包括其中的增量。
如本文所用,关于百分比的术语“约”是指大于或小于所述百分比的量的10%、5%或1%,包括其中的增量。
如本文所用,短语“至少一个”、“一个或多个”和“和/或”是开放式表达,在操作中既是连接的又是分离的。例如,每个表述“A、B和C中的至少一个”、“A、B或C中的至少一个”、“A、B和C中的一个或多个”、“A、B或C中的一个或多个”和“A、B和/或C中的一个或多个”是指单独的A、单独的B、单独的C、A和B一起、A和C一起、B和C一起,或A、B和C一起。
计算***
参考图1,示出了描绘示例性机器的框图,该示例性机器包括计算机***100(例如,处理或计算***),在该计算机***100中可以执行一组指令以使得设备执行或运行本公开的静态代码调度的任何一个或多个方面和/或方法。图1中的组件仅是示例,并不限制任何硬件、软件、嵌入式逻辑组件或实现特定实施方式的两个或更多个此类组件的组合的使用范围或功能。
计算机***100可以包括一个或多个处理器101、存储器103和存储108,它们经由总线140彼此通信并与其他组件通信。总线140还可以链接显示器132、一个或多个输入设备133(例如,其可以包括小键盘、键盘、鼠标、触笔等)、一个或多个输出设备134、一个或多个存储设备135和各种有形存储介质136。所有这些元件可以直接或经由一个或多个接口或适配器连接到总线140。例如,各种有形存储介质136可以经由存储介质接口126与总线140对接。计算机***100可以具有任何合适的物理形式,包括但不限于一个或多个集成电路(IC)、印刷电路板(PCB)、移动手持设备(例如,移动电话或PDA)、膝上型或笔记本计算机、分布式计算机***、计算网格或服务器。
计算机***100包括执行功能的一个或多个处理器101(例如,中央处理单元(CPU)或通用图形处理单元(GPGPU))。处理器101可选地包含用于指令、数据或计算机地址的临时本地存储的高速缓存存储器单元102。处理器101被配置为辅助计算机可读指令的执行。作为处理器101执行包含在一个或多个有形计算机可读存储介质(例如,存储器103、存储108、存储设备135和/或存储介质136)中的非暂时性、处理器可执行指令的结果,计算机***100可以为图1中描绘的组件提供功能。计算机可读介质可以存储实现特定实施方式的软件,并且处理器101可以执行该软件。存储器103可以从一个或多个其他计算机可读介质(例如,大容量存储设备135、136)或通过合适的接口(例如,网络接口120)从一个或多个其他源读取软件。该软件可以导致处理器101执行本文描述或示出的一个或多个进程或一个或多个进程的一个或多个步骤。执行这样的进程或步骤可以包括定义存储在存储器103中的数据结构并按照软件的指示修改数据结构。
存储器103可以包括各种组件(例如,机器可读介质),包括但不限于随机存取存储器组件(例如,RAM 104)(例如,静态RAM(SRAM)、动态RAM(DRAM)、铁电随机存取存储器(FRAM)、相变随机存取存储器(PRAM)等)、只读存储器组件(例如,ROM105)以及它们的任何组合。ROM 105可以用于将数据和指令单向传送到处理器101,并且RAM 104可以用于与处理器101双向传送数据和指令。ROM 105和RAM 104可以包括以下描述的任何合适的有形计算机可读介质。在一个示例中,基本输入/输出***106(BIOS),包括帮助在计算机***100内的元件之间传输信息的基本例程,例如在启动期间,可以存储在存储器103中。
固定存储108可选地通过存储控制单元107双向连接到处理器101。固定存储108提供额外的数据存储容量,并且还可以包括本文描述的任何合适的有形计算机可读介质。存储108可用于存储操作***109、可执行文件110、数据111、应用112(应用程序)等。存储108还可以包括光盘驱动器、固态存储器设备(例如,基于闪存的***)或以上任何的组合。在适当的情况下,存储108中的信息可以作为虚拟存储器并入存储器103中。
在一个示例中,存储设备135可以经由存储设备接口125与计算机***100可拆卸地对接(例如,经由外部端口连接器(未示出))。特别地,存储设备135和相关联的机器可读介质可以为计算机***100提供机器可读指令、数据结构、程序模块和/或其他数据的非易失性和/或易失性存储。在一个示例中,软件可以完全或部分驻留在存储设备135上的机器可读介质内。在另一示例中,软件可以完全或部分驻留在处理器101内。
总线140连接各种子***。在本文中,在适当的情况下,对总线的引用可包括服务公共功能的一条或多条数字信号线。总线140可以是使用多种总线架构中的任一种的多种类型的总线结构中的任一种,包括但不限于存储器总线、存储器控制器、***总线、本地总线及其任何组合。作为示例而非限制,此类架构包括工业标准架构(ISA)总线、增强型ISA(EISA)总线、微通道架构(MCA)总线、视频电子标准协会本地总线(VLB)、***组件互连(PCI)总线、PCI-Express(PCI-X)总线、加速图形端口(AGP)总线、HyperTransport(HTX)总线、串行高级技术附件(SATA)总线及其任意组合。
计算机***100还可以包括输入设备133。在一个示例中,计算机***100的用户可以经由输入设备133将命令和/或其他信息输入到计算机***100中。输入设备的示例133包括但不限于字母数字输入设备(例如,键盘)、定点设备(例如,鼠标或触摸板)、触摸板、触摸屏、多点触摸屏、操纵杆、手写笔、游戏手柄、音频输入设备(例如,麦克风、语音响应***等)、光学扫描仪、视频或静止图像捕获设备(例如,相机)以及它们的任何组合。在一些实施方式中,输入设备是Kinect、LeapMotion等。输入设备133可以经由各种输入接口123(例如,输入接口123)中的任何一个连接到总线140,包括但不限于串行、并行、游戏端口、USB、FIREWIRE、THUNDERBOLT或以上的任何组合。
在特定实施方式中,当计算机***100连接到网络130时,计算机***100可以与连接到网络130的其他设备通信,特别是移动设备和企业***、分布式计算***、云存储***、云计算***等。去往和来自计算机***100的通信可以通过网络接口120发送。例如,网络接口120可以以一个或多个分组(例如,互联网协议(IP)分组)从网络130接收传入的通信(例如,来自其他设备的请求或响应),并且计算机***100可以将传入的通信存储在存储器103中以用于处理。计算机***100可以类似地在存储器103中以一个或多个分组的形式存储传出的通信(例如,对其他设备的请求或响应)并且将其从网络接口120传送到网络130。处理器101可以访问存储在存储器103中的这些通信分组以用于处理。
网络接口120的示例包括但不限于网络接口卡、调制解调器及其任何组合。网络130或网段130的示例包括但不限于分布式计算***、云计算***、广域网(WAN)(例如,因特网、企业网络)、局域网(LAN)(例如,与办公室、建筑物、校园或其他相对较小的地理空间相关联的网络)、电话网络、两个计算设备之间的直接连接、对等网络及其任何组合。网络(例如,网络130)可以采用有线和/或无线通信模式。通常,可以使用任何网络拓扑。
信息和数据可以通过显示器132显示。显示器132的示例包括但不限于阴极射线管(CRT)、液晶显示器(LCD)、薄膜晶体管液晶显示器(TFT-LCD)、有机液晶显示器(OLED),例如无源矩阵OLED(PMOLED)或有源矩阵OLED(AMOLED)显示器、等离子显示器、以及它们的任何组合。显示器132可以经由总线140连接到处理器101、存储器103和固定存储108以及其他设备,例如输入设备133。显示器132经由视频接口122链接到总线140,显示器132和总线140之间的数据传输可以经由图形控制121来控制。在一些实施方式中,显示器是视频投影仪。在一些实施方式中,显示器是头戴式显示器(HMD),例如VR耳机。在进一步的实施方式中,作为非限制性示例,合适的VR耳机包括HTC Vive、Oculus Rift、Samsung GearVR、MicrosoftHoloLens、RazerOSVR、FOVEVR、Zeiss VR One、Avegant Glyph、Freefly VR耳机等。在更进一步的实施方式中,显示器是例如本文公开的那些设备的组合。
除了显示器132之外,计算机***100可以包括一个或多个其他***输出设备134,包括但不限于音频扬声器、打印机、存储设备以及它们的任何组合。这样的***输出设备可以经由输出接口124连接到总线140。输出接口124的示例包括但不限于串行端口、并行连接、USB端口、FIREWIRE端口、THUNDERBOLT端口以及它们的任何组合。
此外,或作为替代,计算机***100可提供作为硬连线或以其他方式体现在电路中的逻辑的结果的功能,其可代替软件运行或与软件一起运行以执行本文描述或示出的一个或多个进程或一个或多个进程的一个或多个步骤。在本公开中对软件的引用可以包括逻辑,并且对逻辑的引用可以包括软件。此外,在适当的情况下,对计算机可读介质的引用可包括存储用于执行的软件的电路(例如,IC)、包含用于执行的逻辑的电路或两者。本公开包括硬件、软件或两者的任何合适的组合。
本领域技术人员将理解,结合本文公开的实施方式描述的各种示例性逻辑块、模块、电路和算法步骤可以实现为电子硬件、计算机软件或两者的组合。为了清楚地示出硬件和软件的这种可互换性,上面已经根据它们的功能大体描述了各种示例性组件、块、模块、电路和步骤。
结合本文公开的实施方式描述的各种示例性逻辑块、模块和电路可以用旨在执行本文所述的功能的通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其他可编程逻辑器件、离散门或晶体管逻辑、离散硬件组件或其任何组合实现或执行。通用处理器可以是微处理器,但在替代方案中,处理器可以是任何常规处理器、控制器、微控制器或状态机。处理器还可以实现为计算设备的组合,例如DSP和微处理器的组合、多个微处理器、一个或多个微处理器与DSP核结合,或者任何其他这样的配置。
结合本文所公开的实施方式描述的方法或算法的步骤可以直接体现在硬件中、由一个或多个处理器执行的软件模块中、或者两者的组合中。软件模块可以驻留在RAM存储器、闪存、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动磁盘、CD-ROM或本领域已知的任何其他形式的存储介质中。示例性存储介质耦合到处理器,使得处理器可以从存储介质读取信息和向存储介质写入信息。或者,存储介质可以与处理器集成在一起。处理器和存储介质可以驻留在ASIC中。ASIC可以驻留在用户终端中。或者,处理器和存储介质可以作为分立的组件驻留在用户终端中。
依据本文的描述,举非限制性示例而言,合适的计算设备包括服务器计算机、台式计算机、膝上型计算机、笔记本计算机、小型笔记本计算机、上网本计算机、上网平板计算机、机顶盒计算机、媒体串流设备、手持式计算机、因特网设备、移动智能电话、平板计算机、个人数字助理、视频游戏控制台以及载具。本领域技术人员还将认识到,具有可选的计算机网络连通性的选定电视机、视频播放器和数字音乐播放器适合于在本文所描述的***中使用。在各种实施方式中,合适的平板计算机包括具有本领域中技术人员已知的小册子、平板和可转换配置的那些平板计算机。
在一些实施方式中,计算设备包括被配置用于执行可执行指令的操作***。操作***是例如包含程序和数据的软件,其管理设备的硬件并提供用于执行应用程序的服务。本领域技术人员将认识到,举非限制性示例而言,合适的服务器操作***包括FreeBSD、OpenBSD、Linux、/>Mac OS X/>Windows以及/>本领域技术人员将认识到,举非限制性示例而言,合适的个人计算机操作***包括/> Mac OS以及诸如GNU//>等类UNIX操作***。在一些实施方式中,操作***由云计算提供。本领域技术人员还将认识到,举非限制性示例而言,合适的移动智能电话操作***包括/>OS、/>Research In/>BlackBerryWindows/>OS、/>Windows/>OS、/>以及/> 本领域技术人员还将认识到,作为非限制性示例,合适的媒体串流设备操作***包括Google/>Google/> 以及/>本领域技术人员还将认识到,作为非限制性示例,合适的视频游戏控制台操作***包括:/> Xbox/>Xbox One、和/>
非暂时性计算机可读存储介质
在一些实施方式中,本文所公开的平台、***、介质和方法包括被编码有程序的一个或多个非暂时性计算机可读存储介质,所述程序包含可由可选地联网的计算设备的操作***执行的指令。在进一步的实施方式中,计算机可读存储介质是计算设备的有形组件。在更进一步的实施方式中,计算机可读存储介质可选地是可从计算设备移除的。在一些实施方式中,举非限制性示例而言,计算机可读存储介质包括CD-ROM、DVD、闪速存储器设备、固态存储器、磁盘驱动器、磁带驱动器、光盘驱动器、包括云计算***和服务的分布式计算***等。在一些情况下,程序和指令永久地、基本上永久地、半永久地或非暂时性地编码在介质上。
计算机程序
在一些实施方式中,本文所公开的平台、***、介质和方法包括至少一个计算机程序或其使用。计算机程序包含可在计算设备的CPU的一个或多个处理器中执行、被编写以执行指定任务的指令序列。计算机可读指令可被实现为执行特定任务或实现特定抽象数据类型的程序模块,诸如函数、对象、应用编程接口(API)、计算数据结构等。鉴于本文所提供的公开内容,本领域技术人员将认识到,计算机程序能够以各种版本的各种语言编写。
在各种环境中,可以根据需要对计算机可读指令的功能进行组合或分配。在一些实施方式中,计算机程序包括一个指令序列。在一些实施方式中,计算机程序包括多个指令序列。在一些实施方式中,计算机程序由一个位置提供。在其他实施方式中,计算机程序由多个位置提供。在各个实施方式中,计算机程序包括一个或多个软件模块。在各个实施方式中,计算机程序部分地或整体地包括一个或多个网络应用、一个或多个移动应用、一个或多个独立应用、一个或多个网络浏览器插件、扩展、加载项或附加项,或者它们的组合。
Web应用
内容,本领域技术人员将认识到,在各个实施方式中,网络应用利用一个或多个软件框架以及一个或多个数据库***。在一些实施方式中,在诸如.NET或Rubyon Rails(RoR)的软件框架上创建网络应用。在一些实施方式中,网络应用利用一个或多个数据库***,举非限制性示例而言,数据库***包括关系数据库***、非关系数据库***、面向对象的数据库***、关联数据库***以及XML数据库***。在进一步的实施方式中,举非限制性示例而言,合适的关系数据库***包括/>SQL Server、mySQLTM和本领域技术人员还将认识到,在各个实施方式中,网络应用以一种或多种版本的一种或多种语言编写。网络应用能够以一种或多种标识语言、表示定义语言、客户端脚本语言、服务器端编码语言、数据库查询语言或其组合来编写。在一些实施方式中,网络应用在某种程度上以诸如超文本标记语言(HTML)、可扩展超文本标记语言(XHTML)或可扩展标记语言(XML)等标记语言来编写。在一些实施方式中,网络应用在某种程度上以诸如层叠样式表(CSS)等表示定义语言编写。在一些实施方式中,网络应用在某种程度上以诸如Asynchronous Javascript和XML(AJAX)、/>Actionscript、Javascript或等客户端脚本语言来编写。在一些实施方式中,网络应用在某种程度上以诸如活动服务器页面(Active Server Pages,ASP)、/>Perl、JavaTM、JavaServer Pages(JSP)、超文本预处理器(Hypertext Preprocessor,PHP)、PythonTM、Ruby、Tcl、Smalltalk、/>或Groovy等服务器端编码语言来编写。在一些实施方式中,网络应用在某种程度上以诸如结构化查询语言(SQL)等数据库查询语言编写。在一些实施方式中,网络应用集成了诸如/>Lotus/>等企业服务器产品。在一些实施方式中,网络应用包括媒体播放器元件。在各个进一步的实施方式中,媒体播放器元件利用许多合适的多媒体技术中的一个或多个,举非限制性示例而言,所述多媒体技术包括HTML 5、/> JavaTM以及/>
参照图2,在特定实施方式中,应用程序供应***包括一个或多个由关系数据库管理***(RDBMS)210访问的数据库200。适用的RDBMS包括Firebird、MySQL、PostgreSQL、SQLite、Oracle数据库、Microsoft SQL Server、IBM DB2、IBM Informix、SAP Sybase、SAPSybase、Teradata,等等。在本实施方式中,应用程序供应***还包括一个或多个应用程序服务器220(如Java服务器、.NET服务器、PHP服务器,等等)和一个或多个web服务器230(如Apache、IIS、GWS等)。web服务器可以选择经由应用程序编程接口(API)240公开一个或多个web服务。经由网络,例如Internet,***提供基于浏览器和/或移动本机的用户界面。
参照图3,在特定实施方式中,应用程序供应***可选地具有分布式的、基于云的架构300,并包括弹性负载平衡的、自动缩放的web服务器源310和应用服务器源320以及同步复制的数据库330。
移动应用
在一些实施方式中,计算机程序包括提供给移动计算设备的移动应用。在一些实施方式中,移动应用在制造的时候被提供给移动计算设备。在其他实施方式中,移动应用经由本文所描述的计算机网络提供给移动计算设备。
鉴于本文所提供的公开内容,通过本领域技术人员已知的技术使用本领域已知的硬件、语言和开发环境来创建移动应用。本领域技术人员将认识到,移动应用是以若干语言编写的。举非限制性示例而言,合适的编程语言包括C、C++、C#、Objective-C、JavaTM、Javascript、Pascal、Object Pascal、PythonTM、Ruby、VB.NET、WML以及具有或不具有CSS的XHTML/HTML或者其组合。
合适的移动应用开发环境可从若干来源获得。举非限制性示例而言,市售的开发环境包括AirplaySDK、alcheMo、Celsius、Bedrock、Flash Lite、.NET精简框架、Rhomobile以及WorkLight移动平台。其他开发环境可免费获得,举非限制性示例而言包括Lazarus、MobiFlex、MoSync和Phonegap。另外,移动设备制造商分发软件开发工具包,举非限制性示例而言包括iPhone和iPad(iOS)SDK、AndroidTMSDK、/>SDK、BREW SDK、/>OS SDK、Symbian SDK、webOS SDK以及/>Mobile SDK。
本领域技术人员将认识到,若干商业论坛可用于分发移动应用,举非限制性示例而言,包括应用商店、/>Play、Chrome网络商店、/>应用世界、Palm设备的应用商店、webOS应用目录、/>移动市场、/>设备Ovi商店、应用以及/>DSi商城。
独立应用
在一些实施方式中,计算机程序包括独立应用,该应用是作为独立计算机进程运行的程序,而不是现有进程的附加组件,例如,不是插件。本领域技术人员将认识到独立应用经常被编译。编译器是一种计算机程序,它将以编程语言编写的源代码转换为二进制目标代码,例如汇编语言或机器代码。作为非限制性示例,合适的编译编程语言包括C、C++、Objective-C、COBOL、Delphi、Eiffel、JavaTM、Lisp、PythonTM、Visual Basic和VB.NET或其组合。通常至少部分地执行编译以创建可执行程序。在一些实施方式中,计算机程序包括一个或多个可执行的编译应用。
Web浏览器插件
在一些实施方式中,计算机程序包括Web浏览器插件(例如,扩展等)。在计算中,插件是一个或多个软件组件,其可将特定功能添加到更大的软件应用中。软件应用的制造商支持插件,以使第三方开发人员能够创建扩展应用的能力,以支持轻松添加新功能,并减小应用的大小。在支持时,插件可以自定义软件应用的功能。例如,插件通常在Web浏览器中用于播放视频、生成交互、扫描病毒和显示特定文件类型。本领域技术人员将熟悉若干Web浏览器插件,包括 Player、/>和在一些实施方式中,工具栏包括一个或多个Web浏览器扩展、插件或附件。在一些实施方式中,工具栏包括一个或多个浏览器栏、工具带或桌面带。
鉴于本文提供的公开内容,本领域技术人员将认识到,可以使用多种插件框架来以各种编程语言开发插件,作为非限制性示例包括,C++、Delphi、JavaTM、PHP、PythonTM和VB.NET或其组合。
Web浏览器(也称为因特网浏览器)是软件应用,其设计用于连接网络的计算设备,用于检索、呈现和遍历万维网上的信息资源。作为非限制性示例,合适的网络浏览器包括Internet/> Chrome、Opera/> 和KDE Konqueror。在一些实施方式中,Web浏览器是移动Web浏览器。移动Web浏览器(也称为微型浏览器、迷你浏览器和无线浏览器)设计用于移动计算设备,包括但不限于手持计算机、平板计算机、上网本计算机、小笔记本计算机、智能电话、音乐播放器、个人数字助理(PDA)和手持视频游戏***。作为非限制性示例,合适的移动Web浏览器包括/>浏览器、RIM/>浏览器、/>Blazer、/>浏览器、/>for mobile、/>Internet/>Mobile、/>BasicWeb、/>Browser、Opera/>Mobile和/>PSPTM浏览器。
软件模块
在一些实施方式中,本文所公开的平台、***、介质和方法包括软件、服务器和/或数据库模块或者其使用。鉴于本文所提供的公开内容,使用本领域已知的机器、软件和语言,通过本领域技术人员已知的技术来创建软件模块。本文所公开的软件模块是以多种方式实现的。在各种实施方式中,软件模块包括文件,代码段,编程对象,程序结构或其组合。在进一步实施方式中,软件模块包括多个文件、多个代码段、多个编程对象、多个程序结构或其组合。在各种实施方式中,作为非限制性示例,一个或多个软件模块包括网络应用、移动应用和独立应用。在一些实施方式中,软件模块在一个计算机程序或应用程序中。在一些实施方式中,软件模块在多于一个计算机程序或应用程序中。在一些实施方式中,软件模块被托管在一台机器上。在一些实施方式中,软件模块被托管在多于一台机器上。在进一步的实施方式中,软件模块被托管在诸如云计算平台的分布式计算平台上。在一些实施方式中,软件模块被托管在一个地点中的一个或多个机器上。在一些实施方式中,软件模块被托管在多于一个地点中的一个或多个机器上。
数据库
在一些实施方式中,本文所公开的平台、***、介质和方法包括一个或多个数据库或其使用。鉴于本文所提供的公开内容,本领域技术人员将认识到,许多数据库适合于储存和检索信息。在各个实施方式中,举非限制性示例而言,合适的数据库包括关系数据库、非关系数据库、面向对象的数据库、对象数据库、实体-关系模型数据库、关联数据库以及XML数据库。进一步的非限制示例包括SQL、PostgreSQL、MySQL、Oracle、DB2和Sybase。在一些实施方式中,数据库是基于因特网的。在进一步的实施方式中,数据库是基于网络的。在更进一步的实施方式中,数据库是基于云计算的。在特定的实施方式中,数据库是分布式数据库。在其他实施方式中,数据库是基于一个或多个本地计算机存储设备的。
用于检测与移动设备相关的面部识别的欺骗的方法和***
用于检测欺骗尝试的新颖且独特的数据和软件架构可提供安全益处,例如阻止专门的攻击者。本文的此类***和方法包括特定的识别匹配和确认算法,即使已获得对安全软件和/或数据的至少一部分的访问权的任何这种攻击者也不能直接访问和/或篡改该特定的识别匹配和确认算法。
本文根据图4至图6提供使用移动设备的相机检测生物特征身份识别的欺骗的方法。在一些实施方式中,该方法包括:通过移动设备的相机记录用户面部的第一图像;从第一图像生成用户面部的第一数据表示401A;从第一数据表示401A形成403预测模型402A;通过移动设备的相机记录用户面部的第二图像;从第二图像生成用户面部的第二数据表示401B;并且确定404第二数据表示401B是否匹配预测模型402A。
当相机距用户第一距离时,可以捕获用户面部的第一图像。当相机距用户第二距离时,可以捕获用户面部的第二图像。第一距离可以大于第二距离。第二距离可以大于第一距离。第一距离可以比第二距离大5%、10%、15%、20%、25%、30%、35%、40%、45%、50%、60%、70%、80%、90%、100%或更多,包括其中的增量。第二距离可以比第一距离大5%、10%、15%、20%、25%、30%、35%、40%、45%、50%、60%、70%、80%、90%、100%或更多,包括其中的增量。第一距离和第二距离中的至少一个可以被测量为到用户面部的最小距离、到用户面部的正常距离、到用户鼻子的最小距离或到用户鼻子的正常距离。
当相机处于相对于用户的第一方向时,可以捕获用户面部的第一图像。当相机处于相对于用户的第二方向时,可以捕获用户面部的第二图像。第一方向可以包括相对于用户的第一俯仰角、第一偏航角、第一滚转角或其任何组合。第二方向可以包括相对于用户的第二俯仰角、第二偏航角、第二滚转角或其任何组合。第一俯仰角、第二俯仰角或两者可以围绕平行于地面且平行于用户的向前方向的轴测量。第一偏航角、第二偏航角或两者可以围绕垂直于地面的轴测量。第一滚转角、第二滚转角或两者可以围绕平行于地面且垂直于用户的向前方向的轴测量。第一俯仰角、第一偏航角和第一滚转角中的至少一个可以大于第二俯仰角、第二偏航角和第二滚转角中的一个或多个。第一俯仰角、第一偏航角和第一滚转角中的至少一个可以比第二俯仰角、第二偏航角和第二滚转角中的一个或多个大5%、10%、15%、20%、25%、30%、35%、40%、45%、50%、60%、70%、80%、90%、100%或更多,包括其中的增量。第二俯仰角、第二偏航角和第二滚转角中的至少一个可以大于第一俯仰角、第一偏航角和第一滚转角中的一个或多个。第二俯仰角、第二偏航角和第二滚转角中的至少一个可以比第一俯仰角、第一偏航角和第一滚转角中的一个或多个大5%、10%、15%、20%、25%、30%、35%、40%、45%、50%、60%、70%、80%、90%、100%或更多,包括其中的增量。
确定404第二数据表示401B是否与预测模型402A匹配可以通过将第二数据表示401B与预测模型402A进行比较来执行。如果第二数据表示401B与预测模型402A不匹配,则可以拒绝用户的身份匹配。被拒绝的身份匹配可以指示欺骗尝试。如果第二数据表示401B与预测模型402A匹配,则可以确认用户的身份匹配。确认的身份匹配可以指示没有欺骗尝试。
附加地或替代地,该方法还可以包括捕获用户面部的第三图像,从第三图像生成用户面部的第三数据表示401C,以及确定404第三数据表示401C是否匹配预测模型402A。附加地或替代地,如果第二数据表示401B与预测模型402A不匹配,则该方法还可以包括捕获用户面部的第三图像,从第三图像生成用户面部的第三数据表示401C,并且确定404第三数据表示401C是否匹配预测模型402A。
附加地或替代地,如果第二数据表示401B与预测模型402A不匹配,则该方法可以进一步包括接受用户提供的输入匹配与用户相关联的附加数据。附加地或替代地,如果第三数据表示401C与预测模型402A不匹配,则该方法可以进一步包括接受用户提供的输入匹配与用户相关联的附加数据。
该方法还可以包括捕获用户的运动数据、用户的位置数据或两者。在这种情况下,该方法还可以包括:如果用户的运动数据在距设置运动的预定范围内,则接受用户,如果用户的位置数据在距设置位置的预定范围内,则接受用户,或两者。在这种情况下,该方法还可以包括:如果用户的运动数据不在设定运动的预定范围内,则拒绝用户;如果用户的位置数据不在设定位置的预定范围内,则拒绝用户,或两者。
用户可以经由移动设备上的引导用户界面捕获第一图像、第二图像、第三图像或其任何组合。
如果第二数据表示401B匹配从第一数据表示401A生成的预测模型402A和/或如果运动和/或位置数据匹配归因于移动设备相对于用户面部的位置的预期运动和/或位置数据,则可以执行确认身份识别匹配。在第一数据表示401A的记录时间和第二数据表示401B的记录时间之间所述位置可以随着移动设备的移动和/或用户面部的移动而改变。
附加地或替代地,如果第二数据表示401B与预测模型402A不匹配,则该方法可以进一步包括接受由用户提供的附加数据,并且确定404附加数据是否与关联于用户的附加数据匹配。附加地或替代地,如果第三数据表示401C与预测模型402A不匹配,则该方法可以进一步包括接受用户提供的附加数据,并且确定404附加数据是否与关联于用户的附加数据匹配。
附加地或替代地,如果第一数据表示401A匹配从第二数据表示401B生成的预测模型402A,并且如果运动和/或位置数据匹配归因于移动设备位置的预期运动和/或位置数据,则可以进行身份识别匹配的确认。在第一数据表示401A的记录时间和第二数据表示401B的记录时间之间,所述位置可以随着移动设备的移动和/或用户面部的移动而改变。
第一数据表示
在一些实施方式中,本文的方法和***通过移动设备的相机记录用户面部的第一图像,并且从第一图像生成用户面部的第一数据表示。
第一数据表示可以包括:用户面部的至少一部分的三维图、用户面部的第一特征和第二特征之间的距离、多个面部特征的位置、用户面部的至少一部分的计算体积、用户面部的一部分的轮廓曲线、用户面部的至少一部分的表面的斜率图,或其任何组合。
第二数据表示
在一些实施方式中,本文的方法和***通过移动设备的相机记录用户面部的第二图像,并且从第二图像生成用户面部的第二数据表示。
第二数据表示可以包括:用户面部的至少一部分的三维图、用户面部的第二特征和第二特征之间的距离、多个面部特征的位置、用户面部的至少一部分的计算体积、用户面部的一部分的轮廓曲线、用户面部的至少一部分的表面的斜率图,或其任何组合。
运动和位置数据
运动数据、位置数据或两者可以在第一图像的记录时间、第一图像时间记录时间、或两者从移动设备上的传感器记录。
可以在单个时间点记录运动、位置数据或两者。可以连续记录运动、位置数据或两者。可以记录运动、位置数据或两者的序列。可以以设置的重复间隔记录运动、位置数据或两者的重复序列。可以在第一图像的记录时间、在第一图像的记录时间或两者开始运动、位置数据或两者的序列。设置的重复间隔可以是0.1秒、0.5秒、1秒、2秒、3秒、4秒、5秒或更多,包括其中的增量。
预测模型
在某些情况下,预测模型是从第一数据表示生成的。在某些情况下,预测模型是从第二数据表示生成的。在一些情况下,预测模型是从第一数据表示和第二数据表示生成的。
预测模型可以由机器学习算法、图像分析算法、深度学习算法或其任何组合生成。可以使用多个用户图像来训练机器学习算法、图像分析算法或深度学习算法中的至少一种。机器学习算法、图像分析算法或深度学习算法中的至少一种可以使用多个用户图像和多个欺骗用户图像来训练。用户图像可以包括公共用户图像。可以对从用户收集的真实数据和/或通过图像渲染或本领域已知的图像数据表示的其他技术生成的合成数据训练预测模型。
预测模型可以由第一数据表示以及位置数据和运动数据中的至少一个形成。
在第一数据表示的记录时间和第二数据表示的记录时间之间连续地或以多个间隔记录运动和/或位置数据。
匹配架构
预测建模架构的配置可以包括:(a)从给定数据集或数据表示集导出的预测建模架构,以生成和匹配另一个数据或数据表示;或(b)从多于一个捕获的数据或数据表示导出的预测建模架构,以生成与多个其他数据或数据表示相匹配的多个预测。在任一架构中,多个数据集可以用于预测建模以将匹配数据或数据表示进行匹配。
替代地或附加地,预测建模架构的配置可以包括:(a)从第一数据表示生成的预测模型和从第二数据表示生成的预测模型之间的比较;或(b)从第二数据表示生成的预测模型与从第一数据表示生成的预测模型的比较。在连续匹配练习之间的架构变化中,或者在某些连续匹配练习而不是其他之间的变化,可以在匹配练习之间随机化。在连续匹配练习之间的架构变化中,或者某些连续匹配练习而不是其他之间的变化可以基于非随机确定的数据或协议,或者可能不会改变。
预测建模架构的配置可以基于安全级别和执行速度进行优化。例如,可以基于数据消耗、文件大小、处理步骤或其任何组合来优化预测建模架构。这种架构特性可以根据相关的安全规范改变执行速度。
附加数据表示
该方法还可以包括将附加数据与用户提交给移动设备的数据进行比较。附加数据可以包括姓名、密码、身份号码、地址、地理位置、设备ID、移动设备上用户软件环境的唯一数据特性、生物特征数据、预测生物特征数据,或其任何组合。
附加地或替代地,如果第二数据表示与预测模型不匹配,则该方法还可以包括接受用户提供的输入匹配与用户相关联的附加数据。附加地或替代地,如果第三数据表示与预测模型不匹配,则该方法还可以包括接受用户提供的输入匹配与用户相关联的附加数据。
Claims (63)
1.一种计算机实现的方法,用于使用移动设备的相机检测生物特征身份识别的欺骗,所述方法包括:
通过所述相机记录用户在第一距离处的面部图像或图像集;
使用算法处理在所述第一距离处的所述用户的面部图像或图像集,以生成所述用户的面部图像或图像集的第一数据表示;
将所述第一数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的数据表示;
改变所述用户的面部与所述相机之间的所述距离,其中改变所述距离包括增加所述用户的面部与所述相机之间的所述距离、减小所述用户的面部与所述相机之间的所述距离、改变所述相机相对于所述用户的面部的所述方向、改变所述用户的面部相对于所述相机的所述方向、或其任意组合;
通过所述相机记录所述用户在第二距离处的面部图像或图像集;
使用算法处理在所述第二距离处的所述用户的面部图像或图像集,以生成所述用户的第二图像或图像集的第二数据表示;
将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较,以确定它们是否匹配;
如果所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则比较附加数据以确定在所述第一距离处呈现所述面部图像或图像集的所述用户是否与在所述第二距离处呈现所述面部图像或图像集的所述用户匹配;以及
如果所述第二数据表示匹配从所述第一数据表示生成的所述预测模型,则确认身份识别匹配。
2.根据权利要求1所述的方法,还包括:如果在将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后,所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝所述身份识别匹配。
3.根据权利要求1所述的方法,还包括:如果一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型相匹配,则确认附加数据表示身份识别匹配。
4.根据权利要求1所述的方法,还包括:如果一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝附加数据表示身份识别匹配。
5.根据权利要求1所述的方法,其中所述附加数据包括姓名、密码、身份号码、地址、地理位置、设备ID、在所述移动设备上所述用户的软件环境的唯一数据特征、其他生物特征数据、用户数据的预测模型或生物特征数据、其他数据或其任何组合。
6.根据权利要求1所述的方法,还包括:
将所述第二数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的数据表示;
将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较,以确定它们是否匹配;以及
如果所述第一数据表示与从所述第二数据表示生成的所述预测模型相匹配,则确认身份识别匹配。
7.根据权利要求6所述的方法,其中预测模型与数据表示的所述比较包括配置匹配架构。
8.根据权利要求6所述的方法,其中预测模型与数据表示的所述比较包括将从第一数据表示生成的预测模型与第二数据表示进行比较,将从第二数据表示生成的预测模型与第一数据表示进行比较,或其任何组合。
9.根据权利要求7所述的方法,其中匹配架构的所述配置随着连续匹配练习而改变,或者随着某些连续匹配练习而不是其他而改变,其中改变能够在匹配练习之间随机化,或者基于非随机化的确定数据或协议,或者可能不会改变。
10.根据权利要求9所述的方法,其中对匹配架构的所述配置的改变基于在匹配练习之间随机化的改变、基于非随机化确定数据或协议的改变或其任何组合。
11.根据权利要求7所述的方法,其中匹配架构的所述配置不改变。
12.根据权利要求1所述的方法,其中使用引导用户界面来捕获所述第一数据表示和/或第二数据表示。
13.根据权利要求12所述的方法,其中从所述引导用户界面捕获的信息用于匹配练习。
14.根据权利要求1所述的方法,还包括:
从所述移动设备上的一个或多个传感器记录由所述相机在所述第一距离处记录所述用户的面部图像或图像集时的运动和/或位置数据;
从所述移动设备上的一个或多个传感器记录由所述相机在所述第二距离处记录所述用户的面部图像或图像集时的运动和/或位置数据;
将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第一数据表示生成的所述预测模型和所述第二数据表示进行比较;以及
如果(I)所述第二数据表示与从所述第一数据表示预测建模生成的所述预测模型匹配;并且(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
15.根据权利要求14所述的方法,其中在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间,连续地或以多个间隔记录所述运动和/或位置数据。
16.根据权利要求15所述的方法,还包括:比较(I)在所述第一数据表示的所述记录时间和所述第二数据表示的所述记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第一数据表示生成的所述预测模型和所述第二数据表示。
17.根据权利要求16所述的方法,还包括:如果(I)所述第二数据表示与从所述第一数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
18.根据权利要求6所述的方法,还包括:
从所述移动设备上的一个或多个传感器记录由所述相机在所述第一距离处记录所述用户的面部图像或图像集时的运动和/或位置数据;
从所述移动设备上的一个或多个传感器记录由所述相机在所述第二距离处记录所述用户的面部图像或图像集时的运动和/或位置数据;
将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第二数据表示生成的所述预测模型和所述第一数据表示进行比较;以及
如果(I)所述第一数据表示与从所述第二数据表示预测建模生成的所述预测模型相匹配;并且(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
19.根据权利要求18所述的方法,其中在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间,连续地或以多个间隔记录所述运动和/或位置数据。
20.根据权利要求19所述的方法,还包括:比较(I)在所述第一数据表示的所述记录时间和所述第二数据表示的所述记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第二数据表示生成的所述预测模型和所述第一数据表示。
21.根据权利要求20所述的方法,还包括:如果(I)所述第一数据表示与从所述第二数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
22.一种计算机实现的***,包括计算设备,所述计算设备包括至少一个处理器、被配置为执行可执行指令的操作***、存储器、以及包括可由所述计算设备执行以创建用于使用移动设备的相机检测生物特征身份识别的欺骗的应用的指令的计算机程序,所述应用包括:
软件模块,其被配置为在第一距离处记录用户的面部图像或图像集;
软件模块,其被配置为使用算法处理在所述第一距离处的所述用户的面部图像或图像集,以生成所述用户的面部图像或图像集的第一数据表示;
软件模块,其被配置为将所述第一数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的数据表示;
软件模块,其被配置为改变所述用户的面部与所述相机之间的所述距离,其中改变所述距离包括增加所述用户的面部与所述相机之间的所述距离,减小所述用户的面部与所述相机之间的所述距离,改变所述相机相对于所述用户的面部的所述方向,改变所述用户的面部相对于所述相机的所述方向,或其任意组合;
软件模块,其被配置为在第二距离处记录所述用户的面部图像或图像集;
软件模块,其被配置为使用算法处理在所述第二距离处的所述用户的面部图像或图像集以生成所述用户的第二图像或图像集的第二数据表示;
软件模块,其被配置为将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较以确定它们是否匹配;
软件模块,其被配置为:如果所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则比较附加数据以确定在所述第一距离处呈现所述面部图像或图像集的所述用户是否与在所述第二距离处呈现所述面部图像或图像集的所述用户匹配;以及
软件模块,其被配置为如果所述第二数据表示匹配从所述第一数据表示生成的所述预测模型,则确认身份识别匹配。
23.根据权利要求22所述的***,还包括软件模块,所述软件模块被配置为如果在所述软件模块配置为将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后,所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝所述身份识别匹配。
24.根据权利要求22所述的***,还包括软件模块,所述软件模块被配置为如果一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型相匹配,则确认附加数据表示身份识别匹配。
25.根据权利要求22所述的***,还包括软件模块,所述软件模块被配置为如果一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝附加数据表示身份识别匹配。
26.根据权利要求22所述的***,其中所述附加数据包括姓名、密码、身份号码、地址、地理位置、设备ID、在所述移动设备上所述用户的软件环境的唯一数据特征、其他生物特征数据、用户数据的预测模型或生物特征数据、其他数据或其任何组合。
27.根据权利要求22所述的***,其中还包括:
a)软件模块,其被配置为将所述第二数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的数据表示;
软件模块,其被配置为将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较以确定它们是否匹配;以及
软件模块,其被配置为如果所述第一数据表示与从所述第二数据表示生成的所述预测模型相匹配,则确认身份识别匹配。
28.根据权利要求27所述的***,其中被配置为将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较的所述软件模块包括匹配架构配置。
29.根据权利要求27所述的***,其中被配置为将预测模型与数据表示进行比较的任何软件模块包括将从第一数据表示生成的预测模型与第二数据表示进行比较,将从第二数据表示生成的预测模型与第一数据表示进行比较,或其任何组合。
30.根据权利要求28所述的***,其中匹配架构的所述配置随着连续匹配练习而改变,或者随着某些连续匹配练习而不是其他而改变,其中改变能够在匹配练习之间随机化,或者基于非随机化的确定数据或协议,或者可能不会改变。
31.根据权利要求30所述的***,其中对匹配架构的所述配置的改变基于在匹配练习之间随机化的改变、基于非随机化确定数据或协议的改变或其任何组合。
32.根据权利要求28所述的***,其中所述匹配架构配置不改变。
33.根据权利要求22所述的***,其中还包括用于捕获所述第一数据表示和/或第二数据表示的引导用户界面。
34.根据权利要求33所述的***,其中从所述引导用户界面捕获的信息用于匹配练习。
35.根据权利要求22所述的***,还包括:
软件模块,其被配置为从所述移动设备上的一个或多个传感器记录由所述相机在所述第一距离处记录所述用户的面部图像或图像集时的运动和/或位置数据;
软件模块,其被配置为从所述移动设备上的一个或多个传感器记录由所述相机在所述第二距离处记录所述用户的面部图像或图像集时的运动和/或位置数据;
软件模块,其被配置为将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第一数据表示生成的所述预测模型和所述第二数据表示进行比较;以及
软件模块,其被配置为如果(I)所述第二数据表示与从所述第一数据表示预测建模生成的所述预测模型相匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
36.根据权利要求35所述的***,其中在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间,连续地或以多个间隔记录所述运动和/或位置数据。
37.根据权利要求36所述的***,还包括软件模块,所述软件模块被配置为比较(I)在所述第一数据表示的所述记录时间和所述第二数据表示的所述记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第一数据表示生成的所述预测模型和所述第二数据表示。
38.根据权利要求37所述的***,还包括软件模块,所述软件模块被配置为如果(I)所述第二数据表示与从所述第一数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
39.根据权利要求27所述的***,还包括:
软件模块,其被配置为从所述移动设备上的一个或多个传感器记录由所述相机在所述第一距离处记录所述用户的面部图像或图像集时的运动和/或位置数据;
软件模块,其被配置为从所述移动设备上的一个或多个传感器记录由所述相机在所述第二距离处记录所述用户的面部图像或图像集时的运动和/或位置数据;
软件模块,其被配置为将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第二数据表示生成的所述预测模型和所述第一数据表示进行比较;以及
软件模块,其被配置为如果(I)所述第一数据表示与从所述第二数据表示预测建模生成的所述预测模型相匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
40.根据权利要求39所述的***,其中在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间,连续地或以多个间隔记录所述运动和/或位置数据。
41.根据权利要求40所述的***,还包括软件模块,所述软件模块被配置为比较(I)在所述第一数据表示的所述记录时间和所述第二数据表示的所述记录时间之间,连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第二数据表示生成的所述预测模型和所述第一数据表示。
42.根据权利要求41所述的***,还包括软件模块,所述软件模块被配置为如果(I)所述第一数据表示与从所述第二数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
43.一种使用计算机程序编码的非暂时性计算机可读存储介质,所述计算机程序包括可由一个或多个处理器执行以创建用于使用移动设备的相机检测生物特征身份识别的欺骗的应用的指令,所述应用包括:
软件模块,其被配置为记录用户在第一距离处的面部图像或图像集;
软件模块,其被配置为使用算法处理在所述第一距离处的所述用户的面部图像或图像集,以生成所述用户的面部图像或图像集的第一数据表示;
软件模块,其被配置为将所述第一数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的数据表示;
软件模块,其被配置为改变所述用户的面部与所述相机之间的所述距离,其中改变所述距离包括增加所述用户的面部与所述相机之间的所述距离,减小所述用户的面部与所述相机之间的所述距离,改变所述相机相对于所述用户的面部的所述方向,改变所述用户的面部相对于所述相机的所述方向,或其任意组合;
软件模块,其被配置为记录所述用户在第二距离处的面部图像或图像集;
软件模块,其被配置为使用算法处理在所述第二距离处的所述用户的面部图像或图像集以生成所述用户的第二图像或图像集的第二数据表示;
软件模块,其被配置为将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较以确定它们是否匹配;
软件模块,所述软件模块被配置为如果所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则比较附加数据以确定在所述第一距离处呈现所述面部图像或图像集的所述用户是否与在所述第二距离处呈现所述面部图像或图像集的所述用户相匹配;以及
软件模块,其被配置为如果所述第二数据表示与从所述第一数据表示生成的所述预测模型相匹配,则确认身份识别匹配。
44.根据权利要求43所述的介质,还包括软件模块,所述软件模块被配置为如果在所述软件模块配置为将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝所述身份识别匹配。
45.根据权利要求43所述的介质,还包括软件模块,所述软件模块被配置为如果所述一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型相匹配,则确认附加数据表示身份识别匹配。
46.根据权利要求43所述的介质,还包括软件模块,所述软件模块被配置为如果所述一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝附加数据表示身份识别匹配。
47.根据权利要求43所述的介质,其中附加数据包括姓名、密码、身份号码、地址、地理位置、设备ID、在所述移动设备上所述用户的软件环境的唯一数据特征、其他生物特征数据、用户数据的预测模型或生物特征数据、其他数据或其任何组合。
48.根据权利要求43所述的介质,还包括:
软件模块,其被配置为将所述第二数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的数据表示;
软件模块,其被配置为将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较以确定它们是否匹配;和
软件模块,其被配置为如果所述第一数据表示匹配从所述第二数据表示生成的所述预测模型,则确认身份识别匹配。
49.根据权利要求48所述的介质,其中被配置为将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较的所述软件模块包括匹配架构配置。
50.根据权利要求48所述的介质,其中被配置为将预测模型与数据表示进行比较的任何软件模块包括将从第一数据表示生成的预测模型与第二数据表示进行比较,将从第二数据表示生成的预测模型与第一数据表示进行比较,或其任何组合。
51.根据权利要求49所述的介质,其中匹配架构的所述配置随着连续匹配练习而改变,或者随着某些连续匹配练习而不是其他而改变,其中改变能够在匹配练习之间随机化,或者基于非随机化的确定数据或协议,或者可能不会改变。
52.根据权利要求51所述的介质,其中对匹配架构的所述配置的改变基于在匹配练习之间随机化的改变、基于非随机化确定数据或协议的改变或其任何组合。
53.根据权利要求49所述的介质,其中所述匹配架构配置不改变。
54.根据权利要求43所述的介质,还包括用于捕获所述第一数据表示和/或第二数据表示的引导用户界面。
55.根据权利要求54所述的介质,其中从所述引导用户界面捕获的信息用于匹配练习。
56.根据权利要求43所述的介质,还包括:
软件模块,其被配置为从所述移动设备上的一个或多个传感器记录由所述相机在所述第一距离处记录所述用户的面部图像或图像集时的运动和/或位置数据;
软件模块,其被配置为从所述移动设备上的一个或多个传感器记录由所述相机在所述第二距离处记录所述用户的面部图像或图像集时的运动和/或位置数据;
软件模块,其被配置为将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第一数据表示生成的所述预测模型和所述第二数据表示进行比较;和
软件模块,其被配置为如果(I)所述第二数据表示与从所述第一数据表示预测建模生成的所述预测模型相匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
57.根据权利要求56所述的介质,其中在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间,连续地或以多个间隔记录所述运动和/或位置数据。
58.根据权利要求57所述的介质,还包括软件模块,所述软件模块被配置为比较(I)在所述第一数据表示的所述记录时间和所述第二数据表示的所述记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第一数据表示生成的所述预测模型和所述第二数据表示。
59.根据权利要求58所述的介质,还包括软件模块,所述软件模块被配置为如果(I)所述第二数据表示与从所述第一数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
60.根据权利要求48所述的介质,还包括:
软件模块,其被配置为从所述移动设备上的一个或多个传感器记录在由所述相机在所述第一距离处记录所述用户的面部图像或图像集时的运动和/或位置数据;
软件模块,其被配置为从所述移动设备上的一个或多个传感器记录在由所述相机在所述第二距离处记录所述用户的面部图像或图像集时的运动和/或位置数据;
软件模块,其被配置为将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第二数据表示生成的所述预测模型和所述第一数据表示进行比较;和
软件模块,其被配置为如果(I)所述第一数据表示与从所述第二数据表示预测建模生成的所述预测模型相匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
61.根据权利要求60所述的介质,其中在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间,连续地或以多个间隔记录所述运动和/或位置数据。
62.根据权利要求61所述的介质,还包括软件模块,所述软件模块被配置为比较(I)在所述第一数据表示的所述记录时间和所述第二数据表示的所述记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第二数据表示生成的所述预测模型和所述第一数据表示。
63.根据权利要求62所述的介质,还包括软件模块,所述软件模块被配置为如果(I)所述第一数据表示与从所述第二数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962817554P | 2019-03-12 | 2019-03-12 | |
US62/817,554 | 2019-03-12 | ||
PCT/US2020/022168 WO2020185948A1 (en) | 2019-03-12 | 2020-03-11 | Detecting spoofing of facial recognition with mobile devices |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113826110A CN113826110A (zh) | 2021-12-21 |
CN113826110B true CN113826110B (zh) | 2023-06-20 |
Family
ID=72424323
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080035642.9A Active CN113826110B (zh) | 2019-03-12 | 2020-03-11 | 利用移动设备检测生物特征身份识别的欺骗的方法、***和介质 |
Country Status (11)
Country | Link |
---|---|
US (1) | US11343277B2 (zh) |
EP (1) | EP3938953A4 (zh) |
JP (1) | JP7464619B2 (zh) |
KR (1) | KR20220004628A (zh) |
CN (1) | CN113826110B (zh) |
AU (1) | AU2020237108B2 (zh) |
BR (1) | BR112021018149B1 (zh) |
CA (1) | CA3133229C (zh) |
SG (1) | SG11202109983RA (zh) |
TW (1) | TWI781383B (zh) |
WO (1) | WO2020185948A1 (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI781226B (zh) | 2017-09-18 | 2022-10-21 | 美商艾勒門公司 | 用於偵測行動認證中之欺騙之方法、系統及媒體 |
JP7464619B2 (ja) | 2019-03-12 | 2024-04-09 | エレメント インク. | モバイルデバイスによる顔認識のなりすまし検知 |
US11507248B2 (en) | 2019-12-16 | 2022-11-22 | Element Inc. | Methods, systems, and media for anti-spoofing using eye-tracking |
JP2023511242A (ja) * | 2020-12-31 | 2023-03-17 | 商▲湯▼国▲際▼私人有限公司 | 画像内関連対象検出方法、装置、デバイス、及び記録媒体 |
US11922731B1 (en) | 2021-06-30 | 2024-03-05 | Jumio Corporation | Liveness detection |
FR3127610A1 (fr) * | 2021-09-27 | 2023-03-31 | Idemia Identity & Security France | Procédé d’imagerie d’une partie de corps d’un utilisateur, procédé anti-rejeu d’un déplacement d’une partie de corps et produit programme d’ordinateur associé |
ES2957496A1 (es) * | 2022-06-09 | 2024-01-19 | Fenomatch S L | Procedimiento para la seleccion entre un grupo de donantes mediante matching facial (pareo facial), a traves de una imagen facial 2d del sujeto donante |
Family Cites Families (185)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3733861A (en) | 1972-01-19 | 1973-05-22 | Recognition Devices | Electronic recognition door lock |
US4371951A (en) | 1980-09-29 | 1983-02-01 | Control Data Corporation | Apparatus for converting serial input sparse vector format to parallel unpacked format for input to tandem arithmetic logic units |
US5067164A (en) | 1989-11-30 | 1991-11-19 | At&T Bell Laboratories | Hierarchical constrained automatic learning neural network for character recognition |
US5058179A (en) | 1990-01-31 | 1991-10-15 | At&T Bell Laboratories | Hierarchical constrained automatic learning network for character recognition |
US5450523A (en) | 1990-11-15 | 1995-09-12 | Matsushita Electric Industrial Co., Ltd. | Training module for estimating mixture Gaussian densities for speech unit models in speech recognition systems |
US5774059A (en) | 1995-07-20 | 1998-06-30 | Vindicator Corporation | Programmable electronic lock |
CA2156236C (en) | 1995-08-16 | 1999-07-20 | Stephen J. Borza | Biometrically secured control system for preventing the unauthorized use of a vehicle |
JP2815045B2 (ja) | 1996-12-16 | 1998-10-27 | 日本電気株式会社 | 画像特徴抽出装置,画像特徴解析装置,および画像照合システム |
US6152563A (en) | 1998-02-20 | 2000-11-28 | Hutchinson; Thomas E. | Eye gaze direction tracker |
US6178255B1 (en) | 1998-04-28 | 2001-01-23 | Cross Match Technologies, Inc. | Individualized fingerprint scanner |
US6274745B1 (en) | 1999-03-24 | 2001-08-14 | Tosoh Corporation | Binaphthol monophosphoric acid derivative and its use |
JP4727065B2 (ja) | 2000-05-11 | 2011-07-20 | 株式会社半導体エネルギー研究所 | 認証装置および通信システム |
ES2241598T3 (es) | 2000-05-16 | 2005-11-01 | Swisscom Mobile Ag | Procedimiento biometrico de identificacion y autenticacion. |
US6956608B1 (en) | 2000-08-11 | 2005-10-18 | Identix Incorporated | Fingerprint imaging device including an optical plate having microreflectors |
US6819219B1 (en) | 2000-10-13 | 2004-11-16 | International Business Machines Corporation | Method for biometric-based authentication in wireless communication for access control |
JP2002259345A (ja) | 2001-02-27 | 2002-09-13 | Nec Corp | 身体的特徴データの不正使用を防止する認証方法、認証装置、及びプログラム |
US6633090B2 (en) | 2001-09-07 | 2003-10-14 | Delphi Technologies, Inc. | Starting system for an automotive vehicle using fingerprint recognition |
JP2003148017A (ja) | 2001-11-08 | 2003-05-21 | Sharp Corp | 錠装置、錠制御システム及び錠制御方法 |
JP2003178306A (ja) | 2001-12-12 | 2003-06-27 | Toshiba Corp | 個人認証装置および個人認証方法 |
US6873714B2 (en) | 2002-02-19 | 2005-03-29 | Delphi Technologies, Inc. | Auto calibration and personalization of eye tracking system using larger field of view imager with higher resolution |
US8590013B2 (en) | 2002-02-25 | 2013-11-19 | C. S. Lee Crawford | Method of managing and communicating data pertaining to software applications for processor-based devices comprising wireless communication circuitry |
US7616784B2 (en) | 2002-07-29 | 2009-11-10 | Robert William Kocher | Method and apparatus for contactless hand recognition |
GB2396001B (en) | 2002-10-09 | 2005-10-26 | Canon Kk | Gaze tracking system |
US7321671B2 (en) | 2002-12-06 | 2008-01-22 | Cross Match Technologies, Inc. | System and method for generating a preview display in a print capturing system using a non-planar prism |
US20060133651A1 (en) | 2002-12-31 | 2006-06-22 | Polcha Andrew J | Recoverable biometric identity system and method |
EP1594085A4 (en) | 2003-02-13 | 2008-02-27 | Nec Corp | DEVICE AND METHOD FOR DETECTING UNEMPLOYED PERSONS |
DE10315923A1 (de) | 2003-04-08 | 2004-10-28 | Tbs Holding Ag | Verfahren und Anordnung zur berührungslosen Detektion von Daten unebener Flächen |
US6923370B2 (en) | 2003-05-20 | 2005-08-02 | Bradley L. Gotfried | Access system |
US6992562B2 (en) | 2003-06-10 | 2006-01-31 | Visteon Global Technologies, Inc. | Biometric keyless entry system |
US8948468B2 (en) * | 2003-06-26 | 2015-02-03 | Fotonation Limited | Modification of viewing parameters for digital images using face detection information |
US7317815B2 (en) * | 2003-06-26 | 2008-01-08 | Fotonation Vision Limited | Digital image processing composition using face detection information |
US8181017B2 (en) | 2004-10-22 | 2012-05-15 | Nds Limited | Certificate renewal |
US20060120568A1 (en) | 2004-12-06 | 2006-06-08 | Mcconville Patrick J | System and method for tracking individuals |
WO2006090322A1 (en) | 2005-02-22 | 2006-08-31 | Koninklijke Philips Electronics, N.V. | System and method for transferring media rights under predetermined conditions |
JP4696610B2 (ja) | 2005-03-15 | 2011-06-08 | オムロン株式会社 | 被写体認証装置、顔認証装置、携帯電話、及び被写体認証方法 |
US8151358B1 (en) | 2005-04-07 | 2012-04-03 | Aol Inc. | Annotation of digital items in a shared list |
US20060294393A1 (en) | 2005-06-24 | 2006-12-28 | Mc Call Clark E | Remote biometric registration for vehicles |
WO2007000504A1 (fr) | 2005-06-27 | 2007-01-04 | France Telecom | Procede de reconnaissance biometrique d'une main, systeme et dispositif associes |
US8026840B2 (en) | 2005-10-28 | 2011-09-27 | Raytheon Company | Biometric radar system and method for identifying persons and positional states of persons |
JP4793179B2 (ja) * | 2005-11-14 | 2011-10-12 | オムロン株式会社 | 認証装置及び携帯端末 |
US8290220B2 (en) | 2006-03-01 | 2012-10-16 | Nec Corporation | Face authenticating apparatus, face authenticating method, and program |
DE102006018956A1 (de) | 2006-04-24 | 2007-10-25 | Robert Bosch Gmbh | Abgassensor |
US7983451B2 (en) | 2006-06-30 | 2011-07-19 | Motorola Mobility, Inc. | Recognition method using hand biometrics with anti-counterfeiting |
JP4807167B2 (ja) | 2006-07-06 | 2011-11-02 | オムロン株式会社 | なりすまし検知装置 |
US7660442B2 (en) | 2006-09-01 | 2010-02-09 | Handshot, Llc | Method and system for capturing fingerprints, palm prints and hand geometry |
US7986816B1 (en) | 2006-09-27 | 2011-07-26 | University Of Alaska | Methods and systems for multiple factor authentication using gaze tracking and iris scanning |
KR101309594B1 (ko) | 2006-09-29 | 2013-11-21 | 스캠멜, 댄 | 전자상거래에서 사용자의 신원을 확인하기 위한 방법 및 시스템 |
JP2008242631A (ja) | 2007-03-26 | 2008-10-09 | Oki Electric Ind Co Ltd | 虹彩登録装置および虹彩認証装置 |
US20080284726A1 (en) | 2007-05-17 | 2008-11-20 | Marc Boillot | System and Method for Sensory Based Media Control |
US8126788B2 (en) | 2007-05-29 | 2012-02-28 | Exaktime Innovations, Inc. | Method for tracking time attendance of either a dedicated user or multiple non-dedicated users, interchangeably, using a single multi-function electronic hand-held device |
EP2009575B1 (en) | 2007-06-27 | 2013-06-12 | Research In Motion Limited | System and method for improving smart card reader reconnections |
JP4693818B2 (ja) | 2007-07-09 | 2011-06-01 | 株式会社エヌ・ティ・ティ・ドコモ | 認証システム及び認証方法 |
GB0714344D0 (en) | 2007-07-24 | 2007-09-05 | Univ Wales Swansea | Biometric attendance verification |
US10169646B2 (en) * | 2007-12-31 | 2019-01-01 | Applied Recognition Inc. | Face authentication to mitigate spoofing |
WO2009082814A1 (en) * | 2007-12-31 | 2009-07-09 | Ray Ganong | Method, system, and computer program for identification and sharing of digital images with face signatures |
JP5186929B2 (ja) | 2008-01-21 | 2013-04-24 | 日本電気株式会社 | 認証用撮像装置 |
EP2263190A2 (en) * | 2008-02-13 | 2010-12-22 | Ubisoft Entertainment S.A. | Live-action image capture |
US9286742B2 (en) | 2008-03-31 | 2016-03-15 | Plantronics, Inc. | User authentication system and method |
US8358856B2 (en) | 2008-06-02 | 2013-01-22 | Eastman Kodak Company | Semantic event detection for digital content records |
US20100042940A1 (en) | 2008-08-14 | 2010-02-18 | Caterpillar Inc. | Geofence system with integrated user interface |
US8175379B2 (en) | 2008-08-22 | 2012-05-08 | Adobe Systems Incorporated | Automatic video image segmentation |
CN102197412B (zh) | 2008-10-28 | 2014-01-08 | 日本电气株式会社 | 伪装检测***和伪装检测方法 |
US8345932B2 (en) | 2008-11-24 | 2013-01-01 | International Business Machines Corporation | Support vector machine for biometric data processing |
JP5098973B2 (ja) | 2008-11-27 | 2012-12-12 | 富士通株式会社 | 生体認証装置、生体認証方法及び生体認証プログラム |
JP4636171B2 (ja) | 2008-12-17 | 2011-02-23 | トヨタ自動車株式会社 | 車両用生体認証システム |
JP2010146502A (ja) | 2008-12-22 | 2010-07-01 | Toshiba Corp | 認証処理装置および認証処理方法 |
EP2386097A4 (en) | 2009-01-06 | 2013-02-20 | Xped Holdings Pty Ltd | ARRANGEMENT FOR MANAGING MOBILE DEVICE ACCESS TO DISTRICT REGIONS CONTAINING SERVICES, PRODUCTS, AND INFORMATION |
US20100191551A1 (en) | 2009-01-26 | 2010-07-29 | Apple Inc. | Systems and methods for accessing hotel services using a portable electronic device |
JP5436876B2 (ja) | 2009-02-02 | 2014-03-05 | 株式会社ディスコ | 研削方法 |
US20100246902A1 (en) | 2009-02-26 | 2010-09-30 | Lumidigm, Inc. | Method and apparatus to combine biometric sensing and other functionality |
US8194938B2 (en) | 2009-06-02 | 2012-06-05 | George Mason Intellectual Properties, Inc. | Face authentication using recognition-by-parts, boosting, and transduction |
US8472681B2 (en) | 2009-06-15 | 2013-06-25 | Honeywell International Inc. | Iris and ocular recognition system using trace transforms |
US8638939B1 (en) | 2009-08-20 | 2014-01-28 | Apple Inc. | User authentication on an electronic device |
US8447119B2 (en) | 2010-03-16 | 2013-05-21 | Nec Laboratories America, Inc. | Method and system for image classification |
US8326001B2 (en) | 2010-06-29 | 2012-12-04 | Apple Inc. | Low threshold face recognition |
WO2012020591A1 (ja) | 2010-08-09 | 2012-02-16 | 日本電気株式会社 | 個体識別システム、特徴量特定装置、特徴量特定方法および記録媒体 |
US8670935B2 (en) | 2010-08-17 | 2014-03-11 | Blackberry Limited | Tagging a location by pairing devices |
JP5565285B2 (ja) | 2010-11-19 | 2014-08-06 | コニカミノルタ株式会社 | ガラス光学素子の製造方法 |
US20120137137A1 (en) | 2010-11-30 | 2012-05-31 | Brickell Ernest F | Method and apparatus for key provisioning of hardware devices |
CN102013011B (zh) * | 2010-12-16 | 2013-09-04 | 重庆大学 | 基于正脸补偿算子的多姿态人脸识别方法 |
CN102034097B (zh) * | 2010-12-21 | 2012-07-04 | 中国科学院半导体研究所 | 综合利用正面与侧面图像的人脸识别的方法 |
KR101816170B1 (ko) | 2010-12-22 | 2018-01-09 | 한국전자통신연구원 | 3차원 깊이 정보 획득 장치 및 그 방법 |
US8457370B2 (en) | 2011-01-20 | 2013-06-04 | Daon Holdings Limited | Methods and systems for authenticating users with captured palm biometric data |
US8675543B2 (en) | 2011-02-24 | 2014-03-18 | Verizon Patent And Licensing Inc. | Route limiting in border gateway protocol over satellite networks |
CN102103689B (zh) * | 2011-03-07 | 2012-07-18 | 北京大学 | 基于正脸图像合成的人脸识别方法 |
WO2012135861A1 (en) | 2011-04-01 | 2012-10-04 | Tony Lam | Battery powered passive keyless entry system for premise entry |
CN103477352A (zh) | 2011-04-11 | 2013-12-25 | 英特尔公司 | 使用深度图像的姿势识别 |
US9251402B2 (en) * | 2011-05-13 | 2016-02-02 | Microsoft Technology Licensing, Llc | Association and prediction in facial recognition |
US9082235B2 (en) | 2011-07-12 | 2015-07-14 | Microsoft Technology Licensing, Llc | Using facial data for device authentication or subject identification |
US8548207B2 (en) | 2011-08-15 | 2013-10-01 | Daon Holdings Limited | Method of host-directed illumination and system for conducting host-directed illumination |
WO2013035150A1 (ja) | 2011-09-05 | 2013-03-14 | 株式会社モルフォ | 顔認証システム、顔認証方法、および顔認証プログラム |
CN102426715A (zh) | 2011-09-30 | 2012-04-25 | 华为技术有限公司 | 一种电子门锁开锁方法、电子门锁及电子门锁*** |
US8947202B2 (en) | 2011-10-20 | 2015-02-03 | Apple Inc. | Accessing a vehicle using portable devices |
US9111402B1 (en) | 2011-10-31 | 2015-08-18 | Replicon, Inc. | Systems and methods for capturing employee time for time and attendance management |
US8235529B1 (en) | 2011-11-30 | 2012-08-07 | Google Inc. | Unlocking a screen using eye tracking information |
CN104054091B (zh) * | 2011-12-09 | 2018-01-26 | 视德公司 | 用于图像识别的面部印记生成 |
TW201327413A (zh) | 2011-12-21 | 2013-07-01 | Xid Technologies Pte Ltd | 臉部認證或辨識系統及方法 |
CN104106080B (zh) | 2011-12-27 | 2017-10-03 | 英特尔公司 | 基于图灵测试的用户认证和用户在场验证***、设备和方法 |
KR101242390B1 (ko) | 2011-12-29 | 2013-03-12 | 인텔 코오퍼레이션 | 사용자를 인증하기 위한 방법, 장치, 및 컴퓨터 판독 가능한 기록 매체 |
US9519769B2 (en) | 2012-01-09 | 2016-12-13 | Sensible Vision, Inc. | System and method for disabling secure access to an electronic device using detection of a predetermined device orientation |
JP5866216B2 (ja) | 2012-01-31 | 2016-02-17 | 株式会社東海理化電機製作所 | 電子キー登録システム |
US8705070B2 (en) | 2012-02-24 | 2014-04-22 | Canon Kabushiki Kaisha | Systems and methods for managing use of an imaging device |
US9323912B2 (en) | 2012-02-28 | 2016-04-26 | Verizon Patent And Licensing Inc. | Method and system for multi-factor biometric authentication |
US20130268418A1 (en) | 2012-04-04 | 2013-10-10 | Accu-Time Systems, Inc. | Methods and apparatus for wireless communication of time and attendance information |
HK1160574A2 (en) | 2012-04-13 | 2012-07-13 | King Hei Francis Kwong | Secure electronic payment system and process |
US20130286161A1 (en) | 2012-04-25 | 2013-10-31 | Futurewei Technologies, Inc. | Three-dimensional face recognition for mobile devices |
US9070162B2 (en) | 2012-04-25 | 2015-06-30 | ZR Investments, LLC | Time tracking device and method |
US9047376B2 (en) | 2012-05-01 | 2015-06-02 | Hulu, LLC | Augmenting video with facial recognition |
JP5780361B2 (ja) | 2012-05-29 | 2015-09-16 | 株式会社村田製作所 | 電子キーシステムおよび電子機器 |
US20130342672A1 (en) | 2012-06-25 | 2013-12-26 | Amazon Technologies, Inc. | Using gaze determination with device input |
US8396265B1 (en) * | 2012-06-26 | 2013-03-12 | Google Inc. | Facial recognition |
US8542879B1 (en) * | 2012-06-26 | 2013-09-24 | Google Inc. | Facial recognition |
US8869053B2 (en) | 2012-07-06 | 2014-10-21 | Sap Ag | Organizer for managing employee time and attendance |
US8437513B1 (en) | 2012-08-10 | 2013-05-07 | EyeVerify LLC | Spoof detection for biometric authentication |
US20140195974A1 (en) | 2012-08-29 | 2014-07-10 | Identity Validation Products, Llc | Method and apparatus for using a finger swipe interface to control a system |
SG11201501691VA (en) | 2012-09-05 | 2015-04-29 | Element Inc | Biometric authentication in connection with camera-equipped devices |
US9740917B2 (en) | 2012-09-07 | 2017-08-22 | Stone Lock Global, Inc. | Biometric identification systems and methods |
US9002586B2 (en) | 2012-12-03 | 2015-04-07 | Honda Motor Co., Ltd. | Integrated biometric switch |
US8856541B1 (en) | 2013-01-10 | 2014-10-07 | Google Inc. | Liveness detection |
US9355612B1 (en) | 2013-01-22 | 2016-05-31 | Amazon Technologies, Inc. | Display security using gaze tracking |
US9244529B2 (en) | 2013-01-27 | 2016-01-26 | Dmitri Model | Point-of-gaze estimation robust to head rotations and/or device rotations |
US20140294257A1 (en) | 2013-03-28 | 2014-10-02 | Kevin Alan Tussy | Methods and Systems for Obtaining Information Based on Facial Identification |
US9294475B2 (en) | 2013-05-13 | 2016-03-22 | Hoyos Labs Ip, Ltd. | System and method for generating a biometric identifier |
US9003196B2 (en) | 2013-05-13 | 2015-04-07 | Hoyos Labs Corp. | System and method for authorizing access to access-controlled environments |
CN104166835A (zh) | 2013-05-17 | 2014-11-26 | 诺基亚公司 | 用于识别活体用户的方法和装置 |
US20140351163A1 (en) | 2013-05-21 | 2014-11-27 | Kevin Alan Tussy | System and method for personalized delivery verification |
US9014452B2 (en) | 2013-08-21 | 2015-04-21 | Seiko Epson Corporation | Orientation-aware average intensity histogram to indicate object boundary depth in ultrasound images |
AR097974A1 (es) | 2013-10-11 | 2016-04-20 | Element Inc | Sistema y método para autenticación biométrica en conexión con dispositivos equipados con cámara |
KR101556599B1 (ko) | 2013-10-30 | 2015-10-02 | 연세대학교 산학협력단 | 패턴 입력 장치 및 방법과 이를 이용한 기록 매체 |
US20150227735A1 (en) | 2014-02-13 | 2015-08-13 | Robert Chappell | System and method for eye tracking authentication |
US20150227780A1 (en) | 2014-02-13 | 2015-08-13 | FacialNetwork, Inc. | Method and apparatus for determining identity and programing based on image features |
US10027884B2 (en) | 2014-03-05 | 2018-07-17 | Disney Enterprises, Inc. | Method for capturing photographs and videos on a handheld client device without continually observing the device's screen |
KR20170005847A (ko) | 2014-05-13 | 2017-01-16 | 엘리먼트, 인크. | 모바일 장치와 관련된 전자 키 지급 및 액세스 관리를 위한 시스템 및 방법 |
US9408076B2 (en) * | 2014-05-14 | 2016-08-02 | The Regents Of The University Of California | Sensor-assisted biometric authentication for smartphones |
US20150348214A1 (en) | 2014-05-28 | 2015-12-03 | Shailendra Jain | Messaging service for geofence-based automatic time clocking |
US20150347833A1 (en) | 2014-06-03 | 2015-12-03 | Mark Ries Robinson | Noncontact Biometrics with Small Footprint |
US9965728B2 (en) | 2014-06-03 | 2018-05-08 | Element, Inc. | Attendance authentication and management in connection with mobile devices |
US10803160B2 (en) | 2014-08-28 | 2020-10-13 | Facetec, Inc. | Method to verify and identify blockchain with user question data |
CA2902093C (en) | 2014-08-28 | 2023-03-07 | Kevin Alan Tussy | Facial recognition authentication system including path parameters |
US10915618B2 (en) * | 2014-08-28 | 2021-02-09 | Facetec, Inc. | Method to add remotely collected biometric images / templates to a database record of personal information |
US10698995B2 (en) * | 2014-08-28 | 2020-06-30 | Facetec, Inc. | Method to verify identity using a previously collected biometric image/data |
US11256792B2 (en) * | 2014-08-28 | 2022-02-22 | Facetec, Inc. | Method and apparatus for creation and use of digital identification |
US10614204B2 (en) * | 2014-08-28 | 2020-04-07 | Facetec, Inc. | Facial recognition authentication system including path parameters |
US9405967B2 (en) * | 2014-09-03 | 2016-08-02 | Samet Privacy Llc | Image processing apparatus for facial recognition |
JP6809226B2 (ja) | 2014-10-15 | 2021-01-06 | 日本電気株式会社 | 生体検知装置、生体検知方法、および、生体検知プログラム |
GB2532075A (en) | 2014-11-10 | 2016-05-11 | Lego As | System and method for toy recognition and detection based on convolutional neural networks |
EP3218845A4 (en) | 2014-11-13 | 2018-07-11 | Intel Corporation | Facial liveness detection in image biometrics |
US9928603B2 (en) | 2014-12-31 | 2018-03-27 | Morphotrust Usa, Llc | Detecting facial liveliness |
USD763872S1 (en) | 2015-01-07 | 2016-08-16 | Facetec, Inc. | Display screen or portion thereof with graphical user interface |
EP3284016B1 (en) | 2015-04-16 | 2023-11-22 | Tobii AB | Authentication of a user of a device |
US10678897B2 (en) | 2015-04-16 | 2020-06-09 | Tobii Ab | Identification, authentication, and/or guiding of a user using gaze information |
MY182294A (en) | 2015-06-16 | 2021-01-18 | Eyeverify Inc | Systems and methods for spoof detection and liveness analysis |
JP6785305B2 (ja) * | 2015-07-15 | 2020-11-18 | 15 セカンズ オブ フェイム,インコーポレイテッド | 顔認識及びコンテキストビデオストリームで個人を識別するためのビデオ解析技術のための装置及び方法 |
US20170053175A1 (en) | 2015-08-17 | 2017-02-23 | Facetec, Inc. | System and method for validating three-dimensional objects |
CN105023010B (zh) * | 2015-08-17 | 2018-11-06 | 中国科学院半导体研究所 | 一种人脸活体检测方法及*** |
CN105184246B (zh) | 2015-08-28 | 2020-05-19 | 北京旷视科技有限公司 | 活体检测方法和活体检测*** |
KR102377182B1 (ko) | 2015-09-01 | 2022-03-22 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
US20170186170A1 (en) | 2015-12-24 | 2017-06-29 | Thomas A. Nugraha | Facial contour recognition for identification |
US10102358B2 (en) | 2015-12-29 | 2018-10-16 | Sensory, Incorporated | Face-controlled liveness verification |
US10733275B1 (en) | 2016-04-01 | 2020-08-04 | Massachusetts Mutual Life Insurance Company | Access control through head imaging and biometric authentication |
US10063560B2 (en) | 2016-04-29 | 2018-08-28 | Microsoft Technology Licensing, Llc | Gaze-based authentication |
KR102471916B1 (ko) | 2016-06-03 | 2022-11-29 | 엘지전자 주식회사 | 모바일 디바이스 및 그 제어 방법 |
KR20180006133A (ko) | 2016-07-08 | 2018-01-17 | 삼성전자주식회사 | 전자 장치 및 그의 동작 방법 |
US10089521B2 (en) * | 2016-09-02 | 2018-10-02 | VeriHelp, Inc. | Identity verification via validated facial recognition and graph database |
CN107886032B (zh) | 2016-09-30 | 2021-12-14 | 阿里巴巴集团控股有限公司 | 终端设备、智能手机、基于脸部识别的认证方法和*** |
CN106503687B (zh) * | 2016-11-09 | 2019-04-05 | 合肥工业大学 | 融合人脸多角度特征的监控视频人物身份识别***及其方法 |
CN110114777B (zh) | 2016-12-30 | 2023-10-20 | 托比股份公司 | 使用注视信息进行的用户的识别、认证和/或导引 |
US9983687B1 (en) | 2017-01-06 | 2018-05-29 | Adtile Technologies Inc. | Gesture-controlled augmented reality experience using a mobile communications device |
US10747859B2 (en) | 2017-01-06 | 2020-08-18 | International Business Machines Corporation | System, method and computer program product for stateful instruction-based dynamic man-machine interactions for humanness validation |
GB2560340A (en) | 2017-03-07 | 2018-09-12 | Eyn Ltd | Verification method and system |
CN107609471A (zh) * | 2017-08-02 | 2018-01-19 | 深圳元见智能科技有限公司 | 一种人脸活体检测方法 |
CN107622227B (zh) * | 2017-08-25 | 2021-04-13 | 深圳依偎控股有限公司 | 一种3d人脸识别的方法、终端设备及可读存储介质 |
KR102185854B1 (ko) * | 2017-09-09 | 2020-12-02 | 애플 인크. | 생체측정 인증의 구현 |
EP4156129A1 (en) | 2017-09-09 | 2023-03-29 | Apple Inc. | Implementation of biometric enrollment |
TWI781226B (zh) | 2017-09-18 | 2022-10-21 | 美商艾勒門公司 | 用於偵測行動認證中之欺騙之方法、系統及媒體 |
CN109583285B (zh) * | 2017-09-29 | 2023-03-07 | 阿里巴巴集团控股有限公司 | 对象识别方法 |
CN107800964A (zh) * | 2017-10-26 | 2018-03-13 | 武汉大学 | 一种基于双摄像头实现人脸自动检测与抓拍的方法 |
US11513205B2 (en) * | 2017-10-30 | 2022-11-29 | The Research Foundation For The State University Of New York | System and method associated with user authentication based on an acoustic-based echo-signature |
CN108154099B (zh) * | 2017-12-20 | 2021-04-30 | 北京奇艺世纪科技有限公司 | 一种人物识别方法、装置及电子设备 |
WO2019151368A1 (ja) | 2018-02-01 | 2019-08-08 | 日本電気株式会社 | 生体認証装置、システム、方法および記録媒体 |
CN108596135A (zh) * | 2018-04-26 | 2018-09-28 | 上海诚数信息科技有限公司 | 身份识别方法及*** |
CA3045819C (en) * | 2018-06-11 | 2022-09-06 | Laurence Hamid | Liveness detection |
JP7464619B2 (ja) | 2019-03-12 | 2024-04-09 | エレメント インク. | モバイルデバイスによる顔認識のなりすまし検知 |
US10997396B2 (en) * | 2019-04-05 | 2021-05-04 | Realnetworks, Inc. | Face liveness detection systems and methods |
US11507248B2 (en) | 2019-12-16 | 2022-11-22 | Element Inc. | Methods, systems, and media for anti-spoofing using eye-tracking |
-
2020
- 2020-03-11 JP JP2021555104A patent/JP7464619B2/ja active Active
- 2020-03-11 KR KR1020217032304A patent/KR20220004628A/ko active IP Right Grant
- 2020-03-11 EP EP20770199.6A patent/EP3938953A4/en active Pending
- 2020-03-11 CN CN202080035642.9A patent/CN113826110B/zh active Active
- 2020-03-11 US US16/815,700 patent/US11343277B2/en active Active
- 2020-03-11 SG SG11202109983R patent/SG11202109983RA/en unknown
- 2020-03-11 CA CA3133229A patent/CA3133229C/en active Active
- 2020-03-11 WO PCT/US2020/022168 patent/WO2020185948A1/en unknown
- 2020-03-11 BR BR112021018149-0A patent/BR112021018149B1/pt active IP Right Grant
- 2020-03-11 AU AU2020237108A patent/AU2020237108B2/en active Active
- 2020-03-12 TW TW109108240A patent/TWI781383B/zh active
Also Published As
Publication number | Publication date |
---|---|
BR112021018149B1 (pt) | 2023-12-26 |
KR20220004628A (ko) | 2022-01-11 |
EP3938953A1 (en) | 2022-01-19 |
JP7464619B2 (ja) | 2024-04-09 |
AU2020237108A1 (en) | 2021-11-04 |
WO2020185948A1 (en) | 2020-09-17 |
US20200296132A1 (en) | 2020-09-17 |
AU2020237108B2 (en) | 2022-12-15 |
US11343277B2 (en) | 2022-05-24 |
JP2022525138A (ja) | 2022-05-11 |
CA3133229A1 (en) | 2020-09-17 |
SG11202109983RA (en) | 2021-10-28 |
BR112021018149A2 (pt) | 2022-01-18 |
TW202040427A (zh) | 2020-11-01 |
CA3133229C (en) | 2023-04-04 |
EP3938953A4 (en) | 2022-12-28 |
CN113826110A (zh) | 2021-12-21 |
TWI781383B (zh) | 2022-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113826110B (zh) | 利用移动设备检测生物特征身份识别的欺骗的方法、***和介质 | |
US10902034B2 (en) | Method for populating a map with a plurality of avatars through the use of a mobile technology platform | |
TWI781226B (zh) | 用於偵測行動認證中之欺騙之方法、系統及媒體 | |
WO2017185630A1 (zh) | 基于情绪识别的信息推荐方法、装置和电子设备 | |
US11507248B2 (en) | Methods, systems, and media for anti-spoofing using eye-tracking | |
TW201504839A (zh) | 可攜式電子裝置及互動式人臉登入方法 | |
CN113343951A (zh) | 人脸识别对抗样本生成方法及相关设备 | |
CN114444047A (zh) | 基于虚拟现实的身份认证方法、装置、设备和存储介质 | |
WO2023034597A1 (en) | Methods and systems for improving blockchain technology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40062335 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |