CN113255512A - 用于活体识别的方法、装置、设备以及存储介质 - Google Patents
用于活体识别的方法、装置、设备以及存储介质 Download PDFInfo
- Publication number
- CN113255512A CN113255512A CN202110558078.5A CN202110558078A CN113255512A CN 113255512 A CN113255512 A CN 113255512A CN 202110558078 A CN202110558078 A CN 202110558078A CN 113255512 A CN113255512 A CN 113255512A
- Authority
- CN
- China
- Prior art keywords
- key point
- point information
- image
- processed
- information set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了用于活体识别的方法、装置、设备以及存储介质,涉及人工智能技术领域,尤其涉及计算机视觉和深度学习技术领域,可应用于智慧城市和金融场景下。具体实现方案为:获取目标对象的多个待处理图像,各待处理图像分别对应目标对象的不同位姿;将待处理图像输入预先训练的关键点检测模型,得到待处理图像的关键点信息集,关键点信息集包含多个关键点信息;基于各待处理图像的关键点信息集,得到目标对象的活体识别结果。根据本公开的技术方案,提高了对目标对象的进行活体识别的准确率,提高了对复杂多样的攻击方式进行鉴别的有效性和泛化性。
Description
技术领域
本公开涉及人工智能技术领域,尤其涉及计算机视觉和深度学习技术领域,可应用于智慧城市和金融场景下。
背景技术
人脸活体检测是人脸识别***的基础组成模块,保证人脸识别***的安全性。人脸活体检测技术具体是指计算机判别检测的人脸是真实的人脸,还是伪造的人脸攻击,人脸攻击可以是合法用户的图片或者提前拍摄的视频等。相关技术中,使用深度学习技术的人脸活体检测算法是当前该领域的主流方法,相比传统算法在精度上有大幅提升。但是,针对一些应用场景,依然存在泛化性差、对于未知的攻击方式检测效果不佳的问题,影响实际应用性能。
发明内容
本公开提供了一种用于活体识别的方法、装置、设备以及存储介质。
根据本公开的一方面,提供了一种用于活体识别的方法,包括:
获取目标对象的多个待处理图像,各待处理图像分别对应目标对象的不同位姿;
将待处理图像输入预先训练的关键点检测模型,得到待处理图像的关键点信息集,关键点信息集包含多个关键点信息;
基于各待处理图像的关键点信息集,得到目标对象的活体识别结果。
根据本公开的另一方面,提供了一种关键点检测模型的训练方法,包括:
利用样本图像,确定目标关键点信息集;
将样本图像输入待训练的关键点检测模型,得到预测关键点信息集;
确定目标关键点信息集和预测关键点信息集的差异,根据差异对待训练的关键点检测模型进行训练,直至差异在允许范围内
根据本公开的另一方面,提供了一种用于活体识别的装置,包括:
图像获取模块,用于获取目标对象的多个待处理图像,各待处理图像分别对应目标对象的不同位姿;
关键点信息集生成模块,用于将待处理图像输入预先训练的关键点检测模型,得到待处理图像的关键点信息集,关键点信息集包含多个关键点信息;
活体识别结果生成模块,用于基于各待处理图像的关键点信息集,得到目标对象的活体识别结果。
根据本公开的另一方面,提供了一种关键点检测模型的训练装置,包括:
目标关键点信息集确定模块,用于利用样本图像,确定目标关键点信息集;
预测关键点信息集生成模块,用于将样本图像输入待训练的关键点检测模型,得到预测关键点信息集;
训练模块,用于确定目标关键点信息集和预测关键点信息集的差异,根据差异对待训练的关键点检测模型进行训练,直至差异在允许范围内。
根据本公开的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与该至少一个处理器通信连接的存储器;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行本公开任一实施例中的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行本公开任一实施例中的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现本公开任一实施例中的方法。
根据本公开的技术方案,通过获取目标对象不同位姿下的多个待处理图像,然后利用预先训练的关键点检测模型得到多个待处理图像的关键点信息集,最后基于多个关键点信息集确定出目标对象的活体识别结果,针对现实场景中目标对象的位姿变化过大的情况,提高了活体识别的准确率,针对复杂多样的攻击方式提高了鉴别的有效性和泛化性。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开实施例的用于活体识别的方法的流程图;
图2是根据本公开实施例的用于活体识别的方法中的得到活体识别结果的具体流程图;
图3是根据本公开实施例的用于活体识别的方法中的确定关键点数组的具体流程图;
图4是根据本公开实施例的用于活体识别的方法中的确定旋转矩阵数组的具体流程图;
图5是根据本公开实施例的用于活体识别的方法中的得到活体识别结果的具体流程图;
图6是根据本公开实施例的用于活体识别的方法中的对关键点数组进行预处理的具体流程图;
图7是可以实现本公开实施例的用于活体识别的方法的场景图。
图8是根据本公开实施例的关键点检测模型的训练方法的流程图;
图9是根据本公开实施例的训练方法中的确定目标关键点信息集的具体流程图;
图10是根据本公开实施例的训练方法中的确定差异的具体流程图;
图11是根据本公开实施例的用于活体识别的装置的示意图;
图12是根据本公开实施例的关键点检测模型的训练装置的示意图;
图13是用来实现本公开实施例的用于活体识别的方法和/或关键点检测模型的训练方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1示出根据本公开实施例的用于活体识别的方法的流程图。
如图1所示,该用于活体识别的方法具体包括以下步骤:
S101:获取目标对象的多个待处理图像,各待处理图像分别对应目标对象的不同位姿;
S102:将待处理图像输入预先训练的关键点检测模型,得到待处理图像的关键点信息集,关键点信息集包含多个关键点信息;
S103:基于各待处理图像的关键点信息集,得到目标对象的活体识别结果。
在本公开实施例中,目标对象可以为在特定场景下的目标判别对象,目标对象的活体识别结果可以为目标对象的载体是否为目标对象的本体。例如在人脸识别的场景中,目标对象可以为人脸,目标对象的活体识别结果可以为目标对象的载体为本体或者为攻击,其中,攻击是指包含目标对象的图片或视频。
目标对象的多个待处理图像,可以理解为图像中包含目标对象的多个待处理图像,且目标对象在不同的待处理图像中的位姿不同,换而言之,不同的待处理图像中的目标对象的视角不同。需要说明的是,目标对象的位姿可以由目标对象在三维空间中的三个自由度以及三个自由度的空间旋转构成。例如,在人脸识别场景中,目标对象的不同位姿可以为,目标对象的面部朝向不同。
示例性地,在步骤S101中,可以通过终端设备对不同位姿下的目标对象进行采集,获取多个待处理图像。其中,终端设备可以为各种图像采集装置,例如相机、摄像机等。
在一个示例中,多个待处理图像可以包含第一待处理图像、第二待处理图像和第三待处理图像。第一待处理图像对应目标对象在面部左转第一预设角度状态下的位姿,第二待处理图像对应目标对象在面部朝向正前方状态下的位姿,第三待处理图像对应目标对象在面部右转第二预设角度状态下的位姿。其中,在第一待处理图像中,目标对象的面部朝向相对图像采集装置呈左转45度;第二待处理图像中,目标对象的面部朝向正对正对图像采集装置;第三待处理图像中,目标对象的面部朝向相对图像采集装置呈右转45度。
示例性地,在步骤S102中,关键点检测模型可以采用本领域技术人员已知的或未来可知悉的各种用于检测人脸关键点的模型。例如,关键点检测模型具体可以采用CNN(Convolutional Neural Networks,卷积神经网络)、DCNN(Deep Convolutional NeuralNetworks,深度卷积神经网络)、TCDCN(Tasks-Constrained Deep ConvolutionalNetwork,人脸特征点检测模型)、MTCNN(Multi-Task Cascaded Convolutional Networks,多任务级联卷积神经网络)、TCNN(Tweaked Convolutional Neural Networks、暂态混沌神经网络)和DAN(Deep Alignment Networks,深度对齐网络)中的任一种。
其中,待处理图像的关键点信息集包含预设数量个关键点信息,其中,各关键点信息可以包含关键点的坐标值和像素值。
在一个示例中,关键点检测模型包括特征提取层和全连接层。通过将待处理图像输入关键点检测模型的特征提取层,然后从全连接层接收待处理图像的关键点信息集。其中,特征提取层被配置为对待处理图像中的人脸特征进行提取,并将提取到的人脸特征信息输送至全连接层,全连接层配(Fully Connected Layers,FC)配置为接收特征提取层发送的人脸特征信息,并根据提取到的人脸特征信息进行分类,基于分类结果得到预设数量个关键点信息,基于预设数量个关键点信息构建关键点信息集并输出。
更为具体地,特征提取层可以采用ResNet34(一种深层的神经网络)。具体地,ResNet34采用了34层的残差网络结构(Residual Unit),这种残差跳跃式的结构,打破了传统的神经网络n-1层的输出只能给n层作为输入的惯例,使某一层的输出可以直接跨过几层作为后面某一层的输入,为叠加多层网络而使得整个学习模型的错误率不降反升的难题提供了新的方向,因而神经网络的层数可以超越之前的约束,达到几十层、上百层甚至千层,为高级语义特征提取和分类提供了可行性。由此,提高了提取人脸特征信息的准确率。
示例性地,在步骤S103中,可以通过将目标对象的多个待处理图像分别对应的关键点信集输入预先训练的活体识别模型,得到目标对象的活体识别结果。
在一个示例中,活体识别模型采用卷积神经网络模型。具体地,卷积神经网络包括特征提取层、全连接层(Fully Connected Layers,FC)和图像归一化处理层。特征提取层用于对三维人脸图像进行特征提取处理,然后将提取到的特征输入全连接层,全连接层根据提取到的特征对三维人脸图像进行分类,并将分类结果输入归一化处理层,经过归一化处理层的图像归一化处理,得到活体识别结果并输出。其中,特征提取层可以采用MobileNetV2(一种深度可分离卷积)作为卷积神经网络的主干网络;归一化处理层可以采用Softmax层(一种逻辑回归模型)。
示例性地,本公开实施例的方法可以应用于智慧城市或者金融场景,具体地可以应用于安防、考勤、金融支付验证、门禁通行等诸多场景。
下面结合一个具体的应用场景描述根据本公开实施例的用于活体识别的方法。
在金融支付验证的人脸识别场景中,响应于人脸识别请求,获取目标对象的不同位姿下的人脸图像,例如获取目标对象的面部朝向不同水平角度下的多个人脸图像,或者获取目标对象的面部朝向不同竖直角度下的多个人脸图像。然后,将目标对象的多个人脸图像输入预先训练的关键点检测模型,得到多个人脸图像分别对应的关键点信息集。最后,基于多个关键点信息集,通过利用预先训练的活体识别模型,得到目标对象的活体识别结果。在目标对象的活体识别结果为活体的情况下,进行下一步的人脸识别流程;在目标对象的活体识别结果为不是活体的情况下,则终止后续的人脸识别流程。
相比于相关技术中的活体检测方法仅通过目标对象的单个图像作为卷积神经网络的输入,本公开实施例的用于活体识别的方法通过获取目标对象不同位姿下的多个待处理图像,然后利用预先训练的关键点检测模型得到多个待处理图像的关键点信息集,最后基于多个关键点信息集确定出目标对象的活体识别结果,针对现实场景中目标对象的位姿变化过大的情况,本公开实施例的用于活体识别的方法具有较高的鲁棒性,有利于提高活体识别的准确率,针对复杂多样的攻击方式提高了鉴别的有效性和泛化性,尤其在在安防、考勤、金融、门禁通行等诸多的应用场景中,有效提升了人脸活体检测的技术性能,对于以人脸活体检测技术为基础的诸多应用有效地提升了使用效果和用户体验,有利于业务项目的进一步推广。
如图2所示,在一种实施方式中,步骤S103包括:
S201:基于各待处理图像的关键点信息集,确定目标对象的关键点数组;并且,基于各待处理图像的关键点信息集,确定目标对象的旋转矩阵数组;
S202:基于关键点数组和旋转矩阵数组,得到目标对象的活体识别结果。
需要说明的是,针对目标对象为活体的多个待处理图像,由于目标对象在不同的待处理图像中的位姿不同,基于目标对象的空间坐标系不同,因而目标对象的同一个人脸关键点在不同的待处理图像中的空间向量不同。针对任意两个待处理图像中相同的多个人脸关键点,多个人脸关键点的空间向量旋转变换关系是一致的,其中,旋转变换关系可以通过旋转矩阵表示。基于此,旋转矩阵可以用于表征目标对象的各人脸关键点在不同的待处理图像中的旋转变换关系。
示例性地,关键点数组包含目标对象的多个待处理图像的关键点信息,旋转矩阵数组包含任意两个待处理图像中的关键点信息的坐标值的旋转变换关系。根据关键点数组中各关键点信息集中的关键点信息所包含的关键点坐标、以及旋转矩阵数组中的任意两个关键点信息集之间的旋转矩阵,通过将关键点数组和旋转矩阵数组输入预先训练的活体识别模型,从而得到目标对象的活体识别结果。
根据上述实施方式,通过利用各待处理图像的关键点信息集,然后基于关键点信息集确定目标对象的关键点数组和旋转矩阵数组,根据目标对象的人脸关键点在不同的待处理图像中的旋转变换关系是否一致,得到目标对象的活体识别结果。由此,提高了对目标对象的活体检测的准确率,并且提高了对鉴别电子屏幕攻击的泛化性和有效性。
如图3所示,在一种实施方式中,步骤S201包括:
S301:对多个待处理图像的关键点信息集进行合并处理,得到目标对象的关键点数组。
示例性地,针对目标对象的三个待处理图像,通过关键点检测模型,分别检测出每个待处理图像的68个关键点信息,构成关键点信息集。关键点信息集可以通过68*3的向量集来表示各关键点信息的坐标值,例如,关键点信息集可以表示为{(x1,y1,z1),…,(x68,y68,z68)}。对三个关键点信息集进行合并处理,得到68*9的向量集作为目标对象的关键点数组。
根据上述实施方式,通过将多个待处理图像的关键点信息集进行合并以得到关键点数组,在保留原关键点信息的基础上,对多个关键点信息集进行整合处理,以符合活体识别模型的输入要求。
如图4所示,在一种实施方式中,步骤S201还包括:
S401:构建多个待处理图像对,每个待处理图像对包含目标对象的多个待处理图像中的任意两个;
S402:基于待处理图像的关键点信息集,计算各待处理图像对的旋转矩阵;
S403:对多个待处理图像对的旋转矩阵进行组合,得到目标对象的旋转矩阵数组。
示例性地,待处理图像对包含两个不同的待处理图像,且多个待处理图相对可以通过从多个待处理图像中多次选取两个不同的待处理图像进行组合的方式得到。针对每个待处理图像对,根据待处理图像中包含的关键点信息的坐标值,计算两个待处理图像的关键点信息集之间的旋转矩阵,通过对多个待处理图相对分别对应的旋转矩阵进行合并,得到目标对象的旋转矩阵数组。
例如,针对目标对象的三个待处理图像,经过组合可以得到三个待处理图像对。分别计算三个待处理图像对的旋转矩阵,得到三个3*3大小的旋转矩阵。将三个旋转矩阵进行合并,得到9*3的旋转矩阵数组。
根据上述实施方式,通过计算各待处理图像对的旋转矩阵,对得到的多个旋转矩阵进行组合以得到目标对象的旋转矩阵数组,由此,可以将不同的关键点信息集之间的旋转变换关系数据进行整合,并符合活体识别模型的输入要求。
如图5所示,在一种实施方式中,步骤S202包括:
S501:对关键点数组进行预处理,得到预处理后的关键点数组;
S502:将预处理后的关键点数组和旋转矩阵数组输入预先训练的活体识别模型,得到目标对象的活体识别结果。
需要说明的是,在步骤S501中,经过对关键点数组进行预处理,可以使预处理后的关键点数组符合活体识别模型的输入要求,并且可以对关键点数组的数据精简化,提高后续活体识别模型的检测效率和稳定性。
示例性地,在步骤S502中,活体识别模型可以采用本领域技术人员已知的或未来可知悉的各种模型。
以活体识别模型采用卷积神经网络模型为例,具体地,卷积神经网络包括特征提取层、全连接层(Fully Connected Layers,FC)和图像归一化处理层。特征提取层用于对关键点数组和旋转矩阵数组进行特征提取处理,然后将提取到的特征输入全连接层,全连接层根据提取到的特征对目标对象,并将分类结果输入归一化处理层,经过归一化处理,最终输出活体识别结果。其中,特征提取层可以采用MobileNet V2(一种深度可分离卷积),作为卷积神经网络的主干网络;归一化处理层可以采用Softmax层(一种逻辑回归模型)。
此外,在活体识别模型的训练过程中,可以分别采集活体对象和攻击对象的多个图像,作为活体对象的多个活体图像样本以及攻击对象的多个攻击图像样本。分别将多个活体图像样本和多个攻击图像样本输入预先训练的关键点检测模型,以得到活体对象的多个关键点信息集和攻击对象的多个关键点信息集。基于活体对象的多个关键点信息集,得到活体对象的关键点数组和旋转矩阵数组;基于攻击对象的多个关键点信息集,得到攻击对象的关键点数组和旋转矩阵数组。将活体对象的关键点数组和旋转矩阵数组和攻击对象的关键点数组和旋转矩阵数组分别作为训练样本,对活体识别模型进行训练。
根据上述实施方式,通过将关键点数组和旋转矩阵数组输入预先训练的活体识别模型以得到目标对象的活体识别结果,一方面提升了活体识别结果的检测精度和准确度,提高了对攻击检测的泛化性;另一方面,提升了活体检测的检测效率,有利于采用本公开实施例的方法的业务项目的进一步推广。
如图6所示,在一种实施方式中,关键点信息包含坐标值和与坐标值对应的像素值,步骤S501包括:
S601:对关键点数组中各关键点信息的像素值进行归一化处理,得到各关键点信息的归一化像素值,其中,归一化像素值的数值大小符合预设区间;
S602:基于各关键点信息的归一化像素值,得到预处理后的关键点数组。
示例性地,在步骤S601中,针对每个关键点信息中包含的像素值,按照预设规则进行计算处理,得到每个关键点信息的归一化像素值。
例如,针对每个关键点信息中包含的像素值,将每个像素值减去112后的差值再除以224,得到归一化像素值,其中,归一化像素值的数值范围在[-0.5,0.5]之间。
通过上述实施方式,可以使预处理后的关键点数组中的关键点信息的相关数值限定在预设范围内,从而消除数据中的奇异数据对最终生成的活体识别结果的影响,进一步提高活体识别结果的准确率。
下面结合图7以一个具体应用场景描述根据本公开实施例的用于活体识别的方法。
如图7所示,本公开实施例的用于活体识别的方法可以应用于针对人脸的活体检测场景。首先,获取待检测对象在不同位姿下的多个采集图像,例如待检测对象脸部的左侧、正面和右侧共三个采集图像。对三个采集图像进行数据预处理,以使三个采集图像的数据符合人脸关键点检测模型的输入要求。将三个采集图像分别输入人脸关键点检测模型,得到各采集图像对应的关键点信息集。其中,关键点信息集包含多个关键点信息,每个关键点信息包含关键点坐标和对应的像素值。
然后,基于三个采集图像的关键点信息集,通过合并处理得到关键点数组。对于三个采集图像的关键点信息集中的任意两个关键点信息集,计算二者之间的旋转矩阵,将得到的多个旋转矩阵进行合并处理,得到旋转矩阵数组。
最后,将关键点数组和旋转矩阵数组输入预先训练的活体识别模型,得到待检测对象的活体识别结果。
根据本公开的另一方面,还提供了一种关键点检测模型的训练方法。
如图8所示,该关键点检测模型的训练方法包括:
S801:利用样本图像,确定目标关键点信息集;
S802:将样本图像输入待训练的关键点检测模型,得到预测关键点信息集;
S803:确定目标关键点信息集和预测关键点信息集的差异,根据差异对待训练的关键点检测模型进行训练,直至差异在允许范围内。
示例性地,在步骤S801中,可以通过分别采集活体对象和攻击对象在不同位姿下的多个图像,将得到的活体样本图像和攻击样本图像作为样本图像。其中,攻击对象可以为活体对象的照片或视频。
示例性地,在步骤S803中,可以通过计算预测关键点信息集中的预测关键点信息的坐标值和目标关键点信息集中的目标关键点信息的坐标值之间的损失函数,确定目标关键点信息集和预测关键点信息集的差异。
根据本公开实施例的方法,实现了关键点检测模型的训练,并且通过将活体对象或攻击对象在不同位姿下的多个图像作为样本图像,训练得到的关键点检测模型针对不同目标对象不同位姿下的图像,可以精确的检测出活体对象或攻击对象的关键点信息集。
如图9所示,在一种实施方式中,步骤S801包括:
S901:对样本图像进行图像提取处理,得到人脸区域图像;
S902:对人脸区域图像进行归一化处理,得到归一化人脸区域图像;
S903:根据归一化人脸区域图像与预先建立的关键点数据集的匹配结果,得到目标关键点信息集。
示例性地,在步骤S901中,首先,利用预先建立的人脸关键点数据集,在样本图像中确定出预设数量个参考关键点,基于预设数量个参考关键点对样本图像进行掩膜处理,得到样本图像的模板化表示。然后,利用预先建立的高清人脸数据集(Flickr Faces HighQuality,FFHQ),根据样本图像的模板化表示在高清人脸数据集中的匹配结果对人脸区域图像进行对齐处理、裁剪处理以及尺寸调整,得到尺寸为224*224的人脸区域图像。
示例性地,在步骤S902中,针对人脸区域图像中的每个像素的像素值,按照预设规则进行计算处理,得到每个像素的归一化像素值。例如,针对人脸区域图像中的每个像素,将每个像素对应的像素值除以255后再减1,得到每个像素的归一化像素值,其中,归一化像素值的数值范围在[-0.5,0.5]之间。
示例性地,在步骤S903中,关键点数据集可以采用本领域技术人员已知的或未来可知悉的各种关键点数据集。其中,关键点数据集中包含预先收集的批量的高清图像,且各高清图像包含有预先标注的关键点。通过将归一化人脸区域图像与关键点数据集进行匹配,可以方便地得到样本图像的目标关键点数据集。
通过上述实施方式,可以保证确定出的目标关键点数据集具有较高的精确度,且省去了人工进行标注的人力标注成本,降低了目标关键点数据集的获取难度。
如图10所示,在一种实施方式中,步骤S803包括:
S1001:基于目标关键点信息集和预测关键点信息集,确定预测关键点信息集中的各预测关键点信息对应的目标关键点信息;
S1002:计算预测关键点信息的坐标值和对应的目标关键点信息的坐标值之间的损失值,根据损失值确定目标关键点信息集和预测关键点信息集的差异。
示例性地,可以通过计算各预测关键点信息的坐标值和对应的目标关键点信息的坐标值之间的L1损失函数,得到预测关键点信息和对应的目标关键点信息的损失值。然后通过计算所有的预测关键点信息对应的损失值的平均值,确定出目标关键点信息集和预测关键点信息集的差异。
通过上述实施方式,可以精确地确定出目标关键点信息集和预测关键点信息集的差异,提高了训练过程中对关键点检测模型的优化效果。
根据本公开的另一方面,还提供了一种用于活体识别的装置。
如图11所示,该用于活体识别的装置包括:
图像获取模块1101,用于获取目标对象的多个待处理图像,各待处理图像分别对应目标对象的不同位姿;
关键点信息集生成模块1102,用于将待处理图像输入预先训练的关键点检测模型,得到待处理图像的关键点信息集,关键点信息集包含多个关键点信息;
活体识别结果生成模块1103,用于基于各待处理图像的关键点信息集,得到目标对象的活体识别结果。
在一种实施方式中,活体识别结果生成模块1103包括:
关键点数组确定子模块,用于基于各待处理图像的关键点信息集,确定目标对象的关键点数组;并且,基于各待处理图像的关键点信息集,确定目标对象的旋转矩阵数组;
活体识别结果生成子模块,用于基于关键点数组和旋转矩阵数组,得到目标对象的活体识别结果。
在一种实施方式中,关键点数组确定子模块包括:
关键点数组确定单元,用于对多个待处理图像的关键点信息集进行合并处理,得到目标对象的关键点数组。
在一种实施方式中,活体识别结果生成子模块包括:
待处理图像对构建单元,用于构建多个待处理图像对,每个待处理图像对包含目标对象的多个待处理图像中的任意两个;
旋转矩阵计算单元,用于基于待处理图像的关键点信息集,计算各待处理图像对的旋转矩阵;
旋转矩阵数组生成单元,用于对多个待处理图像对的旋转矩阵进行组合,得到目标对象的旋转矩阵数组。
在一种实施方式中,活体识别结果生成子模块包括:
预处理单元,用于对关键点数组进行预处理,得到预处理后的关键点数组;
活体识别结果生成单元,用于将预处理后的关键点数组和旋转矩阵数组输入预先训练的活体识别模型,得到目标对象的活体识别结果。
在一种实施方式中,关键点信息包含坐标值和与坐标值对应的像素值;预处理单元还用于:
对关键点数组中各关键点信息的像素值进行归一化处理,得到各关键点信息的归一化像素值,其中,归一化像素值的数值大小符合预设区间;以及,
基于各关键点信息的归一化像素值,得到预处理后的关键点数组。
根据本公开的另一方面,还提供了一种关键点检测模型的训练装置,
如图12所示,该关键点检测模型的训练装置包括:
目标关键点信息集确定模块1201,用于利用样本图像,确定目标关键点信息集;
预测关键点信息集生成模块1202,用于将样本图像输入待训练的关键点检测模型,得到预测关键点信息集;
训练模块1203,用于确定目标关键点信息集和预测关键点信息集的差异,根据差异对待训练的关键点检测模型进行训练,直至差异在允许范围内。
在一种实施方式中,目标关键点信息集确定模块1201包括:
图像提取子模块,用于对样本图像进行图像提取处理,得到人脸区域图像;
归一化处理子模块,用于对人脸区域图像进行归一化处理,得到归一化人脸区域图像;
目标关键点信息生成子模块,用于根据归一化人脸区域图像与预先建立的关键点数据集的匹配结果,得到目标关键点信息集。
在一种实施方式中,训练模块1203包括:
对应关系确定子模块,用于基于目标关键点信息集和预测关键点信息集,确定预测关键点信息集中的各预测关键点信息对应的目标关键点信息;
差异确定子模块,用于计算预测关键点信息的坐标值和对应的目标关键点信息的坐标值之间的损失值,根据损失值确定目标关键点信息集和预测关键点信息集的差异。
本公开实施例各装置中的各单元、模块或子模块的功能可以参见上述方法实施例中的对应描述,在此不再赘述。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图13示出了可以用来实施本公开的实施例的示例电子设备1300的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或要求的本公开的实现。
如图13所示,电子设备1300包括计算单元1301,其可以根据存储在只读存储器(ROM)1302中的计算机程序或者从存储单元1308加载到随机访问存储器(RAM)1303中的计算机程序来执行各种适当的动作和处理。在RAM 1303中,还可存储电子设备1300操作所需的各种程序和数据。计算单元1301、ROM 1302以及RAM 1303通过总线1304彼此相连。输入输出(I/O)接口1305也连接至总线1304。
电子设备1300中的多个部件连接至I/O接口1305,包括:输入单元1306,例如键盘、鼠标等;输出单元1307,例如各种类型的显示器、扬声器等;存储单元1308,例如磁盘、光盘等;以及通信单元1309,例如网卡、调制解调器、无线通信收发机等。通信单元1309允许电子设备1300通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1301可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1301的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1301执行上文所描述的各个方法和处理,例如用于活体识别的方法和/或关键点检测模型的训练方法。例如,在一些实施例中,用于活体识别的方法和/或关键点检测模型的训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1308。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1302和/或通信单元1309而被载入和/或安装到电子设备1300上。当计算机程序加载到RAM 1303并由计算单元1301执行时,可以执行上文描述的用于活体识别的方法和/或关键点检测模型的训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元1301可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行用于活体识别的方法和/或关键点检测模型的训练方法。
本文中以上描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入、或者触觉输入来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (21)
1.一种用于活体识别的方法,包括:
获取目标对象的多个待处理图像,各所述待处理图像分别对应所述目标对象的不同位姿;
将所述待处理图像输入预先训练的关键点检测模型,得到所述待处理图像的关键点信息集,所述关键点信息集包含多个关键点信息;
基于各所述待处理图像的关键点信息集,得到所述目标对象的活体识别结果。
2.根据权利要求1所述的方法,其中,所述基于各所述待处理图像的关键点信息集,得到所述目标对象的活体识别结果,包括:
基于各所述待处理图像的关键点信息集,确定所述目标对象的关键点数组;并且,基于各所述待处理图像的关键点信息集,确定所述目标对象的旋转矩阵数组;
基于所述关键点数组和所述旋转矩阵数组,得到所述目标对象的活体识别结果。
3.根据权利要求2所述的方法,其中,所述确定所述目标对象的关键点数组,包括:
对多个所述待处理图像的关键点信息集进行合并处理,得到目标对象的关键点数组。
4.根据权利要求2所述的方法,其中,所述确定所述目标对象的旋转矩阵数组,包括:
构建多个待处理图像对,每个所述待处理图像对包含所述目标对象的多个待处理图像中的任意两个;
基于所述待处理图像的关键点信息集,计算各所述待处理图像对的旋转矩阵;
对多个所述待处理图像对的旋转矩阵进行组合,得到所述目标对象的旋转矩阵数组。
5.根据权利要求2所述的方法,其中,所述基于所述关键点数组和所述旋转矩阵数组,得到所述目标对象的活体识别结果,包括:
对所述关键点数组进行预处理,得到预处理后的关键点数组;
将所述预处理后的关键点数组和所述旋转矩阵数组输入预先训练的活体识别模型,得到所述目标对象的活体识别结果。
6.根据权利要求5所述的方法,其中,所述关键点信息包含坐标值和与坐标值对应的像素值;
所述对所述关键点数组进行预处理,得到预处理后的关键点数组,包括:
对所述关键点数组中各关键点信息的像素值进行归一化处理,得到各所述关键点信息的归一化像素值,其中,所述归一化像素值的数值大小符合预设区间;
基于各所述关键点信息的归一化像素值,得到预处理后的关键点数组。
7.一种关键点检测模型的训练方法,包括:
利用样本图像,确定目标关键点信息集;
将所述样本图像输入待训练的关键点检测模型,得到预测关键点信息集;
确定所述目标关键点信息集和所述预测关键点信息集的差异,根据所述差异对所述待训练的关键点检测模型进行训练,直至所述差异在允许范围内。
8.根据权利要求7所述的方法,其中,所述利用样本图像,确定目标关键点信息集,包括:
对所述样本图像进行图像提取处理,得到人脸区域图像;
对所述人脸区域图像进行归一化处理,得到归一化人脸区域图像;
根据所述归一化人脸区域图像与预先建立的关键点数据集的匹配结果,得到目标关键点信息集。
9.根据权利要求7所述的方法,其中,所述确定所述目标关键点信息集和所述预测关键点信息集的差异,包括:
基于所述目标关键点信息集和所述预测关键点信息集,确定所述预测关键点信息集中的各预测关键点信息对应的目标关键点信息;
计算所述预测关键点信息的坐标值和所述对应的目标关键点信息的坐标值之间的损失值,根据所述损失值确定所述目标关键点信息集和所述预测关键点信息集的差异。
10.一种用于活体识别的装置,包括:
图像获取模块,用于获取目标对象的多个待处理图像,各所述待处理图像分别对应所述目标对象的不同位姿;
关键点信息集生成模块,用于将所述待处理图像输入预先训练的关键点检测模型,得到所述待处理图像的关键点信息集,所述关键点信息集包含多个关键点信息;
活体识别结果生成模块,用于基于各所述待处理图像的关键点信息集,得到所述目标对象的活体识别结果。
11.根据权利要求10所述的装置,其中,所述活体识别结果生成模块包括:
关键点数组确定子模块,用于基于各所述待处理图像的关键点信息集,确定所述目标对象的关键点数组;并且,基于各所述待处理图像的关键点信息集,确定所述目标对象的旋转矩阵数组;
活体识别结果生成子模块,用于基于所述关键点数组和所述旋转矩阵数组,得到所述目标对象的活体识别结果。
12.根据权利要求11所述的装置,其中,所述关键点数组确定子模块包括:
关键点数组确定单元,用于对多个所述待处理图像的关键点信息集进行合并处理,得到目标对象的关键点数组。
13.根据权利要求11所述的装置,其中,所述活体识别结果生成子模块包括:
待处理图像对构建单元,用于构建多个待处理图像对,每个所述待处理图像对包含所述目标对象的多个待处理图像中的任意两个;
旋转矩阵计算单元,用于基于所述待处理图像的关键点信息集,计算各所述待处理图像对的旋转矩阵;
旋转矩阵数组生成单元,用于对多个所述待处理图像对的旋转矩阵进行组合,得到所述目标对象的旋转矩阵数组。
14.根据权利要求11所述的装置,其中,所述活体识别结果生成子模块包括:
预处理单元,用于对所述关键点数组进行预处理,得到预处理后的关键点数组;
活体识别结果生成单元,用于将所述预处理后的关键点数组和所述旋转矩阵数组输入预先训练的活体识别模型,得到所述目标对象的活体识别结果。
15.根据权利要求14所述的装置,其中,所述关键点信息包含坐标值和与坐标值对应的像素值;所述预处理单元还用于:
对所述关键点数组中各关键点信息的像素值进行归一化处理,得到各所述关键点信息的归一化像素值,其中,所述归一化像素值的数值大小符合预设区间;以及,
基于各所述关键点信息的归一化像素值,得到预处理后的关键点数组。
16.一种关键点检测模型的训练装置,包括:
目标关键点信息集确定模块,用于利用样本图像,确定目标关键点信息集;
预测关键点信息集生成模块,用于将所述样本图像输入待训练的关键点检测模型,得到预测关键点信息集;
训练模块,用于确定所述目标关键点信息集和所述预测关键点信息集的差异,根据所述差异对所述待训练的关键点检测模型进行训练,直至所述差异在允许范围内。
17.根据权利要求16所述的装置,其中,所述目标关键点信息集确定模块包括:
图像提取子模块,用于对所述样本图像进行图像提取处理,得到人脸区域图像;
归一化处理子模块,用于对所述人脸区域图像进行归一化处理,得到归一化人脸区域图像;
目标关键点信息生成子模块,用于根据所述归一化人脸区域图像与预先建立的关键点数据集的匹配结果,得到目标关键点信息集。
18.根据权利要求16所述的装置,其中,所述训练模块包括:
对应关系确定子模块,用于基于所述目标关键点信息集和所述预测关键点信息集,确定所述预测关键点信息集中的各预测关键点信息对应的目标关键点信息;
差异确定子模块,用于计算所述预测关键点信息的坐标值和所述对应的目标关键点信息的坐标值之间的损失值,根据所述损失值确定所述目标关键点信息集和所述预测关键点信息集的差异。
19.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至9中任一项所述的方法。
20.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使计算机执行权利要求1至9中任一项所述的方法。
21.一种计算机程序产品,包括计算机程序,该计算机程序在被处理器执行时实现根据权利要求1至9中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110558078.5A CN113255512B (zh) | 2021-05-21 | 2021-05-21 | 用于活体识别的方法、装置、设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110558078.5A CN113255512B (zh) | 2021-05-21 | 2021-05-21 | 用于活体识别的方法、装置、设备以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113255512A true CN113255512A (zh) | 2021-08-13 |
CN113255512B CN113255512B (zh) | 2023-07-28 |
Family
ID=77183646
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110558078.5A Active CN113255512B (zh) | 2021-05-21 | 2021-05-21 | 用于活体识别的方法、装置、设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113255512B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115083020A (zh) * | 2022-07-22 | 2022-09-20 | 海易科技(北京)有限公司 | 信息生成方法、装置、电子设备和计算机可读介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107066983A (zh) * | 2017-04-20 | 2017-08-18 | 腾讯科技(上海)有限公司 | 一种身份验证方法及装置 |
WO2019218621A1 (zh) * | 2018-05-18 | 2019-11-21 | 北京市商汤科技开发有限公司 | 活体检测方法及装置、电子设备和存储介质 |
CN110942032A (zh) * | 2019-11-27 | 2020-03-31 | 深圳市商汤科技有限公司 | 活体检测方法及装置、存储介质 |
CN111091063A (zh) * | 2019-11-20 | 2020-05-01 | 北京迈格威科技有限公司 | 活体检测方法、装置及*** |
CN111091075A (zh) * | 2019-12-02 | 2020-05-01 | 北京华捷艾米科技有限公司 | 人脸识别方法、装置、电子设备及存储介质 |
CN112052831A (zh) * | 2020-09-25 | 2020-12-08 | 北京百度网讯科技有限公司 | 人脸检测的方法、装置和计算机存储介质 |
-
2021
- 2021-05-21 CN CN202110558078.5A patent/CN113255512B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107066983A (zh) * | 2017-04-20 | 2017-08-18 | 腾讯科技(上海)有限公司 | 一种身份验证方法及装置 |
WO2019218621A1 (zh) * | 2018-05-18 | 2019-11-21 | 北京市商汤科技开发有限公司 | 活体检测方法及装置、电子设备和存储介质 |
CN111091063A (zh) * | 2019-11-20 | 2020-05-01 | 北京迈格威科技有限公司 | 活体检测方法、装置及*** |
CN110942032A (zh) * | 2019-11-27 | 2020-03-31 | 深圳市商汤科技有限公司 | 活体检测方法及装置、存储介质 |
CN111091075A (zh) * | 2019-12-02 | 2020-05-01 | 北京华捷艾米科技有限公司 | 人脸识别方法、装置、电子设备及存储介质 |
CN112052831A (zh) * | 2020-09-25 | 2020-12-08 | 北京百度网讯科技有限公司 | 人脸检测的方法、装置和计算机存储介质 |
Non-Patent Citations (2)
Title |
---|
DAI SASAKAWA 等: "Fast Living-Body Localization Algorithm for MIMO Radar in Multipath Environment", IEEE TRANSACTIONS ON ANTENNAS AND PROPAGATION, vol. 66, no. 12, XP011702351, DOI: 10.1109/TAP.2018.2870405 * |
马钰锡 等: "面向VTM的交互式活体检测算法", 计算机工程, vol. 45, no. 3 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115083020A (zh) * | 2022-07-22 | 2022-09-20 | 海易科技(北京)有限公司 | 信息生成方法、装置、电子设备和计算机可读介质 |
CN115083020B (zh) * | 2022-07-22 | 2022-11-01 | 海易科技(北京)有限公司 | 信息生成方法、装置、电子设备和计算机可读介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113255512B (zh) | 2023-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210158023A1 (en) | System and Method for Generating Image Landmarks | |
CN108427927B (zh) | 目标再识别方法和装置、电子设备、程序和存储介质 | |
JP7425147B2 (ja) | 画像処理方法、テキスト認識方法及び装置 | |
CN113343826A (zh) | 人脸活体检测模型的训练方法、人脸活体检测方法及装置 | |
CN113221771B (zh) | 活体人脸识别方法、装置、设备、存储介质及程序产品 | |
CN113971751A (zh) | 训练特征提取模型、检测相似图像的方法和装置 | |
CN113435408A (zh) | 人脸活体检测方法、装置、电子设备及存储介质 | |
US20220343636A1 (en) | Method and apparatus for establishing image recognition model, device, and storage medium | |
EP4080470A2 (en) | Method and apparatus for detecting living face | |
CN112949767A (zh) | 样本图像增量、图像检测模型训练及图像检测方法 | |
KR20220076398A (ko) | Ar장치를 위한 객체 인식 처리 장치 및 방법 | |
WO2023202400A1 (zh) | 分割模型的训练方法及装置、图像识别方法及装置 | |
CN113643260A (zh) | 用于检测图像质量的方法、装置、设备、介质和产品 | |
CN114169425B (zh) | 训练目标跟踪模型和目标跟踪的方法和装置 | |
CN113255511A (zh) | 用于活体识别的方法、装置、设备以及存储介质 | |
CN113255512B (zh) | 用于活体识别的方法、装置、设备以及存储介质 | |
CN114120454A (zh) | 活体检测模型的训练方法、装置、电子设备及存储介质 | |
CN113221769A (zh) | 识别模型训练方法、识别方法、装置、设备及存储介质 | |
CN115116111B (zh) | 抗扰动人脸活体检测模型训练方法、装置及电子设备 | |
CN115273184A (zh) | 人脸活体检测模型训练方法及装置 | |
CN113642428B (zh) | 人脸活体检测方法、装置、电子设备及存储介质 | |
CN115457365A (zh) | 一种模型的解释方法、装置、电子设备及存储介质 | |
CN114093006A (zh) | 活体人脸检测模型的训练方法、装置、设备以及存储介质 | |
CN114461078A (zh) | 一种基于人工智能的人机交互方法 | |
CN115205939B (zh) | 人脸活体检测模型训练方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |