CN111666901A - 一种活体人脸检测方法、装置、电子设备及存储介质 - Google Patents

一种活体人脸检测方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN111666901A
CN111666901A CN202010520464.0A CN202010520464A CN111666901A CN 111666901 A CN111666901 A CN 111666901A CN 202010520464 A CN202010520464 A CN 202010520464A CN 111666901 A CN111666901 A CN 111666901A
Authority
CN
China
Prior art keywords
face
prediction result
target object
image
color image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202010520464.0A
Other languages
English (en)
Inventor
范馨予
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alnnovation Beijing Technology Co ltd
Original Assignee
Alnnovation Beijing Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alnnovation Beijing Technology Co ltd filed Critical Alnnovation Beijing Technology Co ltd
Priority to CN202010520464.0A priority Critical patent/CN111666901A/zh
Publication of CN111666901A publication Critical patent/CN111666901A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本申请提供一种活体人脸检测方法、装置、电子设备及存储介质,用于改善检测图像中的活体人脸的正确率不高的问题。该活体人脸检测方法可以应用于电子设备,该方法包括:获得针对目标对象采集的红外线图像和彩色图像;使用预先训练的第一图像分类模型预测红外线图像中是否包括活体人脸,获得的第一预测结果和不确定程度特征;将不确定程度特征和彩色图像提取出的人脸深度特征进行融合,获得融合特征;使用预先训练的第二图像分类模型根据融合特征预测彩色图像中是否包括活体人脸,获得第二预测结果;根据第一预测结果和第二预测结果确定目标对象对应的人脸是否为活体人脸的检测结果。

Description

一种活体人脸检测方法、装置、电子设备及存储介质
技术领域
本申请涉及深度学习、人脸识别和活体检测的技术领域,具体而言,涉及一种活体人脸检测方法、装置、电子设备及存储介质。
背景技术
活体检测是指在一些身份验证场景确定对象真实生理特征的过程,用于验证用户是否为真实活体;使用活体检测可以有效地抵御照片、面具以及屏幕翻拍等常见的攻击手段,从而帮助甄别欺诈行为。
目前的判断图像中的人脸是否为活体人脸的任务中,通常是纹理、频率、光流场等特征分析的方法,这些方法例如:采用LBP(Local Binary Pattern,局部二值模式)或者光流场等方式来判断是否为活体人脸,或者是基于3D人脸形状的分析,具体例如:通过深度摄像头获取3D人脸的形状,这样可以有效的对抗平面的照片和视频的攻击;在具体的实施过程中,发现使用高清的图片或者视频可以大概率的攻破上述方法,也就是说,使用上述的方法检测图像中的活体人脸的正确率不高。
发明内容
本申请实施例的目的在于提供一种活体人脸检测方法、装置、电子设备及存储介质,用于改善检测图像中的活体人脸的正确率不高的问题。
本申请实施例提供了一种活体人脸检测方法,应用于电子设备,包括:获得针对目标对象采集的红外线图像和彩色图像;使用预先训练的第一图像分类模型预测红外线图像中是否包括活体人脸,获得的第一预测结果和不确定程度特征;将不确定程度特征和彩色图像提取出的人脸深度特征进行融合,获得融合特征;使用预先训练的第二图像分类模型根据融合特征预测彩色图像中是否包括活体人脸,获得第二预测结果;根据第一预测结果和第二预测结果确定目标对象对应的人脸是否为活体人脸的检测结果。在上述的实现过程中,通过使用预先训练的第一图像分类模型预测红外线图像中是否包括活体人脸获得的第一预测结果和不确定程度特征;再将不确定程度特征和人脸深度特征进行融合获得融合特征;再使用预先训练的第二图像分类模型根据融合特征预测彩色图像中是否包括活体人脸获得第二预测结果;根据第一预测结果和第二预测结果确定目标对象对应的人脸是否为活体人脸的检测结果;也就是说,结合根据红外图像确定的第一预测结果和根据彩色图像中提取的人脸深度特征确定的第二预测结果,来确定目标对象对应的人脸是否为活体人脸,从而有效地提高了检测图像中的活体人脸的正确率。
可选地,在本申请实施例中,在将不确定程度特征和彩色图像提取出的人脸深度特征进行融合之前,还包括:从彩色图像中确定人脸区域;根据人脸区域确定人脸深度特征。在上述的实现过程中,通过从彩色图像中确定人脸区域;根据人脸区域确定人脸深度特征;从而有效地提高了确定人脸深度特征的精准度。
可选地,在本申请实施例中,根据人脸区域确定人脸深度特征,包括:从人脸区域中提取人脸特征;对人脸区域进行深度估计,获得深度特征图;使用预先训练的深度融合网络模型将人脸特征和深度特征图进行融合,获得人脸深度特征。在上述的实现过程中,通过从人脸区域中提取人脸特征;对人脸区域进行深度估计,获得深度特征图;使用预先训练的深度融合网络模型将人脸特征和深度特征图进行融合,获得人脸深度特征;从而有效地提高了确定人脸深度特征的精准度。
可选地,在本申请实施例中,第一预测结果的置信度不大于预设阈值;根据第一预测结果和第二预测结果确定目标对象对应的人脸是否为活体人脸的检测结果,包括:判断第二预测结果是否为彩色图像中包括活体人脸;若是,则确定目标对象对应的人脸是活体人脸;若否,则确定目标对象对应的人脸不是活体人脸。在上述的实现过程中,通过判断第二预测结果是否为彩色图像中包括活体人脸;若是,则确定目标对象对应的人脸是活体人脸;若否,则确定目标对象对应的人脸不是活体人脸;从而有效地提高了确定目标对象对应的人脸是否为活体人脸的准确率。
可选地,在本申请实施例中,第一预测结果的置信度大于预设阈值;根据第一预测结果和第二预测结果确定目标对象对应的人脸是否为活体人脸的检测结果,还包括:判断第一预测结果是否为红外线图像中包括活体人脸;若是,则目标对象对应的人脸是活体人脸;若否,则目标对象对应的人脸不是活体人脸。在上述的实现过程中,通过判断第一预测结果是否为红外线图像中包括活体人脸;若是,则目标对象对应的人脸是活体人脸;若否,则目标对象对应的人脸不是活体人脸;有效地提高了确定目标对象对应的人脸是否为活体人脸的效率。
可选地,在本申请实施例中,针对目标对象采集的获得红外线图像和彩色图像,包括:接收终端设备发送的红外线图像和彩色图像;在根据第一预测结果和第二预测结果确定目标对象对应的人脸是否为活体人脸的检测结果之后,还包括:向终端设备发送检测结果。在上述的实现过程中,通过电子设备接收终端设备发送的红外线图像和彩色图像;在根据第一预测结果和第二预测结果确定目标对象对应的人脸是否为活体人脸的检测结果之后,电子设备还向终端设备发送检测结果,从而有效地提高了终端设备获得检测结果的速度。
本申请实施例还提供了一种活体人脸检测方法,应用于终端设备,包括:向电子设备发送红外线图像和彩色图像,以使电子设备根据红外线图像和彩色图像确定并发送目标对象是否为活体人脸的检测结果,红外线图像和彩色图像均是采集目标对象获得的;接收电子设备发送的检测结果。在上述的实现过程中,通过终端设备向电子设备发送红外线图像和彩色图像,以使电子设备根据红外线图像和彩色图像确定并发送目标对象是否为活体人脸的检测结果;终端设备接收电子设备发送的检测结果;从而有效地提高了终端设备获得检测结果的速度。
本申请实施例还提供了一种活体人脸检测装置,应用于电子设备,包括:图像获得模块,用于获得针对目标对象采集的红外线图像和彩色图像;第一预测模块,用于使用预先训练的第一图像分类模型预测红外线图像中是否包括活体人脸,获得的第一预测结果和不确定程度特征;特征融合模块,用于将不确定程度特征和彩色图像提取出的人脸深度特征进行融合,获得融合特征;第二预测模块,用于使用预先训练的第二图像分类模型根据融合特征预测彩色图像中是否包括活体人脸,获得第二预测结果;结果确定模块,用于根据第一预测结果和第二预测结果确定目标对象对应的人脸是否为活体人脸的检测结果。
可选地,在本申请实施例中,活体人脸检测装置,还包括:区域确定模块,用于从彩色图像中确定人脸区域;特征确定模块,用于根据人脸区域确定人脸深度特征。
可选地,在本申请实施例中,特征确定模块,还包括:人脸特征提取模块,用于从人脸区域中提取人脸特征;深度特征获得模块,用于对人脸区域进行深度估计,获得深度特征图;特征深度融合模块,用于使用预先训练的深度融合网络模型将人脸特征和深度特征图进行融合,获得人脸深度特征。
可选地,在本申请实施例中,第一预测结果的置信度不大于预设阈值;结果确定模块,包括:彩色图像判断模块,用于判断第二预测结果是否为彩色图像中包括活体人脸;若第二预测结果是彩色图像中包括活体人脸,则确定目标对象对应的人脸是活体人脸;若第二预测结果不是彩色图像中包括活体人脸,则确定目标对象对应的人脸不是活体人脸。
可选地,在本申请实施例中,第一预测结果的置信度大于预设阈值;结果确定模块,还包括:红外图像判断模块,用于第一预测结果是否为红外线图像中包括活体人脸;若第一预测结果是红外线图像中包括活体人脸,则目标对象对应的人脸是活体人脸;若第一预测结果不是红外线图像中包括活体人脸,则目标对象对应的人脸不是活体人脸。
可选地,在本申请实施例中,图像获得模块,包括:图像接收模块,用于接收终端设备发送的红外线图像和彩色图像;活体人脸检测装置,还包括:结果发送模块,用于向终端设备发送检测结果。
本申请实施例还提供了一种活体人脸检测装置,应用于终端设备,包括:图像发送模块,用于向电子设备发送红外线图像和彩色图像,以使电子设备根据红外线图像和彩色图像确定并发送目标对象是否为活体人脸的检测结果,红外线图像和彩色图像均是采集目标对象获得的;结果接收模块,用于接收电子设备发送的检测结果。
本申请实施例还提供了一种电子设备,包括:处理器和存储器,存储器存储有处理器可执行的机器可读指令,机器可读指令被处理器执行时执行如上面描述的方法。
本申请实施例还提供了一种存储介质,存储介质上存储有计算机程序,计算机程序被处理器运行时执行如上面描述的方法。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出的本申请实施例提供的活体人脸检测方法的流程示意图;
图2示出的本申请实施例提供的深度融合网络模型的示意图;
图3示出的本申请实施例提供的人脸深度特征的获得方法的流程示意图;
图4示出的本申请实施例提供的电子设备和终端设备通信方法的流程示意图;
图5示出的本申请实施例提供的活体人脸检测装置示意图;
图6示出的本申请实施例提供的电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整的描述。
在介绍本申请实施例提供的活体人脸检测方法之前,先介绍本申请实施例所涉及的一些概念,本申请实施例所涉及的一些概念如下:
深度学习(Deep Learning),是指学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字、图像和声音等数据的解释有很大的帮助;深度学习的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据,深度学习包括但不限于使用更深层次的神经网络模型提取文字、图像和声音等数据的特征。
人工神经网络(Artificial Neural Network,ANN),简称神经网络(NeuralNetwork,NN)或类神经网络,在机器学习和认知科学领域,是一种模仿生物神经网络(例如:动物的中枢神经***,可以是大脑)的结构和功能的数学模型或计算模型,用于对函数进行估计或近似;这里的神经网络由大量的人工神经元联结进行计算。
卷积神经网络(Convolutional Neural Networks,CNN),是一种人工神经网络,人工神经网络的人工神经元可以响应周围单元,可以进行大型图像处理;卷积神经网络可以包括卷积层和池化层。
图像分类模型,又称图像分类神经网络模型,是指对神经网络进行训练后获得的用于图像分类的神经网络模型,即将图像作为图像分类神经网络模型的输入获得概率列表的输出,常见的图像分类神经网络模型例如:CNN和深度神经网络(Deep Neural Networks,DNN)等等。
深度估计,是指对一个或者多个二维的图片进行计算,例如;使用神经网络算法估计出三维的深度估计图,因此,深度估计也可以理解为从二维平面信息推测出三维空间信息。
深度特征图(Deep Feature Map),是指表征二维图像中的三维深度信息的特征矩阵,这里的深度信息可以理解为三维空间信息,即二维图像中提取出三维空间信息的特征矩阵。
深度估计网络模型,是指从二维图像提取出深度特征图的神经网络模型,这里的深度估计网络模型可以使用训练数据对CNN进行训练后获得的神经网络模型。
红外线(Infrared,IR),是波长介乎微波与可见光之间的电磁波,其波长在760奈米(nm)至1毫米(mm)之间,是波长比红光长的非可见光,对应频率约是在430THz到300GHz的范围内。
电荷耦合元件(Charge-Coupled Device,CCD),是指一种用电荷量表示信号大小,且用耦合方式传输信号的探测元件;CCD中的探元是指相机镜头中感光元件中一个感光的单元,对应的是CCD获得影像的像素。
红外摄像机,是指在镜头和CCD之间加装了一个红外滤光镜的摄像机,红外摄像机的作用就是让一定波段内的红外光通过,吸收或反射可见光和紫外线,大多数的红外摄像机采用发光二极管(Light Emitting Diode,LED)红外发光二极管作为红外摄像机的主要材料。
服务器是指通过网络提供计算服务的设备,服务器例如:x86服务器以及非x86服务器,非x86服务器包括:大型机、小型机和UNIX服务器。当然在具体的实施过程中,上述的服务器可以具体选择大型机或者小型机,这里的小型机是指采用精简指令集计算(ReducedInstruction Set Computing,RISC)、单字长定点指令平均执行速度(MillionInstructions Per Second,MIPS)等专用处理器,主要支持UNIX操作***的封闭且专用的提供计算服务的设备;这里的大型机,又名大型主机,是指使用专用的处理器指令集、操作***和应用软件来提供计算服务的设备。
需要说明的是,本申请实施例提供的活体人脸检测方法可以被电子设备执行,这里的电子设备是指具有执行计算机程序功能的设备终端或者上述的服务器,设备终端例如:智能手机、个人电脑(personal computer,PC)、平板电脑、个人数字助理(personaldigital assistant,PDA)、移动上网设备(mobile Internet device,MID)、网络交换机或网络路由器等。
在介绍本申请实施例提供的活体人脸检测方法之前,先介绍该活体人脸检测方法适用的应用场景,这里的应用场景包括但不限于:在安防领域或者支付领域中,使用该活体人脸检测方法检测目标对象对应的人脸是否为活体人脸,不是活体人脸的情况具体例如:照片、面具以及屏幕翻拍等情况,具体可以应用于安防领域中的门禁***,例如:攻击者拿着房屋所有者的照片、视频或者模仿面具无法进入该房屋;也可以应用于移动支付领域,具体例如;攻击者拿着支付者的照片、视频或者模仿面具,无法以支付者的人脸识别身份完成交易支付操作。
请参见图1示出的本申请实施例提供的活体人脸检测方法的流程示意图;该活体人脸检测方法可以应用于电子设备,该活体人脸检测方法可以包括:
步骤S110:获得针对目标对象采集的红外线图像和彩色图像。
目标对象,是指判断是否为活体人脸的目标对象,这里的目标对象例如:真实的活体人脸、人脸照片、人脸视频或者打印的三维人脸面具等。
红外线图像,是指针对目标对象采集的有红外光的图像,这里的红外线图像可以是使用红外摄像机采集目标对象的图像获得的。
彩色图像,是指针对目标对象采集的包括红色通道、绿色通道或蓝色通道的图像,这里的彩色图像可以是使用普通的RGB摄像头采集目标对象的图像获得的;这里的RGB是指红(R)、绿(G)、蓝(B)三个颜色通道的简称。
上述步骤S110中的获得针对目标对象采集的红外线图像和彩色图像的实施方式包括:第一种方式,获取预先存储的针对目标对象采集的红外线图像和彩色图像,从文件***中获取针对目标对象采集的红外线图像和彩色图像,或者从数据库中获取红外线图像和彩色图像;第二种方式,从其他终端设备接收获得红外线图像和彩色图像;第三种方式,使用浏览器等软件获取互联网上的红外线图像和彩色图像,或者使用其它应用程序访问互联网获得红外线图像和彩色图像;第四种方式,使用红外摄像机采集目标对象的图像,获得目标对象的红外线图像,使用普通的RGB摄像头采集目标对象的图像,获得目标对象的彩色图像。
在步骤S110之后,执行步骤S120:使用预先训练的第一图像分类模型预测红外线图像中是否包括活体人脸,获得的第一预测结果和不确定程度特征。
第一图像分类模型,是指对红外线图像进行分类的神经网络模型,该神经网络模型的输入为红外线图像,该神经网络模型的输出为红外线图像中是否包括活体人脸的预测结果;上述的预先训练的第一图像分类模型是指事先使用训练数据对神经网络模型进行训练,获得第一图像分类模型。
第一预测结果,是指使用上述的第一图像分类模型对红外线图像进行分类的结果,这里分类的结果包括两种结果:红外线图像中包括活体人脸和红外线图像中不包括活体人脸。
不确定程度特征,是指在对红外线图像进行分类的过程中,表征不能确定该红外线图像的分类结果的程度特征,不确定程度特征具体例如:可以采用置信度来表征红外线图像的分类结果的不确定程度。
上述的步骤S120的实施方式例如:若第一图像分类模型为训练后的卷积神经网络模型,则从红外线图像中检测出人脸区域,使训练后的第一图像分类模型预测人脸区域中的人脸是否为活体人脸,获得的第一预测结果和不确定程度特征;这里的卷积神经网络模型例如:LeNet、AlexNet、VGG、GoogLeNet或者ResNet等等。上述第一图像分类模型的训练方式例如:获得卷积神经网络和训练数据,训练数据包括红外线图像和数据标签,使用训练数据对卷积神经网络进行训练,获得第一图像分类模型。
在具体的实施过程中,卷积神经网络模型中还可以使用归一化指数函数(Softmax)对上述的红外线图像提取出的特征图进行分类,这里的归一化指数函数又被称为softmax分类器、softmax层或Softmax函数,实际上是有限项离散概率分布的梯度对数归一化;在数学中,尤其是概率论和相关领域中,归一化指数函数,或称Softmax函数,是逻辑函数的一种推广;归一化指数函数能将一个含任意实数的K维向量“压缩”到另一个K维实向量σ(z)中,使得每一个元素的范围都在(0,1)之间,并且所有元素的和为1。
在步骤S120之后,执行步骤S130:将不确定程度特征和彩色图像提取出的人脸深度特征进行融合,获得融合特征。
人脸深度特征,是指从彩色图像提取出的表征人脸深度信息的深度特征图;其中,人脸深度特征的获得方式有很多种,获得人脸深度特征的其中一种方式例如:使用预先训练的深度估计网络模型对上述的彩色图像进行深度估计,获得人脸深度特征,这里的深度估计网络模型具体例如:LeNet、AlexNet、VGG、ResNet和GoogLeNet等等卷积神经网络模型;其中,人脸深度特征的具体获得方式将在下面进行详细地说明。
请参见图2示出的本申请实施例提供的深度融合网络模型的示意图;上述的步骤S130的实施方式例如:使用深度融合网络模型对不确定程度特征和彩色图像提取出的人脸深度特征进行融合,获得融合特征;这里的深度融合网络模型又被称为深度图(depth map,DM)网络模型,又被简称为DM网络模型或者RGB/DM网络模型。这里的深度融合网络模型包括:挤压激振(squeeze and excitation,S&E)模块、全局平均池化(globalaveragepooling,GAP)层、残差模块(residualblock)和全连接层;其中,挤压激振模块又被简称为S&E模块或者S&Eblock,S&E模块的作用是对获得的特征进行权重调整和融合,S&E模块具体可以采用卷积神经网络层来实现;GAP层是指对全局进行平均池化计算的神经网络层;残差模块是残差神经网络层,使用残差模块对不同尺度的特征进行融合,获得融合特征;图中的残差模块可以包括:第一残差模块(res1)、第二残差模块(res2)和第三残差模块(res3);具体地,残差模块可以采用ResNet22、ResNet38、ResNet50、ResNet101或ResNet152等等;图中的全连接层可以包括:第一全连接层、第二全连接层和第三全连接层。
在步骤S130之后,执行步骤S140:使用预先训练的第二图像分类模型根据融合特征预测彩色图像中是否包括活体人脸,获得第二预测结果。
第二图像分类模型,是指根据融合特征对彩色图像进行分类的神经网络模型,该神经网络模型的输入为融合特征,该神经网络模型的输出为彩色图像中是否包括活体人脸的预测结果;上述的预先训练的第二图像分类模型是指事先使用训练数据对神经网络模型进行训练,获得第二图像分类模型。
第二预测结果,是指使用上述的第二图像分类模型对融合特征进行分类的结果,这里分类的结果包括两种结果:彩色图像中包括活体人脸和彩色图像中不包括活体人脸。
上述的步骤S140的实施方式例如:获得卷积神经网络和训练数据,训练数据包括彩色图像和数据标签,使用训练数据对卷积神经网络进行训练,获得第二图像分类模型,使训练后的第二图像分类模型对融合特征进行分类,获得彩色图像中是否包括活体人脸的分类结果,即第二预测结果;这里的卷积神经网络例如:LeNet、AlexNet、VGG、GoogLeNet或者ResNet等等。
在步骤S140之后,执行步骤S150:根据第一预测结果和第二预测结果确定目标对象对应的人脸是否为活体人脸的检测结果。
检测结果,是指目标对象对应的人脸是否为活体人脸的结果,具体例如:若目标对象为真实的活体人脸,那么检测结果为目标对象对应的人脸是活体人脸;若目标对象为人脸照片、人脸视频或者打印的三维人脸面具,那么检测结果为目标对象对应的人脸不是活体人脸。
上述的步骤S150的实施方式分为以下两种情况:
第一种情况,当第一预测结果的置信度不大于预设阈值时,则上述的步骤S150的实施方式可以包括:
置信度,在一个概率样本的置信区间(Confidence interval)中,是对这个样本的某个总体参数的区间估计,这里的置信度是指第一预测结果的可信程度,这里的置信度的取值区间为0%至100%。
预设阈值,是指预先设置的限制阈值,该预设阈值可以根据具体实际情况进行设置,例如:可以设置为20%、50%或90%等。
步骤S151:判断第二预测结果是否为彩色图像中包括活体人脸。
上述的步骤S151的实施方式例如:若第一预测结果的置信度为50%,而预设阈值为80%,那么第一预测结果的置信度是不大于预设阈值的,则判断第二预测结果是否为彩色图像中包括活体人脸。
步骤S152:若第二预测结果为彩色图像中包括活体人脸,则确定目标对象对应的人脸是活体人脸。
上述的步骤S152的实施方式例如:若目标对象为真实的活体人脸,再采集目标对象的彩色图像,则可以得知,获得的第二预测结果为彩色图像中包括活体人脸,则确定目标对象对应的人脸是活体人脸。
步骤S153:若第二预测结果为彩色图像中不包括活体人脸,则确定目标对象对应的人脸不是活体人脸。
上述的步骤S153的实施方式例如:若目标对象为人脸的照片、视频或者面具,再采集目标对象的彩色图像,则可以得知,获得的第二预测结果为彩色图像中不包括活体人脸,则确定目标对象对应的人脸不是活体人脸。
在上述的实现过程中,通过判断第二预测结果是否为彩色图像中包括活体人脸;若是,则确定目标对象对应的人脸是活体人脸;若否,则确定目标对象对应的人脸不是活体人脸;从而有效地提高了确定目标对象对应的人脸是否为活体人脸的准确率。
第二种情况,当第一预测结果的置信度大于预设阈值时,则上述的步骤S150的实施方式可以包括:
步骤S154:判断第一预测结果是否为红外线图像中包括活体人脸。
其中,该步骤的实施原理和实施方式与步骤S151的实施原理和实施方式是相似或类似的,因此,这里不再对该步骤的实施方式和实施原理进行说明,如有不清楚的地方,可以参考对步骤S151的描述。
步骤S155:若第一预测结果为红外线图像中包括活体人脸,则目标对象对应的人脸是活体人脸。
其中,该步骤的实施原理和实施方式与步骤S152的实施原理和实施方式是相似或类似的,因此,这里不再对该步骤的实施方式和实施原理进行说明,如有不清楚的地方,可以参考对步骤S152的描述。
步骤S156:若第一预测结果为红外线图像中不包括活体人脸,则目标对象对应的人脸不是活体人脸。
其中,该步骤的实施原理和实施方式与步骤S153的实施原理和实施方式是相似或类似的,因此,这里不再对该步骤的实施方式和实施原理进行说明,如有不清楚的地方,可以参考对步骤S153的描述。在上述的实现过程中,通过判断第一预测结果是否为红外线图像中包括活体人脸;若是,则目标对象对应的人脸是活体人脸;若否,则目标对象对应的人脸不是活体人脸;有效地提高了确定目标对象对应的人脸是否为活体人脸的效率。
在上述的实现过程中,通过使用预先训练的第一图像分类模型预测红外线图像中是否包括活体人脸获得的第一预测结果和不确定程度特征;再将不确定程度特征和人脸深度特征进行融合获得融合特征;再使用预先训练的第二图像分类模型根据融合特征预测彩色图像中是否包括活体人脸获得第二预测结果;根据第一预测结果和第二预测结果确定目标对象对应的人脸是否为活体人脸的检测结果;也就是说,结合根据红外图像确定的第一预测结果和根据彩色图像中提取的人脸深度特征确定的第二预测结果,来确定目标对象对应的人脸是否为活体人脸,从而有效地提高了检测图像中的活体人脸的正确率。
请参见图3示出的本申请实施例提供的人脸深度特征的获得方法的流程示意图;在本申请实施例中,下面将介绍人脸深度特征的获得方法,在步骤S110中的获得针对目标对象采集的彩色图像之后,且在步骤S130之前还可以包括如下步骤:
步骤S210:从彩色图像中确定人脸区域。
上述的从彩色图像中确定人脸区域的实施方式例如:使用人脸识别网络模型从彩色图像中确定人脸区域,这里的人脸识别网络模型可以是训练后的卷积神经网络模型,这里的卷积神经网络模型例如:LeNet、AlexNet、VGG、GoogLeNet或者ResNet等等。
步骤S220:根据人脸区域确定人脸深度特征。
上述的根据人脸区域确定人脸深度特征的实施方式有很多种:
第一种方式,对人脸区域进行计算,获得人脸区域中的各个物体的几何法向量,再根据几何法向量来获得深度估计图。
第二种方式,使用两个卷积神经网络模型,分别获得全局的深度预估和局部的深度预估,然后对两者进行融合调整;具体例如:使用神经网络模型提取一个或者多个图片中的三维空间信息,这里的网络可以通过ResNet模型进行裁剪和拼接获得。
第三种方式,先提取出人脸特征,再对人脸区域进行深度估计,获得深度特征图,最后将人脸特征和深度特征图进行融合,获得人脸深度特征;具体例如:从人脸区域中提取人脸特征;对人脸区域进行深度估计,获得深度特征图;使用预先训练的深度融合网络模型将人脸特征和深度特征图进行融合,获得人脸深度特征。这里的深度融合网络模型又被称为深度图(depth map,DM)网络模型,又被简称为DM网络模型或者RGB/DM网络模型。
在上述的实现过程中,通过从人脸区域中提取人脸特征;对人脸区域进行深度估计,获得深度特征图;使用预先训练的深度融合网络模型将人脸特征和深度特征图进行融合,获得人脸深度特征;从而有效地提高了确定人脸深度特征的精准度。通过从彩色图像中确定人脸区域;根据人脸区域确定人脸深度特征;从而有效地提高了确定人脸深度特征的精准度。
请参见图4示出的本申请实施例提供的电子设备和终端设备通信方法的流程示意图;可选地,在本申请实施例中,上述的电子设备还可以和终端设备进行通信,具体的通信方法可以包括如下步骤:
步骤S310:终端设备向电子设备发送红外线图像和彩色图像。
上述的步骤S310的实施方式例如:终端设备通过传输控制协议(TransmissionControl Protocol,TCP)或者用户数据报协议(User DatagramProtocol,UDP)向电子设备发送红外线图像和彩色图像。这里的TCP协议又名网络通讯协议,是一种面向连接的、可靠的、基于字节流的传输层通信协议;在因特网协议族(Internet protocol suite)中,TCP层是位于IP层之上,应用层之下的中间层;不同主机的应用层之间经常需要可靠的、像管道一样的连接。这里的UDP协议是User Datagram Protocol的简称,中文名是用户数据报协议,UDP协议是开放式***互联(Open SystemInterconnection,OSI)参考模型中一种无连接的传输层协议,提供面向事务的简单不可靠信息传送服务。
步骤S320:电子设备接收终端设备发送的红外线图像和彩色图像,并使用预先训练的第一图像分类模型预测红外线图像中是否包括活体人脸,获得的第一预测结果和不确定程度特征。
其中,该步骤的实施原理和实施方式与步骤S120的实施原理和实施方式是相似或类似的,因此,这里不再对该步骤的实施方式和实施原理进行说明,如有不清楚的地方,可以参考对步骤S120的描述。
步骤S330:电子设备将不确定程度特征和彩色图像提取出的人脸深度特征进行融合,获得融合特征。
其中,该步骤的实施原理和实施方式与步骤S130的实施原理和实施方式是相似或类似的,因此,这里不再对该步骤的实施方式和实施原理进行说明,如有不清楚的地方,可以参考对步骤S130的描述。
步骤S340:电子设备使用预先训练的第二图像分类模型根据融合特征预测彩色图像中是否包括活体人脸,获得第二预测结果。
其中,该步骤的实施原理和实施方式与步骤S140的实施原理和实施方式是相似或类似的,因此,这里不再对该步骤的实施方式和实施原理进行说明,如有不清楚的地方,可以参考对步骤S140的描述。
步骤S350:电子设备根据第一预测结果和第二预测结果确定目标对象对应的人脸是否为活体人脸的检测结果。
其中,该步骤的实施原理和实施方式与步骤S150的实施原理和实施方式是相似或类似的,因此,这里不再对该步骤的实施方式和实施原理进行说明,如有不清楚的地方,可以参考对步骤S150的描述。
步骤S360:电子设备向终端设备发送检测结果。
上述的电子设备向终端设备发送检测结果的实施方式例如:电子设备可以向一个终端设备发送检测结果,电子设备也可以向多个终端设备发送检测结果,电子设备向其中一个终端设备的具体发送方式可以是通过无线网络发送,也可以是通过有线网络发送,也可以是通过有线网络和无线网络混合的互联网方式发送。
步骤S370:终端设备接收电子设备发送的检测结果。
上述的终端设备接收电子设备发送的检测结果的实施方式例如:终端设备通过异步JavaScript和XML(Asynchronous Javascript And XML,AJAX)的方式接收电子设备发送的检测结果,这里的AJAX是指一种创建交互式网页应用的网页开发技术,也是一种用于创建快速动态网页的技术,在无需重新加载整个网页的情况下,能够更新部分网页的技术。
在上述的实现过程中,通过电子设备接收终端设备发送的红外线图像和彩色图像;在根据第一预测结果和第二预测结果确定目标对象对应的人脸是否为活体人脸的检测结果之后,电子设备还向终端设备发送检测结果,从而有效地提高了终端设备获得检测结果的速度。
请参见图5示出的本申请实施例提供的活体人脸检测装置示意图;本申请实施例提供了一种活体人脸检测装置400,应用于电子设备,包括:
图像获得模块410,用于获得针对目标对象采集的红外线图像和彩色图像。
第一预测模块420,用于使用预先训练的第一图像分类模型预测红外线图像中是否包括活体人脸,获得的第一预测结果和不确定程度特征。
特征融合模块430,用于将不确定程度特征和彩色图像提取出的人脸深度特征进行融合,获得融合特征。
第二预测模块440,用于使用预先训练的第二图像分类模型根据融合特征预测彩色图像中是否包括活体人脸,获得第二预测结果。
结果确定模块450,用于根据第一预测结果和第二预测结果确定目标对象对应的人脸是否为活体人脸的检测结果。
可选地,在本申请实施例中,活体人脸检测装置,还包括:
区域确定模块,用于从彩色图像中确定人脸区域。
特征确定模块,用于根据人脸区域确定人脸深度特征。
可选地,在本申请实施例中,特征确定模块,还包括:
人脸特征提取模块,用于从人脸区域中提取人脸特征。
深度特征获得模块,用于对人脸区域进行深度估计,获得深度特征图。
特征深度融合模块,用于使用预先训练的深度融合网络模型将人脸特征和深度特征图进行融合,获得人脸深度特征。
可选地,在本申请实施例中,第一预测结果的置信度不大于预设阈值;结果确定模块,包括:
彩色图像判断模块,用于判断第二预测结果是否为彩色图像中包括活体人脸。
若第二预测结果是彩色图像中包括活体人脸,则确定目标对象对应的人脸是活体人脸。
若第二预测结果不是彩色图像中包括活体人脸,则确定目标对象对应的人脸不是活体人脸。
可选地,在本申请实施例中,第一预测结果的置信度大于预设阈值;结果确定模块,还包括:
红外图像判断模块,用于第一预测结果是否为红外线图像中包括活体人脸。
若第一预测结果是红外线图像中包括活体人脸,则目标对象对应的人脸是活体人脸。
若第一预测结果不是红外线图像中包括活体人脸,则目标对象对应的人脸不是活体人脸。
可选地,在本申请实施例中,图像获得模块,包括:
图像接收模块,用于接收终端设备发送的红外线图像和彩色图像。
活体人脸检测装置,还包括:
结果发送模块,用于向终端设备发送检测结果。
本申请实施例还提供了一种活体人脸检测装置,应用于终端设备,包括:
图像发送模块,用于向电子设备发送红外线图像和彩色图像,以使电子设备根据红外线图像和彩色图像确定并发送目标对象是否为活体人脸的检测结果,红外线图像和彩色图像均是采集目标对象获得的。
结果接收模块,用于接收电子设备发送的检测结果。
应理解的是,该装置与上述的活体人脸检测方法实施例对应,能够执行上述方法实施例涉及的各个步骤,该装置具体的功能可以参见上文中的描述,为避免重复,此处适当省略详细描述。该装置包括至少一个能以软件或固件(firmware)的形式存储于存储器中或固化在装置的操作***(operating system,OS)中的软件功能模块。
请参见图6示出的本申请实施例提供的电子设备的结构示意图。本申请实施例提供的一种电子设备500,包括:处理器510和存储器520,存储器520存储有处理器510可执行的机器可读指令,机器可读指令被处理器510执行时执行如上的方法。
本申请实施例还提供了一种存储介质530,该存储介质530上存储有计算机程序,该计算机程序被处理器510运行时执行如上的活体人脸检测方法。
其中,存储介质530可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(Static Random Access Memory,简称SRAM),电可擦除可编程只读存储器(Electrically ErasableProgrammable Read-Only Memory,简称EEPROM),可擦除可编程只读存储器(Erasable Programmable Read Only Memory,简称EPROM),可编程只读存储器(Programmable Red-Only Memory,简称PROM),只读存储器(Read-Only Memory,简称ROM),磁存储器,快闪存储器,磁盘或光盘。
本申请实施例所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其他的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请实施例的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请实施例各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。
以上的描述,仅为本申请实施例的可选实施方式,但本申请实施例的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请实施例揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请实施例的保护范围之内。

Claims (10)

1.一种活体人脸检测方法,其特征在于,应用于电子设备,包括:
获得针对目标对象采集的红外线图像和彩色图像;
使用预先训练的第一图像分类模型预测所述红外线图像中是否包括活体人脸,获得的第一预测结果和不确定程度特征;
将所述不确定程度特征和所述彩色图像提取出的人脸深度特征进行融合,获得融合特征;
使用预先训练的第二图像分类模型根据所述融合特征预测所述彩色图像中是否包括活体人脸,获得第二预测结果;
根据所述第一预测结果和所述第二预测结果确定所述目标对象对应的人脸是否为活体人脸的检测结果。
2.根据权利要求1所述的方法,其特征在于,在所述将所述不确定程度特征和所述彩色图像提取出的人脸深度特征进行融合之前,还包括:
从所述彩色图像中确定人脸区域;
根据所述人脸区域确定所述人脸深度特征。
3.根据权利要求2所述的方法,其特征在于,所述根据所述人脸区域确定所述人脸深度特征,包括:
从所述人脸区域中提取人脸特征;
对所述人脸区域进行深度估计,获得深度特征图;
使用预先训练的深度融合网络模型将人脸特征和深度特征图进行融合,获得所述人脸深度特征。
4.根据权利要求1所述的方法,其特征在于,所述第一预测结果的置信度不大于预设阈值;所述根据所述第一预测结果和所述第二预测结果确定所述目标对象对应的人脸是否为活体人脸的检测结果,包括:
判断所述第二预测结果是否为所述彩色图像中包括活体人脸;
若是,则确定所述目标对象对应的人脸是活体人脸;
若否,则确定所述目标对象对应的人脸不是活体人脸。
5.根据权利要求4所述的方法,其特征在于,所述第一预测结果的置信度大于预设阈值;所述根据所述第一预测结果和所述第二预测结果确定所述目标对象对应的人脸是否为活体人脸的检测结果,还包括:
判断所述第一预测结果是否为所述红外线图像中包括活体人脸;
若是,则所述目标对象对应的人脸是活体人脸;
若否,则所述目标对象对应的人脸不是活体人脸。
6.根据权利要求1所述的方法,其特征在于,所述针对目标对象采集的获得红外线图像和彩色图像,包括:
接收终端设备发送的所述红外线图像和所述彩色图像;
在所述根据所述第一预测结果和所述第二预测结果确定所述目标对象对应的人脸是否为活体人脸的检测结果之后,还包括:
向所述终端设备发送所述检测结果。
7.一种活体人脸检测方法,其特征在于,应用于终端设备,包括:
向电子设备发送红外线图像和彩色图像,以使所述电子设备根据所述红外线图像和所述彩色图像确定并发送目标对象是否为活体人脸的检测结果,所述红外线图像和所述彩色图像均是采集所述目标对象获得的;
接收所述电子设备发送的所述检测结果。
8.一种活体人脸检测装置,其特征在于,应用于电子设备,包括:
图像获得模块,用于获得针对目标对象采集的红外线图像和彩色图像;
第一预测模块,用于使用预先训练的第一图像分类模型预测所述红外线图像中是否包括活体人脸,获得的第一预测结果和不确定程度特征;
特征融合模块,用于将所述不确定程度特征和所述彩色图像提取出的人脸深度特征进行融合,获得融合特征;
第二预测模块,用于使用预先训练的第二图像分类模型根据所述融合特征预测所述彩色图像中是否包括活体人脸,获得第二预测结果;
结果确定模块,用于根据所述第一预测结果和所述第二预测结果确定所述目标对象对应的人脸是否为活体人脸的检测结果。
9.一种电子设备,其特征在于,包括:处理器和存储器,所述存储器存储有所述处理器可执行的机器可读指令,所述机器可读指令被所述处理器执行时执行如权利要求1至6任一所述的方法。
10.一种存储介质,其特征在于,所述存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如权利要求1至7任一所述的方法。
CN202010520464.0A 2020-06-09 2020-06-09 一种活体人脸检测方法、装置、电子设备及存储介质 Withdrawn CN111666901A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010520464.0A CN111666901A (zh) 2020-06-09 2020-06-09 一种活体人脸检测方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010520464.0A CN111666901A (zh) 2020-06-09 2020-06-09 一种活体人脸检测方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN111666901A true CN111666901A (zh) 2020-09-15

Family

ID=72386573

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010520464.0A Withdrawn CN111666901A (zh) 2020-06-09 2020-06-09 一种活体人脸检测方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN111666901A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112215180A (zh) * 2020-10-20 2021-01-12 腾讯科技(深圳)有限公司 一种活体检测方法及装置
CN113536582A (zh) * 2021-07-22 2021-10-22 中国有色金属工业昆明勘察设计研究院有限公司 一种获取溶洞顶板极限溶蚀耐久性的方法
CN113569707A (zh) * 2021-07-23 2021-10-29 北京百度网讯科技有限公司 活体检测方法、装置、电子设备以及存储介质
CN114202805A (zh) * 2021-11-24 2022-03-18 北京百度网讯科技有限公司 活体检测方法、装置、电子设备及存储介质
CN115512428A (zh) * 2022-11-15 2022-12-23 华南理工大学 一种人脸活体判别方法、***、装置和存储介质
WO2023273050A1 (zh) * 2021-06-30 2023-01-05 北京市商汤科技开发有限公司 活体检测方法及装置、电子设备和存储介质
WO2023273297A1 (zh) * 2021-06-30 2023-01-05 平安科技(深圳)有限公司 基于多模态的活体检测方法、装置、电子设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160117544A1 (en) * 2014-10-22 2016-04-28 Hoyos Labs Ip Ltd. Systems and methods for performing iris identification and verification using mobile devices
CN108280418A (zh) * 2017-12-12 2018-07-13 北京深醒科技有限公司 脸部图像的欺骗识别方法及装置
CN109034102A (zh) * 2018-08-14 2018-12-18 腾讯科技(深圳)有限公司 人脸活体检测方法、装置、设备及存储介质
CN109558840A (zh) * 2018-11-29 2019-04-02 中国科学院重庆绿色智能技术研究院 一种特征融合的活体检测方法
CN110516616A (zh) * 2019-08-29 2019-11-29 河南中原大数据研究院有限公司 一种基于大规模rgb以及近红外数据集的双重认证人脸防伪方法
CN110909693A (zh) * 2019-11-27 2020-03-24 深圳市华付信息技术有限公司 3d人脸活体检测方法、装置、计算机设备及存储介质
CN111079576A (zh) * 2019-11-30 2020-04-28 腾讯科技(深圳)有限公司 活体检测方法、装置、设备及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160117544A1 (en) * 2014-10-22 2016-04-28 Hoyos Labs Ip Ltd. Systems and methods for performing iris identification and verification using mobile devices
CN108280418A (zh) * 2017-12-12 2018-07-13 北京深醒科技有限公司 脸部图像的欺骗识别方法及装置
CN109034102A (zh) * 2018-08-14 2018-12-18 腾讯科技(深圳)有限公司 人脸活体检测方法、装置、设备及存储介质
CN109558840A (zh) * 2018-11-29 2019-04-02 中国科学院重庆绿色智能技术研究院 一种特征融合的活体检测方法
CN110516616A (zh) * 2019-08-29 2019-11-29 河南中原大数据研究院有限公司 一种基于大规模rgb以及近红外数据集的双重认证人脸防伪方法
CN110909693A (zh) * 2019-11-27 2020-03-24 深圳市华付信息技术有限公司 3d人脸活体检测方法、装置、计算机设备及存储介质
CN111079576A (zh) * 2019-11-30 2020-04-28 腾讯科技(深圳)有限公司 活体检测方法、装置、设备及存储介质

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112215180A (zh) * 2020-10-20 2021-01-12 腾讯科技(深圳)有限公司 一种活体检测方法及装置
CN112215180B (zh) * 2020-10-20 2024-05-07 腾讯科技(深圳)有限公司 一种活体检测方法及装置
WO2023273050A1 (zh) * 2021-06-30 2023-01-05 北京市商汤科技开发有限公司 活体检测方法及装置、电子设备和存储介质
WO2023273297A1 (zh) * 2021-06-30 2023-01-05 平安科技(深圳)有限公司 基于多模态的活体检测方法、装置、电子设备及存储介质
CN113536582A (zh) * 2021-07-22 2021-10-22 中国有色金属工业昆明勘察设计研究院有限公司 一种获取溶洞顶板极限溶蚀耐久性的方法
CN113569707A (zh) * 2021-07-23 2021-10-29 北京百度网讯科技有限公司 活体检测方法、装置、电子设备以及存储介质
CN114202805A (zh) * 2021-11-24 2022-03-18 北京百度网讯科技有限公司 活体检测方法、装置、电子设备及存储介质
CN115512428A (zh) * 2022-11-15 2022-12-23 华南理工大学 一种人脸活体判别方法、***、装置和存储介质

Similar Documents

Publication Publication Date Title
CN111666901A (zh) 一种活体人脸检测方法、装置、电子设备及存储介质
CN112052787B (zh) 基于人工智能的目标检测方法、装置及电子设备
CN111709408B (zh) 图像真伪检测方法和装置
CN108269254B (zh) 图像质量评估方法和装置
US10769261B2 (en) User image verification
CN111738357B (zh) 垃圾图片的识别方法、装置及设备
CN111444744A (zh) 活体检测方法、装置以及存储介质
CN110580428A (zh) 图像处理方法、装置、计算机可读存储介质和电子设备
CN111783749A (zh) 一种人脸检测方法、装置、电子设备及存储介质
CN114331829A (zh) 一种对抗样本生成方法、装置、设备以及可读存储介质
CN112052830B (zh) 人脸检测的方法、装置和计算机存储介质
CN112488218A (zh) 图像分类方法、图像分类模型的训练方法和装置
CN110674800A (zh) 一种人脸活体检测方法、装置、电子设备及存储介质
CN110059579B (zh) 用于活体检验的方法和装置,电子设备和存储介质
CN113128481A (zh) 一种人脸活体检测方法、装置、设备及存储介质
CN113642639B (zh) 活体检测方法、装置、设备和存储介质
CN115049675A (zh) 生成区域确定及光斑生成方法、设备、介质及程序产品
CN112308093B (zh) 基于图像识别的空气质量感知方法、模型训练方法及***
CN111652320B (zh) 一种样本分类方法、装置、电子设备及存储介质
CN117765348A (zh) 目标检测模型的部署方法和目标检测方法及电子设备
CN108038496B (zh) 基于大数据与深度学习的婚恋对象匹配数据处理方法、装置、计算机设备和存储介质
CN112749686B (zh) 图像检测方法、装置、计算机设备及存储介质
CN113822199B (zh) 对象属性识别方法、装置、存储介质和电子装置
CN112990156B (zh) 基于视频的最优目标捕捉方法、装置及相关设备
CN114387496A (zh) 一种目标检测方法和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20200915