CN111126366B - 一种活体人脸的判别方法、装置、设备及存储介质 - Google Patents
一种活体人脸的判别方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN111126366B CN111126366B CN202010248023.XA CN202010248023A CN111126366B CN 111126366 B CN111126366 B CN 111126366B CN 202010248023 A CN202010248023 A CN 202010248023A CN 111126366 B CN111126366 B CN 111126366B
- Authority
- CN
- China
- Prior art keywords
- living body
- face
- model
- discrimination
- quantization
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
本申请公开了一种活体人脸的判别方法,包括:预先训练出基于近红外图像的第一活体人脸判别模型和基于可见光图像的第二活体人脸判别模型;当存在待识别人脸图像时,利用第一活体人脸判别模型和第二活体人脸判别模型分别对待识别人脸图像进行活体判别,得到第一判别结果和第二判别结果;采用多模态融合策略根据第一判别结果和第二判别结果确定出目标判别结果。可见,本方法可以避免视频攻击,提高判别准确度;能够节省判别时间,提高用户在进行活体判别时的便捷度,提高用户的使用体验。本申请还公开了一种活体人脸的判别装置、设备及计算机可读存储介质,均具有上述有益效果。
Description
技术领域
本发明涉及图像处理领域,特别涉及一种活体人脸的判别方法、装置、设备及计算机可读存储介质。
背景技术
近年来,人脸识别技术已经广泛应用于安防、门禁、支付等领域。同时,为了保证使用人脸识别技术的安全性和可靠性,必须保证人脸识别***所捕捉到的人脸是来自于合法用户本人,即活体人脸,而不是人脸照片或视频等欺骗媒介。现有技术中,一般是在可见光的场景下,要求用户根据人脸识别***的***指令做出相应的动作来进行活体判别。可见,现有技术的方法不仅仍将受到视频攻击,导致判别准确度低,而且由于需要用户的高度配合,耗费时间比较长,导致降低用户的使用体验。
因此,如何在提高活体人脸判别的准确度的基础上,更高效进行活体人脸判别,提升用户的使用体验,是本领域技术人员目前需要解决的技术问题。
发明内容
有鉴于此,本发明的目的在于提供一种活体人脸的判别方法,能够在提高活体人脸判别的准确度的基础上,更高效进行活体人脸判别,提升用户的使用体验;本发明的另一目的是提供一种活体人脸的判别装置、设备及计算机可读存储介质,均具有上述有益效果。
为解决上述技术问题,本发明提供一种活体人脸的判别方法,包括:
预先训练出基于近红外图像的第一活体人脸判别模型和基于可见光图像的第二活体人脸判别模型;
当存在待识别人脸图像时,利用所述第一活体人脸判别模型和所述第二活体人脸判别模型分别对所述待识别人脸图像进行活体判别,得到第一判别结果和第二判别结果;
采用多模态融合策略根据所述第一判别结果和所述第二判别结果确定出目标判别结果。
优选地,在所述预先训练出基于近红外图像的第一活体人脸判别模型和基于可见光图像的第二活体人脸判别模型之后,进一步包括:
通过模拟量化训练得出对应的量化尺度;
根据所述量化尺度分别对所述第一活体人脸判别模型和所述第二活体人脸判别模型进行量化压缩,并利用量化压缩后的模型更新所述第一活体人脸判别模型和所述第二活体人脸判别模型。
优选地,所述通过模拟量化训练得出对应的量化尺度的过程,具体包括:
利用预设的校准数据集确定出所述第一活体人脸判别模型和所述第二活体人脸判别模型中每一个网络层的激活值分布;
基于不同的阈值确定出对应的激活值量化分布,并计算每个激活值量化分布与对应的网络层的激活值分布的相似度;
选择最高相似度对应的激活值量化分布作为对应的网络层的激活值量化目标值分布,得到对应的目标阈值;
根据所述目标阈值确定出模型的激活值尺度;
利用所述激活值尺度分别对所述第一活体人脸判别模型和所述第二活体人脸判别模型的模型权重进行量化,得到模型的权重的尺度。
优选地,所述当存在待识别人脸图像时,利用所述第一活体人脸判别模型和所述第二活体人脸判别模型分别对所述待识别人脸图像进行活体判别,得到第一判别结果和第二判别结果的过程,具体包括:
当存在所述待识别人脸图像时,对所述待识别人脸图像进行预处理操作;
利用所述第一活体人脸判别模型和所述第二活体人脸判别模型分别提取预处理后的所述待识别人脸图像中的人脸特征;
分别根据提取的所述人脸特征对所述待识别人脸图像进行活体判别,得到所述第一判别结果和所述第二判别结果。
优选地,所述预处理操作具体包括:灰度处理和/或图像增强。
优选地,在所述对所述待识别人脸图像进行预处理操作之后,进一步包括:
对所述待识别图像进行对齐处理和尺寸裁剪。
优选地,当所述目标判别结果为非活体人脸时,发出对应的提示信息。
为解决上述技术问题,本发明还提供一种活体人脸的判别装置,包括:
预训练模块,用于预先训练出基于近红外图像的第一活体人脸判别模型和基于可见光图像的第二活体人脸判别模型;
判断模块,用于当存在待识别人脸图像时,利用所述第一活体人脸判别模型和所述第二活体人脸判别模型分别对所述待识别人脸图像进行活体判别,得到第一判别结果和第二判别结果;
确定模块,用于采用多模态融合策略根据所述第一判别结果和所述第二判别结果确定出目标判别结果。
为解决上述技术问题,本发明还提供一种活体人脸的判别设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现上述任一种活体人脸的判别方法的步骤。
为解决上述技术问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一种活体人脸的判别方法的步骤。
本发明提供的一种活体人脸的判别方法,通过预先训练出基于近红外图像的第一活体人脸判别模型和基于可见光图像的第二活体人脸判别模型;然后当存在待识别人脸图像时,利用第一活体人脸判别模型和第二活体人脸判别模型分别对待识别人脸图像进行活体判别,得到第一判别结果和第二判别结果;并采用多模态融合策略根据第一判别结果和第二判别结果确定出目标判别结果。可见,利用基于近红外图像的第一活体人脸判别模型和基于可见光图像的第二活体人脸判别模型进行活体判别,可以避免视频攻击,提高判别准确度;并且本方法能够在输入为仅为单帧的待识别人脸图像的情况下进行活体判别,不需要用户根据***指令做出相应动作,因此能够节省判别时间,提高用户在进行活体判别时的便捷度,提高用户的使用体验。
为解决上述技术问题,本发明还提供了一种活体人脸的判别装置、设备及计算机可读存储介质,均具有上述有益效果。
附图说明
为了更清楚地说明本发明实施例或现有技术的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的一种活体人脸的判别方法的流程图;
图2为一种深度神经网络的结构图;
图3为本发明实施例提供的另一种活体人脸的判别方法的流程图;
图4为本发明实施例提供的一种活体人脸的判别装置的结构图;
图5为本发明实施例提供的一种活体人脸的判别设备的结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例的核心是提供一种活体人脸的判别方法,能够在提高活体人脸判别的准确度的基础上,更高效进行活体人脸判别,提升用户的使用体验;本发明的另一核心是提供一种活体人脸的判别装置、设备及计算机可读存储介质,均具有上述有益效果。
为了使本领域技术人员更好地理解本发明方案,下面结合附图和具体实施方式对本发明作进一步的详细说明。
图1为本发明实施例提供的一种活体人脸的判别方法的流程图。如图1所示,一种活体人脸的判别方法包括:
S10:预先训练出基于近红外图像的第一活体人脸判别模型和基于可见光图像的第二活体人脸判别模型。
具体的,在本实施例中,首先采集训练数据集,包括用于训练基于近红外图像的第一活体人脸判别模型的第一训练数据集和用于训练基于可见光图像的第二活体人脸判别模型的第二训练数据集。其中,第一训练数据集包括近红外光场景下的人脸正样本和负样本,且近红外光的波长为850nm,负样本包含可见光照片打印攻击、近红外照片打印攻击和3D面具攻击等;第二训练数据集包括可见光场景下的人脸正样本和负样本,其中,负样本包含可见光照片打印攻击、近红外照片打印攻击和3D面具攻击等。
然后对训练数据集进行预处理操作。具体的,通过人脸检测器检测出训练数据集中的近红外人脸图像中的人脸位置,对检测出的人脸采用五点归一化的操作进行对齐处理,并裁剪成预设大小(如112×112格式),再加上一个掩码以去除图像中的非人脸部分。具体的,根据五点归一化进行对齐处理的过程具体包括:检测出人脸左眼外眼角、右眼外眼角、鼻子顶部以及两个嘴角这五个点的坐标,将这五个点的坐标与标准人脸的这五个点的坐标进行比对,将检测出的人脸与标准人脸对齐,得到正脸图片。可以理解的是,利用掩码来掩盖非人脸部分的信息,使得人脸特征更加突出。对应的,通过人脸检测器检测出训练数据集中的可见光人脸图像中的人脸位置,对检测出的人脸采用五点归一化的操作进行对齐处理,并裁剪成预设大小(如112×112格式),再加上一个掩码以去除图像中的非人脸部分。对可见光人脸图像的操作与对近红外人脸图像的操作类似,此处不做赘述。
将预处理后的训练数据集中的各图像转化成灰度图,并输入至预先确定出的深度神经网络进行训练,得到基于近红外图像的第一活体人脸判别模型和基于可见光图像的第二活体人脸判别模型。
需要说明的是,如图2所示的一种深度神经网络的结构图,在本实施例中,是基于深度神经网络MobileNet V2进行改造,其中,基于近红外光图像的深度神经网络的图像输入为112×112×1的单通道图像,在4×4特征图后采用深度卷积操作,从而使得模型更加关注图像中部的人脸信息,将所得到的64通道的2×2特征图展平为一个256维的向量。基于可见光图像的深度神经网络与基于近红外图像的深度神经网络结构一样,区别在于基于可见光图像的图像输入为RGB图像,大小为112×112×3的3通道图像。需要说明的是,在本实施例中,优选地使用中央差分卷积(central difference convolution)的方式来训练出第一活体人脸判别模型和第二活体人脸判别模型;相较于现有技术中利用卷积操作来训练活体人脸判别模型的方式,基于中央差分卷积的方式能够更关注于局部信息,使得训练出的第一活体人脸判别模型和第二活体人脸判别模型的判断准确度更高。
具体的,本实施例中的损失函数优选地设置为Focal loss函数。可以理解的是,在人脸活体判别操作中,负样本类型较多,而使用Focal loss函数可以有效解决正负样本不平衡的问题。更具体的,Focal loss函数具体为:
其中,α参数用来权衡正负样本损失所占的比例,且α的值一般设置为0.25;γ参数是使得模型更加关注难以分类的样本,且γ的值一般设置为3,y'是待测样本判为正样本的概率。
S20:当存在待识别人脸图像时,利用第一活体人脸判别模型和第二活体人脸判别模型分别对待识别人脸图像进行活体判别,得到第一判别结果和第二判别结果;
S30:采用多模态融合策略根据第一判别结果和第二判别结果确定出目标判别结果。
具体的,在训练出基于近红外图像的第一活体人脸判别模型和基于可见光图像的第二活体人脸判别模型之后,当存在待识别人脸图像时,利用第一活体人脸判别模型和第二活体人脸判别模型分别提取待识别人脸图像中的人脸特征;并根据分别提取出的人脸特征对待识别人脸图像进行活体判别,得出对应的第一判别结果和第二判别结果;然后采用多模态融合策略,根据第一判别结果和第二判别结果得出目标判别结果;该目标判别结果即表示确定出该待识别人脸图像是活体人脸或者是非活体人脸。需要说明的是,在本实施例中,若第一判别结果中得分大于第一预设阈值(如大于0.9),则目标判别结果判别为活体;如果第一判别结果得分低于第二预设阈值(如小于0.1),则目标判别结果判别为非活体;如果第一判别结果的得分在第一预设阈值和第二预设阈值之间,则将其与第二判别结果的得分进行加权融合,再与第三预设阈值进行比较,若大于或等于第三预设阈值则判为活体,若小于第三预设阈值则判为非活体。
本发明实施例提供的一种活体人脸的判别方法,通过预先训练出基于近红外图像的第一活体人脸判别模型和基于可见光图像的第二活体人脸判别模型;然后当存在待识别人脸图像时,利用第一活体人脸判别模型和第二活体人脸判别模型分别对待识别人脸图像进行活体判别,得到第一判别结果和第二判别结果;并采用多模态融合策略根据第一判别结果和第二判别结果确定出目标判别结果。可见,利用基于近红外图像的第一活体人脸判别模型和基于可见光图像的第二活体人脸判别模型进行活体判别,可以避免视频攻击,提高判别准确度;并且本方法能够在输入为仅为单帧的待识别人脸图像的情况下进行活体判别,不需要用户根据***指令做出相应动作,因此能够节省判别时间,提高用户在进行活体判别时的便捷度,提高用户的使用体验。
如图3所示的另一种活体人脸的判别方法的流程图,在上述实施例的基础上,本实施例对技术方案作了进一步的说明和优化,具体的,本实施例在预先训练出基于近红外图像的第一活体人脸判别模型和基于可见光图像的第二活体人脸判别模型之后,进一步包括:
S40:通过模拟量化训练得出对应的量化尺度;
S50:根据量化尺度分别对第一活体人脸判别模型和第二活体人脸判别模型进行量化压缩,并利用量化压缩后的模型更新第一活体人脸判别模型和第二活体人脸判别模型。
在本实施例中,在预先训练出基于近红外图像的第一活体人脸判别模型和基于可见光图像的第二活体人脸判别模型之后,进一步通过模拟量化训练得出对应的量化尺度,然后根据得出的量化尺度分别对第一活体人脸判别模型和第二活体人脸判别模型进行量化压缩,得到量化压缩后的模型;再利用量化压缩后的模型更新第一活体人脸判别模型和第二活体人脸判别模型。
需要说明的是,本实施例中,通过模拟量化训练得出对应的量化尺度的过程,具体包括:
利用预设的校准数据集确定出第一活体人脸判别模型和第二活体人脸判别模型中每一个网络层的激活值分布;
基于不同的阈值确定出对应的激活值量化分布,并计算每个激活值量化分布与对应的网络层的激活值分布的相似度;
选择最高相似度对应的激活值量化分布作为对应的网络层的激活值量化目标值分布,得到对应的目标阈值;
根据目标阈值确定出模型的激活值尺度;
利用激活值尺度分别对第一活体人脸判别模型和第二活体人脸判别模型的模型权重进行量化,得到模型的权重的尺度。
具体的,在本实施例中,首先通过一个校准数据集得到每一个网络层的激活值分布,如使用32位浮点数表示的激活值的直方图分布;然后基于不同的阈值确定出对应的激活值量化分布,其中,不同的阈值可以是[128,8192)区间内的整数,激活值量化分布可以是使用8位整数表示的激活值的直方图分布;并计算每个激活值量化分布与对应的网络层的激活值分布的相似度;在本实施例中,优选地通过计算每个激活值量化分布与对应的网络层的激活值分布的相对熵(relative entropy)或者KL散度(Kullback-Leiblerdivergence)的方式得出对应的相似度。然后,选择最高相似度对应的激活值量化分布作为对应的网络层的激活值量化目标值分布,并得到相应的目标阈值;如通过选择KL散度最小的激活值量化分布作为对应的网络层的激活值量化目标值分布,并得到相应的目标阈值;再根据目标阈值确定出模型的激活值尺度。
具体的,模型的激活尺度可以通过公式r=s×q计算得出,其中,r表示模型激活值,q表示模型激活值量化目标值,s表示模型激活值尺度。
通过载入模型激活值尺度s,在模拟量化过程中固定好模型激活值尺度s进行训练,即利用模型的激活值尺度分别对第一活体人脸判别模型和第二活体人脸判别模型的模型权重进行量化,得到模型的权重的尺度。
在本实施例中,模型的激活值尺度和权重的尺度即为量化尺度,利用激活值尺度和权重值尺度对第一活体人脸判别模型和第二活体人脸判别模型分别进行量化压缩。
可见,通过模拟量化训练得出对应的量化尺度;根据量化尺度分别对第一活体人脸判别模型和第二活体人脸判别模型进行量化压缩,并利用量化压缩后的模型更新第一活体人脸判别模型和第二活体人脸判别模型,能够使得第一活体人脸判别模型和第二活体人脸判别模型更加轻便,从而使得模型可以部署在ARM(Advanced RISC Machine,RISC微处理器)或DSP(digital singnal processor,数字信号处理器)等嵌入式设备上,应用更加便捷。
在上述实施例的基础上,本实施例对技术方案作了进一步的说明和优化,具体的,本实施例中,当存在待识别人脸图像时,利用量化压缩后的第一活体人脸判别模型和量化压缩后的第二活体人脸判别模型分别对待识别人脸图像进行活体判别,得到第一判别结果和第二判别结果的过程,具体包括:
当存在待识别人脸图像时,对待识别人脸图像进行预处理操作;
利用量化压缩后的第一活体人脸判别模型和量化压缩后的第二活体人脸判别模型分别提取预处理后的待识别人脸图像中的人脸特征;
分别根据提取的人脸特征对待识别人脸图像进行活体判别,得到第一判别结果和第二判别结果。
需要说明的是,对待识别人脸图像进行预处理操作的主要目的是消除待识别人脸图像中无关的信息,恢复有用的真实信息,增强人脸信息的可检测性和最大限度地简化数据。具体的,在本实施例中,是进一步对待识别人脸图像进行预处理操作,然后利用量化压缩后的第一活体人脸判别模型和量化压缩后的第二活体人脸判别模型分别提取预处理后的待识别人脸图像中的人脸特征,使得提取出待识别人脸图像的人脸特征更加准确。
作为优选的实施方式,预处理操作具体包括:灰度处理和/或图像增强。
具体的,灰度处理指的是将待识别人脸图像以灰度颜色模式显示的操作;灰度处理方法包括分量法、最大值法、平均值法和加权平均法四种方法,本实施例对具体采用的灰度处理的操作方式不做限定。
图像增强指的是有目的地强调待识别人脸图像的整体或局部特性,将原来不清晰的待识别人脸图像变得清晰或强调人脸部分的特征,扩大待识别人脸图像中不同部位特征之间的差别,抑制不感兴趣的特征,能够加强待识别人脸图像的识别和特征提取效果,能够进一步使得提取出待识别人脸图像的人脸特征更加准确。
作为优选的实施方式,本实施例在对待识别人脸图像进行预处理操作之后,进一步包括:对待识别图像进行对齐处理和尺寸裁剪。
需要说明的是,对齐处理指的是在使用人脸检测器检测出人脸的大小和位置之后,采用五点归一化操作对人脸区域进行人脸对齐;尺寸裁剪指的是将待识别人脸图像按照训练数据集的尺寸大小进行裁剪。
在本实施例中,进一步包括对待识别人脸图像进行对齐处理和尺寸裁剪,能够减少非人脸部分特征对活体判别准确度的影响,提高判别准确度。
在上述实施例的基础上,本实施例对技术方案作了进一步的说明和优化,具体的,在本实施例中,当目标判别结果为非活体人脸时,发出对应的提示信息。
具体的,在本实施例中,目标判别结果有两种情况,即待识别人脸图像为活体人脸或者待识别人脸图像为非活体人脸。当判别结果为非活体人脸时,表示当前***正在遭受非法攻击,因此触发提示装置发出对应的提示信息。需要说明的是,在实际操作中,提示装置可以具体为蜂鸣器、指示灯或者显示器等,对应的提示信息为提示装置运行时发出的对应的信息,如发出的蜂鸣音、指示灯闪烁或者显示器显示的内容等,本实施例对提示信息的具体类型不做限定。
可见,本实施例通过进一步在目标判别结果为非活体人脸时,发出对应的提示信息,能够进一步提升用户的使用体验。
上文对于本发明提供的一种活体人脸的判别方法的实施例进行了详细的描述,本发明还提供了一种与该方法对应的活体人脸的判别装置、设备及计算机可读存储介质,由于装置、设备及计算机可读存储介质部分的实施例与方法部分的实施例相互照应,因此装置、设备及计算机可读存储介质部分的实施例请参见方法部分的实施例的描述,这里暂不赘述。
图4为本发明实施例提供的一种活体人脸的判别装置的结构图,如图4所示,一种活体人脸的判别装置包括:
预训练模块41,用于预先训练出基于近红外图像的第一活体人脸判别模型和基于可见光图像的第二活体人脸判别模型;
判断模块42,用于当存在待识别人脸图像时,利用第一活体人脸判别模型和第二活体人脸判别模型分别对待识别人脸图像进行活体判别,得到第一判别结果和第二判别结果;
确定模块43,用于采用多模态融合策略根据第一判别结果和第二判别结果确定出目标判别结果。
本发明实施例提供的活体人脸的判别装置,具有上述活体人脸的判别方法的有益效果。
作为优选的实施方式,一种活体人脸的判别装置进一步包括:
尺度训练模块,用于通过模拟量化训练得出对应的量化尺度;
量化压缩模块,用于根据量化尺度分别对第一活体人脸判别模型和第二活体人脸判别模型进行量化压缩,并利用量化压缩后的模型更新第一活体人脸判别模型和第二活体人脸判别模型。
作为优选的实施方式,尺度训练模块具体包括:
第一确定单元,用于利用预设的校准数据集确定出第一活体人脸判别模型和第二活体人脸判别模型中每一个网络层的激活值分布;
计算单元,用于基于不同的阈值确定出对应的激活值量化分布,并计算每个激活值量化分布与对应的网络层的激活值分布的相似度;
选择单元,用于选择最高相似度对应的激活值量化分布作为对应的网络层的激活值量化目标值分布,得到对应的目标阈值;
第二确定单元,用于根据目标阈值确定出模型的激活值尺度;
量化单元,用于利用激活值尺度分别对第一活体人脸判别模型和第二活体人脸判别模型的模型权重进行量化,得到模型的权重的尺度。
作为优选的实施方式,判断模块具体包括:
预处理单元,用于当存在待识别人脸图像时,对待识别人脸图像进行预处理操作;
提取单元,用于利用量化压缩后的第一活体人脸判别模型和量化压缩后的第二活体人脸判别模型分别提取预处理后的待识别人脸图像中的人脸特征;
判断单元,用于分别根据提取的人脸特征对待识别人脸图像进行活体判别,得到第一判别结果和第二判别结果。
作为优选的实施方式,一种活体人脸的判别装置进一步包括:
提示模块,用于当目标判别结果为非活体人脸时,发出对应的提示信息。
图5为本发明实施例提供的一种活体人脸的判别设备的结构图,如图5所示,一种活体人脸的判别设备包括:
存储器51,用于存储计算机程序;
处理器52,用于执行计算机程序时实现如上述活体人脸的判别方法的步骤。
本发明实施例提供的活体人脸的判别设备,具有上述活体人脸的判别方法的有益效果。
为解决上述技术问题,本发明还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现如上述活体人脸的判别方法的步骤。
本发明实施例提供的计算机可读存储介质,具有上述活体人脸的判别方法的有益效果。
以上对本发明所提供的活体人脸的判别方法、装置、设备及计算机可读存储介质进行了详细介绍。本文中应用了具体实施例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
Claims (8)
1.一种活体人脸的判别方法,其特征在于,包括:
预先训练出基于近红外图像的第一活体人脸判别模型和基于可见光图像的第二活体人脸判别模型;
通过模拟量化训练得出对应的量化尺度;其中,所述量化尺度包括模型的激活值尺度和模型的权重的尺度;
利用预设的校准数据集确定出所述第一活体人脸判别模型和所述第二活体人脸判别模型中每一个网络层的激活值分布;
基于不同的阈值确定出对应的激活值量化分布,并计算每个激活值量化分布与对应的网络层的激活值分布的相似度;
选择最高相似度对应的激活值量化分布作为对应的网络层的激活值量化目标值分布,得到对应的目标阈值;
根据所述目标阈值确定出所述模型的激活值尺度;
利用所述模型的激活值尺度分别对所述第一活体人脸判别模型和所述第二活体人脸判别模型的模型权重进行量化,得到所述模型的权重的尺度;
根据所述量化尺度分别对所述第一活体人脸判别模型和所述第二活体人脸判别模型进行量化压缩,并利用量化压缩后的模型更新所述第一活体人脸判别模型和所述第二活体人脸判别模型;
当存在待识别人脸图像时,利用量化压缩后的所述第一活体人脸判别模型和量化压缩后的所述第二活体人脸判别模型分别对所述待识别人脸图像进行活体判别,得到第一判别结果和第二判别结果;
采用多模态融合策略根据所述第一判别结果和所述第二判别结果确定出目标判别结果。
2.根据权利要求1所述的方法,其特征在于,所述当存在待识别人脸图像时,利用量化压缩后的所述第一活体人脸判别模型和量化压缩后的所述第二活体人脸判别模型分别对所述待识别人脸图像进行活体判别,得到第一判别结果和第二判别结果的过程,具体包括:
当存在所述待识别人脸图像时,对所述待识别人脸图像进行预处理操作;
利用量化压缩后的所述第一活体人脸判别模型和量化压缩后的所述第二活体人脸判别模型分别提取预处理后的所述待识别人脸图像中的人脸特征;
分别根据提取的所述人脸特征对所述待识别人脸图像进行活体判别,得到所述第一判别结果和所述第二判别结果。
3.根据权利要求2所述的方法,其特征在于,所述预处理操作具体包括:灰度处理和/或图像增强。
4.根据权利要求3所述的方法,其特征在于,在所述对所述待识别人脸图像进行预处理操作之后,进一步包括:
对所述待识别图像进行对齐处理和尺寸裁剪。
5.根据权利要求1至4任一项所述的方法,其特征在于,当所述目标判别结果为非活体人脸时,发出对应的提示信息。
6.一种活体人脸的判别装置,其特征在于,包括:
预训练模块,用于预先训练出基于近红外图像的第一活体人脸判别模型和基于可见光图像的第二活体人脸判别模型;
尺度训练模块,用于通过模拟量化训练得出对应的量化尺度;其中,所述量化尺度包括模型的激活值尺度和模型的权重的尺度;
其中,所述尺度训练模块具体包括:
第一确定单元,用于利用预设的校准数据集确定出所述第一活体人脸判别模型和所述第二活体人脸判别模型中每一个网络层的激活值分布;
计算单元,用于基于不同的阈值确定出对应的激活值量化分布,并计算每个激活值量化分布与对应的网络层的激活值分布的相似度;
选择单元,用于选择最高相似度对应的激活值量化分布作为对应的网络层的激活值量化目标值分布,得到对应的目标阈值;
第二确定单元,用于根据所述目标阈值确定出所述模型的激活值尺度;
量化单元,用于利用所述激活值尺度分别对所述第一活体人脸判别模型和所述第二活体人脸判别模型的模型权重进行量化,得到所述模型的权重的尺度;
量化压缩模块,用于根据量化尺度分别对第一活体人脸判别模型和第二活体人脸判别模型进行量化压缩,并利用量化压缩后的模型更新第一活体人脸判别模型和第二活体人脸判别模型;
判断模块,用于当存在待识别人脸图像时,利用量化压缩后的所述第一活体人脸判别模型和量化压缩后的所述第二活体人脸判别模型分别对所述待识别人脸图像进行活体判别,得到第一判别结果和第二判别结果;
确定模块,用于采用多模态融合策略根据所述第一判别结果和所述第二判别结果确定出目标判别结果。
7.一种活体人脸的判别设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至5任一项所述的活体人脸的判别方法的步骤。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述的活体人脸的判别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010248023.XA CN111126366B (zh) | 2020-04-01 | 2020-04-01 | 一种活体人脸的判别方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010248023.XA CN111126366B (zh) | 2020-04-01 | 2020-04-01 | 一种活体人脸的判别方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111126366A CN111126366A (zh) | 2020-05-08 |
CN111126366B true CN111126366B (zh) | 2020-06-30 |
Family
ID=70493947
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010248023.XA Active CN111126366B (zh) | 2020-04-01 | 2020-04-01 | 一种活体人脸的判别方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111126366B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111967319B (zh) * | 2020-07-14 | 2024-04-12 | 高新兴科技集团股份有限公司 | 基于红外和可见光的活体检测方法、装置、设备和存储介质 |
CN111931594A (zh) * | 2020-07-16 | 2020-11-13 | 广州广电卓识智能科技有限公司 | 人脸识别活体检测方法、装置、计算机设备和存储介质 |
CN111860405A (zh) * | 2020-07-28 | 2020-10-30 | Oppo广东移动通信有限公司 | 图像识别模型的量化方法、装置、计算机设备及存储介质 |
CN112329624A (zh) * | 2020-11-05 | 2021-02-05 | 北京地平线信息技术有限公司 | 活体检测方法和装置、存储介质、电子设备 |
CN113128481A (zh) * | 2021-05-19 | 2021-07-16 | 济南博观智能科技有限公司 | 一种人脸活体检测方法、装置、设备及存储介质 |
CN115512428B (zh) * | 2022-11-15 | 2023-05-23 | 华南理工大学 | 一种人脸活体判别方法、***、装置和存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015040001A2 (de) * | 2013-09-19 | 2015-03-26 | Muehlbauer Ag | Vorrichtung, system und verfahren zum identifizieren einer person |
US9202105B1 (en) * | 2012-01-13 | 2015-12-01 | Amazon Technologies, Inc. | Image analysis for user authentication |
CN108509984A (zh) * | 2018-03-16 | 2018-09-07 | 新智认知数据服务有限公司 | 激活值量化训练方法及装置 |
CN109766800A (zh) * | 2018-12-28 | 2019-05-17 | 华侨大学 | 一种移动端花卉识别模型的构建方法 |
CN110008783A (zh) * | 2018-01-04 | 2019-07-12 | 杭州海康威视数字技术股份有限公司 | 基于神经网络模型的人脸活体检测方法、装置及电子设备 |
CN110276301A (zh) * | 2019-06-24 | 2019-09-24 | 泰康保险集团股份有限公司 | 人脸识别方法、装置、介质及电子设备 |
CN110659617A (zh) * | 2019-09-26 | 2020-01-07 | 杭州艾芯智能科技有限公司 | 活体检测方法、装置、计算机设备和存储介质 |
-
2020
- 2020-04-01 CN CN202010248023.XA patent/CN111126366B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9202105B1 (en) * | 2012-01-13 | 2015-12-01 | Amazon Technologies, Inc. | Image analysis for user authentication |
WO2015040001A2 (de) * | 2013-09-19 | 2015-03-26 | Muehlbauer Ag | Vorrichtung, system und verfahren zum identifizieren einer person |
CN110008783A (zh) * | 2018-01-04 | 2019-07-12 | 杭州海康威视数字技术股份有限公司 | 基于神经网络模型的人脸活体检测方法、装置及电子设备 |
CN108509984A (zh) * | 2018-03-16 | 2018-09-07 | 新智认知数据服务有限公司 | 激活值量化训练方法及装置 |
CN109766800A (zh) * | 2018-12-28 | 2019-05-17 | 华侨大学 | 一种移动端花卉识别模型的构建方法 |
CN110276301A (zh) * | 2019-06-24 | 2019-09-24 | 泰康保险集团股份有限公司 | 人脸识别方法、装置、介质及电子设备 |
CN110659617A (zh) * | 2019-09-26 | 2020-01-07 | 杭州艾芯智能科技有限公司 | 活体检测方法、装置、计算机设备和存储介质 |
Non-Patent Citations (1)
Title |
---|
Quantization and Training of Neural Networks for Efficient Integer-Arithmetic-Only Inference;Jacob Benoit et al.;《arXiv: Learning》;20171215;第1-14页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111126366A (zh) | 2020-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111126366B (zh) | 一种活体人脸的判别方法、装置、设备及存储介质 | |
US10699103B2 (en) | Living body detecting method and apparatus, device and storage medium | |
WO2020151489A1 (zh) | 基于面部识别的活体检测的方法、电子设备和存储介质 | |
US11195037B2 (en) | Living body detection method and system, computer-readable storage medium | |
WO2020207423A1 (zh) | 肤质检测方法、肤质等级分类方法及肤质检测装置 | |
CN105631439B (zh) | 人脸图像处理方法和装置 | |
CN104123543B (zh) | 一种基于人脸识别的眼球运动识别方法 | |
CN106056079B (zh) | 一种图像采集设备及人脸五官的遮挡检测方法 | |
CN106570489A (zh) | 活体判别方法和装置、身份认证方法和装置 | |
CN108664840A (zh) | 图像识别方法及装置 | |
CN105160318A (zh) | 基于面部表情的测谎方法及*** | |
CN109815797B (zh) | 活体检测方法和装置 | |
CN111626371A (zh) | 一种图像分类方法、装置、设备及可读存储介质 | |
CN107832721B (zh) | 用于输出信息的方法和装置 | |
CN109858375A (zh) | 活体人脸检测方法、终端及计算机可读存储介质 | |
CN110532746B (zh) | 人脸校验方法、装置、服务器及可读存储介质 | |
CN108108651B (zh) | 基于视频人脸分析的驾驶员非专心驾驶检测方法及*** | |
CN109325472B (zh) | 一种基于深度信息的人脸活体检测方法 | |
CN110059607B (zh) | 活体多重检测方法、装置、计算机设备及存储介质 | |
CN112613471B (zh) | 人脸活体检测方法、装置及计算机可读存储介质 | |
CN112183356A (zh) | 驾驶行为检测方法、设备及可读存储介质 | |
CN110688878B (zh) | 活体识别检测方法、装置、介质及电子设备 | |
CN112926364B (zh) | 头部姿态的识别方法及***、行车记录仪和智能座舱 | |
CN115376210B (zh) | 泳池防溺水的溺水行为识别方法、装置、设备及介质 | |
CN113989886B (zh) | 基于人脸识别的船员身份验证方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |