CN112749687B - 一种图片质量和静默活体检测多任务训练方法和设备 - Google Patents

一种图片质量和静默活体检测多任务训练方法和设备 Download PDF

Info

Publication number
CN112749687B
CN112749687B CN202110132064.7A CN202110132064A CN112749687B CN 112749687 B CN112749687 B CN 112749687B CN 202110132064 A CN202110132064 A CN 202110132064A CN 112749687 B CN112749687 B CN 112749687B
Authority
CN
China
Prior art keywords
label
living body
quality
layer
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110132064.7A
Other languages
English (en)
Other versions
CN112749687A (zh
Inventor
胡炳然
刘青松
梁家恩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Unisound Intelligent Technology Co Ltd
Xiamen Yunzhixin Intelligent Technology Co Ltd
Original Assignee
Unisound Intelligent Technology Co Ltd
Xiamen Yunzhixin Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Unisound Intelligent Technology Co Ltd, Xiamen Yunzhixin Intelligent Technology Co Ltd filed Critical Unisound Intelligent Technology Co Ltd
Priority to CN202110132064.7A priority Critical patent/CN112749687B/zh
Publication of CN112749687A publication Critical patent/CN112749687A/zh
Application granted granted Critical
Publication of CN112749687B publication Critical patent/CN112749687B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种图片质量和静默活体检测多任务训练方法和设备,该方法包括:获取包括多个训练样本;其中,每个训练样本均对应质量标签和活体标签;融合每个训练样本的质量标签和活体标签得到每个训练样本的活体质量标签;通过带有活体质量标签的多个训练样本对预先建立的mobilefacenet模型进行训练,得到多任务判定模型;获取待检测对象的样本图像;将样本图像输入多任务判定模型,得到样本图像对应的判定概率;若判定概率大于预置阈值,则确定多任务检测通过。本方案中的多任务学习可降低模型复杂度,提高模型泛化性,降低***整体耗时。此外,引入的新激活函数SquareAct,使得在进行质量判定和活体检测任务时更加有效。

Description

一种图片质量和静默活体检测多任务训练方法和设备
技术领域
本发明涉及图片质量和静默活体检测的训练技术领域,具体涉及一种图片质量和静默活体检测多任务训练方法和设备。
背景技术
目前,人脸识别的技术被大量的应用在车站,支付,授权等场景,而人脸识别特别依赖对应的人脸图像的质量,人脸图像的质量能显著的影响到人了识别的识别效率以及识别成功率。
而为了提高识别的成功率,以及面对某些利用照片等进行欺骗人脸识别***的方式,现有的技术方案在进行人脸识别任务之前,一般需要经过图片质量过滤和活体检测两个环节,用来排除不符合要求(质量低、假体攻击等)的图片。
但是,人脸图片质量判定和活体检测判定,这两个过程,在现有的技术方案中,均是独立地分别进行的,这导致存在一些问题:人脸图片质量判定和活体检测判定这两个环节分别独立进行,忽略了任务之间的联系,且增加了***耗时,进而影响到了最终人脸识别的效率。
为此,现在需要有一种更好的方案来解决现有技术中的问题。
发明内容
本发明提供一种图片质量和静默活体检测多任务训练方法和设备,能够解决现有技术中效率低下的技术问题。
本发明解决上述技术问题的技术方案如下:
本发明实施例提出了一种图片质量和静默活体检测多任务训练方法,包括:
获取包括多个训练样本;其中,每个所述训练样本均对应质量标签和活体标签;
融合每个所述训练样本的所述质量标签和所述活体标签得到每个所述训练样本的活体质量标签;
通过带有所述活体质量标签的多个所述训练样本对预先建立的mobilefacenet模型进行训练,得到多任务判定模型;其中,所述mobilefacenet模型中的解码层由全连接层和激活函数SquareAct组成;
获取待检测对象的样本图像;
将所述样本图像输入所述多任务判定模型,得到所述样本图像对应的判定概率;
若所述判定概率大于预置阈值,则确定多任务检测通过。
在一个具体的实施例中,所述质量标签对应的质量标签值的范围在0-1之间,所述活体标签对应的活体标签值的为0或1;所述活体质量标签对应的活体质量标签值的范围在0-1之间。
在一个具体的实施例中,所述活体质量标签对应的活体质量标签值为所述质量标签对应的质量标签值与所述活体标签对应的活体标签值的乘积。
在一个具体的实施例中,所述mobilefacenet模型还包括:输入层、卷积层、Sigmoid激活层、交叉熵损失函数层;其中,
所述输入层连接所述卷积层,所述卷积层连接所述解码层、所述解码层连接所述Sigmoid激活层、所述Sigmoid激活层连接所述交叉熵损失函数层;
所述交叉熵损失函数层连接所述卷积层。
在一个具体的实施例中,该方法还包括:若所述判定概率不大于预置阈值,则确定多任务检测未通过。
本发明实施例还提出了一种图片质量和静默活体检测多任务训练设备,包括:
第一获取模块,用于获取包括多个训练样本;其中,每个所述训练样本均对应质量标签和活体标签;
融合模块,用于融合每个所述训练样本的所述质量标签和所述活体标签得到每个所述训练样本的活体质量标签;
训练模块,用于通过带有所述活体质量标签的多个所述训练样本对预先建立的mobilefacenet模型进行训练,得到多任务判定模型;其中,所述mobilefacenet模型中的解码层由全连接层和激活函数SquareAct组成;
第二获取模块,用于获取待检测对象的样本图像;
判定模块,用于将所述样本图像输入所述多任务判定模型,得到所述样本图像对应的判定概率;
确定模块,用于当所述判定概率大于预置阈值时,确定多任务检测通过。
在一个具体的实施例中,所述质量标签对应的质量标签值的范围在0-1之间,所述活体标签对应的活体标签值的范围在0-1之间;所述活体质量标签对应的活体质量标签值的范围在0-1之间。
在一个具体的实施例中,所述活体质量标签对应的活体质量标签值为所述质量标签对应的质量标签值与所述活体标签对应的活体标签值的乘积。
在一个具体的实施例中,所述mobilefacenet模型还包括:输入层、卷积层、Sigmoid激活层、交叉熵损失函数层;其中,
所述输入层连接所述卷积层,所述卷积层连接所述解码层、所述解码层连接所述Sigmoid激活层、所述Sigmoid激活层连接所述交叉熵损失函数层;
所述交叉熵损失函数层连接所述卷积层。
在一个具体的实施例中,该设备还包括:
处理模块,用于当所述判定概率不大于预置阈值时,确定多任务检测未通过。
本发明的有益效果是:
本方案中,考虑到人脸质量判定和活体检测两个任务使用的训练数据类似,可以共享深度网络底层特征;本方案中的多任务学习可降低模型复杂度,提高模型泛化性,降低***整体耗时。此外,相比于CNN(Convolutional Neural Networks,卷积神经网络)中常用激活函数为PReLu,ReLu,tanh等,本发明引入的新激活函数SquareAct,使得在进行质量判定和活体检测任务时更加有效。
附图说明
图1为本发明实施例提供的一种图片质量和静默活体检测多任务训练方法的流程示意图;
图2为本发明实施例提供的一种图片质量和静默活体检测多任务训练方法的流程示意图;
图3为本发明实施例提供的一种图片质量和静默活体检测多任务训练方法的流程示意图;
图4为本发明实施例提供的一种图片质量和静默活体检测多任务训练方法的流程示意图;
图5为本发明实施例提供的一种图片质量和静默活体检测多任务训练方法的流程示意图;
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
本方案用于对图片的质量以及静默状态下的活体进行检测,具体的,静默状态下的活体包括保持静默的用户,用户不进行发声以及也不执行预算的某项动作,例如眨眼,摇头等。
实施例1
本发明实施例提供的一种图片质量和静默活体检测多任务训练方法,如图1或图2所示,包括以下步骤:
步骤101、获取包括多个训练样本;其中,每个所述训练样本均对应质量标签和活体标签;
具体的,对预先采集的图像进行预处理,生成训练样本;每个训练样本包含的两个标签值,分别为质量标签与活体标签;具体的预处理可以包括对图像进行剔除清洗不合格的图片,还可以包括人工标记质量标签与活体标签的标签值的操作;具体的质量标签的标签值用于表示所在训练样本的图像质量,例如是否足够清晰,光线强度是否合适等等;而活体标签则用于表示所在训练样本中的对象是否为活体,其值只有2个,一个表示为活体,另一个则表示为非活体。
步骤102、融合每个所述训练样本的所述质量标签和所述活体标签得到每个所述训练样本的活体质量标签;
具体的,所述质量标签对应的质量标签值的范围在0-1之间,其中,质量标签值越大,代表所在的训练样本的图像质量越高;所述活体标签对应的活体标签值的为0或1;具体的,活体标签值的为0表示所在的训练样本中的对象不是活体,活体标签值的为1表示所在的训练样本中的对象是活体;而为了更有效的进行训练,所述活体质量标签对应的活体质量标签值的范围在0-1之间,通过设置活体质量标签值的范围与质量标签值的范围一级活体标签值处于同一范围内,以此,不需要对后续的训练模型进行数值范围的更改,利于提高处理的效率。
此外,融合还可以采用如下方式来进行:
具体的,设活体标签为S={+s,-s},其中真人为+s,假体为-s。
图像质量标签(根据模糊度等计算)为q,新的融合标签计算方法为
也就是,用s/-s替换1/0活体标签,s>0是一个尺度值,再乘上质量标签q。注意当S=-s时,应乘上(1-q),具体的原则是质量低的图片,其融合标签值也低。后续经过Sigmoid归一化到[0,1]之间,完成新标签的制作。
在一个具体的实施例中,所述活体质量标签对应的活体质量标签值为所述质量标签对应的质量标签值与所述活体标签对应的活体标签值的乘积。
步骤103、通过带有所述活体质量标签的多个所述训练样本对预先建立的mobilefacenet模型进行训练,得到多任务判定模型;其中,所述mobilefacenet模型中的解码层由全连接层和激活函数SquareAct组成;
具体的,训练过程中可以进行数据增强处理,具体的,通过Mixup(一种数据增强方式)以线性插值的方式来构建新的训练样本和标签,最终对标签的处理如下公式所示:
(xi,yi),(xj,yj)两个数据对是原始数据集中的训练样本和其对应的标签。其中λ∈[0,1]是一个服从B分布的参数λ~Beta(α,α),α∈[0,+∞]。
当进行二分类任务时其损失函数形式为:
Lm=λCi(yp,yi)+(1-λ)Cj(yp,yj),
其中Lm为损失函数值;C表示连续标签下的交叉熵,具体的:
Ci=-yilogyp-(1-yi)log(1-yp),
Cj=-yjlogyp-(1-yj)log(1-yp),
其中,yp是模型预测的类别概率;yi,yj是根据上述方法制作的图像连续标签。
在一般的二分类问题中,mixup中的标签为yi,j={0,1}。本方案中基于多任务的连续标签yi,j∈[0,1],结合mixup方法,可获得更加鲁棒的分类结果。
具体的,如图3所示,预先构建有mobilefacenet模型,具体的,mobilefacenet是可以运行在移动设备上用于进行人脸识别的网络模型,单个网络模型只有4M并且有很高的准确率;其中解码层由全连接和激活函数SquareAct组成;具体的激活函数SquareAct表示为:S(x)=x2;其中,x为全连接层的输出,S是SquareAct激活的简写,且SquareAct是element-wise操作。例如,若全连接层输出为x=(1,2,3,4,5,...),则S=(1,4,9,16,25,...)。
此外,所述mobilefacenet模型还包括:输入层、卷积层、Sigmoid激活层、交叉熵损失函数层;其中,所述输入层连接所述卷积层,所述卷积层连接所述解码层、所述解码层连接所述Sigmoid激活层、所述Sigmoid激活层连接所述交叉熵损失函数层;所述交叉熵损失函数层连接所述卷积层。在具体的训练过程中,交叉熵损失函数层会给予卷积层反馈,例如进行梯度反转,从而使得卷积层调整之后再执行训练过程,直到训练次数达到或者交叉熵损失函数层不再进行反馈为止。
步骤104、获取待检测对象的样本图像;
具体的,步骤104并不一定在不在103之后,其可以与前述的步骤101-103同时执行。具体的待检测对象可以为某个用户,其样本图像中会标识有是否存在该用户,以及样本图像的质量等参数,以便利于后续执行判定。
步骤105、将所述样本图像输入所述多任务判定模型,得到所述样本图像对应的判定概率;
步骤106、若所述判定概率大于预置阈值,则确定多任务检测通过。
具体的,预置阈值可以根据实际的检测需要以及经验来进行设置,当判定概率大于预置阈值,则确定多任务检测通过,而若是所述判定概率不大于预置阈值,则确定多任务检测未通过。
实施例2
本发明实施例2还公开了一种图片质量和静默活体检测多任务训练设备,如图4所示,包括:
第一获取模块201,用于获取包括多个训练样本;其中,每个所述训练样本均对应质量标签和活体标签;
融合模块202,用于融合每个所述训练样本的所述质量标签和所述活体标签得到每个所述训练样本的活体质量标签;
训练模块203,用于通过带有所述活体质量标签的多个所述训练样本对预先建立的mobilefacenet模型进行训练,得到多任务判定模型;其中,所述mobilefacenet模型中的解码层由全连接层和激活函数SquareAct组成;
第二获取模块204,用于获取待检测对象的样本图像;
判定模块205,用于将所述样本图像输入所述多任务判定模型,得到所述样本图像对应的判定概率;
确定模块206,用于当所述判定概率大于预置阈值时,确定多任务检测通过。
在一个具体的实施例中,所述质量标签对应的质量标签值的范围在0-1之间,所述活体标签对应的活体标签值的范围在0-1之间;所述活体质量标签对应的活体质量标签值的范围在0-1之间。
在一个具体的实施例中,所述活体质量标签对应的活体质量标签值为所述质量标签对应的质量标签值与所述活体标签对应的活体标签值的乘积。
在一个具体的实施例中,所述mobilefacenet模型还包括:输入层、卷积层、Sigmoid激活层、交叉熵损失函数层;其中,
所述输入层连接所述卷积层,所述卷积层连接所述解码层、所述解码层连接所述Sigmoid激活层、所述Sigmoid激活层连接所述交叉熵损失函数层;
所述交叉熵损失函数层连接所述卷积层。
在一个具体的实施例中,如图5所示,还包括:
处理模块207,用于当所述判定概率不大于预置阈值时,确定多任务检测未通过。
本发明实施例公开了一种图片质量和静默活体检测多任务训练方法和设备,该方法包括:获取包括多个训练样本;其中,每个所述训练样本均对应质量标签和活体标签;融合每个所述训练样本的所述质量标签和所述活体标签得到每个所述训练样本的活体质量标签;通过带有所述活体质量标签的多个所述训练样本对预先建立的mobilefacenet模型进行训练,得到多任务判定模型;其中,所述mobilefacenet模型中的解码层由全连接层和激活函数SquareAct组成;获取待检测对象的样本图像;将所述样本图像输入所述多任务判定模型,得到所述样本图像对应的判定概率;若所述判定概率大于预置阈值,则确定多任务检测通过。本方案中,考虑到人脸质量判定和活体检测两个任务使用的训练数据类似,可以共享深度网络底层特征;本方案中的多任务学习可降低模型复杂度,提高模型泛化性,降低***整体耗时。此外,相比于CNN(Convolutional Neural Networks,卷积神经网络)中常用激活函数为PReLu,ReLu,tanh等,本发明引入的新激活函数SquareAct,使得在进行质量判定和活体检测任务时更加有效。
以上,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (8)

1.一种图片质量和静默活体检测多任务训练方法,其特征在于,包括:
获取包括多个训练样本;其中,每个所述训练样本均对应质量标签和活体标签;
融合每个所述训练样本的所述质量标签和所述活体标签得到每个所述训练样本的活体质量标签;
其中,具体融合过程为:设活体标签为S={+s,-s},其中,真人为+s,假体为-s,
图像质量标签为q,新的融合标签计算方法为:
其中,用s表示活体标签,-s表示非活体标签,s>0是一个尺度值,再乘上质量标签q,
经过Sigmoid归一化到[0,1]之间,完成新标签的制作;
所述活体质量标签对应的活体质量标签值为所述质量标签对应的质量标签值与所述活体标签对应的活体标签值的乘积;
通过带有所述活体质量标签的多个所述训练样本对预先建立的mobilefacenet模型进行训练,得到多任务判定模型;其中,所述mobilefacenet模型中的解码层由全连接层和激活函数SquareAct组成;
其中,在所述模型训练过程中进行数据增强处理,通过Mixup以线性插值的方式来构建新的训练样本和标签,最终对标签的处理如下公式所示:
其中,(xi,yi),(xj,yj)两个数据对是原始数据集中的训练样本和其对应的标签,λ∈[0,1]是一个服从B分布的参数λ~Beta(α,α),α∈[0,+∞];
当进行二分类任务时其损失函数形式为:
Lm=λCi(yp,yi)+(1-λ)Cj(yp,yj),
其中Lm为损失函数值;C表示连续标签下的交叉熵,具体的:
Ci=-yilogyp-(1-yi)log(1-yp),
Cj=-yjlogyp-(1-yj)log(1-yp),
其中,yp是模型预测的类别概率;yi,yj是根据上述方法制作的图像连续标签;
获取待检测对象的样本图像;
将所述样本图像输入所述多任务判定模型,得到所述样本图像对应的判定概率;
若所述判定概率大于预置阈值,则确定多任务检测通过。
2.根据权利要求1所述的方法,其特征在于,所述质量标签对应的质量标签值的范围在0-1之间;所述活体质量标签对应的活体质量标签值的范围在0-1之间。
3.根据权利要求1所述的方法,其特征在于,所述mobilefacenet模型还包括:输入层、卷积层、Sigmoid激活层、交叉熵损失函数层;其中,
所述输入层连接所述卷积层,所述卷积层连接所述解码层、所述解码层连接所述Sigmoid激活层、所述Sigmoid激活层连接所述交叉熵损失函数层;
所述交叉熵损失函数层连接所述卷积层。
4.根据权利要求1所述的方法,其特征在于,还包括:若所述判定概率不大于预置阈值,则确定多任务检测未通过。
5.一种图片质量和静默活体检测多任务训练设备,其特征在于,包括:
第一获取模块,用于获取包括多个训练样本;其中,每个所述训练样本均对应质量标签和活体标签;
融合模块,用于融合每个所述训练样本的所述质量标签和所述活体标签得到每个所述训练样本的活体质量标签;所述活体质量标签对应的活体质量标签值为所述质量标签对应的质量标签值与所述活体标签对应的活体标签值的乘积;
其中,融合模块还用于:设活体标签为S={+s,-s},其中真人为+s,假体为-s,
图像质量标签为q,新的融合标签计算方法为
其中,表示活体标签,-s表示非活体标签,s>0是一个尺度值,再乘上质量标签q,经过Sigmoid归一化到[0,1]之间,完成新标签的制作;
训练模块,用于通过带有所述活体质量标签的多个所述训练样本对预先建立的mobilefacenet模型进行训练,得到多任务判定模型;其中,所述mobilefacenet模型中的解码层由全连接层和激活函数SquareAct组成;
第二获取模块,用于获取待检测对象的样本图像;
判定模块,用于将所述样本图像输入所述多任务判定模型,得到所述样本图像对应的判定概率;
确定模块,用于当所述判定概率大于预置阈值时,确定多任务检测通过;
所述设备还用于执行如下操作:其中,在所述模型训练过程中进行数据增强处理,通过Mixup以线性插值的方式来构建新的训练样本和标签,最终对标签的处理如下公式所示:
其中,(xi,yi),(xj,yj)两个数据对是原始数据集中的训练样本和其对应的标签,λ∈[0,1]是一个服从B分布的参数λ~Beta(α,α),α∈[0,+∞];
当进行二分类任务时其损失函数形式为:
Lm=λCi(yp,yi)+(1-λ)Cj(yp,yj),
其中Lm为损失函数值;C表示连续标签下的交叉熵,具体的:
Ci=-yilogyp-(1-yi)log(1-yp),
Cj=-yjlogyp-(1-yj)log(1-yp),
其中,yp是模型预测的类别概率;yi,yj是根据上述方法制作的图像连续标签。
6.根据权利要求5所述的设备,其特征在于,所述质量标签对应的质量标签值的范围在0-1之间;所述活体质量标签对应的活体质量标签值的范围在0-1之间。
7.根据权利要求5所述的设备,其特征在于,所述mobilefacenet模型还包括:输入层、卷积层、Sigmoid激活层、交叉熵损失函数层;其中,
所述输入层连接所述卷积层,所述卷积层连接所述解码层、所述解码层连接所述Sigmoid激活层、所述Sigmoid激活层连接所述交叉熵损失函数层;
所述交叉熵损失函数层连接所述卷积层。
8.根据权利要求5所述的设备,其特征在于,还包括:
处理模块,用于当所述判定概率不大于预置阈值时,确定多任务检测未通过。
CN202110132064.7A 2021-01-31 2021-01-31 一种图片质量和静默活体检测多任务训练方法和设备 Active CN112749687B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110132064.7A CN112749687B (zh) 2021-01-31 2021-01-31 一种图片质量和静默活体检测多任务训练方法和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110132064.7A CN112749687B (zh) 2021-01-31 2021-01-31 一种图片质量和静默活体检测多任务训练方法和设备

Publications (2)

Publication Number Publication Date
CN112749687A CN112749687A (zh) 2021-05-04
CN112749687B true CN112749687B (zh) 2024-06-14

Family

ID=75653391

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110132064.7A Active CN112749687B (zh) 2021-01-31 2021-01-31 一种图片质量和静默活体检测多任务训练方法和设备

Country Status (1)

Country Link
CN (1) CN112749687B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115512427B (zh) * 2022-11-04 2023-04-25 北京城建设计发展集团股份有限公司 一种结合配合式活检的用户人脸注册方法与***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110991249A (zh) * 2019-11-04 2020-04-10 支付宝(杭州)信息技术有限公司 人脸检测方法、装置、电子设备及介质
CN111241925A (zh) * 2019-12-30 2020-06-05 新大陆数字技术股份有限公司 人脸质量评定方法、***、电子设备及可读存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111695392B (zh) * 2019-03-15 2023-09-15 嘉楠明芯(北京)科技有限公司 基于级联的深层卷积神经网络的人脸识别方法及***
CN112215043A (zh) * 2019-07-12 2021-01-12 普天信息技术有限公司 一种人脸活体检测方法
CN111611851B (zh) * 2020-04-10 2024-04-02 北京中科虹霸科技有限公司 模型生成方法、虹膜检测方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110991249A (zh) * 2019-11-04 2020-04-10 支付宝(杭州)信息技术有限公司 人脸检测方法、装置、电子设备及介质
CN111241925A (zh) * 2019-12-30 2020-06-05 新大陆数字技术股份有限公司 人脸质量评定方法、***、电子设备及可读存储介质

Also Published As

Publication number Publication date
CN112749687A (zh) 2021-05-04

Similar Documents

Publication Publication Date Title
Fernandes et al. Predicting heart rate variations of deepfake videos using neural ode
CN111461235A (zh) 音视频数据处理方法、***、电子设备及存储介质
CN110399788A (zh) 图像的au检测方法、装置、电子设备及存储介质
CN111257341A (zh) 基于多尺度特征与堆叠式全卷积网络的水下建筑物裂缝检测方法
CN111401105B (zh) 一种视频表情识别方法、装置及设备
CN112668638A (zh) 一种图像美学质量评估和语义识别联合分类方法及***
CN111199238A (zh) 一种基于双流卷积神经网络的行为识别方法及设备
CN114140885A (zh) 一种情感分析模型的生成方法、装置、电子设备以及存储介质
CN112749687B (zh) 一种图片质量和静默活体检测多任务训练方法和设备
CN111160225A (zh) 基于深度学习的人体解析方法和装置
CN110334622A (zh) 基于自适应特征金字塔的行人检索方法
CN117011274A (zh) 自动化玻璃瓶检测***及其方法
Wu et al. An efficient binary convolutional neural network with numerous skip connections for fog computing
CN112836755B (zh) 基于深度学习的样本图像生成方法及其***
CN114358249A (zh) 目标识别模型训练、目标识别方法及装置
Mikhaylevskiy et al. Fast emotion recognition neural network for IoT devices
CN116958615A (zh) 图片识别方法、装置、设备和介质
ViswanathReddy et al. Facial emotions over static facial images using deep learning techniques with hysterical interpretation
CN116433552A (zh) 一种染色场景下病灶图像检测模型构建方法及相关装置
KR20220167827A (ko) 인공지능 기반의 불량 검출이 가능한 스마트 팩토리 시스템
Dharanaesh et al. Video based facial emotion recognition system using deep learning
Mobsite et al. A Deep Learning Dual-Stream Framework for Fall Detection
CN113826115A (zh) 二进制神经网络正则化的设备、方法和***
CN113255800B (zh) 基于音视频的鲁棒情感建模***
CN112906679B (zh) 基于人形语义分割的行人重识别方法、***及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant