CN109101925A - 活体检测方法 - Google Patents
活体检测方法 Download PDFInfo
- Publication number
- CN109101925A CN109101925A CN201810924142.5A CN201810924142A CN109101925A CN 109101925 A CN109101925 A CN 109101925A CN 201810924142 A CN201810924142 A CN 201810924142A CN 109101925 A CN109101925 A CN 109101925A
- Authority
- CN
- China
- Prior art keywords
- sample
- color
- robust features
- training set
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/162—Detection; Localisation; Normalisation using pixel segmentation or colour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提出一种活体检测方法,涉及人脸识别领域。本发明解决了目前只利用单一颜色空间下活体和非活体人脸的识别方式安全性不高的问题,其技术方案要点为:对于训练集中的每个样本,分别计算HSV颜色空间下的图像及YCbCr颜色空间下的图像的颜色加速鲁棒特征,并将计算出的训练集中每个样本的两个颜色加速鲁棒特征进行向量融合,融合成颜色加速鲁棒特征组;将训练集中每个样本的颜色加速鲁棒特征组输入至高斯混合模型中,通过高斯混合模型计算出训练集中各个样本的FV编码向量;对训练集中各个样本的FV编码向量进行归一化处理并转换成分类器要求的格式后送入分类器中进行训练,训练出模型,并将剩余样本作为测试集对该模型进行相关参数进行调整。
Description
技术领域
本发明涉及人脸识别技术,特别涉及在门禁***或广告机中如何更加安全地识别出活体人脸的技术。
背景技术
计算机视觉领域技术近年来发生了重点突破,人脸识别是一种非接触性技术,具有可视化、符合人的思维习惯的特点,得以在商业、安全等领域广泛应用。目前,人脸识别逐渐成为一个热门的研究领域。
美国是人脸识别技术最先起步的国家,也是最先应用该技术的国家,其人脸识别技术的水平一直走在国际前列。FBI在2014年就推出了他们的新一代的电子识别***,总投入超过10亿美金。用于利用监控锁定犯罪嫌疑人,从而进行全网追捕。不仅如此,美国国防部和国土***门加大了对人工智能识别技术的投资,用来防止***对公共安全造成的威胁。日本在国内的骨干机场引进了通过计算机智能识别人脸来确认身份的***,有望在举办东京***和残奥会的之前,推进日本人出入境审查的无人化,大大缩短外国游客入境审查的时间。2015年日本日立公司推出的视频监控人脸识别技术能够以3600万张图像/秒的速度进行扫描,以高精度识别出路人,并且即时存储路人脸部图像,将长相相似的人脸进行分类。
人脸识别技术在中国的发展起步于上世纪九十年代末,经历了技术引进-专业市场导入-技术完善-技术应用-各行业领域使用等五个阶段。目前,国内的人脸识别技术已经相对发展成熟,该技术越来越多的被推广到安防领域,延伸出考勤机、门禁机等多种产品,产品系列达20多种类型,可以全面覆盖煤矿、楼宇、银行、军队、社会福利保障、电子商务及安全防务等领域,人脸识别的全面应用时代已经到来。
但是,基于面部的生物特征识别***容易受到假冒攻击,例如使用打印照片、视频显示和口罩呈现假脸,都可以对***造成攻击。
为了解决这种假冒攻击问题,参见申请号为201310041766.X,名称为一种基于HSV颜色空间统计特征的活体人脸的一篇专利申请,其首先将从摄像头获取的包含人脸的图像从RGB颜色空间转换到YCrCb颜色空间,之后对包含人脸的图像依次进行肤色分割处理、去噪处理、数学形态学处理和标定连通区域边界处理,获取人脸矩形区域的坐标;然后根据人脸矩形区域的坐标,从包含人脸的图像中获取待检测的人脸图像;再对待检测的人脸图像分图像块,并获取待检测的人脸图像中的所有图像块的三个颜色分量的特征值;最后将归一化后的特征值作为待检测样本送入训练后的支持向量机中进行检测,确定包含人脸的图像是否为活体真实人脸图像,优点是降低了人脸认证***延时,降低了计算复杂度,提高了检测准确率。
但是,其采用的也是在一种颜色空间下对样本进行识别及判断,即在该颜色空间下将图像划分成再多的子图像块,并采用各种方式组合后训练相应的模型,实现活体和非活体人脸的判断,那么受到更高明的攻击手段时,只利用单一颜色空间下活体和非活体人脸的识别方式也会被攻破,安全性不高。
发明内容
本发明的目的是提供一种活体检测方法,解决目前的活体检测方法只利用单一颜色空间下活体和非活体人脸的识别方式也会被攻破,安全性不高的问题。
本发明解决其技术问题,采用的技术方案是:活体检测方法,包括如下步骤:
步骤1、采集样本并设置样本的图片标签值,所述样本包括多个活体人脸图像和多个非活体人脸图像,活体人脸图像对应的图片标签值均为1,非活体人脸图像对应的图片标签值均为0;
步骤2、随机选择采集的部分样本并将其作为训练集,并将训练集中各个样本均分别转换为HSV颜色空间下的图像及YCbCr颜色空间下的图像;
步骤3、对于训练集中的每个样本,分别计算HSV颜色空间下的图像颜色加速鲁棒特征及YCbCr颜色空间下的图像的颜色加速鲁棒特征,并将计算出的训练集中每个样本的两个颜色加速鲁棒特征进行向量融合,融合成颜色加速鲁棒特征组;
步骤4、将训练集中每个样本的颜色加速鲁棒特征组输入至高斯混合模型中,通过高斯混合模型计算出训练集中各个样本的FV编码向量;
步骤5、对训练集中各个样本的FV编码向量进行归一化处理并转换成分类器要求的格式后送入分类器中进行训练,训练出模型,并设置该模型的初始输出范围,所述初始输出范围是指当训练集中的样本为活体人脸图像时,通过该模型输出的值与对应的图片标签值1的差值在规定范围内,当训练集中的样本为非活体人脸图像时,通过该模型输出的值与对应的图片标签值0的差值在规定范围内;
步骤6、将剩余样本作为测试集,并将测试集中的各个样本均分别转换为HSV颜色空间下的图像及YCbCr颜色空间下的图像;
步骤7、对于测试集中的每个样本,分别计算HSV颜色空间下的图像颜色加速鲁棒特征及YCbCr颜色空间下的图像的颜色加速鲁棒特征,并将计算出的测试集中每个样本的两个颜色加速鲁棒特征进行向量融合,融合成颜色加速鲁棒特征组;
步骤8、将测试集中每个样本的颜色加速鲁棒特征组输入至高斯混合模型中,通过高斯混合模型计算出测试集中各个样本的FV编码向量;
步骤9、对测试集中各个样本的FV编码向量进行归一化处理并转换成分类器要求的格式后送入训练出的模型中进行计算,并判断计算结果是否在所述初始输出范围内,若在,则记录此时该模型的相关参数,若不在,则计算该计算结果的损失值并将损失值反向传输至该模型中,并根据损失值调整该模型的相关参数。
具体地,步骤5和/或步骤8中,所述模型为神经网络模型。
进一步地,步骤3和/或步骤7中,对于训练集和/或测试集中的每个样本,计算HSV颜色空间下的图像颜色加速鲁棒特征及YCbCr颜色空间下的图像的颜色加速鲁棒特征的方法包括如下步骤:
步骤A1、在规定的矩形区域内,以特征点为中心,沿主方向将20s×20s的图像划分成4×4个子区域,其中,s为特征点的尺度;
步骤A2、每个子区域利用尺寸2s的Haar小波模版进行响应计算,计算出响应值;
步骤A3、提取响应值中水平方向和垂直方向上的响应值,组合形成每个子区域的特征向量,所述每个子区域的特征向量公式为:
Vj=[∑dx,∑dy,∑|dx|,∑|dy|]
其中,j表示任意一个子区域,j取1-16之间的任意整数;dx和dy分别是水平和垂直方向上的Haar小波响应值,当dx大于0时对dx进行计算,当dx小于0时对|dx|进行计算,当dy大于0时对dy进行计算,当dy小于0时对|dy|进行计算;
步骤A4、将从每个子区域提取的特征向量连接,形成64维的颜色加速鲁棒特征描述符,所述形成的颜色加速鲁棒性特征描述符如下:
SURF=[V1,...,V16]。
具体地,步骤3与步骤4之间还包括:对融合成的颜色加速鲁棒特征组进行PCA主成分分析,步骤4中,输入到高斯混合模型中的是经PCA主成分分析后的训练集中每个样本的颜色加速鲁棒特征组。
再进一步地,步骤7与步骤8之间还包括:对融合成的颜色加速鲁棒特征组进行PCA主成分分析,步骤8中,输入到高斯混合模型中的是经PCA主成分分析后的测试集中每个样本的颜色加速鲁棒特征组。
本发明的有益效果是,通过上述活体检测方法,对于训练集中的每个样本,分别计算HSV颜色空间下的图像及YCbCr颜色空间下的图像的颜色加速鲁棒特征,并将计算出的训练集中每个样本的两个颜色加速鲁棒特征进行向量融合,融合成颜色加速鲁棒特征组,其中,融合两种颜色空间下的相关特征,具备更高的鲁棒性,然后将训练集中每个样本的颜色加速鲁棒特征组输入至高斯混合模型中,通过高斯混合模型计算出训练集中各个样本的FV编码向量;对训练集中各个样本的FV编码向量进行归一化处理并转换成分类器要求的格式后送入分类器中进行训练,训练出模型,并将剩余样本作为测试集对该模型进行相关参数进行调整。
当受到更高明的攻击手段时,若单一颜色空间下的相关参数被破解,也不会使判断结果收到影响,避免了只利用单一颜色空间下活体和非活体人脸样本训练出的模型安全性不高导致活体检测结果受到影响的问题。
具体实施方式
下面详细描述本发明的技术方案。
本发明所述活体检测方法,包括如下步骤:
步骤1、采集样本并设置样本的图片标签值,其中,样本包括多个活体人脸图像和多个非活体人脸图像,活体人脸图像对应的图片标签值均为1,非活体人脸图像对应的图片标签值均为0;
步骤2、随机选择采集的部分样本并将其作为训练集,并将训练集中各个样本均分别转换为HSV颜色空间下的图像及YCbCr颜色空间下的图像;
步骤3、对于训练集中的每个样本,分别计算HSV颜色空间下的图像颜色加速鲁棒特征及YCbCr颜色空间下的图像的颜色加速鲁棒特征,并将计算出的训练集中每个样本的两个颜色加速鲁棒特征进行向量融合,融合成颜色加速鲁棒特征组,其中,由于HSV颜色空间及YCbCr颜色空间中的亮度和色度信息不同,融合这两个颜色空间中的颜色加速鲁棒特征,可以从它们之间从在的潜在互补性中获益;
步骤4、将训练集中每个样本的颜色加速鲁棒特征组输入至高斯混合模型中,通过高斯混合模型计算出训练集中各个样本的FV编码向量,其中,计算FV编码向量的目的是使混合成的颜色加速鲁棒特征组更加稳固,防攻击性强;
步骤5、对训练集中各个样本的FV编码向量进行归一化处理并转换成分类器要求的格式后送入分类器中进行训练,训练出模型,并设置该模型的初始输出范围,其中,初始输出范围是指当训练集中的样本为活体人脸图像时,通过该模型输出的值与对应的图片标签值1的差值在规定范围内,当训练集中的样本为非活体人脸图像时,通过该模型输出的值与对应的图片标签值0的差值在规定范围内;
步骤6、将剩余样本作为测试集,并将测试集中的各个样本均分别转换为HSV颜色空间下的图像及YCbCr颜色空间下的图像;
步骤7、对于测试集中的每个样本,分别计算HSV颜色空间下的图像颜色加速鲁棒特征及YCbCr颜色空间下的图像的颜色加速鲁棒特征,并将计算出的测试集中每个样本的两个颜色加速鲁棒特征进行向量融合,融合成颜色加速鲁棒特征组;
步骤8、将测试集中每个样本的颜色加速鲁棒特征组输入至高斯混合模型中,通过高斯混合模型计算出测试集中各个样本的FV编码向量;
步骤9、对测试集中各个样本的FV编码向量进行归一化处理并转换成分类器要求的格式后送入训练出的模型中进行计算,并判断计算结果是否在初始输出范围内,若在,则记录此时该模型的相关参数,若不在,则计算该计算结果的损失值并将损失值反向传输至该模型中,并根据损失值调整该模型的相关参数。这里,对FV编码向量进行归一化处理的目的是使数据的稳定性进一步提高。
其中,本申请的活体检测方法融合了两种颜色空间下的相关特征,然后再去训练模型,具备更高的鲁棒性。
上述方法中,步骤5和/或步骤8中,所指的模型优选为神经网络模型,这里为人工神经网络模型,因为人工神经网络模型具备以下几个优点:并行分布处理能力、高度鲁棒性和容错能力、分布存储及学习能力及能充分逼近复杂的非线性关系,而本申请要求的就是高鲁棒性,因此这里选择人工神经网络模型可以提高整体的人脸是活体还是非活体的识别率。
优选地,步骤3和/或步骤7中,对于训练集和/或测试集中的每个样本,计算HSV颜色空间下的图像颜色加速鲁棒特征及YCbCr颜色空间下的图像的颜色加速鲁棒特征的方法包括如下步骤:
步骤A1、在规定的矩形区域内,以特征点为中心,沿主方向将20s×20s的图像划分成4×4个子区域,其中,s为特征点的尺度;
步骤A2、每个子区域利用尺寸2s的Haar小波模版进行响应计算,计算出响应值;
步骤A3、提取响应值中水平方向和垂直方向上的响应值,组合形成每个子区域的特征向量,其中,每个子区域的特征向量公式为:
Vj=[∑dx,∑dy,∑|dx|,∑|dy|]
该公式中,j表示任意一个子区域,j取1-16之间的任意整数;dx和dy分别是水平和垂直方向上的Haar小波响应值,当dx大于0时对dx进行计算,当dx小于0时对|dx|进行计算,当dy大于0时对dy进行计算,当dy小于0时对|dy|进行计算;
步骤A4、将从每个子区域提取的特征向量连接,形成64维的颜色加速鲁棒特征描述符,其中,形成的颜色加速鲁棒性特征描述符如下:
SURF=[V1,...,V16]。
优选地,步骤3与步骤4之间还包括:对融合成的颜色加速鲁棒特征组进行PCA主成分分析,步骤4中,输入到高斯混合模型中的是经PCA主成分分析后的训练集中每个样本的颜色加速鲁棒特征组。
优选地,步骤7与步骤8之间还包括:对融合成的颜色加速鲁棒特征组进行PCA主成分分析,步骤8中,输入到高斯混合模型中的是经PCA主成分分析后的测试集中每个样本的颜色加速鲁棒特征组。
其中,加入PCA主成分分析是为了找出对融合成的颜色加速鲁棒特征组中最主要的数据,用其中最主要的数据代替整个融合成的颜色加速鲁棒特征组,可以降低融合成的颜色加速鲁棒特征组的向量维度,精简了整体算法,进而缩短了活体检测时间。
Claims (5)
1.活体检测方法,其特征在于,包括如下步骤:
步骤1、采集样本并设置样本的图片标签值,所述样本包括多个活体人脸图像和多个非活体人脸图像,活体人脸图像对应的图片标签值均为1,非活体人脸图像对应的图片标签值均为0;
步骤2、随机选择采集的部分样本并将其作为训练集,并将训练集中各个样本均分别转换为HSV颜色空间下的图像及YCbCr颜色空间下的图像;
步骤3、对于训练集中的每个样本,分别计算HSV颜色空间下的图像颜色加速鲁棒特征及YCbCr颜色空间下的图像的颜色加速鲁棒特征,并将计算出的训练集中每个样本的两个颜色加速鲁棒特征进行向量融合,融合成颜色加速鲁棒特征组;
步骤4、将训练集中每个样本的颜色加速鲁棒特征组输入至高斯混合模型中,通过高斯混合模型计算出训练集中各个样本的FV编码向量;
步骤5、对训练集中各个样本的FV编码向量进行归一化处理并转换成分类器要求的格式后送入分类器中进行训练,训练出模型,并设置该模型的初始输出范围,所述初始输出范围是指当训练集中的样本为活体人脸图像时,通过该模型输出的值与对应的图片标签值1的差值在规定范围内,当训练集中的样本为非活体人脸图像时,通过该模型输出的值与对应的图片标签值0的差值在规定范围内;
步骤6、将剩余样本作为测试集,并将测试集中的各个样本均分别转换为HSV颜色空间下的图像及YCbCr颜色空间下的图像;
步骤7、对于测试集中的每个样本,分别计算HSV颜色空间下的图像颜色加速鲁棒特征及YCbCr颜色空间下的图像的颜色加速鲁棒特征,并将计算出的测试集中每个样本的两个颜色加速鲁棒特征进行向量融合,融合成颜色加速鲁棒特征组;
步骤8、将测试集中每个样本的颜色加速鲁棒特征组输入至高斯混合模型中,通过高斯混合模型计算出测试集中各个样本的FV编码向量;
步骤9、对测试集中各个样本的FV编码向量进行归一化处理并转换成分类器要求的格式后送入训练出的模型中进行计算,并判断计算结果是否在所述初始输出范围内,若在,则记录此时该模型的相关参数,若不在,则计算该计算结果的损失值并将损失值反向传输至该模型中,并根据损失值调整该模型的相关参数。
2.根据权利要求1所述的活体检测方法,其特征在于,步骤5和/或步骤8中,所述模型为神经网络模型。
3.根据权利要求1所述的活体检测方法,其特征在于,步骤3和/或步骤7中,对于训练集和/或测试集中的每个样本,计算HSV颜色空间下的图像颜色加速鲁棒特征及YCbCr颜色空间下的图像的颜色加速鲁棒特征的方法包括如下步骤:
步骤A1、在规定的矩形区域内,以特征点为中心,沿主方向将20s×20s的图像划分成4×4个子区域,其中,s为特征点的尺度;
步骤A2、每个子区域利用尺寸2s的Haar小波模版进行响应计算,计算出响应值;
步骤A3、提取响应值中水平方向和垂直方向上的响应值,组合形成每个子区域的特征向量,所述每个子区域的特征向量公式为:
Vj=[∑dx,∑dy,∑|dx|,∑|dy|]
其中,j表示任意一个子区域,j取1-16之间的任意整数;dx和dy分别是水平和垂直方向上的Haar小波响应值,当dx大于0时对dx进行计算,当dx小于0时对|dx|进行计算,当dy大于0时对dy进行计算,当dy小于0时对|dy|进行计算;
步骤A4、将从每个子区域提取的特征向量连接,形成64维的颜色加速鲁棒特征描述符,所述形成的颜色加速鲁棒性特征描述符如下:
SURF=[V1,...,V16]。
4.根据权利要求1或3所述的活体检测方法,其特征在于,步骤3与步骤4之间还包括:对融合成的颜色加速鲁棒特征组进行PCA主成分分析,步骤4中,输入到高斯混合模型中的是经PCA主成分分析后的训练集中每个样本的颜色加速鲁棒特征组。
5.根据权利要求1或3所述的活体检测方法,其特征在于,步骤7与步骤8之间还包括:对融合成的颜色加速鲁棒特征组进行PCA主成分分析,步骤8中,输入到高斯混合模型中的是经PCA主成分分析后的测试集中每个样本的颜色加速鲁棒特征组。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810924142.5A CN109101925A (zh) | 2018-08-14 | 2018-08-14 | 活体检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810924142.5A CN109101925A (zh) | 2018-08-14 | 2018-08-14 | 活体检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109101925A true CN109101925A (zh) | 2018-12-28 |
Family
ID=64849665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810924142.5A Pending CN109101925A (zh) | 2018-08-14 | 2018-08-14 | 活体检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109101925A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110008820A (zh) * | 2019-01-30 | 2019-07-12 | 广东世纪晟科技有限公司 | 一种静默活体检测方法 |
CN110135259A (zh) * | 2019-04-15 | 2019-08-16 | 深圳壹账通智能科技有限公司 | 静默式活体图片识别方法、装置、计算机设备和存储介质 |
CN110298230A (zh) * | 2019-05-06 | 2019-10-01 | 深圳市华付信息技术有限公司 | 静默活体检测方法、装置、计算机设备及存储介质 |
CN110427828A (zh) * | 2019-07-05 | 2019-11-08 | 中国平安人寿保险股份有限公司 | 人脸活体检测方法、装置及计算机可读存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107992842A (zh) * | 2017-12-13 | 2018-05-04 | 深圳云天励飞技术有限公司 | 活体检测方法、计算机装置及计算机可读存储介质 |
-
2018
- 2018-08-14 CN CN201810924142.5A patent/CN109101925A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107992842A (zh) * | 2017-12-13 | 2018-05-04 | 深圳云天励飞技术有限公司 | 活体检测方法、计算机装置及计算机可读存储介质 |
Non-Patent Citations (4)
Title |
---|
刘呈云,: "基于纹理分析的活体人脸检测算法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
刘奕,: "多模生物特征融合关键技术研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
张二磊 等,: "一种改进的SURF彩色遥感图像配准算法", 《液晶与显示》 * |
邹承明 等,: "基于多特征组合的细粒度图像分类方法", 《计算机应用》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110008820A (zh) * | 2019-01-30 | 2019-07-12 | 广东世纪晟科技有限公司 | 一种静默活体检测方法 |
CN110135259A (zh) * | 2019-04-15 | 2019-08-16 | 深圳壹账通智能科技有限公司 | 静默式活体图片识别方法、装置、计算机设备和存储介质 |
WO2020211396A1 (zh) * | 2019-04-15 | 2020-10-22 | 深圳壹账通智能科技有限公司 | 静默式活体图片识别方法、装置、计算机设备和存储介质 |
CN110298230A (zh) * | 2019-05-06 | 2019-10-01 | 深圳市华付信息技术有限公司 | 静默活体检测方法、装置、计算机设备及存储介质 |
CN110427828A (zh) * | 2019-07-05 | 2019-11-08 | 中国平安人寿保险股份有限公司 | 人脸活体检测方法、装置及计算机可读存储介质 |
CN110427828B (zh) * | 2019-07-05 | 2024-02-09 | 中国平安人寿保险股份有限公司 | 人脸活体检测方法、装置及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108596041B (zh) | 一种基于视频的人脸活体检测方法 | |
CN109101925A (zh) | 活体检测方法 | |
US6661907B2 (en) | Face detection in digital images | |
CN108537743A (zh) | 一种基于生成对抗网络的面部图像增强方法 | |
CN110516616A (zh) | 一种基于大规模rgb以及近红外数据集的双重认证人脸防伪方法 | |
CN110472519B (zh) | 一种基于多模型的人脸活体检测方法 | |
CN109858439A (zh) | 一种基于人脸的活体检测方法及装置 | |
CN109918971B (zh) | 监控视频中人数检测方法及装置 | |
CN106951869B (zh) | 一种活体验证方法及设备 | |
CN104794458A (zh) | 一种从模糊视频中识别人员的方法 | |
CN103886301A (zh) | 一种人脸活体检测方法 | |
CN104992148A (zh) | 基于随机森林的atm终端部分遮挡人脸关键点检测方法 | |
KR20170006355A (ko) | 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치 | |
CN107403142A (zh) | 一种微表情的检测方法 | |
CN109902667A (zh) | 基于光流引导特征块和卷积gru的人脸活体检测方法 | |
CN110008793A (zh) | 人脸识别方法、装置及设备 | |
CN110516623A (zh) | 一种人脸识别方法、装置及电子设备 | |
CN110543848B (zh) | 一种基于三维卷积神经网络的驾驶员动作识别方法及装置 | |
Hebbale et al. | Real time COVID-19 facemask detection using deep learning | |
CN111639580A (zh) | 一种结合特征分离模型和视角转换模型的步态识别方法 | |
CN109117752A (zh) | 一种基于灰度及rgb的面部识别方法 | |
CN109635712A (zh) | 基于同构网络的自发微表情种类判别方法 | |
Guetta et al. | Dodging attack using carefully crafted natural makeup | |
Davis et al. | Facial recognition using human visual system algorithms for robotic and UAV platforms | |
CN113468954B (zh) | 基于多通道下局部区域特征的人脸伪造检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181228 |