CN109670430A - 一种基于深度学习的多分类器融合的人脸活体识别方法 - Google Patents
一种基于深度学习的多分类器融合的人脸活体识别方法 Download PDFInfo
- Publication number
- CN109670430A CN109670430A CN201811510432.1A CN201811510432A CN109670430A CN 109670430 A CN109670430 A CN 109670430A CN 201811510432 A CN201811510432 A CN 201811510432A CN 109670430 A CN109670430 A CN 109670430A
- Authority
- CN
- China
- Prior art keywords
- face
- detection
- frame
- moire fringes
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Ophthalmology & Optometry (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的多分类器融合的人脸活体识别方法,使用传统的边缘特征、眼部特征等与深度神经网络特征分别训练三种分类器,然后利用这些分类器通过设计好的程序流程,进行人脸活体识别。该方法针对现实场景中的活体识别问题,设计了边框检测、眨眼检测和摩尔纹检测,并创新性地将上述三个检测的结果按照一定逻辑进行融合,得到人脸活体识别结果,具有良好抗欺骗能力、优秀抗干扰能力、仅需用户少量配合的、且仅需普通摄像头(无需外加设备)等优点。本发明主要有边框检测、眨眼检测、摩尔纹检测、融合判断流程等步骤,为现实推广人脸活体识别的应用做出了一定的贡献。
Description
技术领域
本发明涉及机器学习、深度学习和模式识别等科研领域,尤其涉及一种基于深度学习的多分类器融合的人脸活体识别方法。
背景技术
人脸活体检测成为人脸识别的关键组成部分,它对于任何一个生物检测***来说是十分重要和必要的一个环节,它可以保证生物检测***能够安全有效地工作;对于无人监督的人脸识别***应用来说,自动地抵抗照片和视频欺骗是人脸识别领域中一个迫切需要解决的问题。
活体人脸的检测主要有以下方法:三维深度信息分析、脸部运动的光流估计、人脸和语音混合识别、傅里叶频谱分析、眨眼检测、热红外成像识别等。以及上述方法中几种方法的融合。随着深度学习的发展,也有一些学者提出将上述方法和深度学习方法相结合的方法。相关技术主要有人脸图像的预处理,人脸区域检测,特征提取,活体分类等。特征提取是人脸活体识别中最重要的一步,目前主要存在基于人脸区域的特征提取方法,基于频谱的特征提取方法,基于运动信息的特征提取方法和基于深度学习的特征提取方法等等。对于分类器的设计,常用的分类方法有支持向量机,神经网络等。总的来说目前的人脸活体识别算法研究着重于特征的提取和分类器的设计,大部分方法不仅无法对抗视频攻击,而且需要额外设备的辅助。由于实际场景下需要在照片和视频攻击中由于电子设备显示屏的原因经常出现摩尔纹,或者手机边框,因此本发明综合边框检测,摩尔纹检测再加上可抵抗静态图片攻击的眨眼检测,可以满足现有活体识别的应用场景需求。
发明内容
本发明的目的在于针对目前基于视觉的人脸活体识别方法存在的不足,提出一种基于深度学习的多分类器融合的人脸活体识别方法,该方法基于传统边框检测、眨眼检测和深度摩尔纹检测进行人脸活体的识别。
本发明的目的是通过以下技术方案来实现的:一种基于深度学习的多分类器融合的人脸活体识别方法,该方法为利用传统边缘特征的边框检测,收集数据并训练深度神经网络的摩尔纹检测,并结合使用人眼关键点位置的眨眼检测,进行多分类器融合的人脸活体分类识别。
进一步的,该方法包括如下步骤:
(1)眨眼检测:对视频F中的待检测视频帧fi进行人脸关键点检测,获得眼部区域关键点坐标,由眼部区域关键点坐标计算人眼开合度Ui,统计人眼开合度Ui小于阈值threshold1的次数z,z小于阈值threshold2则识别为非活体,否则进行下一步检测;
(2)边框检测:通过眨眼检测后,对待检测视频帧fi进行canny边缘检测,然后进行hough变换,计算出现边框的帧数占总帧数的比例,若小于阈值threshold3,则通过边框检测,进入下一步摩尔纹检测,否则识别为非活体;
(3)摩尔纹检测:通过边框检测后,构建并训练深度卷积神经网络,训练后,输入人脸图片后,对于每一小块区域,提取神经网络softmax层的概率值作为分类结果,对所有图片块计算概率加权和P,若P大于阈值threshold4,则识别为非活体,否则识别为活体。
进一步的,所述眨眼检测具体包括如下步骤:
(1.1)输入一段视频F,取待检测视频帧fi;
(1.2)眼部区域关键点坐标获取:使用dlib库中人脸关键点检测算法对待检测视频帧fi进行人脸关键点检测,获得眼部区域关键点坐标;
(1.3)使用上述眼部区域关键点坐标计算人眼开合度Ui,
统计Ui小于阈值threshold1的次数z,z小于阈值threshold2则识别为非活体,否则进行下一步检测。
进一步的,所述边框检测具体包括如下步骤:
对取待检测视频帧fi进行灰度化处理,使用canny边缘提取算法提取灰度图的边缘;将边缘图进行hough变换;在hough变换图中寻找n个像素以上的直线形成的点;统计直线检测结果中直线包含像素的个数,若大于阈值threshold5,则判断为该图片检测为有边框;计算出现边框的帧数,若小于阈值threshold3,则通过边框检测,进入下一步摩尔纹检测,否则识别为非活体。
进一步的,所述摩尔纹检测具体包括如下步骤:
使用手机对着电脑屏幕翻拍人脸图片,图片来自公开人脸数据集,以获取带有摩尔纹的人脸图片;使用标注软件对带有摩尔纹的人脸图片中有摩尔纹的区域进行标注;将标注区域裁切出来,并调整尺寸至固定大小,作为深度卷积神经网络训练的正样本;将公开人脸数据集的原图片,即不带有摩尔纹的人脸图片裁切,调整尺寸至同样固定大小,作为深度卷积神经网络训练的负样本;利用上述正样本和负样本进行训练,得到深度卷积神经网络分类器;
对待检测视频帧fi进行灰度化处理,调整尺寸,并划分成m*n个网格;将每一个小网格区域Si,输入训练好的深度卷积神经网络分类器中,输出其为摩尔纹区域的概率pi;计算上述fi计算总的平均概率值P,若P大于阈值threshold4,则识别为非活体,否则识别为活体。
本发明的有益效果是:本发明使用传统的边缘特征、眨眼运动特征与深度特征分别训练三种检测器,然后利用这些检测器采用一定的识别逻辑构建活体识别分类器,进行人脸活体识别。该活体识别方法使用了近年来流行的深度学习方法提取深度特征,并与人脸关键点(眼睛)区域的结构特征以及图像边缘特征进行融合,同时提出创新性的融合方法,使得人脸活体的识别更加鲁棒。本发明主要有眨眼检测、边框检测、摩尔纹检测、多分类器融合的活体识别方法等步骤。使用该人脸识别方法,可在但单个普通摄像头且用户较少配合的场景下获得较好的效果,为现实场景下人脸活体识别算法的应用做出了一定的贡献。
附图说明
图1是人脸活体识别的主要流程图。
图2是68个人脸关键点展示图;
图3(a)-图3(c)是眨眼检测中的人眼开合度计算模型;
图4(a)是不带有摩尔纹的人脸图片;
图4(b)是带有摩尔纹的人脸图片;
图5是深度神经网络进行摩尔纹分类流程图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步详细说明。
本发明提供的一种基于深度学习的多分类器融合的人脸活体识别方法,该方法为利用传统边缘特征的边框检测,收集数据并训练深度神经网络的摩尔纹检测,并结合使用人眼关键点位置的眨眼检测,进行多分类器融合的人脸活体分类识别。
详细步骤如下:
1.多分类器融合的活体识别算法流程,如图1:
(a)眨眼检测:对视频F中的待检测视频帧fi进行人脸关键点检测,获得眼部区域关键点坐标,由眼部区域关键点坐标计算人眼开合度Ui,统计人眼开合度Ui小于阈值0.25的次数z,z小于阈值2则识别为非活体,否则进行下一步检测;
(b)边框检测:通过眨眼检测后,对待检测视频帧fi进行canny边缘检测,然后进行hough变换,计算出现边框的帧数占总帧数的比例,若小于阈值0.1,则通过边框检测,进入下一步摩尔纹检测,否则识别为非活体;
(c)摩尔纹检测:通过边框检测后,构建深度卷积神经网络,使用数据进行深度卷积神经网络参数的训练;输入人脸图片后,对于每一小块区域,提取神经网络softmax层的概率值作为分类结果,对所有图片块计算概率加权和P,若P大于阈值0.593,则识别为非活体,否则识别为活体。
2.所述眨眼检测具体包括如下步骤:
(a)输入一段视频F,取待检测视频帧fi;
(b)眼部区域关键点坐标获取:使用dlib库中人脸关键点检测算法对待检测帧fi进行人脸关键点检测,获得眼部区域关键点坐标,如图2;
(c)使用上述眼部区域关键点坐标计算人眼开合度Ui,统计Ui小于阈值0.25的次数,则判断视频F出现相应次数的眨眼动作;所述人眼开合度Ui的计算方法为:
其中(xi,yi),i∈[1,6],指图三(a)中检测出的6个眼部特征点,从内眼角开始顺时针经过外眼角最后转回内眼角,按此顺序从1-6进行编号,图3(a)为睁眼图,图3(b)为半睁图,图3(c)为闭眼图,由图3(a)-图3(c)可知Ui的值可以衡量眼睛开合的程度。
3.所述边框检测具体包括如下步骤:
对待检测视频帧fi进行灰度化处理,使用canny边缘提取算法提取灰度图的边缘;将边缘图进行hough变换;在hough变换图中寻找100个像素以上的直线形成的点;统计直线检测结果中直线包含像素的个数,超过阈值30则判断为该图片检测到直线边框,否则判断为无边框;
4.所述摩尔纹检测具体包括如下步骤:
使用手机对着电脑屏幕翻拍人脸图片,图片来自公开人脸数据集,以获取带有摩尔纹的人脸图片,如图4(b);使用labelImg标注软件对上述图片中有摩尔纹的区域进行标注;将上述标注区域裁切出来,并调整尺寸至224×224大小,作为深度网络训练的正样本;将上述公开数据集原图片,即不带有摩尔纹的人脸图片,如图4(a),调整尺寸至224×224大小,作为深度网络训练的负样本;利用上述正样本和负样本进行训练,得到深度卷积神经网络分类器;
对待检测视频帧fi(h,w)进行灰度化处理,调整尺寸至大小,并划分成个网格;将每一个小网格区域Si(大小为224*224),输入训练好的深度神经网络分类器中,输出其为摩尔纹区域的概率pi,如图5;根据以下公式计算概率值P:
若P大于阈值(0.593),则判断该图片含有摩尔纹。
目前现有人脸活体识别领域,大部分方法不仅无法对抗视频攻击,而且需要额外设备的辅助。该方法仅需用户少量配合的,而且仅需单个普通摄像头即可应用。本发明为人脸活体识别方法的应用做出了贡献。
应当说明的是:以上实施例仅用以说明本发明的技术流程而不是对其限制,尽管参照上述实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者等同替换,而未脱离本发明精神和范围的任何修改或者等同替换,其均应该涵盖在本发明的权利要求范围当中。
Claims (5)
1.一种基于深度学习的多分类器融合的人脸活体识别方法,其特征在于,该方法为利用传统边缘特征的边框检测,收集数据并训练深度神经网络的摩尔纹检测,并结合使用人眼关键点位置的眨眼检测,进行多分类器融合的人脸活体分类识别。
2.根据权利要求1所述的一种基于深度学习的多分类器融合的人脸活体识别方法,其特征在于,该方法包括如下步骤:
(1)眨眼检测:对视频F中的待检测视频帧fi进行人脸关键点检测,获得眼部区域关键点坐标,由眼部区域关键点坐标计算人眼开合度Ui,统计人眼开合度Ui小于阈值threshold1的次数z,z小于阈值threshold2则识别为非活体,否则进行下一步检测;
(2)边框检测:通过眨眼检测后,对待检测视频帧fi进行canny边缘检测,然后进行hough变换,计算出现边框的帧数占总帧数的比例,若小于阈值threshold3,则通过边框检测,进入下一步摩尔纹检测,否则识别为非活体;
(3)摩尔纹检测:通过边框检测后,构建并训练深度卷积神经网络,训练后,输入人脸图片后,对于每一小块区域,提取神经网络softmax层的概率值作为分类结果,对所有图片块计算概率加权和P,若P大于阈值threshold4,则识别为非活体,否则识别为活体。
3.根据权利要求2所述的一种基于深度学习的多分类器融合的人脸活体识别方法,其特征在于,所述眨眼检测具体包括如下步骤:
(1.1)输入一段视频F,取待检测视频帧fi;
(1.2)眼部区域关键点坐标获取:使用dlib库中人脸关键点检测算法对待检测视频帧fi进行人脸关键点检测,获得眼部区域关键点坐标;
(1.3)使用上述眼部区域关键点坐标计算人眼开合度Ui,
统计Ui小于阈值threshold1的次数z,z小于阈值threshold2则识别为非活体,否则进行下一步检测。
4.根据权利要求3所述的一种基于深度学习的多分类器融合的人脸活体识别方法,其特征在于,所述边框检测具体包括如下步骤:
对取待检测视频帧fi进行灰度化处理,使用canny边缘提取算法提取灰度图的边缘;将边缘图进行hough变换;在hough变换图中寻找n个像素以上的直线形成的点;统计直线检测结果中直线包含像素的个数,若大于阈值threshold5,则判断为该图片检测为有边框;计算出现边框的帧数,若小于阈值threshold3,则通过边框检测,进入下一步摩尔纹检测,否则识别为非活体。
5.根据权利要求4所述的一种基于深度学习的多分类器融合的人脸活体识别方法,其特征在于,所述摩尔纹检测具体包括如下步骤:
使用手机对着电脑屏幕翻拍人脸图片,图片来自公开人脸数据集,以获取带有摩尔纹的人脸图片;使用标注软件对带有摩尔纹的人脸图片中有摩尔纹的区域进行标注;将标注区域裁切出来,并调整尺寸至固定大小,作为深度卷积神经网络训练的正样本;将公开人脸数据集的原图片,即不带有摩尔纹的人脸图片裁切,调整尺寸至同样固定大小,作为深度卷积神经网络训练的负样本;利用上述正样本和负样本进行训练,得到深度卷积神经网络分类器;
对待检测视频帧fi进行灰度化处理,调整尺寸,并划分成m*n个网格;将每一个小网格区域Si,输入训练好的深度卷积神经网络分类器中,输出其为摩尔纹区域的概率pi;计算上述fi计算总的平均概率值P,若P大于阈值threshold4,则识别为非活体,否则识别为活体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811510432.1A CN109670430A (zh) | 2018-12-11 | 2018-12-11 | 一种基于深度学习的多分类器融合的人脸活体识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811510432.1A CN109670430A (zh) | 2018-12-11 | 2018-12-11 | 一种基于深度学习的多分类器融合的人脸活体识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109670430A true CN109670430A (zh) | 2019-04-23 |
Family
ID=66143843
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811510432.1A Pending CN109670430A (zh) | 2018-12-11 | 2018-12-11 | 一种基于深度学习的多分类器融合的人脸活体识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109670430A (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110348511A (zh) * | 2019-07-08 | 2019-10-18 | 创新奇智(青岛)科技有限公司 | 一种图片翻拍检测方法、***及电子设备 |
CN110348385A (zh) * | 2019-07-12 | 2019-10-18 | 苏州小阳软件科技有限公司 | 活体人脸识别方法和装置 |
CN110399780A (zh) * | 2019-04-26 | 2019-11-01 | 努比亚技术有限公司 | 一种人脸检测方法、装置及计算机可读存储介质 |
CN110688946A (zh) * | 2019-09-26 | 2020-01-14 | 上海依图信息技术有限公司 | 基于图片识别的公有云静默活体检测设备和方法 |
CN110969109A (zh) * | 2019-11-26 | 2020-04-07 | 华中科技大学 | 一种非受限条件下眨眼检测模型及其构建方法和应用 |
CN111144425A (zh) * | 2019-12-27 | 2020-05-12 | 五八有限公司 | 检测拍屏图片的方法、装置、电子设备及存储介质 |
CN111428570A (zh) * | 2020-02-27 | 2020-07-17 | 深圳壹账通智能科技有限公司 | 非活体人脸的检测方法、装置、计算机设备及存储介质 |
CN111860056A (zh) * | 2019-04-29 | 2020-10-30 | 北京眼神智能科技有限公司 | 基于眨眼的活体检测方法、装置、可读存储介质及设备 |
CN112183357A (zh) * | 2020-09-29 | 2021-01-05 | 深圳龙岗智能视听研究院 | 一种基于深度学习的多尺度活体检测方法及*** |
CN112766175A (zh) * | 2021-01-21 | 2021-05-07 | 宠爱王国(北京)网络科技有限公司 | 活体检测方法、装置及非易失性存储介质 |
CN113343889A (zh) * | 2021-06-23 | 2021-09-03 | 的卢技术有限公司 | 基于静默活体检测的人脸识别*** |
CN113688663A (zh) * | 2021-02-23 | 2021-11-23 | 北京澎思科技有限公司 | 人脸检测方法、装置、电子设备以及可读存储介质 |
US11443559B2 (en) | 2019-08-29 | 2022-09-13 | PXL Vision AG | Facial liveness detection with a mobile device |
CN115242554A (zh) * | 2022-09-21 | 2022-10-25 | 航天宏图信息技术股份有限公司 | 一种基于安全沙箱的数据使用权交易方法及*** |
CN115690892A (zh) * | 2023-01-03 | 2023-02-03 | 京东方艺云(杭州)科技有限公司 | 一种眯眼识别方法、装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107609494A (zh) * | 2017-08-31 | 2018-01-19 | 北京飞搜科技有限公司 | 一种基于静默式的人脸活体检测方法及*** |
CN108140123A (zh) * | 2017-12-29 | 2018-06-08 | 深圳前海达闼云端智能科技有限公司 | 人脸活体检测方法、电子设备和计算机程序产品 |
CN108229325A (zh) * | 2017-03-16 | 2018-06-29 | 北京市商汤科技开发有限公司 | 人脸检测方法和***、电子设备、程序和介质 |
-
2018
- 2018-12-11 CN CN201811510432.1A patent/CN109670430A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229325A (zh) * | 2017-03-16 | 2018-06-29 | 北京市商汤科技开发有限公司 | 人脸检测方法和***、电子设备、程序和介质 |
CN107609494A (zh) * | 2017-08-31 | 2018-01-19 | 北京飞搜科技有限公司 | 一种基于静默式的人脸活体检测方法及*** |
CN108140123A (zh) * | 2017-12-29 | 2018-06-08 | 深圳前海达闼云端智能科技有限公司 | 人脸活体检测方法、电子设备和计算机程序产品 |
Non-Patent Citations (1)
Title |
---|
TEREZA SOUKUPOV´A等: "Real-Time Eye Blink Detection using Facial Landmarks", 《21ST COMPUTER VISION WINTER WORKSHOP》 * |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110399780A (zh) * | 2019-04-26 | 2019-11-01 | 努比亚技术有限公司 | 一种人脸检测方法、装置及计算机可读存储介质 |
CN110399780B (zh) * | 2019-04-26 | 2023-09-29 | 努比亚技术有限公司 | 一种人脸检测方法、装置及计算机可读存储介质 |
CN111860056B (zh) * | 2019-04-29 | 2023-10-20 | 北京眼神智能科技有限公司 | 基于眨眼的活体检测方法、装置、可读存储介质及设备 |
CN111860056A (zh) * | 2019-04-29 | 2020-10-30 | 北京眼神智能科技有限公司 | 基于眨眼的活体检测方法、装置、可读存储介质及设备 |
CN110348511A (zh) * | 2019-07-08 | 2019-10-18 | 创新奇智(青岛)科技有限公司 | 一种图片翻拍检测方法、***及电子设备 |
CN110348385A (zh) * | 2019-07-12 | 2019-10-18 | 苏州小阳软件科技有限公司 | 活体人脸识别方法和装置 |
CN110348385B (zh) * | 2019-07-12 | 2023-07-07 | 深圳小阳软件有限公司 | 活体人脸识别方法和装置 |
US11443559B2 (en) | 2019-08-29 | 2022-09-13 | PXL Vision AG | Facial liveness detection with a mobile device |
US11669607B2 (en) | 2019-08-29 | 2023-06-06 | PXL Vision AG | ID verification with a mobile device |
CN110688946A (zh) * | 2019-09-26 | 2020-01-14 | 上海依图信息技术有限公司 | 基于图片识别的公有云静默活体检测设备和方法 |
CN110969109A (zh) * | 2019-11-26 | 2020-04-07 | 华中科技大学 | 一种非受限条件下眨眼检测模型及其构建方法和应用 |
CN110969109B (zh) * | 2019-11-26 | 2023-04-18 | 华中科技大学 | 一种非受限条件下眨眼检测模型及其构建方法和应用 |
CN111144425A (zh) * | 2019-12-27 | 2020-05-12 | 五八有限公司 | 检测拍屏图片的方法、装置、电子设备及存储介质 |
CN111144425B (zh) * | 2019-12-27 | 2024-02-23 | 五八有限公司 | 检测拍屏图片的方法、装置、电子设备及存储介质 |
CN111428570A (zh) * | 2020-02-27 | 2020-07-17 | 深圳壹账通智能科技有限公司 | 非活体人脸的检测方法、装置、计算机设备及存储介质 |
CN112183357A (zh) * | 2020-09-29 | 2021-01-05 | 深圳龙岗智能视听研究院 | 一种基于深度学习的多尺度活体检测方法及*** |
CN112183357B (zh) * | 2020-09-29 | 2024-03-26 | 深圳龙岗智能视听研究院 | 一种基于深度学习的多尺度活体检测方法及*** |
CN112766175A (zh) * | 2021-01-21 | 2021-05-07 | 宠爱王国(北京)网络科技有限公司 | 活体检测方法、装置及非易失性存储介质 |
CN112766175B (zh) * | 2021-01-21 | 2024-05-28 | 宠爱王国(北京)网络科技有限公司 | 活体检测方法、装置及非易失性存储介质 |
CN113688663A (zh) * | 2021-02-23 | 2021-11-23 | 北京澎思科技有限公司 | 人脸检测方法、装置、电子设备以及可读存储介质 |
CN113343889A (zh) * | 2021-06-23 | 2021-09-03 | 的卢技术有限公司 | 基于静默活体检测的人脸识别*** |
CN115242554A (zh) * | 2022-09-21 | 2022-10-25 | 航天宏图信息技术股份有限公司 | 一种基于安全沙箱的数据使用权交易方法及*** |
CN115690892A (zh) * | 2023-01-03 | 2023-02-03 | 京东方艺云(杭州)科技有限公司 | 一种眯眼识别方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109670430A (zh) | 一种基于深度学习的多分类器融合的人脸活体识别方法 | |
WO2020151489A1 (zh) | 基于面部识别的活体检测的方法、电子设备和存储介质 | |
CN104050471B (zh) | 一种自然场景文字检测方法及*** | |
CN107909081B (zh) | 一种深度学习中图像数据集的快速获取和快速标定方法 | |
CN109858439A (zh) | 一种基于人脸的活体检测方法及装置 | |
CN108647625A (zh) | 一种表情识别方法及装置 | |
CN109684925A (zh) | 一种基于深度图像的人脸活体检测方法及设备 | |
KR20170006355A (ko) | 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치 | |
CN108446690B (zh) | 一种基于多视角动态特征的人脸活体检测方法 | |
CN111222433B (zh) | 自动人脸稽核方法、***、设备及可读存储介质 | |
CN107798279A (zh) | 一种人脸活体检测方法及装置 | |
CN106709438A (zh) | 一种基于视频会议的人数统计方法 | |
CN107358163A (zh) | 基于人脸识别的游客线路跟踪统计方法、电子设备及存储介质 | |
CN111079688A (zh) | 一种人脸识别中的基于红外图像的活体检测的方法 | |
CN108960142A (zh) | 基于全局特征损失函数的行人再识别方法 | |
Zhu et al. | Towards automatic wild animal detection in low quality camera-trap images using two-channeled perceiving residual pyramid networks | |
CN113191216A (zh) | 基于姿态识别和c3d网络的多人实时动作识别方法和*** | |
Sakthimohan et al. | Detection and Recognition of Face Using Deep Learning | |
CN108363944A (zh) | 人脸识别终端双摄防伪方法、装置及*** | |
CN111274851A (zh) | 一种活体检测方法及装置 | |
CN112488165A (zh) | 一种基于深度学习模型的红外行人识别方法及*** | |
CN110390313A (zh) | 一种暴力动作检测方法及*** | |
CN105184244B (zh) | 视频人脸检测方法及装置 | |
Mishra | Persuasive boundary point based face detection using normalized edge detection in regular expression face morphing | |
CN112149598A (zh) | 一种侧脸评估方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190423 |