CN109376694B - 一种基于图像处理的实时人脸活体检测方法 - Google Patents
一种基于图像处理的实时人脸活体检测方法 Download PDFInfo
- Publication number
- CN109376694B CN109376694B CN201811403495.7A CN201811403495A CN109376694B CN 109376694 B CN109376694 B CN 109376694B CN 201811403495 A CN201811403495 A CN 201811403495A CN 109376694 B CN109376694 B CN 109376694B
- Authority
- CN
- China
- Prior art keywords
- image
- face
- face image
- module
- focusing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
一种基于图像处理的实时人脸活体检测方法,采用以下步骤,步骤1:图像采集装置实时获取图像,将获取的图像传送到图像处理模块中;步骤2:图像处理模块对图像进行去噪预处理,将预处理完成的图像输送到人脸检测模块中;步骤3:人脸检测模块对预处理完成的图像进行检测,分析预处理完成的图像中是否存在人脸图像,如果存在人脸图像,则进入下一步骤,否则,回到步骤1;步骤4:人脸检测模块确定人脸图像在预处理完成的图像中的位置;步骤5:人脸检测模块定位人脸图像中的鼻子区域和耳朵区域,得到鼻子区域和耳朵区域在人脸图像中的位置参数。
Description
技术领域
本发明涉及图像处理领域,具体涉及一种基于图像处理的实时人脸活体检测方法。
背景技术
随着人脸识别技术及***在各行各业的蓬勃发展(包括银行、手机支付、机场等),人脸识别***的安全漏洞越来越受到重视,人们迫切地希望增加对个人身份的反欺骗手段,也就是对人脸进行活体检测,从而识别出伪造他人身份的不法行为。
目前,人脸活体检测技术按照活体检测流程可分为以下两类:(1)交互式人脸活体检测:现有的交互式人脸活体检测技术通过人机交互完成,比如人脸活体检测***要求用户朗读一串文字或者数字,利用语音识别或者唇语识别技术完成活体检测,或者要求用户完成几个相应的动作,比如张嘴、睁闭眼、左右转头等,用以区分真实人脸和2D打印图片、视频回放等欺骗行为。此类人脸活体检测技术用户配合时间长,体验差,而随着近来人脸合成技术的巨大发展,利用图片合成任意动作,并在高清设备下播放,给此类人脸活体检测技术提出了更大的挑战。
(2)非交互式人脸活体检测:在活体检测过程中,不需要人机之间的交互,更加的便捷与友好,用户体验更好。但此类技术通常基于两个及以上的摄像头获取人脸的图像,硬件成本较高。
发明内容
本发明针对现有技术的不足,提出一种基于图像处理的实时人脸活体检测方法,具体技术方案如下:一种基于图像处理的实时人脸活体检测方法,其特征在于:
采用以下步骤,
步骤1:图像采集装置实时获取图像,将获取的图像传送到图像处理模块中;
步骤2:图像处理模块对图像进行去噪预处理,将预处理完成的图像输送到人脸检测模块中;
步骤3:人脸检测模块对预处理完成的图像进行检测,分析预处理完成的图像中是否存在人脸图像,如果存在人脸图像,则进入下一步骤,否则,回到步骤1;
步骤4:人脸检测模块确定人脸图像在预处理完成的图像中的位置;
步骤5:人脸检测模块定位人脸图像中的鼻子区域和耳朵区域,得到鼻子区域和耳朵区域在人脸图像中的位置参数;
步骤6:人脸检测模块将所述位置参数传递到调焦距模块中;
步骤7:所述调焦距模块根据鼻子区域的位置参数对图像采集装置进行第一次焦距调节,图像采集装置聚焦在步骤4中人脸图像的鼻子区域,得到第一调焦人脸图像;
步骤8:所述调焦距模块根据耳朵区域的位置参数对图像采集装置进行第二次焦距调节,图像采集装置聚焦在步骤4中人脸图像的耳朵区域,得到第二调焦人脸图像;
步骤9:图像处理模块提取第一调焦人脸图像和第二调焦人脸图像中的深度特征信息;
建立深度卷积神经网络,将第一调焦人脸图像和第二调焦人脸图像中的深度特征信息作为输入参数,输入到深度卷积神经网络中,深度卷积神经网络输出的分类结果对应为真实人脸和伪造人脸。
进一步地:所述深度卷积神经网络为FASNet,该深度卷积神经网络FASNet包括两个组成模块,第一个模块是特征提取模块,由五个DP-Block组成,每个DP-Block包含一个深度卷积层、一个点卷积层、两个批归一化BN层和两个修正线性单元ReLU激活层;
第二个部分是分类模块,由一个普通卷积层替代的全连接层和一个Softmax层组成。
本发明的有益效果为:为了解决上述人脸活体检测方法的缺点,本发明提供了一种基于非交互式的人脸活体检测方法与***,且只需要一个摄像头,降低了硬件的成本。该方法在无需用户配合的情况下,通过连续两次调整摄像头的焦距,实时捕捉到连续两帧人脸图像,并通过深度学习的技术,基于本发明所提出的快速卷积神经网络进行特征的提取与活体的检测。相对于其他活体检测方法,本发明的优点是:
第一,无需用户配合,用户体验佳;
第二,安全性高,可准确识别各种材质的打印纸张、视频回放,不受打印纸张与电子屏幕高清程度的影响。
第三,基于快速的卷积神经网络,速度快,鲁棒性强,准确度高。
附图说明
图1为本发明的工作流程图。
具体实施方式
下面结合附图对本发明的较佳实施例进行详细阐述,以使本发明的优点和特征能更易于被本领域技术人员理解,从而对本发明的保护范围做出更为清楚明确的界定。
如图1所示:一种基于图像处理的实时人脸活体检测方法,
采用以下步骤,
步骤1:图像采集装置实时获取图像,将获取的图像传送到图像处理模块中;
步骤2:图像处理模块对图像进行去噪预处理,将预处理完成的图像输送到人脸检测模块中;
步骤3:人脸检测模块对预处理完成的图像进行检测,分析预处理完成的图像中是否存在人脸图像,如果存在人脸图像,则进入下一步骤,否则,回到步骤1;
步骤4:人脸检测模块确定人脸图像在预处理完成的图像中的位置;
步骤5:人脸检测模块定位人脸图像中的鼻子区域和耳朵区域,得到鼻子区域和耳朵区域在人脸图像中的位置参数;
步骤6:人脸检测模块将位置参数传递到调焦距模块中;
步骤7:调焦距模块根据鼻子区域的位置参数对图像采集装置进行第一次焦距调节,图像采集装置聚焦在步骤4中人脸图像的鼻子区域,得到第一调焦人脸图像;
步骤8:调焦距模块根据耳朵区域的位置参数对图像采集装置进行第二次焦距调节,图像采集装置聚焦在步骤4中人脸图像的耳朵区域,得到第二调焦人脸图像;
步骤9:图像处理模块提取第一调焦人脸图像和第二调焦人脸图像中的深度特征信息;
建立深度卷积神经网络,将第一调焦人脸图像和第二调焦人脸图像中的深度特征信息作为输入参数,输入到深度卷积神经网络中,深度卷积神经网络输出的分类结果对应为真实人脸和伪造人脸。
深度卷积神经网络为FASNet,该深度卷积神经网络FASNet包括两个组成模块,第一个模块是特征提取模块,由五个DP-Block组成,每个DP-Block包含一个深度卷积层、一个点卷积层、两个批归一化BN层和两个修正线性单元ReLU激活层;
第二个部分是分类模块,由一个普通卷积层替代的全连接层和一个Softmax层组成。
其中,深度卷积层和点卷积层的结构与MobileNet中的深度可分离卷积结构一致,此类结构能够大幅减少模型的参数个数与计算量,达到加速计算的目的。最终,分类网络输出一个范围为[0,1]的概率值,判断是否是真实人脸。本发明提出的FASNet网络模型大小只有168KB,在Intel(R)Core(TM)[email protected]处理下测试时间为10ms以内,且精度高,快速实时部署的能力强。
Claims (1)
1.一种基于图像处理的实时人脸活体检测方法,其特征在于:采用以下步骤,
步骤1:图像采集装置实时获取图像,将获取的图像传送到图像处理模块中;
步骤2:图像处理模块对图像进行去噪预处理,将预处理完成的图像输送到人脸检测模块中;
步骤3:人脸检测模块对预处理完成的图像进行检测,分析预处理完成的图像中是否存在人脸图像,如果存在人脸图像,则进入下一步骤,否则,回到步骤1;
步骤4:人脸检测模块确定人脸图像在预处理完成的图像中的位置;
步骤5:人脸检测模块定位人脸图像中的鼻子区域和耳朵区域,得到鼻子区域和耳朵区域在人脸图像中的位置参数;
步骤6:人脸检测模块将所述位置参数传递到调焦距模块中;
步骤7:所述调焦距模块根据鼻子区域的位置参数对图像采集装置进行第一次焦距调节,图像采集装置聚焦在步骤5中人脸图像的鼻子区域,得到第一调焦人脸图像;
步骤8:所述调焦距模块根据耳朵区域的位置参数对图像采集装置进行第二次焦距调节,图像采集装置聚焦在步骤5中人脸图像的耳朵区域,得到第二调焦人脸图像;
所述第一调焦人脸图像与所述第二调焦人脸图像为连续两帧人脸图像;
步骤9:图像处理模块提取第一调焦人脸图像和第二调焦人脸图像中的深度特征信息;建立深度卷积神经网络,将第一调焦人脸图像和第二调焦人脸图像中的深度特征信息作为输入参数,输入到深度卷积神经网络中,深度卷积神经网络输出的分类结果对应为真实人脸和伪造人脸;
所述深度卷积神经网络为FASNet,该FASNet为Fast Anti-SpoofNet,该深度卷积神经网络FASNet包括两个组成模块,第一个模块是特征提取模块,由五个DP-Block组成,每个DP-Block包含一个深度卷积层、一个点卷积层、两个批归一化BN层和两个修正线性单元ReLU激活层;第二个部分是分类模块,由一个普通卷积层替代的全连接层和一个Softmax层组成。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811403495.7A CN109376694B (zh) | 2018-11-23 | 2018-11-23 | 一种基于图像处理的实时人脸活体检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811403495.7A CN109376694B (zh) | 2018-11-23 | 2018-11-23 | 一种基于图像处理的实时人脸活体检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109376694A CN109376694A (zh) | 2019-02-22 |
CN109376694B true CN109376694B (zh) | 2021-01-22 |
Family
ID=65383104
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811403495.7A Active CN109376694B (zh) | 2018-11-23 | 2018-11-23 | 一种基于图像处理的实时人脸活体检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109376694B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111027400A (zh) * | 2019-11-15 | 2020-04-17 | 烟台市广智微芯智能科技有限责任公司 | 一种活体检测方法及装置 |
CN113033406A (zh) * | 2021-03-26 | 2021-06-25 | 睿云联(厦门)网络通讯技术有限公司 | 基于深度可分离圆心差分卷积的人脸活体检测方法及*** |
CN113743196A (zh) * | 2021-07-23 | 2021-12-03 | 北京眼神智能科技有限公司 | 活体检测方法、装置及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100026830A1 (en) * | 2008-07-31 | 2010-02-04 | Samsung Digital Imaging Co., Ltd. | Self-timer photographing apparatus and method involving checking the number of persons |
CN104794465A (zh) * | 2015-05-13 | 2015-07-22 | 上海依图网络科技有限公司 | 一种基于姿态信息的活体检测方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100715323B1 (ko) * | 2004-10-11 | 2007-05-07 | (주)버뮤다정보기술 | 얼굴인식기술을 이용한 전자금융 부정 거래 방지 장치 및방법 |
CN107066942A (zh) * | 2017-03-03 | 2017-08-18 | 上海斐讯数据通信技术有限公司 | 一种活体人脸识别方法及*** |
CN107545245A (zh) * | 2017-08-14 | 2018-01-05 | 中国科学院半导体研究所 | 一种年龄估计方法及设备 |
CN108171204B (zh) * | 2018-01-17 | 2019-09-17 | 百度在线网络技术(北京)有限公司 | 检测方法和装置 |
-
2018
- 2018-11-23 CN CN201811403495.7A patent/CN109376694B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100026830A1 (en) * | 2008-07-31 | 2010-02-04 | Samsung Digital Imaging Co., Ltd. | Self-timer photographing apparatus and method involving checking the number of persons |
CN104794465A (zh) * | 2015-05-13 | 2015-07-22 | 上海依图网络科技有限公司 | 一种基于姿态信息的活体检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109376694A (zh) | 2019-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108921100B (zh) | 一种基于可见光图像与红外图像融合的人脸识别方法及*** | |
CN104361276B (zh) | 一种多模态生物特征身份认证方法及*** | |
CN109376694B (zh) | 一种基于图像处理的实时人脸活体检测方法 | |
CN108470169A (zh) | 人脸识别***及方法 | |
EP3007104A1 (en) | Object detection and recognition under out of focus conditions | |
CN104376250A (zh) | 基于音型像特征的真人活体身份验证方法 | |
CN104077579A (zh) | 基于专家***的人脸表情图像识别方法 | |
CN112084927A (zh) | 一种融合多种视觉信息的唇语识别方法 | |
KR102160137B1 (ko) | 특징점 변동을 이용한 위조 얼굴 판별장치 및 그 방법 | |
CN108960153A (zh) | 一种自适应虹膜识别的方法和设备 | |
CN113627256B (zh) | 基于眨眼同步及双目移动检测的伪造视频检验方法及*** | |
CN208351494U (zh) | 人脸识别*** | |
Winarno et al. | Anti-cheating presence system based on 3WPCA-dual vision face recognition | |
Makarov et al. | Russian sign language dactyl recognition | |
Patil et al. | Guidance system for visually impaired people | |
Chang et al. | Personalized facial expression recognition in indoor environments | |
CN111241505A (zh) | 一种终端设备及其登录验证方法、计算机存储介质 | |
Chiţu et al. | Comparison between different feature extraction techniques for audio-visual speech recognition | |
Haq et al. | Using lip reading recognition to predict daily Mandarin conversation | |
KR102012719B1 (ko) | 전방위 영상 기반 화상회의 발언자 인식 장치 및 방법 | |
Patil et al. | Task-driven attentional mechanisms for auditory scene recognition | |
Kahfi et al. | Lip Motion Recognition for Indonesian Vowel Phonemes Using 3D Convolutional Neural Networks | |
CN113343889A (zh) | 基于静默活体检测的人脸识别*** | |
Tang et al. | Multimodal emotion recognition (MER) system | |
Park et al. | Exploring Phonetic Context-Aware Lip-Sync for Talking Face Generation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 401122 5 stories, Block 106, West Jinkai Avenue, Yubei District, Chongqing Applicant after: Chongqing Zhongke Yuncong Technology Co., Ltd. Address before: 401121 5 stories, Block 106, West Jinkai Avenue, Yubei District, Chongqing Applicant before: CHONGQING ZHONGKE YUNCONG TECHNOLOGY CO., LTD. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |