CN110059590B - 一种人脸活体验证方法、装置、移动终端及可读存储介质 - Google Patents

一种人脸活体验证方法、装置、移动终端及可读存储介质 Download PDF

Info

Publication number
CN110059590B
CN110059590B CN201910252907.XA CN201910252907A CN110059590B CN 110059590 B CN110059590 B CN 110059590B CN 201910252907 A CN201910252907 A CN 201910252907A CN 110059590 B CN110059590 B CN 110059590B
Authority
CN
China
Prior art keywords
face
images
eye
mobile terminal
ear
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910252907.XA
Other languages
English (en)
Other versions
CN110059590A (zh
Inventor
徐爱辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nubia Technology Co Ltd
Original Assignee
Nubia Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nubia Technology Co Ltd filed Critical Nubia Technology Co Ltd
Priority to CN201910252907.XA priority Critical patent/CN110059590B/zh
Publication of CN110059590A publication Critical patent/CN110059590A/zh
Application granted granted Critical
Publication of CN110059590B publication Critical patent/CN110059590B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Telephone Function (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种人脸活体验证方法、装置、移动终端及计算机可读存储介质,应用于移动终端领域,包括:利用移动终端的左右摄像头拍摄人脸图像;分别对拍摄到的左右人脸图像进行畸变矫正和行对齐;分别对经过矫正的左右人脸图像进行人脸检测;对经过人脸检测的左右图像进行匹配人脸关键点;根据所述人脸关键点之间的距离进行活体判断。通过本发明实施例,在利用人脸识别认证时,可以有效抵御图像、视频等攻击,方法简单可靠成熟,并且速度快,降低安全隐患,提高用户体验。

Description

一种人脸活体验证方法、装置、移动终端及可读存储介质
技术领域
本发明涉及移动终端领域,特别涉及一种基于双目摄像头的人脸活体验证方法、装置、移动终端及计算机可读存储介质。
背景技术
随着社会的发展,人脸识别越来越多的应用到各类产品中。虽然人脸识别的应用得到了推广,但用户体验不好。例如,利用人脸识别认证的时候,需要人不停的眨眼睛来确认镜头面前是个活体,这会存在两个方面的缺陷:
(1)有时候就眨眼睛不及时,或者是不明显根本不能通过活体检测;
(2)容易受图像、视频的攻击。
由于现有的人脸识别存在以上的缺陷,造成利用人脸识别来进行安全认证时,存在安全隐患,且用户体验不好。
发明内容
有鉴于此,本发明的目的在于提供一种基于双目摄像头的人脸活体验证方法、装置、移动终端及计算机可读存储介质,在利用人脸识别认证时,可以有效抵御图像、视频等攻击,方法简单可靠成熟,并且速度快,降低安全隐患,提高用户体验。
本发明解决上述技术问题所采用的技术方案如下:
根据本发明的一个方面,提供的一种人脸活体验证方法,应用于移动终端,所述方法包括:
利用移动终端的左右摄像头拍摄人脸图像;
分别对拍摄到的左右人脸图像进行畸变矫正和行对齐;
分别对经过矫正的左右人脸图像进行人脸检测;
对经过人脸检测的左右图像进行匹配人脸关键点
根据所述人脸关键点之间的距离进行活体判断。
在一个可能的设计中,所述分别对拍摄到的左右人脸图像进行畸变矫正和行对齐,包括:
将左右摄像头拍摄到的人脸图像进行畸变矫正;
对经过畸变矫正的左右人脸图像进行双目校正。
在一个可能的设计中,所述对经过畸变矫正的左右人脸图像进行双目校正,包括:将经过畸变矫正的左右摄像头拍摄到的人脸图像进行旋转,进行双目校正,使双目摄像头获取的图像能够在数学上保持对齐。
在一个可能的设计中,所述分别对经过矫正的左右人脸图像进行人脸检测,包括:采用基于深度学习的mtcnn算法检测获取经过矫正的左右人脸图像中人脸框的位置,以及人脸的关键点信息。
在一个可能的设计中,所述对经过人脸检测的左右人脸图像进行匹配人脸关键点,包括:根据获取到人脸框和人脸关键点信息,匹配左右人脸图像中的左右人脸的关键点位置。
在一个可能的设计中,所述根据所述人脸关键点之间的距离进行活体判断,包括:
确定左右耳朵到摄像镜头的距离;
确定左右眼睛到镜头的距离;
确定左眼睛到耳朵的深度距离Dist_eyeToRose;
确定左眼睛到右眼睛的深度距离Dist_eyeToeye;
确定人脸旋转角度angle;
根据所述左眼睛到耳朵的深度距离Dist_eyeToRose和所述人脸旋转角度angle进行活体判断,或者,根据所述左眼睛到右眼睛的深度距离Dist_eyeToeye和所述人脸旋转角度angle进行活体判断。
在一个可能的设计中,所述根据所述左眼睛到耳朵的深度距离Dist_eyeToRose和所述人脸旋转角度angle进行活体判断;包括:当确定人脸旋转角度为[0,angle]范围内时,设置阈值T1:Dist_eyeToRose<T时,为非活体攻击;或者,
所述根据所述左眼睛到右眼睛的深度距离Dist_eyeToeye和所述人脸旋转角度angle进行活体判断,包括:当确定人脸旋转角度为[angle,90]范围时,判断左右眼睛间的深度差:设置阈值T1:Dist_eyeToeye<T1时,为非活体攻击。
根据本发明的另一个方面,提供的一种人脸活体验证装置,应用于移动终端,所述装置包括:拍摄模块、矫正和行对齐模块、检测模块、匹配模块、判断模块,其中:
所述拍摄模块,用于利用移动终端的左右摄像头拍摄人脸图像;
所述矫正和行对齐模块,用于分别对拍摄到的左右人脸图像进行畸变矫正和行对齐;
所述检测模块,用于分别对经过矫正的左右人脸图像进行人脸检测;
所述匹配模块,用于对经过人脸检测的左右图像进行匹配人脸关键点;
所述判断模块,用于根据所述人脸关键点之间的距离进行活体判断。
根据本发明的另一个方面,提供的一种终端,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现本发明实施例提供的所述的一种人脸活体验证方法的步骤。
根据本发明的另一个方面,提供的一种计算机可读存储介质,所述计算机可读存储介质上存储有人脸活体验证方法程序,所述人脸活体验证方法程序被处理器执行时实现本发明实施例提供的所述的一种人脸活体验证方法的步骤。
与现有技术相比,本发明提出了一种基于双目摄像头的人脸活体验证方法、装置、移动终端及计算机可读存储介质,应用于移动终端领域,包括:利用移动终端的左右摄像头拍摄人脸图像;分别对拍摄到的左右人脸图像进行畸变矫正和行对齐;分别对经过矫正的左右人脸图像进行人脸检测;对经过人脸检测的左右图像进行匹配人脸关键点;根据所述人脸关键点之间的距离进行活体判断。通过本发明实施例,在利用人脸识别认证时,可以有效抵御图像、视频等攻击,方法简单可靠成熟,并且速度快,降低安全隐患,提高用户体验。
附图说明
图1为实现本发明各个实施例的一种移动终端的硬件结构示意图;
图2为本发明实施例提供的一种通信网络***架构图;
图3为本发明实施例提供的一种人脸活体验证方法的流程示意图;
图4为本发明实施例提供的一种人脸活体验证装置的结构示意图;
图5为本发明实施例提供的一种人脸活体验证方法的流程示意图;
图6为本发明实施例提供的一种人脸活体验证方法的流程示意图;
图7为本发明实施例提供的一种基于双目摄像头的人脸活体验证方法的流程示意图;
图8为本发明实施例提供的一种基于双目摄像头的人脸活体验证方法的流程示意图;
图9为本发明实施例提供的一种基于双目摄像头的人脸活体验证方法的流程示意图;
图10为本发明实施例提供的一种基于双目摄像头的人脸活体验证方法的流程示意图;
图11为本发明实施例提供的应用本发明方法的移动终端结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本发明所要解决的技术问题、技术方案及有益效果更加清楚、明白,以下结合附图和实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅以解释本发明,并不用于限定本发明。
在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身没有特定的意义。因此,“模块”、“部件”或“单元”可以混合地使用。
终端可以以各种形式来实施。例如,本发明中描述的终端可以包括诸如手机、平板电脑、笔记本电脑、掌上电脑、个人数字助理(Personal Digital Assistant,PDA)、便捷式媒体播放器(Portable Media Player,PMP)、导航装置、可穿戴设备、智能手环、计步器等移动终端,以及诸如数字TV、台式计算机等固定终端。
后续描述中将以移动终端为例进行说明,本领域技术人员将理解的是,除了特别用于移动目的的元件之外,根据本发明的实施方式的构造也能够应用于固定类型的终端。
请参阅图1,其为实现本发明各个实施例的一种移动终端的硬件结构示意图,该移动终端100可以包括:RF(Radio Frequency,射频)单元101、WiFi模块102、音频输出单元103、A/V(音频/视频)输入单元104、传感器105、显示单元106、用户输入单元107、接口单元108、存储器109、处理器110、以及电源111等部件。本领域技术人员可以理解,图1中示出的移动终端结构并不构成对移动终端的限定,移动终端可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图1对移动终端的各个部件进行具体的介绍:
射频单元101可用于收发信息或通话过程中,信号的接收和发送,具体的,将基站的下行信息接收后,给处理器110处理;另外,将上行的数据发送给基站。通常,射频单元101包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元101还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于GSM(Global System of Mobile communication,全球移动通讯***)、GPRS(General Packet Radio Service,通用分组无线服务)、CDMA2000(CodeDivision Multiple Access 2000,码分多址2000)、WCDMA(Wideband Code DivisionMultiple Access,宽带码分多址)、TD-SCDMA(Time Division-Synchronous CodeDivision Multiple Access,时分同步码分多址)、FDD-LTE(Frequency DivisionDuplexing-Long Term Evolution,频分双工长期演进)和TDD-LTE(Time DivisionDuplexing-Long Term Evolution,分时双工长期演进)等。
WiFi属于短距离无线传输技术,移动终端通过WiFi模块102可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图1示出了WiFi模块102,但是可以理解的是,其并不属于移动终端的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
音频输出单元103可以在移动终端100处于呼叫信号接收模式、通话模式、记录模式、语音识别模式、广播接收模式等等模式下时,将射频单元101或WiFi模块102接收的或者在存储器109中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元103还可以提供与移动终端100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元103可以包括扬声器、蜂鸣器等等。
A/V输入单元104用于接收音频或视频信号。A/V输入单元104可以包括图形处理器(Graphics Processing Unit,GPU)1041和麦克风1042,图形处理器1041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元106上。经图形处理器1041处理后的图像帧可以存储在存储器109(或其它存储介质)中或者经由射频单元101或WiFi模块102进行发送。麦克风1042可以在电话通话模式、记录模式、语音识别模式等等运行模式中经由麦克风1042接收声音(音频数据),并且能够将这样的声音处理为音频数据。处理后的音频(语音)数据可以在电话通话模式的情况下转换为可经由射频单元101发送到移动通信基站的格式输出。麦克风1042可以实施各种类型的噪声消除(或抑制)算法以消除(或抑制)在接收和发送音频信号的过程中产生的噪声或者干扰。
移动终端100还包括至少一种传感器105,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1061的亮度,接近传感器可在移动终端100移动到耳边时,关闭显示面板1061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于手机还可配置的指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
显示单元106用于显示由用户输入的信息或提供给用户的信息。显示单元106可包括显示面板1061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板1061。
用户输入单元107可用于接收输入的数字或字符信息,以及产生与移动终端的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元107可包括触控面板1071以及其他输入设备1072。触控面板1071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1071上或在触控面板1071附近的操作),并根据预先设定的程式驱动相应的连接装置。触控面板1071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器110,并能接收处理器110发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1071。除了触控面板1071,用户输入单元107还可以包括其他输入设备1072。具体地,其他输入设备1072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种,具体此处不做限定。
进一步的,触控面板1071可覆盖显示面板1061,当触控面板1071检测到在其上或附近的触摸操作后,传送给处理器110以确定触摸事件的类型,随后处理器110根据触摸事件的类型在显示面板1061上提供相应的视觉输出。虽然在图1中,触控面板1071与显示面板1061是作为两个独立的部件来实现移动终端的输入和输出功能,但是在某些实施例中,可以将触控面板1071与显示面板1061集成而实现移动终端的输入和输出功能,具体此处不做限定。
接口单元108用作至少一个外部装置与移动终端100连接可以通过的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元108可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到移动终端100内的一个或多个元件或者可以用于在移动终端100和外部装置之间传输数据。
存储器109可用于存储软件程序以及各种数据。存储器109可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器109可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器110是移动终端的控制中心,利用各种接口和线路连接整个移动终端的各个部分,通过运行或执行存储在存储器109内的软件程序和/或模块,以及调用存储在存储器109内的数据,执行移动终端的各种功能和处理数据,从而对移动终端进行整体监控。处理器110可包括一个或多个处理单元;优选的,处理器110可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作***、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器110中。
移动终端100还可以包括给各个部件供电的电源111(比如电池),优选的,电源111可以通过电源管理***与处理器110逻辑相连,从而通过电源管理***实现管理充电、放电、以及功耗管理等功能。
尽管图1未示出,移动终端100还可以包括蓝牙模块等,在此不再赘述。
为了便于理解本发明实施例,下面对本发明的移动终端所基于的通信网络***进行描述。
请参阅图2,图2为本发明实施例提供的一种通信网络***架构图,该通信网络***为通用移动通信技术的LTE***,该LTE***包括依次通讯连接的UE(User Equipment,用户设备)201,E-UTRAN(Evolved UMTS Terrestrial Radio Access Network,演进式UMTS陆地无线接入网)202,EPC(Evolved Packet Core,演进式分组核心网)203和运营商的IP业务204。
具体地,UE201可以是上述终端100,此处不再赘述。
E-UTRAN202包括eNodeB2021和其它eNodeB2022等。其中,eNodeB2021可以通过回程(backhaul)(例如X2接口)与其它eNodeB2022连接,eNodeB2021连接到EPC203,eNodeB2021可以提供UE201到EPC203的接入。
EPC203可以包括MME(Mobility Management Entity,移动性管理实体)2031,HSS(Home Subscriber Server,归属用户服务器)2032,其它MME2033,SGW(Serving Gate Way,服务网关)2034,PGW(PDN Gate Way,分组数据网络网关)2035和PCRF(Policy andCharging Rules Function,政策和资费功能实体)2036等。其中,MME2031是处理UE201和EPC203之间信令的控制节点,提供承载和连接管理。HSS2032用于提供一些寄存器来管理诸如归属位置寄存器(图中未示)之类的功能,并且保存有一些有关服务特征、数据速率等用户专用的信息。所有用户数据都可以通过SGW2034进行发送,PGW2035可以提供UE 201的IP地址分配以及其它功能,PCRF2036是业务数据流和IP承载资源的策略与计费控制策略决策点,它为策略与计费执行功能单元(图中未示)选择及提供可用的策略和计费控制决策。
IP业务204可以包括因特网、内联网、IMS(IP Multimedia Subsystem,IP多媒体子***)或其它IP业务等。
虽然上述以LTE***为例进行了介绍,但本领域技术人员应当知晓,本发明不仅仅适用于LTE***,也可以适用于其他无线通信***,例如GSM、CDMA2000、WCDMA、TD-SCDMA以及未来新的网络***等,此处不做限定。
基于上述移动终端硬件结构以及通信网络***,提出本发明方法各个实施例。
请参考图3。本发明实施例提供一种基于双目摄像头的人脸活体验证方法,应用于移动终端,所述方法包括:
S1、利用移动终端的左右摄像头拍摄人脸图像;
S2、分别对拍摄到的左右人脸图像进行畸变矫正和行对齐;
S3、分别对经过矫正的左右人脸图像进行人脸检测;
S4、对经过人脸检测的左右图像进行匹配人脸关键点;
S5、根据所述人脸关键点之间的距离进行活体判断。
进一步地,在所述利用移动终端的左、右摄像头拍摄人脸图像的步骤S1之前,所述方法还包括:利用移动终端搭建双目摄像头环境。
移动终端安装两个摄像头,利用移动终端搭建双目摄像头环境。
进一步地,所述步骤S1中,所述利用移动终端的左、右摄像头拍摄人脸图像,包括:利用移动终端的左、右摄像头同时拍摄用户的人脸图像。
进一步地,所述步骤S2中,所述分别对拍摄到的左右人脸图像进行畸变矫正和行对齐,包括:
S21、将左右摄像头拍摄到的人脸图像进行畸变矫正;
S22、对经过畸变矫正的左右人脸图像进行双目校正;包括:将经过畸变矫正的左右摄像头拍摄到的人脸图像进行旋转,进行双目校正,使双目摄像头获取的图像能够在数学上保持对齐。
进一步地,所述步骤S3中,所述分别对经过矫正的左右人脸图像进行人脸检测,包括:
采用基于深度学习的mtcnn算法检测获取经过矫正的左右人脸图像中人脸框的位置,以及人脸的关键点信息。其中,所述人脸的关键点包括耳朵、鼻子、嘴、眼睛等。
进一步地,所述步骤S4中,所述对经过人脸检测的左右人脸图像进行匹配人脸关键点,包括:
根据获取到人脸框和人脸关键点信息,匹配左右人脸图像中的左右人脸的关键点位置,例如:左人脸图像中左耳朵和右人脸图像中的右耳朵匹配,左人脸图像中鼻子和右人脸图像中鼻子匹配等。
进一步地,所述步骤S5中,所述根据所述人脸关键点之间的距离进行活体判断,包括:
S51、确定左右耳朵到摄像镜头的距离,其中,D_left_rose,D_right_rose分别表示左,右耳朵到镜头的距离,(x1,y1,z1)表示D_left_rose的三维坐标;
S52、确定左右眼睛到镜头的距离,D_eye_left,D_mouth_right分别表示左,右眼睛到镜头的距离,(x2,y2,z2)表示左眼睛三维坐标,(x4,y4,z4)表示右眼睛三维坐标;
S53、确定左眼睛到耳朵的深度距离:Dist_eyeToRose=|z2-z1|;
S54、确定左眼睛到右眼睛的深度距离:Dist_eyeToeye=|z4-z2|;
S55、确定人脸旋转角度angle;
S56、根据所述左眼睛到耳朵的深度距离Dist_eyeToRose和所述人脸旋转角度angle或所述左眼睛到右眼睛的深度距离Dist_eyeToeye和所述人脸旋转角度angle进行活体判断,包括:
当确定人脸旋转角度为[0,angle]范围内时,设置阈值T1:Dist_eyeToRose<T时,为非活体攻击;或者,
当确定人脸旋转角度为[angle,90]范围时,判断左右眼睛间的深度差:设置阈值T1:Dist_eyeToeye<T1时,为非活体攻击。
本发明实施例提供一种基于双目摄像头的人脸活体验证方法,应用于移动终端,包括:利用移动终端的左右摄像头拍摄人脸图像;分别对拍摄到的左右人脸图像进行畸变矫正和行对齐;分别对经过矫正的左右人脸图像进行人脸检测;对经过人脸检测的左右图像进行匹配人脸关键点;根据所述人脸关键点之间的距离进行活体判断。通过本发明实施例,在利用人脸识别认证时,可以有效抵御图像、视频等攻击,方法简单可靠成熟,并且速度快,降低安全隐患,提高用户体验。
请参考图4。本发明实施例提供一种基于双目摄像头的人脸活体验证装置,应用于移动终端,所述装置包括:拍摄模块10、矫正和行对齐模块20、检测模块30、匹配模块40、判断模块50,其中:
所述拍摄模块10,用于利用移动终端的左右摄像头拍摄人脸图像;
所述矫正和行对齐模块20,用于分别对拍摄到的左右人脸图像进行畸变矫正和行对齐;
所述检测模块30,用于分别对经过矫正的左右人脸图像进行人脸检测;
所述匹配模块40,用于对经过人脸检测的左右图像进行匹配人脸关键点;
所述判断模块50,用于根据所述人脸关键点之间的距离进行活体判断。
进一步地,所述拍摄模块10还用于利用移动终端搭建双目摄像头环境。移动终端安装两个摄像头,利用移动终端搭建双目摄像头环境。
进一步地,所述拍摄模块10,用于利用移动终端的左、右摄像头同时拍摄用户的人脸图像。
进一步地,所述矫正和行对齐模块20,具体用于:
将左右摄像头拍摄到的人脸图像进行畸变矫正;
对经过畸变矫正的左右人脸图像进行双目校正;包括:将经过畸变矫正的左右摄像头拍摄到的人脸图像进行旋转,进行双目校正,使双目摄像头获取的图像能够在数学上保持对齐。
所述检测模块30,具体用于:
采用基于深度学习的mtcnn算法检测获取经过矫正的左右人脸图像中人脸框的位置,以及人脸的关键点信息。其中,所述人脸的关键点包括耳朵、鼻子、嘴、眼睛等。
所述匹配模块40,具体用于:
根据获取到人脸框和人脸关键点信息,匹配左右人脸图像中的左右人脸的关键点位置,例如:左人脸图像中左耳朵和右人脸图像中的右耳朵匹配,左人脸图像中鼻子和右人脸图像中鼻子匹配等。
所述判断模块50,具体用于:
确定左右耳朵到摄像镜头的距离,其中,D_left_rose,D_right_rose分别表示左,右耳朵到镜头的距离,(x1,y1,z1)表示D_left_rose的三维坐标;
确定左右眼睛到镜头的距离,D_eye_left,D_mouth_right分别表示左,右眼睛到镜头的距离,(x2,y2,z2)表示左眼睛三维坐标,(x4,y4,z4)表示右眼睛三维坐标;
确定左眼睛到耳朵的深度距离:Dist_eyeToRose=|z2-z1|;
确定左眼睛到右眼睛的深度距离:Dist_eyeToeye=|z4-z2|;
确定人脸旋转角度angle;
根据所述左眼睛到耳朵的深度距离Dist_eyeToRose和所述人脸旋转角度angle或所述左眼睛到右眼睛的深度距离Dist_eyeToeye和所述人脸旋转角度angle进行活体判断,包括:
当确定人脸旋转角度为[0,angle]范围内时,设置阈值T1:Dist_eyeToRose<T时,为非活体攻击;
当确定人脸旋转角度为[angle,90]范围时,判断左右眼睛间的深度差:设置阈值T1:Dist_eyeToeye<T1时,为非活体攻击。
本发明实施例提供的一种基于双目摄像头的人脸活体验证装置,应用于移动终端,包括:拍摄模块、矫正和行对齐模块、检测模块、匹配模块和判断模块,其中:拍摄模块利用移动终端的左右摄像头拍摄人脸图像;矫正和行对齐模块分别对拍摄到的左右人脸图像进行畸变矫正和行对齐;检测模块分别对经过矫正的左右人脸图像进行人脸检测;匹配模块对经过人脸检测的左右图像进行匹配人脸关键点;判断模块根据所述人脸关键点之间的距离进行活体判断。通过本发明实施例,在利用人脸识别认证时,可以有效抵御图像、视频等攻击,方法简单可靠成熟,并且速度快,降低安全隐患,提高用户体验。
需要说明的是,上述装置实施例与方法实施例属于同一构思,其具体实现过程详见方法实施例,且方法实施例中的技术特征在所述装置实施例中均对应适用,这里不再赘述。
以下结合实施例对本发明的技术方案作进一步的详细描述。
请参考图5。
本发明实施例提供一种基于双目摄像头的人脸活体验证方法,应用于移动终端,所述方法包括:
步骤S501,利用移动终端搭建双目摄像头环境。
移动终端安装两个摄像头,利用移动终端搭建双目摄像头环境。
步骤S502,利用移动终端的左、右摄像头拍摄人脸图像,包括:利用移动终端的左、右摄像头同时拍摄用户的人脸图像。
步骤S503,将左右摄像头拍摄到的人脸图像进行畸变矫正。
将左右摄像头拍摄到的人脸图像进行畸变矫正,其目的是消除因摄像镜头因素造成的人脸失真,特别是在镜头视场的四周,畸变是非常的大。
畸变包括径向畸变和切向畸变,其中,径向畸变的产生原因是光线在远离摄像头中心的地方比靠近中心的地方更加弯曲。切向畸变的产生是由于摄像头制造上的缺陷使得摄像头本身与图像平面不平行而产生的。
经过畸变矫正之后,可以基本消除人脸图像的整个视场畸变,从而提高人脸识别的精度。
步骤S504,对经过畸变矫正的左右人脸图像进行双目校正;包括:将经过畸变矫正的左右摄像头拍摄到的人脸图像进行旋转,进行双目校正,使双目摄像头获取的图像能够在数学上保持对齐。
请参考图6。在移动终端上在安装双目摄像头时,左右摄像头之间不可能在同一个水平,而是互相存在一定的旋转关系。因此要经过双目校正使得双目摄像头获取的图像能够在数学上保持对齐。
请参考图7。左右摄像头拍摄的左右人脸图像经过旋转之后,左右人脸图像的两张图像上的相同内容能够在同一个水平面上。
左右摄像头拍摄的左右人脸图像经过旋转之后最终效果如图8所示。此时,人脸的各个关键点都在同一水平面上,这样才能准确的计算实际上人脸的特定部位到摄像头之间的距离。
步骤S505,分别对经过矫正的左右人脸图像进行人脸检测,包括:
采用基于深度学习的mtcnn算法检测获取经过矫正的左右人脸图像中人脸框的位置,以及人脸的关键点信息。其中,所述人脸的关键点包括耳朵、鼻子、嘴、眼睛等。如图8所示,mtcnn算法检测人脸,在定位有脸框位置的同时,可以定位左右人脸的各个关键点。
步骤S506,对经过人脸检测的左右人脸图像进行匹配人脸关键点,包括:
根据获取到人脸框和人脸关键点信息,匹配左右人脸图像中的左右人脸的关键点位置,例如:左人脸图像中左耳朵和右人脸图像中的右耳朵匹配,左人脸图像中鼻子和右人脸图像中鼻子匹配等。
在步骤S405中,mtcnn算法可以获取人脸框和人脸关键点信息,并且左右人脸的关键点都是一一对应的,例如图8所示,左人脸的左耳朵坐标和右耳朵坐标相对应,左图鼻子和右图鼻子坐标相对应。
步骤S507,根据所述人脸关键点之间的距离进行活体判断,包括:
如图9所示,有两个坐标系OR和OT。在OR坐标系中P1点和OT坐标系中P2点为相对应的左眼睛坐标,因此可以根据P1点和P2点的视差图计算出人的左眼睛到水平轴b的距离。
根据图9并结合上图8所示左右人脸的某些关键点,可以计算出人脸的相关关键点到摄像头间的距离。
请参考图8和图9。图9是双摄拍摄的理想模型,P在OR和OT的投影分别是P1和P2。此时P1和P2是在图像的同一行上,可以根据P1和P2的视差图来获取P到摄像头的深度距离Z。
P1和P2分别表示点在左右图的水平位置,视差为d=P1-P2,同时深度距离Z与视差d成反比关系,利用相似三角形可以推算出Z:
Figure BDA0002012839080000151
上式中,f表示焦距,b表示左右两个镜头间的距离。上式的计算结果,是一个理想的结果。但在实际应用中,P1和P2是不太可能在同一个水平线上,在左右图像中的行误差非常大,如果按照视差图强行计算P到镜头的距离,得到的错误是非常错误的。所以,要根据本发明实施例中的方法来进行调整。
在本发明实施例中,由于已经获取到左右人脸的关键点,如图8(1c)所示,左右图像的左耳朵上方(直线相连)的对应关键点,因为这两个关键点都在同一个极面上(参考图6(1a)),右图像左耳朵的对应关键点保持在极线erpr上运动,在极线erpr上的不同位置会得到不同的视差,从而根据以上的公式得到不同的结果Z。
请参考图10。
确定左右耳朵到摄像镜头的距离,其中,D_left_rose,D_right_rose分别表示左,右耳朵到镜头的距离,(x1,y1,z1)表示D_left_rose的三维坐标;
确定鼻子到摄像镜头的距离,D_nose表示鼻子到镜头的距离,(x3,y3,z3)表示鼻子的三维坐标;
确定左右嘴角到镜头的距离,D_mouth_left,D_mouth_right分别表示左,右嘴角到镜头的距离;
确定左右眼睛到镜头的距离,D_eye_left,D_mouth_right分别表示左,右眼睛到镜头的距离,(x2,y2,z2)表示左眼睛三维坐标,(x4,y4,z4)表示右眼睛三维坐标;
确定左眼睛到耳朵的深度距离:Dist_eyeToRose=|z2-z1|;
确定鼻子到耳朵的深度距离:Dist_noseToRose=|z3-z1|;
确定鼻子到左眼睛的深度距离:Dist_noseToRose=|z3-z2|;
确定左眼睛到右眼睛的深度距离:Dist_eyeToeye=|z4-z2|;
确定人脸旋转角度angle;
当确定人脸旋转角度为[0,angle]范围内时,设置阈值T1:Dist_eyeToRose<T时,为非活体攻击;
当确定人脸旋转角度为[angle,90]范围时,判断左右眼睛间的深度差:设置阈值T1:Dist_eyeToeye<T1时,为非活体攻击。
此外,本发明实施例还提供一种移动终端,如图11所示,所述移动终端900包括:存储器902、处理器901及存储在所述存储器902中并可在所述处理器901上运行的一个或者多个计算机程序,所述存储器902和所述处理器901通过总线***903耦合在一起,所述一个或者多个计算机程序被所述处理器901执行时以实现本发明实施例提供的一种基于双目摄像头的人脸活体验证方法的以下步骤:
S1、利用移动终端的左右摄像头拍摄人脸图像;
S2、分别对拍摄到的左右人脸图像进行畸变矫正和行对齐;
S3、分别对经过矫正的左右人脸图像进行人脸检测;
S4、对经过人脸检测的左右图像进行匹配人脸关键点;
S5、根据所述人脸关键点之间的距离进行活体判断。
进一步地,在所述利用移动终端的左、右摄像头拍摄人脸图像的步骤S1之前,所述方法还包括:利用移动终端搭建双目摄像头环境。
移动终端安装两个摄像头,利用移动终端搭建双目摄像头环境。
进一步地,所述步骤S1中,所述利用移动终端的左、右摄像头拍摄人脸图像,包括:利用移动终端的左、右摄像头同时拍摄用户的人脸图像。
进一步地,所述步骤S2中,所述分别对拍摄到的左右人脸图像进行畸变矫正和行对齐,包括:
S21、将左右摄像头拍摄到的人脸图像进行畸变矫正;
S22、对经过畸变矫正的左右人脸图像进行双目校正;包括:将经过畸变矫正的左右摄像头拍摄到的人脸图像进行旋转,进行双目校正,使双目摄像头获取的图像能够在数学上保持对齐。
进一步地,所述步骤S3中,所述分别对经过矫正的左右人脸图像进行人脸检测,包括:
采用基于深度学习的mtcnn算法检测获取经过矫正的左右人脸图像中人脸框的位置,以及人脸的关键点信息。其中,所述人脸的关键点包括耳朵、鼻子、嘴、眼睛等。
进一步地,所述步骤S4中,所述对经过人脸检测的左右人脸图像进行匹配人脸关键点,包括:
根据获取到人脸框和人脸关键点信息,匹配左右人脸图像中的左右人脸的关键点位置,例如:左人脸图像中左耳朵和右人脸图像中的右耳朵匹配,左人脸图像中鼻子和右人脸图像中鼻子匹配等。
进一步地,所述步骤S5中,所述根据所述人脸关键点之间的距离进行活体判断,包括:
S51、确定左右耳朵到摄像镜头的距离,其中,D_left_rose,D_right_rose分别表示左,右耳朵到镜头的距离,(x1,y1,z1)表示D_left_rose的三维坐标;
S52、确定左右眼睛到镜头的距离,D_eye_left,D_mouth_right分别表示左,右眼睛到镜头的距离,(x2,y2,z2)表示左眼睛三维坐标,(x4,y4,z4)表示右眼睛三维坐标;
S53、确定左眼睛到耳朵的深度距离:Dist_eyeToRose=|z2-z1|;
S54、确定左眼睛到右眼睛的深度距离:Dist_eyeToeye=|z4-z2|;
S55、确定人脸旋转角度angle;
S56、根据所述左眼睛到耳朵的深度距离Dist_eyeToRose和所述人脸旋转角度angle或所述左眼睛到右眼睛的深度距离Dist_eyeToeye和所述人脸旋转角度angle进行活体判断,包括:
当确定人脸旋转角度为[0,angle]范围内时,设置阈值T1:Dist_eyeToRose<T时,为非活体攻击;或者,
当确定人脸旋转角度为[angle,90]范围时,判断左右眼睛间的深度差:设置阈值T1:Dist_eyeToeye<T1时,为非活体攻击。
上述本发明实施例揭示的方法可以应用于所述处理器901中,或者由所述处理器901实现。所述处理器901可能是一种集成电路芯片,具有信号处理能力。在实现过程中,上述方法的各步骤可以通过所述处理器901中的硬件的集成逻辑电路或软件形式的指令完成。所述处理器901可以是通用处理器、DSP、或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。所述处理器901可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本发明实施例所公开的方法的步骤,可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于存储介质中,该存储介质位于存储器902,所述处理器901读取存储器902中的信息,结合其硬件完成前述方法的步骤。
可以理解,本发明实施例的存储器902可以是易失性存储器或者非易失性存储器,也可以包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(ROM,Read-Only Memory)、可编程只读存储器(PROM,Programmable Read-Only Memory)、可擦除可编程只读存储器(EPROM,Erasable Read-Only Memory)、电可擦除只读存储器(EEPROM,Electrically Erasable Programmable Read-Only Memory)、磁性随机存取存储器(FRAM,Ferromagnetic Random Access Memory)、闪存(Flash Memory)或其他存储器技术、光盘只读存储器(CD-ROM,Compact Disk Read-Only Memory)、数字多功能盘(DVD,Digital VideoDisk)或其他光盘存储、磁盒、磁带、磁盘存储或其他磁存储装置;易失性存储器可以是随机存取存储器(RAM,Random Access Memory),通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(SRAM,Static Random Access Memory)、静态随机存取存储器(SSRAM,Synchronous Static Random Access Memory)、动态随机存取存储器(DRAM,Dynamic Random Access Memory)、同步动态随机存取存储器(SDRAM,SynchronousDynamic Random Access Memory)、双倍数据速率同步动态随机存取存储器(DDRSDRAM,Double Data Rate Synchronous Dynamic Random Access Memory)、增强型同步动态随机存取存储器(ESDRAM,Enhanced Synchronous Dynamic Random Access Memory)、同步连接动态随机存取存储器(SLDRAM,SyncLink Dynamic Random Access Memory)、直接内存总线随机存取存储器(DRRAM,Direct Rambus Random Access Memory)。本发明实施例描述的存储器旨在包括但不限于这些和任意其它适合类型的存储器。
需要说明的是,上述移动终端实施例与方法实施例属于同一构思,其具体实现过程详见方法实施例,且方法实施例中的技术特征在所述移动终端实施例中均对应适用,这里不再赘述。
另外,在示例性实施例中,本发明实施例还提供一种计算机存储介质,具体为计算机可读存储介质,例如包括存储计算机程序的存储器902,所述计算机存储介质上存储有基于双目摄像头的人脸活体验证方法的一个或者多个程序,所述基于双目摄像头的人脸活体验证方法的一个或者多个程序被处理器901执行时以实现本发明实施例提供的一种基于双目摄像头的人脸活体验证方法的以下步骤:
S1、利用移动终端的左右摄像头拍摄人脸图像;
S2、分别对拍摄到的左右人脸图像进行畸变矫正和行对齐;
S3、分别对经过矫正的左右人脸图像进行人脸检测;
S4、对经过人脸检测的左右图像进行匹配人脸关键点;
S5、根据所述人脸关键点之间的距离进行活体判断。
进一步地,在所述利用移动终端的左、右摄像头拍摄人脸图像的步骤S1之前,所述方法还包括:利用移动终端搭建双目摄像头环境。
移动终端安装两个摄像头,利用移动终端搭建双目摄像头环境。
进一步地,所述步骤S1中,所述利用移动终端的左、右摄像头拍摄人脸图像,包括:利用移动终端的左、右摄像头同时拍摄用户的人脸图像。
进一步地,所述步骤S2中,所述分别对拍摄到的左右人脸图像进行畸变矫正和行对齐,包括:
S21、将左右摄像头拍摄到的人脸图像进行畸变矫正;
S22、对经过畸变矫正的左右人脸图像进行双目校正;包括:将经过畸变矫正的左右摄像头拍摄到的人脸图像进行旋转,进行双目校正,使双目摄像头获取的图像能够在数学上保持对齐。
进一步地,所述步骤S3中,所述分别对经过矫正的左右人脸图像进行人脸检测,包括:
采用基于深度学习的mtcnn算法检测获取经过矫正的左右人脸图像中人脸框的位置,以及人脸的关键点信息。其中,所述人脸的关键点包括耳朵、鼻子、嘴、眼睛等。
进一步地,所述步骤S4中,所述对经过人脸检测的左右人脸图像进行匹配人脸关键点,包括:
根据获取到人脸框和人脸关键点信息,匹配左右人脸图像中的左右人脸的关键点位置,例如:左人脸图像中左耳朵和右人脸图像中的右耳朵匹配,左人脸图像中鼻子和右人脸图像中鼻子匹配等。
进一步地,所述步骤S5中,所述根据所述人脸关键点之间的距离进行活体判断,包括:
S51、确定左右耳朵到摄像镜头的距离,其中,D_left_rose,D_right_rose分别表示左,右耳朵到镜头的距离,(x1,y1,z1)表示D_left_rose的三维坐标;
S52、确定左右眼睛到镜头的距离,D_eye_left,D_mouth_right分别表示左,右眼睛到镜头的距离,(x2,y2,z2)表示左眼睛三维坐标,(x4,y4,z4)表示右眼睛三维坐标;
S53、确定左眼睛到耳朵的深度距离:Dist_eyeToRose=|z2-z1|;
S54、确定左眼睛到右眼睛的深度距离:Dist_eyeToeye=|z4-z2|;
S55、确定人脸旋转角度angle;
S56、根据所述左眼睛到耳朵的深度距离Dist_eyeToRose和所述人脸旋转角度angle或所述左眼睛到右眼睛的深度距离Dist_eyeToeye和所述人脸旋转角度angle进行活体判断,包括:
当确定人脸旋转角度为[0,angle]范围内时,设置阈值T1:Dist_eyeToRose<T时,为非活体攻击;或者,
当确定人脸旋转角度为[angle,90]范围时,判断左右眼睛间的深度差:设置阈值T1:Dist_eyeToeye<T1时,为非活体攻击。
需要说明的是,上述计算机可读存储介质上的基于双目摄像头的人脸活体验证方法程序实施例与方法实施例属于同一构思,其具体实现过程详见方法实施例,且方法实施例中的技术特征在上述计算机可读存储介质的实施例中均对应适用,这里不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。

Claims (8)

1.一种人脸活体验证方法,应用于移动终端,其特征在于,所述方法包括:
利用移动终端的左右摄像头拍摄人脸图像;
分别对拍摄到的左右人脸图像进行畸变矫正和行对齐;
分别对经过矫正的左右人脸图像进行人脸检测;
对经过人脸检测的左右图像进行匹配人脸关键点;
根据所述人脸关键点之间的距离进行活体判断;
其中,所述根据所述人脸关键点之间的距离进行活体判断,包括:
确定左右耳朵到摄像镜头的距离;
确定左右眼睛到镜头的距离;
确定左眼睛到耳朵的深度距离Dist_eyeToRose;
确定左眼睛到右眼睛的深度距离Dist_eyeToeye;
确定人脸旋转角度angle;
根据所述左眼睛到耳朵的深度距离Dist_eyeToRose和所述人脸旋转角度angle进行活体判断,包括:当确定人脸旋转角度为[0,angle]范围内时,设置阈值T1:Dist_eyeToRose<T1时,为非活体攻击;
根据所述左眼睛到右眼睛的深度距离Dist_eyeToeye和所述人脸旋转角度angle进行活体判断,包括:当确定人脸旋转角度为[angle,90]范围时,判断左右眼睛间的深度差:设置阈值T1:Dist_eyeToeye<T1时,为非活体攻击。
2.根据权利要求1所述的方法,其特征在于,所述分别对拍摄到的左右人脸图像进行畸变矫正和行对齐,包括:
将左右摄像头拍摄到的人脸图像进行畸变矫正;
对经过畸变矫正的左右人脸图像进行双目校正。
3.根据权利要求2所述的方法,其特征在于,所述对经过畸变矫正的左右人脸图像进行双目校正,包括:将经过畸变矫正的左右摄像头拍摄到的人脸图像进行旋转,进行双目校正,使双目摄像头获取的图像能够在数学上保持对齐。
4.根据权利要求2所述的方法,其特征在于,所述分别对经过矫正的左右人脸图像进行人脸检测,包括:采用基于深度学习的mtcnn算法检测获取经过矫正的左右人脸图像中人脸框的位置,以及人脸的关键点信息。
5.根据权利要求4所述的方法,其特征在于,所述对经过人脸检测的左右人脸图像进行匹配人脸关键点,包括:根据获取到人脸框和人脸关键点信息,匹配左右人脸图像中的左右人脸的关键点位置。
6.一种人脸活体验证装置,应用于如权利要求1至5任一项所述的一种人脸活体验证方法,其特征在于,所述装置包括:拍摄模块、矫正和行对齐模块、检测模块、匹配模块、判断模块,其中:
所述拍摄模块,用于利用移动终端的左右摄像头拍摄人脸图像;
所述矫正和行对齐模块,用于分别对拍摄到的左右人脸图像进行畸变矫正和行对齐;
所述检测模块,用于分别对经过矫正的左右人脸图像进行人脸检测;
所述匹配模块,用于对经过人脸检测的左右图像进行匹配人脸关键点;
所述判断模块,用于根据所述人脸关键点之间的距离进行活体判断;
其中,所述判断模块,还用于确定左右耳朵到摄像镜头的距离;确定左右眼睛到镜头的距离;确定左眼睛到耳朵的深度距离Dist_eyeToRose;确定左眼睛到右眼睛的深度距离Dist_eyeToeye;确定人脸旋转角度angle;根据所述左眼睛到耳朵的深度距离Dist_eyeToRose和所述人脸旋转角度angle进行活体判断,包括:当确定人脸旋转角度为[0,angle]范围内时,设置阈值T1:Dist_eyeToRose<T1时,为非活体攻击;根据所述左眼睛到右眼睛的深度距离Dist_eyeToeye和所述人脸旋转角度angle进行活体判断,包括:当确定人脸旋转角度为[angle,90]范围时,判断左右眼睛间的深度差:设置阈值T1:Dist_eyeToeye<T1时,为非活体攻击。
7.一种终端,其特征在于,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至5中任一项所述的一种人脸活体验证方法的步骤。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有人脸活体验证程序,所述人脸活体验证方法程序被处理器执行时实现如权利要求1至5中任一项所述的一种人脸活体验证方法的步骤。
CN201910252907.XA 2019-03-29 2019-03-29 一种人脸活体验证方法、装置、移动终端及可读存储介质 Active CN110059590B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910252907.XA CN110059590B (zh) 2019-03-29 2019-03-29 一种人脸活体验证方法、装置、移动终端及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910252907.XA CN110059590B (zh) 2019-03-29 2019-03-29 一种人脸活体验证方法、装置、移动终端及可读存储介质

Publications (2)

Publication Number Publication Date
CN110059590A CN110059590A (zh) 2019-07-26
CN110059590B true CN110059590B (zh) 2023-06-30

Family

ID=67318027

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910252907.XA Active CN110059590B (zh) 2019-03-29 2019-03-29 一种人脸活体验证方法、装置、移动终端及可读存储介质

Country Status (1)

Country Link
CN (1) CN110059590B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110472582B (zh) * 2019-08-16 2023-07-21 腾讯科技(深圳)有限公司 基于眼部识别的3d人脸识别方法、装置和终端
CN110688946A (zh) * 2019-09-26 2020-01-14 上海依图信息技术有限公司 基于图片识别的公有云静默活体检测设备和方法
CN111008605B (zh) * 2019-12-09 2023-08-11 Oppo广东移动通信有限公司 人脸图像中直线处理方法、装置、终端设备和存储介质
CN112215069A (zh) * 2020-09-09 2021-01-12 支付宝实验室(新加坡)有限公司 活体检测、辅助活体检测的方法、装置和设备
CN112926464B (zh) * 2021-03-01 2023-08-29 创新奇智(重庆)科技有限公司 一种人脸活体检测方法以及装置
CN112801038B (zh) * 2021-03-02 2022-07-22 重庆邮电大学 一种多视点的人脸活体检测方法及***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105224924A (zh) * 2015-09-29 2016-01-06 小米科技有限责任公司 活体人脸识别方法和装置
CN106355139A (zh) * 2016-08-22 2017-01-25 厦门中控生物识别信息技术有限公司 人脸防伪方法和装置
CN107820071A (zh) * 2017-11-24 2018-03-20 深圳超多维科技有限公司 移动终端及其立体成像方法、装置及计算机可读存储介质
CN108764091A (zh) * 2018-05-18 2018-11-06 北京市商汤科技开发有限公司 活体检测方法及装置、电子设备和存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105868733A (zh) * 2016-04-21 2016-08-17 腾讯科技(深圳)有限公司 一种人脸活体验证方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105224924A (zh) * 2015-09-29 2016-01-06 小米科技有限责任公司 活体人脸识别方法和装置
CN106355139A (zh) * 2016-08-22 2017-01-25 厦门中控生物识别信息技术有限公司 人脸防伪方法和装置
CN107820071A (zh) * 2017-11-24 2018-03-20 深圳超多维科技有限公司 移动终端及其立体成像方法、装置及计算机可读存储介质
CN108764091A (zh) * 2018-05-18 2018-11-06 北京市商汤科技开发有限公司 活体检测方法及装置、电子设备和存储介质

Also Published As

Publication number Publication date
CN110059590A (zh) 2019-07-26

Similar Documents

Publication Publication Date Title
CN110059590B (zh) 一种人脸活体验证方法、装置、移动终端及可读存储介质
CN109685740B (zh) 人脸校正的方法及装置、移动终端及计算机可读存储介质
CN107767333B (zh) 美颜拍照的方法、设备及计算机可存储介质
CN108830062B (zh) 人脸识别方法、移动终端及计算机可读存储介质
WO2021013009A1 (zh) 拍照方法和终端设备
CN107707821B (zh) 畸变参数的建模方法及装置、校正方法、终端、存储介质
CN109195213B (zh) 移动终端屏幕控制方法、移动终端及计算机可读存储介质
CN108198150B (zh) 一种图像坏点的消除方法、终端及存储介质
CN109934769B (zh) 屏幕长截图的方法、终端及存储介质
CN107730462A (zh) 一种图像处理方法、终端及计算机可读存储介质
CN109618052A (zh) 一种通话音频切换方法及装置、移动终端及可读存储介质
CN107680059A (zh) 一种图像校正的判断方法、终端及计算机可读存储介质
CN110189368B (zh) 图像配准方法、移动终端及计算机可读存储介质
CN113301253B (zh) 一种天文图像的辅助拍摄方法、移动终端及存储介质
CN107610057B (zh) 一种深度图修复方法、终端及计算机可读存储介质
CN107885987B (zh) 一种解锁方法、终端及计算机可读存储介质
CN107395363B (zh) 指纹共享方法及移动终端
CN111443818B (zh) 一种屏幕亮度调控方法、设备及计算机可读存储介质
CN110060617B (zh) 一种屏幕光斑补偿的方法、装置、终端及可读存储介质
CN109711850B (zh) 一种安全支付方法、设备及计算机可读存储介质
CN108960097B (zh) 一种获取人脸深度信息的方法及装置
CN108040311B (zh) 一种音频播放方法、终端及计算机可读存储介质
CN107728789B (zh) 一种单手操作模式的开启方法、终端及存储介质
CN113301252B (zh) 图像拍摄方法、移动终端及计算机可读存储介质
CN112954225B (zh) 一种多帧图片拍摄方法、装置及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant