CN111985427A - 活体检测方法、设备及可读存储介质 - Google Patents
活体检测方法、设备及可读存储介质 Download PDFInfo
- Publication number
- CN111985427A CN111985427A CN202010876192.8A CN202010876192A CN111985427A CN 111985427 A CN111985427 A CN 111985427A CN 202010876192 A CN202010876192 A CN 202010876192A CN 111985427 A CN111985427 A CN 111985427A
- Authority
- CN
- China
- Prior art keywords
- data
- face
- living body
- body detection
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种活体检测方法、设备及可读存储介质,所述活体检测方法包括:获取待检测人脸数据和待检测人脸数据对应的拍摄设备运动信息,并确定待检测人脸数据中各时间帧图像对应的人脸区域数据和对应的背景区域数据,进而对人脸区域数据进行人脸三维重建,获得人脸三维点云数据,进而基于人脸三维点云数据,对待检测人脸数据进行活体检测,获得第一活体检测结果,进而计算背景区域数据对应的光流信息,并基于拍摄设备运动信息和光流信息,对待检测人脸数据进行活体检测,获得第二活体检测结果,进而基于第一活体检测结果和第二活体检测结果,确定目标活体检测结果。本申请解决了人脸识别***安全性低的技术问题。
Description
技术领域
本申请涉及金融科技(Fintech)的人工智能领域,尤其涉及一种活体检测方法、设备及可读存储介质。
背景技术
随着金融科技,尤其是互联网科技金融的不断发展,越来越多的技术(如分布式、区块链Blockchain、人工智能等)应用在金融领域,但金融业也对技术提出了更高的要求,如对金融业对应待办事项的分发也有更高的要求。
随着计算机软件和人工智能的不断发展,人工智能的应用领域也越来越广泛,例如,人工智能常应用于人脸识别,但是由于人脸数据比较容易获得,在进行人脸识别时,通常需要进行活体检测,以保证人脸识别的准确性,目前,通常通过分析人脸视频或者图像序列中人脸的动作变化(如动作活体)、语音信息及嘴部动作变化(数字活体)或者脸部的三维结构信息等方式进行活体检测,也即,基于人脸图像序列或者人脸视频的表层特征进行活体检测,但是,随着视频和图像的编辑技术的日益发展,若恶意攻击者通过伪造的人脸图像序列或者人脸视频攻击人脸识别***,当前的人脸识别***越来越难以抵御恶意攻击者的非法攻击,进而导致当前的人脸识别***的安全性难以得到保证。
发明内容
本申请的主要目的在于提供一种活体检测方法、设备及可读存储介质,旨在解决现有技术中人脸识别***安全性低的技术问题。
为实现上述目的,本申请提供一种活体检测方法,所述活体检测方法应用于活体检测设备,所述活体检测方法包括:
获取待检测人脸数据和所述待检测人脸数据对应的拍摄设备运动信息,并确定所述待检测人脸数据中各时间帧图像对应的人脸区域数据和对应的背景区域数据;
对所述人脸区域数据进行人脸三维重建,获得人脸三维点云数据;
基于所述人脸三维点云数据,对所述待检测人脸数据进行活体检测,获得第一活体检测结果;
计算所述背景区域数据对应的光流信息,并基于所述拍摄设备运动信息和所述光流信息,对所述待检测人脸数据进行活体检测,获得第二活体检测结果;
基于所述第一活体检测结果和所述第二活体检测结果,确定目标活体检测结果。
本申请还提供一种活体检测装置,所述活体检测装置为虚拟装置,且所述活体检测装置应用于活体检测设备,所述活体检测装置包括:
第一确定模块,用于获取待检测人脸数据和所述待检测人脸数据对应的拍摄设备运动信息,并确定所述待检测人脸数据中各时间帧图像对应的人脸区域数据和对应的背景区域数据;
三维重建模块,用于对所述人脸区域数据进行人脸三维重建,获得人脸三维点云数据;
第一活体检测模块,用于基于所述人脸三维点云数据,对所述待检测人脸数据进行活体检测,获得第一活体检测结果;
第二活体检测模块,用于计算所述背景区域数据对应的光流信息,并基于所述拍摄设备运动信息和所述光流信息,对所述待检测人脸数据进行活体检测,获得第二活体检测结果;
第二确定模块,用于基于所述第一活体检测结果和所述第二活体检测结果,确定目标活体检测结果。
本申请还提供一种活体检测设备,所述活体检测设备为实体设备,所述活体检测设备包括:存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的所述活体检测方法的程序,所述活体检测方法的程序被处理器执行时可实现如上述的活体检测方法的步骤。
本申请还提供一种可读存储介质,所述可读存储介质上存储有实现活体检测方法的程序,所述活体检测方法的程序被处理器执行时实现如上述的活体检测方法的步骤。
本申请提供了一种活体检测方法、设备和可读存储介质,相比于现有技术采用的基于人脸图像序列或者人脸视频的表层特征进行活体检测的技术手段,本申请在获取待检测人脸数据和所述待检测人脸数据对应的拍摄设备运动信息之后,实现确定所述待检测人脸数据中各时间帧图像对应的人脸区域数据和背景区域数据,进而对所述人脸区域数据进行人脸三维重建,获得人脸三维点云数据,其中,由于伪造人脸区域图像序列难以提取出规律的人脸三维特征,进而可实现对伪造的人脸图像序列进行精确识别的目的,可防止恶意攻击者通过伪造人脸图像序列攻击人脸识别***,进而基于所述人脸三维点云数据,即可对所述待检测人脸数据进行活体检测,获得针对于识别伪造的人脸图像序列的第一活体检测结果,进而计算所述背景区域数据对应的光流信息,其中,需要说明的是,若为真实拍摄视频,则光流信息应当与拍摄设备运动信息相匹配,若为伪造的人脸视频,则光流信息与拍摄设备运动信息不相匹配,进而基于所述拍摄设备运动信息和所述光流信息,对所述待检测人脸数据进行活体检测,即可达到对伪造的人脸视频进行精确识别的目的,可防止恶意攻击者通过伪造的人脸视频攻击人脸识别***,获得针对于识别伪造的人脸视频的第二活体检测结果,进一步地,综合第一活体检测结果和第二活体检测结果,即可判断待检测人脸数据是否对应人脸活体,获得目标活体检测结果,进而可确定人脸识别***是否被攻击,克服了现有技术中基于人脸图像序列或者人脸视频的表层特征进行活体检测,难以防御恶意攻击者通过伪造人脸图像序列或者人脸视频对人脸识别***的攻击的技术缺陷,进而提高了人脸识别***的安全性。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请活体检测方法第一实施例的流程示意图;
图2为本申请活体检测方法中用户拍摄待检测人脸视频的示意图;
图3为本申请活体检测方法中所述语义图像和所述时间帧图像的比对示意图;
图4为本申请活体检测方法第二实施例的流程示意图;
图5为本申请活体检测方法中所述二阶差分矩阵的示意图;
图6为本申请活体检测方法中所述边缘差分矩阵的示意图;
图7为本申请活体检测方法中所述方形差分矩阵的示意图;
图8为本申请实施例方案涉及的硬件运行环境的设备结构示意图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
本申请实施例提供一种活体检测方法,在本申请活体检测方法的第一实施例中,参照图1,所述活体检测方法包括:
步骤S10,获取待检测人脸数据和所述待检测人脸数据对应的拍摄设备运动信息,并确定所述待检测人脸数据中各时间帧图像对应的人脸区域数据和对应的背景区域数据;
在本实施例中,需要说明的是,所述待检测人脸数据为待检测人脸视频,所述活体检测方法应用于人脸识别***,用于对待检测人脸视频进行活体检测,以判断待检测人脸视频是否对应人脸活体,其中,若所述待检测人脸视频对应人脸活体,则证明所述待检测人脸视频为人脸活体拍摄的,若所述待检测人脸视频未对应人脸活体,则证明所述待检测人脸视频为伪造的人脸视频或者人脸图像序列。
另外地,需要说明的是,所述待检测人脸视频为移动拍摄的人脸视频,所述拍摄设备运动信息为预设拍摄设备的运动轨迹数据,用于表示预设拍摄设备在移动拍摄过程中的运动轨迹,如图2所示为用户拍摄待检测人脸视频的示意图,其中,虚线箭头表示移动拍摄时的移动方向为水平从左至右。
获取待检测人脸数据和所述待检测人脸数据对应的拍摄设备运动信息,并确定所述待检测人脸数据中各时间帧图像对应的人脸区域数据和对应的背景区域数据,具体地,通过预设拍摄设备移动拍摄待检测人脸视频,并同步采集所述预设拍摄设备对应的陀螺仪数据,其中,所述陀螺仪数据为所述预设拍摄设备移动的加速度数据,进而对所述陀螺仪数据求积分,获得预设拍摄设备的运动轨迹数据,并将预设拍摄设备的运动轨迹数据作为所述拍摄设备运动信息,进而基于预设图像分割模型,分别将所述待检测人脸视频对应的每一时间帧图像均分割为人脸区域和背景区域,获得人脸区域数据和背景区域数据。
其中,所述人脸区域数据至少包括一所述时间帧图像对应的人脸区域,所述背景区域数据至少包括一所述时间帧图像对应的背景区域,
所述确定所述待检测人脸数据中各时间帧图像对应的人脸区域数据和对应的背景区域数据的步骤包括:
步骤S11,基于预设图像分割模型,分别对各所述时间帧图像进行语义分割,获得各所述时间帧图像对应的所述人脸区域和对应的所述背景区域。
在本实施例中,需要说明的是,所述预设图像分割模型为预先训练好的用于进行语义分割的神经网络模型,所述时间帧图像为所述待检测人脸视频中一时间帧的组成图像。
基于预设图像分割模型,分别对各所述时间帧图像进行语义分割,获得各所述时间帧图像对应的所述人脸区域和对应的所述背景区域,具体地,对每一所述时间帧图像均执行以下步骤:
将所述时间帧图像输出所述预设图像分割模型,对所述时间帧图像进行预设次数的下采样,其中,所述下采样的方式包括最大值池化、平均值池化、随机池化和求和区域池化等方式,获得下采样图像,其中,所述下采样图像包括所述时间帧图像的高级语义信息,其中,所述高级语义信息包括图像主体的抽象特征信息,如主***置信息、主体轮廓信息等信息,进一步地,对所述下采样图像进行上采样,其中,所述上采样的方式包括双线性插值、反卷积、反池化等方式,以逐步恢复下采样图像的空间信息,也即,逐步恢复下采样图像中像素点的位置信息,使得上采样后的图像与输入的所述时间帧图像的分辨率一致,获得语义图像,其中,所述语义图像包括所述人脸区域和所述背景区域,如图3所示为所述语义图像和所述时间帧图像的比对示意图,其中,左侧图像为时间帧图像,右侧图像为语义图像,1区域为人脸区域,2区域为背景区域。
步骤S20,对所述人脸区域数据进行人脸三维重建,获得人脸三维点云数据;
在本实施例中,需要说明的是,所述人脸三维点云数据包括人脸三维稀疏点云数据和人脸三维稠密点云数据,其中,所述人脸三维稀疏点云数据是基于SfM(Structurefrom Motion)重建技术进行三维重建获得的,所述人脸三维稠密点云是基于MVS(Multi-View Stereo reconstruction)重建技术进行三维重建获得的。
另外地,需要说明的是,各所述时间帧图像为沿时间轴的时间帧图像序列,每一所述时间帧图像均为所述待检测人脸视频的一帧,由于所述待检测人脸视频为移动拍摄的人脸视频,进而各时间帧图像为预设拍摄设备在不同拍摄角度拍摄的人脸图像,各时间帧图像的二维人脸特征点可映射至三维空间中的同一三维人脸特征点,进而基于各时间图像进行三维重建的人脸三维点云数据应当符合待检测人脸视频中人脸的三维轮廓特征,而对于伪造的图像序列,由于伪造的图像序列中的各人脸图像为恶意攻击者通过各个渠道收集的人脸图像,伪造的图像序列中的人脸图像之间无关联关系,进而基于伪造的图像序列进行三维重建获得的人脸三维点云数据通常不符和人脸的三维轮廓特征。
步骤S30,基于所述人脸三维点云数据,对所述待检测人脸数据进行活体检测,获得第一活体检测结果;
在本实施例中,基于所述人脸三维点云数据,对所述待检测人脸数据进行活体检测,获得第一活体检测结果,具体地,将所述人脸三维点云数据输入预设点云数据分类模型,对所述人脸三维点云数据进行分类,获得点云数据分类标签,进而基于所述点云数据分类标签,判断所述待检测人脸视频是否对应人脸活体,获得第一活体检测结果。
其中,所述基于所述人脸三维点云数据,对所述待检测人脸数据进行活体检测,获得第一活体检测结果的步骤包括:
步骤S31,基于预设点云数据分类模型,对所述人脸三维点云数据进行分类,获得点云数据分类结果;
在本实施例中,基于预设点云数据分类模型,对所述人脸三维点云数据进行分类,获得点云数据分类结果,具体地,将所述人脸三维点云数据对应的点云数据特征表示矩阵输入所述预设点云数据分类模型,对所述点云数据特征表示矩阵进行特征提取,获得所述点云数据特征表示矩阵对应的点云数据类别特征表示矩阵,其中,所述点云数据特征表示矩阵为所述人脸三维点云数据对应的编码矩阵,用于通过编码表示所述人脸三维点云数据,进而对所述点云数据类别特征表示矩阵进行全连接,获得点云数据分类标签向量,进而将所述点云数据分类标签向量作为所述点云数据分类结果。
步骤S32,基于所述点云数据分类结果,对所述待检测人脸数据进行活体检测,获得所述第一活体检测结果。
在本实施例中,基于所述点云数据分类结果,对所述待检测人脸数据进行活体检测,获得所述第一活体检测结果,具体地,提取所述点云数据分类标签向量中的分类标签编码和第一分类概率,其中,所述分类标签编码为所述人脸三维点云数据的标识,所述第一分类概率为所述人脸三维点云数据属于所述分类标签向量对应的数据类别的概率,进而基于所述分类标签编码和第一分类概率,对所述待检测人脸视频进行活体检测,以生成所述待检测人脸视频对应的第一活体分数,并将所述第一活体分数作为所述第一活体检测结果,其中,所述第一活体分类为用于表示待检测人脸视频对应人脸活体的概率的分数,例如,假设所述分类标签编码为1,表示所述人脸三维点云数据属于伪造视频数据类型的点云数据,所述第一分类概率为40%,则所述第一活体分数为60分。
步骤S40,计算所述背景区域数据对应的光流信息,并基于所述拍摄设备运动信息和所述光流信息,对所述待检测人脸数据进行活体检测,获得第二活体检测结果;
在本实施例中,需要说明的是,所述光流信息为像素点在各所述时间帧图像中的位置移动信息,所述光流信息至少包括一个光流值,其中,所述光流值为特定像素值从一时间帧图像中至另一时间帧图像中分别在x方向移动和y方向移动的位置信息,所述光流信息包括稀疏光流和稠密光流,其中,所述稀疏光流包括预设数量的像素点的光流值,所述稠密光流包括所述时间帧图像中每一像素点的光流值,其中,计算所述稀疏光流的方法包括Lucas-Kanade算法等,计算所述稠密光流的方法包括Farneback算法等。
另外地,需要说明的是,由于所述待检测人脸视频为移动拍摄的人脸视频,进而预设拍摄设备将形成一运动轨迹,而在待检测人脸视频中,每一张时间帧图像中的背景区域像素点均可认为由上一时间帧的时间帧图像的背景区域像素点进行移动形成,且背景区域像素点的移动轨迹应当与预设拍摄设备的移动轨迹具有高度的相似性,也即,拍摄设备运动信息和光流信息应当具备高度相似性,而对于伪造的人脸视频,由于对视频进行了编辑,将导致伪造的人脸视频中各时间帧图像的像素点的移动轨迹与拍摄设备的移动轨迹产生偏差,也即,伪造的人脸视频对应的光流信息与拍摄设备的设备运动信息不具备高度相似性。
计算所述背景区域数据对应的光流信息,并基于所述拍摄设备运动信息和所述光流信息,对所述待检测人脸数据进行活体检测,获得第二活体检测结果,具体地,基于预设光流信息计算方法,计算各所述时间帧图像的背景区域对应的光流信息,其中,所述预设光流信息计算方法包括Lucas-Kanade算法和Farneback算法等,进而将所述光流信息与所述拍摄设备运动信息进行比对,以验证所述光流信息对应的像素点的运动轨迹信息与所述预设拍摄设备的运动轨迹信息是否一致,获得比对结果,进而基于所述比对结果,对所述待检测人脸视频进行活体检测,获得第二活体检测结果。
其中,所述基于所述拍摄设备运动信息和所述光流信息,对所述待检测人脸数据进行活体检测,获得第二活体检测结果的步骤包括:
步骤S41,计算所述拍摄设备运动信息与所述光流信息的信息匹配度;
在本实施例中,计算所述拍摄设备运动信息与所述光流信息的信息匹配度,具体地,生成所述拍摄设备运动信息对应的第一运动轨迹和所述光流信息对应的第二运动轨迹,进而计算所述第一运动轨迹和所述第二运动轨迹的轨迹相似度,并将所述轨迹相似度作为所述信息匹配度。
步骤S42,将所述信息匹配度与预设匹配度阀值进行比对,以对所述待检测人脸数据进行活体检测,获得所述第二活体检测结果。
在本实施例中,将所述信息匹配度与预设匹配度阀值进行比对,以对所述待检测人脸数据进行活体检测,获得所述第二活体检测结果,具体地,将所述信息匹配度与预设匹配度阀值进行比对,若所述信息匹配度大于或者等于所述预设匹配度阀值,则判定所述待检测人脸视频对应人脸活体,并生成所述信息匹配度对应的第二活体分数,将所述第二活体分数作为第二活体检测结果,若所述信息匹配度小于所述预设匹配度阀值,则判定所述待检测人脸视频未对应人脸活体,也即,进而将第二活体分数置为0,并将所述第二活体分数作为所述第二活体检测结果。
步骤S50,基于所述第一活体检测结果和所述第二活体检测结果,确定目标活体检测结果。
在本实施例中,基于所述第一活体检测结果和所述第二活体检测结果,确定目标活体检测结果,具体地,对所述第一活体分数和所述第二活体分数进行加权平均,获得目标活体分数,并基于所述目标活体分数,判定所述待检测人脸视频是否对应人脸活体,获得所述目标活体检测结果。
其中,所述基于所述第一活体检测结果和所述第二活体检测结果,确定目标活体检测结果的步骤包括:
步骤S51,基于预设图像识别模型,分别对各所述时间帧图像进行图像识别,获得各所述时间帧图像对应的图像识别结果;
在本实施例,需要说明的是,由于伪造的人脸视频或者人脸图像序列,均需要对图像或者视频进行剪辑,进而可获取伪造的人脸视频中每一帧的图像作为第一类型训练数据,并赋予第一类型标签,并获取非伪造的人脸视频中每一帧的图像作为第二类型训练数据,并赋予第二类型标签,进一步地,基于第一类型标签、第一类型训练数据、第二类型标签和第二类型训练数据,即可训练用于识别伪造的人脸视频对应的各帧图像的预设图像识别模型。
基于预设图像识别模型,分别对各所述时间帧图像进行图像识别,获得各所述时间帧图像对应的图像识别结果,具体地,将各所述时间帧图像输入预设图像识别模型,对各所述时间帧图像进行分类,以判断所述时间帧图像是否为伪造的人脸视频对应的图像序列中的图像,获得各所述时间帧图像的图像分类结果,并将各所述图像分类结果作为所述图像识别结果。
步骤S52,基于所述图像识别结果,对所述待检测人脸数据进行活体检测,获得第三活体检测结果;
在本实施例中,基于所述图像识别结果,对所述待检测人脸数据进行活体检测,获得第三活体检测结果,具体地,基于各所述图像分类结果,计算不属于伪造的人脸视频对应的图像序列的时间帧图像占所有时间帧图像的图像比例,并生成所述图像比例对应的第三活体分数,进而将所述第三活体分数作为所述第三活体结果。
步骤S53,基于所述第一活体检测结果、所述第二活体检测结果和第三活体检测结果,生成第二目标活体检测结果。
在本实施例中,基于所述第一活体检测结果、所述第二活体检测结果和第三活体检测结果,生成第二目标活体检测结果,具体地,对所述第一活体分数、所述第二活体分数和第三活体分数进行加权平均,获得第二目标活体分数,并基于所述第二目标活体分数,判定所述待检测人脸视频是否对应人脸活体,获得所述目标活体检测结果。
本实施例提供了一种活体检测方法,相比于现有技术采用的基于人脸图像序列或者人脸视频的表层特征进行活体检测的技术手段,本实施例在获取待检测人脸数据和所述待检测人脸数据对应的拍摄设备运动信息之后,实现确定所述待检测人脸数据中各时间帧图像对应的人脸区域数据和背景区域数据,进而对所述人脸区域数据进行人脸三维重建,获得人脸三维点云数据,其中,由于伪造人脸区域图像序列难以提取出规律的人脸三维特征,进而可实现对伪造的人脸图像序列进行精确识别的目的,可防止恶意攻击者通过伪造人脸图像序列攻击人脸识别***,进而基于所述人脸三维点云数据,即可对所述待检测人脸数据进行活体检测,获得针对于识别伪造的人脸图像序列的第一活体检测结果,进而计算所述背景区域数据对应的光流信息,其中,需要说明的是,若为真实拍摄视频,则光流信息应当与拍摄设备运动信息相匹配,若为伪造的人脸视频,则光流信息与拍摄设备运动信息不相匹配,进而基于所述拍摄设备运动信息和所述光流信息,对所述待检测人脸数据进行活体检测,即可达到对伪造的人脸视频进行精确识别的目的,可防止恶意攻击者通过伪造的人脸视频攻击人脸识别***,获得针对于识别伪造的人脸视频的第二活体检测结果,进一步地,综合第一活体检测结果和第二活体检测结果,即可判断待检测人脸数据是否对应人脸活体,获得目标活体检测结果,进而可确定人脸识别***是否被攻击,克服了现有技术中基于人脸图像序列或者人脸视频的表层特征进行活体检测,难以防御恶意攻击者通过伪造人脸图像序列或者人脸视频对人脸识别***的攻击的技术缺陷,进而提高了人脸识别***的安全性。
进一步地,参照图4,基于本申请中第一实施例,在本申请的另一实施例中,所述基于所述第一活体检测结果和所述第二活体检测结果,确定目标活体检测结果的步骤包括:
步骤A10,获取各所述时间帧图像对应的帧差噪声特征数据;
在本实施例中,需要说明的是,所述帧差噪声特征数据为帧差数据中的噪声信息的特征数据,用于区分人工编辑视频和自然拍摄视频,其中,人工编辑视频为伪造的人脸视频,自然拍摄视频为非伪造的人脸视频,其中,需要说明的是,由于人工编辑视频为由需要进行剪辑获得,进而在进行剪辑时,将会导致原有的帧差噪声特征产生改变,进而人工编辑视频的帧差噪声特征将与自然拍摄视频的帧差噪声特征不同,例如,自然拍摄视频对应的帧差噪声应当符合高斯分布或者泊松分布,而对视频进行剪辑时,会破坏帧差噪声的分布状况,进而人工编辑视频对应的帧差噪声将不符合高斯分布或者泊松分布。
获取各所述时间帧图像对应的帧差噪声特征数据,具体地,计算相邻的各时间帧对应的时间帧图像之间的帧差,获得帧差数据,进而对所述帧差数据进行特征提取,获得帧差噪声特征数据。
其中,所述帧差噪声特征数据包括空域帧差噪声特征数据和频域帧差噪声特征数据,
所述获取各所述时间帧图像对应的帧差噪声特征数据的步骤包括:
步骤A11,计算各所述时间帧图像之间的相邻帧差,获得各帧差图;
在本实施例中,计算各所述时间帧图像之间的相邻帧差,获得各帧差图,具体地,基于各时间帧图像对应的时间帧的时间先后顺序,计算每一相邻的两个时间帧对应的时间帧图像之间的帧差,获得各所述帧差图,例如,假设各所述时间帧图像为(f1,f2,…,fN),则帧差dN-1=fN-fN-1,进而所述帧差图为(d1,d2,…,dN)。
步骤A12,分别对各所述帧差图进行滤波处理,以放大所述帧差数据中的噪声信号,获得所述空域帧差噪声特征数据;
在本实施例中,需要说明的是,若各时间帧图像中无噪声信号,则所述帧差图对应的帧差图像矩阵中大部分的像素值应当为0,由于自然拍摄视频中必定存在噪声信号,且噪声信号应当在帧差图中各处均有分布,但是在人工编辑图像中,由于人工对图像的一些区域进行编辑,将获得导致在编辑区域的噪声信号消失,进而在帧差图中将表现为噪声信号在帧差图中的部分区域没有分布,在所述帧差图像矩阵中表现为在部分区域的像素值为0。
分别对各所述帧差图进行滤波处理,以放大所述帧差数据中的噪声信号,获得所述空域帧差噪声特征数据,具体地,基于预设滤波核,对各所述帧差图对应的帧差图像矩阵进行卷积处理,以放大所述帧差图中的像素值,进而实现对所述噪声信号的放大,获得各所述帧差图像矩阵对应的卷积处理矩阵,进而将各所述卷积处理矩阵作为所述空域帧差噪声特征数据,其中,所述预设滤波核为用于进行卷积处理的卷积核,其中,所述预设滤波核包括二阶差分矩阵、边缘差分矩阵和方形差分矩阵等,其中,如图5所示为所述二阶差分矩阵的示意图,如图6所示为所述边缘差分矩阵的示意图,如图7所示为所述方形差分矩阵的示意图。
步骤A13,分别对各所述帧差图进行傅里叶变换,以将所述帧差图由空域变换至频域,获得所述频域帧差噪声特征数据。
在本实施例中,需要说明的是,所述频域帧差噪声特征数据包括帧差频谱图,所述帧差图为空域的图像,所述帧差图包括图像的空间信息,其中,所述空间信息反映图像中物体的位置、形状和大小等特征,所述帧差频谱图为帧差图在频域对应的图像,用于表示帧差图的图像频率,其中,所述图像频率为图像的像素值变化的剧烈程度,也即为图像的梯度。
另外地,需要说明的是,图像的主要成分是低频信息,它形成了图像的基本灰度等级,对图像结构的决定作用较小,中频信息决定了图像的基本结构,形成了图像的主要边缘结构,高频信息形成了图像的边缘和细节,而噪声信号在图像中通常为中高频信息。
另外地,需要说明的是,自然拍摄视频对应的帧差频谱图中的噪声信号与低频信号应当在帧差频谱图中的每个区域均匀分布,而对于人工编辑视频对应的帧差频谱图,由于进行了人工编辑,导致噪声信号被消除了,进而在帧差频谱图中表现为部分区域的高频信息消失。
分别对各所述帧差图进行傅里叶变换,以将所述帧差图由空域变换至频域,获得所述频域帧差噪声特征数据,具体地,分别对各所述帧差图进行傅里叶变换,以分别将各所述帧差图由空域变换至频域,获得各所述帧差图对应的帧差频谱图,进而将各所述帧差频谱图作为所述频域帧差噪声特征数据。
步骤A20,基于所述帧差噪声特征数据,对所述待检测人脸数据进行活体检测,获得第四活体检测结果;
在本实施例中,基于所述帧差噪声特征数据,对所述待检测人脸数据进行活体检测,获得第四活体检测结果,具体地,基于所述帧差噪声特征数据,分别对各所述帧差图进行活体检测,获得各所述帧差图对应的活体检测子结果,进而基于各所述活体检测子结果,计算第四活体分数,并将所述第四活体分数作为所述第四活体检测结果,在一种可实施的方案中,确定判断为活体的所述活体检测子结果的活体判定数量,进而计算活体判定数量与所述帧差图的数量的比值,获得第四活体分数。
另外地,需要说明的是,由于本申请实施例是基于帧差噪声特征数据进行活体检测,进而可区分人工编辑视频和自然拍摄视频,其中,人工编辑视频对应的各帧差噪声特征数据对应的活体检测子结果应当大概率判定为非活体,进而即使恶意攻击者采用伪造的视频数据攻击人脸识别***,也可识别出伪造视频数据,并将伪造视频数据中的人脸判定为非活体,提高了活体检测的准确性,进而提高了人脸识别的准确性。
所述基于所述帧差噪声特征数据,对所述待检测人脸数据进行活体检测,获得第四活体检测结果的步骤包括:
步骤A21,将所述帧差噪声特征数据输入预设帧差噪声特征分类模型,对所述帧差噪声特征数据中各帧差噪声特征进行分类,获得帧差噪声特征分类结果;
在本实施例中,需要说明的是,所述帧差噪声特征数据至少包括一帧差图对应的帧差噪声特征,所述帧差噪声特征包括所述卷积处理矩阵和帧差频谱图,所述预设帧差噪声特征分类模型为训练好的神经网络模型,用于对帧差噪声特征进行分类,其中,所述帧差噪声特征的类型包括活体帧差噪声特征类型和非活体帧差噪声特征类型。
将所述帧差噪声特征数据输入预设帧差噪声特征分类模型,对所述帧差噪声特征数据中各帧差噪声特征进行分类,获得帧差噪声特征分类结果,具体地,将各所述帧差图对应的帧差噪声特征表示矩阵输入所述预设帧差噪声特征分类模型,分别对各所述帧差噪声特征表示矩阵进行特征提取,获得各所述帧差噪声特征表示矩阵对应的特征提取矩阵,其中,所述帧差噪声特征表示矩阵为所述帧差噪声特征的编码矩阵,进而分别对各所述特征提取矩阵进行全连接,获得各所述帧差噪声特征对应的分类标签向量,进而基于各所述分类标签向量中的分类标签,判定各所述帧差噪声特征的类型是活体帧差噪声特征类型还是非活体帧差噪声特征类型,获得帧差噪声特征分类结果,其中,所述活体帧差噪声特征类型表示帧差噪声特征对应的帧差图对应人脸活体,所述非活体帧差噪声特征类型表示帧差噪声特征对应的帧差图对应非人脸活体。
另外地,需要说明的是,在训练所述预设帧差噪声特征分类模型时,可分别获取自然拍摄的人脸视频数据和人工编辑的人脸视频数据,并将自然拍摄的人脸视频数据对应的帧差噪声特征作为第一类型训练数据,并为第一类型训练数据赋予活体帧差特征类型对应的第一分类标签,将人工编辑的人脸视频数据对应的帧差噪声特征作为第二类型训练数据,并为第二类型训练数据赋予非活体帧差特征类型对应的第二分类标签,进而基于所述第一类型训练数据、所述第一分类标签、所述第二类型训练数据和所述第二分类标签,即可训练所述预设帧差噪声特征分类模型。
步骤A22,基于所述帧差噪声特征分类结果,对所述待检测人脸数据进行活体检测,获得所述第四活体检测结果。
在本实施例中,基于所述帧差噪声特征分类结果,对所述待检测人脸数据进行活体检测,获得所述第四活体检测结果,具体地,基于所述帧差噪声特征分类结果,统计属于活体帧差特征类型的帧差噪声特征的活体帧差特征数量,并基于所述活体帧差特征数量和所述帧差图的数量,计算第四活体分数,并将所述第四活体分数作为第四活体检测结果。
步骤A30,基于所述第一活体检测结果、所述第二活体检测结果和第四活体检测结果,生成第三目标活体检测结果。
在本实施例中,基于所述第一活体检测结果、所述第二活体检测结果和第四活体检测结果,生成第三目标活体检测结果,具体地,对所述第一活体分数、所述第二活体分数和第四活体分数进行加权平均,获得第三目标活体分数,并基于所述第三目标活体分数,判定所述待检测人脸视频是否对应人脸活体,获得所述第三目标活体检测结果。
本实施例提供了一种活体检测方法,相比于现有技术采用的基于人脸图像序列或者人脸视频的表层特征进行活体检测的技术手段,本实施例在获取各所述时间帧图像对应的帧差噪声特征数据之后,其中,需要说明的是,人工编辑的伪造视频数据与自然拍摄的视频数据的帧差噪声特征数据不同,进而基于所述帧差噪声特征数据,对所述待检测人脸数据进行活体检测,即可识别帧差噪声特征数据对应的待检测人脸视频是否为伪造的视频数据,进而获得更加精确的第四活体检测结果,进一步地,联合基于所述第一活体检测结果、所述第二活体检测结果和第四活体检测结果,即可综合判断待检测人脸数据是否对应人脸活体,生成第三目标活体检测结果,进而可确定人脸识别***是否被攻击,克服了现有技术中基于人脸图像序列或者人脸视频的表层特征进行活体检测,难以防御恶意攻击者通过伪造人脸图像序列或者人脸视频对人脸识别***的攻击的技术缺陷,进而提高了人脸识别***的安全性。
参照图8,图8是本申请实施例方案涉及的硬件运行环境的设备结构示意图。
如图8所示,该活体检测设备可以包括:处理器1001,例如CPU,存储器1005,通信总线1002。其中,通信总线1002用于实现处理器1001和存储器1005之间的连接通信。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储设备。
可选地,该活体检测设备还可以包括矩形用户接口、网络接口、摄像头、RF(RadioFrequency,射频)电路,传感器、音频电路、WiFi模块等等。矩形用户接口可以包括显示屏(Display)、输入子模块比如键盘(Keyboard),可选矩形用户接口还可以包括标准的有线接口、无线接口。网络接口可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。
本领域技术人员可以理解,图8中示出的活体检测设备结构并不构成对活体检测设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图8所示,作为一种计算机存储介质的存储器1005中可以包括操作***、网络通信模块以及活体检测程序。操作***是管理和控制活体检测设备硬件和软件资源的程序,支持活体检测程序以及其它软件和/或程序的运行。网络通信模块用于实现存储器1005内部各组件之间的通信,以及与活体检测***中其它硬件和软件之间通信。
在图8所示的活体检测设备中,处理器1001用于执行存储器1005中存储的活体检测程序,实现上述任一项所述的活体检测方法的步骤。
本申请活体检测设备具体实施方式与上述活体检测方法各实施例基本相同,在此不再赘述。
本申请实施例还提供一种活体检测装置,所述活体检测装置应用于活体检测设备,所述活体检测装置包括:
第一确定模块,用于获取待检测人脸数据和所述待检测人脸数据对应的拍摄设备运动信息,并确定所述待检测人脸数据中各时间帧图像对应的人脸区域数据和对应的背景区域数据;
三维重建模块,用于对所述人脸区域数据进行人脸三维重建,获得人脸三维点云数据;
第一活体检测模块,用于基于所述人脸三维点云数据,对所述待检测人脸数据进行活体检测,获得第一活体检测结果;
第二活体检测模块,用于计算所述背景区域数据对应的光流信息,并基于所述拍摄设备运动信息和所述光流信息,对所述待检测人脸数据进行活体检测,获得第二活体检测结果;
第二确定模块,用于基于所述第一活体检测结果和所述第二活体检测结果,确定目标活体检测结果。
可选地,所述第一活体检测模块包括:
分类单元,用于基于预设点云数据分类模型,对所述人脸三维点云数据进行分类,获得点云数据分类结果;
第一活体检测单元,用于基于所述点云数据分类结果,对所述待检测人脸数据进行活体检测,获得所述第一活体检测结果。
可选地,所述第二活体检测模块包括:
计算单元,用于计算所述拍摄设备运动信息与所述光流信息的信息匹配度;
第二活体检测单元,用于将所述信息匹配度与预设匹配度阀值进行比对,以对所述待检测人脸数据进行活体检测,获得所述第二活体检测结果。
可选地,所述第一确定模块包括:
语义分割单元,用于基于预设图像分割模型,分别对各所述时间帧图像进行语义分割,获得各所述时间帧图像对应的所述人脸区域和对应的所述背景区域。
可选地,所述第二确定模块包括:
图像识别单元,用于基于预设图像识别模型,分别对各所述时间帧图像进行图像识别,获得各所述时间帧图像对应的图像识别结果;
第三活体检测单元,用于基于所述图像识别结果,对所述待检测人脸数据进行活体检测,获得第三活体检测结果;
第一确定单元,用于基于所述第一活体检测结果、所述第二活体检测结果和第三活体检测结果,生成第二目标活体检测结果。
可选地,所述第二确定模块还包括:
获取单元,用于获取各所述时间帧图像对应的帧差噪声特征数据;
第四活体检测单元,用于基于所述帧差噪声特征数据,对所述待检测人脸数据进行活体检测,获得第四活体检测结果;
第二确定单元,用于基于所述第一活体检测结果、所述第二活体检测结果和第四活体检测结果,生成第三目标活体检测结果。
可选地,所述获取单元包括:
计算子单元,用于计算各所述时间帧图像之间的相邻帧差,获得各帧差图;
滤波子单元,用于分别对各所述帧差图进行滤波处理,以放大所述帧差数据中的噪声信号,获得所述空域帧差噪声特征数据;
傅里叶变换子单元,用于分别对各所述帧差图进行傅里叶变换,以将所述帧差图由空域变换至频域,获得所述频域帧差噪声特征数据。
可选地,所述第四活体检测单元包括:
分类子单元,用于将所述帧差噪声特征数据输入预设帧差噪声特征分类模型,对所述帧差噪声特征数据中各帧差噪声特征进行分类,获得帧差噪声特征分类结果;
活体检测子单元,用于基于所述帧差噪声特征分类结果,对所述待检测人脸数据进行活体检测,获得所述第四活体检测结果。
本申请活体检测装置的具体实施方式与上述活体检测方法各实施例基本相同,在此不再赘述。
本申请实施例提供了一种可读存储介质,且所述可读存储介质存储有一个或者一个以上程序,所述一个或者一个以上程序还可被一个或者一个以上的处理器执行以用于实现上述任一项所述的活体检测方法的步骤。
本申请可读存储介质具体实施方式与上述活体检测方法各实施例基本相同,在此不再赘述。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利处理范围内。
Claims (10)
1.一种活体检测方法,其特征在于,所述活体检测方法包括:
获取待检测人脸数据和所述待检测人脸数据对应的拍摄设备运动信息,并确定所述待检测人脸数据中各时间帧图像对应的人脸区域数据和对应的背景区域数据;
对所述人脸区域数据进行人脸三维重建,获得人脸三维点云数据;
基于所述人脸三维点云数据,对所述待检测人脸数据进行活体检测,获得第一活体检测结果;
计算所述背景区域数据对应的光流信息,并基于所述拍摄设备运动信息和所述光流信息,对所述待检测人脸数据进行活体检测,获得第二活体检测结果;
基于所述第一活体检测结果和所述第二活体检测结果,确定目标活体检测结果。
2.如权利要求1所述活体检测方法,其特征在于,所述基于所述人脸三维点云数据,对所述待检测人脸数据进行活体检测,获得第一活体检测结果的步骤包括:
基于预设点云数据分类模型,对所述人脸三维点云数据进行分类,获得点云数据分类结果;
基于所述点云数据分类结果,对所述待检测人脸数据进行活体检测,获得所述第一活体检测结果。
3.如权利要求1所述活体检测方法,其特征在于,所述基于所述拍摄设备运动信息和所述光流信息,对所述待检测人脸数据进行活体检测,获得第二活体检测结果的步骤包括:
计算所述拍摄设备运动信息与所述光流信息的信息匹配度;
将所述信息匹配度与预设匹配度阀值进行比对,以对所述待检测人脸数据进行活体检测,获得所述第二活体检测结果。
4.如权利要求1所述活体检测方法,其特征在于,所述人脸区域数据至少包括一所述时间帧图像对应的人脸区域,所述背景区域数据至少包括一所述时间帧图像对应的背景区域,
所述确定所述待检测人脸数据中各时间帧图像对应的人脸区域数据和对应的背景区域数据的步骤包括:
基于预设图像分割模型,分别对各所述时间帧图像进行语义分割,获得各所述时间帧图像对应的所述人脸区域和对应的所述背景区域。
5.如权利要求1所述活体检测方法,其特征在于,所述基于所述第一活体检测结果和所述第二活体检测结果,确定目标活体检测结果的步骤包括:
基于预设图像识别模型,分别对各所述时间帧图像进行图像识别,获得各所述时间帧图像对应的图像识别结果;
基于所述图像识别结果,对所述待检测人脸数据进行活体检测,获得第三活体检测结果;
基于所述第一活体检测结果、所述第二活体检测结果和第三活体检测结果,生成第二目标活体检测结果。
6.如权利要求1所述活体检测方法,其特征在于,所述基于所述第一活体检测结果和所述第二活体检测结果,确定目标活体检测结果的步骤包括:
获取各所述时间帧图像对应的帧差噪声特征数据;
基于所述帧差噪声特征数据,对所述待检测人脸数据进行活体检测,获得第四活体检测结果;
基于所述第一活体检测结果、所述第二活体检测结果和第四活体检测结果,生成第三目标活体检测结果。
7.如权利要求6所述活体检测方法,其特征在于,所述帧差噪声特征数据包括空域帧差噪声特征数据和频域帧差噪声特征数据,
所述获取各所述时间帧图像对应的帧差噪声特征数据的步骤包括:
计算各所述时间帧图像之间的相邻帧差,获得各帧差图;
分别对各所述帧差图进行滤波处理,以放大所述帧差数据中的噪声信号,获得所述空域帧差噪声特征数据;
分别对各所述帧差图进行傅里叶变换,以将所述帧差图由空域变换至频域,获得所述频域帧差噪声特征数据。
8.如权利要求6所述活体检测方法,其特征在于,所述基于所述帧差噪声特征数据,对所述待检测人脸数据进行活体检测,获得第四活体检测结果的步骤包括:
将所述帧差噪声特征数据输入预设帧差噪声特征分类模型,对所述帧差噪声特征数据中各帧差噪声特征进行分类,获得帧差噪声特征分类结果;
基于所述帧差噪声特征分类结果,对所述待检测人脸数据进行活体检测,获得所述第四活体检测结果。
9.一种活体检测设备,其特征在于,所述活体检测设备包括:存储器、处理器以及存储在存储器上的用于实现所述活体检测方法的程序,
所述存储器用于存储实现活体检测方法的程序;
所述处理器用于执行实现所述活体检测方法的程序,以实现如权利要求1至8中任一项所述活体检测方法的步骤。
10.一种可读存储介质,其特征在于,所述可读存储介质上存储有实现活体检测方法的程序,所述实现活体检测方法的程序被处理器执行以实现如权利要求1至8中任一项所述活体检测方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010876192.8A CN111985427A (zh) | 2020-08-25 | 2020-08-25 | 活体检测方法、设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010876192.8A CN111985427A (zh) | 2020-08-25 | 2020-08-25 | 活体检测方法、设备及可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111985427A true CN111985427A (zh) | 2020-11-24 |
Family
ID=73439855
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010876192.8A Pending CN111985427A (zh) | 2020-08-25 | 2020-08-25 | 活体检测方法、设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111985427A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112433228A (zh) * | 2021-01-05 | 2021-03-02 | 中国人民解放军国防科技大学 | 用于行人检测的多激光雷达决策级融合方法和装置 |
CN113095272A (zh) * | 2021-04-23 | 2021-07-09 | 深圳前海微众银行股份有限公司 | 活体检测方法、设备、介质及计算机程序产品 |
CN113822841A (zh) * | 2021-01-29 | 2021-12-21 | 深圳信息职业技术学院 | 一种污水杂质结块检测方法、装置及相关设备 |
WO2022126914A1 (zh) * | 2020-12-18 | 2022-06-23 | 平安科技(深圳)有限公司 | 活体检测方法、装置、电子设备及存储介质 |
CN116310146A (zh) * | 2023-05-16 | 2023-06-23 | 北京邃芒科技有限公司 | 人脸图像重演方法、***、电子设备、存储介质 |
TWI824892B (zh) * | 2022-08-03 | 2023-12-01 | 大陸商中國銀聯股份有限公司 | 一種基於光流分析的人臉操控檢測方法及其檢測裝置 |
-
2020
- 2020-08-25 CN CN202010876192.8A patent/CN111985427A/zh active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022126914A1 (zh) * | 2020-12-18 | 2022-06-23 | 平安科技(深圳)有限公司 | 活体检测方法、装置、电子设备及存储介质 |
CN112433228A (zh) * | 2021-01-05 | 2021-03-02 | 中国人民解放军国防科技大学 | 用于行人检测的多激光雷达决策级融合方法和装置 |
CN113822841A (zh) * | 2021-01-29 | 2021-12-21 | 深圳信息职业技术学院 | 一种污水杂质结块检测方法、装置及相关设备 |
CN113822841B (zh) * | 2021-01-29 | 2022-05-20 | 深圳信息职业技术学院 | 一种污水杂质结块检测方法、装置及相关设备 |
CN113095272A (zh) * | 2021-04-23 | 2021-07-09 | 深圳前海微众银行股份有限公司 | 活体检测方法、设备、介质及计算机程序产品 |
CN113095272B (zh) * | 2021-04-23 | 2024-03-29 | 深圳前海微众银行股份有限公司 | 活体检测方法、设备、介质及计算机程序产品 |
TWI824892B (zh) * | 2022-08-03 | 2023-12-01 | 大陸商中國銀聯股份有限公司 | 一種基於光流分析的人臉操控檢測方法及其檢測裝置 |
CN116310146A (zh) * | 2023-05-16 | 2023-06-23 | 北京邃芒科技有限公司 | 人脸图像重演方法、***、电子设备、存储介质 |
CN116310146B (zh) * | 2023-05-16 | 2023-10-27 | 北京邃芒科技有限公司 | 人脸图像重演方法、***、电子设备、存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111985427A (zh) | 活体检测方法、设备及可读存储介质 | |
CN108875676B (zh) | 活体检测方法、装置及*** | |
Younus et al. | Effective and fast deepfake detection method based on haar wavelet transform | |
JP4739355B2 (ja) | 統計的テンプレートマッチングによる高速な物体検出方法 | |
JP6230751B1 (ja) | 物体検出装置および物体検出方法 | |
US9928426B1 (en) | Vehicle detection, tracking and localization based on enhanced anti-perspective transformation | |
Boulkenafet et al. | Scale space texture analysis for face anti-spoofing | |
JP5431362B2 (ja) | 画像識別のための特徴ベースの識別特性(signature) | |
US9767383B2 (en) | Method and apparatus for detecting incorrect associations between keypoints of a first image and keypoints of a second image | |
JP2012038318A (ja) | ターゲット検出方法及び装置 | |
Su et al. | A novel forgery detection algorithm for video foreground removal | |
CN111738211B (zh) | 基于动态背景补偿与深度学习的ptz摄像机运动目标检测与识别方法 | |
Thajeel et al. | A Novel Approach for Detection of Copy Move Forgery using Completed Robust Local Binary Pattern. | |
Barni et al. | Detection of adaptive histogram equalization robust against JPEG compression | |
Xu et al. | COCO-Net: A dual-supervised network with unified ROI-loss for low-resolution ship detection from optical satellite image sequences | |
CN112435278B (zh) | 一种基于动态目标检测的视觉slam方法及装置 | |
CN107748885B (zh) | 一种对模糊字符进行识别的方法 | |
CN106778822B (zh) | 基于漏斗变换的图像直线检测方法 | |
CN111179245B (zh) | 图像质量检测方法、装置、电子设备和存储介质 | |
Saxena et al. | Video inpainting detection and localization using inconsistencies in optical flow | |
JP2018124963A (ja) | 画像処理装置、画像認識装置、画像処理プログラム、及び画像認識プログラム | |
Xu et al. | Features based spatial and temporal blotch detection for archive video restoration | |
CN110910497A (zh) | 实现增强现实地图的方法和*** | |
CN111985423A (zh) | 活体检测方法、装置、设备及可读存储介质 | |
Robinson et al. | Foreground segmentation in atmospheric turbulence degraded video sequences to aid in background stabilization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |