CN115147936A - 一种活体检测方法、电子设备、存储介质及程序产品 - Google Patents

一种活体检测方法、电子设备、存储介质及程序产品 Download PDF

Info

Publication number
CN115147936A
CN115147936A CN202210528092.5A CN202210528092A CN115147936A CN 115147936 A CN115147936 A CN 115147936A CN 202210528092 A CN202210528092 A CN 202210528092A CN 115147936 A CN115147936 A CN 115147936A
Authority
CN
China
Prior art keywords
detected
response
video
color channel
living body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210528092.5A
Other languages
English (en)
Inventor
马志明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Kuangshi Technology Co Ltd
Original Assignee
Beijing Kuangshi Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Kuangshi Technology Co Ltd filed Critical Beijing Kuangshi Technology Co Ltd
Priority to CN202210528092.5A priority Critical patent/CN115147936A/zh
Publication of CN115147936A publication Critical patent/CN115147936A/zh
Priority to PCT/CN2023/094603 priority patent/WO2023221996A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本申请实施例提供了一种活体检测方法、电子设备、存储介质及程序产品。所述方法包括:获取待检测对象的待检测视频,待检测对象的视频为:在按照第一光照序列照射待检测对象期间,所采集的待检测对象的视频;根据第一光照序列,和待检测视频所表征的待检测对象的每各个实***置点反射的第二光照序列,生成待检测对象的响应图;基于响应图、利用第一活体检测模型对响应图进行处理待检测对象进行活体检测,得到待检测对象的第一活体检测结果;将待检测视频输入第二活体检测模型,得到待检测对象的第二活体检测结果;根据第一活体检测结果和第二活体检测结果,确定待检测对象的最终活体检测结果。

Description

一种活体检测方法、电子设备、存储介质及程序产品
技术领域
本申请涉及数据处理技术领域,特别是涉及一种活体检测方法、电子设备、存储介质及程序产品。
背景技术
活体检测技术日趋成熟,相关的炫彩活体检测技术主要包括两个部分:一是打光序列检验,对比发出的光照序列和视频中待检测对象呈现的反射光的序列,判断是否存在摄像头劫持;二是通过采集的待检测对象的视频或则和图像的活体检测方法,检测得到的炫彩视频中是否包含普通活体攻击行为,如屏幕翻拍、打印纸翻拍等。
现有的炫彩活体检测技术通常是将上述两个部分***开进行检测的,也即,分别采用不同的模型或者算法实现上述两部分的检测,再结合两部分检测结果得到最终的活体检测结果。因此,现有的炫彩光活体检测技术还有待提升。
发明内容
鉴于上述问题,本申请实施例提供了一种活体检测方法、电子设备、存储介质及程序产品,以便克服上述问题或者至少部分地解决上述问题。
本申请实施例的第一方面,提供了一种活体检测方法,包括:
获取待检测对象的待检测视频,所述待检测视频为:在按照第一光照序列照射所述待检测对象期间,所采集的所述待检测对象的视频;
根据所述第一光照序列,和所述待检测视频所表征的所述待检测对象的各个实***置点反射的第二光照序列,生成所述待检测对象的响应图,所述响应图中各像素点的响应强度表征:所述像素点所对应的实***置点反射的第二光照序列与所述第一光照序列之间的相似度;
基于所述响应图、利用第一活体检测模型对所述待检测对象进行活体检测,得到所述待检测对象的第一活体检测结果;
将所述待检测视频输入第二活体检测模型,得到所述待检测对象的第二活体检测结果;
根据所述第一活体检测结果和所述第二活体检测结果,确定所述待检测对象的最终活体检测结果。
可选地,所述待检测视频所表征的所述待检测对象的各个实***置点反射的第二光照序列,是按照以下步骤得到的:
提取所述待检测视频的多个视频帧;
将所述多个视频帧中描述所述待检测对象的同一实***置点的像素点进行对齐;
针对所述待检测对象的各个实***置点,根据所述多个视频帧中各视频帧描述该实***置点的像素点所反射的光照,得到该实***置点所反射的第二光照序列。
可选地,将所述多个视频帧中描述所述待检测对象的同一实***置点的像素点进行对齐,包括:
针对所述多个视频帧中的各视频帧,对所述视频帧进行人脸关键点检测,得到所述视频帧所包含的人脸关键点,根据各所述视频帧所包含的人脸关键点,对所述多个视频帧进行人脸关键点级别的对齐处理,对进行人脸关键点级别的对齐处理后的所述多个视频帧进行像素点级别的对齐处理;
或者,
对所述多个视频帧进行像素点级别的对齐处理。
可选地,通过如下过程进行所述像素点级别的对齐处理:
分别计算参与所述像素点级别的对齐处理的多个视频帧中除参考视频帧外的其它每个视频帧,与所述参考视频帧之间的稠密光流数据,所述参考视频帧为参与所述像素点级别的对齐处理的多个视频帧中的任一个视频帧;
根据所述其它每个视频帧与所述参考视频帧之间的稠密光流数据,将所述其它每个视频帧与所述参考视频帧进行像素点级别的对齐处理。
可选地,所述第一光照序列和所述第二光照序列均包含多个颜色通道的彩光序列;
根据所述第一光照序列,和所述待检测视频所表征的所述待检测对象的各个实***置点反射的第二光照序列,生成所述待检测对象的响应图,包括:
分离所述第一光照序列,得到每个所述颜色通道所对应的第一彩光序列,以及,分离所述第二光照序列,得到每个所述颜色通道所对应的第二彩光序列;
针对每个所述颜色通道,根据所述待检测对象的每个实***置点所反射的该颜色通道的第二彩光序列,与该颜色通道所对应的第一彩光序列之间的相似度,生成所述待检测对象在该颜色通道的响应子图;
将所述待检测对象在每个所述颜色通道的响应子图进行融合处理,得到所述待检测对象的响应图。
可选地,将所述待检测对象在每个所述颜色通道的响应子图进行融合处理,得到所述待检测对象的响应图,包括:
根据所述待检测对象在每个所述颜色通道的响应子图,获取所述待检测对象的人脸区域在每个所述颜色通道的响应强度均值;
根据所述待检测对象的人脸区域在每个所述颜色通道的响应强度均值,对所述待检测对象在该颜色通道的响应子图进行正则化处理,得到所述待检测对象在每个所述颜色通道的正则化响应子图;
将所述待检测对象在每个所述颜色通道的正则化响应子图进行融合处理,得到所述待检测对象的响应图。
可选地,在利用第一活体检测模型对所述响应图进行处理之前,还包括:
获取所述待检测对象的响应图的属性值,所述属性值包括以下至少一者:响应强度均值、质量值;
根据所述待检测对象的响应图的属性值与对应的属性阈值的大小关系,确定所述待检测对象的活体检测结果;
在所述待检测对象的响应图的属性值小于对应的所述属性阈值的情况下,确定所述待检测对象不是活体;
在所述待检测对象的响应图的属性值不小于对应的所述属性阈值的情况下,执行基于所述响应图、利用第一活体检测模型对所述待检测对象进行活体检测的步骤。
可选地,所述第一活体检测模型为学习了活体人脸的响应图的第一图像特征以及所述活体人脸的第二图像特征的模型;
基于所述响应图、利用第一活体检测模型对所述待检测对象进行活体检测,得到所述待检测对象的第一活体检测结果,包括:
提取所述响应图的第一图像特征;
提取所述待检测视频的任一个视频帧,并获取该视频帧的第二图像特征;
融合所述第一图像特征以及所述第二图像特征,得到融合图像特征;
利用所述第一活体模型对所述融合图像特征进行处理,得到所述待检测对象的第一活体检测结果。
本申请实施例的第二方面,提供了一种活体检测方法,包括:
获取待检测对象的待检测视频,所述待检测视频为:在按照第一光照序列照射所述待检测对象期间,所采集的所述待检测对象的视频;
根据所述第一光照序列,和所述待检测视频所表征的所述待检测对象的各个实***置点反射的第二光照序列,生成所述待检测对象的响应图,所述响应图中各像素点的响应强度表征:所述像素点所对应的实***置点反射的第二光照序列与所述第一光照序列之间的相似度;
基于所述响应图、利用活体检测模型对所述待检测对象进行活体检测,得到所述待检测对象的活体检测结果。
可选地,所述待检测视频所表征的所述待检测对象的各个实***置点反射的第二光照序列,是按照以下步骤得到的:
提取所述待检测视频的多个视频帧;
将所述多个视频帧中描述所述待检测对象的同一实***置点的像素点进行对齐;
针对所述待检测对象的各个实***置点,根据所述多个视频帧中各视频帧描述该实***置点的像素点所反射的光照,得到该实***置点所反射的第二光照序列。
可选地,将所述多个视频帧中描述所述待检测对象的同一实***置点的像素点进行对齐,包括:
针对所述多个视频帧中的各视频帧,对所述视频帧进行人脸关键点检测,得到所述视频帧所包含的人脸关键点,根据各所述视频帧所包含的人脸关键点,对所述多个视频帧进行人脸关键点级别的对齐处理,对进行人脸关键点级别的对齐处理后的所述多个视频帧进行像素点级别的对齐处理;
或者,
对所述多个视频帧进行像素点级别的对齐处理。
可选地,通过如下过程进行所述像素点级别的对齐处理:
分别计算参与所述像素点级别的对齐处理的多个视频帧中除参考视频帧外的其它每个视频帧,与所述参考视频帧之间的稠密光流数据,所述参考视频帧为参与所述像素点级别的对齐处理的多个视频帧中的任一个视频帧;
根据所述其它每个视频帧与所述参考视频帧之间的稠密光流数据,将所述其它每个视频帧与所述参考视频帧进行像素点级别的对齐处理。
可选地,所述第一光照序列和所述第二光照序列均包含多个颜色通道的彩光序列;
根据所述第一光照序列,和所述待检测视频所表征的所述待检测对象的各个实***置点反射的第二光照序列,生成所述待检测对象的响应图,包括:
分离所述第一光照序列,得到每个所述颜色通道所对应的第一彩光序列,以及,分离所述第二光照序列,得到每个所述颜色通道所对应的第二彩光序列;
针对每个所述颜色通道,根据所述待检测对象的每个实***置点所反射的该颜色通道的第二彩光序列,与该颜色通道所对应的第一彩光序列之间的相似度,生成所述待检测对象在该颜色通道的响应子图;
将所述待检测对象在每个所述颜色通道的响应子图进行融合处理,得到所述待检测对象的响应图。
可选地,将所述待检测对象在每个所述颜色通道的响应子图进行融合处理,得到所述待检测对象的响应图,包括:
根据所述待检测对象在每个所述颜色通道的响应子图,获取所述待检测对象的人脸区域在每个所述颜色通道的响应强度均值;
根据所述待检测对象的人脸区域在每个所述颜色通道的响应强度均值,对所述待检测对象在该颜色通道的响应子图进行正则化处理,得到所述待检测对象在每个所述颜色通道的正则化响应子图;
将所述待检测对象在每个所述颜色通道的正则化响应子图进行融合处理,得到所述待检测对象的响应图。
可选地,在利用活体检测模型对所述响应图进行处理之前,还包括:
获取所述待检测对象的响应图的属性值,所述属性值包括以下至少一者:响应强度均值、质量值;
根据所述待检测对象的响应图的属性值与对应的属性阈值的大小关系,确定所述待检测对象的活体检测结果;
在所述待检测对象的响应图的属性值小于对应的所述属性阈值的情况下,确定所述待检测对象不是活体;
在所述待检测对象的响应图的属性值不小于对应的所述属性阈值的情况下,执行基于所述响应图、利用活体检测模型对所述待检测对象进行活体检测的步骤。
可选地,所述活体检测模型为学习了活体人脸的响应图的第一图像特征以及所述活体人脸的第二图像特征的模型;
基于所述响应图、利用活体检测模型对所述待检测对象进行活体检测,得到所述待检测对象的活体检测结果,包括:
提取所述响应图的第一图像特征;
提取所述待检测视频的任一个视频帧,并获取该视频帧的第二图像特征;
融合所述第一图像特征以及所述第二图像特征,得到融合图像特征;
利用所述活体模型对所述融合图像特征进行处理,得到所述待检测对象的活体检测结果。
本申请实施例的第三方面,提供了一种电子设备,包括存储器、处理器及存储在所述存储器上的计算机程序,所述处理器执行所述计算机程序以实现如第一方面所述的活体检测方法;或者,所述处理器执行所述计算机程序以实现如第二方面所述的活体检测方法。
本申请实施例的第四方面,提供了一种计算机可读存储介质,其上存储有计算机程序/指令,该计算机程序/指令被处理器执行时实现如第一方面所述的活体检测方法;或者,该计算机程序/指令被处理器执行时实现如第二方面所述的活体检测方法。
本申请实施例的第五方面,提供了一种计算机程序产品,包括计算机程序/指令,该计算机程序/指令被处理器执行时实现如第一方面所述的活体检测方法;或者,该计算机程序/指令被处理器执行时实现如第二方面所述的活体检测方法。
本申请实施例包括以下优点:
本实施例中,待检测对象的响应图具体到了像素点级别,根据响应图的各像素点表征的待检测对象的实***置点反射的第二光照序列与第一光照序列之间的相似度,可以得到待检测对象各个实***置区域的呈现出的不同反射模式。活体人脸凹凸不平,翻拍采用的屏幕或打印纸比较平滑且反射率高,因此活体人脸和翻拍反射的光具有不同的模式,因此,可以基于待检测对象的响应图,区分待检测对象为翻拍还是活体人脸,从而得到待检测对象的第一活体检测结果。也即,在炫彩活体检测方法中,引入反射光这一特征,可以在炫彩活体检测的基础上进一步实现翻拍攻击检测,有效提高了活体检测的精度和检出能力;
此外,通过第二活体检测模型还可以得到待检测对象的其他攻击类型的活体检测结果,将第一活体检测模型和第二活体检测模型结合在一起,可以在保证真人被判定为活体的概率不降低的情况下,有效提高检出其他攻击的能力,因此有效提升最终活体检测结果的准确性。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例中一种活体检测方法的步骤流程图;
图2是本申请实施例中得到第一活体检测结果的流程示意图;
图3是本申请实施例中活体检测的流程示意图;
图4是本申请实施例中一种活体检测方法的步骤流程图;
图5是本申请实施例中一种活体检测装置的结构示意图;
图6是本申请实施例中一种活体检测装置的结构示意图;
图7是本申请实施例中一种电子设备的示意图。
具体实施方式
为使本申请的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本申请作进一步详细的说明。
近年来,基于人工智能的计算机视觉、深度学习、机器学习、图像处理、图像识别等技术研究取得了重要进展。人工智能(Artificial Intelligence,AI)是研究、开发用于模拟、延伸人的智能的理论、方法、技术及应用***的新兴科学技术。人工智能学科是一门综合性学科,涉及芯片、大数据、云计算、物联网、分布式存储、深度学习、机器学习、神经网络等诸多技术种类。计算机视觉作为人工智能的一个重要分支,具体是让机器识别世界,计算机视觉技术通常包括人脸识别、活体检测、指纹识别与防伪验证、生物特征识别、人脸检测、行人检测、目标检测、行人识别、图像处理、图像识别、图像语义理解、图像检索、文字识别、视频处理、视频内容识别、三维重建、虚拟现实、增强现实、同步定位与地图构建(SLAM)、计算摄影、机器人导航与定位等技术。随着人工智能技术的研究和进步,该项技术在众多领域展开了应用,例如安全防控、城市管理、交通管理、楼宇管理、园区管理、人脸通行、人脸考勤、物流管理、仓储管理、机器人、智能营销、计算摄影、手机影像、云服务、智能家居、穿戴设备、无人驾驶、自动驾驶、智能医疗、人脸支付、人脸解锁、指纹解锁、人证核验、智慧屏、智能电视、摄像机、移动互联网、网络直播、美颜、美妆、医疗美容、智能测温等领域。
相关技术中,在进行活体检测时,需要通过对比发出的光照序列和采集到的视频反射的光照序列之间的相似度,判断是否存在摄像头劫持;但是仅仅基于光照序列之间的相似度进行判断,可能存在打印的人脸反射光照等情况,打印的人脸反射的光照序列和发出的光照序列也具有较高的相似度。因此,相关活体检测技术还需要基于采集到的视频判断是否包含活体攻击行为,例如判断是否为屏幕翻拍、打印纸翻拍等。
但是,相关活体检测技术是将相似度检测以及活体攻击行为检测割裂开的,本申请人提出,可以根据光照射在真人脸上和照射在屏幕/打印纸上,反射的光具有不同的反射模式这一信息,将相似度检测以及活体攻击行为检测两部分相结合,在考虑相似度的同时,还考虑了真人和屏幕/打印纸的反射光的区别。因为人脸凹凸不平,不同区域反射的光不同,且人脸之后的背景区域往往因为接受到的光照强度较低,只能反射微弱的光或者甚至不能反射光;而通过屏幕/打印纸等进行翻拍,屏幕/打印纸等比较光滑且平整,因此反射的光可能比较均匀、有规律。因此,本申请人想到,可以利用活体人脸与屏幕/打印纸具有不同的反射模式这一信息,来提高炫彩活体检测的准确性。
参照图1所示,示出了本申请实施例中一种活体检测方法的步骤流程图,如图1所示,该活体检测方法可以应用于后台服务器,包括以下步骤:
步骤S11:获取待检测对象的待检测视频,所述待检测视频为:在按照第一光照序列照射所述待检测对象期间,所采集的所述待检测对象的视频;
步骤S12:根据所述第一光照序列,和所述待检测视频所表征的所述待检测对象的各个实***置点反射的第二光照序列,生成所述待检测对象的响应图,所述响应图中各像素点的响应强度表征:所述像素点所对应的实***置点反射的第二光照序列与所述第一光照序列之间的相似度;
步骤S13:基于所述响应图、利用第一活体检测模型对所述待检测对象进行活体检测,得到所述待检测对象的第一活体检测结果;
步骤S14:将所述待检测视频输入第二活体检测模型,得到所述待检测对象的第二活体检测结果;
步骤S15:根据所述第一活体检测结果和所述第二活体检测结果,确定所述待检测对象的最终活体检测结果。
在具体实施时,可以由后台服务器将第一光照序列下发给终端。终端按照第一光照序列发出光照照射待检测对象,并在按照第一光照序列发出光照照射待检测对象期间,采集待检测对象的待检测视频。其中,待检测对象为终端的摄像头采集到的对象。
可选的,在一些具体实施方式中,本申请方案也可以由终端等电子设备执行,如在进行活体检测时,通过电子设备自身生成第一光照序列,并按照第一光照序列照射待检测对象期间采集待检测对象的视频;然后由电子设备自身根据第一光照序列和待检测视频执行后续的活体检测流程。具体第一光照序列由后台服务端下发、还是由终端等电子设备自己生成,以及,具体活体检测流程是由后台服务端执行还是由终端等电子设备自己执行,甚至活体检测流程中的部分步骤由终端等电子设备执行、部分步骤由后台服务器执行等均可以根据实际需求进行设置,本申请实施例并不对此进行限定,也不再对可能的实施方式一一列举。
对待检测视频的每一视频帧进行处理,确定待检测对象的实***置点在每个视频帧中对应的像素点,获取对应的像素点在每个视频帧中反射的光照,可以得到待检测对象的每个实***置点反射的第二光照序列。待检测对象的一个待检测位置点是指待检测对象实际存在的一个点,例如,待检测对象为人脸时,待检测对象的一个实***置点可以是人脸鼻子上的一个点,该点的大小为视频中一个像素点表征的大小。
计算第一光照序列和待检测对象的每个实***置点反射的第二光照序列之间的相似度,将相似度作为响应图的响应强度,可以生成待检测对象的响应图。可选地,在光照序列为白光时,第一光照序列和第二光照序列中每个元素可以表征白光的光照强度;在光照序列为彩光时,第一光照序列和第二光照序列中每个元素可以表征彩光的光照强度和/或彩光的颜色。其中,第一光照序列和第二光照序列之间的相似度,可以通过两个序列的点积得到。因为待检测对象的响应图是细化到像素点级别的,因此通过待检测对象的响应图,可以得到待检测对象的不同位置区域的呈现出的不同反射模式。
将待检测对象的响应图输入第一活体检测模型,第一活体检测模型根据待检测对象的响应图对待检测对象进行活体检测,可以得到待检测对象的第一活体检测结果。第一活体检测模型为通过有监督训练,学习了活体人脸的响应图的第一图像特征的模型,可以区分活体人脸的响应图和其它攻击(例如:翻拍攻击)的响应图,因此,第一活体检测模型可以通过待检测对象的响应图,得到待检测对象的第一活体检测结果。其中,第一活体检测模型进行的有监督训练可以为:获取多个样本对象(包括活体人脸以及其它对象)的响应图,将样本对象的响应图输入待训练的第一活体检测模型,得到样本对象为活体的预测概率;根据预测概率和样本对象真实是否为活体,建立损失函数,基于损失函数对待训练的第一活体检测模型的模型参数进行更新,得到第一活体检测模型。如此,第一活体检测模型可以学习到活体人脸的响应图。其中,获取样本对象的响应图的方法可以参照获取待检测对象的响应图的方法。
为了可以同时检出较多攻击类型的攻击,提高活体检测结果的准确性,还可以采用第二活体检测模型通过待检测视频,得到待检测对象的第二活体检测结果。其中,第二活体检测模型可以为相关技术中用于活体检测的常用模型,第二活体检测模型可以根据输入的视频或视频帧,进行活体检测。可选的,在具体实施时,第二活体检测模型可以为任意类型的活体检测模型,如面具攻击活体检测模型、动作检测活体模型等等;针对某些活体检测模型,可能需要用户执行相应的动作,因此,为了能够基于待检测视频得到第一活体检测结果和第二活体检测结果,在进行视频录制时,可根据第二活体检测模型的需求指示用户执行相应的动作。在具体应用场景中,可根据具体应用场景的实际需求进行设置,本申请实施例并不对此进行限定。
可选地,可以是第一活体检测模型和第二活体检测模型并行工作,并行得到第一活体检测结果和第二活体检测结果;也可以是第一活体检测模型先得到第一活体检测结果,然后第二活体检测模型得到第二活体检测结果;还可以是第二活体检测模型先得到第二活体检测结果,然后第一活体检测模型得到第一活体检测结果。
综合第一活体检测结果和第二活体检测结果,可以得到待检测对象的最终活体检测结果。可选地,第一活体检测结果和第二活体检测结果可以分别为表征待检测对象是活体人脸的概率。通过比较第一活体检测结果表征的概率和第二活体检测结果表征的概率中的较小值,和活体阈值的大小关系;在该较小值大于活体阈值的情况下,确定待检测对象的最终活体检测结果为:是活体;在该较小值不大于活体阈值的情况下,确定待检测对象的最终活体检测结果为:不是活体。其中,活体阈值可以是预先设置的比较合理的值。可选地,还可以为第一活体检测结果和第二活体检测结果设置不同的权重,综合加权后的第一活体检测结果和加权后的第二活体检测结果,得到待检测对象的最终活体检测结果。
如此,可以在保证真人被判定为活体的概率不降低的情况下,有效提高检出其他攻击的能力。
采用本申请实施例的技术方案,待检测对象的响应图具体到了像素点级别,根据响应图的各像素点表征的待检测对象的实***置点反射的第二光照序列与第一光照序列之间的相似度,可以得到待检测对象各个实***置区域的呈现出的不同反射模式。活体人脸凹凸不平,翻拍采用的屏幕或打印纸比较平滑且反射率高,因此活体人脸和翻拍反射的光具有不同的模式,因此,第一活体检测模型可以基于待检测对象的响应图,区分待检测对象为翻拍还是活体人脸,从而得到待检测对象的第一活体检测结果。如此,第一活体检测模型利用了翻拍和活体人脸具有不同反射模式这一信息,实现了两种检测方式(打光序列检验和检测是否为翻拍)的结合,确定的第一活体检测结果更加准确。此外,第二活体检测模型还可以得到待检测对象的第二活体检测结果,综合第一活体检测结果和第二活体检测结果确定的待检测对象的最终活体检测结果,可以在保证真人被判定为活体的概率不降低的情况下,有效提高检出其他攻击的能力,因此有效提升最终活体检测结果的准确性。
考虑到还存在戴面具之类的攻击,因为面具结构和人脸结构类似,因此反射的光照、生成的响应图都类似,而仅仅学习了活体人脸的响应图的第一图像特征的第一活体检测模型,可能难以识别这种攻击。因此,在对第一活体检测模型进行有监督训练时,还可以让第一活体检测模型学习活体人脸的第二图像特征。可选地,第一活体检测模型进行的有监督训练可以为:获取多个样本对象(包括活体人脸以及其它对象)的响应图,以及采集的每个样本对象的视频,从该视频中提取任一个视频帧,待训练的第一活体检测模型基于该响应图和该视频帧,以及样本对象真实是否为活体的信息,进行有监督训练。在第一活体检测模型的模型结构只能允许一个输入的情况下,可以提取该响应图的第一图像特征,以及该视频帧的第二图像特征;将该响应图的第一图像特征,以及该视频帧的第二图像特征进行融合,并将融合后特征输入待训练的第一活体检测模型,得到样本对象的第一活体检测结果。
相应地,学习了活体人脸的图像特征的第一活体检测模型,可以根据融合图像特征得到待检测对象的第一活体检测结果。其中,融合图像特征的获取方法为:提取所述响应图的第一图像特征;提取所述待检测视频的任一个视频帧,并获取该视频帧的第二图像特征;融合所述第一图像特征以及所述第二图像特征,得到融合图像特征。
将待检测对象的响应图的图像特征,与从待检测对象的视频中提取的任一个视频帧的图像特征进行融合得到的特征。
采用本申请实施例的技术方案,既学习了活体人脸的响应图,又学习了该活体人脸的图像特征的第一活体检测模型,可以避免戴面具之类的攻击,从而提高第一活体检测的准确性。
在上述技术方案的基础上,所述待检测视频所表征的所述待检测对象的每个实***置点反射的第二光照序列,是按照以下步骤得到的:提取所述待检测视频的多个视频帧;对所述多个视频帧中描述所述待检测对象的同一实***置点的像素点进行对齐;针对所述待检测对象的每个实***置点,根据所述多个视频帧中各视频帧描述该实***置点的像素点所反射的光照,得到该实***置点所反射的第二光照序列。
待检测视频具有多个视频帧,待检测对象的一个实***置点在每个视频帧中的位置可能都不同,为了获取待检测对象的每个实***置点反射的第二光照序列,需要对多个视频帧进行对齐,以得到待检测对象的任一实***置点在每个视频帧中对应的像素点。根据待检测对象的任一实***置点在每个视频帧中对应的像素点反射的光照,以及每个视频帧之间的时序,则可以得到待检测对象的每个实***置点反射的第二光照序列。
例如,光照为红光,总共有5个视频帧,待检测对象的一个实***置点在每个视频帧中的像素点分别为A、B、C、D、E,若A、C、D点都反射了红光,而B、E点没有反射红光,则待检测对象的该实***置点反射的红光的第二实体序列可以为10110。可以理解的是,根据反射的光的强度,第二实体序列中的数字还可以为0到1之间的数,数值大小和反射的光的强度相关。
采用本申请实施例的技术方案,可以解决待检测对象在各个视频帧中的位置不同,难以获取到待检测对象的每个实***置点反射的第二光照序列的问题。
可以基于人脸关键点实现多个视频帧的对齐处理。首先对待检测视频的多个视频帧中的各视频帧分别进行人脸关键点检测,得到多个视频帧各自包含的人脸关键点。本申请对人脸关键点检测的具体检测方法不做要求,可以采用相关的人脸关键点检测算法或软件;还可以采用其他耗时更短的方法,如,在得到第一个视频帧中的人脸关键点后,以左右眼眼角、鼻尖、嘴唇左右嘴角5个点位作为锚定点,将其余视频帧通过薄板样条插值算法(Thin Plate Spline)映射到模板上。其中,可以根据人脸关键点的输入点位自定义锚定点,只需保证在粗对齐后某些关键点所在的位置是固定的。锚定点数量越多,对齐效果越好,但5个点位足以满足要求。可以理解的是,当检测不到人脸时,可以直接将待检测对象确定为非活体。
根据各视频帧所包含的人脸关键点,可以对各视频帧进行人脸关键点级别的对齐处理。进一步地,对进行人脸关键点级别的对齐处理后的多个视频帧,进行像素点级别的对齐处理。
可选地,也可以直接对多个视频帧进行像素点级别的对齐处理。
直接进行像素点级别的对齐处理,可以使对齐的流程比较简单;先进行人脸关键点级别的对齐处理,再进行像素点级别的对齐处理,可以节省进行像素点级别的对齐处理时消耗的计算资源。具体怎样实现进行像素点级别的对齐处理,可以根据实际需求进行选择。
可选地,可以通过如下过程实现像素点级别的细对齐:分别计算参与所述像素点级别的对齐处理的多个视频帧中除参考视频帧外的其它每个视频帧,与所述参考视频帧之间的稠密光流数据,所述参考视频帧为参与所述像素点级别的对齐处理的多个视频帧中的任一个视频帧;根据所述其它每个视频帧与所述参考视频帧之间的稠密光流数据,将所述其它每个视频帧与所述参考视频帧进行像素点级别的对齐处理。
可以以第一个视频帧为参考视频帧,在亮度通道计算其他每一个视频帧与参考视频帧之间的稠密光流数据,以稠密光流数据作为映射依据,将其他每一个视频帧与参考视频帧进行对像素点级别的细对齐。其中,可以基于稠密光流算法实现像素点级别的对齐处理,如Gunnar Farneback算法(一种稠密光流算法)。
如此,实现了像素点级别的细对齐,才能准确得到待检测对象每个实***置点反射的第二光照序列,进而生成准确的响应图,得到准确的第一活体检测结果。
图2示出了得到第一活体检测结果的流程示意图,得到第一活体检测结果的步骤可以包括:人脸关键点级别的对齐处理、像素点级别的对齐处理、得到第二光照序列、相似度计算、生成响应图、获取视频帧、输入第一活体检测模型、得到第一活体检测结果。上述几个步骤可以组成比较完整的流程,但根据实际需求,可以对其中的一个步骤或多个步骤进行舍弃,例如,可以舍弃人脸关键点级别的对齐处理的步骤,以降低整个流程的复杂度;可以舍弃获取视频帧的步骤,并相应地只将响应图输入第一活体检测模型,而对于戴面具之类的攻击的识别,则可以通过第二活体模型实现,以避免第一活体检测模型和第二活体检测模型之间存在重复工作;还可以同时舍弃人脸关键点级别的对齐处理以及获取视频帧的步骤,在降低整个流程的复杂度的同时,避免一活体检测模型和第二活体检测模型之间存在重复工作。
在上述技术方案的基础上,第一光照序列和第二光照序列可以均为包含多个颜色通道的彩光序列。在计算第一光照序列和第二光照序列之间的相似度时,是计算每个颜色通道中第一彩光序列和第二彩光序列之间的相似度,进而得到该颜色通道的响应子图。
为了得到每个颜色通道反射的彩光序列,需要对第一光照序列和第二光照序列分别进行分离。分离第一光照序列,可以得到每个颜色通道所对应的第一彩光序列,以及,分离第二光照序列,可以得到每个颜色通道所对应的第二彩光序列。在分离第一光照序列和第二光照序列时,为了提高分离的准确性,可以对每个颜色通道进行正则化。可以利用公式x′t=xt-(∑xt)/n实现对每个颜色通道的正则化,其中,x′t表征正则化后的彩光序列(可以为第一彩光序列或第二彩光序列),xt表征正则化前的彩光序列,n表征彩光序列的长度。
对每个颜色通道进行正则化的方法还可以参照相关技术,本申请对此不作限制。其中,因为第一光照序列是后台下发的,因此可以直接从后台获取每个颜色通道所对应的第一彩光序列。
例如,以一秒为彩光序列之间的单位,多个颜色通道为红色通道、黄色通道、蓝色通道,发出的彩光在第一秒为红光,第二秒为红光和黄光共同组成的橙色的光,第三秒为黄光和蓝光共同组成的白色的光,第四秒为黄光,第五秒为红光,以1表征存在对应颜色通道的光,以0表征不存在对应颜色通道的光,则得到的第一彩光序列可以为:红色通道的第一彩光序列11001,黄色通道的第一彩光序列01110,蓝色通道的第一彩光序列00100。按照相似的原理,可以得到待检测对象的每个实***置点反射的在各个颜色通道对应的第二彩光序列。可以理解的是,根据下发的光的强度,第一彩光序列中的数字可以为0到1之间的数;根据反射的光的强度,第二彩光序列中的数字可以为0到1之间的数。
对于每个颜色通道,若待检测对象的的一个实***置点所反射的该颜色通道的第二彩光序列,与该颜色通道所对应的第一彩光序列之间的相似度大于预设值,则该实***置点在该颜色通道的响应子图中对应的像素点的颜色,为该颜色通道的颜色。在得到每个颜色通道的响应子图后,将各颜色通道的响应子图进行融合,可以得到待检测对象的响应图。
例如,待检测对象的一个实***置点在红色通道的响应图中对应的像素点的颜色为红色(相似度大于预设值),在黄色通道的响应图中对应的像素点的颜色为黄色(相似度大于预设值),在蓝色通道的响应图中对应的像素点的颜色为无(相似度不大于预设值),则将各颜色通道的响应子图进行融合后,得到的待检测对象的响应图中对应像素点的位置为红色和黄色组成的橙色。
如此,针对各个颜色通道,得到各个颜色通道的响应子图,再根据各个颜色通道的响应子图得到待检测对象的响应图,相比于直接根据综合所有颜色通道的彩光得到待检测对象的响应图,具有更加准确的优点。
在上述技术方案的基础上,在每个颜色通道,为了避免该颜色通道的响应子图的亮度过高给响应子图带来的不良影响,可以利用该响应子图中人脸区域的响应强度均值,对该颜色通道的响应子图进行正则化处理,以得到待检测对象在该颜色通道的正则化响应子图。融合待检测对象在每个颜色通道的正则化响应子图,得到待检测对象的响应图。
可选地,利用每个颜色通道的响应子图中人脸区域的响应强度均值,对该颜色通道的响应子图进行正则化处理可以是:将该颜色通道的响应子图的人脸区域的响应强度均值,除以该颜色通道的响应子图的每个像素点的响应强度,将得到的商作为该颜色通道的正则化响应子图的每个像素点的响应强度。
其中,可以通过如下公式计算正则化后的响应图的响应强度:
Figure BDA0003645400620000151
其中,F表征人脸区域,ri,j表征响应图的像素点(i,j)的响应强度;n表征像素点的数量,NF表征人脸区域的响应强度均值。
最终得到的响应图为Resp′={r′i,j},r′i,j表征经过正则化后的响应图的像素点(i,j)的响应强度,可以通过公式
Figure BDA0003645400620000152
计算得到。
可以通过如下公式实现对各颜色通道的正则化后的响应子图的融合:
rii,j=uint8(min(max(r′i,j*255,0),255))
其中,rii,j表征融合后的响应图的像素点(i,j)的响应强度,unit8表示将浮点数转化为8位非负整数,r′i,j表征经过正则化后的响应图的像素点(i,j)的响应强度。
如此,可以使每个颜色通道的响应子图的响应强度比较均衡,避免出现过亮的场景。
可选地,在上述技术方案的基础上,在得到待检测对象的响应图之后,以及在将待检测对象的响应图输入第一活体检测模型之前,可以先根据待检测对象的响应图的至少一个属性值,确定待检测对象的活体检测结果。
待检测对象的响应图的属性值包括以下至少一者:响应强度均值、质量值。在任一属性值小于对应的属性阈值的情况下,确定待检测对象不是活体,在各属性值都不小于对应的属性阈值的情况下,将待检测对象的响应图输入第一活体检测模型。
图3示出了活体检测的流程示意图,在将待检测对象的响应图输入第一活体检测模型之前,先判断响应图的属性值是否小于对应的属性阈值。在任一属性值小于对应的属性阈值的情况下,判定待检测对象不是活体,可以直接输出结果“不是活体”的检测结果,否则才将待检测对象的响应图输入第一活体检测模型进行活体检测。
待检测对象的响应图的响应强度均值小于响应强度阈值,可以认为采集到的第二彩光序列太弱,因此该响应图不足以作为活体验证的线索,为了安全性考虑,可以认为存在攻击,直接判定待检测对象不是活体,因此也无需将待检测对象的响应图输入第一活体检测模型。
待检测对象的响应图的质量值小于质量阈值,则可能存在攻击,直接判定待检测对象不是活体,因此无需将待检测对象的响应图输入第一活体检测模型。其中,待检测对象的响应图的质量值,可以根据响应图中的噪声确定,噪声越多则质量值越低。
可以通过如下公式计算响应图的质量值:
Figure BDA0003645400620000161
其中,quality为质量值,ri,j表征响应图的像素点(i,j)的响应强度,t表征光照序列中的每个元素,y′t表征进行颜色通道正则化处理后的第一光照序列,x′t表征进行颜色通道正则化处理后的第二光照序列。
如此,可以避免一些攻击,提升活体检测结果的准确性。
参照图4所示,示出了本申请实施例中一种活体检测方法的步骤流程图,如图4所示,该活体检测方法可以应用于后台服务器,包括以下步骤:
步骤S41:获取待检测对象的待检测视频,所述待检测视频为:在按照第一光照序列照射所述待检测对象期间,所采集的所述待检测对象的视频;
步骤S42:根据所述第一光照序列,和所述待检测视频所表征的所述待检测对象的各个实***置点反射的第二光照序列,生成所述待检测对象的响应图,所述响应图中各像素点的响应强度表征:所述像素点所对应的实***置点反射的第二光照序列与所述第一光照序列之间的相似度;
步骤S43:基于所述响应图、利用活体检测模型对所述待检测对象进行活体检测,得到所述待检测对象的活体检测结果。
获取待检测对象的待检测视频,以及生成待检测对象的响应图的方法可以参照前文所述获取待检测对象的待检测视频,以及生成待检测对象的响应图的方法;活体检测模型的训练方法可以参照第一活体检测模型的训练方法。
将待检测对象的响应图输入活体检测模型,可以得到待检测对象的活体检测结果。
采用本申请实施例的技术方案,检测对象的响应图具体到了像素点级别,根据响应图的各像素点表征的待检测对象的实***置点反射的第二光照序列与第一光照序列之间的相似度,可以得到待检测对象各个实***置区域的呈现出的不同反射模式。活体人脸凹凸不平,翻拍采用的屏幕或打印纸比较平滑且反射率高,因此活体人脸和翻拍反射的光具有不同的模式,因此,活体检测模型可以基于待检测对象的响应图,区分待检测对象为翻拍还是活体人脸,从而得到待检测对象的活体检测结果。如此,活体检测模型利用了翻拍和活体人脸具有不同反射模式这一信息,实现了两种检测方式(打光序列检验和检测是否为翻拍)的结合,确定的活体检测结果更加准确。
可选地,得到待检测视频所表征的所述待检测对象的各个实***置点反射的第二光照序列的步骤,是按照以下步骤得到的:
提取所述待检测视频的多个视频帧;将所述多个视频帧中描述所述待检测对象的同一实***置点的像素点进行对齐;针对所述待检测对象的各个实***置点,根据所述多个视频帧中各视频帧描述该实***置点的像素点所反射的光照,得到该实***置点所反射的第二光照序列。
可选地,将所述多个视频帧中描述所述待检测对象的同一实***置点的像素点进行对齐,具体包括如下过程:
针对所述多个视频帧中的各视频帧,对所述视频帧进行人脸关键点检测,得到所述视频帧所包含的人脸关键点,根据各所述视频帧所包含的人脸关键点,对所述多个视频帧进行人脸关键点级别的对齐处理,对进行人脸关键点级别的对齐处理后的所述多个视频帧进行像素点级别的对齐处理;
或者,
对所述多个视频帧进行像素点级别的对齐处理。
可选地,可通过如下过程进行所述像素点级别的对齐处理:
分别计算参与所述像素点级别的对齐处理的多个视频帧中除参考视频帧外的其它每个视频帧,与所述参考视频帧之间的稠密光流数据,所述参考视频帧为参与所述像素点级别的对齐处理的多个视频帧中的任一个视频帧;
根据所述其它每个视频帧与所述参考视频帧之间的稠密光流数据,将所述其它每个视频帧与所述参考视频帧进行像素点级别的对齐处理。
可选地,所述第一光照序列和所述第二光照序列可以均包含多个颜色通道的彩光序列;根据所述第一光照序列,和所述待检测视频所表征的所述待检测对象的各个实***置点反射的第二光照序列,生成所述待检测对象的响应图,包括:分离所述第一光照序列,得到每个所述颜色通道所对应的第一彩光序列,以及,分离所述第二光照序列,得到每个所述颜色通道所对应的第二彩光序列;针对每个所述颜色通道,根据所述待检测对象的每个实***置点所反射的该颜色通道的第二彩光序列,与该颜色通道所对应的第一彩光序列之间的相似度,生成所述待检测对象在该颜色通道的响应子图;将所述待检测对象在每个所述颜色通道的响应子图进行融合处理,得到所述待检测对象的响应图。其中具体步骤,可以参照前文所述。
可选地,将所述待检测对象在每个所述颜色通道的响应子图进行融合处理,得到所述待检测对象的响应图,包括:根据所述待检测对象在每个所述颜色通道的响应子图,获取所述待检测对象的人脸区域在每个所述颜色通道的响应强度均值;根据所述待检测对象的人脸区域在每个所述颜色通道的响应强度均值,对所述待检测对象在该颜色通道的响应子图进行正则化处理,得到所述待检测对象在每个所述颜色通道的正则化响应子图;将所述待检测对象在每个所述颜色通道的正则化响应子图进行融合处理,得到所述待检测对象的响应图。其中,将将所述待检测对象在每个所述颜色通道的响应子图进行融合处理,得到所述待检测对象的响应图,包括:
根据所述待检测对象在每个所述颜色通道的响应子图,获取所述待检测对象的人脸区域在每个所述颜色通道的响应强度均值;根据所述待检测对象的人脸区域在每个所述颜色通道的响应强度均值,对所述待检测对象在该颜色通道的响应子图进行正则化处理,得到所述待检测对象在每个所述颜色通道的正则化响应子图;将所述待检测对象在每个所述颜色通道的正则化响应子图进行融合处理,得到所述待检测对象的响应图。
可选地,在利用活体检测模型对所述响应图进行处理之前,还包括:获取所述待检测对象的响应图的属性值,所述属性值包括以下至少一者:响应强度均值、质量值;根据所述待检测对象的响应图的属性值与对应的属性阈值的大小关系,确定所述待检测对象的活体检测结果;在所述待检测对象的响应图的属性值小于对应的所述属性阈值的情况下,确定所述待检测对象不是活体;在所述待检测对象的响应图的属性值不小于对应的所述属性阈值的情况下,执行基于所述响应图、利用活体检测模型对所述待检测对象进行活体检测的步骤。其中具体步骤,可以参照前文所述。
可选地,所述活体检测模型为学习了活体人脸的响应图的第一图像特征以及所述活体人脸的第二图像特征的模型;基于所述响应图、利用活体检测模型对所述待检测对象进行活体检测,得到所述待检测对象的活体检测结果,包括:提取所述响应图的第一图像特征;提取所述待检测视频的任一个视频帧,并获取该视频帧的第二图像特征;融合所述第一图像特征以及所述第二图像特征,得到融合图像特征;利用所述活体模型对所述融合图像特征进行处理,得到所述待检测对象的活体检测结果。其中具体步骤,可以参照前文所述。
其中,本申请实施例提供的活体检测方法中各个步骤的具体实现过程可参考前面方法实施例的介绍,此处不再赘述。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请实施例并不受所描述的动作顺序的限制,因为依据本申请实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本申请实施例所必须的。
图5是本申请实施例的一种活体检测装置的结构示意图,如图5所示,该活体检测装置包括视频获取模块51、响应图生成模块52、第一活体检测结果获取53、第二活体检测结果获取54和最终检测结果确定模块55,其中:
视频采集模块51,用于获取待检测对象的待检测视频,所述待检测视频为:在按照第一光照序列照射所述待检测对象期间,所采集的所述待检测对象的视频;
响应图生成模块52,用于根据所述第一光照序列,和所述待检测视频所表征的所述待检测对象的各个实***置点反射的第二光照序列,生成所述待检测对象的响应图,所述响应图中各像素点的响应强度表征:所述像素点所对应的实***置点反射的第二光照序列与所述第一光照序列之间的相似度;
第一活体检测结果获取模块53,用于基于所述响应图、利用第一活体检测模型对所述待检测对象进行活体检测,得到所述待检测对象的第一活体检测结果;
第二活体检测结果获取模块54,用于将所述待检测视频输入第二活体检测模型,得到所述待检测对象的第二活体检测结果;
最终活体检测结果确定模块55,用于根据所述第一活体检测结果和所述第二活体检测结果,确定所述待检测对象的最终活体检测结果。
可选地,所述待检测视频所表征的所述待检测对象的各个实***置点反射的第二光照序列,是按照以下步骤得到的:
提取所述待检测视频的多个视频帧;
将所述多个视频帧中描述所述待检测对象的同一实***置点的像素点进行对齐;
针对所述待检测对象的各个实***置点,根据所述多个视频帧中各视频帧描述该实***置点的像素点所反射的光照,得到该实***置点所反射的第二光照序列。
可选地,将所述多个视频帧中描述所述待检测对象的同一实***置点的像素点进行对齐,包括:
针对所述多个视频帧中的各视频帧,对所述视频帧进行人脸关键点检测,得到所述各视频帧所包含的人脸关键点,根据各所述视频帧所包含的人脸关键点,对所述多个视频帧进行人脸关键点级别的对齐处理,对进行人脸关键点级别的对齐处理后的所述多个视频帧进行像素点级别的对齐处理;
或者,对所述多个视频帧进行像素点级别的对齐处理。
可选地,通过如下过程进行所述像素点级别的对齐处理:
分别计算参与所述像素点级别的对齐处理的多个视频帧中除参考视频帧外的其它每个视频帧,与所述参考视频帧之间的稠密光流数据,所述参考视频帧为参与所述像素点级别的对齐处理的多个视频帧中的任一个视频帧;
根据所述其它每个视频帧与所述参考视频帧之间的稠密光流数据,将所述其它每个视频帧与所述参考视频帧进行像素点级别的对齐处理。
可选地,所述第一光照序列和所述第二光照序列均包含多个颜色通道的彩光序列;所述响应图生成模块52包括:
第一分离单元,用于分离所述第一光照序列,得到每个所述颜色通道所对应的第一彩光序列,以及,分离所述第二光照序列,得到每个所述颜色通道所对应的第二彩光序列;
第一响应子图生成单元,用于针对每个所述颜色通道,根据所述待检测对象的每个实***置点所反射的该颜色通道的第二彩光序列,与该颜色通道所对应的第一彩光序列之间的相似度,生成所述待检测对象在该颜色通道的响应子图;
第一融合单元,用于将所述待检测对象在每个所述颜色通道的响应子图进行融合处理,得到所述待检测对象的响应图。
可选地,所述第一融合单元包括:
第一均值获取子单元,根据所述待检测对象在每个所述颜色通道的响应子图,获取所述待检测对象的人脸区域在每个所述颜色通道的响应强度均值;
第一正则化子单元,用于根据所述待检测对象的人脸区域在每个所述颜色通道的响应强度均值,对所述待检测对象在该颜色通道的响应子图进行正则化处理,得到所述待检测对象在每个所述颜色通道的正则化响应子图;
第一融合子单元,用于将所述待检测对象在每个所述颜色通道的正则化响应子图进行融合处理,得到所述待检测对象的响应图。
可选地,在利用第一活体检测模型对所述响应图进行处理之前,所述装置还包括:
第一属性值获取模块,用于获取所述待检测对象的响应图的属性值,所述属性值包括以下至少一者:响应强度均值、质量值;
第一确定模块,用于根据所述待检测对象的响应图的属性值与对应的属性阈值的大小关系,确定所述待检测对象的活体检测结果;
第一判定模块,用于在所述待检测对象的响应图的属性值小于对应的所述属性阈值的情况下,确定所述待检测对象不是活体;
第一步骤执行模块,用于在所述待检测对象的响应图的属性值不小于对应的所述属性阈值的情况下,执行基于所述响应图、利用第一活体检测模型对所述待检测对象进行活体检测的步骤。
可选地,所述第一活体检测模型为学习了活体人脸的响应图的第一图像特征以及所述活体人脸的第二图像特征的模型;所述第一活体检测结果获取模块53包括:
第一响应图特征提取单元,用于提取所述响应图的第一图像特征;
第一图像特征提取单元,用于提取所述待检测视频的任一个视频帧,并获取该视频帧的第二图像特征;
第一融合图像特征提取单元,用于融合所述第一图像特征以及所述第二图像特征,得到融合图像特征;
第一处理单元,用于利用所述第一活体模型对所述融合图像特征进行处理,得到所述待检测对象的第一活体检测结果。
图6是本申请实施例的一种活体检测装置的结构示意图,如图6所示,该活体检测装置包括视频获取模块61、响应图生成模块62和检测结果确定模块63,其中:
视频获取模块61,用于获取待检测对象的待检测视频,所述待检测视频为:在按照第一光照序列照射所述待检测对象期间,所采集的所述待检测对象的视频;
响应图生成模块62,用于根据所述第一光照序列,和所述待检测视频所表征的所述待检测对象的各个实***置点反射的第二光照序列,生成所述待检测对象的响应图,所述响应图中各像素点的响应强度表征:所述像素点所对应的实***置点反射的第二光照序列与所述第一光照序列之间的相似度;
检测结果确定模块63,用于基于所述响应图、利用活体检测模型对所述待检测对象进行活体检测,得到所述待检测对象的活体检测结果。
可选地,所述待检测视频所表征的所述待检测对象的各个实***置点反射的第二光照序列,是按照以下步骤得到的:
提取所述待检测视频的多个视频帧;
将所述多个视频帧中描述所述待检测对象的同一实***置点的像素点进行对齐;
针对所述待检测对象的各个实***置点,根据所述多个视频帧中各视频帧描述该实***置点的像素点所反射的光照,得到该实***置点所反射的第二光照序列。
可选地,将所述多个视频帧中描述所述待检测对象的同一实***置点的像素点进行对齐,包括:
针对所述多个视频帧中的各视频帧,对所述视频帧进行人脸关键点检测,得到所述视频帧所包含的人脸关键点,根据各所述视频帧所包含的人脸关键点,对所述多个视频帧进行人脸关键点级别的对齐处理,对进行人脸关键点级别的对齐处理后的所述多个视频帧进行像素点级别的对齐处理;
或者,
对所述多个视频帧进行像素点级别的对齐处理。
可选地,通过如下过程进行所述像素点级别的对齐处理:
分别计算参与所述像素点级别的对齐处理的多个视频帧中除参考视频帧外的其它每个视频帧,与所述参考视频帧之间的稠密光流数据,所述参考视频帧为参与所述像素点级别的对齐处理的多个视频帧中的任一个视频帧;
根据所述其它每个视频帧与所述参考视频帧之间的稠密光流数据,将所述其它每个视频帧与所述参考视频帧进行像素点级别的对齐处理。
可选地,所述所述第一光照序列和所述第二光照序列均包含多个颜色通道的彩光序列;所述响应图生成模块62包括:
第二分离单元,用于分离所述第一光照序列,得到每个所述颜色通道所对应的第一彩光序列,以及,分离所述第二光照序列,得到每个所述颜色通道所对应的第二彩光序列;
第二响应子图生成单元,用于针对每个所述颜色通道,根据所述待检测对象的每个实***置点所反射的该颜色通道的第二彩光序列,与该颜色通道所对应的第一彩光序列之间的相似度,生成所述待检测对象在该颜色通道的响应子图;
第二融合单元,用于将所述待检测对象在每个所述颜色通道的响应子图进行融合处理,得到所述待检测对象的响应图。
可选地,所述第二融合单元包括:
第二均值获取子单元,用于根据所述待检测对象在每个所述颜色通道的响应子图,获取所述待检测对象的人脸区域在每个所述颜色通道的响应强度均值;
第二正则化子单元,用于根据所述待检测对象的人脸区域在每个所述颜色通道的响应强度均值,对所述待检测对象在该颜色通道的响应子图进行正则化处理,得到所述待检测对象在每个所述颜色通道的正则化响应子图;
第二融合子单元,用于将所述待检测对象在每个所述颜色通道的正则化响应子图进行融合处理,得到所述待检测对象的响应图。
可选地,在利用活体检测模型对所述响应图进行处理之前,所述装置还包括:
第二属性值获取模块,用于获取所述待检测对象的响应图的属性值,所述属性值包括以下至少一者:响应强度均值、质量值;
第二确定模块,用于根据所述待检测对象的响应图的属性值与对应的属性阈值的大小关系,确定所述待检测对象的活体检测结果;
第二判定模块,用于在所述待检测对象的响应图的属性值小于对应的所述属性阈值的情况下,确定所述待检测对象不是活体;
第二步骤执行模块,用于在所述待检测对象的响应图的属性值不小于对应的所述属性阈值的情况下,执行基于所述响应图、利用活体检测模型对所述待检测对象进行活体检测的步骤。
可选地,所述活体检测模型为学习了活体人脸的响应图的第一图像特征以及所述活体人脸的第二图像特征的模型;所述检测结果确定模块63包括:
第二响应图特征提取单元,用于提取所述响应图的第一图像特征;
第二图像特征提取单元,用于提取所述待检测视频的任一个视频帧,并获取该视频帧的第二图像特征;
第二融合图像特征提取单元,用于融合所述第一图像特征以及所述第二图像特征,得到融合图像特征;
第二处理单元,用于利用所述第一活体模型对所述融合图像特征进行处理,得到所述待检测对象的第一活体检测结果。
需要说明的是,装置实施例与方法实施例相近,故描述的较为简单,相关之处参见方法实施例即可。
本申请实施例还提供了一种电子设备,参照图7,图7是本申请实施例提出的电子设备的示意图。如图7所示,电子设备100包括:存储器110和处理器120,存储器110与处理器120之间通过总线通信连接,存储器110中存储有计算机程序,该计算机程序可在处理器120上运行,进而实现本申请实施例公开的活体检测方法中的步骤。
本申请实施例还提供了一种计算机可读存储介质,其上存储有计算机程序/指令,该计算机程序/指令被处理器执行时实现如本申请实施例公开的所述的活体检测方法。
本申请实施例还提供了一种计算机程序产品,包括计算机程序/指令,该计算机程序/指令被处理器执行时实现如本申请实施例公开的所述的活体检测方法。
本申请实施例还提供了一种计算机程序,该计算机程序被执行时可实现本申请实施例公开的活体检测方法。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域内的技术人员应明白,本申请实施例的实施例可提供为方法、装置或计算机程序产品。因此,本申请实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请实施例是参照根据本申请实施例的方法、装置、电子设备和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请实施例范围的所有变更和修改。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
以上对本申请所提供的一种活体检测方法、电子设备、存储介质及程序产品,进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (17)

1.一种活体检测方法,其特征在于,包括:
获取待检测对象的待检测视频,所述待检测视频为:在按照第一光照序列照射所述待检测对象期间,所采集的所述待检测对象的视频;
根据所述第一光照序列,和所述待检测视频所表征的所述待检测对象的各个实***置点反射的第二光照序列,生成所述待检测对象的响应图,所述响应图中各像素点的响应强度表征:所述像素点所对应的实***置点反射的第二光照序列与所述第一光照序列之间的相似度;
基于所述响应图、利用第一活体检测模型对所述待检测对象进行活体检测,得到所述待检测对象的第一活体检测结果;
将所述待检测视频输入第二活体检测模型,得到所述待检测对象的第二活体检测结果;
根据所述第一活体检测结果和所述第二活体检测结果,确定所述待检测对象的最终活体检测结果。
2.根据权利要求1所述的方法,其特征在于,所述待检测视频所表征的所述待检测对象的各个实***置点反射的第二光照序列,是按照以下步骤得到的:
提取所述待检测视频的多个视频帧;
将所述多个视频帧中描述所述待检测对象的同一实***置点的像素点进行对齐;
针对所述待检测对象的各个实***置点,根据所述多个视频帧中各视频帧描述该实***置点的像素点所反射的光照,得到该实***置点所反射的第二光照序列。
3.根据权利要求2所述的方法,其特征在于,将所述多个视频帧中描述所述待检测对象的同一实***置点的像素点进行对齐,包括:
针对所述多个视频帧中的各视频帧,对所述视频帧进行人脸关键点检测,得到所述视频帧所包含的人脸关键点,根据各所述视频帧所包含的人脸关键点,对所述多个视频帧进行人脸关键点级别的对齐处理,对进行人脸关键点级别的对齐处理后的所述多个视频帧进行像素点级别的对齐处理;
或者,
对所述多个视频帧进行像素点级别的对齐处理。
4.根据权利要求3所述的方法,其特征在于,通过如下过程进行所述像素点级别的对齐处理:
分别计算参与所述像素点级别的对齐处理的多个视频帧中除参考视频帧外的其它每个视频帧,与所述参考视频帧之间的稠密光流数据,所述参考视频帧为参与所述像素点级别的对齐处理的多个视频帧中的任一个视频帧;
根据所述其它每个视频帧与所述参考视频帧之间的稠密光流数据,将所述其它每个视频帧与所述参考视频帧进行像素点级别的对齐处理。
5.根据权利要求1-4任一所述的方法,其特征在于,所述第一光照序列和所述第二光照序列均包含多个颜色通道的彩光序列;
根据所述第一光照序列,和所述待检测视频所表征的所述待检测对象的各个实***置点反射的第二光照序列,生成所述待检测对象的响应图,包括:
分离所述第一光照序列,得到每个所述颜色通道所对应的第一彩光序列,以及,分离所述第二光照序列,得到每个所述颜色通道所对应的第二彩光序列;
针对每个所述颜色通道,根据所述待检测对象的每个实***置点所反射的该颜色通道的第二彩光序列,与该颜色通道所对应的第一彩光序列之间的相似度,生成所述待检测对象在该颜色通道的响应子图;
将所述待检测对象在每个所述颜色通道的响应子图进行融合处理,得到所述待检测对象的响应图。
6.根据权利要求5所述的方法,其特征在于,将所述待检测对象在每个所述颜色通道的响应子图进行融合处理,得到所述待检测对象的响应图,包括:
根据所述待检测对象在每个所述颜色通道的响应子图,获取所述待检测对象的人脸区域在每个所述颜色通道的响应强度均值;
根据所述待检测对象的人脸区域在每个所述颜色通道的响应强度均值,对所述待检测对象在该颜色通道的响应子图进行正则化处理,得到所述待检测对象在每个所述颜色通道的正则化响应子图;
将所述待检测对象在每个所述颜色通道的正则化响应子图进行融合处理,得到所述待检测对象的响应图。
7.一种活体检测方法,其特征在于,包括:
获取待检测对象的待检测视频,所述待检测视频为:在按照第一光照序列照射所述待检测对象期间,所采集的所述待检测对象的视频;
根据所述第一光照序列,和所述待检测视频所表征的所述待检测对象的各个实***置点反射的第二光照序列,生成所述待检测对象的响应图,所述响应图中各像素点的响应强度表征:所述像素点所对应的实***置点反射的第二光照序列与所述第一光照序列之间的相似度;
基于所述响应图、利用活体检测模型对所述待检测对象进行活体检测,得到所述待检测对象的活体检测结果。
8.根据权利要求7所述的方法,其特征在于,所述待检测视频所表征的所述待检测对象的各个实***置点反射的第二光照序列,是按照以下步骤得到的:
提取所述待检测视频的多个视频帧;
将所述多个视频帧中描述所述待检测对象的同一实***置点的像素点进行对齐;
针对所述待检测对象的各个实***置点,根据所述多个视频帧中各视频帧描述该实***置点的像素点所反射的光照,得到该实***置点所反射的第二光照序列。
9.根据权利要求8所述的方法,其特征在于,将所述多个视频帧中描述所述待检测对象的同一实***置点的像素点进行对齐,包括:
针对所述多个视频帧中的各视频帧,对所述视频帧进行人脸关键点检测,得到所述视频帧所包含的人脸关键点,根据各所述视频帧所包含的人脸关键点,对所述多个视频帧进行人脸关键点级别的对齐处理,对进行人脸关键点级别的对齐处理后的所述多个视频帧进行像素点级别的对齐处理;
或者,
对所述多个视频帧进行像素点级别的对齐处理。
10.根据权利要求9所述的方法,其特征在于,通过如下过程进行所述像素点级别的对齐处理:
分别计算参与所述像素点级别的对齐处理的多个视频帧中除参考视频帧外的其它每个视频帧,与所述参考视频帧之间的稠密光流数据,所述参考视频帧为参与所述像素点级别的对齐处理的多个视频帧中的任一个视频帧;
根据所述其它每个视频帧与所述参考视频帧之间的稠密光流数据,将所述其它每个视频帧与所述参考视频帧进行像素点级别的对齐处理。
11.根据权利要求7-10任一所述的方法,其特征在于,所述第一光照序列和所述第二光照序列均包含多个颜色通道的彩光序列;
根据所述第一光照序列,和所述待检测视频所表征的所述待检测对象的各个实***置点反射的第二光照序列,生成所述待检测对象的响应图,包括:
分离所述第一光照序列,得到每个所述颜色通道所对应的第一彩光序列,以及,分离所述第二光照序列,得到每个所述颜色通道所对应的第二彩光序列;
针对每个所述颜色通道,根据所述待检测对象的每个实***置点所反射的该颜色通道的第二彩光序列,与该颜色通道所对应的第一彩光序列之间的相似度,生成所述待检测对象在该颜色通道的响应子图;
将所述待检测对象在每个所述颜色通道的响应子图进行融合处理,得到所述待检测对象的响应图。
12.根据权利要求11所述的方法,其特征在于,将所述待检测对象在每个所述颜色通道的响应子图进行融合处理,得到所述待检测对象的响应图,包括:
根据所述待检测对象在每个所述颜色通道的响应子图,获取所述待检测对象的人脸区域在每个所述颜色通道的响应强度均值;
根据所述待检测对象的人脸区域在每个所述颜色通道的响应强度均值,对所述待检测对象在该颜色通道的响应子图进行正则化处理,得到所述待检测对象在每个所述颜色通道的正则化响应子图;
将所述待检测对象在每个所述颜色通道的正则化响应子图进行融合处理,得到所述待检测对象的响应图。
13.根据权利要求7-12任一所述的方法,其特征在于,在利用活体检测模型对所述响应图进行处理之前,还包括:
获取所述待检测对象的响应图的属性值,所述属性值包括以下至少一者:响应强度均值、质量值;
根据所述待检测对象的响应图的属性值与对应的属性阈值的大小关系,确定所述待检测对象的活体检测结果;
在所述待检测对象的响应图的属性值小于对应的所述属性阈值的情况下,确定所述待检测对象不是活体;
在所述待检测对象的响应图的属性值不小于对应的所述属性阈值的情况下,执行基于所述响应图、利用活体检测模型对所述待检测对象进行活体检测的步骤。
14.根据权利要求7-13任一所述的方法,其特征在于,所述活体检测模型为学习了活体人脸的响应图的第一图像特征以及所述活体人脸的第二图像特征的模型;
基于所述响应图、利用活体检测模型对所述待检测对象进行活体检测,得到所述待检测对象的活体检测结果,包括:
提取所述响应图的第一图像特征;
提取所述待检测视频的任一个视频帧,并获取该视频帧的第二图像特征;
融合所述第一图像特征以及所述第二图像特征,得到融合图像特征;
利用所述活体模型对所述融合图像特征进行处理,得到所述待检测对象的活体检测结果。
15.一种电子设备,包括存储器、处理器及存储在所述存储器上的计算机程序,其特征在于,所述处理器执行所述计算机程序以实现权利要求1至6中任一项所述的活体检测方法;或者,所述处理器执行所述计算机程序以实现权利要求7至14任一项所述的活体检测方法。
16.一种计算机可读存储介质,其上存储有计算机程序/指令,其特征在于,该计算机程序/指令被处理器执行时实现如权利要求1至6中任一项所述的活体检测方法;或者,该计算机程序/指令被处理器执行时实现如权利要求7至14任一项所述的活体检测方法。
17.一种计算机程序产品,包括计算机程序/指令,其特征在于,该计算机程序/指令被处理器执行时实现如权利要求1至6中任一项所述的活体检测方法;或者,该计算机程序/指令被处理器执行时实现如权利要求7至14任一项所述的活体检测方法。
CN202210528092.5A 2022-05-16 2022-05-16 一种活体检测方法、电子设备、存储介质及程序产品 Pending CN115147936A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202210528092.5A CN115147936A (zh) 2022-05-16 2022-05-16 一种活体检测方法、电子设备、存储介质及程序产品
PCT/CN2023/094603 WO2023221996A1 (zh) 2022-05-16 2023-05-16 一种活体检测方法、电子设备、存储介质及程序产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210528092.5A CN115147936A (zh) 2022-05-16 2022-05-16 一种活体检测方法、电子设备、存储介质及程序产品

Publications (1)

Publication Number Publication Date
CN115147936A true CN115147936A (zh) 2022-10-04

Family

ID=83406192

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210528092.5A Pending CN115147936A (zh) 2022-05-16 2022-05-16 一种活体检测方法、电子设备、存储介质及程序产品

Country Status (1)

Country Link
CN (1) CN115147936A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117011950A (zh) * 2023-08-29 2023-11-07 国政通科技有限公司 一种活体检测方法及装置
WO2023221996A1 (zh) * 2022-05-16 2023-11-23 北京旷视科技有限公司 一种活体检测方法、电子设备、存储介质及程序产品

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023221996A1 (zh) * 2022-05-16 2023-11-23 北京旷视科技有限公司 一种活体检测方法、电子设备、存储介质及程序产品
CN117011950A (zh) * 2023-08-29 2023-11-07 国政通科技有限公司 一种活体检测方法及装置
CN117011950B (zh) * 2023-08-29 2024-02-02 国政通科技有限公司 一种活体检测方法及装置

Similar Documents

Publication Publication Date Title
CN110765923B (zh) 一种人脸活体检测方法、装置、设备及存储介质
WO2020151489A1 (zh) 基于面部识别的活体检测的方法、电子设备和存储介质
CN110163078A (zh) 活体检测方法、装置及应用活体检测方法的服务***
RU2431190C2 (ru) Способ и устройство распознавания рельефности лица
WO2019152983A2 (en) System and apparatus for face anti-spoofing via auxiliary supervision
CN115147936A (zh) 一种活体检测方法、电子设备、存储介质及程序产品
CN112651333B (zh) 静默活体检测方法、装置、终端设备和存储介质
CN113312965A (zh) 一种人脸未知欺骗攻击活体检测方法及***
CN115049675A (zh) 生成区域确定及光斑生成方法、设备、介质及程序产品
CN114387548A (zh) 视频及活体检测方法、***、设备、存储介质及程序产品
CN113033305B (zh) 活体检测方法、装置、终端设备和存储介质
CN114170642A (zh) 图像检测的处理方法、装置、设备及存储介质
CN115223141A (zh) 交通灯检测方法、电子设备及存储介质
US8538142B2 (en) Face-detection processing methods, image processing devices, and articles of manufacture
CN109409325B (zh) 一种识别方法和电子设备
CN112926498A (zh) 基于多通道融合和深度信息局部动态生成的活体检测方法
WO2023221996A1 (zh) 一种活体检测方法、电子设备、存储介质及程序产品
JPH11283036A (ja) 対象物検出装置及び対象物検出方法
CN113516089B (zh) 人脸图像识别方法、装置、设备及可读存储介质
CN115841705A (zh) 活体检测方法
CN116469177A (zh) 混合精度的活体目标检测方法和活体检测模型的训练方法
CN116434349A (zh) 活体检测方法、电子设备、存储介质及程序产品
CN112818911A (zh) 活体检测方法、计算机设备及存储介质
CN113674366A (zh) 皮肤颜色的识别方法、装置和电子设备
CN115331315A (zh) 活体检测方法和活体检测装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination