CN111091047A - 活体检测方法、装置、服务器和人脸识别设备 - Google Patents

活体检测方法、装置、服务器和人脸识别设备 Download PDF

Info

Publication number
CN111091047A
CN111091047A CN201911029215.5A CN201911029215A CN111091047A CN 111091047 A CN111091047 A CN 111091047A CN 201911029215 A CN201911029215 A CN 201911029215A CN 111091047 A CN111091047 A CN 111091047A
Authority
CN
China
Prior art keywords
target
scene
feature group
sample
preset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911029215.5A
Other languages
English (en)
Other versions
CN111091047B (zh
Inventor
曹佳炯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN201911029215.5A priority Critical patent/CN111091047B/zh
Publication of CN111091047A publication Critical patent/CN111091047A/zh
Priority to PCT/CN2020/103962 priority patent/WO2021082548A1/zh
Application granted granted Critical
Publication of CN111091047B publication Critical patent/CN111091047B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本说明书提供了活体检测方法、装置、服务器和人脸识别设备。在一个实施例中,通过调用基于第二场景训练得到的预设的活体检测模型对第一场景采集的目标图像数据进行处理,提取得到对应的目标特征组,并通过上述模型基于该目标特征组确定出目标图像数据中的目标对象属于非活体对象的概率值作为目标概率;同时,又引入并利用基于第一场景的样本数据所确定的第一场景的锚点特征组,来确定目标特征组与锚点特征组之间的目标特征组距离;再综合上述目标概率和目标特征组距离来较为准确地确定第一场景采集的目标图像数据中的目标对象是否为活体对象。

Description

活体检测方法、装置、服务器和人脸识别设备
技术领域
本说明书属于互联网技术领域,尤其涉及一种活体检测方法、装置、服务器和人脸识别设备。
背景技术
随着技术的发展,人脸识别的应用越来越广泛。在许多应用场景中,经常使用人脸识别技术通过对所采集到的图像数据进行人脸识别,来确定用户的身份,进而为用户提供对应的服务,或者开通相应的权限。
但是,目前出现了许多通过使用包含有他人人脸的照片、视频,或者套用他人的人脸面具等方式来伪装成他人,以蒙混通过人脸识别,对他人的权益安全产生威胁的现象。因此,在一些实施例通常会在进行人脸识别之前,还会先利用针对所处的具体场景训练对应的活体检测模型进行活体检测,以确定所要识别的图像数据中的人脸对象是否是真实的人类的脸,而不是照片、视频或者面具等。又由于不同场景所对应的环境条件、识别要求等会存在差异,导致针对不同的场景,往往需要分别单独训练建立对应的活体检测模型来进行活体检测。
因此,亟需一种能够高效地进行活体检测的方法。
发明内容
本说明书提供了活体检测方法、装置、服务器和人脸识别设备,以便可以有效地利用在第二场景中训练建立的预设的活体检测模型,来对在第一场景所采集到的图像数据中的目标对象进行较为高效、准确的活体检测。
本说明书提供的一种活体检测方法、装置、服务器和人脸识别设备是这样实现的:
一种活体检测方法,包括:获取目标图像数据,其中,所述目标图像数据包括在第一场景中采集的包含有目标对象的图像数据;调用预设的活体检测模型,从所述目标图像数据中提取出目标特征组,并通过所述预设的活体检测模型确定出所述目标对象为非活体对象的概率值作为目标概率,其中,所述预设的活体检测模型包括利用第二场景的样本数据训练得到的模型;根据所述目标特征组和第一场景的锚点特征组,确定目标特征组距离,其中,所述第一场景的锚点特征组根据第一场景的样本数据确定;根据所述目标特征组距离和所述目标概率,确定所述目标对象是否为活体对象。
一种活体检测装置,包括:获取模块,用于获取目标图像数据,其中,所述目标图像数据包括在第一场景中采集的包含有目标对象的图像数据;使用模块,用于使用预设的活体检测模型,从所述目标图像数据中提取出目标特征组,并通过所述预设的活体检测模型确定出所述目标对象为非活体对象的概率值作为目标概率,其中,所述预设的活体检测模型包括利用第二场景的样本数据训练得到的模型;第一确定模块,用于根据所述目标特征组和第一场景的锚点特征组,确定目标特征组距离,其中,所述第一场景的锚点特征组根据第一场景的样本数据确定;第二确定模块,用于根据所述目标特征组距离和所述目标概率,确定所述目标对象是否为活体对象。
一种服务器,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现获取目标图像数据,其中,所述目标图像数据包括在第一场景中采集的包含有目标对象的图像数据;使用预设的活体检测模型,从所述目标图像数据中提取出目标特征组,并通过所述预设的活体检测模型确定出所述目标对象为非活体对象的概率值作为目标概率,其中,所述预设的活体检测模型包括利用第二场景的样本数据训练得到的模型;根据所述目标特征组和第一场景的锚点特征组,确定目标特征组距离,其中,所述第一场景的锚点特征组根据第一场景的样本数据确定;根据所述目标特征组距离和所述目标概率,确定所述目标对象是否为活体对象。
一种计算机可读存储介质,其上存储有计算机指令,所述指令被执行时实现获取目标图像数据,其中,所述目标图像数据包括在第一场景中采集的包含有目标对象的图像数据;使用预设的活体检测模型,从所述目标图像数据中提取出目标特征组,并通过所述预设的活体检测模型确定出所述目标对象为非活体对象的概率值作为目标概率,其中,所述预设的活体检测模型包括利用第二场景的样本数据训练得到的模型;根据所述目标特征组和第一场景的锚点特征组,确定目标特征组距离,其中,所述第一场景的锚点特征组根据第一场景的样本数据确定;根据所述目标特征组距离和所述目标概率,确定所述目标对象是否为活体对象。
一种人脸识别设备,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现上述活体检测方法,以确定用于进行人脸识别的目标图像数据中的目标对象是否为活体对象;在确定所述目标对象不是活体对象的情况下,确定人脸识别失败。
本说明书提供的活体检测方法、装置、服务器和人脸识别设备,通过使用基于第二场景训练得到的预设的活体检测模型对第一场景采集的目标图像数据进行处理,提取得到对应的目标特征组,并通过上述模型基于该目标特征组确定出目标图像数据中的目标对象属于非活体对象的目标概率;同时,又引入并利用基于第一场景的样本数据所确定的第一场景的锚点特征组,来确定目标特征组与锚点特征组之间的目标特征组距离;再综合上述目标概率和目标特征组距离来较为准确地确定出第一场景中采集到的目标图像数据中的目标对象是否为活体对象。从而可以不用再针对第一场景另外单独训练对应的活体检测模型,能有效地利用在其他场景中已经训练好的活体检测模型,高效地对第一场景中所采集的目标图像数据中的目标对象进行活体检测。
附图说明
为了更清楚地说明本说明书实施例,下面将对实施例中所需要使用的附图作简单地介绍,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是应用本说明书实施例提供的活体检测方法的***结构组成的一个实施例的示意图;
图2是在一个场景示例中,应用本说明书实施例提供的活体检测方法的一种实施例的示意图;
图3是在一个场景示例中,应用本说明书实施例提供的活体检测方法的一种实施例的示意图;
图4是本说明书的一个实施例提供的活体检测方法的流程示意图;
图5是本说明书的一个实施例提供的活体检测方法的一个实施例示意图;
图6是本说明书的一个实施例提供的活体检测方法的一个实施例示意图;
图7是本说明书的一个实施例提供的服务器的结构组成示意图;
图8是本说明书的一个实施例提供的活体检测装置的结构组成示意图。
具体实施方式
为了使本技术领域的人员更好地理解本说明书中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本说明书保护的范围。
本说明书实施例提供了活体检测方法,该活体检测方法具体可以应用于包含有服务器和采集终端的***架构中。具体可以参阅图1所示,其中,所述采集终端布设于第一场景中,所述采集终端通过有线或无线的方式与服务器耦合,以便进行数据交互。通过该***可以不用再针对当前场景训练对应的活体检测模型,而是可以调用在其他场景中已经训练好的活体检测模型,高效地对当前场景中所采集的图像数据中的目标对象进行活体检测。
具体的,所述采集终端具体可以用于采集第一场景的目标图像数据,并将所述目标图像数据发送至服务器。其中,所述目标图像数据包括在第一场景中采集得到的包含有目标对象(例如人脸等)的图像数据。所述服务器具体可以用于调用预设的活体检测模型,从所述目标图像数据中提取出目标特征组,并通过所述预设的活体检测模型根据所述目标特征确定出所述目标对象为非活体对象的概率值作为目标概率。其中,所述预设的活体检测模型包括利用第二场景的样本数据训练得到的模型。根据所述目标特征组和第一场景的锚点特征组,确定目标特征组距离。其中,所述第一场景的锚点特征组根据第一场景的样本数据确定。根据所述目标特征组距离和所述目标概率,确定所述目标对象是否为活体对象。
在本实施例中,所述服务器可以是一种应用于数据处理平台一侧,能够实现数据传输、数据处理等功能的后台业务服务器。具体的,所述服务器可以为一个具有数据运算、存储功能以及网络交互功能的电子设备;也可以为运行于该电子设备中,为数据处理、存储和网络交互提供支持的软件程序。在本实施方式中,并不具体限定所述服务器的数量。所述服务器具体可以为一个服务器,也可以为几个服务器,或者,由若干服务器形成的服务器集群。
在本实施例中,所述采集终端可以是一种应用于具体的场景区域一侧,能够实现数据采集、数据传输等功能的前端设备。具体地,所述采集终端例如可以为监控摄像头,也可以是安装有摄像头的其他电子设备,例如平板电脑、笔记本电脑、智能手机等。
在一个场景示例中,A公司可以应用本说明书实施例提供的活体检测方法对公司门禁***所采集到的人脸图像进行活体检测。
在本场景示例中,A公司之前就在公司内部设置有考勤***,在该考勤***中布设有一套人脸识别设备(记为第一人脸识别设备),该人脸设备包括有摄像头和处理器。员工在进入公司打卡时,考勤***可以调用上述第一人脸识别设备根据摄像头所拍摄的人脸照片进行人脸识别,以对打卡员工的身份信息进行识别确认。参阅图2所示。
具体的,为了避免出现员工代打卡的情况,上述第一人脸识别设备在通过摄像头采集到打卡员工的人脸照片后,处理器会先调用已经训练好的第一活体检测模型对该人脸照片中的人脸对象进行活体检测,以确定所采集到的人脸照片中的人脸对象是否为活体对象。如果通过上述第一活体检测模型确定该人脸照片中的人脸为活体对象的人脸,则通过活体检测,进而人脸识别设备才会对上述人脸照片进行进一步的人脸识别,确定出该人脸所对应的员工的身份信息,并将所确定出的员工的身份信息反馈给考勤***,以完成该员工的考勤记录。
其中,上述第一活体检测模型具体应用时,可以先从人脸照片提取出对应的特征,再根据所提取的特征来判断该人脸照片的人脸对象是否为活体对象。如果通过上述第一活体检测模型确定该人脸照片中给的人脸不是活体对象的人脸,则未通过活体检测,这时人脸识别设备会判断有人正在通过使用包含有他人的人脸的照片、视频或者面具冒充他人进行代打卡,进而不会再对该人脸照片进行进一步的人脸识别,而是可以会发出警报提示,并停止考勤记录,提示用户打开失败。
当前,A公司计划在公司外布设一套包含有人脸识别设备(记为第二人脸识别设备)的门禁***。可以参阅图3所示。其中,上述第二人脸识别设备包含有摄像头和处理器。具体的,上述摄像头可以布设于公司外的大门位置的上方,用于采集准备进入公司的人的人脸照片。第二人脸识别设备中的处理器也需要利用活体检测模型先对摄像头所采集到的人脸照片进行活体检测,在检测通过确定所采集到的人脸照片中的人脸对象为活体对象后,才会对该人脸照片中的人脸进行进一步的人脸识别,以确定该人脸对象所对应的身份信息是否为A公司的员工,再将确定结果反馈给门禁***。门禁***根据该确定结果,在确定人脸照片中的人脸对象所对应的身份信息为A公司的员工后才会自动打开公司的大门,该员工才能顺利地进入公司。
但是目前并没有针对门禁***的应用场景的活体检测模型,通常需要先耗费大量的时间和资源训练得到针对门禁***的应用场景的活体检测模型。
虽然,当前A公司拥有已经训练好的第一活体检测模型。但是,由于该模型是针对第一人脸识别设备所对应的考勤***这一应用场景设计、训练得到的。因此,该模型并不适用于第二人脸识别设备所对应的门禁***的应用场景。如果直接将第一活体检测模型应用于门禁***场景,往往容易出现识别误差。
具体的,例如,在第一人脸识别设备所针对的考勤***的应用场景中,摄像头通常设置室内,环境条件较为稳定,采集人脸照片时外界的光线相对较为充足,所得到的人脸照片通常会相对较为清晰。此外,在考勤***的应用场景中,员工打卡过程中往往相对较为配合摄像头采集人脸照片。因此,在考勤***的应用场景中活体检测模型所要处理的人脸照片的图像质量会相对较高。进一步,又由于A公司对公司考勤***的精度要求较高,活体检测模型在具体检测过程中也会相对较为严格。
而在第二人脸识别设备所针对的门禁***的应用场景中,由于摄像头通常设置在室外,环境条件较为复杂多变、不够稳定,导致采集人脸照片时外界的光线也不够稳定,例如,中午光照太强,晚上光照太弱,导致所采集得到的人脸照片可能不够清晰。此外,在门禁***的应用场景中,员工在进入公司的过程中通常习惯上不会配合摄像头采集人脸照片。因此,导致在门禁***的应用场景中所采集到的,活体检测模型所要处理的人脸照片的图像质量通常会相对较低。进一步,又由于A公司对门禁***的精度要求没有考勤***的高。
因此,如果直接在第二人脸识别设备中套用针对于考勤***的应用场景的第一活体检测模型来确定第二人脸识别设备所采集的人脸照片中的人脸对象是否为活体对象,往往会很容易出现检测误差。例如,可能经常出现无法识别出本公司的员工,导致不能及时为本公司员工开门的情况。
在一些实施例中,通常会针对门禁***的应用场景,耗费大量资源和时间重新训练建立一个活体检测模型。或者,针对门禁***应用场景采集对应的样本数据,再利用上述样本数据,对第一活体检测模型进行训练和调整,得到不同于第一活体检测模型的,能够适用于门禁***的应用场景的调整后的活体检测模型。
而在本场景示例中,基于本说明书实施例所提供的活体检测方法,可以不需要针对门禁***的应用场景单独重新训练,或调整得到新的活体检测模型。
具体实施时,第二人脸设备的处理器可以先直接调用已经训练好的适用于考勤***的应用场景第一活体检测模型对第二人脸设备的摄像头在室外所采集到的包含有人脸对象的人脸照片进行特征提取,得到对应的目标特征组。进一步,可以通过第一活体检测模型基于上述目标特征组进行确定出该人脸对象为非活体对象的概率值作为目标概率。需要说明的是,由于上述使用的第一活体检测模型是针对考勤***的应用场景训练得到的,在将第一活体检测模型应用于门禁***的场景中对所采集到的人脸照片中的人脸对象进行活体检测判断时,没有考虑到门禁***的应用场景在环境条件、精度要求等方面的具体特点,因此所得到目标概率值并不一定完全准确,但可以作为一种判断活体对象的参考依据。通常,目标概率值的数值越大,所对应的人脸对象越有可能不是活体对象,而是非活体对象。
进一步,处理器可以将基于第一活体检测模型提取出的目标特征组与预先确定出的门禁***的应用场景的锚点特征组进行比较,计算出目标特征组与上述锚点特征组之间的特征距离。
其中,上述锚点特征组具体可以理解为一种包括了门禁***的应用场景中的不同情况(例如不同环境条件)下的正样本的典型特点的特征集合。具体的,上述锚点特征组可以预先根据门禁***的应用场景中的样本数据中的正样本数据确定。上述正样本具体可以包括包含有真人人脸的图像数据。
上述目标特征组与锚点特征组之间的特征距离具体可以用于衡量目标特征组与不同情况(例如不同光照条件、不同的采集角度等)下的门禁***的应用场景的正样本特征的差异程度。该数据也可以作为一种判断活体对象的参考依据。但需要说明的是,该数据是一种已经考虑并兼顾到了门禁***应用场景的环境条件、精度要求等方面特点的参考数据。通常,目标特征组与锚点特征组的特征距离越大,所对应的人脸对象越有可能不是活体对象。
在本场景示例中,具体计算目标特征组与锚点特征组的特征距离时,可以分别计算目标特征组与锚点特征组中的各个特征的差值的模作为目标特征组与锚点特征组中的各个特征的特征距离,再根据目标特征组与锚点特征组中的各个特征的特征距离来确定出目标特征组与锚点特征组的特征距离,可以记为目标特征组距离。
具体的,上述特征距离可以按照以下算式确定:
Distance={Dcenter,D1,D2,...,DK}={||f-fcenter||2,||f-fa1||2,||f-fa2||2,...,||f-faK||2}
其中,上述Distance具体可以用于表示目标特征组与锚点特征组的特征距离,Dcenter具体可以用于表示目标特征组与锚点特征组中的中心点特征的特征距离,DK具体可以用于表示目标特征组与锚点特征组中的编号为K的特征的特征距离,f具体可以表示为目标特征组,fcenter具体可以表示为锚点特征组中的中心点特征,faK具体可以表示为锚点特征组中的编号为K的特征,|| ||2具体可以表示为一种求模运算。
在按照上述方式分别确得到了目标概率,以及考虑了门禁***的应用场景的环境条件、精度要求等具体特点的目标特征组与锚点特征组的特征距离后,可以同时综合上述两种数据来针对当前的门禁***的应用场景,较为准确、高效地判断该场景中所采集的人脸照片中的人脸对象是否为活体对象。
具体的,先根据所述目标特征组与锚点特征组的特征距离确定第一评分;根据所述目标概率确定第二评分。例如,可以通过比较目标特征组与锚点特征组的特征距离,与预设的距离阈值的大小来确定第一评分。如果上述特征距离小于预设的距离阈值,则可以得到相对较高的第一评分。相反,如果上述特征距离大于预设的距离阈值得到的第一评分会相对较低。类似的,可以通过比较目标概率与预设的比率阈值的大小来确定第二评分。如果目标概率小于预设的比率阈值,则可以得到相对较高的第二评分。相反,如果上述目标概率大于预设的比率阈值,得到的第二评分也会相对较低。
其中,上述预设的距离阈值和预设的比率阈值可以根据具体情况结合具体的精度要求设置。对于预设的距离阈值和预设的比率阈值的具体数值,本说明书不作限定。
进一步,可以根据预设的权重规则,对所述第一评分和第二评分进行加权求和,得到第三评分。具体的,可以根据预设的权重规则确定出第一评分的所对应的第一权重,以及第二评分所对应的第二权重,再将第一评分和第一权重的乘积,与第二评分和第二权重给的乘积相加得到的和作为上述第三评分。
上述第三评分可以理解为一种综合考虑了目标概率以及目标特征组距离两种参考依据得到的一种评价分数。进而可以根据第三评分较为准确地确定出所检测的人脸照片中的人脸对象是否为活体对象。
具体的,可以将所述第三评分与预设的评分阈值进行比较,得到比较结果。根据所述比较结果,确定所述目标对象是否为活体对象。
例如,如果根据比较结果确定第三评分小于等于上述预设的评分阈值,则可以判断该人脸对象不是活体对象,进而可以直接确定人脸识别失败,不再进行进一步的人脸识别。并且第二人脸识别设备会将人脸识别失败的识别结果反馈给门禁***。这时,门禁***根据该人脸识别结果,不会为该人开门。如果根据比较结果确定第三评分大于预设的评分阈值,则可以判断该人脸对象是活体对象,进而可以再进行进一步的人脸识别。如果通过进一步的人脸识别确定该人脸对象所对应的身份信息为A公司的某个员工后,确定人脸识别成功。并且第二人脸识别设备会将人脸识别成功的识别结果反馈给门禁***。这时,门禁***根据该人脸识别结果,会自动为该人开门。
这样可以在不需要另外针对门禁***的应用场景重新训练,或修改调整得到新的活体检测模型的情况下,能够直接调用已经训练好的但适用于考勤***的应用场景的第一活体检测模型,结合门禁***的应用场景的锚点特征组,来快速、准确地对门禁***的应用场景中所采集到的照片中的人脸对象进行活体检测。
在另一个场景示例中,A公司可以预先通过布设在门禁***中的第二人脸设备的摄像头采集多种户外环境条件下的包含有真人人脸的照片作为正样本数据,组成一个正样本数据集,可以记为X。其中,该正样本数据集中包括了多个包含有真人人脸的照片。具体的,例如,可以表示为X={x1,x2,...,xi,...,xN}。其中,xi具体可以用于表示正样本数据集中编号为i的照片。
在获取上述正样本数据时,为了使得所获取的正样本数据能够较为全面的覆盖门禁***的应用场景中的不同环境条件情况。具体在采集人脸照片时,可以记录下采集时间以及采集时的天气数据。进一步,可以根据采集时间以及采集时的天气数据,从所采集的大量人脸照片中针对性地筛选出对应有不同采集时间和天气数据组合的人脸照片作为正样本数据。
在得到上述正样本数据后,可以将上述正样本数据集中的各个正样本数据分别输入至已经训练好的第一活体检测模型,通过第一活体检测模型提取得到对应的样本特征。其中,每一个样本特征与一个正样本数据对应。根据多个样本特征建立一个样本特征集,可以记为F。具体的,例如,该样本特征集可以表示为F={f1,f2,...,fi,...,fN}。其中,fi具体可以用于表示与编号为i的照片对应的样本特征。
进一步可以先对上述样本特征分别进行相应的特征处理。具体的,例如,可以根据具体情况确定出平均特征(可以记为fmean);再将上述多个样本特征中的各个样本特征分别减去上述平均特征,得到处理后的样本特征。这样可以对上述样本特征进行归一化,使得上述样本特征的数值统一在一个数值范围内,以减少后续处理过程中的误差。再根据处理后的样板特征建立对应的处理后的样本特征集,可以记为F′。具体的,例如,上述处理后的样本特征集可以表示为:F′={f1′,f′2,...,f′i,...,f′N}。其中,fi′具体可以用于表示与编号为i的照片对应的处理后的样本特征。
根据上述处理后的样本特征可以通过计算上述处理后的样本特征集的特征平均值来确定出中心点特征。具体的,例如,上述中心点特征可以按照以下算式确定:
Figure BDA0002249615870000091
其中,fcenter具体可以表示为上述中心点特征。
分别计算处理后的各个样本特征与中心点特征的特征距离,并根据特征距离,从多个处理后的样本特征中筛选出距离中心点特征的特征距离大于特征距离阈值的处理后的样本特征作为符合要求的样本特征,从而可以使得所筛选出的样本特征对于所针对的门禁***的应用场景具有相对较全面的覆盖范围。
当然,上述所列举的确定符合要求的样本特征的方式只是一种示意性说明。具体实施时,还可以根据处理后的样本特征与中心点特征的特征距离,按照距离由大到小对处理后的样本特征进行排序;获取排序靠前的预设个数的处理后的样本特征作为符合要求的样本特征。具体的,例如,还可以按照以下方式确定出符合要求的样本特征:
{fa1,fa2,...,fat,...,faK}=TopK(||fi′-fcenter||)
其中,上述fat具体可以用于表示编号为t的符合要求的样本特征,K具体可以表示预设个数,TopK()具体可以表示为一种获取数值排序靠前的K个数据的运算。
进而可以根据上述中心点特征和所筛选出的符合要求的样本特征建立得到对应的于门禁***的应用场景的锚点特征组。其中,该锚点特征组具体可以包括中心点特征和符合要求的样本特征。具体的,上述锚点特征组可以记为Fanchor={fcenter,fa1,fa2,...,fat,...,faK}。从而得到了能够有效、全面地反映门禁***的应用场景的环境特点的锚点特征组。
第二人脸识别设备在综合利用针对考勤***的应用场景的第一活体检测模型和上述针对门禁***的应用场景的锚点特征组对摄像头所采集的人脸照片进行活体检测的同时,还会记录并统计每一个预设时间段内的误差比率。其中,上述误差比率具体可以理解为预设时间段活体检测错误的数量与该时间段内所执行的活体检测总数的比值。
具体实施时,第二人脸识别设备的处理器会将上述误差比率与预设的比率阈值进行比较,在确定误差比率大于上述预设的比率阈值的情况下,可以判断当前门禁***的应用场景中所要处理的数据特点出现了变化,如果继续基于之前所确定的锚点特征组在进行活体检测的检测误差会相对较大。这时可以重新确定与门禁***的应用场景的最新情况对应的锚点特征组,来替换当前使用的锚点特征组,进行锚点特征组的更新,以降低检测误差。
例如,可以获取距离当前时间较近的一个时间段(例如,最近一周)内的正样本数据,再根据上述正样本数据重新确定出新的锚点特征组,并利用上述新的锚点特征组替换之前使用的锚点特征组,使得第二人脸识别设备可以基于新的锚点特征组对当前的门禁***的应用场景中的人脸照片进行活体检测时仍然具有较高的准确率。
由上述场景示例可见,本说明书提供的活体检测方法,可以有效地利用在其他应用场景中已经训练好的活体检测模型,高效地对在当前的应用场景中所采集到的人脸照片中的人脸对象进行较为准确的活体检测。
参阅图4所示,本说明书实施例提供了一种活体检测方法,其中,该方法具体应用于服务器一侧。具体实施时,该方法可以包括以下内容。
S401:获取目标图像数据,其中,所述目标图像数据包括在第一场景中采集的包含有目标对象的图像数据。
在一些实施例中,上述目标图像数据具体可以理解为在第一场景中采集的包含有待检测的目标对象的图像数据。具体的,上述目标图像数据具体可以是照片、图像数据等。对于上述目标图像数据的具体形式类型,本说明书不作限定。
具体实施时,还可以从视频影像等多媒体数据中截取上述目标图像数据。例如,可以从监控视频中截取包含有目标对象的图像帧作为上述目标图像数据等。
在一些实施例中,上述目标对象具体可以根据所对应的应用场景确定。例如,对于刷脸支付的应用场景,上述目标对象可以是用户的人脸数据。对于虹膜打卡的应用场景,上述目标对象可以是用户的虹膜数据。当然,需要说明的是,上述所列举的目标对象只是一种示意性说明。具体实施时,根据具体情况,上述目标对象还可以是其他类型内容的对象数据。对此,本说明书不作限定。
在一些实施例中,上述第一场景具体可以理解为该活体检测方法所针对的具体的应用场景。具体的,上述第一场景可以是门禁***通过人脸识别为识别通过的用户自动开门,以允许该类用户进入的业务场景。也可以是人脸支付***通过人脸识别对付款用户的身份进行认证,在认证同的情况的下,响应该付款用户的付款指示,调用该用户的账户中资金数据对交易订单进行核销的应用场景。还可以是身份确定***通过对所采集的用户虹膜与身份信息数据库中所保存的虹膜进行匹配,以识别确定出用户的身份信息的应用场景等等。当然,上述所列举的第一场景只是一种示意性说明。具体实施时,根据具体情况和业务需求,还可以引入其他形式或类型的应用场景作为上述第一场景。对此,本说明书不作限定。
对于上述所列举的第一场景,可以先对目标图像数据中的目标对象进行活体检测,以确定出目标对象是否为活体对象。如果通过活体检测发现目标对象不是活体对象,则目标图像数据中的目标对象可能是包含有他人人脸的照片或面具,或者是包含有他人虹膜的图片等,进而可以判断目标影像中的目标对象不是真人,而可能是一种伪装攻击,这时可以停止对该目标对象的进一步识别。
在一些实施例中,具体实施时,可以通过摄像头等影像采集设备采集第一场景中的包含有目标对象的图像数据作为上述目标图像数据。当然,需要说明的是,上述所列举获取目标图像数据的方式只是一种示意性说明。具体实施时,根据具体情况,还可以采用其他合适的方式来获取第一场景中的包含有目标对象的目标图像数据。对此,本说明书不作限定。
S403:调用预设的活体检测模型,从所述目标图像数据中提取出目标特征组,并通过所述预设的活体检测模型确定出所述目标对象为非活体对象的概率值作为目标概率,其中,所述预设的活体检测模型包括利用第二场景的样本数据训练得到的模型。
在一些实施例中,上述目标特征组具体可以包括从目标图像数据中提取出的用于判断目标对象是否为活体对象的图像特征数据。例如,图像数据中是否存在手机边框的反光,或者照片纸面的反光等特征。又例如,视频数据中连续的两帧图片中目标对象的关键点(例如,人脸中的嘴角位置点)之间的位移变化特征等等。当然,上述所列举的目标特征组只是一种示意性说明。具体实施时,根据具体的应用场景,还可以使用其他类型的特征数据作为目标特征组。对此,本说明书不作限定。其中,上述活体对象具体可以理解为一种真人的特征对象,例如,真人的人脸、真人的虹膜等。相对的,非活体对象具体可以理解为一种伪装成真人的特征对象的数据对象,例如,包含有真人人脸的图片或者人脸面具等。
在一些实施例中,上述目标概率具体可以包括用于反映目标图像数据中的目标对象不是活体对象的概率值。通常,如果目标概率的数值越大,相应的,目标影像中的目标对象越有可能不是活体对象。相反,如果目标概率的数值越小,相应的,目标影像中的目标对象越有可能是活体对象。
在一些实施例中,上述预设的活体检测模型具体可以包括一种事先已经训练好的针对第二场景的图像数据进行活体检测的模型。其中,上述第二场景可以是与第一场景不同的应用场景,所涉及的环境条件,和/或,对检测的精度要求等方面存在差异。当然,上述第二场景也可以是与第一场景相同或相近的应用场景。
上述预设的活体检测模型是针对第二场景的环境条件、检测的精度要求等方面的特点,利用第二场景中的样本数据训练建立的,能够较为准确地对第二场景中采集的包含有的目标对象的图像数据进行活体检测,以确定出待识别的图像数据中的目标对象是否为活体对象。
在第二场景中,具体实施时,将待识别的目标图像数据输入至上述预设的活体检测模型。预设的活体检测模型具体运行时,可以先从所输入的图像数据中提取出对应的图像特征;再根据该图像特征确定该图像特征所对应的目标对象为非活体对象的概率值;进而可以将上述概率值与预设的判定阈值进行比较,当上述概率值大于预设的判定阈值时,则可以判断该目标对象不是活体对象。
由于第二场景与第一场景在环境条件、处理的精度要求等方面存在差异,如果直接将对应于第二场景的预设的活体检测模型应用于第一场景,对第一场景所采集的目标图像数据中的目标对象进行活体检测,可能会出现检测的准确度不高,容易出现检测误差的情况。但是,由于应用预设的活体检测模型在第一场景中所要处理的问题和第二场景是相同的,通过上述预设的活体检测模型可以对第一场景中所采集的到的目标图像数据进行处理,从中提取出相应的图像特征;同时,也可以根据该图像特征对目标图像数据中的目标对象是否为活体对象进行判断,给出对应的概率值,虽然这个概率值准确度不高,但也具有一定的参考价值。
因此,在本实施例中,可以参阅图5所示,直接调用在第二场景中已经训练好的预设的活体检测模型,将在第一场景中采集的包含有目标对象的目标图像数据输入至上述预设的活体检测模型中,通过运行该活体检测模型可以先从上述目标图像数据中提取出对应的图像特征作为目标特征组。进一步,还可以通过上述预设的活体检测模型根据所提取的目标特征组,对目标图像数据中的目标对象是否为活体对象进行判断,得到目标对象不是活体对象的概率值作为上述目标概率。其中,上述目标概率值可以作为后续用于判断目标对象是否为活体对象的参考数据的一种。
这样可以不需要针对第一场景另外训练或调整得到对应于第一场景的活体检测模型,降低了处理成本和处理周期,而是可以通过直接调用在其他应用场景中已经训练好的活体检测模型对第一场景的目标图像数据进行特征提取,得到所需要的目标特征组。并通过该模型根据上述目标特征组,对目标对象是否为活体对象进行判断,给出基于该模型所确定的目标概率,作为后续最终判断第一场景中所采集的目标图像数据中的目标对象是否为活体对象的一种参考数据。
S405:根据所述目标特征组和第一场景的锚点特征组,确定目标特征组距离,其中,所述第一场景的锚点特征组根据第一场景的样本数据确定。
在一些实施例中,上述锚点特征组具体可以理解为一种包括了第一场景中不同情况下的正样本的图像特点的特征集合。其中,上述不同情况下的正样本具体可以包括不同的环境条件(例如,不同的光照强度、拍摄角度、拍摄距离等)下采集的包含有活体对象的图像数据。
在本实施例中,具体实施时,可以预先针对第一场景采集不同情况下的包含有活体对象的图像数据作为正样本数据,再根据上述正样本数据建立得到上述锚点特征组。
在一些实施例中,除了可以按照上述方式采集使用正样本数据来建立锚点特征组外,还可以在建立锚点特征组的过程中采集使用部分负样本数据。具体的,可以在正样本数据中掺入所采集到的部分负样本数据,再根据上述包含有负样本数据和正本数据的样本数据来建立上述锚点特征组。这样能够引入场景中的负样本所造成的噪声,使得所建立的锚点特征组能够更好地反映真实场景中的图像特点,具有更好的效果。其中,上述负样本数据具体可以包括不同的环境条件(例如,不同的光照强度、拍摄角度、拍摄距离等)下采集的不包含有活体对象的图像数据。
在一些实施例中,上述目标特征组距离具体可以理解为目标特征组与上述锚点特征组的距离。上述目标特征组与锚点特征组之间的特征距离具体可以用于衡量目标特征组与不同情况下的第一场景的正样本特征的差异程度。上述特征距离也可以作为一种结合了第一场景的具体特点的用于后续判断目标对象是否为活体对象的参考数据。该参考数据通过联系第一场景的正样本数据,已经考虑并兼顾到了第一场景的环境条件、精度要求等方面特点,弥补了之前确定的目标概率没有考虑到第一场景的具体特点所存在的不足。通常,如果上述目标特征组距离的数值越大,相应的,目标特征组与锚点特征组的特征的近似度也就越低,所对应的目标对象越有可能不是活体对象。相反,如果上述目标特征组距离的数值越小,相应的,目标特征组与锚点特征组的近似度也就越高,所对应的目标对象越有可能是活体对象。
在一些实施例中,上述根据所述目标特征组和第一场景的锚点特征组,确定目标特征组距离,具体实施时,可以包括:分别计算目标特征组与锚点特征组中的各个特征的差值的模,作为目标特征组分别与锚点特征组中的各个特征的特征距离;根据目标特征组分别与锚点特征组中的各个特征的特征距离,确定出目标特征组与锚点特征组的特征距离,可以简记为目标特征组距离。
S407:根据所述目标特征组距离和所述目标概率,确定所述目标对象是否为活体对象。
在一些实施例中,根据所针对的应用场景,上述活体对象具体可以是真人的人脸,也可以是真人的虹膜等,而不是包含有人脸或虹膜的照片、面具等非真人的道具。
在一些实施例中,通过综合利用目标特征组和目标概率,以兼顾到第一场景的具体特点,以及与第二场景之前的差异,利用在第二场景中训练的预设的活体检测模型,准确地对第一场景中所采集的目标图像数据中的目标对象是否为活体对象进行判断。
在一些实施例中,上述根据所述目标特征组距离和所述目标概率,确定所述目标对象是否为活体对象,具体实施时,可以包括以下内容:根据所述目标特征组距离确定第一评分;根据所述目标概率确定第二评分。例如,可以通过比较目标特征组距离与预设的距离阈值的大小来确定第一评分。如果上述目标特征组距离小于预设的距离阈值,则可以得到相对较高的第一评分。相反,如果上述目标特征组距离大于预设的距离阈值得到的第一评分会相对较低。类似的,可以通过比较目标概率与预设的比率阈值的大小来确定第二评分。如果目标概率小于预设的比率阈值,则可以得到相对较高的第二评分。相反,如果上述目标概率大于预设的比率阈值,得到的第二评分也会相对较低。其中,上述预设的距离阈值和预设的比率阈值可以根据具体情况结合具体的精度要求设置。对于预设的距离阈值和预设的比率阈值的具体数值,本说明书不作限定。
进一步,可以根据预设的权重规则,对所述第一评分和第二评分进行加权求和,得到第三评分。具体的,可以根据预设的权重规则确定出第一评分的所对应的第一权重,以及第二评分所对应的第二权重,再将第一评分和第一权重的乘积,与第二评分和第二权重给的乘积相加得到的和作为上述第三评分。其中,上述第三评分具体可以理解为一种综合考虑了目标概率以及目标特征组距离两种参考数据得到的一种评价分数。
由于上述第三评分有效地兼顾并反映出了第一场景的具体特点,因此,可以根据第三评分较为准确地确定出所检测的目标图像数据中的目标对象是否为活体对象。具体的,可以将所述第三评分与预设的评分阈值进行比较,得到比较结果。根据所述比较结果,确定所述目标对象是否为活体对象。具体的,例如,如果根据比较结果,确定上述第三评分小于等于所述预设的评分阈值,则可以判断第一场景中所采集的目标图像数据中的目标对象不是活体对象。相反,如果根据比较结果,确定上述第三评分大于所述预设的评分阈值,则可以判断第一场景中所采集的目标图像数据中的目标对象是活体对象。
由上可见,本说明书实施例提供的活体检测方法,可以有效地利用在第二场景中训练建立的预设的活体检测模型,高效地对在第一场景所采集到的图像数据中的目标对象进行较为准确的活体检测。
在一些实施例中,所述第一场景的锚点特征组具体可以按照以下方式建立:采集第一场景中包含有活体对象的图像数据作为第一场景的正样本数据;调用预设的活体检测模型从所述正样本数据中提取出样本特征;根据所述样本特征,确定中心点特征,其中,所述中心点特征;计算所述样本特征与中心点特征的特征距离;根据所述样本特征,以及所述样本特征与中心点特征的特征距离,建立所述第一场景的锚点特征组。这样可以得到能够较为全面地覆盖第一场景中不同情况下的数据特点的锚点特征组,以弥补直接使用预设的活体检测模型时,没有考虑到第一场景与第二场景之间在环境条件、处理精度要求等方面所存在的差异导致的误差。
在一些实施例中,具体实施时,可以参阅图6所示,可以从在采集第一场景中的图像数据时记录下采集时的环境特点。例如,在通过布设在第一场景中的摄像头拍摄照片时,可以记录下拍摄该照片的光照情况。按照上述方式,在第一场景中采集得到一个时间段内的图像数据,进一步可以从上述图像数据中筛选出包含有活体对象的图像数据作为正样本数据。例如,可以从上述照片中筛选出包含有真人的人脸的照片作为第一场景的正样本数据。在具体筛选上述第一场景的正样本数据时,可以根据第一场景的图像数据所记录的环境特点,有针对性地筛选出分别对应不同环境特点的包含有活体对象的图像数据作为正样本数据,从而可以使得所获取的第一场景的正样本数据可以较为全面地覆盖第一场景中不同情况下的数据特点。
在一些实施例中,可以将上述得到的第一场景的正样本数据分别输入所调用的预设的活体检测模型中。需要说明的是,在本实施例中,不需要使用上述预设的活体检测模型对正样本数据中的目标对象是否是活体对象进行检测判断,而只需要使用上述预设的活体检测模型从上述正样本数据中分别提取出各个正样本数据所对应的图像特征作为样本特征。
进一步,可以根据上述样本特征确定出对应的中心点特征。具体的,可以通过对上述样本特征进行加和求平均,得到上述中心点特征。进而,可以以中心点特征作为参照,分别计算样本特征中的各个样本特征与中心点特征的差值的模作为该样本特征的特征距离。根据样本特征的特征距离,从多个样本特征中筛选出与中心点特征的特征距离较大的样本特征作为符合要求的样本特征,这样得到的符合要求的样本特征能够更好地覆盖第一场景中不同情况下采集的图像数据的数据特点。
在一些实施例中,上述根据所述样本特征,以及所述样本特征与中心点特征的特征距离,建立所述第一场景的锚点特征组,具体实施时,可以包括以下内容:从所述样本特征中筛选出与中心点特征的特征距离大于特征距离阈值的样本特征作为符合要求的样本特征;根据所述中心点特征和所述符合要求的样本特征,建立所述第一场景的锚点特征组。
在一些实施例中,具体实施时,可以根据样本特征与中心点的特征距离将样本特征按照特征距离从大到小进行排序,选取排序靠前的预设个数的样本特征作为上述符合要求的样本特征。也可以将样本特征与中心点特征的特征距离与特征距离阈值进行比较,筛选出将样本特征与中心点特征的特征距离大于特征距离阈值的样本特征作为上述符合要求的样本特征。当然,需要说明的是,上述所列举的筛选出符合要求的样本特征的方式只是一种示意性说明。具体实施时,根据具体情况,还可以采用其他合适的方式来筛选出符合要求的样本特征。对此,本说明书不作限定。
在确定出符合要求的样本特征后,进一步可以根据符合要求的样本特征,以及中心点特征建立一个特征集合作为上述针对于第一场景的锚点特征组。其中,上述锚点特征组具体可以包括符合要求的样本特征,以及中心点特征。
在一些实施例中,还可以对上述得到的样本特征进行相应的特征处理。具体的,可以现根据样本特征的整体数值情况,确定出对应的平均特征;再通过将上述样本特征分别减去上述平均特征对上述样本特征进行他做出来,从而得到处理后的样本特征。后续可以使用处理后的样本特征替换原本使用的样本特征来确定出准确度更好的锚点特征组。
在一些实施例中,在建立所述第一场景的锚点特征组后,所述方法具体实施时,还可以包括以下内容:对所述第一场景的锚点特征组中的特征分别进行哈夫曼编码,得到压缩后的第一场景的锚点特征组;保存所述压缩后的第一场景的锚点特征组。这样可以通过哈夫曼编码对第一场景的锚点特征组进行压缩,并将压缩后的锚点特征组进行保存、管理,有效地降低了保存、管理锚点特征组时对资源的占用和消耗。当然,需要说明的是,上述采用哈夫曼编号对锚点特征组进行压缩只是一种示意性说明。具体实施时,根据具体情况和处理要求,还可以采用其他合适的压缩方式对锚点特征组进行压缩。对此,本说明书不作限定。
在一些实施例中,除了对锚点特征组进行压缩处理外,还可以在提取得到样本特征后,通过哈夫曼编码对所提取到的样本特征先进行压缩保存,从而能够进一步降低对资源的占用和消耗。
在一些实施例中,上述根据所述目标特征组距离和所述目标概率,确定所述目标对象是否为活体对象,具体实施时,可以包括以下内容:根据所述目标特征组距离确定第一评分;根据所述目标概率确定第二评分;根据预设的权重规则,对所述第一评分和第二评分进行加权求和,得到第三评分;将所述第三评分与预设的评分阈值进行比较,得到比较结果;根据所述比较结果,确定所述目标对象是否为活体对象。这样可以综合利用目标概率和目标特征组距离两种参考数据,即不需要重新建立使用对应于第一场景的活体检测模型,又可以兼顾到第一场景的具体特点,从而能够准确地第一场景中采集到的图像数据中的目标对象进行活体检测。
在一些实施例中,在根据所述目标特征组距离和所述目标概率,确定所述目标对象不是活体对象的情况下,所述方法具体实施时,还可以包括以下内容:拒绝与所述目标图像数据对应的权限申请请求。
在本实施例中,在确定待检测的目标影像中的目标对象不是活体对象的情况下,可以停止后续对目标对象进行进一步的识别确定,并拒绝与该目标图像数据所对应的权限申请请求。例如,在刷脸支付的应用场景中,在确定待检测的人脸照片中人脸不是活体对象时,可以判断有用户正通过使用包含有他人人脸的图片或者人脸面具等冒充他人身份进行支付,这时可以停止对人脸照片中的人脸的识别和身份信息匹配,并拒绝该用户发起的支付申请请求,以保护他人的财产安全。
在一些实施例中,所述方法具体实施时,还可以包括以下内容:统计预设时间段内的误差比率;比较所述误差比率和预设的比率阈值;在确定所述误差比率大于预设的比率阈值的情况下,重新确定第一场景的锚点特征组。
具体的,可以每隔一个预设时间段,例如每隔一周,统计最近这一周内在活体检测时出现的误差比率。其中,上述误差比率具体可以通过将该预设时间段内活体检测的错误数量,与该预设时间段内所处理的活体检测的总数量相除得到。进一步,可以将误差比率与预设的比率阈值进行比较,得到对应的比较结果。根据该比较结果,可以判断当前用于活体检测的锚点特征组是否符合当前场景的具体情况。例如,如果根据比较结果,确定误差比率大于上述预设的比率阈值,则可以判断当前所对应的场景情况可能出现了变化,导致基于之前所确定的锚点特征组进行活体检测时的检测误差相对较大。这时,可以获取最近一段时间内的正样本数据,根据最近一段时间内的正样本数据重新确定该场景的锚点特征组,并利用新确定的锚点特征组更新之前使用的锚点特征组,利用新确定的锚点特征结合预设的活体检测模型对该场景中所采集的图像数据进行活体检测。如果根据比较结果,确定误差比率小于等于上述预设的比率阈值,则可以判断当前所使用的锚点特征组还是能够较好地覆盖当前场景情况的,因此,可以不用对当前使用的锚点特征组进行更新。通过统计预设时间段内的误差比率,并根据误差比率与预设的比率阈值的数值比较结果,确定是否重新确定第一场景的锚点特征组,从而能定期对第一场景的锚点特征组进行定期更新,以提高检测活体对象的准确率,减少误差比率。使得在较长的一段时间内,都能够较为准确地对第一场景中所采集的目标图像数据进行活体检测。
由上可见,本说明书实施例提供的活体检测方法,通过调用基于第二场景训练得到的预设的活体检测模型对第一场景采集的目标图像数据进行处理,提取得到对应的目标特征组,并通过上述模型基于该目标特征组确定出目标图像数据中的目标对象属于非活体对象的目标概率;同时,又引入并利用基于第一场景的正样本数据所确定的针对第一场景的锚点特征组,来确定目标特征组与锚点特征组之间的特征距离;再综合上述目标概率和目标特征组距离来较为准确地确定第一场景采集的目标图像数据中的目标对象是否为活体对象。从而可以有效地利用在第二场景中训练建立的预设的活体检测模型,高效地对在第一场景所采集到的图像数据中的目标对象进行较为准确的活体检测。由于不需要再针对第一场景另外训练对应的活体检测模型,有效地降低了活体检测的处理成本和处理耗时。
本说明书实施例还提供一种服务器,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器具体实施时可以根据指令执行以下步骤:获取目标图像数据,其中,所述目标图像数据包括在第一场景中采集的包含有目标对象的图像数据;调用预设的活体检测模型,从所述目标图像数据中提取出目标特征组,并通过所述预设的活体检测模型确定出所述目标对象为非活体对象的概率值作为目标概率,其中,所述预设的活体检测模型包括利用第二场景的样本数据训练得到的模型;根据所述目标特征组和第一场景的锚点特征组,确定目标特征组距离,其中,所述第一场景的锚点特征组根据第一场景的样本数据确定;根据所述目标特征组距离和所述目标概率,确定所述目标对象是否为活体对象。
为了能够更加准确地完成上述指令,参阅图7所示,本说明书实施例还提供了另一种具体的服务器,其中,所述服务器包括网络通信端口701、处理器702以及存储器703,上述结构通过内部线缆相连,以便各个结构可以进行具体的数据交互。
其中,所述网络通信端口701,具体可以用于获取目标图像数据,其中,所述目标图像数据包括在第一场景中采集的包含有目标对象的图像数据。
所述处理器702,具体可以用于调用预设的活体检测模型,从所述目标图像数据中提取出目标特征组,并通过所述预设的活体检测模型确定出所述目标对象为非活体对象的概率值作为目标概率,其中,所述预设的活体检测模型包括利用第二场景的样本数据训练得到的模型;根据所述目标特征组和第一场景的锚点特征组,确定目标特征组距离,其中,所述第一场景的锚点特征组根据第一场景的样本数据确定;根据所述目标特征组距离和所述目标概率,确定所述目标对象是否为活体对象。
所述存储器703,具体可以用于存储相应的指令程序。
在本实施例中,所述网络通信端口701可以是与不同的通信协议进行绑定,从而可以发送或接收不同数据的虚拟端口。例如,所述网络通信端口可以是负责进行web数据通信的80号端口,也可以是负责进行FTP数据通信的21号端口,还可以是负责进行邮件数据通信的25号端口。此外,所述网络通信端口还可以是实体的通信接口或者通信芯片。例如,其可以为无线移动网络通信芯片,如GSM、CDMA等;其还可以为Wifi芯片;其还可以为蓝牙芯片。
在本实施例中,所述处理器702可以按任何适当的方式实现。例如,处理器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式等等。本说明书并不作限定。
在本实施例中,所述存储器703可以包括多个层次,在数字***中,只要能保存二进制数据的都可以是存储器;在集成电路中,一个没有实物形式的具有存储功能的电路也叫存储器,如RAM、FIFO等;在***中,具有实物形式的存储设备也叫存储器,如内存条、TF卡等。
本说明书实施例还提供了一种基于上述活体检测方法的计算机存储介质,所述计算机存储介质存储有计算机程序指令,在所述计算机程序指令被执行时实现:获取目标图像数据,其中,所述目标图像数据包括在第一场景中采集的包含有目标对象的图像数据;
使用预设的活体检测模型,从所述目标图像数据中提取出目标特征组,并通过所述预设的活体检测模型确定出所述目标对象为非活体对象的概率值作为目标概率,其中,所述预设的活体检测模型包括利用第二场景的样本数据训练得到的模型;根据所述目标特征组和第一场景的锚点特征组,确定目标特征组距离,其中,所述第一场景的锚点特征组根据第一场景的样本数据确定;根据所述目标特征组距离和所述目标概率,确定所述目标对象是否为活体对象。
在本实施例中,上述存储介质包括但不限于随机存取存储器(Random AccessMemory,RAM)、只读存储器(Read-Only Memory,ROM)、缓存(Cache)、硬盘(Hard DiskDrive,HDD)或者存储卡(Memory Card)。所述存储器可以用于存储计算机程序指令。网络通信单元可以是依照通信协议规定的标准设置的,用于进行网络连接通信的接口。
在本实施例中,该计算机存储介质存储的程序指令具体实现的功能和效果,可以与其它实施方式对照解释,在此不再赘述。
本说明书还提供了一种人脸识别设备,其中,该人脸识别设备至少包括摄像头和处理器。其中,上述摄像头具体用于获取目标图像数据,其中,所述目标图像数据包括在第一场景中采集的包含有目标对象的图像数据。上述处理器具体用于调用预设的活体检测模型,从所述目标图像数据中提取出目标特征组,并通过所述预设的活体检测模型确定出所述目标对象为非活体对象的概率值作为目标概率,其中,所述预设的活体检测模型包括利用第二场景的样本数据训练得到的模型;根据所述目标特征组和第一场景的锚点特征组,确定目标特征组距离,其中,所述第一场景的锚点特征组根据第一场景的样本数据确定;根据所述目标特征组距离和所述目标概率,确定所述目标对象是否为活体对象。上述处理器在确定所述目标对象不是活体对象的情况下,确定人脸识别失败,不再对目标图像数据进行进一步的人脸识别;在确定目标对象是活体对象的情况下,可以对目标影像进行进一步的人脸识别,以确定出与目标影像中的人脸匹配的用户的身份信息。
参阅图8所示,在软件层面上,本说明书实施例还提供了一种活体检测装置,该装置具体可以包括以下的结构模块。
获取模块801,具体可以用于获取目标图像数据,其中,所述目标图像数据包括在第一场景中采集的包含有目标对象的图像数据;
使用模块803,具体可以用于使用预设的活体检测模型,从所述目标图像数据中提取出目标特征组,并通过所述预设的活体检测模型确定出所述目标对象为非活体对象的概率值作为目标概率,其中,所述预设的活体检测模型包括利用第二场景的样本数据训练得到的模型;
第一确定模块805,具体可以用于根据所述目标特征组和第一场景的锚点特征组,确定目标特征组距离,其中,所述第一场景的锚点特征组根据第一场景的样本数据确定;
第二确定模块807,具体可以用于根据所述目标特征组距离和所述目标概率,确定所述目标对象是否为活体对象。
在一些实施例中,所述装置具体还可以包括建立模块,该模块具体可以包括以下结构单元:
采集单元,具体可以用于采集第一场景中包含有活体对象的图像数据作为第一场景的正样本数据;
调用单元,具体可以用于调用预设的活体检测模型从所述正样本数据中提取出样本特征;
第一确定单元,具体可以用于根据所述样本特征,确定中心点特征;
计算单元,具体可以用于计算所述样本特征与中心点特征的特征距离;
建立单元,具体可以用于根据所述样本特征,以及所述样本特征与中心点特征的特征距离,建立所述第一场景的锚点特征组。
在一些实施例中,所述建立单元具体可以包括以下结构子单元:
筛选子单元,具体可以用于从所述样本特征中筛选出与中心点特征的特征距离大于特征距离阈值的样本特征作为符合要求的样本特征;
建立子单元,具体可以用于根据所述中心点特征和所述符合要求的样本特征,建立所述第一场景的锚点特征组。
在一些实施例中,所述建立模块具体还可以包括以下单元:
编码单元,具体可以用于对所述第一场景的锚点特征组中的特征分别进行哈夫曼编码,得到压缩后的第一场景的锚点特征组;
存储单元,具体可以用于保存所述压缩后的第一场景的锚点特征组。
在一些实施例中,所述第二确定模块具体可以包括以下结构单元:
评分单元,具体可以用于根据所述目标特征组距离确定第一评分;根据所述目标概率确定第二评分;根据预设的权重规则,对所述第一评分和第二评分进行加权求和,得到第三评分;
第一比较单元,具体可以用于将所述第三评分与预设的评分阈值进行比较,得到比较结果;
第二确定单元,具体可以用于根据所述比较结果,确定所述目标对象是否为活体对象。
在一些实施例中,所述装置具体还可以包括处理模块,该模块具体可以用于根据第二确定模块确定所述目标对象不是活体对象的情况下,拒绝与所述目标图像数据对应的权限申请请求。
在一些实施例中,所述装置具体还可以包括更新模块,该模块具体可以包括以下结构单元:
统计单元,具体可以用于统计预设时间段内的误差比率;
第二比较单元,具体可以用于比较所述误差比率和预设的比率阈值;
第三确定单元,具体可以用于在确定所述误差比率大于预设的比率阈值的情况下,重新确定第一场景的锚点特征组。
需要说明的是,上述实施例阐明的单元、装置或模块等,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。为了描述的方便,描述以上装置时以功能分为各种模块分别描述。当然,在实施本说明书时可以把各模块的功能在同一个或多个软件和/或硬件中实现,也可以将实现同一功能的模块由多个子模块或子单元的组合实现等。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
由上可见,本说明书实施例提供的活体检测装置,通过使用模块调用基于第二场景训练得到的预设的活体检测模型提取对第一场景采集的目标图像数据进行处理,得到对应的目标特征组,并通过上述模型基于该目标特征组确定出目标图像数据中的目标对象属于非活体对象的目标概率;同时,又通过第一确定模块引入并利用基于第一场景的正样本数据所确定的针对第一场景的锚点特征组,来确定目标特征组与锚点特征组之间的特征距离;再通过第二确定模块综合上述目标概率和目标特征组距离来较为准确地确定第一场景采集的目标图像数据中的目标对象是否为活体对象。从而可以有效地利用在第二场景中训练建立的预设的活体检测模型,高效地对在第一场景所采集到的图像数据中的目标对象进行较为准确的活体检测。
虽然本说明书提供了如实施例或流程图所述的方法操作步骤,但基于常规或者无创造性的手段可以包括更多或者更少的操作步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的装置或客户端产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境,甚至为分布式数据处理环境)。术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、产品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、产品或者设备所固有的要素。在没有更多限制的情况下,并不排除在包括所述要素的过程、方法、产品或者设备中还存在另外的相同或等同要素。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内部包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构、类等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
通过以上的实施例的描述可知,本领域的技术人员可以清楚地了解到本说明书可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本说明书的技术方案本质上可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,移动终端,服务器,或者网络设备等)执行本说明书各个实施例或者实施例的某些部分所述的方法。
本说明书中的各个实施例采用递进的方式描述,各个实施例之间相同或相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。本说明书可用于众多通用或专用的计算机***环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器***、基于微处理器的***、置顶盒、可编程的电子设备、网络PC、小型计算机、大型计算机、包括以上任何***或设备的分布式计算环境等等。
虽然通过实施例描绘了本说明书,本领域普通技术人员知道,本说明书有许多变形和变化而不脱离本说明书的精神,希望所附的权利要求包括这些变形和变化而不脱离本说明书的精神。

Claims (16)

1.一种活体检测方法,包括:
获取目标图像数据,其中,所述目标图像数据包括在第一场景中采集的包含有目标对象的图像数据;
使用预设的活体检测模型,从所述目标图像数据中提取出目标特征组,并通过所述预设的活体检测模型确定出所述目标对象为非活体对象的概率值作为目标概率,其中,所述预设的活体检测模型包括利用第二场景的样本数据训练得到的模型;
根据所述目标特征组和第一场景的锚点特征组,确定目标特征组距离,其中,所述第一场景的锚点特征组根据第一场景的样本数据确定;
根据所述目标特征组距离和所述目标概率,确定所述目标对象是否为活体对象。
2.根据权利要求1所述的方法,所述第一场景的锚点特征组按照以下方式确定:
采集第一场景中包含有活体对象的图像数据作为第一场景的正样本数据;
使用预设的活体检测模型从所述正样本数据中提取出样本特征;
根据所述样本特征,确定中心点特征;
计算所述样本特征与中心点特征的特征距离;
根据所述样本特征,以及所述样本特征与中心点特征的特征距离,建立所述第一场景的锚点特征组。
3.根据权利要求2所述的方法,根据所述样本特征,以及所述样本特征与中心点特征的特征距离,建立所述第一场景的锚点特征组,包括:
从所述样本特征中筛选出与中心点特征的特征距离大于特征距离阈值的样本特征作为符合要求的样本特征;
根据所述中心点特征和所述符合要求的样本特征,建立所述第一场景的锚点特征组。
4.根据权利要求2所述的方法,在建立所述第一场景的锚点特征组后,所述方法还包括:
对所述第一场景的锚点特征组中的特征分别进行哈夫曼编码,得到压缩后的第一场景的锚点特征组;
保存所述压缩后的第一场景的锚点特征组。
5.根据权利要求1所述的方法,根据所述目标特征组距离和所述目标概率,确定所述目标对象是否为活体对象,包括:
根据所述目标特征组距离确定第一评分;根据所述目标概率确定第二评分;
根据预设的权重规则,对所述第一评分和第二评分进行加权求和,得到第三评分;
将所述第三评分与预设的评分阈值进行比较,得到比较结果;
根据所述比较结果,确定所述目标对象是否为活体对象。
6.根据权利要求1所述的方法,在根据所述目标特征组距离和所述目标概率,确定所述目标对象不是活体对象的情况下,所述方法还包括:
拒绝与所述目标图像数据对应的权限申请请求。
7.根据权利要求6所述的方法,所述方法还包括:
统计预设时间段内的误差比率;
比较所述误差比率和预设的比率阈值;
在确定所述误差比率大于预设的比率阈值的情况下,重新确定第一场景的锚点特征组。
8.一种活体检测装置,包括:
获取模块,用于获取目标图像数据,其中,所述目标图像数据包括在第一场景中采集的包含有目标对象的图像数据;
使用模块,用于使用预设的活体检测模型,从所述目标图像数据中提取出目标特征组,并通过所述预设的活体检测模型确定出所述目标对象为非活体对象的概率值作为目标概率,其中,所述预设的活体检测模型包括利用第二场景的样本数据训练得到的模型;
第一确定模块,用于根据所述目标特征组和第一场景的锚点特征组,确定目标特征组距离,其中,所述第一场景的锚点特征组根据第一场景的样本数据确定;
第二确定模块,用于根据所述目标特征组距离和所述目标概率,确定所述目标对象是否为活体对象。
9.根据权利要求8所述的装置,所述装置还包括建立模块,包括:
采集单元,用于采集第一场景中包含有活体对象的图像数据作为第一场景的正样本数据;
调用单元,用于调用预设的活体检测模型从所述正样本数据中提取出样本特征;
第一确定单元,用于根据所述样本特征,确定中心点特征;
计算单元,用于计算所述样本特征与中心点特征的特征距离;
建立单元,用于根据所述样本特征,以及所述样本特征与中心点特征的特征距离,建立所述第一场景的锚点特征组。
10.根据权利要求9所述的装置,所述建立单元包括:
筛选子单元,用于从所述样本特征中筛选出与中心点特征的特征距离大于特征距离阈值的样本特征作为符合要求的样本特征;
建立子单元,用于根据所述中心点特征和所述符合要求的样本特征,建立所述第一场景的锚点特征组。
11.根据权利要求9所述的装置,所述建立模块还包括:
编码单元,用于对所述第一场景的锚点特征组中的特征分别进行哈夫曼编码,得到压缩后的第一场景的锚点特征组;
存储单元,用于保存所述压缩后的第一场景的锚点特征组。
12.根据权利要求8所述的装置,所述第二确定模块包括:
评分单元,用于根据所述目标特征组距离确定第一评分;根据所述目标概率确定第二评分;根据预设的权重规则,对所述第一评分和第二评分进行加权求和,得到第三评分;
第一比较单元,用于将所述第三评分与预设的评分阈值进行比较,得到比较结果;
第二确定单元,用于根据所述比较结果,确定所述目标对象是否为活体对象。
13.根据权利要求8所述的装置,所述装置还包括处理模块,用于根据第二确定模块确定所述目标对象不是活体对象的情况下,拒绝与所述目标图像数据对应的权限申请请求。
14.根据权利要求13所述的装置,所述装置还包括更新模块,包括:
统计单元,用于统计预设时间段内的误差比率;
第二比较单元,用于比较所述误差比率和预设的比率阈值;
第三确定单元,用于在确定所述误差比率大于预设的比率阈值的情况下,重新确定第一场景的锚点特征组。
15.一种服务器,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现权利要求1至7中任一项所述方法的步骤。
16.一种人脸识别设备,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现权利要求1至7中任一项所述方法的步骤,以确定用于进行人脸识别的目标图像数据中的目标对象是否为活体对象;在确定所述目标对象不是活体对象的情况下,确定人脸识别失败。
CN201911029215.5A 2019-10-28 2019-10-28 活体检测方法、装置、服务器和人脸识别设备 Active CN111091047B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201911029215.5A CN111091047B (zh) 2019-10-28 2019-10-28 活体检测方法、装置、服务器和人脸识别设备
PCT/CN2020/103962 WO2021082548A1 (zh) 2019-10-28 2020-07-24 活体检测方法、装置、服务器和人脸识别设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911029215.5A CN111091047B (zh) 2019-10-28 2019-10-28 活体检测方法、装置、服务器和人脸识别设备

Publications (2)

Publication Number Publication Date
CN111091047A true CN111091047A (zh) 2020-05-01
CN111091047B CN111091047B (zh) 2021-08-27

Family

ID=70393044

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911029215.5A Active CN111091047B (zh) 2019-10-28 2019-10-28 活体检测方法、装置、服务器和人脸识别设备

Country Status (2)

Country Link
CN (1) CN111091047B (zh)
WO (1) WO2021082548A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021082548A1 (zh) * 2019-10-28 2021-05-06 支付宝(杭州)信息技术有限公司 活体检测方法、装置、服务器和人脸识别设备

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113869253A (zh) * 2021-09-29 2021-12-31 北京百度网讯科技有限公司 活体检测方法、训练方法、装置、电子设备及介质
CN114241544B (zh) * 2021-11-15 2023-06-27 北京百度网讯科技有限公司 图像识别方法、装置、电子设备及存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105608450A (zh) * 2016-03-01 2016-05-25 天津中科智能识别产业技术研究院有限公司 基于深度卷积神经网络的异质人脸识别方法
CN106874857A (zh) * 2017-01-19 2017-06-20 腾讯科技(上海)有限公司 一种基于视频分析的活体判别方法及***
CN108038456A (zh) * 2017-12-19 2018-05-15 中科视拓(北京)科技有限公司 一种人脸识别***中的防欺骗方法
CN109255322A (zh) * 2018-09-03 2019-01-22 北京诚志重科海图科技有限公司 一种人脸活体检测方法及装置
US20190065988A1 (en) * 2017-08-30 2019-02-28 International Business Machines Corporation Machine learning for time series using semantic and time series data
CN109583342A (zh) * 2018-11-21 2019-04-05 重庆邮电大学 基于迁移学习的人脸活体检测方法
CN109670452A (zh) * 2018-12-20 2019-04-23 北京旷视科技有限公司 人脸检测方法、装置、电子设备和人脸检测模型
CN109858381A (zh) * 2019-01-04 2019-06-07 深圳壹账通智能科技有限公司 活体检测方法、装置、计算机设备和存储介质
CN109934204A (zh) * 2019-03-22 2019-06-25 重庆邮电大学 一种基于卷积神经网络的人脸表情识别方法
CN110211604A (zh) * 2019-06-17 2019-09-06 广东技术师范大学 一种用于语音变形检测的深度残差网络结构
CN110378219A (zh) * 2019-06-13 2019-10-25 北京迈格威科技有限公司 活体检测方法、装置、电子设备及可读存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8933928B2 (en) * 2011-11-22 2015-01-13 Seiko Epson Corporation Multiview face content creation
CN110084113B (zh) * 2019-03-20 2024-01-16 创新先进技术有限公司 活体检测方法、装置、***、服务器及可读存储介质
CN111091047B (zh) * 2019-10-28 2021-08-27 支付宝(杭州)信息技术有限公司 活体检测方法、装置、服务器和人脸识别设备

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105608450A (zh) * 2016-03-01 2016-05-25 天津中科智能识别产业技术研究院有限公司 基于深度卷积神经网络的异质人脸识别方法
CN106874857A (zh) * 2017-01-19 2017-06-20 腾讯科技(上海)有限公司 一种基于视频分析的活体判别方法及***
US20190065988A1 (en) * 2017-08-30 2019-02-28 International Business Machines Corporation Machine learning for time series using semantic and time series data
CN108038456A (zh) * 2017-12-19 2018-05-15 中科视拓(北京)科技有限公司 一种人脸识别***中的防欺骗方法
CN109255322A (zh) * 2018-09-03 2019-01-22 北京诚志重科海图科技有限公司 一种人脸活体检测方法及装置
CN109583342A (zh) * 2018-11-21 2019-04-05 重庆邮电大学 基于迁移学习的人脸活体检测方法
CN109670452A (zh) * 2018-12-20 2019-04-23 北京旷视科技有限公司 人脸检测方法、装置、电子设备和人脸检测模型
CN109858381A (zh) * 2019-01-04 2019-06-07 深圳壹账通智能科技有限公司 活体检测方法、装置、计算机设备和存储介质
CN109934204A (zh) * 2019-03-22 2019-06-25 重庆邮电大学 一种基于卷积神经网络的人脸表情识别方法
CN110378219A (zh) * 2019-06-13 2019-10-25 北京迈格威科技有限公司 活体检测方法、装置、电子设备及可读存储介质
CN110211604A (zh) * 2019-06-17 2019-09-06 广东技术师范大学 一种用于语音变形检测的深度残差网络结构

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KOMULAINEN J ET AL: "《Context based face anti-spoofing》", 《2013 IEEE SIXTH INTERNATIONAL CONFERENCE ON BIOMETRICS:THEORY,APPLICATION AND SYSTEM》 *
李素梅等: "《基于特定环境的面部活体检测》", 《华中科技大学学报(自然科学版)》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021082548A1 (zh) * 2019-10-28 2021-05-06 支付宝(杭州)信息技术有限公司 活体检测方法、装置、服务器和人脸识别设备

Also Published As

Publication number Publication date
CN111091047B (zh) 2021-08-27
WO2021082548A1 (zh) 2021-05-06

Similar Documents

Publication Publication Date Title
CN107742100B (zh) 一种考生身份验证方法及终端设备
CN111091047B (zh) 活体检测方法、装置、服务器和人脸识别设备
CN110991231B (zh) 活体检测方法、装置、服务器和人脸识别设备
CN109784274B (zh) 识别尾随的方法及相关产品
KR20200006987A (ko) 출입 제어 방법, 출입 제어 장치, 시스템 및 저장매체
CN108269333A (zh) 人脸识别方法、应用服务器及计算机可读存储介质
CN110414376B (zh) 更新人脸识别模型的方法、人脸识别相机及服务器
CN111861240A (zh) 可疑用户识别方法、装置、设备及可读存储介质
US20130216107A1 (en) Method of surveillance by face recognition
WO2022062379A1 (zh) 图像检测方法和相关装置、设备、存储介质、计算机程序
CN105426869A (zh) 基于铁路安检的人脸识别***及识别方法
CN108446681B (zh) 行人分析方法、装置、终端及存储介质
CN108875484B (zh) 用于移动终端的人脸解锁方法、装置和***及存储介质
CN111160202A (zh) 基于ar设备的身份核验方法、装置、设备及存储介质
CN112507314B (zh) 客户身份核实方法、装置、电子设备及存储介质
CN112199530B (zh) 多维度脸库图片自动更新方法、***、设备及介质
CN109815839A (zh) 微服务架构下的徘徊人员识别方法及相关产品
CN114387548A (zh) 视频及活体检测方法、***、设备、存储介质及程序产品
CN105574498A (zh) 基于海关安检的人脸识别***及识别方法
CN108764153A (zh) 人脸识别方法、装置、***和存储介质
CN114898443A (zh) 一种人脸数据获取方法及装置
CN110717428A (zh) 一种融合多个特征的身份识别方法、装置、***、介质及设备
JP2002304651A (ja) 入退室管理装置とその方法、およびこの方法の実行プログラムとこの実行プログラムを記録した記録媒体
CN111985401A (zh) 一种区域监控方法、***、机器可读介质及设备
US20220130174A1 (en) Image processing apparatus, control method, and non-transitory storage medium

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant