CN114445918A - 一种活体检测方法、装置及设备 - Google Patents

一种活体检测方法、装置及设备 Download PDF

Info

Publication number
CN114445918A
CN114445918A CN202210158036.7A CN202210158036A CN114445918A CN 114445918 A CN114445918 A CN 114445918A CN 202210158036 A CN202210158036 A CN 202210158036A CN 114445918 A CN114445918 A CN 114445918A
Authority
CN
China
Prior art keywords
living body
video
video compression
classification
domain information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210158036.7A
Other languages
English (en)
Inventor
曹佳炯
丁菁汀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202210158036.7A priority Critical patent/CN114445918A/zh
Publication of CN114445918A publication Critical patent/CN114445918A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本说明书实施例中公开了一种活体检测方法、装置及设备。该方案可以包括:获取待检测视频的压缩数据;在对所述待检测视频的压缩数据进行解码的过程中,提取视频压缩域信息;利用第一活体检测模型对所述视频压缩域信息进行活体检测,得到第一非活体概率值;所述第一活体检测模型是利用从视频压缩数据样本中提取出的视频压缩域信息样本,对第一分类模型进行训练而得到的;若所述第一非活体概率值小于第一阈值,则生成表示所述待检测视频中包含活体的检测结果。

Description

一种活体检测方法、装置及设备
技术领域
本申请涉及计算机视觉及图像处理技术领域,尤其涉及一种活体检测方法、装置及设备。
背景技术
随着计算机技术以及光学成像技术的发展,基于人脸识别技术的用户识别方式正在日渐普及。在人脸识别应用过程中,通常需要验证用户是否为真实活体本人操作,以甄别人脸识别时的欺诈行为,保障用户利益。目前,在进行活体检测时,通常需要先对设备采集到的待检测视频进行压缩,以便于待检测视频的存储及传输。后续,则需要对待检测视频的压缩数据进行解码,以根据解码后的视频数据去生成活体检测结果,不过往往在视频解码过程中会消耗较多的时间,从而影响活体检测效率。
基于此,如何在保障生成的活体检测结果的准确性的基础上,去提升活体检测效率,成为了亟待解决的技术问题。
发明内容
有鉴于此,本说明书实施例提供的一种活体检测方法、装置及设备,可以在保障生成的活体检测结果的准确性的基础上,提升活体检测效率。
为解决上述技术问题,本说明书实施例是这样实现的:
本说明书实施例提供的一种活体检测方法,包括:
获取待检测视频的压缩数据;
在对所述待检测视频的压缩数据进行解码的过程中,提取视频压缩域信息;
利用第一活体检测模型对所述视频压缩域信息进行活体检测,得到第一非活体概率值;所述第一活体检测模型是利用从视频压缩数据样本中提取出的视频压缩域信息样本,对第一分类模型进行训练而得到的;
若所述第一非活体概率值小于第一阈值,则生成表示所述待检测视频中包含活体的检测结果。
本说明书实施例提供的一种活体检测模型的训练方法,包括:
获取视频压缩数据样本集合;
在针对所述视频压缩数据样本集合中的至少部分视频压缩数据样本解码的过程中,提取所述视频压缩数据样本的视频压缩域信息,得到视频压缩域信息样本;
根据所述视频压缩数据样本的预设活体分类结果,确定所述视频压缩数据样本对应的所述视频压缩域信息样本的活体分类标签;
利用携带有所述活体分类标签的所述视频压缩域信息样本对分类模型进行训练,得到活体检测模型;所述活体检测模型用于针对从待检测视频的压缩数据中提取出的视频压缩域信息进行活体检测。
本说明书实施例提供的一种活体检测装置,包括:
获取模块,获取待检测视频的压缩数据;
提取模块,在对所述待检测视频的压缩数据进行解码的过程中,提取视频压缩域信息;
检测模块,利用第一活体检测模型对所述视频压缩域信息进行活体检测,得到第一非活体概率值;所述第一活体检测模型是利用从视频压缩数据样本中提取出的视频压缩域信息样本,对第一分类模型进行训练而得到的;
结果生成模块,若所述第一非活体概率值小于第一阈值,则生成表示所述待检测视频中包含活体的检测结果。
本说明书实施例提供的一种活体检测模型的训练装置,包括:
获取模块,获取视频压缩数据样本集合;
提取模块,在针对所述视频压缩数据样本集合中的至少部分视频压缩数据样本解码的过程中,提取所述视频压缩数据样本的视频压缩域信息,得到视频压缩域信息样本;
确定模块,根据所述视频压缩数据样本的预设活体分类结果,确定所述视频压缩数据样本对应的所述视频压缩域信息样本的活体分类标签;
训练模块,利用携带有所述活体分类标签的所述视频压缩域信息样本对分类模型进行训练,得到活体检测模型;所述活体检测模型用于针对从待检测视频的压缩数据中提取出的视频压缩域信息进行活体检测。
本说明书实施例提供的一种活体检测设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
获取待检测视频的压缩数据;
在对所述待检测视频的压缩数据进行解码的过程中,提取视频压缩域信息;
利用第一活体检测模型对所述视频压缩域信息进行活体检测,得到第一非活体概率值;所述第一活体检测模型是利用从视频压缩数据样本中提取出的视频压缩域信息样本,对第一分类模型进行训练而得到的;
若所述第一非活体概率值小于第一阈值,则生成表示所述待检测视频中包含活体的检测结果。
本说明书实施例提供的一种活体检测模型的训练设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
获取视频压缩数据样本集合;
在针对所述视频压缩数据样本集合中的至少部分视频压缩数据样本解码的过程中,提取所述视频压缩数据样本的视频压缩域信息,得到视频压缩域信息样本;
根据所述视频压缩数据样本的预设活体分类结果,确定所述视频压缩数据样本对应的所述视频压缩域信息样本的活体分类标签;
利用携带有所述活体分类标签的所述视频压缩域信息样本对分类模型进行训练,得到活体检测模型;所述活体检测模型用于针对从待检测视频的压缩数据中提取出的视频压缩域信息进行活体检测。
本说明书中提供的至少一个实施例能够实现以下有益效果:
当需要进行活体检测时,可以通过利用预先训练好的第一活体检测模型,去根据在对待检测视频的压缩数据进行解码的过程中提取的视频压缩域信息,生成第一非活体概率值,进而基于该第一非活体概率值确定活体检测结果。该方案中,由于视频解码过程中生成的视频压缩域信息包含了待检测视频中的大量关键信息,从而能够保证基于该视频压缩域信息生成的活体检测结果的准确性。同时,由于可以利用视频解码过程中生成的信息去成活体检测结果,从而无需等到对于视频压缩数据全部解码完全以后,再去生成活体检测结果,能够减少视频解码过程所需消耗的时间,以提升活体检测效率及实时性。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书实施例提供的一种活体检测方法的流程示意图;
图2为本说明书实施例提供的一种活体检测模型的训练方法的流程示意图;
图3为本说明书实施例提供的对应于图1中的一种活体检测方法的泳道流程示意图;
图4为本说明书实施例提供的对应于图1中的一种活体检测装置的结构示意图;
图5为本说明书实施例提供的对应于图2的一种活体检测模型的训练装置的结构示意图;
图6为本说明书实施例提供的对应于图1的一种活体检测设备的结构示意图;
图7为本说明书实施例提供的对应于图2的一种活体检测模型的训练设备的结构示意图。
具体实施方式
为使本说明书一个或多个实施例的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书一个或多个实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书的一部分实施例,而不是全部的实施例。基于本说明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书一个或多个实施例保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
现有技术中,活体检测算法成为了人脸识别***的标配,这类算法一般通过单帧图像或者多帧视频信息作为输入,判断用户是否为真人刷脸识别。目前主要有两类活体检测方法,基于单帧图像的活体检测方法和基于多帧视频信息的活体检测方法。其中,基于单帧图像的活体检测方法需要的信息量少,运行速度快,但是性能较差。而基于多帧视频信息的活体检测方法,不仅需要处理多帧的视频信息,使得其需要处理的信息量更大,且还需要对待检测视频的压缩数据进行全部解码,因此,运行速度较慢。可见,现有技术中的两类方法都很难兼顾活体检测的准确性及运行速度。
为了解决现有技术中的缺陷,本方案给出了以下实施例:
图1为本说明书实施例中的一种活体检测方法的流程示意图,本说明书实施例提供的活体检测方法的执行主体可以为用于活体检测的终端设备,也可以是与该终端设备通信连接的服务器。
如图1所示,所述活体检测方法可以包括以下步骤:
步骤101:获取待检测视频的压缩数据。
本说明书实施例中,在步骤101中,待检测视频可以是在用户进行人脸识别过程中,利用人脸识别终端去针对该用户进行视频采集而得到的视频数据,该待检测视频中可以包含该用户的人脸移动、眨眼、摇头等动作信息。在实际应用中,人脸识别终端可以是手机终端、支付终端、计算机终端等,在此不做具体限定。
人脸识别终端在获取待检测视频后,可以对待检测视频进行数据压缩,以得到待检测视频的压缩数据,由于该待检测视频的压缩数据的数据量更小,从而便于存储及传输。人脸识别终端既可以将该待检测视频的压缩数据存储在设备本地,以便于后续自行基于该压缩数据进行活体检测;或者,人脸识别终端也可以将该待检测视频的压缩数据发送给服务器,以使服务器根据该压缩数据进行活体检测。
其中,数据压缩(Compression)是按照特定的编码机制用比未经编码少的数据位元(或者其它信息相关的单位)表示信息的技术,将待检测视频数据通过特定的压缩算法压缩之后,再进行存储及传输,不仅可以大大减少数据存储空间及数据传输量,且在数据读取的时候也能起到减少IO的作用,因此也能一定程度上减少查询时间,以有效的降低整个服务器集群的负载。
步骤103:在对所述待检测视频的压缩数据进行解码的过程中,提取视频压缩域信息。
本说明书实施例中,在所述步骤103中,人脸识别终端或服务器在进行活体检测时,可以针对待检测视频的压缩数据进行解码,以获取该待检测视频中进行活体检测的相关信息。一般情况下,可以利用视频解码器对待检测视频的压缩数据进行解码,以对压缩前的待检测视频进行还原,从而得到待检测视频。
由于针对待检测视频的压缩数据进行全部解码需要耗费大量时间,影响活体检测效率,因此,人脸识别终端或服务器可以对该压缩数据进行部分解码,以在对该压缩数据进行部分解码的过程中,提取携带有待检测视频中的大量关键信息的视频压缩域信息并输出,从而利用视频压缩域信息进行活体检测,以提升活体检测效率。
具体的,步骤103:在对所述待检测视频的压缩数据进行解码的过程中,提取视频压缩域信息,可以包括:
在利用第一视频解码器对所述待检测视频的压缩数据进行解码的过程中,提取视频压缩域信息;所述视频压缩域信息包括:关键帧图像、所述关键帧图像对应的运动矢量数据、所述关键帧图像对应的残差数据。
在本说明书实施例中,第一视频解码器可以用于对待检测视频的压缩数据进行部分解码,并输出视频压缩域信息,该视频压缩域信息可以表示为{I,Motion,Diff},其中,I可以指关键帧图像,Motion可以指关键帧图像I对应的运动矢量数据,Diff可以指关键帧图像I对应的残差数据。
关键帧图像I可以指靠尽可能去除图像空间冗余信息来压缩传输数据量的帧内编码图像,其可以描述图像背景和运动主体的详情。
关键帧图像I对应的运动矢量数据Motion,可以是指关键帧图像I与相邻帧图像之间的相对位移数据。具体的,运动矢量数据Motion可以为n*m格式,根据运动矢量数据Motion可以推测出关键帧图像I前后图像帧的像素点数据。可以理解的是,在帧间编码中,可以用运动矢量表示当前编码块与其参考图像中的较佳匹配块之间的相对位移。
而关键帧图像I对应的残差数据Diff,可以反映关键帧图像I与相邻帧图像之间的像素颜色、亮度的差异信息。
在实际应用中,通常可以根据视频压缩域信息对视频图像帧进行重建,以得到完整解压后的待检测视频。
步骤105:利用第一活体检测模型对所述视频压缩域信息进行活体检测,得到第一非活体概率值;所述第一活体检测模型是利用从视频压缩数据样本中提取出的视频压缩域信息样本,对第一分类模型进行训练而得到的。
步骤107:若所述第一非活体概率值小于第一阈值,则生成表示所述待检测视频中包含活体的检测结果。
在本说明书实施例中,若第一非活体概率值小于第一阈值,则通常可以表明本次采集的待检测视频中包含活体用户,即真实活体用户本人正在进行人脸识别,而并非是不法分子在利用打印的人脸图像、头套等攻击手段在进行人脸识别攻击、作弊,从而可以生成表示所述待检测视频中包含活体的检测结果,完成活体检测。其中,第一阈值可以根据实际需求设置,对此不作具体限定。
图1中的方法,当需要进行活体检测时,可以通过利用预先训练好的第一活体检测模型,去根据在对待检测视频的压缩数据进行解码的过程中提取的视频压缩域信息,生成第一非活体概率值,进而基于该第一非活体概率值确定活体检测结果。该方案中,由于视频解码过程中生成的视频压缩域信息包含了待检测视频中的大量关键信息,从而能够保证基于该视频压缩域信息生成的活体检测结果的准确性。同时,由于可以利用视频解码过程中生成的信息去成活体检测结果,从而无需等到对于视频压缩数据全部解码完全以后,再去生成活体检测结果,能够减少视频解码过程所需消耗的时间,以提升活体检测效率及实时性。
基于图1中的方法,本说明书实施例还提供了该方法的一些具体实施方案,下面进行说明。
在本说明书实施例中,所述步骤105中,在第一活体检测模型中输入视频压缩域信息,可以得到对应的待检测视频中不包含活体用户的概率值,即为第一非活体概率值。其中,第一活体检测模型可以是利用第一分类模型进行训练得到的,对第一分类模型进行训练的样本数据可以为从视频压缩数据样本中提取的视频压缩域信息样本,该视频压缩数据样本可以为针对历史活体检测过程中采集到的视频数据进行数据压缩而得到的,该视频压缩数据样本可以携带有表示其是否包含活体用户的标签数据。
进一步的,所述第一分类模型可以包括第一分类子模型、第二分类子模型、第三分类子模型;所述第一分类子模型、所述第二分类子模型及所述第三分类子模型共用第一全连接层及第一输出层;所述第一分类子模型、所述第二分类子模型及所述第三分类子模型可以均属于卷积神经网络模型,例如,ResNet18模型。
在模型训练时,可以依次将视频压缩域信息样本中的关键帧图像、运动矢量数据、残差数据输入第一分类子模型、第二分类子模型、第三分类子模型,并根据第一输出层输出的预测分类结果及该视频压缩域信息样本的标签数据之间的差异,对第一分类模型进行优化,直至第一分类模型的性能符合需求,以得到第一活体检测模型。其中,第一输出层输出的预测分类结果可以表示预测得到的该视频压缩域信息样本中不包含活体用户的概率及包含活体用户的概率。
对应的,步骤107:利用第一活体检测模型对所述视频压缩域信息进行活体检测,得到第一非活体概率值,具体可以包括:
将所述关键帧图像、所述运动矢量数据、所述残差数据分别输入所述第一分类子模型、所述第二分类子模型及所述第三分类子模型,得到所述第一输出层输出的第一非活体概率值。
在本说明书实施例中,第一分类子模型可以对关键帧图像I进行特征提取处理,第二分类子模型可以对关键帧图像I对应的运动矢量数据Motion进行特征提取处理,第三分类子模型可以对关键帧图像I对应的残差数据Diff进行特征提取处理,第一分类子模型、第二分类子模型、第三分类子模型分别可以将提取到的特征数据输出给第一全连接层,利用第一全连接层将第一分类子模型、第二分类子模型、第三分类子模型提取的特征综合起来,再由第一输出层根据综合起来的特征输出第一非活体概率值。
具体的,所述第一全连接层可以用于接收所述第一分类子模型、所述第二分类子模型及所述第三分类子模型分别发送的第一特征向量、第二特征向量及第三特征向量,以及,针对所述第一特征向量、所述第二特征向量及所述第三特征向量进行求和处理,得到第一融合特征向量。其中,第一特征向量、第二特征向量及第三特征向量分别为针对所述关键帧图像、所述运动矢量数据、所述残差数据进行特征提取而得到的向量数据。
所述第一输出层可以用于根据所述第一融合特征向量,确定所述待检测视频中未包含活体的概率,得到所述第一非活体概率值。
在实际应用中,由于关键帧图像I的数量和待检测视频的压缩数据的数据量有关系,通常情况下,待检测视频的压缩数据的数据量越大,则关键帧图像I的数量越多。不过由于第一活体检测模型中的第一分类子模型的输入通常为预设数量的关键帧图像,因此,可以从步骤103中提取到的多个关键帧图像I中提取预设数量的关键帧图像I,以作为第一活体检测模型中的第一分类子模型的输入。可以选取步骤103中提取到的多个关键帧图像I中的采集时序处于中间位置的关键帧图像I,作为第一活体检测模型中的第一分类子模型的输入,从而有利于提升活体检测结果的准确性。
在实际应用中,第一特征向量、第二特征向量及第三特征向量的数据维度可以是相同的,第一全连接层在对第一特征向量、第二特征向量及第三特征向量进行融合处理时,可以针对第一特征向量、第二特征向量及第三特征向量的每个维度的特征数据进行求和处理,从而得到与第一特征向量、第二特征向量及第三特征向量的数据维度相同的第一融合特征向量。后续,输出层则可以基于第一融合特征向量进行二分类处理,并将确定出的待检测视频中未包含活体的概率作为第一非活体概率值,除此之外,该输出层通常还可以输出待检测视频中包含活体的概率。
在本说明书实施例中,若第一非活体概率值大于等于第一阈值,则可以表明本次采集的待检测视频中可能不包含活体用户,即不法分子可能在进行人脸识别攻击、作弊,为进一步提高活体检测的准确度,还可以进一步对待检测视频的压缩数据进行全解码,即解压缩,得到解压缩后的待检测视频数据,通过对该待检测视频数据进一步进行活体检测,以生成最终的活体检测结果。
基于此,步骤107:利用第一活体检测模型对所述视频压缩域信息进行活体检测,得到第一非活体概率值之后,还可以包括:
若所述第一非活体概率值大于等于第一阈值,则利用第二视频解码器对所述待检测视频的压缩数据进行解码,得到解压缩后的待检测视频数据。
利用第二活体检测模型对所述解压缩后的待检测视频数据进行活体检测,得到第二非活体概率值;所述第二活体检测模型是利用解压缩后的视频数据样本对第二分类模型进行训练而得到的。
若所述第二非活体概率值小于第二阈值,则生成表示所述待检测视频中包含活体的检测结果。
在本说明书实施例中,第二视频解码器可以用于对待检测视频的压缩数据进行全解码,在完成针对该压缩数据的解压缩后,可以得到完整的待检测视频。在实际应用中,第二视频解码器与第一视频解码器既可以基于单个视频解码器实现,或者,也可以通过利用两个视频解码器实现。
这是由于,在使用第二视频解码器针对待检测视频的压缩数据进行全解码的过程中,第二视频解码器也会先生成视频压缩域信息,再基于该视频压缩域信息生成完整的待检测视频,因此,可以针对现有的视频解码器进行修改,通过增加用于导出视频压缩域信息的程序代码,以令该视频解码器既可以用于提取视频压缩域信息,又可以生成完整的解压缩后的待检测视频数据,从而基于单个视频解码器实现第二视频解码器与第一视频解码器。
或者,也可以采用现有的视频解码器作为第二视频解码器,并将创新性的能够在视频全解码之前就可以输出视频压缩域信息的视频解码器作为第一视频解码器,以利用两个视频解码器分别去实现第二视频解码器与第一视频解码器。
通常情况下,利用第一视频解码器提取到待检测视频对应的视频压缩域信息的耗时要小于利用第二视频解码器生成解压缩后的待检测视频数据的耗时。
在本说明书实施例中,解压缩后的待检测视频数据可以包括RGB格式的视频帧图像。因此,第二活体检测模型可以为预先训练好的,能够根据RGB图像进行活体检测的第二分类模型。从而可以将解压缩后的待检测视频数据中的图像帧输入第二活体检测模型,利用该第二活体检测模型进行活体检测,得到第二非活体概率值。若第二非活体概率值小于第二阈值,则可以表明待检测视频中包含活体,为真人刷脸视频,可以通过刷脸认证。而若第二非活体概率值大于第二阈值,则可以表明待检测视频中不包含活体,存在活体攻击的风险。
在实际应用中,第二活体检测模型可以基于现有的用于根据图像进行活体检测的模型实现。或者,也可以基于本申请提出的由多个子模型搭建的活体检测模型实现。
具体的,当基于多个子模型实现第二活体检测模型时,所述第二活体检测模型对应的所述第二分类模型可以包括第四分类子模型、第五分类子模型、第六分类子模型;所述第四分类子模型、所述第五分类子模型及所述第六分类子模型共用第二全连接层及第二输出层;所述第四分类子模型、所述第五分类子模型及所述第六分类子模型可以均属于卷积神经网络模型,例如,ResNet18模型。
在模型训练时,可以依次将解压缩后的视频数据样本中的R、G、B分量信息输入第四分类子模型、第五分类子模型及第六分类子模型,并根据第二输出层输出的预测分类结果及该视频数据样本的标签数据之间的差异,对第二分类模型进行优化,直至第二分类模型的性能符合需求,以得到第二活体检测模型。其中,第二输出层输出的预测分类结果可以表示预测得到的该视频数据样本中不包含活体用户的概率及包含活体用户的概率;该视频数据样本的标签数据可以用于表示该视频数据样本中是否包含活体用户。
对应的,若所述解压缩后的视频数据包括RGB格式的视频帧图像;则利用第二活体检测模型对所述解压缩后的待检测视频数据进行活体检测,得到第二非活体概率值,具体可以包括:
将所述RGB格式的视频帧图像的红色分量值(R值)、绿色分量值(G值)及蓝色分量值(B值),分别输入所述第四分类子模型、所述第五分类子模型及所述第六分类子模型,得到所述第二输出层输出的第二非活体概率值。
在本说明书实施例中,第四分类子模型可以对待检测视频中的视频帧图像的红色分量值进行特征提取处理,第五分类子模型可以对待检测视频中的视频帧图像的红绿分量值进行特征提取处理,第六分类子模型可以对待检测视频中的视频帧图像的蓝色分量值进行特征提取处理,后续,第四分类子模型、第五分类子模型、第六分类子模型分别可以将提取到的特征数据输出给第二全连接层,利用第二全连接层将第四分类子模型、第五分类子模型、第六分类子模型提取的特征综合起来,再由第二输出层根据综合起来的特征输出第二非活体概率值。
具体的,所述第二全连接层用于接收所述第四分类子模型、所述第五分类子模型及所述第六分类子模型分别发送的第四特征向量、第五特征向量及第六特征向量,以及,针对所述第四特征向量、所述第五特征向量及所述第六特征向量进行求和处理,得到第二融合特征向量;其中,第四特征向量、第五特征向量及第六特征向量分别为针对所述RGB格式的视频帧图像的红色分量值、绿色分量值及蓝色分量值进行特征提取而得到的向量数据。
所述第二输出层用于根据所述第二融合特征向量,确定所述待检测视频中未包含活体的概率,得到所述第二非活体概率值。
在具体应用实施例中,第四特征向量、第五特征向量及第六特征向量的数据维度可以是相同的,第二全连接层在对第四特征向量、第五特征向量及第六特征向量进行融合处理时,可以针对第四特征向量、第五特征向量及第六特征向量的每个维度的特征数据进行求和处理,从而得到与第四特征向量、第五特征向量及第六特征向量的数据维度相同的第二融合特征向量。后续,输出层则可以基于第二融合特征向量进行二分类处理,并将确定出的待检测视频中未包含活体的概率作为第二非活体概率值,除此之外,该输出层通常还可以输出待检测视频中包含活体的概率。
进一步的,所述利用第二活体检测模型对所述解压缩后的待检测视频数据进行活体检测,得到第二非活体概率值之后,还可以包括:
若所述第二非活体概率值大于等于第二阈值,则利用逻辑回归模型,根据所述第一非活体概率值及所述第二非活体概率值,生成第三非活体概率值;所述逻辑回归模型是利用第一非活体概率值样本及第二非活体概率值样本,对初始逻辑回归模型进行训练而得到的;所述第一非活体概率值样本是利用所述第一活体检测模型对从视频压缩数据样本中提取出的视频压缩域信息样本进行活体检测而得到的,所述第二非活体概率值样本是利用所述第二活体检测模型针对所述视频压缩数据样本对应的解压缩后的视频数据样本进行活体检测而得到的。
判断所述第三非活体概率值是否小于第三阈值,得到判断结果。
若所述判断结果表示所述第三非活体概率值小于第三阈值,则生成表示所述待检测视频中包含活体的检测结果。
若所述判断结果表示所述第三非活体概率值大于等于第三阈值,则生成表示所述待检测视频中未包含活体的检测结果。
在本说明书实施例中,为进一步提高活体检测准确度,对于经过第一活体检测模型和第二活体检测模型的活体检测结果均为非活体的待检测视频,可以进一步利用逻辑回归模型,根据第一非活体概率值及第二非活体概率值,生成第三非活体概率值。若第三非活体概率值小于第三阈值,则可以表明该待检测视频中包含活体,为真人刷脸,可以通过刷脸认证。而若第三非活体概率值大于或等于第三阈值,则可以表明该待检测视频中不包含活体,存在活体攻击的风险,刷脸认证不予以通过。
当然,可以针对第一非活体概率值及第二非活体概率值分别设置预设权重,以将第一非活体概率值及第二非活体概率值与各自预设权重之积的和,作为第三非活体概率值,方便快捷。
在本说明书实施例中,还提供了图1中方案所使用的第一活体检测模型的训练实施例。
图2为本说明书实施例提供的一种活体检测模型的训练方法的流程示意图。从程序角度而言,该流程的执行主体可以为云端服务器。如图2所示,该流程可以包括以下步骤:
步骤202:获取视频压缩数据样本集合。
步骤204:在针对所述视频压缩数据样本集合中的至少部分视频压缩数据样本解码的过程中,提取所述视频压缩数据样本的视频压缩域信息,得到视频压缩域信息样本。
步骤206:根据所述视频压缩数据样本的预设活体分类结果,确定所述视频压缩数据样本对应的所述视频压缩域信息样本的活体分类标签。
步骤208:利用携带有所述活体分类标签的所述视频压缩域信息样本对分类模型进行训练,得到活体检测模型;所述活体检测模型用于针对从待检测视频的压缩数据中提取出的视频压缩域信息进行活体检测。
在本说明书实施例中,在采集到视频压缩数据样本后,通过对各视频压缩数据进行部分解码,得到视频压缩域信息样本。后续,根据视频压缩数据样本对应的解压缩后的视频中是否包含活体用户的实际情况,就可以确定该视频压缩域信息样本的活体分类标签。
例如,若视频压缩数据样本1对应的解压缩后的视频中包含活体用户,那么该视频压缩域信息样本1的活体分类标签可以为活体。若视频压缩数据样本2对应的解压缩后的视频中不包含活体用户,那么该视频压缩域信息样本2的活体分类标签可以为非活体。以此类推其他视频压缩域信息样本的活体分类标签,在此不再赘述。
通过将携带有活体分类标签的视频压缩域信息样本输入到分类模型中,可以得到该分类模型预测出的该视频压缩域信息样本中不包含活体的概率值(即非活体概率预测值),进而可以根据该非活体概率预测值与该活体分类标签对分类模型进行优化,以得到可以对视频压缩域信息进行活体检测的活体检测模型(即图1中方案使用的第一活体检测模型)。
具体的,每个所述视频压缩域信息样本均可以包括:关键帧图像、所述关键帧图像对应的运动矢量数据、所述关键帧图像对应的残差数据;则所述分类模型可以包括第一分类子模型、第二分类子模型、第三分类子模型;所述第一分类子模型、所述第二分类子模型及所述第三分类子模型共用全连接层及输出层;所述第一分类子模型、所述第二分类子模型及所述第三分类子模型可以均属于卷积神经网络模型;例如,ResNet18模型。
所述利用携带有所述活体分类标签的所述视频压缩域信息样本对分类模型进行训练,具体可以包括:
将所述关键帧图像、所述运动矢量数据、所述残差数据分别输入所述第一分类子模型、所述第二分类子模型及所述第三分类子模型,得到所述输出层输出的非活体概率预测值。
以最小化所述非活体概率预测值与所述视频压缩域信息样本携带的所述活体分类标签之间的差异为目标,对所述第一分类子模型、所述第二分类子模型及所述第三分类子模型的模型参数进行优化。
其中,所述关键帧图像、所述运动矢量数据、所述残差数据的具体含义如图1中的实施例所述,在此不再赘述。
进一步的,所述全连接层可以用于接收所述第一分类子模型、所述第二分类子模型及所述第三分类子模型分别发送的第一特征向量、第二特征向量及第三特征向量,以及,针对所述第一特征向量、所述第二特征向量及所述第三特征向量进行求和处理,得到融合特征向量;所述第二输出层可以用于根据所述融合特征向量,确定所述非活体概率预测值。
本说明书实施例提供的一种活体检测模型的训练方法,可以生成用于针对视频压缩域信息进行活体检测的活体检测模型,从而当需要进行活体检测时,可以利用预先基于该训练方法训练得到的第一活体检测模型,去根据在对待检测视频的压缩数据进行解码的过程中提取的视频压缩域信息,生成第一非活体概率值,进而基于该第一非活体概率值确定活体检测结果。该方案中,由于视频解码过程中生成的视频压缩域信息包含了待检测视频中的大量关键信息,从而能够保证基于该视频压缩域信息生成的活体检测结果的准确性。同时,由于可以利用视频解码过程中生成的信息去成活体检测结果,从而无需等到对于视频压缩数据全部解码完全以后,再去生成活体检测结果,能够减少视频解码过程所需消耗的时间,以提升活体检测效率及实时性。
图3为本说明书实施例提供的对应于图1中的活体检测方法的泳道流程示意图。如图3所示,该活体检测流程可以涉及图像采集设备、活体检测设备等执行主体。
在图像采集阶段,图像采集设备可以在用户进行人脸识别的过程中采集待检测视频,并对该待检测视频进行压缩,得到压缩数据,随后可以发送该待检测视频的压缩数据至活体检测设备。
在活体检测阶段,活体检测设备可以利用第一视频解码器对压缩数据进行部分解码,并提取视频压缩域信息。活体检测设备进一步可以利用第一活体检测模型对视频压缩域信息进行活体检测,得到第一非活体概率值。
若该第一非活体概率值小于第一阈值,则生成表示待检测视频中包含活体的检测结果。
若该第一非活体概率值大于等于第一阈值,则活体检测设备可以利用第二视频解码器对所述待检测视频的压缩数据进行解码,得到解压缩后的待检测视频数据;并可以利用第二活体检测模型对所述解压缩后的待检测视频数据进行活体检测,得到第二非活体概率值。
若第二非活体概率值小于第二阈值,则生成表示所述待检测视频中包含活体的检测结果。
若所述第二非活体概率值大于等于第二阈值,则利用逻辑回归模型,根据所述第一非活体概率值及所述第二非活体概率值,生成第三非活体概率值。
若第三非活体概率值小于第三阈值,则生成表示所述待检测视频中包含活体的检测结果;若所述判断结果表示所述第三非活体概率值大于等于第三阈值,则生成表示所述待检测视频中未包含活体的检测结果。
基于同样的发明思路,本说明书实施例还提供了上述方法对应的装置。
其中,图4为本说明书实施例提供的对应于图1的一种活体检测装置的结构示意图。如图4所示,该装置可以包括:
获取模块401,获取待检测视频的压缩数据。
提取模块402,在对所述待检测视频的压缩数据进行解码的过程中,提取视频压缩域信息。
检测模块403,利用第一活体检测模型对所述视频压缩域信息进行活体检测,得到第一非活体概率值;所述第一活体检测模型是利用从视频压缩数据样本中提取出的视频压缩域信息样本,对第一分类模型进行训练而得到的。
结果生成模块404,若所述第一非活体概率值小于第一阈值,则生成表示所述待检测视频中包含活体的检测结果。
基于图4的装置,本说明书实施例还提供了该装置的一些具体实施方案,下面进行说明。
可选的,所述在对所述待检测视频的压缩数据进行解码的过程中,提取视频压缩域信息,具体包括:
在利用第一视频解码器对所述待检测视频的压缩数据进行解码的过程中,提取视频压缩域信息;所述视频压缩域信息包括:关键帧图像、所述关键帧图像对应的运动矢量数据、所述关键帧图像对应的残差数据。
可选的,所述第一分类模型包括第一分类子模型、第二分类子模型、第三分类子模型;所述第一分类子模型、所述第二分类子模型及所述第三分类子模型共用第一全连接层及第一输出层;所述第一分类子模型、所述第二分类子模型及所述第三分类子模型均属于卷积神经网络模型。
所述利用第一活体检测模型对所述视频压缩域信息进行活体检测,得到第一非活体概率值,具体包括:
将所述关键帧图像、所述运动矢量数据、所述残差数据分别输入所述第一分类子模型、所述第二分类子模型及所述第三分类子模型,得到所述第一输出层输出的第一非活体概率值。
可选的,所述第一全连接层用于接收所述第一分类子模型、所述第二分类子模型及所述第三分类子模型分别发送的第一特征向量、第二特征向量及第三特征向量,以及,针对所述第一特征向量、所述第二特征向量及所述第三特征向量进行求和处理,得到第一融合特征向量。
所述输出层用于根据所述第一融合特征向量,确定所述待检测视频中未包含活体的概率,得到所述第一非活体概率值。
可选的,所述利用第一活体检测模型对所述视频压缩域信息进行活体检测,得到第一非活体概率值之后,还包括:
若所述第一非活体概率值大于等于第一阈值,则利用第二视频解码器对所述待检测视频的压缩数据进行解码,得到解压缩后的待检测视频数据。
利用第二活体检测模型对所述解压缩后的待检测视频数据进行活体检测,得到第二非活体概率值;所述第二活体检测模型是利用解压缩后的视频数据样本对第二分类模型进行训练而得到的。
若所述第二非活体概率值小于第二阈值,则生成表示所述待检测视频中包含活体的检测结果。
可选的,所述解压缩后的视频数据包括RGB格式的视频帧图像。
所述第二分类模型包括第四分类子模型、第五分类子模型、第六分类子模型;所述第四分类子模型、所述第五分类子模型及所述第六分类子模型共用第二全连接层及第二输出层;所述第四分类子模型、所述第五分类子模型及所述第六分类子模型均属于卷积神经网络模型。
所述利用第二活体检测模型对所述解压缩后的待检测视频数据进行活体检测,得到第二非活体概率值,具体包括:
将所述RGB格式的视频帧图像的红色分量值、绿色分量值及蓝色分量值,分别输入所述第四分类子模型、所述第五分类子模型及所述第六分类子模型,得到所述第二输出层输出的第二非活体概率值。
可选的,所述第二全连接层用于接收所述第四分类子模型、所述第五分类子模型及所述第六分类子模型分别发送的第四特征向量、第五特征向量及第六特征向量,以及,针对所述第四特征向量、所述第五特征向量及所述第六特征向量进行求和处理,得到第二融合特征向量。
所述第二输出层用于根据所述第二融合特征向量,确定所述待检测视频中未包含活体的概率,得到所述第二非活体概率值。
可选的,所述利用第二活体检测模型对所述解压缩后的待检测视频数据进行活体检测,得到第二非活体概率值之后,还包括:
若所述第二非活体概率值大于等于第二阈值,则利用逻辑回归模型,根据所述第一非活体概率值及所述第二非活体概率值,生成第三非活体概率值;所述逻辑回归模型是利用第一非活体概率值样本及第二非活体概率值样本,对初始逻辑回归模型进行训练而得到的;所述第一非活体概率值样本是利用所述第一活体检测模型对从视频压缩数据样本中提取出的视频压缩域信息样本进行活体检测而得到的,所述第二非活体概率值样本是利用所述第二活体检测模型针对所述视频压缩数据样本对应的解压缩后的视频数据样本进行活体检测而得到的。
判断所述第三非活体概率值是否小于第三阈值,得到判断结果。
若所述判断结果表示所述第三非活体概率值小于第三阈值,则生成表示所述待检测视频中包含活体的检测结果。
若所述判断结果表示所述第三非活体概率值大于等于第三阈值,则生成表示所述待检测视频中未包含活体的检测结果。
本说明书实施例提供的一种活体检测装置,当需要进行活体检测时,可以通过利用预先训练好的第一活体检测模型,去根据在对待检测视频的压缩数据进行解码的过程中提取的视频压缩域信息,生成第一非活体概率值,进而基于该第一非活体概率值确定活体检测结果。该方案中,由于视频解码过程中生成的视频压缩域信息包含了待检测视频中的大量关键信息,从而能够保证基于该视频压缩域信息生成的活体检测结果的准确性。同时,由于可以利用视频解码过程中生成的信息去成活体检测结果,从而无需等到对于视频压缩数据全部解码完全以后,再去生成活体检测结果,能够减少视频解码过程所需消耗的时间,以提升活体检测效率及实时性。
图5为本说明书实施例提供的对应于图2的一种活体检测模型的训练装置的结构示意图。如图5所示,该装置可以包括:
获取模块501,获取视频压缩数据样本集合。
提取模块502,在针对所述视频压缩数据样本集合中的至少部分视频压缩数据样本解码的过程中,提取所述视频压缩数据样本的视频压缩域信息,得到视频压缩域信息样本。
确定模块503,根据所述视频压缩数据样本的预设活体分类结果,确定所述视频压缩数据样本对应的所述视频压缩域信息样本的活体分类标签。
训练模块504,利用携带有所述活体分类标签的所述视频压缩域信息样本对分类模型进行训练,得到活体检测模型;所述活体检测模型用于针对从待检测视频的压缩数据中提取出的视频压缩域信息进行活体检测。
基于图5的装置,本说明书实施例还提供了该装置的一些具体实施方案,下面进行说明。
可选的,所述视频压缩域信息样本包括:关键帧图像、所述关键帧图像对应的运动矢量数据、所述关键帧图像对应的残差数据。
所述分类模型包括第一分类子模型、第二分类子模型、第三分类子模型;所述第一分类子模型、所述第二分类子模型及所述第三分类子模型共用全连接层及输出层;所述第一分类子模型、所述第二分类子模型及所述第三分类子模型均属于卷积神经网络模型。
所述利用携带有所述活体分类标签的所述视频压缩域信息样本对分类模型进行训练,具体包括:
将所述关键帧图像、所述运动矢量数据、所述残差数据分别输入所述第一分类子模型、所述第二分类子模型及所述第三分类子模型,得到所述输出层输出的非活体概率预测值。
以最小化所述非活体概率预测值与所述视频压缩域信息样本携带的所述活体分类标签之间的差异为目标,对所述第一分类子模型、所述第二分类子模型及所述第三分类子模型的模型参数进行优化。
可选的,所述全连接层用于接收所述第一分类子模型、所述第二分类子模型及所述第三分类子模型分别发送的第一特征向量、第二特征向量及第三特征向量,以及,针对所述第一特征向量、所述第二特征向量及所述第三特征向量进行求和处理,得到融合特征向量。
所述输出层用于根据所述融合特征向量,确定所述非活体概率预测值。
本说明书实施例提供的一种活体检测模型的训练装置,当需要进行活体检测时,可以通过利用预先训练好的第一活体检测模型,去根据在对待检测视频的压缩数据进行解码的过程中提取的视频压缩域信息,生成第一非活体概率值,进而基于该第一非活体概率值确定活体检测结果。该方案中,由于视频解码过程中生成的视频压缩域信息包含了待检测视频中的大量关键信息,从而能够保证基于该视频压缩域信息生成的活体检测结果的准确性。同时,由于可以利用视频解码过程中生成的信息去成活体检测结果,从而无需等到对于视频压缩数据全部解码完全以后,再去生成活体检测结果,能够减少视频解码过程所需消耗的时间,以提升活体检测效率及实时性。
基于同样的思路,本说明书实施例还提供了上述方法对应的设备。
其中,图6为本说明书实施例提供的对应于图1的一种活体检测设备的结构示意图。如图6所示,设备600可以包括:
至少一个处理器610;以及,
与所述至少一个处理器通信连接的存储器630;其中,
所述存储器630存储有可被所述至少一个处理器610执行的指令620,所述指令被所述至少一个处理器610执行,以使所述至少一个处理器610能够:
获取待检测视频的压缩数据;
在对所述待检测视频的压缩数据进行解码的过程中,提取视频压缩域信息;
利用第一活体检测模型对所述视频压缩域信息进行活体检测,得到第一非活体概率值;所述第一活体检测模型是利用从视频压缩数据样本中提取出的视频压缩域信息样本,对第一分类模型进行训练而得到的;
若所述第一非活体概率值小于第一阈值,则生成表示所述待检测视频中包含活体的检测结果。
其中,图7为本说明书实施例提供的对应于图2的一种活体检测模型的训练设备的结构示意图。如图7所示,设备700可以包括:
至少一个处理器710;以及,
与所述至少一个处理器通信连接的存储器730;其中,
所述存储器730存储有可被所述至少一个处理器710执行的指令720,所述指令被所述至少一个处理器710执行,以使所述至少一个处理器710能够:
获取视频压缩数据样本集合;
在针对所述视频压缩数据样本集合中的至少部分视频压缩数据样本解码的过程中,提取所述视频压缩数据样本的视频压缩域信息,得到视频压缩域信息样本;
根据所述视频压缩数据样本的预设活体分类结果,确定所述视频压缩数据样本对应的所述视频压缩域信息样本的活体分类标签;
利用携带有所述活体分类标签的所述视频压缩域信息样本对分类模型进行训练,得到活体检测模型;所述活体检测模型用于针对从待检测视频的压缩数据中提取出的视频压缩域信息进行活体检测。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于图6和图7所示的设备而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字符***“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC625D、AtmelAT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的***、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字符助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本发明的实施例可提供为方法、***、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字符多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、***或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (15)

1.一种活体检测方法,包括:
获取待检测视频的压缩数据;
在对所述待检测视频的压缩数据进行解码的过程中,提取视频压缩域信息;
利用第一活体检测模型对所述视频压缩域信息进行活体检测,得到第一非活体概率值;所述第一活体检测模型是利用从视频压缩数据样本中提取出的视频压缩域信息样本,对第一分类模型进行训练而得到的;
若所述第一非活体概率值小于第一阈值,则生成表示所述待检测视频中包含活体的检测结果。
2.如权利要求1所述的方法,所述在对所述待检测视频的压缩数据进行解码的过程中,提取视频压缩域信息,具体包括:
在利用第一视频解码器对所述待检测视频的压缩数据进行解码的过程中,提取视频压缩域信息;所述视频压缩域信息包括:关键帧图像、所述关键帧图像对应的运动矢量数据、所述关键帧图像对应的残差数据。
3.如权利要求2所述的方法,所述第一分类模型包括第一分类子模型、第二分类子模型、第三分类子模型;所述第一分类子模型、所述第二分类子模型及所述第三分类子模型共用第一全连接层及第一输出层;所述第一分类子模型、所述第二分类子模型及所述第三分类子模型均属于卷积神经网络模型;
所述利用第一活体检测模型对所述视频压缩域信息进行活体检测,得到第一非活体概率值,具体包括:
将所述关键帧图像、所述运动矢量数据、所述残差数据分别输入所述第一分类子模型、所述第二分类子模型及所述第三分类子模型,得到所述第一输出层输出的第一非活体概率值。
4.如权利要求3所述的方法,所述第一全连接层用于接收所述第一分类子模型、所述第二分类子模型及所述第三分类子模型分别发送的第一特征向量、第二特征向量及第三特征向量,以及,针对所述第一特征向量、所述第二特征向量及所述第三特征向量进行求和处理,得到第一融合特征向量;
所述第一输出层用于根据所述第一融合特征向量,确定所述待检测视频中未包含活体的概率,得到所述第一非活体概率值。
5.如权利要求2所述的方法,所述利用第一活体检测模型对所述视频压缩域信息进行活体检测,得到第一非活体概率值之后,还包括:
若所述第一非活体概率值大于等于第一阈值,则利用第二视频解码器对所述待检测视频的压缩数据进行解码,得到解压缩后的待检测视频数据;
利用第二活体检测模型对所述解压缩后的待检测视频数据进行活体检测,得到第二非活体概率值;所述第二活体检测模型是利用解压缩后的视频数据样本对第二分类模型进行训练而得到的;
若所述第二非活体概率值小于第二阈值,则生成表示所述待检测视频中包含活体的检测结果。
6.如权利要求5所述的方法,所述解压缩后的视频数据包括RGB格式的视频帧图像;
所述第二分类模型包括第四分类子模型、第五分类子模型、第六分类子模型;所述第四分类子模型、所述第五分类子模型及所述第六分类子模型共用第二全连接层及第二输出层;所述第四分类子模型、所述第五分类子模型及所述第六分类子模型均属于卷积神经网络模型;
所述利用第二活体检测模型对所述解压缩后的待检测视频数据进行活体检测,得到第二非活体概率值,具体包括:
将所述RGB格式的视频帧图像的红色分量值、绿色分量值及蓝色分量值,分别输入所述第四分类子模型、所述第五分类子模型及所述第六分类子模型,得到所述第二输出层输出的第二非活体概率值。
7.如权利要求6所述的方法,所述第二全连接层用于接收所述第四分类子模型、所述第五分类子模型及所述第六分类子模型分别发送的第四特征向量、第五特征向量及第六特征向量,以及,针对所述第四特征向量、所述第五特征向量及所述第六特征向量进行求和处理,得到第二融合特征向量;
所述第二输出层用于根据所述第二融合特征向量,确定所述待检测视频中未包含活体的概率,得到所述第二非活体概率值。
8.如权利要求5所述的方法,所述利用第二活体检测模型对所述解压缩后的待检测视频数据进行活体检测,得到第二非活体概率值之后,还包括:
若所述第二非活体概率值大于等于第二阈值,则利用逻辑回归模型,根据所述第一非活体概率值及所述第二非活体概率值,生成第三非活体概率值;所述逻辑回归模型是利用第一非活体概率值样本及第二非活体概率值样本,对初始逻辑回归模型进行训练而得到的;所述第一非活体概率值样本是利用所述第一活体检测模型对从视频压缩数据样本中提取出的视频压缩域信息样本进行活体检测而得到的,所述第二非活体概率值样本是利用所述第二活体检测模型针对所述视频压缩数据样本对应的解压缩后的视频数据样本进行活体检测而得到的;
判断所述第三非活体概率值是否小于第三阈值,得到判断结果;
若所述判断结果表示所述第三非活体概率值小于第三阈值,则生成表示所述待检测视频中包含活体的检测结果;
若所述判断结果表示所述第三非活体概率值大于等于第三阈值,则生成表示所述待检测视频中未包含活体的检测结果。
9.一种活体检测模型的训练方法,包括:
获取视频压缩数据样本集合;
在针对所述视频压缩数据样本集合中的至少部分视频压缩数据样本解码的过程中,提取所述视频压缩数据样本的视频压缩域信息,得到视频压缩域信息样本;
根据所述视频压缩数据样本的预设活体分类结果,确定所述视频压缩数据样本对应的所述视频压缩域信息样本的活体分类标签;
利用携带有所述活体分类标签的所述视频压缩域信息样本对分类模型进行训练,得到活体检测模型;所述活体检测模型用于针对从待检测视频的压缩数据中提取出的视频压缩域信息进行活体检测。
10.如权利要求9所述的方法,所述视频压缩域信息样本包括:关键帧图像、所述关键帧图像对应的运动矢量数据、所述关键帧图像对应的残差数据;
所述分类模型包括第一分类子模型、第二分类子模型、第三分类子模型;所述第一分类子模型、所述第二分类子模型及所述第三分类子模型共用全连接层及输出层;所述第一分类子模型、所述第二分类子模型及所述第三分类子模型均属于卷积神经网络模型;
所述利用携带有所述活体分类标签的所述视频压缩域信息样本对分类模型进行训练,具体包括:
将所述关键帧图像、所述运动矢量数据、所述残差数据分别输入所述第一分类子模型、所述第二分类子模型及所述第三分类子模型,得到所述输出层输出的非活体概率预测值;
以最小化所述非活体概率预测值与所述视频压缩域信息样本携带的所述活体分类标签之间的差异为目标,对所述第一分类子模型、所述第二分类子模型及所述第三分类子模型的模型参数进行优化。
11.如权利要求10所述的方法,所述全连接层用于接收所述第一分类子模型、所述第二分类子模型及所述第三分类子模型分别发送的第一特征向量、第二特征向量及第三特征向量,以及,针对所述第一特征向量、所述第二特征向量及所述第三特征向量进行求和处理,得到融合特征向量;
所述输出层用于根据所述融合特征向量,确定所述非活体概率预测值。
12.一种活体检测装置,包括:
获取模块,获取待检测视频的压缩数据;
提取模块,在对所述待检测视频的压缩数据进行解码的过程中,提取视频压缩域信息;
检测模块,利用第一活体检测模型对所述视频压缩域信息进行活体检测,得到第一非活体概率值;所述第一活体检测模型是利用从视频压缩数据样本中提取出的视频压缩域信息样本,对第一分类模型进行训练而得到的;
结果生成模块,若所述第一非活体概率值小于第一阈值,则生成表示所述待检测视频中包含活体的检测结果。
13.一种活体检测模型的训练装置,包括:
获取模块,获取视频压缩数据样本集合;
提取模块,在针对所述视频压缩数据样本集合中的至少部分视频压缩数据样本解码的过程中,提取所述视频压缩数据样本的视频压缩域信息,得到视频压缩域信息样本;
确定模块,根据所述视频压缩数据样本的预设活体分类结果,确定所述视频压缩数据样本对应的所述视频压缩域信息样本的活体分类标签;
训练模块,利用携带有所述活体分类标签的所述视频压缩域信息样本对分类模型进行训练,得到活体检测模型;所述活体检测模型用于针对从待检测视频的压缩数据中提取出的视频压缩域信息进行活体检测。
14.一种活体检测设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
获取待检测视频的压缩数据;
在对所述待检测视频的压缩数据进行解码的过程中,提取视频压缩域信息;
利用第一活体检测模型对所述视频压缩域信息进行活体检测,得到第一非活体概率值;所述第一活体检测模型是利用从视频压缩数据样本中提取出的视频压缩域信息样本,对第一分类模型进行训练而得到的;
若所述第一非活体概率值小于第一阈值,则生成表示所述待检测视频中包含活体的检测结果。
15.一种活体检测模型的训练设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
获取视频压缩数据样本集合;
在针对所述视频压缩数据样本集合中的至少部分视频压缩数据样本解码的过程中,提取所述视频压缩数据样本的视频压缩域信息,得到视频压缩域信息样本;
根据所述视频压缩数据样本的预设活体分类结果,确定所述视频压缩数据样本对应的所述视频压缩域信息样本的活体分类标签;
利用携带有所述活体分类标签的所述视频压缩域信息样本对分类模型进行训练,得到活体检测模型;所述活体检测模型用于针对从待检测视频的压缩数据中提取出的视频压缩域信息进行活体检测。
CN202210158036.7A 2022-02-21 2022-02-21 一种活体检测方法、装置及设备 Pending CN114445918A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210158036.7A CN114445918A (zh) 2022-02-21 2022-02-21 一种活体检测方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210158036.7A CN114445918A (zh) 2022-02-21 2022-02-21 一种活体检测方法、装置及设备

Publications (1)

Publication Number Publication Date
CN114445918A true CN114445918A (zh) 2022-05-06

Family

ID=81374391

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210158036.7A Pending CN114445918A (zh) 2022-02-21 2022-02-21 一种活体检测方法、装置及设备

Country Status (1)

Country Link
CN (1) CN114445918A (zh)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130188840A1 (en) * 2012-01-20 2013-07-25 Cyberlink Corp. Liveness detection system based on face behavior
CN105205455A (zh) * 2015-08-31 2015-12-30 李岩 一种移动平台上人脸识别的活体检测方法及***
US20160217338A1 (en) * 2015-01-26 2016-07-28 Alibaba Group Holding Limited Method and device for face in-vivo detection
CN108537152A (zh) * 2018-03-27 2018-09-14 百度在线网络技术(北京)有限公司 用于检测活体的方法和装置
CN108921041A (zh) * 2018-06-06 2018-11-30 深圳神目信息技术有限公司 一种基于rgb和ir双目摄像头的活体检测方法及装置
CN109034102A (zh) * 2018-08-14 2018-12-18 腾讯科技(深圳)有限公司 人脸活体检测方法、装置、设备及存储介质
CN109670413A (zh) * 2018-11-30 2019-04-23 腾讯科技(深圳)有限公司 人脸活体验证方法及装置
US20190244371A1 (en) * 2018-02-04 2019-08-08 Applied Research, LLC Target Detection, Tracking, and Classification in Compressive Measurement Domain
CN110298312A (zh) * 2019-06-28 2019-10-01 北京旷视科技有限公司 活体检测方法、装置、电子设备及计算机可读存储介质
US20190327486A1 (en) * 2019-06-28 2019-10-24 Yiting Liao Hybrid pixel-domain and compressed-domain video analytics framework
CN110378219A (zh) * 2019-06-13 2019-10-25 北京迈格威科技有限公司 活体检测方法、装置、电子设备及可读存储介质
CN112215908A (zh) * 2020-10-12 2021-01-12 国家计算机网络与信息安全管理中心 面向压缩域的视频内容比对***、优化方法、比对方法
CN112990273A (zh) * 2021-02-18 2021-06-18 中国科学院自动化研究所 面向压缩域的视频敏感人物识别方法、***及设备
WO2021135639A1 (zh) * 2019-12-30 2021-07-08 支付宝实验室(新加坡)有限公司 活体检测方法及装置

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130188840A1 (en) * 2012-01-20 2013-07-25 Cyberlink Corp. Liveness detection system based on face behavior
US20160217338A1 (en) * 2015-01-26 2016-07-28 Alibaba Group Holding Limited Method and device for face in-vivo detection
CN105205455A (zh) * 2015-08-31 2015-12-30 李岩 一种移动平台上人脸识别的活体检测方法及***
US20190244371A1 (en) * 2018-02-04 2019-08-08 Applied Research, LLC Target Detection, Tracking, and Classification in Compressive Measurement Domain
CN108537152A (zh) * 2018-03-27 2018-09-14 百度在线网络技术(北京)有限公司 用于检测活体的方法和装置
CN108921041A (zh) * 2018-06-06 2018-11-30 深圳神目信息技术有限公司 一种基于rgb和ir双目摄像头的活体检测方法及装置
CN109034102A (zh) * 2018-08-14 2018-12-18 腾讯科技(深圳)有限公司 人脸活体检测方法、装置、设备及存储介质
CN109670413A (zh) * 2018-11-30 2019-04-23 腾讯科技(深圳)有限公司 人脸活体验证方法及装置
CN110378219A (zh) * 2019-06-13 2019-10-25 北京迈格威科技有限公司 活体检测方法、装置、电子设备及可读存储介质
CN110298312A (zh) * 2019-06-28 2019-10-01 北京旷视科技有限公司 活体检测方法、装置、电子设备及计算机可读存储介质
US20190327486A1 (en) * 2019-06-28 2019-10-24 Yiting Liao Hybrid pixel-domain and compressed-domain video analytics framework
WO2021135639A1 (zh) * 2019-12-30 2021-07-08 支付宝实验室(新加坡)有限公司 活体检测方法及装置
CN112215908A (zh) * 2020-10-12 2021-01-12 国家计算机网络与信息安全管理中心 面向压缩域的视频内容比对***、优化方法、比对方法
CN112990273A (zh) * 2021-02-18 2021-06-18 中国科学院自动化研究所 面向压缩域的视频敏感人物识别方法、***及设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李乐;张茂军;张文琪;李永乐;: "联合特征累积分析的压缩域运动对象检测", 国防科技大学学报, no. 06, 28 December 2012 (2012-12-28) *

Similar Documents

Publication Publication Date Title
US10671855B2 (en) Video object segmentation by reference-guided mask propagation
CN108882020B (zh) 一种视频信息处理方法、装置及***
CN112598579A (zh) 面向监控场景的图像超分辨率方法、装置及存储介质
Terwilliger et al. Recurrent flow-guided semantic forecasting
US20210150287A1 (en) Apparatus and method of using ai metadata related to image quality
CN111401273B (zh) 一种用于隐私保护的用户特征提取***及设备
CN114238904B (zh) 身份识别方法、双通道超分模型的训练方法及装置
CN111833360B (zh) 一种图像处理方法、装置、设备以及计算机可读存储介质
CN112329702A (zh) 一种快速人脸密度预测和人脸检测方法、装置、电子设备及存储介质
CN112235569B (zh) 基于h264压缩域的快速视频分类方法、***及装置
CN112804558B (zh) 视频拆分方法、装置及设备
CN111368795B (zh) 一种人脸特征提取方法、装置及设备
CN114283352A (zh) 一种视频语义分割装置、训练方法以及视频语义分割方法
CN115398475A (zh) 抠图实现方法、装置、设备及存储介质
CN114494942A (zh) 视频分类方法及装置、存储介质及电子设备
CN113689527B (zh) 一种人脸转换模型的训练方法、人脸图像转换方法
CN111726621B (zh) 一种视频转换方法及装置
CN112613373A (zh) 图像识别方法、装置、电子设备及计算机可读存储介质
CN116797975A (zh) 一种视频分割方法、装置、计算机设备及存储介质
CN114445918A (zh) 一种活体检测方法、装置及设备
CN115546908A (zh) 一种活体检测方法、装置及设备
CN115578796A (zh) 一种活体检测模型的训练方法、装置、设备及介质
CN114898381A (zh) Ocr识别方法及装置、存储介质和电子设备
CN111654706A (zh) 一种视频压缩方法、装置、设备及介质
CN115471875B (zh) 一种多码率的行人识别视觉特征编码压缩方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination