CN110738103A - 活体检测方法、装置、计算机设备和存储介质 - Google Patents
活体检测方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN110738103A CN110738103A CN201910833350.9A CN201910833350A CN110738103A CN 110738103 A CN110738103 A CN 110738103A CN 201910833350 A CN201910833350 A CN 201910833350A CN 110738103 A CN110738103 A CN 110738103A
- Authority
- CN
- China
- Prior art keywords
- dimensional
- tensor
- living body
- preset
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种活体检测方法、装置、计算机设备和存储介质。所述方法包括:获取包含人脸的三维图像张量,三维图像张量由视频图像的预设个时间序列帧组成,输入三维图像张量至预设三维活体检测模型,通过预设三维活体检测模型提取三维图像张量的三维特征张量,通过预设三维活体检测模型的向量转换函数,将三维特征张量转化为二维特征向量,将二维特征向量输入至预设三维活体检测模型的分类层,计算二维特征向量与分类层中的标准特征向量的相似度,根据相似度输出二维特征向量的识别结果,识别结果包括活体和非活体。直接输入视频图像中的多个时间序列帧来识别视频图像中的动作特征,无须执行对应的指令动作,难以伪造,增加了识别的准确度。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及一种活体检测方法、装置、计算机设备和存储介质。
背景技术
如今,生物特征识别技术如今已经可以十分精确地识别生物特征,但是一个风险仍然存在,即被伪造合法用户生物特征的攻击的风险,因此活体检测是生物特征识别***中不可或缺的环节。以人体为例,现有的活体检测技术分为两类:第一类是以活体指纹识别为代表的传统活体检测技术,即机器只对真人活体指纹产生识别反应,对其他一切物质不作识别,常应用于如考勤机、门禁***等。活体指纹识别的原理比较简单:如识别皮肤的温度、人体皮肤的电容值等,但存在的缺陷主要包括:需要专用硬件设备,价格昂贵;需要用户主动进行配合,所需检测时间较长;第二类是以人机交互检测为代表的现代活体检测技术,常用于人脸支付等所需安全级别较高的场景,其原理为,机器发出指令,例如摇头、点头、眨眼等,待检测人做出相应动作,机器以用户动作是否符合指令为标准判断是否为活体。上述通过指令判断是否为活体的方法需要用户较长时间配合,指令相对固定,容易被欺骗者伪造。
发明内容
为了解决上述技术问题,本申请提供了一种活体检测方法、装置、计算机设备和存储介质。
第一方面,本申请提供了一种活体检测方法,包括:
获取包含目标对象的三维图像张量,三维图像张量由视频图像的预设个时间序列帧组成;
输入三维图像张量至预设三维活体检测模型,通过预设三维活体检测模型提取三维图像张量的三维特征张量,通过预设三维活体检测模型的向量转换函数,将三维特征张量转化为二维特征向量,将二维特征向量输入至预设三维活体检测模型的分类层,计算二维特征向量与分类层中的标准特征向量的相似度,根据相似度输出二维特征向量的识别结果,识别结果包括活体和非活体。
第二方面,本申请提供了一种活体检测装置,包括:
数据获取模块,用于获取包含目标对象的三维图像张量,三维图像张量由视频图像的预设个时间序列帧组成;
识别模块,用于输入三维图像张量至预设三维活体检测模型,通过预设三维活体检测模型提取三维图像张量的三维特征张量,通过预设三维活体检测模型的向量转换函数,将三维特征张量转化为二维特征向量,将二维特征向量输入至预设三维活体检测模型的分类层,计算二维特征向量与分类层中的标准特征向量的相似度,根据相似度输出二维特征向量的识别结果,识别结果包括活体和非活体。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取包含目标对象的三维图像张量,三维图像张量由视频图像的预设个时间序列帧组成;
输入三维图像张量至预设三维活体检测模型,通过预设三维活体检测模型提取三维图像张量的三维特征张量,通过预设三维活体检测模型的向量转换函数,将三维特征张量转化为二维特征向量,将二维特征向量输入至预设三维活体检测模型的分类层,计算二维特征向量与分类层中的标准特征向量的相似度,根据相似度输出二维特征向量的识别结果,识别结果包括活体和非活体。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取包含目标对象的三维图像张量,三维图像张量由视频图像的预设个时间序列帧组成;
输入三维图像张量至预设三维活体检测模型,通过预设三维活体检测模型提取三维图像张量的三维特征张量,通过预设三维活体检测模型的向量转换函数,将三维特征张量转化为二维特征向量,将二维特征向量输入至预设三维活体检测模型的分类层,计算二维特征向量与分类层中的标准特征向量的相似度,根据相似度输出二维特征向量的识别结果,识别结果包括活体和非活体。
上述活体检测方法、装置、计算机设备和存储介质,所述方法包括:获取包含目标对象的三维图像张量,三维图像张量由视频图像的预设个时间序列帧组成;输入三维图像张量至预设三维活体检测模型,通过预设三维活体检测模型提取三维图像张量的三维特征张量,通过预设三维活体检测模型的向量转换函数,将三维特征张量转化为二维特征向量,将二维特征向量输入至预设三维活体检测模型的分类层,计算二维特征向量与分类层中的标准特征向量的相似度,根据相似度输出二维特征向量的识别结果,识别结果包括活体和非活体。直接输入视频图像中的多个时间序列帧来识别视频图像中的动作特征,无须执行对应的指令动作,难以伪造,增加了识别的准确度,提升了用户体验。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为一个实施例中活体检测方法的应用环境图;
图2为一个实施例中活体检测方法的流程示意图;
图3为一个实施例中活体检测模型的网络结构示意图;
图4为一个实施例中三维卷积的示意图;
图5为另一个实施例中活体检测方法的流程示意图;
图6为一个实施例中活体检测装置的结构框图;
图7为一个实施例中计算机设备的内部结构图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
图1为一个实施例中活体检测方法的应用环境图。参照图1,该活体检测方法应用于目标对象识别***。该目标对象识别***包括视频采集装置110和计算机设备120,视频采集装置110与计算机设备120通过网络连接。计算机设备120接收视频采集装置110的视频图像,获取根据视频图像生成的三维图像张量,输入三维图像张量至预设三维活体检测模型,通过预设三维活体检测模型提取三维图像张量的三维特征张量,通过预设三维活体检测模型的向量转换函数,将三维特征张量转化为二维特征向量,将二维特征向量输入至预设三维活体检测模型的分类层,计算二维特征向量与分类层中的标准特征向量的相似度,根据相似度输出二维特征向量的识别结果,识别结果包括活体和非活体。
视频采集装置110可以为常见的摄像头,摄像头可以搭载终端上,终端包括常见的移动终端和台式终端,其中移动终端包括手机和平板等等。计算机设备120包括终端和/或服务器,其中服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
如图2所示,在一个实施例中,提供了一种活体检测方法。本实施例主要以该方法应用于上述图1中的视频采集装置110(或计算机设备120)来举例说明。参照图2,该活体检测方法具体包括如下步骤:
步骤S201,获取包含目标对象的三维图像张量。
在本具体实施例中,三维图像张量由视频图像的预设个时间序列帧组成。
具体地,视频图像是指视频拍摄设备拍摄的视频数据,对视频数据进行分帧得到多个视频帧,从多个视频帧中选取预设个视频帧,由预设个视频帧组成三维图像张量,设三维图像张量的尺寸信息为M*N*T,其中M、N和T分别表示图像的行、列和帧数。其中时间序列帧是指按照时间顺序排列的视频帧。其中视频训练帧中包含目标对象,目标对象为各种活体对象,如人的各种人体特征。
步骤S202,输入三维图像张量至预设三维活体检测模型,通过预设三维活体检测模型提取三维图像张量的三维特征张量,通过预设三维活体检测模型的向量转换函数,将三维特征张量转化为二维特征向量,将二维特征向量输入至预设三维活体检测模型的分类层,计算二维特征向量与分类层中的标准特征向量的相似度,根据相似度输出二维特征向量的识别结果,识别结果包括活体和非活体。
具体地,预设三维活体检测模型是通过大量携带活体标签和非活体标签的三维图像张量学习得到的。预设三维活体检测模型可以为常见的三维卷积神经网络模型,也可以为自定义的三维卷积神经网络模型。预设三维活体检测模型可以包含至少一个卷积层、至少一个池化层和至少一个全连接层。其中卷积层是用于对输入的三维图像张量进行卷积运算,通过卷积运算提取对应的卷积特征。池化层位于卷积层后,对卷积层提取到的卷积特征进行池化运算,对卷积特征进行再次筛选,得到池化特征。全连接层位于池化层之后,全连接层用于分类,根据全连接层的输出结果确定三维图像张量中包含的目标对象是否为活体。
在一个实施例中,步骤S201之前,还包括:获取包含多个三维训练图像张量的训练集合,三维训练图像张量携带标签,标签包括活体标签和非活体标签,输入训练集合中各个三维训练图像张量至初始三维活体检测模型,输出各个三维训练图像张量对应的识别结果,统计训练集合中个三维训练图像张量的识别结果和对应的标签的匹配值,判断匹配值是否大于预设匹配值;当匹配值大于或等于预设匹配值时,得到预设三维活体检测模型。
具体地,三维训练图像张量是指对训练视频进行处理后得到的三维训练图像张量,三维训练图像张量中包含的视频帧的数量与三维图像张量中包含的视频帧的数据量相同,都包含预设个时间序列帧。标签是用于标识三维训练图像张量对应的类型,标签包括活体标签和非活体标签,活体标签是指三维训练图像张量中包含的目标对象是直接对目标对象进行录制得到的视频,非活体是指三维训练图像张量中包含的目标对象是通过拍摄的包含目标对象的照片、视频或三维模型得到的视频。输入训练集合中各个三维训练图像张量至初始三维活体检测模型,通过初始三维活体检测模型对三维训练图像张量进行活体识别,输出对应的识别结果,识别结果为活体或非活体。根据训练集合中三维训练图像张量对应的标签和识别结果进行匹配,得到对应的匹配值。根据匹配值判断初始三维活体检测模型是否收敛,即判断匹配值是否大于预设匹配值,当匹配值大于或等于预设匹配值时,初始三维活体检测模型收敛,将收敛的初始三维活体检测模型作为预设三维活体检测模型。
在一个实施例中,当匹配值小于预设匹配值时,更新初始三维活体检测模型的模型参数,得到更新三维活体检测模型,输入各个三维训练图像张量至更新三维活体检测模型,直至匹配值大于或等于预设匹配值时,得到预设三维活体检测模型。
具体地,对于未收敛的初始三维活体检测模型,更新初始三维活体检测模型的模型参数,得到更新三维活体检测模型,采用更新了模型参数的更新三维活体检测模型对各个三维训练图像张量进行识别,根据识别结果确定匹配值,根据匹配值确定更新三维活体检测模型是否收敛,当收敛时,将更新三维活体检测模型作为预设三维活体检测模型,反之则继续更新模型参数,直至根据更新模型参数后的三维活体检测模型的匹配值大于或等于预设匹配值,得到预设三维活体检测模型。
在一个实施例中,获取包含多个三维训练图像张量的训练集合之前,还包括:获取多个训练视频图像,获取各个训练视频图像中的预设个序列帧组成初始三维训练图像张量;对各个初始三维训练图像张量进行下采样,得到对应的下采样三维训练图像张量;获取样本生成规则;按照样本生成规则,生成与各个下采样三维训练图像张量对应的多个生成三维训练图像张量;由生成三维训练图像张量和下采样三维训练图像张量组成训练集合。
具体地,训练视频图像是指拍摄设备采集的视频数据,对视频数据进行分帧,得到多个时间序列帧,从多个时间序列帧中选取预设个时间序列帧组成的三维图像张量,作为初始三维训练图像张量。对初始三维训练图像张量进行下采样,得到对应的下采样三维训练图像张量。其中下采样是指对三维训练图像张量图中的各帧图像进行缩小处理,设图像为M*N,以S倍下采样,得到的下采样图像为(M/S)*(N/S)。样本生成规则是用于生成不同类型的样本规则,样本生成规则包括加噪声、旋转、镜像等处理中一种或多种,根据样本生成规则对下采样三维训练图像张量进行对应的处理,得到多个生成三维训练图像张量。由生成三维训练图像张量和下采样三维训练图像张量组成训练集合。通过样本生成规则增加样本的数量和种类,从而提高活体检测模型的检测的准确率。
在一个实施例中,预设三维活体检测模型包括至少一个特征提取单元,每个特征提取单元包含一个卷积层和一个池化层,通过预设三维活体检测模型提取三维图像张量的三维特征张量,包括:输入三维图像张量至当前特征提取单元的卷积层,根据卷积层中的三维卷积核对三维图像张量进行三维卷积运算,得到三维图像张量对应的当前三维卷积特征张量;输入当前三维卷积特征张量至当前特征提取单元的池化层,执行池化运算,得到当前三维池化特征张量;将当前三维池化特征张量作为三维特征张量。
具体地,特征提取单元是预设三维活体检测模型中的用于对输入的三维图像张量进行特征提取的单元,特征提取单元包括一个卷积层和一个池化层,卷积层的输出数据为池化层的输入数据。预设三维活体检测模型包括至少一个特征提取单元。当前特征提取单元是指正准备执行特征提取的特征提取单元。通过当前特征提取单元中的卷积层对三维图像张量进行三维卷积运算,得到三维卷积特征张量。输入三维卷积特征张量至当前特征提取单元中的池化层,通过池化层对三维卷积特征张量进行池化运算,得到三维池化特征张量。当预设三维活体检测模型中仅包含一个特性提取单元时,当前特征提取单元即为第一个也是最后一个特征提取单元。当预设三维活体检测模型中包含多个特征提取单元时,当前特征提取单元为第一个特征提取单元。
在一个实施例中,预设三维活体检测模型包括多个特征提取单元,根据当前三维池化特征张量生成三维特征张量,包括:输入当前三维池化特征张量至下一个特征提取单元,得到下一个三维池化特征张量,直至得到预设三维活体检测模型最后一个特征提取单元对应的最后一个三维池化特征张量;将最后一个三维池化特征张量作为三维特征张量。
具体地,当预设三维活体检测模型包括多个特征提取单元时,当前特征提取单元为第一个特征提取单元,输入当前三维池化特征张量至下一个特征提取单元,即第二个特征提取单元。其中下一个特征提取单元是指预设三维活体检测模型中与当前特征提取单元相邻的特征提取单元,且下一特征提取单元的输入数据为当前特征提取单元的输出数据,判断下一个特征提取单元是否为最后一个特征提取单元,当为最后一个提取单元时,将下一个特征提取单元的下一三维池化特征张量作为三维特征张量。若不是最后一个特征提取单元,则将下一特征单元输出的下一三维池化特征张量,输入再下一个特征提取单元,直至再下一个特征提取单元为最后一个特征提取单元时,将再下一个特征提取单元输出的再下一三维池化特征张量作为三维特征张量。
在一个实施例中,预设三维活体检测模型包括全连接层和输出层。全连接层和输出层连接,全连接层的输入数据为二维特征向量。全连接层中包含多个核,各个核中的权重用于对二维特征向量加权,即将特征提取单元中提取得到的多个三维特征张量,转换成二维特征向量输入至全连接层,通过全连接层中的权重对二维特征向量加权,将加权结果输入输出层,输出层输出三维图像张量的识别结果。设三维特征张量为M*N*T,K个M*N*T转换得到的二维向量为1*(K*M*N*T)。
在一个实施例中,输入视频图像至人脸识别模型,提取视频图像中的人脸特征;判断人脸识别模型中是否存在与人脸特征匹配的预设人脸特征;当存在匹配的预设人脸特征,且视频图像的识别结果为活体时,生成解锁指令,发送解锁指令。
具体地,人脸识别模型可以和活体检测模型并行执行,也可以先后执行。人脸识别模型用于识别视频图像中包含的人脸的身份信息。通过人脸识别模型提取视频图像中的人脸特征,对提取到的人脸特征与人脸识别模型中存储的预设人脸特征进行匹配,当匹配成功时,表示人脸识别模型中存在与人脸特征匹配的预设人脸特征。其中预设人脸特征是指用户在人脸识别模型上注册后生成的人脸特征。当在人脸识别模型中匹配到预设人脸特征,且活体检测模型的检测结果为活体时,生产解锁指令,发送解锁指令,其中解锁指令可以是用于解锁移动终端、资源转换或开启门禁等。
上述活体检测方法,包括:获取包含人脸的三维图像张量,三维图像张量由视频图像的预设个时间序列帧组成,输入三维图像张量至预设三维活体检测模型,通过预设三维活体检测模型提取三维图像张量的三维特征张量,通过预设三维活体检测模型的向量转换函数,将三维特征张量转化为二维特征向量,将二维特征向量输入至预设三维活体检测模型的分类层,计算二维特征向量与分类层中的标准特征向量的相似度,根据相似度输出二维特征向量的识别结果,识别结果包括活体和非活体。直接输入视频图像中的多个时间序列帧来识别视频图像中的动作特征,无须执行对应的指令动作,难以伪造,增加了识别的准确度。
在一个具体的实施例中,上述活体检测方法,包括:
数据采集:
带标签的数据集的采集,得到携带标签的三维训练特征张量,三维训练特征张量中包括正样本(活体)和负样本(非活体)。其中,正样本包含由100个受试者在合适光照下的室内环境中经过门禁***的动作视频,分辨率为120×160像素,帧率为每秒15帧,所有不同的受试者的动作均在相似且同质的背景下进行采集;负样本包含由100个受试者手持静态图片经过门禁***的动作视频(视频图像),受试环境、采集视频的分辨率和帧率与正样本一致;正负样本分别采集2000个。
数据预处理:
首先是数据裁剪:将采集到的动作视频进行裁剪,每个样本均为15(三维训练图像张量);首先是对正负样本训练集视频进行向下采样(即模糊处理,视频每帧分辨率由120×160变成60×80),通过下采样减少占用内存,提高算法效率;对压缩后三维训练图像张量进行数据增强:利用训练集中的每个训练样本生成它们的垂直翻转和镜像版本,并加入适量噪音干扰,通过对采集的视频图像进行处理,得到生成视频图像,增加训练样本的多样性,从而提高算法检测的准确率。
在常规的利用CNN进行图像识别的算法中,采用的原始图像输出是二维的,导致CNN在图像识别的应用比较单一,不能直接对视频进行处理,如果采用常规的CNN进行活体检测,则只能对人脸的图像而不是对整个动作过程进行处理,检测效果不佳。改进过后3D-CNN,在整体结构方面从2D到3D的扩展采用直接拓展的方式,输入由二维张量拓展为三维张量,因此改进后的3D-CNN可以直接接收原始动作视频输入,捕获视频流中的运动信息,而不需要对训练集数据进行复杂预处理。3D-CNN的具体网络结构如图3所示。3D-CNN包括:输入层,交替的卷积层,池化层,全连接层和输出层。采用3D-CNN进行图像识别的算法的流程图如图5所示:
为了表述方便,假设输入的三维图像张量为60×80×15,其中60×80为空间维,指每个帧的图像分辨率为60×80,15为时间维,对应进门动作视频的15个连续的帧。在具体实现不局限于该输入三维图像张量对应的参数):
步骤S301,通过输入层输入训练集合中的15个连续帧,即为60×80×15的张量。
步骤S302,采用7×7×7的卷积核计算15个连续帧的特征,得到第一卷积特征图。通过卷积层1中的7×7×7的卷积核,步长为1×1×1,在60×80×15的张量上算出进门动作的7个特征,经过这一层卷积后,张量规模变为54×74×9,在卷积层1中,激励函数采用tanh函数,即yc1=tanh(∑Wc1xc1+bc1),其中yc1表示卷积1层输出,表示xc1卷积1层输入,xc1和yc1都是张量,Wc1和bc1分别表示权重和偏置量。具体3D卷积过程如图4所示,W和H分别表示视频的宽和高,卷积核大小为k×k×k。该卷积核对连续的L帧图像堆叠成的立方体,在三个维度(空间的宽度维度W、高度维度H以及时间维度L)上进行卷积操作,步长均为1,这样经过一次卷积后计算出来的output仍为三维张量,得到第一卷积特征图。
步骤S303,采用2×2的池化窗口第一卷积特征图进行池化运算,得到第一池化特征图。通过池化层1中的采用2×2的池化窗口对output张量进行最大池化,以保证提取的进门动作特征的平移不变性,经过这一层池化后,张量规模变为27×37×9,得到第一池化特征图。
步骤S304,采用7×7×7的卷积核计算第一池化特征图特征,得到第二卷积特征图。通过卷积层2中的7×7×7的卷积核,步长为1×1×1,在27×37×9的张量上算出进门动作的5个特征,经过这一层卷积后,张量规模变为21×31×3,激励函数和卷积方式与卷积层1中的激励函数和卷积方式相同。
步骤S305,采用2×2的池化窗口第二卷积特征图进行池化运算,得到第二池化特征图。通过池化层2中的2×2的池化窗口对output张量进行最大池化,经过这一层池化后,张量规模变为11×16×3。
步骤S306,将三维的第二池化特征图转换为二维的特征向量。将张量转换成大小为1×2640的向量(5×11×16×3=2640),得到二维的特征向量。
全连接层:输入1×2640的二维的特征向量与256个核的全连接层连接。
输出层:输出层输出2个分类标签:活体/非活体。
其中3D-CNN的具体结构和参数均可调整,不局限于上述实施例中的描述。
训练后的3D-CNN神经网络(活体检测模型)可用于人脸检测模块中进行实时检测。用户在进门时,摄像头采集其1秒视频,按上述实施例中的视频处理方法同样进行数据裁剪和向下采样,输入活体检测模型进行分类,即可输出分类结果:活体或非活体。
相对传统的活体检测方案,诸如指纹识别、声纹识别、虹膜识别等,不需专用硬件,采用普通摄像头,价格低廉,便于维护;相对于当下流行的活体检测方案,诸如人机交互检测等,不需用户配合做出相应动作,用户对本活体检测模块无感知;响应速度快,检测过程仅需采集5到10帧,约0.16~0.33秒(FPS为30);活体检测作为独立算法模块,与人脸检测模块独立,可灵活升级;活体检测算法可与人脸检测算法并发进行,进一步降低延时,提高用户体验。
图2为一个实施例中活体检测方法的流程示意图。应该理解的是,虽然图2的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图6所示,提供了一种活体检测装置200,包括:
数据获取模块201,用于获取包含人脸的三维图像张量,三维图像张量由视频图像的预设个时间序列帧组成。
识别模块202,用于输入三维图像张量至预设三维活体检测模型,通过预设三维活体检测模型提取三维图像张量的三维特征张量,通过预设三维活体检测模型的向量转换函数,将三维特征张量转化为二维特征向量,将二维特征向量输入至预设三维活体检测模型的分类层,计算二维特征向量与分类层中的标准特征向量的相似度,根据相似度输出二维特征向量的识别结果,识别结果包括活体和非活体。
在一个实施例中,上述活体检测装置200,还包括:
训练数据获取模块,用于获取包含多个三维训练图像张量的训练集合,三维训练图像张量携带标签,标签包括活体标签和非活体标签。
识别模块,用于输入训练集合中各个三维训练图像张量至初始三维活体检测模型,输出各个三维训练图像张量对应的识别结果。
匹配值统计模块,用于统计训练集合中三维训练图像张量的识别结果和对应的标签的匹配值。
匹配值判断模块,用判断匹配值是否大于预设匹配值。
模型确定模块,用于当匹配值大于或等于预设匹配值时,得到预设三维活体检测模型。
在一个实施例中,模型确定模块还用于更新初始三维活体检测模型的模型参数,得到更新三维活体检测模型;输入各个三维训练图像张量至更新三维活体检测模型,直至匹配值大于或等于预设匹配值时,得到预设三维活体检测模型。
在一个实施例中,活体检测装置200,还包括:
初始训练数据获取模块,用于获取多个训练视频图像,获取各个训练视频图像中的预设个序列帧组成初始三维训练图像张量;
下采样模块,用于对各个初始三维训练图像张量进行下采样,得到对应的下采样三维训练图像张量;
样本生成模块,用于获取样本生成规则,按照样本生成规则,生成与各个下采样三维训练图像张量对应的多个生成三维训练图像张量;
训练数据生成模块,用于由生成三维训练图像张量和下采样三维训练图像张量组成训练集合。
在一个实施例中,识别模块202具体用于输入三维图像张量至当前特征提取单元的卷积层,根据卷积层中的三维卷积核对三维图像张量进行三维卷积运算,得到三维图像张量对应的当前三维卷积特征张量,输入当前三维卷积特征张量至当前特征提取单元的池化层,执行池化运算,得到当前三维池化特征张量,根据当前三维池化特征张量生成三维特征张量,其中预设三维活体检测模型包括至少一个特征提取单元,每个特征提取单元包含一个卷积层和一个池化层。
在一个实施中,识别模块202具体用于输入当前三维池化特征张量至下一个特征提取单元,得到下一个三维池化特征张量,直至得到预设三维活体检测模型最后一个特征提取单元对应的最后一个三维池化特征张量,将最后一个三维池化特征张量作为三维特征张量,预设三维活体检测模型包括多个特征提取单元。
在一个实施例中,上述活体识别装置200,还包括:
人脸特征提取模块,用于输入视频图像至人脸识别模型,提取视频图像中的人脸特征,目标对象包含人脸;
人脸特征匹配模块,用于判断人脸识别模型中是否存在与人脸特征匹配的预设人脸特征;
解锁模块,用于当存在匹配的预设人脸特征,且视频图像的识别结果为活体时,生成解锁指令,发送解锁指令。
图7示出了一个实施例中计算机设备的内部结构图。该计算机设备具体可以是图1中的视频采集装置110(或计算机设备120)。如图7所示,该计算机设备包括该计算机设备包括通过***总线连接的处理器、存储器、网络接口、输入装置和显示屏。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质存储有操作***,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现活体检测方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行活体检测方法。计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图7中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,本申请提供的活体检测装置可以实现为一种计算机程序的形式,计算机程序可在如图7所示的计算机设备上运行。计算机设备的存储器中可存储组成该活体检测装置的各个程序模块,比如,图6所示的数据获取模块201和识别模块202。各个程序模块构成的计算机程序使得处理器执行本说明书中描述的本申请各个实施例的活体检测方法中的步骤。
例如,图7所示的计算机设备可以通过如图6所示的活体检测装置中的数据获取模块201执行获取包含人脸的三维图像张量,三维图像张量由视频图像的预设个时间序列帧组成。计算机设备可以通过识别模块202执行输入三维图像张量至预设三维活体检测模型,通过预设三维活体检测模型提取三维图像张量的三维特征张量,通过预设三维活体检测模型的向量转换函数,将三维特征张量转化为二维特征向量,将二维特征向量输入至预设三维活体检测模型的分类层,计算二维特征向量与分类层中的标准特征向量的相似度,根据相似度输出二维特征向量的识别结果,识别结果包括活体和非活体。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:获取包含目标对象的三维图像张量,三维图像张量由视频图像的预设个时间序列帧组成;输入三维图像张量至预设三维活体检测模型,通过预设三维活体检测模型提取三维图像张量的三维特征张量,通过预设三维活体检测模型的向量转换函数,将三维特征张量转化为二维特征向量,将二维特征向量输入至预设三维活体检测模型的分类层,计算二维特征向量与分类层中的标准特征向量的相似度,根据相似度输出二维特征向量的识别结果,识别结果包括活体和非活体。
在一个实施例中,获取包含目标对象的三维图像张量之前,处理器执行计算机程序时还实现以下步骤:获取包含多个三维训练图像张量的训练集合,三维训练图像张量携带标签,标签包括活体标签和非活体标签;输入训练集合中的各个三维训练图像张量至初始三维活体检测模型,输出各个三维训练图像张量对应的识别结果;统计训练集合中三维训练图像张量的识别结果和对应的标签的匹配值;判断匹配值是否大于预设匹配值;当匹配值大于或等于预设匹配值时,得到预设三维活体检测模型。
在一个实施例中,当匹配值小于预设匹配值时,计算机程序被处理器执行时还实现以下步骤:更新初始三维活体检测模型的模型参数,得到更新三维活体检测模型;输入各个三维训练图像张量至更新三维活体检测模型,直至匹配值大于或等于预设匹配值时,得到预设三维活体检测模型。
在一个实施例中,获取包含多个三维训练图像张量的训练集合之前,处理器执行计算机程序时还实现以下步骤:获取多个训练视频图像,获取各个训练视频图像中的预设个序列帧组成初始三维训练图像张量;对各个初始三维训练图像张量进行下采样,得到对应的下采样三维训练图像张量;获取样本生成规则;按照样本生成规则,生成与各个下采样三维训练图像张量对应的多个生成三维训练图像张量;由生成三维训练图像张量和下采样三维训练图像张量组成训练集合。
在一个实施例中,预设三维活体检测模型包括至少一个特征提取单元,每个特征提取单元包含一个卷积层和一个池化层,通过预设三维活体检测模型提取三维图像张量的三维特征张量,包括:输入三维图像张量至当前特征提取单元的卷积层,根据卷积层中的三维卷积核对三维图像张量进行三维卷积运算,得到三维图像张量对应的当前三维卷积特征张量;输入当前三维卷积特征张量至当前特征提取单元的池化层,执行池化运算,得到当前三维池化特征张量;根据当前三维池化特征张量生成三维特征张量。
在一个实施例中,预设三维活体检测模型包括多个特征提取单元,根据当前三维池化特征张量生成三维特征张量,包括:输入当前三维池化特征张量至下一个特征提取单元,得到下一个三维池化特征张量,直至得到预设三维活体检测模型最后一个特征提取单元对应的最后一个三维池化特征张量;将最后一个三维池化特征张量作为三维特征张量。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:输入视频图像至人脸识别模型,提取视频图像中的人脸特征;判断人脸识别模型中是否存在与人脸特征匹配的预设人脸特征;当存在匹配的预设人脸特征,且视频图像的识别结果为活体时,生成解锁指令,发送解锁指令。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:获取包含目标对象的三维图像张量,三维图像张量由视频图像的预设个时间序列帧组成;输入三维图像张量至预设三维活体检测模型,通过预设三维活体检测模型提取三维图像张量的三维特征张量,通过预设三维活体检测模型的向量转换函数,将三维特征张量转化为二维特征向量,将二维特征向量输入至预设三维活体检测模型的分类层,计算二维特征向量与分类层中的标准特征向量的相似度,根据相似度输出二维特征向量的识别结果,识别结果包括活体和非活体。
在一个实施例中,获取包含目标对象的三维图像张量之前,计算机程序被处理器执行时还实现以下步骤:获取包含多个三维训练图像张量的训练集合,三维训练图像张量携带标签,标签包括活体标签和非活体标签;输入训练集合中的各个三维训练图像张量至初始三维活体检测模型,输出各个三维训练图像张量对应的识别结果;统计训练集合中三维训练图像张量的识别结果和对应的标签的匹配值;判断匹配值是否大于预设匹配值;当匹配值大于或等于预设匹配值时,得到预设三维活体检测模型。
在一个实施例中,当匹配值小于预设匹配值时,计算机程序被处理器执行时还实现以下步骤:更新初始三维活体检测模型的模型参数,得到更新三维活体检测模型;输入各个三维训练图像张量至更新三维活体检测模型,直至匹配值大于或等于预设匹配值时,得到预设三维活体检测模型。
在一个实施例中,获取包含多个三维训练图像张量的训练集合之前,计算机程序被处理器执行时还实现以下步骤:获取多个训练视频图像,获取各个训练视频图像中的预设个序列帧组成初始三维训练图像张量;对各个初始三维训练图像张量进行下采样,得到对应的下采样三维训练图像张量;获取样本生成规则;按照样本生成规则,生成与各个下采样三维训练图像张量对应的多个生成三维训练图像张量;由生成三维训练图像张量和下采样三维训练图像张量组成训练集合。
在一个实施例中,预设三维活体检测模型包括至少一个特征提取单元,每个特征提取单元包含一个卷积层和一个池化层,通过预设三维活体检测模型提取三维图像张量的三维特征张量,包括:输入三维图像张量至当前特征提取单元的卷积层,根据卷积层中的三维卷积核对三维图像张量进行三维卷积运算,得到三维图像张量对应的当前三维卷积特征张量;输入当前三维卷积特征张量至当前特征提取单元的池化层,执行池化运算,得到当前三维池化特征张量;根据当前三维池化特征张量生成三维特征张量。
在一个实施例中,预设三维活体检测模型包括多个特征提取单元,根据当前三维池化特征张量生成三维特征张量,包括:输入当前三维池化特征张量至下一个特征提取单元,得到下一个三维池化特征张量,直至得到预设三维活体检测模型最后一个特征提取单元对应的最后一个三维池化特征张量;将最后一个三维池化特征张量作为三维特征张量。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:输入视频图像至人脸识别模型,提取视频图像中的人脸特征;判断人脸识别模型中是否存在与人脸特征匹配的预设人脸特征;当存在匹配的预设人脸特征,且视频图像的识别结果为活体时,生成解锁指令,发送解锁指令。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅是本发明的具体实施方式,使本领域技术人员能够理解或实现本发明。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所申请的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种活体检测方法,其特征在于,所述方法包括:
获取包含目标对象的三维图像张量,所述三维图像张量由视频图像的预设个时间序列帧组成;
输入所述三维图像张量至预设三维活体检测模型,通过所述预设三维活体检测模型提取所述三维图像张量的三维特征张量,通过所述预设三维活体检测模型的向量转换函数,将所述三维特征张量转化为二维特征向量,将所述二维特征向量输入至所述预设三维活体检测模型的分类层,计算所述二维特征向量与所述分类层中的标准特征向量的相似度,根据所述相似度输出所述二维特征向量的识别结果,所述识别结果包括活体和非活体。
2.根据权利要求1所述的方法,其特征在于,获取包含目标对象的三维图像张量之前,还包括:
获取包含多个三维训练图像张量的训练集合,所述三维训练图像张量携带标签,所述标签包括活体标签和非活体标签;
输入所述训练集合中各个所述三维训练图像张量至初始三维活体检测模型,输出各个所述三维训练图像张量对应的识别结果;
统计所述训练集合中所述三维训练图像张量的识别结果和对应的标签的匹配值;
判断所述匹配值是否大于预设匹配值;
当所述匹配值大于或等于所述预设匹配值时,得到所述预设三维活体检测模型。
3.根据权利要求2所述的方法,其特征在于,当所述匹配值小于所述预设匹配值时,还包括:
更新所述初始三维活体检测模型的模型参数,得到更新三维活体检测模型;
输入各个所述三维训练图像张量至所述更新三维活体检测模型,直至所述匹配值大于或等于所述预设匹配值时,得到所述预设三维活体检测模型。
4.根据权利要求2或3所述的方法,其特征在于,所述获取包含多个三维训练图像张量的训练集合之前,还包括:
获取多个训练视频图像,获取各个所述训练视频图像中的预设个序列帧组成初始三维训练图像张量;
对各个所述初始三维训练图像张量进行下采样,得到对应的下采样三维训练图像张量;
获取样本生成规则;
按照所述样本生成规则,生成与各个所述下采样三维训练图像张量对应的多个生成三维训练图像张量;
由所述生成三维训练图像张量和所述下采样三维训练图像张量组成所述训练集合。
5.根据权利要求1所述的方法,其特征在于,所述预设三维活体检测模型包括至少一个特征提取单元,每个所述特征提取单元包含一个卷积层和一个池化层,所述通过所述预设三维活体检测模型提取所述三维图像张量的三维特征张量,包括:
输入所述三维图像张量至当前特征提取单元的卷积层,根据所述卷积层中的三维卷积核对所述三维图像张量进行三维卷积运算,得到所述三维图像张量对应的当前三维卷积特征张量;
输入所述当前三维卷积特征张量至所述当前特征提取单元的池化层,执行池化运算,得到当前三维池化特征张量;
根据所述当前三维池化特征张量生成所述三维特征张量。
6.根据权利要求1所述的方法,其特征在于,所述目标对象包含人脸,所述方法还包括:
输入所述视频图像至人脸识别模型,提取所述视频图像中的人脸特征;
判断所述人脸识别模型中是否存在与人脸特征匹配的预设人脸特征;
当存在匹配的预设人脸特征,且所述视频图像的识别结果为活体时,生成解锁指令,发送所述解锁指令。
7.一种活体检测装置,其特征在于,所述装置包括:
数据获取模块,用于获取包含目标对象的三维图像张量,所述三维图像张量由视频图像的预设个时间序列帧组成;
识别模块,用于输入所述三维图像张量至预设三维活体检测模型,通过所述预设三维活体检测模型提取所述三维图像张量的三维特征张量,通过所述预设三维活体检测模型的向量转换函数,将所述三维特征张量转化为二维特征向量,将所述二维特征向量输入至所述预设三维活体检测模型的分类层,计算所述二维特征向量与所述分类层中的标准特征向量的相似度,根据所述相似度输出所述二维特征向量的识别结果,所述识别结果包括活体和非活体。
8.根据权利要求7所述的转置,其特征在于,所述装置还包括:
初始训练数据获取模块,用于获取多个训练视频图像,获取各个所述训练视频图像中的预设个序列帧组成初始三维训练图像张量;
下采样模块,用于对各个所述初始三维训练图像张量进行下采样,得到对应的下采样三维训练图像张量;
样本生成模块,用于获取样本生成规则,按照所述样本生成规则,生成与各个所述下采样三维训练图像张量对应的多个生成三维训练图像张量;
训练数据生成模块,用于由所述生成三维训练图像张量和所述下采样三维训练图像张量组成所述训练集合。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910833350.9A CN110738103A (zh) | 2019-09-04 | 2019-09-04 | 活体检测方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910833350.9A CN110738103A (zh) | 2019-09-04 | 2019-09-04 | 活体检测方法、装置、计算机设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110738103A true CN110738103A (zh) | 2020-01-31 |
Family
ID=69267382
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910833350.9A Pending CN110738103A (zh) | 2019-09-04 | 2019-09-04 | 活体检测方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110738103A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111368681A (zh) * | 2020-02-27 | 2020-07-03 | 深圳数联天下智能科技有限公司 | 基于多点定位的活体甄别方法、装置、设备及存储介质 |
CN111401348A (zh) * | 2020-06-05 | 2020-07-10 | 支付宝(杭州)信息技术有限公司 | 一种目标对象的活体检测方法及*** |
CN111696178A (zh) * | 2020-05-06 | 2020-09-22 | 广东康云科技有限公司 | 人像三维模型和仿真人像动画的生成方法、装置和介质 |
CN111881729A (zh) * | 2020-06-16 | 2020-11-03 | 深圳数联天下智能科技有限公司 | 基于热成像的活体流向甄别方法、装置、设备及存储介质 |
CN111881727A (zh) * | 2020-06-16 | 2020-11-03 | 深圳数联天下智能科技有限公司 | 一种基于热成像的活体甄别方法、装置、设备及存储介质 |
CN113015022A (zh) * | 2021-02-05 | 2021-06-22 | 深圳市优必选科技股份有限公司 | 行为识别方法、装置、终端设备及计算机可读存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106845357A (zh) * | 2016-12-26 | 2017-06-13 | 银江股份有限公司 | 一种基于多通道网络的视频人脸检测和识别方法 |
CN107153812A (zh) * | 2017-03-31 | 2017-09-12 | 深圳先进技术研究院 | 一种基于机器视觉的运动辅助方法及*** |
CN107451455A (zh) * | 2017-07-29 | 2017-12-08 | 广东欧珀移动通信有限公司 | 解锁控制方法及相关产品 |
CN108334910A (zh) * | 2018-03-30 | 2018-07-27 | 国信优易数据有限公司 | 一种事件检测模型训练方法以及事件检测方法 |
CN109508746A (zh) * | 2018-11-16 | 2019-03-22 | 西安电子科技大学 | 基于卷积神经网络的脉冲星候选体识别方法 |
CN109584248A (zh) * | 2018-11-20 | 2019-04-05 | 西安电子科技大学 | 基于特征融合和稠密连接网络的红外面目标实例分割方法 |
US20190156122A1 (en) * | 2017-11-17 | 2019-05-23 | Adobe Inc. | Intelligent digital image scene detection |
CN109858381A (zh) * | 2019-01-04 | 2019-06-07 | 深圳壹账通智能科技有限公司 | 活体检测方法、装置、计算机设备和存储介质 |
-
2019
- 2019-09-04 CN CN201910833350.9A patent/CN110738103A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106845357A (zh) * | 2016-12-26 | 2017-06-13 | 银江股份有限公司 | 一种基于多通道网络的视频人脸检测和识别方法 |
CN107153812A (zh) * | 2017-03-31 | 2017-09-12 | 深圳先进技术研究院 | 一种基于机器视觉的运动辅助方法及*** |
CN107451455A (zh) * | 2017-07-29 | 2017-12-08 | 广东欧珀移动通信有限公司 | 解锁控制方法及相关产品 |
US20190156122A1 (en) * | 2017-11-17 | 2019-05-23 | Adobe Inc. | Intelligent digital image scene detection |
CN108334910A (zh) * | 2018-03-30 | 2018-07-27 | 国信优易数据有限公司 | 一种事件检测模型训练方法以及事件检测方法 |
CN109508746A (zh) * | 2018-11-16 | 2019-03-22 | 西安电子科技大学 | 基于卷积神经网络的脉冲星候选体识别方法 |
CN109584248A (zh) * | 2018-11-20 | 2019-04-05 | 西安电子科技大学 | 基于特征融合和稠密连接网络的红外面目标实例分割方法 |
CN109858381A (zh) * | 2019-01-04 | 2019-06-07 | 深圳壹账通智能科技有限公司 | 活体检测方法、装置、计算机设备和存储介质 |
Non-Patent Citations (2)
Title |
---|
JUNYING GAN, SHANLU LI, YIKUI ZHAI, CHENGYUN LIU: "《3D Convolutional Neural Network Based on Face Anti-Spoofing》", 《2017 2ND INTERNATIONAL CONFERENCE ON MULTIMEDIA AND IMAGE PROCESSING》 * |
许庆勇: "《基于深度学习理论的纹身图像识别与检测研究》", 31 December 2018 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111368681A (zh) * | 2020-02-27 | 2020-07-03 | 深圳数联天下智能科技有限公司 | 基于多点定位的活体甄别方法、装置、设备及存储介质 |
CN111368681B (zh) * | 2020-02-27 | 2023-09-01 | 深圳数联天下智能科技有限公司 | 基于多点定位的活体甄别方法、装置、设备及存储介质 |
CN111696178A (zh) * | 2020-05-06 | 2020-09-22 | 广东康云科技有限公司 | 人像三维模型和仿真人像动画的生成方法、装置和介质 |
CN111401348A (zh) * | 2020-06-05 | 2020-07-10 | 支付宝(杭州)信息技术有限公司 | 一种目标对象的活体检测方法及*** |
CN111881729A (zh) * | 2020-06-16 | 2020-11-03 | 深圳数联天下智能科技有限公司 | 基于热成像的活体流向甄别方法、装置、设备及存储介质 |
CN111881727A (zh) * | 2020-06-16 | 2020-11-03 | 深圳数联天下智能科技有限公司 | 一种基于热成像的活体甄别方法、装置、设备及存储介质 |
CN111881727B (zh) * | 2020-06-16 | 2024-02-06 | 深圳数联天下智能科技有限公司 | 一种基于热成像的活体甄别方法、装置、设备及存储介质 |
CN111881729B (zh) * | 2020-06-16 | 2024-02-06 | 深圳数联天下智能科技有限公司 | 基于热成像的活体流向甄别方法、装置、设备及存储介质 |
CN113015022A (zh) * | 2021-02-05 | 2021-06-22 | 深圳市优必选科技股份有限公司 | 行为识别方法、装置、终端设备及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108710847B (zh) | 场景识别方法、装置及电子设备 | |
CN108805047B (zh) | 一种活体检测方法、装置、电子设备和计算机可读介质 | |
CN110738103A (zh) | 活体检测方法、装置、计算机设备和存储介质 | |
Fernandes et al. | Predicting heart rate variations of deepfake videos using neural ode | |
CN111370020B (zh) | 一种将语音转换成唇形的方法、***、装置和存储介质 | |
JP7490141B2 (ja) | 画像検出方法、モデルトレーニング方法、画像検出装置、トレーニング装置、機器及びプログラム | |
CN113196289B (zh) | 人体动作识别方法、人体动作识别***及设备 | |
CN112308200B (zh) | 神经网络的搜索方法及装置 | |
US9036905B2 (en) | Training classifiers for deblurring images | |
CN112446270A (zh) | 行人再识别网络的训练方法、行人再识别方法和装置 | |
CN110717851A (zh) | 图像处理方法及装置、神经网络的训练方法、存储介质 | |
JP2022510622A (ja) | 画像処理モデルの訓練方法、画像処理方法、ネットワーク機器、及び記憶媒体 | |
CN112598597A (zh) | 一种降噪模型的训练方法及相关装置 | |
CN107766864B (zh) | 提取特征的方法和装置、物体识别的方法和装置 | |
CN110958469A (zh) | 视频处理方法、装置、电子设备及存储介质 | |
CN107767358B (zh) | 一种图像中物体模糊度确定方法和装置 | |
CN111833360B (zh) | 一种图像处理方法、装置、设备以及计算机可读存储介质 | |
Ali et al. | Object recognition for dental instruments using SSD-MobileNet | |
CN112132741A (zh) | 一种人脸照片图像和素描图像的转换方法及*** | |
CN111259838B (zh) | 服务机器人服务环境下深度理解人体行为的方法及*** | |
CN116977674A (zh) | 图像匹配方法、相关设备、存储介质及程序产品 | |
CN110659641B (zh) | 一种文字识别的方法、装置及电子设备 | |
Hua et al. | Dynamic scene deblurring with continuous cross-layer attention transmission | |
CN108764233B (zh) | 一种基于连续卷积激活的场景字符识别方法 | |
CN111881818B (zh) | 医疗行为细粒度识别装置及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200131 |