CN110956056A - 一种人脸活体检测方法及*** - Google Patents

一种人脸活体检测方法及*** Download PDF

Info

Publication number
CN110956056A
CN110956056A CN201811126768.8A CN201811126768A CN110956056A CN 110956056 A CN110956056 A CN 110956056A CN 201811126768 A CN201811126768 A CN 201811126768A CN 110956056 A CN110956056 A CN 110956056A
Authority
CN
China
Prior art keywords
picture
type
dimensional
loss
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811126768.8A
Other languages
English (en)
Inventor
李海青
侯广琦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zhongke Hongxing Technology Co Ltd
Original Assignee
Beijing Zhongke Hongxing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zhongke Hongxing Technology Co Ltd filed Critical Beijing Zhongke Hongxing Technology Co Ltd
Priority to CN201811126768.8A priority Critical patent/CN110956056A/zh
Publication of CN110956056A publication Critical patent/CN110956056A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种人脸活体检测方法及***,包括:获取待检测图片;利用预先构建的卷积神经网络模型提取所述待检测图片的特征;利用全连接层将所述特征转换为特征向量;根据所述特征向量确定所述待检测图片的种类标签。本发明提供的技术方案引入新的损失函数,综合二分类和多分类损失函数的优点,从而能够更好的对活体与假体图片进行区分,达到更好的活体检测效果。

Description

一种人脸活体检测方法及***
技术领域
本发明属于人脸识别领域,尤其涉及一种人脸活体检测方法及***。
背景技术
人脸活体检测,即利用设备或模型来区分真实的人脸图片和假体图片,其中假体图片可以包括打印人脸图片、人脸面具图片等等。而人脸活体检测由于假体图片的多样性和高仿真性,以及人脸之间的差异性,而具有很大的挑战性。
目前的基于深度学习的活体检测技术只是用了传统的深度卷积网络,利用softmax计算损失函数,再对网络参数进行更新,但是由于假体的种类繁多,且特征差别较大,所以直接利用传统的softmax计算二分类的损失函数会使得分类界面难以学习,使得原先的二分类问题变成了多分类问题,改变了活体检测问题的本质,使得人脸活体检测的效果不好。
发明内容
为了解决现有技术中存在的问题,本发明提供了一种人脸活体检测方法及***。
一种人脸活体检测方法,包括:
获取待检测图片;
利用预先构建的卷积神经网络模型提取所述待检测图片的特征;
利用全连接层将所述特征转换为特征向量;
根据所述特征向量确定所述待检测图片的种类标签。
进一步的,所述卷积神经网络模型的构建包括:
获取多张图片样本,每个样本唯一对应一个种类标签,且多张图片样本包括多个种类标签,所述多个种类标签至少包括两个以上假体种类标签;
利用基于深度学习的卷积神经网络提取所述图片样本的特征;
基于多张图片样本对应的所有假体种类标签的数量,利用全连接层将所述特征转换为特征向量;
根据损失函数训练所述卷积神经网络,得到优化后的网络参数;
根据优化后的网络参数构建卷积神经网络模型。
进一步的,所述利用全连接层将所述特征转换为特征向量包括:
将所述特征通过全连接层转换为一个高维向量;
将所述高维向量分别乘以一个N+1维参数矩阵和一个2维参数矩阵,得到N+1维分数特征向量和2维分数特征向量;
其中,N为假体种类标签的数量。
进一步的,根据损失函数训练所述卷积神经网络,得到优化后的网络参数,包括:
按下式所示计算损失量:
L=L1+λL2
Figure BDA0001812629030000021
Figure BDA0001812629030000022
当yi=1时,
Figure BDA0001812629030000023
Figure BDA0001812629030000031
当yi≠1时,
Figure BDA0001812629030000032
Figure BDA0001812629030000033
其中,L为总体损失;L1为第一类损失;L2为第二类损失;λ为超参数;n为带标签的图片的个数;L1,i为第i张图片对应的第一类损失;L2,i为第i张图片对应的第二类损失;yi为第i张图片的类型,yi=1代表图片的类型为人脸活体图片,yi≠1代表图片的类型为其他类型图片;s为参数;θj,i
Figure BDA0001812629030000034
和xi间的夹角;
Figure BDA0001812629030000035
为N+1维参数矩阵W1的第j列;xi为第i张图片全连接层输出的多维特征向量;αj,i
Figure BDA0001812629030000036
和xi间的夹角;
Figure BDA0001812629030000037
为2维参数矩阵W2的第j列;m为超参数阈值;W1和W2分别为xi与N+1维分数特征向量和2维分数特征向量间的参数矩阵。
进一步的,根据所述特征向量确定所述待检测图片的种类标签,包括:
当N+1维分数特征向量的第一特征向量大于其他特征向量与超参数阈值之和,且2维分数特征向量的第一特征向量大于第二特征向量与超参数阈值之和,则所述待检测图片的种类标签为活体种类标签;
否则,所述待检测图片的种类标签为假体种类标签。
一种人脸活体检测***,包括:
获取模块,用于获取待检测图片;
提取模块,用于利用预先构建的卷积神经网络模型提取所述待检测图片的特征;
转换模块,用于利用全连接层将所述特征转换为特征向量;
确定模块,用于根据所述特征向量确定所述待检测图片的种类标签。
进一步的,所述提取模块包括:
获取子模块,用于获取多张图片样本,每个样本唯一对应一个种类标签,且多张图片样本包括多个种类标签,所述多个种类标签至少包括两个以上假体种类标签;
提取子模块,用于利用基于深度学习的卷积神经网络提取所述图片样本的特征;
转换子模块,用于基于多张图片样本对应的所有假体种类标签的数量,利用全连接层将所述特征转换为特征向量;
参数优化子模块,用于根据损失函数训练所述卷积神经网络,得到优化后的网络参数;
模型构建子模块,用于根据优化后的网络参数构建卷积神经网络模型。
进一步的,所述转换子模块,用于,
将所述特征通过全连接层转换为一个高维向量;
将所述高维向量分别乘以一个N+1维参数矩阵和一个2维参数矩阵,得到N+1维分数特征向量和2维分数特征向量;
其中,N为假体种类标签的数量。
进一步的,所述优化参数子模块,用于,
按下式所示计算损失量:
L=L1+λL2
Figure BDA0001812629030000041
Figure BDA0001812629030000051
当yi=1时,
Figure BDA0001812629030000052
Figure BDA0001812629030000053
当yi≠1时,
Figure BDA0001812629030000054
Figure BDA0001812629030000055
其中,L为总体损失;L1为第一类损失;L2为第二类损失;λ为超参数;n为带标签的图片的个数;L1,i为第i张图片对应的第一类损失;L2,i为第i张图片对应的第二类损失;yi为第i张图片的类型,yi=1代表图片的类型为人脸活体图片,yi≠1代表图片的类型为其他类型图片;s为参数;θj,i
Figure BDA0001812629030000056
和xi间的夹角;
Figure BDA0001812629030000057
为N+1维参数矩阵W1的第j列;xi为第i张图片全连接层输出的多维特征向量;αj,i
Figure BDA0001812629030000058
和xi间的夹角;
Figure BDA0001812629030000059
为2维参数矩阵W2的第j列;m为超参数阈值;W1和W2分别为xi与N+1维分数特征向量和2维分数特征向量间的参数矩阵。
进一步的,所述确定模块,用于,
当N+1维分数特征向量的第一特征向量大于其他特征向量与超参数阈值之和,且2维分数特征向量的第一特征向量大于第二特征向量与超参数阈值之和,则所述待检测图片的种类标签为活体种类标签;
否则,所述待检测图片的种类标签为假体种类标签。
本发明提供的技术方案存在如下有益效果:
本发明提供的技术方案首先利用基于深度学习的卷积神经网络提取待检测图片的特征,利用全连接层将特征转换为特征向量,然后利用损失函数计算损失向量,最后根据预设损失量与种类标签的对应关系,确定与计算得到的损失量对应的种类标签,也就是待检测图片的种类标签。引入新的损失函数,综合二分类和多分类损失函数的优点,从而能够更好的对活体与假体图片进行区分,达到更好的活体检测效果。
附图说明
图1是本发明流程示意图;
图2是本发明实施例提供的模型构建流程示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
如图1所示,本发明实施例提供了一种人脸活体检测方法,包括:
S1、获取待检测图片;
S2、利用预先构建的卷积神经网络模型提取所述待检测图片的特征;
S3、利用全连接层将所述特征转换为特征向量;
S4、根据所述特征向量确定所述待检测图片的种类标签。
在本申请实施例中,首先利用预先构建的卷积神经网络模型提取待检测图片的特征,利用全连接层将特征转换为特征向量,最后根据特征向量确定所述待检测图片的种类标签。通过引入新的损失函数,综合二分类和多分类损失函数的优点,从而能够更好的对活体与假体图片进行区分,达到更好的活体检测效果。
在本申请的一些实施例中,如图2所示,卷积神经网络模型的构建包括:
S21、获取多张图片样本,每个样本唯一对应一个种类标签,且多张图片样本包括多个种类标签,所述多个种类标签至少包括两个以上假体种类标签;
输入图片分为两大类,一类为真实人脸图片,一类为假体图片,其中假体可以为多种,比如打印的照片、塑料制人脸面具等,假设假体有图片有N种。
S22、利用基于深度学习的卷积神经网络提取所述图片样本的特征;
利用去除最后一个softmax操作的Resnet-101作为网络对图片进行特征提取,即将图片矩阵作为网络输入,利用卷积神经网络逐层进行卷积、池化等操作,网络最后一层将其展开为一个1000维的向量,此向量即为网络所提取的输入图片矩阵的特征。
S23、基于多张图片样本对应的所有假体种类标签的数量,利用全连接层将所述特征转换为特征向量;
在前述的卷积层中,最后的输出为一个1000维的高维向量,将此高维向量分别乘以一个N+1维参数矩阵和一个2维参数矩阵,得到N+1维分数特征向量和2维分数特征向量。
S24、根据损失函数训练所述卷积神经网络,得到优化后的网络参数;
按下式所示计算损失量:
L=L1+λL2
Figure BDA0001812629030000081
Figure BDA0001812629030000082
当yi=1时,
Figure BDA0001812629030000083
Figure BDA0001812629030000084
当yi≠1时,
Figure BDA0001812629030000085
Figure BDA0001812629030000086
其中,L为总体损失;L1为第一类损失;L2为第二类损失;λ为超参数;n为带标签的图片的个数;L1,i为第i张图片对应的第一类损失;L2,i为第i张图片对应的第二类损失;yi为第i张图片的类型,yi=1代表图片的类型为人脸活体图片,yi≠1代表图片的类型为其他类型图片;s为参数;θj,i
Figure BDA0001812629030000087
和xi间的夹角;
Figure BDA0001812629030000088
为N+1维参数矩阵W1的第j列;xi为第i张图片全连接层输出的多维特征向量;αj,i
Figure BDA0001812629030000089
和xi间的夹角;
Figure BDA00018126290300000810
为2维参数矩阵W2的第j列;m为超参数阈值;W1和W2分别为xi与N+1维分数特征向量和2维分数特征向量间的参数矩阵;s和m均是为了扩大真实人脸图片和假体图片之间的差异。
S25、根据优化后的网络参数构建卷积神经网络模型。
将优化得到的网络参数带回到卷积神经网络中,得到卷积神经网络模型。
也就是说,在本申请一些实施例中,通过多张带标签的图片进行性训练,其中每个样本唯一对应一个种类标签,再利用基于深度学习的卷积神经网络提取所述图片样本的特征,然后通过全连接层将所述特征转换为特征向量,根据损失函数训练卷积神经网络得到优化后的网络参数,最后将优化得到的网络参数带回到卷积神经网络,得到优化后的卷积神经网络模型。
在本申请一些实施例中,特征向量确定所述待检测图片的种类标签,包括:
当N+1维分数特征向量的第一特征向量大于其他特征向量与超参数阈值之和,且2维分数特征向量的第一特征向量大于第二特征向量与超参数阈值之和,则所述待检测图片的种类标签为活体种类标签;
否则,所述待检测图片的种类标签为假体种类标签。
例如,对于一张测试图片数据X,假设经过卷积层所得的特征再经由全连接层之后输出的(N+1)分数向量和2维分数向量分别为X1和X2,那么如果对于j=2,3,…,N+1,都有X1,1>X1,j+m,并且X2,1>X2,2+m,其中m是超参数阈值,那么就认为输入的测试图片是活体人脸图片;其余情况则认为输入的测试图片是假体图片。这里的m是一个由设计者设定的阈值参数,其决定着活体类别与假体类别之间的类间差距,m越大,则对于活体图片的分类的要求越严格,而m的具体数值则需要由实验以及具体问题的特点来确定。
基于相同的发明构思本发明还提供了一种人脸活体检测***,包括:
获取模块,用于获取待检测图片;
提取模块,用于利用预先构建的卷积神经网络模型提取所述待检测图片的特征;
转换模块,用于利用全连接层将所述特征转换为特征向量;
确定模块,用于根据所述特征向量确定所述待检测图片的种类标签。
优选的,所述提取模块包括:
获取子模块,用于获取多张图片样本,每个样本唯一对应一个种类标签,且多张图片样本包括多个种类标签,所述多个种类标签至少包括两个以上假体种类标签;
提取子模块,用于利用基于深度学习的卷积神经网络提取所述图片样本的特征;
转换子模块,用于基于多张图片样本对应的所有假体种类标签的数量,利用全连接层将所述特征转换为特征向量;
参数优化子模块,用于根据损失函数训练所述卷积神经网络,得到优化后的网络参数;
模型构建子模块,用于根据优化后的网络参数构建卷积神经网络模型。
优选的,所述转换子模块,用于,
将所述特征通过全连接层转换为一个高维向量;
将所述高维向量分别乘以一个N+1维参数矩阵和一个2维参数矩阵,得到N+1维分数特征向量和2维分数特征向量;
其中,N为假体种类标签的数量。
优选的,所述优化参数子模块,用于,
按下式所示计算损失量:
L=L1+λL2
Figure BDA0001812629030000111
Figure BDA0001812629030000112
当yi=1时,
Figure BDA0001812629030000113
Figure BDA0001812629030000114
当yi≠1时,
Figure BDA0001812629030000115
Figure BDA0001812629030000116
其中,L为总体损失;L1为第一类损失;L2为第二类损失;λ为超参数;n为带标签的图片的个数;L1,i为第i张图片对应的第一类损失;L2,i为第i张图片对应的第二类损失;yi为第i张图片的类型,yi=1代表图片的类型为人脸活体图片,yi≠1代表图片的类型为其他类型图片;s为参数;θj,i
Figure BDA0001812629030000117
和xi间的夹角;
Figure BDA0001812629030000118
为N+1维参数矩阵W1的第j列;xi为第i张图片全连接层输出的多维特征向量;αj,i
Figure BDA0001812629030000119
和xi间的夹角;
Figure BDA00018126290300001110
为2维参数矩阵W2的第j列;m为超参数阈值;W1和W2分别为xi与N+1维分数特征向量和2维分数特征向量间的参数矩阵。
优选的,所述确定模块,用于,
当N+1维分数特征向量的第一特征向量大于其他特征向量与超参数阈值之和,且2维分数特征向量的第一特征向量大于第二特征向量与超参数阈值之和,则所述待检测图片的种类标签为活体种类标签;
否则,所述待检测图片的种类标签为假体种类标签。
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。
可以理解的是,本文描述的这些实施例可以用硬件、软件、固件、中间件、微码或其组合来实现。对于硬件实现,处理单元可以实现在一个或多个专用集成电路(ApplicationSpecific Integrated Circuits,ASIC)、数字信号处理器(Digital Signal Processing,DSP)、数字信号处理设备(DSP Device,DSPD)、可编程逻辑设备(Programmable LogicDevice,PLD)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、通用处理器、控制器、微控制器、微处理器、用于执行本申请所述功能的其它电子单元或其组合中。
对于软件实现,可通过执行本文所述功能的单元来实现本文所述的技术。软件代码可存储在存储器中并通过处理器执行。存储器可以在处理器中或在处理器外部实现。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种人脸活体检测方法,其特征在于,包括:
获取待检测图片;
利用预先构建的卷积神经网络模型提取所述待检测图片的特征;
利用全连接层将所述特征转换为特征向量;
根据所述特征向量确定所述待检测图片的种类标签。
2.根据权利要求1所述的一种人脸活体检测方法,其特征在于,所述卷积神经网络模型的构建包括:
获取多张图片样本,每个样本唯一对应一个种类标签,且多张图片样本包括多个种类标签,所述多个种类标签至少包括两个以上假体种类标签;
利用基于深度学习的卷积神经网络提取所述图片样本的特征;
基于多张图片样本对应的所有假体种类标签的数量,利用全连接层将所述特征转换为特征向量;
根据损失函数训练所述卷积神经网络,得到优化后的网络参数;
根据优化后的网络参数构建卷积神经网络模型。
3.根据权利要求1或2所述的一种人脸活体检测方法,其特征在于,所述利用全连接层将所述特征转换为特征向量,包括:
将所述特征通过全连接层转换为一个高维向量;
将所述高维向量分别乘以一个N+1维参数矩阵和一个2维参数矩阵,得到N+1维分数特征向量和2维分数特征向量;
其中,N为假体种类标签的数量。
4.根据权利要求3所述的一种人脸活体检测方法,其特征在于,根据损失函数训练所述卷积神经网络,得到优化后的网络参数,包括:
按下式所示计算损失量:
L=L1+λL2
Figure FDA0001812629020000021
Figure FDA0001812629020000022
当yi=1时,
Figure FDA0001812629020000023
Figure FDA0001812629020000024
当yi≠1时,
Figure FDA0001812629020000025
Figure FDA0001812629020000026
其中,L为总体损失;L1为第一类损失;L2为第二类损失;λ为超参数;n为带标签的图片的个数;L1,i为第i张图片对应的第一类损失;L2,i为第i张图片对应的第二类损失;yi为第i张图片的类型,yi=1代表图片的类型为人脸活体图片,yi≠1代表图片的类型为其他类型图片;s为参数;θj,i
Figure FDA0001812629020000027
和xi间的夹角;
Figure FDA0001812629020000028
为N+1维参数矩阵W1的第j列;xi为第i张图片全连接层输出的多维特征向量;αj,i
Figure FDA0001812629020000029
和xi间的夹角;
Figure FDA00018126290200000210
为2维参数矩阵W2的第j列;m为超参数阈值;W1和W2分别为xi与N+1维分数特征向量和2维分数特征向量间的参数矩阵。
5.根据权利要求3所述的一种人脸活体检测方法,其特征在于,根据所述特征向量确定所述待检测图片的种类标签,包括:
当N+1维分数特征向量的第一特征向量大于其他特征向量与超参数阈值之和,且2维分数特征向量的第一特征向量大于第二特征向量与超参数阈值之和,则所述待检测图片的种类标签为活体种类标签;
否则,所述待检测图片的种类标签为假体种类标签。
6.一种人脸活体检测***,其特征在于,包括:
获取模块,用于获取待检测图片;
提取模块,用于利用预先构建的卷积神经网络模型提取所述待检测图片的特征;
转换模块,用于利用全连接层将所述特征转换为特征向量;
确定模块,用于根据所述特征向量确定所述待检测图片的种类标签。
7.根据权利要求6所述的一种人脸活体检测***,其特征在于,所述提取模块包括:
获取子模块,用于获取多张图片样本,每个样本唯一对应一个种类标签,且多张图片样本包括多个种类标签,所述多个种类标签至少包括两个以上假体种类标签;
提取子模块,用于利用基于深度学习的卷积神经网络提取所述图片样本的特征;
转换子模块,用于基于多张图片样本对应的所有假体种类标签的数量,利用全连接层将所述特征转换为特征向量;
参数优化子模块,用于根据损失函数训练所述卷积神经网络,得到优化后的网络参数;
模型构建子模块,用于根据优化后的网络参数构建卷积神经网络模型。
8.根据权利要求7所述的一种人脸活体检测***,其特征在于,所述转换子模块,用于,
将所述特征通过全连接层转换为一个高维向量;
将所述高维向量分别乘以一个N+1维参数矩阵和一个2维参数矩阵,得到N+1维分数特征向量和2维分数特征向量;
其中,N为假体种类标签的数量。
9.根据权利要求7所述的一种人脸活体检测***,其特征在于,所述参数优化子模块,用于,
按下式所示计算损失量:
L=L1+λL2
Figure FDA0001812629020000041
Figure FDA0001812629020000042
当yi=1时,
Figure FDA0001812629020000043
Figure FDA0001812629020000044
当yi≠1时,
Figure FDA0001812629020000045
Figure FDA0001812629020000046
其中,L为总体损失;L1为第一类损失;L2为第二类损失;λ为超参数;n为带标签的图片的个数;L1,i为第i张图片对应的第一类损失;L2,i为第i张图片对应的第二类损失;yi为第i张图片的类型,yi=1代表图片的类型为人脸活体图片,yi≠1代表图片的类型为其他类型图片;s为参数;θj,i
Figure FDA0001812629020000051
和xi间的夹角;
Figure FDA0001812629020000052
为N+1维参数矩阵W1的第j列;xi为第i张图片全连接层输出的多维特征向量;αj,i
Figure FDA0001812629020000053
和xi间的夹角;
Figure FDA0001812629020000054
为2维参数矩阵W2的第j列;m为超参数阈值;W1和W2分别为xi与N+1维分数特征向量和2维分数特征向量间的参数矩阵。
10.根据权利要求6所述的一种人脸活体检测***,其特征在于,所述确定模块,用于,
当N+1维分数特征向量的第一特征向量大于其他特征向量与超参数阈值之和,且2维分数特征向量的第一特征向量大于第二特征向量与超参数阈值之和,则所述待检测图片的种类标签为活体种类标签;
否则,所述待检测图片的种类标签为假体种类标签。
CN201811126768.8A 2018-09-26 2018-09-26 一种人脸活体检测方法及*** Pending CN110956056A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811126768.8A CN110956056A (zh) 2018-09-26 2018-09-26 一种人脸活体检测方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811126768.8A CN110956056A (zh) 2018-09-26 2018-09-26 一种人脸活体检测方法及***

Publications (1)

Publication Number Publication Date
CN110956056A true CN110956056A (zh) 2020-04-03

Family

ID=69966199

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811126768.8A Pending CN110956056A (zh) 2018-09-26 2018-09-26 一种人脸活体检测方法及***

Country Status (1)

Country Link
CN (1) CN110956056A (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107122744A (zh) * 2017-04-28 2017-09-01 武汉神目信息技术有限公司 一种基于人脸识别的活体检测***及方法
CN107220635A (zh) * 2017-06-21 2017-09-29 北京市威富安防科技有限公司 基于多造假方式的人脸活体检测方法
CN107545241A (zh) * 2017-07-19 2018-01-05 百度在线网络技术(北京)有限公司 神经网络模型训练及活体检测方法、装置及存储介质
CN108416324A (zh) * 2018-03-27 2018-08-17 百度在线网络技术(北京)有限公司 用于检测活体的方法和装置
CN108573243A (zh) * 2018-04-27 2018-09-25 上海敏识网络科技有限公司 一种基于深度卷积神经网络的低质量人脸的比对方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107122744A (zh) * 2017-04-28 2017-09-01 武汉神目信息技术有限公司 一种基于人脸识别的活体检测***及方法
CN107220635A (zh) * 2017-06-21 2017-09-29 北京市威富安防科技有限公司 基于多造假方式的人脸活体检测方法
CN107545241A (zh) * 2017-07-19 2018-01-05 百度在线网络技术(北京)有限公司 神经网络模型训练及活体检测方法、装置及存储介质
CN108416324A (zh) * 2018-03-27 2018-08-17 百度在线网络技术(北京)有限公司 用于检测活体的方法和装置
CN108573243A (zh) * 2018-04-27 2018-09-25 上海敏识网络科技有限公司 一种基于深度卷积神经网络的低质量人脸的比对方法

Similar Documents

Publication Publication Date Title
Yang et al. Face recognition using adaptive local ternary patterns method
CN107798653B (zh) 一种图像处理的方法和一种装置
TW201923707A (zh) 圖像處理方法和處理設備
CN109285111B (zh) 一种字体转换的方法、装置、设备及计算机可读存储介质
CN110210513B (zh) 数据分类方法、装置及终端设备
CN107886062B (zh) 图像处理方法、***及服务器
CN108509833B (zh) 一种基于结构化分析字典的人脸识别方法、装置及设备
CN104915673B (zh) 一种基于视觉词袋模型的目标分类方法和***
CN111814620A (zh) 人脸图像质量评价模型建立方法、优选方法、介质及装置
CN113569554B (zh) 一种数据库中实体对匹配方法、装置、电子设备及存储介质
CN109598301B (zh) 检测区域去除方法、装置、终端和存储介质
TWI803243B (zh) 圖像擴增方法、電腦設備及儲存介質
CN114528912A (zh) 基于渐进式多模态融合网络的虚假新闻检测方法及***
CN113255557A (zh) 一种基于深度学习的视频人群情绪分析方法及***
CN112651333A (zh) 静默活体检测方法、装置、终端设备和存储介质
CN113869098A (zh) 植物病害识别方法、装置、电子设备及存储介质
CN115775349A (zh) 基于多模态融合的假新闻检测方法和装置
Tan et al. Quantized deep residual convolutional neural network for image-based dietary assessment
CN114299304B (zh) 一种图像处理方法及相关设备
CN113807237B (zh) 活体检测模型的训练、活体检测方法、计算机设备及介质
JP2021533493A (ja) 指静脈照合方法、装置、コンピュータ機器、及び記憶媒体
Sheng et al. Action recognition using direction-dependent feature pairs and non-negative low rank sparse model
Horvath et al. A higher-order active contour model of a ‘gas of circles’ and its application to tree crown extraction
CN113283334A (zh) 一种课堂专注度分析方法、装置和存储介质
Wang et al. Sparse representation of local spatial-temporal features with dimensionality reduction for motion recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200403