CN109948566A - 一种基于权重融合与特征选择的双流人脸反欺诈检测方法 - Google Patents
一种基于权重融合与特征选择的双流人脸反欺诈检测方法 Download PDFInfo
- Publication number
- CN109948566A CN109948566A CN201910231686.8A CN201910231686A CN109948566A CN 109948566 A CN109948566 A CN 109948566A CN 201910231686 A CN201910231686 A CN 201910231686A CN 109948566 A CN109948566 A CN 109948566A
- Authority
- CN
- China
- Prior art keywords
- face
- feature
- features
- fusion
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 80
- 238000001514 detection method Methods 0.000 title claims abstract description 26
- 238000013528 artificial neural network Methods 0.000 claims abstract description 42
- 238000000034 method Methods 0.000 claims abstract description 24
- 239000011159 matrix material Substances 0.000 claims description 16
- 238000007637 random forest analysis Methods 0.000 claims description 15
- 238000013507 mapping Methods 0.000 claims description 14
- 238000012216 screening Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 5
- 238000012847 principal component analysis method Methods 0.000 claims description 5
- 238000010187 selection method Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000012706 support-vector machine Methods 0.000 claims description 3
- 239000000203 mixture Substances 0.000 claims 1
- 239000002994 raw material Substances 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 11
- 230000004044 response Effects 0.000 abstract description 2
- 238000012545 processing Methods 0.000 description 30
- 238000002474 experimental method Methods 0.000 description 12
- 238000011176 pooling Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 8
- 238000012360 testing method Methods 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 238000012795 verification Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 210000000887 face Anatomy 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000007639 printing Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000012880 independent component analysis Methods 0.000 description 2
- 238000010146 3D printing Methods 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 208000012482 complete androgen insensitivity syndrome Diseases 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于权重融合与特征选择的双流人脸反欺诈检测方法,包括,通过采集设备采集人脸图片;提取特征,并确定人脸标签;对特征进行融合;以及,判断人脸真假,并响应于显示设备上;其中,所述特征包括HSV像素特征、YCbCr像素特征、BSIF灰度特征和神经网络卷积特征、LBP特征和HOG特征;其中,所述融合区分为权重融合和分数级融合;本发明方法将采集的HSV像素特征、YCbCr像素特征、BSIF灰度特征和神经网络卷积特征、LBP特征和HOG特征进行权重融合,大大提高了真假人脸的识别效果,同时提供了鲁棒性,还加快了运行效率。
Description
技术领域
本发明涉及的人脸检测技术领域,尤其涉及一种基于权重融合与特征选择的双流人脸反欺诈检测方法。
背景技术
随着生物特征识别技术的完善成熟,指纹识别、虹膜识别、语音识别技术逐渐被应用到各行各业的安防***中,而人脸识别因其交互性、易获取性、可视化程度高等优势逐渐成为主流;然而这些优势也为***的安全带来了隐患,早在2002年,Lisa Thalheim等人使用照片、简短视频对FaceVACS-Logon人脸***进行了检测,成功欺骗并通过了身份的确认;这一事实使人们对人脸识别技术的安全性产生了极大的质疑,人脸反欺诈—这一亟待解决的课题,随之应运而生。
目前人脸的欺诈方式主要包括以下几种:(1)偷拍到的人脸照片;(2)网上公开的人脸视频;(3)计算机软件合成的三维人脸模型;(4)塑料、橡胶材料制成的人脸面具,虽然3D打印等生物仿真技术如今已可逐步投入使用,但考虑到设备成本、高效便捷等因素,目前最主流的欺诈手段还是拍摄合法用户的人脸照片和视频,在近十多年的人脸欺诈研究中,常用的纹理特征如:局部二值模式(LBP)、方向梯度直方图(HOG)、Haar特征,在灰度图像的真假人脸识别中取得了较好的实验结果,随后人们考虑在RGB、HSV、YCbCr等彩色空间中进行实验,增加了人脸的多样性;但是这些方法大都是在单一颜色或者单一特征中的进行,真假人脸的识别效果不够好。
发明内容
本部分的目的在于概述本发明的实施例的一些方面以及简要介绍一些较佳实施例。在本部分以及本申请的说明书摘要和发明名称中可能会做些简化或省略以避免使本部分、说明书摘要和发明名称的目的模糊,而这种简化或省略不能用于限制本发明的范围。
鉴于上述现有基于权重融合与特征选择的人脸反欺诈检测方法存在的问题,提出了本发明。
因此,本发明目的是提供一种基于权重融合与特征选择的双流人脸反欺诈检测方法,其将采集的HSV像素特征、YCbCr像素特征、BSIF灰度特征和神经网络卷积特征、LBP特征和HOG特征进行权重融合,大大提高了真假人脸的识别效果,同时提供了鲁棒性,还加快了运行效率。
为解决上述技术问题,本发明提供如下技术方案:一种基于权重融合与特征选择的人脸反欺诈检测方法,其特征在于:包括,通过采集设备采集人脸图片;提取特征,并确定人脸标签;对特征进行融合;以及,判断人脸真假,并响应于显示设备上;其中,所述特征包括HSV像素特征、YCbCr像素特征、BSIF灰度特征和神经网络卷积特征、LBP特征和HOG特征;其中,所述融合区分为权重融合和分数级融合。
本发明的有益效果:本发明方法将采集的HSV像素特征、YCbCr像素特征、BSIF灰度特征和神经网络卷积特征、LBP特征和HOG特征进行权重融合,大大提高了真假人脸的识别效果,同时提供了鲁棒性,还加快了运行效率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。其中:
图1为本发明基于权重融合与特征选择的人脸反欺诈检测方法第一个实施例的整体流程示意图。
图2为本发明基于权重融合与特征选择的人脸反欺诈检测方法第二个实施例的提取HSV像素特征和YCbCr像素特征,并确定人脸标签的流程示意图。
图3为本发明基于权重融合与特征选择的人脸反欺诈检测方法第三个实施例的HSV颜色空间模型示意图。
图4为本发明基于权重融合与特征选择的双流人脸反欺诈检测方法第三个实施例的提取BSIF灰度特征,并确定人脸标签的流程示意图。
图5为本发明基于权重融合与特征选择的双流人脸反欺诈检测方法第四个实施例的提取神经网络卷积特征,并确定人脸标签的流程示意图。
图6为本发明基于权重融合与特征选择的双流人脸反欺诈检测方法第六个实施例的提取HOG特征和LBP特征,并确定人脸标签的流程示意图。
图7为本发明基于权重融合与特征选择的双流人脸反欺诈检测方法第六个实施例的灰度图示意图。
图8为本发明基于权重融合与特征选择的双流人脸反欺诈检测方法第六个实施例的LBP特征模型示意图。
图9为本发明基于权重融合与特征选择的双流人脸反欺诈检测方法第七个实施例的CASIA数据集人脸结构示意图。
图10为本发明基于权重融合与特征选择的双流人脸反欺诈检测方法第七个实施例的Replay-Attack数据集人脸示意图。
图11为本发明基于权重融合与特征选择的双流人脸反欺诈检测方法第七个实施例的实验框架示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合说明书附图对本发明的具体实施方式做详细的说明。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是本发明还可以采用其他不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似推广,因此本发明不受下面公开的具体实施例的限制。
其次,此处所称的“一个实施例”或“实施例”是指可包含于本发明至少一个实现方式中的特定特征、结构或特性。在本说明书中不同地方出现的“在一个实施例中”并非均指同一个实施例,也不是单独的或选择性的与其他实施例互相排斥的实施例。
再其次,本发明结合示意图进行详细描述,在详述本发明实施例时,为便于说明,表示器件结构的剖面图会不依一般比例作局部放大,而且所述示意图只是示例,其在此不应限制本发明保护的范围。此外,在实际制作中应包含长度、宽度及深度的三维空间尺寸。
实施例一
参照图1,为本发明第一个实施例,提供了一种基于权重融合与特征选择的双流人脸反欺诈检测方法的整体结构示意图,如图1,一种基于权重融合与特征选择的双流人脸反欺诈检测方法包括步骤:S1:通过采集设备采集人脸图片;S2:提取特征,并确定人脸标签;S3:对特征进行融合;以及,S4:判断人脸真假,并响应于显示设备上。
具体的,本发明包括步骤:S1:通过采集设备采集人脸图片,需说明的是,人脸图片为采集设备拍摄的图片或视频截取的图片,而采集设备为摄像头或照相机等设备;S2:提取特征,并确定人脸标签,其中,提取的特征区分为HSV像素特征、YCbCr像素特征、BSIF灰度特征、神经网络卷积特征、LBP特征和HOG特征;S3:对特征进行融合,其中,融合区分为权重融合和分数级融合;以及,S4:判断人脸真假,并响应于显示设备上,其中,显示设备为手机、电脑或电子锁等显示屏,需强调的是,S2和S3步骤位于处理模块中处理,具体的,处理模块是由各种电子元件(控制器、处理器和电池等)以及电路板构成的具有处理功能的器件,本方法将采集的HSV像素特征、YCbCr像素特征、BSIF灰度特征和神经网络卷积特征、LBP特征和HOG特征进行权重融合,大大提高了真假人脸的识别效果,同时提供了鲁棒性,还加快了运行效率。
实施例二
参照图2,该实施例不同于第一个实施例的是:提取HSV像素特征和YCbCr像素特征,并确定人脸标签的步骤包括:S211:将RGB人脸图分别映射到HSV颜色空间和YCbCr颜色空间,并标准化RGB人脸图;S212:提取HSV像素特征和YCbCr像素特征;S213:利用随机森林判断该HSV像素特征和YCbCr像素特征的人脸标签分别为y1和y2。具体的,参见图1,其主体包括步骤:S1:通过采集设备采集人脸图片,需说明的是,人脸图片为采集设备拍摄的图片或视频截取的图片,而采集设备为摄像头或照相机等设备;S2:提取特征,并确定人脸标签,其中,提取的特征区分为HSV像素特征、YCbCr像素特征、BSIF灰度特征、神经网络卷积特征、LBP特征和HOG特征;S3:对特征进行融合,其中,融合区分为权重融合和分数级融合;以及,S4:判断人脸真假,并响应于显示设备上,其中,显示设备为手机、电脑或电子锁等显示屏,需强调的是,S2和S3步骤位于处理模块中处理,具体的,处理模块是由各种电子元件(控制器、处理器和电池等)以及电路板构成的具有处理功能的器件,本方法将采集的HSV像素特征、YCbCr像素特征、BSIF灰度特征和神经网络卷积特征、LBP特征和HOG特征进行权重融合,大大提高了真假人脸的识别效果,同时提供了鲁棒性,还加快了运行效率;而提取HSV像素特征,并确定人脸标签的步骤包括:S211:通过处理模块将RGB人脸图分别映射到HSV颜色空间和YCbCr颜色空间,并标准化RGB人脸图;S212:提取HSV像素特征和YCbCr像素特征;S213:利用随机森林判断该HSV像素特征和YCbCr像素特征的人脸标签分别为y1和y2,其中,y1和y2均为1或0的列矩阵。
进一步的,HSV颜色空间是一种基于色调(H)、饱和度(S)、亮度(V)三种分量的锥状颜色空间模型(参照图3),色调H,表示色彩的基本属性颜色,由逆时针旋转的角度表示,范围是0度至360度,其中红色表示为0度,绿色表示为120度,蓝色表示为240度;饱和度S,表示颜色的纯度,纯度越高,颜色越深,由圆锥体的底面半径表示,范围是[0,1];亮度V,表示颜色的亮暗程度,在圆锥的顶点(V=0,H、S无意义)表示黑色,圆锥底面中心(V=1,S=0,H无意义)表示白色,两者的连线表示由暗至亮的灰度变化;HSV是根据人眼的视觉原理构建的空间模型,符合人的感官认知,用于图像识别的处理,其中,将RGB转化为HSV的公式如下:
进一步的,YCbCr颜色空间是由亮度(Y)、蓝色分量(Cb)、红色分量(Cr)三种基向量组成的颜色空间模型,YCbCr与HSV相似,可以将亮度信息分离出来,并且与RGB是一种线性转化关系,其中,将RGB转化为YCbCr的计算公式如下:
使用时,处理模块的RGB人脸图像标准化为16*16的大小,然后转化到HSV和YCbCr两种颜色空间上,将两种彩色空间保留作为新的像素级特征,用于更全面的保留真实人脸和欺诈人脸在颜色方面的差异。
实施例三
参照图4,该实施例不同于以上实施例的是:提取BSIF灰度特征,并确定人脸标签的步骤包括:S221:将RGB人脸图转成灰度图像;S222:调整灰度图像大小;S223:提取BSIF特征;S224:利用随机森林判断该BSIF特征的人脸标签y3。具体的,参见图1,其主体结构包括步骤:S1:通过采集设备采集人脸图片,需说明的是,人脸图片为采集设备拍摄的图片或视频截取的图片,而采集设备为摄像头或照相机等设备;S2:提取特征,并确定人脸标签,其中,提取的特征区分为HSV像素特征、YCbCr像素特征、BSIF灰度特征、神经网络卷积特征、LBP特征和HOG特征;S3:对特征进行融合,其中,融合区分为权重融合和分数级融合;以及,S4:判断人脸真假,并响应于显示设备上,其中,显示设备为手机、电脑或电子锁等显示屏,需强调的是,S2和S3步骤位于处理模块中处理,具体的,处理模块是由各种电子元件(控制器、处理器和电池等)以及电路板构成的具有处理功能的器件,本方法将采集的HSV像素特征、YCbCr像素特征、BSIF灰度特征和神经网络卷积特征、LBP特征和HOG特征进行权重融合,大大提高了真假人脸的识别效果,同时提供了鲁棒性,还加快了运行效率;而提取HSV像素特征,并确定人脸标签的步骤包括:S211:通过处理模块将RGB人脸图分别映射到HSV颜色空间和YCbCr颜色空间,并标准化RGB人脸图;S212:提取HSV像素特征和YCbCr像素特征;S213:利用随机森林判断该HSV像素特征和YCbCr像素特征的人脸标签分别为y1和y2,其中,y1和y2均为1或0的列矩阵;而提取BSIF灰度特征,并确定人脸标签的步骤包括:S221:将RGB人脸图转成灰度图像;S222:调整灰度图像大小;S223:提取BSIF特征;S224:利用随机森林判断该BSIF特征的人脸标签y3,其中,y3为1或0的列矩阵。
其中,BSIF灰度特征是以独立分量分析(ICA)为模型,利用自然图像的统计信息进行滤波,其将局部图像块映射到学习到的基向量子空间上,使用阈值为0的线性滤波器对每个像素坐标进行二值化,BSIF有助于描述一些具有异样特征的图片,因此对欺诈人脸在光照、遮挡等条件上的差异较为敏感。
例如,对于大小为l*l的图像块X和同样尺寸的线性滤波器wi,滤波器的响应si和二值化的特征bi表示如下:
对于n个wi滤波器,可以叠加到一个尺度为n*l2的矩阵W中,一次性计算所有的响应:s=W*x。
具体的,通过处理模块将采集设备采集到的原始RGB彩色图像标准化为128*128,并将这些图像转化为灰度图,从相关的滤波器中,选择9*9窗口的滤波器对每一张人脸图像进行特征提取,并将这些分量进行级联,作为最终的BSIF特征。
实施例四
参照图5,该实施例不同于以上实施例的是:提取神经网络卷积特征,并确定人脸标签的步骤包括:S231:搭建一个包含5个卷积层的神经网络;S232:标准化RGB人脸图大小;S233:利用RGB人脸图和平均人脸图做差,得到的新人脸图;S234:新人脸图放入到神经网络中进行卷积;S235:取出第四个卷积层的映射图作为单张人脸图的卷积特征;S236:将RGB人脸图的卷积映射连接起来,得到神经网络卷积特征;S237:利用随机森林判断该神经网络卷积特征的人脸标签y4。具体的,参见图1,其主体结构包括步骤:S1:通过采集设备采集人脸图片,需说明的是,人脸图片为采集设备拍摄的图片或视频截取的图片,而采集设备为摄像头或照相机等设备;S2:提取特征,并确定人脸标签,其中,提取的特征区分为HSV像素特征、YCbCr像素特征、BSIF灰度特征、神经网络卷积特征、LBP特征和HOG特征;S3:对特征进行融合,其中,融合区分为权重融合和分数级融合;以及,S4:判断人脸真假,并响应于显示设备上,其中,显示设备为手机、电脑或电子锁等显示屏,需强调的是,S2和S3步骤位于处理模块中处理,具体的,处理模块是由各种电子元件(控制器、处理器和电池等)以及电路板构成的具有处理功能的器件,本方法将采集的HSV像素特征、YCbCr像素特征、BSIF灰度特征和神经网络卷积特征、LBP特征和HOG特征进行权重融合,大大提高了真假人脸的识别效果,同时提供了鲁棒性,还加快了运行效率;而提取HSV像素特征,并确定人脸标签的步骤包括:S211:通过处理模块将RGB人脸图分别映射到HSV颜色空间和YCbCr颜色空间,并标准化RGB人脸图;S212:提取HSV像素特征和YCbCr像素特征;S213:利用随机森林判断该HSV像素特征和YCbCr像素特征的人脸标签分别为y1和y2,其中,y1和y2均为1或0的列矩阵;而提取BSIF灰度特征,并确定人脸标签的步骤包括:S221:将RGB人脸图转成灰度图像;S222:调整灰度图像大小;S223:提取BSIF特征;S224:利用随机森林判断该BSIF特征的人脸标签y3,其中,y3为1或0的列矩阵;而提取神经网络卷积特征,并确定人脸标签的步骤包括:S231:搭建一个包含5个卷积层的神经网络;S232:标准化RGB人脸图大小;S233:利用RGB人脸图和平均人脸图做差,得到的新人脸图;S234:新人脸图放入到神经网络中进行卷积;S235:取出第四个卷积层的映射图作为单张人脸图的卷积特征;S236:将RGB人脸图的卷积映射连接起来,得到神经网络卷积特征;S237:利用随机森林判断该神经网络卷积特征的人脸标签y4,其中,y4为1或0的列矩阵。
具体的,搭建一个包含5个卷积层的神经网络,前三个卷积层,每个卷积层之后是一个池化层和激活层,第一个池化层使用最大池化的方式,第二、三池化层使用平均池化的方式,激活层采用relu函数来消除负值并加速训练,在每个卷积层我们对卷积后的特征图进行补0,使得特征图的输入输出尺寸相同,最后在softmax层使用两个神经元进行真假人脸的分类,网络的主体框架如表1所示,包括网络的层数、核的尺寸、步长、输入输出特征图的大小。
层结构 | 核尺寸 | 步长 | 输入图片大小 | 输出图片大小 |
卷积层1 | 5*5 | 1 | 3*(32*32) | 32*(32*32) |
池化层1 | 3*3 | 2 | 32*(32*32) | 32*(16*16) |
卷积层2 | 5*5 | 1 | 32*(16*16) | 32*(16*16) |
池化层2 | 3*3 | 2 | 32*(8*8) | 32*(8*8) |
卷积层3 | 5*5 | 1 | 32*(8*8) | 64*(8*8) |
池化层3 | 3*3 | 2 | 64*(8*8) | 64*(4*4) |
池化层4 | 4*4 | 1 | 64*(4*4) | 64*(1*1) |
池化层5 | 1*1 | 1 | 64*(1*1) | 2*(1*1) |
Softmax | ---- | ---- | 2*(1*1) | 1*2 |
实施例五
该实施例不同于以上实施例的是:HSV像素特征、YCbCr像素特征、BSIF灰度特征和神经网络卷积特征采用权重融合F。具体的,参见图1,其主体包括步骤:S1:通过采集设备采集人脸图片,需说明的是,人脸图片为采集设备拍摄的图片或视频截取的图片,而采集设备为摄像头或照相机等设备;S2:提取特征,并确定人脸标签,其中,提取的特征区分为HSV像素特征、YCbCr像素特征、BSIF灰度特征、神经网络卷积特征、LBP特征和HOG特征;S3:对特征进行融合,其中,融合区分为权重融合和分数级融合;以及,S4:判断人脸真假,并响应于显示设备上,其中,显示设备为手机、电脑或电子锁等显示屏,需强调的是,S2和S3步骤位于处理模块中处理,具体的,处理模块是由各种电子元件(控制器、处理器和电池等)以及电路板构成的具有处理功能的器件,本方法将采集的HSV像素特征、YCbCr像素特征、BSIF灰度特征和神经网络卷积特征、LBP特征和HOG特征进行权重融合,大大提高了真假人脸的识别效果,同时提供了鲁棒性,还加快了运行效率;而提取HSV像素特征,并确定人脸标签的步骤包括:S211:通过处理模块将RGB人脸图分别映射到HSV颜色空间和YCbCr颜色空间,并标准化RGB人脸图;S212:提取HSV像素特征和YCbCr像素特征;S213:利用随机森林判断该HSV像素特征和YCbCr像素特征的人脸标签分别为y1和y2,其中,y1和y2均为1或0的列矩阵;而提取BSIF灰度特征,并确定人脸标签的步骤包括:S221:将RGB人脸图转成灰度图像;S222:调整灰度图像大小;S223:提取BSIF特征;S224:利用随机森林判断该BSIF特征的人脸标签y3,其中,y3为1或0的列矩阵;而提取神经网络卷积特征,并确定人脸标签的步骤包括:S231:搭建一个包含5个卷积层的神经网络;S232:标准化RGB人脸图大小;S233:利用RGB人脸图和平均人脸图做差,得到的新人脸图;S234:新人脸图放入到神经网络中进行卷积;S235:取出第四个卷积层的映射图作为单张人脸图的卷积特征;S236:将RGB人脸图的卷积映射连接起来,得到神经网络卷积特征;S237:利用随机森林判断该神经网络卷积特征的人脸标签y4,其中,y4为1或0的列矩阵。而HSV像素特征、YCbCr像素特征、BSIF灰度特征和神经网络卷积特征采用权重融合F,权重融合F采用如下公式计算:
其中,y为特征预测的人脸标签矩阵,即y=[y1,y2,y3,y4];
其中,为最优权重,最优权重采用最小二乘法S(y)公式计算;
其中,S(y)=||yw-Y||2
该方程的具体解法如下:
||yw-Y||2
=(yw-Y)T(yw-Y)
=(wTyT-YT)(yw-Y)
=wTyTyw-2wTyTY+YTY
对于上式w求导得:
当时,S(y)取最小值:
对S(y)进行微分求最值,可得到:
其中,w为预测结果的权重矩阵,Y为人脸图像的实际标签矩阵。
实施例六
参照图6,为本发明的第六个实施例,该实施例不同于以上实施例的是:提取HOG特征和LBP特征,并确定人脸标签的步骤包括:S241:将RGB人脸图转化成灰度图;S242:确定灰度图的像素并计算梯度大小和方向,同时使用LBP算子对灰度人脸图进行特征提取;S243:根据不同的方向计算直方图和灰度直方图的分别级联;S244:提取HOG特征和LBP特征;S245:筛选特征;S246:利用支持向量机判断该HOG特征和LBP特征的人脸标签。具体的,参见图1,其主体结构包括步骤:S1:通过采集设备采集人脸图片,需说明的是,人脸图片为采集设备拍摄的图片或视频截取的图片,而采集设备为摄像头或照相机等设备;S2:提取特征,并确定人脸标签,其中,提取的特征区分为HSV像素特征、YCbCr像素特征、BSIF灰度特征、神经网络卷积特征、LBP特征和HOG特征;S3:对特征进行融合,其中,融合区分为权重融合和分数级融合;以及,S4:判断人脸真假,并响应于显示设备上,其中,显示设备为手机、电脑或电子锁等显示屏,需强调的是,S2和S3步骤位于处理模块中处理,具体的,处理模块是由各种电子元件(控制器、处理器和电池等)以及电路板构成的具有处理功能的器件,本方法将采集的HSV像素特征、YCbCr像素特征、BSIF灰度特征和神经网络卷积特征、LBP特征和HOG特征进行权重融合,大大提高了真假人脸的识别效果,同时提供了鲁棒性,还加快了运行效率;而提取HOG特征和LBP特征,并确定人脸标签的步骤包括:S241:将RGB人脸图转化成灰度图(如图图7);S242:确定灰度图的像素并计算梯度大小和方向,同时使用LBP算子对灰度人脸图进行特征提取;S243:根据不同的方向计算直方图和灰度直方图的分别级联;S244:提取HOG特征和LBP特征;S245:筛选特征;S246:利用支持向量机判断该HOG特征和LBP特征的人脸标签,其中,筛选特征采用方差选择法和主成分分析法。
其中,LBP是一种用于图像纹理处理的局部灰度描述算子,LBP特征的原理(如图8所示):在某一窗口范围内,以窗口的中心像素为阈值,并与相邻的像素进行比较,若周围像素小于阈值像素则记为0,否则记为1,将周围像素的二进制数转化十进制,即得到中心像素的LBP值,LBP算子采用公式如下:
其中,(xc,yc)表示中心像素的坐标,像素值为gc,p表示以R为半径,领域上像素的个数,gi表示领域像素;在此LBP特征提取选择半径为1的8邻域LBP算子对每个人脸图像提取LBP特征,将直方图级联作为整个图像的LBP特征。
其中,HOG(方向梯度直方图)特征是一种在计算机视觉和图像处理中用来进行物体检测的特征描述子,HOG特征通过计算和统计图像局部区域的梯度方向直方图来构成特征,其对图形的几何和光学变化有很好的稳定性,在细粒度的尺度抽样、细粒度的方向选择上有较好的检测结果,在人脸欺诈中,由于真实人脸与照片、视频人脸相比,眼睛、嘴巴部位有着一定的凹凸痕迹,HOG特征能用于对真假人脸的判别,在此采用在8*8尺度上对人脸的每个区域计算像素的梯度大小和方向,根据不同的方向计算直方图,将每个区域直方图级联作为整个图像的HOG特征。
其中,方差的大小可以衡量信息量的丰富程度,提取到的LBP特征和HOG特征先用方差法分别对这两种特征进行粗过滤,去除各自内部方差较小的特征,然后将两种特征进行级联作为新的特征,使用主成分分析法再进行一次特征筛选,这样可以更大可能地去除冗余特征,提高运行效率。
在此假设L为m*n的LBP特征矩阵,其中m为样本数,n为特征的维数,对于第j列的特征T,其方差选择法的计算公式如下:
其中ti为第i个样本第j列的特征,μ为第j列特征的均值,σj为第j列特征的方差,即可以计算出每一列特征的方差σ1,σ2,.......σn,将每一列特征按照方差递减进行降序排序,然后取出方差较大的前k维作为新的LBP特征,HOG特征也按照相同的方法进行筛选,然后将得到的两种新的特征级联,用主成分分析法再进行一次降维。
实施例七
参照图11,为本发明的第七个实施例,该实施例不同于以上实施例的是:对特征进行融合采用分数级融合判断真假。具体的,参见图1,其主体包括步骤:S1:通过采集设备采集人脸图片,需说明的是,人脸图片为采集设备拍摄的图片或视频截取的图片,而采集设备为摄像头或照相机等设备;S2:提取特征,并确定人脸标签,其中,提取的特征区分为HSV像素特征、YCbCr像素特征、BSIF灰度特征、神经网络卷积特征、LBP特征和HOG特征;S3:对特征进行融合,其中,融合区分为权重融合和分数级融合;以及,S4:判断人脸真假,并响应于显示设备上,其中,显示设备为手机、电脑或电子锁等显示屏,需强调的是,S2和S3步骤位于处理模块中处理,具体的,处理模块是由各种电子元件(控制器、处理器和电池等)以及电路板构成的具有处理功能的器件,本方法将采集的HSV像素特征、YCbCr像素特征、BSIF灰度特征和神经网络卷积特征、LBP特征和HOG特征进行权重融合,大大提高了真假人脸的识别效果,同时提供了鲁棒性,还加快了运行效率。而特征进行融合采用分数级融合判断真假,其中,HSV像素特征、YCbCr像素特征、BSIF灰度特征、神经网络卷积特征、LBP特征和HOG特征选取的特征不同以及使用分类器效果的不同,在此采用求和规则,调试分类效果的比重,通过最终的分数级融合,对一张图片属于真实人脸还是欺诈攻击的人脸做出最终的判断。
进一步的,为了测试实验的效果,在两个常用的人脸反欺诈数据集CAIS FASD和Replay-Attack上进行实验,其中,CASIA FASD是由真实人脸视频和欺诈人脸视频构成的,在此,将视频由50个参与人员分成不想交的两组拍摄而成,包括一个训练集(20个子集)和一个测试集(30个子集),欺诈攻击的种类有3种:(1)扭曲的照片攻击,即通过弯曲照片来模拟人的脸部运动;(2)切割照片攻击(照片面具),即剪掉照片的眼睛区域,欺诈者藏在照片后面,通过小孔眨眼模拟真实人脸;(3)视频攻击,即录制合法人员的脸部活动,制成视频,冒充真实人脸,是真是人脸还是欺诈攻击,制成的视频都有:低质、正常画质、高清,三种分辨率,参照图9显示了CSAIA FASD的一个样例,其中每一列分别是:真实人脸照片、扭曲的照片攻击、切割的照片攻击、视频攻击,每一行分别表示:低质、正常画质、高清的照片。
进一步的,Replay-Attack是一个人脸视频数据集,是由50个参与者拍摄而成的视频集,数据集由1200个mov格式的视频构成,包括训练集、测试集、验证集三部分(分别是360个视频、480个视频、360个视频),其中训练集和验证集分别由60个真实人脸视频、150个手持拍欺诈摄视频和150个固定拍摄欺诈视频组成。测试集是由80个真实人脸视频、200个手持拍摄欺诈视频和200个固定拍摄欺诈视频,视频在两种光照环境下拍摄:(1)可控环境,即场景的背景是相同的,并使用荧光灯作为照明光源;(2)恶劣环境,即场景的背景是不一致的,以太阳光作为光源;数据集包括三种欺诈攻击方式:(1)打印攻击,即将高分辨率的真实人脸照片打印在A4纸上,并拍摄成视频;(2)移动(手机)攻击,即真实人脸在iPhone 3GS(分辨率480*320)上拍摄成视频后,在摄像头前二次成像拍摄的视频;(3)高清(平板)攻击,即真实人脸在iPad(分辨率1024*768)上拍摄成视频后,在摄像头前二次成像拍摄的视频,图10显示了Replay-Attack数据集的一个样例,其中每一列分别表示:真实人脸、打印攻击、iPhone视频攻击、iPad视频攻击,第一行是可控环境下拍摄的视频,第二行是自然环境下拍摄的视频。
FRR(误拒率)、FAR(误识率)是用于评价实验结果优劣的两个指标,当FRR越小时,表示真实人脸被错误识别而误判的可能性越低,当FAR越小时,表示欺诈攻击被误判成真实人脸的可能性越低,但判断依据又是相互矛盾的,其中的一个降低必然导致另一个的升高,使用等错误率(Equal Error Rate,简称EER)和半总错误率(HalfTotal Error Rate,简称HTER)作为评价指标,将FAR和FRR放入同一坐标系中,FAR是随阈值增大而减小的,FRR是随阈值增大而增大的,它们有交点;这个点是在某个阈值下的FAR与FRR等值的点,即EER,HTER表示FAR和FRR的均值,计算方法为:HTER=(FRR+FAR)/2,当这两个参数越小时,***的性能越好,从而能综合评价实验的优劣。
实验在一个64GB内存的工作站上进行,它有11GB的RAM和GTX1080Ti显卡,程序的编程是由Matlab2016a完成,对于Replay-Attack视频数据集,每隔4帧抽取一张图片,共得到训练集图片23215张、测试集图片30646张、验证集图片23136张,对于CASIA FASD视频数据集,由于缺少验证集,从20个从训练子集中取出10个子集,从30个测试子集中取出10个子集组合成验证集,以便使用最小二乘法计算得最优权重,对于CASIA FASD数据集,每隔5帧抽出一张人脸图片,共得到训练集图片9126张、测试集图片13308张、验证集图片9000张,对于每一张人脸图片都归一化为128*128的大小,在特征选择部分保留HOG特征方差较大的前80%特征,对于LBP特征保留方差较大的前30%部分,在级联进行主成分分析时,保留贡献率较大的前90%特征作为最终筛选的特征。在最终的分数级融合时,经过多次调参实验,将最小二乘融合部分和特征选择部分的权重分别设置为0.8:0.2,这样得到的实验结果更加优异,表2和表3分别显示了实验得到的结果。
CASIA | EER(等错误率) | HTER(半总错误率) |
HSV像素特征 | 6.58 | 7.46 |
YCbCr像素特征 | 7.39 | 8.30 |
BSIF灰度特征 | 9.64 | 9.12 |
神经网络卷积特征 | 11.61 | 10.20 |
权重融合 | 6.43 | 7.26 |
特征选择 | 14.48 | 16.93 |
分数级融合 | 6.24 | 6.90 |
表2 CASIA数据集实验结果
Replay | EER(等错误率) | HTER(半总错误率) |
HSV像素特征 | 6.26 | 4.64 |
YCbCr像素特征 | 4.59 | 4.06 |
BSIF灰度特征 | 15.94 | 15.35 |
神经网络卷积特征 | 11.01 | 10.52 |
权重融合 | 4.15 | 3.76 |
特征选择 | 16.68 | 18.85 |
分数级融合 | 4.08 | 3.54 |
表3 Replay-Attack数据集实验结果
由表2可以看出,在CASIA数据集上单个特征的实验中,效果最好的是HSV颜色空间的像素特征,EER和HTER分别是6.58和7.46;在通过权重融合的方法之后,实验的EER和HTER有了些许降低,分别是6.43和7.26;由表3可以看出,在Replay-Attack数据集上单个特征的实验中,效果最好的是YCbCr颜色空间的像素特征,EER和HTER分别是4.59和4.06,在经过最优权重的自适应融合判别之后,EER和HTER分别有了一定的降低,分别是4.15和3.76;由此看出,因为两种数据集是由不同的设备、在不同的环境下拍摄的,不同的颜色对于实验的效果也会有影响;在经过最终的分数级融合之后,实验得到了更好的结果,在CASIA数据集上EER和HTER分别降低到了6.24和6.90,在Replay-Attack数据集上EER和HTER分别降低到了4.08和3.54;从灰度图像中提取的特征分类效果明显比彩色特征要差,尤其是特征选择中的实验,EER和HTER都比较高,可能提出的这种关于灰度特征提取的方法不适合视频图像;从CNN中提取的卷积特征,它的效果也是一般,可能与输入初始图像的大小有关,设置了32*32的图像大小,可能造成了图像信息的损失,在两个数据集上的EER和HTER都有了不同程度的降低,说明我们的融合方法是有效的。
本发明将颜色特征、神经网络的卷积特征、传统的纹理特征相结合,使得本专利的算法相对于单一特征有着更好的鲁棒性;使用最小二乘法对各种特征的判别结果进行计算,使得特征的判别结果得到了最优组合;使用方差选择法和主成分分析法相结合,对特征进行选择,去除了冗余信息,提高运算效率
应理解的是,在任何实际实施方式的开发过程中,如在任何工程或设计项目中,可做出大量的具体实施方式决定。这样的开发努力可能是复杂的且耗时的,但对于那些得益于此公开内容的普通技术人员来说,不需要过多实验,所述开发努力将是一个设计、制造和生产的常规工作。
应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (10)
1.一种基于权重融合与特征选择的双流人脸反欺诈检测方法,其特征在于:包括,
通过采集设备采集人脸图片;
提取特征,并确定人脸标签;
对特征进行融合;以及,
判断人脸真假,并响应于显示设备上;
其中,所述特征包括HSV像素特征、YCbCr像素特征、BSIF灰度特征和神经网络卷积特征、LBP特征和HOG特征;
其中,所述融合区分为权重融合和分数级融合。
2.如权利要求1所述的基于权重融合与特征选择的双流人脸反欺诈检测方法,其特征在于:所述提取HSV像素特征和YCbCr像素特征,并确定人脸标签的步骤包括:
将RGB人脸图分别映射到HSV颜色空间和YCbCr颜色空间,并标准化RGB人脸图;
提取HSV像素特征和YCbCr像素特征;
利用随机森林判断该HSV像素特征和YCbCr像素特征的人脸标签分别为y1和y2;
其中,y1和y2均为1或0的列矩阵;
其中,HSV颜色空间为色调、饱和度、亮度颜色空间;
其中,所述YCbCr颜色空间为亮度、蓝色分量、红色分量颜色空间。
3.如权利要求2所述的基于权重融合与特征选择的双流人脸反欺诈检测方法,其特征在于:所述提取BSIF灰度特征,并确定人脸标签的步骤包括:
将RGB人脸图转成灰度图像;
调整所述灰度图像大小;
提取BSIF特征;
利用随机森林判断该BSIF特征的人脸标签y3;
其中,所述y3为1或0的列矩阵。
4.如权利要求3所述的基于权重融合与特征选择的双流人脸反欺诈检测方法,其特征在于:提取神经网络卷积特征,并确定人脸标签的步骤包括:
搭建一个包含5个卷积层的神经网络;
标准化RGB人脸图大小;
利用RGB人脸图和平均人脸图做差,得到的新人脸图;
新人脸图放入到神经网络中进行卷积;
取出第四个卷积层的映射图作为单张人脸图的卷积特征;
将RGB人脸图的卷积映射连接起来,得到神经网络卷积特征;
利用随机森林判断该神经网络卷积特征的人脸标签y4;
其中,y4为1或0的列矩阵。
5.如权利要求4所述的基于权重融合与特征选择的双流人脸反欺诈检测方法,其特征在于:所述HSV像素特征、YCbCr像素特征、BSIF灰度特征和神经网络卷积特征采用权重融合F,所述权重融合F采用如下公式计算;
其中,y为特征预测的人脸标签矩阵,即y=[y1,y2,y3,y4],
其中,为最优权重,所述最优权重采用最小二乘法S(y)公式计算;
其中,S(y)=||yw-Y||2
当时,S(y)取最小值:
对S(y)进行微分求最值,可得到:
其中,w为预测结果的权重矩阵,Y为人脸图像的实际标签矩阵。
6.如权利要求1~5任一所述的基于权重融合与特征选择的双流人脸反欺诈检测方法,其特征在于:所述提取HOG特征和LBP特征,并确定人脸标签的步骤包括:
将RGB人脸图转化成灰度图;
确定灰度图的像素并计算梯度大小和方向,同时使用LBP算子对灰度人脸图进行特征提取;
根据不同的方向计算直方图和灰度直方图的分别级联;
提取HOG特征和LBP特征;
筛选特征;
利用支持向量机判断该HOG特征和LBP特征的人脸标签。
7.如权利要求6所述的基于权重融合与特征选择的双流人脸反欺诈检测方法,其特征在于:所述LBP算子采用公式如下:
其中,(xc,yc)表示中心像素的坐标,像素值为gc,p表示以R为半径,领域上像素的个数,gi表示领域像素。
8.如权利要求6或7所述的基于权重融合与特征选择的双流人脸反欺诈检测方法,其特征在于:所述筛选特征采用方差选择法和主成分分析法。
9.如权利要求8所述的基于权重融合与特征选择的双流人脸反欺诈检测方法,其特征在于:所述方差选择法的计算公式如下:
其中,m为样本数,n为特征的维数,m*n为特征矩阵,对于第j列的特征T,ti为第i个样本第j列的特征,μ为第j列特征的均值,σj为第j列特征的方差。
10.如权利要求1~5、7和9任一所述的基于权重融合与特征选择的双流人脸反欺诈检测方法,其特征在于:所述对特征进行融合采用分数级融合判断真假。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910231686.8A CN109948566B (zh) | 2019-03-26 | 2019-03-26 | 一种基于权重融合与特征选择的双流人脸反欺诈检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910231686.8A CN109948566B (zh) | 2019-03-26 | 2019-03-26 | 一种基于权重融合与特征选择的双流人脸反欺诈检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109948566A true CN109948566A (zh) | 2019-06-28 |
CN109948566B CN109948566B (zh) | 2023-08-18 |
Family
ID=67011050
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910231686.8A Active CN109948566B (zh) | 2019-03-26 | 2019-03-26 | 一种基于权重融合与特征选择的双流人脸反欺诈检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109948566B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110991374A (zh) * | 2019-12-10 | 2020-04-10 | 电子科技大学 | 一种基于rcnn的指纹奇异点检测方法 |
CN111259831A (zh) * | 2020-01-20 | 2020-06-09 | 西北工业大学 | 基于重组颜色空间的虚假人脸判别方法 |
CN112069891A (zh) * | 2020-08-03 | 2020-12-11 | 武汉大学 | 一种基于光照特征的深度伪造人脸鉴别方法 |
CN112070041A (zh) * | 2020-09-14 | 2020-12-11 | 北京印刷学院 | 一种基于cnn深度学习模型的活体人脸检测方法和装置 |
CN112257688A (zh) * | 2020-12-17 | 2021-01-22 | 四川圣点世纪科技有限公司 | 一种基于gwo-oselm的非接触式手掌活体检测方法及装置 |
CN112288045A (zh) * | 2020-12-23 | 2021-01-29 | 深圳神目信息技术有限公司 | 一种***真伪判别方法 |
CN112446228A (zh) * | 2019-08-27 | 2021-03-05 | 北京易真学思教育科技有限公司 | 视频检测方法、装置、电子设备及计算机存储介质 |
CN116403270A (zh) * | 2023-06-07 | 2023-07-07 | 南昌航空大学 | 一种基于多特征融合的人脸表情识别方法及*** |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104504365A (zh) * | 2014-11-24 | 2015-04-08 | 闻泰通讯股份有限公司 | 视频序列中的笑脸识别***及方法 |
CN108038456A (zh) * | 2017-12-19 | 2018-05-15 | 中科视拓(北京)科技有限公司 | 一种人脸识别***中的防欺骗方法 |
-
2019
- 2019-03-26 CN CN201910231686.8A patent/CN109948566B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104504365A (zh) * | 2014-11-24 | 2015-04-08 | 闻泰通讯股份有限公司 | 视频序列中的笑脸识别***及方法 |
CN108038456A (zh) * | 2017-12-19 | 2018-05-15 | 中科视拓(北京)科技有限公司 | 一种人脸识别***中的防欺骗方法 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112446228A (zh) * | 2019-08-27 | 2021-03-05 | 北京易真学思教育科技有限公司 | 视频检测方法、装置、电子设备及计算机存储介质 |
CN110991374A (zh) * | 2019-12-10 | 2020-04-10 | 电子科技大学 | 一种基于rcnn的指纹奇异点检测方法 |
CN111259831A (zh) * | 2020-01-20 | 2020-06-09 | 西北工业大学 | 基于重组颜色空间的虚假人脸判别方法 |
CN111259831B (zh) * | 2020-01-20 | 2023-03-24 | 西北工业大学 | 基于重组颜色空间的虚假人脸判别方法 |
CN112069891A (zh) * | 2020-08-03 | 2020-12-11 | 武汉大学 | 一种基于光照特征的深度伪造人脸鉴别方法 |
CN112069891B (zh) * | 2020-08-03 | 2023-08-18 | 武汉大学 | 一种基于光照特征的深度伪造人脸鉴别方法 |
CN112070041A (zh) * | 2020-09-14 | 2020-12-11 | 北京印刷学院 | 一种基于cnn深度学习模型的活体人脸检测方法和装置 |
CN112257688A (zh) * | 2020-12-17 | 2021-01-22 | 四川圣点世纪科技有限公司 | 一种基于gwo-oselm的非接触式手掌活体检测方法及装置 |
CN112288045A (zh) * | 2020-12-23 | 2021-01-29 | 深圳神目信息技术有限公司 | 一种***真伪判别方法 |
CN116403270A (zh) * | 2023-06-07 | 2023-07-07 | 南昌航空大学 | 一种基于多特征融合的人脸表情识别方法及*** |
CN116403270B (zh) * | 2023-06-07 | 2023-09-05 | 南昌航空大学 | 一种基于多特征融合的人脸表情识别方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN109948566B (zh) | 2023-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109948566B (zh) | 一种基于权重融合与特征选择的双流人脸反欺诈检测方法 | |
CN111488756B (zh) | 基于面部识别的活体检测的方法、电子设备和存储介质 | |
CN111401372B (zh) | 一种扫描文档图文信息提取与鉴别的方法 | |
CN112686812B (zh) | 银行卡倾斜矫正检测方法、装置、可读存储介质和终端 | |
CN111738064B (zh) | 一种雾霾图像的雾浓度识别方法 | |
CN109086723B (zh) | 一种基于迁移学习的人脸检测的方法、装置以及设备 | |
CN106610969A (zh) | 基于多模态信息的视频内容审查***及方法 | |
CN109740572A (zh) | 一种基于局部彩色纹理特征的人脸活体检测方法 | |
CN107209942A (zh) | 对象检测方法和图像检索*** | |
CN111160194B (zh) | 一种基于多特征融合的静态手势图像识别方法 | |
CN110969171A (zh) | 基于改进卷积神经网络的图像分类模型、方法及应用 | |
CN113011253B (zh) | 基于ResNeXt网络的人脸表情识别方法、装置、设备及存储介质 | |
CN113435407B (zh) | 一种输电***的小目标识别方法及装置 | |
CN111222433A (zh) | 自动人脸稽核方法、***、设备及可读存储介质 | |
CN109325434A (zh) | 一种多特征的概率主题模型的图像场景分类方法 | |
CN112102207A (zh) | 一种确定温度的方法、装置、电子设备及可读存储介质 | |
CN114863125A (zh) | 一种书法/美术作品智能评分方法及*** | |
Utaminingrum et al. | Alphabet Sign Language Recognition Using K-Nearest Neighbor Optimization. | |
CN117557784B (zh) | 目标检测方法、装置、电子设备及存储介质 | |
CN113129390A (zh) | 一种基于联合显著性的色盲图像重新着色方法及*** | |
CN110910497B (zh) | 实现增强现实地图的方法和*** | |
CN103902965B (zh) | 空域共生图像表示方法及其在图像分类、识别中的应用 | |
CN110188693B (zh) | 改进的复杂环境车辆特征提取和停车判别方法 | |
CN111914750A (zh) | 去除高亮特征和方向梯度直方图的面部活体检测方法 | |
CN110858304A (zh) | 一种身份证图像识别的方法及其设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |