CN116844198A - 一种检测人脸攻击的方法及*** - Google Patents
一种检测人脸攻击的方法及*** Download PDFInfo
- Publication number
- CN116844198A CN116844198A CN202310589807.2A CN202310589807A CN116844198A CN 116844198 A CN116844198 A CN 116844198A CN 202310589807 A CN202310589807 A CN 202310589807A CN 116844198 A CN116844198 A CN 116844198A
- Authority
- CN
- China
- Prior art keywords
- face
- detected
- mapping model
- image
- face image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000013507 mapping Methods 0.000 claims abstract description 111
- 238000001514 detection method Methods 0.000 claims abstract description 94
- 238000012549 training Methods 0.000 claims abstract description 40
- 238000000605 extraction Methods 0.000 claims abstract description 28
- 230000002159 abnormal effect Effects 0.000 claims abstract description 6
- 238000009826 distribution Methods 0.000 claims description 70
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000010276 construction Methods 0.000 claims description 12
- 230000015572 biosynthetic process Effects 0.000 claims description 9
- 238000003786 synthesis reaction Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000010146 3D printing Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000035800 maturation Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Collating Specific Patterns (AREA)
Abstract
本发明公开了一种检测人脸攻击的方法及***,该方法包括以下步骤:S1:构建人脸图像数据集;S2:训练人脸映射模型;所述人脸映射模型包括人脸特征提取模型和人脸特征映射模型;S3:构建人脸攻击检测阈值;S4:获取待检测人脸图像;S5:计算待检测人脸参数,获得人脸攻击检测结果;将所述待检测人脸图像输入所述人脸映射模型,计算所述待检测人脸参数;根据所述待检测人脸参数与所述人脸攻击检测阈值间的关系得到所述人脸攻击检测结果。本发明方法通过仅对正常人脸样本的学习,通过端到端的训练建立了人脸映射模型,实现非正常(伪装)人脸的识别,无需各类攻击的人脸样本,计算量小,识别精度高可成功实现各种伪装人脸的精准识别。
Description
技术领域
本发明涉及生物识别技术领域,尤其涉及一种检测人脸攻击的方法及***。
背景技术
随着人工智能技术的快速发展,人脸识别技术也得到了长足的进步,与此同时人脸攻击技术也越来越先进。人脸伪装攻击检测作为人脸识别领域的一个重要研究分支,受到了科研工作人员的广泛关注。人脸伪装人脸大致分为两大类:基于人脸配合的方式和基于静态图像的检测方式。其中基于人脸配合的方式为,强制要求用于眨眼、张嘴、摇头和点头等方式,此类方式需要人为配合显得不太友好。基于静态图像的检测方式不需要人为参与,但是存在的问题在于:静态图像伪装成本低但技术检测难度大一直备受质疑。因为静态图像的伪装技术主要包括三类:照片、视频和3D面具,近年来,得益于多个大规模、高质量的基准数据集的发布,照片伪装的识别取得了很大进展,然而,随着3D打印技术的成熟,面具已经成为威胁人脸识别***安全的一种新型攻击方式。
在计算机视觉领域中,攻击者使用算法生成特定的噪声并添加到原始图像中,从而生成具有攻击效果的图像对抗样本,对抗样本的初始定义是基于特定图像的攻击,现有技术为了实现人脸攻击的识别,首先从互联网收集正常人脸图片作为训练集,训练人脸识别模型,得到识别准确率高的人脸识别目标攻击模型;其次,利用该目标攻击模型监督WGAN-GP中生成器的人脸对抗样本生成,并进行人脸的局部扰动,生成视觉质量较高的人脸对抗样本,通过对检测图像识别出输入图像是否为人脸对抗样本进行人脸攻击识别,当检测为人脸对抗样本,则终止人脸识别业务并报出终止原因。
典型的对抗样本检测包括有监督的发现方法与无监督的发现方法。有监督方法需要生产大量的人脸对抗样本,对数据进行标注后形成训练数据集,然后再进行有监督的训练,从而得到一个人脸对抗样本分类器,能够区分哪些图像是对抗样本,哪些是正常人脸图像。
现有技术为了实现人脸攻击的识别需要构建大量的人脸对抗样本,计算量大,且Athalye等人的实验证明3D打印技术可用于构造物理对抗样本,并成功欺骗深度神经网络分类器。
有鉴于此,特提出本申请。
发明内容
本发明的发明目的是针对现有技术的不足,提供了一种检测人脸攻击的方法及***,只需要正常的人脸图像而无需学习伪装图像,大大降低了问题的难度,提升了检测精度。
第一方面,本申请提供一种检测人脸攻击的方法,包括以下步骤:
S1:构建人脸图像数据集;
所述人脸图像数据集为正常人脸图像集;所述正常人脸图像集中的人脸图像为不含伪装的人脸图像,所述伪装包括人脸面具或视频人脸或人脸合成;
S2:训练人脸映射模型;
通过所述人脸图像数据集构建所述人脸映射模型,所述人脸映射模型包括人脸特征提取模型和人脸特征映射模型;采用所述人脸映射模型将人脸图像映射到正常人脸分布空间;
S3:构建人脸攻击检测阈值;
所述人脸攻击检测阈值用于判断人脸图像中是否是含有所述伪装;
S4:获取待检测人脸图像;
采集待检测图像,对所述待检测图像进行处理,得到所述待检测人脸图像;
S5:计算待检测人脸参数,获得人脸攻击检测结果;
将所述待检测人脸图像输入所述人脸映射模型,计算所述待检测人脸参数;
根据所述待检测人脸参数与所述人脸攻击检测阈值间的关系得到所述人脸攻击检测结果。
优选地,在步骤S1中,所述人脸图像数据集包括MegaFace数据集或CelebFaces数据集中的所述正常人脸图像集。
优选地,在步骤S2中,所述人脸映射模型由所述人脸特征提取模型和所述人脸特征映射模型串联构成,所述人脸特征提取模型的输出为所述人脸特征映射模型的输入,所述人脸特征提取模型的输出为一维向量。
优选地,在步骤S2中,所述正常人脸分布空间为根据所述人脸图像数据集定义的分布空间。
优选地,步骤S2中,所述训练人脸映射模型的步骤包括:
S21:将所述人脸图像数据集输入到所述人脸映射模型中,通过所述人脸特征提取模型得到人脸特征集,将所述人脸特征集输入所述人脸特征映射模型,得到所述人脸图像数据集中每个人脸图像在所述正常人脸分布空间的分布;
522:采用损失函数计算所述人脸映射模型的误差,并更新所述人脸映射模型的参数,直到所述人脸映射模型收敛。
优选地,所述人脸特征提取模型为深度卷积神经网络,所述人脸特征映射模型为标准流模型,所述正常人脸分布空间为多维标准正态分布。
优选地,步骤S3中,所述构建人脸攻击检测阈值的步骤为:
S31:计算所述人脸映射模型收敛时的所述人脸图像数据集中每个人脸图像在所述正常人脸分布空间的分布,得到最优训练分布;
S32:根据所述最优训练分布,计算所述人脸图像数据集中每个人脸图像的负对数似然值,得到训练样本负对数似然值集;
S33:计算所述训练样本负对数似然值集的均值,得到所述人脸攻击检测阈值。
优选地,步骤S5中,所述计算待检测人脸参数的步骤为:
S51:将所述待检测人脸图像输入所述人脸映射模型中,输出所述待检测人脸图像在所述正常人脸分布空间的分布,得到待检测分布;
S52:根据所述待检测分布,计算所述待检测人脸图像的负对数似然值,得到所述待检测人脸参数。
优选地,步骤S5中,根据所述待检测人脸参数与所述人脸攻击检测阈值间的大小关系得到所述人脸攻击检测结果:
当所述待检测人脸参数>所述人脸攻击检测阈值时,所述人脸攻击检测结果为含有所述伪装,输出异常图像;
当所述待检测人脸参数≤所述人脸攻击检测阈值时,所述人脸攻击检测结果不含有所述伪装,输出正常图像。
第二方面,本申请提供一种检测人脸攻击的***,包括:人脸图像数据集构建模块、人脸映射模型训练模块、人脸攻击检测阈值计算模块、待检测人脸图像构建模块、待检测人脸的参数计算及判断模块;
所述人脸图像数据集构建模块用于获取人脸图像数据集,所述人脸图像数据集为正常人脸图像集;所述正常人脸图像集中的人脸图像为不含伪装的人脸图像,所述伪装包括人脸面具或视频人脸或人脸合成;
所述人脸映射模型训练模块,用于训练人脸映射模型,通过所述人脸图像数据集构建所述人脸映射模型,所述人脸映射模型包括人脸特征提取模型和人脸特征映射模型;采用所述人脸映射模型将人脸图像映射到正常人脸分布空间;
人脸攻击检测阈值计算模块,用于计算人脸攻击检测阈值,所述人脸攻击检测阈值用于判断人脸图像中是否是含有所述伪装;
所述待检测人脸图像构建模块,用于获取待检测人脸图像;
所述待检测人脸的参数计算及判断模块,用于计算待检测人脸参数,并根据所述待检测人脸参数获得人脸攻击检测结果;
将所述待检测人脸图像输入所述人脸映射模型,计算所述待检测人脸参数;
根据所述待检测人脸参数与所述人脸攻击检测阈值间的关系得到所述人脸攻击检测结果。
本发明的有益效果在于:
(1)在人脸识别过程中,人脸伪装方式多种多样,比如合成、人脸3D模型、照片等等,本方案通过仅对正常人脸样本的学习,实现非正常(伪装)人脸的识别,无需各类攻击的人脸样本,计算量小,识别精度高可成功实现各种伪装人脸的精准识别。
(2)本发明通过人脸映射模型得到人脸图像在正常人脸分布空间的分布,人脸特征提取模型和人脸特征映射模型串联构成,人脸特征提取模型的输出为人脸特征映射模型的输入,实现端到端的训练,省去了在每一个独立学习任务执行之前所做的数据标注,减少了人工参与带来的人脸识别误差,更加简洁同时效果更好。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为一种检测人脸攻击的方法的流程示意图。
图2为一种检测人脸攻击的方法步骤S2的流程示意图。
图3为一种检测人脸攻击的方法步骤S3的流程示意图。
图4为一种检测人脸攻击的方法步骤S5的流程示意图。
图5为一种检测人脸攻击的***的组成框图。
具体实施方式
下面结合附图及实施例,对本发明进行进一步详细说明,以使本发明的目的、技术方案及优点更加清楚明白。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
由背景技术可知,基于对抗样本的人脸识别方法是识别人脸伪装攻击最主要的方法,通过该方法实现人脸攻击的识别需要构建大量的人脸对抗样本,计算量大;同时随着技术发展,发起攻击所使用的人脸伪装方式亦不断优化,例如3D打印技术可用于构造物理对抗样本,并成功欺骗深度神经网络分类器,现有识别方案已无法满足伪装攻击识别的需要。
因此,本发明实施例提供了一种检测人脸攻击的方法,通过对正常人脸图像集的学习建立人脸映射模型,通过人脸映射模型获取待检测人脸图像在正常人脸定义的分布空间的分布,基于人脸图像的分布特征获取相应的检测参数,对非常人脸图像进行识别,可实现合成、人脸3D模型、照片等伪装的识别,提高人脸识别攻击的检测准确度。
本发明实施例提供了一种检测人脸攻击的方法,所述方法的方法流程图如图1所示,包括以下步骤:
S1:构建人脸图像数据集;人脸图像数据集为正常人脸图像集;正常人脸图像集中的人脸图像为不含伪装的人脸图像,伪装包括人脸面具或视频人脸或人脸合成。
本发明实施例提供的方法中,人脸图像数据集中的图像为正常人脸图像,不含如人脸面具、视频人脸及人脸合成等伪装的人脸图像。
S2:训练人脸映射模型;通过人脸图像数据集的构建人脸映射模型,人脸映射模型包括人脸特征提取模型和人脸特征映射模型;采用人脸映射模型将人脸图像映射到正常人脸分布空间。
本发明实施例提供的方法中,通过对人脸图像数据集的深度学习,获得人脸映射模型,人脸映射模型包括人脸特征提取模型和人脸特征映射模型,将人脸图像输入人脸映射模型得到该人脸图像在正常人脸分布空间的分布,人脸映射模型输出是一个高维的特征向量,这个特征向量满足我们事先设定的正常人脸分布空间。
S3:构建人脸攻击检测阈值;人脸攻击检测阈值用于判断人脸图像中是否是含有伪装。
本发明实施例提供的方法中,通过构建人脸攻击检测阈值用于判断人脸图像中是否是含有伪装,该人脸攻击检测阈值与人脸图像数据集有关,即与正常人脸图像的分布特征有关,当人脸图像数据集中正常人脸图像样本越丰富,该人脸攻击检测阈值越精准,简化了人脸伪装判别流程,计算量小。
S4:获取待检测人脸图像;采集待检测图像,对待检测图像进行处理,得到待检测人脸图像。
本发明实施例提供的方法中,首先采集待检测图像,采集到的图像应是含有不同背景的图像,为了消除背景对于人类识别结果的影响,首先需要对图像进行处理,进行待检测图像中人脸目标的提取,获得待检测人脸图像。
S5:计算待检测人脸参数,将获得人脸攻击检测结果;将待检测人脸图像输入人脸映射模型,计算待检测人脸参数;根据待检测人脸参数与人脸攻击检测阈值间的关系得到人脸攻击检测结果。
本发明实施例提供的方法中,将待检测人脸参数与人脸攻击检测阈值间的关系得到人脸攻击检测结果,向管理人员反馈检测结果,以便于进行后续处理,例如,可调取待检测人脸图像对应的人脸识别记录,进一步对相关人脸图像进行对应的用户识别。
基于本发明实施例提供的方法,通过人脸正常图像集的深度学习获得人脸映射模型,同时基于该人脸正常图像集获得相应的人脸攻击检测阈值。为了对采集的待检测图像中人脸攻击进行识别,首先图待检测图像进行预处理得到待检测人脸图像,将待检测人脸图像输入人脸映射模型得到待检测人脸图像在定义的分布空间的分布,基于该分布特征计算待检测人脸参数,根据待检测人脸参数与人脸攻击检测阈值间的关系判断人脸图像中是否是含有伪装。应用本发明实施例提供的方法,通过仅对正常人脸样本的学习,实现非正常(伪装)人脸的识别,无需各类攻击的人脸样本,计算量小,即便是不断优化伪装方式,对于检测的影响也十分有限,识别精度高可成功实现各种伪装人脸的精准识别。
下面结合具体的实施例对图1-4中的各个步骤进行说明。
在步骤S1中,人脸图像数据集包括MegaFace数据集或CelebFaces数据集中的正常人脸图像集。
本实施例中MegaFace数据集共包含690572个身份共1027060张图像。这是第一个在百万规模级别的人脸识别算法测试标准;CelebFaces属性数据集是一个大规模的人脸属性数据集,包含超过200K幅图像,每个图像都有40个属性注释。该数据集中的图像覆盖了较大的姿态变化和背景杂波。CelebA有着巨大的多样性、数量和丰富的注释,包括10177个身份,202599张人脸图像,训练样本的选择保证了识别精度。
在步骤S2中,人脸映射模型由所述人脸特征提取模型和人脸特征映射模型串联构成,人脸特征提取模型的输出为人脸特征映射模型的输入,人脸特征提取模型的输出为一维向量。
本实施例中,人脸映射模型为串联模型,由人脸特征提取模型和人脸特征映射模型串联构成,两个模型之间采用一维向量作为关联,即人脸特征提取模型的输出为一维向量,且该向量作为人脸特征映射模型的输入,从而实现数据的双向流通,在深度学习中的前向运算和梯度更新的反向运算。
在步骤S2中,分布空间在训练模型可以根据识别需求进行设定,可定义一个正常人脸图像的分布空间,本实施例中,正常人脸分布空间为根据人脸图像数据集定义的分布空间。
具体地,本实施例中根据人脸图像数据集中的所有正常人脸图像样本对正常人脸分布空间进行定义,人脸图像数据集中正常人脸图像的样本越多样化所得到的模型精度就越高,通过人脸图像数据集定义的分布空间为均匀分布或正态分布或伽马分布或指数分布。
如图2所示,为了实现人脸映射模型的训练,步骤S2中,训练人脸映射模型的步骤包括:
S21:将人脸图像数据集输入到人脸映射模型中,通过人脸特征提取模型得到人脸特征集,将人脸特征集输入人脸特征映射模型,得到人脸图像数据集中每个人脸图像在分布空间的分布;
522:采用损失函数计算人脸映射模型的误差,并更新人脸映射模型的参数,直到人脸映射模型收敛。
具体地,本实施例中损失函数的公式为:
式中:xi为所述人脸图像数据集中的人脸图像,zi为所述人脸图像在所述正常人脸分布空间的分布,det表示行列式。
本实施例中,人脸映射模型为串联式结构,可实现端到端的训练,省去了在每一个独立学习任务执行之前所做的数据标注,减少了人工参与带来的人脸识别误差,更加简洁同时效果更好。
在本实施例所述模型的基础上,本发明实施例提供了又一种人脸识别攻击的检测方法,人脸特征提取模型为深度卷积神经网络,人脸特征映射模型为标准流模型,分布空间为多维标准正态分布。
如图3所示,步骤S3中,构建人脸攻击检测阈值的步骤为:
S31:计算人脸映射模型收敛时的人脸图像数据集中每个人脸图像在分布空间的分布,得到最优训练分布;
设人脸映射模型为fθ,通过S31得到最优训练分布为fθ(xi);
式中,xi为人脸图像数据集中的人脸图像,i=(1,2,3……n),其中,n为人脸图像数据集中样本的总数;
S32:根据最优训练分布fθ(xi),计算人脸图像数据集中每个人脸图像的负对数似然值,得到训练样本负对数似然值集τ(xi);
人脸图像的负对数似然值τ(xi)为:
τ(xi)=-logPk(fθ(xi))
式中,k~N(0,1);
S33:计算训练样本负对数似然值集的均值,得到人脸攻击检测阈值τdect。
本实施例中,人脸攻击检测阈值通过人脸图像数据集的训练过程获得,具体地通过人脸映射模型训练达到收敛时的最后一次所有样本的τi值计算检测阈值,最后一次为模型得到的最优值,提高了人脸攻击检测阈值与人脸映射模型的适配性,使得检测阈值更精确。
如图4所示,步骤S5中,计算待检测人脸参数的步骤为:
S51:将待检测人脸图像输入人脸映射模型中,输出待检测人脸图像在分布空间的分布,得到待检测分布;
将待检测人脸图像xtext输入到人脸映射模型中,得到待检测分布fθ(xtext);
S52:根据待检测分布,计算待检测人脸图像的负对数似然值,得到待检测人脸参数。
计算待检测分布fθ(xtext)的负对数似然值τtext(xtext):
τtext(xtext)=-logPk(fθ(xtext))
待检测人脸参数τtext=τtext(xtext)。
进一步地,根据待检测人脸参数τtext与人脸攻击检测阈值τdect间的大小关系得到所述人脸攻击检测结果:
当待检测人脸参数τtext>人脸攻击检测阈值τdect时,人脸攻击检测结果为含有伪装,输出异常图像;
当待检测人脸参数τtext≤人脸攻击检测阈值τdect时,人脸攻击检测结果不含有伪装,输出正常图像。
本实施例中,根据检测人脸参数人脸攻击检测阈值间的大小关系得到人脸攻击检测结果,简化了人脸异常的判别标准,实现快速高效的人脸攻击快速识别。
为了有效提高人脸攻击的识别过程的准确性及可靠性,且能够有效提高在人类攻击识别过程的自动化程度及效率,本申请提供一种检测人脸攻击的方法中全部或部分内容的一种检测人脸攻击的***的实施例,参见图5。
一种检测人脸攻击的***,包括:人脸图像数据集构建模块、人脸映射模型训练模块、人脸攻击检测阈值计算模块、待检测人脸图像构建模块、待检测人脸的参数计算及判断模块;
人脸图像数据集构建模块用于获取人脸图像数据集,人脸图像数据集为正常人脸图像集;正常人脸图像集中的人脸图像为不含伪装的人脸图像,伪装包括人脸面具或视频人脸或人脸合成;
人脸映射模型训练模块,用于训练人脸映射模型,通过人脸图像数据集的构建人脸映射模型,人脸映射模型包括人脸特征提取模型和人脸特征映射模型;采用人脸映射模型将人脸图像映射到正常人脸分布空间;
人脸攻击检测阈值计算模块,用于计算人脸攻击检测阈值,人脸攻击检测阈值用于判断人脸图像中是否是含有伪装;
待检测人脸图像构建模块,用于获取待检测人脸图像;
待检测人脸的参数计算及判断模块,用于计算待检测人脸参数,并根据待检测人脸参数获得人脸攻击检测结果;
将待检测人脸图像输入人脸映射模型,计算待检测人脸参数;
根据待检测人脸参数与人脸攻击检测阈值间的关系得到人脸攻击检测结果。
本实施中的一种检测人脸攻击的***实现了自动化识别且成本低廉、简单便捷、效果明显,其应用解决了人脸伪装类型复杂,用于人脸攻击检测的对抗样本构建过程繁琐,计算量大的问题,可高精度、自动化地实现人脸攻击的快速检测,具有降低工作人员工作量,且提高工作效率的优势。
以上所述仅为发明的优选实例而已,并不用于限制发明,尽管参照前述实例对发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实例记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在发明的精神和原则之内,所做的修改、等同替换等均应包含在发明的保护范围之内。
Claims (10)
1.一种检测人脸攻击的方法,其特征在于,包括以下步骤:
S1:构建人脸图像数据集;
所述人脸图像数据集为正常人脸图像集;所述正常人脸图像集中的人脸图像为不含伪装的人脸图像,所述伪装包括人脸面具或视频人脸或人脸合成;
S2:训练人脸映射模型;
通过所述人脸图像数据集构建所述人脸映射模型,所述人脸映射模型包括人脸特征提取模型和人脸特征映射模型;采用所述人脸映射模型将人脸图像映射到正常人脸分布空间;
S3:构建人脸攻击检测阈值;
所述人脸攻击检测阈值用于判断人脸图像中是否是含有所述伪装;
S4:获取待检测人脸图像;
采集待检测图像,对所述待检测图像进行处理,得到所述待检测人脸图像;
S5:计算待检测人脸参数,获得人脸攻击检测结果;
将所述待检测人脸图像输入所述人脸映射模型,计算所述待检测人脸参数;
根据所述待检测人脸参数与所述人脸攻击检测阈值间的关系得到所述人脸攻击检测结果。
2.根据权利要求1所述的方法,其特征在于,在步骤S1中,所述人脸图像数据集包括MegaFace数据集或CelebFaces数据集中的所述正常人脸图像集。
3.根据权利要求1所述的方法,其特征在于,在步骤S2中,所述人脸映射模型由所述人脸特征提取模型和所述人脸特征映射模型串联构成,所述人脸特征提取模型的输出为所述人脸特征映射模型的输入,所述人脸特征提取模型的输出为一维向量。
4.根据权利要求1所述的方法,其特征在于,在步骤S2中,所述正常人脸分布空间为根据所述人脸图像数据集定义的分布空间。
5.根据权利要求1所述的方法,其特征在于,在步骤S2中,所述训练人脸映射模型的步骤包括:
S21:将所述人脸图像数据集输入到所述人脸映射模型中,通过所述人脸特征提取模型得到人脸特征集,将所述人脸特征集输入所述人脸特征映射模型,得到所述人脸图像数据集中每个人脸图像在所述正常人脸分布空间的分布;
522:采用损失函数计算所述人脸映射模型的误差,并更新所述人脸映射模型的参数,直到所述人脸映射模型收敛。
6.根据权利要求1所述的方法,其特征在于,步骤S2中,所述人脸特征提取模型为深度卷积神经网络,所述人脸特征映射模型为标准流模型,所述正常人脸分布空间为多维标准正态分布。
7.根据权利要求1所述的方法,其特征在于,步骤S3中,所述构建人脸攻击检测阈值的步骤为:
S31:计算所述人脸映射模型收敛时的所述人脸图像数据集中每个人脸图像在所述正常人脸分布空间的分布,得到最优训练分布;
S32:根据所述最优训练分布,计算所述人脸图像数据集中每个人脸图像的负对数似然值,得到训练样本负对数似然值集;
S33:计算所述训练样本负对数似然值集的均值,得到所述人脸攻击检测阈值。
8.根据权利要求1所述的方法,其特征在于,步骤S5中,所述计算待检测人脸参数的步骤为:
S51:将所述待检测人脸图像输入所述人脸映射模型中,输出所述待检测人脸图像在所述正常人脸分布空间的分布,得到待检测分布;
S52:根据所述待检测分布,计算所述待检测人脸图像的负对数似然值,得到所述待检测人脸参数。
9.根据权利要求1所述的方法,其特征在于,步骤S5中,根据所述待检测人脸参数与所述人脸攻击检测阈值间的大小关系得到所述人脸攻击检测结果:
当所述待检测人脸参数>所述人脸攻击检测阈值时,所述人脸攻击检测结果为含有所述伪装,输出异常图像;
当所述待检测人脸参数≤所述人脸攻击检测阈值时,所述人脸攻击检测结果不含有所述伪装,输出正常图像。
10.一种检测人脸攻击的***,其中特征在于,包括:人脸图像数据集构建模块、人脸映射模型训练模块、人脸攻击检测阈值计算模块、待检测人脸图像构建模块、待检测人脸的参数计算及判断模块;
所述人脸图像数据集构建模块用于获取人脸图像数据集,所述人脸图像数据集为正常人脸图像集;所述正常人脸图像集中的人脸图像为不含伪装的人脸图像,所述伪装包括人脸面具或视频人脸或人脸合成;
所述人脸映射模型训练模块,用于训练人脸映射模型,通过所述人脸图像数据集构建所述人脸映射模型,所述人脸映射模型包括人脸特征提取模型和人脸特征映射模型;采用所述人脸映射模型将人脸图像映射到正常人脸分布空间;
人脸攻击检测阈值计算模块,用于计算人脸攻击检测阈值,所述人脸攻击检测阈值用于判断人脸图像中是否是含有所述伪装;
所述待检测人脸图像构建模块,用于获取待检测人脸图像;
所述待检测人脸的参数计算及判断模块,用于计算待检测人脸参数,并根据所述待检测人脸参数获得人脸攻击检测结果;
将所述待检测人脸图像输入所述人脸映射模型,计算所述待检测人脸参数;
根据所述待检测人脸参数与所述人脸攻击检测阈值间的关系得到所述人脸攻击检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310589807.2A CN116844198B (zh) | 2023-05-24 | 2023-05-24 | 一种检测人脸攻击的方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310589807.2A CN116844198B (zh) | 2023-05-24 | 2023-05-24 | 一种检测人脸攻击的方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116844198A true CN116844198A (zh) | 2023-10-03 |
CN116844198B CN116844198B (zh) | 2024-03-19 |
Family
ID=88158906
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310589807.2A Active CN116844198B (zh) | 2023-05-24 | 2023-05-24 | 一种检测人脸攻击的方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116844198B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102096823A (zh) * | 2011-02-12 | 2011-06-15 | 厦门大学 | 基于高斯模型和最小均方差的人脸检测方法 |
KR20190109772A (ko) * | 2018-02-28 | 2019-09-27 | 동국대학교 산학협력단 | 얼굴 인식 시스템의 위조 공격 탐지 장치 및 방법 |
CN112200075A (zh) * | 2020-10-09 | 2021-01-08 | 西安西图之光智能科技有限公司 | 一种基于异常检测的人脸防伪方法 |
CN112200057A (zh) * | 2020-09-30 | 2021-01-08 | 汉王科技股份有限公司 | 人脸活体检测方法、装置、电子设备及存储介质 |
CN112668519A (zh) * | 2020-12-31 | 2021-04-16 | 声耕智能科技(西安)研究院有限公司 | 基于MCCAE网络和Deep SVDD网络的异常人脸识别活体检测方法及*** |
CN115731620A (zh) * | 2022-11-04 | 2023-03-03 | 支付宝(杭州)信息技术有限公司 | 检测对抗攻击的方法和训练对抗攻击检测模型的方法 |
CN115761837A (zh) * | 2022-10-21 | 2023-03-07 | 北京经纬信息技术有限公司 | 人脸识别质量检测方法、***及设备和介质 |
-
2023
- 2023-05-24 CN CN202310589807.2A patent/CN116844198B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102096823A (zh) * | 2011-02-12 | 2011-06-15 | 厦门大学 | 基于高斯模型和最小均方差的人脸检测方法 |
KR20190109772A (ko) * | 2018-02-28 | 2019-09-27 | 동국대학교 산학협력단 | 얼굴 인식 시스템의 위조 공격 탐지 장치 및 방법 |
CN112200057A (zh) * | 2020-09-30 | 2021-01-08 | 汉王科技股份有限公司 | 人脸活体检测方法、装置、电子设备及存储介质 |
CN112200075A (zh) * | 2020-10-09 | 2021-01-08 | 西安西图之光智能科技有限公司 | 一种基于异常检测的人脸防伪方法 |
CN112668519A (zh) * | 2020-12-31 | 2021-04-16 | 声耕智能科技(西安)研究院有限公司 | 基于MCCAE网络和Deep SVDD网络的异常人脸识别活体检测方法及*** |
CN115761837A (zh) * | 2022-10-21 | 2023-03-07 | 北京经纬信息技术有限公司 | 人脸识别质量检测方法、***及设备和介质 |
CN115731620A (zh) * | 2022-11-04 | 2023-03-03 | 支付宝(杭州)信息技术有限公司 | 检测对抗攻击的方法和训练对抗攻击检测模型的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116844198B (zh) | 2024-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Bansal et al. | The do's and don'ts for cnn-based face verification | |
CN109815826B (zh) | 人脸属性模型的生成方法及装置 | |
Chen et al. | Spectral curvature clustering (SCC) | |
CN107341463B (zh) | 一种结合图像质量分析与度量学习的人脸特征识别方法 | |
CN109145717B (zh) | 一种在线学习的人脸识别方法 | |
WO2020253127A1 (zh) | 脸部特征提取模型训练方法、脸部特征提取方法、装置、设备及存储介质 | |
CN107451994A (zh) | 基于生成对抗网络的物体检测方法及装置 | |
CN110929679A (zh) | 一种基于gan的无监督自适应行人重识别方法 | |
WO2019029459A1 (zh) | 用于识别面部年龄的方法、装置和电子设备 | |
CN110796089A (zh) | 用于训练换脸模型的方法和设备 | |
CN112580521B (zh) | 一种基于maml元学习算法的多特征真假视频检测方法 | |
CN112686258A (zh) | 体检报告信息结构化方法、装置、可读存储介质和终端 | |
CN112016454A (zh) | 一种人脸对齐的检测方法 | |
CN111382791B (zh) | 深度学习任务处理方法、图像识别任务处理方法和装置 | |
CN115240280A (zh) | 人脸活体检测分类模型的构建方法、检测分类方法及装置 | |
CN112990120B (zh) | 一种利用相机风格分离域信息的跨域行人重识别方法 | |
CN116844198B (zh) | 一种检测人脸攻击的方法及*** | |
CN113705310A (zh) | 特征学习的方法、目标物体的识别方法和对应装置 | |
CN116347002A (zh) | 一种视频降噪方法、***、设备及存储介质 | |
Dhar et al. | On measuring the iconicity of a face | |
Zavan et al. | Nosepose: a competitive, landmark-free methodology for head pose estimation in the wild | |
CN115457620A (zh) | 用户表情识别方法、装置、计算机设备及存储介质 | |
CN115019367A (zh) | 遗传病面部识别装置及方法 | |
CN114155590A (zh) | 一种人脸识别方法 | |
CN111062484B (zh) | 基于多任务学习的数据集选取方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |