CN112861671B - 一种对深度伪造人脸图像和视频的鉴别方法 - Google Patents
一种对深度伪造人脸图像和视频的鉴别方法 Download PDFInfo
- Publication number
- CN112861671B CN112861671B CN202110110096.7A CN202110110096A CN112861671B CN 112861671 B CN112861671 B CN 112861671B CN 202110110096 A CN202110110096 A CN 202110110096A CN 112861671 B CN112861671 B CN 112861671B
- Authority
- CN
- China
- Prior art keywords
- face
- deep
- forged
- video
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种对深度伪造人脸图像和视频的鉴别方法,包括如下步骤:S1,采集混合训练样本;S2,构建鉴别模型;所述鉴别模型包括两个2D深度卷积神经网络和一个3D深度卷积神经网络;S3,利用所述混合训练样本训练所述鉴别模型;S4,利用训练好的鉴别模型去鉴别待鉴别人脸视频。本发明提出三个改进:(1)采用混合训练样本提高泛化性能;(2)分别采用大边缘和小边缘的人脸中心剪裁图像训练两个2D深度,提高预测鲁棒性深度卷积神经网络,提高预测鲁棒性;(3)使用3D深度卷积神经网络能利用帧间一致性信息,提高信息利用率;由此,本发明能够解决现有技术对新型伪造视频的辨别能力较差的问题。
Description
技术领域
本发明具体涉及一种对深度伪造人脸图像和视频的鉴别方法。
背景技术
对伪造视频的检测方法可以分为两类:一是基于帧间时间特性的方法(Temporalfeatures across frames),利用视频内人眨眼频率、嘴型等时间相关的特性进行判断,通常使用递归分类方法;二是基于帧内视觉效果的方法(Visual artifacts within frame),利用图像边缘的瑕疵以及五官位置、面部阴影等不自然的细节进行判断,通常提取特定特征后用深层或浅层的分类器完成检测。
此外,亦有研究人员提出使用可追溯、不可篡改的区块链技术对深度伪造视频进行追溯。2019年3月,***联合酋长国哈利法大学电气与计算机工程系研究人员发表名为《使用区块链和智能合约打击深度伪造视频》(Combating Deepfake Videos UsingBlockchain and Smart Contracts)的论文,提出使用区块链的解决方案和通用框架,以追踪数字内容的来源和历史,即使数字内容被多次复制也可对其进行溯源。该论文提供的解决方案框架具有普适性,亦可应用于任何其他形式的数字内容。
具体成果方面:
2017年8月,新加坡信息通信研究所网络安全小组发表名为《自动人脸交换及其检测》(Automated face swapping and its detection)的论文,第一次提出AI换脸检测框架,检测准确率达到92%。从此,业界对于人工智能换脸技术及检测技术的研究进入白热化阶段,企业、高校及个人开发者纷纷投入对人工智能换脸检测工具的开发。
2019年6月,美国加州大学伯克利分校和南加州大学研究人员通过已有的非伪造视频,收集视频中个人的特征,构建高度个人化的“软生物识别指标”体系。识别***在掌握个人的微表情和行为习惯后,鉴伪准确率可达到95%。美国Adobe公司也于2019年6月推出反向PS(Photoshop,全球使用最广泛的修图软件,此处意为“编辑图片”)工具。依托于AI算法,该工具可自动识别出人像图片中经过图像液化工具修改的部分,并将其还原成初始样貌,准确率高达99%。
为帮助研究人员开发深度伪造自动检测工具,谷歌公司于2019年9月公开发布深度伪造视频识别数据集,其中包含3000多段视频,由多位真人演员在28个不同场景下拍摄。全球研究人员都可使用该完全开源的数据集对深度伪造检测工具进行训练。
但是上述技术只对单幅图像进行鉴别,不考虑视频中上下文信息,神经网络无法自动利用帧间信息,导致不能从帧间的一致性做出推测。由于现实中深度伪造视频的方法和变量是无法穷举的,而且伪造视频的算法在不断进步,新算法不断被提出,现实深度伪造视频的特征和造假点和目前业界制作的伪造数据集有明显的差别。这些伪造数据集上使用常用的分类卷积神经网络训练方法,生成的模型的泛化性能不佳,对新型伪造视频的辨别能力较差。
发明内容
本发明旨在提供一种对深度伪造人脸图像和视频的鉴别方法,以解决上述现有技术中存在的问题。
本发明提供的一种对深度伪造人脸图像和视频的鉴别方法,包括如下步骤:
S1,采集混合训练样本;
S2,构建鉴别模型;所述鉴别模型包括两个2D深度卷积神经网络和一个3D深度卷积神经网络;
S3,利用所述混合训练样本训练所述鉴别模型;
S4,利用训练好的鉴别模型去鉴别待鉴别人脸视频。
进一步的,步骤S1中采集混合训练样本的方法为:
S11,收集大量深度伪造视频和其对应的原视频构成训练数据集;
S12,对每个深度伪造视频使用人脸检测方法检测每帧中的第一人脸位置,在有伪造人脸的连续帧中,随机截取长度为L的片段,并用第一人脸位置信息剪裁出人脸方框,构成深度伪造人脸片段;
S13,对每个深度伪造视频对应的原视频使用人脸检测方法检测每帧中的第二人脸位置,在有人脸的连续帧中,随机截取长度为L的片段,并用第二人脸位置信息剪裁出人脸方框,构成原视频人脸片段;
S14,取深度伪造人脸片段中的一帧F和原视频人脸片段中的对应帧R,将帧F和对应帧R取加权和形成混合人脸图像;
S15,将所有深度伪造人脸片段和对应的原视频人脸片段通过步骤S14的方法形成混合人脸图像,即得到混合训练样本。
进一步的,步骤S14中帧F和对应帧R取加权和的权重为符合某种分布的[0,1]随机采样。
进一步的,步骤S2中每个所述2D深度卷积神经网络的卷积核为2D,主干网络为常用深度卷积神经网络,全连接层为2分类结构。
进一步的,步骤S3中训练所述2D深度卷积神经网络的方法为:
(1)从混合训练样本中随机抽取一帧混合人脸图像进行中心裁剪,使得人脸远离混合人脸图像边缘,然后重复使用第一个2D深度卷积神经网络对中心裁剪后的混合人脸图像进行前向和后向传播训练;
(2)从混合训练样本中随机抽取一帧混合人脸图像进行中心裁剪,使得人脸贴近混合人脸图像边缘,然后重复使用第二个2D深度卷积神经网络对中心裁剪后的混合人脸图像进行前向和后向传播训练;
进一步的,步骤S2中所述3D深度卷积神经网络为以一个2D深度卷积神经网络为基础,将其卷积核替换为3D卷积核,使其具有在视频帧间进行卷积的能力。
进一步的,步骤S3中训练所述3D深度卷积神经网络的方法为,从混合训练样本中随机抽取连续几帧混合人脸图像,然后重复使用3D深度卷积神经网络对连续几帧混合人脸图像进行前向和后向传播训练。
进一步的,步骤S4包括如下子步骤:
S41,对待鉴别人脸视频随机抽取一段视频帧片段;
S42,使用训练好的两个2D深度卷积神经网络对视频帧片段中的每帧中的人脸进行鉴别;
S43,使用训练好的3D深度卷积神经网络对视频帧片段中的每帧进行鉴别;
S44,对两个2D深度卷积神经网络和3D深度卷积神经网络的鉴别预测值,使用加权的集成方法作为鉴别结果。
进一步的,步骤S44中所述加权的集成方法使用的权重为鉴别预测值的置信度;所述置信度为鉴别预测值与0.5的距离。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
本发明提出三个改进:(1)采用混合训练样本提高泛化性能;(2)分别采用大边缘和小边缘的人脸中心剪裁图像训练两个2D深度,提高预测鲁棒性深度卷积神经网络,提高预测鲁棒性;(3)使用3D深度卷积神经网络能利用帧间一致性信息,提高信息利用率;由此,本发明能够解决现有技术对新型伪造视频的辨别能力较差的问题。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例的对深度伪造人脸图像和视频的鉴别方法的流程框图
图2为本发明实施例的采集混合训练样本的原理图。
图3为本发明实施例的利用训练好的鉴别模型去鉴别待鉴别人脸视频的原理图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
参见图1,本实施例提出一种对深度伪造人脸图像和视频的鉴别方法,包括如下步骤:
S1,采集混合训练样本;
参见图2,步骤S1中采集混合训练样本的方法为:
S11,收集大量深度伪造视频和其对应的原视频构成训练数据集;
S12,对每个深度伪造视频使用人脸检测方法检测每帧中的第一人脸位置,在有伪造人脸的连续帧中,随机截取长度为L的片段,并用第一人脸位置信息剪裁出人脸方框,构成深度伪造人脸片段;
S13,对每个深度伪造视频对应的原视频使用人脸检测方法检测每帧中的第二人脸位置,在有人脸的连续帧中,随机截取长度为L的片段,并用第二人脸位置信息剪裁出人脸方框,构成原视频人脸片段;
S14,取深度伪造人脸片段中的一帧F和原视频人脸片段中的对应帧R,将帧F和对应帧R取加权和形成混合人脸图像;在一些实施例中,该帧F和对应帧R取加权和的权重为符合某种分布的[0,1]随机采样,如正态分布;
S15,将所有深度伪造人脸片段和对应的原视频人脸片段通过步骤S14的方法形成混合人脸图像,即得到混合训练样本。
该步骤S1使用数据增广方法能够基于原视频和深度伪造视频生成新颖的混合训练样本,能够提高泛化性能。
S2,构建鉴别模型;所述鉴别模型包括两个2D深度卷积神经网络和一个3D深度卷积神经网络;
对于2D深度卷积神经网络,本实施例的每个所述2D深度卷积神经网络的卷积核为2D,主干网络为常用深度卷积神经网络,全连接层为2分类结构。该2D深度卷积神经网络用来鉴别单幅图像是否经过深度伪造。
对于3D深度卷积神经网络,本实施例的所述3D深度卷积神经网络为以一个2D深度卷积神经网络为基础,将其卷积核替换为3D卷积核,使其具有在视频帧间进行卷积的能力。该2D深度卷积神经网络用来鉴别连续帧图像是否经过深度伪造。
S3,利用所述混合训练样本训练所述鉴别模型;
对于2D深度卷积神经网络,本实施例中训练所述2D深度卷积神经网络的方法为:
(1)从混合训练样本中随机抽取一帧混合人脸图像进行中心裁剪,使得人脸远离混合人脸图像边缘,然后重复使用第一个2D深度卷积神经网络对中心裁剪后的混合人脸图像进行前向和后向传播训练;
(2)从混合训练样本中随机抽取一帧混合人脸图像进行中心裁剪,使得人脸贴近混合人脸图像边缘,然后重复使用第二个2D深度卷积神经网络对中心裁剪后的混合人脸图像进行前向和后向传播训练;
在该训练所述2D深度卷积神经网络的过程中,通过分别采用大边缘和小边缘的人脸中心剪裁图像进行训练,能够提高预测鲁棒性。
对于3D深度卷积神经网络,本实施例中训练所述3D深度卷积神经网络的方法为,从混合训练样本中随机抽取连续几帧混合人脸图像,然后重复使用3D深度卷积神经网络对连续几帧混合人脸图像进行前向和后向传播训练。该3D深度卷积神经网络在鉴别视频中的帧时以该帧前后几帧作为参考,能利用帧间一致性,提高信息利用率。
S4,利用训练好的鉴别模型去鉴别待鉴别人脸视频;
如图3所示,步骤S4包括如下子步骤:
S41,对待鉴别人脸视频随机抽取一段视频帧片段,长度也为L;
S42,使用训练好的两个2D深度卷积神经网络对视频帧片段中的每帧中的人脸进行鉴别;
S43,使用训练好的3D深度卷积神经网络对视频帧片段中的每帧进行鉴别;
S44,对两个2D深度卷积神经网络和3D深度卷积神经网络的鉴别预测值,使用加权的集成方法作为鉴别结果。该加权的集成方法使用的权重为鉴别预测值的置信度。神经网络输出对一段视频的鉴别预测值,该鉴别预测值在(0,1)之间,越接近1代表神经网络认为该视频越可能是伪造视频,越接近0代表越可能是真实视频。靠近0或1的置信度高,靠近0.5的置信度低,由此本实施例中所述置信度为鉴别预测值与0.5的距离。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种对深度伪造人脸图像和视频的鉴别方法,其特征在于,包括如下步骤:
S1,采集混合训练样本;
S2,构建鉴别模型;所述鉴别模型包括两个2D深度卷积神经网络和一个3D深度卷积神经网络;
S3,利用所述混合训练样本训练所述鉴别模型;
S4,利用训练好的鉴别模型去鉴别待鉴别人脸视频;
步骤S1中采集混合训练样本的方法为:
S11,收集大量深度伪造视频和其对应的原视频构成训练数据集;
S12,对每个深度伪造视频使用人脸检测方法检测每帧中的第一人脸位置,在有伪造人脸的连续帧中,随机截取长度为L的片段,并用第一人脸位置信息剪裁出人脸方框,构成深度伪造人脸片段;
S13,对每个深度伪造视频对应的原视频使用人脸检测方法检测每帧中的第二人脸位置,在有人脸的连续帧中,随机截取长度为L的片段,并用第二人脸位置信息剪裁出人脸方框,构成原视频人脸片段;
S14,取深度伪造人脸片段中的一帧F和原视频人脸片段中的对应帧R,将帧F和对应帧R取加权和形成混合人脸图像;
S15,将所有深度伪造人脸片段和对应的原视频人脸片段通过步骤S14的方法形成混合人脸图像,即得到混合训练样本。
2.根据权利要求1所述的对深度伪造人脸图像和视频的鉴别方法,其特征在于,步骤S14中帧F和对应帧R取加权和的权重为符合某种分布的[0,1]随机采样。
3.根据权利要求1所述的对深度伪造人脸图像和视频的鉴别方法,其特征在于,步骤S2中每个所述2D深度卷积神经网络的卷积核为2D,主干网络为深度卷积神经网络,全连接层为2分类结构。
4.根据权利要求3所述的对深度伪造人脸图像和视频的鉴别方法,其特征在于,步骤S3中训练所述2D深度卷积神经网络的方法为:
(1)从混合训练样本中随机抽取一帧混合人脸图像进行中心裁剪,使得人脸远离混合人脸图像边缘,然后重复使用第一个2D深度卷积神经网络对中心裁剪后的混合人脸图像进行前向和后向传播训练;
(2)从混合训练样本中随机抽取一帧混合人脸图像进行中心裁剪,使得人脸贴近混合人脸图像边缘,然后重复使用第二个2D深度卷积神经网络对中心裁剪后的混合人脸图像进行前向和后向传播训练。
5.根据权利要求3所述的对深度伪造人脸图像和视频的鉴别方法,其特征在于,步骤S2中所述3D深度卷积神经网络为以一个2D深度卷积神经网络为基础,将其卷积核替换为3D卷积核,使其具有在视频帧间进行卷积的能力。
6.根据权利要求5所述的对深度伪造人脸图像和视频的鉴别方法,其特征在于,步骤S3中训练所述3D深度卷积神经网络的方法为,从混合训练样本中随机抽取连续几帧混合人脸图像,然后重复使用3D深度卷积神经网络对连续几帧混合人脸图像进行前向和后向传播训练。
7.根据权利要求1所述的对深度伪造人脸图像和视频的鉴别方法,其特征在于,步骤S4包括如下子步骤:
S41,对待鉴别人脸视频随机抽取一段视频帧片段;
S42,使用训练好的两个2D深度卷积神经网络对视频帧片段中的每帧中的人脸进行鉴别;
S43,使用训练好的3D深度卷积神经网络对视频帧片段中的每帧进行鉴别;
S44,对两个2D深度卷积神经网络和3D深度卷积神经网络的鉴别预测值,使用加权的集成方法作为鉴别结果。
8.根据权利要求7所述的对深度伪造人脸图像和视频的鉴别方法,其特征在于,步骤S44中所述加权的集成方法使用的权重为鉴别预测值的置信度;所述置信度为鉴别预测值与0.5的距离。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110110096.7A CN112861671B (zh) | 2021-01-27 | 2021-01-27 | 一种对深度伪造人脸图像和视频的鉴别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110110096.7A CN112861671B (zh) | 2021-01-27 | 2021-01-27 | 一种对深度伪造人脸图像和视频的鉴别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112861671A CN112861671A (zh) | 2021-05-28 |
CN112861671B true CN112861671B (zh) | 2022-10-21 |
Family
ID=76009483
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110110096.7A Active CN112861671B (zh) | 2021-01-27 | 2021-01-27 | 一种对深度伪造人脸图像和视频的鉴别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112861671B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113435292B (zh) * | 2021-06-22 | 2023-09-19 | 北京交通大学 | 一种基于固有特征挖掘的ai伪造人脸检测方法 |
CN113627256B (zh) * | 2021-07-09 | 2023-08-18 | 武汉大学 | 基于眨眼同步及双目移动检测的伪造视频检验方法及*** |
CN113723220B (zh) * | 2021-08-11 | 2023-08-25 | 电子科技大学 | 基于大数据联邦学习架构下的深度伪造溯源*** |
CN114494935B (zh) * | 2021-12-15 | 2024-01-05 | 北京百度网讯科技有限公司 | 视频信息的处理方法、装置、电子设备和介质 |
CN114093013B (zh) * | 2022-01-19 | 2022-04-01 | 武汉大学 | 一种深度伪造人脸逆向溯源方法及*** |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109583342A (zh) * | 2018-11-21 | 2019-04-05 | 重庆邮电大学 | 基于迁移学习的人脸活体检测方法 |
CN111368764A (zh) * | 2020-03-09 | 2020-07-03 | 零秩科技(深圳)有限公司 | 一种基于计算机视觉与深度学习算法的虚假视频检测方法 |
CN111967427A (zh) * | 2020-08-28 | 2020-11-20 | 广东工业大学 | 一种伪造人脸视频鉴别方法、***和可读存储介质 |
CN112149608A (zh) * | 2020-10-09 | 2020-12-29 | 腾讯科技(深圳)有限公司 | 图像识别方法、装置和存储介质 |
CN112163488A (zh) * | 2020-09-21 | 2021-01-01 | 中国科学院信息工程研究所 | 一种视频虚假人脸检测方法及电子装置 |
CN112258388A (zh) * | 2020-11-02 | 2021-01-22 | 公安部第三研究所 | 一种公共安全视图脱敏测试数据生成方法、***以及存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10268950B2 (en) * | 2014-11-15 | 2019-04-23 | Beijing Kuangshi Technology Co., Ltd. | Face detection using machine learning |
CN110490177A (zh) * | 2017-06-02 | 2019-11-22 | 腾讯科技(深圳)有限公司 | 一种人脸检测器训练方法及装置 |
WO2021003294A1 (en) * | 2019-07-01 | 2021-01-07 | Digimarc Corporation | Watermarking arrangements permitting vector graphics editing |
CN112052759B (zh) * | 2020-08-25 | 2022-09-09 | 腾讯科技(深圳)有限公司 | 一种活体检测方法和装置 |
-
2021
- 2021-01-27 CN CN202110110096.7A patent/CN112861671B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109583342A (zh) * | 2018-11-21 | 2019-04-05 | 重庆邮电大学 | 基于迁移学习的人脸活体检测方法 |
CN111368764A (zh) * | 2020-03-09 | 2020-07-03 | 零秩科技(深圳)有限公司 | 一种基于计算机视觉与深度学习算法的虚假视频检测方法 |
CN111967427A (zh) * | 2020-08-28 | 2020-11-20 | 广东工业大学 | 一种伪造人脸视频鉴别方法、***和可读存储介质 |
CN112163488A (zh) * | 2020-09-21 | 2021-01-01 | 中国科学院信息工程研究所 | 一种视频虚假人脸检测方法及电子装置 |
CN112149608A (zh) * | 2020-10-09 | 2020-12-29 | 腾讯科技(深圳)有限公司 | 图像识别方法、装置和存储介质 |
CN112258388A (zh) * | 2020-11-02 | 2021-01-22 | 公安部第三研究所 | 一种公共安全视图脱敏测试数据生成方法、***以及存储介质 |
Non-Patent Citations (6)
Title |
---|
Deep Learning for Deepfakes Creation and Detection;Thanh Thi Nguyen 等;《arXiv》;20190925;1-16 * |
Deepfake Detection using Spatiotemporal Convolutional Networks;Oscar de Lima 等;《arXiv》;20200626;1-6 * |
基于3D卷积神经网络的活体人脸检测研究;李山路;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20180115(第01期);I138-1456 * |
基于新媒体的视图像内容识别技术研究;张家亮 等;《通信技术》;20181130;第51卷(第11期);2740-2743 * |
最小二乘支持向量机的半监督学习算法;张健沛 等;《哈尔滨工程大学学报》;20081031;第29卷(第10期);1088-1092 * |
视听觉深度伪造检测技术研究综述;梁瑞刚 等;《信息安全学报》;20200331;第5卷(第2期);1-17 * |
Also Published As
Publication number | Publication date |
---|---|
CN112861671A (zh) | 2021-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112861671B (zh) | 一种对深度伪造人脸图像和视频的鉴别方法 | |
CN111242837A (zh) | 基于生成对抗网络的人脸匿名隐私保护方法 | |
CN113537027B (zh) | 基于面部划分的人脸深度伪造检测方法及*** | |
CN111160313A (zh) | 一种基于lbp-vae异常检测模型的人脸表示攻击检测方法 | |
Yu et al. | Detecting deepfake-forged contents with separable convolutional neural network and image segmentation | |
CN113762138A (zh) | 伪造人脸图片的识别方法、装置、计算机设备及存储介质 | |
Huang et al. | Deepfake mnist+: a deepfake facial animation dataset | |
CN113553954A (zh) | 行为识别模型的训练方法及装置、设备、介质和程序产品 | |
CN114842524B (zh) | 一种基于不规则显著性像素簇的人脸鉴伪方法 | |
CN114724218A (zh) | 视频检测方法、装置、设备及介质 | |
CN111882525A (zh) | 一种基于lbp水印特征和细粒度识别的图像翻拍检测方法 | |
CN113989713B (zh) | 基于视频帧序预测的深度伪造检测方法 | |
Guo et al. | Exposing deepfake face forgeries with guided residuals | |
CN113361474B (zh) | 基于图像块特征提取的双流网络图像伪造检测方法及*** | |
CN112651319B (zh) | 一种视频检测方法、装置、电子设备及存储介质 | |
CN115457374B (zh) | 基于推理模式评估深伪图像检测模型泛化性方法及装置 | |
CN115936961B (zh) | 基于少样本对比学习网络的隐写分析方法、设备及介质 | |
CN117079354A (zh) | 一种基于噪声不一致性的深度伪造检测分类和定位方法 | |
CN116883883A (zh) | 一种基于生成对抗网络抗抖动的海上船舶目标检测方法 | |
CN115578768A (zh) | 图像检测网络的训练方法、图像检测方法和*** | |
Yang et al. | Document Image Forgery Detection Based on Deep Learning Models | |
CN113553895A (zh) | 一种基于人脸正面化的多姿态人脸识别方法 | |
CN111611873B (zh) | 人脸替换检测方法及装置、电子设备、计算机存储介质 | |
Li et al. | A Deepfake Face Video Authentication Method Based on Spatio-temporal Fusion Features | |
Lin et al. | AI‐generated video steganography based on semantic segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |