CN111368764B - 一种基于计算机视觉与深度学习算法的虚假视频检测方法 - Google Patents
一种基于计算机视觉与深度学习算法的虚假视频检测方法 Download PDFInfo
- Publication number
- CN111368764B CN111368764B CN202010158340.2A CN202010158340A CN111368764B CN 111368764 B CN111368764 B CN 111368764B CN 202010158340 A CN202010158340 A CN 202010158340A CN 111368764 B CN111368764 B CN 111368764B
- Authority
- CN
- China
- Prior art keywords
- model
- false
- face
- video
- feature extraction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明属于计算机视觉与深度学习领域,公开了一种基于计算机视觉与深度学习算法的虚假视频检测方法。预先训练“生成式对抗网络区分模型”、“正/侧脸对比模型”、“表情动作分类模型”这三个特征提取模型,再将训练好的三个模型分别保存。之后利用训练集,分别输入到三个模型中进行特征提取,并将提取到的特征进行线性拟合,拟合对象为训练集的真实值。利用二值化分类的交叉熵损失函数作为标准,使用Adam优化器进行优化。取最终损失在1e‑6以下的参数作为最终模型保存;重新遍历训练集,利用“肘部法则”选取ROC曲线最优的阈值作为分类阈值,并在算法应用阶段利用预先计算好的模型与阈值对视频进行分类。本发明有利于虚假视频检测。
Description
技术领域
本发明属于计算机视觉与深度学习领域,具体涉及一种基于计算机视觉与深度学习算法的虚假视频检测方法,用于快速判定虚假生成的视频文件。
背景技术
DeepFake是指利用深度学习技术替换一段视频或图片中的人脸部分的技术,该技术可以自动生成大量的替换过人脸的虚假视频。由于使用了开源的深度学习算法模型,使得生成这些虚假视频变得简单易行,利用家用台式计算机就可以轻松做到。起初这项技术是为了方便影视与动画制作而产生,旨在方便相关工作人员节省一定的劳动。但是一些人开始利用这项技术生成一些损害他人利益的虚假视频,因此,许多大公司(谷歌、百度)都开始投入资源研究快速准确的虚假视频筛选方法。
如中国专利公告号CN 110188706 A,公开了一种基于生成对抗网络的视频中人物表情的神经网络训练方法及检测方法,该方法首先读入视频vreal,该视频以人物的一种表情作为主要部分;接着通过卷积神经网络处理计算出其特征函数f;然后将一种可能的表情yi与之前的特征函数f通过反卷积神经网络,得到与表情yi相匹配的,计算机生成的人物视频最后将vreal与通过3D卷积神经网络,得到两者的匹配程度si;通过改变yi以得到不同的si,使用si中最大的所对应的yi作为判断输出。其中,特征提取模型主要用于人物表情的神经网络训练,而不能解决虚假视频的筛选问题。
发明内容
本发明要解决的技术问题是提供一种有效筛选虚假视频的检测方法,通过训练有效的特征提取模型,提高虚假视频检测的效率和准确率 。
为解决上述问题而采用的一种基于计算机视觉与深度学习算法的虚假视频检测方法,具体包括以下步骤:
S1:预先下载用于虚假视频生成的算法,利用自有数据生成虚假视频和未修改过的视频,其中一部分作为测试集,另一部分作为训练集;
S2:预先训练至少一种特征提取模型,再将训练好的特征提取模型保存;
S3:将训练集分别输入到所述特征提取模型中进行特征提取,并将提取到的特征进行线性拟合,拟合对象为训练集的真实值,所述测试集在训练模型时用作对模型训练好坏进行量化;
S4:特征提取模型包括损失函数,定义损失函数,利用所定义的损失函数作为标准,使用优化器进行优化;
S5:将带有优化后的损失函数的特征提取模型作为最终模型保存中,;重新遍历训练集,选取分类阈值,并进入算法应用阶段;
S6:在算法应用阶段中,使用新数据生成的视频输入至所述最终模型中进行特征提取;
S7:将提取的特征带入到线性回归模型并提取最后的激活层输出,如果结果的平均值大于分类阈值,则判断该视频为虚假视频。
进一步地,为在用于虚假视频生成的算法方面改进,在S1中,用于虚假视频生成的算法为DeepFake相关开源算法。
进一步的,为在优化测试集和训练集方面改进,在S1中,所述虚假视频和未修改过的视频的时长为1~3分钟,其中虚假视频为3000~3500条,未修改过的视频为2000~2500条,全部视频中的15%~20%抽取出来作为测试集,余下的80%~85%作为训练集。
进一步地,为在优化特征提取模型方面改进,在S2中,预先训练三种特征提取模型,分别为“生成式对抗网络区分模型”、“正/侧脸对比模型”、“表情动作分类模型”,再分别保存。
DeepFake采用生成式对抗网络(GAN)将目标人脸图片与待修改视频整合并生成新的视频帧图像,之后拼接成完整视频。这么做有一个问题,那就是在有限的迭代次数下,训练出的网络模型不可能将目标人脸图片与原视频中的人脸进行百分之百的贴合。因此,本***第一个切入点就利用人脸区域周边的颜色变化规律判断视频图像是否被修改过。
进一步地,为在“生成式对抗网络区分模型”训练优化方面改进,“生成式对抗网络区分模型”的训练方式为利用真实视频提取的样本与随机参数输入至DeepFake模型中生成模型提取的样本进行对比学习,所述样本为人脸区域,由GAN中的对抗模型识别出虚假人脸区域周围的不自然色变与拼接,对真假视频进行分类,从而定义损失函数,所述GAN中的对抗模型为区分模型。
由于DeepFake等算法的基准模型在预训练时,大都用人脸的正面图像进行训练,导致对于视频中的侧脸图像不能够很好的生成,因此,提取出待检测视频中面部水平转角大于某一数值的视频帧进行二次筛选,将获取到的侧脸图像与视频中若干正脸图像(面部水平转角接近0度)进行人像比对,并判断低于某阈值,即两个人脸图像的相似度很低时,该侧脸图像并没有被成功利用目标人像进行生成,说明视频中的某个人的正脸与侧脸图像分别属于不同的人,因此,本***第二个切入点就利用人脸特征比对可以判断出该视频被修改过。
进一步地,为在“正/侧脸对比模型”训练优化方面改进,“正/侧脸对比模型”的训练方式为,将虚假视频数据导入用于人脸检测与角度判断的算法,提取出正面人脸样本与侧面人脸样本,从正面人脸样本中提取出平均人脸样本至第一人脸识别模型中进行人脸特征提取,所述侧面人脸样本导入至第二人脸识别模型中进行人脸特征提取,所述“正/侧脸对比模型”为人脸特征比对模型,所述第一人脸识别模型中提取的人脸特征与所述第二人脸识别模型中提取的人脸特征导入所述人脸特征比对模型中,以训练分类真假视频。
进一步地,为在人脸特征的比对方式方面改进,人脸特征的比对方式为人脸的角度判定,所述人脸的角度判定方式为根据人脸区域提取的68个人脸标注位置来辅助确定,利用标准人脸与被检测人脸之间的仿射变换矩阵来计算角度。
因为人物表情虚假,DeepFake制作虚假视频时,会要求提供目标人物的若干图片,当然这些图片要尽可能的覆盖多表情,多角度。但是实际操作中我们往往获取不到太多类似的目标人物图片,因此我们训练出来的DeepFake模型,往往比较容易“过拟合”,即生成的视频图像中会出现“表情僵硬”等不自然状态。而源视频中的人物则不会。因此,可以利用这一点,将表情识别算法与对时域范围变化敏感的LSTM长短期记忆网络相结合,输出采用Binary-Cross-Entropy损失函数进行二分类训练。数据集利用DeepFake生成虚假视频和未修改的不重复视频条。判断输入视频中人物表情是否“僵硬”,并结合上两条结合进行加权平均,判断视频是否被DeepFake类算法修改过。
进一步地,为在“表情动作分类模型”训练方面改进,“表情动作分类模型”训练方式为,将虚假视频数据导入至长短期记忆网络进行表情特征提取,并由“表情动作分类模型”进行真假视频分类,“表情动作分类模型”为表情虚假分类模型。
进一步地,为在表情特征提取方面进行改进,长短期记忆网络表情特征提取方式为捕捉时域下表情变化特征的特点,从而由表情虚假分类模型判断表情变化不自然的视频段,达到检测出虚假视频的目的。
进一步地,为在定义所述“表情动作分类模型”中的损失函数进行改进,所述“表情动作分类模型”定义的损失函数为Binary-Cross-Entropy损失函数,并利用所述Binary-Cross-Entropy损失函数对“表情动作分类模型”进行二分类训练。
进一步地,为在定义损失函数方面改进,在S4中,损失函数为二值化分类的交叉熵损失函数。
进一步地,为在优化器方面改进,在S4中,所述优化器为Adam优化器。
进一步地,为在优化损失函数方面改进,优化后的损失函数的最终损失的值在1e-6以下。
进一步地,为在分类阈值方面改进,分类阈值为利用“肘部法则”选取ROC曲线最优的阈值。
进一步地,为在激活层函数方面改进,激活层函数为Sigmoid激活函数。
本发明提出一种利用与DeepFake类似的计算机视觉处理技术,能快速判断输入的视频文件是否经过了DeepFake等类似算法的“改造”,能帮助甄别虚假视频,采用三种特征提取模型,提高了虚假视频检测的准确率。
附图说明
图1是本发明的总流程示意图。
图2是生成式对抗网络特征提取模型训练示意图。
图3是正/侧脸对比特征提取模型训练示意图。
图4是表情动作分类特征提取模型训练示意图。
具体实施方式
结合图1-图4说明本发明的实施方式:本发明分为两个阶段,模型训练阶段与算法应用阶段。
在训练阶段,预先下载DeepFake相关开源算法,利用自有数据生成时长为3分钟的虚假视频3500条,未修改过的视频2000条,并将总共5500条中的15%抽取出来作为测试集,余下的85%作为训练集。
根据图1所示,预先训练“生成式对抗网络区分模型”、“正/侧脸对比模型”、“表情动作分类模型”这三个特征提取模型,再将训练好的三个模型分别保存。之后利用训练集,分别输入到三个模型中进行特征提取,并将提取到的特征进行线性拟合,拟合对象为训练集的真实值,所述测试集在训练模型时用作对模型训练好坏进行量化。
如图2所示,“生成式对抗网络区分模型”的训练方式为利用真实视频提取的样本与随机参数输入至DeepFake模型中生成模型提取的样本进行对比学习,所述样本为人脸区域,由GAN中的对抗模型识别出虚假人脸区域周围的不自然色变与拼接,对真假视频进行分类,从而定义损失函数,所述GAN中的对抗模型为区分模型。
如图3所示,“正/侧脸对比模型”的训练方式为,将虚假视频数据导入用于人脸检测与角度判断的算法,提取出正面人脸样本与侧面人脸样本,从正面人脸样本中提取出平均人脸样本至第一人脸识别模型中进行人脸特征提取,所述侧面人脸样本导入至第二人脸识别模型中进行人脸特征提取,所述“正/侧脸对比模型”为人脸特征比对模型,所述第一人脸识别模型中提取的人脸特征与所述第二人脸识别模型中提取的人脸特征导入所述人脸特征比对模型中,以训练分类真假视频。
如图4所示,“表情动作分类模型”训练方式为,将虚假视频数据导入至长短期记忆网络进行表情特征提取,并由“表情动作分类模型”进行真假视频分类,“表情动作分类模型”为表情虚假分类模型。
将表情识别算法与对时域范围变化敏感的LSTM长短期记忆网络相结合,输出采用BCE(Binary-Cross-Entropy)损失函数进行二分类训练,用于“表情动作分类模型”训练的数据集利采用DeepFake生成时长为1min的视频3500条,未修改的不重复视频2000条,判断输入视频中人物表情是否“僵硬”,并结合上两条结合进行加权平均,判断视频是否被DeepFake类算法修改过。
完成三个特征提取模型训练后,利用二值化分类的交叉熵损失函数作为标准,使用Adam优化器进行优化。取带有最终损失在1e-6以下的参数值的损失函数的特征提取模型作为最终模型保存;重新遍历训练集,利用“肘部法则”选取ROC曲线最优的阈值作为分类阈值,并进入算法应用阶段。
在应用阶段,将待分类视频裁剪成若干时长不超过3分钟的视频段分别进行分类,首先输入预先训练好的三个模型中进行特征提取。接下来将提取的特征带入到线性回归模型并提取最后的激活层输出,激活层函数为Sigmoid激活函数,如果结果的平均值大于分类阈值,则判断该视频为虚假视频。
本发明提出一种利用与DeepFake类似的计算机视觉处理技术,能快速判断输入的视频文件是否经过了DeepFake等类似算法的“改造”,能帮助甄别虚假视频,采用三种特征提取模型,提高了虚假视频检测的准确率。
Claims (5)
1.一种基于计算机视觉与深度学习算法的虚假视频检测方法,其特征在于,具体包括以下步骤:
S1:预先下载用于虚假视频生成的算法,利用自有数据生成虚假视频和未修改过的视频,其中一部分作为测试集,另一部分作为训练集;
S2:预先训练至少一种特征提取模型,再将训练好的特征提取模型保存;
S3:将训练集分别输入到所述特征提取模型中进行特征提取,并将提取到的特征进行线性拟合,拟合对象为训练集的真实值,所述测试集在训练模型时用作对模型训练好坏进行量化;
S4:所述特征提取模型包括损失函数,定义损失函数,利用所定义的损失函数作为标准,使用优化器进行优化;
S5:将带有优化后的损失函数的特征提取模型作为最终模型保存;重新遍历训练集,选取分类阈值并进入算法应用阶段;
S6:在算法应用阶段中,使用新数据生成的视频输入至所述最终模型中进行特征提取;
S7:将提取的特征带入到线性回归模型并提取最后的激活层输出,如果结果的平均值大于分类阈值,则判断该视频为虚假视频;
在S2中,预先训练三种特征提取模型,分别为“生成式对抗网络区分模型”、“正/侧脸对比模型”、“表情动作分类模型”,再分别保存;
所述“生成式对抗网络区分模型”的训练方式为利用真实视频提取的样本与随机参数输入至DeepFake模型中生成模型提取的样本进行对比学习,所述样本为人脸区域,由GAN中的对抗模型识别出虚假人脸区域周围的不自然色变与拼接,对真假视频进行分类,从而定义损失函数,所述GAN中的对抗模型为区分模型;
所述“正/侧脸对比模型”的训练方式为,将虚假视频数据导入用于人脸检测与角度判断的算法,提取出正面人脸样本与侧面人脸样本,从正面人脸样本中提取出平均人脸样本至第一人脸识别模型中进行人脸特征提取,所述侧面人脸样本导入至第二人脸识别模型中进行人脸特征提取,所述“正/侧脸对比模型”为人脸特征比对模型,所述第一人脸识别模型中提取的人脸特征与所述第二人脸识别模型中提取的人脸特征导入所述人脸特征比对模型中,以训练分类真假视频;
所述“表情动作分类模型”训练方式为,将虚假视频数据导入至长短期记忆网络进行表情特征提取,并由“表情动作分类模型”进行真假视频分类,所述“表情动作分类模型”为表情虚假分类模型;
长短期记忆网络表情特征提取方式为捕捉时域下表情变化特征的特点,从而由表情虚假分类模型判断表情变化不自然的视频段,达到检测出虚假视频的目的。
2.如权利要求1所述的基于计算机视觉与深度学习算法的虚假视频检测方法,其特征在于,在S1中,所述用于虚假视频生成的算法为DeepFake相关开源算法。
3.如权利要求1所述的基于计算机视觉与深度学习算法的虚假视频检测方法,其特征在于,在S1中,所述虚假视频和未修改过的视频的时长为1~3分钟,其中虚假视频为3000~3500条,未修改过的视频为2000~2500条,全部视频中的15%~20%抽取出来作为测试集,余下的80%~85%作为训练集。
4.如权利要求1所述的基于计算机视觉与深度学习算法的虚假视频检测方法,其特征在于,所述人脸特征的比对方式为人脸的角度判定,所述人脸的角度判定方式为根据人脸区域提取的68个人脸标注位置来辅助确定,利用标准人脸与被检测人脸之间的仿射变换矩阵来计算角度。
5.如权利要求1所述的基于计算机视觉与深度学习算法的虚假视频检测方法,其特征在于,所述“表情动作分类模型”定义的损失函数为Binary-Cross-Entropy损失函数,并利用所述Binary-Cross-Entropy损失函数对“表情动作分类模型”进行二分类训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010158340.2A CN111368764B (zh) | 2020-03-09 | 2020-03-09 | 一种基于计算机视觉与深度学习算法的虚假视频检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010158340.2A CN111368764B (zh) | 2020-03-09 | 2020-03-09 | 一种基于计算机视觉与深度学习算法的虚假视频检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111368764A CN111368764A (zh) | 2020-07-03 |
CN111368764B true CN111368764B (zh) | 2023-02-21 |
Family
ID=71208643
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010158340.2A Active CN111368764B (zh) | 2020-03-09 | 2020-03-09 | 一种基于计算机视觉与深度学习算法的虚假视频检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111368764B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111950497B (zh) * | 2020-08-20 | 2022-07-01 | 重庆邮电大学 | 一种基于多任务学习模型的ai换脸视频检测方法 |
CN112200001A (zh) * | 2020-09-11 | 2021-01-08 | 南京星耀智能科技有限公司 | 一种指定场景下深度伪造视频识别方法 |
CN112580521B (zh) * | 2020-12-22 | 2024-02-20 | 浙江工业大学 | 一种基于maml元学习算法的多特征真假视频检测方法 |
CN112613480A (zh) * | 2021-01-04 | 2021-04-06 | 上海明略人工智能(集团)有限公司 | 一种人脸识别方法、***、电子设备及存储介质 |
CN112733733A (zh) * | 2021-01-11 | 2021-04-30 | 中国科学技术大学 | 伪造视频检测方法、电子设备及存储介质 |
CN112861671B (zh) * | 2021-01-27 | 2022-10-21 | 电子科技大学 | 一种对深度伪造人脸图像和视频的鉴别方法 |
CN113628754B (zh) * | 2021-08-12 | 2022-04-08 | 武剑 | 基于人工智能的脑血管病动态预测模型构建方法及*** |
CN115937994B (zh) * | 2023-01-06 | 2023-05-30 | 南昌大学 | 一种基于深度学习检测模型的数据检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017024963A1 (zh) * | 2015-08-11 | 2017-02-16 | 阿里巴巴集团控股有限公司 | 图像识别方法、度量学习方法、图像来源识别方法及装置 |
CN109583342A (zh) * | 2018-11-21 | 2019-04-05 | 重庆邮电大学 | 基于迁移学习的人脸活体检测方法 |
WO2019114580A1 (zh) * | 2017-12-13 | 2019-06-20 | 深圳励飞科技有限公司 | 活体检测方法、计算机装置及计算机可读存储介质 |
CN110647659A (zh) * | 2019-09-27 | 2020-01-03 | 上海依图网络科技有限公司 | 摄像***以及视频处理方法 |
-
2020
- 2020-03-09 CN CN202010158340.2A patent/CN111368764B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017024963A1 (zh) * | 2015-08-11 | 2017-02-16 | 阿里巴巴集团控股有限公司 | 图像识别方法、度量学习方法、图像来源识别方法及装置 |
WO2019114580A1 (zh) * | 2017-12-13 | 2019-06-20 | 深圳励飞科技有限公司 | 活体检测方法、计算机装置及计算机可读存储介质 |
CN109583342A (zh) * | 2018-11-21 | 2019-04-05 | 重庆邮电大学 | 基于迁移学习的人脸活体检测方法 |
CN110647659A (zh) * | 2019-09-27 | 2020-01-03 | 上海依图网络科技有限公司 | 摄像***以及视频处理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111368764A (zh) | 2020-07-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111368764B (zh) | 一种基于计算机视觉与深度学习算法的虚假视频检测方法 | |
Matern et al. | Exploiting visual artifacts to expose deepfakes and face manipulations | |
US11195037B2 (en) | Living body detection method and system, computer-readable storage medium | |
CN111950497B (zh) | 一种基于多任务学习模型的ai换脸视频检测方法 | |
CN108171158B (zh) | 活体检测方法、装置、电子设备及存储介质 | |
CN111126069A (zh) | 一种基于视觉对象引导的社交媒体短文本命名实体识别方法 | |
KR102132407B1 (ko) | 점진적 딥러닝 학습을 이용한 적응적 영상 인식 기반 감성 추정 방법 및 장치 | |
CN109918987A (zh) | 一种视频字幕关键词识别方法及装置 | |
CN110414367B (zh) | 一种基于gan和ssn的时序行为检测方法 | |
CN106780464A (zh) | 一种基于改进阈值分割的织物疵点检测方法 | |
Arafah et al. | Face recognition system using Viola Jones, histograms of oriented gradients and multi-class support vector machine | |
JP2011170890A (ja) | 顔検出方法および装置並びにプログラム | |
CN108154116A (zh) | 一种图像识别方法及*** | |
KR102230559B1 (ko) | 데이터 프로그래밍에 기반한 레이블링 모델 생성 방법 및 장치 | |
CN111191584A (zh) | 一种人脸识别方法及装置 | |
KR102342495B1 (ko) | 데이터 프로그래밍에 기반한 레이블링 모델 생성 방법 및 장치 | |
CN115457620A (zh) | 用户表情识别方法、装置、计算机设备及存储介质 | |
Tang et al. | Fast background subtraction using improved GMM and graph cut | |
CN114022938A (zh) | 视素识别的方法、装置、设备和存储介质 | |
CN113658108A (zh) | 一种基于深度学习的玻璃缺陷检测方法 | |
Jaiswal et al. | Saliency based automatic image cropping using support vector machine classifier | |
Nallapati et al. | Identification of Deepfakes using Strategic Models and Architectures | |
CN111353353A (zh) | 跨姿态的人脸识别方法及装置 | |
Pasha et al. | An Efficient Novel Approach for Iris Recognition and Segmentation Based on the Utilization of Deep Learning | |
CN113506272B (zh) | 一种虚假视频的检测方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |