CN106203373A - 一种基于深度视觉词袋模型的人脸活体检测方法 - Google Patents
一种基于深度视觉词袋模型的人脸活体检测方法 Download PDFInfo
- Publication number
- CN106203373A CN106203373A CN201610570537.0A CN201610570537A CN106203373A CN 106203373 A CN106203373 A CN 106203373A CN 201610570537 A CN201610570537 A CN 201610570537A CN 106203373 A CN106203373 A CN 106203373A
- Authority
- CN
- China
- Prior art keywords
- layer
- advanced features
- sparse
- depth
- lbp feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 14
- 238000001727 in vivo Methods 0.000 title claims abstract description 14
- 238000000034 method Methods 0.000 claims abstract description 29
- 238000012549 training Methods 0.000 claims abstract description 27
- 230000001815 facial effect Effects 0.000 claims abstract description 15
- 230000004913 activation Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000002790 cross-validation Methods 0.000 claims description 2
- 238000005457 optimization Methods 0.000 claims description 2
- 210000005036 nerve Anatomy 0.000 claims 1
- 238000005259 measurement Methods 0.000 abstract description 2
- 238000012795 verification Methods 0.000 abstract description 2
- 230000000007 visual effect Effects 0.000 description 7
- 238000012360 testing method Methods 0.000 description 6
- 238000002474 experimental method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000005728 strengthening Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000001574 biopsy Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于深度视觉词袋模型的人脸活体检测方法,该方法包括以下步骤:对于训练集中每一个人脸活体图像,计算其对应的LBP特征;利用深度稀疏自编码网络将LBP特征编码成高级特征;利用训练集的人脸图像的类标对整个深度稀疏自编码网络进行训练,得到更具有区分性的高级特征;将更具有区分性的高级特征输入到LIBSVM进行训练,从而建立SVM模型;将计算的LBP特征输入深度稀疏自编码网络得到高级特征,然后利用建立的SVM模型对其进行分类,得到人脸活体图像的类标。本发明能够得到更有鲁棒性、更有区别性的高级特征,从而对非控条件下的人脸活体检测具有更高的检测率。
Description
技术领域
本发明涉及模式识别与机器学习领域,特别涉及人脸识别方法。
背景技术
在生物识别***中,自动人脸识别技术起着重要的作用,同时人脸欺骗攻击也越来越被关注。一个非法用户可以持有合法用户的人脸照片或者视频来欺骗人脸识别***,从而通过***的识别和验证。目前的解决办法通常是依赖像LBP和WLD这类的图像描述子,然后利用分类器对这些描述子进行分类。然而这些手工涉及的低级特征对于大量的人脸图像数据缺乏足够的区分性。
发明内容
为了解决现有技术所存在的问题,本发明提出一种基于深度视觉词袋模型的人脸活体检测方法,该方法利用深度稀疏自编码网络获得高级特征,通过BOW模块和深度视觉结构的融合互补和强化得到深度层级视觉特征,最后利用SVM模型对深度层级视觉特征进行分类来判别是否活体,能够得到更有鲁棒性、更有区别性的高级特征,从而对非控条件下的人脸活体检测具有更高的检测率。
本发明采用如下技术方案来实现:一种基于深度视觉词袋模型的人脸活体检测方法,包括以下步骤:
步骤a、对于训练集中每一个人脸活体图像,计算其对应的LBP特征;
步骤b、利用深度稀疏自编码网络将LBP特征编码成高级特征;
步骤c、利用训练集的人脸图像的类标对整个深度稀疏自编码网络进行训练,得到更具有区分性的高级特征;
步骤d、将步骤c得到更具有区分性的高级特征输入到LIBSVM进行训练,从而建立SVM模型;
步骤e、将步骤a计算的LBP特征输入步骤b的深度稀疏自编码网络得到高级特征,然后利用步骤d建立的SVM模型对其进行分类,得到人脸活体图像的类标。
从以上技术方案可知,本发明的主要原理为:采用适合人脸活体检测的LBP描述子提取底层特征,并且对于词袋模型的第二模块――词典生成和特征量化部分,引入了基于深度视觉的稀疏自编码结构将LBP低级特征编码成高级特征;通过BOW模块和深度视觉结构的融合互补和强化,得到了这个深度层级视觉特征;最后利用SVM对这个深度层级视觉特征进行分类来判别是否活体。与现有技术相比,本发明所具有的有益效果为:
利用深度稀疏自编码网络进行非监督的训练,从而得到比人工设计的特征更泛化,更具有区别性的高级特征;并且利用词袋模型和深度稀疏自编码网络相结合得到深度层级视觉特征,这个深度层级视觉特征比传统的词袋模型得到的特征向量更具有有效性和鲁棒性。
附图说明
图1为本发明方法的操作流程图;
图2为深度稀疏自编码网络的结构示意图;
图3为自编码网络的结构示意图;
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
本发明基于深度视觉词袋模型的人脸活体检测方法,可分为两个训练阶段和一个测试阶段:(1)训练阶段1:首先利用LBP描述子提取训练集中人脸图像的低级特征,然后由稀疏自编码网络(SAE)组成的深度学习架构将低级特征编码成高级特征,最后根据训练集中人脸图像的活体类标来得到更有区别性的高级特征;(2)训练阶段2:将先前得到的高级特征输入LIBSVM进行训练,从而建立SVM模型;(3)测试阶段:将测试的人脸图像输入深度视觉词袋模型得到高级特征,再将高级特征输入已建立的SVM模型从而判定人脸图像是否为活体。
如图1所示,本发明具体包括下述步骤:
步骤1:将人脸图像数据集中的部分作为训练集,剩下的图像作为测试集;
步骤2:对于训练集中的每一个人脸图像,计算其对应的LBP特征;
对于训练集中的每一个人脸图像I,把图像I分解成一系列的图像块,用W和L分别表示横向和纵向的图像块数量,因此图像I由W×L个图像块组成。通过改变W和L的大小,我们可以得到不同尺度下图像像素的局部描述子表达。
对每个图像块提取LBP特征作为特征描述,此特征可以描绘图像的微观纹理特征以及空间信息。对于给定像素点(xc,yc),它的原始LBP特征可以计算为:
其中P为像素点(xc,yc)的编码邻域像素点个数,R为编码半径,gc和gp分别是中心点和邻域点的灰度值,s(x)定义为:
再根据原始LBP特征计算均匀模式的LBP特征,其计算公式为:
其中P、R分别取8和1,所以每个人脸活体图像的LBP特征是59维的。
步骤3:利用深度稀疏自编码网络将LBP特征编码成高级特征;
深度稀疏自编码网络的结构如图2所示,包括四层神经元:一层输入层、一层输出层以及两层隐层,其中输入层和两层隐层构成了堆叠的两个稀疏自编码网络,每个稀疏自编码网络包括编码和解码过程,如图3所示,其计算公式如下:
编码:对于每个输入向量x=(x1,x2,…,xN)T,隐层单元输出为:
h=(h1,h2,…,hM)T=f(Wx+b)
解码:对于隐层单元向量h=(h1,h2,…,hM)T,输出层单元输出为:
y=(y1,y2,…,yN)T=g(W'h+b')
这里的函数f和g都采用sigmoid函数z(x)=1/(1+exp(-x))。
对于稀疏自编码网络的稀疏性,尽量使得所有隐层单元的平均激活值l为0。由于隐层第j个单元的平均激活值为这里的D是样本个数,对于理想分布l和真实分布lj的相似度,这里采用KL散度来衡量,其计算公式如下:
那么稀疏自编码网络可以被描述成下面的优化问题:
由于稀疏自编码网络是一个输入等于输出的网络,即x=y,所以根据这个可以无监督训练得到权值W,W'和阈值b,b'。由训练得到的权值和阈值可以将LBP特征编码成高级特征,即四层深度稀疏自编码网络的第三层的隐层单元输出值。
步骤4:利用训练集的人脸图像的类标对整个深度稀疏自编码网络进行训练,得到更具有区分性的高级特征;
对于训练集中人脸图像的类标,利用logistics损失函数进行有监督训练,从而得到更具有区分性的高级特征。
步骤5:将步骤4学习到的更具有区分性的高级特征输入到LIBSVM进行训练,从而建立SVM模型;
这里SVM模型的分类器使用LIBSVM作为基础的SVM实现工具。SVM模型的分类器选择的核函数为高斯核函数并且采用交叉验证方法进行训练,利用网格搜索方法寻找最优参数集{c,g}。
步骤6:将步骤2的测试集的人脸活体图像的LBP特征输入步骤3的深度稀疏自编码网络得到高级特征,然后利用步骤5建立的SVM模型对其进行分类来得到人脸活体图像的类标。
本实施例通过以下两个实验对本发明的效果进行说明:第一个实验选择NUAA活体人脸数据库,该数据库包含15个人的12614张人脸图像,其中3491张真人脸图像和9123张假人脸图像,这些图像都是64*64的灰度图。第二个实验选择CASIA活体人脸数据库,该数据库包含50个人的600段人脸视频,其中20个人的人脸视频作为训练集,30个人的人脸视频作为测试集。对以上两个数据库的人脸图片,我们将它们做图像分块处理,然后以单张图像为单位对图像块进行本发明的BOW算法处理。BOW算法先将输入图片数据用LBP图像描述子得到初级的人脸特征,然后用SAE深度学习模块学习到高级的人脸特征编码,最后通过训练集训练出来的SVM模型对高级特征进行判别得到最后的分类结果。
对于第一个实验,一共评估了7种不同的方法,它们是:LBP,WLD,MSLBP(H-Face),MSLBP(Face),DOG(H-Face),DOG(Face)和本发明提出的方法。如表1所示,在NUAA数据库上对比了不同方法的活体检测性能指标,BOW方法在NUAA数据库上实现了94.3%的精度,并且我们发现改变BOW方法的图像分块方式对活体检测的性能也有很大影响,表中BOW4采用的是将每张图片按长和宽均分为四块进行编码,BOW2是将每张图片分为左右两块进行编码,BOW1是将整幅图作为一个整体编码。BOW4和BOW2的结果要好于BOW1,说明分块编码能提高活体检测的性能。
表1:BOW在NUAA数据库上与其它方法的比较
方法 | AUC | Accuracy | EER | HTER |
BOW4 | 0.967 | 0.937 | 0.076 | 0.074 |
BOW2 | 0.966 | 0.943 | 0.048 | 0.059 |
BOW1 | 0.833 | 0.816 | 0.250 | 0.209 |
LBP | 0.932 | 0.891 | 0.081 | 0.097 |
WLD | 0.885 | 0.818 | 0.218 | 0.243 |
DoG | 0.717 | 0.746 | 0.359 | 0.362 |
DoG,H-Face | 0.830 | 0.818 | 0.233 | 0.254 |
MsLBP | 0.873 | 0.749 | 0.239 | 0.272 |
MsLBP,H-Face | 0.990 | 0.927 | 0.248 | 0.242 |
对于第二个实验,一共评估了9种不同的方法,它们是:LBP,LBP-TOP,WLD,WLD-TOP,MSLBP(H-Face),MSLBP(Face),DOG(H-Face),DOG(Face)和本发明提出的方法。表2给出了BOW和LBP,LBP-TOP以及WLD这三种常用的活体检测描述子方法在CASIA数据库上的精度,AUC,EER和HTER等性能指标。从表2中可以得知,BOW方法在EER和HTER这两个反映误差的指标上最低,同时在精度和AUC这两个反映准确率的指标上最高。因此,通过表2的结果可以看出将描述子嵌入基于词袋模型的层级视觉编码结构提高了描述子本身的活体检测性能。
表2:BOW在CASIA数据库上与三种描述子的比较
方法 | AUC | Accuracy | EER | HTER |
BOW | 0.946 | 0.911 | 0.112 | 0.198 |
LBP-top | 0.866 | 0.791 | 0.171 | 0.387 |
WLD | 0.854 | 0.871 | 0.177 | 0.222 |
LBP | 0.828 | 0.784 | 0.247 | 0.264 |
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (6)
1.一种基于深度视觉词袋模型的人脸活体检测方法,其特征在于,包括以下步骤:
步骤a、对于训练集中每一个人脸活体图像,计算其对应的LBP特征;
步骤b、利用深度稀疏自编码网络将LBP特征编码成高级特征;
步骤c、利用训练集的人脸图像的类标对整个深度稀疏自编码网络进行训练,得到更具有区分性的高级特征;
步骤d、将步骤c得到更具有区分性的高级特征输入到LIBSVM进行训练,从而建立SVM模型;
步骤e、将步骤a计算的LBP特征输入步骤b的深度稀疏自编码网络得到高级特征,然后利用步骤d建立的SVM模型对其进行分类,得到人脸活体图像的类标。
2.根据权利要求1所述的方法,其特征在于,所述LBP特征采取均匀LBP模式,先提取中心像素点的原始LBP特征,再根据原始LBP特征计算均匀模式的LBP特征,其计算公式为:
其中函数s(x)定义为:
P为像素点(xc,yc)的编码邻域像素点个数,R为编码半径,gc和gp分别是中心点和邻域点的灰度值。
3.根据权利要求1所述的方法,其特征在于,所述深度稀疏自编码网络包括四层神经元:一层输入层、一层输出层以及两层隐层,输入层和两层隐层构成了堆叠的两个稀疏自编码网络;每个稀疏自编码网络包括编码和解码过程,
编码:对于每个输入向量x=(x1,x2,…,xN)T,隐层单元输出为:
h=(h1,h2,…,hM)T=f(Wx+b)
解码:对于隐层单元向量h=(h1,h2,…,hM)T,输出层单元输出为:
y=(y1,y2,…,yN)T=g(W'h+b')
其中函数f和g都采用sigmoid函数z(x)=1/(1+exp(-x))。
4.根据权利要求3所述的方法,其特征在于,对于稀疏自编码网络的稀疏性,使得所有隐层单元的平均激活值为0;由于隐层第j个单元的平均激活值为D是样本个数;对于理想分布和真实分布的相似度采用KL散度来衡量,其计算公式如下:
稀疏自编码网络被描述成下面的优化问题:
根据稀疏自编码网络是一个输入等于输出的网络,即x=y,无监督训练得到权值W,W'和阈值b,b';由训练得到的权值和阈值将LBP特征编码成高级特征,即四层深度稀疏自编码网络的第三层的隐层单元输出值。
5.根据权利要求1所述的方法,其特征在于,对于训练集的人脸图像的类标,利用logistics损失函数进行有监督训练,从而得到更具有区分性的高级特征。
6.根据权利要求1所述的方法,其特征在于,所述SVM模型的分类器使用LIBSVM作为基础的SVM实现工具,SVM模型的分类器选择的核函数为高斯核函数并且采用交叉验证方法进行训练,利用网格搜索方法寻找最优参数集{c,g}。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610570537.0A CN106203373B (zh) | 2016-07-19 | 2016-07-19 | 一种基于深度视觉词袋模型的人脸活体检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610570537.0A CN106203373B (zh) | 2016-07-19 | 2016-07-19 | 一种基于深度视觉词袋模型的人脸活体检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106203373A true CN106203373A (zh) | 2016-12-07 |
CN106203373B CN106203373B (zh) | 2019-04-16 |
Family
ID=57493273
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610570537.0A Active CN106203373B (zh) | 2016-07-19 | 2016-07-19 | 一种基于深度视觉词袋模型的人脸活体检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106203373B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107358157A (zh) * | 2017-06-07 | 2017-11-17 | 阿里巴巴集团控股有限公司 | 一种人脸活体检测方法、装置以及电子设备 |
CN108921231A (zh) * | 2018-07-27 | 2018-11-30 | 首都医科大学附属北京友谊医院 | 分类器的构造方法及装置 |
CN110309692A (zh) * | 2018-03-27 | 2019-10-08 | 杭州海康威视数字技术股份有限公司 | 人脸识别方法、装置及***、模型训练方法及装置 |
US11321963B2 (en) | 2018-01-04 | 2022-05-03 | Hangzhou Hikvision Digital Technology Co., Ltd. | Face liveness detection based on neural network model |
WO2023124869A1 (zh) * | 2021-12-30 | 2023-07-06 | 杭州萤石软件有限公司 | 用于活体检测的方法、装置、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030046254A1 (en) * | 2001-02-27 | 2003-03-06 | Ryu Chang Su | Apparatus for controlling electrical device using bio-signal and method thereof |
CN103955702A (zh) * | 2014-04-18 | 2014-07-30 | 西安电子科技大学 | 基于深度rbf网络的sar图像地物分类方法 |
CN104751160A (zh) * | 2015-03-12 | 2015-07-01 | 西安电子科技大学 | 基于稀疏自动编码深度网络的乳腺图像处理方法 |
CN105243386A (zh) * | 2014-07-10 | 2016-01-13 | 汉王科技股份有限公司 | 人脸活体判断方法以及*** |
-
2016
- 2016-07-19 CN CN201610570537.0A patent/CN106203373B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030046254A1 (en) * | 2001-02-27 | 2003-03-06 | Ryu Chang Su | Apparatus for controlling electrical device using bio-signal and method thereof |
CN103955702A (zh) * | 2014-04-18 | 2014-07-30 | 西安电子科技大学 | 基于深度rbf网络的sar图像地物分类方法 |
CN105243386A (zh) * | 2014-07-10 | 2016-01-13 | 汉王科技股份有限公司 | 人脸活体判断方法以及*** |
CN104751160A (zh) * | 2015-03-12 | 2015-07-01 | 西安电子科技大学 | 基于稀疏自动编码深度网络的乳腺图像处理方法 |
Non-Patent Citations (2)
Title |
---|
J MÄÄTTÄ ET AL.: "Face spoofing detection from single images using micro-texture analysis", 《2011 INTERNATIONAL JOINT CONFERENCE ON BIOMETRICS (IJCB)》 * |
赵春晖,潘泉,梁彦等: "《视频图像运动目标分析》", 1 June 2011, 国防工业出版社 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107358157A (zh) * | 2017-06-07 | 2017-11-17 | 阿里巴巴集团控股有限公司 | 一种人脸活体检测方法、装置以及电子设备 |
US10671870B2 (en) | 2017-06-07 | 2020-06-02 | Alibaba Group Holding Limited | Determining user authenticity with face liveness detection |
US11321963B2 (en) | 2018-01-04 | 2022-05-03 | Hangzhou Hikvision Digital Technology Co., Ltd. | Face liveness detection based on neural network model |
CN110309692A (zh) * | 2018-03-27 | 2019-10-08 | 杭州海康威视数字技术股份有限公司 | 人脸识别方法、装置及***、模型训练方法及装置 |
CN108921231A (zh) * | 2018-07-27 | 2018-11-30 | 首都医科大学附属北京友谊医院 | 分类器的构造方法及装置 |
WO2023124869A1 (zh) * | 2021-12-30 | 2023-07-06 | 杭州萤石软件有限公司 | 用于活体检测的方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN106203373B (zh) | 2019-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106023220B (zh) | 一种基于深度学习的车辆外观部件图像分割方法 | |
WO2021134871A1 (zh) | 基于局部二值模式和深度学习的合成人脸图像取证方法 | |
CN110348319B (zh) | 一种基于人脸深度信息和边缘图像融合的人脸防伪方法 | |
CN107506761B (zh) | 基于显著性学习卷积神经网络的脑部图像分割方法及*** | |
CN106203373B (zh) | 一种基于深度视觉词袋模型的人脸活体检测方法 | |
CN107633513A (zh) | 基于深度学习的3d图像质量的度量方法 | |
CN108875807A (zh) | 一种基于多注意力多尺度的图像描述方法 | |
CN111681178B (zh) | 一种基于知识蒸馏的图像去雾方法 | |
CN104866810A (zh) | 一种深度卷积神经网络的人脸识别方法 | |
CN106778810A (zh) | 基于rgb特征与深度特征的原始图像层融合方法及*** | |
CN112734775A (zh) | 图像标注、图像语义分割、模型训练方法及装置 | |
CN105160400A (zh) | 基于l21范数的提升卷积神经网络泛化能力的方法 | |
CN106529395B (zh) | 基于深度置信网络和k均值聚类的签名图像鉴定方法 | |
CN105095870A (zh) | 基于迁移学习的行人重识别方法 | |
CN105373777A (zh) | 一种用于人脸识别的方法及装置 | |
CN112800876A (zh) | 一种用于重识别的超球面特征嵌入方法及*** | |
CN107103308A (zh) | 一种基于由粗到细深度尺度学习的行人重识别方法 | |
CN113592007B (zh) | 一种基于知识蒸馏的不良图片识别***、方法、计算机及存储介质 | |
CN108052959A (zh) | 一种提高深度学习图片识别算法鲁棒性的方法 | |
CN116543269B (zh) | 基于自监督的跨域小样本细粒度图像识别方法及其模型 | |
CN113160032A (zh) | 一种基于生成对抗网络的无监督多模态图像转换方法 | |
CN110852358A (zh) | 一种基于深度学习的车辆类型判别方法 | |
CN114241564A (zh) | 一种基于类间差异强化网络的人脸表情识别方法 | |
CN114387641A (zh) | 基于多尺度卷积网络和ViT的虚假视频检测方法及*** | |
CN111325766A (zh) | 三维边缘检测方法、装置、存储介质和计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |