CN111582057A - 一种基于局部感受野的人脸验证方法 - Google Patents
一种基于局部感受野的人脸验证方法 Download PDFInfo
- Publication number
- CN111582057A CN111582057A CN202010310755.7A CN202010310755A CN111582057A CN 111582057 A CN111582057 A CN 111582057A CN 202010310755 A CN202010310755 A CN 202010310755A CN 111582057 A CN111582057 A CN 111582057A
- Authority
- CN
- China
- Prior art keywords
- face
- neural network
- input picture
- picture
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
本发明公开了一种基于局部感受野的人脸验证方法,属于计算、推算或计数的技术领域。步骤是:建立外部数据集,对数据集中的样本进行数据增强;建立卷积神经网络,该卷积神经网络的输入为彩色图片,输出为图片中人脸区域对应的特征向量和人脸位置的预测框坐标,测试时根据预测框在图像中的位置输出对应区域的特征向量;利用测试集对预训练好的卷积神经网络进行测试并根据测试结果对卷积神经网络进行微调。本发明根据深度神经网络的平移不变性,利用一个网络有效提取出人脸区域的特征,使特征向量的感受野恰好仅包含人脸,从而有效减少背景信息带来的噪声,保证人脸验证的准确率,同时提升了网络计算的并行度,大大简化了训练过程。
Description
技术领域
本发明公开了一种基于局部感受野的人脸验证方法,涉及人脸验证的计算机视觉技术,属于计算、推算或计数的技术领域。
背景技术
人脸识别是计算机视觉技术中十分重要的一部分,其目标是在一张人脸照片中正确地识别人物的身份。当前主流的方式是利用分类的神经网络对人脸图片进行分类,然而分类网络需要根据固定的类别进行设计,并且在训练完成后无法新增人物身份,在实际使用中十分不灵活。因此我们利用人脸验证的方式进行人脸识别,利用神经网络对人脸图片进行特征抽取生成图片中人脸的特征向量,然后计算不同人脸特征向量之间的欧几里得距离,最后通过设置阈值判断是否为同一个人。这样如果新增加一个身份只需要利用网络生成其人脸特征并保存,再与新输入的样本特征向量进行计算即可进行身份识别。
然而,当前的人脸验证算法都分为两个步骤,首先图片需要经过一个人脸检测网络获取人脸的位置坐标,通过坐标将图片中的人脸部分裁剪下来,通过这种方式减少背景带来的噪声,然后将人脸图片输入到人脸验证网络中进行后续计算。也就是说在进行人脸验证的过程中,需要采用两个网络才可以完成,这就意味着在训练时需要分别训练一个人脸检测网络和一个人脸验证网络,这会在训练时带来不便,同时因为是两个单独的网络,所以在实际使用中会降低网络的并行度,本质上是一种两阶段的人脸验证算法。
卷积神经网络具有平移不变性,因此只需要通过对卷积核和步长的调整就可以得到图片指定区域的特征,也就是说这些特征的感受野对应于图片中的特定区域。利用卷积神经网络的这种性质,可以只获取原图中的人脸区域的特征。本申请旨在提出一种基于局部感受野的人脸验证方法以提高网络的并行度并降低训练步骤的复杂性。
发明内容
本发明的发明目的是针对上述背景技术的不足,提供了一种基于局部感受野的人脸验证方法,利用网络输出的感受野获取人脸区域的特征向量,仅使用一个卷积神经网络即可实现人脸的检测和验证,在提高检测操作和验证操作并行度的同时有效减少图片背景带来的噪声,解决了现有的两阶段人脸验证方法并行度低且训练步骤复杂的技术问题。
本发明为实现上述发明目的采用如下技术方案:
一种基于局部感受野的人脸验证方法,包括如下步骤:
步骤1,将公开的人脸验证数据集或者自行收集的数据集分为训练集、验证集和和测试集;
步骤2,对数据集中的样本进行数据增强,采用如下至少一种方式进行数据增强:平移、缩放、旋转、翻转;
步骤3,建立基于局部感受野的人脸验证卷积神经网络,该卷积神经网络的输入为彩色图片,训练时输出为图片中人脸所属的身份类别和人脸位置的预测框坐标,损失函数采用softmax loss,测试时根据预测框在图像中的位置输出对应区域的特征向量;
步骤4,利用测试集对步骤3预训练好的卷积神经网络进行测试,并根据测试结果对卷积神经网络进行微调。
上述步骤1中,人脸验证训练集采用CASIA-WebFace,测试集采用LFW数据集。
上述步骤1中,将数据集中所有图片都缩放成卷积神经网络的输入尺寸后,进行归一化处理。
上述步骤3中,基于局部感受野的人脸验证的卷积神经网络的有两部分组成,一部分用于检测输入图片中的人脸区域,另一部分用于提取人脸区域的特征向量。在训练时,网络针对输入图片中的不同区域进行人脸特征的抽取,然后根据人脸检测结果挑选人脸区域对应的特征向量,通过全连接层对挑选出的特征向量进行分类训练,输出人脸所属的身份类别和人脸位置的预测框坐标,采用softmax loss作为损失函数,利用Adam优化器进行训练,当准确率不再上升时,保存卷积神经网络模型,得到训练好的卷积神经网络。
上述步骤4中,在对网络进行测试和使用时去掉全连接层,将测试图片样本输入网络中,网络直接输出的人脸特征向量即为本图像中人脸的身份特征,然后通过计算不同测试图片样本特征向量之间的欧氏距离,如果距离小于一定阈值,则认为两张人脸图片为同一个人的图片;否则为不同人的照片。
上述卷积神经网络中,在计算经过网络最后一个卷积层后生成N*N*K维的特征向量,其中,N*N维表示将图片划分为N个区域且每个区域的特征向量大小为1*1*K,同时为了解决人脸出现的位置正好位于区域交界处以致区域无法包含整张人脸的问题,采用大卷积核并以小于卷积核宽度的卷积步长滑动卷积核以使相邻两次卷积操作针对的局部图片相互交叠;在训练时需要在筛选出的特征向量后添加一个全连接层,将每次筛选的特征向量通过全连接层并且采用softmax loss作为损失函数计算网络预测误差。
上述卷积神经网络中,在进行人脸特征进行抽取的同时还需要用人脸检测的方法对输入图片是否存在人脸进行判断,即,对输入图片中的人脸位置坐标进行预测,然后根据坐标确定的人脸区域选择对应的特征向量;在训练时要在人脸分类的损失函数中添加人脸检测的损失函数同时进行训练。
本发明采用上述技术方案,具有以下有益效果:
(1)本发明提出了一种可以利用单个深度神经网络进行人脸验证的方法,该方法利用深度卷积神经网络的平移不变性抽取图像不同区域的特征向量,以检测到的人脸区域为特征向量的局部感受野,利用特征向量的感受野从图片不同区域的特征向量进行筛选,相比于先检测后裁剪的特征向量提取方式,能够在有效减少背景信息带来的噪声的同时减少后续计算中的重复计算。
(2)本发明通过掩码矩阵实现基于感受野的特征向量筛选,通过一个神经网络即可实现人脸的检测和验证,相比于两阶段的人脸验证算法,简化了训练过程,提高了计算的并行度。
附图说明
图1是本发明验证人脸的神经网络的结构图。
图2是本发明的特征向量映射示意图。
具体实施方式
下面结合附图对发明的技术方案进行详细说明。
本发明提供一种基于局部感受野的人脸验证方法,包括如下步骤:
建立外部数据集:根据研究机构的公开细粒度分类数据库或自行搜集的数据建立外部数据集,示例性地,人脸验证训练集可以采用CASIA-WebFace,测试集采用LFW数据集。每张图片都应含有身份标注,指明该图片属于哪个类别;每张图片还需要有人脸框坐标,指标明人脸在图片中的位置。应当收集尽可能多的不同身份的人脸,每个身份包含尽可能多的样本,同时减少数据集中错误标注样本的数量。
数据增强:利用深度神经网络完成人脸验证任务容易导致过拟合,但是训练样本数通常远小于需要的样本数,手动数据增强可以减少过拟合。用于扩大数据集的数据增强方法通常有以下四种:平移、缩放、旋转、翻转。
训练模型:建立卷积神经网络,该卷积神经网络的输入为彩色图片,训练时输出为图片中人脸所属的身份类别和人脸位置的预测框坐标,损失函数采用softmax loss,测试时根据预测框在图像中的位置输出对应区域的特征向量;基于局部感受野的人脸验证网络的结构中有两部分组成,其一为图中人脸的检测部分;其二为人脸区域的特征向量部分;在训练时网络将会针对图中的不同区域进行人脸特征的抽取,然后根据人脸检测的结果挑选出图片中人脸区域对应的特征向量;在训练时需要在筛选出的特征向量后添加一个全连接层,每次筛选的特征向量通过全连接层,采用softmax loss作为损失函数,利用Adam优化器进行训练,当准确率不再上升时,保存卷积神经网络模型,得到训练好的卷积神经网络;在对网络进行测试和使用时去掉全连接层直接输出图片中人脸区域的特征向量,计算不同图片特征向量之间的欧氏距离,如果距离小于一定阈值,则认为两张人脸图片为同一个人的图片;否则为不同人的照片。
在计算经过网络最后一个卷积层后生成N*N*K维的特征向量,其中,N*N维表示将图片划分为N个区域且每个区域的特征向量大小为1*1*K,同时为了解决人脸出现的位置正好位于区域的交界处以致区域无法包含整张人脸的问题,采用大卷积核以及小于卷积核宽度的卷积步长,使得卷积核在滑动计算时能够相互交叠;在训练时需要在筛选出的特征向量后添加一个全连接层,将每次筛选的特征向量通过全连接层并且采用softmax loss作为损失函数计算网络预测误差。
以下将结合附图及具体实施例,对本发明的技术方案进行详细说明。
本发明的基于局部感受野的人脸验证方法包括以下三个步骤。
步骤一、建立外部数据集:训练集采用CASIA-WebFace,测试集采用LFW数据集。CASIA-WebFace数据集中一共有10575个身份,每个身份有多张照片;LFW数据集中5749个身份,一共13233张图片。所有图像都缩放至250*250*3的大小。
步骤二、进行数据增强:对所得到的数据集中的样本进行平移操作,对每张图片进行随机平移。在深度神经网络训练过程中容易产生过拟合,同时通过随机平移使人脸处于图片中的任意位置。所以采用随机平移的方式增加网络的鲁棒性。
步骤三、建立卷积神经网络:本发明使用的深度神经网络如图1所示,输入神经网络的是像素为250*250*3的彩色图片,彩色图片首先依次经过一系列的卷积层得到13*13*896的特征图,然后分为两个支路其中一条支路继续进行图像特征的提取,对图片不同区域生成对应的特征向量,如图1中生成了3*3个128维的特征向量,即将原图分成了9个固定的区域,每个区域对应一个128维向量,如果增加生成的特征向量数量,原图中对应的区域也会更多,每个区域大小也会更小;另一个支路用于对人脸的位置进行预测,如图1所示,13*13*896的特征图经过卷积生成对人脸坐标的预测框和此预测框中是人脸还是背景的分类预测,人脸置信度最高的框则为人脸所在的框,将人脸所在框中心点所在的像素点置为1其余像素点置0得到15*15的掩码矩阵,然后再经过一个大小为5步长也为5的最大池化操作将掩码矩阵变成3*3,其中,1所在位置即是3*3*128维向量中人脸区域对应特征向量所在位置,所以通过掩码矩阵可以挑选出人脸区域所对应的特征向量。在训练时需要在筛选出特征向量之后添加一个全连接层用于分类进行softmax loss的计算,需要注意的是每张图片只有人脸区域对应的那个特征向量才计算softmax loss,网络的损失函数为softmax loss与人脸检测支路中的误差之和。在网络训练完成后,将全连接层去掉,网络直接输出测试图片的特征向量,对于不同的输入样本计算其特征向量之间的欧几里得距离,如果大于某一阈值则认为不是同一个人,否则为同一个人。
本发明还提供一种方法用来解决人脸位置处于区域边界的情况,人脸9个特征向量与图片中对应区域的映射关系如图2所示,如果人脸处于某一区域中间则可以较好地抽取特征,然而如果人脸处于两个区域的交界处则会对特征抽取产生影响,本发明在提取特征向量的卷积层采用大的卷积核并且小步长来缓解这种情况,采用的大卷积核高和宽为特征图高和宽的2/3并向下取整,由于输出的特征向量数量是固定的,所以根据公式(1)即可确定卷积步长。在公式(1)中feature为最终生成的特征向量的大小,在图1中即为3,input则为输入的特征图大小,在图1中即为11,选用的卷积核大小kernel为7,那么可以计算出步长stride大小为2。
例如,最后一层的输入特征图为11*11,卷积核采用7*7步长为2,输出为3*3;由于在进行卷积计算时,卷积核只会滑动一小步使得卷积有交叠,这样位于区域交界处的人脸特征也能够被较好地抽取。
综合上述,本发明一种基于局部感受野的人脸验证方法,利用深度卷积神经网络的平移不变性对图像中的不同区域分别进行特征抽取,有效地降低了背景信息对人脸特征抽取的影响,同时利用人脸检测的方法预测出人脸所在区域,挑选出人脸区域对应的特征向量,用于人脸验证。与两阶段的人脸验证方法相比,不需要先用人脸检测网络将人脸部分裁剪出来再进行人脸验证,有效提升人脸验证的并行度,在网络训练时也不用训练两个网络,大大简化了网络的训练过程。
以上实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想在技术方案基础上所做的任何改动均落入本发明保护范围之内。
Claims (10)
1.一种基于局部感受野的人脸验证方法,其特征在于,训练对输入图片进行人脸验证的神经网络,所述神经网络检测输入图片人脸区域并对输入图片各区域提取特征向量,从提取的所有特征向量中筛选出输入图片人脸区域的特征向量,利用训练好的神经网络提取不同测试图片人脸区域的特征向量,在两张测试图片人脸区域特征向量的欧式距离小于阈值时输出两张测试图片为同一人脸图片的验证结果。
2.根据权利要求1所述一种基于局部感受野的人脸验证方法,其特征在于,所述神经网络通过读取输入图片的人脸预测框信息检测输入图片人脸区域,在人脸预测框所选区域为人脸分类结果时,选取置信度最高的人脸预测框所选区域为输入图片人脸区域。
3.根据权利要求1所述一种基于局部感受野的人脸验证方法,其特征在于,采用表征人脸位置的掩码矩阵从提取的所有特征向量中筛选出输入图片人脸区域的特征向量。
4.根据权利要求1所述一种基于局部感受野的人脸验证方法,其特征在于,在训练对输入图片进行人脸验证的神经网络的过程中,筛选出的输入图片人脸区域的特征向量输入至一个全连接层后得到分类结果。
5.根据权利要求1所述一种基于局部感受野的人脸验证方法,其特征在于,在训练对输入图片进行人脸验证的神经网络的过程中,以softmax loss为损失函数,反向传播输入图片人脸区域的特征向量的分类误差与输入图片人脸区域的检测误差之和修正网络参数。
6.根据权利要求1所述一种基于局部感受野的人脸验证方法,其特征在于,以小于卷积核宽度的卷积步长滑动大卷积核的方式检测输入图片人脸区域。
7.根据权利要求1所述一种基于局部感受野的人脸验证方法,其特征在于,对输入图片和测试图片进行尺寸缩放处理、归一化处理和数据增强处理,所述数据增强处理包含但不限于平移、缩放、旋转、翻转。
8.根据权利要求3所述一种基于局部感受野的人脸验证方法,其特征在于,所述掩码矩阵对应人脸位置的元素为1,其余元素为0。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1所述的人脸验证方法。
10.终端设备,其特征在于,包括:存储器、处理器及存储在存储器上并可以在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1所述人脸验证方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010310755.7A CN111582057B (zh) | 2020-04-20 | 2020-04-20 | 一种基于局部感受野的人脸验证方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010310755.7A CN111582057B (zh) | 2020-04-20 | 2020-04-20 | 一种基于局部感受野的人脸验证方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111582057A true CN111582057A (zh) | 2020-08-25 |
CN111582057B CN111582057B (zh) | 2022-02-15 |
Family
ID=72116807
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010310755.7A Active CN111582057B (zh) | 2020-04-20 | 2020-04-20 | 一种基于局部感受野的人脸验证方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111582057B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112132092A (zh) * | 2020-09-30 | 2020-12-25 | 四川弘和通讯有限公司 | 一种基于卷积神经网络的灭火器和灭火毯的识别方法 |
CN113240430A (zh) * | 2021-06-16 | 2021-08-10 | 中国银行股份有限公司 | 移动支付验证方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106503656A (zh) * | 2016-10-24 | 2017-03-15 | 厦门美图之家科技有限公司 | 一种图像分类方法、装置和计算设备 |
CN106778527A (zh) * | 2016-11-28 | 2017-05-31 | 中通服公众信息产业股份有限公司 | 一种基于三重损失的改进的神经网络行人再识别方法 |
CN106845421A (zh) * | 2017-01-22 | 2017-06-13 | 北京飞搜科技有限公司 | 基于多区域特征与度量学习的人脸特征识别方法及*** |
CN107341447A (zh) * | 2017-06-13 | 2017-11-10 | 华南理工大学 | 一种基于深度卷积神经网络和证据k近邻的人脸核实方法 |
US20180350071A1 (en) * | 2017-05-31 | 2018-12-06 | The Procter & Gamble Company | Systems And Methods For Determining Apparent Skin Age |
CN109242032A (zh) * | 2018-09-21 | 2019-01-18 | 桂林电子科技大学 | 一种基于深度学习的目标检测方法 |
-
2020
- 2020-04-20 CN CN202010310755.7A patent/CN111582057B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106503656A (zh) * | 2016-10-24 | 2017-03-15 | 厦门美图之家科技有限公司 | 一种图像分类方法、装置和计算设备 |
CN106778527A (zh) * | 2016-11-28 | 2017-05-31 | 中通服公众信息产业股份有限公司 | 一种基于三重损失的改进的神经网络行人再识别方法 |
CN106845421A (zh) * | 2017-01-22 | 2017-06-13 | 北京飞搜科技有限公司 | 基于多区域特征与度量学习的人脸特征识别方法及*** |
US20180350071A1 (en) * | 2017-05-31 | 2018-12-06 | The Procter & Gamble Company | Systems And Methods For Determining Apparent Skin Age |
CN107341447A (zh) * | 2017-06-13 | 2017-11-10 | 华南理工大学 | 一种基于深度卷积神经网络和证据k近邻的人脸核实方法 |
CN109242032A (zh) * | 2018-09-21 | 2019-01-18 | 桂林电子科技大学 | 一种基于深度学习的目标检测方法 |
Non-Patent Citations (2)
Title |
---|
DIANATURCSANY等: "Local receptive field constrained deep networks", 《INFORMATION SCIENCES》 * |
卢泓宇等: "卷积神经网络特征重要性分析及增强特征选择模型", 《软件学报》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112132092A (zh) * | 2020-09-30 | 2020-12-25 | 四川弘和通讯有限公司 | 一种基于卷积神经网络的灭火器和灭火毯的识别方法 |
CN113240430A (zh) * | 2021-06-16 | 2021-08-10 | 中国银行股份有限公司 | 移动支付验证方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111582057B (zh) | 2022-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110287960B (zh) | 自然场景图像中曲线文字的检测识别方法 | |
CN110363182B (zh) | 基于深度学习的车道线检测方法 | |
CN110348319B (zh) | 一种基于人脸深度信息和边缘图像融合的人脸防伪方法 | |
CN110532920B (zh) | 基于FaceNet方法的小数量数据集人脸识别方法 | |
CN107358242B (zh) | 目标区域颜色识别方法、装置及监控终端 | |
CN110852316B (zh) | 一种采用密集结构卷积网络的图像篡改检测和定位方法 | |
CN112150493B (zh) | 一种基于语义指导的自然场景下屏幕区域检测方法 | |
CN111612008B (zh) | 基于卷积网络的图像分割方法 | |
CN112801146B (zh) | 一种目标检测方法及*** | |
CN107633226B (zh) | 一种人体动作跟踪特征处理方法 | |
Wang et al. | Small-object detection based on yolo and dense block via image super-resolution | |
CN110060237A (zh) | 一种故障检测方法、装置、设备及*** | |
CN112784810B (zh) | 手势识别方法、装置、计算机设备和存储介质 | |
CN111353544B (zh) | 一种基于改进的Mixed Pooling-YOLOV3目标检测方法 | |
CN112070044B (zh) | 一种视频物体分类方法及装置 | |
CN110414344A (zh) | 一种基于视频的人物分类方法、智能终端及存储介质 | |
CN111709313B (zh) | 基于局部和通道组合特征的行人重识别方法 | |
CN109903339B (zh) | 一种基于多维融合特征的视频群体人物定位检测方法 | |
CN113487610B (zh) | 疱疹图像识别方法、装置、计算机设备和存储介质 | |
US11809519B2 (en) | Semantic input sampling for explanation (SISE) of convolutional neural networks | |
CN116645592B (zh) | 一种基于图像处理的裂缝检测方法和存储介质 | |
CN113011253B (zh) | 基于ResNeXt网络的人脸表情识别方法、装置、设备及存储介质 | |
CN110781980A (zh) | 目标检测模型的训练方法、目标检测方法及装置 | |
CN111582057B (zh) | 一种基于局部感受野的人脸验证方法 | |
CN114299383A (zh) | 基于密度图与注意力机制融合的遥感图像目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |