CN112906701B - 一种基于多注意力神经网络的细粒度图像识别方法及*** - Google Patents
一种基于多注意力神经网络的细粒度图像识别方法及*** Download PDFInfo
- Publication number
- CN112906701B CN112906701B CN202110170873.7A CN202110170873A CN112906701B CN 112906701 B CN112906701 B CN 112906701B CN 202110170873 A CN202110170873 A CN 202110170873A CN 112906701 B CN112906701 B CN 112906701B
- Authority
- CN
- China
- Prior art keywords
- image
- size
- full
- fine
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提出一种基于多注意力神经网络的细粒度图像识别方法及***,包括:从全尺寸图像中获取对应不同局部特征位置的多个零件掩膜图像;调整所述零件掩膜图像中对应零件边框尺寸,基于调整后的所述零件掩膜图像从所述全尺寸图像中获取零件图像;对所述零件图像对应的零件特征经过分类和加权处理,获取所述全尺寸图像的识别结果;本发明可有效提高细粒度特征的识别准确性。
Description
技术领域
本发明涉及领域,尤其涉及一种基于多注意力神经网络的细粒度图像识别方法及***。
背景技术
目前图像识别领域主要有传统方法和深度学习方法,传统方法主要通过依赖人工注释边框、部分注释来实现定位和识别从属类别。现有技术的缺点:1.人类的大量参与使得零件定义和注释变得昂贵和主观,这显然不是所有细粒度图像识别任务的最优选择。2.利用注意力机制来生成没有零件标签/注释的attention masks,并从attention masks中提取相应的图像部分。3.使用固定大小的矩形裁剪图像以提取关注部分,而不管要识别的对象的大小如何,为后续特征表达造成坏的影响。
发明内容
鉴于以上现有技术存在的问题,本发明提出一种基于多注意力神经网络的细粒度图像识别方法及***,主要解决现有方法人工参与成本高且识别准确性不足的问题。
为了实现上述目的及其他目的,本发明采用的技术方案如下。
一种基于多注意力神经网络的细粒度图像识别方法,包括:
从全尺寸图像中获取对应不同局部特征位置的多个零件掩膜图像;
调整所述零件掩膜图像中对应零件边框尺寸,基于调整后的所述零件掩膜图像从所述全尺寸图像中获取零件图像;
对所述零件图像对应的零件特征经过分类和加权处理,获取所述全尺寸图像的识别结果。
可选地,从全尺寸图像中获取对应不同局部特征位置的多个零件掩膜图像,包括:
获取所述全尺寸图像对应的特征图,并将所述特征图输入多个信道,基于特征的位置向量进行聚类,得到所述零件掩膜图像。
可选地,构建剪裁模块,通过所述剪裁模块调整所述零件掩膜图像中对应零件边框尺寸。
可选地,所述剪裁模块包括全连接层,将所述零件掩膜图像输入所述全连接层,根据设置的尺寸调整所述零件边框尺寸。
可选地,所述尺寸调整方式表示为:
wa=wf+dw
ha=hf+dh
其中,wf和hf为所述零件腌膜图像中零件区域的尺寸;wa和ha分别为设置的边框宽度和高度;dw和dh分别对应宽度和高度的偏移量,作为为所述全连接层的输出。
可选地,对所述零件图像对应的零件特征经过分类和加权处理,包括:
通过卷积层提取所述零件图像的零件特征向量,并将所述零件特征向量输入多个全连接层,通过与所述全连接层连接的分类器的分类输出概率设置所述零件特征向量的权重。
可选地,构建融合损失函数,根据所述融合损失函数经过迭代学习更新网络参数。
可选地,所述融合损失函数表示为:
Lf=Lsort(ωa,ωb)+Lfcls(Y,Y*)
其中,Lsort代表多个信道分组损失,Lfcls代表零件特征向量的分类损失,Y代表预测的标记向量,而Y*代表真实的标记向量;ωa,ωb为零件特征向量的权重;pa t和pb t分别为第a个和第b个正确类别标签t的预测概率。
一种基于多注意力神经网络的细粒度图像识别***,包括:
掩膜获取模块,用于从全尺寸图像中获取对应不同局部特征位置的多个零件掩膜图像;
零件调整模块,用于调整所述零件掩膜图像中对应零件边框尺寸,基于调整后的所述零件掩膜图像从所述全尺寸图像中获取零件图像;
分类识别模块,用于对所述零件图像对应的零件特征经过分类和加权处理,获取所述全尺寸图像的分类识别结果。
如上所述,本发明一种基于多注意力神经网络的细粒度图像识别方法及***,具有以下有益效果。
在进行图像裁剪时,自适应调整零件边框尺寸,并对零件进行加权,产生更具有区分性的细粒度特征,可有效增强后续特征表达,保证识别准确性。
附图说明
图1为本发明一实施例中基于多注意力神经网络的细粒度图像识别方法的流程图。
图2为本发明一实施例中MA-CNN网络的结构示意图。
图3为本发明一实施例中剪裁模块的结构示意图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
请参阅图1,本发明提供一种基于多注意力神经网络的细粒度图像识别方法,包括步骤S01-S03。
在步骤S01中,从全尺寸图像中获取对应不同局部特征位置的多个零件掩膜图像:
在一实施例中,可将全尺寸图像输入MA-CNN网络(Multi-attentionConvolutional Neural Network)。MA-CNN网络由卷积层、信道分组和部分分类子网络组成,具体网络结构请参阅图2。可预先对卷积层进行训练,将全尺寸图像输入卷积层进行局部特征提取,得到多个特征图。特征图的表达式可表示为W*X,其中,*代表卷积,W表示总体参数,其维度是w*h*c,其中w表示宽度,h表示高度,c表示特征通道的数量。
在一实施例中,将特征图输入信道分组的多个信道中,构造局部零件的位置向量,位置向量对应于输入图像中的峰值响应。将每个信道得到的位置向量进行聚类处理,得到零件腌膜图像(attention mask)。由于使用单一的信道很难获取attention masks,因此,采用信道分组的方法以获取更多的attention masks。信道分组可以将空间相关的微妙模式作为紧凑的鉴别部分从一组信道中聚类,这些信道的峰值响应出现在相邻的位置。具体地,假设有512个特征通道,则可将512个特征通道划分为4个部分,attention masks等效于512个特征图的加权和。
通过一组全连接层(Full Connection,FC层)[f1,f2,f3,f4]生成一组信道权重。对于每个部分,fi卷积特征是fi的输入,其权重向量di(X)表示如下:
di(X)=fi(W*X) (1)
其中di(X)的每一个元素di∈(0,1)。
卷积特征通道对应某种类型的视觉模式,因此通过的通道分组来生成attentionmasks;
因此提出了一种信道分组和加权子网络的形式,以将出现在相邻位置的一组信道的紧凑且可区分的部分聚类,作为微妙的空间相关模式的峰值响应,每一个特征通道都可以通过位置向量来表示,位置向量表示如下:
[tx 1,ty 1,tx 2,ty 2,...,tx Ω,ty Ω] (2)
将位置向量当作特征,并将不同的通道分为N组,是N个部分检测器。用长度为c(特征通道的数量)的指示向量来判断每个信道是否属于这个分组,如果属于,那么该信道为1,若不属于则为0,每一个分组都可以由一个指标函数来表示:
[1{1},...,1{j},...,1{c}] (3)
其中1{·}表示如果第j个信号通道属于第i个分组。随着信道分组中FC层的梯度不断更新,最终式(1)中的di(X)会趋向于式(3),通过上述步骤得到信道分组的结果di(X)。
在步骤S02中,调整所述零件掩膜图像中对应零件边框尺寸,基于调整后的所述零件掩膜图像从所述全尺寸图像中获取零件图像:
在一实施例中,构建剪裁模块,通过剪裁模块调整所述零件掩膜图像中对应零件边框尺寸。请参阅图3,剪裁模块可由全连接层组成,全连接层可以为多层结构,每一层全连接层采用TanH作为激活函数,将每一信道分组得到的attention masks作为模块的输入,以使MA-CNN能够自动获取合适的零件。
具体地,在进行裁剪时,FC层可以得出零件边框的高度和宽度的偏移量。重新定义高度wa和宽度ha如下:
wa=wf+dw (4)
ha=hf+dh (5)
其中dw和dh是FC层的输出,wf和hf为所述零件腌膜图像中零件区域的尺寸;将裁剪后的零件输入MA-CNN网络的Character-CNN中生成零件特征向量。
在步骤S03中,对所述零件图像对应的零件特征经过分类和加权处理,获取所述全尺寸图像的分类识别结果:
由于不同的零件有不同的贡献,某些零件特征可能在结果中起很小的作用。因此通过零件特征加权来平衡4个零件的细粒度特征。
在一实施例中,通过卷积层(Character-CNN)提取零件图像的零件特征向量,并将所述特征向量输入多个全连接层,通过与全连接层连接的分类器的分类输出概率设置所述零件特征向量的权重。
具体地,可以将Character-CNN的平均合并结果看成一个维数为512的特征向量。将每个零件的特征向量都输入到FC层,提取一个代表压缩特征的值vi。然后将所得到的4个压缩特征v1,v2,v3,v4再送入下一组FC层,提取出其零件权重:
vi=fi(Wp i*Xp i) (6)
w1,w2,w3,w4=fw(v1,v2,v3,v4) (7)
其中Wp i表示第i个Character-CNN检测到的部分,Xp i表示式(6)中的检测到的部分,wi表示与第i部分所对应的权重。
在一实施例中,定义融合损失函数Lf,通过零件特征向量加权和融合分类对Character-CNNs中的特征进行自适应融合,从而实现对输入的全尺寸图像分类;融合损失函数为零件特征向量的分类损失与全尺寸图像识别损失之和。
融合损失函数Lf定义如下:
Lf=Lsort(ωa,ωb)+Lfcls(Y,Y*) (8)
式(8)中Lsort代表多个信道分组损失,Lfcls代表零件特征向量的分类损失,Y代表预测的标记向量,而Y*代表真实的标记向量;ωa,ωb为零件特征向量的权重。Lsort用于解决不同零件之间的平衡问题,L序列可以根据单个Character-CNN在细粒度类别上的性能,对零件进行加权。假设Character-CNN的分类器softmax的输出概率越大,零件所占的权重也就越大。L序列Lsort的定义如下:
其中pa t和pb t分别代表Character-CNN中第a个和第b个正确类别标签t的预测概率。
在一实施例中,通过融合损失函数反向传播迭代更新网络参数,并在迭代过程中通过剪裁模块对零件腌膜图像进行调整,进一步修正网络中全连接层的权重参数,直到Lsort和Lfcls的值达到稳定,输出最终的全尺寸图像识别结果。
本实施例中还提供了一种基于多注意力神经网络的细粒度图像识别***,用于执行前述方法实施例中所述的基于多注意力神经网络的细粒度图像识别方法。由于***实施例的技术原理与前述方法实施例的技术原理相似,因而不再对同样的技术细节做重复性赘述。
在一实施例中,基于多注意力神经网络的细粒度图像识别***,包括:掩膜获取模块、零件调整模块和分类识别模块,掩膜获取模块用于辅助执行前述方法实施例中的步骤S01;零件调整模块用于辅助执行前述方法实施例中的步骤S02;分类识别模块用于辅助执行前述方法实施例中的步骤S03。
综上所述,本发明一种基于多注意力神经网络的细粒度图像识别方法及***,提出了一种基于attention masks的信息的自适应剪裁模块,用于适当调整裁剪矩形的大小,方便后续Character-CNN的特征表达;提出了一种用于紧凑和多样化的零件学***衡和融合所有关注零件。所以,本发明有效克服了现有技术中的种种缺点而具高度产业利用价值。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。
Claims (6)
1.一种基于多注意力神经网络的细粒度图像识别方法,其特征在于,包括:
从全尺寸图像中获取对应不同局部特征位置的多个零件掩膜图像;
构建剪裁模块,通过所述剪裁模块调整所述零件掩膜图像中对应零件边框尺寸,基于调整后的所述零件掩膜图像从所述全尺寸图像中获取零件图像;所述剪裁模块包括全连接层,将所述零件掩膜图像输入所述全连接层,根据设置的尺寸调整所述零件边框尺寸;所述尺寸调整方式表示为:
wa=wf+dw
ha=hf+dh
其中,wf和hf为所述零件掩膜图像中零件区域的尺寸;wa和ha分别为设置的边框宽度和高度;dw和dh分别对应宽度和高度的偏移量,作为所述全连接层的输出;
对所述零件图像对应的零件特征经过分类和加权处理,获取所述全尺寸图像的识别结果。
2.根据权利要求1所述基于多注意力神经网络的细粒度图像识别方法,其特征在于,从全尺寸图像中获取对应不同局部特征位置的多个零件掩膜图像,包括:
获取所述全尺寸图像对应的特征图,并将所述特征图输入多个信道,基于特征的位置向量进行聚类,得到所述零件掩膜图像。
3.根据权利要求1所述基于多注意力神经网络的细粒度图像识别方法,其特征在于,对所述零件图像对应的零件特征经过分类和加权处理,包括:
通过卷积层提取所述零件图像的零件特征向量,并将所述零件特征向量输入多个全连接层,通过与所述全连接层连接的分类器的分类输出概率设置所述零件特征向量的权重。
4.根据权利要求3所述基于多注意力神经网络的细粒度图像识别方法,其特征在于,构建融合损失函数,根据所述融合损失函数经过迭代学习更新网络参数。
6.一种基于多注意力神经网络的细粒度图像识别***,其特征在于,包括:
掩膜获取模块,用于从全尺寸图像中获取对应不同局部特征位置的多个零件掩膜图像;
零件调整模块,用于构建剪裁模块,通过所述剪裁模块调整所述零件掩膜图像中对应零件边框尺寸,基于调整后的所述零件掩膜图像从所述全尺寸图像中获取零件图像;所述剪裁模块包括全连接层,将所述零件掩膜图像输入所述全连接层,根据设置的尺寸调整所述零件边框尺寸;所述尺寸调整方式表示为:
wa=wf+dw
ha=hf+dh
其中,wf和hf为所述零件掩膜图像中零件区域的尺寸;wa和ha分别为设置的边框宽度和高度;dw和dh分别对应宽度和高度的偏移量,作为所述全连接层的输出;
分类识别模块,用于对所述零件图像对应的零件特征经过分类和加权处理,获取所述全尺寸图像的识别结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110170873.7A CN112906701B (zh) | 2021-02-08 | 2021-02-08 | 一种基于多注意力神经网络的细粒度图像识别方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110170873.7A CN112906701B (zh) | 2021-02-08 | 2021-02-08 | 一种基于多注意力神经网络的细粒度图像识别方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112906701A CN112906701A (zh) | 2021-06-04 |
CN112906701B true CN112906701B (zh) | 2023-07-14 |
Family
ID=76123934
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110170873.7A Active CN112906701B (zh) | 2021-02-08 | 2021-02-08 | 一种基于多注意力神经网络的细粒度图像识别方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112906701B (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2184010A1 (en) * | 2007-06-29 | 2010-05-12 | KATO, Toshinori | White matter enhancing device, white matter enhancing method, and program |
CN107122375A (zh) * | 2016-12-12 | 2017-09-01 | 南京理工大学 | 基于图像特征的图像主体的识别方法 |
CN108288288A (zh) * | 2018-01-16 | 2018-07-17 | 华东交通大学 | 基于视觉识别的精密轴尺寸测量方法、装置和*** |
CN108305250A (zh) * | 2018-01-30 | 2018-07-20 | 昆明理工大学 | 非结构化机器人视觉检测机械零件的同步识别与定位方法 |
KR101928391B1 (ko) * | 2017-07-17 | 2018-12-12 | 서울시립대학교 산학협력단 | 다중분광 영상과 레이더 영상의 융합방법 및 장치 |
CN109085178A (zh) * | 2018-08-28 | 2018-12-25 | 武汉科技大学 | 一种用于增材制造的缺陷指纹精确在线监测方法和反馈策略 |
CN109902693A (zh) * | 2019-02-16 | 2019-06-18 | 太原理工大学 | 一种基于多注意力空间金字塔特征图像识别方法 |
CN110570439A (zh) * | 2018-06-06 | 2019-12-13 | 康耐视公司 | 使用视觉***在图像中查找和分类线的***和方法 |
CN110598029A (zh) * | 2019-09-06 | 2019-12-20 | 西安电子科技大学 | 基于注意力转移机制的细粒度图像分类方法 |
CN111046980A (zh) * | 2020-03-16 | 2020-04-21 | 腾讯科技(深圳)有限公司 | 一种图像检测方法、装置、设备及计算机可读存储介质 |
CN111144490A (zh) * | 2019-12-26 | 2020-05-12 | 南京邮电大学 | 一种基于轮替知识蒸馏策略的细粒度识别方法 |
CN111340088A (zh) * | 2020-02-21 | 2020-06-26 | 苏州工业园区服务外包职业学院 | 图像特征训练方法、模型、装置和计算机存储介质 |
-
2021
- 2021-02-08 CN CN202110170873.7A patent/CN112906701B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2184010A1 (en) * | 2007-06-29 | 2010-05-12 | KATO, Toshinori | White matter enhancing device, white matter enhancing method, and program |
CN107122375A (zh) * | 2016-12-12 | 2017-09-01 | 南京理工大学 | 基于图像特征的图像主体的识别方法 |
KR101928391B1 (ko) * | 2017-07-17 | 2018-12-12 | 서울시립대학교 산학협력단 | 다중분광 영상과 레이더 영상의 융합방법 및 장치 |
CN108288288A (zh) * | 2018-01-16 | 2018-07-17 | 华东交通大学 | 基于视觉识别的精密轴尺寸测量方法、装置和*** |
CN108305250A (zh) * | 2018-01-30 | 2018-07-20 | 昆明理工大学 | 非结构化机器人视觉检测机械零件的同步识别与定位方法 |
CN110570439A (zh) * | 2018-06-06 | 2019-12-13 | 康耐视公司 | 使用视觉***在图像中查找和分类线的***和方法 |
CN109085178A (zh) * | 2018-08-28 | 2018-12-25 | 武汉科技大学 | 一种用于增材制造的缺陷指纹精确在线监测方法和反馈策略 |
CN109902693A (zh) * | 2019-02-16 | 2019-06-18 | 太原理工大学 | 一种基于多注意力空间金字塔特征图像识别方法 |
CN110598029A (zh) * | 2019-09-06 | 2019-12-20 | 西安电子科技大学 | 基于注意力转移机制的细粒度图像分类方法 |
CN111144490A (zh) * | 2019-12-26 | 2020-05-12 | 南京邮电大学 | 一种基于轮替知识蒸馏策略的细粒度识别方法 |
CN111340088A (zh) * | 2020-02-21 | 2020-06-26 | 苏州工业园区服务外包职业学院 | 图像特征训练方法、模型、装置和计算机存储介质 |
CN111046980A (zh) * | 2020-03-16 | 2020-04-21 | 腾讯科技(深圳)有限公司 | 一种图像检测方法、装置、设备及计算机可读存储介质 |
Non-Patent Citations (1)
Title |
---|
基于面成型光固化3D打印制件的尺寸精度;宗学文等;《 工程塑料应用 》;第41-46页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112906701A (zh) | 2021-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110443143B (zh) | 多分支卷积神经网络融合的遥感图像场景分类方法 | |
CN108256544B (zh) | 图片分类方法和装置、机器人 | |
CN103514456B (zh) | 基于压缩感知多核学习的图像分类方法及其装置 | |
CN109063649B (zh) | 基于孪生行人对齐残差网络的行人重识别方法 | |
CN108596211B (zh) | 一种基于集中学习与深度网络学习的遮挡行人再识别方法 | |
CN108090472B (zh) | 基于多通道一致性特征的行人重识别方法及其*** | |
CN111310773A (zh) | 一种高效的卷积神经网络的车牌定位方法 | |
CN109583483A (zh) | 一种基于卷积神经网络的目标检测方法和*** | |
CN104200228B (zh) | 一种安全带识别方法与*** | |
CN110751027B (zh) | 一种基于深度多示例学习的行人重识别方法 | |
CN109190561B (zh) | 一种视频播放中的人脸识别方法及*** | |
CN109446922B (zh) | 一种实时鲁棒的人脸检测方法 | |
CN110674874A (zh) | 基于目标精细组件检测的细粒度图像识别方法 | |
CN111401145B (zh) | 一种基于深度学习与ds证据理论的可见光虹膜识别方法 | |
CN113095263B (zh) | 遮挡下行人重识别模型训练方法、装置及遮挡下行人重识别方法、装置 | |
CN104881682B (zh) | 一种基于保局映射与主成分分析的图像分类方法 | |
CN111046732A (zh) | 一种基于多粒度语义解析的行人重识别方法及存储介质 | |
CN108734145B (zh) | 一种基于密度自适应人脸表征模型的人脸识别方法 | |
CN110263731B (zh) | 一种单步人脸检测*** | |
CN110069959A (zh) | 一种人脸检测方法、装置及用户设备 | |
CN108776777A (zh) | 一种基于Faster RCNN的遥感影像对象间空间关系的识别方法 | |
CN108537109B (zh) | 基于OpenPose的单目相机手语识别方法 | |
CN113936309A (zh) | 一种基于面部分块的表情识别方法 | |
CN115661777A (zh) | 一种联合语义的雾天道路目标检测算法 | |
CN110188864B (zh) | 基于分布表示和分布度量的小样本学习方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 400000 6-1, 6-2, 6-3, 6-4, building 7, No. 50, Shuangxing Avenue, Biquan street, Bishan District, Chongqing Applicant after: CHONGQING ZHAOGUANG TECHNOLOGY CO.,LTD. Address before: 400000 2-2-1, 109 Fengtian Avenue, tianxingqiao, Shapingba District, Chongqing Applicant before: CHONGQING ZHAOGUANG TECHNOLOGY CO.,LTD. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |