CN109086779B - 一种基于卷积神经网络的注意力目标识别方法 - Google Patents
一种基于卷积神经网络的注意力目标识别方法 Download PDFInfo
- Publication number
- CN109086779B CN109086779B CN201810849427.7A CN201810849427A CN109086779B CN 109086779 B CN109086779 B CN 109086779B CN 201810849427 A CN201810849427 A CN 201810849427A CN 109086779 B CN109086779 B CN 109086779B
- Authority
- CN
- China
- Prior art keywords
- feature map
- feature
- convolution
- neural network
- characteristic diagram
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明的一种基于卷积神经网络的注意力目标识别方法,通过对卷积神经网络的不同层次的特征图进行特征增强以及特征注意力两大处理,从而获得更加具有表征目标物体能力的特征图,然后将所得的特征图分别进行目标检测操作,这样既保留了浅层特征图中的小目标信息,也保留了深层特征中的大目标信息,使得特征图更加具有表征目标物体的能力,作为一种单阶段目标检测器,在保证目标检测效率的同时,大大提升了目标检测的精度。
Description
技术领域
本发明涉及一种注意力目标识别方法。特别是涉及一种基于卷积神经网络的注意力目标识别方法。
背景技术
目标检测是计算机视觉领域中一项具有极大挑战性的任务,近几年,卷积神经网络被应用在目标检测任务上取得了显著的效果,从而引起科研人员对于卷积神经网络的模型的研究兴趣,模型的层数也不断被加深。但是,当模型的层数达到一定数目时,会造成网络在反向传播学习过程中梯度消失的问题,导致网络将不能有效地进行特征学习。深度残差网络被提出后,很好地解决了梯度消失的问题,使得神经网络模型可以向更深层次发展,常见的深度残差网络有Resent50,Resnet101,Resnet152等,在提升目标任务方面也有更好地表现。
注意力模型近几年也被广泛应用到包括目标检测在内的不同类型的深度学习任务当中,是一个对神经网络结构的较重要地改进机制。该模型借鉴了人类视觉的注意力机制,视觉注意力机制是人类视觉所特有的大脑信号处理机制。当人类在看一幅图片时,首先获得需要重点关注的目标区域,也就是一般所说的注意力焦点,而后对这一区域投入更多注意力资源,以获取更多所需要关注目标的细节信息,而抑制其他无用信息。人类的视觉注意力机制极大地提高了视觉信息处理地效率与准确性。将注意力模型机制有效地引入到神经网络中,将会提高网络对于图片中目标物体特征学习地准确性与效率,从而会进一步提高对物体检测的性能。
发明内容
本发明所要解决的技术问题是,提供一种对既含有大目标物体又含有小目标物体的图片有较好检测性能的基于卷积神经网络的注意力目标识别方法。
本发明所采用的技术方案是:一种基于卷积神经网络的注意力目标识别方法,包括如下步骤:
1)通过卷积神经网络获取图像的特征,分别得到C3特征图、C4特征图和C5特征图;
2)对所得的C3特征图、C4特征图和C5特征图分别采用1*1的卷积核,进行步长为1,卷积核通道数目为256的卷积操作,卷积操作后分别对应得到P3特征图、P4特征图和P5特征图;
3)对步骤2)得的P3特征图、P4特征图和P5特征图分别进行特征增强处理;
4)对P5特征图采用3*3的卷积核,进行步长为2,卷积核通道数目为256的卷积操作,得到P6特征图,对P6特征图与本身的元素对应相乘,得到特征增强后的P6*特征图;
5)对P6特征图采用设定的激活函数对所得特征进行激活操作,然后采用3*3的卷积核,进行步长为2,卷积核通道数目为256的卷积操作,得到P7特征图,将P7特征图与本身对应元素相乘,得到特征增强后的P7*特征图;
6)将P5′特征图经过两层卷积层,卷积核是1*1,步长为1,卷积核的通道数目为256,进行卷积操作后,再采用Sigmoid激活函数进行激活操作,得到的结果与P4特征图对应元素进行相乘,即实现了对特征的注意力操作,得到P8特征图;
7)将P4′特征图经过两层卷积层,卷积核是1*1,步长为1,卷积核的通道数目为256,进行卷积操作后,再采用Sigmoid激活函数进行激活操作,得到的结果与P3特征图对应元素进行相乘,即实现了对特征的注意力操作,得到P9特征图;
8)对所得的P3*特征图、P4*特征图、P5*特征图、P8特征图和P9特征图分别采用3*3的卷积核,进行步长为1,卷积核通道数目为256的卷积操作,卷积操作后分别对应得到F3特征图、F4特征图、F5特征图、F8特征图、F9特征图;
9)对所得的F3特征图、F4特征图、F5特征图、P6*特征图、P7*特征图、F8特征图和F9特征图,分别进行候选框采样,采样间隔依次对应为8、16、32、64、128、16、8,采样面积大小依次对应为32*32、64*64、128*128、256*256、512*512、64*64、32*32,候选框的长宽比选取为1:1和1:2和2:1三种比例,对得到的候选框分别判断是否含目标物体,将含目标物体的候选框分别进行分类和坐标回归处理,完成对目标的识别;
10)采用交叉熵损失函数和smoothL1函数通过反向传播,对卷积核的参数进行优化。
步骤1)所述的通过卷积神经网络获取图像的特征,是从深度残差网络或VGG16网络或VGG19网络获取图像的特征,包括将COCO数据集中训练集的图片按照每批次若干张图像输入到卷积神经网络中,对应卷积神经网络的stage3,stage4,stage5分别得到C3特征图、C4特征图和C5特征图。
步骤3)所述的特征增强处理,是将P4特征图经过上采样处理得到与P3特征图维度一致的P4′特征图,将P4′特征图与P3特征图对应元素相乘得到特征增强后的P3*特征图;将P5特征图经过上采样处理得到与P4特征图维度一致的P5′特征图,将P5′特征图与P4特征图对应元素相乘得到特征增强后的P4*特征图;P5特征图与自己本身的元素对应相乘,得到特征增强后的P5*特征图。
步骤8)所述的分类,是对从含目标物体的候选框中提出的特征图使用分类器判别种类;所述的坐标回归处理是通过边界框回归模型进行坐标回归。
步骤9)所述的优化是采用随机梯度下降方法或Adam优化算法进行优化。
本发明的一种基于卷积神经网络的注意力目标识别方法,通过对卷积神经网络的不同层次的特征图进行特征增强以及特征注意力两大处理,从而获得更加具有表征目标物体能力的特征图,然后将所得的特征图分别进行目标检测操作,这样既保留了浅层特征图中的小目标信息,也保留了深层特征中的大目标信息,使得特征图更加具有表征目标物体的能力,作为一种单阶段目标检测器,在保证目标检测效率的同时,大大提升了目标检测的精度。
附图说明
图1是本发明一种基于卷积神经网络的注意力目标识别方法的流程图。
具体实施方式
下面结合实施例和附图对本发明的一种基于卷积神经网络的注意力目标识别方法做出详细说明。
本发明的一种基于卷积神经网络的注意力目标识别方法,主要针对两个方面:一是特征增强操作,通过特征图相乘加权的方式,提升特征图中的目标物体像素的权重,二是通过注意力机制,能够使得网络快速关注到特征图中的目标物体,结合这两种方面的特征操作使得待检测的特征图更加具有表征目标物体的能力。
如图1所示,本发明的一种基于卷积神经网络的注意力目标识别方法,包括如下步骤:
1)通过卷积神经网络获取图像的特征,分别得到C3特征图、C4特征图和C5特征图。具体是从深度残差(Resnet)网络或VGG16网络或VGG19网络获取图像的特征,包括将COCO数据集中训练集的图片按照每批次若干张图像输入到卷积神经网络中,对应卷积神经网络的stage3,stage4,stage5分别得到如图1所示的C3特征图、C4特征图和C5特征图。
2)对所得的C3特征图、C4特征图和C5特征图分别采用1*1的卷积核,进行步长为1,卷积核通道数目为256的卷积操作,卷积操作后分别对应得到P3特征图、P4特征图和P5特征图;
3)对步骤2)得的P3特征图、P4特征图和P5特征图分别进行特征增强处理,所述的特征增强处理,是将P4特征图经过上采样处理得到与P3特征图维度一致的P4′特征图,将P4′特征图与P3特征图对应元素相乘得到特征增强后的P3*特征图;将P5特征图经过上采样处理得到与P4特征图维度一致的P5′特征图,将P5′特征图与P4特征图对应元素相乘得到特征增强后的P4*特征图;P5特征图与自己本身的元素对应相乘,得到特征增强后的P5*特征图。
4)对P5特征图采用3*3的卷积核,进行步长为2,卷积核通道数目为256的卷积操作,得到P6特征图,对P6特征图与本身的元素对应相乘,得到特征增强后的P6*特征图;
5)对P6特征图采用设定的激活函数如ReLU激活函数或Sigmoid激活函数或LeakyReLUs激活函数对所得特征进行激活操作,然后采用3*3的卷积核,进行步长为2,卷积核通道数目为256的卷积操作,得到P7特征图,将P7特征图与本身对应元素相乘,得到特征增强后的P7*特征图;
6)将P5′特征图经过两层卷积层,卷积核是1*1,步长为1,卷积核的通道数目为256,进行卷积操作后,再采用Sigmoid激活函数进行激活操作,得到的结果与P4特征图对应元素进行相乘,即实现了对特征的注意力操作,得到P8特征图;
7)将P4′特征图经过两层卷积层,卷积核是1*1,步长为1,卷积核的通道数目为256,进行卷积操作后,再采用Sigmoid激活函数进行激活操作,得到的结果与P3特征图对应元素进行相乘,即实现了对特征的注意力操作,得到P9特征图;
8)对所得的P3*特征图、P4*特征图、P5*特征图、P8特征图和P9特征图分别采用3*3的卷积核,进行步长为1,卷积核通道数目为256的卷积操作,卷积操作后分别对应得到F3特征图、F4特征图、F5特征图、F8特征图、F9特征图;
9)对所得的F3特征图、F4特征图、F5特征图、P6*特征图、P7*特征图、F8特征图和F9特征图分别进行候选框采样,采样间隔依次对应为8、16、32、64、128、16、8,采样面积大小依次对应为32*32、64*64、128*128、256*256、512*512、64*64、32*32,候选框的长宽比选取为1:1和1:2和2:1三种比例,对得到的候选框分别判断是否含目标物体,将含目标物体的候选框分别进行分类和坐标回归处理,完成对目标的识别。所述的分类,是对从含目标物体的候选框中提出的特征图使用分类器判别种类;所述的坐标回归处理是通过边界框回归模型进行坐标回归。
10)采用交叉熵损失函数和smoothL1函数通过反向传播,对卷积核的参数进行优化,所述的优化是采用随机梯度下降方法或Adam优化算法进行优化。
Claims (4)
1.一种基于卷积神经网络的注意力目标识别方法,其特征在于,包括如下步骤:
1)通过卷积神经网络获取图像的特征,分别得到C3特征图、C4特征图和C5特征图;
2)对所得的C3特征图、C4特征图和C5特征图分别采用1*1的卷积核,进行步长为1,卷积核通道数目为256的卷积操作,卷积操作后分别对应得到P3特征图、P4特征图和P5特征图;
3)对步骤2)得的P3特征图、P4特征图和P5特征图分别进行特征增强处理;所述的特征增强处理,是将P4特征图经过上采样处理得到与P3特征图维度一致的P4′特征图,将P4′特征图与P3特征图对应元素相乘得到特征增强后的P3*特征图;将P5特征图经过上采样处理得到与P4特征图维度一致的P5′特征图,将P5′特征图与P4特征图对应元素相乘得到特征增强后的P4*特征图;P5特征图与自己本身的元素对应相乘,得到特征增强后的P5*特征图;
4)对P5特征图采用3*3的卷积核,进行步长为2,卷积核通道数目为256的卷积操作,得到P6特征图,对P6特征图与本身的元素对应相乘,得到特征增强后的P6*特征图;
5)对P6特征图采用设定的激活函数对所得特征进行激活操作,然后采用3*3的卷积核,进行步长为2,卷积核通道数目为256的卷积操作,得到P7特征图,将P7特征图与本身对应元素相乘,得到特征增强后的P7*特征图;
6)将P5′特征图经过两层卷积层,卷积核是1*1,步长为1,卷积核的通道数目为256,进行卷积操作后,再采用Sigmoid激活函数进行激活操作,得到的结果与P4特征图对应元素进行相乘,即实现了对特征的注意力操作,得到P8特征图;
7)将P4′特征图经过两层卷积层,卷积核是1*1,步长为1,卷积核的通道数目为256,进行卷积操作后,再采用Sigmoid激活函数进行激活操作,得到的结果与P3特征图对应元素进行相乘,即实现了对特征的注意力操作,得到P9特征图;
8)对所得的P3*特征图、P4*特征图、P5*特征图、P8特征图和P9特征图分别采用3*3的卷积核,进行步长为1,卷积核通道数目为256的卷积操作,卷积操作后分别对应得到F3特征图、F4特征图、F5特征图、F8特征图、F9特征图;
9)对所得的F3特征图、F4特征图、F5特征图、P6*特征图、P7*特征图、F8特征图和F9特征图,分别进行候选框采样,采样间隔依次对应为8、16、32、64、128、16、8,采样面积大小依次对应为32*32、64*64、128*128、256*256、512*512、64*64、32*32,候选框的长宽比选取为1:1和1:2和2:1三种比例,对得到的候选框分别判断是否含目标物体,将含目标物体的候选框分别进行分类和坐标回归处理,完成对目标的识别;
10)采用交叉熵损失函数和smooth L1 函数通过反向传播,对卷积核的参数进行优化。
2.根据权利要求1所述的基于卷积神经网络的注意力目标识别方法,其特征在于,步骤1)所述的通过卷积神经网络获取图像的特征,是从深度残差网络或VGG16网络或VGG19网络获取图像的特征,包括将COCO数据集中训练集的图片按照每批次若干张图像输入到卷积神经网络中,对应卷积神经网络的stage3,stage4,stage5分别得到C3特征图、C4特征图和C5特征图。
3.根据权利要求1所述的基于卷积神经网络的注意力目标识别方法,其特征在于,步骤8)所述的分类,是对从含目标物体的候选框中提出的特征图使用分类器判别种类;所述的坐标回归处理是通过边界框回归模型进行坐标回归。
4.根据权利要求1所述的基于卷积神经网络的注意力目标识别方法,其特征在于,步骤9)所述的优化是采用随机梯度下降方法或Adam优化算法进行优化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810849427.7A CN109086779B (zh) | 2018-07-28 | 2018-07-28 | 一种基于卷积神经网络的注意力目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810849427.7A CN109086779B (zh) | 2018-07-28 | 2018-07-28 | 一种基于卷积神经网络的注意力目标识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109086779A CN109086779A (zh) | 2018-12-25 |
CN109086779B true CN109086779B (zh) | 2021-11-09 |
Family
ID=64833426
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810849427.7A Active CN109086779B (zh) | 2018-07-28 | 2018-07-28 | 一种基于卷积神经网络的注意力目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109086779B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110084794B (zh) * | 2019-04-22 | 2020-12-22 | 华南理工大学 | 一种基于注意力卷积神经网络的皮肤癌图片识别方法 |
CN110222575B (zh) * | 2019-05-07 | 2021-06-29 | 杭州智尚云科信息技术有限公司 | 基于注意力机制目标检测的设备综合效率分析方法、装置、***、设备及存储介质 |
CN110110665B (zh) * | 2019-05-08 | 2021-05-04 | 北京创源微致软件有限公司 | 一种驾驶环境下手部区域的检测方法 |
CN110163864B (zh) * | 2019-05-28 | 2020-12-04 | 北京迈格威科技有限公司 | 图像分割方法、装置、计算机设备和存储介质 |
CN110251120B (zh) * | 2019-06-06 | 2021-03-30 | 山东省计算中心(国家超级计算济南中心) | 基于注意力机制的深度残差神经网络的心电图分类方法 |
CN110210572B (zh) * | 2019-06-10 | 2023-02-07 | 腾讯科技(深圳)有限公司 | 图像分类方法、装置、存储介质及设备 |
CN112307853A (zh) * | 2019-08-02 | 2021-02-02 | 成都天府新区光启未来技术研究院 | 航拍图像的检测方法、存储介质和电子装置 |
CN111489334B (zh) * | 2020-04-02 | 2023-08-08 | 暖屋信息科技(苏州)有限公司 | 一种基于卷积注意力神经网络的缺陷工件图像识别方法 |
CN117172285A (zh) * | 2021-02-27 | 2023-12-05 | 华为技术有限公司 | 一种感知网络及数据处理方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107316058A (zh) * | 2017-06-15 | 2017-11-03 | 国家新闻出版广电总局广播科学研究院 | 通过提高目标分类和定位准确度改善目标检测性能的方法 |
CN107516316A (zh) * | 2017-07-19 | 2017-12-26 | 郑州禅图智能科技有限公司 | 一种在fcn中引入聚焦机制对静态人体图像进行分割的方法 |
CN107563405A (zh) * | 2017-07-19 | 2018-01-09 | 同济大学 | 基于多分辨率神经网络的车库自动驾驶语义目标识别方法 |
WO2018035473A2 (en) * | 2016-08-18 | 2018-02-22 | Google Llc | Processing fundus images using machine learning models |
WO2018053340A1 (en) * | 2016-09-15 | 2018-03-22 | Twitter, Inc. | Super resolution using a generative adversarial network |
WO2018094295A1 (en) * | 2016-11-18 | 2018-05-24 | Salesforce.Com, Inc. | Adaptive attention model for image captioning |
CN108228703A (zh) * | 2017-10-31 | 2018-06-29 | 北京市商汤科技开发有限公司 | 图像问答方法、装置、***和存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11308350B2 (en) * | 2016-11-07 | 2022-04-19 | Qualcomm Incorporated | Deep cross-correlation learning for object tracking |
-
2018
- 2018-07-28 CN CN201810849427.7A patent/CN109086779B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018035473A2 (en) * | 2016-08-18 | 2018-02-22 | Google Llc | Processing fundus images using machine learning models |
WO2018053340A1 (en) * | 2016-09-15 | 2018-03-22 | Twitter, Inc. | Super resolution using a generative adversarial network |
WO2018094295A1 (en) * | 2016-11-18 | 2018-05-24 | Salesforce.Com, Inc. | Adaptive attention model for image captioning |
CN107316058A (zh) * | 2017-06-15 | 2017-11-03 | 国家新闻出版广电总局广播科学研究院 | 通过提高目标分类和定位准确度改善目标检测性能的方法 |
CN107516316A (zh) * | 2017-07-19 | 2017-12-26 | 郑州禅图智能科技有限公司 | 一种在fcn中引入聚焦机制对静态人体图像进行分割的方法 |
CN107563405A (zh) * | 2017-07-19 | 2018-01-09 | 同济大学 | 基于多分辨率神经网络的车库自动驾驶语义目标识别方法 |
CN108228703A (zh) * | 2017-10-31 | 2018-06-29 | 北京市商汤科技开发有限公司 | 图像问答方法、装置、***和存储介质 |
Non-Patent Citations (8)
Title |
---|
"Deep pedestrian attribute recognition based on LSTM";Zhong Ji 等;《IEEE》;20180222;全文 * |
"Efficient segmentation-aided text detection for intelligent robots";Junting Zhang 等;《IEEE》;20180308;全文 * |
"Video summarization with attention-based encoder-decoder networks";Zhong Ji 等;《Computer Science》;20170831;全文 * |
"基于一致性与相关性的图像描述建模";张涛;《中国优秀硕士学位论文全文数据库》;20180115;全文 * |
"快速高效的深度神经网络目标检测方法研究";李青宇;《中国优秀硕士学位论文全文数据库》;20180115;全文 * |
"目标检测算法在乳腺病理图像分析中的应用";何剑;《中国优秀硕士学位论文全文数据库》;20180215;全文 * |
一种双注意力模型引导的目标检测算法;冀中等;《激光与光电子学进展》(第06期);全文 * |
卷积神经网络结构优化综述;林景栋等;《自动化学报》(第01期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109086779A (zh) | 2018-12-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109086779B (zh) | 一种基于卷积神经网络的注意力目标识别方法 | |
US10943145B2 (en) | Image processing methods and apparatus, and electronic devices | |
CN112750140B (zh) | 基于信息挖掘的伪装目标图像分割方法 | |
CN111126258B (zh) | 图像识别方法及相关装置 | |
CN106295502B (zh) | 一种人脸检测方法及装置 | |
CN111767882A (zh) | 一种基于改进yolo模型的多模态行人检测方法 | |
CN106897673B (zh) | 一种基于retinex算法和卷积神经网络的行人再识别方法 | |
Cavalcante et al. | Measuring streetscape complexity based on the statistics of local contrast and spatial frequency | |
CN111597920B (zh) | 一种自然场景下的全卷积单阶段的人体实例分割方法 | |
CN111738344A (zh) | 一种基于多尺度融合的快速目标检测方法 | |
Liu et al. | Image de-hazing from the perspective of noise filtering | |
CN111160114B (zh) | 手势识别方法、装置、设备及计算机可读存储介质 | |
CN109753996B (zh) | 基于三维轻量化深度网络的高光谱图像分类方法 | |
CN109740539B (zh) | 基于超限学习机和融合卷积网络的3d物体识别方法 | |
US10180782B2 (en) | Fast image object detector | |
CN111126254A (zh) | 图像识别方法、装置、设备及存储介质 | |
CN111951283A (zh) | 一种基于深度学习的医学图像识别方法及*** | |
CN114782892A (zh) | 违规行为目标检测方法、装置、设备及存储介质 | |
Agaian et al. | New haze removal scheme and novel measure of enhancement | |
CN117036948A (zh) | 一种基于注意力机制的致敏植物识别方法 | |
Song et al. | Depth-aware saliency detection using discriminative saliency fusion | |
CN112926667B (zh) | 深度融合边缘与高层特征的显著性目标检测方法及装置 | |
CN112906780A (zh) | 一种果蔬图像分类***及方法 | |
CN112348808A (zh) | 屏幕透图检测方法及装置 | |
CN112418271A (zh) | 一种目标检测方法、装置、***及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |