CN116485783A - 一种改进的深度分离层聚合和空间增强注意力的布匹瑕疵检测方法 - Google Patents
一种改进的深度分离层聚合和空间增强注意力的布匹瑕疵检测方法 Download PDFInfo
- Publication number
- CN116485783A CN116485783A CN202310568829.0A CN202310568829A CN116485783A CN 116485783 A CN116485783 A CN 116485783A CN 202310568829 A CN202310568829 A CN 202310568829A CN 116485783 A CN116485783 A CN 116485783A
- Authority
- CN
- China
- Prior art keywords
- branch
- network
- cloth
- features
- flaw detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000004744 fabric Substances 0.000 title claims abstract description 63
- 238000001514 detection method Methods 0.000 title claims abstract description 45
- 238000000926 separation method Methods 0.000 title claims abstract description 20
- 230000002776 aggregation Effects 0.000 title claims abstract description 18
- 238000004220 aggregation Methods 0.000 title claims abstract description 18
- 238000000034 method Methods 0.000 claims abstract description 14
- 238000000605 extraction Methods 0.000 claims abstract description 11
- 238000011176 pooling Methods 0.000 claims abstract description 10
- 238000013461 design Methods 0.000 claims abstract description 8
- 230000007246 mechanism Effects 0.000 claims abstract description 6
- 230000000694 effects Effects 0.000 claims description 7
- 238000010586 diagram Methods 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 238000006116 polymerization reaction Methods 0.000 claims description 3
- 230000035945 sensitivity Effects 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 2
- 230000008859 change Effects 0.000 claims description 2
- 230000006870 function Effects 0.000 claims description 2
- 230000008447 perception Effects 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 claims description 2
- 230000001788 irregular Effects 0.000 abstract description 4
- 238000013135 deep learning Methods 0.000 description 5
- 238000011161 development Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30124—Fabrics; Textile; Paper
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
Abstract
本发明针对布匹瑕疵本身形状不规则、长宽比例不均匀,包含背景纹理的情况,在改进YOLOv7的基础上,设计了新的模块DW‑ELAN和MPCOA。本发明首先采集了工业布匹瑕疵数据,将数据输入到网络结构中推理出结果,对检测出的布匹瑕疵进行标注。本发明针对布匹瑕疵检测难度大的特点,提出了一种基于深度分离层聚合和空间增强注意力的布匹瑕疵检测方法,该方法优化了YOLOv7的网络结构,基于ELAN提出了深度分离层聚合模块DW‑ELAN,使用5×5的深度可分离卷积替换3×3卷积,增大了网络感受野,提高网络对关键信息的提取能力。同时引入空间增强注意力模块MPCOA,替代了原本用最大池化层和卷积两个分支组成的MP2模块,利用注意力机制将空间中的关键特征信息保留到深层结构中,减少了一些位置信息的丢失,有效提高布匹瑕疵检测的准确率,使细节信息能在网络深层更好地表达。从总体上说,该网络的设计能有效地对布匹瑕疵进行实现检测,满足实际应用的需要。
Description
技术领域
本发明属于计算机视觉中的目标检测领域,改进了YOLOv7的网络结构模块,设计了一种实时布匹瑕疵目标检测网络,该网络能对工业上的布匹瑕疵进行准确实时的检测。
背景技术
近几年来,随着深度学习的快速发展,计算机相关领域技术的不断提升和计算机基础硬件的升级,为深度学习的蓬勃发展提供了更便利的条件。
基于深度学习的目标检测方法已经越来越多应用在工业生产上,例如应用在布匹瑕疵的检测上。在布匹的生产过程中,布匹表面往往会产生不同种类的瑕疵,不同瑕疵之间的形状差异较大,通常表现为形状不规则、长宽比例不均匀的目标,并且布匹的瑕疵图片中很难找到稳定的关键性特征,同时在瑕疵中难免会包含各种各样的背景,如布匹的纹理、颜色等导致布匹的检测难度较大。
YOLOv7作为2022年提出的效果非常优秀的目标检测模型,在大多数领域上都能取得相当不错的检测效果,给目标检测领域的后续发展提供了很好的借鉴作用。但由于布匹瑕疵自身带有的特性,给目标检测带来了许多难题,在实际应用中,YOLOv7的布匹瑕疵检测效果做不到令人满意,仍然存在改进的空间。
为了解决以往方法在布匹中无法有效提取瑕疵特征以及布匹瑕疵质量检测的实时性问题,本发明设计了一种实时布匹瑕疵目标检测网络。该网络在YOLOv7网络的基础上,增加了深度分离层聚合和空间增强注意力模块,有效解决了布匹瑕疵检测的问题,提高了网络的检测性能,使网络能更好地学习到布匹的关键特征,扩大网络的感受野,提取上下文关键信息,提高在下游任务布匹瑕疵检测中对瑕疵目标形状和纹理的吸收归纳。做到了对布匹产品中常见的瑕疵进行准确的实时检测。
发明内容
本发明针对布匹瑕疵检测难度大的特点,提出了一种基于深度分离层聚合和空间增强注意力的布匹瑕疵检测方法,该方法优化了YOLOv7的网络结构,基于ELAN提出了深度分离层聚合模块DW-ELAN,使用5×5的深度可分离卷积替换3×3卷积,增大了网络感受野,提高网络对关键信息的提取能力。同时引入空间增强注意力模块MPCOA,替代了原本用最大池化层和卷积两个分支组成的MP2模块,利用注意力机制将空间中的关键特征信息保留到深层结构中,减少了一些位置信息的丢失,有效提高布匹瑕疵检测的准确率。
本发明包含以下步骤:
步骤1:使用工业相机在实地工厂对布匹瑕疵数据进行采集。
步骤2:基于YOLOv7的网络结构,对以下模块进行改进:在YOLOv7的主干网络中,把所有的四个ELAN模块替换成深度分离层聚合DW-ELAN模块,主要目的是通过引入大尺度的5×5深度可分离卷积核来替换ELAN模块中的普通3×3卷积来扩大感受野,在更大范围内对瑕疵特征进行提取。
步骤3:在YOLOv7网络的头部结构中,把原本的一个分支为池化层和1×1卷积层以及另一分支为1×1卷积层和3×3卷积层的MP2模块,都替换成空间增强注意力MPCOA模块。MPCOA模块主要包含最大池化卷积层MP和1×1卷积层、短路连接和空间注意力三个分支。和MP2模块一样,特征图经过MPCOA模块之后它的特征图尺寸不变、通道数减半。MPCOA模块利用了注意力机制,对卷积堆叠的部分进行改进,使用一维全局池化从水平和垂直两个方向对输入的特征图进行特征聚合,分为两个分支分别带有两个方向的位置信息,把特征中的方向位置信息进行编码保留到深层网络,指导深层网络中对布匹瑕疵位置的预测,有效提升布匹瑕疵检测的准确率。
步骤4:将待检测的可能包含布匹瑕疵的图片,输入至改进后的布匹检测网络进行推理。
本发明提供的技术方案的改进效果是:本发明主要针对布匹瑕疵形状不规则、长宽比例不均匀、特征不明显,导致使用深度学习方法进行瑕疵的难度大大提升。本发明提出的基于YOLOv7的优化结构提出了新的深度分离层聚合和空间增强注意力模块,分别替换了原有的ELAN和MP2模块。增强了网络对细节特征的敏感性,提高了网络的检测性能,使网络能更好地学习到布匹的关键特征。使用5×5的深度可分离卷积替换3×3卷积,增大了网络感受野,提高网络对关键信息的提取能力。并且利用注意力机制对特征中需要重点关注的特征放大,使网络提取特征更完整丰富,使得关键特征信息得以保留到深层结构中,增加了特征的表现力,更适配于本发明所提出的对布匹瑕疵的实施准确检测。
附图说明
为了更清楚的展示本发明的网络结构以及训练过程,下面将对实施例中所需要的附图做以简单的介绍。
图1为本发明的布匹瑕疵检测流程。
图2为本发明设计的深度分离层聚合模块DW-ELAN结构图。
图3为本发明设计的空间增强注意力模块MPCOA结构图。
具体实施方式
为了更具体地描述本发明,下面将结合附图以及具体实施方式对本发明的方案进行详细说明。
本发明设计了一种改进的深度分离层聚合和空间增强注意力的布匹瑕疵检测方法,布匹瑕疵检测的工作流程如图1所示,其主要步骤如下:
1.布匹瑕疵检测网络实时读取布匹图像;
2.布匹图像将输入到网络模型中,进行前向推理过程;
3.进入网络判断布匹图像中是否存在瑕疵,如果有瑕疵则进入步骤4,否则进入步骤5;
4.检测***将对布匹瑕疵进行标注,并提示该图像存在瑕疵;
5.继续将未读取的图像输入网络模型,如果存在未读取图像则回到步骤1,否则结束此次检测。
其中的网络模型在改进YOLOv7模块的基础上得到,具体实施方式如下:步骤1:使用工业相机在实地工厂对布匹瑕疵数据进行采集。
步骤2:在YOLOv7的主干网络中,包含有四个ELAN模块,它是一个高效的网络结构,能让网络能够学习到更多的特征,并且提高鲁棒性,ELAN模块的输入输出的特征图大小、通道数相同。
把YOLOv7的所有ELAN模块都替换成深度分离层聚合DW-ELAN模块,主要思路是将四个3×3卷积替换成四个5×5的深度可分离卷积。DW-ELAN模块具体结构如图2,共分为4个分支。首先对输入的特征图使用3×3卷积得到提取的特征,之后将提取的特征分别通过2个1×1的卷积可以得到分支3和分支4,将分支3经过2个5×5的深度可分离卷积可以得到分支1的结果,而分支2的结果是分支3经过4个5×5的深度可分离卷积得到。最后将在四条分支下得到的特征在通道维度进行拼接,可以得到DW-ELAN的来自不同感受野的融合特征:
输出=concat(分支1, 分支2, 分支3, 分支4 )
其中concat( )表示特征在通道维度拼接,最终得到的特征再经过一个1×1的卷积层改变维度后,得到图像在融合深度分离层聚合模块后提取的特征。通过深度分离层聚合DW-ELAN模块的5×5大尺度深度可分离卷积,主要是为了增大该模块的感受野,因为在深度学习中,模型的感受野通常表示网络内部的对原图像的感受范围的大小,大感受野下对关键特征的提取更加有效。因此在布匹瑕疵检测中应用大尺度的卷积能够提高网络的特征提取能力。
而应用深度可分离卷积的优点是可以大幅度地减少卷积的参数,深度可分离卷积能在不牺牲模型性能的前提下显著提高效率。同时减轻由于使用深度可分离5×5卷积替换3×3卷积对模型带来的额外计算量的影响,提高网络检测的总体性能,降低模型训练和推理的成本。该模块结构的输入输出特征图大小、通道数相同。
步骤3:在YOLOv7网络的头部结构中,包含有两个MP2模块,它的组成为一个分支为池化层和1×1卷积层以及另一分支为1×1卷积层和3×3卷积层,该模块的输出会将输入的通道数扩大一倍。
把YOLOv7的所有MP2模块,都替换成空间增强注意力MPCOA模块。MPCOA模块具体结构如图3,共分为3个分支。第一个分支中输入将通过一个最大池化卷积层MP(主要由最大池化层和1×1卷积组合而成)和1×1卷积层对池化后的结果提取特征,提取特征后的结果为分支1。分支2是一个短路连接,相当于对输入进行了简单的复制,类似于电路中的“短路”。通过增加短路连接,可以提高网络的鲁棒性和稳定性。分支3分为两部分,主要思想是对输入特征通过注意力机制对空间位置信息进行增强,具体实现为首先对输入进行水平和垂直方向的一维全局池化,图3中的X-P和Y-P分别代表了水平方向和垂直方向的一维全局池化,对得到的两个结果在通道维度进行拼接,此时就得到了两个方向上的位置特征。将这两个方向的特征经过1×1卷积层和激活函数RELU得到一对拥有方向感知的特征图。最后分别经过1×1卷积层后,两个特征图进行向量乘法结合为空间增强的位置信息,记为分支3。
将在三条分支下得到的特征在通道维度进行拼接,可以得到增强的注意力信息的提取:
输出=concat(分支1, 分支2, 分支3 )
其中concat( )表示特征在通道维度拼接。MPCOA模块实现了空间位置信息的提取,将信息传递到后续深层的网络中,对后续网络结构实现了空间位置信息的增强,丰富了深层网络中的特征,能提高模型对空间中目标位置信息的敏感程度。该模块结构输入输出的特征图大小不变,通道数将扩大一倍。
步骤4:把包含布匹瑕疵的图片输入到布匹瑕疵检测网络中,进行前向推理。根据前向推理的结果在布匹原图上画出瑕疵检测框,获得可视化的瑕疵检测效果。网络的布匹瑕疵检测过程结束。
综上,本发明针对布匹瑕疵本身形状不规则、长宽比例不均匀,包含背景纹理的情况,在改进YOLOv7的基础上,设计了新的模块DW-ELAN和MPCOA。本发明首先采集了工业布匹瑕疵数据,将数据输入到网络结构中推理出结果,对检测出的布匹瑕疵进行标注。本发明提出了新的深度分离层聚合模块DW-ELAN,能有效增大网络的感受野,融合深层和浅层的特征,更好地提取上下文的关键信息。还提出了空间增强注意力模块MPCOA,用来替换原本的MP2模块,减少了位置信息的丢失,使细节信息能在网络深层更好地表达。从总体上说,该网络的设计能有效地对布匹瑕疵进行实现检测,满足实际应用的需要。
Claims (3)
1.本发明设计了一种改进的深度分离层聚合和空间增强注意力的布匹瑕疵检测方法,其中的网络模型在改进YOLOv7模块的基础上得到,其特征在于具体实施方式如下:
步骤1:使用工业相机在实地工厂对布匹瑕疵数据进行采集;
步骤2:在YOLOv7的主干网络中,包含有四个ELAN模块,它是一个高效的网络结构,能让网络能够学习到更多的特征,并且提高鲁棒性,ELAN模块的输入输出的特征图大小、通道数相同。把YOLOv7的所有ELAN模块,都替换成深度分离层聚合DW-ELAN模块。主要思路是将四个3×3卷积替换成四个5×5的深度可分离卷积。DW-ELAN模块具体结构共分为4个分支。首先对输入的特征图使用3×3卷积得到提取的特征,之后将提取的特征分别通过2个1×1的卷积可以得到分支3和分支4,将分支3经过2个5×5的深度可分离卷积可以得到分支1的结果,而分支2的结果是分支3经过4个5×5的深度可分离卷积得到,得到大感受野下对关键的特征的提取;
步骤3:在YOLOv7网络的头部结构中,包含有两个MP2模块,它的组成为一个分支为池化层和1×1卷积层以及另一分支为1×1卷积层和3×3卷积层,该模块的输出会将输入的通道数扩大一倍。把YOLOv7的所有MP2模块,都替换成空间增强注意力MPCOA模块。MPCOA模块具体结构共分为3个分支。第一个分支中输入将通过一个最大池化卷积层MP和1×1卷积层对池化后的结果提取特征,提取特征后的结果为分支1。分支2是一个短路连接,不对输入进行任何操作,相当于对输入进行了简单的复制,通过增加短路连接,可以提高网络的鲁棒性和稳定性。分支3分为两部分,主要思想是对输入特征通过注意力机制对空间位置信息进行增强,具体实现为首先对输入进行水平和垂直方向的一维全局池化X-P和Y-P,对得到的两个结果在通道维度进行拼接,此时就得到了两个方向上的位置特征。将这两个方向的特征经过1×1卷积层和激活函数RELU得到一对拥有方向感知的特征图。最后分别经过1×1卷积层后,两个特征图进行向量乘法结合为空间增强后的位置信息,记为分支3;
步骤4:把包含布匹瑕疵的图片输入到布匹瑕疵检测网络中,进行前向推理。根据前向推理的结果在布匹原图上画出瑕疵检测框,获得可视化的瑕疵检测效果。网络的布匹瑕疵检测过程结束。
2.根据权利要求1所述的深度分离层聚合和空间增强注意力的布匹瑕疵检测方法,其特征在于:
对步骤2中四条分支下得到的特征在通道维度进行拼接,可以得到DW-ELAN的来自不同感受野的融合特征:输出=concat(分支1, 分支2, 分支3, 分支4 )
其中concat( )表示特征在通道维度拼接,最终得到的特征再经过一个1×1的卷积层改变维度后,得到图像在融合深度分离层聚合模块后提取的特征。该模块结构的输入输出特征图大小、通道数相同。
3.根据权利要求1所述的深度分离层聚合和空间增强注意力的布匹瑕疵检测方法,其特征在于:
将在步骤3中的三条分支下得到的特征在通道维度进行拼接,可以得到增强的注意力信息的提取:输出=concat(分支1, 分支2, 分支3 )
其中concat( )表示特征在通道维度拼接。MPCOA模块实现了空间位置信息的提取,将信息传递到后续深层的网络中,对后续网络结构实现了空间位置信息的增强,丰富了深层网络中的特征,能提高模型对空间中目标位置信息的敏感程度。该模块结构输入输出的特征图大小不变,通道数将扩大一倍。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310568829.0A CN116485783A (zh) | 2023-05-19 | 2023-05-19 | 一种改进的深度分离层聚合和空间增强注意力的布匹瑕疵检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310568829.0A CN116485783A (zh) | 2023-05-19 | 2023-05-19 | 一种改进的深度分离层聚合和空间增强注意力的布匹瑕疵检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116485783A true CN116485783A (zh) | 2023-07-25 |
Family
ID=87217913
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310568829.0A Pending CN116485783A (zh) | 2023-05-19 | 2023-05-19 | 一种改进的深度分离层聚合和空间增强注意力的布匹瑕疵检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116485783A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118014998A (zh) * | 2024-04-09 | 2024-05-10 | 深圳市富安娜艺术家居有限公司 | 基于机器视觉的床单布匹检测方法及*** |
-
2023
- 2023-05-19 CN CN202310568829.0A patent/CN116485783A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118014998A (zh) * | 2024-04-09 | 2024-05-10 | 深圳市富安娜艺术家居有限公司 | 基于机器视觉的床单布匹检测方法及*** |
CN118014998B (zh) * | 2024-04-09 | 2024-06-11 | 深圳市富安娜艺术家居有限公司 | 基于机器视觉的床单布匹检测方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110378222B (zh) | 一种输电线路防震锤目标检测与缺陷识别方法及装置 | |
CN112950606A (zh) | 一种基于小样本的手机屏幕缺陷分割方法 | |
CN113609896A (zh) | 基于对偶相关注意力的对象级遥感变化检测方法及*** | |
CN112651406B (zh) | 一种深度感知和多模态自动融合的rgb-d显著性目标检测方法 | |
CN111368637B (zh) | 一种基于多掩模卷积神经网络的搬运机器人识别目标方法 | |
CN111738994B (zh) | 一种轻量级的pcb缺陷检测方法 | |
CN116485783A (zh) | 一种改进的深度分离层聚合和空间增强注意力的布匹瑕疵检测方法 | |
CN116704357B (zh) | 基于YOLOv7的堤坝边坡滑坡智能识别与预警方法 | |
CN113192124A (zh) | 一种基于孪生网络的图像目标定位方法 | |
CN110827312A (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
CN102663777A (zh) | 基于多视点视频的目标跟踪方法及*** | |
CN113496480A (zh) | 一种焊缝图像缺陷的检测方法 | |
CN113657423A (zh) | 适用于小体积零件与堆叠零件的目标检测方法及其应用 | |
CN115131747A (zh) | 基于知识蒸馏的输电通道工程车辆目标检测方法及*** | |
CN113361496A (zh) | 一种基于U-Net的城市建成区统计方法 | |
CN114926826A (zh) | 场景文本检测*** | |
CN116805360B (zh) | 一种基于双流门控渐进优化网络的显著目标检测方法 | |
CN116994068A (zh) | 一种基于知识蒸馏的目标检测方法及装置 | |
CN115830420A (zh) | 一种基于边界可变形卷积引导的rgb-d显著性目标检测方法 | |
CN116051950A (zh) | 跨层次跨模态双注意力融合的三流rgb-d显著性目标检测 | |
CN111539922B (zh) | 基于多任务网络的单目深度估计与表面法向量估计方法 | |
CN114693951A (zh) | 一种基于全局上下文信息探索的rgb-d显著性目标检测方法 | |
CN118154603B (zh) | 基于级联多层特征融合网络的显示屏缺陷检测方法及*** | |
CN116704487B (zh) | 一种基于Yolov5s网络和CRNN的车牌检测与识别方法 | |
CN115909225B (zh) | 一种基于在线学习的OL-YoloV5船舶检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20230725 |
|
WD01 | Invention patent application deemed withdrawn after publication |