CN115456938A - 一种基于深度学习和超声红外图像的金属部件裂纹检测方法 - Google Patents

一种基于深度学习和超声红外图像的金属部件裂纹检测方法 Download PDF

Info

Publication number
CN115456938A
CN115456938A CN202210872244.3A CN202210872244A CN115456938A CN 115456938 A CN115456938 A CN 115456938A CN 202210872244 A CN202210872244 A CN 202210872244A CN 115456938 A CN115456938 A CN 115456938A
Authority
CN
China
Prior art keywords
feature
data set
metal part
image
crack detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210872244.3A
Other languages
English (en)
Inventor
陶发展
吴阳
付主木
宋书中
冀保峰
陈启宏
司鹏举
焦龙吟
张冬凯
张中才
李梦杨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Henan University of Science and Technology
Original Assignee
Henan University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Henan University of Science and Technology filed Critical Henan University of Science and Technology
Priority to CN202210872244.3A priority Critical patent/CN115456938A/zh
Publication of CN115456938A publication Critical patent/CN115456938A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及机器视觉领域,公开了一种基于深度学习和超声红外图像的金属部件裂纹检测方法,S1、构建超声激励下带有裂纹的金属部件的红外图像数据集;S2、对获取的数据集进行图像预处理;S3、由预处理后的数据集训练改进的YOLOv3网络模型;S4、输入待检测图像或视频,通过训练出的金属部件裂纹检测模型进行检测,判断是否存在缺陷并实现定位。本发明主干网络中采用跨级残差结构和跨阶段密集特征重用块,以提高特征的可重用性;改进金字塔复合神经网络结构,能够获取丰富的上下文信息并且引入特征细化机制来抑制冲突信息,防止微小目标淹没在冲突语义信息中,从而对更加细微的裂纹缺陷进行检测。

Description

一种基于深度学习和超声红外图像的金属部件裂纹检测方法
技术领域
本发明属于机器视觉领域,特别涉及一种基于深度学习和超声红外图像金属部件裂纹检测方法。
背景技术
超声波在激励被测件时,引起物体振动,裂缝缺陷两侧接触面的振动状态不一致导致互相摩擦、碰撞,摩擦做功将超声波的能量转化为热能,并且由于热量的传导,使缺陷周围温度随之增高,且呈现梯度分布。
红外成像是根据物体的所有温度高于绝度零度发射不同波长红外辐射的性质,并且物体温度越高,红外辐射就越强,这种红外辐射包含了物体的特征信息,再由热像仪将人眼不可见的辐射图像转化为清晰可见的图像。
超声红外热成像缺陷检测具有检测范围大、适用材料广泛等优势,被广泛应用于金属材料、复合材料的检测中,但存在对经验要求高、人工误检率、成本高的问题,此外,在很多复杂危险环境中人员难以达到,无法实现缺陷检测的任务,因此结合深度学习算法提出一种智能可远程监测的自动缺陷检测方法。以 YOLOv3为代表的深度学习目标检测算法以其检测速度快、精确度高的特点,在生活生产以及研究中被广泛应用。但是由于YOLOv3是为通用目标检测设计的,直接用于裂纹缺陷的红外检测中,检测精度和速度都大打折扣,因此本发明对 YOLOv3算法做出一定的改进,使其对超声激励红外图像下的金属部件裂纹缺陷具有更强的检测能力。
发明内容
本发明的目的是提供一种基于深度学习和超声红外图像金属部件裂纹检测方法,用以解决工业生产中的金属部件内部裂缝缺陷的自动检测问题。
为实现上述目的,本发明采用如下的技术方案:
一种基于深度学习和超声红外图像金属部件裂纹检测方法,包括步骤:
S1:构建超声激励下带有裂纹的金属部件的红外图像数据集;
S2:对获取的数据集进行图像预处理;
S3:采用改进的YOLOv3特征提取网络对各个预处理图像进行超声激励下金属部件裂纹的特征提取,得到特征图,并训练裂纹检测网络模型;
S4:输入待检测图像,由裂纹检测模型对待检测图像进行检测,判断待检测图像中是否存在缺陷并实现定位。
进而,得金属部件裂纹检测网络模型的步骤如下:
A1:采集超声激励下带有裂纹的金属部件红外图像并制作成VOC数据集;
A2:通过数据增强技术对数据集中的红外图像进行预处理;
A3:通过K-means聚类算法对数据集进行聚类;
A4:通过数据集对改进的YOLOv3网络模型进行训练,得到可精确检测金属部件裂纹的网络模型。
进而,对于金属部件裂纹检测网络模型训练的步骤如下:
A41:将数据集图像输入Darknet-53主干网络,通过跨级残差结构获取数据集中的特征信息;
A42:引入通道注意力模块和空间注意力模块形成CBAM(卷积块注意力) 模块,在不同的空间位置或者通道中,对特征信息分配不同的权重,让模型关注与特征信息丰富的通道,同时忽略无用的特征信息,之后生成三个不同尺度的特征图;
A43:通过改进后的特征金字塔复合网络对特征图进行特征融合,从而进行多尺度的裂纹位置预测。
进而,步骤A42中获得特征图的步骤如下:
L1:通过连续多层跨级残差块获得不同梯度的特征信息;
L2:通过跨阶段密集特征重用块对不同梯度的特征信息进行重用,经过 CBAM模块生成不同梯度的特征图,并将不同梯度的特征图输入到改进后的特征金字塔网络中。
在本发明提供的一种基于深度学习和超声红外图像金属部件裂纹检测方法,有益效果在于:
(1)本发明将Darknet-53中的残差单元采用跨连接结构和跨阶段密集特征重用块,进一步提升网络的特征提取能力,提高了特征的重用性。
(2)本发明提出一种结合上下文增强和特征细化的特征金字塔复合神经网络结构,能够获取丰富的上下文信息并且引入特征细化机制来抑制冲突信息,防止微小目标淹没在冲突语义信息中,从而提高对更加细微的裂纹缺陷检测的检测精度。
(3)本发明引入通道注意力模块和空间注意力模块,在不同的空间位置或者通道中,对特征信息分配不同的权重,让模型关注与特征信息丰富的通道,同时忽略无用的特征信息,以提高模型的识别能力。
附图说明
图1为金属部件裂纹检测方法流程示意图;
图2为本发明YOLOv3网络结构示意图;
图3为通道注意力模块示意图;
图4为空间注意力模块示意图;
图5为CBAM模块示意图;
图6为本发明金字塔复合网络结构示意图。
具体实施措施
下面结合附图给出本发明的进一步详细说明。
实施例一
如图1所示为本发明提供的一种基于深度学习和超声红外图像金属部件裂纹检测方法流程示意图,从图中可以看出,该策略包括以下步骤:
S1:构建超声激励下带有裂纹的金属部件的红外图像数据集;
S2:对获取的数据集进行图像预处理;
S3:采用改进的YOLOv3特征提取网络对各个预处理图像进行超声激励下金属部件裂纹的特征提取,得到特征图,并训练裂纹检测网络模型;
S4:输入待检测图像,由裂纹检测模型对待检测图像进行检测,判断待检测图像中是否存在缺陷并实现定位。
在步骤S3中,得到金属部件裂纹检测网络模型的步骤如下:
A1:采集超声激励下带有裂纹的金属部件红外图像并制作成VOC数据集;
基于深度学习和超声红外图像的金属部件裂纹检测算法需要从样本数据集中学习超声激励红外图像下金属部件裂纹的特征,因此,本发明自建的VOC 代表性数据集包含各种规格的内部含有裂纹缺陷的金属部件的红外图像,具体步骤如下:
(1)将训练图片存入创建的数据集文件夹;
(2)利用LabelImg标注工具,对训练图片中的裂纹缺陷位置进行标注,生成.xml标签;
(3)生成训练所需要的.txt文件。
A2:通过数据增强技术对数据集中的红外图像进行预处理;
成功的模型训练需要大量的参数,使得这些参数可以正确工作则需要大量的数据进行训练,而实际情况中数据并没有想象中的多,因此需要数据增强技术对丰富训练集,提高模型的泛化能力和鲁棒性。
采用CutMix数据增强方法,就是将一部分区域裁剪掉之后,随机填充训练集中的其他数据的区域图像进行补丁,再进行训练,其原理如下:
xA和xB是两个不同的训练样本,yA和yB是对应的标签值CutMix需要生成的是新的训练样本和对应标签:
Figure RE-GDA0003919472520000041
Figure RE-GDA0003919472520000042
公式如下:
Figure RE-GDA0003919472520000043
M∈{0,1}W×H是为了裁减掉部分区域和补丁的二进制掩码,·是逐像素相乘, 1是所有像素都为1的二进制掩码,λ属于Beta分布λ~Beta(α,α),令α=1则λ服从(0,1)的均匀分布。
首先要对裁剪区域边界框B=(rx,ry,rw,rh)进行采样,用来表示样本xA和xB的裁减区域,样本xA的裁剪区域B被移除,并由样本xB的裁剪区域B填充。
之后对举行掩码M进行采样,其长宽与样本大小成比例,边界框坐标采样公式如下:
Figure RE-GDA0003919472520000044
确保裁剪区域比例为
Figure RE-GDA0003919472520000045
确定裁剪区域B之后,将M中的裁剪区域B 置0,其他区域置1。之后根据公式(1)获得新的样本
Figure RE-GDA0003919472520000046
和标签
Figure RE-GDA0003919472520000047
A3:通过K-means聚类算法对数据集进行聚类;
YOLOv3的先验框是由作者通过聚类COCO数据集获得的,而我们的检测目标与COCO数据集中的目标存在对象大小、位置和形状上的差异,如果将其用在自己的数据集上,部分先验框不合理。因此本发明采用K-means聚类算法对自己建立的VOC数据集进行聚类,从而获得更加精确的锚框,其算法如下:
(1)从数据集中随机选取K个点作为初始聚类的中心,中心点为C={c1,c2,...,ck};
(2)针对数据集中每个样本xi,计算它们到各个聚类中心点的距离,到哪个聚类中心点的距离最小,就想起划分到对应聚类中心的类中;
(3)针对每个类别i,重新计算该类别的聚类中心
Figure RE-GDA0003919472520000051
(其中|i|表示的是该类别数据的总个数);
(4)重复步骤(2)和步骤(3)直到聚类中心不再发生变化。
A4:通过数据集对改进的YOLOv3网络模型进行训练,得到可精确检测金属部件裂纹的网络模型。
在步骤A4中,对于金属部件裂纹检测网络模型训练的步骤如下:
A41:将数据集图像输入Darknet-53主干网络,通过跨级残差结构获取数据集中的特征信息;
本发明采用改进的YOLOv3目标检测网络,主干网络为基于Darknet-53 的卷积神经特征提取网络,其结构如图2所示。本发明将跨级残差块 (CSRes-block)引入Darknet-53中,使得所输入的特征分两支卷积,在被输入到残差单元之前通道被减半,能够解决网络加深带来的问题,进一步提升网络的特征提取能力。同时引入跨阶段密集特征重用块(CSDense-block),其中由深度卷积(Depthwise Convolution)代替常规卷积,一个卷积核负责一个通道,一个通道只被一个卷积核卷积,提高特征的重用性,通过深度以及广度的操作能够很好的保留各个通道信息的同时,在一定程度上减少了计算量。并且增加了空间金字塔池化(SPP)块以更有效地增加主干特征的接收范围。
此外,本发明将Darknet-53的卷积神经网络中的激活函数Leaky ReLU修改为Mish函数,可以使得特征信息深入神经网络,因此所提出算法的最小成分由conv+BN(BatchNormalization)+Mish(CBM)单元组成,即卷积+批量归一化+Mish激活函数。
A42:引入通道注意力模块和空间注意力模块形成CBAM(卷积块注意力) 模块,在不同的空间位置或者通道中,对特征信息分配不同的权重,让模型关注与特征信息丰富的通道,同时忽略无用的特征信息,之后生成三个不同尺度的特征图;
在步骤A42中,获得特征图的步骤如下:
L1:通过连续多层跨级残差块获得不同梯度的特征信息;
L2:通过跨阶段密集特征重用块对不同梯度的特征信息进行重用,经过 CBAM模块生成不同梯度的特征图,并将不同梯度的特征图输入到改进后的特征金字塔网络中。
YOLOv3模型将深层特征通过上采样操作再与浅层特征进行融合,融合深层语义信息的低阶特征图具有更强的特征表达能力。因不同特征通道的重要性以及同一特征通道不同位置的重要性不同,在进行特征图拼接时会丢失部分原特征图中已通过多层卷积获得的重要信息。本发明引入通道注意力模块 (CAM)和空间注意力模块(SAM)组成卷积块注意力模块(CBAM),结合跨级残差块(CSRes-block)和跨阶段密集特征重用块(CSDense-block),从而对低阶特征图中各通道间和个像素点间的相关性进行建模,提高模型的特征表达能力以获取重要的特征信息。
具体的,首先通道注意力模块采用了全局平均池化和最大池化的方法推断出更细的通道注意力,获得平均池化和最大池化特征,然后输入到包含两个全连接层及其相应激活函数的共享网络建模通道之间的相关性,最后合并输出的特征向量得到该输入特征图的通道注意力权重,计算方法如式(3)所示。最终,在得到特征图通道的权重之后,通过与输入特征图相乘加权,完成在通道纬度上的原始特征重标定。
Mc(F)=σ(MLP(AvgPool(F))+MLP(MaxPool(F))) (3)
其中Mc(F)表示通道注意力权重,σ表示sigmoid激活函数,MLP表示多层感知器用于共享参数,AvgPool和MaxPool分别为平均池化层和最大池化层,F表示输入特征图。其结构如图3所示。
空间注意力聚焦在最具信息量的位置,这是对通道注意力的补充。在通道维度上进行全局平均池化和最大池化操作,把所有的输入通道变为两个实数。将(h×w×c)大小的特征图变换为两个单通道的(h×w×1)大小的特征图,然后通过一个3×3大小的卷积操作形成一个(h×w×1),最后通过一个激活函数获得空间注意力权重,其计算公式如式(4)。
Ms(F)=σ(f3×3([AvgPool(F);MaxPool(F)])) (4)
其中σ表示sigmoid激活函数,f3×3表示一个3×3的卷积操作,F表示输入特征图,其结构如图4所示。
A43:通过改进后的特征金字塔复合网络对特征图进行特征融合,从而进行多尺度的裂纹位置预测。
提出一种结合增强上下文和细化特征的特征金字塔复合网络。将多尺度扩张卷积得到的特征自上至下融合注入特征金字塔网络,补充上下文信息。引入通道和空间特征细化机制,抑制多尺度特征融合中的冲突形成,防止微小目标被淹没在冲突信息中
如图6为改进后的金字塔复合网络,输入图像经过4、8、16、32次下采样后,C2、C3、C4、C5分别表示不同尺度的特征。F1、F2、F3是对应C3、 C4、C5的特征通过一层卷积所生成的(C2因噪声混乱而丢弃)。L1、L2、L3 表示上下文增强模块(CAM)的结果与特征金字塔网络(FPN)生成的特征相融合后输出对应的特征,P1、P2、P3表示细化特征模块(FRM)生成的特征,
本发明首先在主干网络中采用跨级残差块来提高特征的可重用性。之后,引入空间注意力和通道注意力机制,形成CBAM模块***主干网络颈部,能够使得模型针对所需的特征信息实现高效表达。其次,设计了一种结合增强上下文和细化特征的特征金字塔复合网络,可获取丰富的上下文信息,防止微小目标被淹没在冲突信息中,提高了模型对更加细微的裂纹缺陷的有效检测。

Claims (4)

1.一种基于深度学习和超声红外图像的金属部件裂纹检测方法,其特征在于,包括以下步骤:
S1:构建超声激励下带有裂纹的金属部件的红外图像数据集;
S2:对获取的数据集进行图像预处理;
S3:采用改进的YOLOv3特征提取网络对各个预处理图像进行超声激励下金属部件裂纹的特征提取,得到特征图,并训练裂纹检测网络模型;
S4:输入待检测图像,由裂纹检测模型对待检测图像进行检测,判断待检测图像中是否存在缺陷并实现定位。
2.根据权利要求1所述的一种基于深度学习和超声红外图像的金属部件裂纹检测方法,其特征在于,得到裂纹检测网络模型的步骤如下:
A1:采集超声激励下带有裂纹的金属部件红外图像并制作成VOC数据集;
A2:通过数据增强技术对数据集中的红外图像进行预处理;
A3:通过K-means聚类算法对数据集进行聚类;
A4:通过数据集对改进的YOLOv3网络模型进行训练,得到可精确检测金属部件裂纹的网络模型。
3.根据权利要求2所述的一种基于深度学习和超声红外图像的金属部件裂纹检测方法,其特征在于,对于裂纹检测网络模型训练的步骤如下:
A41:将数据集图像输入Darknet-53主干网络,通过跨级残差结构获取数据集中的特征信息;
A42:引入通道注意力模块和空间注意力模块形成CBAM(卷积块注意力)模块,在不同的空间位置或者通道中,对特征信息分配不同的权重,让模型关注与特征信息丰富的通道,同时忽略无用的特征信息,之后生成三个不同尺度的特征图;
A43:通过改进后的特征金字塔复合网络对特征图进行特征融合,从而进行多尺度的裂纹位置预测。
4.根据权利要求3所述的一种基于深度学习和超声红外图像的金属部件裂纹检测方法,其特征在于,获得特征图的步骤为:
L1:通过连续多层跨级残差块获得不同梯度的特征信息;
L2:通过跨阶段密集特征重用块对不同梯度的特征信息进行重用,经过CBAM模块生成不同梯度的特征图,并将不同梯度的特征图输入到改进后的特征金字塔网络中。
CN202210872244.3A 2022-07-20 2022-07-20 一种基于深度学习和超声红外图像的金属部件裂纹检测方法 Pending CN115456938A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210872244.3A CN115456938A (zh) 2022-07-20 2022-07-20 一种基于深度学习和超声红外图像的金属部件裂纹检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210872244.3A CN115456938A (zh) 2022-07-20 2022-07-20 一种基于深度学习和超声红外图像的金属部件裂纹检测方法

Publications (1)

Publication Number Publication Date
CN115456938A true CN115456938A (zh) 2022-12-09

Family

ID=84296465

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210872244.3A Pending CN115456938A (zh) 2022-07-20 2022-07-20 一种基于深度学习和超声红外图像的金属部件裂纹检测方法

Country Status (1)

Country Link
CN (1) CN115456938A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113392852A (zh) * 2021-04-30 2021-09-14 浙江万里学院 一种基于深度学习的车辆检测方法及***
CN116229065A (zh) * 2023-02-14 2023-06-06 湖南大学 一种基于多分支融合的机器人手术器械分割方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113392852A (zh) * 2021-04-30 2021-09-14 浙江万里学院 一种基于深度学习的车辆检测方法及***
CN113392852B (zh) * 2021-04-30 2024-02-13 浙江万里学院 一种基于深度学习的车辆检测方法及***
CN116229065A (zh) * 2023-02-14 2023-06-06 湖南大学 一种基于多分支融合的机器人手术器械分割方法
CN116229065B (zh) * 2023-02-14 2023-12-01 湖南大学 一种基于多分支融合的机器人手术器械分割方法

Similar Documents

Publication Publication Date Title
CN111080645B (zh) 基于生成式对抗网络的遥感图像半监督语义分割方法
CN110675418B (zh) 一种基于ds证据理论的目标轨迹优化方法
CN111768388B (zh) 一种基于正样本参考的产品表面缺陷检测方法及***
CN115456938A (zh) 一种基于深度学习和超声红外图像的金属部件裂纹检测方法
CN111985376A (zh) 一种基于深度学习的遥感影像舰船轮廓提取方法
CN111932511B (zh) 一种基于深度学习的电子元器件质量检测方法与***
Garfo et al. Defect detection on 3d print products and in concrete structures using image processing and convolution neural network
Wu et al. Enhanced Precision in Dam Crack Width Measurement: Leveraging Advanced Lightweight Network Identification for Pixel‐Level Accuracy
CN110647802A (zh) 基于深度学习的遥感影像舰船目标检测方法
CN110222604A (zh) 基于共享卷积神经网络的目标识别方法和装置
Ji et al. SurfaceNet+: An end-to-end 3D neural network for very sparse multi-view stereopsis
CN113393503B (zh) 一种分割驱动形状先验变形的类别级物体6d位姿估计方法
TWI745204B (zh) 基於深度學習之高效率光達物件偵測方法
CN106815323A (zh) 一种基于显著性检测的跨域视觉检索方法
CN111563408B (zh) 多层次感知特征渐进自学习的高分辨率影像滑坡自动检测方法
CN116524356A (zh) 一种矿石图像小样本目标检测方法及***
CN115424237A (zh) 一种基于深度学习的前向车辆识别与距离检测方法
CN114067273A (zh) 一种夜间机场航站楼热成像显著人体分割检测方法
CN114037684A (zh) 一种基于yolov5和注意力机制模型的疵点检测方法
CN117218192A (zh) 一种基于深度学习与合成数据的弱纹理物***姿估计方法
CN116935356A (zh) 基于弱监督的自动驾驶多模态图片和点云实例分割方法
CN114743045B (zh) 一种基于双分支区域建议网络的小样本目标检测方法
Zhao et al. Algorithm for real-time defect detection of micro pipe inner surface
CN115984712A (zh) 基于多尺度特征的遥感图像小目标检测方法及***
CN113284232B (zh) 一种基于四叉树的光流跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination