CN110321903A - 一种基于Y-net多层卷积神经网络的焊缝特征点提取方法 - Google Patents

一种基于Y-net多层卷积神经网络的焊缝特征点提取方法 Download PDF

Info

Publication number
CN110321903A
CN110321903A CN201910601319.2A CN201910601319A CN110321903A CN 110321903 A CN110321903 A CN 110321903A CN 201910601319 A CN201910601319 A CN 201910601319A CN 110321903 A CN110321903 A CN 110321903A
Authority
CN
China
Prior art keywords
weld
frame
image
neural networks
convolutional neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910601319.2A
Other languages
English (en)
Inventor
杨国威
张永帅
王以忠
王琦琦
郭肖勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University of Science and Technology
Original Assignee
Tianjin University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University of Science and Technology filed Critical Tianjin University of Science and Technology
Priority to CN201910601319.2A priority Critical patent/CN110321903A/zh
Publication of CN110321903A publication Critical patent/CN110321903A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30152Solder

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于Y‑net多层卷积神经网络的焊缝特征点提取方法,属于工业自动化焊接技术领域,本方法包括设计用于焊缝特征点提取的多层卷积神经网络Y‑net,该网络经过多层卷积进行特征提取后,形成Y型分支,一端输出具有抗弧光干扰特性和多种坡口类型适应特性的类别预测,另一端输出具有高精度的位置预测;采集多种坡口类型及多种弧光干扰的焊缝图像并进行数据增广;对数据集进行类别和位置信息标注,输入Y‑net网络进行训练;用训练好的模型进行测试,得到测试结果。本发明与现有技术相比,在具有弧光干扰的实际焊接现场,具有良好的抗干扰能力和预测能力,针对多种类型坡口具有良好的适应性。此外,网络模型较小,具有较高的处理速度。

Description

一种基于Y-net多层卷积神经网络的焊缝特征点提取方法
技术领域
本发明属于工业自动化焊接技术领域,尤其涉及到一种基于Y-net多层卷积神经网络的焊缝特征点提取方法。
背景技术
随着社会经济、工业自动化和科学技术的逐渐进步,社会对焊接产品的需求量越来越大,产品的质量、生产效率和稳定性要求越来越高,生产成本要求却越来越低,传统的手工焊接已不能满足市场需求,这就使焊接工艺由手工操作向着自动化和智能化的方向发展。焊缝特征识别技术主要通过将激光投射在焊缝表面,形成包含焊缝轮廓信息的焊缝条纹,对图像进行分析,纠正焊枪在具体操作时出现的误差,以便于最终获得一个更精准的位置信息。但在智能化焊接发展过程中,一直受到许多因素的制约,比如在焊接过程中,因为受到强烈弧光、飞溅、烟尘等的干扰,采集到的图像受噪声污染比较严重,难以准确定位,直接影响到了焊接的质量,其次,传统的特征点提取方法往往只是针对某一坡口类型的焊缝,具有很大局限性。在实际的焊接自动化生产过程中,为保证焊接产品高效率的进行,还需要实时获得焊接过程中焊缝特征点位置信息。
近年来,兴起的深度学习技术利用大量的数据样本来提取特征,具有强大的特征表达能力和自学习能力。将多层卷积神经网络引入到焊缝特征提取过程中,从大量的焊缝图像样本中学习特征点的信息特征,能够从含有强烈噪声污染以及多种坡口类型的图像中找到特征点位置,并引导焊缝跟踪***实现精准定位,此外,一些典型的深度学习网络模型计算量大,研究特定的网络模型用于焊缝特征点提取,能够在保证精度的前提下大大减小了运算量。因此,利用多层卷积神经网络进行特征点的提取,有助于提高在复杂的实际焊接环境中的适应能力,实现又快又好的高效率焊接。
发明内容
为了解决焊缝跟踪***在实际的焊接环境中焊缝特征信号被噪声严重干扰甚至淹没时产生的定位不准确问题以及多种坡口类型的适应性问题,本发明提供一种基于Y-net多层卷积神经网络的焊缝特征点提取方法。
本发明提供技术方案如下:
一种基于Y-net多层卷积神经网络的焊缝特征点提取方法,具体包括以下步骤:
(1)设计用于焊缝特征点提取的多层卷积神经网络Y-net;
(2)采集多种坡口类型焊缝图像并进行数据增广;
(3)对数据集进行标注,输入Y-net网络进行训练;
(4)用训练好的模型进行测试,得到测试结果。
进一步地,所述步骤(1)具体为:所述的Y-net多层卷积神经网络经过多层卷积进行特征提取后,形成Y型分支,一端通过卷积输出具有抗弧光干扰特性和多种坡口类型适应特性的类别预测结果,另一端通过卷积输出具有高精度的位置预测结果;该网络采用1280*1024大小的焊缝图像作为输入,卷积神经网络包括5个卷积层和5个池化层,每一个卷积层后面均跟一层Relu激活函数层,对经过第5个池化层后的特征图分别用两个3*3*2的卷积核进行卷积,一个用于焊点的类别输出,一个用于每个焊缝点的位置输出;该网络通过多层卷积提取特征并结合多种坡口类型和多种弧光干扰的焊缝数据集进行训练,发挥深度卷积网络的特征表达能力和自学习能力,以适应多种坡口类型和提高抗干扰能力,通过Y型分支在类别预测的基础上引入了位置预测,并设计类别损失和位置损失的相加方式的损失函数,以提高位置预测的精度;该网络模型的参数量较少,能够实现较快的检测速度。
进一步地,所述步骤(2)中对数据集的采集和处理,具体包括:
(1)为使模型对各种类型的焊缝坡口有更好的泛化能力,所采集的投射到焊缝上的激光焊缝图像包含V型、I型、U型,K型等多种坡口类型以及多种弧光类型,并筛选图像,去除相同或相似的图像,保证数据集的多样性,基本涵盖实际焊接过程中的焊缝图像;
(2)对这些图像进行数据增广,左右随机平移200以内像素单位,上下随机平移50以内像素单位。
进一步地,所述步骤(3)中对数据标注,输入Y-net网络进行训练,具体包括:
(1)对增广后的图像进行标注,使每一个标注文件,包含图像中两个特征点的类别和位置信息;
(2)在训练阶段,对图像进行归一化预处理后进行输入,引入先验框,将对焊缝拐点的寻找延伸到对框的寻找,以经过第5个池化层后的特征图中每一个小单元格的中心为中心生成固定大小的先验框,映射到原图大小为100*100,同时以图像中焊缝点为中心,生成同样大小的框,计算先验框与实际框的重叠度IOU值,设置一定阈值,将IOU大于阈值的框,作为正样本,将IOU小于阈值的框的类别预测损失从高到低排序,选取3倍正样本的个数作为负样本,正负样本按照1∶3的比例进行训练;
(3)所述网络以焊缝特征点与先验框中心坐标的相对位置和类别作为实际标签,利用梯度下降法优化损失函数,损失函数为类别预测损失和位置预测损失的相加,类别预测采用交叉熵损失函数,焊缝特征点位置预测采SmoothL1Loss损失函数,即:
其中,N为与真实框匹配的先验框的数量,x为输入,c为类别,是焊点还是背景,g为焊缝特征点与先验框的中心坐标的相对位置,l为预测位置。Lloc位置损失函数为:
式中gcx,gcy为实际焊缝特征点位置,dcx,dcy为先验框的中心坐标。Lconf类别损失函数为:
表示第i个先验框预测类别为焊点的概率,表示预测为背景的概率。
进一步地,所述步骤(4)中对训练好的模型进行测试,具体包括:在测试阶段,先要根据所有预选框的预测类别的概率设定一定的阈值,将大于阈值的先验框保留下来;对保留下来的先验框按照概率大小从大到小排序,通过非极大抑制的方法筛选出最优的包含焊缝点的框,将框的中心坐标还原为实际位置,标注在图像上,即为焊点位置。
本发明的优点和有益效果:
本发明和现有技术相比,具有以下优势:
(1)本发明利用多层卷积神经网络的强大的特征表达能力和学习能力,将多层卷积神经网络应用到焊缝特征点提取过程,对于焊缝拐点位置受弧光、烟尘等严重干扰的情况,有良好的抗干扰能力和预测能力。
(2)本发明所述Y-net网络以焊缝特征点类别预测和位置预测相结合方式,提高了位置预测的精度。
(3)本发明与传统算法相比,针对多种坡口焊缝类型具有较高的适应性和泛化能力,大大减少了算法的复杂性和运算量,保证了焊接速度。
(4)本发明的网络模型较小,可以方便的部署到嵌入***中,在具有弧光干扰的实际焊接现场中具有一定的应用前景。
附图说明
图1为本发明方法的流程图;
图2为网络结构;
图3为多种坡口类型数据集;
图4为多种坡口类型的测试结果;
图5为受噪声干扰严重环境中的测试结果。
具体实施方式
下面结合附图并通过具体实施方法对本发明作详细的讲述。
基于Y-net多层卷积神经网络的焊缝特征点提取方法,主要包括设计用于焊缝特征点提取的多层卷积神经网络Y-net,该网络经过多层卷积进行特征提取后,形成Y型分支,一端输出具有抗弧光干扰特性和多种坡口类型适应特性的类别预测,另一端输出具有高精度的位置预测;采集多种坡口类型及多种弧光干扰的焊缝图像并进行数据增广;对数据集进行类别和位置信息标注,输入Y-net网络进行训练;用训练好的模型进行测试,得到测试结果。其中数据标注部分通过LabelImg来实现,网络训练与测试部分在TensorFlow开源框架下实现,算法使用Python语言实现,整个算法流程如图1所示。
用于焊缝特征点提取的多层卷积神经网络Y-net的设计:本发明设计的Y-net整体网络结构如图2所示,该网络经过多层卷积进行特征提取后,形成Y型分支,形成Y型分支,一端通过卷积输出具有抗弧光干扰特性和多种坡口类型适应特性的类别预测结果,另一端通过卷积输出具有高精度的位置预测结果;该网络采用1280*1024大小的焊缝图像作为输入,卷积神经网络包括5个卷积层和5个池化层,每一个卷积层后面均跟一层Relu激活函数层,对经过第5个池化层后的特征图分别用两个3*3*2的卷积核进行卷积,一个用于焊点的类别输出,一个用于每个焊缝点的位置输出;该网络通过多层卷积提取特征并结合多种坡口类型和多种弧光干扰的焊缝数据集进行训练,发挥深度卷积网络的特征表达能力和自学习能力,以适应多种坡口类型和提高抗干扰能力,通过Y型分支在类别预测的基础上引入了位置预测,并设计类别损失和位置损失的相加方式的损失函数,以提高位置预测的精度;该网络模型的参数量较少,能够实现较快的检测速度。
采集多种坡口类型及多种弧光干扰的焊缝图像并进行数据增广:
(1)为使模型对各种类型的焊缝坡口有更好的泛化能力,所采集的投射到焊缝上的激光焊缝图像包含V型、I型、U型,K型等多种坡口类型以及多种弧光类型,并筛选图像,去除相同或相似的图像,保证数据集的多样性,基本涵盖实际焊接过程中的焊缝图像;
(2)在实际的焊接过程中焊枪主要是左右摆动,为更好的贴合实际情况,对这些图像进行数据增广,左右随机平移200以内像素单位,上下随机平移50以内像素单位,共制作训练所需的数据集11000张。
对数据集进行类别和位置信息标注,输入Y-net网络进行训练:
(1)对增广后的图像进行标注,使每一个标注文件,包含图像中两个特征点的类别和位置信息;
(2)在训练阶段,对图像进行归一化预处理后进行输入,引入先验框,将对焊缝拐点的寻找延伸到对框的寻找,以经过第5个池化层后的20*16大小的特征图中每一个小单元格的中心为中心生成固定大小的先验框,映射到原图大小为100*100,先验框的个数为320个,同时以图像中焊缝点为中心,生成同样大小的真实框,计算先验框与实际框的重叠度IOU值,设置阈值为0.5,将IOU大于阈值的框,作为正样本,将IOU小于阈值的框的类别预测损失从高到低排序,选取3倍正样本的个数作为负样本,正负样本按照1∶3的比例进行训练;
(3)本发明设计以焊缝特征点与先验框的中心坐标的相对位置和类别作为实际标签,训练Y-net多层卷积神经网络。将网络输出与实际标签的误差进行反向传播,本发明采用梯度下降法优化损失函数,损失函数为类别预测损失和位置预测损失的相加,类别预测采用交叉熵损失函数,焊缝特征点位置预测采SmoothL1Loss损失函数,即:
其中,N为与真实框匹配的先验框的数量,x为输入,c为类别,是焊点还是背景,g为焊缝特征点与先验框的中心坐标的相对位置,l为预测位置。Lloc位置损失函数为:
式中gcx,gcy为实际焊缝特征点位置,dcx,dcy为先验框的中心坐标。Lconf类别损失函数为:
表示第i个先验框预测类别为焊点的概率,表示预测为背景的概率。
训练参数设置为:基础学习率设为0.01,最大迭代次数设为3万次,学习率采取指数衰减的方式,经过2000次衰减一次,衰减系数为0.94。
用训练好的模型进行测试,得到测试结果。在测试阶段,先要根据所有预选框的预测类别的概率设定阈值为0.8,将大于阈值的先验框保留下来;对保留下来的先验框按照概率大小从大到小排序,通过非极大抑制的方法筛选出最优的包含焊缝点的框,将框的中心坐标还原为实际位置,标注在图像上,即为焊点位置,如图4所示。图4中对于不同类型焊缝坡口都能够有效预测出来,具有较好的鲁棒性和泛化能力。图5所示的是在受噪声严重干扰的环境中特征点被淹没的情况下本发明的测试结果。
从图4和图5可以看出,基于Y-net多层卷积神经网络焊缝特征点提取方法,不仅对多种坡口类型具有良好的适应性和泛化能力,而且具有良好的抗干扰能力和预测能力。同时,本发明设计的网络结构模型较小,整个模型占用内存大小仅仅9M,测试单张图片时间0.7s左右,在具有弧光干扰的实际焊接现场中具有一定的应用前景。
以上所述仅是本公开发明的具体实施方式,应当指出的是,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,可以做出若干改进、修改和变形,这些改进、修改和变形都视为落在本申请的保护范围之内。

Claims (5)

1.一种基于Y-net多层卷积神经网络的焊缝特征点提取方法,步骤如下:
(1)设计用于焊缝特征点提取的多层卷积神经网络Y-net;
(2)采集多种坡口类型及多种弧光干扰的焊缝图像并进行数据增广;
(3)对数据集进行类别和位置信息标注,输入Y-net网络进行训练;
(4)用训练好的模型进行检测,得到检测结果。
2.根据权利要求1所述的基于Y-net多层卷积神经网络的焊缝特征点提取方法,其特征在于:步骤(1)所述的Y-net多层卷积神经网络经过多层卷积进行特征提取后,形成Y型分支,一端通过卷积输出具有抗弧光干扰特性和多种坡口类型适应特性的类别预测结果,另一端通过卷积输出具有高精度的位置预测结果;该网络采用1280*1024大小的焊缝图像作为输入,卷积神经网络包括5个卷积层和5个池化层,每一个卷积层后面均跟一层Relu激活函数层,对经过第5个池化层后的特征图分别用两个3*3*2的卷积核进行卷积,一个用于焊点的类别输出,一个用于每个焊缝点的位置输出;该网络通过多层卷积提取特征并结合多种坡口类型和多种弧光干扰的焊缝数据集进行训练,发挥深度卷积网络的特征表达能力和自学习能力,以适应多种坡口类型和提高抗干扰能力,通过Y型分支在类别预测的基础上引入了位置预测,并设计类别损失和位置损失的相加方式的损失函数,以提高位置预测的精度;该网络模型的参数量较少,能够实现较快的检测速度。
3.根据权利要求1所述的基于Y-net多层卷积神经网络的焊缝特征点提取方法,其特征在于:所述步骤(2)具体包括:
(1)为使模型对各种类型的焊缝坡口有更好的泛化能力,所采集的投射到焊缝上的激光焊缝图像包含V型、I型、U型,K型等多种坡口类型以及多种弧光类型,并筛选图像,去除相同或相似的图像,保证数据集的多样性,基本涵盖实际焊接过程中的焊缝图像;
(2)对这些图像进行数据增广,左右随机平移200以内像素单位,上下随机平移50以内像素单位。
4.根据权利要求1所述的基于Y-net多层卷积神经网络的焊缝特征点提取方法,其特征在于:所述步骤(3)具体包括:
(1)对增广后的图像进行标注,使每一个标注文件,包含图像中两个特征点的类别和位置信息;
(2)在训练阶段,对图像进行归一化预处理后进行输入,引入先验框,将对焊缝拐点的寻找延伸到对框的寻找,以经过第5个池化层后的特征图中每一个小单元格的中心为中心生成固定大小的先验框,映射到原图大小为100*100,同时以图像中焊缝点为中心,生成同样大小的框,计算先验框与实际框的重叠度IOU值,设置一定阈值,将IOU大于阈值的框,作为正样本,将IOU小于阈值的框的类别预测损失从高到低排序,选取3倍正样本的个数作为负样本,正负样本按照1∶3的比例进行训练;
(3)所述网络以焊缝特征点与先验框中心坐标的相对位置和类别作为实际标签,利用梯度下降法优化损失函数,损失函数为类别损失和位置损失的相加,类别预测采用交叉熵损失函数,焊缝特征点位置预测采SmoothL1Loss损失函数,即:
其中,N为与真实框匹配的先验框的数量,x为输入,c为类别,是焊点还是背景,g为焊缝特征点与先验框的中心坐标的相对位置,l为预测位置,Lloc位置损失函数为:
式中gcx,gcy为实际焊缝特征点位置,dcx,dcy为先验框的中心坐标,Lconf类别损失函数为:
表示第i个先验框预测类别为焊点的概率,表示预测为背景的概率。
5.根据权利要求1所述的基于Y-net多层卷积神经网络的焊缝特征点提取方法,其特征在于:步骤(4)使用训练好的模型对检测图片进行检测,在检测阶段,先要根据所有预选框的预测类别的概率设定一定的阈值,将大于阈值的先验框保留下来;对保留下来的先验框按照概率大小从大到小排序,通过非极大抑制的方法筛选出最优的包含焊缝点的框,将框的中心坐标还原为实际位置,标注在图像上,即为焊点位置。
CN201910601319.2A 2019-07-05 2019-07-05 一种基于Y-net多层卷积神经网络的焊缝特征点提取方法 Pending CN110321903A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910601319.2A CN110321903A (zh) 2019-07-05 2019-07-05 一种基于Y-net多层卷积神经网络的焊缝特征点提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910601319.2A CN110321903A (zh) 2019-07-05 2019-07-05 一种基于Y-net多层卷积神经网络的焊缝特征点提取方法

Publications (1)

Publication Number Publication Date
CN110321903A true CN110321903A (zh) 2019-10-11

Family

ID=68122673

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910601319.2A Pending CN110321903A (zh) 2019-07-05 2019-07-05 一种基于Y-net多层卷积神经网络的焊缝特征点提取方法

Country Status (1)

Country Link
CN (1) CN110321903A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111637847A (zh) * 2020-05-25 2020-09-08 西咸新区大熊星座智能科技有限公司 焊缝参数测量方法及装置
CN112001935A (zh) * 2020-07-28 2020-11-27 上海巧视智能科技有限公司 基于激光扫描的t型焊缝打磨方法、***、介质及终端
CN112651341A (zh) * 2020-12-28 2021-04-13 长江大学 一种焊管焊缝实时检测视频的处理方法
CN113838050A (zh) * 2021-11-23 2021-12-24 昆山宝锦激光拼焊有限公司 一种基于互补双通道卷积神经网络的焊缝成形预测方法
CN116921817A (zh) * 2023-09-15 2023-10-24 中建安装集团有限公司 自动tig焊电弧聚集度在线监测及智能预警方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111637847A (zh) * 2020-05-25 2020-09-08 西咸新区大熊星座智能科技有限公司 焊缝参数测量方法及装置
CN112001935A (zh) * 2020-07-28 2020-11-27 上海巧视智能科技有限公司 基于激光扫描的t型焊缝打磨方法、***、介质及终端
CN112651341A (zh) * 2020-12-28 2021-04-13 长江大学 一种焊管焊缝实时检测视频的处理方法
CN113838050A (zh) * 2021-11-23 2021-12-24 昆山宝锦激光拼焊有限公司 一种基于互补双通道卷积神经网络的焊缝成形预测方法
CN113838050B (zh) * 2021-11-23 2022-06-03 昆山宝锦激光拼焊有限公司 一种基于互补双通道卷积神经网络的焊缝成形预测方法
CN116921817A (zh) * 2023-09-15 2023-10-24 中建安装集团有限公司 自动tig焊电弧聚集度在线监测及智能预警方法
CN116921817B (zh) * 2023-09-15 2023-12-15 中建安装集团有限公司 自动tig焊电弧聚集度在线监测及智能预警方法

Similar Documents

Publication Publication Date Title
CN110321903A (zh) 一种基于Y-net多层卷积神经网络的焊缝特征点提取方法
Ruan et al. Devil in the details: Towards accurate single and multiple human parsing
CN109977918A (zh) 一种基于无监督域适应的目标检测定位优化方法
CN111105336A (zh) 一种基于对抗网络的图像去水印的方法
CN109711295A (zh) 一种光学遥感图像近岸舰船检测方法
CN108647694A (zh) 基于上下文感知和自适应响应的相关滤波目标跟踪方法
CN110705412A (zh) 一种基于运动历史图像的视频目标检测方法
CN107945210A (zh) 基于深度学习和环境自适应的目标跟踪算法
CN116343045B (zh) 基于YOLO v5的轻量化SAR图像舰船目标检测方法
CN110310305A (zh) 一种基于bssd检测与卡尔曼滤波的目标跟踪方法与装置
CN107564032A (zh) 一种基于外观网络的视频跟踪对象分割方法
Zhao et al. Research on detection method for the leakage of underwater pipeline by YOLOv3
CN115240069A (zh) 一种全雾天场景下的实时性障碍物检测方法
CN112700476A (zh) 一种基于卷积神经网络的红外船视频跟踪方法
Liu et al. Two-stage underwater object detection network using swin transformer
CN114820541A (zh) 基于重构网络的缺陷检测方法
CN114529821A (zh) 一种基于机器视觉的海上风电安全监测与预警方法
Fu et al. Underwater small object detection in side-scan sonar images based on improved YOLOv5
CN116533529B (zh) 超声波焊接pc片的智能化控制方法及***
CN110111358B (zh) 一种基于多层时序滤波的目标跟踪方法
CN116894207A (zh) 一种基于Swin Transformer和迁移学习的智能辐射源识别方法
She et al. Improved traffic sign detection model based on YOLOv7-Tiny
CN110084777A (zh) 一种基于深度学习的微小零件定位跟踪方法
CN113724233B (zh) 基于融合数据生成和迁移学习技术的变电设备外观图像缺陷检测方法
Lei et al. Noise-robust wagon text extraction based on defect-restore generative adversarial network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20191011