CN116797906A - 基于改进YOLOv5s的红外弱小目标检测方法 - Google Patents

基于改进YOLOv5s的红外弱小目标检测方法 Download PDF

Info

Publication number
CN116797906A
CN116797906A CN202310632552.3A CN202310632552A CN116797906A CN 116797906 A CN116797906 A CN 116797906A CN 202310632552 A CN202310632552 A CN 202310632552A CN 116797906 A CN116797906 A CN 116797906A
Authority
CN
China
Prior art keywords
module
result
processing
network
csp1
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310632552.3A
Other languages
English (en)
Inventor
樊香所
丁文涛
肖大川
陈琳
陈笑康
覃文琳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangxi University of Science and Technology
Original Assignee
Guangxi University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangxi University of Science and Technology filed Critical Guangxi University of Science and Technology
Priority to CN202310632552.3A priority Critical patent/CN116797906A/zh
Publication of CN116797906A publication Critical patent/CN116797906A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明旨在提供一种基于改进YOLOv5s的红外弱小目标检测方法,包括以下步骤:A、构建深度神经网络结构,深度神经网络结构具体如下:Backbone网络、Neck网络、YOLO检测头;B、对深度神经网络进行训练,得到训练好的深度神经网络;C、基于训练好的深度神经网络,红外图像输入Backbone网络中,依次经过该网络中的各个模块处理,其中,CSP1_2模块、CSP1_3模块、SPPF模块的处理结果分别输入Neck网络中;D、Neck网络处理得到三个大小不同的特征图,将其输入YOLO检测头中,经YOLO检测头预测处理后得到最终结果。本发明方法能够有效提升对红外弱小目标的识别准确性和识别速度。

Description

基于改进YOLOv5s的红外弱小目标检测方法
技术领域
本发明涉及红外弱小目标检测技术领域,具体涉及一种基于改进YOLOv5s的红外弱小目标检测方法。
背景技术
红外弱小目标检测是计算机视觉领域的一项关键技术,被广泛的应用于军事领域和民用领域,例如航空航天、精确制导、红外预警、无人机检测等。目前,红外弱小目标检测技术仍然存在许多的难点。首先,由于目标距离红外探测器较远,导致在图像上目标的尺寸较小,通常表现为几个像素,目标的信噪比低,信号相对微弱,缺少丰富的细节信息;此外,远距离成像使得场景跨度很大,背景复杂,容易受到天气以及噪声等外部因素的影响,导致目标淹没在背景中,这增加了弱小目标检测的难度。由于以上难点的存在,现有的弱小目标检测算法存在局限性,难以满足实际需求。因此,研究准确快速的红外弱小目标检测算法具有重要的意义。
发明内容
本发明旨在提供一种基于改进YOLOv5s的红外弱小目标检测方法,该方法能够有效提升对红外弱小目标的识别准确性和识别速度。
本发明的技术方案如下:
所述的基于改进YOLOv5s的红外弱小目标检测方法,包括以下步骤:
A、构建深度神经网络结构,深度神经网络结构具体如下:
Backbone网络、Neck网络、YOLO检测头;
其中,Backbone网络包括依次连接的CBS模块、CBS模块、CSP1_1模块、CBS模块、CSP1_2模块、CBS模块、CSP1_3模块、CBS模块、CSP_BT模块、SPPF模块;
B、对深度神经网络进行训练,得到训练好的深度神经网络;
C、基于训练好的深度神经网络,红外图像输入Backbone网络中,依次经过该网络中的各个模块处理,其中,CSP1_2模块、CSP1_3模块、SPPF模块的处理结果分别输入Neck网络中处理;
D、Neck网络处理得到三个大小不同的特征图,将其输入YOLO检测头中,经YOLO检测头预测处理后得到最终结果。
所述的步骤C中,neck网络的处理过程如下:
Backbone网络中的SPPF模块的处理结果经过Coord Conv卷积处理后,上采样与Backbone网络中的CSP1_3模块处理结果尺寸一致后,与Backbone网络中的CSP1_3模块处理结果共同经过Concat在通道维度拼接;然后依次经过CSP2_1模块、Coord Conv卷积处理,得到处理结果a,处理结果a经上采样与Backbone网络中的CSP1_2模块处理结果尺寸一致后,与Backbone网络中的CSP1_2模块处理结果共同经过Concat在通道维度拼接,然后经过CSP2_1模块处理,得到处理结果b,处理结果b分为两路,一路经Coord Conv卷积后输入yolo检测头模块,另一路经CBS模块处理后,与处理结果a共同经Concat在通道维度拼接,然后经过CSP2_1模块处理,得到处理结果c,处理结果c分为两路,一路经Coord Conv卷积后输入yoyo检测头模块,另一路经CBS模块处理后与SPPF模块的处理结果经过Coord Conv卷积处理的结果通过经Concat在通道维度拼接,然后经过CSP2_1模块处理得到处理结果d,处理结果d经Coord Conv卷积处理后输入yolo检测头模块。
所述的CSP2_1模块中处理过程如下:输入结果分为两路,一路依次经过两个CBS模块处理后,输入Concat函数中;另一路经过CBS模块处理后输入Concat函数中;Concat在通道维度拼接结果经过CBS模块处理后获得输出结果。
所述的CSP1_1模块、CSP1_2模块、CSP1_3模块通用表达式为CSP1_n,其中n代表内部模块重复次数;
CSP1_n中处理过程如下:输入结果分为两路,一路经过CBS模块处理后,然后经过res_n模块处理后,输入Concat函数中;另一路经过CBS模块处理后输入Concat函数中;Concat在通道维度拼接结果经过CBS模块处理后获得输出结果。
所述的res_n模块中处理过程如下:输入结果依次经过两个CBS模块处理后,再与输入结果相加后得到输出结果。
所述的CSP_BT模块中的处理过程如下:输入结果分为两路,一路依次经过CBS模块、BoTR模块处理后输入Concat函数中,另一路经CBS模块后输入Concat函数中;Concat在通道维度拼接结果经过CBS模块处理后获得输出结果。
所述的BoTR模块中的处理过程如下:输入结果依次经过CBS模块、MHSA模块处理后,再与输入结果相加后获得输出结果。
所述的CBS模块包括依次连接的卷积、BN归一化函数、SiLU激活函数。
所述的步骤B,深度神经网络的训练过程如下:
随机选取70%的样本用于训练模型,10%的样本用于测试,20%的样本用于验证,其中样本分辨率为256,采用NWD损失函数作为定位损失训练模型,用训练的网络模型对测试样本进行预测,实现对红外弱小目标的自动检测
所述的NWD损失函数为:
LossNWD=1-NWD(Na,Nb)
其中,Na表示预测框的高斯分布,Nb表示真实框的高斯分布;W2 2(Na,Nb)表示Na和Nb两个框的高斯分布之间的Wasserstein距离;NWD(Na,Nb)表示将两个高斯分布之间的Wasserstein距离进行归一化处理后的指数形式,用于表示框的高斯分布的相似度;C代表常数;lossNWD作为定位损失函数的公式。
NWD损失函数的推导过程如下:
将包围框建模成二维高斯分布来表示框内目标像素点的重要性。假设包围框的中心点坐标为(cx,cy),宽为w,高为h,那么包围框的内切椭圆方程可以表示为公式3。二维高斯分布的概率密度函数可以表示为公式4,其中X表示坐标(x,y),μ表示均值向量,∑表示协方差矩阵。当(X-μ)T-1(X-μ)=1时,包围框的内切椭圆就是一个用N(μ,∑)建立的二维的高斯分布,如公式5所示。
用两个高斯分布之间的距离来表示预测框和真实框的相似性。两个高斯分布之间的距离采用Wasserstein距离来计算,Wasserstein距离的定义如公式6所示,对于两个bounding box的高斯分布来说,其Wassertein距离可以表示为公式7,单纯的距离度量并不能用于表示相似度,因此将其归一化处理后,用指数形式来表示相似度度量方法,从而得到公式1和2。
本发明的方法在CSP结构中加入多头自注意力机制,增强全局信息的表达能力;
本发明的方法使用CoordConv代替1×1卷积,使卷积能够感知位置信息,优化网络参数;
本发明的方法训练时使用NWD代替CIOU作为定位损失,减少了在训练过程中对弱小目标位置偏差的敏感性。
本发明的方法在YOYOv5s结构的基础上进行了进一步结构优化,能够有效提升对红外弱小目标的识别准确性和识别速度,具有较好的应用前景。
附图说明
图1为本发明实施例1的深度神经网络的结构示意图;
图2为本发明实施例1的MHSA模块的结构示意图;
图3为本发明实施例1的坐标卷积CoordConv的结构示意图;
图4为本发明实施例1方法与其他YOLO算法在相同场景下检测结果对比图。
具体实施方式
下面结合附图和实施例具体说明本发明。
实施例1
本实施例的基于改进YOLOv5s的红外弱小目标检测方法,包括以下步骤:
所述的基于改进YOLOv5s的红外弱小目标检测方法,包括以下步骤:
A、构建深度神经网络结构,深度神经网络结构具体如下:
Backbone网络、Neck网络、YOLO检测头;
其中,Backbone网络包括依次连接的CBS模块、CBS模块、CSP1_1模块、CBS模块、CSP1_2模块、CBS模块、CSP1_3模块、CBS模块、CSP_BT模块、SPPF模块;
B、对深度神经网络进行训练,得到训练好的深度神经网络;
深度神经网络的训练过程如下:
随机选取70%的样本用于训练模型,10%的样本用于测试,20%的样本用于验证,其中样本分辨率为256,采用NWD损失函数作为定位损失训练模型,用训练的网络模型对测试样本进行预测,实现对红外弱小目标的自动检测
所述的NWD损失函数为:
LossNWD=1-NWD(Na,Nb) (2)
其中,Na表示预测框的高斯分布,Nb表示真实框的高斯分布;W2 2(Na,Nb)表示Na和Nb两个框的高斯分布之间的Wasserstein距离;NWD(Na,Nb)表示将两个高斯分布之间的Wasserstein距离进行归一化处理后的指数形式,用于表示框的高斯分布的相似度;C代表常数;LossNWD作为定位损失函数的公式。
C、基于训练好的深度神经网络,红外图像输入Backbone网络中,依次经过该网络中的各个模块处理,其中,CSP1_2模块、CSP1_3模块、SPPF模块的处理结果分别输入Neck网络中处理;
neck网络的处理过程如下:
Backbone网络中的SPPF模块的处理结果经过Coord Conv卷积处理后,上采样与Backbone网络中的CSP1_3模块处理结果尺寸一致后,与Backbone网络中的CSP1_3模块处理结果共同经过Concat在通道维度拼接;然后依次经过CSP2_1模块、Coord Conv卷积处理,得到处理结果a,处理结果a经上采样与Backbone网络中的CSP1_2模块处理结果尺寸一致后,与Backbone网络中的CSP1_2模块处理结果共同经过Concat在通道维度拼接,然后经过CSP2_1模块处理,得到处理结果b,处理结果b分为两路,一路经Coord Conv卷积后输入yolo检测头模块,另一路经CBS模块处理后,与处理结果a共同经Concat在通道维度拼接,然后经过CSP2_1模块处理,得到处理结果c,处理结果c分为两路,一路经Coord Conv卷积后输入yolo检测头模块,另一路经CBS模块处理后与SPPF模块的处理结果经过Coord Conv卷积处理的结果通过经Concat在通道维度拼接,然后经过CSP2_1模块处理得到处理结果d,处理结果d经Coord Conv卷积处理后输入yolo检测头模块;
D、Neck网络处理得到三个大小不同的特征图,将其输入YOLO检测头中,经YOLO检测头预测处理后得到最终结果。
所述的CSP2_1模块中处理过程如下:输入结果分为两路,一路依次经过两个CBS模块处理后,输入Concat函数中;另一路经过CBS模块处理后输入Concat函数中;Concat在通道维度拼接结果经过CBS模块处理后获得输出结果。
所述的CSP1_1模块、CSP1_2模块、CSP1_3模块通用表达式为CSP1_n,其中n代表内部模块重复次数的重复次数;
CSP1_n中处理过程如下:输入结果分为两路,一路经过CBS模块处理后,然后经过res_n模块处理后,输入Concat函数中;另一路经过CBS模块处理后输入Concat函数中;Concat在通道维度拼接结果经过CBS模块处理后获得输出结果。
所述的res_n模块中处理过程如下:输入结果依次经过两个CBS模块处理后,再与输入结果相加后得到输出结果。
所述的CSP_BT模块中的处理过程如下:输入结果分为两路,一路依次经过CBS模块、BoTR模块处理后输入Concat函数中,另一路经CBS模块后输入Concat函数中;Concat在通道维度拼接结果经过CBS模块处理后获得输出结果。
所述的BoTR模块中的处理过程如下:输入结果依次经过CBS模块、MHSA模块处理后,再与输入结果相加后获得输出结果。
所述的CBS模块包括依次连接的卷积、BN归一化函数、SiLU激活函数。
实施例2
实施例1中的MHSA模块具体结构及过程如图2所示:
输入特征矩阵经过1×1卷积后分别作为WQ、WK、WV,维度大小为H×W×d,d表示单个token的维度。同时初始化高和宽两个位置编码Rh和Rw,通过广播机制相加得到位置编码r,q、k、v、r四个参数的维度为H×W×d,q和r通过矩阵相乘得到content-position输出矩阵qrT,q与k进行矩阵相乘得到content-content输出矩阵qkT,qrT与qkT元素进行矩阵相加,并进行Softmax归一化处理,得到HW×HW大小的注意力矩阵,最后将其与值投影v矩阵相乘,得到输出值Z,输出Z聚合了全局信息。多头自注意力层的计算是并行进行的,我们使用了四个头,通过自注意力机制对特征图分配不同的权重,使得网络更多的关注特征图的目标信息,显著提高CNN模型的检测性能。
如图3所示,实施例1中的采用了坐标卷积CoordConv,与传统卷积相比:CoordConv在输入上添加了两个位置通道,一个表示x坐标,一个表示y坐标。将两个坐标通道与输入通道进行拼接,然后再进行卷积操作,使卷积过程可以感知位置信息。
实施例3
采用YOYOv3、YOYOv4、YOYOv5、YOYOv7和实施例1算法(Ours Method)在相同场景下检测结果对比,具体对比结果间图4,如图4可见:
分别使用天空、山地、水面、建筑、道路以及林地六个不同场景下的数据图像评估了改进YOLOv5s的检测效果,使用相同的参数进行测试,结果如图所示,YOLOv4-tiny在天空、山地场景下没有成功检测到目标,在水面背景下出现了误检,YOLOv7-tiny同样在水面背景下出现了误检现象,但是在其他场景下成功的检测出了目标。YOLOv3-tiny与YOLOv5s在六个场景下均能正常检测到目标,没有出现误检和漏检的现象。但是每一个场景下目标的识别率均低于实施例1算法,实施例1算法在弱小目标检测方面识别率得到了明显的提升。综合来看,本发明的改进的YOLOv5s算法的检测识别率明显优于其他算法。

Claims (10)

1.一种基于改进YOLOv5s的红外弱小目标检测方法,其特征在于,包括以下步骤:
A、构建深度神经网络结构,深度神经网络结构具体如下:
Backbone网络、Neck网络、YOLO检测头;
其中,Backbone网络包括依次连接的CBS模块、CBS模块、CSP1_1模块、CBS模块、CSP1_2模块、CBS模块、CSP1_3模块、CBS模块、CSP_BT模块、SPPF模块;
B、对深度神经网络进行训练,得到训练好的深度神经网络;
C、基于训练好的深度神经网络,红外图像输入Backbone网络中,依次经过该网络中的各个模块处理,其中,CSP1_2模块、CSP1_3模块、SPPF模块的处理结果分别输入Neck网络中进行处理;
D、Neck网络处理得到三个大小不同的特征图,将其输入YOLO检测头中,经YOLO检测头预测处理后得到最终结果。
2.如权利要求1所述的基于改进YOLOv5s的红外弱小目标检测方法,其特征在于:
所述的步骤C中,neck网络的处理过程如下:
Backbone网络中的SPPF模块的处理结果经过Coord Conv卷积处理后,上采样与Backbone网络中的CSP1_3模块处理结果尺寸一致后,与Backbone网络中的CSP1_3模块处理结果共同经过Concat在通道维度拼接;然后依次经过CSP2_1模块、Coord Conv卷积处理,得到处理结果a,处理结果a经上采样与Backbone网络中的CSP1_2模块处理结果尺寸一致后,与Backbone网络中的CSP1_2模块处理结果共同经过Concat在通道维度拼接,然后经过CSP2_1模块处理,得到处理结果b,处理结果b分为两路,一路经Coord Conv卷积后输入yolo检测头模块,另一路经CBS模块处理后,与处理结果a共同经Concat在通道维度拼接,然后经过CSP2_1模块处理,得到处理结果c,处理结果c分为两路,一路经Coord Conv卷积后输入yolo检测头模块,另一路经CBS模块处理后与SPPF模块的处理结果经过Coord Conv卷积处理的结果通过经Concat在通道维度拼接,然后经过CSP2_1模块处理得到处理结果d,处理结果d经Coord Conv卷积处理后输入yolo检测头模块。
3.如权利要求2所述的基于改进YOLOv5s的红外弱小目标检测方法,其特征在于:
所述的CSP2_1模块中处理过程如下:输入结果分为两路,一路依次经过两个CBS模块处理后,输入Concat函数中;另一路经过CBS模块处理后输入Concat函数中;Concat在通道维度拼接结果经过CBS模块处理后获得输出结果。
4.如权利要求1所述的基于改进YOLOv5s的红外弱小目标检测方法,其特征在于:
所述的CSP1_1模块、CSP1_2模块、CSP1_3模块通用表达式为CSP1_n,其中n代表内部模块重复次数的重复次数;
CSP1_n中处理过程如下:输入结果分为两路,一路经过CBS模块处理后,然后经过res_n模块处理后,输入Concat函数中;另一路经过CBS模块处理后输入Concat函数中;Concat在通道维度拼接结果经过CBS模块处理后获得输出结果。
5.如权利要求4所述的基于改进YOLOv5s的红外弱小目标检测方法,其特征在于:
所述的res_n模块中处理过程如下:输入结果依次经过两个CBS模块处理后,再与输入结果相加后得到输出结果。
6.如权利要求1所述的基于改进YOLOv5s的红外弱小目标检测方法,其特征在于:
所述的CSP_BT模块中的处理过程如下:输入结果分为两路,一路依次经过CBS模块、BoTR模块处理后输入Concat函数中,另一路经CBS模块后输入Concat函数中;Concat在通道维度拼接结果经过CBS模块处理后获得输出结果。
7.如权利要求1所述的基于改进YOLOv5s的红外弱小目标检测方法,其特征在于:所述的BoTR模块中的处理过程如下:输入结果依次经过CBS模块、MHSA模块处理后,再与输入结果相加后获得输出结果。
8.如权利要求1-7任何一项所述的基于改进YOLOv5s的红外弱小目标检测方法,其特征在于:
所述的CBS模块包括依次连接的卷积、BN归一化函数、SiLU激活函数。
9.如权利要求1所述的基于改进YOLOv5s的红外弱小目标检测方法,其特征在于:
所述的步骤B,深度神经网络的训练过程如下:
随机选取70%的样本用于训练模型,10%的样本用于测试,20%的样本用于验证,其中样本分辨率为256,采用NWD损失函数作为定位损失训练模型,用训练的网络模型对测试样本进行预测,实现对红外弱小目标的自动检测。
10.如权利要求9所述的基于改进YOLOv5s的红外弱小目标检测方法,其特征在于:
所述的NWD损失函数为:
LossNWD=1-NWD(Na,Nb) (2)
其中,Na表示预测框的高斯分布,Nb表示真实框的高斯分布;表示Na和Nb两个框的高斯分布之间的Wasserstein距离;NWD(Na,Nb)表示将两个高斯分布之间的Wasserstein距离进行归一化处理后的指数形式,用于表示框的高斯分布的相似度;C代表常数;LossNWD作为定位损失函数的公式。
CN202310632552.3A 2023-05-31 2023-05-31 基于改进YOLOv5s的红外弱小目标检测方法 Pending CN116797906A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310632552.3A CN116797906A (zh) 2023-05-31 2023-05-31 基于改进YOLOv5s的红外弱小目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310632552.3A CN116797906A (zh) 2023-05-31 2023-05-31 基于改进YOLOv5s的红外弱小目标检测方法

Publications (1)

Publication Number Publication Date
CN116797906A true CN116797906A (zh) 2023-09-22

Family

ID=88033635

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310632552.3A Pending CN116797906A (zh) 2023-05-31 2023-05-31 基于改进YOLOv5s的红外弱小目标检测方法

Country Status (1)

Country Link
CN (1) CN116797906A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116993732A (zh) * 2023-09-27 2023-11-03 合肥工业大学 一种缝隙检测方法、***和存储介质
CN117094999A (zh) * 2023-10-19 2023-11-21 南京航空航天大学 一种跨尺度缺陷检测方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116993732A (zh) * 2023-09-27 2023-11-03 合肥工业大学 一种缝隙检测方法、***和存储介质
CN116993732B (zh) * 2023-09-27 2023-12-26 合肥工业大学 一种缝隙检测方法、***和存储介质
CN117094999A (zh) * 2023-10-19 2023-11-21 南京航空航天大学 一种跨尺度缺陷检测方法
CN117094999B (zh) * 2023-10-19 2023-12-22 南京航空航天大学 一种跨尺度缺陷检测方法

Similar Documents

Publication Publication Date Title
CN111553205B (zh) 无车牌信息车辆重识别方法、***、介质、视频监控***
CN116797906A (zh) 基于改进YOLOv5s的红外弱小目标检测方法
CN111709313B (zh) 基于局部和通道组合特征的行人重识别方法
CN113052185A (zh) 一种基于Faster R-CNN的小样本目标检测方法
CN112308883A (zh) 一种基于可见光和红外图像的多船舶融合跟踪方法
CN114399675A (zh) 一种基于机器视觉与激光雷达融合的目标检测方法和装置
US11164327B2 (en) Estimation of human orientation in images using depth information from a depth camera
CN116310837A (zh) 一种sar舰船目标旋转检测方法及***
CN115861756A (zh) 基于级联组合网络的大地背景小目标识别方法
CN114066937B (zh) 一种大尺度遥感影像多目标跟踪方法
CN115115973A (zh) 一种基于多感受野与深度特征的弱小目标检测方法
Dai et al. GCD-YOLOv5: An armored target recognition algorithm in complex environments based on array lidar
CN112560907B (zh) 基于混合域注意力的有限像素红外无人机目标检测方法
CN117152625A (zh) 一种基于CoordConv和YOLOv5的遥感小目标识别方法、***、设备及介质
CN109063543B (zh) 一种考虑局部形变的视频车辆重识别方法、***及装置
CN115937520A (zh) 基于语义信息引导的点云运动目标分割方法
CN115797684A (zh) 一种基于上下文信息的红外小目标检测方法及***
Zhao et al. RMFENet: Refined Multi-Scale Feature Enhancement Network for Arbitrary Oriented Sonar Object Detection
CN112465867A (zh) 一种基于卷积神经网络的红外点目标实时检测跟踪方法
Feng et al. Meta-learning based infrared ship object detection model for generalization to unknown domains
Kishore et al. DSLR-Net a depth based sign language recognition using two stream convents
Rasyidy et al. A Framework for Road Boundary Detection based on Camera-LIDAR Fusion in World Coordinate System and Its Performance Evaluation Using Carla Simulator
CN117011343B (zh) 一种面向拥挤场景的光流引导多目标跟踪方法
Singha et al. SPEEDY: Small Prototyping for Number Plate Detection and Speed Estimation using Edge AI
Kumar et al. GhostNet-YOLO Algorithm for Object Detection in UAV Image

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination