CN116797906A - 基于改进YOLOv5s的红外弱小目标检测方法 - Google Patents
基于改进YOLOv5s的红外弱小目标检测方法 Download PDFInfo
- Publication number
- CN116797906A CN116797906A CN202310632552.3A CN202310632552A CN116797906A CN 116797906 A CN116797906 A CN 116797906A CN 202310632552 A CN202310632552 A CN 202310632552A CN 116797906 A CN116797906 A CN 116797906A
- Authority
- CN
- China
- Prior art keywords
- module
- result
- processing
- network
- csp1
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 54
- 238000012545 processing Methods 0.000 claims abstract description 81
- 238000000034 method Methods 0.000 claims abstract description 36
- 238000013528 artificial neural network Methods 0.000 claims abstract description 24
- 238000012549 training Methods 0.000 claims abstract description 15
- 238000009826 distribution Methods 0.000 claims description 21
- 238000005070 sampling Methods 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 5
- 230000014509 gene expression Effects 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 description 10
- 238000010586 diagram Methods 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 210000000988 bone and bone Anatomy 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明旨在提供一种基于改进YOLOv5s的红外弱小目标检测方法,包括以下步骤:A、构建深度神经网络结构,深度神经网络结构具体如下:Backbone网络、Neck网络、YOLO检测头;B、对深度神经网络进行训练,得到训练好的深度神经网络;C、基于训练好的深度神经网络,红外图像输入Backbone网络中,依次经过该网络中的各个模块处理,其中,CSP1_2模块、CSP1_3模块、SPPF模块的处理结果分别输入Neck网络中;D、Neck网络处理得到三个大小不同的特征图,将其输入YOLO检测头中,经YOLO检测头预测处理后得到最终结果。本发明方法能够有效提升对红外弱小目标的识别准确性和识别速度。
Description
技术领域
本发明涉及红外弱小目标检测技术领域,具体涉及一种基于改进YOLOv5s的红外弱小目标检测方法。
背景技术
红外弱小目标检测是计算机视觉领域的一项关键技术,被广泛的应用于军事领域和民用领域,例如航空航天、精确制导、红外预警、无人机检测等。目前,红外弱小目标检测技术仍然存在许多的难点。首先,由于目标距离红外探测器较远,导致在图像上目标的尺寸较小,通常表现为几个像素,目标的信噪比低,信号相对微弱,缺少丰富的细节信息;此外,远距离成像使得场景跨度很大,背景复杂,容易受到天气以及噪声等外部因素的影响,导致目标淹没在背景中,这增加了弱小目标检测的难度。由于以上难点的存在,现有的弱小目标检测算法存在局限性,难以满足实际需求。因此,研究准确快速的红外弱小目标检测算法具有重要的意义。
发明内容
本发明旨在提供一种基于改进YOLOv5s的红外弱小目标检测方法,该方法能够有效提升对红外弱小目标的识别准确性和识别速度。
本发明的技术方案如下:
所述的基于改进YOLOv5s的红外弱小目标检测方法,包括以下步骤:
A、构建深度神经网络结构,深度神经网络结构具体如下:
Backbone网络、Neck网络、YOLO检测头;
其中,Backbone网络包括依次连接的CBS模块、CBS模块、CSP1_1模块、CBS模块、CSP1_2模块、CBS模块、CSP1_3模块、CBS模块、CSP_BT模块、SPPF模块;
B、对深度神经网络进行训练,得到训练好的深度神经网络;
C、基于训练好的深度神经网络,红外图像输入Backbone网络中,依次经过该网络中的各个模块处理,其中,CSP1_2模块、CSP1_3模块、SPPF模块的处理结果分别输入Neck网络中处理;
D、Neck网络处理得到三个大小不同的特征图,将其输入YOLO检测头中,经YOLO检测头预测处理后得到最终结果。
所述的步骤C中,neck网络的处理过程如下:
Backbone网络中的SPPF模块的处理结果经过Coord Conv卷积处理后,上采样与Backbone网络中的CSP1_3模块处理结果尺寸一致后,与Backbone网络中的CSP1_3模块处理结果共同经过Concat在通道维度拼接;然后依次经过CSP2_1模块、Coord Conv卷积处理,得到处理结果a,处理结果a经上采样与Backbone网络中的CSP1_2模块处理结果尺寸一致后,与Backbone网络中的CSP1_2模块处理结果共同经过Concat在通道维度拼接,然后经过CSP2_1模块处理,得到处理结果b,处理结果b分为两路,一路经Coord Conv卷积后输入yolo检测头模块,另一路经CBS模块处理后,与处理结果a共同经Concat在通道维度拼接,然后经过CSP2_1模块处理,得到处理结果c,处理结果c分为两路,一路经Coord Conv卷积后输入yoyo检测头模块,另一路经CBS模块处理后与SPPF模块的处理结果经过Coord Conv卷积处理的结果通过经Concat在通道维度拼接,然后经过CSP2_1模块处理得到处理结果d,处理结果d经Coord Conv卷积处理后输入yolo检测头模块。
所述的CSP2_1模块中处理过程如下:输入结果分为两路,一路依次经过两个CBS模块处理后,输入Concat函数中;另一路经过CBS模块处理后输入Concat函数中;Concat在通道维度拼接结果经过CBS模块处理后获得输出结果。
所述的CSP1_1模块、CSP1_2模块、CSP1_3模块通用表达式为CSP1_n,其中n代表内部模块重复次数;
CSP1_n中处理过程如下:输入结果分为两路,一路经过CBS模块处理后,然后经过res_n模块处理后,输入Concat函数中;另一路经过CBS模块处理后输入Concat函数中;Concat在通道维度拼接结果经过CBS模块处理后获得输出结果。
所述的res_n模块中处理过程如下:输入结果依次经过两个CBS模块处理后,再与输入结果相加后得到输出结果。
所述的CSP_BT模块中的处理过程如下:输入结果分为两路,一路依次经过CBS模块、BoTR模块处理后输入Concat函数中,另一路经CBS模块后输入Concat函数中;Concat在通道维度拼接结果经过CBS模块处理后获得输出结果。
所述的BoTR模块中的处理过程如下:输入结果依次经过CBS模块、MHSA模块处理后,再与输入结果相加后获得输出结果。
所述的CBS模块包括依次连接的卷积、BN归一化函数、SiLU激活函数。
所述的步骤B,深度神经网络的训练过程如下:
随机选取70%的样本用于训练模型,10%的样本用于测试,20%的样本用于验证,其中样本分辨率为256,采用NWD损失函数作为定位损失训练模型,用训练的网络模型对测试样本进行预测,实现对红外弱小目标的自动检测
所述的NWD损失函数为:
LossNWD=1-NWD(Na,Nb)
其中,Na表示预测框的高斯分布,Nb表示真实框的高斯分布;W2 2(Na,Nb)表示Na和Nb两个框的高斯分布之间的Wasserstein距离;NWD(Na,Nb)表示将两个高斯分布之间的Wasserstein距离进行归一化处理后的指数形式,用于表示框的高斯分布的相似度;C代表常数;lossNWD作为定位损失函数的公式。
NWD损失函数的推导过程如下:
将包围框建模成二维高斯分布来表示框内目标像素点的重要性。假设包围框的中心点坐标为(cx,cy),宽为w,高为h,那么包围框的内切椭圆方程可以表示为公式3。二维高斯分布的概率密度函数可以表示为公式4,其中X表示坐标(x,y),μ表示均值向量,∑表示协方差矩阵。当(X-μ)T∑-1(X-μ)=1时,包围框的内切椭圆就是一个用N(μ,∑)建立的二维的高斯分布,如公式5所示。
用两个高斯分布之间的距离来表示预测框和真实框的相似性。两个高斯分布之间的距离采用Wasserstein距离来计算,Wasserstein距离的定义如公式6所示,对于两个bounding box的高斯分布来说,其Wassertein距离可以表示为公式7,单纯的距离度量并不能用于表示相似度,因此将其归一化处理后,用指数形式来表示相似度度量方法,从而得到公式1和2。
本发明的方法在CSP结构中加入多头自注意力机制,增强全局信息的表达能力;
本发明的方法使用CoordConv代替1×1卷积,使卷积能够感知位置信息,优化网络参数;
本发明的方法训练时使用NWD代替CIOU作为定位损失,减少了在训练过程中对弱小目标位置偏差的敏感性。
本发明的方法在YOYOv5s结构的基础上进行了进一步结构优化,能够有效提升对红外弱小目标的识别准确性和识别速度,具有较好的应用前景。
附图说明
图1为本发明实施例1的深度神经网络的结构示意图;
图2为本发明实施例1的MHSA模块的结构示意图;
图3为本发明实施例1的坐标卷积CoordConv的结构示意图;
图4为本发明实施例1方法与其他YOLO算法在相同场景下检测结果对比图。
具体实施方式
下面结合附图和实施例具体说明本发明。
实施例1
本实施例的基于改进YOLOv5s的红外弱小目标检测方法,包括以下步骤:
所述的基于改进YOLOv5s的红外弱小目标检测方法,包括以下步骤:
A、构建深度神经网络结构,深度神经网络结构具体如下:
Backbone网络、Neck网络、YOLO检测头;
其中,Backbone网络包括依次连接的CBS模块、CBS模块、CSP1_1模块、CBS模块、CSP1_2模块、CBS模块、CSP1_3模块、CBS模块、CSP_BT模块、SPPF模块;
B、对深度神经网络进行训练,得到训练好的深度神经网络;
深度神经网络的训练过程如下:
随机选取70%的样本用于训练模型,10%的样本用于测试,20%的样本用于验证,其中样本分辨率为256,采用NWD损失函数作为定位损失训练模型,用训练的网络模型对测试样本进行预测,实现对红外弱小目标的自动检测
所述的NWD损失函数为:
LossNWD=1-NWD(Na,Nb) (2)
其中,Na表示预测框的高斯分布,Nb表示真实框的高斯分布;W2 2(Na,Nb)表示Na和Nb两个框的高斯分布之间的Wasserstein距离;NWD(Na,Nb)表示将两个高斯分布之间的Wasserstein距离进行归一化处理后的指数形式,用于表示框的高斯分布的相似度;C代表常数;LossNWD作为定位损失函数的公式。
C、基于训练好的深度神经网络,红外图像输入Backbone网络中,依次经过该网络中的各个模块处理,其中,CSP1_2模块、CSP1_3模块、SPPF模块的处理结果分别输入Neck网络中处理;
neck网络的处理过程如下:
Backbone网络中的SPPF模块的处理结果经过Coord Conv卷积处理后,上采样与Backbone网络中的CSP1_3模块处理结果尺寸一致后,与Backbone网络中的CSP1_3模块处理结果共同经过Concat在通道维度拼接;然后依次经过CSP2_1模块、Coord Conv卷积处理,得到处理结果a,处理结果a经上采样与Backbone网络中的CSP1_2模块处理结果尺寸一致后,与Backbone网络中的CSP1_2模块处理结果共同经过Concat在通道维度拼接,然后经过CSP2_1模块处理,得到处理结果b,处理结果b分为两路,一路经Coord Conv卷积后输入yolo检测头模块,另一路经CBS模块处理后,与处理结果a共同经Concat在通道维度拼接,然后经过CSP2_1模块处理,得到处理结果c,处理结果c分为两路,一路经Coord Conv卷积后输入yolo检测头模块,另一路经CBS模块处理后与SPPF模块的处理结果经过Coord Conv卷积处理的结果通过经Concat在通道维度拼接,然后经过CSP2_1模块处理得到处理结果d,处理结果d经Coord Conv卷积处理后输入yolo检测头模块;
D、Neck网络处理得到三个大小不同的特征图,将其输入YOLO检测头中,经YOLO检测头预测处理后得到最终结果。
所述的CSP2_1模块中处理过程如下:输入结果分为两路,一路依次经过两个CBS模块处理后,输入Concat函数中;另一路经过CBS模块处理后输入Concat函数中;Concat在通道维度拼接结果经过CBS模块处理后获得输出结果。
所述的CSP1_1模块、CSP1_2模块、CSP1_3模块通用表达式为CSP1_n,其中n代表内部模块重复次数的重复次数;
CSP1_n中处理过程如下:输入结果分为两路,一路经过CBS模块处理后,然后经过res_n模块处理后,输入Concat函数中;另一路经过CBS模块处理后输入Concat函数中;Concat在通道维度拼接结果经过CBS模块处理后获得输出结果。
所述的res_n模块中处理过程如下:输入结果依次经过两个CBS模块处理后,再与输入结果相加后得到输出结果。
所述的CSP_BT模块中的处理过程如下:输入结果分为两路,一路依次经过CBS模块、BoTR模块处理后输入Concat函数中,另一路经CBS模块后输入Concat函数中;Concat在通道维度拼接结果经过CBS模块处理后获得输出结果。
所述的BoTR模块中的处理过程如下:输入结果依次经过CBS模块、MHSA模块处理后,再与输入结果相加后获得输出结果。
所述的CBS模块包括依次连接的卷积、BN归一化函数、SiLU激活函数。
实施例2
实施例1中的MHSA模块具体结构及过程如图2所示:
输入特征矩阵经过1×1卷积后分别作为WQ、WK、WV,维度大小为H×W×d,d表示单个token的维度。同时初始化高和宽两个位置编码Rh和Rw,通过广播机制相加得到位置编码r,q、k、v、r四个参数的维度为H×W×d,q和r通过矩阵相乘得到content-position输出矩阵qrT,q与k进行矩阵相乘得到content-content输出矩阵qkT,qrT与qkT元素进行矩阵相加,并进行Softmax归一化处理,得到HW×HW大小的注意力矩阵,最后将其与值投影v矩阵相乘,得到输出值Z,输出Z聚合了全局信息。多头自注意力层的计算是并行进行的,我们使用了四个头,通过自注意力机制对特征图分配不同的权重,使得网络更多的关注特征图的目标信息,显著提高CNN模型的检测性能。
如图3所示,实施例1中的采用了坐标卷积CoordConv,与传统卷积相比:CoordConv在输入上添加了两个位置通道,一个表示x坐标,一个表示y坐标。将两个坐标通道与输入通道进行拼接,然后再进行卷积操作,使卷积过程可以感知位置信息。
实施例3
采用YOYOv3、YOYOv4、YOYOv5、YOYOv7和实施例1算法(Ours Method)在相同场景下检测结果对比,具体对比结果间图4,如图4可见:
分别使用天空、山地、水面、建筑、道路以及林地六个不同场景下的数据图像评估了改进YOLOv5s的检测效果,使用相同的参数进行测试,结果如图所示,YOLOv4-tiny在天空、山地场景下没有成功检测到目标,在水面背景下出现了误检,YOLOv7-tiny同样在水面背景下出现了误检现象,但是在其他场景下成功的检测出了目标。YOLOv3-tiny与YOLOv5s在六个场景下均能正常检测到目标,没有出现误检和漏检的现象。但是每一个场景下目标的识别率均低于实施例1算法,实施例1算法在弱小目标检测方面识别率得到了明显的提升。综合来看,本发明的改进的YOLOv5s算法的检测识别率明显优于其他算法。
Claims (10)
1.一种基于改进YOLOv5s的红外弱小目标检测方法,其特征在于,包括以下步骤:
A、构建深度神经网络结构,深度神经网络结构具体如下:
Backbone网络、Neck网络、YOLO检测头;
其中,Backbone网络包括依次连接的CBS模块、CBS模块、CSP1_1模块、CBS模块、CSP1_2模块、CBS模块、CSP1_3模块、CBS模块、CSP_BT模块、SPPF模块;
B、对深度神经网络进行训练,得到训练好的深度神经网络;
C、基于训练好的深度神经网络,红外图像输入Backbone网络中,依次经过该网络中的各个模块处理,其中,CSP1_2模块、CSP1_3模块、SPPF模块的处理结果分别输入Neck网络中进行处理;
D、Neck网络处理得到三个大小不同的特征图,将其输入YOLO检测头中,经YOLO检测头预测处理后得到最终结果。
2.如权利要求1所述的基于改进YOLOv5s的红外弱小目标检测方法,其特征在于:
所述的步骤C中,neck网络的处理过程如下:
Backbone网络中的SPPF模块的处理结果经过Coord Conv卷积处理后,上采样与Backbone网络中的CSP1_3模块处理结果尺寸一致后,与Backbone网络中的CSP1_3模块处理结果共同经过Concat在通道维度拼接;然后依次经过CSP2_1模块、Coord Conv卷积处理,得到处理结果a,处理结果a经上采样与Backbone网络中的CSP1_2模块处理结果尺寸一致后,与Backbone网络中的CSP1_2模块处理结果共同经过Concat在通道维度拼接,然后经过CSP2_1模块处理,得到处理结果b,处理结果b分为两路,一路经Coord Conv卷积后输入yolo检测头模块,另一路经CBS模块处理后,与处理结果a共同经Concat在通道维度拼接,然后经过CSP2_1模块处理,得到处理结果c,处理结果c分为两路,一路经Coord Conv卷积后输入yolo检测头模块,另一路经CBS模块处理后与SPPF模块的处理结果经过Coord Conv卷积处理的结果通过经Concat在通道维度拼接,然后经过CSP2_1模块处理得到处理结果d,处理结果d经Coord Conv卷积处理后输入yolo检测头模块。
3.如权利要求2所述的基于改进YOLOv5s的红外弱小目标检测方法,其特征在于:
所述的CSP2_1模块中处理过程如下:输入结果分为两路,一路依次经过两个CBS模块处理后,输入Concat函数中;另一路经过CBS模块处理后输入Concat函数中;Concat在通道维度拼接结果经过CBS模块处理后获得输出结果。
4.如权利要求1所述的基于改进YOLOv5s的红外弱小目标检测方法,其特征在于:
所述的CSP1_1模块、CSP1_2模块、CSP1_3模块通用表达式为CSP1_n,其中n代表内部模块重复次数的重复次数;
CSP1_n中处理过程如下:输入结果分为两路,一路经过CBS模块处理后,然后经过res_n模块处理后,输入Concat函数中;另一路经过CBS模块处理后输入Concat函数中;Concat在通道维度拼接结果经过CBS模块处理后获得输出结果。
5.如权利要求4所述的基于改进YOLOv5s的红外弱小目标检测方法,其特征在于:
所述的res_n模块中处理过程如下:输入结果依次经过两个CBS模块处理后,再与输入结果相加后得到输出结果。
6.如权利要求1所述的基于改进YOLOv5s的红外弱小目标检测方法,其特征在于:
所述的CSP_BT模块中的处理过程如下:输入结果分为两路,一路依次经过CBS模块、BoTR模块处理后输入Concat函数中,另一路经CBS模块后输入Concat函数中;Concat在通道维度拼接结果经过CBS模块处理后获得输出结果。
7.如权利要求1所述的基于改进YOLOv5s的红外弱小目标检测方法,其特征在于:所述的BoTR模块中的处理过程如下:输入结果依次经过CBS模块、MHSA模块处理后,再与输入结果相加后获得输出结果。
8.如权利要求1-7任何一项所述的基于改进YOLOv5s的红外弱小目标检测方法,其特征在于:
所述的CBS模块包括依次连接的卷积、BN归一化函数、SiLU激活函数。
9.如权利要求1所述的基于改进YOLOv5s的红外弱小目标检测方法,其特征在于:
所述的步骤B,深度神经网络的训练过程如下:
随机选取70%的样本用于训练模型,10%的样本用于测试,20%的样本用于验证,其中样本分辨率为256,采用NWD损失函数作为定位损失训练模型,用训练的网络模型对测试样本进行预测,实现对红外弱小目标的自动检测。
10.如权利要求9所述的基于改进YOLOv5s的红外弱小目标检测方法,其特征在于:
所述的NWD损失函数为:
LossNWD=1-NWD(Na,Nb) (2)
其中,Na表示预测框的高斯分布,Nb表示真实框的高斯分布;表示Na和Nb两个框的高斯分布之间的Wasserstein距离;NWD(Na,Nb)表示将两个高斯分布之间的Wasserstein距离进行归一化处理后的指数形式,用于表示框的高斯分布的相似度;C代表常数;LossNWD作为定位损失函数的公式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310632552.3A CN116797906A (zh) | 2023-05-31 | 2023-05-31 | 基于改进YOLOv5s的红外弱小目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310632552.3A CN116797906A (zh) | 2023-05-31 | 2023-05-31 | 基于改进YOLOv5s的红外弱小目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116797906A true CN116797906A (zh) | 2023-09-22 |
Family
ID=88033635
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310632552.3A Pending CN116797906A (zh) | 2023-05-31 | 2023-05-31 | 基于改进YOLOv5s的红外弱小目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116797906A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116993732A (zh) * | 2023-09-27 | 2023-11-03 | 合肥工业大学 | 一种缝隙检测方法、***和存储介质 |
CN117094999A (zh) * | 2023-10-19 | 2023-11-21 | 南京航空航天大学 | 一种跨尺度缺陷检测方法 |
-
2023
- 2023-05-31 CN CN202310632552.3A patent/CN116797906A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116993732A (zh) * | 2023-09-27 | 2023-11-03 | 合肥工业大学 | 一种缝隙检测方法、***和存储介质 |
CN116993732B (zh) * | 2023-09-27 | 2023-12-26 | 合肥工业大学 | 一种缝隙检测方法、***和存储介质 |
CN117094999A (zh) * | 2023-10-19 | 2023-11-21 | 南京航空航天大学 | 一种跨尺度缺陷检测方法 |
CN117094999B (zh) * | 2023-10-19 | 2023-12-22 | 南京航空航天大学 | 一种跨尺度缺陷检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111553205B (zh) | 无车牌信息车辆重识别方法、***、介质、视频监控*** | |
CN116797906A (zh) | 基于改进YOLOv5s的红外弱小目标检测方法 | |
CN111709313B (zh) | 基于局部和通道组合特征的行人重识别方法 | |
CN113052185A (zh) | 一种基于Faster R-CNN的小样本目标检测方法 | |
CN112308883A (zh) | 一种基于可见光和红外图像的多船舶融合跟踪方法 | |
CN114399675A (zh) | 一种基于机器视觉与激光雷达融合的目标检测方法和装置 | |
US11164327B2 (en) | Estimation of human orientation in images using depth information from a depth camera | |
CN116310837A (zh) | 一种sar舰船目标旋转检测方法及*** | |
CN115861756A (zh) | 基于级联组合网络的大地背景小目标识别方法 | |
CN114066937B (zh) | 一种大尺度遥感影像多目标跟踪方法 | |
CN115115973A (zh) | 一种基于多感受野与深度特征的弱小目标检测方法 | |
Dai et al. | GCD-YOLOv5: An armored target recognition algorithm in complex environments based on array lidar | |
CN112560907B (zh) | 基于混合域注意力的有限像素红外无人机目标检测方法 | |
CN117152625A (zh) | 一种基于CoordConv和YOLOv5的遥感小目标识别方法、***、设备及介质 | |
CN109063543B (zh) | 一种考虑局部形变的视频车辆重识别方法、***及装置 | |
CN115937520A (zh) | 基于语义信息引导的点云运动目标分割方法 | |
CN115797684A (zh) | 一种基于上下文信息的红外小目标检测方法及*** | |
Zhao et al. | RMFENet: Refined Multi-Scale Feature Enhancement Network for Arbitrary Oriented Sonar Object Detection | |
CN112465867A (zh) | 一种基于卷积神经网络的红外点目标实时检测跟踪方法 | |
Feng et al. | Meta-learning based infrared ship object detection model for generalization to unknown domains | |
Kishore et al. | DSLR-Net a depth based sign language recognition using two stream convents | |
Rasyidy et al. | A Framework for Road Boundary Detection based on Camera-LIDAR Fusion in World Coordinate System and Its Performance Evaluation Using Carla Simulator | |
CN117011343B (zh) | 一种面向拥挤场景的光流引导多目标跟踪方法 | |
Singha et al. | SPEEDY: Small Prototyping for Number Plate Detection and Speed Estimation using Edge AI | |
Kumar et al. | GhostNet-YOLO Algorithm for Object Detection in UAV Image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |