CN113486764B - 一种基于改进的YOLOv3的坑洼检测方法 - Google Patents
一种基于改进的YOLOv3的坑洼检测方法 Download PDFInfo
- Publication number
- CN113486764B CN113486764B CN202110737810.5A CN202110737810A CN113486764B CN 113486764 B CN113486764 B CN 113486764B CN 202110737810 A CN202110737810 A CN 202110737810A CN 113486764 B CN113486764 B CN 113486764B
- Authority
- CN
- China
- Prior art keywords
- convolution
- pothole
- improved
- yolov3
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 103
- 230000001976 improved effect Effects 0.000 title claims abstract description 79
- 238000012549 training Methods 0.000 claims abstract description 45
- 238000013459 approach Methods 0.000 claims abstract description 5
- 238000007781 pre-processing Methods 0.000 claims abstract description 4
- 230000007704 transition Effects 0.000 claims description 42
- 238000000034 method Methods 0.000 claims description 36
- 238000000605 extraction Methods 0.000 claims description 33
- 230000006870 function Effects 0.000 claims description 27
- 238000010586 diagram Methods 0.000 claims description 20
- 238000000137 annealing Methods 0.000 claims description 10
- 238000011176 pooling Methods 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 8
- 238000003064 k means clustering Methods 0.000 claims description 7
- 230000007246 mechanism Effects 0.000 claims description 5
- 238000009432 framing Methods 0.000 claims 1
- 230000008569 process Effects 0.000 description 9
- 238000011897 real-time detection Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000004260 weight control Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 238000004347 surface barrier Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于改进的YOLOv3的坑洼检测方法,包括:S1、通过视觉采集***采集坑洼图像,预处理后得到坑洼数据集,坑洼数据集包括预处理后的坑洼图像;S2、构建改进的YOLOv3坑洼检测网络模型;S3、将所述坑洼数据集的训练数据集输入所述改进的YOLOv3坑洼检测网络模型训练,当所述改进的损失函数趋近于零时,得到所述改进的YOLOv3坑洼检测网络模型的参数最优解;S4、将所述坑洼数据集输入代入了参数最优解的所述改进的YOLOv3坑洼检测网络模型,得到坑洼检测结果。本发明解决坑洼检测即要保证实时性,又要使得准确率进一步提高的问题。
Description
技术领域
本发明涉及图像识别技术领域,尤其涉及一种基于改进的YOLOv3的坑洼检测方法。
背景技术
坑洼是一种呈不规则闭合曲线开口的碗状路面障碍物,容易改变无人驾驶车辆的行驶状态,最终酿成交通事故。传统的坑洞检测算法主要以坑洞的纹理等几何特征作为坑洞检测的依据,存在坑洞检测准确率低和实时性不足的问题。当前,深度学习已经成为目标检测的主流手段,包括使用两阶段、多阶段和单阶段算法对坑洼进行检测。两阶段检测算法Faster RCNN和多阶段检测算法Cascade RCNN检测精度较高,但是无法满足实时性,单阶段检测算法SSD则相反,满足实时性要求但是对于尺寸较大的坑洼检测精度不高。由此可见,使用单阶段算法将有利于实现检测实时性。当前,单阶段算法YOLOv3在目标检测基准数据集上的实时性优于FasterRCNN和Cascade RCNN,并且在检测精度和实时性上超越了SSD,YOLOv3是YOLO系列算法的第三个版本,YOLOv3是一个单阶段的目标检测算法,同时也是一个全卷积神经网络,但是YOLOv3的坑洼检测准确率仍需要进一步提高。
发明内容
(一)要解决的技术问题
基于上述问题,本发明提供一种基于改进的YOLOv3的坑洼检测方法,解决坑洼检测即要保证实时性,又要使得准确率进一步提高的问题。
(二)技术方案
基于上述的技术问题,本发明提供一种基于改进的YOLOv3的坑洼检测方法,包括以下步骤:
S1、通过视觉采集***采集坑洼图像,预处理后得到坑洼数据集,坑洼数据集包括预处理后的坑洼图像;
S2、构建改进的YOLOv3坑洼检测网络模型;
S2.1、构建特征提取网络my_Darknet-101:通过Get_Feature特征提取模块对坑洼数据集提取坑洼的边缘和纹理信息作为初始模块,使用3个密集连接块Pothole_Block作为特征提取的主干,在每个Pothole_Block之后使用过渡层Pothole_Transition进行过渡,最终构建卷积层数为101的特征提取网络my_Darknet-101;
所述Get_Feature特征提取模块为:以坑洼图像为输入,依次经过卷积核为1×1、过滤器数为32、步长为1的卷积层,卷积核为3×3、过滤器数为64、步长为1的卷积层,卷积核为1×1、过滤器数为32、步长为2的卷积层,之后分两通道,一通道依次经过卷积核为1×1、过滤器数为16、步长为1的卷积层,卷积核为3×3、过滤器数为32、步长为2的卷积层,另一通道经过卷积核为2×2、步长为2的均值池化卷积层,两个通道通过Concat合并后输出;
所述3个密集连接块Pothole_Block分别通过6,12和16个Pothole_Bottleneck模块构建,组增长率统一取64,所述Pothole_Bottleneck模块为:将输入卷积划分成4个通道,其中两个通道依次经过卷积核为1×1的卷积层,卷积核为3×3的卷积层,卷积核为1×1的卷积层,另两个通道依次经过卷积核为1×1的卷积层,卷积核为3×3的卷积层,卷积核为3×3卷积核为卷积层,然后四个通道通过Concat合并后输出;
所述过渡层Pothole_Transition为:将输入卷积依次通过卷积核为3×3、步长为1的卷积层,卷积核为2×2、步长为2的均值池化卷积层后输出;
S2.2、使用YOLOv3中的多尺度检测和上采样机制,作为整个网络框架的骨架,连接所述特征提取网络my_Darknet-101和输出部分,最终构建改进的YOLOv3坑洼检测网络模型;
S3、将所述坑洼数据集的训练数据集输入所述改进的YOLOv3坑洼检测网络模型训练,采用余弦退火的学习率调整方法,并计算改进的损失函数,当所述改进的损失函数趋近于零时,得到所述改进的YOLOv3坑洼检测网络模型的参数最优解;
S4、将所述坑洼数据集输入代入了参数最优解的所述改进的YOLOv3坑洼检测网络模型,得到坑洼检测结果。
进一步的,步骤S2中所述改进的YOLOv3坑洼检测网络模型为:第一通道为将第三个所述过渡层Pothole_Transition的输出卷积,依次经Conv-unit、Conv、Conv2d后输出特征图Y1,第二通道为将第一通道的Conv-unit的输出卷积进行上采样后,与第二个所述过渡层Pothole_Transition的输出卷积以concat方式进行连接,依次经Conv-unit、Conv、Conv2d后输出特征图Y2,第三通道为将第二通道的Conv-unit的输出卷积进行上采样后,与第一个所述过渡层Pothole_Transition的输出卷积以concat方式进行连接,依次经Conv-unit、Conv、Conv2d后输出特征图Y3。
进一步的,所述Y1、Y2、Y3是输出的由小到大的三个尺度的特征图,Y1、Y2、Y3的尺度分别为13×13×255,26×26×255,52×52×255。
进一步的,输入的所述坑洼图像的尺度范围为320×320×3到608×608×3,缩放尺度为32,待检测的物体数量为1,所述输出特征图的尺度范围为10×10×18到19×19×18。
进一步的,所述Conv-unit卷积组件为依次经卷积核为1×1、3×3、1×1、3×3、1×1卷积层,所述Conv为一维卷积层,Conv2d为二维卷积层。
进一步的,每个卷积层包括的激活函数为Mish激活函数。
进一步的,步骤S3中所述改进的损失函数为:
Lmy-Loss=Lmy-conf+Lmy-loc+Lmy-class
其中,Lmy-conf为置信度损失,Lmy-loc为回归损失,Lmy-class为分类损失;α是控制样本正负的权重系数,(1-pj)γ是调制系数,γ>0;S2表示图片被分割成S×S个网格,B表示锚框个数;表示第i个网格的第j个锚框是否负责该目标,如果负责,则否则表示第i个网格的第j个锚框是否不负责该目标,如果不负责,如果负责,表示第i个网格的第j个边界框的置信度,由网格的边界框是否负责预测当前对象决定,如果负责,否则λnoobj控制单个网格内没有目标的损失,λcoord控制边界框预测位置的损失,表示改变不同尺寸候选框的损失,是第i个网格第j个真实边界框的宽度,是第i个网格第j个预测边界框的宽度,是第i个网格第j个真实边界框的高度,是第i个网格第j个预测边界框的高度,xi是第i个网格中心坐标的x值,是第i个网格第j个锚框所产生的边界框的中心坐标的x值,yi是第i个网格中心坐标的y值,是第i个网格第j个锚框所产生的边界框的中心坐标的y值,pi(c)是对象条件类别概率,表示该网格存在物体且属于第i类的真实值概率,是对象条件类别概率,表示该网格存在物体且属于第i类的预测值概率。
进一步的,步骤S3中所述余弦退火的学习率调整方法为:
其中,ηi表示调整后的学习率,ηj min表示学习率最小值,ηj max则表示学习率最大值,Tcur代表当前的迭代次数,Tj代表网络训练的总迭代次数。
进一步的,步骤S3中将所述坑洼数据集的训练数据集输入所述改进的YOLOv3坑洼检测网络模型后,还包括对输出的特征图进行锚框处理,包括以下步骤:
S3.1.1、对输出的特征图进行网格划分;
S3.1.2、使用K-Means聚类方法对训练数据集的边界框尺寸进行聚类,获得符合训练数据集的锚框尺寸。
进一步的,所述步骤S3.1.2包括:
a)对每一张坑洼图片的坑洼进行标注,获得xml文件,然后提取xml文件中标记框的位置和类别,格式为:(xp,yp,wp,hp),p∈[1,N],xp,yp,wp,hp分别表示第p个标记框相对原图的中心坐标和宽、高,N表示所有标记框的数量;
b)随机选择K个聚类中心点(wq,hq),q∈[1,K],该点的坐标表示锚框的宽和高;
c)依次计算每个标记框与K个聚类中心点的距离d,距离定义为d=1-IoU[(xp,yp,wp,hp),(xp,yp,Wq,Hq),p∈[1,N],q∈[1,K],IoU为交并比,将标记框划分到距离最近的聚类中心点中去;
d)所有标记框分配结束后,对每个簇重新计算聚类中心,其中Nq表示第q簇的标记框的数量,Wq′,Hq′表示更新后的聚类中心点坐标,即更新的锚框的宽和高:
e)重复c,d两步,直到聚类中心不再变化,所得标记框即为所求锚框的尺寸。
(三)有益效果
本发明的上述技术方案具有如下优点:
(1)本发明在YOLOv3中引入Get_Feature特征提取模块提取坑洼的边缘和纹理信息,不仅采用小卷积1×1和3×3保持输入分辨率不变,也采用均值池化卷积层降低分辨率,丰富特征层,为改进的YOLOv3坑洼检测网络模型引入更多特征信息,提高坑洼纹理等浅层特征的提取能力,有利于提高检测精度;
(2)本发明采用多尺度检测,在YOLOv3中引入改进的密集连接特征提取主干Pothole_Block,用于构建密集连接块Pothole_Block的Pothole_Bottleneck模块既能提取较大的特征,也能提取较小的特征,提高算法对深层特征的提取能力;
(3)本发明改进的YOLOv3坑洼检测网络模型在训练过程中为多尺度训练,保证检测精度和速度上的平衡,对不同尺度图像的分辨率不同;
(4)本发明使用K-Means聚类方法对坑洼数据集进行聚类优化,获得符合数据集的锚框,对于不同尺寸的目标,使用相应的锚框进行初始匹配,可以大大提高网络的训练速度,减少迭代时间,更有利于提高检测精度和实现实时性检测;
(5)本发明提出了改进的损失函数,在交叉熵损失函数中加入权重控制项以提高正样本的权重,降低负样本的权重,引入调制系数,提高网络对难分类样本的检测精度,计算宽高误差时直接去除根号,同时在计算宽高损失时加上系数以改变不同尺寸候选框的损失,解决了待检测数据中正样本数量远远小于负样本的数量,产生类别不均衡,使得负样本在网络中的权重过大,梯度难以下降,网络收敛速度慢的问题;
(6)本发明采用余弦退火学习率调整方法,使得网络训练跳出局部最优,达到全局最优。
附图说明
通过参考附图会更加清楚的理解本发明的特征和优点,附图是示意性的而不应理解为对本发明进行任何限制,在附图中:
图1为本发明实施例的基于改进的YOLOv3的坑洼检测方法的流程图;
图2为本发明实施例的Get_Feature特征提取模块的结构示意图;
图3为本发明实施例的Pothole_Bottleneck模块的结构示意图;
图4为本发明实施例的过渡层Pothole_Transition的结构示意图;
图5为本发明实施例的特征提取网络my_Darknet-101的结构示意图;
图6为本发明实施例的改进的YOLOv3坑洼检测网络模型的结构示意图;
图7为本发明实施例的输出特征图网格划分示意图;
图8为本发明实施例的my_YOLOv3网络坑洼检测训练过程分析图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
本发明为一种基于改进的YOLOv3的坑洼检测方法,如图1所示,包括以下步骤:
S1、通过视觉采集***采集坑洼图片,预处理后得到坑洼数据集,坑洼数据集包括预处理后的坑洼图像;
S2、构建改进的YOLOv3坑洼检测网络模型
S2.1、构建特征提取网络my_Darknet-101:通过Get_Feature特征提取模块对坑洼数据集提取坑洼的边缘和纹理信息作为初始模块,使用3个密集连接块Pothole_Block作为特征提取的主干,在每个Pothole_Block之后使用过渡层Pothole_Transition进行过渡,最终构建卷积层数为101的特征提取网络my_Darknet-101,具体包括以下步骤:
S2.1.1、通过Get_Feature特征提取模块对坑洼数据集提取坑洼的边缘和纹理信息作为初始模块:
坑洼属于几何结构简单的路面缺陷,大体成椭圆形,容易被雨水、阴影等噪声遮挡,因此,坑洼的纹理、边缘等几何特征的有效提取是影响坑洼检测精度的关键部分;而增加网络的宽度可以获得更丰富的特征信息,提高网络的性能;Get_Feature特征提取模块的结构如图2所示,以坑洼图像为输入,依次经过卷积核为1×1、过滤器数为32、步长为1的卷积层,卷积核为3×3、过滤器数为64、步长为1的卷积层,卷积核为1×1、过滤器数为32、步长为2的卷积层,之后分两通道,一通道依次经过卷积核为1×1、过滤器数为16、步长为1的卷积层,卷积核为3×3、过滤器数为32、步长为2的卷积层,另一通道经过卷积核为2×2、步长为2的均值池化卷积层,两个通道通过Concat合并后输出;即首先使用小卷积1×1和3×3在保持输入分辨率不变的基础上引入非线性,随后使用stride 2、2×2的均值池化卷积作为降低分辨率的方式,该方式丰富了特征层,为网络引入了更多的上下文信息;
S2.1.2、使用3个密集连接块Pothole_Block作为特征提取的主干:
综合考虑DenseNet、PeleeNet和ResNeXt中的核心模块,提出的Pothole_Bottleneck模块的结构如图3所示,将输入卷积划分成4个通道,其中两个通道依次经过卷积核为1×1的卷积层,卷积核为3×3的卷积层,卷积核为1×1的卷积层,负责提取较小特征的同时引入非线性,降低网络梯度消失的风险;另两个通道依次经过卷积核为1×1的卷积层,卷积核为3×3的卷积层,卷积核为3×3的卷积层,负责提取较大的特征;然后四个通道通过Concat合并后输出。
假设网络的输入分辨率为W×H×N,卷积核的分辨率为w×h×N×M,则卷积运算的计算量公式如式(1)所示。
计算量=w×h×(W-w+1)×(H-h+1)×N×M (1)
根据式(1),分别对DenseNet、PeleeNet的Bottleneck结构和本文提出Pothole_Bottleneck的计算量进行计算,结果表明,即使增加通道数,计算量也基本没有增加,计算结果如表1所示。
表1 Bottleneck计算量对比
然后所述使用Pothole_Bottleneck模块构建3个密集连接块Pothole_Block,组成Pothole_Block的Pothole_Bottleneck个数分别为6、12和16,组增长率统一取64。
S2.1.3、在每个Pothole_Block之后使用过渡层Pothole_Transition进行过渡:
在每个Pothole_Block之后需要设计过渡层Pothole_Transition以降低特征图的分辨率,Pothole_Transition的具体结构如图4所示,将输入卷积依次通过卷积核为3×3、步长为1的卷积层,卷积核为2×2、步长为2的均值池化卷积层后输出。
S2.1.4、最终构建卷积层数为101的特征提取网络my_Darknet-101:
my_Darknet-101的具体结构如图5所示,与仅由一系列的1×1和3×3的卷积层组成的,并通过步长实现张量的尺寸变换的YOLOv3的特征提取网络Darknet-53存在很大区别,my_Darknet-101有利于提高坑洼纹理等浅层特征的提取能力和深层特征的提取能力。
S2.2、使用YOLOv3中的多尺度检测和上采样机制,作为整个网络框架的骨架,连接所述特征提取网络my_Darknet-101和输出部分,最终构建改进的YOLOv3坑洼检测网络模型;
为了实现多尺度检测,改进的YOLOv3同YOLOv3一样,由一系列的1×1和3×3的卷积层组成,无池化层和全连接层的,通过改变卷积核的步长实现张量的尺寸变换,最终构建改进的YOLOv3坑洼检测网络模型如图6所示,第一通道为将第三个所述过渡层Pothole_Transition的输出卷积,依次经Conv-unit、Conv、Conv2d后输出特征图Y1,第二通道为将第一通道的Conv-unit的输出卷积进行上采样后,与第二个所述过渡层Pothole_Transition的输出卷积以concat方式进行连接,依次经Conv-unit、Conv、Conv2d后输出特征图Y2,第三通道为将第二通道的Conv-unit的输出卷积进行上采样后,与第一个所述过渡层Pothole_Transition的输出卷积以concat方式进行连接,依次经Conv-unit、Conv、Conv2d后输出特征图Y3,所述Y1、Y2、Y3是输出的由小到大三个尺度的特征图,用于检测由大到小尺度的坑洼,本实施例中,输入图像尺度为416×416×3,Y1输出特征图尺度为13×13×255,用于检测较大尺度的坑洼;Y2输出特征图尺度为26×26×255,用于检测中等尺度的坑洼;Y3输出特征图尺度为52×52×255,用于检测小尺度的坑洼,255为通道数。
所述Conv-unit卷积组件为依次经卷积核为1×1、3×3、1×1、3×3、1×1卷积层,所述Conv为一维卷积层,Conv2d为二维卷积层。
由于道路坑洼与正常路面的灰度和纹理在某些情况下相近,在检测时容易产生漏检和误检现象,为了提高my_YOLOv3的坑洼检测精度,在坑洼检测网络模型的每个卷积层输出端引入激活函数,即每个卷积层为卷积+BN+激活函数,激活函数使网络可以非线性变化,有利于增加网络的非线性,同时可以迅速的提高网络的深度,避免过拟合,本实施例采用Mish激活函数。
S3、将所述坑洼数据集的训练数据集输入所述改进的YOLOv3坑洼检测网络模型训练,采用余弦退火的学习率调整方法,并计算改进的损失函数,当所述改进的损失函数趋近于零时,得到所述改进的YOLOv3坑洼检测网络模型的参数最优解;
为使网络能够学习不同大小和不同长宽比的物体特征,采用K均值聚类方法自动学习训练数据集中出现次数最多的坑洼大小和长宽比,并将学习到的数据用于锚框的尺寸,包括以下步骤:
S3.1、将所述坑洼数据集的训练数据集输入所述改进的YOLOv3坑洼检测网络模型,对输出的特征图进行锚框处理;
S3.1.1、对输出的特征图进行网格划分;
高分辨率的图像包含着更丰富的物体特征信息,一般而言能够更精确的检测出待检物体,但是相应的检测速度会下降;低分辨率的图像的物体特征有时候则不明显,但是对于小物体而言大分辨率的图像则可能噪声过多,使得检测精度过于糟糕。因此,为了在检测精度和速度上取的平衡,本发明实施例在训练过程中使用多尺度训练,输入图像的尺度范围为320×320×3到608×608×3。
由于坑洼大多数位于道路中央,为了使最终的预测框靠近特征图中间,将输出特征图的大小设置为奇数。本发明实施例取缩放尺度为32,待检测的物体数量为1,因此输出特征图的尺度范围为10×10×18到19×19×18,图7为输入尺度为608×608×3时对应的网格划分示意图。
S3.1.2、使用K-Means聚类方法对训练数据集的边界框尺寸进行聚类,获得符合训练数据集的锚框尺寸;具体步骤如下:
a)对每一张坑洼图片的坑洼进行标注,获得xml文件,然后提取xml文件中标记框的位置和类别,格式为:(xp,yp,wp,hp),p∈[1,N],xp,yp,wp,hp分别表示第p个标记框相对原图的中心坐标和宽、高,N表示所有标记框的数量;
b)随机选择K个聚类中心点(wq,hq),q∈[1,K],该点的坐标表示锚框的宽和高,因为锚框位置不固定,所以没有x和y的坐标;
c)依次计算每个标记框与K个聚类中心点的距离d,距离定义为d=1-IoU[(xp,yp,wp,hp),(xp,yp,Wq,Hq),p∈[1,N],q∈[1,K],IoU为交并比,将标记框划分到距离最近的聚类中心点中去;
d)所有标记框分配结束后,对每个簇重新计算聚类中心,其中Nq表示第q簇的标记框的数量,Wq′,Hq′表示更新后的聚类中心点坐标,即更新的锚框的宽和高:
e)重复c,d两步,直到聚类中心不再变化,所得标记框即为所求锚框的尺寸。
每个网格单元预测三个边界框,有三个输出特征图,则K取9。在坑洼数据集上使用K-Means聚类技术生成对应的锚框尺寸,聚类获得锚框尺寸如表2所示。
表2聚类产生的锚框尺寸
S2、采用余弦退火的学习率调整方法:
对于较复杂的训练数据集,网络在训练过程中容易产生震荡,存在多个局部最优点,如果学习率选择不合理,很有可能使得网络陷入局部最优,导致损失无法下降,因此,本实施例采用余弦退火的学习率调整方法,余弦退火的学习率调整方法,使得学习率按照余弦函数周期性变化,并在每个周期最大值时重新设置学习率。在网络训练时,余弦退火学习率以初始学习率为最大学习率,随着epoch的增加,学习率先急速下降,再陡然提升,然后不断重复这个过程。学习率的急剧变化,可以使得梯度下降不会卡在任何局部最小值,使得网络训练跳出局部最优,达到全局最优。余弦退火的学习率调整方法为:
其中,ηi表示调整后的学习率,ηj min表示学习率最小值,ηj max则表示学习率最大值,Tcur代表当前的迭代次数,Tj代表网络训练的总迭代次数。
3.3、计算改进的损失函数,当所述改进的损失函数趋近于零时,得到所述改进的YOLOv3坑洼检测网络模型的参数最优解;
多阶段网络、两阶段网络在检测精度上高于单阶段网络,但是在检测速度上单阶段网络则高于两阶段网络和多阶段网络。在单阶段网络中,由于没有两阶段网络中候选框产生机制,而在待检测数据中正样本数量远远小于负样本的数量,产生类别不均衡,使得负样本在网络中的权重过大,梯度难以下降,网络收敛速度慢。为了解决该问题,对原始YOLOv3损失函数进行改进,引入Focal Loss损失函数机制。
针对正负样本不均衡,在交叉熵损失函数中加入权重控制项以提高正样本的权重,降低负样本的权重;为了进一步控制易分类样本和难分类样本的权重,引入调制系数(modulating factor)(1-pj)γ,提高网络对难分类样本的检测精度,其中,γ>0;而my_YOLOv3的损失函数由置信度损失Lmy-conf、回归损失Lmy-loc和分类损失Lmy-class组成,其中回归损失又分为中心坐标损失和宽高损失,在YOLOv3中,将分类损失和置信度损失从YOLOv1中采用的均方和损失修改为交叉熵损失。此外,在YOLOv2中作者发现在解决不同候选框对损失贡献不一致的问题时,使用宽高开根号的方式效果并不明显。因此,YOLOv3计算宽高误差时直接去除根号,同时在计算宽高损失时加上系数2-wi×hi,以改变不同尺寸候选框的损失。my_YOLOv3的改进的损失函数如式(5)、(6)、(7)、(8)所示。
Lmy-Loss=Lmy-conf+Lmy-loc+Lmy-class (5)
其中,S2表示图片被分割成S×S个网格,B表示锚框个数;表示第i个网格的第j个锚框是否负责该目标,如果负责,则否则表示第i个网格的第j个锚框是否不负责该目标,如果不负责,如果负责,表示第i个网格的第j个边界框的置信度,由网格的边界框是否负责预测当前对象决定,如果负责,否则λnoobj控制单个网格内没有目标的损失,λcoord控制边界框预测位置的损失,表示改变不同尺寸候选框的损失,是第i个网格第j个真实边界框的宽度,是第i个网格第j个预测边界框的宽度,是第i个网格第j个真实边界框的高度,是第i个网格第j个预测边界框的高度,xi是第i个网格中心坐标的x值,是第i个网格第j个锚框所产生的边界框的中心坐标的x值,yi是第i个网格中心坐标的y值,是第i个网格第j个锚框所产生的边界框的中心坐标的y值,pi(c)是对象条件类别概率,表示该网格存在物体且属于第i类的真实值概率,是对象条件类别概率,表示该网格存在物体且属于第i类的预测值概率。
为证明本发明的改进效果,依次对YOLOv3模型和my_YOLOv3模型进行训练。对于YOLOv3模型,采用的是AlexeyAB在github上开源的YOLOv3模型,初始权重为darknet53_448.weights,在训练过程中我们仅对该模型的输入输出进行了更改,其余参数均没有改变。对于my_YOLOv3模型,模型的初始权重分为两部分。第一部分为my_YOLOv3中与YOLOv3不同的特征提取部分,使用ImageNet对模型进行预训练。第二部分为my_YOLOv3中与YOLOv3网络结构相同的部分,即模型的输出部分,该部分使用随机初始化权重的方式进行初始化。
网络训练过程中使用的1800个数据集相同,my_YOLOv3和YOLOv3输入为544×544×3,测试图片则为640×640×3,实验环境相同,性能评价指标包括交并比IoU、召回率、精确率、平均精确度(AP)、误检率和漏检率等。网络训练参数设置一致,bachsize取2,动量设置为0.9,迭代次数均取100,激活函数为Leaky ReLU,初始学习率为2.5×10∧-4,采用多步长学习策略,在第25和第60个epoch时学习率除以10继续训练。对比结果如下:
根据图8的my_YOLOv3网络坑洼检测训练过程分析可知,改进的网络的分类损失、置信度损失和训练总损失下降非常平滑,且最终的损失值也趋近于0。此外,my_YOLOv3的回归损失下降过程总体趋于平滑,当训练结束时,YOLOv3的回归损失为7.091,my_YOLOv3的则为2.339,两者比值达到3倍以上,my_YOLOv3网络在训练坑洼数据集阶段大大优于YOLOv3网络。
计算YOLOv3和my_YOLOv3各项评价指标,即交并比IoU、召回率、精确率、平均精确度(AP)、误检率和漏检率,并与FasterRCNN等模型进行比较,结果如表3所示。
表3各个模型性能(P,IOU=0.5),(AP,IOU=0.50:0.95)
由表3可知,在交并比IOU阈值取0.5时,YOLOv3检测精度为0.813,而my_YOLOv3达到了0.943,比YOLOv3高出13%,高出多阶段网络Cascade RCNN11.9%,提升效果非常明显。my_YOLOv3不仅在IOU阈值取0.5的水平上表现出优秀的检测精度,在IOU取0.5到0.95时的平均精确度仍达到了0.912,比SSD还高出40.4%。由此可见,改进的my_YOLOv3坑洼检测网络的性能远优于YOLOv3。
表4各个模型的检测速度(IOU=0.50:0.95)
由表4可知,在训练速度上,my_YOLOv3与YOLOv3和SSD网络相差不大,在检测速度上,YOLOv3刚刚达到实时性检测速度,但是my_YOLOv3网络的检测速度不仅达到了实时性检测要求,还是YOLOv3的1.7倍。由此可见,my_YOLOv3可以满足实现高精度的坑洼实时检测要求。
综上可知,通过上述的一种基于改进的YOLOv3的坑洼检测方法,具有以下优点:
(1)本发明在YOLOv3中引入Get_Feature特征提取模块提取坑洼的边缘和纹理信息,不仅采用小卷积1×1和3×3保持输入分辨率不变,也采用均值池化卷积层降低分辨率,丰富特征层,为改进的YOLOv3坑洼检测网络模型引入更多特征信息,提高坑洼纹理等浅层特征的提取能力,有利于提高检测精度;
(2)本发明采用多尺度检测,在YOLOv3中引入改进的密集连接特征提取主干Pothole_Block,用于构建密集连接块Pothole_Block的Pothole_Bottleneck模块既能提取较大的特征,也能提取较小的特征,提高算法对深层特征的提取能力;
(3)本发明改进的YOLOv3坑洼检测网络模型在训练过程中为多尺度训练,保证检测精度和速度上的平衡,对不同尺度图像的分辨率不同;
(4)本发明使用K-Means聚类方法对坑洼数据集进行聚类优化,获得符合数据集的锚框,对于不同尺寸的目标,使用相应的锚框进行初始匹配,可以大大提高网络的训练速度,减少迭代时间,更有利于提高检测精度和实现实时性检测;
(5)本发明提出了改进的损失函数,在交叉熵损失函数中加入权重控制项以提高正样本的权重,降低负样本的权重,引入调制系数,提高网络对难分类样本的检测精度,计算宽高误差时直接去除根号,同时在计算宽高损失时加上系数以改变不同尺寸候选框的损失,解决了待检测数据中正样本数量远远小于负样本的数量,产生类别不均衡,使得负样本在网络中的权重过大,梯度难以下降,网络收敛速度慢的问题;
(6)本发明采用余弦退火学习率调整方法,使得网络训练跳出局部最优,达到全局最优。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;虽然结合附图描述了本发明的实施方式,但是本领域技术人员可以在不脱离本发明的精神和范围的情况下做出各种修改和变型,这样的修改和变型均落入由所附权利要求所限定的范围之内。
Claims (10)
1.一种基于改进的YOLOv3的坑洼检测方法,其特征在于,包括以下步骤:
S1、通过视觉采集***采集坑洼图像,预处理后得到坑洼数据集,坑洼数据集包括预处理后的坑洼图像;
S2、构建改进的YOLOv3坑洼检测网络模型;
S2.1、构建特征提取网络my_Darknet-101:通过Get_Feature特征提取模块对坑洼数据集提取坑洼的边缘和纹理信息作为初始模块,使用3个密集连接块Pothole_Block作为特征提取的主干,在每个Pothole_Block之后使用过渡层Pothole_Transition进行过渡,最终构建卷积层数为101的特征提取网络my_Darknet-101;
所述Get_Feature特征提取模块为:以坑洼图像为输入,依次经过卷积核为1×1、过滤器数为32、步长为1的卷积层,卷积核为3×3、过滤器数为64、步长为1的卷积层,卷积核为1×1、过滤器数为32、步长为2的卷积层,之后分两通道,一通道依次经过卷积核为1×1、过滤器数为16、步长为1的卷积层,卷积核为3×3、过滤器数为32、步长为2的卷积层,另一通道经过卷积核为2×2、步长为2的均值池化卷积层,两个通道通过Concat合并后输出;
所述3个密集连接块Pothole_Block分别通过6,12和16个Pothole_Bottleneck模块构建,组增长率统一取64,所述Pothole_Bottleneck模块为:将输入卷积划分成4个通道,其中两个通道依次经过卷积核为1×1的卷积层,卷积核为3×3的卷积层,卷积核为1×1的卷积层,另两个通道依次经过卷积核为1×1的卷积层,卷积核为3×3的卷积层,卷积核为3×3卷积核为卷积层,然后四个通道通过Concat合并后输出;
所述过渡层Pothole_Transition为:将输入卷积依次通过卷积核为3×3、步长为1的卷积层,卷积核为2×2、步长为2的均值池化卷积层后输出;
S2.2、使用YOLOv3中的多尺度检测和上采样机制,作为整个网络框架的骨架,连接所述特征提取网络my_Darknet-101和输出部分,最终构建改进的YOLOv3坑洼检测网络模型;
S3、将所述坑洼数据集的训练数据集输入所述改进的YOLOv3坑洼检测网络模型训练,采用余弦退火的学习率调整方法,并计算改进的损失函数,当所述改进的损失函数趋近于零时,得到所述改进的YOLOv3坑洼检测网络模型的参数最优解;
S4、将所述坑洼数据集输入代入了参数最优解的所述改进的YOLOv3坑洼检测网络模型,得到坑洼检测结果。
2.根据权利要求1所述的基于改进的YOLOv3的坑洼检测方法,其特征在于,步骤S2中所述改进的YOLOv3坑洼检测网络模型为:第一通道为将第三个所述过渡层Pothole_Transition的输出卷积,依次经Conv-unit、Conv、Conv2d后输出特征图Y1,第二通道为将第一通道的Conv-unit的输出卷积进行上采样后,与第二个所述过渡层Pothole_Transition的输出卷积以concat方式进行连接,依次经Conv-unit、Conv、Conv2d后输出特征图Y2,第三通道为将第二通道的Conv-unit的输出卷积进行上采样后,与第一个所述过渡层Pothole_Transition的输出卷积以concat方式进行连接,依次经Conv-unit、Conv、Conv2d后输出特征图Y3。
3.根据权利要求2所述的基于改进的YOLOv3的坑洼检测方法,其特征在于,所述Y1、Y2、Y3是输出的由小到大的三个尺度的特征图,Y1、Y2、Y3的尺度分别为13×13×255,26×26×255,52×52×255。
4.根据权利要求2所述的基于改进的YOLOv3的坑洼检测方法,其特征在于,输入的所述坑洼图像的尺度范围为320×320×3到608×608×3,缩放尺度为32,待检测的物体数量为1,所述输出特征图的尺度范围为10×10×18到19×19×18。
5.根据权利要求2所述的基于改进的YOLOv3的坑洼检测方法,其特征在于,所述Conv-unit卷积组件为依次经卷积核为1×1、3×3、1×1、3×3、1×1卷积层,所述Conv为一维卷积层,Conv2d为二维卷积层。
6.根据权利要求1所述的基于改进的YOLOv3的坑洼检测方法,其特征在于,每个卷积层包括的激活函数为Mish激活函数。
7.根据权利要求1所述的基于改进的YOLOv3的坑洼检测方法,其特征在于,步骤S3中所述改进的损失函数为:
Lmy-Loss=Lmy-conf+Lmy-loc+Lmy-class
其中,Lmy-conf为置信度损失,Lmy-loc为回归损失,Lmy-class为分类损失;α是控制样本正负的权重系数,(1-pj)γ是调制系数,γ>0;S2表示图片被分割成S×S个网格,B表示锚框个数;表示第i个网格的第j个锚框是否负责该目标,如果负责,则否则 表示第i个网格的第j个锚框是否不负责该目标,如果不负责,如果负责, 表示第i个网格的第j个边界框的置信度,由网格的边界框是否负责预测当前对象决定,如果负责,否则λnoobj控制单个网格内没有目标的损失,λcoord控制边界框预测位置的损失,表示改变不同尺寸候选框的损失,是第i个网格第j个真实边界框的宽度,是第i个网格第j个预测边界框的宽度,是第i个网格第j个真实边界框的高度,是第i个网格第j个预测边界框的高度,xi是第i个网格中心坐标的x值,是第i个网格第j个锚框所产生的边界框的中心坐标的x值,yi是第i个网格中心坐标的y值,是第i个网格第j个锚框所产生的边界框的中心坐标的y值,pi(c)是对象条件类别概率,表示该网格存在物体且属于第i类的真实值概率,是对象条件类别概率,表示该网格存在物体且属于第i类的预测值概率。
9.根据权利要求1所述的基于改进的YOLOv3的坑洼检测方法,其特征在于,步骤S3中将所述坑洼数据集的训练数据集输入所述改进的YOLOv3坑洼检测网络模型后,还包括对输出的特征图进行锚框处理,包括以下步骤:
S3.1.1、对输出的特征图进行网格划分;
S3.1.2、使用K-Means聚类方法对训练数据集的边界框尺寸进行聚类,获得符合训练数据集的锚框尺寸。
10.根据权利要求9所述的基于改进的YOLOv3的坑洼检测方法,其特征在于,所述步骤S3.1.2包括:
a)对每一张坑洼图片的坑洼进行标注,获得xml文件,然后提取xml文件中标记框的位置和类别,格式为:(xp,yp,wp,hp),p∈[1,N],xp,yp,wp,hp分别表示第p个标记框相对原图的中心坐标和宽、高,N表示所有标记框的数量;
b)随机选择K个聚类中心点(wq,hq),q∈[1,K],该点的坐标表示锚框的宽和高;
c)依次计算每个标记框与K个聚类中心点的距离d,距离定义为d=1-IoU[(xp,yp,wp,hp),(xp,yp,Wq,Hq),p∈[1,N],q∈[1,K],IoU为交并比,将标记框划分到距离最近的聚类中心点中去;
d)所有标记框分配结束后,对每个簇重新计算聚类中心,其中Nq表示第q簇的标记框的数量,Wq′,Hq′表示更新后的聚类中心点坐标,即更新的锚框的宽和高:
e)重复c,d两步,直到聚类中心不再变化,所得标记框即为所求锚框的尺寸。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110737810.5A CN113486764B (zh) | 2021-06-30 | 2021-06-30 | 一种基于改进的YOLOv3的坑洼检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110737810.5A CN113486764B (zh) | 2021-06-30 | 2021-06-30 | 一种基于改进的YOLOv3的坑洼检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113486764A CN113486764A (zh) | 2021-10-08 |
CN113486764B true CN113486764B (zh) | 2022-05-03 |
Family
ID=77936839
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110737810.5A Active CN113486764B (zh) | 2021-06-30 | 2021-06-30 | 一种基于改进的YOLOv3的坑洼检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113486764B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113920140B (zh) * | 2021-11-12 | 2022-04-19 | 哈尔滨市科佳通用机电股份有限公司 | 一种基于深度学习的铁路货车管盖脱落故障识别方法 |
CN114155428A (zh) * | 2021-11-26 | 2022-03-08 | 中国科学院沈阳自动化研究所 | 基于Yolo-v3算法的水下声呐侧扫图像小目标检测方法 |
CN115147348B (zh) * | 2022-05-05 | 2023-06-06 | 合肥工业大学 | 基于改进的YOLOv3的轮胎缺陷检测方法及*** |
CN114708567B (zh) * | 2022-06-06 | 2022-09-06 | 济南融瓴科技发展有限公司 | 一种基于双目摄像头的路面坑洼检测和避让方法及*** |
CN115113637A (zh) * | 2022-07-13 | 2022-09-27 | 中国科学院地质与地球物理研究所 | 基于5g和人工智能的无人化地球物理巡检***及方法 |
CN115071682B (zh) * | 2022-08-22 | 2023-04-07 | 苏州智行众维智能科技有限公司 | 一种适用于多路面的智能驾驶车辆驾驶***及方法 |
CN116363530B (zh) * | 2023-03-14 | 2023-11-03 | 北京天鼎殊同科技有限公司 | 高速公路路面病害的定位方法和装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019175686A1 (en) * | 2018-03-12 | 2019-09-19 | Ratti Jayant | On-demand artificial intelligence and roadway stewardship system |
CN110766098A (zh) * | 2019-11-07 | 2020-02-07 | 中国石油大学(华东) | 基于改进YOLOv3的交通场景小目标检测方法 |
CN111310861A (zh) * | 2020-03-27 | 2020-06-19 | 西安电子科技大学 | 一种基于深度神经网络的车牌识别和定位方法 |
CN111401148A (zh) * | 2020-02-27 | 2020-07-10 | 江苏大学 | 一种基于改进的多级YOLOv3的道路多目标检测方法 |
CN111626128A (zh) * | 2020-04-27 | 2020-09-04 | 江苏大学 | 一种基于改进YOLOv3的果园环境下行人检测方法 |
CN112364974A (zh) * | 2020-08-28 | 2021-02-12 | 西安电子科技大学 | 一种基于激活函数改进的YOLOv3算法 |
CN112613350A (zh) * | 2020-12-04 | 2021-04-06 | 河海大学 | 一种基于深度神经网络的高分辨率光学遥感图像飞机目标检测方法 |
CN112991271A (zh) * | 2021-02-08 | 2021-06-18 | 西安理工大学 | 基于改进yolov3的铝型材表面缺陷视觉检测方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013090830A1 (en) * | 2011-12-16 | 2013-06-20 | University Of Southern California | Autonomous pavement condition assessment |
US20160292518A1 (en) * | 2015-03-30 | 2016-10-06 | D-Vision C.V.S Ltd | Method and apparatus for monitoring changes in road surface condition |
-
2021
- 2021-06-30 CN CN202110737810.5A patent/CN113486764B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019175686A1 (en) * | 2018-03-12 | 2019-09-19 | Ratti Jayant | On-demand artificial intelligence and roadway stewardship system |
CN110766098A (zh) * | 2019-11-07 | 2020-02-07 | 中国石油大学(华东) | 基于改进YOLOv3的交通场景小目标检测方法 |
CN111401148A (zh) * | 2020-02-27 | 2020-07-10 | 江苏大学 | 一种基于改进的多级YOLOv3的道路多目标检测方法 |
CN111310861A (zh) * | 2020-03-27 | 2020-06-19 | 西安电子科技大学 | 一种基于深度神经网络的车牌识别和定位方法 |
CN111626128A (zh) * | 2020-04-27 | 2020-09-04 | 江苏大学 | 一种基于改进YOLOv3的果园环境下行人检测方法 |
CN112364974A (zh) * | 2020-08-28 | 2021-02-12 | 西安电子科技大学 | 一种基于激活函数改进的YOLOv3算法 |
CN112613350A (zh) * | 2020-12-04 | 2021-04-06 | 河海大学 | 一种基于深度神经网络的高分辨率光学遥感图像飞机目标检测方法 |
CN112991271A (zh) * | 2021-02-08 | 2021-06-18 | 西安理工大学 | 基于改进yolov3的铝型材表面缺陷视觉检测方法 |
Non-Patent Citations (6)
Title |
---|
《Densely Connected Convolutional Networks》;gao huang;《https://arxiv.org/pdf/1608.06993.pdf》;20180128;全文 * |
《Helmet Detection Based On Improved YOLOV3 Deep Model》;Fan Wu;《2019 IEEE 16th International Conference on Networking ,Sensing and Control(ICNSC)》;20190311;全文 * |
《Pavement distress detection and classification based on YOLO network》;Yuchuan Du;《https://doi.org/10.1080/10298436.2020.1714047》;20200124;全文 * |
《基于Dense-YOLOv3的车型检测模型》;陈立潮 等;《计算机***应用》;20200930;第29卷(第10期);全文 * |
《基于YOLO的快速道路目标检测研究》;范智翰;《现代计算机》;20210414(第3期);全文 * |
《基于深度学习的路面坑洼检测***研究与实现》;赵潇;《中国优秀博硕士学位论文全文数据库(硕士)工程科技Ⅱ辑》;20210315(第3期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113486764A (zh) | 2021-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113486764B (zh) | 一种基于改进的YOLOv3的坑洼检测方法 | |
CN110796168B (zh) | 一种基于改进YOLOv3的车辆检测方法 | |
CN110335290B (zh) | 基于注意力机制的孪生候选区域生成网络目标跟踪方法 | |
CN109902677B (zh) | 一种基于深度学习的车辆检测方法 | |
CN111368769B (zh) | 基于改进锚点框生成模型的船舶多目标检测方法 | |
CN109800692B (zh) | 一种基于预训练卷积神经网络的视觉slam回环检测方法 | |
CN110929578A (zh) | 一种基于注意力机制的抗遮挡行人检测方法 | |
CN107229904A (zh) | 一种基于深度学习的目标检测与识别方法 | |
CN111738055B (zh) | 多类别文本检测***和基于该***的票据表单检测方法 | |
CN111126278A (zh) | 针对少类别场景的目标检测模型优化与加速的方法 | |
CN111860587B (zh) | 一种用于图片小目标的检测方法 | |
CN113591617B (zh) | 基于深度学习的水面小目标检测与分类方法 | |
CN113807188A (zh) | 基于锚框匹配和Siamese网络的无人机目标跟踪方法 | |
CN114419413A (zh) | 感受野自适应的变电站绝缘子缺陷检测神经网络构建方法 | |
CN110969121A (zh) | 一种基于深度学习的高分辨率雷达目标识别算法 | |
CN117557922B (zh) | 改进YOLOv8的无人机航拍目标检测方法 | |
CN110084284A (zh) | 基于区域卷积神经网络的目标检测与二级分类算法及装置 | |
CN113159215A (zh) | 一种基于Faster Rcnn的小目标检测识别方法 | |
CN113205103A (zh) | 一种轻量级的文身检测方法 | |
CN115187786A (zh) | 一种基于旋转的CenterNet2目标检测方法 | |
CN112084897A (zh) | 一种gs-ssd的交通大场景车辆目标快速检测方法 | |
CN117422857A (zh) | 一种司法证据图像的目标检测方法 | |
CN112686233B (zh) | 基于轻量化边缘计算的车道线识别方法及装置 | |
CN114550134A (zh) | 基于深度学习的交通标志检测与识别方法 | |
CN112101113B (zh) | 一种轻量化的无人机图像小目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20231216 Address after: Yuelu District City, Hunan province 410083 Changsha Lushan Road No. 932 Patentee after: CENTRAL SOUTH University Patentee after: HENAN GENGLI ENGINEERING EQUIPMENT CO.,LTD. Address before: Yuelu District City, Hunan province 410083 Changsha Lushan Road No. 932 Patentee before: CENTRAL SOUTH University |
|
TR01 | Transfer of patent right |