CN117636131A - 一种基于Yolo-I模型的小目标识别方法及相关装置 - Google Patents
一种基于Yolo-I模型的小目标识别方法及相关装置 Download PDFInfo
- Publication number
- CN117636131A CN117636131A CN202311661479.9A CN202311661479A CN117636131A CN 117636131 A CN117636131 A CN 117636131A CN 202311661479 A CN202311661479 A CN 202311661479A CN 117636131 A CN117636131 A CN 117636131A
- Authority
- CN
- China
- Prior art keywords
- yolo
- network
- model
- feature
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000001514 detection method Methods 0.000 claims abstract description 32
- 239000011159 matrix material Substances 0.000 claims description 21
- 230000002776 aggregation Effects 0.000 claims description 20
- 238000004220 aggregation Methods 0.000 claims description 20
- 238000012549 training Methods 0.000 claims description 13
- 238000010606 normalization Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 10
- 238000011176 pooling Methods 0.000 claims description 9
- 238000002372 labelling Methods 0.000 claims description 8
- 238000003860 storage Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 6
- 230000006872 improvement Effects 0.000 claims description 4
- 230000004931 aggregating effect Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 abstract description 17
- 238000013473 artificial intelligence Methods 0.000 abstract description 7
- 238000012360 testing method Methods 0.000 abstract description 7
- 235000019504 cigarettes Nutrition 0.000 abstract description 5
- 238000012795 verification Methods 0.000 abstract description 5
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011056 performance test Methods 0.000 description 2
- 230000000391 smoking effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Image Analysis (AREA)
Abstract
本申请提出一种基于Yolo‑I模型的小目标识别方法,通过优化改进标准Yolo模型后的Yolo‑I模型对待识别图像进行识别,以获取待识别图像中的小目标边框和对应类别,Yolo‑I模型中的主干网络采用Inceptionconv网络,检测的准确性更高且计算量更少,提高了实用性。相较于现有的人工智能方法,经实际验证,本申请在电力施工场景下,能够准确识别如头盔、香烟等小目标,平均精度、召回率、分类性能和精确率均能够达到较高水平。另外,相较于标准的Yolo模型,针对相同的测试集进行对比,达到更高识别准确性的同时,识别效率更高。因此,本申请的识别方法能够在电力施工场景完成准确识别,尤其是是针对小目标的识别,优势更加明显,能够排除背景中外观相似的其他物体,或杂乱的背景。
Description
技术领域
本申请属于一种目标识别方法,具体涉及一种基于Yolo-I模型的小目标识别方法及相关装置。
背景技术
世界电力建设行业,包括发电厂、能源基础设施及相关设施的建设,一直在迅速扩张,以满足全球日益增长的电力和能源需求。随着世界电力建设项目的不断发展,安全隐患层出不穷。因此,必须实施安全的施工标准,对电力施工场景违章行为进行监控以尽量减少事故风险。传统的人工监管虽然在电力建设项目中很常见,但存在耗时、低效、主观性强等局限性。因此,使用人工智能的方法来识别电力施工场景人员的行为,例如安全帽佩戴、绝缘手套佩戴等,作为预防和减少安全事故发生的一种手段是非常实用的。但是,电力建设工地室外环境宽阔,室内空间狭窄,要素复杂,小目标物体缺乏突出的特征和纹理,会使人工智能方法中的模型难以将小目标物体与外观相似的其他物体,或杂乱的背景区分开来。
发明内容
本申请的目的在于解决目前采用人工智能方法识别电力施工场景中人员行为时,小目标物体难以识别的技术问题,提出一种基于Yolo-I模型的小目标识别方法及相关装置。
为了实现上述目的,本申请采用以下技术方案予以实现:
第一方面,本申请提出一种基于Yolo-I模型的小目标识别方法,包括:
获取待识别图像;
将所述待识别图像输入至训练后的Yolo-I模型,得到待识别图像中的小目标边框和对应类别;
所述Yolo-I模型包括主干网络、颈部网络和检测网络;
所述主干网络采用Inceptionconv网络,所述Inceptionconv网络包括Inception-Dwconv层、归一化层和池化层;所述Inception-Dwconv层包括四卷积并行模块和连接模块;所述四卷积并行模块,用于通过四个卷积层分别对待识别图像进行特征提取,生成对应的四个特征图;所述连接模块,用于将四卷积并行模块生成的四个特征图,按照四个卷积层的排列方向进行拼接,得到特征矩阵Zconcat;所述归一化层,用于对所述特征矩阵Zconcat进行归一化操作,得到归一化特征矩阵Znorm;所述池化层,用于对所述归一化特征矩阵Znorm进行特征聚合,生成多维特征图;
所述颈部网络,用于通过特征金字塔网络和路径聚合网络对所述多维特征图进行高分辨率重构,得到聚合后的特征图;
所述检测网络,用于对聚合后的特征图进行小目标识别预测,得到待识别图像中的小目标边框和对应类别。
进一步地,所述四卷积并行模块包括四个深度可分离卷积层,分别记作X1、X2、X3、X4;
所述X1的卷积核为3×3,X2的卷积核为1×9,X3的卷积核为9×1,X4的卷积核为1×1;
所述X1、X2、X3、X4的深度均为超参数。
进一步地,所述按照四个卷积层的排列方向进行拼接,得到特征矩阵Zconcat,包括:
通过下式得到特征矩阵Zconcat:
其中,表示通过卷积层Xi生成的特征图,Ki表示特征图统一大小参数,*表示卷积。
进一步地,所述通过特征金字塔网络和路径聚合网络对所述多维特征图进行高分辨率重构,得到聚合后的特征图,包括:
将所述多维特征图输入特征金字塔网络,特征金字塔网络自顶向下利用双线性插值法进行上采样操作,将高层次的强语义特征传递到低层次,得到多尺度特征;
将所述多尺度特征输入到路径聚合网络,进行高层次、中层次和低层次特征图聚合,得到聚合后的特征图。
进一步地,所述对聚合后的特征图进行小目标识别预测,得到待识别图像中的小目标边框和对应类别,包括:
检测网络对聚合后的特征图进行框定,根据框定的特征信息进行结果分类并标记,输出含有锚定框和类别信息的图像,得到待识别图像中的小目标边框和对应类别。
进一步地,所述训练后的Yolo-I模型的训练方法,包括:
选择包含小目标的图像作为数据集样本;
对数据集样本进行图像扩充,得到扩充后的数据集样本;
对扩充后的数据集样本中的低光图像进行可见性提升,得到提升后的数据集样本;
对提升后的数据集样本中的图像进行重放,统一图像的分辨率和尺寸,得到统一后的数据集样本;
对统一后的数据集样本中的图像进行标注,并分配相应的标签,得到标注后的数据集样本;
采用标注后的数据集样本对Yolo-I模型进行训练,得到训练后的Yolo-I模型。
第二方面,本申请提出一种基于Yolo-I模型的小目标识别***,包括:
获取模块,用于获取待识别图像;
识别模块,用于将所述待识别图像输入至训练后的Yolo-I模型,得到待识别图像中的小目标边框和对应类别;
所述Yolo-I模型包括主干网络、颈部网络和检测网络;
所述主干网络,用于采用Inceptionconv网络对待识别图像进行处理,生成多维特征图;
所述颈部网络,用于通过特征金字塔网络和路径聚合网络对所述多维特征图进行高分辨率重构,得到聚合后的特征图;
所述检测网络,用于对聚合后的特征图进行小目标识别预测,得到待识别图像中的小目标边框和对应类别。
第三方面,本申请提出一种电子设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现上述基于Yolo-I模型的小目标识别方法的步骤。
第四方面,本申请提出一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,所述计算机程序被处理器执行时实现上述基于Yolo-I模型的小目标识别方法的步骤。
与现有技术相比,本申请具有以下有益效果:
本申请提出一种基于Yolo-I模型的小目标识别方法,通过优化改进的Yolo-I模型对待识别图像进行识别,获取待识别图像中的小目标边框和对应类别,Yolo-I模型中的主干网络采用Inceptionconv网络,检测的准确性更高且计算量更少,提高了实用性。相较于现有的人工智能方法,经实际验证,本申请在电力施工场景下,能够准确识别如头盔、香烟等小目标,平均精度、召回率、分类性能和精确率均能够达到较高水平。另外,相较于标准的Yolo模型,针对相同的测试集进行对比,达到更高识别准确性的同时,识别效率更高。因此,本申请的识别方法能够在电力施工场景完成准确识别,尤其是是针对小目标的识别,优势更加明显,能够排除背景中外观相似的其他物体,或杂乱的背景。
本申请还提出了一种基于Yolo-I模型的小目标识别***、电子设备和计算机可读存储介质,能够通过不同的硬件形式实现上述识别方法,具备上述识别方法的全部优势。
附图说明
为了更清楚的说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请一种基于Yolo-I模型的小目标识别方法的第一流程示意图;
图2为本申请一种基于Yolo-I模型的小目标识别方法实施例中,Yolo-I模型的结构示意图;
图3为本申请一种基于Yolo-I模型的小目标识别方法实施例中,Inceptionconv网络的结构示意图;
图4为本申请一种基于Yolo-I模型的小目标识别方法实施例中,为标准Yolov5模型的颈部网络的结构示意图;
图5为本申请一种基于Yolo-I模型的小目标识别***连接示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
通过人工智能方法识别电力施工场景中人员行为时,对小目标物体的识别效果较差。随着人工智能技术的快速发展,深度学习方法因具有强大的非线性拟合属性,能够将不同类别、不同形态和不同尺度的识别检测能力融合到网络模型中而被广泛采用。因此,本申请提出一种基于Yolo-I模型的小目标识别方法及相关装置,本申请的识别方法依靠深度学习算法设计了一种检测精度高、检测速度快的识别方法,能够用于电力建设场景来替代传统的人工监管方式,作为预防和减少安全事故发生的一种实用手段,具有一定的推广使用价值。
如图1所示,为本申请一种基于Yolo-I模型的小目标识别方法的第一流程示意图,可以包括以下步骤:
S101,获取待识别图像。
实际应用中,获取待识别图像,可以从电力施工场景的视频中获取,也可以从电力施工场景的多张照片中获取,本申请不对图像的来源进行限制,本申请的识别方法可以针对各种途径获取的待识别图像,具备一定的通用性。
S102,将待识别图像输入至训练后的Yolo-I模型,得到待识别图像中的小目标边框和对应类别。
需要说明的是,Yolo-I模型是Yolo系列模型的一个版本,是一种目标检测模型,在YOLO-I中,通常将每张图像划分为矩阵状的栅格,每个栅格称为一个Cell,目的是检测中心包含在栅格内的物体。本申请中,针对本申请的识别目标,对Yolo-I模型进行了具体优化设计,其中,Yolo-I模型包括主干网络、颈部网络和检测网络,各部分的功能如下:
主干网络,用于采用Inceptionconv网络对待识别图像进行处理,生成多维特征图。
需要说明的是,本申请中Yolo-I模型的主干网络采用Inceptionconv网络,nceptionconv网络是一种深度卷积神经网络,可以同时学习到不同尺度和抽象级别的特征,从而提高检测的准确性。另外,Inceptionconv网络具有更少的计算量和更高的准确率,可以在保证模型性能的同时,减少模型的计算复杂度和内存占用,提高模型的实用性。
颈部网络,用于通过特征金字塔网络和路径聚合网络对多维特征图进行高分辨率重构,得到聚合后的特征图。通过颈部网络,能够增强特征表示。
需要说明的是,特征金字塔网络(Feature Pyramid Network,FPN),是一种提取网络内特征层次结构的模型,通过对具有横向连接的自顶向下路径进行扩展来传播语义上较强的特征。将高层特征传递到低层,使低层特征获得更丰富的信息。路径聚合网络(PathAggregation Network,PANet)则引入了自底向上的路径,使得底层信息更容易传递到高层顶部,解决了金字塔网络中底层特征无法影响高层特征的问题,路径聚合网络可以通过将不同层次的特征进行聚合,得到更丰富的特征表示,从而提高目标检测的准确率。
检测网络,用于对聚合后的特征图进行小目标识别预测,得到待识别图像中的小目标边框和对应类别。
将Yolo模型中用于生成特征图的主干网络替换为Inceptionconv网络,得到Yolo-I模型,Yolo-I模型包括主干网络、颈部网络和检测网络,如图3所示,为Inceptionconv网络的结构示意图,Inceptionconv网络包括Inception-Dwconv层、归一化层(图3中的Norm)和池化层。
其中,Inception-Dwconv层包括四卷积并行模块和连接模块,四卷积并行模块包括4个并行的卷积层,分别记作X1、X2、X3、X4。X1是卷积核大小为3x3、深度为m1的深度可分离卷积层,X2是卷积核大小为1x9,深度为m2的深度可分离卷积层,X3是卷积核大小为9x1,深度为m3的的深度可分离卷积层,X4是卷积核大小为1x1,深度为m4的的特征校验层,m1、m2、m3、m4均为超参数,且均为正整数。卷积层X1、X2、X3、X4分别用于对输入的待识别图像进行特征提取,生成对应的特征图连接模块用于将特征图/>按照X1、X2、X3、X4深度可分离卷积层排列方向进行拼接,其结果表示为特征矩阵Zconcat;
其中,表示通过卷积层Xi生成的特征图,Ki表示特征图统一大小参数,*表示卷积。
归一化层用于对特征矩阵Zconcat进行归一化操作,输出归一化特征矩阵Znorm。
池化层用于对归一化特征矩阵Znorm进行特征聚合,生成n1,n2,n3,…,ni维的多维特征图,n1,n2,n3,…,ni均为超参数,且均为正整数。
如图2所示,将图像输入至训练后的Yolo-I模型,经Inceptionconv网络生成特征矩阵,再经特征金字塔网络和路径聚合网络,得到聚合后的特征图,经检测网络后输出小目标边框和对应类别。图2中的“全局池化层”对应检测网络。
如图4所示,为颈部网络的结构示意图。将从主干网络中获取的n1,n2,n3,…,ni维的多维特征图输入特征金字塔网络,特征金字塔网络自顶向下利用双线性插值法进行上采样操作,将高层次的强语义特征传递到低层次。再将特征金字塔网络输出的多尺度特征输入到路径聚合网络,进行高层次、中层次和低层次特征图的聚合,进而进行特征增强,生成最终的特征图。其中,特征金字塔网络对应图4中的特征提取网络,路径聚合网络对应图4中的特征融合网络。
最后,将最终的特征图输入检测网络,检测网络对最终的特征图中的特征信息进行框定,根据框定的特征信息进行结果分类并标记,输出含有锚定框和类别信息的图像。
用于进行识别的Yolo-I模型需要是经过训练的Yolo-I模型,对Yolo-I模型进行训练时,可以采用以下方法:
(1)选择包含小目标的图像作为数据集样本。
(2)对数据集样本进行图像扩充,得到扩充后的数据集样本。
通过图像扩充,能够使数据集样本更加丰富,更加有利于后续训练的执行。
(3)对扩充后的数据集样本中的低光图像进行可见性提升,得到提升后的数据集样本。
实际应用中,通过可见性提升,能够有效提高低光图像的质量和视觉效果,例如,可以采用随机gamma变换等策略,合成低光照图像,提高其亮度;还可以采用多分支增强网络等。可以根据实际需要选择合适的方法,本申请不做限制。
(4)对提升后的数据集样本中的图像进行重放,统一图像的分辨率和尺寸,得到统一后的数据集样本。
对图像进行重放,可以提高模型的泛化能力。通过旋转、翻转、裁剪、平移和缩放等方法,使模型能够更好地适应不同的数据分布和变化。此外,还可以减少数据集样本中的冗余和噪声,提高模型的泛化性能。
(5)对统一后的数据集样本中的图像进行标注,并分配相应的标签,得到标注后的数据集样本。
实际应用中,进行标注是将图像中的待识别目标标注出来,再为其分配相应的标签。标签可以是人工添加的,也可以是通过图像分割、目标检测等算法自动生成的。具体采用的方法本申请不做限制,可以根据实际要求进行确定。
(6)采用标注后的数据集样本对Yolo-I模型进行训练,得到训练后的Yolo-I模型。
作为Yolo-I模型训练的一个示例,可以采用以下方法对待识别图像进行预处理和训练:
1、选择包含小目标的图像作为数据集样本;
2、采用生成对抗网络算法对数据集进行图像扩充;
3、采用基于幂律变换或伽马校正的图像增强技术对低光图像进行可见性提升;
4、对图像进行重放,统一调整图像分辨率为640×640,确保输入模型的图像大小一致;
5、使用图像标注工具Labelimg对图像中所关注小目标划定边界框,并为这些对象位置进行标注,分配相应的标签。
6、将标注好的数据集分为训练集(60%)、测试集(20%)和预测集(20%)。实际应用中,具体的分配比例还可以根据实际需要进行调整。
7、模型预训练时,还可以使用Mosaic数据增强方式对数据进行预处理。
需要说明的是,Mosaic数据增强是一种图像数据增强方法,可以将四个随机选择的图像拼接成一个新的图像,同时,对图像进行旋转、缩放等操作,以增加数据的多样性和泛化能力。
以下是采用本申请一种基于Yolo-I模型的小目标识别方法的一个实例,及关于对本申请技术效果的相关验证说明:
步骤1:采集2000张图片作为数据集样本,其中,1700张为包含头盔和香烟特征的图像,300张为无头盔和香烟特征的图像。
基于幂律变换或伽马校正的图像增强技术,对低光图像进行可见性提升。对图像进行重放,统一调整图像分辨率为640×640,确保输入模型的图像大小一致。使用图像标注工具Labelimg对图像中所关注小目标划定边界框,并为这些对象位置进行标注,分配相应的标签。将标注好的数据集分为训练集(60%)、测试集(20%)和预测集(20%),其中,训练集用于Yolo-I模型训练,测试集用于验证训练后的Yolo-I模型性能,预测集用于Yolo-I模型实际预测。
步骤2:构建Yolo-I模型的Inceptionconv网络、颈部网络和检测网络,其中,主干Inceptionconv网络由Inception-Dwconv层、归一化层和池化层组成。
Inception-Dwconv层用于对输入图像进行基本特征捕获,输出不同维度的特征图。Inception-Dwconv的核心思想是将Inception模块与Dwconv模块相融合,Inception模块是由多个不同尺度的卷积层并行组成,这些卷积层以不同大小卷积核大小进行卷积操作,然后将它们的输出拼接;Dwconv模块在每个卷积层上进行卷积层深度分离操作,减少参数量;将二者结合在一起,可以在确保准确度的同时加快模型的检测速度。Inception-Dwconv层中的卷积层X1、X2、X3、X4分别对输入图像进行特征提取,生成对应的特征图连接模块将特征图/>的分辨率大小统一后进行连接,生成特征矩阵Zconcat:
归一化层对特征矩阵Zconcat进行归一化操作,输出归一化特征矩阵Znorm。
池化层对用于归一化特征矩阵Znorm进行特征聚合,生成不同维度的特征图。
再依次经颈部网络和检测网络,得到预测集中待识别图像中的小目标边框和对应类别。
以下是对本申请实施预测效果的验证。
对于本实例所测试400张包含头盔(Helmet)和香烟(Smoking)特征图像,模型性能测试效果如表1所示。其中,表1中的AP为平均精度,指预测模型在不同置信度阈值下,根据真实标签和检测结果计算出的精度值的加权平均数;F1为模型分类性能评估指标;Recall为召回率,指预测模型正确预测的样本数量占所有样本数量的比例;Precison为精确率,指预测模型所预测的样本中,真实样本的比例。此外,为了验证本申请所提出的Yolo-I模型在准确度与效率的优越性,与标准的Yolo模型在同一测试集进行了比较,结果如2表所示,表2中,mAP是多个类别平均精度的均值。从表中可以看出本发明方法对于小目标基本可以进行准确识别检测,并且提高检测速度,具有较好的识别检测性能。
表1本申请Yolo-I模型性能测试效果表
类别 | AP | F1 | Recall | Precision |
Helmet | 95.49%^ | 0.90 | 90.48% | 92.75% |
Smoking | 92.11% | 0.84 | 85.66% | 90.11% |
表2本申请Yolo-I模型与标准的Yolo模型在同一测试集下的效果对比表
模型 | mAP | 时间/min | Helmet-Precision | Smoking-Precision |
Yolo-I | 88.53% | 42 | 92.75% | 90.11% |
Yolo | 79.87% | 57 | 82.31% | 80.24% |
如图5所示,为本申请实施例提供的一种基于Yolo-I模型的小目标识别***的连接示意图,包括:
获取模块,用于获取待识别图像;
识别模块,用于将所述待识别图像输入至训练后的Yolo-I模型,得到待识别图像中的小目标边框和对应类别;
所述Yolo-I模型包括主干网络、颈部网络和检测网络;
所述主干网络,用于采用Inceptionconv网络对待识别图像进行处理,生成多维特征图;
所述颈部网络,用于通过特征金字塔网络和路径聚合网络对所述多维特征图进行高分辨率重构,得到聚合后的特征图;
所述检测网络,用于对聚合后的特征图进行小目标识别预测,得到待识别图像中的小目标边框和对应类别。
需要说明的是,在本申请一种基于Yolo-I模型的小目标识别***的其他实施例中,各模块中的具体功能,还可以采用前述优化调度方法的实施例,此处不再赘述。
需要说明的是,在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,各模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如,多个模块可以结合或者可以集成到另一个装置,或一些特征可以忽略,或不执行。该作为分离部件说明的模块,可以是或者也可以不是物理上分开的,作为模块显示的部件可以是一个物理单元或多个物理单元,即可以位于一个地方,或者也可以分布到多个不同地方。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各模块可以集成在一个处理单元中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
本申请实施例提供的一种电子设备,包括存储器和处理器,存储器中存储有计算机程序,处理器执行计算机程序时实现如上任一实施例所描述一种基于Yolo-I模型的小目标识别方法的步骤。
本申请实施例提供的另一种电子设备中还可以包括:与处理器连接的输入端口,用于传输外界采集设备采集的多模态数据至处理器;以及与处理器连接的显示单元,用于显示处理器的处理结果至外界;与处理器连接的通信模块,用于实现电子设备与外界的通信。显示单元可以为显示面板、激光扫描使显示器等;通信模块所采用的通信方式包括但不局限于移动高清链接技术(HML)、通用串行总线(USB)、高清多媒体接口(HDMI)、无线连接:无线保真技术(WiFi)、蓝牙通信技术、低功耗蓝牙通信技术、基于IEEE802.11s的通信技术。
本申请实施例提供的一种计算机可读存储介质,计算机可读存储介质中存储有计算机程序,计算机程序被处理器执行时实现如上任一实施例所描述一种基于Yolo-I模型的小目标识别方法的步骤。
本申请所涉及的计算机可读存储介质包括随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质。
本申请实施例提供的基于Yolo-I模型的小目标识别***、电子设备及计算机可读存储介质中相关部分的说明请参见本申请实施例提供的一种基于Yolo-I模型的小目标识别方法中对应部分的详细说明,在此不再赘述。另外,本申请实施例提供的上述技术方案中与现有技术中对应技术方案实现原理一致的部分并未详细说明,以免过多赘述。
以上仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (9)
1.一种基于Yolo-I模型的小目标识别方法,其特征在于,包括:
获取待识别图像;
将所述待识别图像输入至训练后的Yolo-I模型,得到待识别图像中的小目标边框和对应类别;
所述Yolo-I模型包括主干网络、颈部网络和检测网络;
所述主干网络采用Inceptionconv网络,所述Inceptionconv网络包括Inception-Dwconv层、归一化层和池化层;所述Inception-Dwconv层包括四卷积并行模块和连接模块;所述四卷积并行模块,用于通过四个卷积层分别对待识别图像进行特征提取,生成对应的四个特征图;所述连接模块,用于将四卷积并行模块生成的四个特征图,按照四个卷积层的排列方向进行拼接,得到特征矩阵Zconcat;所述归一化层,用于对所述特征矩阵Zconcat进行归一化操作,得到归一化特征矩阵Znorm;所述池化层,用于对所述归一化特征矩阵Znorm进行特征聚合,生成多维特征图;
所述颈部网络,用于通过特征金字塔网络和路径聚合网络对所述多维特征图进行高分辨率重构,得到聚合后的特征图;
所述检测网络,用于对聚合后的特征图进行小目标识别预测,得到待识别图像中的小目标边框和对应类别。
2.根据权利要求1所述一种基于Yolo-I模型的小目标识别方法,其特征在于,所述四卷积并行模块包括四个深度可分离卷积层,分别记作X1、X2、X3、X4;
所述X1的卷积核为3×3,X2的卷积核为1×9,X3的卷积核为9×1,X4的卷积核为1×1;
所述X1、X2、X3、X4的深度均为超参数。
3.根据权利要求2所述一种基于Yolo-I模型的小目标识别方法,其特征在于,所述按照四个卷积层的排列方向进行拼接,得到特征矩阵Zconcat,包括:
通过下式得到特征矩阵Zconcat:
其中,表示通过卷积层Xi生成的特征图,Ki表示特征图统一大小参数,*表示卷积。
4.根据权利要求1至3任一所述一种基于Yolo-I模型的小目标识别方法,其特征在于,所述通过特征金字塔网络和路径聚合网络对所述多维特征图进行高分辨率重构,得到聚合后的特征图,包括:
将所述多维特征图输入特征金字塔网络,特征金字塔网络自顶向下利用双线性插值法进行上采样操作,将高层次的强语义特征传递到低层次,得到多尺度特征;
将所述多尺度特征输入到路径聚合网络,进行高层次、中层次和低层次特征图聚合,得到聚合后的特征图。
5.根据权利要求4所述一种基于Yolo-I模型的小目标识别方法,其特征在于,所述对聚合后的特征图进行小目标识别预测,得到待识别图像中的小目标边框和对应类别,包括:
检测网络对聚合后的特征图进行框定,根据框定的特征信息进行结果分类并标记,输出含有锚定框和类别信息的图像,得到待识别图像中的小目标边框和对应类别。
6.根据权利要求5所述一种基于Yolo-I模型的小目标识别方法,其特征在于,所述训练后的Yolo-I模型的训练方法,包括:
选择包含小目标的图像作为数据集样本;
对数据集样本进行图像扩充,得到扩充后的数据集样本;
对扩充后的数据集样本中的低光图像进行可见性提升,得到提升后的数据集样本;
对提升后的数据集样本中的图像进行重放,统一图像的分辨率和尺寸,得到统一后的数据集样本;
对统一后的数据集样本中的图像进行标注,并分配相应的标签,得到标注后的数据集样本;
采用标注后的数据集样本对Yolo-I模型进行训练,得到训练后的Yolo-I模型。
7.一种基于Yolo-I模型的小目标识别***,其特征在于,包括:
获取模块,用于获取待识别图像;
识别模块,用于将所述待识别图像输入至训练后的Yolo-I模型,得到待识别图像中的小目标边框和对应类别;
所述Yolo-I模型包括主干网络、颈部网络和检测网络;
所述主干网络,用于采用Inceptionconv网络对待识别图像进行处理,生成多维特征图;
所述颈部网络,用于通过特征金字塔网络和路径聚合网络对所述多维特征图进行高分辨率重构,得到聚合后的特征图;
所述检测网络,用于对聚合后的特征图进行小目标识别预测,得到待识别图像中的小目标边框和对应类别。
8.一种电子设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至7任一项所述基于Yolo-I模型的小目标识别方法的步骤。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述基于Yolo-I模型的小目标识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311661479.9A CN117636131A (zh) | 2023-12-05 | 2023-12-05 | 一种基于Yolo-I模型的小目标识别方法及相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311661479.9A CN117636131A (zh) | 2023-12-05 | 2023-12-05 | 一种基于Yolo-I模型的小目标识别方法及相关装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117636131A true CN117636131A (zh) | 2024-03-01 |
Family
ID=90021338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311661479.9A Pending CN117636131A (zh) | 2023-12-05 | 2023-12-05 | 一种基于Yolo-I模型的小目标识别方法及相关装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117636131A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117953470A (zh) * | 2024-03-26 | 2024-04-30 | 杭州感想科技有限公司 | 全景拼接相机的高速公路事件识别方法及装置 |
-
2023
- 2023-12-05 CN CN202311661479.9A patent/CN117636131A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117953470A (zh) * | 2024-03-26 | 2024-04-30 | 杭州感想科技有限公司 | 全景拼接相机的高速公路事件识别方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111723786B (zh) | 一种基于单模型预测的安全帽佩戴检测方法及装置 | |
CN111860171B (zh) | 一种大规模遥感图像中不规则形状目标的检测方法及*** | |
CN108121997A (zh) | 使用机器学习模型的图像数据中的对象分类 | |
CN108122239A (zh) | 使用深度分割的图像数据中的对象检测 | |
CN111680678B (zh) | 目标区域识别方法、装置、设备及可读存储介质 | |
CN111626994B (zh) | 基于改进U-Net神经网络的设备故障缺陷诊断方法 | |
CN104572804A (zh) | 一种视频物体检索的方法及其*** | |
CN111738344A (zh) | 一种基于多尺度融合的快速目标检测方法 | |
CN112257665A (zh) | 图像内容的识别方法、图像识别模型的训练方法及介质 | |
CN110781980B (zh) | 目标检测模型的训练方法、目标检测方法及装置 | |
CN115249306B (zh) | 图像分割模型训练方法、图像处理方法、装置及存储介质 | |
CN112132739A (zh) | 3d重建以及人脸姿态归一化方法、装置、存储介质及设备 | |
CN117636131A (zh) | 一种基于Yolo-I模型的小目标识别方法及相关装置 | |
CN114445670A (zh) | 图像处理模型的训练方法、装置、设备及存储介质 | |
CN114332473A (zh) | 目标检测方法、装置、计算机设备、存储介质及程序产品 | |
CN117237808A (zh) | 基于odc-yolo网络的遥感图像目标检测方法及*** | |
Yadav et al. | An improved deep learning-based optimal object detection system from images | |
CN114529462A (zh) | 一种基于改进YOLO V3-Tiny的毫米波图像目标检测方法及*** | |
CN114782417A (zh) | 基于边缘强化图像分割的风机数字孪生特征实时检测方法 | |
CN114519819B (zh) | 一种基于全局上下文感知的遥感图像目标检测方法 | |
CN116958637A (zh) | 图像检测模型的训练方法、装置、设备及存储介质 | |
CN110111365B (zh) | 基于深度学习的训练方法和装置以及目标跟踪方法和装置 | |
CN110163095B (zh) | 回环检测方法、回环检测装置及终端设备 | |
Shao et al. | Generative image inpainting with salient prior and relative total variation | |
CN114782979A (zh) | 一种行人重识别模型的训练方法、装置、存储介质及终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |