CN116994151B - 基于SAR图像和YOLOv5s网络的海上舰船目标识别方法 - Google Patents

基于SAR图像和YOLOv5s网络的海上舰船目标识别方法 Download PDF

Info

Publication number
CN116994151B
CN116994151B CN202310655171.7A CN202310655171A CN116994151B CN 116994151 B CN116994151 B CN 116994151B CN 202310655171 A CN202310655171 A CN 202310655171A CN 116994151 B CN116994151 B CN 116994151B
Authority
CN
China
Prior art keywords
yolov
training
network
examples
positive examples
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310655171.7A
Other languages
English (en)
Other versions
CN116994151A (zh
Inventor
尚文利
潘梓沛
揭海
曹忠
张梦
李淑琦
常志伟
时昊天
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou University
Original Assignee
Guangzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou University filed Critical Guangzhou University
Priority to CN202310655171.7A priority Critical patent/CN116994151B/zh
Publication of CN116994151A publication Critical patent/CN116994151A/zh
Application granted granted Critical
Publication of CN116994151B publication Critical patent/CN116994151B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于SAR图像和YOLOv5s网络的海上舰船目标识别方法,将关于船舶的数据集按照一定比例划分后,分别对训练集中的图像和标签做垂直翻转,水平翻转,顺时针旋转90度,顺时针旋转180度,得到更多用于训练的SAR图像,随后在YOLOv5s网络backbone模块的第九层加入CBAM注意力机制并将目标框回归损失函数修改为EIOU,训练模型以提高模型的泛化能力和识别精度,改善基于深度学习的方法存在的识别精度不高、漏检严重的问题。

Description

基于SAR图像和YOLOv5s网络的海上舰船目标识别方法
技术领域
本发明涉及图像处理的技术领域,具体涉及基于SAR图像和YOLOv5s网络的海上舰船目标识别方法。
背景技术
随着深度学习的发展,基于深度学习的SAR图像舰船识别已经逐渐成为SAR图像舰船识别领域的主流方法。基于深度学习的SAR图像舰船识别方法通常涉及到多个步骤,包括图像预处理、特征提取和目标分类等。
SAR图像的数据预处理包括去噪、增强、滤波、分割等;在特征提取方面,目前主流的特征提取网络包括卷积残差网络(Residual Network,ResNet)、长短时记忆网络(LongShort-Term Memory,LSTM)、循环神经网络(Recurrent Neural Network,RNN)、神经网络(Convolutional Neural Network,CNN)等。其中,CNN是应用最广泛的一种深度学习方法,它可以自动学习图像特征,从而实现目标识别和分类。在目标分类方面,主要通过分类器来实现目标识别和分类。常用的分类器包括支持向量机、多层感知器、逻辑回归和卷积神经网络等。卷积神经网络已经成为基于深度学习的舰船SAR图像目标识别的主要方法,它可以自动学习图像特征和分类规则,具有更高的准确率和鲁棒性。
在广大研究者的共同努力下,基于深度学***的自动化监测和识别。
发明内容
本发明的发明内容在于提出一种基于SAR图像的海上舰船目标识别方法,该方法在YOLOv5s网络中加入CBAM注意力机制,同时使用EIOU损失函数代替原目标框回归损失函数,可以改善基于深度学习的方法存在的识别精度不高、漏检严重的问题。
本发明的技术方案以如下方式实现:基于SAR图像和YOLOv5s网络的海上舰船目标识别方法,包括以下步骤:
S1、数据集划分;
S2、增强训练集数据;
S3、在YOLOv5s网络中加入CBAM注意力机制;
S4、将目标框回归损失函数修改为EIOU;
S5、训练模型;
S6、测试模型。
优选的,所述S1中,将关于船舶图像的数据集的标签格式转换为YOLO格式的TXT文本文件。随后将数据集按4:1的比例随机划分成为训练集和测试集。
优选的,所述S2中,分别对训练集中的图像和标签做垂直翻转,水平翻转,顺时针旋转90度,顺时针旋转180度,得到更多用于训练的SAR图像。
优选的,所述S3中,CBAM注意力机制加入的位置在YOLOv5s网络backbone模块的第九层。
优选的,所述S4中,使用EIOU损失函数替换YOLOv5算法中的目标框回归损失函数CIOU,EIOU损失函数的公式如下:
其中Intersection表示预测框和真实框的交集部分的面积,Union表示预测框和真实框的并集部分的面积;将交集面积除以并集面积,得到IOU值,其值域在0到1之间;v表示两个框之间的形状差异;d表示两个框中心点之间的欧氏距离,r表示两个框对角线长度的一半,即两个框的最小闭合区域的半径,alpha是一个可调参数,v表示两个框之间的形状差异;w_gt和h_gt分别表示真实框的宽度和高度,w和h分别表示预测框的宽度和高度。
优选的,所述S5中,设置学习率lr0为0.01,余弦退火超参数lrf为0.01;设置标签与Anchors的IOU阈值为0.2;设置输入图片大小为640,Batch size为64,Epochs为150,并且在YOLOv5s预训练模型的基础上训练;训练数据是S2经过数据增强后的训练集。
优选的,所述S6中,以精度Precision、召回率Recall以及平均精度均值mAP作为模型的评价指标。
更优的,所述精度表示正确分类的正例个数占所有分类为正例的样本个数的比例,即正例被分类器正确分类的个数与所有被分类器分类为正例的样本数之比,计算公式如下:
召回率表示正确分类的正例个数占所有正例个数的比例,即正例被分类器正确分类的个数与所有正例个数之比,计算公式如下:
平均精度均值是一个用于衡量信息检索***整体性能的指标,是所有查询的平均精度的平均值,计算公式如下:
其中TP表示真正例,即正例被正确分类的个数;TN表示真负例,即负例被正确分类的个数;FP表示假正例,即负例被错误分类成正例的个数;FN表示假负例,即正例被错误分类成负例的个数;AP是召回率和精度的曲线下面积;Q是查询的总数,AP(q)是第q个查询的平均精度。
本发明与现有技术相比,还存在以下优点:
(1)本专利在YOLOv5s网络加入了CBAM注意力机制。CBAM注意力机制可以自适应地学习通道之间的权重,减少冗余信息的干扰,提高模型的泛化能力;通过对特征图中不同通道之间的加权,强化关键信息,提高模型对重要特征的关注度,进一步提高模型的性能和准确度。实验表明,YOLOv5s加入CBAM注意力机制能够较大程度提高模型的识别精度。
(2)使用EIOU损失函数作为目标框回归损失函数。EIOU相比于YOLOv5s原来的CIOU损失函数,在衡量边界框之间的相似度时,引入了更多的距离和角度信息,从而能够更全面更准确地量化预测边界框与真实边界框之间的差异,特别是在处理旋转物体时,因此能够更准确地评估目标检测算法的性能。实验表明,EIOU比CIOU更适用于基于SAR图像的舰船识别,EIOU相比于CIOU更能提高模型的性能。
附图说明
利用附图对本发明作进一步说明,但附图中的实施例不构成对本发明的任何限制,对于本领域的普通技术人员,在不付出创造性劳动的前提下,还可以根据以下附图获得其它的附图。
图1是本发明基于SAR图像和YOLOv5s网络的海上舰船目标识别方法的实现流程图;
图2是本发明中原有的yolov5模型结构图;
图3是本发明中加入CBAM注意力机制后的yolov5模型结构图;
图4是本发明一个较好实施例的部分测试结果示意图;
图5是本发明一个较好实施例的部分测试结果示意图。
具体实施方式
以下结合具体实施例对基于SAR图像和YOLOv5s网络的海上舰船目标识别方法作进一步的详细描述,这些实施例只用于比较和解释的目的,本发明不限定于这些实施例中。
如图1所示,基于SAR图像和YOLOv5s网络的海上舰船目标识别方法,具体步骤包括:
S1、数据集划分;
S2、增强训练集数据;
S3、在YOLOv5s网络中加入CBAM注意力机制;
S4、将目标框回归损失函数修改为EIOU;
S5、训练模型;
S6、测试模型。
优选的,所述S1中,将关于船舶图像的数据集的标签格式转换为YOLO格式的TXT文本文件。随后将数据集按4:1的比例随机划分成为训练集和测试集。
在本实施例中,使用的实验数据集是公开的SAR船舶数据集SSDD数据集。该数据集由1160张SAR图像和2456个舰船目标组成,已经由学者标注完成,具有多偏振模式,多分辨率,海上和码头的船舶场景,能有效验证模型的鲁棒性。实验将使用coco格式训练模型,由于SSDD数据集标签的格式为VOC格式的XML文件,并非适用于coco格式的YOLO标签格式,所以本专利实验前先将该数据集的标签格式转换为YOLO格式的TXT文本文件。随后将SSDD数据按比例4:1随机划分成为训练集和测试集,训练集有784张图片,测试集有197张图片。
优选的,所述S2中,分别对训练集中的图像和标签做垂直翻转,水平翻转,顺时针旋转90度,顺时针旋转180度,得到更多用于训练的SAR图像。
由于训练集的舰船实例比较少,本实施例使用数据增强的方法对训练集进行扩充,分别对训练集中的图像和标签做垂直翻转,水平翻转,顺时针旋转90度,顺时针旋转180度,从而得到了3920张可供训练的SAR图像,约8000个舰船实例,使用扩充后的训练集训练模型,有助于减轻过拟合现象,提高模型的鲁棒性和泛化能力。
优选的,所述S3中,CBAM注意力机制加入的位置在YOLOv5s网络backbone模块的第九层。
使用加入CBAM注意力机制的YOLOv5s网络作为模型训练的深度学习神经网络,其中CBAM注意力机制加入的位置在YOLOv5s网络backbone模块的第九层。YOLOv5s网络结构如图2所示,加入CBAM注意力机制后backbone模块如图3所示。
优选的,所述S4中,使用EIOU损失函数替换YOLOv5算法中的目标框回归损失函数CIOU,EIOU损失函数的公式如下:
其中Intersection表示预测框和真实框的交集部分的面积,Union表示预测框和真实框的并集部分的面积;将交集面积除以并集面积,得到IOU值,其值域在0到1之间;v表示两个框之间的形状差异;d表示两个框中心点之间的欧氏距离,r表示两个框对角线长度的一半,即两个框的最小闭合区域的半径,alpha是一个可调参数,v表示两个框之间的形状差异;w_gt和h_gt分别表示真实框的宽度和高度,w和h分别表示预测框的宽度和高度。
在本实施例中,实验使用的框架是pytoch 1.13.1,使用的编程语言是python,在pycharm平台进行,在NVIDIA GeForce RTX 3090GPU,CUDA11.7的环境下完成模型训练与测试。
优选的,所述S5中,设置学习率lr0为0.01,余弦退火超参数lrf为0.01;设置标签与Anchors的IOU阈值为0.2;设置输入图片大小为640,Batch size为64,Epochs为150,并且在YOLOv5s预训练模型的基础上训练;训练数据是S2经过数据增强后的训练集。
优选的,所述S6中,以精度Precision、召回率Recall以及平均精度均值mAP作为模型的评价指标。
更优的,所述精度表示正确分类的正例个数占所有分类为正例的样本个数的比例,即正例被分类器正确分类的个数与所有被分类器分类为正例的样本数之比,计算公式如下:
召回率表示正确分类的正例个数占所有正例个数的比例,即正例被分类器正确分类的个数与所有正例个数之比,计算公式如下:
平均精度均值是一个用于衡量信息检索***整体性能的指标,是所有查询的平均精度的平均值,计算公式如下:
其中TP表示真正例,即正例被正确分类的个数;TN表示真负例,即负例被正确分类的个数;FP表示假正例,即负例被错误分类成正例的个数;FN表示假负例,即正例被错误分类成负例的个数;AP是召回率和精度的曲线下面积;Q是查询的总数,AP(q)是第q个查询的平均精度。
测试数据是步骤S1划分的测试集,测试结果如下表1。部分测试结果示意图如图4和图5。
表1测试结果
Method Precision Recall mAP(0.5)
YOLOv5s 0.850 0.93 0.937
本专利方法 0.885 0.930 0.952
可以看出在YOLOv5网络加入CBAM注意力机制,同时修改目标框回归损失函数为EIOU训练后的模型在测试集上的Precision、Recall、mAP都比原网络模型高。由此可见,本专利提出的方法能在一定程度上提高了模型的性能。
最后应当说明的是,以上实施例仅用以说明本发明的技术方案,而非对本发明保护范围的限制,尽管参照较佳实施例对本发明作了详细地说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的实质和范围。

Claims (4)

1.基于SAR图像和YOLOv5s网络的海上舰船目标识别方法,其特征在于,包括:
S1、数据集划分;
S2、增强训练集数据;
S3、在YOLOv5s网络中加入CBAM注意力机制;
S4、将目标框回归损失函数修改为EIOU;
S5、训练模型;
S6、测试模型;
所述S4中,使用EIOU损失函数替换YOLOv5算法中的目标框回归损失函数CIOU,EIOU损失函数的公式如下:
其中Intersection表示预测框和真实框的交集部分的面积,Union表示预测框和真实框的并集部分的面积;将交集面积除以并集面积,得到IOU值,其值域在0到1之间;v表示两个框之间的形状差异;d表示两个框中心点之间的欧氏距离,r表示两个框对角线长度的一半,即两个框的最小闭合区域的半径,alpha是一个可调参数,v表示两个框之间的形状差异;w_gt和h_gt分别表示真实框的宽度和高度,w和h分别表示预测框的宽度和高度;
所述S5中,设置学习率lr0为0.01,余弦退火超参数lrf为0.01;设置标签与Anchors的IOU阈值为0.2;设置输入图片大小为640,Batch size为64,Epochs为150,并且在YOLOv5s预训练模型的基础上训练;训练数据是S2经过数据增强后的训练集;
所述S6中,以精度Precision、召回率Recall以及平均精度均值mAP作为模型的评价指标;
所述精度表示正确分类的正例个数占所有分类为正例的样本个数的比例,即正例被分类器正确分类的个数与所有被分类器分类为正例的样本数之比,计算公式如下:
召回率表示正确分类的正例个数占所有正例个数的比例,即正例被分类器正确分类的个数与所有正例个数之比,计算公式如下:
平均精度均值是一个用于衡量信息检索***整体性能的指标,是所有查询的平均精度的平均值,计算公式如下:
其中TP表示真正例,即正例被正确分类的个数;TN表示真负例,即负例被正确分类的个数;FP表示假正例,即负例被错误分类成正例的个数;FN表示假负例,即正例被错误分类成负例的个数;AP是召回率和精度的曲线下面积;Q是查询的总数,AP(q)是第q个查询的平均精度。
2.根据权利要求1所述的基于SAR图像和YOLOv5s网络的海上舰船目标识别方法,其特征在于,所述S1中,将关于船舶图像的数据集的标签格式转换为YOLO格式的TXT文本文件;随后将数据集按4:1的比例随机划分成为训练集和测试集。
3.根据权利要求1所述的基于SAR图像和YOLOv5s网络的海上舰船目标识别方法,其特征在于,所述S2中,分别对训练集中的图像和标签做垂直翻转,水平翻转,顺时针旋转90度,顺时针旋转180度,得到更多用于训练的SAR图像。
4.根据权利要求1所述的基于SAR图像和YOLOv5s网络的海上舰船目标识别方法,其特征在于,所述S3中,CBAM注意力机制加入的位置在YOLOv5s网络backbone模块的第九层。
CN202310655171.7A 2023-06-02 2023-06-02 基于SAR图像和YOLOv5s网络的海上舰船目标识别方法 Active CN116994151B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310655171.7A CN116994151B (zh) 2023-06-02 2023-06-02 基于SAR图像和YOLOv5s网络的海上舰船目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310655171.7A CN116994151B (zh) 2023-06-02 2023-06-02 基于SAR图像和YOLOv5s网络的海上舰船目标识别方法

Publications (2)

Publication Number Publication Date
CN116994151A CN116994151A (zh) 2023-11-03
CN116994151B true CN116994151B (zh) 2024-06-04

Family

ID=88525514

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310655171.7A Active CN116994151B (zh) 2023-06-02 2023-06-02 基于SAR图像和YOLOv5s网络的海上舰船目标识别方法

Country Status (1)

Country Link
CN (1) CN116994151B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117576553B (zh) * 2024-01-15 2024-04-02 中国海洋大学 双极化sar图像海洋冰涡识别方法、装置和电子设备

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112418212A (zh) * 2020-08-28 2021-02-26 西安电子科技大学 一种基于EIoU改进的YOLOv3算法
CN113033303A (zh) * 2021-02-09 2021-06-25 北京工业大学 一种基于RCIoU损失的SAR图像旋转舰船检测的实现方法
EP3874457A1 (en) * 2018-12-05 2021-09-08 Siemens Healthcare GmbH Three-dimensional shape reconstruction from a topogram in medical imaging
WO2022000855A1 (zh) * 2020-06-29 2022-01-06 魔门塔(苏州)科技有限公司 一种目标检测方法及装置
CN114187491A (zh) * 2022-02-17 2022-03-15 中国科学院微电子研究所 一种遮挡物体检测方法和装置
CN114330529A (zh) * 2021-12-24 2022-04-12 重庆邮电大学 一种基于改进YOLOv4的遮挡行人实时检测方法
CN114882423A (zh) * 2022-06-09 2022-08-09 南京工业大学 一种基于改进Yolov5m模型和DeepSort的货车入库货物识别方法
CN115331183A (zh) * 2022-08-25 2022-11-11 江苏大学 改进YOLOv5s的红外目标检测方法
CN115497075A (zh) * 2022-09-28 2022-12-20 西安交通大学 基于改进型卷积神经网络交通目标检测方法及相关装置
CN115546650A (zh) * 2022-10-29 2022-12-30 西安电子科技大学 基于yolo-v网络的检测遥感影像中舰船方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106295678B (zh) * 2016-07-27 2020-03-06 北京旷视科技有限公司 神经网络训练与构建方法和装置以及目标检测方法和装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3874457A1 (en) * 2018-12-05 2021-09-08 Siemens Healthcare GmbH Three-dimensional shape reconstruction from a topogram in medical imaging
WO2022000855A1 (zh) * 2020-06-29 2022-01-06 魔门塔(苏州)科技有限公司 一种目标检测方法及装置
CN112418212A (zh) * 2020-08-28 2021-02-26 西安电子科技大学 一种基于EIoU改进的YOLOv3算法
CN113033303A (zh) * 2021-02-09 2021-06-25 北京工业大学 一种基于RCIoU损失的SAR图像旋转舰船检测的实现方法
CN114330529A (zh) * 2021-12-24 2022-04-12 重庆邮电大学 一种基于改进YOLOv4的遮挡行人实时检测方法
CN114187491A (zh) * 2022-02-17 2022-03-15 中国科学院微电子研究所 一种遮挡物体检测方法和装置
CN114882423A (zh) * 2022-06-09 2022-08-09 南京工业大学 一种基于改进Yolov5m模型和DeepSort的货车入库货物识别方法
CN115331183A (zh) * 2022-08-25 2022-11-11 江苏大学 改进YOLOv5s的红外目标检测方法
CN115497075A (zh) * 2022-09-28 2022-12-20 西安交通大学 基于改进型卷积神经网络交通目标检测方法及相关装置
CN115546650A (zh) * 2022-10-29 2022-12-30 西安电子科技大学 基于yolo-v网络的检测遥感影像中舰船方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
复杂场景下基于增强YOLOv3的船舶目标检测;聂鑫;刘文;吴巍;;计算机应用(第09期);第2561-2570页 *

Also Published As

Publication number Publication date
CN116994151A (zh) 2023-11-03

Similar Documents

Publication Publication Date Title
CN109447034B (zh) 基于YOLOv3网络的自动驾驶中交通标识检测方法
US11334982B2 (en) Method for defect classification, method for training defect classifier, and apparatus thereof
CN112446370B (zh) 一种电力设备铭牌文本信息识别的方法
CN116994151B (zh) 基于SAR图像和YOLOv5s网络的海上舰船目标识别方法
CN115829991A (zh) 一种基于改进YOLOv5s的钢材表面缺陷检测方法
CN110008899B (zh) 一种可见光遥感图像候选目标提取与分类方法
Huang et al. Ship target detection based on improved YOLO network
Moysset et al. Learning text-line localization with shared and local regression neural networks
CN112070151B (zh) 一种mstar数据图像的目标分类识别方法
CN113159215A (zh) 一种基于Faster Rcnn的小目标检测识别方法
CN110991374B (zh) 一种基于rcnn的指纹奇异点检测方法
CN112926486A (zh) 一种舰船小目标的改进RFBnet目标检测算法
Fan et al. A novel sonar target detection and classification algorithm
Ghahremani et al. Towards parameter-optimized vessel re-identification based on IORnet
Sun et al. NSD‐SSD: a novel real‐time ship detector based on convolutional neural network in surveillance video
Yulin et al. Wreckage target recognition in side-scan sonar images based on an improved faster r-cnn model
Sun et al. Image target detection algorithm compression and pruning based on neural network
CN114882204A (zh) 船名自动识别方法
CN113313128A (zh) 一种基于改进YOLOv3网络的SAR图像目标检测方法
CN111144469B (zh) 基于多维关联时序分类神经网络的端到端多序列文本识别方法
CN114898290A (zh) 一种海上船舶实时检测方法及***
Sureka et al. Word recognition techniques for Kannada handwritten documents
US20200134357A1 (en) Neural-network-based optical character recognition using specialized confidence functions
CN112819086B (zh) 通过划分网络空间计算单隐层ReLU神经网络全局最优解的图像分类方法
CN113139077B (zh) 一种识别船舶身份的方法、装置、终端及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant