CN110895680A - 一种基于区域建议网络的无人艇水面目标检测方法 - Google Patents

一种基于区域建议网络的无人艇水面目标检测方法 Download PDF

Info

Publication number
CN110895680A
CN110895680A CN201910915996.1A CN201910915996A CN110895680A CN 110895680 A CN110895680 A CN 110895680A CN 201910915996 A CN201910915996 A CN 201910915996A CN 110895680 A CN110895680 A CN 110895680A
Authority
CN
China
Prior art keywords
detection
regional
model
water surface
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910915996.1A
Other languages
English (en)
Inventor
廖煜雷
成昌盛
王博
陈启贤
沈海龙
姜文
李志晨
李姿科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN201910915996.1A priority Critical patent/CN110895680A/zh
Publication of CN110895680A publication Critical patent/CN110895680A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于区域建议网络的无人艇水面目标检测方法,应用更快速‑区域神经网络和区域建议网络在线进行水面目标检测,基于特征融合原理,在使用区域建议网络的基础上,修改了锚点的生成机制,提出一种使用特征融合方法构造新的特征层,并将锚点分线路在不同特征图上生成的区域建议方法,同时根据特征图大小采用间隔采样策略减少计算量。方法的优点在于最大程度上保留了潜在目标,每个区域建议都有对应的分类结果而不会被有重叠区域的其他区域兼并,以增加一定计算量为代价提升目标物体的召回率,一定程度上降低其漏检概率。

Description

一种基于区域建议网络的无人艇水面目标检测方法
技术领域
本发明涉及一种无人艇水面目标检测方法,特指基于区域建议网络的无人艇水面目标检测方法,属于目标检测识别领域。本发明中所提出的方法,可以最大程度地保留潜在目标,降低漏检概率。
背景技术
无人艇的最终目标是自主执行任务,对目标或者障碍物进行检测和定位是自主完成任务的前提,所以无人艇的环境感知***要有较高的准确性和实时性。在多数情况下,无人艇的视觉信息是检测定位方法的主要信息来源,因此快速、准确地获取视觉图像中的信息成为无人艇环境感知***研究的重点之一。海洋环境的复杂性会使成像环境时常出现姿态变化、光照不均匀、水面反射干扰和遮挡等不利条件,使得无人艇水面目标检测变成了一个比较复杂的任务。
2004年,南洋理工大学的萧正莫等人结合图像块的全局稀疏性原理提出了一种无人艇的障碍物检测方法。通过对海面图像进行图像块采样,将可以参与聚类的归为正常环境,不能聚类的部分则被视为障碍物。虽然该算法表现出良好的性能,但只利用了灰度图像和纹理特征,损失了很多海洋图像的具体细节信息如颜色等。
2016年,华中科技大学李畅提出使用显著性来获取区域建议,但是这些区域建议可能会产生虚警。虽然海洋环境有很多干扰,但无人艇周围的障碍物还是非常显著的,可以运用显著性的概念来计算每个区域建议的显著密度来消除虚警。在几个具有挑战性的海洋环境数据集中对算法进行了测试,结果表明算法准确度较高且误报率低。
同年,西北工业大学周祥增提出了一个基于神经网络的检测跟踪定位***。利用相对精确的分割结果解决了目前基于神经网络的检测方法定位精度低的问题,同时使用卡尔曼滤波来跟踪多个帧的对象来提高效率,其结果也比Faster-RCNN方法更加精确。该***具有速度快,鲁棒性好,精度高的特点,能够成功应用于无人艇实践,快速准确地定位目标,但是该模型计算量较大。
发明内容
针对上述现有技术,本发明要解决的技术问题是提供一种基于区域建议网络的无人艇水面目标检测方法,用于无人艇实时检测海天线,为无人艇避障和规划提供必要信息来源。
为解决上述技术问题,本发明的一种基于区域建议网络的无人艇水面目标检测方法,包括以下步骤:
步骤一:收集实艇工作环境下的图像数据,判断图像数据中是否包含目标或障碍物,如果不包含目标或者障碍物,则舍去;如果包含目标或障碍物,则对图像数据进行标注并制成水面目标检测数据集;
步骤二:设计更快速-区域建议网络模型结构,并通过预测结果的标签、位置信息的标准均方误差构造损失函数,并在水面目标检测数据集上训练检测模型至模型收敛,如果不收敛则先在损失函数中加入L2正则化项或者采用批量正则方法重新训练模型至模型收敛,仍不能收敛则采用焦距损失重新设计损失函数并重新训练检测模型至收敛;
步骤三:采用平均检测精度对更快速-区域建议网络模型精确度进行评价,当平均检测精度大于设定阈值,则直接采用此更快速-区域建议网络模型对实艇图像进行检测;否则,返回步骤二;
步骤四:检验步骤三得到的实艇图像检测结果,若没有出现漏检、误检的情况,则退出***;否则,设计基于区域建议网络的精炼模块,并返回至步骤二,直至检测结果未出现漏检、误检的情况,退出***。
本发明有益效果:本发明中,应用更快速-区域神经网络和区域建议网络在线进行水面目标检测,基于特征融合原理,在使用区域建议网络的基础上,修改了锚点的生成机制,提出一种使用特征融合方法构造新的特征层,并将锚点分线路在不同特征图上生成的区域建议方法,同时根据特征图大小采用间隔采样策略减少计算量。方法的优点在于最大程度上保留了潜在目标,每个区域建议都有对应的分类结果而不会被有重叠区域的其他区域兼并,以增加一定计算量为代价提升目标物体的召回率,一定程度上降低其漏检概率。
附图说明
图1是本发明一种基于区域建议网络的无人艇水面目标检测方法流程图;
图2是本发明中区域建议网络结构图;
图3是本发明中更快的区域神经网络结构图;
图4是本发明中特征融合示意图;
图5是本发明中区域建议网络改进示意图。
具体实施方式
下面结合附图对本发明具体实施方式做进一步说明。
本发明提供的是一种基于区域建议网络的无人艇水面目标检测方法,用于无人艇实时检测海天线,为无人艇避障和规划提供必要信息来源。
为了实现上述目的,本发明包含以下步骤:
(1)收集实艇工作环境下的图像数据,舍去不包含目标或者障碍物的图像,将剩下的图像数据进行标注并制成水面目标检测数据集;
(2)设计更快速-区域建议网络模型结构,通过预测结果的标签、位置信息的标准均方误差(Mean Square Error,MSE)构造损失函数,并在水面目标检测数据集上进行训练至模型收敛,如果不收敛则先在损失函数中加入L2正则化项(L2-Regularization)或者采用批量正则方法(Batch-Normalization,BN)重新训练,仍不能收敛则采用焦距损失(FocalLoss,FL) 重新设计损失函数;
(3)采用平均检测精度(mean Average Precision,mAP)对更快速-区域建议网络模型精确度进行评价。若满足要求,则直接采用此更快速-区域建议网络模型对实艇图像进行检测;否则,重新设计更快速-区域建议网络模型结构,将模型训练到收敛。
(4)检验步骤(3)得到的实艇图像检测结果,若没有出现漏检、误检的情况,则退出***;否则,设计基于区域建议网络的精炼模块使模型更适用于无人艇水面目标检测,将修正后的基于区域建议网络的无人艇水面目标检测模型训练到收敛,返回步骤(3),直至检测结果未出现漏检、误检的情况,退出***;
本发明中,还包括这样一些特征:
(1)与传统目标检测方法相比,基于区域建议网络的无人艇水面目标检测方法采用了深度学习原理,通过区域建议网络获得粗略目标建议,再结合分类器对目标或障碍物种类及位置进行回归或精修,相比于传统方法对手工设计特征的依赖性,这种检测方式在节省大量人力计算的同时,在检测成功率和准确率上都有显著的提高。
(2)将标准更快速-区域神经网络(Faster-Regions with CNN features,Faster-RCNN)模型中没有利用的基础骨干网络中的Conv2、Conv3、Conv4卷积层做特征融合,其中Conv2层进行下采样,Conv4层进行上采样,同时使用1×1卷积层来平衡不同特征层之间的数值差异,最后得到融合层(Fusion)作为小目标检测的备用特征图,得到的特征图既具有低层特征图丰富的细节信息,也含有高层特征图的语义信息,无论是对较大目标的成功检测和较小目标的精确定位都有很大的优势。
(3)考虑到区域建议网络在最后的非极大值抑制(Non-Maximum Suppression,NMS)过程中,会将一些重合度高的建议框合并为一个,方法将原始的9种锚点分为3种较小的锚点 (128×128)和6种较大的锚点两部分,较大的6种锚点继续参与区域建议过程,包括非极大值抑制以及Top300浮出过程;而考虑到建议框数量的关系,余下的3种较小的锚点则按照区域间隔采样的方式融合特征图上进行映射、训练等,这样两条线路同步进行,一起输出最终的区域建议框,继而参与到后续Faster-RCNN的分类与回归过程。
本发明具体实施方式还包括:
(1)首先使用高清摄像机收集无人艇实艇航行时的水面图像数据,通过人工标注目标或障碍物,得到约8000张水面目标图像,进一步制作得到标准Pascal-Voc格式水面目标检测数据集,它们都是在离线处理下完成筛选的。
(2)设计无人艇水面目标检测模型初始结构的区域建议网络及分类器,并构造相应的不同损失函数,如图3所示,其中,区域建议网络的损失函数以位置信息误差为主导,而分类器网络以类别信息误差为主导。
水面目标检测模型主要分为两个部分:一是目标区域建议部分;二是分类器进行分类、回归部分。其中,目标区域建议部分是以区域建议网络的形式完成的,区域建议网络也是一个卷积神经网络,不同于整个网络的精确分类,区域建议网络只对可能出现目标的区域做区分,即分为有无目标2类。如图2所示,区域建议网络前5层可以看作骨干网络用于对特征进行提取,之后的层负责对可能目标区域的得分和位置做预测。
在训练区域建议网络的过程中,需要先设置了anchors的标定方法,以下是正样本标定规则:
1)如果Anchor对应的reference box与ground truth的IoU值最大,标记为正样本;
2)如果Anchor对应的reference box与ground truth的IoU>0.7,标记为正样本;
3)负样本标定规则:如果Anchor对应的reference box与ground truth的IoU<0.3,标
记为负样本;
4)剩下的既不是正样本也不是负样本,不用于最终训练;
5)训练RPN的Loss是有分类损失classification loss(即softmax loss)和回归损失
regression loss(即L1loss)按一定比重组成的。
(3)训练得到初步的基于区域建议网络的水面目标检测模型,使用水面目标检测数据集训练模型至收敛。以模型平均检测精度(mean Average Precision,mAP)来评价水面目标检测模型,如果mPA大于0.7代表该模型可以适用于无人艇典型水面环境下的目标检测。如果mPA小于0.7则需要重新设计水面目标检测模型结构。
如图4所示,如果得到了水面目标检测模型,其mAP也符合要求,但是实艇测试时出现漏检或者错检的现象,那么有可能是由于无人艇的小目标检测和目标的遮挡引起的,需要在水面目标检测模型中添加精炼模块。精炼模块的过程是先使用特征融合方法获得质量更好的中层特征图,再将较小锚点在较大特征图上生成区域建议,其余部分不做改变。
考虑到添加精炼模块后需要重新设计损失函数,参考各部分损失和加权相加的做法,设计新的损失函数为:
Figure RE-GDA0002299934250000051
上述公式中k表示当前计算的改进后的RPN网络的支线,即RPN损失可以分为低层特征图上的RPN_loss_1和高层特征图上的RPN_loss_2,Ncls、Nreg、λ均表示优化参数,i表示当前锚点的序列号,pi为每个区域建议框的前景Softmax分数,
Figure RE-GDA0002299934250000052
代表对应的真值概率,即当第i个锚点与真实边界框之间的交并比大于0.7时,则认为是该锚点是前景,反之如果交并比小于0.3时,认为是该锚点是背景,对于剩下的分数在0.3至0.7之间的锚点则不参与训练, t代表预测的边界框,是预测的相对于真值的边界框偏移量。
对于训练样本,pi为锚点预测为目标的概率,
Figure RE-GDA0002299934250000053
为真实值标签:
Figure RE-GDA0002299934250000054
ti={txtytwth}是一个向量,表示预测的边界框的4个参数归一化坐标,而
Figure RE-GDA0002299934250000055
是与正样本锚点(Positive anchors)对应的真实值(Ground truth)边界框的参数归一化坐标。
Figure RE-GDA0002299934250000056
是RPN 网络粗略分类和最后的Fast-RCNN精细分类都采用的对数损失:
Figure RE-GDA0002299934250000057
Figure RE-GDA0002299934250000058
则是RPN网络第一次边界框回归修正和最后的Fast-RCNN边界框精修回归的损失之和,用
Figure RE-GDA0002299934250000059
来计算,其中R是SmoothL1函数。注意到位置回归部分的损失函数是有真实框的概率参与计算的,即
Figure RE-GDA00022999342500000510
其中
Figure RE-GDA00022999342500000511
将可以参与回归计算的锚点限制为只有前景
Figure RE-GDA00022999342500000512
可以看到,整个Loss分为2部分:
第一部分是网络的分类损失,可以分为两块进行统一并最后合并,即RPN_cls_loss层计算的Softmax_loss,用于分类锚点为前景或者背景的概率,第二块则是最后的Fast_RCNN_cls_scores层计算的最终的分类结果的损失函数,这里的分类结果是针对所有目标种类而言的,不再是前背景的二分类了。
第二部分是回归损失,也可以分为两块,即RPN_bbox_loss层计算的SmoothL1函数,用于RPN网络的边界框网络回归训练,在该Loss中引入了参数
Figure RE-GDA00022999342500000513
相当于只计算前景类锚点的回归损失,和第二块Fast_RCNN_bbox_loss,这里是对RPN的前景锚点的第二次位置精修。
在实际计算过程中,由于Ncls和Nreg在数量级上差距过大,用参数λ加权平衡二者,使总的Loss在计算过程中能够均匀考虑这两种不同方向上的Loss。
Figure RE-GDA0002299934250000061
使用的是SmoothL1函数,计算公式如下:
Figure RE-GDA0002299934250000062
Figure RE-GDA0002299934250000063
(4)训练修正后的基于区域建议网络的无人艇水面目标检测模型到收敛,并与标准的更快的区域神经网络模型对比效果。同时比较2个模型在Pascal-VOC2007数据集的测试mAP、在水面数据集结果测试以及特殊目标检测场景测试。具体的有:单目标下的标准Faster-RCNN 与改进区域建议网络的水面目标检测方法的结果和检测速度;多目标下的标准Faster-RCNN 与改进区域建议网络的水面目标检测方法的结果和检测速度;对比有检测障碍区域的检测效果,例如小目标和部分遮挡现象。
得到改进的基于区域建议的水面目标检测模型后,将实艇测试结果与激光雷达雷达信息投影到二维平面进行匹配,验证所提方法的有效性。

Claims (1)

1.一种基于区域建议网络的无人艇水面目标检测方法,其特征在于,包括以下步骤:
步骤一:收集实艇工作环境下的图像数据,判断图像数据中是否包含目标或障碍物,如果不包含目标或者障碍物,则舍去;如果包含目标或障碍物,则对图像数据进行标注并制成水面目标检测数据集;
步骤二:设计更快速-区域建议网络模型结构,并通过预测结果的标签、位置信息的标准均方误差构造损失函数,并在水面目标检测数据集上训练检测模型至模型收敛,如果不收敛则先在损失函数中加入L2正则化项或者采用批量正则方法重新训练模型至模型收敛,仍不能收敛则采用焦距损失重新设计损失函数并重新训练检测模型至收敛;
步骤三:采用平均检测精度对更快速-区域建议网络模型精确度进行评价,当平均检测精度大于设定阈值,则直接采用此更快速-区域建议网络模型对实艇图像进行检测;否则,返回步骤二;
步骤四:检验步骤三得到的实艇图像检测结果,若没有出现漏检、误检的情况,则退出***;否则,设计基于区域建议网络的精炼模块,并返回至步骤二,直至检测结果未出现漏检、误检的情况,退出***。
CN201910915996.1A 2019-09-26 2019-09-26 一种基于区域建议网络的无人艇水面目标检测方法 Pending CN110895680A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910915996.1A CN110895680A (zh) 2019-09-26 2019-09-26 一种基于区域建议网络的无人艇水面目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910915996.1A CN110895680A (zh) 2019-09-26 2019-09-26 一种基于区域建议网络的无人艇水面目标检测方法

Publications (1)

Publication Number Publication Date
CN110895680A true CN110895680A (zh) 2020-03-20

Family

ID=69786274

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910915996.1A Pending CN110895680A (zh) 2019-09-26 2019-09-26 一种基于区域建议网络的无人艇水面目标检测方法

Country Status (1)

Country Link
CN (1) CN110895680A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113485441A (zh) * 2021-08-03 2021-10-08 国网江苏省电力有限公司泰州供电分公司 结合无人机高精度定位和视觉跟踪技术的配网巡检方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106599939A (zh) * 2016-12-30 2017-04-26 深圳市唯特视科技有限公司 一种基于区域卷积神经网络的实时目标检测方法
CN107665336A (zh) * 2017-09-20 2018-02-06 厦门理工学院 智能冰箱中基于Faster‑RCNN的多目标检测方法
CN108334955A (zh) * 2018-03-01 2018-07-27 福州大学 基于Faster-RCNN的身份证复印件检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106599939A (zh) * 2016-12-30 2017-04-26 深圳市唯特视科技有限公司 一种基于区域卷积神经网络的实时目标检测方法
CN107665336A (zh) * 2017-09-20 2018-02-06 厦门理工学院 智能冰箱中基于Faster‑RCNN的多目标检测方法
CN108334955A (zh) * 2018-03-01 2018-07-27 福州大学 基于Faster-RCNN的身份证复印件检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LILI ZHANG 等: "Real-Time Water Surface Object Detection Based on Improved Faster R-CNN", 《SENSORS》 *
杨喻茸: "基于视觉信息引导的舰载无人机精确着舰技术研究", 《中国优秀硕士论文全文数据库 工程科技Ⅱ辑》 *
陈启贤: "典型环境下无人艇的水面多目标检测与定位方法", 《万方数据知识服务平台》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113485441A (zh) * 2021-08-03 2021-10-08 国网江苏省电力有限公司泰州供电分公司 结合无人机高精度定位和视觉跟踪技术的配网巡检方法

Similar Documents

Publication Publication Date Title
CN111201451B (zh) 基于场景的激光数据和雷达数据进行场景中的对象检测的方法及装置
CN107563372B (zh) 一种基于深度学习ssd框架的车牌定位方法
Bovcon et al. WaSR—A water segmentation and refinement maritime obstacle detection network
CN112464994B (zh) 基于PointNet网络的船艇尾浪识别与去除方法
Dowden et al. Sea ice classification via deep neural network semantic segmentation
Haghbayan et al. An efficient multi-sensor fusion approach for object detection in maritime environments
CN114663346A (zh) 一种基于改进YOLOv5网络的带钢表面缺陷检测方法
CN108764470B (zh) 一种人工神经网络运算的处理方法
Prasad et al. Are object detection assessment criteria ready for maritime computer vision?
CN111723632B (zh) 一种基于孪生网络的船舶跟踪方法及***
Liu et al. Ship recognition and tracking system for intelligent ship based on deep learning framework
KR20220045762A (ko) 인공지능 영상 처리를 이용한 선박 자동 인식 및 모니터링 시스템 및 그 제공 방법
Sun et al. IRDCLNet: Instance segmentation of ship images based on interference reduction and dynamic contour learning in foggy scenes
CN115049948A (zh) 基于神经网络模型的无人机巡检方法、装置及相关设备
Alla et al. Vision-based Deep Learning algorithm for Underwater Object Detection and Tracking
Zhang et al. Integrate traditional hand-crafted features into modern CNN-based models to further improve SAR ship classification accuracy
Shi et al. Obstacle type recognition in visual images via dilated convolutional neural network for unmanned surface vehicles
Zhou et al. A real-time scene parsing network for autonomous maritime transportation
CN113933828A (zh) 一种无人艇环境自适应多尺度目标检测方法及***
CN110334703B (zh) 一种昼夜图像中的船舶检测和识别方法
CN110895680A (zh) 一种基于区域建议网络的无人艇水面目标检测方法
Cafaro et al. Towards Enhanced Support for Ship Sailing
CN116310304A (zh) 一种水域图像分割的方法及其分割模型的训练方法、介质
Qu et al. Multi-Task Learning-Enabled Automatic Vessel Draft Reading for Intelligent Maritime Surveillance
Sadhu et al. Obstacle detection for image-guided surface water navigation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200320