CN112183255A - 一种基于深度学习的水下目标视觉识别与姿态估计方法 - Google Patents

一种基于深度学习的水下目标视觉识别与姿态估计方法 Download PDF

Info

Publication number
CN112183255A
CN112183255A CN202010970281.9A CN202010970281A CN112183255A CN 112183255 A CN112183255 A CN 112183255A CN 202010970281 A CN202010970281 A CN 202010970281A CN 112183255 A CN112183255 A CN 112183255A
Authority
CN
China
Prior art keywords
network
feature
underwater
straight line
scale
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010970281.9A
Other languages
English (en)
Inventor
李乐
张辰
井新康
赵海涛
张梅洁
刘卫东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202010970281.9A priority Critical patent/CN112183255A/zh
Publication of CN112183255A publication Critical patent/CN112183255A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的水下目标视觉识别与姿态估计方法。首先通过在基本YOLOV3算法的网络结构中增加两层预测网络,实现对目标不同维度特征的快速识别和高效提取;然后根据目标整体结构特征,选取中心点位于一条直线上的属于两个维度的多个特征标记,根据特征标记在目标图像中的坐标信息,通过最小二乘方法估计直线斜率估计,进而得到目标的姿态角度。该基于深度学习的水下目标视觉识别与姿态估计方法能够实现对常用水下作业工具的快速识别和姿态估计,为水下机器人机械臂抓取作业工具和实施水下作业提供基础。

Description

一种基于深度学习的水下目标视觉识别与姿态估计方法
技术领域
本发明属于目标识别领域,具体涉及一种水下目标识别和姿态估计方法。
背景技术
作业型水下机器人是进行海洋资源探查和开发的重要装备之一,其通常配备有水下机械臂。实现对水下目标的快速高效识别和姿态估计是水下机械臂进行作业的前提。视觉图像处理和特征提取为水下目标识别与姿态估计的一种常用方法。然而受限于复杂水下环境条件(如弱光、浑浊等),传统的水下目标视觉识别方法识别效率低,姿态估计效果不理想。随着深度学习理论的发展,深度卷积神经网络样本训练是实现水下合作目标识别的一条有效技术途径,但是对水下目标姿态估计的效果并不理想。因此,如何综合水下目标特征和深度学习方法优势进行常用水下作业工具快速识别与高效姿态估计是实现作业型水下机器人机械臂高效工作急需突破的关键技术之一。
发明内容
为了克服现有技术的不足,本发明提供了一种基于深度学习的水下目标视觉识别与姿态估计方法。首先通过在基本YOLOV3算法的网络结构中增加两层预测网络,实现对目标不同维度特征的快速识别和高效提取;然后根据目标整体结构特征,选取中心点位于一条直线上的属于两个维度的多个特征标记,根据特征标记在目标图像中的坐标信息,通过最小二乘方法估计直线斜率估计,进而得到目标的姿态角度。该基于深度学习的水下目标视觉识别与姿态估计方法能够实现对常用水下作业工具的快速识别和姿态估计,为水下机器人机械臂抓取作业工具和实施水下作业提供基础。
本发明解决其技术问题所采用的技术方案包括以下步骤:
步骤1:对水下作业工具包中的每件作业工具,手工在作业工具上选取N个特征标记,N≥3;其中一个特征标记为整体维度特征,由作业工具本身构成;其余N-1个特征标记都为局部维度特征,由作业工具的局部结构或组件构成;N个特征标记的中心点位于同一条直线;
步骤2:作业工具目标识别:
步骤2-1:对YOLOV3网络进行改进;保持YOLOV3网络前端特征提取网络不变,前端特征提取网络输出尺度为13*13、26*26、52*52、104*104和208*208的5个特征图;在YOLOV3网络后端预测网络最后面增加两层,分别是:增加的第一层为卷积神经网络,对前端特征提取网络输出的尺度为52*52的特征图进行上采样得到104*104的特征图,再与前端特征提取网络输出的尺度为104*104的特征图融合;增加的第二层为卷积神经网络,对前端特征提取网络输出的尺度为104*104的特征图进行上采样得到208*208的特征图,再与前端特征提取网络输出的尺度为208*208的特征图融合;从而生成改进YOLOV3网络;
步骤2-2:采集总数为A幅的水下作业工具图像作为训练集,采用k-means聚类算法对训练集进行处理得到多个尺度上的锚框,对步骤2-1得到的改进YOLOV3网络进行训练,训练迭代步数为B步;得到训练完成的改进YOLOV3网络;
步骤2-3:将水下作业工具图像输入步骤2-2训练完成的改进YOLOV3网络,通过训练完成的改进YOLOV3网络的前端特征提取网络提取作业工具图像特征,得到5个尺度的特征图,5个尺度分别为13*13、26*26、52*52、104*104和208*208;
步骤2-4:利用训练完成的改进YOLOV3网络的后端预测网络对步骤2-3中得到的5个尺度的特征图进行检测和融合,得到步骤1中手工标记的作业工具的任意一个特征标记在任意一个尺度上对应的边界框中心点坐标(tx,ty)、宽度tw和高度th
步骤2-5:对步骤2-4得到的边界框中心点坐标(tx,ty)、宽度tw和高度th利用下面(1)-(4)式进行归一化处理,具体如下:
bx=σ(tx)+cx (1)
by=σ(ty)+cy (2)
Figure BDA0002683806470000021
Figure BDA0002683806470000022
其中:σ为sigmoid函数,取值范围为(0,1);(bx,by)为归一化之后的边界框中心点坐标,bw为归一化之后的边界框宽度,bh为归一化之后的边界框高度,cx,cy取值均为1;pw,ph为相应尺度上的锚框映射到特征图中的宽和高;
步骤2-6:重复步骤2-4和步骤2-5,通过训练完成的改进YOLOV3网络的后端预测网络得到N个特征标记在5个尺度上对应的所有边界框的中心点坐标、宽度和高度,再进行归一化处理;
步骤2-7:对步骤2-6归一化处理之后的边界框的中心点坐标、宽度和高度按不同的特征标记分类进行非极大值抑制处理,得到最终识别和特征提取结果,即作业工具中N个特征标记的边界框中心点坐标(x1,y1)、(x2,y2)、…(xN,yN),边界框宽度w1,w2,...,wN和高度h1,h2,...,hN
步骤3:采用最小二乘法对N个中心点(x1,y1)、(x2,y2)、…(xN,yN)进行拟合得到一条直线,通过下式(5)估计直线斜率k;
设直线方程为:y=kx+b,则直线斜率k估计为:
Figure BDA0002683806470000031
其中
Figure BDA0002683806470000032
为x1,x2,…,xN的平均值,(xi,yi)为第i个边界框中心点坐标,b为直线截距;
步骤4:由步骤3得到的直线斜率k计算得到水下作业工具在图像平面中的姿态角。
优选地,所述N=3。
优选地,所述A=500,B=10000。
本发明的有益效果是:
1、与传统的水下目标视觉识别方法相比,本发明改进YOLOV3网络的水下目标识别算法可以实现对水下目标多维特征信息的快速识别和有效提取,提升了水下目标识别的准确性和快速性。
2、融合多维特征标记的水下目标姿态估计算法能利用中心点位于一条直线上属于两个维度的的多个个水下目标特征标记在目标图像中的坐标信息,通过最小二乘法估计直线斜率并得到目标的姿态角度,方法易于实现且执行速度快,提高了水下目标姿态估计的效果。
附图说明
图1为本发明所提出的改进YOLOV3网络结构示意图。
图2为本发明实施例的扳手特征标记选取图。
图3为本发明实施例所特征标记识别结果图。
图中:1-扳手本体,2-扳手头部,3-扳手尾部,4-改进YOLOV3网络,5-前端特征提取网络,6-后端预测网络,7-扳手尾部特征标记边界框,8-扳手头部特征标记边界框,9-扳手本体特征标记边界框。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
如图1所示,本发明提供了一种基于深度学习的水下目标视觉识别与姿态估计方法,包括以下步骤:
步骤1:对水下作业工具包中的每件作业工具,手工在作业工具上选取N个特征标记,N≥3;其中一个特征标记为整体维度特征,由作业工具本身构成;其余N-1个特征标记都为局部维度特征,由作业工具的局部结构或组件构成;N个特征标记的中心点位于同一条直线;
步骤2:作业工具目标识别:
步骤2-1:对YOLOV3网络进行改进;保持YOLOV3网络前端特征提取网络不变,前端特征提取网络输出尺度为13*13、26*26、52*52、104*104和208*208的5个特征图;在YOLOV3网络后端预测网络最后面增加两层,分别是:增加的第一层为卷积神经网络,对前端特征提取网络输出的尺度为52*52的特征图进行上采样得到104*104的特征图,再与前端特征提取网络输出的尺度为104*104的特征图融合;增加的第二层为卷积神经网络,对前端特征提取网络输出的尺度为104*104的特征图进行上采样得到208*208的特征图,再与前端特征提取网络输出的尺度为208*208的特征图融合;从而生成改进YOLOV3网络;
步骤2-2:采集总数为500幅的水下作业工具图像作为训练集,采用k-means聚类算法对训练集进行处理得到多个尺度上的锚框,对步骤2-1得到的改进YOLOV3网络进行训练,训练迭代步数为10000步;得到训练完成的改进YOLOV3网络;
步骤2-3:将水下作业工具图像输入步骤2-2训练完成的改进YOLOV3网络,通过训练完成的改进YOLOV3网络的前端特征提取网络提取作业工具图像特征,得到5个尺度的特征图,5个尺度分别为13*13、26*26、52*52、104*104和208*208;
步骤2-4:利用训练完成的改进YOLOV3网络的后端预测网络对步骤2-3中得到的5个尺度的特征图进行检测和融合,得到步骤1中手工标记的作业工具的任意一个特征标记在任意一个尺度上对应的边界框中心点坐标(tx,ty)、宽度tw和高度th
步骤2-5:对步骤2-4得到的边界框中心点坐标(tx,ty)、宽度tw和高度th利用下面(1)-(4)式进行归一化处理,具体如下:
bx=σ(tx)+cx (1)
by=σ(ty)+cy (2)
Figure BDA0002683806470000051
Figure BDA0002683806470000052
其中:σ为sigmoid函数,取值范围为(0,1);(bx,by)为归一化之后的边界框中心点坐标,bw为归一化之后的边界框宽度,bh为归一化之后的边界框高度,cx,cy取值均为1;pw,ph为相应尺度上的锚框映射到特征图中的宽和高;
步骤2-6:重复步骤2-4和步骤2-5,通过训练完成的改进YOLOV3网络的后端预测网络得到N个特征标记在5个尺度上对应的所有边界框的中心点坐标、宽度和高度,再进行归一化处理;
步骤2-7:对步骤2-6归一化处理之后的边界框的中心点坐标、宽度和高度按不同的特征标记分类进行非极大值抑制处理,得到最终识别和特征提取结果,即作业工具中N个特征标记的边界框中心点坐标(x1,y1)、(x2,y2)、…(xN,yN),边界框宽度w1,w2,...,wN和高度h1,h2,...,hN
步骤3:采用最小二乘法对N个中心点(x1,y1)、(x2,y2)、…(xN,yN)进行拟合得到一条直线,通过下式(5)估计直线斜率k;
设直线方程为:y=kx+b,则直线斜率k估计为:
Figure BDA0002683806470000053
其中
Figure BDA0002683806470000054
为x1,x2,…,xN的平均值,(xi,yi)为第i个边界框中心点坐标,b为直线截距;
步骤4:由步骤3得到的直线斜率k计算得到水下作业工具在图像平面中的姿态角。
具体实施例:
1、根据作业工具的整体结构,选取中心点位于同一条直线上属于两个维度的三个特征标记。其中,第一个特征标记为作业工具本身(整体维度),第二个特征标记和第三个标记为作业工具上的局部结构或组件(局部维度)。对于常用工具扳手,如图2,根据扳手的特殊机械结构分别选取三个特征标记为:扳手本体1、扳手头部2、和扳手尾部3。
2、将水下作业工具图像输入改进YOLOV3的水下目标识别算法,得到三个特征标记对应的三个边界框,以及三个边界框中心点的坐标(x1,y1)、(x2,y2)、和(x3,y3)。
3、采用最小二乘法对(x1,y1)、(x2,y2)、和(x3,y3)三个中心点进行拟合得到一条直线,通过公式(5)估计直线斜率k。
4、在图像平面坐标系里,取正南方向为0度方向,角度范围为顺时针0-360度,根据角度方向规定,结合直线斜率k与倾斜角关系,得到水下目标在图像平面中的姿态角,为水下机器人机械臂抓取作业工具和实施水下作业提供基础。

Claims (3)

1.一种基于深度学习的水下目标视觉识别与姿态估计方法,其特征在于,包括以下步骤:
步骤1:对水下作业工具包中的每件作业工具,手工在作业工具上选取N个特征标记,N≥3;其中一个特征标记为整体维度特征,由作业工具本身构成;其余N-1个特征标记都为局部维度特征,由作业工具的局部结构或组件构成;N个特征标记的中心点位于同一条直线;
步骤2:作业工具目标识别:
步骤2-1:对YOLOV3网络进行改进;保持YOLOV3网络前端特征提取网络不变,前端特征提取网络输出尺度为13*13、26*26、52*52、104*104和208*208的5个特征图;在YOLOV3网络后端预测网络最后面增加两层,分别是:增加的第一层为卷积神经网络,对前端特征提取网络输出的尺度为52*52的特征图进行上采样得到104*104的特征图,再与前端特征提取网络输出的尺度为104*104的特征图融合;增加的第二层为卷积神经网络,对前端特征提取网络输出的尺度为104*104的特征图进行上采样得到208*208的特征图,再与前端特征提取网络输出的尺度为208*208的特征图融合;从而生成改进YOLOV3网络;
步骤2-2:采集总数为A幅的水下作业工具图像作为训练集,采用k-means聚类算法对训练集进行处理得到多个尺度上的锚框,对步骤2-1得到的改进YOLOV3网络进行训练,训练迭代步数为B步;得到训练完成的改进YOLOV3网络;
步骤2-3:将水下作业工具图像输入步骤2-2训练完成的改进YOLOV3网络,通过训练完成的改进YOLOV3网络的前端特征提取网络提取作业工具图像特征,得到5个尺度的特征图,5个尺度分别为13*13、26*26、52*52、104*104和208*208;
步骤2-4:利用训练完成的改进YOLOV3网络的后端预测网络对步骤2-3中得到的5个尺度的特征图进行检测和融合,得到步骤1中手工标记的作业工具的任意一个特征标记在任意一个尺度上对应的边界框中心点坐标(tx,ty)、宽度tw和高度th
步骤2-5:对步骤2-4得到的边界框中心点坐标(tx,ty)、宽度tw和高度th利用下面(1)-(4)式进行归一化处理,具体如下:
bx=σ(tx)+cx (1)
by=σ(ty)+cy (2)
Figure FDA0002683806460000021
Figure FDA0002683806460000022
其中:σ为sigmoid函数,取值范围为(0,1);(bx,by)为归一化之后的边界框中心点坐标,bw为归一化之后的边界框宽度,bh为归一化之后的边界框高度,cx,cy取值均为1;pw,ph为相应尺度上的锚框映射到特征图中的宽和高;
步骤2-6:重复步骤2-4和步骤2-5,通过训练完成的改进YOLOV3网络的后端预测网络得到N个特征标记在5个尺度上对应的所有边界框的中心点坐标、宽度和高度,再进行归一化处理;
步骤2-7:对步骤2-6归一化处理之后的边界框的中心点坐标、宽度和高度按不同的特征标记分类进行非极大值抑制处理,得到最终识别和特征提取结果,即作业工具中N个特征标记的边界框中心点坐标(x1,y1)、(x2,y2)、…(xN,yN),边界框宽度w1,w2,...,wN和高度h1,h2,...,hN
步骤3:采用最小二乘法对N个中心点(x1,y1)、(x2,y2)、…(xN,yN)进行拟合得到一条直线,通过下式(5)估计直线斜率k;
设直线方程为:y=kx+b,则直线斜率k估计为:
Figure FDA0002683806460000023
其中
Figure FDA0002683806460000024
为x1,x2,…,xN的平均值,(xi,yi)为第i个边界框中心点坐标,b为直线截距;
步骤4:由步骤3得到的直线斜率k计算得到水下作业工具在图像平面中的姿态角。
2.根据权利要求1所述的一种基于深度学习的水下目标视觉识别与姿态估计方法,其特征在于,所述N=3。
3.根据权利要求1所述的一种基于深度学习的水下目标视觉识别与姿态估计方法,其特征在于,所述A=500,B=10000。
CN202010970281.9A 2020-09-15 2020-09-15 一种基于深度学习的水下目标视觉识别与姿态估计方法 Pending CN112183255A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010970281.9A CN112183255A (zh) 2020-09-15 2020-09-15 一种基于深度学习的水下目标视觉识别与姿态估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010970281.9A CN112183255A (zh) 2020-09-15 2020-09-15 一种基于深度学习的水下目标视觉识别与姿态估计方法

Publications (1)

Publication Number Publication Date
CN112183255A true CN112183255A (zh) 2021-01-05

Family

ID=73921185

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010970281.9A Pending CN112183255A (zh) 2020-09-15 2020-09-15 一种基于深度学习的水下目标视觉识别与姿态估计方法

Country Status (1)

Country Link
CN (1) CN112183255A (zh)

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104318233A (zh) * 2014-10-19 2015-01-28 温州大学 车牌图像水平倾斜校正方法
CN105678296A (zh) * 2015-12-30 2016-06-15 小米科技有限责任公司 确定字符倾斜角度的方法及装置
CN107590498A (zh) * 2017-09-27 2018-01-16 哈尔滨工业大学 一种基于字符分割级联二分类器的自适应汽车仪表检测方法
CN107609453A (zh) * 2016-07-11 2018-01-19 北京君正集成电路股份有限公司 一种车牌图像校正、车牌字符分割方法及设备
KR101885839B1 (ko) * 2017-03-14 2018-08-06 중앙대학교 산학협력단 객체추적을 위한 특징점 선별 장치 및 방법
CN108764178A (zh) * 2018-05-31 2018-11-06 中国民航大学 一种手指三模态特征图像姿态同步采集装置及控制方法
CN108961221A (zh) * 2018-06-15 2018-12-07 哈尔滨工业大学 一种航空插头现场静态图像检测算法
CN109508710A (zh) * 2018-10-23 2019-03-22 东华大学 基于改进YOLOv3网络的无人车夜间环境感知方法
CN110210320A (zh) * 2019-05-07 2019-09-06 南京理工大学 基于深度卷积神经网络的多目标无标记姿态估计方法
CN110458798A (zh) * 2019-06-20 2019-11-15 长沙理工大学 基于关键点检测的防振锤缺陷视觉检测方法、***及介质
CN110472573A (zh) * 2019-08-14 2019-11-19 北京思图场景数据科技服务有限公司 一种基于身体关键点的人体行为分析方法、设备以及计算机存储介质
CN110796168A (zh) * 2019-09-26 2020-02-14 江苏大学 一种基于改进YOLOv3的车辆检测方法
CN110909738A (zh) * 2019-11-15 2020-03-24 杭州远鉴信息科技有限公司 一种基于关键点检测的指针仪表自动读数方法
CN111104940A (zh) * 2018-10-26 2020-05-05 深圳怡化电脑股份有限公司 图像旋转校正方法、装置、电子设备及存储介质
CN111353544A (zh) * 2020-03-05 2020-06-30 天津城建大学 一种基于改进的Mixed Pooling-YOLOV3目标检测方法
CN111401148A (zh) * 2020-02-27 2020-07-10 江苏大学 一种基于改进的多级YOLOv3的道路多目标检测方法
CN111488874A (zh) * 2020-04-03 2020-08-04 中国农业大学 一种指针式仪表倾斜校正方法及***
CN111553406A (zh) * 2020-04-24 2020-08-18 上海锘科智能科技有限公司 基于改进yolo-v3的目标检测***、方法及终端

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104318233A (zh) * 2014-10-19 2015-01-28 温州大学 车牌图像水平倾斜校正方法
CN105678296A (zh) * 2015-12-30 2016-06-15 小米科技有限责任公司 确定字符倾斜角度的方法及装置
CN107609453A (zh) * 2016-07-11 2018-01-19 北京君正集成电路股份有限公司 一种车牌图像校正、车牌字符分割方法及设备
KR101885839B1 (ko) * 2017-03-14 2018-08-06 중앙대학교 산학협력단 객체추적을 위한 특징점 선별 장치 및 방법
CN107590498A (zh) * 2017-09-27 2018-01-16 哈尔滨工业大学 一种基于字符分割级联二分类器的自适应汽车仪表检测方法
CN108764178A (zh) * 2018-05-31 2018-11-06 中国民航大学 一种手指三模态特征图像姿态同步采集装置及控制方法
CN108961221A (zh) * 2018-06-15 2018-12-07 哈尔滨工业大学 一种航空插头现场静态图像检测算法
CN109508710A (zh) * 2018-10-23 2019-03-22 东华大学 基于改进YOLOv3网络的无人车夜间环境感知方法
CN111104940A (zh) * 2018-10-26 2020-05-05 深圳怡化电脑股份有限公司 图像旋转校正方法、装置、电子设备及存储介质
CN110210320A (zh) * 2019-05-07 2019-09-06 南京理工大学 基于深度卷积神经网络的多目标无标记姿态估计方法
CN110458798A (zh) * 2019-06-20 2019-11-15 长沙理工大学 基于关键点检测的防振锤缺陷视觉检测方法、***及介质
CN110472573A (zh) * 2019-08-14 2019-11-19 北京思图场景数据科技服务有限公司 一种基于身体关键点的人体行为分析方法、设备以及计算机存储介质
CN110796168A (zh) * 2019-09-26 2020-02-14 江苏大学 一种基于改进YOLOv3的车辆检测方法
CN110909738A (zh) * 2019-11-15 2020-03-24 杭州远鉴信息科技有限公司 一种基于关键点检测的指针仪表自动读数方法
CN111401148A (zh) * 2020-02-27 2020-07-10 江苏大学 一种基于改进的多级YOLOv3的道路多目标检测方法
CN111353544A (zh) * 2020-03-05 2020-06-30 天津城建大学 一种基于改进的Mixed Pooling-YOLOV3目标检测方法
CN111488874A (zh) * 2020-04-03 2020-08-04 中国农业大学 一种指针式仪表倾斜校正方法及***
CN111553406A (zh) * 2020-04-24 2020-08-18 上海锘科智能科技有限公司 基于改进yolo-v3的目标检测***、方法及终端

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHANGYOU LI ET AL: "Skew detection of track images based on wavelet transform and linear least square fitting", 《2009 INTERNATIONAL CONFERENCE ON INFORMATION AND AUTOMATION》 *
范丽等: "基于YOLOv3模型的实时行人检测改进算法", 《山西大学学报(自然科学版)》 *
陆亚涵: "变电站电力表计检测与读数识别算法研究", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》 *

Similar Documents

Publication Publication Date Title
CN111775152B (zh) 基于三维测量引导机械臂抓取散乱堆叠工件的方法及***
CN108665496B (zh) 一种基于深度学习的端到端的语义即时定位与建图方法
CN111080693A (zh) 一种基于YOLOv3的机器人自主分类抓取方法
WO2022017131A1 (zh) 点云数据的处理方法、智能行驶控制方法及装置
CN112509063A (zh) 一种基于边缘特征匹配的机械臂抓取***及方法
CN111862201A (zh) 一种基于深度学习的空间非合作目标相对位姿估计方法
CN109048918B (zh) 一种轮椅机械臂机器人的视觉引导方法
CN103413352A (zh) 基于rgbd多传感器融合的场景三维重建方法
CN113052109A (zh) 一种3d目标检测***及其3d目标检测方法
CN110533716B (zh) 一种基于3d约束的语义slam***及方法
CN112734844B (zh) 一种基于正八面体的单目6d位姿估计方法
CN110135277B (zh) 一种基于卷积神经网络的人体行为识别方法
Arain et al. Improving underwater obstacle detection using semantic image segmentation
CN113888461A (zh) 基于深度学习的小五金件缺陷检测方法、***及设备
CN113034600A (zh) 基于模板匹配的无纹理平面结构工业零件识别和6d位姿估计方法
CN114140418A (zh) 一种基于rgb图像和深度图像的七自由度抓取姿势检测方法
CN111914832B (zh) 一种rgb-d相机在动态场景下的slam方法
Sun et al. Accurate lane detection with atrous convolution and spatial pyramid pooling for autonomous driving
CN113343875A (zh) 一种用于机器人的可行驶区域感知方法
CN116030130A (zh) 一种动态环境下的混合语义slam方法
CN113295171B (zh) 一种基于单目视觉的旋转刚体航天器姿态估计方法
CN106650814B (zh) 一种基于车载单目视觉室外道路自适应分类器生成方法
CN112183255A (zh) 一种基于深度学习的水下目标视觉识别与姿态估计方法
CN107248171B (zh) 一种基于三角剖分的单目视觉里程计尺度恢复方法
Zhang et al. Depth Monocular Estimation with Attention-based Encoder-Decoder Network from Single Image

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20210105