CN112232132A - 一种融合导航信息的目标识别定位方法 - Google Patents

一种融合导航信息的目标识别定位方法 Download PDF

Info

Publication number
CN112232132A
CN112232132A CN202010988347.7A CN202010988347A CN112232132A CN 112232132 A CN112232132 A CN 112232132A CN 202010988347 A CN202010988347 A CN 202010988347A CN 112232132 A CN112232132 A CN 112232132A
Authority
CN
China
Prior art keywords
target
scale
anchor
detection
aircraft
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010988347.7A
Other languages
English (en)
Inventor
王辉
贾自凯
林德福
宋韬
何绍溟
郑多
范世鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN202010988347.7A priority Critical patent/CN112232132A/zh
Publication of CN112232132A publication Critical patent/CN112232132A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)

Abstract

本发明公开了一种融合导航信息的目标识别定位方法,所述方法包括通过结合飞行器高度计给出的高度信息,获得目标在视场中最大像素,将全局随机anchor问题优化为小尺度范围内随机anchor,提高了检测的效率;同时,通过导航设备可以解算得到目标的实际位置。本发明提供的融合导航信息的目标识别定位方法,能够实现对地面目标的快速、精确定位,检测效率提高76.2%。

Description

一种融合导航信息的目标识别定位方法
技术领域
本发明涉及计算机视觉和遥感目标检测技术领域,具体涉及一种融合导航信息的目标识别定位方法。
背景技术
在飞行器对遥感目标检测领域,随着目标检测场景的不断复杂变化,传统图像处理的目标检测算法运算量越来越大,逐渐不能满足要求。近年来,机器学习发展迅速,机器视觉和机器学习想结合越来越成为一种发展趋势。在卷积神经网络出现之后,目标检测速度和准确度都有了很大提升,如基于深度学习的YOLO算法和SSD算法,该类算法采用直接回归的思想,利用卷积网络直接输出目标位置信息和类别信息,同时输出目标置信度评分,其优势是检测速度非常快,检测精度也较之前有很大提升。基于深度学习的目标检测R-CNN系列算法使得检测精度又得到了进一步的提升,但由于引入较大计算量,检测实时性不如YOLO算法和SSD算法。目前,YOLOv3系列算法是权衡检测速度和检测精度两个性能后的折中选择。
影响卷积神经网络检测算法速度的一个重要因素为卷积网络中anchor(锚)的尺寸设置问题,研究者为了特定的检测目标和检测性能,需设置不同的anchor尺寸,而设置anchor尺寸的依据又各自不同,如逐步减小anchor尺寸或通过随机实验确定效果最好的anchor尺寸等。
但是,在实际检测过程中,训练阶段如果采用网络模型中原有的anchor设置,会导致检测速度和检测精度均不够好;如果根据训练数据集逐步减小anchor尺寸,运算量较大;通过随机实验确定训练阶段的anchor,会具有一定的偶然性和特殊性,导致检测算法泛化能力较低。
因此,如何设置anchor以及如何获得设置anchor的根据是优化检测效果的关键,亟需提供一种优化检测效果的方法,以提高飞行器对遥感目标的检测性能。
发明内容
为了克服上述问题,本发明人进行了锐意研究,设计出一种融合导航信息的目标识别定位方法,该方法通过结合飞行器高度计给出的高度信息,获得得到目标在视场中最大像素,将全局随机anchor问题优化为小尺度范围内随机anchor,提高了检测的效率;同时,通过导航设备可以解算得到目标的实际位置,可以实现对地面目标的快速、精确定位,从而完成了本发明。
具体来说,本发明的目的在于提供以下方面:
第一方面,提供一种融合导航信息的目标识别定位方法,所述方法包括以下步骤:
步骤1,训练获得目标检测网络;
步骤2,获得待检测图像;
步骤3,对待检测图像进行目标检测;
步骤4,对目标进行定位。
其中,步骤1包括以下子步骤:
步骤1-1,对训练数据集进行标注;
步骤1-2,构建检测网络;
步骤1-3,对网络的anchor尺度进行修改;
步骤1-4,训练网络至收敛。
其中,步骤1-3中,根据训练集的目标尺度范围修改网络不同特征层的anchor尺度,优选通过下式获得:
Figure BDA0002689991150000031
其中,Sk表示每个特征层的先验框与原图片大小之比;Smax表示最高层的特征层的尺度值,Smin表示最底层的特征层的尺度值,具体根据检测目标情况设置;m表示特征层个数;k表示第几个特征层。
其中,步骤3包括以下子步骤:
步骤3-1,对待检测图像进行特征提取,获得多层特征图;
步骤3-2,确定检测网络的anchor尺度;
步骤3-3,根据上述确定的anchor尺度,在特征图每个点上生成多个目标框;
步骤3-4,获得待检测目标的类别和坐标信息。
其中,步骤3-2包括以下子步骤:
步骤3-2-1,根据相机高度信息及相机成像规则,确定目标成像尺度;
步骤3-2-2,根据获得的目标成像尺度,确定不同层特征图中的anchor尺度。
其中,步骤4中,首先获得目标相对于飞行器的位置,再根据飞行器导航设备获得飞行器自身位置,进而获得检测目标的实际位置。
第二方面,提供一种融合导航信息的目标识别定位***,其中,所述***包括图像获取单元、飞行器信息获取单元、目标检测单元和目标定位单元,
其中,图像获取单元用于获得待检测目标的图像;
飞行器信息获取单元用于获得飞行器的高度和位置;
目标检测单元用于获得目标类别和坐标信息;
目标定位单元用于获得目标的实际位置。
其中,所述目标检测单元包括特征提取子单元和anchor尺度设置子单元,
其中,特征提取子单元用于获得待检测图像的多层特征图;
anchor尺度设置子单元用于根据目标成像尺度,确定不同层特征图中的anchor尺度。
第三方面,提供一种计算机可读存储介质,其中,存储有融合导航信息的目标识别定位程序,所述程序被处理器执行时,使得处理器执行所述融合导航信息的目标识别定位方法的步骤。
第四方面,提供一种计算机设备,包括存储器和处理器,其中,所述存储器存储有融合导航信息的目标识别定位程序,所述程序被处理器执行时,使得处理器执行所述融合导航信息的目标识别定位方法的步骤。
本发明所具有的有益效果包括:
(1)本发明提供的融合导航信息的目标识别定位方法,根据飞行器的高度获得目标在视场中的最大像素,将将全局随机anchor问题优化为小尺度范围内随机anchor,使得检测效率提高76.2%;
(2)本发明提供的融合导航信息的目标识别定位方法,根据目标相对于相机的视线角度和高度信息,可以得到目标相对相机距离,同时通过导航设备,获得目标的精确位置;
(3)本发明提供的融合导航信息的目标识别定位方法,能够实现对地面目标的快速、精确定位。
附图说明
图1示出YOLOv3中的anchor的窗口尺寸示意图,其中,不同颜色代表不同面积尺寸;
图2示出根据本发明一种优选实施方式的训练数据集标注目标示意图;
图3示出根据本发明一种优选实施方式的相机成像示意图;
图4示出根据本发明一种优选实施方式的相机坐标系示意图。
具体实施方式
下面通过优选实施方式和实施例对本发明进一步详细说明。通过这些说明,本发明的特点和优点将变得更为清楚明确。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
本发明人发现,anchor的本质是SPP(spatial pyramid pooling)思想的逆向,而SPP是将不同尺寸的输入resize成为相同尺寸的输出,由此可知,anchor的本质是根据相同尺寸的输出,倒推得到不同尺寸的输入。
例如,对于YOLOv3中的anchor的窗口尺寸,三个面积尺寸分别为1282,2562,5122,然后在每个面积尺寸下,取三种不同的长宽比例(1:1,1:2,2:1),可以得到9种面积尺寸各异的anchor,如图1所示。
而全局anchor的设置导致运算量较大,影响检测效率。
因此,本发明中采用基于卷积神经网络的目标检测算法,优选将全局随机anchor问题优化为小尺度范围内随机anchor,以提高检测的效率;同时将GPS位置信息应用到目标定位环节,实现对地面目标的精确定位。
本发明提供了一种融合导航信息的目标识别定位方法,所述方法包括训练检测网络,并利用检测网络进行识别定位的步骤,
优选地,所述方法包括以下步骤:
步骤1,训练获得目标检测网络;
步骤2,获得待检测图像;
步骤3,对待检测图像进行目标检测;
步骤4,对目标进行定位。
以下进一步描述本发明所述融合导航信息的目标识别定位方法:
步骤1,训练获得目标检测网络。
其中,步骤1包括以下子步骤:
步骤1-1,对训练数据集进行标注。
基于深度学习的目标检测算法,针对不同应用场景需准备不同类型的数据集,在本发明中,采用大尺度遥感图像作为训练数据集,如VisDrone、DOTA数据集等。
具体地,在标注目标时,标注目标的外接矩形框如图2所示。以标注文件中其中一条的标注信息为例,内容如下:
{"area":169,"bbox":[102,81,13,13],"category_name":"car"}
其中,area数值代表矩形框区域的像素面积;bbox后的四个数值:第一个数值代表矩形框左上角相对图片左上角水平像素坐标,向右为正;第二个数值代表矩形框左上角相对图片左上角竖直像素坐标,向下为正;第三个数值代表矩形框宽度;第四个数值代表矩形框高度;category_name代表目标类别。
步骤1-2,构建检测网络。
其中,构建多层卷积的深度残差网络,即深度卷积网络。本发明中优选以ResNet101作为基础网络构造新的特征提取网络。
步骤1-3,对网络的anchor尺度进行修改。
根据本发明一种优选的实施方式,根据训练集的目标尺度范围修改网络不同特征层的anchor尺度,优选通过下式获得:
Figure BDA0002689991150000071
其中,Sk表示每个特征层的先验框与原图片大小之比;Smax表示最高层的特征层的尺度值,Smin表示最底层的特征层的尺度值,具体根据检测目标情况设置;m表示特征层个数;k表示第几个特征层。
在本发明中,根据训练数据集的目标尺度范围,确定一组Smax和Smin,作为训练网络的初值。
步骤1-4,训练网络至收敛。
其中,对预训练后的深层残差网络,采用标注后的训练数据集,根据图像类别标号训练检测网络,更新网络参数,直至获得收敛的检测网络。
步骤2,获得待检测图像。
在本发明中,飞行器飞行时,通过视觉相机获得待检测目标的图像。其中,飞行器可以为无人飞行器,如无人机,也可以为载人飞行器。
根据本发明一种优选的实施方式,飞行器飞行时,还需要获得飞行器的高度和位置;
优选地,所述飞行器的高度通过高度计获得,飞行器的位置通过导航设备获得。
步骤3,对待检测图像进行目标检测。
其中,步骤3包括以下子步骤:
步骤3-1,对待检测图像进行特征提取,获得多层特征图。
其中,将待检测图像通过步骤1训练获得的检测网络(包括主干网络和特征提取网络),获得多层特征图。
步骤3-2,确定检测网络的anchor尺度。
针对现有技术中全局anchor的设置导致运算量大、随机实验确定anchor尺度导致泛化能力低的问题,本发明人经过研究发现:根据目标位于视觉相机正下方时其在相机中成像最大的原理,可以根据目标实际尺寸范围获得其成像像素范围,进而可以将成像像素范围作为检测结构中的最大anchor尺寸,显著提高了检测速度。
具体地,步骤3-2包括以下子步骤:
步骤3-2-1,根据相机高度信息及相机成像规则,确定目标成像尺度。
其中,利用高度计可以获得相机的高度信息;相机的成像规则如图3所示。
具体地:设检测目标上有两点P1和P2,在相机坐标系下的坐标分别为P1=[X1 Y1Z1]T,P2=[X2 Y2 Z2]T
两点在图像中的位置坐标分别为p1=[u1 v1]T,p2=[u2 v2]T
相机成像模型如下所示:
Figure BDA0002689991150000081
Figure BDA0002689991150000082
其中,fx=αf,fy=βf,单位均为像素;f为相机焦距,单位为毫米;α、β为每毫米像素个数,单位为像素每毫米。
点P1和P2在图像上投影的距离通过下式获得:
Figure BDA0002689991150000083
(像素)
Figure BDA0002689991150000084
(像素)
当目标位于相机正下方时在相机中成像最大,根据目标实际尺寸范围、高度计获得的相机高度和成像原理,即可获得目标成像尺度。
步骤3-2-2,根据获得的目标成像尺度,确定不同层特征图中的anchor尺度。
根据本发明一种优选的实施方式,根据获得的目标成像尺度,通过下式获得不同层特征图的anchor尺度范围:
Figure BDA0002689991150000091
其中,Sk表示每个特征层的先验框与原图片大小之比;Smax和Smin分别表示最顶层和最底层的特征层的尺度值,具体根据检测目标情况设置;m表示特征层个数;k表示第几个特征层。
根据获得的待检测目标成像尺度,更新训练时确定的Smax和Smin,从而更新anchor尺度。
步骤3-3,根据上述确定的anchor尺度,在特征图每个点上生成多个目标框。
在本发明中,由于不同特征层对应到原图上的感受野不同,使得在不同特征层上生成的目标框大小不一。生成目标框时,在特征层上的每个点上生成一系列同心的目标框,使用m个不同大小的特征层来做预测,最底层的特征层的尺度值为Smin,最高层的特征层的尺度值为Smax,其他层通过下式得到:
Figure BDA0002689991150000092
使用不同的宽高比ratio值,即γ(宽高比)=[1,2,3,1/2,1/3],因此每个anchor宽
Figure BDA0002689991150000093
Figure BDA0002689991150000094
当γ=1时,增加一个尺度的anchor,
Figure BDA0002689991150000095
步骤3-4,获得待检测目标的类别和坐标信息。
在本发明中,优选通过NMS非极大值抑制输出最优目标框位置,得到目标中心在视场中的坐标位置,即目标框的中心x,y及目标框的宽高w、h;同时输出目标类别信息。
步骤4,对目标进行定位。
其中,步骤4包括以下子步骤:
步骤4-1,获得目标相对于飞行器的位置。
在本发明中,如图4所示,首先定义相机坐标系、坐标原点即x轴、y轴,则目标在相机坐标系下的像素坐标为(x0,y0),相机系中心点坐标为(xc,yc)。
优选地,忽略视觉相机的摄像头中心与飞行器中心的安装误差,可近似认为(xc,yc)为无人机的中心,
根据本发明一种优选的实施方式,将目标的像素与飞行器中心的像素坐标归一化,通过下式获得像素误差:
Figure BDA0002689991150000101
Figure BDA0002689991150000102
在进一步优选的实施方式中,通过下式将相机坐标系下的像素误差转化成飞行器稳定坐标系下的x、y方向的位置误差:
Figure BDA0002689991150000103
Figure BDA0002689991150000104
其中,ex、ey为机体稳定坐标系下目标位置偏差;H为飞行器的当前高度,θ1与θ2(分别为相机摄像头x、y方向的视场角,为摄像头的固有参数;K(为经验系数,优选为
Figure BDA0002689991150000105
通过上述步骤能够获得目标相对于飞行器的方向定位。
步骤4-2,获得目标的实际位置。
其中,根据飞行器导航设备(如GPS设备)获得自身位置,解算得到检测目标实际位置,完成目标定位。
本发明提供的融合导航信息的目标识别定位方法,通过高度计获得的相机的高度信息,解算得到目标在视场中的最大像素,从而将全局随机anchor问题优化为小尺度范围内随机anchor,提高了检测的效率;同时将导航设备应用到目标定位环节,实现了对地面目标的精确定位。
本发明还提供了一种融合导航信息的目标识别定位***,所述***包括图像获取单元、飞行器信息获取单元、目标检测单元和目标定位单元,
其中,所述图像获取单元用于获得待检测目标的图像;
飞行器信息获取单元用于获得飞行器的高度和位置;
目标检测单元用于获得目标类别和坐标信息;
目标定位单元用于获得目标的实际位置。
根据本发明一种优选的实施方式,所述目标检测单元包括特征提取子单元和anchor尺度设置子单元,
其中,特征提取子单元用于获得待检测图像的多层特征图;
anchor尺度设置子单元用于根据目标成像尺度,确定不同层特征图中的anchor尺度。
本发明还提供了一种计算机可读存储介质,存储有融合导航信息的目标识别定位程序,所述程序被处理器执行时,使得处理器执行所述融合导航信息的目标识别定位方法的步骤。
本发明中所述的融合导航信息的目标识别定位方法可借助软件加必需的通用硬件平台的方式来实现,所述软件存储在计算机可读存储介质(包括ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机、计算机、服务器、网络设备等)执行本发明所述方法。
本发明还提供了一种计算机设备,包括存储器和处理器,所述存储器存储有融合导航信息的目标识别定位程序,所述程序被处理器执行时,使得处理器执行所述融合导航信息的目标识别定位方法的步骤。
实施例
以下通过具体实例进一步描述本发明,不过这些实例仅仅是范例性的,并不对本发明的保护范围构成任何限制。
实施例1
1、数据集
采用VisDrone数据集评估本发明所述的融合导航信息的目标识别定位方法,该数据集包含263个视频片段,179264个视频帧,以及10209张静态图像。对于目标检测任务,VisDrone包含10209张完全标注的静态图像可以归纳为10个类别,其中6471张图像用于训练,548张图像用于验证,3190张图像用于测试。图像的分辨率在2000×1500像素左右。
2、任务描述
利用COCO数据集中的训练数据集,采用本发明所述方法训练检测网络、完成网络参数和anchor尺度修改的学习后,利用测试数据集、无人机仿真融合高度计、GPS设备,实现对目标的检测定位;测试完成后进行性能评测,并与未融合高度计的方法进行比较。
实验平台为Nvidia TX2计算机。
3、结果与分析
对比检测结果如表1所示:
表1
Figure BDA0002689991150000121
Figure BDA0002689991150000131
其中,FPS代表检测速度,即每秒处理图片数量;
AP代表检测精度,即P-R曲线与坐标轴围成的区域面积;
P代表准确率,R代表召回率,计算公式如下:
Figure BDA0002689991150000132
Figure BDA0002689991150000133
TP代表找回目标为正例并正确找回,FP代表将负例错误检测为正例,TN代表将负例正确找出,FN代表将正例错误检测为负例。
由检测结果可知,本发明所述的融合导航信息的目标识别定位方法,与未融合高度计确定anchor尺度的方法相比,检测精度AP稍有下降,但FPS提升76.2%,在保证检测精度的前提下,显著提高了检测速度。
以上结合具体实施方式和范例性实例对本发明进行了详细说明,不过这些说明并不能理解为对本发明的限制。本领域技术人员理解,在不偏离本发明精神和范围的情况下,可以对本发明技术方案及其实施方式进行多种等价替换、修饰或改进,这些均落入本发明的范围内。

Claims (10)

1.一种融合导航信息的目标识别定位方法,其特征在于,所述方法包括以下步骤:
步骤1,训练获得目标检测网络;
步骤2,获得待检测图像;
步骤3,对待检测图像进行目标检测;
步骤4,对目标进行定位。
2.根据权利要求1所述的方法,其特征在于,步骤1包括以下子步骤:
步骤1-1,对训练数据集进行标注;
步骤1-2,构建检测网络;
步骤1-3,对网络的anchor尺度进行修改;
步骤1-4,训练网络至收敛。
3.根据权利要求2所述的方法,其特征在于,步骤1-3中,根据训练集的目标尺度范围修改网络不同特征层的anchor尺度,优选通过下式获得:
Figure FDA0002689991140000011
其中,Sk表示每个特征层的先验框与原图片大小之比;Smax表示最高层的特征层的尺度值,Smin表示最底层的特征层的尺度值,具体根据检测目标情况设置;m表示特征层个数;k表示第几个特征层。
4.根据权利要求1所述的方法,其特征在于,步骤3包括以下子步骤:
步骤3-1,对待检测图像进行特征提取,获得多层特征图;
步骤3-2,确定检测网络的anchor尺度;
步骤3-3,根据上述确定的anchor尺度,在特征图每个点上生成多个目标框;
步骤3-4,获得待检测目标的类别和坐标信息。
5.根据权利要求1所述的方法,其特征在于,步骤3-2包括以下子步骤:
步骤3-2-1,根据相机高度信息及相机成像规则,确定目标成像尺度;
步骤3-2-2,根据获得的目标成像尺度,确定不同层特征图中的anchor尺度。
6.根据权利要求1所述的方法,其特征在于,步骤4中,首先获得目标相对于飞行器的位置,再根据飞行器导航设备获得飞行器自身位置,进而获得检测目标的实际位置。
7.一种融合导航信息的目标识别定位***,其特征在于,所述***包括图像获取单元、飞行器信息获取单元、目标检测单元和目标定位单元,
其中,图像获取单元用于获得待检测目标的图像;
飞行器信息获取单元用于获得飞行器的高度和位置;
目标检测单元用于获得目标类别和坐标信息;
目标定位单元用于获得目标的实际位置。
8.根据权利要求7所述的***,其特征在于,所述目标检测单元包括特征提取子单元和anchor尺度设置子单元,
其中,特征提取子单元用于获得待检测图像的多层特征图;
anchor尺度设置子单元用于根据目标成像尺度,确定不同层特征图中的anchor尺度。
9.一种计算机可读存储介质,其特征在于,存储有融合导航信息的目标识别定位程序,所述程序被处理器执行时,使得处理器执行权利要求1至6之一所述融合导航信息的目标识别定位方法的步骤。
10.一种计算机设备,包括存储器和处理器,其特征在于,所述存储器存储有融合导航信息的目标识别定位程序,所述程序被处理器执行时,使得处理器执行权利要求1至6之一所述融合导航信息的目标识别定位方法的步骤。
CN202010988347.7A 2020-09-18 2020-09-18 一种融合导航信息的目标识别定位方法 Pending CN112232132A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010988347.7A CN112232132A (zh) 2020-09-18 2020-09-18 一种融合导航信息的目标识别定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010988347.7A CN112232132A (zh) 2020-09-18 2020-09-18 一种融合导航信息的目标识别定位方法

Publications (1)

Publication Number Publication Date
CN112232132A true CN112232132A (zh) 2021-01-15

Family

ID=74107021

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010988347.7A Pending CN112232132A (zh) 2020-09-18 2020-09-18 一种融合导航信息的目标识别定位方法

Country Status (1)

Country Link
CN (1) CN112232132A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023046136A1 (zh) * 2021-09-27 2023-03-30 北京字跳网络技术有限公司 一种特征融合方法、图像去雾方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107729808A (zh) * 2017-09-08 2018-02-23 国网山东省电力公司电力科学研究院 一种用于输电线路无人机巡检的图像智能采集***及方法
CN107727079A (zh) * 2017-11-30 2018-02-23 湖北航天飞行器研究所 一种微小型无人机全捷联下视相机的目标定位方法
CN108681718A (zh) * 2018-05-20 2018-10-19 北京工业大学 一种无人机低空目标精准检测识别方法
CN109740463A (zh) * 2018-12-21 2019-05-10 沈阳建筑大学 一种车载环境下的目标检测方法
CN111178148A (zh) * 2019-12-06 2020-05-19 天津大学 一种基于无人机视觉***的地面目标地理坐标定位方法
WO2020141468A1 (en) * 2019-01-03 2020-07-09 Ehe Innovations Private Limited Method and system for detecting position of a target area in a target subject

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107729808A (zh) * 2017-09-08 2018-02-23 国网山东省电力公司电力科学研究院 一种用于输电线路无人机巡检的图像智能采集***及方法
CN107727079A (zh) * 2017-11-30 2018-02-23 湖北航天飞行器研究所 一种微小型无人机全捷联下视相机的目标定位方法
CN108681718A (zh) * 2018-05-20 2018-10-19 北京工业大学 一种无人机低空目标精准检测识别方法
CN109740463A (zh) * 2018-12-21 2019-05-10 沈阳建筑大学 一种车载环境下的目标检测方法
WO2020141468A1 (en) * 2019-01-03 2020-07-09 Ehe Innovations Private Limited Method and system for detecting position of a target area in a target subject
CN111178148A (zh) * 2019-12-06 2020-05-19 天津大学 一种基于无人机视觉***的地面目标地理坐标定位方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刘芳等: "基于多尺度特征融合的自适应无人机目标检测", 《光学学报》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023046136A1 (zh) * 2021-09-27 2023-03-30 北京字跳网络技术有限公司 一种特征融合方法、图像去雾方法及装置

Similar Documents

Publication Publication Date Title
CN109631855B (zh) 基于orb-slam的高精度车辆定位方法
CN109931939B (zh) 车辆的定位方法、装置、设备及计算机可读存储介质
CN111462200A (zh) 一种跨视频行人定位追踪方法、***及设备
CN113989450B (zh) 图像处理方法、装置、电子设备和介质
CN110033411B (zh) 基于无人机的公路施工现场全景图像高效拼接方法
KR101261409B1 (ko) 영상 내 노면표시 인식시스템
CN111241988B (zh) 一种结合定位信息的大场景内运动目标检测识别方法
CN109029444A (zh) 一种基于图像匹配和空间定位的室内导航***及导航方法
CN113936198A (zh) 低线束激光雷达与相机融合方法、存储介质及装置
CN115861860B (zh) 一种无人机的目标跟踪定位方法和***
WO2021212477A1 (zh) 校正点云数据的方法和相关装置
CN112884841B (zh) 一种基于语义目标的双目视觉定位方法
CN114004977A (zh) 一种基于深度学习的航拍数据目标定位方法及***
CN105335977A (zh) 摄像***及目标对象的定位方法
CN108801225A (zh) 一种无人机倾斜影像定位方法、***、介质及设备
CN117115784A (zh) 目标数据融合的车辆检测方法及检测装置
CN113865581B (zh) 基于多层级地图的封闭场景定位方法
CN114037895A (zh) 一种无人机杆塔巡检图像识别方法
CN112232132A (zh) 一种融合导航信息的目标识别定位方法
CN113673288B (zh) 空闲车位检测方法、装置、计算机设备及存储介质
CN116824457A (zh) 基于全景视频中移动目标自动挂牌方法及相关装置
CN116912716A (zh) 目标定位方法、装置、电子设备及存储介质
US11835359B2 (en) Apparatus, method and computer program for generating map
CN113298713A (zh) 一种抗云干扰的在轨快速配准方法
CN111666959A (zh) 矢量图像匹配方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination