CN108594848B - 一种基于视觉信息融合的无人机分阶段自主着艇方法 - Google Patents

一种基于视觉信息融合的无人机分阶段自主着艇方法 Download PDF

Info

Publication number
CN108594848B
CN108594848B CN201810270640.2A CN201810270640A CN108594848B CN 108594848 B CN108594848 B CN 108594848B CN 201810270640 A CN201810270640 A CN 201810270640A CN 108594848 B CN108594848 B CN 108594848B
Authority
CN
China
Prior art keywords
landmark
aerial vehicle
unmanned aerial
camera
unmanned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810270640.2A
Other languages
English (en)
Other versions
CN108594848A (zh
Inventor
袁野
陆宇
张卫东
姚瑞文
胡智焕
李茂峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN201810270640.2A priority Critical patent/CN108594848B/zh
Publication of CN108594848A publication Critical patent/CN108594848A/zh
Application granted granted Critical
Publication of CN108594848B publication Critical patent/CN108594848B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明涉及一种基于视觉信息融合的无人机分阶段自主着艇方法,包括以下步骤:1)地标制作:将无人艇上相应目标着陆点作为地标,在地标上贴置AprilTags标签,并调整无人机摄像头的角度;2)图像处理:根据摄像头的参数信息和摄像头捕捉到的图像信息,在发现地标时获取摄像机和地标间的相对位姿Xct;3)信息融合:将摄像机和地标间的相对位姿Xct与IMU的测量数据进行信息融合后,获取无人艇在无人机参考系下的实时相对位姿Xvs;4)运动控制:根据实时相对位姿Xvs采用嵌套控制方式保证飞行稳定以及路径跟踪,同时采用分阶段的着艇方法进行着艇。与现有技术相比,本发明具有实时有效、避免滞后、稳定安全等优点。

Description

一种基于视觉信息融合的无人机分阶段自主着艇方法
技术领域
本发明涉及智能海上机器人技术领域,尤其是涉及一种基于视觉信息融合的无人机分阶段自主着艇方法。
背景技术
随着科技的进步,无人***在农业、电力、海洋等专业领域的应用越来越广泛。无人机(Unmanned Aerial Vehicle,UAV)作为无人***中的“宠儿”,近年来,其发展速度和应用领域得到不断推进。
在海洋领域,续航能力有限但搜索范围广阔的无人机通常被装备在续航能力较强但搜索范围较小的无人艇上,形成优势互补的机艇协同编队,用来完成海上救援、环境监测、战场侦察等任务,其核心技术是舰载无人机自主航行技术。
起飞、悬停和着艇是舰载无人机自主航行技术的三个基本问题。其中,无人机自主着艇是最有挑战性的问题。在着艇过程中,无人机要面对移动和摆动的着陆平台,进行有效的地标识别和精确的位姿控制。目前国际上在无人机自主着艇技术方面研究还很少,主要的挑战体现在两个方面:
其一,无人机自主着艇的导航精度。小型无人机的GPS往往只有米级精度,无法满足着艇任务精度要求;INS/GPS组合导航***只能定位无人机自身位姿,缺少无人机与着艇平台的相对位姿。虽然目前很多文献都提出了利用计算机视觉进行辅助导航,但它们的图像处理过程运算量较大,一般的机载计算机运算能力有限,由视觉导航给出的位姿往往落后于实时位姿。因此,如何在提高导航精度的同时确保位姿信息的实时性和有效性,成为无人机自主着艇过程中亟需解决的一个问题。
其二,无人机着艇末段的安全性。在着艇过程中,有些文献直接使用地标的中心点作为参考位置信号进行控制。然而这样容易使摄像头失去对地标的视野,尤其在无人艇上,地标位置并不是固定的。此外,由于翼地效应(运动物体贴近地面运行时,地面对物体产生的空气动力干扰),无人机在贴近无人艇着陆平台时难以保持稳定,使得上述方法在应用时成功率并不高,无人机着艇末段的安全性有待提升。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于视觉信息融合的无人机分阶段自主着艇方法。
本发明的目的可以通过以下技术方案来实现:
一种基于视觉信息融合的无人机分阶段自主着艇方法,包括以下步骤:
1)地标制作:将无人艇上相应目标着陆点作为地标,在地标上贴置AprilTags标签,并调整无人机摄像头的角度,保证无人机在接近地标时能探测到地标;
2)图像处理:根据摄像头的参数信息和摄像头捕捉到的图像信息计算在无人机机载计算机中配置的AprilTags视觉基准***的参数,在发现地标时获取摄像机和地标间的相对位姿Xct
3)信息融合:将摄像机和地标间的相对位姿Xct与IMU的测量数据进行信息融合后,获取无人艇在无人机参考系下的实时相对位姿Xvs
4)运动控制:根据实时相对位姿Xvs采用嵌套控制方式保证飞行稳定以及路径跟踪,同时采用分阶段的着艇方法进行着艇。
所述的步骤2)中AprilTags视觉基准***的参数包括宽方向上以像素为单位的焦距Fw、高方向上以像素为单位的焦距Fh,图像的中心位置(Cw,Ch),其计算公式为:
Figure BDA0001612443820000021
Figure BDA0001612443820000022
其中,F和C分别为不同方向上的焦距和位置,Lfocus和Lreceptor分别为焦距和感光元件尺寸,Npixel为像素数量,利用此公式分别对宽度方向和高度方向的参数进行计算即可。
所述的步骤3)具体包括以下步骤:
31)***状态估计,包括两个阶段,第一阶段为未检测到地标阶段,第二阶段为检测到地标后;
当未检测到地标时,***状态为IMU提供的位姿信息Xv,即X=[Xv],对该***状态进行估计,则有:
Figure BDA0001612443820000031
其中,
Figure BDA0001612443820000032
为第k步的***状态估计值,
Figure BDA0001612443820000033
为第k-1步的***状态估计值,Fk-1为未检测到地标阶段的卡尔曼滤波参数,这里采用匀速模型去预测***未来状态,即
Figure BDA0001612443820000034
Figure BDA0001612443820000035
满足
Figure BDA0001612443820000036
Δt为采样间隔,wk-1为高斯白噪声;
自首次检测到地标开始,在***状态中加入无人艇状态Xs,即X=[Xv Xs],并更新卡尔曼滤波参数Fk-1,则有:
Figure BDA0001612443820000037
其中,
Figure BDA0001612443820000038
为与无人机相关的卡尔曼滤波参数,
Figure BDA0001612443820000039
为与无人艇相关的卡尔曼滤波参数,这里仅考虑无人艇在水平面上的运动,同样采用匀速模型,有
Figure BDA00016124438200000310
32)获取IMU和摄像头的观测结果,其中,IMU的观测结果hIMU为:
Figure BDA00016124438200000311
其中,zlv为高度,φlvlvlv分别为绕x,y,z三个运动方向的旋转角度,ulv和vlv分别为前向速度和侧向速度,其对应Jacobian矩阵HIMU为:
Figure BDA00016124438200000312
所述的摄像头的观测结果htag(XKF)为:
Figure BDA00016124438200000313
其中,Xvc为无人机参考系下摄像头的位姿,Xst为无人艇参考系下标记的位姿,Xlv为估计出的无人机的位姿,Xls为估计出的无人艇的位姿,
Figure BDA00016124438200000314
Figure BDA00016124438200000315
为坐标转换操作;
其对应Jacobian矩阵Htag为:
Figure BDA0001612443820000041
33)对观测结果进行扩展卡尔曼滤波,得到实时的***状态。
所述的步骤3)还包括以下步骤:
34)通过无人机和无人艇的历史位姿,在延迟情况下修改***状态,获取人艇在无人机参考系下的实时相对位姿Xvs
所述的步骤4)中,嵌套控制方式具体为:
采用6个独立的闭环PID控制器进行控制,其中,内环姿态控制用于保证飞行稳定,外环位置控制用于路径跟踪。
所述的步骤4)中,分阶段的着艇方法具体包括以下步骤:
41)发现地标:首次发现地标时,初始化***状态,并使无人机跟踪该地标;
42)慢速下降阶段:引导无人机至地标的中心处,使其保持在以地标为中心,半径为rloop,高度为hloop的圆柱体空间中,并以Δz为步长垂直向下寻找下一个航迹点下降,当丢失地标视野时,则提升Δz高度,直到重新发现该地标。
43)进入快速下降阶段:设置第一高度阈值hland,当无人机的高度小于hland时,则认为无需下降,直接准备着陆,若在连续N帧内,该地标都在摄像头的视野中,并满足快速下降条件时,则认为可进入快速下降阶段,直接以0作为z轴的参考信号;
44)着陆阶段:设置第二高度阈值hmin,当无人机高度低于第二高度阈值hmin时,则关闭螺旋桨,使无人机自由落体并完成着陆。
所述的步骤43)中的快速下降条件为:
z-hland≤hloop
||(x,y)||2≤rloop
其中,z为无人机相对于无人艇的高度,||(x,y)||2为无人机与无人艇的水平距离。
所述的步骤44)中,
若无人机在高于第二高度阈值hmin时,摄像头失去了对地标的视野,无论处于慢速下降阶段或快速下降阶段,则拉升无人机,直到重新发现地标。
与现有技术相比,本发明具有以下优点:
一、实时有效:在地标识别和图像处理过程中,采用了成熟开源的AprilTags,可降低技术门槛;使用单目摄像头,在保证精度的前提下,简化了运算复杂度,降低了设备成本。
二、避免滞后:将摄像机得到的相对位姿与IMU得到的位姿进行信息融合以提高精度;通过增加历史状态避免了图像处理时的滞后问题。
三、稳定安全:将无人机着艇嵌套控制方案和分阶段安全着艇方法进行结合,可避免在着艇过程中无人机摄像头失去对地标的视野,同时可保证无人机在贴近无人艇着陆平台时的稳定性和安全性。
附图说明
图1为本发明中无人机着艇嵌套控制方案框图。
图2为本发明中无人机分阶段安全着艇方法流程图。
图3为本发明中无人机自主着艇方法原理图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。
实施例
以下结合附图3对本发明的技术方案作具体实施描述。
为了说明方便,先做如下符号约定:
Xij是指j参考系在i参考系下的位姿,这里的位姿定义为一个6维列向量[x y z φθ ψ]T,其中(x,y,z)是在参考系中的位置坐标,(φ,θ,ψ)分别是绕x轴、y轴、z轴旋转的角度,称为滚转角、俯仰角和偏航角。用到的参考系有:无人机参考系{v},本地参考系{l},无人艇参考系{s},摄像机参考系{c},地标参考系{t}。同时定义一些参考系变换的基本符号:若i,j,k代表三个参考系,符号
Figure BDA0001612443820000051
表示变换的累加,满足
Figure BDA0001612443820000052
符号
Figure BDA0001612443820000053
表示
Figure BDA0001612443820000054
的逆运算,满足
Figure BDA0001612443820000055
在本发明提出的方法中,计算在无人机的机载计算机中通过软件实现,无人机配置一个惯性测量单元以获得实时的姿态信息,一个摄像头以采集环境信息。以四旋翼无人机着落在电驱无人艇上为例,该方法的执行过程包括以下4个具体实施步骤。
步骤1:地标制作。打印AprilTags中的标签,张贴在无人艇上的相应目标着陆点作为地标。将无人机摄像头的角度调整向前并略微向下,保证无人机在接近地标时能探测到地标。
步骤2:图像处理。在无人机的机载计算机中配置AprilTags视觉基准***。利用摄像头的参数信息和摄像头捕捉到的图像信息,计算4个重要参数,即:宽、高方向上以像素为单位的焦距Fw和Fh,图像的中心位置(Cw,Ch)。计算公式如下:
Figure BDA0001612443820000061
Figure BDA0001612443820000062
其中,Lfocus和Lreceptor分别是焦距和感光元件尺寸,以毫米为单位。Npixel是像素数量。利用这个公式分别对宽度方向和高度方向的参数进行计算即可。
将计算到的参数传给AprilTags视觉基准***,便能在发现地标时返回摄像机和标记间的相对位姿Xct
步骤3:信息融合。将摄像头和地标间的相对位姿Xct与IMU的测量数据进行信息融合,得到无人机和无人艇的实时位姿Xlv和Xls,以及相对位姿Xvs。该过程分为以下4个子步骤:
(1)***状态估计。这里的信息融合分为两个阶段,第一阶段为未检测到地标阶段,第二阶段为检测到地标后。
未检测到地标阶段,***状态取为IMU提供的位姿信息Xv=[XlvVvWv]。其中,Vv是x,y,z方向的速度,而Wv是绕x,y,z方向的角速度。对该***状态进行如下估计:
Figure BDA0001612443820000063
其中,wk-1是高斯白噪声,这里采用匀速模型来预测***状态,即
Figure BDA0001612443820000064
Figure BDA0001612443820000065
具有如下形式:
Figure BDA0001612443820000066
Δt为采样间隔。
从第一次检测到地标开始,在***状态中加入无人艇状态,即X=[Xv Xs],Xv=[XlvVv Wv],Xs=[Xls Vs Ws],于是,Fk-1具有如下形式:
Figure BDA0001612443820000067
这里仅考虑无人艇在水平面上的运动,同样采用匀速模型,有
Figure BDA0001612443820000071
(2)获得传感器观测结果。IMU和摄像头的观测模型都可表示为
z[k]=h(X)+v[k]。
其中,v[k]~N(0,R[k])是观测噪声。h(X)表示状态X的函数。
IMU对无人机的观测结果为无人机的高度、姿态和速度信息,即:
Figure BDA0001612443820000072
其中,zlv是高度,φlvlvlv分别是绕x,y,z三个运动方向的旋转角度。ulv和vlv分别是前向速度和侧向速度。其对应Jacobian矩阵为
Figure BDA0001612443820000073
摄像头对第i个地标的观测结果为
Figure BDA0001612443820000074
其中,htag(XKF)为摄像头的观测结果,Xvc为无人机参考系下摄像头的位姿,Xst为无人艇参考系下标记的位姿,
Figure BDA0001612443820000075
Figure BDA0001612443820000076
为坐标转换操作。
对应有
Figure BDA0001612443820000077
(3)扩展卡尔曼滤波。使用扩展卡尔曼滤波解决上述非线性滤波问题,由于状态量符合正态分布XKF~N(μ,∑),其中,协方差矩阵∑表示为
Figure BDA0001612443820000078
扩展卡尔曼滤波按照如下公式进行更新:
Figure BDA0001612443820000079
Figure BDA00016124438200000710
Figure BDA00016124438200000711
Figure BDA00016124438200000712
Figure BDA0001612443820000081
经过扩展卡尔曼滤波,我们就能得到***的实时状态X=[Xv Xs]。
(4)解决状态滞后问题。由于图像计算较复杂,在k时刻,AprilTag往往只能给出k-n时刻的计算结果,于是扩展卡尔曼滤波对k+1时刻的状态估计是根据k-n时刻的状态得出的,并不准确。我们通过记录无人机和无人艇的历史位姿来解决这一问题。延迟情况下将***状态估计量修改为
Figure BDA0001612443820000082
其中,n是延迟状态的个数。于是***状态估计的迭代计算公式为
Figure BDA0001612443820000083
相应地,IMU传感器模型的Jacobian矩阵修正为
Figure BDA0001612443820000084
由于上一步骤中的观测结果是对延迟状态进行的,对于第j个延迟状态X[j],将摄像头的观测模型修正为
Figure BDA0001612443820000085
上述修正后便能用扩展卡尔曼滤波更新增广后状态XDS。每个延迟的观测值被扩展卡尔曼滤波更新后,就将其忽略并移出状态向量。因此,该滤波算法只要额外存储一小段历史状态。
解决状态滞后问题得到滤波后的***状态信息后,利用无人机和无人艇在本地参考系下的位姿Xlv和Xls即可求出相对位姿Xvs。具体计算方法为
Figure BDA0001612443820000086
步骤4:运动控制。利用融合后的相对位姿对无人机进行运动控制。采用嵌套控制方案,使用6个独立的闭环PID控制器进行控制,其中内环姿态控制用于保证飞行稳定,外环位置控制用于路径跟踪。同时采用分阶段安全着艇方法。该方法分为以下4个子步骤:
(1)首次发现地标时,初始化***状态,并让无人机跟踪这个地标。
(2)将无人机引导至地标的中心,然后保持在以地标为中心,半径为rloop,高度为hloop的圆柱体中,并以Δz为步长垂直向下寻找下一个航迹点下降。一旦丢失了地标的视野,就往上提升Δz,直到重新发现地标,该阶段称为慢速下降阶段。
(3)设置一个较小的高度hland,如果高度小于hland,就认为无需下降,直接准备着陆。如果在连续N帧内地标都在摄像头视野中,并满足
z-hland≤hloop
||(x,y)||2≤rloop
则认为可进入快速下降阶段,直接以0作为z轴的参考信号。
其中,z为无人机相对于无人艇的高度,||(x,y)||2为无人机与无人艇的水平距离。
(4)下降到一定高度时,由于近距离时摄像头无法识别地标,也就无法定位。因此,我们设置一个极小的高度hmin,当低于这个高度时,就关闭螺旋桨,让无人机自由落体着陆。但是如果在高于hmin时摄像头失去了对地标的视野,无论是处于快速下降还是慢速下降阶段,都应拉升无人机,直到重新发现地标。

Claims (7)

1.一种基于视觉信息融合的无人机分阶段自主着艇方法,其特征在于,包括以下步骤:
1)地标制作:将无人艇上相应目标着陆点作为地标,在地标上贴置AprilTags标签,并调整无人机摄像头的角度,保证无人机在接近地标时能探测到地标;
2)图像处理:根据摄像头的参数信息和摄像头捕捉到的图像信息计算在无人机机载计算机中配置的AprilTags视觉基准***的参数,在发现地标时获取摄像机和地标间的相对位姿Xct
3)信息融合:将摄像机和地标间的相对位姿Xct与IMU的测量数据进行信息融合后,获取无人艇在无人机参考系下的实时相对位姿Xvs,具体包括以下步骤:
31)***状态估计,分为两个阶段,第一阶段为未检测到地标阶段,第二阶段为检测到地标后;
当未检测到地标时,***状态为IMU提供的位姿信息Xv,即X=[Xv],对该***状态进行估计,则有:
Figure FDA0002666965450000011
Figure FDA0002666965450000012
Figure FDA0002666965450000013
其中,其中,
Figure FDA0002666965450000014
为第k步的***状态估计值,
Figure FDA0002666965450000015
为第k-1步的***状态估计值,Fk-1为未检测到地标阶段的卡尔曼滤波参数,wk-1为高斯白噪声,Δt为采样间隔;
自首次检测到地标开始,在***状态中加入无人艇状态Xs,即X=[Xv Xs],并更新卡尔曼滤波参数Fk-1,则有:
Figure FDA0002666965450000016
Figure FDA0002666965450000017
其中,
Figure FDA0002666965450000018
为与无人机相关的卡尔曼滤波参数,
Figure FDA0002666965450000019
为与无人艇相关的卡尔曼滤波参数;
32)获取IMU和摄像头的观测结果,其中,IMU的观测结果hIMU为:
Figure FDA0002666965450000021
其中,zlv为高度,φlv,θlv,ψlv分别为绕x,y,z三个运动方向的旋转角度,ulv和vlv分别为前向速度和侧向速度,其对应Jacobian矩阵HIMU为:
Figure FDA0002666965450000022
所述的摄像头的观测结果htag(XKF)为:
Figure FDA0002666965450000023
其中,Xvc为无人机参考系下摄像头的位姿,Xst为无人艇参考系下标记的位姿,Xlv为估计出的无人机的位姿,Xls为估计出的无人艇的位姿,
Figure FDA0002666965450000024
Figure FDA0002666965450000025
为坐标转换操作;
其对应Jacobian矩阵Htag为:
Figure FDA0002666965450000026
33)对观测结果进行扩展卡尔曼滤波,得到实时的***状态;
4)运动控制:根据实时相对位姿Xvs采用嵌套控制方式保证飞行稳定以及路径跟踪,同时采用分阶段的着艇方法进行着艇。
2.根据权利要求1所述的一种基于视觉信息融合的无人机分阶段自主着艇方法,其特征在于,所述的步骤2)中AprilTags视觉基准***的参数包括宽方向上以像素为单位的焦距Fw、高方向上以像素为单位的焦距Fh,图像的中心位置(Cw,Ch),其计算公式为:
Figure FDA0002666965450000027
Figure FDA0002666965450000028
其中,F和C分别为不同方向上的焦距和位置,Lfocus和Lreceptor分别为焦距和感光元件尺寸,Npixel为像素数量。
3.根据权利要求2所述的一种基于视觉信息融合的无人机分阶段自主着艇方法,其特征在于,所述的步骤3)还包括以下步骤:
34)通过无人机和无人艇的历史位姿,在延迟情况下修改***状态,获取无人艇在无人机参考系下的实时相对位姿Xvs
4.根据权利要求1所述的一种基于视觉信息融合的无人机分阶段自主着艇方法,其特征在于,所述的步骤4)中,嵌套控制方式具体为:
采用6个独立的闭环PID控制器进行控制,其中,内环姿态控制用于保证飞行稳定,外环位置控制用于路径跟踪。
5.根据权利要求1所述的一种基于视觉信息融合的无人机分阶段自主着艇方法,其特征在于,所述的步骤4)中,分阶段的着艇方法具体包括以下步骤:
41)发现地标:首次发现地标时,初始化***状态,并使无人机跟踪该地标;
42)慢速下降阶段:引导无人机至地标的中心处,使其保持在以地标为中心,半径为rloop,高度为hloop的圆柱体空间中,并以Δz为步长垂直向下寻找下一个航迹点下降,当丢失地标视野时,则提升Δz高度,直到重新发现该地标;
43)进入快速下降阶段:设置第一高度阈值hland,当无人机的高度小于hland时,则认为无需下降,直接准备着陆,若在连续N帧内,该地标都在摄像头的视野中,并满足快速下降条件时,则认为可进入快速下降阶段,直接以0作为z轴的参考信号;
44)着陆阶段:设置第二高度阈值hmin,当无人机高度低于第二高度阈值hmin时,则关闭螺旋桨,使无人机自由落体并完成着陆。
6.根据权利要求5所述的一种基于视觉信息融合的无人机分阶段自主着艇方法,其特征在于,所述的步骤43)中的快速下降条件为:
z-hland≤hloop
||(x,y)||2≤rloop
其中,z为无人机相对于无人艇的高度,||(x,y)||2为无人机与无人艇的水平距离。
7.根据权利要求5所述的一种基于视觉信息融合的无人机分阶段自主着艇方法,其特征在于,所述的步骤44)中,
若无人机在高于第二高度阈值hmin时,摄像头失去了对地标的视野,无论处于慢速下降阶段或快速下降阶段,则拉升无人机,直到重新发现地标。
CN201810270640.2A 2018-03-29 2018-03-29 一种基于视觉信息融合的无人机分阶段自主着艇方法 Active CN108594848B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810270640.2A CN108594848B (zh) 2018-03-29 2018-03-29 一种基于视觉信息融合的无人机分阶段自主着艇方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810270640.2A CN108594848B (zh) 2018-03-29 2018-03-29 一种基于视觉信息融合的无人机分阶段自主着艇方法

Publications (2)

Publication Number Publication Date
CN108594848A CN108594848A (zh) 2018-09-28
CN108594848B true CN108594848B (zh) 2021-01-22

Family

ID=63623841

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810270640.2A Active CN108594848B (zh) 2018-03-29 2018-03-29 一种基于视觉信息融合的无人机分阶段自主着艇方法

Country Status (1)

Country Link
CN (1) CN108594848B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109341700B (zh) * 2018-12-04 2023-06-30 中国航空工业集团公司西安航空计算技术研究所 一种低能见度下固定翼飞机视觉辅助着陆导航方法
CN109525220B (zh) * 2018-12-10 2019-08-30 中国人民解放军国防科技大学 具有航迹关联和提取能力的高斯混合cphd滤波方法
CN111323005A (zh) * 2018-12-17 2020-06-23 北京华航无线电测量研究所 无人直升机全向自主精准着陆视觉辅助合作地标设计方法
CN109823552B (zh) * 2019-02-14 2021-02-12 深圳市多翼创新科技有限公司 基于视觉的无人机精确降落方法、存储介质、装置及***
CN110058604A (zh) * 2019-05-24 2019-07-26 中国科学院地理科学与资源研究所 一种基于计算机视觉的无人机精准降落***
CN112099527B (zh) * 2020-09-17 2021-07-23 湖南大学 一种垂直起降无人机移动平台自主着陆的控制方法及***
CN112286216A (zh) * 2020-11-11 2021-01-29 鹏城实验室 基于视觉识别的无人机自主降落无人艇的方法及***
CN112419403A (zh) * 2020-11-30 2021-02-26 海南大学 一种基于二维码阵列的室内无人机定位方法
CN112987765B (zh) * 2021-03-05 2022-03-15 北京航空航天大学 一种仿猛禽注意力分配的无人机/艇精准自主起降方法
CN114326765B (zh) * 2021-12-01 2024-02-09 爱笛无人机技术(南京)有限责任公司 一种用于无人机视觉着陆的地标跟踪控制***及方法
CN117250995B (zh) * 2023-11-20 2024-02-02 西安天成益邦电子科技有限公司 承载平台姿态矫正控制方法及***
CN117806328A (zh) * 2023-12-28 2024-04-02 华中科技大学 一种基于基准标记的无人艇靠泊视觉引导控制方法及***

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103662091A (zh) * 2013-12-13 2014-03-26 北京控制工程研究所 一种基于相对导航的高精度安全着陆制导方法
EP2434256A3 (en) * 2010-09-24 2014-04-30 Honeywell International Inc. Camera and inertial measurement unit integration with navigation data feedback for feature tracking
CN104062977A (zh) * 2014-06-17 2014-09-24 天津大学 基于视觉slam的四旋翼无人机全自主飞行控制方法
CN104679013A (zh) * 2015-03-10 2015-06-03 无锡桑尼安科技有限公司 无人机自动着陆***
CN105021184A (zh) * 2015-07-08 2015-11-04 西安电子科技大学 一种用于移动平台下视觉着舰导航的位姿估计***及方法
CN105335733A (zh) * 2015-11-23 2016-02-17 西安韦德沃德航空科技有限公司 一种无人机自主着陆视觉定位方法及***
CN106708066A (zh) * 2015-12-20 2017-05-24 中国电子科技集团公司第二十研究所 基于视觉/惯导的无人机自主着陆方法
CN106774386A (zh) * 2016-12-06 2017-05-31 杭州灵目科技有限公司 基于多尺度标识物的无人机视觉导航降落***
CN107240063A (zh) * 2017-07-04 2017-10-10 武汉大学 一种面向移动平台的旋翼无人机自主起降方法
CN107544550A (zh) * 2016-06-24 2018-01-05 西安电子科技大学 一种基于视觉引导的无人机自动着陆方法
CN107687850A (zh) * 2017-07-26 2018-02-13 哈尔滨工业大学深圳研究生院 一种基于视觉和惯性测量单元的无人飞行器位姿估计方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090306840A1 (en) * 2008-04-08 2009-12-10 Blenkhorn Kevin P Vision-based automated landing system for unmanned aerial vehicles

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2434256A3 (en) * 2010-09-24 2014-04-30 Honeywell International Inc. Camera and inertial measurement unit integration with navigation data feedback for feature tracking
CN103662091A (zh) * 2013-12-13 2014-03-26 北京控制工程研究所 一种基于相对导航的高精度安全着陆制导方法
CN104062977A (zh) * 2014-06-17 2014-09-24 天津大学 基于视觉slam的四旋翼无人机全自主飞行控制方法
CN104679013A (zh) * 2015-03-10 2015-06-03 无锡桑尼安科技有限公司 无人机自动着陆***
CN105021184A (zh) * 2015-07-08 2015-11-04 西安电子科技大学 一种用于移动平台下视觉着舰导航的位姿估计***及方法
CN105335733A (zh) * 2015-11-23 2016-02-17 西安韦德沃德航空科技有限公司 一种无人机自主着陆视觉定位方法及***
CN106708066A (zh) * 2015-12-20 2017-05-24 中国电子科技集团公司第二十研究所 基于视觉/惯导的无人机自主着陆方法
CN107544550A (zh) * 2016-06-24 2018-01-05 西安电子科技大学 一种基于视觉引导的无人机自动着陆方法
CN106774386A (zh) * 2016-12-06 2017-05-31 杭州灵目科技有限公司 基于多尺度标识物的无人机视觉导航降落***
CN107240063A (zh) * 2017-07-04 2017-10-10 武汉大学 一种面向移动平台的旋翼无人机自主起降方法
CN107687850A (zh) * 2017-07-26 2018-02-13 哈尔滨工业大学深圳研究生院 一种基于视觉和惯性测量单元的无人飞行器位姿估计方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Autonomous takeoff, tracking and landing of a UAV on a moving UGV using onboard monocular vision;Cheng Hui;《Proceedings of the 32nd Chinese Control Conference》;20131021;第5895-5901页 *
Towards autonomous tracking and landing on moving target;Lingyun Xu;《2016 IEEE International Conference on Real-time Computing and Robotics (RCAR)》;20160610;第620-625页 *
四旋翼无人机自主移动降落方法研究;贾配洋;《计算机科学》;20171231;第520-523页 *
基于机载视觉的舰载无人机自主着舰引导技术研究;刘刚;《舰船科学技术》;20171031;第189-191页 *

Also Published As

Publication number Publication date
CN108594848A (zh) 2018-09-28

Similar Documents

Publication Publication Date Title
CN108594848B (zh) 一种基于视觉信息融合的无人机分阶段自主着艇方法
CN105652891B (zh) 一种旋翼无人机移动目标自主跟踪装置及其控制方法
CN111596693B (zh) 基于云台相机的无人机对地面目标跟踪控制方法及***
CN107463181A (zh) 一种基于AprilTag的四旋翼飞行器自适应追踪***
Roelofsen et al. Reciprocal collision avoidance for quadrotors using on-board visual detection
CN110658826A (zh) 一种基于视觉伺服的欠驱动无人水面艇自主靠泊方法
Li et al. UAV autonomous landing technology based on AprilTags vision positioning algorithm
Xu et al. Vision-based autonomous landing of unmanned aerial vehicle on a motional unmanned surface vessel
Mills et al. Vision based control for fixed wing UAVs inspecting locally linear infrastructure using skid-to-turn maneuvers
Cho et al. Autonomous ship deck landing of a quadrotor UAV using feed-forward image-based visual servoing
Acuna et al. Vision-based UAV landing on a moving platform in GPS denied environments using motion prediction
Haddadi et al. Visual-inertial fusion for indoor autonomous navigation of a quadrotor using ORB-SLAM
CN114200948A (zh) 一种基于视觉辅助的无人机自主着舰方法
Eguíluz et al. Why fly blind? Event-based visual guidance for ornithopter robot flight
Zhang et al. Autonomous landing on ground target of UAV by using image-based visual servo control
Zhang et al. Enhanced fiducial marker based precise landing for quadrotors
CN110764519A (zh) 一种基于cs模型的无人机对地目标自适应跟踪方法
Flores et al. Pid switching control for a highway estimation and tracking applied on a convertible mini-uav
CN114326765B (zh) 一种用于无人机视觉着陆的地标跟踪控制***及方法
CN116185049A (zh) 基于视觉引导的无人直升机自主着舰方法
Lee et al. Landing Site Inspection and Autonomous Pose Correction for Unmanned Aerial Vehicles
CN115793676A (zh) 一种面向移动平台的旋翼无人机视觉引导降落方法
Ferreira et al. LIDAR-based USV close approach to vessels for manipulation purposes
Abdessameud et al. Dynamic image-based tracking control for VTOL UAVs
Yang et al. A new image-based visual servo control algorithm for target tracking problem of fixed-wing unmanned aerial vehicle

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant