CN110716579B - 目标跟踪方法及无人飞行器 - Google Patents
目标跟踪方法及无人飞行器 Download PDFInfo
- Publication number
- CN110716579B CN110716579B CN201911144128.4A CN201911144128A CN110716579B CN 110716579 B CN110716579 B CN 110716579B CN 201911144128 A CN201911144128 A CN 201911144128A CN 110716579 B CN110716579 B CN 110716579B
- Authority
- CN
- China
- Prior art keywords
- target
- real
- instantaneous
- time
- longitude
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 claims description 22
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000005516 engineering process Methods 0.000 abstract description 10
- 238000010586 diagram Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/08—Control of attitude, i.e. control of roll, pitch, or yaw
- G05D1/0808—Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明实施例涉及一种目标跟踪方法及无人飞行器,应用于无人飞行器的目标跟踪方法包括:首先通过获取所述无人飞行器的瞬时导航数据及所述云台的瞬时目标姿态角度,然后根据所述瞬时导航数据和所述瞬时目标姿态角度,得到目标经纬度信息,进而根据所述目标经纬度信息,对目标进行跟踪,最终实现了在不依赖于视觉的目标跟踪技术的基础上,能够简单有效的对目标的进行跟踪。
Description
【技术领域】
本发明涉及无人飞行器技术领域,尤其涉及一种目标跟踪方法及无人飞行器。
【背景技术】
随着无人飞行器航拍技术的不断发展,越来越多的消费级无人飞行器也正在生产研制。无人飞行器也逐步日趋普及。操控无人飞行器的方式很较多,比如通过遥控器、手机、电脑等移动终端操控。
无人飞行器的一个重要应用场景是机载云台对目标的跟踪,当前使用的方法大多为基于计算机视觉的目标跟踪技术,特别是最近两年利用深度学习的目标跟踪方法取得了令人满意的效果,使得目标跟踪技术获得了突破性的进展。但视觉目标跟踪技术面临如下一些挑战因素:遮挡、形变、背景杂斑、尺度形变、光照、低分辨率、运动模糊、快速运动、超出视野、旋转等,所有这些挑战因素共同决定了基于视觉的目标跟踪是一项极为复杂的任务,在遇到上述挑战因素时,无法及时有效的跟踪目标。
【发明内容】
为了解决上述技术问题,本发明实施例提供一种简单有效的不依赖于视觉的目标跟踪方法及无人飞行器。
为解决上述技术问题,本发明实施例提供以下技术方案:一种目标跟踪方法,应用于无人飞行器,所述无人飞行器设置有云台,所述方法包括:获取所述无人飞行器的瞬时导航数据及所述云台的瞬时目标姿态角度;
根据所述瞬时导航数据和所述瞬时目标姿态角度,得到目标经纬度信息;
根据所述目标经纬度信息,对目标进行跟踪。
可选地,所述瞬时目标姿态角度包括瞬时航向角度和瞬时俯仰角度;所述瞬时导航数据包括瞬时经纬度信息及瞬时相对高度;
所述根据所述瞬时导航数据和所述瞬时目标姿态角度,得到目标经纬度信息,包括:
根据所述瞬时航向角度、所述瞬时俯仰角度、所述瞬时经纬度信息、所述瞬时相对高度,得到所述目标经纬度信息。
可选地,所述瞬时经纬度信息包括瞬时经度和瞬时纬度;
所述目标经纬度信息包括目标经度和目标纬度;
通过如下算式,计算得到所述目标经度和目标纬度:
tanψ′=Δx/Δy=R纬(xtarget-x′plane)/(R地(ytarget-y′plane))
其中,ψ'为所述瞬时航向角度,θ'为所述瞬时俯仰角度,x'plane为所述瞬时经度,y'plane为所述瞬时纬度,xtarget为所述目标经度,ytarget为所述目标纬度,R地为地球半径,R纬为所述无人飞行器所在纬度的地球截面半径,H'为所述瞬时相对高度。
可选地,所述根据所述目标经纬度信息,对目标进行跟踪,包括:
获取所述无人飞行器的实时导航数据;
根据所述实时导航数据和所述目标经纬度信息,得到所述云台的实时姿态角度;
根据所述实时姿态角度,对目标进行跟踪。
可选地,所述实时导航数据包括实时经纬度信息和实时相对高度;
所述根据所述实时导航数据和所述目标经纬度信息,得到所述云台的实时姿态角度,包括:
根据所述实时经纬度信息、所述目标经纬度信息和所述实时相对高度,得到所述实时姿态角度。
可选地,所述实时姿态角度包括实时航向角度和实时俯仰角度;
所述实时经纬度信息包括实时经度和实时纬度;
通过如下算式,得到所述实时姿态角度:
tanψ=Δx/Δy=R纬(xtarget-xplane)/(R地(ytarget-yplane))
其中,ψ为所述实时航向角度,θ为所述实时俯仰角度,xplane为所述实时经度,yplane为所述实时纬度,xtarget为所述目标经度,ytarget为所述目标纬度,R地为地球半径,R纬为所述无人飞行器所在纬度的地球截面半径,H为所述实时相对高度。
为解决上述技术问题,本发明实施例还提供以下技术方案:一种目标跟踪装置。所述目标跟踪装置包括:瞬时数据获取模块,用于获取所述无人飞行器的瞬时导航数据及所述云台的瞬时目标姿态角度;
目标经纬度信息获取模块,用于用于根据所述瞬时导航数据和所述瞬时目标姿态角度,得到目标经纬度信息;
目标跟踪模块,用于根据所述目标经纬度信息,对目标进行跟踪。
可选地,所述目标跟踪模块包括实时导航数据获取单元、实时姿态角度计算单元及目标跟踪单元;
所述实时导航数据获取单元用于获取所述无人飞行器的实时导航数据;
所述实时姿态角度计算单元用于根据所述实时导航数据和所述目标经纬度信息,得到所述云台的实时姿态角度;
所述目标跟踪单元用于根据所述实时姿态角度,对目标进行跟踪。
可选地,所述实时导航数据包括实时经纬度信息和实时相对高度;
所述实时姿态角度计算单元具体用于根据所述实时经纬度信息、所述目标经纬度信息和所述实时相对高度,得到所述实时姿态角度。
为解决上述技术问题,本发明实施例还提供以下技术方案:一种无人飞行器。所述无人飞行器包括:
机身;
机臂,与所述机身相连;
动力装置,设于所述机臂,用于给所述无人飞行器提供飞行的动力;
飞控模组;以及
与所述飞控模组通信连接的存储器;其中,所述存储器存储有可被所述飞控模组执行的指令,所述指令被所述飞控模组执行,以使所述飞控模组能够用于执行如上所述的目标跟踪方法。
与现有技术相比较,本发明实施例的提供目标跟踪方法可以首先通过获取所述无人飞行器的瞬时导航数据及所述云台的瞬时目标姿态角度,然后根据所述瞬时导航数据和所述瞬时目标姿态角度,得到目标经纬度信息,进而根据所述目标经纬度信息,对目标进行跟踪,最终实现了在不依赖于视觉的目标跟踪技术的基础上,能够简单有效的对目标的进行跟踪。
【附图说明】
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1为本发明实施例的应用环境示意图;
图2为本发明其中一实施例提供的目标跟踪方法的流程示意图;
图3是图2中S30的流程示意图;
图4本发明其中一实施例提供的目标跟踪装置的结构框图;
图5本发明其中一实施例提供的无人飞行器的结构框图。
【具体实施方式】
为了便于理解本发明,下面结合附图和具体实施例,对本发明进行更详细的说明。需要说明的是,当元件被表述“固定于”另一个元件,它可以直接在另一个元件上、或者其间可以存在一个或多个居中的元件。当一个元件被表述“连接”另一个元件,它可以是直接连接到另一个元件、或者其间可以存在一个或多个居中的元件。本说明书所使用的术语“上”、“下”、“内”、“外”、“底部”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”“第三”等仅用于描述目的,而不能理解为指示或暗示相对重要性。
除非另有定义,本说明书所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本说明书中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是用于限制本发明。本说明书所使用的术语“和/或”包括一个或多个相关的所列项目的任意的和所有的组合。
此外,下面所描述的本发明不同实施例中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
本发明实施例提供了一种目标跟踪方法及无人飞行器,其中,应用于无人飞行器的目标跟踪方法首先通过获取所述无人飞行器的瞬时导航数据及所述云台的瞬时目标姿态角度,然后根据所述瞬时导航数据和所述瞬时目标姿态角度,得到目标经纬度信息,进而根据所述目标经纬度信息,对目标进行跟踪,最终实现了在不依赖于视觉的目标跟踪技术的基础上,能够简单有效的对目标的进行跟踪。
以下举例说明所述目标跟踪方法的应用环境。
图1是本发明实施例提供的无飞行器的控制方法的应用环境的示意图;如图1所示,所述应用场景包括无人飞行器10、红外无线网路20、遥控装置30、用户40及目标50。用户40可利用遥控装置30通过所述红外无线网络控制无人飞行器10,所述无人飞行器10可对所述目标50进行跟踪。
无人飞行器10可以是以任何类型的动力驱动的无人飞行载具,包括但不限于旋翼无人飞行器、固定翼无人飞行器、伞翼无人飞行器、扑翼无人飞行器以及直升机模型等。
该无人飞行器10可以根据实际情况的需要,具备相应的体积或者动力,从而提供能够满足使用需要的载重能力、飞行速度以及飞行续航里程等。无人飞行器10上还可以添加有一种或者多种功能模块,令无人飞行器10能够实现相应的功能。
例如,在本实施例中,该无人飞行器10设置有电池模组、定位装置及红外发射装置、云台和航拍相机,航拍相机通过云台搭载在无人飞行器10上,以进行拍照、录像等工作。
云台用于实现航拍相机的固定、或用于随意调节航拍相机的姿态(例如,改变航拍相机的拍摄方向)以及使航拍相机稳定保持在设定的姿态上。云台20包括基座、电机和电机控制器,基座与无人飞行器固定连接或可拆卸连接,用于将航拍相机搭载在无人飞行器上;电机安装于基座,并与航拍相机连接,电机控制器与电机电连接,用于控制电机。云台可以为多轴云台,与之适应的,电机为多个,也即每个轴设置有一个电机。
多个电机一方面可带动航拍相机转动,从而满足航拍相机的不同拍摄方向的调节,通过手动远程控制电机旋转或利用程序让电机自动旋转,从而达到全方位扫描监控的作用;另一方面,在无人飞行器进行航拍的过程中,通过电机的转动实时抵消航拍相机受到的扰动,防止航拍相机抖动,保证拍摄画面的稳定。
航拍相机包括相机壳体和与相机壳体相连的摄像机,在相机壳体上设置有云台连接件,用于与云台连接,在相机壳体上还安装有深度相机,且深度相机与主摄像机安装在相机壳体的同一面上。深度相机可以横向、纵向或斜向安装在其安装面上,在云台电机转动时,深度相机与摄像机同步运动,始终朝向同一方向。
当所述电池模组接入所述无人飞行器10后,所述电池模组可为所述无人飞行器10提供电源。
所述定位装置可为GPS定位***,所述GPS定位***用于获取无人飞行器的实时的地理位置信息。
所述红外发射装置用于发送红外接入信息并接收遥控装置发出的红外控制指令,例如,当所述遥控装置发出红外控制指令时,所述红外发射装置接收到所述红外控制指令,进而使所述无人飞行器10根据所述红外控制指令控制所述无人飞行器10的启动状态。当所述电池模组接入所述无人飞行器10后,所述红外发射装置可将根据由电池模组的接入信息得到的红外接入信息,发送至所述遥控装置30。
无人飞行器10上包含至少一个飞控模组,作为无人飞行器10飞行和数据传输等的控制核心,具有对无人飞行器飞行和任务进行监控、运算和操纵的能力,在本实施例中,所述飞控模组还可将二进制数字信号调制成相应的光脉冲的形式的红外信号或将光脉冲的形式红外信号解调为二进制数字信号。遥控装置30可以是任何类型,用以与无人飞行器10建立通信连接的智能装置,例如手机、平板电脑、笔记本电脑或者其他移动操控终端等。
该遥控装置30装配有红外接收装置,所述红外接收装置用于接收红外接入信息并发送用于控制无人飞行器的红外控制指令。例如,所述遥控装置30可用于接收所述无人飞行器10当所述电池模组正常接入所述无人飞行器时生成的红外接入信息。所述遥控装置30同时可根据用户40的控制指令生成的红外控制指令发送至所述无人飞行器10,以控制所述无人飞行器10的启动状态。该遥控装置30还可以装配有用于控制定位画面、云台拍摄画面及瞄准画面回传的图传模组。在本实施例中,所述图传模组还可将二进制数字信号调制成相应的光脉冲的形式的红外信号或将光脉冲的形式红外信号解调为二进制数字信号。
该遥控装置30还可以装配有一种或者多种不同的用户40交互装置,用以采集用户40指令或者向用户40展示和反馈信息。
这些交互装置包括但不限于:按键、显示屏、触摸屏、扬声器以及遥控操作杆。例如,遥控装置30可以装配有触控显示屏,通过该触控显示屏接收用户40对无人飞行器10的遥控指令。
在一些实施例中,无人飞行器10与遥控装置30之间还可以融合现有的图像视觉处理技术,进一步的提供更智能化的服务。例如无人飞行器10可以通过双光相机采集图像的方式,由遥控装置30对图像进行解析,从而实现用户40对于无人飞行器10的手势控制。
图2为本发明实施例提供的一种目标跟踪方法的实施例。该方法可以由图1中的无人飞行器执行。具体地,请参阅图2,该方法可以包括但不限于如下步骤:
S10、获取所述无人飞行器的瞬时导航数据及所述云台的瞬时目标姿态角度。
其中,所述瞬时目标姿态角度包括瞬时航向角度和瞬时俯仰角度;所述瞬时导航数据包括瞬时经纬度信息及瞬时相对高度。所述瞬时相对高度是指当前时刻无人飞行器的云台与目标之间的垂直距离。
具体地,挂载在飞行中的无人飞行器上的云台要跟踪目标,需要实时知道目标相对于云台的瞬时俯仰角度和瞬时航向角度。通过地面站相机画面中目标的点击,自动调节云台角度将被点击的目标置于画面中心,通过图像和相机焦距的几何计算得出所述瞬时俯仰角度和瞬时航向角度。
S20、根据所述瞬时导航数据和所述瞬时目标姿态角度,得到目标经纬度信息。
具体地,根据得到的所述瞬时航向角度、所述瞬时俯仰角度、所述瞬时经纬度信息、所述瞬时相对高度,得到所述目标经纬度信息。
S30、根据所述目标经纬度信息,对目标进行跟踪。
具体地,首先获取所述无人飞行器的实时导航数据,然后根据所述实时导航数据和所述目标经纬度信息,得到所述云台的实时姿态角度,进而根据所述实时姿态角度,对目标进行跟踪。
其中,所述实时导航数据包括实时经纬度信息和实时相对高度。所述实时相对高度是指当前时刻无人飞行器的云台与目标之间的垂直距离。
进一步地,所述根据所述实时导航数据和所述目标经纬度信息,得到所述云台的实时姿态角度,包括:根据所述实时经纬度信息、所述目标经纬度信息和所述实时相对高度,得到所述实时姿态角度;根据所述实时姿态角度,对目标进行跟踪。
本发明实施例提供了一种目标跟踪方法,所述方法首先通过获取所述无人飞行器的瞬时导航数据及所述云台的瞬时目标姿态角度,然后根据所述瞬时导航数据和所述瞬时目标姿态角度,得到目标经纬度信息,进而根据所述目标经纬度信息,对目标进行跟踪,最终实现了在不依赖于视觉的目标跟踪技术的基础上,能够简单有效的对目标的进行跟踪。
为了更好的根据所述瞬时导航数据和所述瞬时目标姿态角度,得到目标经纬度信息,在一些实施例中,S20包括如下步骤:
根据所述瞬时航向角度、所述瞬时俯仰角度、所述瞬时经纬度信息、所述瞬时相对高度,得到所述目标经纬度信息。
其中,所述瞬时经纬度信息包括瞬时经度和瞬时纬度;所述目标经纬度信息包括目标经度和目标纬度。
具体地,通过如下算式,计算得到所述目标经度和目标纬度:
tanψ′=Δx/Δy=R纬(xtarget-x′plane)/(R地(ytarget-y′plane))
其中,ψ′为所述瞬时航向角度,θ′为所述瞬时俯仰角度,x′plane为所述瞬时经度,y′plane为所述瞬时纬度,xtarget为所述目标经度,ytarget为所述目标纬度,R地为地球半径,R纬为所述无人飞行器所在纬度的地球截面半径,H′为所述瞬时相对高度。
为了更好的根据所述目标经纬度信息,对目标进行跟踪,在一些实施例中,请参阅图3,S30包括如下步骤:
S31:获取所述无人飞行器的实时导航数据。
具体地,无人飞行器现有的卫星导航装置与机上现有的惯性导航设备结合生成所述实时导航数据。
S32:根据所述实时导航数据和所述目标经纬度信息,得到所述云台的实时姿态角度。
其中,所述实时导航数据包括实时经纬度信息和实时相对高度。
具体地,根据所述实时经纬度信息、所述目标经纬度信息和所述实时相对高度,得到所述实时姿态角度。
其中,所述实时姿态角度包括实时航向角度和实时俯仰角度,所述实时经纬度信息包括实时经度和实时纬度;
进一步地,通过如下算式,得到所述实时姿态角度:
tanψ=Δx/Δy=R纬(xtarget-xplane)/(R地(ytarget-yplane))
其中,ψ为所述实时航向角度,θ为所述实时俯仰角度,xplane为所述实时经度,yplane为所述实时纬度,xtarget为所述目标经度,ytarget为所述目标纬度,R地为地球半径,R纬为所述无人飞行器所在纬度的地球截面半径,H为所述实时相对高度。
S33:根据所述实时姿态角度,对目标进行跟踪。
需要说明的是,在上述各个实施例中,上述各步骤之间并不必然存在一定的先后顺序,本领域普通技术人员,根据本申请实施例的描述可以理解,不同实施例中,上述各步骤可以有不同的执行顺序,亦即,可以并行执行,亦可以交换执行等等。
作为本申请实施例的另一方面,本申请实施例提供一种目标跟踪装置60,所述目标跟踪装置应用于无人飞行器。请参阅图4,该目标跟踪装置60包括:瞬时数据获取模块61、目标经纬度信息获取模块62以及目标跟踪模块63。
所述瞬时数据获取模块61块用于获取所述无人飞行器的瞬时导航数据及所述云台的瞬时目标姿态角度。
所述目标经纬度信息获取模块62用于根据所述瞬时导航数据和所述瞬时目标姿态角度,得到目标经纬度信息。
所述目标跟踪模块63用于根据所述目标经纬度信息,对目标进行跟踪。
因此,在本实施例中,首先通过获取所述无人飞行器的瞬时导航数据及所述云台的瞬时目标姿态角度,然后根据所述瞬时导航数据和所述瞬时目标姿态角度,得到目标经纬度信息,进而根据所述目标经纬度信息,对目标进行跟踪,最终实现了在不依赖于视觉的目标跟踪技术的基础上,能够简单有效的对目标的进行跟踪。
其中,在一些实施例中,所述目标经纬度信息获取模块62具体用于根据所述瞬时航向角度、所述瞬时俯仰角度、所述瞬时经纬度信息、所述瞬时相对高度,得到所述目标经纬度信息。所述瞬时目标姿态角度包括瞬时航向角度和瞬时俯仰角度;所述瞬时导航数据包括瞬时经纬度信息及瞬时相对高度;
所述目标经纬度信息获取模块62还具体用于所述瞬时经纬度信息包括瞬时经度和瞬时纬度;所述目标经纬度信息包括目标经度和目标纬度;
通过如下算式,计算得到所述目标经度和目标纬度:
tanψ′=Δx/Δy=R纬(xtarget-x′plane)/(R地(ytarget-y′plane))
其中,ψ′为所述瞬时航向角度,θ′为所述瞬时俯仰角度,x′plane为所述瞬时经度,y′plane为所述瞬时纬度,xtarget为所述目标经度,ytarget为所述目标纬度,R地为地球半径,R纬为所述无人飞行器所在纬度的地球截面半径,H′为所述瞬时相对高度。
其中,在一些实施例中,所述目标跟踪模块包括实时导航数据获取单元、实时姿态角度计算单元及目标跟踪单元;
所述实时导航数据获取单元用于获取所述无人飞行器的实时导航数据;
所述实时姿态角度计算单元用于根据所述实时导航数据和所述目标经纬度信息,得到所述云台的实时姿态角度。
所述目标跟踪单元用于根据所述实时姿态角度,对目标进行跟踪。
在一些实施例中,所述实时导航数据获取单元具体用于根据所述实时经纬度信息、所述目标经纬度信息和所述实时相对高度,得到所述实时姿态角度。所述实时导航数据包括实时经纬度信息和实时相对高度。
所述实时导航数据获取单元还具体用于通过如下算式,得到所述实时姿态角度:
tanψ=Δx/Δy=R纬(xtarget-xplane)/(R地(ytarget-yplane))
其中,ψ为所述实时航向角度,θ为所述实时俯仰角度,xplane为所述实时经度,yplane为所述实时纬度,xtarget为所述目标经度,ytarget为所述目标纬度,R地为地球半径,R纬为所述无人飞行器所在纬度的地球截面半径,H为所述实时相对高度。所述实时姿态角度包括实时航向角度和实时俯仰角度;所述实时经纬度信息包括实时经度和实时纬度。
图5是本申请实施例提供的一种无人飞行器10的结构示意图,该无人飞行器10可以是任意类型的无人载具,能够执行上述相应的方法实施例提供的目标跟踪方法,或者,运行上述相应的装置实施例提供的目标跟踪装置60。所述无人飞行器包括:机身、机臂、动力装置、红外发射装置、飞控模组110、存储器120及通信模块130。
所述机臂与所述机身相连;所述动力装置设于所述机臂,用于给所述无人飞行器提供飞行的动力;所述红外发射装置设于所述机身内,用于发送红外接入信息并接收遥控装置发出的红外控制指令;
所述飞控模组具有对无人飞行器飞行和任务进行监控、运算和操纵的能力,包含对无人飞行器发射和回收控制的一组设备。所述飞控模组还可将二进制数字信号调制成相应的光脉冲的形式的红外信号或将光脉冲的形式红外信号解调为二进制数字信号。
所述飞控模组110、存储器120以及通信模块130之间通过总线的方式,建立任意两者之间的通信连接。
飞控模组110可以为任何类型,具备一个或者多个处理核心的飞控模组110。其可以执行单线程或者多线程的操作,用于解析指令以执行获取数据、执行逻辑运算功能以及下发运算处理结果等操作。
存储器120作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序、非暂态性计算机可执行程序以及模块,如本发明实施例中的目标跟踪方法对应的程序指令/模块(例如,附图4所示的瞬时数据获取模块61、目标经纬度信息获取模块62以及目标跟踪模块63)。飞控模组110通过运行存储在存储器120中的非暂态软件程序、指令以及模块,从而执行目标跟踪装置60的各种功能应用以及数据处理,即实现上述任一方法实施例中目标跟踪方法。
存储器120可以包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需要的应用程序;存储数据区可存储根据目标跟踪装置60的使用所创建的数据等。此外,存储器120可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施例中,存储器120可选包括相对于飞控模组110远程设置的存储器,这些远程存储器可以通过网络连接至无人飞行器10。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
所述存储器120存储有可被所述至少一个飞控模组110执行的指令;所述至少一个飞控模组110用于执行所述指令,以实现上述任意方法实施例中目标跟踪方法,例如,执行以上描述的方法步骤10、20、30等等,实现图4中的模块61-63的功能。
通信模块130是用于建立通信连接,提供物理信道的功能模块。通信模块130以是任何类型的无线或者有线通信模块130,包括但不限于WiFi模块或者蓝牙模块等。
进一步地,本发明实施例还提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令被一个或多个飞控模组110执行,例如,被图5中的一个飞控模组110执行,可使得上述一个或多个飞控模组110执行上述任意方法实施例中目标跟踪方法,例如,执行以上描述的方法步骤10、20、30等等,实现图4中的模块61-63的功能。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施方式的描述,本领域普通技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程是可以通过计算机程序产品中的计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非暂态计算机可读取存储介质中,该计算机程序包括程序指令,当所述程序指令被相关设备执行时,可使相关设备执行上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
上述产品可执行本发明实施例所提供的目标跟踪方法,具备执行目标跟踪方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明实施例所提供的目标跟踪方法。
本发明是参照根据本发明实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明,它们没有在细节中提供;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (6)
1.一种目标跟踪方法,应用于无人飞行器,所述无人飞行器设置有云台,其特征在于,包括:
获取所述无人飞行器的瞬时经度、瞬时纬度及瞬时相对高度;
获取所述云台的瞬时目标姿态角度,其中,所述云台的瞬时目标姿态角度通过点击地面站相机画面中的目标、自动调节所述云台角度将被所述目标置于画面中心、以及通过图像和相机焦距的几何计算得出;
根据所述瞬时经度、瞬时纬度、瞬时相对高度和所述瞬时目标姿态角度,得到目标经度和目标纬度;
获取所述无人飞行器的实时经度、实时纬度和实时相对高度;
根据所述实时经度、实时纬度、实时相对高度、所述目标经度、所述目标纬度、地球半径和所述实时纬度对应的地球截面半径,得到所述云台的实时姿态角度;
根据所述实时姿态角度,对目标进行跟踪。
2.根据权利要求1所述的方法,其特征在于,所述瞬时目标姿态角度包括瞬时航向角度和瞬时俯仰角度,所述实时姿态角度包括实时航向角度和实时俯仰角度。
5.一种目标跟踪装置,其特征在于,包括:
瞬时数据获取模块,用于:
获取无人飞行器的瞬时经度、瞬时纬度及瞬时相对高度,以及,获取所述无人飞行器的云台的瞬时目标姿态角度,其中,所述云台的瞬时目标姿态角度通过点击地面站相机画面中的目标、自动调节所述云台角度将被所述目标置于画面中心、以及通过图像和相机焦距的几何计算得出;
目标经纬度信息获取模块,用于根据所述瞬时经度、瞬时纬度、瞬时相对高度和所述瞬时目标姿态角度,得到目标经度和目标纬度;
实时姿态角度获取模块,用于获取所述无人飞行器的实时经度、实时纬度和实时相对高度,以及,
根据所述实时经度、实时纬度、实时相对高度、所述目标经度、所述目标纬度、地球半径和所述实时纬度对应的地球截面半径,得到所述云台的实时姿态角度;
目标跟踪模块,用于根据所述实时姿态角度,对目标进行跟踪。
6.一种无人飞行器,其特征在于,包括:
机身;
机臂,与所述机身相连;
动力装置,设于所述机臂,用于给所述无人飞行器提供飞行的动力;
飞控模组;以及
与所述飞控模组通信连接的存储器;其中,所述存储器存储有可被所述飞控模组执行的指令,所述指令被所述飞控模组执行,以使所述飞控模组能够用于执行如权利要求1-4任一项所述的目标跟踪方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911144128.4A CN110716579B (zh) | 2019-11-20 | 2019-11-20 | 目标跟踪方法及无人飞行器 |
PCT/CN2020/124049 WO2021098453A1 (zh) | 2019-11-20 | 2020-10-27 | 目标跟踪方法及无人飞行器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911144128.4A CN110716579B (zh) | 2019-11-20 | 2019-11-20 | 目标跟踪方法及无人飞行器 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110716579A CN110716579A (zh) | 2020-01-21 |
CN110716579B true CN110716579B (zh) | 2022-07-29 |
Family
ID=69216313
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911144128.4A Active CN110716579B (zh) | 2019-11-20 | 2019-11-20 | 目标跟踪方法及无人飞行器 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110716579B (zh) |
WO (1) | WO2021098453A1 (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110716579B (zh) * | 2019-11-20 | 2022-07-29 | 深圳市道通智能航空技术股份有限公司 | 目标跟踪方法及无人飞行器 |
CN111174937A (zh) * | 2020-02-20 | 2020-05-19 | 中国科学院半导体研究所 | 基于光电舱的扫描式红外体温检测装置及方法 |
CN112162570B (zh) * | 2020-10-10 | 2022-12-06 | 中国人民解放军海军航空大学 | 一种四旋翼直升飞机小范围动态跟踪的方法 |
CN112731918B (zh) * | 2020-11-30 | 2022-02-11 | 北京理工大学 | 一种基于深度学***台自主跟随*** |
CN113238568A (zh) * | 2021-04-26 | 2021-08-10 | 天津小鲨鱼智能科技有限公司 | 跟随方法、飞行器及第一设备 |
CN114650089B (zh) * | 2022-03-15 | 2023-09-22 | 广东汇天航空航天科技有限公司 | 飞行器定位跟踪处理方法、装置及定位跟踪*** |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105676865A (zh) * | 2016-04-12 | 2016-06-15 | 北京博瑞爱飞科技发展有限公司 | 目标跟踪方法、装置和*** |
CN109448055A (zh) * | 2018-09-20 | 2019-03-08 | 中国科学院光电研究院 | 单目视觉姿态确定方法及*** |
CN109753076A (zh) * | 2017-11-03 | 2019-05-14 | 南京奇蛙智能科技有限公司 | 一种无人机视觉追踪实现方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7349804B2 (en) * | 2004-10-18 | 2008-03-25 | Trex Enterprises Corp. | Daytime stellar imager |
CN102045549A (zh) * | 2010-12-28 | 2011-05-04 | 天津市亚安科技电子有限公司 | 一种控制监控设备联动跟踪运动目标的方法及装置 |
CN102156481B (zh) * | 2011-01-24 | 2013-06-05 | 广州嘉崎智能科技有限公司 | 无人飞行器的智能追踪控制方法及*** |
TW201328344A (zh) * | 2011-12-27 | 2013-07-01 | Hon Hai Prec Ind Co Ltd | 控制無人飛行載具進行影像採集的系統及方法 |
CN103149939B (zh) * | 2013-02-26 | 2015-10-21 | 北京航空航天大学 | 一种基于视觉的无人机动态目标跟踪与定位方法 |
US9025825B2 (en) * | 2013-05-10 | 2015-05-05 | Palo Alto Research Center Incorporated | System and method for visual motion based object segmentation and tracking |
CN105184776B (zh) * | 2015-08-17 | 2018-09-28 | 中国测绘科学研究院 | 目标跟踪方法 |
CN113038023A (zh) * | 2017-05-24 | 2021-06-25 | 深圳市大疆创新科技有限公司 | 拍摄控制方法及装置 |
FR3067634B1 (fr) * | 2017-06-15 | 2020-10-23 | Donecle | Plateforme de commande et de suivi des inspections de surfaces d'objets predetermines par des robots d'inspection et systeme d'inspection mettant en oeuvre une telle plateforme |
CN109814603A (zh) * | 2017-11-22 | 2019-05-28 | 深圳市科比特航空科技有限公司 | 一种应用于无人机的追踪***及无人机 |
CN108693892A (zh) * | 2018-04-20 | 2018-10-23 | 深圳臻迪信息技术有限公司 | 一种跟踪方法、电子装置 |
CN110716579B (zh) * | 2019-11-20 | 2022-07-29 | 深圳市道通智能航空技术股份有限公司 | 目标跟踪方法及无人飞行器 |
-
2019
- 2019-11-20 CN CN201911144128.4A patent/CN110716579B/zh active Active
-
2020
- 2020-10-27 WO PCT/CN2020/124049 patent/WO2021098453A1/zh active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105676865A (zh) * | 2016-04-12 | 2016-06-15 | 北京博瑞爱飞科技发展有限公司 | 目标跟踪方法、装置和*** |
CN109753076A (zh) * | 2017-11-03 | 2019-05-14 | 南京奇蛙智能科技有限公司 | 一种无人机视觉追踪实现方法 |
CN109448055A (zh) * | 2018-09-20 | 2019-03-08 | 中国科学院光电研究院 | 单目视觉姿态确定方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN110716579A (zh) | 2020-01-21 |
WO2021098453A1 (zh) | 2021-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110716579B (zh) | 目标跟踪方法及无人飞行器 | |
US11604479B2 (en) | Methods and system for vision-based landing | |
CN110494360B (zh) | 用于提供自主摄影及摄像的***和方法 | |
US9977434B2 (en) | Automatic tracking mode for controlling an unmanned aerial vehicle | |
EP3347789B1 (en) | Systems and methods for detecting and tracking movable objects | |
US11644839B2 (en) | Systems and methods for generating a real-time map using a movable object | |
JP6803919B2 (ja) | 飛行経路生成方法、飛行経路生成システム、飛行体、プログラム、及び記録媒体 | |
CN205263655U (zh) | 一种用于自动生成全景照片的***、无人飞行器及地面站 | |
WO2017075964A1 (zh) | 无人机拍摄控制方法、无人机拍摄方法、移动终端和无人机 | |
WO2016138687A1 (zh) | 多旋翼飞行器的控制***、终端及机载飞控*** | |
CN105045279A (zh) | 一种利用无人飞行器航拍自动生成全景照片的***及方法 | |
WO2018059398A1 (zh) | 多旋翼飞行器的控制方法、装置和*** | |
CN108780321B (zh) | 用于设备姿态调整的方法、设备、***和计算机可读存储介质 | |
WO2019128275A1 (zh) | 一种拍摄控制方法、装置及飞行器 | |
WO2020233682A1 (zh) | 一种自主环绕拍摄方法、装置以及无人机 | |
WO2020048365A1 (zh) | 飞行器的飞行控制方法、装置、终端设备及飞行控制*** | |
CN110278717B (zh) | 控制飞行器飞行的方法及设备 | |
CN110308743B (zh) | 一种飞行器控制方法、装置及飞行器 | |
CN110708473B (zh) | 高动态范围图像曝光控制方法、航拍相机及无人飞行器 | |
US20220345607A1 (en) | Image exposure method and device, unmanned aerial vehicle | |
CN110891149B (zh) | 高动态范围图像自动曝光方法及无人飞行器 | |
CN112882645B (zh) | 航道规划方法、控制端、飞行器及航道规划*** | |
WO2022188151A1 (zh) | 影像拍摄方法、控制装置、可移动平台和计算机存储介质 | |
CN114697554A (zh) | 无人机的拍摄方法、***、终端设备及存储介质 | |
CN117044218A (zh) | 可移动平台及其组件的控制方法、装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 518055 Guangdong city of Shenzhen province Nanshan District Xili Street Xueyuan Road No. 1001 Chi Yuen Building 9 layer B1 Applicant after: Shenzhen daotong intelligent Aviation Technology Co.,Ltd. Address before: 518055 Guangdong city of Shenzhen province Nanshan District Xili Street Xueyuan Road No. 1001 Chi Yuen Building 9 layer B1 Applicant before: AUTEL ROBOTICS Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |