CN113625774A - 局部地图匹配与端到端测距多无人机协同定位***和方法 - Google Patents
局部地图匹配与端到端测距多无人机协同定位***和方法 Download PDFInfo
- Publication number
- CN113625774A CN113625774A CN202111063498.2A CN202111063498A CN113625774A CN 113625774 A CN113625774 A CN 113625774A CN 202111063498 A CN202111063498 A CN 202111063498A CN 113625774 A CN113625774 A CN 113625774A
- Authority
- CN
- China
- Prior art keywords
- unmanned aerial
- pose
- aerial vehicle
- uav
- map matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005259 measurement Methods 0.000 title claims abstract description 40
- 238000000034 method Methods 0.000 title claims description 94
- 238000004364 calculation method Methods 0.000 claims abstract description 15
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 13
- 238000004891 communication Methods 0.000 claims abstract description 11
- 230000006855 networking Effects 0.000 claims abstract description 7
- 230000007613 environmental effect Effects 0.000 claims abstract description 5
- 230000001133 acceleration Effects 0.000 claims abstract description 4
- 230000000007 visual effect Effects 0.000 claims description 88
- 239000013598 vector Substances 0.000 claims description 53
- 230000033001 locomotion Effects 0.000 claims description 39
- 238000005457 optimization Methods 0.000 claims description 35
- 230000006870 function Effects 0.000 claims description 22
- 238000010586 diagram Methods 0.000 claims description 19
- 238000010276 construction Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 15
- 238000005516 engineering process Methods 0.000 claims description 14
- 239000011159 matrix material Substances 0.000 claims description 14
- 230000008447 perception Effects 0.000 claims description 11
- 230000005540 biological transmission Effects 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 6
- 238000004806 packaging method and process Methods 0.000 claims description 5
- 238000013450 outlier detection Methods 0.000 claims description 4
- 230000008878 coupling Effects 0.000 claims description 3
- 238000010168 coupling process Methods 0.000 claims description 3
- 238000005859 coupling reaction Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 239000003795 chemical substances by application Substances 0.000 claims 2
- 230000004807 localization Effects 0.000 claims 1
- 238000012856 packing Methods 0.000 claims 1
- 230000008901 benefit Effects 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
- G05D1/104—Simultaneous control of position or course in three dimensions specially adapted for aircraft involving a plurality of aircrafts, e.g. formation flying
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
- Navigation (AREA)
Abstract
本发明涉及多无人机编队飞行与避碰领域,为实现在保证高精度的自身位置估计同时计算同伴位置。同时,具有良好的鲁棒性和抗干扰能力,可以在测距产生离群值或者地图匹配暂时失效时仍能做到对同伴的位置估计,本发明,局部地图匹配与端到端测距多无人机协同定位***和方法,包括:四旋翼结构无人机,进行高频图像采集的工业级灰度相机作为机载环境特征感知设备;IMU惯性测量单元用于高频测量无人机的加速度和角速度信息;机载计算机内置wifi模块用于支持无人机间通讯;机载UWB模块进行测距组网;机载飞行控制器作为无人机的姿态控制器实现无人机的完整闭环飞行。本发明主要应用于多无人机编队飞行与避碰场合。
Description
技术领域
本发明涉及多无人机编队飞行与避碰避障领域,尤其涉及一种无人机编队成员协同定位与状态估计领域。具体讲,涉及基于局部地图匹配与端到端测距的多无人机协同定位方法。
背景技术
小型四旋翼无人机由于机动性高,具有俯瞰视角等优点,已被逐渐应用于军事甚至是民用领域。随着使用场景日益丰富,为提升作战效率和任务成功率,多无人机***开始进入人们的视线。多无人机***拥有极高的互相协作能力,能够在更多的环境和场景下提供更大的覆盖面积、更优的感知能力,在进行复杂且危险的任务时,能够更好的降低风险。直至目前多无人机协作任务多局限于可通过全球导航卫星***(GNSS)为无人机提供绝对位置的环境,而导航定位拒止环境下的多无人机感知和避碰避障仍存在极大的挑战性,特别是在城市峡谷、室内或森林中作业时,导航定位拒止环境会严重影响无人机的任务执行效率。
多无人机在执行协作任务时,为了达到编队飞行、内部避碰避障等目标,需要在明确自身位置的基础上,进一步感知和估计同伴位置。在导航定位拒止环境下可为多无人机***提供所需位置信息的方法有室内定位***,其通过在室内布置多个动作捕捉相机跟踪目标运动,然后定位***将目标位置反馈到地面站,由地面站广播各无人机位置,这种方法的定位精度能够达到厘米级,但缺点是造价昂贵和有限的覆盖范围。超宽带(Ultra-Wideband,UWB)是近年来一种新颖的电波测距技术,它通过测量电波的飞行时间、到达时间差或到达角计算出两个模块之间的距离。由于发射电波的波段在3.1GHz-4.8GHz之间,能够有效克服其他电波信号的干扰。此外其较高的带宽能够轻易克服多径效应、减弱非视距测量的影响。超宽带技术可替代昂贵的室内定位***来支持多无人机定位,基本原理是在环境四周部署已知全局位置的UWB锚点,每个飞机上固连一个UWB标签,标签与锚点间周期性测距,再通过三边测量或卡尔曼滤波算法定位,***中的个体通过共享位置信息即可感知同伴。目前,新加坡南洋理工大学谢立华团队、新加坡国立大学陈本美团队已经使用这种方法完成了多无人机编队飞行,但是这种部署锚点的方法同样限制了覆盖范围,不能使多无人机***即刻应用于未知环境。
相对于部署锚点等外部设施,无人机搭载相机和IMU等机载传感器就能够在未知场景中完成自主定位,然后通过相互协作和交换信息感知同伴(协同定位),基本原理是无人机通过提取和跟踪环境特征完成自身位置估计和特征深度恢复,然后无人机间通过共享的环境特征与存储的稀疏地图匹配,可获得同伴相对于自身惯性参考系的位置。香港科技大学Aerial Robotics Group、苏黎世联邦理工学院Vision for Robotics Lab已经使用这种方法进行了多无人机编队飞行实验,但是这种方法也存在着明显的不足,首先是要求无人机飞行轨迹具有部分重叠且相机的拍摄视角基本相同以满足地图匹配的要求,其次是地图可能会误匹配导致错误的位姿对齐结果,另外视觉定位方法由于边缘化等原因具有长时间位姿估计漂移问题,导致整个多无人机***随着时间增长协同定位精度下降。
综上所述,国内外学者针对多无人机***位置感知问题进行了卓有成效的研究,并取得了***的研究成果。然而,无论是基于UWB锚点还是基于局部地图匹配的方法,均不能使无人机在未知环境下长时间、高精度地完成对自身和同伴的位置估计。
发明内容
为克服现有技术的不足,本发明旨在解决导航定位拒止环境下多无人机***位置感知问题,提出一种基于局部地图匹配与端到端测距的多无人机协同定位方法,该方法不需要在环境中部署任何设施,多无人机间仅需相互测距和信息共享,就可在保证高精度的自身位置估计同时计算同伴位置。同时,该方法具有良好的鲁棒性和抗干扰能力,可以在测距产生离群值或者地图匹配暂时失效时仍能做到对同伴的位置估计。为此,本发明采取的技术方案是,局部地图匹配与端到端测距多无人机协同定位***,包括:四旋翼结构无人机,进行高频图像采集的工业级灰度相机作为机载环境特征感知设备,左右目相机型号相同,左右目相机通过固连方式连接在无人机机架上,并通过硬件触发方式同步触发采集图像;IMU惯性测量单元用于高频测量无人机的加速度和角速度信息,内部由一个三轴陀螺仪和三轴加速度计组成;机载计算机内置wifi模块用于支持无人机间通讯;机载UWB模块进行测距组网,每个模块按照时分多址TDMA协议依次向组网内的节点测距;机载飞行控制器作为无人机的姿态控制器实现无人机的完整闭环飞行;机载计算机中进行:
(1)视觉惯性里程计
使用视觉惯性里程计将双目相机和IMU测量值做融合进行自主定位和状态估计进而反馈到控制器完成自主飞行,视觉惯性里程计基本的输出结果包括无人机位姿和稀疏环境地图,为支持协同定位工作,视觉惯性里程计还负责创建、打包和广播关键帧消息作为无人机间的信息传递;
(2)局部地图匹配
当集群中某一无人机UAVi,i∈{α,β,γ,…}收到询问方广播的关键帧消息时,使用词袋模型技术将图像特征描述子转换为特征向量,对自己的数据库内各帧图像做相似性评分,选出评分最高的图像作为匹配帧并将图像信息回复给询问方,询问方使用当前帧恢复出的3D局部稀疏地图与匹配帧的2D特征点做匹配,计算出两无人机在产生互回环时刻的相对位姿;
(3)位姿图优化
位姿图优化环节负责根据无人机间的相互观测、共享信息和待优化、待对齐的位姿变量建立联系,以高斯-牛顿G-N法或最小二乘估计L-M迭代变量使得代价函数最小,这样做的结果是每个无人机在确保自身准确的位置估计同时也可做到对同伴位置的感知协同定位,进而方便的执行编队飞行、避碰避障任务。
局部地图匹配与端到端测距多无人机协同定位方法,利用前述***实现,利用机载计算机进行:
(1)视觉惯性里程计
使用视觉惯性里程计将双目相机和IMU测量值做融合进行自主定位和状态估计进而反馈到控制器完成自主飞行,视觉惯性里程计基本的输出结果包括无人机位姿和稀疏环境地图,为支持协同定位工作,视觉惯性里程计还负责创建、打包和广播关键帧消息作为无人机间的信息传递;
(2)局部地图匹配
当集群中某一无人机UAVi,i∈{α,β,γ,…}收到询问方广播的关键帧消息时,使用词袋模型技术将图像特征描述子转换为特征向量,对自己的数据库内各帧图像做相似性评分,选出评分最高的图像作为匹配帧并将图像信息回复给询问方,询问方使用当前帧恢复出的3D局部稀疏地图与匹配帧的2D特征点做匹配,计算出两无人机在产生互回环时刻的相对位姿;
(3)位姿图优化
位姿图优化环节负责根据无人机间的相互观测、共享信息和待优化、待对齐的位姿变量建立联系,以G-N法或L-M迭代变量使得代价函数最小,这样做的结果是每个无人机在确保自身准确的位置估计同时也可做到对同伴位置的感知协同定位,进而方便的执行编队飞行、避碰避障任务。
其中:
第一部分,视觉惯性里程计详细步骤:双目相机与IMU融合可组成较为鲁棒的视觉惯性里程计,用于实时估计无人机在自身惯性参考系下的状态,采用基于关键帧方法的紧耦合优化视觉惯性里程计,在滑动窗口中将相机关键帧和IMU测量值组成集束调整方程,里程计的输出结果包括自身位姿和稀疏局部地图点,位姿信息用于反馈到控制器保持闭环,为支持后续的协同定位工作,里程计在原有基础上额外增加特征提取环节,当UAVi,i∈{α,β,γ}在k时刻捕获到最新的关键帧KFk时,特征提取环节执行以下步骤:
4)对***中的无人机广播关键帧消息
关键帧消息包含丰富的视觉信息和运动信息,视觉信息用于查找无人机之间的地图匹配,运动信息用于计算运动增量;
第二部分,局部地图匹配详细步骤:关键帧消息中的视觉特征信息用于无人机进行局部地图匹配,如果多个无人机重复飞越了同一场景导致捕获了某些相似的视觉特征,这种情况称为互回环,互回环可用于无人机间进行局部地图匹配,从而计算出互回环时刻的相对位姿,当无人机采集到最新时刻的关键帧时,它的视觉惯性里程计会向局域网络内广播关键帧信息,询问同伴是否经历过相似场景,同伴收到消息后,它的局部地图匹配环节会生成最新帧的特征向量然后在图像数据库搜寻匹配帧,向询问方答复,一旦询问方收到答复将使用PnP算法计算出二者的相对位姿,这个相对位姿将被送入图优化环节以对齐同伴的位姿至自身的惯性参考系:
1)特征向量生成
特征向量的生成使用词袋模型BOW技术,词袋模型技术可将图像特征描述为特征向量,无人机对两帧图像相似度的比较可进而转换成对特征向量的定量比较,词袋模型将图像看成若干个“视觉词汇”的集合,视觉词汇之间没有顺序;
使用词袋模型技术首先需要构造视觉字典,字典是视觉词汇的全集,无人机根据一张图像的视觉词汇出现情况,构造一个以字典为基底的二进制向量,称为特征向量,表征图像中是否有某类特征存在,首先采用kmeans++算法离线构造字典,然后再将字典内置于每一个无人机中,其基本步骤如下:
1)在相似环境中采集大量训练图像,对于每一张字典训练图像,提取不少于1000个的特征点,并且使用BRIEF描述子表征特征点;
2)使用kmeans++算法对描述子进行k中值聚类,把描述子空间离散化为k个二进制聚类,这些聚类形成字典树中的第一层节点;
3)对第一层中每个节点相关联的描述子重复聚类操作再聚成k类得到第二层节点,这个步骤的递归深度为d,最后会得到一个拥有n个叶子节点的字典树,每一个叶子节点即为视觉词汇;
在构建字典时还要分配词汇的权重,采用频率—逆文档频率TF-IDF分配视觉词汇权重,TF表示视觉词汇在一幅图像中出现的频率越高,这个词汇的区分度就高,应该加大权重,因此TF可表达为:
其中mi表示该词汇ωi在一幅图像中出现的次数,m为图像中的词汇总数;
IDF认为某个词汇在字典中出现的频率越低,则在分类图像时区分度越高,应该加大权重,因此IDF表达为:
其中ni表示建立的字典中词汇ωi的数量,n是字典中所有视觉词汇的数量;
一个词汇的权重取为TF和IDF的乘积:
ηi=TFi×IDFi
无人机在生成k时刻图像KFk的特征向量时,将图像特征点的BRIEF描述子与构建好的字典进行比对,选择每个层级内使汉明距离最小的中值节点,从树根开始自上而下遍历字典直到叶节点,构造出一幅图像的带权重特征向量:
vk={(ω1,η1),(ω2,η2),…,(ωn,ηn)}
2)数据库搜索
当字典是在相似环境下训练好的模型时,无人机搭载的机载计算机可实时生成特征向量并进行相似图像搜索,UAVα在k时刻广播的关键帧消息被UAVβ收到,UAVβ的数据库搜索环节使用视觉字典创建图像特征向量,随后向图像数据库查找匹配帧,设UAVα的关键帧KFα特征向量为vα,UAVβ数据库中某一帧图像KFβ特征向量为vβ:
vα={(ω1,η1),(ω2,η2),…,(ωn,ηn)}
vβ={(ω1,η1),(ω2,η2),…,(ωn,ηn)}
式中ω为视觉词汇,η为对应的权值。UAVβ为了评估两帧图像的相似性需要对特征向量进行相似性评分,鉴于向量的维数较大,本***选择计算量较低的L1范数来计算相似性评分:
如相似性评分大于某一阈值,则UAVβ认为KFα和KFβ包含相似的场景,即KFβ是KFα匹配帧。此时,UAVβ会将匹配帧相关视觉特征打包成消息发送回询问方,以便询问方UAVα的PnP环节计算二者的相对位姿;
3)计算相对位姿
当询问方UAVα收到了UAVβ回复的匹配帧消息,便可进一步计算两无人机在当前关键帧时刻的相对位姿矩阵为后续位姿图优化环节提供局部地图匹配观测,具体来说,一旦收到匹配帧,询问方UAVα的PnP环节用当前关键帧KFα恢复出的稀疏局部地图与匹配帧KFβ中的特征点进行匹配,通过比较BRIEF描述子寻找最小汉明距离可确认两帧间的一组3D地图点-2D特征点集,通过这组3D-2D点集可计算出匹配帧相机系cβ在当前帧惯性参考系wα下的位姿再通过已知参数可进一步推导出两无人机机体系间的相对位姿αTβ;
根据一组3D-2D点集计算相机系-惯性系间的位姿,采用结合RANSAC方法的PnP求解方式,PnP的计算结果为为得到两无人机的相对位姿,UAVα将自身的里程计输出默认为已知的相机外参矩阵与PnP计算结果相乘,推导出两无人机机体系的相对位姿:
第三部分,位姿图优化:协同定位方法的核心是位姿图优化环节,图优化环节负责根据无人机间的相互观测、共享信息和待优化、待对齐的位姿变量建立联系,以G-N法或L-M迭代变量使得代价函数最小,详细步骤如下:
图优化环节把待求解的问题表示成图Graph简写为G,一个图由若干个角点Vertex,以及连接着这些角点的边Edge组成,图G可以用数学表示为G={V,E},其中V为角点集,角点表示待优化的变量;E为边集,边表示角点之间的联系,角点为所有个体在自身惯性参考系wα下的位姿边为无人机的观测量,包括运动增量观测既增量边,局部地图匹配观测既地图匹配边,UWB距离观测既测距边:
1)运动增量观测构建
关键帧消息包含视觉特征信息和无人机运动信息,视觉特征信息用于局部地图匹配,运动信息用于计算运动增量,当无人机接收到任一同伴的关键帧消息,首先将其存入到消息队列,然后提取当前时刻k与较早某时刻k-l关键帧消息中的里程计部分计算运动增量,过程如下:
2)局部地图匹配观测构建
局部地图匹配观测来自PnP环节的输出结果,表达式如下:
其中i,j∈{α,β,γ},其具体构建过程参考局部地图匹配原理;
3)UWB距离观测构建
UWB模块作为机载传感器安装在每一个无人机上,负责周期性地测量无人机之间的相对距离,其测量过程列写为:
4)离群值检测方法
如果局部地图匹配观测或UWB距离观测满足以下三条之一则认为产生了离群值,离群值将不会用于构建位姿图:
其中i,j∈{α,β,γ},条件1表示前后两次地图匹配计算的相对位姿应当与运动增量形成一个闭环,这里默认第一次地图匹配观测是正确的;条件2表示某时刻的UWB距离观测应该与地图匹配产生的相对位姿保持一致,这里(·)p表示取变换矩阵中的3维位置部分;条件3表示前后两次距离测量不应超过某一阈值,vmax表示两机最大相对速度;
5)位姿图构建
对于***中包含三个无人机UAVα、UAVβ和UAVγ,对于UAVα来说,其根据无人机间的相互观测构建位姿图从而转化为代价函数,通过调整位姿角点使得代价函数整体最小,在一个大小为n的滑动窗口内,定义待优化位姿角点为:
角点之间以各种边相连,边包括增量边、地图匹配边和测距边;
1)增量边
增量边仅连接单个无人机位姿角点,表示滑动窗口中某无人机kl时刻位姿与kl-m时刻位姿之间的运动增量,令m=3,即一个位姿角点最多与前面三个角点用增量边连接,其与位姿角点存在如下关系:
2)地图匹配边
地图匹配边连接多个无人机位姿角点,表示询问方当前帧与应答方匹配帧存在局部地图匹配关系,其与位姿角点存在如下关系:
3)测距边
测距边连接多个无人机位姿角点,表示某一时刻两机的相对距离,测距值可直接通过UWB传感器读取,其与位姿角点存在如下关系:
由上述位姿图转化的代价函数表示为:
通过求解代价函数,无人机UAVα再次优化了自身位姿,同时将同伴的位姿对齐至惯性参考系wα下,从而完成协同定位工作;
对于多于3架无人机,按照3架无人机位姿图构建步骤类推。
由于局部地图匹配环节需要无人机实时交换数据,要综合考虑网络带宽、通信次序、空间时间复杂度等要求,还要考虑到无人机群规模的可扩展性,设计特定的通讯策略:
某时刻UAVα将关键帧消息广播至网络中向***内的无人机询问是否存在匹配帧,UAVβ的数据库搜索环节程序使用词袋模型技术搜索图像数据库,一旦发现匹配帧会将图像信息打包成消息回复给UAVα,询问方收到回复消息,执行带RANSAC算法的PnP求解出进而推导出二者的相对位姿相对位姿不仅会被送入图优化环节构建位姿图,还会拷贝一份副本发送给UAVβ,目的是避免UAVβ重复计算。
结合RANSAC方法的PnP求解方式步骤如下:针对每一次迭代,首先在3D-2D点集C中随机选择n对数据构成猜测点集Cguess,利用Cguess进行PnP求解得到猜测位姿Tguess,将Cguess赋给一个临时变量Ctemp,对C中除了Cguess的所有元素,若某元素与Tguess之间的重投影误差小于一定阈值τ,则将该元素加入临时变量Ctemp;如果Ctemp中元素数量大于一定阈值d,则利用Ctemp进行PnP求解得到更加精确的位姿Tbetter,若此次操作得到的位姿Tbetter与Ctemp之间的重投影误差ebetter比上一次得到的最佳误差ebest要小,则对最佳位姿估计Tbest、重投影误差ebest、最佳匹配点集Cbest进行更新;重复执行以上操作直至达到迭代次数即可;PnP的计算结果为为得到两无人机的相对位姿,UAVα将自身的里程计输出默认为已知的相机外参矩阵与PnP计算结果相乘,推导出两无人机机体系的相对位姿:
本发明的特点及有益效果是:
本发明对解决导航定位拒止环境下多无人机***位置感知问题具有十分重要的意义,本发明稳定可靠,不易受到环境和离群值的影响,同时算法节省计算资源,对硬件计算能力要求较低,具有很高的理论与使用价值。本发明主要具有以下的特点和优点:
(1)本发明提出的基于局部地图匹配与端到端测距的多无人机协同定位方法精度高、成本低廉、实用性强。传统导航定位拒止环境下的多无人机编队状态估计与避碰避障问题常采用室内定位***等解决方法造价昂贵,而且需要在室内布置多个标定好的高精度相机导致覆盖范围有限,不能即刻应用于未知场景。而本发明提出的基于局部地图匹配与端到端测距的多无人机协同定位方法不需要预先在环境中部署任何设施,仅靠无人机间相互测距与信息交换即可高精度的感知同伴位置。
(2)本发明提出的基于局部地图匹配与端到端测距的多无人机协同定位方法鲁棒性高、通用性强、不受集群个体数量限制。传统的基于稀疏地图匹配的协同定位方法要求多无人机飞行轨迹有相当部分的重叠,且要求相机的拍摄视角基本相同,一旦无法找到匹配特征则这种方法的估计精度随时间的增长开始下降,不能保证多无人机***长期运行。而本发明提出的基于局部地图匹配与端到端测距的多无人机协同定位方法在地图匹配暂时失效时仍用UWB距离测量持续优化位姿以保证定位精度,确保无人机高精度、持续稳定地估计同伴位置。
(3)本发明提出的基于局部地图匹配与端到端测距的多无人机协同定位方法节省网络带宽,无人机间仅需少量的信息交换。传统的基于稀疏地图匹配的协同定位方法需要无人机发送未压缩的关键帧图像,而传输图像需要消耗大量的网络资源,当集群规模扩大到一定程度时会导致局域网络陷入堵塞,导致算法无法实时运行。而本发明提出的基于局部地图匹配与端到端测距的多无人机协同定位方法仅提取图像中的少量特征点和描述子,连同里程计估计值打包成关键帧消息发送至局域网络,这个过程几乎没有带宽消耗。
(4)本发明搭建多无人机协同定位硬件平台可扩展性强。除了IMU、双目相机和UWB等传感器设备之外,开发者还可自行添加传感器设备,如激光雷达等,在软件算法流程基本不变的情况下进行二次开发。
附图说明:
附图1多无人机协同定位方法硬件平台架构图。
附图2多无人机协同定位方法软件算法流程图。
附图3视觉字典建立过程图。
附图4结合RANSAC方法的PnP求解流程图。
附图5局部地图匹配示意图。
附图6数据交换机制示意图。
附图7离群值检测方法示意图。
附图8位姿图建立示意图。
附图9 UAVα将UAVβ和UAVγ的位姿对齐至wa系的轨迹图。
附图10 UAVα将UAVβ和UAVγ的位姿对齐至wa系的曲线图。
具体实施方式
本发明旨在解决导航定位拒止环境下多无人机***位置感知问题,提出一种基于局部地图匹配与端到端测距的多无人机协同定位方法,该方法不需要在环境中部署任何设施,多无人机间仅需相互测距和信息共享,就可在保证高精度的自身位置估计同时计算同伴位置。同时,该方法具有良好的鲁棒性和抗干扰能力,可以在测距产生离群值或者地图匹配暂时失效时仍能做到对同伴的位置估计。本发明采用的技术方案包括硬件和软件两部分,硬件部分为多无人机感知、通信和计算提供设备支持,包括:机载双目相机、IMU惯性测量传感器、UWB测距模块、机载计算机和无人机底层飞行控制平台,其具体的硬件平台架构图如附图1所示。软件部分通过传感器测量值解算出自身和同伴位置,为无人机控制器和航迹规划提供反馈信息,包括:视觉惯性里程计、局部地图匹配和位姿图优化,其具体的软件流程图如图2所示。
下面针对本发明中的硬件和软件部分做具体说明。
硬件部分:
综合考虑各类传感器的特性,平衡无人机平台的动力、功能与功耗等各方面具体指标,再根据各部分算法的要求设计了如附图1所示的硬件平台。平台采用轴距为650mm的四旋翼结构无人机,选择可进行高频图像采集的工业级灰度相机作为机载环境特征感知设备,左右目相机型号均为FLIR Chameleon3,分辨率采用752*480px,采集频率设为20Hz,左右目相机通过固连方式连接在无人机机架上,并通过硬件触发方式同步触发采集图像。IMU惯性测量单元用于高频测量无人机的加速度和角速度信息,内部由一个三轴陀螺仪和三轴加速度计组成,本发明选择MicroStrain 3DM-GX5-15型号IMU,频率设定为500Hz。机载计算机选用Intel NUC8i7BEH,其包含四核CPU及八个***级线程和32G内存,主频最高达4.5GHz,计算机内置wifi模块用于支持无人机间通讯。UWB选择搭载美国Time domain公司生产的P440模块,此UWB模块的功耗极小(~50uW),且有较高的测距精度和较鲁棒的抗多径干扰能力,多无人机***内的UWB模块构成测距组网,每个模块按照TDMA(时分多址)协议依次向组网内的节点测距。Pixhawk飞行控制器作为无人机的姿态控制器实现无人机的完整闭环飞行。
软件部分:
(1)视觉惯性里程计
每个无人机使用视觉惯性里程计将双目相机和IMU测量值做融合进行自主定位和状态估计进而反馈到控制器完成自主飞行,协同定位部分作为后续模块置于里程计之后独立运行,将里程计与协同定位部分独立开来的好处是即使协同定位部分暂时失效或发生错误,单个无人机仍能维持闭环,保持自主飞行能力。视觉惯性里程计基本的输出结果包括无人机位姿和稀疏环境地图,为支持协同定位工作,视觉惯性里程计还负责创建、打包和广播关键帧消息作为无人机间的信息传递。
(2)局部地图匹配
当集群中某一无人机UAVi,i∈{α,β,γ,…}收到询问方广播的关键帧消息时,使用词袋模型技术将图像特征描述子转换为特征向量,对自己的数据库内各帧图像做相似性评分,选出评分最高的图像作为匹配帧并将图像信息回复给询问方。询问方使用当前帧恢复出的3D局部稀疏地图与匹配帧的2D特征点做匹配,计算出两无人机在产生互回环时刻的相对位姿。
(3)位姿图优化
协同定位方法的核心是位姿图优化环节,位姿图优化环节负责根据无人机间的相互观测、共享信息和待优化、待对齐的位姿变量建立联系,以以高斯-牛顿G-N(Gauss-Newton)法或最小二乘估计L-M(Levenberg-Marquardt)迭代变量使得代价函数最小,这样做的结果是每个无人机在确保自身准确的位置估计同时也可做到对同伴位置的感知(协同定位),进而方便的执行编队飞行、避碰避障等任务。
本发明针对导航定位拒止环境下多无人机***位置感知问题,在无人机相互观测与信息共享的基础上,首次提出基于局部地图匹配与端到端测距的多无人机协同定位方法,使无人机在保证高精度的位置估计同时感知同伴状态。
下面结合附图对基于局部地图匹配与端到端测距的多无人机协同定位方法做进一步说明。
协同定位方法硬件平台如附图1所示,各传感器通过USB或者串口的方式连接到机载计算机,计算机解析出的位姿信息经由串口发送到Pixhawk飞行控制器做进一步姿态控制,以驱动电机电调完成无人机飞行或悬停功能。
协同定位软件算法是在Linux操作***下基于ROS(Robot Operating System)机器人开源框架以C++语言程序实现,算法流程如附图2所示。以下针对各部分流程做具体说明,为叙述清晰,这里设多无人机***由三架飞机UAVα,UAVβ,UAVγ组成。
第一部分,视觉惯性里程计:双目相机与IMU融合可组成较为鲁棒的视觉惯性里程计,用于实时估计无人机在自身惯性参考系下的状态,本发明采用基于关键帧方法的紧耦合优化视觉惯性里程计,在滑动窗口中将相机关键帧和IMU测量值组成集束调整方程,里程计的输出结果包括自身位姿和稀疏局部地图点,位姿信息用于反馈到控制器保持闭环。为支持后续的协同定位工作,里程计在原有基础上额外增加特征提取环节。当UAVi,i∈{α,β,γ}在k时刻捕获到最新的关键帧KFk时,它的特征提取环节执行以下步骤:
4)对***中的无人机广播关键帧消息
关键帧消息包含丰富的视觉信息和运动信息,视觉信息用于查找无人机之间的地图匹配,运动信息用于计算运动增量。
第二部分,局部地图匹配:关键帧消息中的视觉特征信息用于无人机进行局部地图匹配,如果多个无人机重复飞越了同一场景导致捕获了某些相似的视觉特征,这种情况称为互回环。互回环可用于无人机间进行局部地图匹配,从而计算出互回环时刻的相对位姿。当无人机采集到最新时刻的关键帧时,它的视觉惯性里程计会向局域网络内广播关键帧信息,询问同伴是否经历过相似场景,同伴收到消息后,它的局部地图匹配环节会生成最新帧的特征向量然后在图像数据库搜寻匹配帧,向询问方答复。一旦询问方收到答复将使用PnP算法计算出二者的相对位姿,这个相对位姿将被送入图优化环节以对齐同伴的位姿至自身的惯性参考系。
1)特征向量生成
特征向量的生成使用词袋模型(Bag of Word,BOW)技术,词袋模型技术可将图像特征描述为特征向量,无人机对两帧图像相似度的比较可进而转换成对特征向量的定量比较,词袋模型将图像看成若干个“视觉词汇”的集合,视觉词汇之间没有顺序。
使用词袋模型技术首先需要构造视觉字典,字典是视觉词汇的全集,无人机根据一张图像的视觉词汇出现情况,可以构造一个以字典为基底的二进制向量,称为特征向量,表征图像中是否有某类特征存在。本发明首先采用kmeans++算法离线构造字典,然后再将字典内置于每一个无人机中。字典构建过程附图3所示,其基本步骤如下:
1)在相似环境中采集大量训练图像,对于每一张字典训练图像,提取不少于1000个的特征点,并且使用BRIEF描述子表征特征点
2)使用kmeans++算法对描述子进行k中值聚类,把描述子空间离散化为k个二进制聚类,这些聚类形成字典树中的第一层节点
3)对第一层中每个节点相关联的描述子重复聚类操作再聚成k类得到第二层节点,这个步骤的递归深度为d,最后会得到一个拥有n个叶子节点的字典树,每一个叶子节点即为视觉词汇
在构建字典时还要分配词汇的权重,本***采用频率—逆文档频率(TermFrequency-Inverse Document Frequency,TF-IDF)分配视觉词汇权重。TF表示视觉词汇在一幅图像中出现的频率越高,这个词汇的区分度就高,应该加大权重,因此TF可表达为:
其中mi表示该词汇ωi在一幅图像中出现的次数,m为图像中的词汇总数。
IDF认为某个词汇在字典中出现的频率越低,则在分类图像时区分度越高,应该加大权重,因此IDF可表达为:
其中ni表示建立的字典中词汇ωi的数量,n是字典中所有视觉词汇的数量。
一个词汇的权重取为TF和IDF的乘积:
ηi=TFi×IDFi
无人机在生成k时刻图像KFk的特征向量时,将图像特征点的BRIEF描述子与构建好的字典进行比对,选择每个层级内使汉明距离最小的中值节点,从树根开始自上而下遍历字典直到叶节点,构造出一幅图像的带权重特征向量:
vk={(ω1,η1),(ω2,η2),…,(ωn,ηn)}
2)数据库搜索
当字典是在相似环境下训练好的模型时,无人机搭载的机载计算机可实时生成特征向量并进行相似图像搜索,这里以***中的UAVα向UAVβ查询为例。UAVα在k时刻广播的关键帧消息被UAVβ收到,UAVβ的数据库搜索环节使用视觉字典创建图像特征向量,随后向图像数据库查找匹配帧,设UAVα的关键帧KFα特征向量为vα,UAVβ数据库中某一帧图像KFβ特征向量为vβ:
vα={(ω1,η1),(ω2,η2),…,(ωn,ηn)}
vβ={(ω1,η1),(ω2,η2),…,(ωn,ηn)}
式中ω为视觉词汇,η为对应的权值。UAVβ为了评估两帧图像的相似性需要对特征向量进行相似性评分,鉴于向量的维数较大,本***选择计算量较低的L1范数来计算相似性评分:
如相似性评分大于某一阈值,则UAVβ认为KFα和KFβ包含相似的场景,即KFβ是KFα匹配帧。此时,UAVβ会将匹配帧相关视觉特征打包成消息发送回询问方,以便询问方UAVα的PnP环节计算二者的相对位姿。
3)计算相对位姿
当询问方UAVα收到了UAVβ回复的匹配帧消息,便可进一步计算两无人机在当前关键帧时刻的相对位姿矩阵为后续位姿图优化环节提供局部地图匹配观测。具体来说,一旦收到匹配帧,询问方UAVα的PnP环节用当前关键帧KFα恢复出的稀疏局部地图与匹配帧KFβ中的特征点进行匹配,通过比较BRIEF描述子寻找最小汉明距离可确认两帧间的一组3D地图点-2D特征点集,通过这组3D-2D点集可计算出匹配帧相机系cβ在当前帧惯性参考系wα下的位姿再通过已知参数可进一步推导出两无人机机体系间的相对位姿αTβ。
根据一组3D-2D点集计算相机系-惯性系间的位姿,可用PnP方法求解。传统的PnP方法解算的精度极易受到离群点和坐标定位噪声的影响,另外传统的PnP只能计算位姿而不能验证匹配帧的正确性。为此本发明提出结合RANSAC方法的PnP求解方式,基本过程如附图4所示:针对每一次迭代,首先在3D-2D点集C中随机选择n对数据构成猜测点集Cguess,利用Cguess进行PnP求解得到猜测位姿Tguess,将Cguess赋给一个临时变量Ctemp,对C中除了Cguess的所有元素,若某元素与Tguess之间的重投影误差小于一定阈值τ,则将该元素加入临时变量Ctemp。如果Ctemp中元素数量大于一定阈值d,则利用Ctemp进行PnP求解得到更加精确的位姿Tbetter,若此次操作得到的位姿Tbetter与Ctemp之间的重投影误差ebetter比上一次得到的最佳误差ebest要小,则对最佳位姿估计Tbest、重投影误差ebest、最佳匹配点集Cbest进行更新。重复执行以上操作直至达到迭代次数即可。PnP的计算结果为为得到两无人机的相对位姿,UAVα将自身的里程计输出默认为已知的相机外参矩阵与PnP计算结果相乘,推导出两无人机机体系的相对位姿:
由于局部地图匹配环节需要无人机实时交换数据,要综合考虑网络带宽、通信次序、空间时间复杂度等要求,还要考虑到无人机群规模的可扩展性。为此,本发明为无人机交换信息设计了特定的通讯策略。
以***中的UAVα与UAVβ两机为例,如附图6所示。某时刻UAVα将关键帧消息广播至网络中向***内的无人机询问是否存在匹配帧,UAVβ的数据库搜索环节程序使用词袋模型技术搜索图像数据库,一旦发现匹配帧会将图像信息打包成消息回复给UAVα。询问方收到回复消息,执行带RANSAC算法的PnP求解出进而推导出二者的相对位姿相对位姿不仅会被送入图优化环节构建位姿图,还会拷贝一份副本发送给UAVβ,目的是避免UAVβ重复计算。这种查询-回复的机制有效避免了类似于集中式地面站那样需要存储所有无人机的视觉信息(空间复杂度O(n)),反而每个无人机仅需存储自身的视觉信息(空间复杂度O(1)),克服了传统方式对无人机群规模的限制。
第三部分,位姿图优化:协同定位方法的核心是位姿图优化环节,图优化环节负责根据无人机间的相互观测、共享信息和待优化、待对齐的位姿变量建立联系,以G-N法或L-M迭代变量使得代价函数最小,无人机不仅再次优化了自身位姿,同时将同伴的位姿对齐至自身的惯性参考系下,从而完成协同定位工作。
图优化环节把待求解的问题表示成图(Graph),一个图由若干个角点(Vertex),以及连接着这些角点的边(Edge)组成,图G可以用数学表示为G={V,E},其中V为角点集,角点表示待优化的变量;E为边集,边表示角点之间的联系。以UAVα构建的图为例,角点为所有个体在自身惯性参考系wα下的位姿边为无人机的观测量,包括运动增量观测(增量边),局部地图匹配观测(地图匹配边),UWB距离观测(测距边)。
1)运动增量观测构建
关键帧消息包含视觉特征信息和无人机运动信息,视觉特征信息用于局部地图匹配,运动信息用于计算运动增量。当无人机接收到任一同伴的关键帧消息,首先将其存入到消息队列,然后提取当前时刻k与较早某时刻k-l关键帧消息中的里程计部分计算运动增量,过程如下:
2)局部地图匹配观测构建
局部地图匹配观测来自PnP环节的输出结果,表达式如下:
其中i,j∈{α,β,γ},其具体构建过程参考局部地图匹配原理。
3)UWB距离观测构建
UWB模块作为机载传感器安装在每一个无人机上,负责周期性地测量无人机之间的相对距离,本***选择搭载美国Time domain公司生产的P440 UWB模块,该模块具备良好的抗多径干扰和在非视距情况下的工作能力,其测量过程可以列写为:
4)离群值检测方法
本***中的观测离群值主要有两种,其一是因为误匹配导致错误的局部地图匹配观测,其二是因为UWB模块在非视距的情况工作或者遭受多径效应时导致错误的距离观测。根据图优化的基本原理,如果对离群值不予以识别而直接用作构建位姿图,等同于加入了一条原本不应存在的边,势必会导致协同定位精度下降甚至估计错误。本节针对离群值提出了检测方法,示意图如附图7所示,如果局部地图匹配观测或UWB距离观测满足以下三条之一则认为产生了离群值,离群值将不会用于构建位姿图:
其中i,j∈{α,β,γ}。条件1表示前后两次地图匹配计算的相对位姿应当与运动增量形成一个闭环,这里默认第一次地图匹配观测是正确的;条件2表示某时刻的UWB距离观测应该与地图匹配产生的相对位姿保持一致,这里(·)p表示取变换矩阵中的3维位置部分;条件3表示前后两次距离测量不应超过某一阈值,vmax表示两机最大相对速度。
5)位姿图构建
本发明提出的协同定位方法可不限制集群规模,但为了叙述方便假设***中包含三个无人机UAVα、UAVβ和UAVγ。对于UAVα来说,其根据无人机间的相互观测构建位姿图从而转化为代价函数,通过调整位姿角点使得代价函数整体最小。在一个大小为n的滑动窗口内,定义待优化位姿角点为:
角点之间以各种边相连,边包括增量边、地图匹配边和测距边,位姿图建立过程如附图8所示。
1)增量边
增量边仅连接单个无人机位姿角点,表示滑动窗口中某无人机kl时刻位姿与kl-m时刻位姿之间的运动增量,本例中令m=3,即一个位姿角点最多与前面三个角点用增量边连接,其与位姿角点存在如下关系:
2)地图匹配边
地图匹配边连接多个无人机位姿角点,表示询问方当前帧与应答方匹配帧存在局部地图匹配关系,其与位姿角点存在如下关系:
3)测距边
测距边连接多个无人机位姿角点,表示某一时刻两机的相对距离,测距值可直接通过UWB传感器读取,其与位姿角点存在如下关系:
由上述位姿图转化的代价函数表示为:
通过求解代价函数,无人机UAVα再次优化了自身位姿,同时将同伴的位姿对齐至惯性参考系wα下,从而完成协同定位工作。
本发明实例结果
本案例给出室内环境下三架无人机的协同定位实验结果,每个无人机均采用前述的硬件配置,质量、体积基本相同,他们的标号为UAVα,UAVβ和UAVγ,实验以UAVα的视角验证协同定位算法的有效性。
附图9为UAVα运行协同定位算法后估计出UAVβ或UAVγ的轨迹,蓝色曲线为真值。图中红色轨迹有部分缺失是因为协同定位程序需要进行初始化,UAVα只有在首次发现地图匹配后才会把该无人机纳入位姿图从而进行优化和对齐,因而在初始化前不会有位姿发布。经过观察发现UAVα几乎可以良好的还原其他个体的运动轨迹。
附图10为UAVα运行协同定位算法后计算出UAVβ或UAVγ在wα系下的位姿,蓝色曲线为真值。通过定性和定量比较得出以下结论:UAVα对同伴UAVβ和UAVγ的轨迹跟踪和位姿估计较为准确,协同定位精度优于0.1m,对齐到wα系中的位姿基本贴合真值,算法整体表现良好。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种局部地图匹配与端到端测距多无人机协同定位***,其特征是,包括:四旋翼结构无人机,进行高频图像采集的工业级灰度相机作为机载环境特征感知设备,左右目相机型号相同,左右目相机通过固连方式连接在无人机机架上,并通过硬件触发方式同步触发采集图像;IMU惯性测量单元用于高频测量无人机的加速度和角速度信息,内部由一个三轴陀螺仪和三轴加速度计组成;机载计算机内置wifi模块用于支持无人机间通讯;机载UWB模块进行测距组网,每个模块按照时分多址TDMA协议依次向组网内的节点测距;机载飞行控制器作为无人机的姿态控制器实现无人机的完整闭环飞行;机载计算机中进行:
(1)视觉惯性里程计
使用视觉惯性里程计将双目相机和IMU测量值做融合进行自主定位和状态估计进而反馈到控制器完成自主飞行,视觉惯性里程计基本的输出结果包括无人机位姿和稀疏环境地图,为支持协同定位工作,视觉惯性里程计还负责创建、打包和广播关键帧消息作为无人机间的信息传递;
(2)局部地图匹配
当集群中某一无人机UAVi,i∈{α,β,γ,…}收到询问方广播的关键帧消息时,使用词袋模型技术将图像特征描述子转换为特征向量,对自己的数据库内各帧图像做相似性评分,选出评分最高的图像作为匹配帧并将图像信息回复给询问方,询问方使用当前帧恢复出的3D局部稀疏地图与匹配帧的2D特征点做匹配,计算出两无人机在产生互回环时刻的相对位姿;
(3)位姿图优化
位姿图优化环节负责根据无人机间的相互观测、共享信息和待优化、待对齐的位姿变量建立联系,以高斯-牛顿G-N法或最小二乘估计L-M迭代变量使得代价函数最小,这样做的结果是每个无人机在确保自身准确的位置估计同时也可做到对同伴位置的感知协同定位,进而方便的执行编队飞行、避碰避障任务。
2.一种局部地图匹配与端到端测距多无人机协同定位方法,其特征是,利用权利要求1所述***实现,利用机载计算机进行:
(1)视觉惯性里程计
使用视觉惯性里程计将双目相机和IMU测量值做融合进行自主定位和状态估计进而反馈到控制器完成自主飞行,视觉惯性里程计基本的输出结果包括无人机位姿和稀疏环境地图,为支持协同定位工作,视觉惯性里程计还负责创建、打包和广播关键帧消息作为无人机间的信息传递;
(2)局部地图匹配
当集群中某一无人机UAVi,i∈{α,β,γ,…}收到询问方广播的关键帧消息时,使用词袋模型技术将图像特征描述子转换为特征向量,对自己的数据库内各帧图像做相似性评分,选出评分最高的图像作为匹配帧并将图像信息回复给询问方,询问方使用当前帧恢复出的3D局部稀疏地图与匹配帧的2D特征点做匹配,计算出两无人机在产生互回环时刻的相对位姿;
(3)位姿图优化
位姿图优化环节负责根据无人机间的相互观测、共享信息和待优化、待对齐的位姿变量建立联系,以G-N法或L-M迭代变量使得代价函数最小,这样做的结果是每个无人机在确保自身准确的位置估计同时也可做到对同伴位置的感知协同定位,进而方便的执行编队飞行、避碰避障任务。
3.如权利要求2所述的局部地图匹配与端到端测距多无人机协同定位方法,其特征是,具体步骤如下:
第一部分,视觉惯性里程计详细步骤:双目相机与IMU融合可组成较为鲁棒的视觉惯性里程计,用于实时估计无人机在自身惯性参考系下的状态,采用基于关键帧方法的紧耦合优化视觉惯性里程计,在滑动窗口中将相机关键帧和IMU测量值组成集束调整方程,里程计的输出结果包括自身位姿和稀疏局部地图点,位姿信息用于反馈到控制器保持闭环,为支持后续的协同定位工作,里程计在原有基础上额外增加特征提取环节,当UAiV,i∈{α,β,γ}在k时刻捕获到最新的关键帧KFk时,特征提取环节执行以下步骤:
4)对***中的无人机广播关键帧消息
关键帧消息包含丰富的视觉信息和运动信息,视觉信息用于查找无人机之间的地图匹配,运动信息用于计算运动增量;
第二部分,局部地图匹配详细步骤:关键帧消息中的视觉特征信息用于无人机进行局部地图匹配,如果多个无人机重复飞越了同一场景导致捕获了某些相似的视觉特征,这种情况称为互回环,互回环可用于无人机间进行局部地图匹配,从而计算出互回环时刻的相对位姿,当无人机采集到最新时刻的关键帧时,它的视觉惯性里程计会向局域网络内广播关键帧信息,询问同伴是否经历过相似场景,同伴收到消息后,它的局部地图匹配环节会生成最新帧的特征向量然后在图像数据库搜寻匹配帧,向询问方答复,一旦询问方收到答复将使用PnP算法计算出二者的相对位姿,这个相对位姿将被送入图优化环节以对齐同伴的位姿至自身的惯性参考系:
1)特征向量生成
特征向量的生成使用词袋模型BOW技术,词袋模型技术可将图像特征描述为特征向量,无人机对两帧图像相似度的比较可进而转换成对特征向量的定量比较,词袋模型将图像看成若干个“视觉词汇”的集合,视觉词汇之间没有顺序;
使用词袋模型技术首先需要构造视觉字典,字典是视觉词汇的全集,无人机根据一张图像的视觉词汇出现情况,构造一个以字典为基底的二进制向量,称为特征向量,表征图像中是否有某类特征存在,首先采用kmeans++算法离线构造字典,然后再将字典内置于每一个无人机中,其基本步骤如下:
1)在相似环境中采集大量训练图像,对于每一张字典训练图像,提取不少于1000个的特征点,并且使用BRIEF描述子表征特征点;
2)使用kmeans++算法对描述子进行k中值聚类,把描述子空间离散化为k个二进制聚类,这些聚类形成字典树中的第一层节点;
3)对第一层中每个节点相关联的描述子重复聚类操作再聚成k类得到第二层节点,这个步骤的递归深度为d,最后会得到一个拥有n个叶子节点的字典树,每一个叶子节点即为视觉词汇;
在构建字典时还要分配词汇的权重,采用频率-逆文档频率TF-IDF分配视觉词汇权重,TF表示视觉词汇在一幅图像中出现的频率越高,这个词汇的区分度就高,应该加大权重,因此TF可表达为:
其中mi表示该词汇ωi在一幅图像中出现的次数,m为图像中的词汇总数;
IDF认为某个词汇在字典中出现的频率越低,则在分类图像时区分度越高,应该加大权重,因此IDF表达为:
其中ni表示建立的字典中词汇ωi的数量,n是字典中所有视觉词汇的数量;
一个词汇的权重取为TF和IDF的乘积:
ηi=TFi×IDFi
无人机在生成k时刻图像KFk的特征向量时,将图像特征点的BRIEF描述子与构建好的字典进行比对,选择每个层级内使汉明距离最小的中值节点,从树根开始自上而下遍历字典直到叶节点,构造出一幅图像的带权重特征向量:
vk={(ω1,η1),(ω2,η2),…,(ωn,ηn)}
2)数据库搜索
当字典是在相似环境下训练好的模型时,无人机搭载的机载计算机可实时生成特征向量并进行相似图像搜索,UAVα在k时刻广播的关键帧消息被UAVβ收到,UAVβ的数据库搜索环节使用视觉字典创建图像特征向量,随后向图像数据库查找匹配帧,设UAVα的关键帧KFα特征向量为vα,UAVβ数据库中某一帧图像KFβ特征向量为vβ:
vα={(ω1,η1),(ω2,η2),…,(ωn,ηn)}
vβ={(ω1,η1),(ω2,η2),…,(ωn,ηn)}
式中ω为视觉词汇,η为对应的权值。UAVβ为了评估两帧图像的相似性需要对特征向量进行相似性评分,鉴于向量的维数较大,本***选择计算量较低的L1范数来计算相似性评分:
如相似性评分大于某一阈值,则UAVβ认为KFα和KFβ包含相似的场景,即KFβ是KFα匹配帧。此时,UAVβ会将匹配帧相关视觉特征打包成消息发送回询问方,以便询问方UAVα的PnP环节计算二者的相对位姿;
3)计算相对位姿
当询问方UAVα收到了UAVβ回复的匹配帧消息,便可进一步计算两无人机在当前关键帧时刻的相对位姿矩阵为后续位姿图优化环节提供局部地图匹配观测,具体来说,一旦收到匹配帧,询问方UAVα的PnP环节用当前关键帧KFα恢复出的稀疏局部地图与匹配帧KFβ中的特征点进行匹配,通过比较BRIEF描述子寻找最小汉明距离可确认两帧间的一组3D地图点-2D特征点集,通过这组3D-2D点集可计算出匹配帧相机系cβ在当前帧惯性参考系wα下的位姿再通过已知参数可进一步推导出两无人机机体系间的相对位姿αTβ;
根据一组3D-2D点集计算相机系-惯性系间的位姿,采用结合RANSAC方法的PnP求解方式,PnP的计算结果为为得到两无人机的相对位姿,UAVα将自身的里程计输出默认为已知的相机外参矩阵与PnP计算结果相乘,推导出两无人机机体系的相对位姿:
第三部分,位姿图优化:协同定位方法的核心是位姿图优化环节,图优化环节负责根据无人机间的相互观测、共享信息和待优化、待对齐的位姿变量建立联系,以G-N法或L-M迭代变量使得代价函数最小,详细步骤如下:
图优化环节把待求解的问题表示成图Graph简写为G,一个图由若干个角点Vertex,以及连接着这些角点的边Edge组成,图G可以用数学表示为G={V,E},其中V为角点集,角点表示待优化的变量;E为边集,边表示角点之间的联系,角点为所有个体在自身惯性参考系wα下的位姿边为无人机的观测量,包括运动增量观测既增量边,局部地图匹配观测既地图匹配边,UWB距离观测既测距边:
1)运动增量观测构建
关键帧消息包含视觉特征信息和无人机运动信息,视觉特征信息用于局部地图匹配,运动信息用于计算运动增量,当无人机接收到任一同伴的关键帧消息,首先将其存入到消息队列,然后提取当前时刻k与较早某时刻k-l关键帧消息中的里程计部分计算运动增量,过程如下:
2)局部地图匹配观测构建
局部地图匹配观测来自PnP环节的输出结果,表达式如下:
其中i,j∈{α,β,γ},其具体构建过程参考局部地图匹配原理;
3)UWB距离观测构建
UWB模块作为机载传感器安装在每一个无人机上,负责周期性地测量无人机之间的相对距离,其测量过程列写为:
4)离群值检测方法
如果局部地图匹配观测或UWB距离观测满足以下三条之一则认为产生了离群值,离群值将不会用于构建位姿图:
其中i,j∈{α,β,γ},条件1表示前后两次地图匹配计算的相对位姿应当与运动增量形成一个闭环,这里默认第一次地图匹配观测是正确的;条件2表示某时刻的UWB距离观测应该与地图匹配产生的相对位姿保持一致,这里(·)p表示取变换矩阵中的3维位置部分;条件3表示前后两次距离测量不应超过某一阈值,vmax表示两机最大相对速度;
5)位姿图构建
对于***中包含三个无人机UAVα、UAVβ和UAVγ,对于UAVα来说,其根据无人机间的相互观测构建位姿图从而转化为代价函数,通过调整位姿角点使得代价函数整体最小,在一个大小为n的滑动窗口内,定义待优化位姿角点为:
角点之间以各种边相连,边包括增量边、地图匹配边和测距边;
1)增量边
增量边仅连接单个无人机位姿角点,表示滑动窗口中某无人机kl时刻位姿与kl-m时刻位姿之间的运动增量,令m=3,即一个位姿角点最多与前面三个角点用增量边连接,其与位姿角点存在如下关系:
2)地图匹配边
地图匹配边连接多个无人机位姿角点,表示询问方当前帧与应答方匹配帧存在局部地图匹配关系,其与位姿角点存在如下关系:
3)测距边
测距边连接多个无人机位姿角点,表示某一时刻两机的相对距离,测距值可直接通过UWB传感器读取,其与位姿角点存在如下关系:
由上述位姿图转化的代价函数表示为:
通过求解代价函数,无人机UAVα再次优化了自身位姿,同时将同伴的位姿对齐至惯性参考系wα下,从而完成协同定位工作;
对于多于3架无人机,按照3架无人机位姿图构建步骤类推。
4.如权利要求2所述的局部地图匹配与端到端测距多无人机协同定位方法,其特征是,由于局部地图匹配环节需要无人机实时交换数据,要综合考虑网络带宽、通信次序、空间时间复杂度等要求,还要考虑到无人机群规模的可扩展性,设计特定的通讯策略:
5.如权利要求2所述的局部地图匹配与端到端测距多无人机协同定位方法,其特征是,结合RANSAC方法的PnP求解方式步骤如下:针对每一次迭代,首先在3D-2D点集C中随机选择n对数据构成猜测点集Cguess,利用Cguess进行PnP求解得到猜测位姿Tguess,将Cguess赋给一个临时变量Ctemp,对C中除了Cguess的所有元素,若某元素与Tguess之间的重投影误差小于一定阈值τ,则将该元素加入临时变量Ctemp;如果Ctemp中元素数量大于一定阈值d,则利用Ctemp进行PnP求解得到更加精确的位姿Tbetter,若此次操作得到的位姿Tbetter与Ctemp之间的重投影误差ebetter比上一次得到的最佳误差ebest要小,则对最佳位姿估计Tbest、重投影误差ebest、最佳匹配点集Cbest进行更新;重复执行以上操作直至达到迭代次数即可;PnP的计算结果为为得到两无人机的相对位姿,UAVα将自身的里程计输出默认为已知的相机外参矩阵与PnP计算结果相乘,推导出两无人机机体系的相对位姿:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111063498.2A CN113625774B (zh) | 2021-09-10 | 2021-09-10 | 局部地图匹配与端到端测距多无人机协同定位***和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111063498.2A CN113625774B (zh) | 2021-09-10 | 2021-09-10 | 局部地图匹配与端到端测距多无人机协同定位***和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113625774A true CN113625774A (zh) | 2021-11-09 |
CN113625774B CN113625774B (zh) | 2023-07-21 |
Family
ID=78389802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111063498.2A Active CN113625774B (zh) | 2021-09-10 | 2021-09-10 | 局部地图匹配与端到端测距多无人机协同定位***和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113625774B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023138007A1 (zh) * | 2022-01-21 | 2023-07-27 | 深圳大学 | 无人机gps-denied下高可靠高精度导航定位方法和*** |
CN116704388A (zh) * | 2023-08-09 | 2023-09-05 | 南京航空航天大学 | 一种基于视觉的多无人机协同目标定位方法 |
CN116932802A (zh) * | 2023-07-10 | 2023-10-24 | 上海鱼微阿科技有限公司 | 一种图像检索方法 |
WO2023207230A1 (zh) * | 2022-04-27 | 2023-11-02 | 浙江大学 | 一种面向视觉惯性定位的基于地图的一致高效滤波算法 |
WO2024050378A1 (en) * | 2022-09-02 | 2024-03-07 | Qualcomm Incorporated | Visual feature sharing for relative pose |
CN117830879A (zh) * | 2024-01-02 | 2024-04-05 | 广东工业大学 | 面向室内的分布式无人机集群定位与建图的方法 |
CN117824625A (zh) * | 2024-03-05 | 2024-04-05 | 河海大学 | 基于改进视觉里程计的高坝大库水下环境感知与构图方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107246868A (zh) * | 2017-07-26 | 2017-10-13 | 上海舵敏智能科技有限公司 | 一种协同导航定位***及导航定位方法 |
CN109521781A (zh) * | 2018-10-30 | 2019-03-26 | 普宙飞行器科技(深圳)有限公司 | 无人机定位***、无人机以及无人机定位方法 |
CN110068335A (zh) * | 2019-04-23 | 2019-07-30 | 中国人民解放军国防科技大学 | 一种gps拒止环境下无人机集群实时定位方法及*** |
US20190384318A1 (en) * | 2017-01-31 | 2019-12-19 | Arbe Robotics Ltd. | Radar-based system and method for real-time simultaneous localization and mapping |
CN110706279A (zh) * | 2019-09-27 | 2020-01-17 | 清华大学 | 基于全局地图与多传感器信息融合的全程位姿估计方法 |
CN111983660A (zh) * | 2020-07-06 | 2020-11-24 | 天津大学 | Gnss拒止环境下四旋翼无人机定位***和方法 |
CN112347840A (zh) * | 2020-08-25 | 2021-02-09 | 天津大学 | 视觉传感器激光雷达融合无人机定位与建图装置和方法 |
CN112577493A (zh) * | 2021-03-01 | 2021-03-30 | 中国人民解放军国防科技大学 | 一种基于遥感地图辅助的无人机自主定位方法及*** |
CN113124856A (zh) * | 2021-05-21 | 2021-07-16 | 天津大学 | 基于uwb在线锚点的视觉惯性紧耦合里程计及计量方法 |
-
2021
- 2021-09-10 CN CN202111063498.2A patent/CN113625774B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190384318A1 (en) * | 2017-01-31 | 2019-12-19 | Arbe Robotics Ltd. | Radar-based system and method for real-time simultaneous localization and mapping |
CN107246868A (zh) * | 2017-07-26 | 2017-10-13 | 上海舵敏智能科技有限公司 | 一种协同导航定位***及导航定位方法 |
CN109521781A (zh) * | 2018-10-30 | 2019-03-26 | 普宙飞行器科技(深圳)有限公司 | 无人机定位***、无人机以及无人机定位方法 |
CN110068335A (zh) * | 2019-04-23 | 2019-07-30 | 中国人民解放军国防科技大学 | 一种gps拒止环境下无人机集群实时定位方法及*** |
CN110706279A (zh) * | 2019-09-27 | 2020-01-17 | 清华大学 | 基于全局地图与多传感器信息融合的全程位姿估计方法 |
CN111983660A (zh) * | 2020-07-06 | 2020-11-24 | 天津大学 | Gnss拒止环境下四旋翼无人机定位***和方法 |
CN112347840A (zh) * | 2020-08-25 | 2021-02-09 | 天津大学 | 视觉传感器激光雷达融合无人机定位与建图装置和方法 |
CN112577493A (zh) * | 2021-03-01 | 2021-03-30 | 中国人民解放军国防科技大学 | 一种基于遥感地图辅助的无人机自主定位方法及*** |
CN113124856A (zh) * | 2021-05-21 | 2021-07-16 | 天津大学 | 基于uwb在线锚点的视觉惯性紧耦合里程计及计量方法 |
Non-Patent Citations (2)
Title |
---|
姬兴亮: "《电子科技大学硕士学位论文》", 28 August 2020 * |
宋春林: "《哈尔滨工业大学博士学位论文》", 31 March 2019 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023138007A1 (zh) * | 2022-01-21 | 2023-07-27 | 深圳大学 | 无人机gps-denied下高可靠高精度导航定位方法和*** |
WO2023207230A1 (zh) * | 2022-04-27 | 2023-11-02 | 浙江大学 | 一种面向视觉惯性定位的基于地图的一致高效滤波算法 |
WO2024050378A1 (en) * | 2022-09-02 | 2024-03-07 | Qualcomm Incorporated | Visual feature sharing for relative pose |
CN116932802A (zh) * | 2023-07-10 | 2023-10-24 | 上海鱼微阿科技有限公司 | 一种图像检索方法 |
CN116932802B (zh) * | 2023-07-10 | 2024-05-14 | 玩出梦想(上海)科技有限公司 | 一种图像检索方法 |
CN116704388A (zh) * | 2023-08-09 | 2023-09-05 | 南京航空航天大学 | 一种基于视觉的多无人机协同目标定位方法 |
CN116704388B (zh) * | 2023-08-09 | 2023-11-03 | 南京航空航天大学 | 一种基于视觉的多无人机协同目标定位方法 |
CN117830879A (zh) * | 2024-01-02 | 2024-04-05 | 广东工业大学 | 面向室内的分布式无人机集群定位与建图的方法 |
CN117830879B (zh) * | 2024-01-02 | 2024-06-14 | 广东工业大学 | 面向室内的分布式无人机集群定位与建图的方法 |
CN117824625A (zh) * | 2024-03-05 | 2024-04-05 | 河海大学 | 基于改进视觉里程计的高坝大库水下环境感知与构图方法 |
CN117824625B (zh) * | 2024-03-05 | 2024-05-14 | 河海大学 | 基于改进视觉里程计的高坝大库水下环境感知与构图方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113625774B (zh) | 2023-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113625774B (zh) | 局部地图匹配与端到端测距多无人机协同定位***和方法 | |
CN112347840B (zh) | 视觉传感器激光雷达融合无人机定位与建图装置和方法 | |
CN110068335B (zh) | 一种gps拒止环境下无人机集群实时定位方法及*** | |
CN109029433B (zh) | 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法 | |
US10732647B2 (en) | Multi-sensor fusion for robust autonomous flight in indoor and outdoor environments with a rotorcraft micro-aerial vehicle (MAV) | |
Balamurugan et al. | Survey on UAV navigation in GPS denied environments | |
CN103197684B (zh) | 无人机群协同跟踪目标的方法及*** | |
CN105022401B (zh) | 基于视觉的多四旋翼无人机协同slam方法 | |
CN108827306A (zh) | 一种基于多传感器融合的无人机slam导航方法及*** | |
Nguyen et al. | Flexible and resource-efficient multi-robot collaborative visual-inertial-range localization | |
CN109945871B (zh) | 一种通信带宽与距离受限情况下的多无人平台同步定位与地图构建方法 | |
CN111983660A (zh) | Gnss拒止环境下四旋翼无人机定位***和方法 | |
Magree et al. | Monocular visual mapping for obstacle avoidance on UAVs | |
Li et al. | Autonomous navigation and environment modeling for MAVs in 3-D enclosed industrial environments | |
Hinzmann et al. | Flexible stereo: constrained, non-rigid, wide-baseline stereo vision for fixed-wing aerial platforms | |
CN117685953A (zh) | 面向多无人机协同定位的uwb与视觉融合定位方法及*** | |
Li et al. | Collaborative positioning for swarms: A brief survey of vision, LiDAR and wireless sensors based methods | |
CN110309883A (zh) | 一种基于视觉slam的无人机自主定位方法 | |
CN116989772B (zh) | 一种空地多模态多智能体协同定位与建图方法 | |
Williams et al. | All-source navigation for enhancing UAV operations in GPS-denied environments | |
Guo et al. | The usefulness of sensor fusion for unmanned aerial vehicle indoor positioning | |
Wang et al. | Multi-UAV collaborative system with a feature fast matching algorithm | |
CN116295342A (zh) | 一种用于飞行器勘测的多传感状态估计器 | |
Xiao et al. | Wision: Bolstering MAV 3d indoor state estimation by embracing multipath of wifi | |
Cao et al. | Visual-Inertial-Laser SLAM Based on ORB-SLAM3 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB03 | Change of inventor or designer information | ||
CB03 | Change of inventor or designer information |
Inventor after: Tian Bailian Inventor after: Zhang Yikai Inventor after: Zong Qun Inventor before: Tian Bailian Inventor before: Zhang Yikai Inventor before: Zong Qun Inventor before: He Lei Inventor before: Wang Cong |
|
GR01 | Patent grant | ||
GR01 | Patent grant |