CN111862200B - 一种煤棚内无人机定位方法 - Google Patents

一种煤棚内无人机定位方法 Download PDF

Info

Publication number
CN111862200B
CN111862200B CN202010607883.8A CN202010607883A CN111862200B CN 111862200 B CN111862200 B CN 111862200B CN 202010607883 A CN202010607883 A CN 202010607883A CN 111862200 B CN111862200 B CN 111862200B
Authority
CN
China
Prior art keywords
map
frame
points
pose
steps
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010607883.8A
Other languages
English (en)
Other versions
CN111862200A (zh
Inventor
董延超
王浩天
宁少淳
冀玲玲
岳继光
何斌
沈润杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tongji University
Original Assignee
Tongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji University filed Critical Tongji University
Priority to CN202010607883.8A priority Critical patent/CN111862200B/zh
Publication of CN111862200A publication Critical patent/CN111862200A/zh
Application granted granted Critical
Publication of CN111862200B publication Critical patent/CN111862200B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • G06T3/604Rotation of whole images or parts thereof using coordinate rotation digital computer [CORDIC] devices
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种煤棚内无人机定位方法,包括步骤1:获得先验视觉标签地图;步骤2:对SLAM***进行初始化;步骤3:求解相机位姿并同时更新地图,然后去除地图中的冗余关键帧和冗余地图点;步骤4:对步骤3求解的相机位姿进行优化,获得最终的相机姿态***,所述的相机姿态***包括相机位姿、视觉标签位姿和地图点空间位置。与现有技术相比,本发明具有定位精度高等优点。

Description

一种煤棚内无人机定位方法
技术领域
本发明涉及煤棚内无人机定位技术领域,尤其是涉及一种基于先验视觉标签及自然特征点地图的煤棚内无人机定位方法。
背景技术
在我国的能源结构中,煤占据着主导地位,而火力发电以燃煤为主。近些年来,国内外一些高等院校及科研院所相继推出了不同型号的堆料体积测量***,并且在电力、钢铁、冶金等资源型企业的堆料盘存中得到了广泛的应用,基于室内外有行车或斗轮机的激光盘煤***存在设备布线复杂,测量周期长,维护困难的缺陷,便携式激光盘煤***操作相对简便,性能比固定式盘煤仪有了很大的提高,但是整个测量过程需要运行人员参与,而且测量点的选择直接影响测量结果的准确性。随着无人机技术的发展,基于无人机平台的火电厂盘煤***也有了快速发展。旋翼飞机具有飞行速度低,可以垂直起降,飞行动作精确,操作灵活,构造简单等特点,已经应用于部分火力发电厂的盘煤工作中。
例如中国专利CN209274918U中公开了一种无人机盘煤***,包括无人机、遥控站和地面站,还包括搭载在所述无人机上的RTK定位模块和水样采集装置,其中RTK定位模块用于获取无人机的位置信息,该***具有能够自主采集水样、并获取无人机位置信息的优点。但是该***中的无人机定位模块的定位精度较低,在GNSS信号微弱或者GNSS信号不存在的情况下无法为盘煤***无人机提供稳定、安全的导航信息。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种高定位精度的煤棚内无人机定位方法。
本发明的目的可以通过以下技术方案来实现:
一种煤棚内无人机定位方法,包括:
步骤1:获得先验视觉标签地图;
步骤2:对SLAM***进行初始化;
步骤3:求解相机位姿并同时更新地图,然后去除地图中的冗余关键帧和冗余地图点;
步骤4:对步骤3求解的相机位姿进行优化,获得最终的相机姿态***,所述的相机姿态***包括相机位姿、视觉标签位姿和地图点空间位置。
优选地,所述的步骤1中先验视觉标签地图具体为:
煤棚内布置的先验视觉标签地图,该地图内包括多个二维码,每个二维码具有独立的ID和位姿信息。
优选地,所述的步骤2具体为:
步骤2-1:使用基于先验视觉标签的相对位姿求解子方法求解图像第一帧与第二帧之间的相对位姿,并判断SLAM***是否成功求得相对位姿,若是,则执行步骤2-3,否则,执行步骤2-2;
步骤2-2:使用基于特征点的相对位姿求解子方法求解图像第一帧与第二帧之间的相对位姿,然后执行步骤2-3:
步骤2-3:对特征点进行三角化;
步骤2-4:将三角化得到的特征点构造为地图点,同时添加关键帧与点以及点与关键帧之间的观测属性,并计算最佳描述子,更新观测方向和距离范围,将新的地图点***地图,完成初始地图的更新。
更加优选地,所述的基于先验视觉标签相对位姿求解子方法具体为:
计算第一帧f0中视觉标签与第一帧f0的相对位姿γ0,第二帧f1中视觉标签与第二帧f1的相对位姿γ1,两帧之间的相对位姿T具体为:T=γ0 -11
更加优选地,所述的基于特征点的相对位姿求解子方法具体为:
首先计算本质矩阵模型和单应矩阵模型;
所述的本质矩阵模型计算方法为:图像的第一帧f0和第二帧f1中的一对特征点p1和p2是空间中一点P在图片中的投影,一对特征点p1和p2可以确定空间中的一点P,在第一帧f0所设坐标系下点P的空间位置为:
P=[X,Y,Z]T
在相机投影模型中,点p1和p2的像素坐标分别为:
x0=KP
x1=K(RP+t)
其中,K为相机的内参矩阵,根据对极约束可得:
x1 TK-Tt^RK-1x0=0
令本质矩阵E=t^R,然后根据点p1和p2的像素位置求解本质矩阵E;
所述的单应矩阵模型的计算方法为:使用DLT算法求解单应矩阵H;
然后通过计算上述本质矩阵模型和单应矩阵模型各自的得分,分值计算方法为:
Figure BDA0002561449950000031
Figure BDA0002561449950000032
其中,
Figure BDA0002561449950000033
为匹配点对
Figure BDA0002561449950000034
经过本质矩阵模型或单应矩阵模型在当前帧的重投影误差;
Figure BDA0002561449950000035
为匹配点对
Figure BDA0002561449950000036
在经过本质矩阵模型或单应矩阵模型在参考帧的重投影误差;
计算判断指标RH,计算方法为:
Figure BDA0002561449950000037
若RH>0.45,则选择单应矩阵H恢复位姿(R,t),否则选择本质矩阵E恢复(R,t)。
更加优选地,所述的步骤2-3具体为:
空间点P在初始帧第一帧f0的归一化平面里的位置为:
Figure BDA0002561449950000038
空间点P在当前帧第二帧f1的归一化平面中的位置为:
Figure BDA0002561449950000039
根据位置变化关系有:
zrpr=TrwPw
zcpc=TcwPw
其中,Trw为初始帧的单位矩阵,Tcw为第二帧f1和第一帧f0的相对位姿变化;
由三维向量叉乘自己为零,得到:
pr×zrpr=pr×TrwPw=0
pc×zcpc=pc×TcwPw=0
整理后,得到:
Figure BDA0002561449950000041
最终,求解得到特征点的空间坐标Pw
更加优选地,所述的步骤3中相机位姿求解方法为第一位姿求解子方法或第二位姿求解子方法;
所述的第一位姿求解子方法具体为:
采用恒速模型,根据上一帧图像的位姿和速度得到当前帧中相机的初始位姿,相机从时刻k到时刻k-1的位姿变化与相机从时刻k-1到时刻k-2的位姿变化相同,即:
Figure BDA0002561449950000042
因此,得到:
Figure BDA0002561449950000043
对上式进行递推以及取逆变换,具体为:
Figure BDA0002561449950000044
Figure BDA0002561449950000045
Figure BDA0002561449950000046
相机的运动速度即为:
Figure BDA0002561449950000047
计算当前帧到上一帧的平移向量t,将最后一帧特征点对应的三维点重新投影到当前帧,在重新投影位置寻找特征点,按照最小化重投影误差的方法对当前帧的位姿进行优化;
所述的第二位姿求解子方法具体为:
获得参考关键帧与当前帧匹配得到的匹配地图点和视觉标签,若匹配到的视觉标签个数大于两个,则根据视觉标签的世界位姿
Figure BDA0002561449950000048
和视觉标签的局部坐标系与当前帧坐标系的相对位姿关系
Figure BDA0002561449950000049
得到当前帧的初始位姿:
Figure BDA00025614499500000410
然后根据最小化重投影误差的方法对当前帧的位姿进行优化;
所述的重投影误差的计算方法为:
Figure BDA0002561449950000051
Figure BDA0002561449950000052
其中,(R,t)为视觉标签角点从视觉标签局部坐标系转换到相机坐标系的变换关系;xi为视觉标签的角点在图像中的像素坐标;pi为视觉标签的角点在视觉标签局部坐标系中的坐标;πm为相机投影模型。
优选地,所述的步骤3中更新地图的具体方法为:
对于当前帧,若满足:至少含有一个原地图中不存在的新的视觉标签或在当前帧中跟踪到的特征点数大于50或当前帧跟踪到的特征点与参考关键帧的重复率小于90%,则将当前帧作为关键帧添加到地图中,同时将当前帧三角化得到的地图点也添加到地图中。
优选地,所述的去除地图中的冗余关键帧的方法具体为:
若地图中存在三个关键帧能够观测到本关键帧中大于90%的地图点和所有的视觉标签,则将此关键帧判断为冗余关键帧,同时从地图中去除;
所述的去除冗余地图点的方法具体为:
将地图点投影至共视关键帧,提取共视关键帧投影区域所在栅格中的特征点,若特征点描述子的汉明距离小于30,则使用共视关键帧中的相应地图点取代当前地图点。
优选地,所述的步骤4具体为:
首先在地图中寻找与当前帧有大于50个共视地图点或大于2个共视视觉标签的关键帧以及对应的地图点和视觉标签,然后使用L-M方法对在跟踪过程中具有共视关系的相机位姿、视觉标签位姿及地图点空间位置进行优化,优化方法具体为:
Figure BDA0002561449950000053
Figure BDA0002561449950000054
其中,w1和w2分别表示地图点和视觉标签在优化中所占比重;pi p表示空间中的地图点;xi p表示地图点对应的像素点;pi m表示视觉标签角点在视觉标签局部坐标系中的坐标;xi m表示视觉标签角点对应的像素点;πm表示相机的投影方程;
所述的w1和w2的计算方法为:
w1=1
Figure BDA0002561449950000061
其中,m为当前帧中观测到的地图点数量;n为当前帧中观测到的先验数据标签数量。
与现有技术相比,本发明具有以下优点:
定位精度更高:本发明中的煤棚内无人机定位方法通过先验视觉标签地图来确定无人机的真实位姿,由于先验视觉标签的尺寸和位姿是已知的,所以通过先验视觉标签确定的无人机位姿的准确度更高,无人机的定位精度也更高。
附图说明
图1为本发明中煤棚内无人机定位方法的流程示意图;
图2为本发明实施例中先验视觉标签的布置图;
图3为本发明实施例中SLAM地图的示意图;
图4为本发明实施例中无人机的路径规划示意图;
图5为本发明实施例中使用本发明中无人机定位方法与使用基于GPS的无人机定位方法在X轴上的轨迹对比图;
图6为本发明实施例中使用本发明中无人机定位方法与使用基于GPS的无人机定位方法在Y轴上的轨迹对比图;
图7为本发明实施例中使用本发明中无人机定位方法与使用基于GPS的无人机定位方法在Z轴上的轨迹对比图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都应属于本发明保护的范围。
一种煤棚内无人机定位方法,其流程如图1所示,包括:
步骤1:获得先验视觉标签地图;
和人类绘制地图一样,机器人描述环境、认识环境的过程主要就是依靠地图,通过环境地图来描述其当前环境信息。如图2所示,在煤棚内布置一个包括多个二维码的地图,每个二维码具有自己独立的ID和位姿信息,此视觉标签地图作为无人机导航的先验知识;
步骤2:对SLAM***进行初始化,具体为:
步骤2-1:使用基于先验视觉标签的相对位姿求解子方法求解图像第一帧与第二帧之间的相对位姿,并判断SLAM***是否成功求得相对位姿,若是,则执行步骤2-3,否则,执行步骤2-2;
步骤2-2:使用基于特征点的相对位姿求解子方法求解图像第一帧与第二帧之间的相对位姿,然后执行步骤2-3:
基于先验视觉标签相对位姿求解子方法具体为:
计算第一帧f0中视觉标签与第一帧f0的相对位姿γ0,第二帧f1中视觉标签与第二帧f1的相对位姿γ1,两帧之间的相对位姿T具体为:T=γ0 -11
基于特征点的相对位姿求解子方法具体为:
首先计算本质矩阵模型和单应矩阵模型;
所述的本质矩阵模型计算方法为:图像的第一帧f0和第二帧f1中的一对特征点p1和p2是空间中一点P在图片中的投影,一对特征点p1和p2可以确定空间中的一点P,在第一帧f0所设坐标系下点P的空间位置为:
P=[X,Y,Z]T
在相机投影模型中,点p1和p2的像素坐标分别为:
x0=KP
x1=K(RP+t)
其中,K为相机的内参矩阵,根据对极约束可得:
x1 TK-Tt^RK-1x0=0
令本质矩阵E=t^R,然后根据点p1和p2的像素位置求解本质矩阵E;
所述的单应矩阵模型的计算方法为:使用DLT算法求解单应矩阵H;
然后通过计算上述本质矩阵模型和单应矩阵模型各自的得分,分值计算方法为:
Figure BDA0002561449950000081
Figure BDA0002561449950000082
其中,
Figure BDA0002561449950000083
为匹配点对
Figure BDA0002561449950000084
经过本质矩阵模型或单应矩阵模型在当前帧的重投影误差;
Figure BDA0002561449950000085
为匹配点对
Figure BDA0002561449950000086
在经过本质矩阵模型或单应矩阵模型在参考帧的重投影误差;
计算判断指标RH,计算方法为:
Figure BDA0002561449950000087
若RH>0.45,则选择单应矩阵H恢复位姿(R,t),否则选择本质矩阵E恢复(R,t);
步骤2-3:对特征点进行三角化,具体步骤为:
空间点P在初始帧第一帧f0的归一化平面里的位置为:
Figure BDA0002561449950000088
空间点P在当前帧第二帧f1的归一化平面中的位置为:
Figure BDA0002561449950000089
根据位置变化关系有:
zrpr=TrwPw
zcpc=TcwPw
其中,Trw为初始帧的单位矩阵,Tcw为第二帧f1和第一帧f0的相对位姿变化;
由三维向量叉乘自己为零,得到:
pr×zrpr=pr×TrwPw=0
pc×zcpc=pc×TcwPw=0
整理后,得到:
Figure BDA00025614499500000810
最终,求解得到特征点的空间坐标Pw
步骤2-4:将三角化得到的特征点构造为地图点,同时添加关键帧与点以及点与关键帧之间的观测属性,并计算最佳描述子,更新观测方向和距离范围,将新的地图点***地图,完成初始地图的更新。
步骤3:求解相机位姿并同时更新地图,然后去除地图中的冗余关键帧和冗余地图点;
使用两种方式求解位姿,即使用第一位姿求解子方法或第二位姿求解子方法求解位姿。
第一位姿求解子方法具体为:
采用恒速模型,根据上一帧图像的位姿和速度得到当前帧中相机的初始位姿,相机从时刻k到时刻k-1的位姿变化与相机从时刻k-1到时刻k-2的位姿变化相同,即:
Figure BDA0002561449950000091
因此,得到:
Figure BDA0002561449950000092
对上式进行递推以及取逆变换,具体为:
Figure BDA0002561449950000093
Figure BDA0002561449950000094
Figure BDA0002561449950000095
相机的运动速度即为:
Figure BDA0002561449950000096
计算当前帧到上一帧的平移向量t,将最后一帧特征点对应的三维点重新投影到当前帧,在重新投影位置寻找特征点,按照最小化重投影误差的方法对当前帧的位姿进行优化;
第二位姿求解子方法具体为:
获得参考关键帧与当前帧匹配得到的匹配地图点和视觉标签,若匹配到的视觉标签个数大于两个,则根据视觉标签的世界位姿
Figure BDA0002561449950000097
和视觉标签的局部坐标系与当前帧坐标系的相对位姿关系
Figure BDA0002561449950000098
得到当前帧的初始位姿:
Figure BDA0002561449950000099
然后根据最小化重投影误差的方法对当前帧的位姿进行优化;
所述的重投影误差的计算方法为:
Figure BDA0002561449950000101
Figure BDA0002561449950000102
其中,(R,t)为视觉标签角点从视觉标签局部坐标系转换到相机坐标系的变换关系;xi为视觉标签的角点在图像中的像素坐标;pi为视觉标签的角点在视觉标签局部坐标系中的坐标;πm为相机投影模型;
更新地图的具体方法为:
对于当前帧,若满足:
(1)至少含有一个原地图中不存在的新的视觉标签或在当前帧中跟踪到的特征点数大于50;
(2)当前帧跟踪到的特征点与参考关键帧的重复率小于90%;
满足上述两个条件中的任意一个,则将当前帧作为关键帧添加到地图中,同时将当前帧三角化得到的地图点也添加到地图中。
去除地图中的冗余关键帧的方法具体为:
若地图中存在三个关键帧能够观测到本关键帧中大于90%的地图点和所有的视觉标签,则将此关键帧判断为冗余关键帧,同时从地图中去除;
所述的去除冗余地图点的方法具体为:
将地图点投影至共视关键帧,提取共视关键帧投影区域所在栅格中的特征点,若特征点描述子的汉明距离小于30,则使用共视关键帧中的相应地图点取代当前地图点。
步骤4:对步骤3求解的相机位姿进行优化,获得最终的相机姿态***,包括相机位姿、视觉标签位姿和地图点的空间位置,具体为:
首先在地图中寻找与当前帧有大于50个共视地图点或大于2个共视视觉标签的关键帧以及对应的地图点和视觉标签,然后使用L-M方法对在跟踪过程中具有共视关系的相机姿态***,即相机位姿、视觉标签位姿及地图点空间位置进行优化,优化方法具体为:
Figure BDA0002561449950000111
Figure BDA0002561449950000112
其中,w1和w2分别表示地图点和视觉标签在优化中所占比重;pi p表示空间中的地图点;xi p表示地图点对应的像素点;pi m表示视觉标签角点在视觉标签局部坐标系中的坐标;xi m表示视觉标签角点对应的像素点;πm表示相机的投影方程;
所述的w1和w2的计算方法为:
w1=1
Figure BDA0002561449950000113
其中,m为当前帧中观测到的地图点数量;n为当前帧中观测到的先验数据标签数量。
最终获得经过优化后的相机姿态***,即相机位姿、视觉标签位姿及地图点空间位置,从而完成煤棚内无人机的精确定位。
同时在进行上述步骤时即时对SLAM地图进行维护更新,地图保存就是保存地图“Map”中的各个元素,以及它们之间的关系,凡是跟踪过程中需要用到的数据自然也就是需要保存的对象。地图主要包含关键帧、自然特征地图点、二维码、BoW向量、共视图、生长树等,在跟踪过程中有三种跟踪模型和局部地图跟踪等过程,局部地图跟踪需要用到3D地图点、共视关系等元素,参考帧模型需要用到关键帧的BoW向量,重定位需要用到BoW向量、3D点、二维码等,上述基本元素都需要保存。
本实施例中无人机构建的SLAM地图如图3所示,地图元素包括视觉标签、三维地图点以及关键帧,随着无人机的运动,地图中不断添加新的元素;同时地图具有保存功能,在相同的场景进行多次运动可使用之前保存的地图作为先验信息;地图中的视觉标签元素可以给无人机的定位带来一个强约束,当在图像中检测到对应的视觉标签时,会同时优化无人机和视觉标签的位姿。无人机根据先验视觉标签规划出的路径如图4所示,可通过视觉标签构建世界坐标系并进行路径规划。同时在室外的草地贫纹理场景对本实施例中的无人机定位方法以及基于GPS的无人机定位方法所确定的无人机运行轨迹进行了对比,示意图如图5、图6和图7所示,由图可以看出。使用本申请中的无人机定位方法输出的无人机轨迹与GPS的输出的无人机轨迹基本吻合,无人机在自主飞行过程中可以实时进行高精度的定位,在x轴、y轴、z轴的平均距离误差为0.072m、0.107m和0.206m,同时尺度信息与真实世界相吻合,并且对于煤棚、草地、工厂等传统视觉SLAM***无法工作的贫纹理场景,本发明仍可实现高精度的定位。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (7)

1.一种煤棚内无人机定位方法,其特征在于,包括:
步骤1:获得先验视觉标签地图;
步骤2:对SLAM***进行初始化;
步骤3:求解相机位姿并同时更新地图,然后去除地图中的冗余关键帧和冗余地图点;
步骤4:对步骤3求解的相机位姿进行优化,获得最终的相机姿态***,所述的相机姿态***包括相机位姿、视觉标签位姿和地图点空间位置;
所述的步骤4具体为:
首先在地图中寻找与当前帧有大于50个共视地图点或大于2个共视视觉标签的关键帧以及对应的地图点和视觉标签,然后使用L-M方法对在跟踪过程中具有共视关系的相机位姿、视觉标签位姿及地图点空间位置进行优化,优化方法具体为:
Figure FDA0004014209040000011
Figure FDA0004014209040000012
其中,w1和w2分别表示地图点和视觉标签在优化中所占比重;pi p表示空间中的地图点;xi p表示地图点对应的像素点;pi m表示视觉标签角点在视觉标签局部坐标系中的坐标;xi m表示视觉标签角点对应的像素点;πm表示相机的投影方程;
Figure FDA0004014209040000013
表示视觉标签的世界位姿,
Figure FDA0004014209040000014
表示当前帧的初始位姿;
所述的w1和w2的计算方法为:
w1=1
Figure FDA0004014209040000015
其中,m为当前帧中观测到的地图点数量;n为当前帧中观测到的先验数据标签数量;
所述的步骤2具体为:
步骤2-1:使用基于先验视觉标签的相对位姿求解子方法求解图像第一帧与第二帧之间的相对位姿,并判断SLAM***是否成功求得相对位姿,若是,则执行步骤2-3,否则,执行步骤2-2;
步骤2-2:使用基于特征点的相对位姿求解子方法求解图像第一帧与第二帧之间的相对位姿,然后执行步骤2-3:
步骤2-3:对特征点进行三角化;
步骤2-4:将三角化得到的特征点构造为地图点,同时添加关键帧与点以及点与关键帧之间的观测属性,并计算最佳描述子,更新观测方向和距离范围,将新的地图点***地图,完成初始地图的更新。
2.根据权利要求1所述的一种煤棚内无人机定位方法,其特征在于,所述的步骤1中先验视觉标签地图具体为:
煤棚内布置的先验视觉标签地图,该地图内包括多个二维码,每个二维码具有独立的ID和位姿信息。
3.根据权利要求1所述的一种煤棚内无人机定位方法,其特征在于,所述的基于先验视觉标签相对位姿求解子方法具体为:
计算第一帧f0中视觉标签与第一帧f0的相对位姿γ0,第二帧f1中视觉标签与第二帧f1的相对位姿γ1,两帧之间的相对位姿T具体为:T=γ0 -11
4.根据权利要求1所述的一种煤棚内无人机定位方法,其特征在于,所述的基于特征点的相对位姿求解子方法具体为:
首先计算本质矩阵模型和单应矩阵模型;
所述的本质矩阵模型计算方法为:图像的第一帧f0和第二帧f1中的一对特征点p1和p2是空间中一点P在图片中的投影,一对特征点p1和p2可以确定空间中的一点P,在第一帧f0所设坐标系下点P的空间位置为:
P=[X,Y,Z]T
在相机投影模型中,点p1和p2的像素坐标分别为:
x0=KP
x1=K(RP+t)
其中,K为相机的内参矩阵,根据对极约束可得:
x1 TK-Tt^RK-1x0=0
令本质矩阵E=t^R,然后根据点p1和p2的像素位置求解本质矩阵E;
所述的单应矩阵模型的计算方法为:使用DLT算法求解单应矩阵H;
然后通过计算上述本质矩阵模型和单应矩阵模型各自的得分,分值计算方法为:
Figure FDA0004014209040000031
Figure FDA0004014209040000032
其中,
Figure FDA0004014209040000033
为匹配点对
Figure FDA0004014209040000034
经过本质矩阵模型或单应矩阵模型在当前帧的重投影误差;
Figure FDA0004014209040000035
为匹配点对
Figure FDA0004014209040000036
在经过本质矩阵模型或单应矩阵模型在参考帧的重投影误差;
计算判断指标RH,计算方法为:
Figure FDA0004014209040000037
若RH>0.45,则选择单应矩阵H恢复位姿(R,t),否则选择本质矩阵E恢复(R,t)。
5.根据权利要求1所述的一种煤棚内无人机定位方法,其特征在于,所述的步骤2-3具体为:
空间点P在初始帧第一帧f0的归一化平面里的位置为:
Figure FDA0004014209040000038
空间点P在当前帧第二帧f1的归一化平面中的位置为:
Figure FDA0004014209040000039
根据位置变化关系有:
zrpr=TrwPw
zcpc=TcwPw
其中,Trw为初始帧的单位矩阵,Tcw为第二帧f1和第一帧f0的相对位姿变化;
由三维向量叉乘自己为零,得到:
pr×zrpr=pr×TrwPw=0
pc×zcpc=pc×TcwPw=0
整理后,得到:
Figure FDA00040142090400000310
最终,求解得到特征点的空间坐标Pw
6.根据权利要求1所述的一种煤棚内无人机定位方法,其特征在于,所述的步骤3中更新地图的具体方法为:
对于当前帧,若满足:至少含有一个原地图中不存在的新的视觉标签或在当前帧中跟踪到的特征点数大于50或当前帧跟踪到的特征点与参考关键帧的重复率小于90%,则将当前帧作为关键帧添加到地图中,同时将当前帧三角化得到的地图点也添加到地图中。
7.根据权利要求1所述的一种煤棚内无人机定位方法,其特征在于,所述的去除地图中的冗余关键帧的方法具体为:
若地图中存在三个关键帧能够观测到本关键帧中大于90%的地图点和所有的视觉标签,则将此关键帧判断为冗余关键帧,同时从地图中去除;
所述的去除冗余地图点的方法具体为:
将地图点投影至共视关键帧,提取共视关键帧投影区域所在栅格中的特征点,若特征点描述子的汉明距离小于30,则使用共视关键帧中的相应地图点取代当前地图点。
CN202010607883.8A 2020-06-30 2020-06-30 一种煤棚内无人机定位方法 Active CN111862200B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010607883.8A CN111862200B (zh) 2020-06-30 2020-06-30 一种煤棚内无人机定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010607883.8A CN111862200B (zh) 2020-06-30 2020-06-30 一种煤棚内无人机定位方法

Publications (2)

Publication Number Publication Date
CN111862200A CN111862200A (zh) 2020-10-30
CN111862200B true CN111862200B (zh) 2023-04-28

Family

ID=72989892

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010607883.8A Active CN111862200B (zh) 2020-06-30 2020-06-30 一种煤棚内无人机定位方法

Country Status (1)

Country Link
CN (1) CN111862200B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112945240B (zh) * 2021-03-16 2022-06-07 北京三快在线科技有限公司 特征点位置的确定方法、装置、设备及可读存储介质
CN113345017B (zh) * 2021-05-11 2022-09-20 香港理工大学深圳研究院 一种使用标志辅助视觉slam的方法
CN115170847B (zh) * 2022-09-05 2022-12-13 煤炭科学研究总院有限公司 基于先验地图约束的煤矿井下单目视觉定位方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102359788A (zh) * 2011-09-09 2012-02-22 华中科技大学 一种基于平台惯姿参数的序列图像目标递推识别方法
CN107830854A (zh) * 2017-11-06 2018-03-23 深圳精智机器有限公司 基于orb稀疏点云与二维码的视觉定位方法
CN109345588A (zh) * 2018-09-20 2019-02-15 浙江工业大学 一种基于Tag的六自由度姿态估计方法
CN109509230A (zh) * 2018-11-13 2019-03-22 武汉大学 一种应用于多镜头组合式全景相机的slam方法
CN109544636A (zh) * 2018-10-10 2019-03-29 广州大学 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法
WO2019169540A1 (zh) * 2018-03-06 2019-09-12 斯坦德机器人(深圳)有限公司 紧耦合视觉slam的方法、终端及计算机可读存储介质
CN110533587A (zh) * 2019-07-03 2019-12-03 浙江工业大学 一种基于视觉先验信息和地图恢复的slam方法
CN111060115A (zh) * 2019-11-29 2020-04-24 中国科学院计算技术研究所 一种基于图像边缘特征的视觉slam方法及***

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102359788A (zh) * 2011-09-09 2012-02-22 华中科技大学 一种基于平台惯姿参数的序列图像目标递推识别方法
CN107830854A (zh) * 2017-11-06 2018-03-23 深圳精智机器有限公司 基于orb稀疏点云与二维码的视觉定位方法
WO2019169540A1 (zh) * 2018-03-06 2019-09-12 斯坦德机器人(深圳)有限公司 紧耦合视觉slam的方法、终端及计算机可读存储介质
CN109345588A (zh) * 2018-09-20 2019-02-15 浙江工业大学 一种基于Tag的六自由度姿态估计方法
CN109544636A (zh) * 2018-10-10 2019-03-29 广州大学 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法
CN109509230A (zh) * 2018-11-13 2019-03-22 武汉大学 一种应用于多镜头组合式全景相机的slam方法
CN110533587A (zh) * 2019-07-03 2019-12-03 浙江工业大学 一种基于视觉先验信息和地图恢复的slam方法
CN111060115A (zh) * 2019-11-29 2020-04-24 中国科学院计算技术研究所 一种基于图像边缘特征的视觉slam方法及***

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
A Novel Texture-Less Object Oriented Visual SLAM System;Yanchao Dong, Senbo Wang , Jiguang Yue, Ce Chen, Shibo He, Haoti;《IEEE Transactions on Intelligent Transportation Systems》;20191114;全文 *
Rau'l Mur-Artal and Juan D. Tardo's.ORB-SLAM2: An Open-Source SLAM System for Monocular, Stereo,and RGB-D Cameras.《IEEE TRANSACTIONS ON ROBOTICS》.2017, *
Rau'l Mur-Artal, J. M. M. Montiel, Juan D. Tardo's.ORB-SLAM: A Versatile and Accurate Monocular SLAM System.《IEEE TRANSACTIONS ON ROBOTICS》.2015, *
Real-time Omnidirectional Visual SLAM with Semi-Dense Mapping;Senbo Wang,iguang Yue,Yanchao Dong,Runjie Shen,Xinyu Zhang;《2018 IEEE Intelligent Vehicles Symposium (IV)》;20181022;全文 *
基于图优化 SLAM 的移动机器人导航方法研究;邹 谦;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20180215;全文 *
高翔,张涛.《视觉SLAM十四讲》.《视觉SLAM十四讲》.2019, *

Also Published As

Publication number Publication date
CN111862200A (zh) 2020-10-30

Similar Documents

Publication Publication Date Title
CN112347840B (zh) 视觉传感器激光雷达融合无人机定位与建图装置和方法
CN111862200B (zh) 一种煤棚内无人机定位方法
CN105843223B (zh) 一种基于空间词袋模型的移动机器人三维建图与避障方法
CN109186606B (zh) 一种基于slam和图像信息的机器人构图及导航方法
CN102426019B (zh) 一种无人机景象匹配辅助导航方法及***
CN107741234A (zh) 一种基于视觉的离线地图构建及定位方法
Li et al. Efficient laser-based 3D SLAM for coal mine rescue robots
CN110361027A (zh) 基于单线激光雷达与双目相机数据融合的机器人路径规划方法
CN111178148B (zh) 一种基于无人机视觉***的地面目标地理坐标定位方法
CN105865449A (zh) 基于激光和视觉的移动机器人的混合定位方法
CN106092104A (zh) 一种室内机器人的重定位方法及装置
CN111664843A (zh) 一种基于slam的智能仓储盘点方法
CN108267121A (zh) 一种可变场景下多设备的视觉导航方法及***
CN110827353B (zh) 一种基于单目摄像头辅助的机器人定位方法
CN112833892B (zh) 一种基于轨迹对齐的语义建图方法
US20230236280A1 (en) Method and system for positioning indoor autonomous mobile robot
CN111812978B (zh) 一种多无人机协作slam方法与***
CN116295412A (zh) 一种基于深度相机的室内移动机器人稠密建图与自主导航一体化方法
Zhang et al. ST-VIO: Visual-inertial odometry combined with image segmentation and tracking
CN107741233A (zh) 一种三维室外地图的构建方法
Liu A robust and efficient lidar-inertial-visual fused simultaneous localization and mapping system with loop closure
CN113239072A (zh) 一种终端设备定位方法及其相关设备
CN113674355A (zh) 一种基于相机与激光雷达的目标识别与定位方法
CN113447014A (zh) 室内移动机器人、建图方法、定位方法以及建图定位装置
CN117406771B (zh) 一种基于四旋翼无人机的高效自主探索方法、***及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant