CN111862200B - 一种煤棚内无人机定位方法 - Google Patents
一种煤棚内无人机定位方法 Download PDFInfo
- Publication number
- CN111862200B CN111862200B CN202010607883.8A CN202010607883A CN111862200B CN 111862200 B CN111862200 B CN 111862200B CN 202010607883 A CN202010607883 A CN 202010607883A CN 111862200 B CN111862200 B CN 111862200B
- Authority
- CN
- China
- Prior art keywords
- map
- frame
- points
- pose
- steps
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 80
- 239000003245 coal Substances 0.000 title claims abstract description 29
- 230000000007 visual effect Effects 0.000 claims abstract description 83
- 239000011159 matrix material Substances 0.000 claims description 53
- 238000004364 calculation method Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 7
- 238000005457 optimization Methods 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 claims description 3
- 238000012821 model calculation Methods 0.000 claims description 3
- 230000008901 benefit Effects 0.000 abstract description 3
- 238000005259 measurement Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 229910000831 Steel Inorganic materials 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005272 metallurgy Methods 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/60—Rotation of whole images or parts thereof
- G06T3/604—Rotation of whole images or parts thereof using coordinate rotation digital computer [CORDIC] devices
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种煤棚内无人机定位方法,包括步骤1:获得先验视觉标签地图;步骤2:对SLAM***进行初始化;步骤3:求解相机位姿并同时更新地图,然后去除地图中的冗余关键帧和冗余地图点;步骤4:对步骤3求解的相机位姿进行优化,获得最终的相机姿态***,所述的相机姿态***包括相机位姿、视觉标签位姿和地图点空间位置。与现有技术相比,本发明具有定位精度高等优点。
Description
技术领域
本发明涉及煤棚内无人机定位技术领域,尤其是涉及一种基于先验视觉标签及自然特征点地图的煤棚内无人机定位方法。
背景技术
在我国的能源结构中,煤占据着主导地位,而火力发电以燃煤为主。近些年来,国内外一些高等院校及科研院所相继推出了不同型号的堆料体积测量***,并且在电力、钢铁、冶金等资源型企业的堆料盘存中得到了广泛的应用,基于室内外有行车或斗轮机的激光盘煤***存在设备布线复杂,测量周期长,维护困难的缺陷,便携式激光盘煤***操作相对简便,性能比固定式盘煤仪有了很大的提高,但是整个测量过程需要运行人员参与,而且测量点的选择直接影响测量结果的准确性。随着无人机技术的发展,基于无人机平台的火电厂盘煤***也有了快速发展。旋翼飞机具有飞行速度低,可以垂直起降,飞行动作精确,操作灵活,构造简单等特点,已经应用于部分火力发电厂的盘煤工作中。
例如中国专利CN209274918U中公开了一种无人机盘煤***,包括无人机、遥控站和地面站,还包括搭载在所述无人机上的RTK定位模块和水样采集装置,其中RTK定位模块用于获取无人机的位置信息,该***具有能够自主采集水样、并获取无人机位置信息的优点。但是该***中的无人机定位模块的定位精度较低,在GNSS信号微弱或者GNSS信号不存在的情况下无法为盘煤***无人机提供稳定、安全的导航信息。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种高定位精度的煤棚内无人机定位方法。
本发明的目的可以通过以下技术方案来实现:
一种煤棚内无人机定位方法,包括:
步骤1:获得先验视觉标签地图;
步骤2:对SLAM***进行初始化;
步骤3:求解相机位姿并同时更新地图,然后去除地图中的冗余关键帧和冗余地图点;
步骤4:对步骤3求解的相机位姿进行优化,获得最终的相机姿态***,所述的相机姿态***包括相机位姿、视觉标签位姿和地图点空间位置。
优选地,所述的步骤1中先验视觉标签地图具体为:
煤棚内布置的先验视觉标签地图,该地图内包括多个二维码,每个二维码具有独立的ID和位姿信息。
优选地,所述的步骤2具体为:
步骤2-1:使用基于先验视觉标签的相对位姿求解子方法求解图像第一帧与第二帧之间的相对位姿,并判断SLAM***是否成功求得相对位姿,若是,则执行步骤2-3,否则,执行步骤2-2;
步骤2-2:使用基于特征点的相对位姿求解子方法求解图像第一帧与第二帧之间的相对位姿,然后执行步骤2-3:
步骤2-3:对特征点进行三角化;
步骤2-4:将三角化得到的特征点构造为地图点,同时添加关键帧与点以及点与关键帧之间的观测属性,并计算最佳描述子,更新观测方向和距离范围,将新的地图点***地图,完成初始地图的更新。
更加优选地,所述的基于先验视觉标签相对位姿求解子方法具体为:
计算第一帧f0中视觉标签与第一帧f0的相对位姿γ0,第二帧f1中视觉标签与第二帧f1的相对位姿γ1,两帧之间的相对位姿T具体为:T=γ0 -1*γ1。
更加优选地,所述的基于特征点的相对位姿求解子方法具体为:
首先计算本质矩阵模型和单应矩阵模型;
所述的本质矩阵模型计算方法为:图像的第一帧f0和第二帧f1中的一对特征点p1和p2是空间中一点P在图片中的投影,一对特征点p1和p2可以确定空间中的一点P,在第一帧f0所设坐标系下点P的空间位置为:
P=[X,Y,Z]T
在相机投影模型中,点p1和p2的像素坐标分别为:
x0=KP
x1=K(RP+t)
其中,K为相机的内参矩阵,根据对极约束可得:
x1 TK-Tt^RK-1x0=0
令本质矩阵E=t^R,然后根据点p1和p2的像素位置求解本质矩阵E;
所述的单应矩阵模型的计算方法为:使用DLT算法求解单应矩阵H;
然后通过计算上述本质矩阵模型和单应矩阵模型各自的得分,分值计算方法为:
计算判断指标RH,计算方法为:
若RH>0.45,则选择单应矩阵H恢复位姿(R,t),否则选择本质矩阵E恢复(R,t)。
更加优选地,所述的步骤2-3具体为:
空间点P在初始帧第一帧f0的归一化平面里的位置为:
空间点P在当前帧第二帧f1的归一化平面中的位置为:
根据位置变化关系有:
zrpr=TrwPw
zcpc=TcwPw
其中,Trw为初始帧的单位矩阵,Tcw为第二帧f1和第一帧f0的相对位姿变化;
由三维向量叉乘自己为零,得到:
pr×zrpr=pr×TrwPw=0
pc×zcpc=pc×TcwPw=0
整理后,得到:
最终,求解得到特征点的空间坐标Pw。
更加优选地,所述的步骤3中相机位姿求解方法为第一位姿求解子方法或第二位姿求解子方法;
所述的第一位姿求解子方法具体为:
采用恒速模型,根据上一帧图像的位姿和速度得到当前帧中相机的初始位姿,相机从时刻k到时刻k-1的位姿变化与相机从时刻k-1到时刻k-2的位姿变化相同,即:
因此,得到:
对上式进行递推以及取逆变换,具体为:
相机的运动速度即为:
计算当前帧到上一帧的平移向量t,将最后一帧特征点对应的三维点重新投影到当前帧,在重新投影位置寻找特征点,按照最小化重投影误差的方法对当前帧的位姿进行优化;
所述的第二位姿求解子方法具体为:
然后根据最小化重投影误差的方法对当前帧的位姿进行优化;
所述的重投影误差的计算方法为:
其中,(R,t)为视觉标签角点从视觉标签局部坐标系转换到相机坐标系的变换关系;xi为视觉标签的角点在图像中的像素坐标;pi为视觉标签的角点在视觉标签局部坐标系中的坐标;πm为相机投影模型。
优选地,所述的步骤3中更新地图的具体方法为:
对于当前帧,若满足:至少含有一个原地图中不存在的新的视觉标签或在当前帧中跟踪到的特征点数大于50或当前帧跟踪到的特征点与参考关键帧的重复率小于90%,则将当前帧作为关键帧添加到地图中,同时将当前帧三角化得到的地图点也添加到地图中。
优选地,所述的去除地图中的冗余关键帧的方法具体为:
若地图中存在三个关键帧能够观测到本关键帧中大于90%的地图点和所有的视觉标签,则将此关键帧判断为冗余关键帧,同时从地图中去除;
所述的去除冗余地图点的方法具体为:
将地图点投影至共视关键帧,提取共视关键帧投影区域所在栅格中的特征点,若特征点描述子的汉明距离小于30,则使用共视关键帧中的相应地图点取代当前地图点。
优选地,所述的步骤4具体为:
首先在地图中寻找与当前帧有大于50个共视地图点或大于2个共视视觉标签的关键帧以及对应的地图点和视觉标签,然后使用L-M方法对在跟踪过程中具有共视关系的相机位姿、视觉标签位姿及地图点空间位置进行优化,优化方法具体为:
其中,w1和w2分别表示地图点和视觉标签在优化中所占比重;pi p表示空间中的地图点;xi p表示地图点对应的像素点;pi m表示视觉标签角点在视觉标签局部坐标系中的坐标;xi m表示视觉标签角点对应的像素点;πm表示相机的投影方程;
所述的w1和w2的计算方法为:
w1=1
其中,m为当前帧中观测到的地图点数量;n为当前帧中观测到的先验数据标签数量。
与现有技术相比,本发明具有以下优点:
定位精度更高:本发明中的煤棚内无人机定位方法通过先验视觉标签地图来确定无人机的真实位姿,由于先验视觉标签的尺寸和位姿是已知的,所以通过先验视觉标签确定的无人机位姿的准确度更高,无人机的定位精度也更高。
附图说明
图1为本发明中煤棚内无人机定位方法的流程示意图;
图2为本发明实施例中先验视觉标签的布置图;
图3为本发明实施例中SLAM地图的示意图;
图4为本发明实施例中无人机的路径规划示意图;
图5为本发明实施例中使用本发明中无人机定位方法与使用基于GPS的无人机定位方法在X轴上的轨迹对比图;
图6为本发明实施例中使用本发明中无人机定位方法与使用基于GPS的无人机定位方法在Y轴上的轨迹对比图;
图7为本发明实施例中使用本发明中无人机定位方法与使用基于GPS的无人机定位方法在Z轴上的轨迹对比图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都应属于本发明保护的范围。
一种煤棚内无人机定位方法,其流程如图1所示,包括:
步骤1:获得先验视觉标签地图;
和人类绘制地图一样,机器人描述环境、认识环境的过程主要就是依靠地图,通过环境地图来描述其当前环境信息。如图2所示,在煤棚内布置一个包括多个二维码的地图,每个二维码具有自己独立的ID和位姿信息,此视觉标签地图作为无人机导航的先验知识;
步骤2:对SLAM***进行初始化,具体为:
步骤2-1:使用基于先验视觉标签的相对位姿求解子方法求解图像第一帧与第二帧之间的相对位姿,并判断SLAM***是否成功求得相对位姿,若是,则执行步骤2-3,否则,执行步骤2-2;
步骤2-2:使用基于特征点的相对位姿求解子方法求解图像第一帧与第二帧之间的相对位姿,然后执行步骤2-3:
基于先验视觉标签相对位姿求解子方法具体为:
计算第一帧f0中视觉标签与第一帧f0的相对位姿γ0,第二帧f1中视觉标签与第二帧f1的相对位姿γ1,两帧之间的相对位姿T具体为:T=γ0 -1*γ1;
基于特征点的相对位姿求解子方法具体为:
首先计算本质矩阵模型和单应矩阵模型;
所述的本质矩阵模型计算方法为:图像的第一帧f0和第二帧f1中的一对特征点p1和p2是空间中一点P在图片中的投影,一对特征点p1和p2可以确定空间中的一点P,在第一帧f0所设坐标系下点P的空间位置为:
P=[X,Y,Z]T
在相机投影模型中,点p1和p2的像素坐标分别为:
x0=KP
x1=K(RP+t)
其中,K为相机的内参矩阵,根据对极约束可得:
x1 TK-Tt^RK-1x0=0
令本质矩阵E=t^R,然后根据点p1和p2的像素位置求解本质矩阵E;
所述的单应矩阵模型的计算方法为:使用DLT算法求解单应矩阵H;
然后通过计算上述本质矩阵模型和单应矩阵模型各自的得分,分值计算方法为:
计算判断指标RH,计算方法为:
若RH>0.45,则选择单应矩阵H恢复位姿(R,t),否则选择本质矩阵E恢复(R,t);
步骤2-3:对特征点进行三角化,具体步骤为:
空间点P在初始帧第一帧f0的归一化平面里的位置为:
空间点P在当前帧第二帧f1的归一化平面中的位置为:
根据位置变化关系有:
zrpr=TrwPw
zcpc=TcwPw
其中,Trw为初始帧的单位矩阵,Tcw为第二帧f1和第一帧f0的相对位姿变化;
由三维向量叉乘自己为零,得到:
pr×zrpr=pr×TrwPw=0
pc×zcpc=pc×TcwPw=0
整理后,得到:
最终,求解得到特征点的空间坐标Pw。
步骤2-4:将三角化得到的特征点构造为地图点,同时添加关键帧与点以及点与关键帧之间的观测属性,并计算最佳描述子,更新观测方向和距离范围,将新的地图点***地图,完成初始地图的更新。
步骤3:求解相机位姿并同时更新地图,然后去除地图中的冗余关键帧和冗余地图点;
使用两种方式求解位姿,即使用第一位姿求解子方法或第二位姿求解子方法求解位姿。
第一位姿求解子方法具体为:
采用恒速模型,根据上一帧图像的位姿和速度得到当前帧中相机的初始位姿,相机从时刻k到时刻k-1的位姿变化与相机从时刻k-1到时刻k-2的位姿变化相同,即:
因此,得到:
对上式进行递推以及取逆变换,具体为:
相机的运动速度即为:
计算当前帧到上一帧的平移向量t,将最后一帧特征点对应的三维点重新投影到当前帧,在重新投影位置寻找特征点,按照最小化重投影误差的方法对当前帧的位姿进行优化;
第二位姿求解子方法具体为:
然后根据最小化重投影误差的方法对当前帧的位姿进行优化;
所述的重投影误差的计算方法为:
其中,(R,t)为视觉标签角点从视觉标签局部坐标系转换到相机坐标系的变换关系;xi为视觉标签的角点在图像中的像素坐标;pi为视觉标签的角点在视觉标签局部坐标系中的坐标;πm为相机投影模型;
更新地图的具体方法为:
对于当前帧,若满足:
(1)至少含有一个原地图中不存在的新的视觉标签或在当前帧中跟踪到的特征点数大于50;
(2)当前帧跟踪到的特征点与参考关键帧的重复率小于90%;
满足上述两个条件中的任意一个,则将当前帧作为关键帧添加到地图中,同时将当前帧三角化得到的地图点也添加到地图中。
去除地图中的冗余关键帧的方法具体为:
若地图中存在三个关键帧能够观测到本关键帧中大于90%的地图点和所有的视觉标签,则将此关键帧判断为冗余关键帧,同时从地图中去除;
所述的去除冗余地图点的方法具体为:
将地图点投影至共视关键帧,提取共视关键帧投影区域所在栅格中的特征点,若特征点描述子的汉明距离小于30,则使用共视关键帧中的相应地图点取代当前地图点。
步骤4:对步骤3求解的相机位姿进行优化,获得最终的相机姿态***,包括相机位姿、视觉标签位姿和地图点的空间位置,具体为:
首先在地图中寻找与当前帧有大于50个共视地图点或大于2个共视视觉标签的关键帧以及对应的地图点和视觉标签,然后使用L-M方法对在跟踪过程中具有共视关系的相机姿态***,即相机位姿、视觉标签位姿及地图点空间位置进行优化,优化方法具体为:
其中,w1和w2分别表示地图点和视觉标签在优化中所占比重;pi p表示空间中的地图点;xi p表示地图点对应的像素点;pi m表示视觉标签角点在视觉标签局部坐标系中的坐标;xi m表示视觉标签角点对应的像素点;πm表示相机的投影方程;
所述的w1和w2的计算方法为:
w1=1
其中,m为当前帧中观测到的地图点数量;n为当前帧中观测到的先验数据标签数量。
最终获得经过优化后的相机姿态***,即相机位姿、视觉标签位姿及地图点空间位置,从而完成煤棚内无人机的精确定位。
同时在进行上述步骤时即时对SLAM地图进行维护更新,地图保存就是保存地图“Map”中的各个元素,以及它们之间的关系,凡是跟踪过程中需要用到的数据自然也就是需要保存的对象。地图主要包含关键帧、自然特征地图点、二维码、BoW向量、共视图、生长树等,在跟踪过程中有三种跟踪模型和局部地图跟踪等过程,局部地图跟踪需要用到3D地图点、共视关系等元素,参考帧模型需要用到关键帧的BoW向量,重定位需要用到BoW向量、3D点、二维码等,上述基本元素都需要保存。
本实施例中无人机构建的SLAM地图如图3所示,地图元素包括视觉标签、三维地图点以及关键帧,随着无人机的运动,地图中不断添加新的元素;同时地图具有保存功能,在相同的场景进行多次运动可使用之前保存的地图作为先验信息;地图中的视觉标签元素可以给无人机的定位带来一个强约束,当在图像中检测到对应的视觉标签时,会同时优化无人机和视觉标签的位姿。无人机根据先验视觉标签规划出的路径如图4所示,可通过视觉标签构建世界坐标系并进行路径规划。同时在室外的草地贫纹理场景对本实施例中的无人机定位方法以及基于GPS的无人机定位方法所确定的无人机运行轨迹进行了对比,示意图如图5、图6和图7所示,由图可以看出。使用本申请中的无人机定位方法输出的无人机轨迹与GPS的输出的无人机轨迹基本吻合,无人机在自主飞行过程中可以实时进行高精度的定位,在x轴、y轴、z轴的平均距离误差为0.072m、0.107m和0.206m,同时尺度信息与真实世界相吻合,并且对于煤棚、草地、工厂等传统视觉SLAM***无法工作的贫纹理场景,本发明仍可实现高精度的定位。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (7)
1.一种煤棚内无人机定位方法,其特征在于,包括:
步骤1:获得先验视觉标签地图;
步骤2:对SLAM***进行初始化;
步骤3:求解相机位姿并同时更新地图,然后去除地图中的冗余关键帧和冗余地图点;
步骤4:对步骤3求解的相机位姿进行优化,获得最终的相机姿态***,所述的相机姿态***包括相机位姿、视觉标签位姿和地图点空间位置;
所述的步骤4具体为:
首先在地图中寻找与当前帧有大于50个共视地图点或大于2个共视视觉标签的关键帧以及对应的地图点和视觉标签,然后使用L-M方法对在跟踪过程中具有共视关系的相机位姿、视觉标签位姿及地图点空间位置进行优化,优化方法具体为:
其中,w1和w2分别表示地图点和视觉标签在优化中所占比重;pi p表示空间中的地图点;xi p表示地图点对应的像素点;pi m表示视觉标签角点在视觉标签局部坐标系中的坐标;xi m表示视觉标签角点对应的像素点;πm表示相机的投影方程;
所述的w1和w2的计算方法为:
w1=1
其中,m为当前帧中观测到的地图点数量;n为当前帧中观测到的先验数据标签数量;
所述的步骤2具体为:
步骤2-1:使用基于先验视觉标签的相对位姿求解子方法求解图像第一帧与第二帧之间的相对位姿,并判断SLAM***是否成功求得相对位姿,若是,则执行步骤2-3,否则,执行步骤2-2;
步骤2-2:使用基于特征点的相对位姿求解子方法求解图像第一帧与第二帧之间的相对位姿,然后执行步骤2-3:
步骤2-3:对特征点进行三角化;
步骤2-4:将三角化得到的特征点构造为地图点,同时添加关键帧与点以及点与关键帧之间的观测属性,并计算最佳描述子,更新观测方向和距离范围,将新的地图点***地图,完成初始地图的更新。
2.根据权利要求1所述的一种煤棚内无人机定位方法,其特征在于,所述的步骤1中先验视觉标签地图具体为:
煤棚内布置的先验视觉标签地图,该地图内包括多个二维码,每个二维码具有独立的ID和位姿信息。
3.根据权利要求1所述的一种煤棚内无人机定位方法,其特征在于,所述的基于先验视觉标签相对位姿求解子方法具体为:
计算第一帧f0中视觉标签与第一帧f0的相对位姿γ0,第二帧f1中视觉标签与第二帧f1的相对位姿γ1,两帧之间的相对位姿T具体为:T=γ0 -1*γ1。
4.根据权利要求1所述的一种煤棚内无人机定位方法,其特征在于,所述的基于特征点的相对位姿求解子方法具体为:
首先计算本质矩阵模型和单应矩阵模型;
所述的本质矩阵模型计算方法为:图像的第一帧f0和第二帧f1中的一对特征点p1和p2是空间中一点P在图片中的投影,一对特征点p1和p2可以确定空间中的一点P,在第一帧f0所设坐标系下点P的空间位置为:
P=[X,Y,Z]T
在相机投影模型中,点p1和p2的像素坐标分别为:
x0=KP
x1=K(RP+t)
其中,K为相机的内参矩阵,根据对极约束可得:
x1 TK-Tt^RK-1x0=0
令本质矩阵E=t^R,然后根据点p1和p2的像素位置求解本质矩阵E;
所述的单应矩阵模型的计算方法为:使用DLT算法求解单应矩阵H;
然后通过计算上述本质矩阵模型和单应矩阵模型各自的得分,分值计算方法为:
计算判断指标RH,计算方法为:
若RH>0.45,则选择单应矩阵H恢复位姿(R,t),否则选择本质矩阵E恢复(R,t)。
6.根据权利要求1所述的一种煤棚内无人机定位方法,其特征在于,所述的步骤3中更新地图的具体方法为:
对于当前帧,若满足:至少含有一个原地图中不存在的新的视觉标签或在当前帧中跟踪到的特征点数大于50或当前帧跟踪到的特征点与参考关键帧的重复率小于90%,则将当前帧作为关键帧添加到地图中,同时将当前帧三角化得到的地图点也添加到地图中。
7.根据权利要求1所述的一种煤棚内无人机定位方法,其特征在于,所述的去除地图中的冗余关键帧的方法具体为:
若地图中存在三个关键帧能够观测到本关键帧中大于90%的地图点和所有的视觉标签,则将此关键帧判断为冗余关键帧,同时从地图中去除;
所述的去除冗余地图点的方法具体为:
将地图点投影至共视关键帧,提取共视关键帧投影区域所在栅格中的特征点,若特征点描述子的汉明距离小于30,则使用共视关键帧中的相应地图点取代当前地图点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010607883.8A CN111862200B (zh) | 2020-06-30 | 2020-06-30 | 一种煤棚内无人机定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010607883.8A CN111862200B (zh) | 2020-06-30 | 2020-06-30 | 一种煤棚内无人机定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111862200A CN111862200A (zh) | 2020-10-30 |
CN111862200B true CN111862200B (zh) | 2023-04-28 |
Family
ID=72989892
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010607883.8A Active CN111862200B (zh) | 2020-06-30 | 2020-06-30 | 一种煤棚内无人机定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111862200B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112945240B (zh) * | 2021-03-16 | 2022-06-07 | 北京三快在线科技有限公司 | 特征点位置的确定方法、装置、设备及可读存储介质 |
CN113345017B (zh) * | 2021-05-11 | 2022-09-20 | 香港理工大学深圳研究院 | 一种使用标志辅助视觉slam的方法 |
CN115170847B (zh) * | 2022-09-05 | 2022-12-13 | 煤炭科学研究总院有限公司 | 基于先验地图约束的煤矿井下单目视觉定位方法及装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102359788A (zh) * | 2011-09-09 | 2012-02-22 | 华中科技大学 | 一种基于平台惯姿参数的序列图像目标递推识别方法 |
CN107830854A (zh) * | 2017-11-06 | 2018-03-23 | 深圳精智机器有限公司 | 基于orb稀疏点云与二维码的视觉定位方法 |
CN109345588A (zh) * | 2018-09-20 | 2019-02-15 | 浙江工业大学 | 一种基于Tag的六自由度姿态估计方法 |
CN109509230A (zh) * | 2018-11-13 | 2019-03-22 | 武汉大学 | 一种应用于多镜头组合式全景相机的slam方法 |
CN109544636A (zh) * | 2018-10-10 | 2019-03-29 | 广州大学 | 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法 |
WO2019169540A1 (zh) * | 2018-03-06 | 2019-09-12 | 斯坦德机器人(深圳)有限公司 | 紧耦合视觉slam的方法、终端及计算机可读存储介质 |
CN110533587A (zh) * | 2019-07-03 | 2019-12-03 | 浙江工业大学 | 一种基于视觉先验信息和地图恢复的slam方法 |
CN111060115A (zh) * | 2019-11-29 | 2020-04-24 | 中国科学院计算技术研究所 | 一种基于图像边缘特征的视觉slam方法及*** |
-
2020
- 2020-06-30 CN CN202010607883.8A patent/CN111862200B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102359788A (zh) * | 2011-09-09 | 2012-02-22 | 华中科技大学 | 一种基于平台惯姿参数的序列图像目标递推识别方法 |
CN107830854A (zh) * | 2017-11-06 | 2018-03-23 | 深圳精智机器有限公司 | 基于orb稀疏点云与二维码的视觉定位方法 |
WO2019169540A1 (zh) * | 2018-03-06 | 2019-09-12 | 斯坦德机器人(深圳)有限公司 | 紧耦合视觉slam的方法、终端及计算机可读存储介质 |
CN109345588A (zh) * | 2018-09-20 | 2019-02-15 | 浙江工业大学 | 一种基于Tag的六自由度姿态估计方法 |
CN109544636A (zh) * | 2018-10-10 | 2019-03-29 | 广州大学 | 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法 |
CN109509230A (zh) * | 2018-11-13 | 2019-03-22 | 武汉大学 | 一种应用于多镜头组合式全景相机的slam方法 |
CN110533587A (zh) * | 2019-07-03 | 2019-12-03 | 浙江工业大学 | 一种基于视觉先验信息和地图恢复的slam方法 |
CN111060115A (zh) * | 2019-11-29 | 2020-04-24 | 中国科学院计算技术研究所 | 一种基于图像边缘特征的视觉slam方法及*** |
Non-Patent Citations (6)
Title |
---|
A Novel Texture-Less Object Oriented Visual SLAM System;Yanchao Dong, Senbo Wang , Jiguang Yue, Ce Chen, Shibo He, Haoti;《IEEE Transactions on Intelligent Transportation Systems》;20191114;全文 * |
Rau'l Mur-Artal and Juan D. Tardo's.ORB-SLAM2: An Open-Source SLAM System for Monocular, Stereo,and RGB-D Cameras.《IEEE TRANSACTIONS ON ROBOTICS》.2017, * |
Rau'l Mur-Artal, J. M. M. Montiel, Juan D. Tardo's.ORB-SLAM: A Versatile and Accurate Monocular SLAM System.《IEEE TRANSACTIONS ON ROBOTICS》.2015, * |
Real-time Omnidirectional Visual SLAM with Semi-Dense Mapping;Senbo Wang,iguang Yue,Yanchao Dong,Runjie Shen,Xinyu Zhang;《2018 IEEE Intelligent Vehicles Symposium (IV)》;20181022;全文 * |
基于图优化 SLAM 的移动机器人导航方法研究;邹 谦;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20180215;全文 * |
高翔,张涛.《视觉SLAM十四讲》.《视觉SLAM十四讲》.2019, * |
Also Published As
Publication number | Publication date |
---|---|
CN111862200A (zh) | 2020-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112347840B (zh) | 视觉传感器激光雷达融合无人机定位与建图装置和方法 | |
CN111862200B (zh) | 一种煤棚内无人机定位方法 | |
CN105843223B (zh) | 一种基于空间词袋模型的移动机器人三维建图与避障方法 | |
CN109186606B (zh) | 一种基于slam和图像信息的机器人构图及导航方法 | |
CN102426019B (zh) | 一种无人机景象匹配辅助导航方法及*** | |
CN107741234A (zh) | 一种基于视觉的离线地图构建及定位方法 | |
Li et al. | Efficient laser-based 3D SLAM for coal mine rescue robots | |
CN110361027A (zh) | 基于单线激光雷达与双目相机数据融合的机器人路径规划方法 | |
CN111178148B (zh) | 一种基于无人机视觉***的地面目标地理坐标定位方法 | |
CN105865449A (zh) | 基于激光和视觉的移动机器人的混合定位方法 | |
CN106092104A (zh) | 一种室内机器人的重定位方法及装置 | |
CN111664843A (zh) | 一种基于slam的智能仓储盘点方法 | |
CN108267121A (zh) | 一种可变场景下多设备的视觉导航方法及*** | |
CN110827353B (zh) | 一种基于单目摄像头辅助的机器人定位方法 | |
CN112833892B (zh) | 一种基于轨迹对齐的语义建图方法 | |
US20230236280A1 (en) | Method and system for positioning indoor autonomous mobile robot | |
CN111812978B (zh) | 一种多无人机协作slam方法与*** | |
CN116295412A (zh) | 一种基于深度相机的室内移动机器人稠密建图与自主导航一体化方法 | |
Zhang et al. | ST-VIO: Visual-inertial odometry combined with image segmentation and tracking | |
CN107741233A (zh) | 一种三维室外地图的构建方法 | |
Liu | A robust and efficient lidar-inertial-visual fused simultaneous localization and mapping system with loop closure | |
CN113239072A (zh) | 一种终端设备定位方法及其相关设备 | |
CN113674355A (zh) | 一种基于相机与激光雷达的目标识别与定位方法 | |
CN113447014A (zh) | 室内移动机器人、建图方法、定位方法以及建图定位装置 | |
CN117406771B (zh) | 一种基于四旋翼无人机的高效自主探索方法、***及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |