CN108052103B - 基于深度惯性里程计的巡检机器人地下空间同时定位和地图构建方法 - Google Patents

基于深度惯性里程计的巡检机器人地下空间同时定位和地图构建方法 Download PDF

Info

Publication number
CN108052103B
CN108052103B CN201711334617.7A CN201711334617A CN108052103B CN 108052103 B CN108052103 B CN 108052103B CN 201711334617 A CN201711334617 A CN 201711334617A CN 108052103 B CN108052103 B CN 108052103B
Authority
CN
China
Prior art keywords
depth
inspection robot
underground space
plane
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711334617.7A
Other languages
English (en)
Other versions
CN108052103A (zh
Inventor
朱华
陈常
李振亚
汪雷
杨汪庆
李鹏
赵勇
由韶泽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China University of Mining and Technology CUMT
Original Assignee
China University of Mining and Technology CUMT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Mining and Technology CUMT filed Critical China University of Mining and Technology CUMT
Priority to CN201711334617.7A priority Critical patent/CN108052103B/zh
Publication of CN108052103A publication Critical patent/CN108052103A/zh
Application granted granted Critical
Publication of CN108052103B publication Critical patent/CN108052103B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

一种基于深度惯性里程计的巡检机器人地下空间同时定位和地图构建方法,利用深度相机和惯性测量单元进行松耦合,通过深度相机采集的深度图获取点云信息,提取平面特征;将深度相机采集的RGB图像转换成灰度图和平面特征融合,利用迭代最近点算法进行优化;迭代最近点优化后的数据和惯性测量单元数据进行松耦合,利用回环检测提高位姿图精度,得到巡检机器人运行轨迹、点云地图和树跳表地图,达到巡检机器人在室内同时定位和地图构建的效果。通过此方法提高巡检机器人在地下空间的同时定位精度和鲁棒性,达到巡检机器人在地下空间同时定位和地图构建的效果。巡检机器人在地下空间进行作业时,在强旋转环境下本发明采用的方法具有良好鲁棒性。

Description

基于深度惯性里程计的巡检机器人地下空间同时定位和地图 构建方法
技术领域
本发明涉及巡检机器人同时定位领域,尤其涉及一种基于深度惯性里程计的巡检机器人地下空间同时定位和地图构建方法。
背景技术
随着科学技术的进步,巡检机器人在工业、军事等领域的应用越来越广泛。在很多情况下,巡检机器人的作业空间的信息是复杂未知的。巡检机器人想要实现在室内自主导航、目标识别、自动避障等功能,其精确同时定位显着尤为重要。传统的同时定位方法大多以GPS、北斗等全球卫星同时定位为主,但普通的GPS传感器同时定位精度较低,无法满足巡检机器人精确同时定位。
虽然差分GPS在室外同时定位精度较高,但是价格高昂同时无法在隧道、巷道、地下室这些GPS失效环境下工作。隧道、巷道、地下室这些地下空间常年无法接受太阳光照射,光照较低。在视觉定位方面,现在普遍使用单纯的相机进行定位精度较低,无法达到巡检机器人有效定位的效果。
伴随计算机视觉、图像处理技术发展的同时,机器视觉方法通过感知环境进行导航,同时在机器人实时定位方面得到广泛应用。视觉同时定位方法的原理是,通过安装在机器人身上的摄像机实时采集运动过程中的图像,并从图像中提取相关信息,进而判断并计算机器人的运行姿态和轨迹,最终实现导航和实时定位。然而视觉传感器容易受到光照的影响,同时在曝光较强、低亮度等情况下同时定位容易丢失。除此之外,单纯的单目视觉传感器没有尺度信息,无法感知机器人所处周围环境深度,并且在机器人原地转弯时特征丢失,容易导致机器人实时定位失效。
巡检机器人使用惯性测量单元进行定位发展较早,惯性定位是利用惯性测量单元测量的线加速度和旋转角速率来计算载体的六自由度同时定位信息。载体的角速率通过陀螺仪测量,主要用于计算机器人的旋转矩阵,并且提供载体坐标系和导航坐标系的转化关系;载体的线加速度通过加速度计测量,通过对得到的加速度积分求解机器人的速度信息和位移信息,最后通过将机器人六自由度信息转换到导航坐标系中完成定位。然而单纯的惯性测量单元在重复路径下误差累计较大,并且无法进行有效的回环检测。除此之外,因惯性测量单元随机游走等性质,在巡检机器人起步以及加速度变化较大时会产生大量迟滞误差。
以华硕xtion和微软Kinect为代表的消费机深度相机能够获取RGB图像和深度图,广泛应用于室内机器人领域。但是这种深度相机视野范围普遍较窄,导致算法跟踪目标容易丢失,同时深度数据往往存在大量噪声,甚至导致有些数据无法使用。在传统的方法中,视觉特征的提取算法往往基于像素的差异,但是在深度相机测量的深度数据中,位于边角处的点,不易被识别出来。并且移动机器人在大旋转情况下,采用单独深度相机进行定位容易丢失。
同时定位和建图(simultaneous location and mapping,SLAM)最初应用于机器人领域。使用单独的传感器的方法虽然计算量较小,但是定位精度不高、鲁棒性不强。使用多种传感器融合的同时定位和地图构建方法已经成为发展的主流,并且缺乏有效的深度相机和惯性测量单元融合的同时定位和地图构建。
发明内容
根据现有技术的不足,本发明提供一种基于深度惯性里程计的巡检机器人地下空间同时定位和地图构建方法,通过此方法提高巡检机器人在地下空间的定位精度和鲁棒性,达到巡检机器人在地下空间同时定位和地图构建的效果。巡检机器人在地下空间进行作业时,在强旋转环境下本发明采用的方法具有良好鲁棒性。
为实现上述目的,本发明采用的技术方案为:
一种基于深度惯性里程计的巡检机器人地下空间同时定位和地图构建方法,该方法为:
利用深度相机和惯性测量单元进行松耦合,通过深度相机采集的深度图获取点云信息,提取平面特征;将深度相机采集的RGB图像转换为灰度图和平面特征融合,利用迭代最近点算法进行优化;迭代最近点优化后的数据和惯性测量单元数据进行松耦合,利用回环检测提高位姿图精度,得到巡检机器人运行轨迹、点云地图和树跳表地图,达到巡检机器人在室内同时定位和地图构建的效果。
优选的是,深度相机采集相邻两个帧为场景S和模型M,两组匹配点分别记为P={pi|i=1,...,n}和Q={qi|i=1,...,n};
其中pi和qi都表示三维空间点,能够参数化成
Figure BDA0001505816830000021
优选的是,深度相机模型为:
Figure BDA0001505816830000031
其中(u,v)为空间点(x,y,z)T对应的像素位置,d为深度值,C为相机内参。
优选的是,M到S的运动用旋转R和平移t描述,利用迭代最近点算法求解:
Figure BDA0001505816830000032
优选的是,从深度图获得的点云中提取平面特征,用四个参数来描述三维空间的平面:
p=(a,b,c,d)={x,y,z|ax+by+cz+d=0};
令d=0,将每个拟合的平面投影在成像平面上,得到平面点的成像位置(u,v),利用投影方程求解:
Figure BDA0001505816830000033
其中fx,fy,cx,cy为深度相机的内参,s是深度数据的缩放因子。
优选的是,对每个平面图做一次灰度直方图归一化增强它的对比度,然后再提取特征点并计算特征点的深度:
Figure BDA0001505816830000034
优选的是,太多的关键帧会给后端和回环检测带来额外的计算量,而太少的关键帧就会导致关键帧之间运动太大,特征匹配数量不够,导致容易丢失。在提取图像的平面,计算它和上一个关键帧之间的相对运动超过某个阈值,就认为这是一个新的关键帧。
优选的是,阈值的计算是通过评价平移和欧拉角旋转实现的:
Figure BDA0001505816830000035
这里(Δx,Δy,Δz)是相对平移,而(α,β,γ)是相对的欧拉角;
w1=(m,m,m),m∈(0.6,0.7);w2∈(0.95,1.05)。
本发明有益效果:
通过此方法提高巡检机器人在地下空间作业的同时定位精度和鲁棒性,达到巡检机器人在地下空间环境下的同时定位和地图构建的效果。巡检机器人在地下空间进行作业时,在强旋转环境下本发明采用的方法具有良好鲁棒性。
附图说明
图1为本发明的方法框架示意图;
图2为本发明的深度相机采集RGB图转换成的灰度图示意图;
图3为本发明的深度相机采集深度图像示意图;
图4为本发明的构建环境三维点云地图;
图5为本发明的构建环境三维树跳表地图;
图6为本发明的机器人运行轨迹。
具体实施方式
以下结合附图,通过具体实施例对本发明作进一步的说明。
如图1至图6所示,一种基于深度惯性里程计的巡检机器人地下空间同时定位和地图构建方法,该同时定位方法为:利用深度相机和惯性测量单元进行松耦合,通过深度相机采集的深度图获取点云信息,提取平面特征。将深度相机采集的RGB图像和平面特征融合,利用迭代最近点(ICP)算法进行优化;ICP优化后的数据和惯性测量单元(IMU)数据进行松耦合,利用回环检测(Loop closure)提高位姿图精度,得到巡检机器人运行轨迹、点云地图和树跳表地图。
深度相机采集相邻两个帧为场景S和模型M,两组匹配点分别记为P={pi|i=1,...,n}和Q={qi|i=1,...,n}。其中pi和qi都表示三维空间点,可以参数化成
Figure BDA0001505816830000042
深度相机模型为:
Figure BDA0001505816830000041
其中(u,v)为空间点(x,y,z)T对应的像素位置,d为深度值,C为相机内参。
M到S的运动用旋转R和平移t描述,利用ICP算法求解:
Figure BDA0001505816830000051
从深度图获得的点云中提取平面特征,用四个参数来描述三维空间的平面:
p=(a,b,c,d)={x,y,z|ax+by+cz+d=0}
令d=0,将每个拟合的平面投影在成像平面上,得到平面点的成像位置(u,v),利用投影方程求解:
Figure BDA0001505816830000052
其中fx,fy,cx,cy为深度相机的内参,s是深度数据的缩放因子。
对每个平面图做一次灰度直方图归一化增强它的对比度,然后再提取特征点并计算特征点的深度:
Figure BDA0001505816830000053
三维空间的相机位姿,以平移和单位四元数表示:x={x,y,z,qx,qy,qz,qw};
从该帧提取的平面组P={Pi},每个平面包含它的平面参数和所属的特征点。
太多的关键帧会给后端和回环检测带来额外的计算量,而太少的关键帧就会导致关键帧之间运动太大,特征匹配数量不够,导致容易丢失。在提取图像的平面,计算它和上一个关键帧之间的相对运动超过某个阈值,就认为这是一个新的关键帧。阈值的计算是通过评价平移和欧拉角旋转实现的:
Figure BDA0001505816830000054
这里(Δx,Δy,Δz)是相对平移,而(α,β,γ)是相对的欧拉角。
w1=(m,m,m),m∈(0.6,0.7),w2∈(0.95,1.05)。
以上所述,仅仅是对本发明的较佳实施例,并非是对本发明做其他形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改变形式为等同变化的等效实施例。但是,凡是未脱离本发明方案内容,依据本发明的技术实质对以上实施例所做的任何简单修改、等同变化与改型,仍属于本发明的保护范围。

Claims (6)

1.一种基于深度惯性里程计的巡检机器人地下空间同时定位和地图构建方法,其特征在于,该方法为:
利用深度相机和惯性测量单元进行松耦合,通过深度相机采集的深度图获取点云信息,提取平面特征;
将深度相机采集的RGB图像转换成灰度图和平面特征融合,利用迭代最近点算法进行优化;
迭代最近点优化后的数据和惯性测量单元数据进行松耦合,利用回环检测提高位姿图精度,得到巡检机器人运行轨迹、点云地图和树跳表地图,达到巡检机器人在地下空间同时定位和地图构建的效果;
深度相机采集相邻两个帧为场景S和模型M,两组匹配点分别记为P={pi|i=1,...,n}和Q={qi|i=1,...,n};
其中pi和qi都表示三维空间点,能够参数化成
Figure FDA0002630736360000013
M到S的运动用旋转R和平移t描述,利用迭代最近点算法求解:
Figure FDA0002630736360000011
2.根据权利要求1所述的基于深度惯性里程计的巡检机器人地下空间同时定位和地图构建方法,其特征在于:
深度相机模型为:
Figure FDA0002630736360000012
其中(u,v)为空间点(x,y,z)T对应的像素位置,d为深度值,C为相机内参。
3.根据权利要求1所述的基于深度惯性里程计的巡检机器人地下空间同时定位和地图构建方法,其特征在于:
从深度图获得的点云中提取平面特征,用四个参数来描述三维空间的平面:
p=(a,b,c,d)={x,y,z|ax+by+cz+d=0};
令d=0,将每个拟合的平面投影在成像平面上,得到平面点的成像位置(u,v),利用投影方程求解:
Figure FDA0002630736360000021
Figure FDA0002630736360000022
d=z·s
其中fx,fy,cx,cy为深度相机的内参,s是深度数据的缩放因子。
4.根据权利要求3所述的基于深度惯性里程计的巡检机器人地下空间同时定位和地图构建方法,其特征在于:
对每个平面图做一次灰度直方图归一化增强它的对比度,然后再提取特征点并计算特征点的深度:
Figure FDA0002630736360000023
5.根据权利要求1所述的基于深度惯性里程计的巡检机器人地下空间同时定位和地图构建方法,其特征在于:
太多的关键帧会给后端和回环检测带来额外的计算量,而太少的关键帧就会导致关键帧之间运动太大,特征匹配数量不够,导致容易丢失;在提取图像的平面,计算它和上一个关键帧之间的相对运动超过某个阈值,就认为这是一个新的关键帧。
6.根据权利要求5所述的基于深度惯性里程计的巡检机器人地下空间同时定位和地图构建方法,其特征在于:
阈值的计算是通过评价平移和欧拉角旋转实现的:
Figure FDA0002630736360000024
这里(Δx,Δy,Δz)是相对平移,而(α,β,γ)是相对的欧拉角;
w1=(m,m,m),m∈(0.6,0.7);w2∈(0.95,1.05)。
CN201711334617.7A 2017-12-13 2017-12-13 基于深度惯性里程计的巡检机器人地下空间同时定位和地图构建方法 Active CN108052103B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711334617.7A CN108052103B (zh) 2017-12-13 2017-12-13 基于深度惯性里程计的巡检机器人地下空间同时定位和地图构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711334617.7A CN108052103B (zh) 2017-12-13 2017-12-13 基于深度惯性里程计的巡检机器人地下空间同时定位和地图构建方法

Publications (2)

Publication Number Publication Date
CN108052103A CN108052103A (zh) 2018-05-18
CN108052103B true CN108052103B (zh) 2020-12-04

Family

ID=62132123

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711334617.7A Active CN108052103B (zh) 2017-12-13 2017-12-13 基于深度惯性里程计的巡检机器人地下空间同时定位和地图构建方法

Country Status (1)

Country Link
CN (1) CN108052103B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108776487A (zh) * 2018-08-22 2018-11-09 中国矿业大学 一种矿用轨道式巡检机器人及其定位方法
US11747825B2 (en) * 2018-10-12 2023-09-05 Boston Dynamics, Inc. Autonomous map traversal with waypoint matching
CN110322511B (zh) * 2019-06-28 2021-03-26 华中科技大学 一种基于物体和平面特征的语义slam方法和***
EP4010659A1 (en) 2019-08-06 2022-06-15 Boston Dynamics, Inc. Intermediate waypoint generator
CN110722559A (zh) * 2019-10-25 2020-01-24 国网山东省电力公司信息通信公司 一种智能巡检机器人辅助巡检定位方法
CN112258568B (zh) * 2020-10-12 2022-07-01 武汉中海庭数据技术有限公司 一种高精度地图要素的提取方法及装置
CN112697131A (zh) * 2020-12-17 2021-04-23 中国矿业大学 基于视觉和惯性导航***的井下移动装备定位方法及***
CN114720978A (zh) * 2021-01-06 2022-07-08 扬智科技股份有限公司 用于同时定位和地图构建的方法和移动平台
CN113378694B (zh) * 2021-06-08 2023-04-07 北京百度网讯科技有限公司 生成目标检测和定位***及目标检测和定位的方法及装置
CN113486854A (zh) * 2021-07-29 2021-10-08 北京超维世纪科技有限公司 基于深度相机实现工业类巡检机器人的识别检测算法
CN114429432B (zh) * 2022-04-07 2022-06-21 科大天工智能装备技术(天津)有限公司 一种多源信息分层融合方法、装置及存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2845025A4 (en) * 2012-05-01 2016-03-09 Intel Corp SIMULTANEOUS MAPPING AND LOCATION USING SPATIAL AND TEMPORAL COHERENCE FOR INDOOR LOCALIZATION
CN103411621B (zh) * 2013-08-09 2016-02-10 东南大学 一种面向室内移动机器人的光流场视觉/ins组合导航方法
US9759918B2 (en) * 2014-05-01 2017-09-12 Microsoft Technology Licensing, Llc 3D mapping with flexible camera rig
CN107085422A (zh) * 2017-01-04 2017-08-22 北京航空航天大学 一种基于Xtion设备的多功能六足机器人的远程控制***
CN107063246A (zh) * 2017-04-24 2017-08-18 齐鲁工业大学 一种视觉导航/惯性导航的松散组合导航方法
CN107160395B (zh) * 2017-06-07 2020-10-16 中国人民解放军装甲兵工程学院 地图构建方法及机器人控制***

Also Published As

Publication number Publication date
CN108052103A (zh) 2018-05-18

Similar Documents

Publication Publication Date Title
CN108052103B (zh) 基于深度惯性里程计的巡检机器人地下空间同时定位和地图构建方法
CN108717712B (zh) 一种基于地平面假设的视觉惯导slam方法
CN109307508B (zh) 一种基于多关键帧的全景惯导slam方法
CN110070615B (zh) 一种基于多相机协同的全景视觉slam方法
CN107909614B (zh) 一种gps失效环境下巡检机器人定位方法
US9888235B2 (en) Image processing method, particularly used in a vision-based localization of a device
JP5832341B2 (ja) 動画処理装置、動画処理方法および動画処理用のプログラム
CN114018236B (zh) 一种基于自适应因子图的激光视觉强耦合slam方法
CN110827353B (zh) 一种基于单目摄像头辅助的机器人定位方法
CN110388919B (zh) 增强现实中基于特征图和惯性测量的三维模型定位方法
Momeni-k et al. Height estimation from a single camera view
CN112179373A (zh) 一种视觉里程计的测量方法及视觉里程计
CN115371665A (zh) 一种基于深度相机和惯性融合的移动机器人定位方法
Horanyi et al. Generalized pose estimation from line correspondences with known vertical direction
Xian et al. Fusing stereo camera and low-cost inertial measurement unit for autonomous navigation in a tightly-coupled approach
CN115147344A (zh) 一种增强现实辅助汽车维修中的零件三维检测与跟踪方法
Muffert et al. The estimation of spatial positions by using an omnidirectional camera system
CN112731503A (zh) 一种基于前端紧耦合的位姿估计方法及***
CN112945233A (zh) 一种全局无漂移的自主机器人同时定位与地图构建方法
Irmisch et al. Simulation framework for a visual-inertial navigation system
CN111862146B (zh) 一种目标对象的定位方法及装置
CN112767482B (zh) 一种多传感器融合的室内外定位方法及***
Lee et al. Visual odometry for absolute position estimation using template matching on known environment
Hernández et al. Visual SLAM with oriented landmarks and partial odometry
Deng et al. Robust 3D-SLAM with tight RGB-D-inertial fusion

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant