CN109676604B - 机器人曲面运动定位方法及其运动定位*** - Google Patents
机器人曲面运动定位方法及其运动定位*** Download PDFInfo
- Publication number
- CN109676604B CN109676604B CN201811604262.3A CN201811604262A CN109676604B CN 109676604 B CN109676604 B CN 109676604B CN 201811604262 A CN201811604262 A CN 201811604262A CN 109676604 B CN109676604 B CN 109676604B
- Authority
- CN
- China
- Prior art keywords
- robot
- frame
- motion
- curved surface
- measurement unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000005259 measurement Methods 0.000 claims abstract description 95
- 239000011159 matrix material Substances 0.000 claims abstract description 86
- 238000013519 translation Methods 0.000 claims abstract description 79
- 230000001133 acceleration Effects 0.000 claims abstract description 23
- 238000005457 optimization Methods 0.000 claims abstract description 10
- 238000001514 detection method Methods 0.000 claims abstract description 7
- 238000004364 calculation method Methods 0.000 claims description 18
- 230000005484 gravity Effects 0.000 claims description 10
- 238000012937 correction Methods 0.000 claims description 9
- 238000001179 sorption measurement Methods 0.000 claims description 9
- 238000010276 construction Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 6
- 230000003044 adaptive effect Effects 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 238000006073 displacement reaction Methods 0.000 abstract 1
- 230000000007 visual effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 3
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000009194 climbing Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
Abstract
本发明涉及机器人曲面运动定位方法及其运动定位***,该方法采用RGB‑D深度相机采集机器人运动前方曲面的彩色图像和深度图像信息,通过特征匹配的方法计算机器人旋转矩阵和位移;同时采用惯性测量单元IMU的三轴加速度数据优化机器人的俯仰角和横滚角,利用特征点的重投影误差修正机器人的航向角和平移向量,拼接由深度图像获取的机器人运动曲面点云;根据机器人与曲面点云的位置约束和惯性测量单元IMU误差最小化约束对位置和姿态进行非线性优化,获取最终位姿信息;将关键帧中特征点制成词典,用于回环检测。本发明能够对机器人曲面运动进行位置定位和姿态定位,***结构简单,定位精度高,能够长时间可靠工作。
Description
技术领域
本发明涉及一种计算机视觉技术,具体涉及机器人曲面运动定位方法及其运动定位***。
背景技术
随着机器人技术的飞速发展,工业移动机器人得到广泛使用。爬壁机器人作为工业移动机器人的一种,通过磁吸附或气压吸附在大型结构件或设备表面进行代替人工进行作业。自主位置定位和姿态定位是爬壁机器人实现自动或半自动工作的基础条件。
在封闭空间、周围环境存在强磁场干扰及缺乏典型的结构化特征的工作环境下,GPS信号难以接收,磁强计容易受到周围磁场干扰,机器人驱动轮打滑也限制了测程法的应用。单一导航***很难同时满足各种环境的导航要求。因此通过把具有不同特点的两种或以上的设备组合在一起构成一个综合***,能充分发挥各自的优势达到整体性能最佳。视觉传感器和惯性传感器组合的方式具有价格低、结构简单、信息量丰富等优势得到关注和应用。现有的视觉惯性定位方法中,当采用单目相机作为视觉传感器时,需要在亮度不变假设的前提下应用光流法获取运动参数,受周围环境光照影响较大;当采用双目相机作为视觉传感器时,采用三角法计算和优化特征点的三维坐标,对特征点的数量和可识别度要求高,大型设备或结构件表面特征点相似度较高,容易出现误匹配;当采用RGB-D(深度图像)深度相机作为视觉传感器时,中国专利文献CN201711077826公开了一种基于视觉惯导信息融合的定位方法及***采用harris角点计算描述子作为特征点,但是舍弃了非harris角点的深度信息,在曲面运动的位置定位中误差较大,损失信息较多。
发明内容
本发明的目的是提供一种机器人曲面运动定位方法及其运动定位***,使其实现具有结构简单,抗干扰能力强,定位精度高等优点,从而进一步提升机器人自主定位水平。
本发明的技术方案如下:
机器人曲面运动定位方法,所述方法包括如下步骤:
1)建立机器人曲面运动定位***,定义坐标系:机器人曲面运动定位***包括机器人,所述机器人上设置有RGB-D相机、惯性测量单元IMU、吸附装置和运动机构,所述吸附装置用于使机器人吸附在物体表面,所述运动机构用于驱动机器人运动;
所述坐标系包括空间惯性坐标系、RGB-D相机坐标系、惯性测量单元IMU坐标系、机器人坐标系;
对RGB-D相机的彩色图像与深度图像进行配准;
2)机器人运动,同时通过固联在机器人前方的RGB-D相机实时采集物体表面的彩色图像和深度图像,通过配备的惯性测量单元IMU采集机器人在曲面上运动的三轴角速度Ωk(ωx,ωy,ωz)和三轴加速度Ak(ax,ay,az);
4)在每两帧彩色图像之间,根据第k-1帧图像对应的欧拉角(αk-1,βk-1,γk-1)和惯性测量单元IMU输出值计算第k帧的欧拉角将惯性测量单元IMU三轴加速度计输出值作为重力加速度在三轴上的分量Ak(ax,ay,az),并利用所述分量Ak(ax,ay,az)更新横滚角βk和俯仰角γk从而修正第k帧的欧拉角,利用更新后的横滚角βk和俯仰角γk修正步骤3)旋转矩阵再计算上一帧特征点在第k帧中的重投影误差,利用最小二乘法修正航向角αk和平移向量根据修正后的第k帧的欧拉角和平移向量计算机器人的三维坐标 Pt,利用最小二乘法更新惯性测量单元IMU的三轴角速度误差bk(bx,by,bz),并将三轴角速度误差bk(bx,by,bz)返回给惯性测量单元IMU以修正惯性测量单元IMU的测量值;
5)利用步骤4)修正后的旋转矩阵和平移向量对RGB-D深度图像进行拼接,生成机器人运动曲面点云,对曲面点云进行体素栅格滤波;
7)执行闭环检测,对比第k帧中特征点的BRIEF描述子与BoW词袋模型中描述子,当相似度大于设定值就认定为相似,根据BoW词袋模型中的描述子对应的特征点三维坐标更新机器人位姿信息,否则将第k帧中特征点加入BoW词袋模型中,返回步骤3)。
Rk-1=DCMFromEuler(αk-1,βk-1,γk-1) (1)
其中,DCMFromEuler是将欧拉角转换为旋转矩阵;
EulerFromDCM是将旋转矩阵转换为欧拉角;
Ωk是惯性测量单元IMU采集机器人在运动曲面上运动的第k帧的三轴角速度;
bk-1是第k-1帧的惯性测量单元IMU的三轴角速度误差;
Rk-1是机器人在第k-1帧空间惯性坐标系下的旋转矩阵;
Δt是第k帧与第k-1帧的时间差。
αk是机器人航向角;
Rk(αk)是从第k-1帧到到第k帧的旋转矩阵。
优选地,所述的惯性测量单元IMU的三轴角速度误差bk(bx,by,bz)计算步骤如下:
其中,Jr(ΩjΔt)是计算ΩjΔt在李群上的右雅克比矩阵;
k是当前帧;
Ωj是惯性测量单元IMU采集的机器人在运动曲面上运动的第j帧的三轴角速度(ωx,ωy,ωz);
[Ωj]×是Ωj的反对称矩阵;
Rk-m是机器人在第k-m帧时对应的空间惯性坐标系下的旋转矩阵;
RCB是从RGB-D相机坐标系到惯性测量单元IMU坐标系的旋转矩阵;
利用式(4)、式(5),对惯性测量单元IMU的三轴角速度误差bk构造非线性方程如式(6) 所示,
通过高斯牛顿法迭代求解式(6)得到最优bk。
优选地,步骤6)中,对修正后的平移向量进行优化的方法包括:
在机器人坐标系中设垂直运动曲面向上方向单位向量根据步骤4)中获取的第k帧的欧拉角和平移向量初步估计机器人位置Pt,在运动曲面Σ上选取Pt附近离散点,拟合出Pt点的切平面,并求出对应的法向量残差r1计算如式(7):
其中Rk是机器人在第k帧空间惯性坐标系下的旋转矩阵;
计算机器人位置坐标到运动曲面距离r2,计算公式如式(8):
对平移向量进行优化构造的非线性方程如式(9):
通过高斯牛顿法迭代求解机器人每两帧图像间的平移向量最优值。
优选地,所述的惯性测量单元IMU包括陀螺仪和三轴加速度计。
优选地,所述物体表面的曲率半径大于等于5米。
优选地,利用重力加速度在加速度计三轴方向的分量Ak(ax,ay,az)更新横滚角βk和俯仰角γk,具体方法是先将步骤3)旋转矩阵转换成欧拉角表示方式,将横滚角更新为βk,将俯仰角更新为γk,再将欧拉角转换成新的旋转矩阵Rk。
本发明还提供一种机器人曲面运动定位***,采用以上所述的机器人曲面运动定位方法进行机器人曲面运动定位,该运动定位***包括:RGB-D深度相机、惯性测量单元IMU、爬壁机器人、坐标系构建模块、配准模块、旋转矩阵和平移向量获取模块、旋转矩阵和平移向量修正模块、RGB-D深度图像拼接模块、平移向量优化模块、相似度比较模块,其中:
RGB-D相机用于实时采集物体表面的彩色图像和深度图像;
惯性测量单元IMU用于采集机器人在曲面上运动的三轴角速度Ωk(ωx,ωy,ωz)和三轴加速度Ak(ax,ay,az);
坐标系构建模块用于构建空间惯性坐标系、RGB-D相机坐标系、惯性测量单元IMU坐标系、机器人坐标系;
配准模块用于对RGB-D相机的彩色图像与深度图像进行配准;
旋转矩阵和平移向量获取模块用于在步骤2)中采集的彩色图像中利用ORB特征提取方法提取特征点,采用BRIEF算法计算描述子,利用最近邻搜索方法完成特征匹配,计算出空间惯性坐标系下机器人的旋转矩阵和平移向量
旋转矩阵和平移向量修正模块用于在每两帧彩色图像之间,根据第k-1帧图像对应的欧拉角(αk-1,βk-1,γk-1)和惯性测量单元IMU输出值计算第k帧的欧拉角将惯性测量单元IMU三轴加速度计输出值作为重力加速度在三轴上的分量Ak(ax,ay,az),并利用所述分量Ak(ax,ay,az)更新横滚角βk和俯仰角γk从而修正第k帧的欧拉角,利用更新后的横滚角βk和俯仰角γk修正步骤3)旋转矩阵再计算上一帧特征点在第k帧中的重投影误差,利用最小二乘法修正航向角αk和平移向量根据修正后的第k帧的欧拉角和平移向量计算机器人的三维坐标Pt,利用最小二乘法更新惯性测量单元IMU的三轴角速度误差 bk(bx,by,bz),并将三轴角速度误差bk(bx,by,bz)返回给惯性测量单元IMU以修正惯性测量单元IMU的测量值;
RGB-D深度图像拼接模块利用步骤4)修正后的旋转矩阵和平移向量对RGB-D深度图像进行拼接,生成机器人运动曲面点云,对曲面点云进行体素栅格滤波;
相似度比较模块用于执行闭环检测,对比第k帧中特征点的BRIEF描述子与BoW词袋模型中描述子,当相似度大于设定值就认定为相似,根据BoW词袋模型中的描述子对应的特征点三维坐标更新机器人位姿信息,否则将第k帧中特征点加入BoW词袋模型中。
本发明提出的基于RGB-D和IMU信息的机器人曲面运动定位方法能够利用视觉传感器所拍摄区域的全部深度信息,根据***状态输出,逐块拼接深度图片,构造机器人运动所在的曲面模型并对机器人位置定位进行优化,适用于机器人在曲面运动中的长期位置定位和姿态定位。本发明具有以下优点及突出性的技术效果:①采用RGB-D深度相机直接获取特征点三维坐标,省去三角测量法深度值计算。②采用惯性测量单元IMU辅助测量的方法避免了单目视觉中机器人旋转条件下深度无法计算的问题。③采用RGB-D深度图像拼接获取机器人运动曲面点云,对机器人姿态和位置参数进行二次优化,增加了定位精度。
附图说明
图1是本发明实施例的机器人曲面运动定位***流程示意图;
图2是本发明实施例的机器人曲面运动及RGB-D相机采集方法示意图;
图3是本发明实施例中利用旋转矩阵和平移向量对RGB-D深度图像拼接生成机器人运动曲面点云示意图;
图4是本发明实施例中利用曲面点云优化位置定位和姿态定位参数原理图。
图中:1-RGB-D深度相机;2-惯性测量单元IMU;3-爬壁机器人;4-大型结构件;5-RGB-D 深度相机视野区域;6-深度点云曲面;7-深度点云拼接块;8-深度点云拼接重复部分。
具体实施方式
下面将参考附图来描述本发明所述的机器人曲面运动定位方法及其运动定位***的实施例。本领域的普通技术人员可以认识到,在不偏离本发明的精神和范围的情况下,可以用各种不同的方式或其组合对所描述的实施例进行修正。因此,附图和描述在本质上是说明性的,而不是用于限制权利要求的保护范围。此外,在本说明书中,附图未按比例画出,并且相同的附图标记表示相同的部分。
机器人曲面运动定位方法的流程示意图如图1所示,所述方法包括如下步骤:
1)建立机器人曲面运动定位***,定义坐标系:机器人曲面运动定位***包括机器人,所述机器人上设置有RGB-D相机、惯性测量单元IMU、吸附装置和运动机构,所述吸附装置用于吸附在物体表面,所述运动机构用于驱动机器人运动;所述坐标系包括空间惯性坐标系、RGB-D相机坐标系、惯性测量单元IMU坐标系、机器人坐标系;对RGB-D相机的彩色图像与深度图像进行配准。如图2所示,爬壁机器人3在大型结构件4的表面上移动,在爬壁机器人3的前端设置有RGB-D深度相机1,在爬壁机器人3上还设置有IMU惯性测量单元2。5标识的是RGB-D深度相机1的摄像区域。
2)机器人在大型设备或结构件(曲率半径大于5米)表面运动如附图2所示,同时通过固联在机器人前方拍摄方向向下的RGB-D相机实时采集彩色图像和深度图像,通过配备的惯性测量单元IMU采集机器人在曲面上运动的三轴角速度Ωk(ωx,ωy,ωz)和三轴加速度 Ak(ax,ay,az)。
3)在步骤2)中采集的彩色图像中利用ORB(Oriented FAST and Rotated BRIEF,是一种快速提取特征点和描述子的算法)特征提取特征点,提取特征点的方法基于特征点周围的图像灰度值,检测候选特征点周围一圈的像素值,如果候选点周围领域内有足够多的像素点与该候选点的灰度值差别够大(这里所说的灰度值差别够大是指与设定的阈值进行比较,大于该设定的阈值,则认为灰度值差别够大),则认为该候选点为一个特征点。采用BRIEF特征描述子提取算法计算描述子,利用最近邻搜索方法完成特征匹配,也就是搜索与一个特征点的描述子最近邻的描述子,从而完成特征匹配。根据连续两帧的图像特征点匹配,采用最小二乘法求解匹配连续两帧的图像特征点的机器人旋转矩阵和平移向量,具体说,最小化连续两帧的图像特征点的三维坐标的差值的平方和,从而计算出空间惯性坐标系下机器人的旋转矩阵和平移向量
4)在每两帧图像之间,根据上一帧图像对应的机器人的欧拉角(αk-1,βk-1,γk-1)和惯性测量单元IMU输出值计算当前帧的欧拉角式(1)是将上一帧图像对应的欧拉角转换为旋转矩阵Rk-1方便计算,式(2)是根据惯性测量单元IMU输出值进行递推求解下一时刻的旋转矩阵,并将机器人的旋转矩阵转换为欧拉角表示:
Rk-1=DCMFromEuler(αk-1,βk-1,γk-1) (1)
机器人在大曲率曲面低速运动,其加速度近似为0,惯性测量单元IMU三轴加速度计输出值近似为重力加速度在三轴上的投影,利用重力加速度在三轴加速度计三轴方向的分量 Ak(ax,ay,az)计算机器人横滚角βk和俯仰角γk,替代式(2)中由惯性测量单元IMU计算出的机器人横滚角和俯仰角具体方法是先将步骤3)旋转矩阵转换成欧拉角表示方式,然后根据式(3)计算机器人横滚角βk,根据式(4)计算机器人俯仰角γk,
βk=atan2(ax,az) (3)
其中ax,ay,az分别是惯性测量单元IMU三轴加速度计输出值;
atan2(ax,az)是求ax与az比值的四象限反正切函数;
arcsin是反正弦函数。
将式(2)中由惯性测量单元IMU计算出的机器人横滚角更新为βk,将机器人俯仰角更新为γk,然后再将更新后的欧拉角转换成新的旋转矩阵Rk。将Rk当做αk的函数,记为Rk(αk);在空间惯性坐标系中,将上一帧中的特征点通过旋转矩阵Rk(αk)和平移向量投影到当前帧,与当前帧对应的特征点相减获得重投影误差,将所有特征点重投影误差求和,利用最小二乘法修正航向角αk和平移向量如式(5):
根据修正后的当前帧的欧拉角和平移向量计算机器人的三维坐标Pt(xt,yt,zt),再次构造出关于惯性测量单元IMU的三轴角速度误差的非线性方程,计算出惯性测量单元IMU的三轴角速度误差bk(bx,by,bz)。将三轴角速度误差bk(bx,by,bz)返回给惯性测量单元IMU以修正惯性测量单元IMU的测量值。
具体方法是首先根据惯性测量单元IMU输出值计算出从k-m帧到当前帧(第k帧)的旋转矩阵,如式(6):
其中Jr(ΩjΔt)是计算ΩjΔt在李群上的右雅克比矩阵;
[Ωj]×是Ωj的反对称矩阵;
再根据图像特征匹配计算出从k-m帧到当前帧(第k帧)的旋转矩阵,如式(7):
其中RCB是从RGB-D相机坐标系到惯性测量单元IMU坐标系的旋转矩阵;
5)利用步骤4)修正后的旋转矩阵和平移向量对RGB-D深度图像进行拼接,如附图3所示,图3-1显示的是已有的深度点云曲面6,图3-2显示的深度点云拼接块7,其中阴影部分是在拼接中重复的部分。将新的点云坐标添加到已有的深度点云平面6中,同时去除深度点云拼接重复部分8,生成新的机器人运动曲面点云,如图3-3所示。然后对曲面点云进行体素栅格滤波。
下面具体说明如下:机器人在曲面上运动,由于加速度二次积分的方式容易导致误差累计,采用优化步骤4)所得的平移向量可以获取更可靠的位置定位。机器人在任意时刻的速度方向在运动曲面上对应位置的切平面内,本例中采用轮式爬壁机器人,大型设备或结构件曲率很小,可以近似成瞬时平面运动,在机器人坐标系中设垂直运动曲面向上方向的单位向量机器人沿方向运动速度为0,根据步骤4)中获取的当前帧的欧拉角和平移向量初步估计机器人位置Pt,在运动曲面Σ上选取Pt附近离散点,拟合出Pt点的切平面,并求出对应的法向量理想情况下与的向量积为0,因此选择与的向量积作为残差进行优化,如式(9):
其中Rk是机器人在k时刻空间惯性坐标系下的旋转矩阵;
机器人坐标在理想状态下应该处于步骤5)获取的运动曲面内,但是由于惯性测量单元 IMU输出三轴角速度和加速度误差、图像特征匹配误差以及计算精度误差等因素影响,机器人位置坐标对应的三维空间点存在偏离运动曲面的情况,如附图4所示,图中a、b、c点是机器人理想条件下在点云曲面上的位置,a*、b*、c*是误差存在条件下机器人位置,保持机器人位置坐标到运动曲面距离平方和最小可以有效减小机器人定位误差,平移向量优化计算公式如式(10):
对平移向量进行优化构造的非线性方程如式(11):
7)执行闭环检测,对比当前帧中特征点的BRIEF描述算子与BoW词袋模型中描述算子,当相似度大于设定值就认为相似,根据BoW词袋模型中的描述算子对应的特征点三维坐标更新机器人位姿信息,否则将新特征点加入BoW词袋模型中。
在一个可选实施例中,所述的惯性测量单元IMU包括陀螺仪和三轴加速度计。
本发明还提供一种机器人曲面运动定位***,采用以上所述的方法进行机器人曲面运动定位,包括RGB-D深度相机1、惯性测量单元IMU2、爬壁机器人3。如图2所示,爬壁机器人3在大型结构件4的表面上移动,在爬壁机器人3的前端设置有RGB-D深度相机1,在爬壁机器人3上还设置有IMU惯性测量单元2、吸附装置(未示出)和运动机构(未示出)。所述吸附装置用于吸附在物体表面,所述运动机构用于驱动机器人运动。5标识的是RGB-D 深度相机1的摄像区域。通过固联在机器人前方拍摄方向向下的RGB-D相机实时采集彩色图像和深度图像,通过配备的惯性测量单元IMU采集机器人在曲面上运动的三轴角速度Ωk(ωx,ωy,ωz)和三轴加速度Ak(ax,ay,az)。
进一步地,机器人曲面运动定位***还包括坐标系构建模块,用于建立机器人曲面运动定位***,定义坐标系:所述坐标系包括空间惯性坐标系、RGB-D相机坐标系、惯性测量单元IMU坐标系、机器人坐标系。
进一步地,还包括配准模块,用于对RGB-D相机的彩色图像与深度图像进行配准。
进一步地,还包括旋转矩阵和平移向量获取模块,用于在步骤2)中采集的彩色图像中利用ORB(Oriented FAST and Rotated BRIEF,是一种快速提取特征点和描述子的算法)特征提取特征点,提取特征点的方法基于特征点周围的图像灰度值,检测候选特征点周围一圈的像素值,如果候选点周围领域内有足够多的像素点与该候选点的灰度值差别够大(这里所说的灰度值差别够大是指与设定的阈值进行比较,大于该设定的阈值,则认为灰度值差别够大),则认为该候选点为一个特征点。采用BRIEF特征描述子提取算法计算描述子,利用最近邻搜索方法完成特征匹配,也就是搜索与一个特征点的描述子最近邻的描述子,从而完成特征匹配。根据连续两帧的图像特征点匹配,采用最小二乘法求解匹配连续两帧的图像特征点的机器人旋转矩阵和平移向量,具体说,最小化连续两帧的图像特征点的三维坐标的差值的平方和,从而计算出空间惯性坐标系下机器人的旋转矩阵和平移向量
进一步地,还包括旋转矩阵和平移向量修正模块,用于在每两帧图像之间,根据上一帧图像对应的机器人的欧拉角(αk-1,βk-1,γk-1)和惯性测量单元IMU输出值计算当前帧的欧拉角式(1)是将上一帧图像对应的欧拉角转换为旋转矩阵Rk-1方便计算,式(2)是根据惯性测量单元IMU输出值进行递推求解下一时刻的旋转矩阵,并将机器人的旋转矩阵转换为欧拉角表示:
Rk-1=DCMFromEuler(αk-1,βk-1,γk-1) (1)
机器人在大曲率曲面低速运动,其加速度近似为0,惯性测量单元IMU三轴加速度计输出值近似为重力加速度在三轴上的投影,利用重力加速度在三轴加速度计三轴方向的分量 Ak(ax,ay,az)计算机器人横滚角βk和俯仰角γk,替代式(2)中由惯性测量单元IMU计算出的机器人横滚角和俯仰角具体方法是先将步骤3)旋转矩阵转换成欧拉角表示方式,然后根据式(3)计算机器人横滚角βk,根据式(4)计算机器人俯仰角γk,
βk=atan2(ax,az) (3)
其中ax,ay,az分别是惯性测量单元IMU三轴加速度计输出值;
atan2(ax,az)是求ax与az比值的四象限反正切函数;
arcsin是反正弦函数。
将式(2)中由惯性测量单元IMU计算出的机器人横滚角更新为βk,将机器人俯仰角更新为γk,然后再将更新后的欧拉角转换成新的旋转矩阵Rk。将Rk当做αk的函数,记为Rk(αk);在空间惯性坐标系中,将上一帧中的特征点通过旋转矩阵Rk(αk)和平移向量投影到当前帧,与当前帧对应的特征点相减获得重投影误差,将所有特征点重投影误差求和,利用最小二乘法修正航向角αk和平移向量如式(5):
根据修正后的当前帧的欧拉角和平移向量计算机器人的三维坐标Pt(xt,yt,zt),再次构造出关于惯性测量单元IMU的三轴角速度误差的非线性方程,计算出惯性测量单元IMU的三轴角速度误差bk(bx,by,bz)。将三轴角速度误差bk(bx,by,bz)返回给惯性测量单元IMU以修正惯性测量单元IMU的测量值。
具体方法是首先根据惯性测量单元IMU输出值计算出从k-m帧到当前帧(第k帧)的旋转矩阵,如式(6):
其中Jr(ΩjΔt)是计算ΩjΔt在李群上的右雅克比矩阵;
[Ωj]×是Ωj的反对称矩阵;
再根据图像特征匹配计算出从k-m帧到当前帧(第k帧)的旋转矩阵,如式(7):
其中RCB是从RGB-D相机坐标系到惯性测量单元IMU坐标系的旋转矩阵;
进一步地,还包括RGB-D深度图像拼接模块,用于利用步骤4)修正后的旋转矩阵和平移向量对RGB-D深度图像进行拼接,如附图3所示,图3-1显示的是已有的深度点云曲面6,图3-2显示的深度点云拼接块7,其中阴影部分是在拼接中重复的部分。将新的点云坐标添加到已有的深度点云平面6中,同时去除深度点云拼接重复部分8,生成新的机器人运动曲面点云,如图3-3所示。然后对曲面点云进行体素栅格滤波。
下面具体说明如下:机器人在曲面上运动,由于加速度二次积分的方式容易导致误差累计,采用优化步骤4)所得的平移向量可以获取更可靠的位置定位。机器人在任意时刻的速度方向在运动曲面上对应位置的切平面内,本例中采用轮式爬壁机器人,大型设备或结构件曲率很小,可以近似成瞬时平面运动,在机器人坐标系中设垂直运动曲面向上方向的单位向量机器人沿方向运动速度为0,根据步骤4)中获取的当前帧的欧拉角和平移向量初步估计机器人位置Pt,在运动曲面Σ上选取Pt附近离散点,拟合出Pt点的切平面,并求出对应的法向量理想情况下与的向量积为0,因此选择与的向量积作为残差进行优化,如式(9):
其中Rk是机器人在k时刻空间惯性坐标系下的旋转矩阵;
机器人坐标在理想状态下应该处于步骤5)获取的运动曲面内,但是由于惯性测量单元 IMU输出三轴角速度和加速度误差、图像特征匹配误差以及计算精度误差等因素影响,机器人位置坐标对应的三维空间点存在偏离运动曲面的情况,如附图4所示,图中a、b、c点是机器人理想条件下在点云曲面上的位置,a*、b*、c*是误差存在条件下机器人位置,保持机器人位置坐标到运动曲面距离平方和最小可以有效减小机器人定位误差,平移向量优化计算公式如式(10):
对平移向量进行优化构造的非线性方程如式(11):
进一步地,还包括相似度比较模块,用于执行闭环检测,对比当前帧中特征点的BRIEF 描述算子与BoW词袋模型中描述算子,当相似度大于设定值就认为相似,根据BoW词袋模型中的描述算子对应的特征点三维坐标更新机器人位姿信息,否则将新特征点加入BoW词袋模型中,返回步骤3)。
Claims (9)
1.机器人曲面运动定位方法,其特征在于,所述方法包括如下步骤:
1)建立机器人曲面运动定位***,定义坐标系:机器人曲面运动定位***包括机器人,所述机器人上设置有RGB-D相机、惯性测量单元IMU、吸附装置和运动机构,所述吸附装置用于使机器人吸附在物体表面,所述运动机构用于驱动机器人运动;
所述坐标系包括空间惯性坐标系、RGB-D相机坐标系、惯性测量单元IMU坐标系、机器人坐标系;
对RGB-D相机的彩色图像与深度图像进行配准;
2)机器人运动,同时通过固联在机器人前方的RGB-D相机实时采集物体表面的彩色图像和深度图像,通过配备的惯性测量单元IMU采集机器人在曲面上运动的三轴角速度Ωk(ωx,ωy,ωz)和三轴加速度Ak(ax,ay,az);
4)在每两帧彩色图像之间,根据第k-1帧图像对应的欧拉角(αk-1,βk-1,γk-1)和惯性测量单元IMU输出值计算第k帧的欧拉角将惯性测量单元IMU三轴加速度计输出值作为重力加速度在三轴上的分量Ak(ax,ay,az),并利用所述分量Ak(ax,ay,az)更新横滚角βk和俯仰角γk从而修正第k帧的欧拉角,利用更新后的横滚角βk和俯仰角γk修正步骤3)旋转矩阵再计算上一帧特征点在第k帧中的重投影误差,利用最小二乘法修正航向角αk和平移向量根据修正后的第k帧的欧拉角和平移向量计算机器人的三维坐标Pt,利用最小二乘法更新惯性测量单元IMU的三轴角速度误差bk(bx,by,bz),并将三轴角速度误差bk(bx,by,bz)返回给惯性测量单元IMU以修正惯性测量单元IMU的测量值;
5)利用步骤4)修正后的旋转矩阵和平移向量对RGB-D深度图像进行拼接,生成机器人运动曲面点云,对曲面点云进行体素栅格滤波;
7)执行闭环检测,对比第k帧中特征点的BRIEF描述子与BoW词袋模型中描述子,当相似度大于设定值就认定为相似,根据BoW词袋模型中的描述子对应的特征点三维坐标更新机器人位姿信息,否则将第k帧中特征点加入BoW词袋模型中,返回步骤3)。
2.根据权利要求1所述的机器人曲面运动定位方法,其特征在于:
Rk-1=DCMFromEuler(αk-1,βk-1,γk-1) (1)
其中,DCMFromEuler是将欧拉角转换为旋转矩阵;
EulerFromDCM是将旋转矩阵转换为欧拉角;
Ωk是惯性测量单元IMU采集机器人在运动曲面上运动的第k帧的三轴角速度;
bk-1是第k-1帧的惯性测量单元IMU的三轴角速度误差;
Rk-1是机器人在第k-1帧空间惯性坐标系下的旋转矩阵;
Δt是第k帧与第k-1帧的时间差。
4.根据权利要求3所述的机器人曲面运动定位方法,其特征在于:所述的惯性测量单元IMU的三轴角速度误差bk(bx,by,bz)计算步骤如下:
其中,Jr(ΩjΔt)是计算ΩjΔt在李群上的右雅克比矩阵;
k是当前帧;
Ωj是惯性测量单元IMU采集的机器人在运动曲面上运动的第j帧的三轴角速度(ωx,ωy,ωz);
[Ωj]×是Ωj的反对称矩阵;
Rk-m是机器人在第k-m帧时对应的空间惯性坐标系下的旋转矩阵;
RCB是从RGB-D相机坐标系到惯性测量单元IMU坐标系的旋转矩阵;
利用式(4)、式(5),对惯性测量单元IMU的三轴角速度误差bk构造非线性方程如式(6)所示,
通过高斯牛顿法迭代求解式(6)得到最优bk。
5.根据权利要求4所述的机器人曲面运动定位方法,其特征在于:
步骤6)中,对修正后的平移向量进行优化的方法包括:
在机器人坐标系中设垂直运动曲面向上方向单位向量根据步骤4)中获取的第k帧的欧拉角和平移向量初步估计机器人位置Pt,在运动曲面Σ上选取Pt附近离散点,拟合出Pt点的切平面,并求出对应的法向量残差r1计算如式(7):
其中Rk是机器人在第k帧空间惯性坐标系下的旋转矩阵;
计算机器人位置坐标到运动曲面距离r2,计算公式如式(8):
对平移向量进行优化构造的非线性方程如式(9):
通过高斯牛顿法迭代求解机器人每两帧图像间的平移向量最优值。
6.根据权利要求1所述的机器人曲面运动定位方法,其特征在于:所述的惯性测量单元IMU包括陀螺仪和三轴加速度计。
7.根据权利要求1所述的机器人曲面运动定位方法,其特征在于:
所述物体表面的曲率半径大于等于5米。
9.一种机器人曲面运动定位***,其特征在于,采用权利要求1至8中任一项所述的机器人曲面运动定位方法进行机器人曲面运动定位,该运动定位***包括:RGB-D深度相机、惯性测量单元IMU、爬壁机器人、坐标系构建模块、配准模块、旋转矩阵和平移向量获取模块、旋转矩阵和平移向量修正模块、RGB-D深度图像拼接模块、平移向量优化模块、相似度比较模块,其中:
RGB-D相机用于实时采集物体表面的彩色图像和深度图像;
惯性测量单元IMU用于采集机器人在曲面上运动的三轴角速度Ωk(ωx,ωy,ωz)和三轴加速度Ak(ax,ay,αz);
坐标系构建模块用于构建空间惯性坐标系、RGB-D相机坐标系、惯性测量单元IMU坐标系、机器人坐标系;
配准模块用于对RGB-D相机的彩色图像与深度图像进行配准;
旋转矩阵和平移向量获取模块用于在步骤2)中采集的彩色图像中利用ORB特征提取方法提取特征点,采用BRIEF算法计算描述子,利用最近邻搜索方法完成特征匹配,计算出空间惯性坐标系下机器人的旋转矩阵和平移向量
旋转矩阵和平移向量修正模块用于在每两帧彩色图像之间,根据第k-1帧图像对应的欧拉角(αk-1,βk-1,γk-1)和惯性测量单元IMU输出值计算第k帧的欧拉角将惯性测量单元IMU三轴加速度计输出值作为重力加速度在三轴上的分量Ak(ax,ay,az),并利用所述分量Ak(ax,ay,az)更新横滚角βk和俯仰角γk从而修正第k帧的欧拉角,利用更新后的横滚角βk和俯仰角γk修正步骤3)旋转矩阵再计算上一帧特征点在第k帧中的重投影误差,利用最小二乘法修正航向角αk和平移向量根据修正后的第k帧的欧拉角和平移向量计算机器人的三维坐标Pt,利用最小二乘法更新惯性测量单元IMU的三轴角速度误差bk(bx,by,bz),并将三轴角速度误差bk(bx,by,bz)返回给惯性测量单元IMU以修正惯性测量单元IMU的测量值;
RGB-D深度图像拼接模块利用步骤4)修正后的旋转矩阵和平移向量对RGB-D深度图像进行拼接,生成机器人运动曲面点云,对曲面点云进行体素栅格滤波;
相似度比较模块用于执行闭环检测,对比第k帧中特征点的BRIEF描述子与BoW词袋模型中描述子,当相似度大于设定值就认定为相似,根据BoW词袋模型中的描述子对应的特征点三维坐标更新机器人位姿信息,否则将第k帧中特征点加入BoW词袋模型中。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811604262.3A CN109676604B (zh) | 2018-12-26 | 2018-12-26 | 机器人曲面运动定位方法及其运动定位*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811604262.3A CN109676604B (zh) | 2018-12-26 | 2018-12-26 | 机器人曲面运动定位方法及其运动定位*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109676604A CN109676604A (zh) | 2019-04-26 |
CN109676604B true CN109676604B (zh) | 2020-09-22 |
Family
ID=66189823
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811604262.3A Active CN109676604B (zh) | 2018-12-26 | 2018-12-26 | 机器人曲面运动定位方法及其运动定位*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109676604B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111854727B (zh) * | 2019-04-27 | 2022-05-13 | 北京魔门塔科技有限公司 | 一种车辆位姿的修正方法和装置 |
CN110202575B (zh) * | 2019-06-05 | 2022-07-19 | 武汉工程大学 | 一种用于工业测量的机器人目标轨迹精度补偿方法 |
CN110497727B (zh) * | 2019-08-28 | 2020-12-01 | 华侨大学 | 一种立体石雕加工的最优加工空间选取方法 |
CN114364942A (zh) * | 2019-09-06 | 2022-04-15 | 罗伯特·博世有限公司 | 用于工业机器人的三维环境建模方法及设备、计算机存储介质以及工业机器人操作平台 |
CN112710308B (zh) * | 2019-10-25 | 2024-05-31 | 阿里巴巴集团控股有限公司 | 机器人的定位方法、装置和*** |
CN111105881B (zh) * | 2019-12-26 | 2022-02-01 | 昆山杜克大学 | 一种3d测量人类表型的数据库*** |
CN111413698A (zh) * | 2020-03-04 | 2020-07-14 | 武汉理工大学 | 一种面向水下机器人搜寻探摸的目标定位方法 |
CN112053383B (zh) * | 2020-08-18 | 2024-04-26 | 东北大学 | 一种机器人实时定位的方法及装置 |
CN112284380A (zh) * | 2020-09-23 | 2021-01-29 | 深圳市富临通实业股份有限公司 | 一种基于光流和imu融合的非线性估计方法及*** |
CN112643207B (zh) * | 2020-12-12 | 2022-09-30 | 南京理工大学 | 基于计算机视觉的激光自动除锈***及方法 |
CN114789439B (zh) * | 2021-01-26 | 2024-03-19 | 深圳市普渡科技有限公司 | 斜坡定位校正方法、装置、机器人及可读存储介质 |
CN113160075A (zh) * | 2021-03-30 | 2021-07-23 | 武汉数字化设计与制造创新中心有限公司 | Apriltag视觉定位的加工方法、***、爬壁机器人及存储介质 |
CN113660395B (zh) * | 2021-08-06 | 2023-08-01 | 海信视像科技股份有限公司 | 一种基于目标识别的安全提示方法及设备 |
CN114199235B (zh) * | 2021-11-29 | 2023-11-03 | 珠海一微半导体股份有限公司 | 一种基于扇面深度相机的定位***及定位方法 |
CN114623819A (zh) * | 2022-03-21 | 2022-06-14 | 中国电信股份有限公司 | 机器人定位方法、***、装置、设备及存储介质 |
CN114794992B (zh) * | 2022-06-07 | 2024-01-09 | 深圳甲壳虫智能有限公司 | 充电座、机器人的回充方法和扫地机器人 |
CN115829833B (zh) * | 2022-08-02 | 2024-04-26 | 爱芯元智半导体(上海)有限公司 | 一种图像生成方法及移动设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102162738A (zh) * | 2010-12-08 | 2011-08-24 | 中国科学院自动化研究所 | 摄像头与惯性传感器组合定位定姿***的标定方法 |
CN102538781A (zh) * | 2011-12-14 | 2012-07-04 | 浙江大学 | 基于机器视觉和惯导融合的移动机器人运动姿态估计方法 |
CN107680133A (zh) * | 2017-09-15 | 2018-02-09 | 重庆邮电大学 | 一种基于改进闭环检测算法的移动机器人视觉slam方法 |
CN107869989A (zh) * | 2017-11-06 | 2018-04-03 | 东北大学 | 一种基于视觉惯导信息融合的定位方法及*** |
CN108981687A (zh) * | 2018-05-07 | 2018-12-11 | 清华大学 | 一种视觉与惯性融合的室内定位方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8676498B2 (en) * | 2010-09-24 | 2014-03-18 | Honeywell International Inc. | Camera and inertial measurement unit integration with navigation data feedback for feature tracking |
-
2018
- 2018-12-26 CN CN201811604262.3A patent/CN109676604B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102162738A (zh) * | 2010-12-08 | 2011-08-24 | 中国科学院自动化研究所 | 摄像头与惯性传感器组合定位定姿***的标定方法 |
CN102538781A (zh) * | 2011-12-14 | 2012-07-04 | 浙江大学 | 基于机器视觉和惯导融合的移动机器人运动姿态估计方法 |
CN107680133A (zh) * | 2017-09-15 | 2018-02-09 | 重庆邮电大学 | 一种基于改进闭环检测算法的移动机器人视觉slam方法 |
CN107869989A (zh) * | 2017-11-06 | 2018-04-03 | 东北大学 | 一种基于视觉惯导信息融合的定位方法及*** |
CN108981687A (zh) * | 2018-05-07 | 2018-12-11 | 清华大学 | 一种视觉与惯性融合的室内定位方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109676604A (zh) | 2019-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109676604B (zh) | 机器人曲面运动定位方法及其运动定位*** | |
CN111024066B (zh) | 一种无人机视觉-惯性融合室内定位方法 | |
CN109307508B (zh) | 一种基于多关键帧的全景惯导slam方法 | |
CN111780754B (zh) | 基于稀疏直接法的视觉惯性里程计位姿估计方法 | |
CN108648215B (zh) | 基于imu的slam运动模糊位姿跟踪算法 | |
WO2021180128A1 (zh) | 一种基于rgbd传感器和imu传感器的定位方法 | |
CN110044354A (zh) | 一种双目视觉室内定位与建图方法及装置 | |
CN109648558B (zh) | 机器人曲面运动定位方法及其运动定位*** | |
CN111161337B (zh) | 一种动态环境下的陪护机器人同步定位与构图方法 | |
CN110726406A (zh) | 一种改进的非线性优化单目惯导slam的方法 | |
CN102722697A (zh) | 一种无人飞行器视觉自主导引着陆的目标跟踪方法 | |
CN112734765A (zh) | 基于实例分割与多传感器融合的移动机器人定位方法、***及介质 | |
CN111932674A (zh) | 一种线激光视觉惯性***的优化方法 | |
CN113551665B (zh) | 一种用于运动载体的高动态运动状态感知***及感知方法 | |
CN112115874A (zh) | 一种融合云端的视觉slam***及方法 | |
CN111862316A (zh) | 一种基于优化的imu紧耦合稠密直接rgbd的三维重建方法 | |
CN115272596A (zh) | 一种面向单调无纹理大场景的多传感器融合slam方法 | |
CN115574816B (zh) | 仿生视觉多源信息智能感知无人平台 | |
CN114234967A (zh) | 一种基于多传感器融合的六足机器人定位方法 | |
CN117367427A (zh) | 一种适用于室内环境中的视觉辅助激光融合IMU的多模态slam方法 | |
Xian et al. | Fusing stereo camera and low-cost inertial measurement unit for autonomous navigation in a tightly-coupled approach | |
CN108827287B (zh) | 一种复杂环境下的鲁棒视觉slam*** | |
CN112419411B (zh) | 一种基于卷积神经网络和光流特征视觉里程计的实现方法 | |
Fang et al. | A motion tracking method by combining the IMU and camera in mobile devices | |
CN113345032A (zh) | 一种基于广角相机大畸变图的初始化建图方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |