CN112729294B - 适用于机器人的视觉和惯性融合的位姿估计方法及*** - Google Patents
适用于机器人的视觉和惯性融合的位姿估计方法及*** Download PDFInfo
- Publication number
- CN112729294B CN112729294B CN202110363020.5A CN202110363020A CN112729294B CN 112729294 B CN112729294 B CN 112729294B CN 202110363020 A CN202110363020 A CN 202110363020A CN 112729294 B CN112729294 B CN 112729294B
- Authority
- CN
- China
- Prior art keywords
- pose
- point
- image
- sensor
- inertial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 50
- 238000000034 method Methods 0.000 title claims abstract description 49
- 230000000007 visual effect Effects 0.000 claims abstract description 101
- 230000008859 change Effects 0.000 claims abstract description 63
- 238000000605 extraction Methods 0.000 claims description 18
- 230000001133 acceleration Effects 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 8
- 230000015654 memory Effects 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000004590 computer program Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000003860 storage Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000013210 evaluation model Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 235000013311 vegetables Nutrition 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种适用于机器人的视觉和惯性融合的位姿估计方法及***,该方法包括:获取视觉传感器输出的图像,对相邻帧图像的点线特征进行检测;根据相邻帧图像的点线特征的位置和姿态变化,建立视觉位姿模型;利用惯性传感器检测视觉传感器的位姿数据,建立惯性位姿模型;将视觉位姿模型和惯性位姿模型进行数据融合,通过融合位姿模型对机器人的视觉传感器的位姿进行估计。本发明解决了机器人视觉传感器受光线和环境遮挡丢帧无法估计位姿、惯性传感器长时间运动零偏误差累积,以及单一传感器位姿估计精度低的问题,改善了现实环境下位姿估计精度和鲁棒性,可广泛应用于机器人环境感知领域。
Description
技术领域
本发明涉及机器人视觉技术领域,特别涉及一种适用于机器人的视觉和惯性融合的位姿估计方法及***。
背景技术
现阶段,机器人的视觉和惯性传感器被广泛应用于机器人的各领域,如拣选机器人、焊接机器人、蔬菜嫁接机器人、采摘机器人等,通过视觉和惯性传感器控制机器人到达环境中的指定位姿,进而完成所给定的作业任务。
基于视觉的算法能够很好地处理长时间内的变化,但不能正确地观察到突然的旋转速率且容易受到光照影响。另一方面,陀螺仪在短时间内可精确测量其轴线的角速度,但在较长的周期内漂移很大。因此,视觉和陀螺仪的结合是相辅相成的,并可提供更健壮的姿态估计能力。当连续视频帧之间的像素位移主要由摄像机旋转引起时,可实现陀螺仪零漂移补偿。但是,现有技术实现视觉和惯性融合还存在初始化,非线性、坐标和时间不一致等问题。
发明内容
本发明提供了一种适用于机器人的视觉和惯性融合的位姿估计方法及***,以解决现有位姿估计方法不够准确的技术问题。
为解决上述技术问题,本发明提供了如下技术方案:
一方面,本发明提供了一种适用于机器人的视觉和惯性融合的位姿估计方法,该适用于机器人的视觉和惯性融合的位姿估计方法包括:
获取机器人的视觉传感器采集的图像,对相邻帧图像的点线特征进行检测;
根据相邻帧图像的点线特征的位置和姿态变化,确定所述视觉传感器的位姿变化,建立用于表示所述视觉传感器的位姿变化的视觉位姿模型;
利用惯性传感器检测所述视觉传感器的位姿数据,并根据所述惯性传感器检测的位姿数据建立用于表示所述视觉传感器的位姿变化的惯性位姿模型;其中,所述惯性传感器安装在所述视觉传感器上并与所述视觉传感器同轴系设置;
将所述视觉位姿模型和所述惯性位姿模型进行数据融合,得到融合位姿模型,以通过所述融合位姿模型对机器人的视觉传感器的位姿进行估计。
进一步地,所述对相邻帧图像的点线特征进行检测,包括:
对于前一帧图像,通过预设的点线特征提取方法检索图像中的灭点、地脚点和铅垂线,并记录检索到的灭点、地脚点和铅垂线起止点在图像中的坐标位置;其中,所述灭点指在透视投影中,不平行于投影面的平行线投影聚集到的点;所述地脚点指不同平面的地脚线的交点;所述铅垂线指垂直于地面的直线;
通过所述惯性传感器检测到的所述视觉传感器的位姿数据,估计相邻帧图像的姿态和位置的变化,并基于前一帧图像中的灭点、地脚点和铅垂线起止点在图像中的坐标位置,根据估计出的相邻帧图像的姿态和位置的变化,预测下一帧图像中的灭点、地脚点和铅垂线起止点在图像中的坐标位置;
基于对下一帧图像中的灭点、地脚点和铅垂线起止点在图像中的坐标位置的预测结果,采用局部搜索法在下一帧图像中检索灭点、地脚点和铅垂线,并记录检索到的灭点、地脚点和铅垂线起止点在图像中的坐标位置。
进一步地,所述惯性传感器包括陀螺仪和加速度计,所述陀螺仪用于检测所述视觉传感器的角速度,所述加速度计用于检测所述视觉传感器的线加速度;
所述通过所述惯性传感器检测到的所述视觉传感器的位姿数据,估计相邻帧图像的姿态和位置的变化,包括:
通过对所述陀螺仪和加速度计检测到的角速度和线加速度进行预积分,得到所述视觉传感器的姿态和位置变化,以估计相邻帧图像的姿态和位置的变化。
进一步地,所述基于对下一帧图像中的灭点、地脚点和铅垂线起止点在图像中的坐标位置的预测结果,采用局部搜索法在下一帧图像中检索灭点、地脚点和铅垂线,包括:
基于对下一帧图像中的灭点、地脚点和铅垂线起止点在图像中的坐标位置的预测结果,在下一帧图像中设计搜索框;并在所述搜索框内采用预设的点线特征搜索方法对下一帧图像中的灭点、地脚点和铅垂线进行局部搜索。
进一步地,所述利用惯性传感器检测所述视觉传感器的位姿数据,并根据所述惯性传感器检测的位姿数据建立用于表示所述视觉传感器的位姿变化的惯性位姿模型,包括:
定周期地利用所述视觉位姿模型计算所述视觉传感器的姿态和位置变化,并利用计算结果,对所述惯性传感器进行偏差标定;
利用已标定的惯性传感器检测所述视觉传感器的位姿数据,并根据惯性传感器检测的位姿数据建立用于表示所述视觉传感器的位姿变化的惯性位姿模型。
另一方面,本发明还提供了一种适用于机器人的视觉和惯性融合的位姿估计***,该适用于机器人的视觉和惯性融合的位姿估计***包括:
图像点线特征提取模块,用于获取机器人的视觉传感器采集的图像,对相邻帧图像的点线特征进行检测;
视觉位姿模型建立模块,用于根据相邻帧图像的点线特征的位置和姿态变化,确定所述视觉传感器的位姿变化,建立用于表示所述视觉传感器的位姿变化的视觉位姿模型;
惯性位姿模型建立模块,用于利用惯性传感器检测所述视觉传感器的位姿数据,并根据所述惯性传感器检测的位姿数据建立用于表示所述视觉传感器的位姿变化的惯性位姿模型;其中,所述惯性传感器安装在所述视觉传感器上并与所述视觉传感器同轴系设置;
模型融合模块,用于将所述视觉位姿模型和所述惯性位姿模型进行数据融合,得到融合位姿模型,以通过所述融合位姿模型对机器人的视觉传感器的位姿进行估计。
进一步地,所述图像点线特征提取模块具体用于:
对于前一帧图像,通过预设的点线特征提取方法检索图像中的灭点、地脚点和铅垂线,并记录检索到的灭点、地脚点和铅垂线起止点在图像中的坐标位置;其中,所述灭点指在透视投影中,不平行于投影面的平行线投影聚集到的点;所述地脚点指不同平面的地脚线的交点;所述铅垂线指垂直于地面的直线;
通过所述惯性传感器检测到的所述视觉传感器的位姿数据,估计相邻帧图像的姿态和位置的变化,并基于前一帧图像中的灭点、地脚点和铅垂线起止点在图像中的坐标位置,根据估计出的相邻帧图像的姿态和位置的变化,预测下一帧图像中的灭点、地脚点和铅垂线起止点在图像中的坐标位置;
基于对下一帧图像中的灭点、地脚点和铅垂线起止点在图像中的坐标位置的预测结果,采用局部搜索法在下一帧图像中检索灭点、地脚点和铅垂线,并记录检索到的灭点、地脚点和铅垂线起止点在图像中的坐标位置。
进一步地,所述惯性传感器包括陀螺仪和加速度计,所述陀螺仪用于检测所述视觉传感器的角速度,所述加速度计用于检测所述视觉传感器的线加速度;
所述图像点线特征提取模块具体还用于:
通过对所述陀螺仪和加速度计检测到的角速度和线加速度进行预积分,得到所述视觉传感器的姿态和位置变化,以估计相邻帧图像的姿态和位置的变化。
进一步地,所述图像点线特征提取模块具体还用于:
基于对下一帧图像中的灭点、地脚点和铅垂线起止点在图像中的坐标位置的预测结果,在下一帧图像中设计搜索框;并在所述搜索框内采用预设的点线特征搜索方法对下一帧图像中的灭点、地脚点和铅垂线进行局部搜索。
进一步地,所述惯性位姿模型建立模块具体用于:
定周期地利用所述视觉位姿模型计算所述视觉传感器的姿态和位置变化,并利用计算结果,对所述惯性传感器进行偏差标定;
利用已标定的惯性传感器检测所述视觉传感器的位姿数据,并根据惯性传感器检测的位姿数据建立用于表示所述视觉传感器的位姿变化的惯性位姿模型。
再一方面,本发明还提供了一种电子设备,其包括处理器和存储器;其中,存储器中存储有至少一条指令,所述指令由处理器加载并执行以实现上述方法。
又一方面,本发明还提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令,所述指令由处理器加载并执行以实现上述方法。
本发明提供的技术方案带来的有益效果至少包括:
1、针对现有技术点线特征朴素性、提取精度低和匹配速度慢的问题,本发明提出了具有独特性的灭点和地脚点作为点特征,灭线和铅垂线作为线特征的点线特征提取方法,包括:建立灭点评估模型,根据获取的灭线信息择优选取实现高精度的灭点坐标估计;建立点特征匹配模型,根据当前地脚点坐标位置,利用惯性传感器预估下一帧地脚点坐标的快速匹配算法;铅垂线择优选取与拟合模型,获取高精度的起止点坐标,基于此,本发明可提高匹配精度及速度。
2、本发明提出了基于点特征(灭点、铅垂线起止点、地脚点)建立视觉位姿模型,利用标定的惯性传感器采集的位姿数据,通过预积分建立惯性位姿模型,通过将二者采用多速率融合的方式进行融合,实现了一种高精度的位姿模型。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的适用于机器人的视觉和惯性融合的位姿估计方法的流程示意图;
图2是本发明实施例提供的前一帧点线特征在图像中位置计算的流程图;
图3是本发明实施例提供的后一帧点线特征在图像中位置计算的流程图;
图4是本发明实施例提供的惯性传感器位姿模型建立的流程图;
图5是本发明实施例提供的将视觉和惯性传感器数据融合获取高精度的位姿数据的流程示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
第一实施例
本实施例提供了一种快速、准确、应用广泛并适用于运动载体的适用于机器人的视觉和惯性融合的位姿估计方法,该方法可以由电子设备实现,该电子设备可以是终端或者服务器。该方法的执行流程如图1所示,包括以下步骤:
S1,获取机器人视觉传感器采集的图像,对相邻帧图像点线特征进行检测;
S2,根据相邻帧图像的点线特征的位置和姿态变化,确定所述视觉传感器的位姿变化,建立用于表示所述视觉传感器的位姿变化的视觉位姿模型;
S3,利用惯性传感器检测视觉传感器的位姿数据,并根据所述惯性传感器检测的位姿数据建立用于表示所述视觉传感器的位姿变化的惯性位姿模型;其中,所述惯性传感器安装在所述视觉传感器上并与所述视觉传感器同轴系设置;
S4,将所述视觉位姿模型和所述惯性位姿模型进行数据融合,得到融合位姿模型,以通过所述融合位姿模型对机器人的视觉传感器的位姿进行估计。
进一步地,请参阅图2和图3,上述S1的实现过程具体如下:
S11,获取机器人视觉传感器采集的图像;
S12,对于前一帧图像,通过点线特征提取方法检索图像中的灭点、地脚点和铅垂线,并记录检索到的灭点、地脚点和铅垂线起止点在图像中的坐标位置;
其中,所述灭点指在透视投影中,不平行于投影面的平行线投影聚集到的点;所述地脚点指不同平面的地脚线的交点;所述铅垂线指垂直于地面的直线;
本实施例所采用的点线特征提取方法为:采用霍夫变换(Hough)和直线检测分割算法(LSD)提取图像中点线特征,如图2所示,其具体流程步骤如下:
对获取的原始图像进行Hough变换,提取相关平行线,计算线段斜率;
通过LSD算法计算线段斜率和线段交点,根据线段交点确定地脚点,并估计灭点,根据计算的线段斜率确定铅垂线;
根据Hough变换计算的线段斜率和LSD算法计算的线段斜率建立灭点评价函数,对估计的灭点进行评价,获取灭点信息;
记录灭点、地脚点和铅垂线起止点在图像中的坐标位置。
灭点提取的最优模型如下:
S13,通过所述惯性传感器检测到的所述视觉传感器的位姿数据,估计相邻帧图像的姿态和位置的变化,并基于前一帧图像中的灭点、地脚点和铅垂线起止点在图像中的坐标位置,根据估计出的相邻帧图像的姿态和位置的变化,预测下一帧图像中的灭点、地脚点和铅垂线起止点在图像中的坐标位置;
其中,在本实施例中,惯性传感器包括陀螺仪和加速度计,陀螺仪用于检测视觉传感器的角速度,加速度计用于检测视觉传感器的线加速度;
上述的通过所述惯性传感器检测到的所述视觉传感器的位姿数据,估计相邻帧图像的姿态和位置的变化,如图3所示,具体如下:
通过对所述陀螺仪和加速度计检测到的角速度和线加速度进行预积分,得到所述视觉传感器的姿态和位置变化,以估计相邻帧图像的姿态和位置的变化。
S14,基于对下一帧图像中的灭点、地脚点和铅垂线起止点在图像中的坐标位置的预测结果,采用局部搜索法在下一帧图像中检索灭点、地脚点和铅垂线,并记录检索到的灭点、地脚点和铅垂线起止点在图像中的坐标位置。
其中,在本实施例中,基于对下一帧图像中的灭点、地脚点和铅垂线起止点在图像中的坐标位置的预测结果,采用局部搜索法在下一帧图像中检索灭点、地脚点和铅垂线,如图3所示,具体如下:
基于对下一帧图像中的灭点、地脚点和铅垂线起止点在图像中的坐标位置的预测结果,在下一帧图像中设计5×5的搜索框;在所述搜索框内采用序贯相似性检测算法(SSDA)和随机抽样一致算法(RANSAC)对下一帧图像中的灭点、地脚点和铅垂线进行局部搜索。
进一步地,请参阅图4,上述S3的实现过程具体如下:
S31,定周期地利用所述视觉位姿模型计算所述视觉传感器的姿态和位置变化,并利用计算结果,对所述惯性传感器的陀螺仪和加速度计进行偏差标定;
S32,利用已标定的惯性传感器检测所述视觉传感器的位姿数据,并通过对所述陀螺仪和所述加速度计检测到的角速度和线加速度进行预积分,得到所述视觉传感器的姿态和位置变化,根据所述惯性传感器检测的所述视觉传感器的位姿变化数据,建立用于表示所述视觉传感器的位姿变化的惯性位姿模型。
进一步地,请参阅图5,上述S4的实现过程具体如下:
S41,通过所述视觉位姿模型获取视觉传感器的位姿数据;
S42,通过所述惯性位姿模型获取视觉传感器的位姿数据;
S43,将所述视觉位姿模型和所述惯性位姿模型对应的位姿数据采用多速率滤波算法进行数据融合,获取高质量的位姿估计结果。
综上,本实施例的方法通过获取视觉传感器输出的图像,对相邻帧图像的点线特征进行检测;根据相邻帧图像的点线特征的位姿变化,建立视觉位姿模型;利用惯性传感器检测视觉传感器的位姿数据,建立惯性位姿模型;将视觉位姿模型和惯性位姿模型进行数据融合,通过融合位姿模型对机器人的视觉传感器的位姿进行估计。解决了视觉传感器受光线和环境遮挡丢帧无法估计位姿、惯性传感器长时间运动零偏误差累积以及单一传感器位姿估计精度低的问题,改善了现实环境下位姿估计精度和鲁棒性,可广泛应用于机器人环境感知领域。
第二实施例
本实施例提供了一种适用于机器人的视觉和惯性融合的位姿估计***,该适用于机器人的视觉和惯性融合的位姿估计***包括以下模块:
图像点线特征提取模块,用于获取机器人的视觉传感器采集的图像,对相邻帧图像的点线特征进行检测;
视觉位姿模型建立模块,用于根据相邻帧图像的点线特征的位置和姿态变化,确定所述视觉传感器的位姿变化,建立用于表示所述视觉传感器的位姿变化的视觉位姿模型;
惯性位姿模型建立模块,用于利用惯性传感器检测所述视觉传感器的位姿数据,并根据所述惯性传感器检测的位姿数据建立用于表示所述视觉传感器的位姿变化的惯性位姿模型;其中,所述惯性传感器安装在所述视觉传感器上并与所述视觉传感器同轴系设置;
模型融合模块,用于将所述视觉位姿模型和所述惯性位姿模型进行数据融合,得到融合位姿模型,以通过所述融合位姿模型对机器人的视觉传感器的位姿进行估计。
本实施例的适用于机器人的视觉和惯性融合的位姿估计***与上述第一实施例的适用于机器人的视觉和惯性融合的位姿估计方法相对应;其中,本实施例的适用于机器人的视觉和惯性融合的位姿估计***中的各功能模块所实现的功能与上述第一实施例的适用于机器人的视觉和惯性融合的位姿估计方法中的各流程步骤一一对应;故,在此不再赘述。
第三实施例
本实施例提供一种电子设备,其包括处理器和存储器;其中,存储器中存储有至少一条指令,所述指令由处理器加载并执行,以实现第一实施例的方法。
该电子设备可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(central processing units,CPU)和一个或一个以上的存储器,其中,存储器中存储有至少一条指令,所述指令由处理器加载并执行上述方法。
第四实施例
本实施例提供一种计算机可读存储介质,该存储介质中存储有至少一条指令,所述指令由处理器加载并执行,以实现上述第一实施例的方法。其中,该计算机可读存储介质可以是ROM、随机存取存储器、CD-ROM、磁带、软盘和光数据存储设备等。其内存储的指令可由终端中的处理器加载并执行上述方法。
此外,需要说明的是,本发明可提供为方法、装置或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质上实施的计算机程序产品的形式。
本发明实施例是参照根据本发明实施例的方法、终端设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
还需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
最后需要说明的是,以上所述是本发明优选实施方式,应当指出,尽管已描述了本发明优选实施例,但对于本技术领域的技术人员来说,一旦得知了本发明的基本创造性概念,在不脱离本发明所述原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。
Claims (8)
1.一种适用于机器人的视觉和惯性融合的位姿估计方法,其特征在于,包括:
获取机器人的视觉传感器采集的图像,对相邻帧图像的点线特征进行检测;
根据相邻帧图像的点线特征的位置和姿态变化,确定所述视觉传感器的位姿变化,建立用于表示所述视觉传感器的位姿变化的视觉位姿模型;
利用惯性传感器检测所述视觉传感器的位姿数据,并根据所述惯性传感器检测的位姿数据建立用于表示所述视觉传感器的位姿变化的惯性位姿模型;其中,所述惯性传感器安装在所述视觉传感器上并与所述视觉传感器同轴系设置;
将所述视觉位姿模型和所述惯性位姿模型进行数据融合,得到融合位姿模型,以通过所述融合位姿模型对机器人的视觉传感器的位姿进行估计;
所述对相邻帧图像的点线特征进行检测,包括:
对于前一帧图像,通过预设的点线特征提取方法检索图像中的灭点、地脚点和铅垂线,并记录检索到的灭点、地脚点和铅垂线起止点在图像中的坐标位置;其中,所述灭点指在透视投影中,不平行于投影面的平行线投影聚集到的点;所述地脚点指不同平面的地脚线的交点;所述铅垂线指垂直于地面的直线;
通过所述惯性传感器检测到的所述视觉传感器的位姿数据,估计相邻帧图像的姿态和位置的变化,并基于前一帧图像中的灭点、地脚点和铅垂线起止点在图像中的坐标位置,根据估计出的相邻帧图像的姿态和位置的变化,预测下一帧图像中的灭点、地脚点和铅垂线起止点在图像中的坐标位置;
基于对下一帧图像中的灭点、地脚点和铅垂线起止点在图像中的坐标位置的预测结果,采用局部搜索法在下一帧图像中检索灭点、地脚点和铅垂线,并记录检索到的灭点、地脚点和铅垂线起止点在图像中的坐标位置。
2.如权利要求1所述的适用于机器人的视觉和惯性融合的位姿估计方法,其特征在于,所述惯性传感器包括陀螺仪和加速度计,所述陀螺仪用于检测所述视觉传感器的角速度,所述加速度计用于检测所述视觉传感器的线加速度;
所述通过所述惯性传感器检测到的所述视觉传感器的位姿数据,估计相邻帧图像的姿态和位置的变化,包括:
通过对所述陀螺仪和加速度计检测到的角速度和线加速度进行预积分,得到所述视觉传感器的姿态和位置变化,以估计相邻帧图像的姿态和位置的变化。
3.如权利要求1所述的适用于机器人的视觉和惯性融合的位姿估计方法,其特征在于,所述基于对下一帧图像中的灭点、地脚点和铅垂线起止点在图像中的坐标位置的预测结果,采用局部搜索法在下一帧图像中检索灭点、地脚点和铅垂线,包括:
基于对下一帧图像中的灭点、地脚点和铅垂线起止点在图像中的坐标位置的预测结果,在下一帧图像中设计搜索框;并在所述搜索框内采用预设的点线特征搜索方法对下一帧图像中的灭点、地脚点和铅垂线进行局部搜索。
4.如权利要求1所述的适用于机器人的视觉和惯性融合的位姿估计方法,其特征在于,所述利用惯性传感器检测所述视觉传感器的位姿数据,并根据所述惯性传感器检测的位姿数据建立用于表示所述视觉传感器的位姿变化的惯性位姿模型,包括:
定周期地利用所述视觉位姿模型计算所述视觉传感器的姿态和位置变化,并利用计算结果,对所述惯性传感器进行偏差标定;
利用已标定的惯性传感器检测所述视觉传感器的位姿数据,并根据惯性传感器检测的位姿数据建立用于表示所述视觉传感器的位姿变化的惯性位姿模型。
5.一种适用于机器人的视觉和惯性融合的位姿估计***,其特征在于,包括:
图像点线特征提取模块,用于获取机器人的视觉传感器采集的图像,对相邻帧图像的点线特征进行检测;
视觉位姿模型建立模块,用于根据相邻帧图像的点线特征的位置和姿态变化,确定所述视觉传感器的位姿变化,建立用于表示所述视觉传感器的位姿变化的视觉位姿模型;
惯性位姿模型建立模块,用于利用惯性传感器检测所述视觉传感器的位姿数据,并根据所述惯性传感器检测的位姿数据建立用于表示所述视觉传感器的位姿变化的惯性位姿模型;其中,所述惯性传感器安装在所述视觉传感器上并与所述视觉传感器同轴系设置;
模型融合模块,用于将所述视觉位姿模型和所述惯性位姿模型进行数据融合,得到融合位姿模型,以通过所述融合位姿模型对机器人的视觉传感器的位姿进行估计;
所述图像点线特征提取模块具体用于:
对于前一帧图像,通过预设的点线特征提取方法检索图像中的灭点、地脚点和铅垂线,并记录检索到的灭点、地脚点和铅垂线起止点在图像中的坐标位置;其中,所述灭点指在透视投影中,不平行于投影面的平行线投影聚集到的点;所述地脚点指不同平面的地脚线的交点;所述铅垂线指垂直于地面的直线;
通过所述惯性传感器检测到的所述视觉传感器的位姿数据,估计相邻帧图像的姿态和位置的变化,并基于前一帧图像中的灭点、地脚点和铅垂线起止点在图像中的坐标位置,根据估计出的相邻帧图像的姿态和位置的变化,预测下一帧图像中的灭点、地脚点和铅垂线起止点在图像中的坐标位置;
基于对下一帧图像中的灭点、地脚点和铅垂线起止点在图像中的坐标位置的预测结果,采用局部搜索法在下一帧图像中检索灭点、地脚点和铅垂线,并记录检索到的灭点、地脚点和铅垂线起止点在图像中的坐标位置。
6.如权利要求5所述的适用于机器人的视觉和惯性融合的位姿估计***,其特征在于,所述惯性传感器包括陀螺仪和加速度计,所述陀螺仪用于检测所述视觉传感器的角速度,所述加速度计用于检测所述视觉传感器的线加速度;
所述图像点线特征提取模块具体还用于:
通过对所述陀螺仪和加速度计检测到的角速度和线加速度进行预积分,得到所述视觉传感器的姿态和位置变化,以估计相邻帧图像的姿态和位置的变化。
7.如权利要求5所述的适用于机器人的视觉和惯性融合的位姿估计***,其特征在于,所述图像点线特征提取模块具体还用于:
基于对下一帧图像中的灭点、地脚点和铅垂线起止点在图像中的坐标位置的预测结果,在下一帧图像中设计搜索框;并在所述搜索框内采用预设的点线特征搜索方法对下一帧图像中的灭点、地脚点和铅垂线进行局部搜索。
8.如权利要求5所述的适用于机器人的视觉和惯性融合的位姿估计***,其特征在于,所述惯性位姿模型建立模块具体用于:
定周期地利用所述视觉位姿模型计算所述视觉传感器的姿态和位置变化,并利用计算结果,对所述惯性传感器进行偏差标定;
利用已标定的惯性传感器检测所述视觉传感器的位姿数据,并根据惯性传感器检测的位姿数据建立用于表示所述视觉传感器的位姿变化的惯性位姿模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110363020.5A CN112729294B (zh) | 2021-04-02 | 2021-04-02 | 适用于机器人的视觉和惯性融合的位姿估计方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110363020.5A CN112729294B (zh) | 2021-04-02 | 2021-04-02 | 适用于机器人的视觉和惯性融合的位姿估计方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112729294A CN112729294A (zh) | 2021-04-30 |
CN112729294B true CN112729294B (zh) | 2021-06-25 |
Family
ID=75596400
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110363020.5A Expired - Fee Related CN112729294B (zh) | 2021-04-02 | 2021-04-02 | 适用于机器人的视觉和惯性融合的位姿估计方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112729294B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114612556A (zh) * | 2022-03-01 | 2022-06-10 | 北京市商汤科技开发有限公司 | 视觉惯性里程计模型的训练方法、位姿估计方法及装置 |
CN115077467B (zh) * | 2022-06-10 | 2023-08-08 | 追觅创新科技(苏州)有限公司 | 清洁机器人的姿态估计方法、装置及清洁机器人 |
CN116704026A (zh) * | 2023-05-24 | 2023-09-05 | 国网江苏省电力有限公司南京供电分公司 | 一种定位方法、装置、电子设备和存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102538781A (zh) * | 2011-12-14 | 2012-07-04 | 浙江大学 | 基于机器视觉和惯导融合的移动机器人运动姿态估计方法 |
CN106679648A (zh) * | 2016-12-08 | 2017-05-17 | 东南大学 | 一种基于遗传算法的视觉惯性组合的slam方法 |
CN110095116A (zh) * | 2019-04-29 | 2019-08-06 | 桂林电子科技大学 | 一种基于lift的视觉定位和惯性导航组合的定位方法 |
CN110702107A (zh) * | 2019-10-22 | 2020-01-17 | 北京维盛泰科科技有限公司 | 一种单目视觉惯性组合的定位导航方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8761439B1 (en) * | 2011-08-24 | 2014-06-24 | Sri International | Method and apparatus for generating three-dimensional pose using monocular visual sensor and inertial measurement unit |
US10510160B2 (en) * | 2016-12-20 | 2019-12-17 | Samsung Electronics Co., Ltd. | Multiscale weighted matching and sensor fusion for dynamic vision sensor tracking |
CN109669533B (zh) * | 2018-11-02 | 2022-02-11 | 北京盈迪曼德科技有限公司 | 一种基于视觉和惯性的动作捕捉方法、装置及*** |
CN111595333B (zh) * | 2020-04-26 | 2023-07-28 | 武汉理工大学 | 视觉惯性激光数据融合的模块化无人车定位方法及*** |
-
2021
- 2021-04-02 CN CN202110363020.5A patent/CN112729294B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102538781A (zh) * | 2011-12-14 | 2012-07-04 | 浙江大学 | 基于机器视觉和惯导融合的移动机器人运动姿态估计方法 |
CN106679648A (zh) * | 2016-12-08 | 2017-05-17 | 东南大学 | 一种基于遗传算法的视觉惯性组合的slam方法 |
CN110095116A (zh) * | 2019-04-29 | 2019-08-06 | 桂林电子科技大学 | 一种基于lift的视觉定位和惯性导航组合的定位方法 |
CN110702107A (zh) * | 2019-10-22 | 2020-01-17 | 北京维盛泰科科技有限公司 | 一种单目视觉惯性组合的定位导航方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112729294A (zh) | 2021-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112729294B (zh) | 适用于机器人的视觉和惯性融合的位姿估计方法及*** | |
US11668571B2 (en) | Simultaneous localization and mapping (SLAM) using dual event cameras | |
CN109084732B (zh) | 定位与导航方法、装置及处理设备 | |
CN110084832B (zh) | 相机位姿的纠正方法、装置、***、设备和存储介质 | |
KR102440358B1 (ko) | 관성 기반 항법 장치 및 상대사전적분에 따른 관성 기반 항법 방법 | |
EP3451288A1 (en) | Visual-inertial odometry with an event camera | |
EP3159123A1 (en) | Device for controlling driving of mobile robot having wide-angle cameras mounted thereon, and method therefor | |
CN110044354A (zh) | 一种双目视觉室内定位与建图方法及装置 | |
CN107909614B (zh) | 一种gps失效环境下巡检机器人定位方法 | |
EP3159126A1 (en) | Device and method for recognizing location of mobile robot by means of edge-based readjustment | |
CN112734852A (zh) | 一种机器人建图方法、装置及计算设备 | |
CN112907678B (zh) | 车载相机外参姿态动态估计方法、装置、计算机设备 | |
CN106814753B (zh) | 一种目标位置矫正方法、装置及*** | |
EP3159122A1 (en) | Device and method for recognizing location of mobile robot by means of search-based correlation matching | |
CN108090921A (zh) | 单目视觉和imu融合的自适应室内定位方法 | |
US20180075614A1 (en) | Method of Depth Estimation Using a Camera and Inertial Sensor | |
WO2022007602A1 (zh) | 确定车辆位置的方法和装置 | |
EP2851868A1 (en) | 3D Reconstruction | |
CN109141411B (zh) | 定位方法、定位装置、移动机器人及存储介质 | |
JP7145770B2 (ja) | 車間距離測定装置、誤差モデル生成装置および学習モデル生成装置とこれらの方法およびプログラム | |
Huttunen et al. | A monocular camera gyroscope | |
CN111238490B (zh) | 视觉定位方法、装置以及电子设备 | |
CN112731503A (zh) | 一种基于前端紧耦合的位姿估计方法及*** | |
CN117490688A (zh) | 相机-imu-二维码融合的车间agv导航方法 | |
CN116958452A (zh) | 三维重建方法和*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210625 |