CN109781092B - 一种危险化工事故中移动机器人定位与建图方法 - Google Patents
一种危险化工事故中移动机器人定位与建图方法 Download PDFInfo
- Publication number
- CN109781092B CN109781092B CN201910056654.9A CN201910056654A CN109781092B CN 109781092 B CN109781092 B CN 109781092B CN 201910056654 A CN201910056654 A CN 201910056654A CN 109781092 B CN109781092 B CN 109781092B
- Authority
- CN
- China
- Prior art keywords
- imu
- camera
- mapping
- positioning
- pose
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种危险化工事故环境下移动机器人的定位与建图方法,本方法应用于搜救移动机器人,可以在复杂危险化工事故现场进行定位和建图,一定程度上减弱了危险化学品***等造成的光照和烟雾影响,提高了事故发生情况下定位和建图的鲁棒性和精度。本方法的核心在于使用时空马尔可夫随机场的方法进行图片去雾处理,采用较稳定的基于特征点法的单目视觉SLAM方法融合IMU传感器数据进行危险化工事故中移动机器人的定位与建图,进一步提高在危险的化工事故情况下机器人对环境的探索能力。
Description
技术领域
本发明属于移动机器人定位导航技术领域,涉及到一种对烟雾进行预处理的基于单目视觉和IMU传感器的移动机器人在危险化工事故环境下的定位与建图方法。
背景技术
近年来,危化品环境事故频发,危化品环境等特殊环境的安全问题引起越来越大的关注。危化品事故突发环境具有复杂,危险系数高的特点,并且危化品***或泄露造成光照和烟雾污染。考虑到环境的复杂性和危险性,本方法移动机器人通过自主定位与建图对环境进行探索,并且一定程度上提高了该环境下定位与建图的鲁棒性和精度。
即时定位与地图构建(SLAM,Simultaneous Localization and Mapping)是使机器人在未知环境中自动创建地图,并根据对自身状态的估计和地图进行自定位的技术。高精度的自定位信息是移动机器人拥有智能,进行路径规划、地图绘制等任务的前提条件。对于危险化工事故现场的复杂环境,现有的SLAM方法显然无法正常工作。
基于激光雷达的SLAM相对精确,误差模型简单,在强光条件下也能稳定运行。同时,激光雷达SLAM价格昂贵,无法进行重定位的问题会造成累积误差。无法在危险化工事故情况下进行定位和建图。
惯性导航算法具有定位精度高、自适应性强和适用环境广泛的优点,同时视觉具有传感器价格低廉、易于维护、所利用的纹理信息丰富的特点,在重定位和场景分类上具有巨大优势。结合多种传感器的优势,多传感器融合技术成为SLAM领域的研究热点。
对于基于视觉和IMU的危险化工事故环境下定位与建图,难点在于解决随机噪声,***或者危化品泄露条件下光照不均匀和烟雾影响。因此,如何解决以上问题,是解决机器人应用在危化品事故环境中定位与建图的关键问题。
发明内容
以下给出一个或多个方面的主要概述以应对这些方面的基本理解。此概述不能将所有构想的方面进行详述,其唯一的目的是要以简化形式给出一个或多个方面的一些概念以为稍后给出的更加详细的描述之序。
针对移动机器人在危化品事故环境下随机噪声多,光照不均匀和烟雾情况,如图3所示,采用结合图像去雾预处理的单目视觉和IMU联合定位与建图方法。对比surf,orb和sift特征点的性能,采用速度较快的orb特征点,使用一种基于时空的马尔科夫随机场算法进行图像去雾预处理,随后采用单目视觉结合IMU的方法进行危化品事故环境下移动机器人的定位和建图,提高了机器人在危化品事故环境中定位和建图的鲁棒性。
本发明提出一种应用于危化品事故环境下的移动机器人定位与建图方法,包括:
步骤一:采用kinect相机采集图像信息,采用基于时空的马尔科夫随机场方法对图像进行去雾操作。考虑到危化品***造成的烟雾,其对特征匹配的影响如图6所示,会降低特征正确匹配的数量。采用基于时空的马尔科夫随机场算法进行图像去雾预处理。
步骤二:在相机采集的图像进行去雾操作的基础上,采用单目视觉和IMU联合初始化,先进行单目视觉初始化,然后利用单目SLAM测量的每个关键帧的位置和旋转来初始化IMU,得到较为准确的尺度,重力加速度的方向,速度,陀螺仪和加速度的偏置。
步骤三:在***初始化完成后,构建单目视觉和IMU融合SLAM***。前端采用光照鲁棒性较强的orb特征点进行提取和匹配,采用对极几何约束和PnP算法估计相机位姿。融合IMU数据跟踪局部地图,后端优化重投影误差项和IMU的时间误差项。而对于SLAM***建图,从初始的关键帧开始增量的构建一个生成树。对于每一个新的关键帧进行闭环搜索,使用视觉词袋进行回环检测,为确保全局地图的一致性,利用相似性约束对位姿图进行优化。
一种基于单目视觉和IMU传感器的危化品事故中移动机器人定位与建图方法。
步骤一包括以下步骤:
步骤1:从单目相机中获取图像帧数据。
步骤2:采用DCP算法估计烟雾浓度,计算暗通道图D(x)。
步骤3:基于IVP算法,构建时间和空间马尔科夫随机场方法求解相关优化随机域参数,计算得到去雾的图像。
根据本发明的一种危化品事故环境的定位与建图方法,在步骤二中,包括以下步骤:
步骤1:单目视觉的初始化,根据匹配关键帧之间的位姿,三角化测量初始的特征点云深度,进而获得点云地图,BA优化初始化点云。
步骤2:根据两个连续帧进行陀螺仪的偏置估计,计算尺度、重力方向、速度、加速度和陀螺仪的偏置。
根据本发明的一种基于单目视觉和IMU传感器的危险化工事故环境下移动机器人定位与建图方法,在步骤三中,包括以下步骤:
步骤1:orb特征点的提取和匹配。
步骤2:通过特征点匹配,采用对极几何约束和PnP算法估计相机位姿并跟踪局部地图,决策是否添加关键帧。
步骤3:如果有新的关键帧***,利用视觉惯性融合IMU数据采用局部BA算法优化相机位姿,融合关键帧数据。其中IMU和视觉传感器融合的是重投影误差项和IMU的时间误差项。
步骤4:如果有新的关键帧***,在完成步骤三之后进行回环检测,纠正相机累计误差,为了确保全局地图的一致性,利用相似性约束对位姿图进行优化,最后启动启动第四个线程执行全局BA算法,来计算整个***最优结构和运动的结果。
附图说明
构成本申请的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。
图1为***框架示意图;
图2为本发明中整体***的流程图;
图3为危化品环境;
图4为帧到帧特征点的提取和匹配流程图;
图5为orb特征点提取和匹配实验仿真结果;
图6为图像去雾流程图。
具体实施方式
以下结合附图和具体实施例对本发明作详细描述。注意,以下结合附图和具体实施例描述的诸方面仅是示例性的,而不应被理解为对本发明的保护范围进行任何限制。
步骤一:针对危化品事故发生时造成的烟雾现象,烟雾会使得图片亮度提高而饱和度降低。采用一种基于时空的马尔科夫随机场算法进行图像去雾处理:
基于大气光散射模型:I(x)=J(x)T(x)+A(1-T(x))
其中I(x)是观察到的图像,J(x)是真实场景图像,T(x)是中值透射率,A是全局大气光,x是像素值。采用暗通道先验算法得到暗通道图,其与透射率之间的关系为T(x)=1-wD(x)/A,其中系数w设定为0.7。后建立时空MRF下以微调烟雾浓度D(x),首先考虑的是暗通道图。
步骤1:获取单目相机获取的图片帧。
步骤4:基于像素亮度值先验算法,像素的亮度值因雾浓度不同而不同,基于时间和空间构建马尔科夫随机场。为了保证处理图片自然,时间上和空间上满足连续性,将图片的强度值函数V(x)线性关联到烟雾浓度D(x),其关于参数w和b的空间s似然函数Ps(w,b):
其关于时间t的似然函数P:
其联合的似然函数表述为:
其中σs被省略。
取log函数得到最大似然估计:
求导使得函数取极值,计算得像素优化随机域参数W和B。
步骤5:根据大气光散射模型计算得到相应的改善后的图像。
步骤二:单目视觉和IMU联合初始化。
步骤1:单目视觉的初始化,采用针孔相机模型,相机坐标系到世界坐标系的对应关系如下,其中像素坐标系原点平移[cx,cy]T,设焦距为f,fx和fy的单位是像素,中间量组成的矩阵K为相机内参数矩阵,现实世界中的空间点P的坐标[X,Y,Z]T与对应的像素坐标[u,v]T:
其中相机坐标系下坐标Puv世界坐标系下位姿Pw的变换,由其外参数旋转矩阵R和平移向量t来描述:
***采用基于模型选择的自动初始化方法,对平面场景算法选择单应矩阵来计算,而对于非平面矩阵,选择基础矩阵计算。通过匹配选取两个可以作为起始两帧的初始帧,根据匹配计算两帧之间的位姿,三角化测量初始的特征点云深度,进而获得点云地图,BA优化初始化点云。
步骤2:运行纯视觉slam15s,利用单目SLAM测量的每个关键帧的位姿来初始化IMU,计算尺度、重力方向、速度、加速度和陀螺仪的偏置。IMU坐标系通常由B来表示,以一定的时间间隔Δt来采样,测量IMU的加速度aB和角速度ωB,IMU测量模型:
IMU的初始化包括以下几个步骤:
其中N是关键帧的个数,由相机旋转乘上刚体到相机的旋转变换矩阵RCB,ΔRi,i+1是两个连续关键帧预积分旋转测量量。给以零初始值,上述函数通过高斯牛顿迭代,求解得到最小目标函数对应的为陀螺仪的初始偏置。
步骤2.2.尺度和重力加速度方向粗略估计,为了解决单目SLAM尺度不确定性,在相机坐标系和IMU坐标系变换之间加入一个尺度因子s:WPB=sWPC+RWCCPB,WPB,WPC,CPB分别表示相机坐标系到世界坐标系,IMU坐标系到世界坐标系,IMU坐标系到相机坐标系的平移,,RWC代表相机到世界坐标系的旋转,带回预积分公式。结合所有的三个连续关键帧构造方程A3(N-2)×4X4×1=b3(N-2)×1,然后通过SVD求解非齐次方程,得到尺度因子s*和重力加速度
步骤2.3.通过计算连续帧间的线性方程解加速度偏置估计,尺度和重力方向精确估计;
步骤2.4.速度估计,在已知尺度,重力加速度方向和偏置,带入方程计算出初始化关键帧的旋转RWB、位置wPB和速度wVB量,完成IMU初始化。
步骤三:单目视觉和IMU融合SLAM***构建。
步骤1:视觉orb特征点提取和匹配。采用具有旋转不变性和尺度不变性的orb特征点进行特征点的提取和描述子计算,BRIEF描述子进行描述子的计算,特征点的提取和匹配的对比如图4图5所示;
步骤1.1.关键点提取,利用FAST特征点检测的方法来检测角点,然后利用Harris角点的度量方法,从FAST特征点中挑选出Harris角点响应值最大的N个特征点。其中Harris角点的响应函数R定义为:
R=detM-α(traceM)2
步骤1.2.特征点描述,选择BRIEF作为特征描述方法,但在此基础上加上了旋转不变性,对于任何一个特征点来说,它的BRIEF描述子是一个长度为n的二值码串,这个二值串是由通过特征点周围n个点对比较(2n个点)生成的0-1二值串binArray:
binArray=[p1,p2,…,pM,」,pi∈{0,1}
步骤1.3.帧到帧的特征点匹配,使用使用gms(网格算法)进行orb特征点的误匹配消除。将运动平滑度封装起来,作为局域对之间的具有一定数量的特征匹配的统计可能性。进一步消除高噪声条件下特征点误匹配。
步骤2:进行相机的跟踪并并估计相机位姿。基于单目视觉传感器,采用PnP算法进行相机位姿估计。如果跟踪失败启动重定位,并利用连续帧数据重新估计IMU的陀螺仪偏置和加速度偏置,最后决策是否添加关键帧。
步骤2.1.如果上一帧图像跟踪成功,获得当前帧和局部地图的匹配。如果不成功则搜索附近的地图点云中的匹配点,根据寻找到的对应匹配点估计当前相机位姿。
步骤2.2.如果无法在扩大范围的情况下找到匹配点,计算当前帧词袋向量,匹配关键帧,采用PnP算法估计相机位姿。
步骤2.3:当***跟踪失败,成功完成相机重定位之后,利用20个连续帧的定位使用纯视觉信息,已知尺度和重力加速度情况下根据IMU初始化相关公式重新估计加速度偏置和陀螺仪偏置。
步骤2.4.跟踪局部地图,融合IMU数据,根据地图点是否被更新,采用不同的优化方式,如果地图点更新,IMU预积分误差项建立在当前帧和最近一个关键帧i之间,最小化重投影误差;如果地图点未更新,优化方程建立在当前帧和上一帧。
步骤2.5.关键帧决策,判断是否加入新的关键帧。判定条件包括当前帧跟踪的地图点少于50个,当前帧跟踪少于参考关键帧点云的90%,或者局部地图处于空闲状态。
步骤3:视觉惯性局部地图紧耦合优化,运用局部的BA算法。
步骤3.1.更新关键帧和地图点的关系,保留共视程度高的地图点,剔除新添加的质量不高的地图点。
步骤3.2.计算IMU预积分,需要处理三件事。首先更新当前的预积分量,然后更新IMU残差的协方差矩阵,最后更新IMU残差对于bias的雅可比矩阵。其中IMU的预积分公式如下:
其中i和i+1是帧数,是在i+1帧在世界坐标系下的旋转、速度和平移,Δti,i+1为两帧之间的时间差,ΔRi,i+1,ΔVi,i+1,ΔPi,i+1是两帧之间的旋转、速度和平移差量,是旋转相对角速度的雅克比矩阵,和是速度相对角速度和加速度的雅克比矩阵,和是平移相对于角速度和加速度的雅克比矩阵,和表示i帧的陀螺仪偏置和加速度计偏置,gW是重力加速度,W代表世界坐标系,B是IMU坐标系。
步骤3.3.视觉惯性局部地图耦合优化,运用局部的BA算法,通过最小化重投影误差和IMU时间误差来优化相机位姿。imu+视觉优化的是重投影误差项+imu的时间误差项:
其中θ包含当前帧的旋转,平移,速度,偏置信息。
步骤4.关键帧剔除,剔除90%以上的MapPoints能被其它共视关键帧(至少3个)观测到的关键帧。
步骤四:在完成步骤三之后采用视觉词袋方法进行回环检测,通过执行位姿图的优化来更正累计误差:
步骤1:首先,计算当前帧的BoW,并设定初始位姿为上一帧的位姿;其次,根据位姿和BoW词典来寻找特征匹配进行回环检测;
步骤2:回环融合,融合重复的地图点云。为了有效的闭合回环,通过EssentialGraph优化位姿图。优化过后,每个地图点云根据关键帧的校正进行变换。
步骤3:在位姿优化之后,会启动第四个线程来执行全局BA算法优化,来计算整个***最优结构和运动的结果。
为了使得文章的解释更简单化,已上述的图文描述为一系列步骤,但是应该理解并领会,这些方法不受操作的次序所限制,因为按照一个或多个步骤进行实施,一些动作可按不同的顺序发生,但本领域技术人员可以理解其动作发生的原理。
尽管已对本发明说明性的具体实施方式逐步进行了描述,以便于本技术领域的技术人员能够进行领会,但是本发明不仅限于具体实施方式的范围,本领域技术人员可以在权利要求的范围内做出各种变形或修改,只要各种变化只要在所附的权利要求限定和确定的本发明精神和范围内。
Claims (4)
1.一种应用于危化品事故环境下的移动机器人定位与建图方法,其特征在于:该方法包括如下步骤,
步骤一:采用kinect相机采集图像信息,采用基于时空的马尔科夫随机场方法对图像进行去雾操作;考虑到危化品***造成的烟雾,会降低特征正确匹配的数量;采用基于时空的马尔科夫随机场算法进行图像去雾预处理;
步骤二:在相机采集的图像进行去雾操作的基础上,采用单目视觉和IMU联合初始化,先进行单目视觉初始化,然后利用单目SLAM测量的每个关键帧的位置和旋转来初始化IMU,得到较为准确的尺度,重力加速度的方向,速度,陀螺仪和加速度计的偏置;
步骤三:在***初始化完成后,构建单目视觉和IMU融合SLAM***;前端采用光照鲁棒性较强的orb特征点进行提取和匹配,采用对极几何约束和PnP算法估计相机位姿;融合IMU数据跟踪局部地图,后端优化重投影误差项和IMU的时间误差项;而对于SLAM***建图,从初始的关键帧开始增量的构建一个生成树;对于每一个新的关键帧进行闭环搜索,使用视觉词袋进行回环检测和相机的重定位,为确保全局地图的一致性,利用相似性约束对位姿图进行优化。
2.根据权利要求1所述的一种应用于危化品事故环境下的移动机器人定位与建图方法,其特征在于:步骤一包括以下步骤,
步骤1:从单目相机中获取图像帧数据;
步骤2:采用DCP算法估计烟雾浓度,计算暗通道图D(x);
步骤3:基于IVP算法,构建时间和空间马尔科夫随机场方法求解相关优化随机域参数,计算得到去雾的图像。
3.根据权利要求1所述的一种应用于危化品事故环境下的移动机器人定位与建图方法,其特征在于:在步骤二中,包括以下步骤:
步骤1:单目视觉的初始化,根据匹配关键帧之间的位姿,三角化测量初始的特征点云深度,进而获得点云地图,BA优化初始化点云;
步骤2:根据多个连续帧之间的位姿信息进行陀螺仪的偏置估计,计算尺度、重力方向、速度、加速度和陀螺仪的偏置。
4.根据权利要求1所述的一种应用于危化品事故环境下的移动机器人定位与建图方法,其特征在于:在步骤三中,包括以下步骤:
步骤1:orb特征点的提取和匹配;
步骤2:通过特征点匹配,采用对极几何约束和PnP算法估计相机位姿并跟踪局部地图,如果跟踪失败启动重定位,并利用连续帧数据重新估计IMU的陀螺仪偏置和加速度偏置,最后决策是否添加关键帧;
步骤3:如果有新的关键帧***,利用视觉传感器融合IMU数据采用局部BA算法优化相机位姿,融合关键帧数据;其中IMU和视觉传感器融合的是重投影误差项和IMU的时间误差项;
步骤4:如果有新的关键帧***,在完成步骤三之后进行回环检测,纠正相机累计误差,为了确保全局地图的一致性,利用相似性约束对位姿图进行优化,最后启动线程执行全局BA算法,来计算整个***最优结构和运动的结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910056654.9A CN109781092B (zh) | 2019-01-19 | 2019-01-19 | 一种危险化工事故中移动机器人定位与建图方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910056654.9A CN109781092B (zh) | 2019-01-19 | 2019-01-19 | 一种危险化工事故中移动机器人定位与建图方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109781092A CN109781092A (zh) | 2019-05-21 |
CN109781092B true CN109781092B (zh) | 2021-01-19 |
Family
ID=66501966
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910056654.9A Active CN109781092B (zh) | 2019-01-19 | 2019-01-19 | 一种危险化工事故中移动机器人定位与建图方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109781092B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110333720A (zh) * | 2019-07-10 | 2019-10-15 | 国网四川省电力公司电力科学研究院 | 一种基于粒子滤波的slam优化方法 |
CN111242159B (zh) * | 2019-12-20 | 2024-04-16 | 广西柳州联耕科技有限公司 | 基于产品特征的图像识别与机器人自动定位方法 |
CN111156997B (zh) * | 2020-03-02 | 2021-11-30 | 南京航空航天大学 | 一种基于相机内参在线标定的视觉/惯性组合导航方法 |
CN111583136B (zh) * | 2020-04-25 | 2023-05-23 | 华南理工大学 | 一种救援场景下自主移动平台同时定位与建图方法 |
CN111738928B (zh) * | 2020-04-30 | 2021-04-13 | 南京图格医疗科技有限公司 | 一种基于概率优化和神经网络的内窥镜去雾方法 |
CN111738085B (zh) * | 2020-05-22 | 2023-10-24 | 华南理工大学 | 实现自动驾驶同时定位与建图的***构建方法及装置 |
CN111708283B (zh) * | 2020-06-29 | 2023-07-25 | 炬星科技(深圳)有限公司 | 一种机器人仿真方法、设备以及计算机可读存储介质 |
CN118135159A (zh) * | 2024-05-06 | 2024-06-04 | 中国人民解放军国防科技大学 | 面向虚实协同训练的增强现实三维注册方法、装置及设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108665540A (zh) * | 2018-03-16 | 2018-10-16 | 浙江工业大学 | 基于双目视觉特征和imu信息的机器人定位与地图构建*** |
CN109029433A (zh) * | 2018-06-28 | 2018-12-18 | 东南大学 | 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101339602B (zh) * | 2008-07-15 | 2011-05-04 | 中国科学技术大学 | 一种基于光流法的视频火灾烟雾图像识别方法 |
CN106875351A (zh) * | 2017-01-11 | 2017-06-20 | 西南科技大学 | 一种面向大面积天空区域图像的去雾方法 |
CN108578931B (zh) * | 2018-05-17 | 2023-04-28 | 中国科学院空间应用工程与技术中心 | 一种载人航天器舱内智能灭火机器人 |
-
2019
- 2019-01-19 CN CN201910056654.9A patent/CN109781092B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108665540A (zh) * | 2018-03-16 | 2018-10-16 | 浙江工业大学 | 基于双目视觉特征和imu信息的机器人定位与地图构建*** |
CN109029433A (zh) * | 2018-06-28 | 2018-12-18 | 东南大学 | 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109781092A (zh) | 2019-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109781092B (zh) | 一种危险化工事故中移动机器人定位与建图方法 | |
CN111583136B (zh) | 一种救援场景下自主移动平台同时定位与建图方法 | |
CN109345588B (zh) | 一种基于Tag的六自由度姿态估计方法 | |
CN109307508B (zh) | 一种基于多关键帧的全景惯导slam方法 | |
US10546387B2 (en) | Pose determination with semantic segmentation | |
Pire et al. | Stereo parallel tracking and mapping for robot localization | |
CN110044354A (zh) | 一种双目视觉室内定位与建图方法及装置 | |
CN108682027A (zh) | 基于点、线特征融合的vSLAM实现方法及*** | |
CN111462207A (zh) | 一种融合直接法与特征法的rgb-d同时定位与地图创建方法 | |
Palazzolo et al. | Fast image-based geometric change detection given a 3d model | |
CN107909614B (zh) | 一种gps失效环境下巡检机器人定位方法 | |
CN113538410A (zh) | 一种基于3d激光雷达和uwb的室内slam建图方法 | |
CN111932674A (zh) | 一种线激光视觉惯性***的优化方法 | |
CN110827353B (zh) | 一种基于单目摄像头辅助的机器人定位方法 | |
CN111623773B (zh) | 一种基于鱼眼视觉和惯性测量的目标定位方法及装置 | |
CN112802096A (zh) | 实时定位和建图的实现装置和方法 | |
US20200098115A1 (en) | Image processing device | |
CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 | |
Chen et al. | Stereo visual inertial pose estimation based on feedforward-feedback loops | |
CN112541423A (zh) | 一种同步定位与地图构建方法和*** | |
CN116007609A (zh) | 一种多光谱图像和惯导融合的定位方法和计算*** | |
Tang et al. | Fmd stereo slam: Fusing mvg and direct formulation towards accurate and fast stereo slam | |
Alliez et al. | Real-time multi-SLAM system for agent localization and 3D mapping in dynamic scenarios | |
CN112179373A (zh) | 一种视觉里程计的测量方法及视觉里程计 | |
CN115077519A (zh) | 基于模板匹配与激光惯导松耦合的定位建图方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |