CN108830191A - 基于改进emm及orb算法的移动机器人slam方法 - Google Patents

基于改进emm及orb算法的移动机器人slam方法 Download PDF

Info

Publication number
CN108830191A
CN108830191A CN201810542174.9A CN201810542174A CN108830191A CN 108830191 A CN108830191 A CN 108830191A CN 201810542174 A CN201810542174 A CN 201810542174A CN 108830191 A CN108830191 A CN 108830191A
Authority
CN
China
Prior art keywords
pixel
point
improving
algorithm
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810542174.9A
Other languages
English (en)
Other versions
CN108830191B (zh
Inventor
彭道刚
陈昱皓
赵晨洋
彭盖伦
王志萍
夏飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai University of Electric Power
University of Shanghai for Science and Technology
Original Assignee
Shanghai University of Electric Power
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai University of Electric Power filed Critical Shanghai University of Electric Power
Priority to CN201810542174.9A priority Critical patent/CN108830191B/zh
Publication of CN108830191A publication Critical patent/CN108830191A/zh
Application granted granted Critical
Publication of CN108830191B publication Critical patent/CN108830191B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明涉及一种基于改进EMM及ORB算法的移动机器人SLAM方法,包括以下步骤:S1、通过3D相机采集彩色图像与深度图像,使用改进ORB算法提取彩色图像的特征点并计算描述子,同时对深度图像进行滤波;S2、将彩色图像的像素点转换为空间坐标系下的3D点,使用ICP算法进行位姿计算,去除误匹配点并进行位姿提纯;S3、通过Dijkstra算法与随机采样方法进行回环检测,得到优化后的位姿信息;S4、根据优化后的位姿信息,通过改进环境测量模型的观测似然性计算方法建立稀疏点云图。与现有技术相比,本发明相比激光雷达定位成本低,与其他视觉方法相比有着鲁棒性强、误差小、无需训练等优点。

Description

基于改进EMM及ORB算法的移动机器人SLAM方法
技术领域
本发明涉及智能巡检机器人***的定位导航技术,尤其是涉及一种基于改进EMM及ORB算法的移动机器人SLAM方法。
背景技术
从行业发展趋势可以看出,巡检机器人将在未来的各个领域占有较大的市场,其中在变电站、校园、工厂、军工、船舶等场所的应用尤为广泛。针对在研发过程中激光雷达价格高和GPS模块精度不足等条件,使用深度摄像头进行局部辅助定位。
视觉定位***主要分为前端和后端,以及回环检测,前端用于提取图像中的特征,用于建立路标点,而后端用于优化摄像头自身误差而产生的位姿累计误差,使得轨迹跟踪更加精确。前端主要的技术有光流法、特征点提取法、基于灰度不变假设的直接法。回环检测的技术目前主要使用的是基于K均值分类的词袋模型法,需要前期进行训练。目前SLAM***算法的鲁棒性较低,误差较大。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于改进EMM及ORB算法的移动机器人SLAM方法。
本发明的目的可以通过以下技术方案来实现:
一种基于改进EMM及ORB算法的移动机器人SLAM方法,包括以下步骤:
S1、通过3D相机采集彩色图像与深度图像,使用改进ORB算法提取彩色图像的特征点并计算描述子,同时对深度图像进行滤波;
S2、将彩色图像的像素点转换为空间坐标系下的3D点,使用ICP算法进行位姿计算,去除误匹配点并进行位姿提纯;
S3、通过Dijkstra最短路径搜索算法与随机采样算法选择回环候选帧进行回环检测,得到优化后的位姿信息;
S4、根据优化后的位姿信息,通过改进环境测量模型的观测似然性计算方法建立稀疏点云图。
优选的,所述步骤S1中使用改进ORB算法提取彩色图像的特征点的过程具体包括:
对彩色图像构建金字塔,计算每一层图像的边缘;将每层金字塔的图像根据其分辨率分成N个a×a的栅格窗口,a表示根据图像像素设定的栅格窗口边长,在每层的每个窗口区域中使用FAST算法提取角点作为特征点,之后构造四叉树进行节点剔除,实现对特征点的提取。
优选的,所述步骤S1中对深度图像进行滤波的过程具体包括:
计算深度图像中每个像素点像素位置分别在垂直和水平方向的方差σz、σL,对每个边缘像素点进行填充;遍历深度图像中每个像素点,以各像素点为中心,3像素为长度,建立3×3区域,对于该区域中每个像素点uk,计算其深度值Di(uk),以及uk分别与中心像素点坐标ui及ui的深度值Di(ui)的2范数Δu、Δz,判断Δz是否大于0,若是,则计算像素点uk的2范数权重;根据每个像素点的2范数权重,重新计算深度图像中每个像素点的深度值。
优选的,所述步骤S2中位姿提纯的过程具体包括:
(1)计算彩色图像中的像素位置的横向标准差σx和纵向标准差σy,根据σx和σy得到特征点在某一相机坐标系下的协方差矩阵,计算同一特征点的协方差矩阵在不同坐标系下的估计值的相邻帧之和;
(2)计算同一特征点的3D坐标在不同相机坐标系下的估计值,根据步骤(1)得到的相邻帧之和,通过马氏距离的平方计算特征点的测量值和估计值的误差;
(3)判断特征点的测量值和估计值的误差是否小于第一设定阈值,若是,则该特征点则被选为inlier;
(4)将筛选出的inlier集合作为下一次迭代计算的特征点,并计算出提纯后的位姿Tn-1,n′,通过反复迭代设定次数,得到位姿提纯结果Tn-1,n
优选的,所述步骤S4中改进环境测量模型的观测似然性计算方法包括:
对第n帧的像素点pj,记其深度值为zj,利用计算得到的位姿Tij把像素点pj投影到第n-1帧中的相机坐标系下,得到像素点pi,并在第n-1帧中建立以pi为中心,3个像素为半径的像素连通区域,遍历区域中的像素点,根据高斯分布分别计算以zj为均值、σij为方差的概率分布,并计算区域中每个像素点深度的概率值,判断所述概率值是否在第二阈值范围内,若是,则设定对应像素点为正确投影点,若概率值低于第二阈值,则设定对应像素点为遮蔽点,若概率值高于第二阈值,则设定对应像素点为错误投影点。
优选的,所述第二阈值为:
P(pi|pj)=η(pi;pjij)
其中, 分别表示像素点pi和像素点pj的深度值的方差。
与现有技术相比,本发明使用改良过后鲁棒性更强的ORB特征点提取算法来进行前期的特征点计算,基于随机搜索以及dijkstra算法进行回环检测,相比激光雷达定位成本低,与其他视觉方法相比有着鲁棒性强、误差小、无需训练等优点,可用于巡检机器人工业和生活中涉及安全的各个领域的机器人的智能巡检。
附图说明
图1为本发明移动机器人SLAM方法的流程示意图;
图2为本发明SLAM方法运行数据包FR1/xyz误差对比图;
图3为本发明SLAM方法运行数据包FR2/xyz误差对比图;
图4为本发明SLAM方法运行数据包FR1/desk误差对比图;
图5为本发明SLAM方法运行数据包FR1/plant误差对比图;
图6为本发明SLAM方法运行数据包FR1/rpy误差对比图;
图7为本发明SLAM方法运行数据包FR1/desk建立的点云图;
图8为本发明SLAM方法运行数据包FR2/desk建立的点云图;
图9为本发明SLAM方法运行数据包FR2/desk时产生的环境特征点;
图10为本发明SLAM方法在对实验室环境建立点云图的结果;
图11为本发明SLAM方法在实验室环境下计算机器人运动的轨迹。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
实施例
本申请提出的基于改进的环境测量模型(EMM)与ORB算法的移动机器人SLAM方法,用于巡检机器人工业和生活中涉及安全的各个领域的机器人的智能巡检,主要包括特征点提取与匹配算法,特征点马氏距离计算,环境测量模型的观测似然性计算,回环检测及后端优化。如图1所示,本方法具体包括以下步骤:
S1、通过3D相机采集彩色图像与深度图像,本实施例中,3D相机采用Kinect,图片像素数为640×480,使用改进ORB算法提取彩色图像的特征点并计算描述子,同时对深度图像进行滤波。
使用改进ORB算法提取彩色图像的特征点的过程具体包括:
对彩色图像构建金字塔,计算每一层图像的边缘;将每层金字塔的图像根据其分辨率分成N个a×a的栅格窗口,a表示根据图像像素设定的栅格窗口边长,本实施例中a取31,在每层的每个窗口区域中使用FAST算法提取角点作为特征点,之后构造四叉树进行节点剔除,即首先在图像中构造N个彼此相邻的节点,每个节点保存着一个图像正方形区域四个角的像素坐标以及此区域内的所有特征点,当构造完节点之后,再次将每个节点划分成四个子节点区域,直到每个子节点区域只包含一个特征点时,实现对特征点的提取。
对深度图像进行滤波的过程具体包括:
假定相机光心所在光轴与物体夹角为θ=30°,计算深度图像中每个像素点像素位置分别在垂直和水平方向的方差σz、σL,对每个边缘像素点进行填充。遍历深度图像中每个像素点,以各像素点为中心,3像素为长度,建立3×3区域,对于该区域中每个像素点uk,计算其深度值Di(uk),以及uk分别与中心像素点坐标ui及ui的深度值Di(ui)的2范数Δu、Δz,判断Δz是否大于0,若是,则计算像素点uk的2范数权重:
根据每个像素点的2范数权重,重新计算深度图像中每个像素点的深度值:
其中,uk表示第k个像素点,Di(uk)表示像素点uk的深度值,wk表示像素点uk的权重。
S2、将彩色图像的像素点转换为空间坐标系下的3D点,使用ICP算法进行位姿计算,去除误匹配点并进行位姿提纯。
由于Kinect第一代的有效深度值为1.2m~3.5m,在水平方向的视角为57.5°,垂直方向的视角为43.5°,分辨率为640×480。
位姿提纯的过程具体包括:
(1)计算彩色图像中的像素位置的横向标准差σx和纵向标准差σy
σx=σd·tan(θx/mx)
σy=σd·tan(θy/my)
两式中θx、θy分别表示相机在水平和竖直方向的视角,mx和my分别表示相机在水平和竖直方向的图像分辨率,而σd为滤波之后的深度值的标准差,经过深度滤波之后,得到平滑之后的深度值,计算σd
式中m为红外相机和RGB相机的视差,b为基线,f为3D相机的焦距,Z为滤波之后得到的深度值;根据σx和σy得到特征点在某一相机坐标系下的协方差矩阵:
计算同一特征点的协方差矩阵在不同坐标系下的估计值:
式中Rn-1,n表示相机从第n-1帧到n帧的旋转矩阵,而Σxy (n)表示在第n帧中特征点的协方差矩阵,Σxy (n-1)表示同一特征点在第n-1帧中协方差矩阵,为了将相邻帧的情况考虑进来,定义特征点的相邻帧协方差矩阵Σxy (n-1)与Σxy (n)之和为:
ΣC=Σxy (n-1)xy (n)
(2)计算同一特征点的3D坐标在不同相机坐标系下的估计值:
其中表示特征点在第n-1帧中的3D坐标的测量值,为同一特征点在第n帧中的3D点坐标的估计值,Tn-1,n表示相机的位姿变换矩阵的估计值,并计算该特征点测量值与估计值的误差:
通过马氏距离的平方计算特征点的测量值和估计值的误差:
其中,表示特征点在第n帧中的估计值,表示特征点在第n帧中的测量值;
(3)判断特征点的测量值和估计值的误差是否小于第一设定阈值,若是,则该特征点则被选为inlier;
(4)将筛选出的inlier集合作为下一次迭代计算的特征点,并计算出提纯后的位姿Tn-1,n′,通过反复迭代设定次数,本实施例中迭代15次,得到位姿提纯结果Tn-1,n
S3、通过Dijkstra最短路径搜索算法与随机采样算法选择回环候选帧进行回环检测,得到优化后的位姿信息。
S4、根据优化后的位姿信息,通过改进环境测量模型的观测似然性计算方法建立稀疏点云图,具体包括:
对第n帧的像素点pj,记其深度值为zj,利用计算得到的位姿Tij把像素点pj投影到第n-1帧中的相机坐标系下,得到像素点pi,并在第n-1帧中建立以pi为中心,3个像素为半径的像素连通区域,遍历区域中的像素点,根据高斯分布分别计算以zj为均值,σij为方差的分布中每个像素点深度的概率值,判断概率值是否在第二阈值范围内,若是,则设定对应像素点为正确投影点,若概率值低于第二阈值,则设定对应像素点为遮蔽点,若概率值高于第二阈值,则设定对应像素点为错误投影点,并且分别统计三类点的数量。
其中第二阈值为:
P(pi|pj)=η(pi;pjij)
其中, 分别表示像素点pi和pj的深度值的方差。
表1为本发明方法与原始方法的误差与耗时对比结果。原始方法是指不采用EMM与回环检测,只使用原始ORB匹配特征点以及ICP算法计算每一帧的相机位姿的方法。从表中可知,本方法相比于原始方法耗时更少,误差更低。
表1方法误差耗时评估
本实施例中,使用ROS节点管理SLAM***运行,并通过WiFi模块来进行工控机到远程PC端的数据交换,机器人端通过发布深度相机节点来传输相机的图片数据,而PC端将采用SLAM方法的***作为另一个节点来接收Kinect的图片数据,计算完机器人的运动轨迹之后,再进行离线建图。
实验中,为了检测机器人回环检测的能力,控制移动机器人低速环绕电脑桌沿长方形轨迹移动,由于起点靠门处有一处障碍,使得机器人轨迹中产生了一个小圆弧突角。图11为***估计得出的机器人运动的最终轨迹,从图中可以看出机器人运动轨迹较为平滑,效果较好,而图10为通过机器人轨迹建立的实验室3D点云环境。
图2~图6为实验数据集估计的误差对比图,图的来源为慕尼黑工业大学的公开数据集,由八个高速摄像机捕捉机器人运动,捕捉到的机器人轨迹如图实线所示,可近似为机器人的实际运动轨迹,虚线为本发明所计算出的机器人轨迹值,其中图5的旋转较为剧烈,产生的偏差比较大,而剩余图都存在回环的情况,匹配程度较好。
图7和图8为数据集中通过本方法计算的机器人位姿得到的3D点云环境图,而图9为特征点的环境分布图。

Claims (6)

1.一种基于改进EMM及ORB算法的移动机器人SLAM方法,其特征在于,包括以下步骤:
S1、通过3D相机采集彩色图像与深度图像,使用改进ORB算法提取彩色图像的特征点并计算描述子,同时对深度图像进行滤波;
S2、将彩色图像的像素点转换为空间坐标系下的3D点,使用ICP算法进行位姿计算,去除误匹配点并进行位姿提纯;
S3、通过Dijkstra最短路径搜索算法与随机采样算法选择回环候选帧进行回环检测,得到优化后的位姿信息;
S4、根据优化后的位姿信息,通过改进环境测量模型的观测似然性计算方法建立稀疏点云图。
2.根据权利要求1所述的基于改进EMM及ORB算法的移动机器人SLAM方法,其特征在于,所述步骤S1中使用改进ORB算法提取彩色图像的特征点的过程具体包括:
对彩色图像构建金字塔,计算每一层图像的边缘;将每层金字塔的图像根据其分辨率分成N个a×a的栅格窗口,a表示根据图像像素设定的栅格窗口边长,在每层的每个窗口区域中使用FAST算法提取角点作为特征点,之后构造四叉树进行节点剔除,实现对特征点的提取。
3.根据权利要求1所述的基于改进EMM及ORB算法的移动机器人SLAM方法,其特征在于,所述步骤S1中对深度图像进行滤波的过程具体包括:
计算深度图像中每个像素点像素位置分别在垂直和水平方向的方差σz、σL,对每个边缘像素点进行填充;遍历深度图像中每个像素点,以各像素点为中心,3像素为长度,建立3×3区域,对于该区域中每个像素点uk,计算其深度值Di(uk),以及uk分别与中心像素点坐标ui及ui的深度值Di(ui)的2范数Δu、Δz,判断Δz是否大于0,若是,则计算像素点uk的2范数权重;根据每个像素点的2范数权重,重新计算深度图像中每个像素点的深度值。
4.根据权利要求1所述的基于改进EMM及ORB算法的移动机器人SLAM方法,其特征在于,所述步骤S2中位姿提纯的过程具体包括:
(1)计算彩色图像中的像素位置的横向标准差σx和纵向标准差σy,根据σx和σy得到特征点在某一相机坐标系下的协方差矩阵,计算同一特征点的协方差矩阵在不同坐标系下的估计值的相邻帧之和;
(2)计算同一特征点的3D坐标在不同相机坐标系下的估计值,根据步骤(1)得到的相邻帧之和,通过马氏距离的平方计算特征点的测量值和估计值的误差;
(3)判断特征点的测量值和估计值的误差是否小于第一设定阈值,若是,则该特征点则被选为inlier;
(4)将筛选出的inlier集合作为下一次迭代计算的特征点,并计算出提纯后的位姿Tn-1,n′,通过反复迭代设定次数,得到位姿提纯结果Tn-1,n
5.根据权利要求1所述的基于改进EMM及ORB算法的移动机器人SLAM方法,其特征在于,所述步骤S4中改进环境测量模型的观测似然性计算方法包括:
对第n帧的像素点pj,记其深度值为zj,利用计算得到的位姿Tij把像素点pj投影到第n-1帧中的相机坐标系下,得到像素点pi,并在第n-1帧中建立以pi为中心,3个像素为半径的像素连通区域,遍历区域中的像素点,根据高斯分布分别计算以zj为均值、σij为方差的概率分布,并计算区域中每个像素点深度的概率值,判断所述概率值是否在第二阈值范围内,若是,则设定对应像素点为正确投影点,若概率值低于第二阈值,则设定对应像素点为遮蔽点,若概率值高于第二阈值,则设定对应像素点为错误投影点。
6.根据权利要求5所述的基于改进EMM及ORB算法的移动机器人SLAM方法,其特征在于,所述第二阈值为:
P(pi|pj)=η(pi;pjij)
其中, 分别表示像素点pi和像素点pj的深度值的方差。
CN201810542174.9A 2018-05-30 2018-05-30 基于改进环境测量模块emm及orb算法的移动机器人slam方法 Active CN108830191B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810542174.9A CN108830191B (zh) 2018-05-30 2018-05-30 基于改进环境测量模块emm及orb算法的移动机器人slam方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810542174.9A CN108830191B (zh) 2018-05-30 2018-05-30 基于改进环境测量模块emm及orb算法的移动机器人slam方法

Publications (2)

Publication Number Publication Date
CN108830191A true CN108830191A (zh) 2018-11-16
CN108830191B CN108830191B (zh) 2022-04-01

Family

ID=64145541

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810542174.9A Active CN108830191B (zh) 2018-05-30 2018-05-30 基于改进环境测量模块emm及orb算法的移动机器人slam方法

Country Status (1)

Country Link
CN (1) CN108830191B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109685846A (zh) * 2018-12-19 2019-04-26 吉林大学 一种基于Dijkstra的X光照片中金属物定位方法
CN109801309A (zh) * 2019-01-07 2019-05-24 华南理工大学 一种基于rgb-d相机的障碍物感知方法
CN110046209A (zh) * 2019-03-26 2019-07-23 太原科技大学 一种基于高斯模型的轨迹停止点提取方法
CN110619338A (zh) * 2019-09-18 2019-12-27 成都信息工程大学 一种可长时间依赖的图像特征提取方法
CN111716340A (zh) * 2019-03-22 2020-09-29 达明机器人股份有限公司 3d相机与机械手臂坐标***的校正装置及方法
CN111983636A (zh) * 2020-08-12 2020-11-24 深圳华芯信息技术股份有限公司 位姿融合方法、***、终端、介质以及移动机器人
WO2021051358A1 (en) * 2019-09-19 2021-03-25 Beijing Voyager Technology Co., Ltd. Systems and methods for generating pose graph
CN112665575A (zh) * 2020-11-27 2021-04-16 重庆大学 一种基于移动机器人的slam回环检测方法
CN114111803A (zh) * 2022-01-26 2022-03-01 中国人民解放军战略支援部队航天工程大学 一种室内卫星平台的视觉导航方法
CN114750147A (zh) * 2022-03-10 2022-07-15 深圳甲壳虫智能有限公司 机器人的空间位姿确定方法、装置和机器人

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106127739A (zh) * 2016-06-16 2016-11-16 华东交通大学 一种结合单目视觉的rgb‑d slam方法
CN107590827A (zh) * 2017-09-15 2018-01-16 重庆邮电大学 一种基于Kinect的室内移动机器人视觉SLAM方法
CN107610175A (zh) * 2017-08-04 2018-01-19 华南理工大学 基于半直接法和滑动窗口优化的单目视觉slam算法
CN107680133A (zh) * 2017-09-15 2018-02-09 重庆邮电大学 一种基于改进闭环检测算法的移动机器人视觉slam方法
CN107869989A (zh) * 2017-11-06 2018-04-03 东北大学 一种基于视觉惯导信息融合的定位方法及***

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106127739A (zh) * 2016-06-16 2016-11-16 华东交通大学 一种结合单目视觉的rgb‑d slam方法
CN107610175A (zh) * 2017-08-04 2018-01-19 华南理工大学 基于半直接法和滑动窗口优化的单目视觉slam算法
CN107590827A (zh) * 2017-09-15 2018-01-16 重庆邮电大学 一种基于Kinect的室内移动机器人视觉SLAM方法
CN107680133A (zh) * 2017-09-15 2018-02-09 重庆邮电大学 一种基于改进闭环检测算法的移动机器人视觉slam方法
CN107869989A (zh) * 2017-11-06 2018-04-03 东北大学 一种基于视觉惯导信息融合的定位方法及***

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ETHAN RUBLEE等: ""ORB: an efficient alternative to SIFT or SURF"", 《IEEE INTERNATIONAL CONFERENCE》 *
辛菁 等: ""基于Kinect的移动机器人大视角3维V-SLAM"", 《机器人》 *
钟昌勇: ""基于立体视觉的室外移动机器人定位与环境建模研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109685846A (zh) * 2018-12-19 2019-04-26 吉林大学 一种基于Dijkstra的X光照片中金属物定位方法
CN109685846B (zh) * 2018-12-19 2023-03-10 吉林大学 一种基于Dijkstra的X光照片中金属物定位方法
CN109801309A (zh) * 2019-01-07 2019-05-24 华南理工大学 一种基于rgb-d相机的障碍物感知方法
CN109801309B (zh) * 2019-01-07 2023-06-20 华南理工大学 一种基于rgb-d相机的障碍物感知方法
CN111716340A (zh) * 2019-03-22 2020-09-29 达明机器人股份有限公司 3d相机与机械手臂坐标***的校正装置及方法
CN110046209B (zh) * 2019-03-26 2022-08-09 太原科技大学 一种基于高斯模型的轨迹停止点提取方法
CN110046209A (zh) * 2019-03-26 2019-07-23 太原科技大学 一种基于高斯模型的轨迹停止点提取方法
CN110619338B (zh) * 2019-09-18 2022-02-08 成都信息工程大学 一种可长时间依赖的图像特征提取方法
CN110619338A (zh) * 2019-09-18 2019-12-27 成都信息工程大学 一种可长时间依赖的图像特征提取方法
WO2021051358A1 (en) * 2019-09-19 2021-03-25 Beijing Voyager Technology Co., Ltd. Systems and methods for generating pose graph
CN113557548A (zh) * 2019-09-19 2021-10-26 北京航迹科技有限公司 生成位姿图的***和方法
CN111983636A (zh) * 2020-08-12 2020-11-24 深圳华芯信息技术股份有限公司 位姿融合方法、***、终端、介质以及移动机器人
CN112665575A (zh) * 2020-11-27 2021-04-16 重庆大学 一种基于移动机器人的slam回环检测方法
CN112665575B (zh) * 2020-11-27 2023-12-29 重庆大学 一种基于移动机器人的slam回环检测方法
CN114111803A (zh) * 2022-01-26 2022-03-01 中国人民解放军战略支援部队航天工程大学 一种室内卫星平台的视觉导航方法
CN114750147A (zh) * 2022-03-10 2022-07-15 深圳甲壳虫智能有限公司 机器人的空间位姿确定方法、装置和机器人
CN114750147B (zh) * 2022-03-10 2023-11-24 深圳甲壳虫智能有限公司 机器人的空间位姿确定方法、装置和机器人

Also Published As

Publication number Publication date
CN108830191B (zh) 2022-04-01

Similar Documents

Publication Publication Date Title
CN108830191A (zh) 基于改进emm及orb算法的移动机器人slam方法
CN110070615B (zh) 一种基于多相机协同的全景视觉slam方法
CN113450408B (zh) 一种基于深度相机的非规则物***姿估计方法及装置
CN110726409B (zh) 一种基于激光slam和视觉slam地图融合方法
CN108051002A (zh) 基于惯性测量辅助视觉的运输车空间定位方法及***
Yin et al. Dynam-SLAM: An accurate, robust stereo visual-inertial SLAM method in dynamic environments
Xiao et al. Monocular vehicle self-localization method based on compact semantic map
CN113903011B (zh) 一种适用于室内停车场的语义地图构建及定位方法
CN113744337B (zh) 一种融合视觉、imu与声纳的同步定位与建图方法
US20220051425A1 (en) Scale-aware monocular localization and mapping
CN108958232A (zh) 一种基于深度视觉的移动扫地机器人slam装置及算法
CN114323033B (zh) 基于车道线和特征点的定位方法、设备及自动驾驶车辆
US20230085384A1 (en) Characterizing and improving of image processing
CN111998862B (zh) 一种基于bnn的稠密双目slam方法
Rodríguez et al. Obstacle avoidance system for assisting visually impaired people
CN107860390A (zh) 基于视觉ros***的非完整机器人远程定点自导航方法
John et al. Automatic calibration and registration of lidar and stereo camera without calibration objects
CN113724387A (zh) 一种激光与相机融合的地图构建方法
CN112767546A (zh) 移动机器人基于双目图像的视觉地图生成方法
Hua-jun et al. A fast method for vanishing point estimation and tracking and its application in road images
Xiang et al. Hybrid bird’s-eye edge based semantic visual SLAM for automated valet parking
CN112945233A (zh) 一种全局无漂移的自主机器人同时定位与地图构建方法
CN114677531B (zh) 一种融合多模态信息的水面无人艇目标检测与定位方法
Lin et al. DPL-SLAM: Enhancing Dynamic Point-Line SLAM through Dense Semantic Methods
Liu et al. A multi-sensor fusion with automatic vision-LiDAR calibration based on Factor graph joint optimization for SLAM

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant