CN108398139A - 一种融合鱼眼图像与深度图像的动态环境视觉里程计方法 - Google Patents

一种融合鱼眼图像与深度图像的动态环境视觉里程计方法 Download PDF

Info

Publication number
CN108398139A
CN108398139A CN201810171534.9A CN201810171534A CN108398139A CN 108398139 A CN108398139 A CN 108398139A CN 201810171534 A CN201810171534 A CN 201810171534A CN 108398139 A CN108398139 A CN 108398139A
Authority
CN
China
Prior art keywords
map
static
eye images
point
fish eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810171534.9A
Other languages
English (en)
Other versions
CN108398139B (zh
Inventor
毕树生
杨东升
郑晶翔
曹博
袁畅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN201810171534.9A priority Critical patent/CN108398139B/zh
Publication of CN108398139A publication Critical patent/CN108398139A/zh
Application granted granted Critical
Publication of CN108398139B publication Critical patent/CN108398139B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C22/00Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种融合鱼眼图像与深度图像的动态环境视觉里程计方法,属于移动机器人同步定位与地图构建技术领域。本发明同时使用鱼眼图像和深度图像的信息,由跟踪线程、地图构建线程和地图点滤波线程组成,三个线程并行运行。本发明对地图进行初始化,将地图划分为关键帧和地图点两部分,每个地图点具有一个静态指数以及一个用于标识该地图点为静态、动态或者未知的地图点属性。本发明克服了传统视觉里程计无法适应动态环境的缺点,结合鱼眼图像与深度图像的信息实现一种动态环境下的视觉里程计。

Description

一种融合鱼眼图像与深度图像的动态环境视觉里程计方法
技术领域
本发明涉及移动机器人同步定位与地图构建(SLAM)技术领域,尤其是适用于动态环境的基于鱼眼图像与深度图像的视觉里程计方法。
背景技术
定位技术是移动机器人实现各项复杂任务的技术基础。里程计便是一类简单有效的定位方法,目前主要的里程计方法有轮式里程计和视觉里程计等。轮式里程计通过安装在车轮上的编码器,对各个车轮的行驶距离进行采集,根据轮式机器人运动学模型解算出机器人相对于初始位置的位姿。显然这种方法只适用于平面运动的轮式移动机器人,无法应用于腿式、轮腿式、履带式等结构形式的移动机器人。另外,由于轮子打滑、传动误差等因素的影响,造成轮式里程计的累计误差增大。视觉里程计采用视觉传感器,利用特征匹配、摄影几何、最优化等技术估计机器人的位姿,可以实现三维空间六自由度的运动估计,且不受轮子打滑的影响。鉴于上述优点,视觉里程计已经在水下机器人、无人机、腿式机器人、野外轮式机器人等领域得到了广泛的应用。
自从美国学者Nister于2004年提出视觉里程计的概念以来,涌现出了大量的视觉里程计算法。但是,大部分主流算法均具有一个很强的假设:机器人的运行环境是静态不变的。然而,实际环境中充满了各种各样运动的物体,如办公室内行走的职员、公路上运动的车辆等。这些运动物体,阻碍了传统算法在实际环境中的应用。
视觉里程计采用的相机有单目、双目、多目、RGB-D相机等。相比之下,RGB-D相机不仅能够采集彩色图像,还能够提供每个像素的深度信息,可以有效减少算法的复杂性,提高运动估计的精度。但是,大部分RGB-D相机的视场范围小。当相机进行快速旋转时,由于帧间图像重叠率低和运动模糊等原因,极易发生运动估计失败。
发明内容
本发明的目的在于克服传统视觉里程计无法适应动态环境的缺点,结合鱼眼图像与深度图像的信息实现一种动态环境下的视觉里程计。
本发明所提出的一种融合鱼眼图像与深度图像的动态环境视觉里程计方法,同时使用鱼眼图像和深度图像的信息,由跟踪线程、地图构建线程和地图点滤波线程组成,三个线程并行运行。
本发明所提出的一种融合鱼眼图像与深度图像的动态环境视觉里程计方法,首先对地图进行初始化,将地图划分为关键帧和地图点两部分,每个地图点具有一个静态指数si,初始化为0;每个地图点具有一个用于标识该地图点为静态、动态或者未知的地图点属性。
所述跟踪线程包括以下步骤:
步骤1,同步采集鱼眼图像Ifn和深度图像Idn,构建成图像帧Fn;n=2,3,4,……。
步骤2,对图像帧Fn中的鱼眼图像Ifn提取ORB特征集kn
步骤3,将图像帧Fn中的特征集kn中所有特征点与前一图像帧Fn-1的特征集中指向静态地图点的特征点进行匹配,形成3D静态地图点到图像帧2D特征的匹配点对集合,采用RANSAC框架下的PnP算法解算出图像帧Fn的初始位姿
步骤4,将地图中所有的静态地图点投影到图像帧Fn,与图像帧Fn中的特征集kn进行匹配,形成3D静态地图点到2D图像特征ui之间的匹配点对集合{pw u},利用鱼眼相机投影模型π,构建优化方程如下:
其中,i=1,2,3,4……,表示匹配点对的个数,为图像帧Fn的位姿,为优化后的图像帧Fn的最优位姿。以步骤3得到的初始位姿为初值,利Levenberg-Marquardt方法得到图像帧Fn的最优位姿
步骤5,如果步骤4中匹配点对集合{pw u}中点对数量少于阈值Thm,或图像帧Fn与前一图像帧Fn-1的距离大于阈值Thd,则将图像帧Fn构建为关键帧,并加入关键帧队列。
所述地图构建线程包括以下步骤:
步骤A,从关键帧队列中取出关键帧KFn,由于深度相机的视场只占鱼眼相机视场的一部分,鱼眼图像中只有中间部分的像素能在深度图像中找到对应的深度,因此对鱼眼图像Ifn中间大小w×h像素区域的图像提取ORB特征;
步骤B,对步骤A中提取到的每个ORB特征,在深度图像Idn中寻找深度,计算对应的3D世界坐标,构建成地图点,初始化地图点的静态指数si=0,属性为未知;
步骤C,对鱼眼图像Ifn中间w×h像素区域外的特征点,利用极线搜索的方法在其他关键帧上搜索配对特征,利用三角方法构建地图点的3D世界坐标,构建成地图点,初始化地图点的静态指数si=0,属性为未知;
步骤D,将步骤B和步骤C中新构建的地图点,反投影到地图中其他的关键帧KFo的鱼眼图像上,计算KFo上投影点的ORB描述子计算描述子与关键帧KFn对应特征的描述子的汉明距离,j=1,2,3,……,表示描述子个数。如果汉明距离少于阈值Thh,则静态指数加1,否则静态指数减1,如果静态指数大于阈值Ths,该地图点的属性变为静态,如果静态指数小于阈值Thdy,则地图点的属性变为动态;
步骤E,遍历地图中所有的关键帧,剔除与关键帧KFn共视特征点少于阈值Thc的关键帧;
步骤F,对地图中所有的静态地图点和关键帧,利用光束平差法进行全局优化。
所述地图点滤波线程包括以下步骤:
步骤(I),将地图中每个属性为未知的地图点投影到图像帧Fn的鱼眼图像Ifn上,形成投影点
步骤(II),对每个投影点计算ORB描述子计算描述子与地图点对应的描述子的汉明距离
步骤(III),如果步骤(II)中汉明距离小于阈值Thh,则地图点的静态指数加1,否则静态指数减1,如果静态指数大于阈值Ths,则地图点的属性变为静态,如果静态指数小于阈值Thdy,则地图点的属性变为动态。
本发明的优点在于:
1.能够有效排除动态物体对视觉里程计的干扰,可在实际动态环境下运行。
2.相比于传统视觉里程计,在动态环境下的运动估计精度更高。
3.对快速运动、纯旋转等运动形式具有更强的稳健性。
4.利用鱼眼相机+深度相机的硬件配置方式,图像处理工作量小,效率高。
附图说明
图1为本发明的一种融合鱼眼图像与深度图像的动态环境视觉里程计方法流程图。
图2为本发明所采用的地图中地图点的构成示意图。
具体实施方式
下面将结合附图对本发明做进一步的详细说明。
如图1所示,本发明同时使用鱼眼图像和深度图像的信息,由跟踪线程、地图构建线程和地图点滤波线程组成,三个线程并行运行。
本发明采用的相机为Intel Realsense ZR300,该相机同时提供鱼眼图像和深度图像,鱼眼图像和深度图像的大小均为640×480像素。
本发明提供的一种融合鱼眼图像与深度图像的动态环境视觉里程计方法,包括地图初始化、跟踪线程、地图构建线程和地图点滤波线程四个部分,其中三个线程并行运行。本发明将地图划分为关键帧和地图点两部分,如图2所示,每个地图点具有一个静态指数si,以及一个用于标识该地图点为静态、动态或者未知的地图点属性。
***的运行依赖于地图,地图初始化具体步骤如下:
步骤1,同步采集鱼眼图像If1和深度图像Id1,构建成图像帧F1
步骤2,由于深度相机的视场只占鱼眼相机视场的一部分,鱼眼图像中只有中间部分的像素能在深度图像中找到对应的深度,因此对鱼眼图像If1中间大小w×h(如320×240像素)区域的图像提取ORB特征;
步骤3,对步骤2中提取到的每个ORB特征,在深度图Id1中寻找深度,计算对应的3D世界坐标,构建成地图点,初始化所述的地图点的静态指数si=0,属性为静态。
所述跟踪线程的具体步骤如下:
步骤1,同步采集鱼眼图像Ifn和深度图像Idn,构建成图像帧Fn;n=2,3,4,…;
步骤2,对图像帧Fn中的鱼眼图像Ifn提取ORB特征集kn
步骤3,将图像帧Fn中的特征集kn中所有特征点与前一帧Fn-1的特征集中指向属性为静态的地图点的特征点进行匹配,形成3D静态地图点到图像帧2D特征的匹配点对集合,采用RANSAC框架下的PnP算法(常用方法有EPnP、P3P、UPnP等)解算出图像帧Fn的初始位姿
步骤4,将地图中所有的属性为静态的地图点投影到图像帧Fn,与图像帧Fn中的特征集kn进行匹配,形成3D静态地图点到2D图像特征ui之间的匹配点对集合{pw u},利用鱼眼相机投影模型π,构建优化方程:
为图像帧Fn的位姿,以步骤3得到的初始位姿为初值,利Levenberg-Marquardt方法得到图像帧Fn的最优位姿
步骤5,如果步骤4中匹配点对集合{pw u}中点对数量少于阈值Thm(如100),或图像帧Fn与前一图像帧Fn-1的距离大于阈值Thd(如0.2m),则将图像帧Fn构建为关键帧,并加入关键帧队列。
所述地图构建线程包括以下步骤:
步骤A,从关键帧队列中取出关键帧KFn,对鱼眼图像Ifn中间大小w×h(如320×240像素)区域的图像提取ORB特征;
步骤B,对步骤A中提取到的每个ORB特征,在深度图像Idn中寻找深度,计算对应的3D世界坐标,构建成地图点,初始化地图点的静态指数si=0,属性为未知;
步骤C,对鱼眼图像Ifn中间w×h像素(如320×240像素)区域外的特征点,利用极线搜索的方法在其他关键帧(关键帧队列中除关键帧KFn以外的所有关键帧)上搜索配对特征,利用三角方法构建地图点的3D世界坐标,构建成地图点,初始化地图点的静态指数si=0,属性为未知;
步骤D,将步骤B和步骤C中新构建的地图点,反投影到地图中其他的关键帧的鱼眼图像上获得投影点,计算所述投影点的ORB描述子计算每一个描述子与关键帧KFn对应特征的描述子的汉明距离,如果汉明距离少于阈值Thh(如30),则静态指数加1,否则静态指数减1。如果累加后的静态指数大于阈值Ths(如10),该地图点的属性变为静态,如果静态指数小于阈值Thdy(如-3),则地图点的属性变为动态;
步骤E,遍历地图中所有的关键帧,剔除与关键帧KFn共视特征点少于阈值Thc(如20)的关键帧;
步骤F,对地图中所有的静态地图点和关键帧,利用光束平差法进行全局优化。
所述地图点滤波线程包括以下步骤:
步骤I,将地图中每个属性为未知的地图点投影到图像帧Fn的鱼眼图像Ifn上,行成投影点
步骤II,对每个投影点计算ORB描述子计算描述子与地图点对应的描述子的汉明距离
步骤III,如果步骤II中汉明距离小于阈值Thh(如30),则地图点的静态指数加1,否则静态指数减1,如果静态指数大于阈值Ths(如10),则地图点的属性变为静态,如果静态指数小于阈值Thdy(如-3),则地图点的属性变为动态。

Claims (5)

1.一种融合鱼眼图像与深度图像的动态环境视觉里程计方法,其特征在于:同时使用鱼眼图像和深度图像的信息,首先对地图进行初始化然后采用跟踪线程、地图构建线程和地图点滤波线程三个线程并行运行。
2.根据权利要求1所述的一种融合鱼眼图像与深度图像的动态环境视觉里程计方法,其特征在于:所述的地图初始化具体为,
将地图划分为关键帧和地图点两部分,每个地图点具有一个静态指数si,以及一个用于标识该地图点为静态、动态或者未知的地图点属性,
步骤1,同步采集鱼眼图像If1和深度图像Id1,构建成图像帧F1
步骤2,对鱼眼图像If1中间大小w×h区域的图像提取ORB特征;
步骤3,对步骤2中提取到的每个ORB特征,在深度图Id1中寻找深度,计算对应的3D世界坐标,构建成地图点,初始化所述的地图点的静态指数si=0,属性为静态。
3.根据权利要求1所述的一种融合鱼眼图像与深度图像的动态环境视觉里程计方法,其特征在于:所述跟踪线程包括以下步骤:
步骤1,同步采集鱼眼图像Ifn和深度图像Idn,构建成图像帧Fn;n=2,3,4,……;
步骤2,对图像帧Fn中的鱼眼图像Ifn提取ORB特征集kn
步骤3,将图像帧Fn中的特征集kn中所有特征点与前一图像帧Fn-1的特征集中指向静态地图点的特征点进行匹配,形成3D静态地图点到图像帧2D特征的匹配点对集合,采用RANSAC框架下的PnP算法解算出图像帧Fn的初始位姿
步骤4,将地图中所有的静态地图点投影到图像帧Fn,与图像帧Fn中的特征集kn进行匹配,形成3D静态地图点到2D图像特征ui之间的匹配点对集合{pw u},利用鱼眼相机投影模型π,构建优化方程如下:
其中,i=1,2,3,4……,表示匹配点对的个数,为图像帧Fn的位姿,为优化后图像帧Fn的最优位姿。以步骤3得到的初始位姿为初值,利Levenberg-Marquardt方法得到图像帧Fn的最优位姿
步骤5,如果步骤4中匹配点对集合{pw u}中点对数量少于阈值Thm,或图像帧Fn与前一图像帧Fn-1的距离大于阈值Thd,则将图像帧Fn构建为关键帧,并加入关键帧队列。
4.根据权利要求1所述的一种融合鱼眼图像与深度图像的动态环境视觉里程计方法,其特征在于:所述地图构建线程包括以下步骤:
步骤A,从关键帧队列中取出关键帧KFn,由于深度相机的视场只占鱼眼相机视场的一部分,鱼眼图像中只有中间部分的像素能在深度图像中找到对应的深度,因此对鱼眼图像Ifn中间大小w×h像素区域的图像提取ORB特征;
步骤B,对步骤A中提取到的每个ORB特征,在深度图像Idn中寻找深度,计算对应的3D世界坐标,构建成地图点,初始化地图点的静态指数si=0,属性为未知;
步骤C,对鱼眼图像Ifn中间w×h像素区域外的特征点,利用极线搜索的方法在其他关键帧上搜索配对特征,利用三角方法构建地图点的3D世界坐标,构建成地图点,初始化地图点的静态指数si=0,属性为未知;
步骤D,将步骤B和步骤C中新构建的地图点,反投影到地图中其他的关键帧KFo的鱼眼图像上,计算KFo上投影点的ORB描述子计算描述子与关键帧KFn对应特征的描述子的汉明距离,j=1,2,3,……,表示描述子个数。如果汉明距离少于阈值Thh,则静态指数加1,否则静态指数减1,如果静态指数大于阈值Ths,该地图点的属性变为静态,如果静态指数小于阈值Thdy,则地图点的属性变为动态;
步骤E,遍历地图中所有的关键帧,剔除与关键帧KFn共视特征点少于阈值Thc的关键帧;步骤F,对地图中所有的静态地图点和关键帧,利用光束平差法进行全局优化。
5.根据权利要求1所述的一种融合鱼眼图像与深度图像的动态环境视觉里程计方法,其特征在于:所述地图点滤波线程包括以下步骤:
步骤(I),将地图中每个属性为未知的地图点投影到图像帧Fn的鱼眼图像Ifn上,形成投影点
步骤(II),对每个投影点计算ORB描述子计算描述子与地图点对应的描述子的汉明距离
步骤(III),如果步骤(II)中汉明距离小于阈值Thh,则地图点的静态指数加1,否则静态指数减1,如果静态指数大于阈值Ths,则地图点的属性变为静态,如果静态指数小于阈值Thdy,则地图点的属性变为动态。
CN201810171534.9A 2018-03-01 2018-03-01 一种融合鱼眼图像与深度图像的动态环境视觉里程计方法 Expired - Fee Related CN108398139B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810171534.9A CN108398139B (zh) 2018-03-01 2018-03-01 一种融合鱼眼图像与深度图像的动态环境视觉里程计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810171534.9A CN108398139B (zh) 2018-03-01 2018-03-01 一种融合鱼眼图像与深度图像的动态环境视觉里程计方法

Publications (2)

Publication Number Publication Date
CN108398139A true CN108398139A (zh) 2018-08-14
CN108398139B CN108398139B (zh) 2021-07-16

Family

ID=63091414

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810171534.9A Expired - Fee Related CN108398139B (zh) 2018-03-01 2018-03-01 一种融合鱼眼图像与深度图像的动态环境视觉里程计方法

Country Status (1)

Country Link
CN (1) CN108398139B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109509230A (zh) * 2018-11-13 2019-03-22 武汉大学 一种应用于多镜头组合式全景相机的slam方法
CN109682385A (zh) * 2018-11-05 2019-04-26 天津大学 一种基于orb特征的即时定位与地图构建的方法
CN109737950A (zh) * 2019-01-28 2019-05-10 黑龙江迈普斯企业管理中心(有限合伙) 基于vio和动力学模型的水下机器人定位***及方法
CN110108258A (zh) * 2019-04-09 2019-08-09 南京航空航天大学 一种单目视觉里程计定位方法
CN110361005A (zh) * 2019-06-26 2019-10-22 深圳前海达闼云端智能科技有限公司 定位方法、定位装置、可读存储介质及电子设备
CN111145251A (zh) * 2018-11-02 2020-05-12 深圳市优必选科技有限公司 一种机器人及其同步定位与建图方法和计算机存储设备
CN111274847A (zh) * 2018-12-04 2020-06-12 上海汽车集团股份有限公司 一种定位方法
CN111724439A (zh) * 2019-11-29 2020-09-29 中国科学院上海微***与信息技术研究所 一种动态场景下的视觉定位方法及装置
CN113537171A (zh) * 2021-09-16 2021-10-22 北京易航远智科技有限公司 一种slam地图的划分方法
CN114769021A (zh) * 2022-04-24 2022-07-22 广东天太机器人有限公司 一种基于全角度模板识别的机器人喷涂***及方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN202512438U (zh) * 2012-02-19 2012-10-31 陶重犇 一种鱼眼摄像头的移动机器人slam平台
CN103646391A (zh) * 2013-09-30 2014-03-19 浙江大学 一种针对动态变化场景的实时摄像机跟踪方法
US20140204083A1 (en) * 2013-01-23 2014-07-24 Brent Thomson Systems and methods for real-time distortion processing
CN105809687A (zh) * 2016-03-08 2016-07-27 清华大学 一种基于图像中边沿点信息的单目视觉测程方法
CN105869136A (zh) * 2015-01-22 2016-08-17 北京雷动云合智能技术有限公司 一种基于多摄像机的协作式视觉slam方法
CN106534766A (zh) * 2015-09-09 2017-03-22 广州市维安电子技术有限公司 一种使用ptz摄像机对目标进行自动跟踪的方法及装置
CN206100245U (zh) * 2016-10-14 2017-04-12 成都通甲优博科技有限责任公司 360度全景深度摄像机
CN107154014A (zh) * 2017-04-27 2017-09-12 上海大学 一种实时彩色及深度全景图像拼接方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN202512438U (zh) * 2012-02-19 2012-10-31 陶重犇 一种鱼眼摄像头的移动机器人slam平台
US20140204083A1 (en) * 2013-01-23 2014-07-24 Brent Thomson Systems and methods for real-time distortion processing
CN103646391A (zh) * 2013-09-30 2014-03-19 浙江大学 一种针对动态变化场景的实时摄像机跟踪方法
CN105869136A (zh) * 2015-01-22 2016-08-17 北京雷动云合智能技术有限公司 一种基于多摄像机的协作式视觉slam方法
CN106534766A (zh) * 2015-09-09 2017-03-22 广州市维安电子技术有限公司 一种使用ptz摄像机对目标进行自动跟踪的方法及装置
CN105809687A (zh) * 2016-03-08 2016-07-27 清华大学 一种基于图像中边沿点信息的单目视觉测程方法
CN206100245U (zh) * 2016-10-14 2017-04-12 成都通甲优博科技有限责任公司 360度全景深度摄像机
CN107154014A (zh) * 2017-04-27 2017-09-12 上海大学 一种实时彩色及深度全景图像拼接方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
YUN WON CHOI 等: "3D omni-directional vision SLAM using a fisheye lens laser scanner(Article)", 《JOURNAL OF INSTITUTE OF CONTROL, ROBOTICS AND SYSTEMS》 *
刘浩敏 等: "基于单目视觉的同时定位与地图构建方法综述", 《计算机辅助设计与图形学学报》 *
熊文莉: "基于鱼眼镜头的双目立体视觉匹配算法 的研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111145251B (zh) * 2018-11-02 2024-01-02 深圳市优必选科技有限公司 一种机器人及其同步定位与建图方法和计算机存储设备
CN111145251A (zh) * 2018-11-02 2020-05-12 深圳市优必选科技有限公司 一种机器人及其同步定位与建图方法和计算机存储设备
CN109682385A (zh) * 2018-11-05 2019-04-26 天津大学 一种基于orb特征的即时定位与地图构建的方法
CN109509230B (zh) * 2018-11-13 2020-06-23 武汉大学 一种应用于多镜头组合式全景相机的slam方法
CN109509230A (zh) * 2018-11-13 2019-03-22 武汉大学 一种应用于多镜头组合式全景相机的slam方法
CN111274847A (zh) * 2018-12-04 2020-06-12 上海汽车集团股份有限公司 一种定位方法
CN109737950A (zh) * 2019-01-28 2019-05-10 黑龙江迈普斯企业管理中心(有限合伙) 基于vio和动力学模型的水下机器人定位***及方法
CN109737950B (zh) * 2019-01-28 2020-04-17 智真海洋科技(威海)有限公司 基于vio和动力学模型的水下机器人定位***及方法
CN110108258A (zh) * 2019-04-09 2019-08-09 南京航空航天大学 一种单目视觉里程计定位方法
CN110361005A (zh) * 2019-06-26 2019-10-22 深圳前海达闼云端智能科技有限公司 定位方法、定位装置、可读存储介质及电子设备
CN111724439A (zh) * 2019-11-29 2020-09-29 中国科学院上海微***与信息技术研究所 一种动态场景下的视觉定位方法及装置
CN111724439B (zh) * 2019-11-29 2024-05-17 中国科学院上海微***与信息技术研究所 一种动态场景下的视觉定位方法及装置
CN113537171A (zh) * 2021-09-16 2021-10-22 北京易航远智科技有限公司 一种slam地图的划分方法
CN113537171B (zh) * 2021-09-16 2021-12-21 北京易航远智科技有限公司 一种slam地图的划分方法
CN114769021A (zh) * 2022-04-24 2022-07-22 广东天太机器人有限公司 一种基于全角度模板识别的机器人喷涂***及方法

Also Published As

Publication number Publication date
CN108398139B (zh) 2021-07-16

Similar Documents

Publication Publication Date Title
CN108398139A (zh) 一种融合鱼眼图像与深度图像的动态环境视觉里程计方法
CN110569704B (zh) 一种基于立体视觉的多策略自适应车道线检测方法
Qin et al. Avp-slam: Semantic visual mapping and localization for autonomous vehicles in the parking lot
CN109166149B (zh) 一种融合双目相机与imu的定位与三维线框结构重建方法与***
Heng et al. Project autovision: Localization and 3d scene perception for an autonomous vehicle with a multi-camera system
CN112435325B (zh) 基于vi-slam和深度估计网络的无人机场景稠密重建方法
Engel et al. Large-scale direct SLAM with stereo cameras
Gräter et al. Robust scale estimation for monocular visual odometry using structure from motion and vanishing points
CN109544636A (zh) 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法
CN107590827A (zh) 一种基于Kinect的室内移动机器人视觉SLAM方法
Schuster et al. SceneFlowFields: Dense interpolation of sparse scene flow correspondences
Krombach et al. Feature-based visual odometry prior for real-time semi-dense stereo SLAM
CN109579825B (zh) 基于双目视觉和卷积神经网络的机器人定位***及方法
CN111914715A (zh) 一种基于仿生视觉的智能车目标实时检测与定位方法
CN108519102B (zh) 一种基于二次投影的双目视觉里程计算方法
CN106873619A (zh) 一种无人机飞行路径的处理方法
CN106931962A (zh) 一种基于gpu‑sift的实时双目视觉定位方法
CN113781562B (zh) 一种基于道路模型的车道线虚实配准和自车定位方法
CN110749308B (zh) 使用消费级gps和2.5d建筑物模型的面向slam的室外定位方法
CN113223045A (zh) 基于动态物体语义分割的视觉与imu传感器融合定位***
CN110599545A (zh) 一种基于特征的构建稠密地图的***
Stucker et al. ResDepth: Learned residual stereo reconstruction
CN104778673B (zh) 一种改进的高斯混合模型深度图像增强方法
CN109508673A (zh) 一种基于棒状像素的交通场景障碍检测与识别方法
CN112945233A (zh) 一种全局无漂移的自主机器人同时定位与地图构建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20210716

CF01 Termination of patent right due to non-payment of annual fee