CN112767481B - 一种基于视觉边缘特征的高精度定位及建图方法 - Google Patents

一种基于视觉边缘特征的高精度定位及建图方法 Download PDF

Info

Publication number
CN112767481B
CN112767481B CN202110083458.8A CN202110083458A CN112767481B CN 112767481 B CN112767481 B CN 112767481B CN 202110083458 A CN202110083458 A CN 202110083458A CN 112767481 B CN112767481 B CN 112767481B
Authority
CN
China
Prior art keywords
edge
error
projection
image
current frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110083458.8A
Other languages
English (en)
Other versions
CN112767481A (zh
Inventor
周有杰
万熠
梁西昌
侯嘉瑞
李亚男
鞠昆廷
吴付旺
荣培植
李庆民
陈飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN202110083458.8A priority Critical patent/CN112767481B/zh
Publication of CN112767481A publication Critical patent/CN112767481A/zh
Application granted granted Critical
Publication of CN112767481B publication Critical patent/CN112767481B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本公开提供一种基于视觉边缘特征的高精度定位及建图方法,涉及机器视觉定位领域,使用较为鲁棒的边缘特征,为提高重投影误差的描述稳定性,使用受光照变化影响较小的边缘特征作为视觉里程计中的信息来源,同时为提高重投影误差的描述稳定性,使用几何误差和光度误差融合的方式来对边缘信息产生的误差进行描述,提高位姿估计的鲁棒性和算法的环境适应性,在得到初始位姿的基础上,先对点云进行初始矫正,之后使用ICP算法对关键帧及当前帧的点云进行精准匹配,得到最终的位姿,提高算法的定位精度。

Description

一种基于视觉边缘特征的高精度定位及建图方法
技术领域
本公开涉及机器视觉定位领域,特别涉及一种基于视觉边缘特征的高精度定位及建图方法。
背景技术
本部分的陈述仅仅是提供了与本公开相关的背景技术,并不必然构成现有技术。
随着机器人技术的发展与提升,基于视觉的机器人定位技术逐渐成为机器人关键技术领域的研究热点。目前常用的视觉定位传感器包括单目相机、双目相机以及深度相机等。
发明人发现,目前的边缘定位方法中,通过检测拍摄图像中是否包括楼梯,当拍摄图像中包括楼梯时,根据拍摄图像提取楼梯边缘信息,然后依据楼梯边缘信息进行边缘定位,得到边缘定位信息,然而,仍存在特征分布不均匀的问题,导致存在误差,严重影响位姿估计的效果,难以满足目前对位姿估计的环境适应性需求和精度需求。
发明内容
本公开的目的是针对现有技术存在的缺陷,提供一种基于视觉边缘特征的高精度定位及建图方法,使用较为鲁棒的边缘特征,为提高重投影误差的描述稳定性,使用几何误差和光度误差融合的方式来对边缘信息产生的误差进行描述,提高位姿估计的鲁棒性和算法的环境适应性,并通过对关键帧及当前帧的点云匹配,提高定位精度。
为了实现上述目的,采用以下技术方案:
一种基于视觉边缘特征的高精度定位及建图方法,包括以下步骤:
获取RGB图像和depth图像,进行特征采集及处理,生成边缘图像金字塔并进行处理,获取密集轨迹距离矩阵金字塔;
将投影关联范围内的边缘特征映射到关键帧的密集轨迹距离图像上,获取基于几何距离的重投影误差;
将当前帧的边缘特征投影到关键帧中,获取基于关键帧与当前帧的光度误差;
将几何误差与光度误差融合,自适应地生成相对应的权重系数;
以旋转矩阵及平移向量作为变量,根据重投影误差进行迭代处理获取最终的相对位姿;
在初始位姿基础上对图像处理生成的点云进行初始化后,矫正得到最终位置;
基于矫正位姿获取定位信息,并依据定位信息和点云数据生成实时三维地图。
进一步地,使用深度相机采集RGB图像和depth图像,并进行高斯金字塔操作,提取RGB图像金字塔中的边缘特征,生成边缘图像金字塔。
进一步地,使用深度相机对环境中的场景信息进行采集,获取实时的环境信息,形成连续的图像序列,包括RGB图像和depth图像。
进一步地,使用密集轨迹距离矩阵算法对提取的边缘图像金字塔进行处理,生成密集轨迹距离矩阵金字塔。
进一步地,在生成密集轨迹距离矩阵金字塔后,进行投影操作;将当前帧的边缘特征进行投影,投影到设定的关键帧上。
进一步地,在初始的第一次投影时,旋转矩阵和平移向量都设定为零,在后续的投影中,旋转矩阵和平移向量设定为前一帧的相对旋转位姿。
进一步地,将投影关联范围内的边缘特征映射到关键帧的密集轨迹距离图像上,根据投影过去的边缘点在密集轨迹距离图像上的位置确定投影误差,将所有边缘的投影误差进行加权,得到最终的基于几何距离的重投影误差。
进一步地,将当前帧得到的边缘特征投影到关键帧中,并计算当前帧中边缘位置的像素与关键帧中投影位置的像素的差值,得到基于关键帧与当前帧的光度误差。
进一步地,根据得到的重投影误差进行最小二乘化迭代处理,通过不断迭代得到最终的相对位姿。
进一步地,使用当前帧与关键帧的对应RGB图像和depth图像生成对应的点云,在得到的初始位姿的基础上对点云进行初始化,对点云进行矫正得到最终位置。
与现有技术相比,本公开具有的优点和积极效果是:
(1)使用较为鲁棒的边缘特征,为提高重投影误差的描述稳定性,使用受光照变化影响较小的边缘特征作为视觉里程计中的信息来源,同时为提高重投影误差的描述稳定性,使用几何误差和光度误差融合的方式来对边缘信息产生的误差进行描述,提高位姿估计的鲁棒性和算法的环境适应性。
(2)在得到初始位姿的基础上,先对点云进行初始矫正,之后使用ICP算法对关键帧及当前帧的点云进行精准匹配,得到最终的位姿,提高算法的定位精度。
(3)提出关于重投影误差的融合策略,自适应地调节几何误差与光度误差的对应权重,避免了部分场景下由于几何误差与光度误差相差悬殊造成的重投影误差描述不准确的情况。
附图说明
构成本公开的一部分的说明书附图用来提供对本公开的进一步理解,本公开的示意性实施例及其说明用于解释本公开,并不构成对本公开的不当限定。
图1为本公开实施例1中定位及建图方法的流程示意图。
具体实施方式
应该指出,以下详细说明都是例示性的,旨在对本公开提供进一步地说明。除非另有指明,本文使用的所有技术和科学术语具有与本公开所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本公开的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合;
为了方便叙述,本公开中如果出现“上”、“下”、“左”、“右”字样,仅表示与附图本身的上、下、左、右方向一致,并不对结构起限定作用,仅仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的设备或元件必须具有特定的方位,以特定的方位构造和操作,因此不能理解为对本公开的限制。
正如背景技术中所介绍的,现有的边缘定位过程中,仍存在特征分布不均匀的问题,导致存在误差,严重影响位姿估计的效果,难以满足目前对位姿估计的环境适应性需求和精度需求;针对上述问题,本公开提出了一种基于视觉边缘特征的高精度定位及建图方法。
实施例1
本公开的一种典型的实施方式中,如图所示,提出了一种基于视觉边缘特征的高精度定位及建图方法。
包括以下步骤:
获取RGB图像和depth图像,进行特征采集及处理,生成边缘图像金字塔并进行处理,获取密集轨迹距离矩阵金字塔;
将投影关联范围内的边缘特征映射到关键帧的密集轨迹距离图像上,获取基于几何距离的重投影误差;
将当前帧的边缘特征投影到关键帧中,获取基于关键帧与当前帧的光度误差;
将几何误差与光度误差融合,自适应地生成相对应的权重系数;
以旋转矩阵及平移向量作为变量,根据重投影误差进行迭代处理获取最终的相对位姿;
在初始位姿基础上对图像处理生成的点云进行初始化后,矫正得到最终位置;
基于矫正位姿获取定位信息,并依据定位信息和点云数据生成实时三维地图。
进一步地,使用深度相机采集RGB图像和depth图像,并进行高斯金字塔操作,提取RGB图像金字塔中的边缘特征,生成边缘图像金字塔。
在本实施例中,具体的,使用深度相机采集图像:使用深度相机对环境中的场景信息进行采集,获取实时的环境信息,形成连续的图像序列;
其中,在生成的图像序列中,包括两种:RGB图像和depth图像。
对图像进行特征采集和处理,包括以下步骤:
(1)对深度相机提取的RGB图像和depth图像进行高斯金字塔操作。
(2)使用canny算法提取RGB图像金字塔中的边缘特征,生成边缘图像金字塔。
当然,可以理解的是,在其他可能的实施方式中,还可以采用其他的算法来对RGB图像金字塔中的边缘特征进行处理,只要能够生成满足需求的边缘图像金字塔即可。
进一步地,使用密集轨迹(DT)距离矩阵算法对提取的边缘图像金字塔进行处理,生成密集轨迹(DT)距离矩阵金字塔。
在生成DT距离矩阵金字塔后,进行投影操作;
将当前帧的边缘特征进行投影,投影到设定的关键帧上。
此时,在初始的第一次投影时,旋转矩阵R和平移向量t都设定为0,在后续的投影中,R和t设定为前一帧的相对旋转位姿。
具体的,在本实施例中,包括以下步骤:
(1)基于边缘信息及深度信息将特征进行初始化操作;(其中,pc表示当前帧边缘信息中的二维点,Z表示由depth图像获得的p点的深度信息,cx,cy,fx,fy表示相机内参,Pc表示由当前帧二维点pc及其深度信息计算出的三维点);
Figure GDA0003722589350000061
(2)将当前帧的边缘特征进行投影,投影到设定的关键帧上。此时,在初始的第一次投影时,旋转矩阵R和平移向量t都设定为0。(其中,P'c表示经位姿转换后的三维点,p'c表示当前帧投影在关键帧上的像素点)
在接下来的投影中,R和t设定为前一帧的相对旋转位姿。
P'c=R·Pc+t
Figure GDA0003722589350000062
进一步地,获取基于几何距离的重投影误差包括以下步骤:
将投影关联范围内的边缘特征映射到关键帧的密集轨迹(DT)距离图像上,根据投影过去的边缘点在密集轨迹(DT)距离图像上的位置确定投影误差,经处理后得到最终的基于几何距离的重投影误差。
优选的,所述的处理过程为:将所有边缘的投影误差进行加权。
r几何=DTkkc,p),
Figure GDA0003722589350000071
进一步地,获取光度误差包括以下步骤:
将当前帧得到的边缘特征投影到关键帧中,并计算当前帧中边缘位置的像素与关键帧中投影位置的像素的差值,得到基于关键帧与当前帧的光度误差。(其中,pk表示关键帧边缘信息中的二维点)
Figure GDA0003722589350000072
由于几何误差与光度误差在求解后所得到的数量级不一致,简单的加权并不适用于重投影误差的表征,在本实施例中,提出一种基于几何误差与光度误差的融合策略,通过对相对应的几何误差与光度误差进行评估,自适应地生成相对应的权重系数,使得光度误差与几何误差都能够很好地表征。
使用受光照变化影响较小的边缘特征作为视觉里程计中的信息来源,同时为提高重投影误差的描述稳定性,使用几何误差和光度误差融合的方式来对边缘信息产生的误差进行描述,提高位姿估计的鲁棒性和算法的环境适应性。
具体的,在本实施例中,自适应产生权重系数的计算方式如下:
Figure GDA0003722589350000073
Figure GDA0003722589350000074
通过重投影误差的融合策略,自适应地调节几何误差与光度误差的对应权重,避免了部分场景下由于几何误差与光度误差相差悬殊造成的重投影误差描述不准确的情况。
进一步地,对于最终相对位姿的获取,以旋转矩阵R及平移向量t作为变量,根据得到的重投影误差进行最小二乘化迭代处理,通过不断迭代得到最终的相对位姿。
最终相对位姿的计算方式如下:ξ*=argminΣ(ω几何r几何 2光度r光度 2)
进一步地,使用当前帧与关键帧的对应RGB图像和depth图像生成对应的点云,在得到的初始位姿的基础上对点云进行初始化,之后使用ICP算法对点云进行矫正,进而得到最终位置。
最终位置的计算式为:T=align(pointcloudk,pointcloudc,R,t)
进一步地,对于建图和定位的具体过程:基于得到的最终矫正位姿,进而得到基于视觉的定位信息,并基于定位信息及生成的点云数据进行建图,生成实时的三维地图。
基于ICP的边缘点云配准方案,在得到初始位姿的基础上,先对点云进行初始矫正,之后使用ICP算法对关键帧及当前帧的点云进行精准匹配,得到最终的位姿,提高算法的定位精度。
以上所述仅为本公开的优选实施例而已,并不用于限制本公开,对于本领域的技术人员来说,本公开可以有各种更改和变化。凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。

Claims (4)

1.一种基于视觉边缘特征的高精度定位及建图方法,其特征在于,包括以下步骤:
获取当前帧的RGB图像和depth图像,分别进行高斯金字塔操作,得到RGB图像金字塔和depth图像金字塔,提取RGB图像金字塔中的边缘特征,生成边缘图像金字塔,使用密集轨迹距离矩阵算法对提取的边缘图像金字塔进行处理,获取密集轨迹距离矩阵金字塔;
将投影关联范围内的当前帧的边缘特征映射到设定的关键帧的密集轨迹距离矩阵图像上,获取基于几何距离的重投影误差;具体的,将投影关联范围内的当前帧的边缘特征映射到关键帧的密集轨迹距离矩阵图像上,根据投影过去的边缘点在密集轨迹距离图像上的位置确定投影误差,将所有边缘的投影误差进行加权,得到最终的基于几何距离的重投影误差;
将当前帧的边缘特征投影到设定的关键帧中,获取基于关键帧与当前帧的光度误差;具体的,基于RGB图像金字塔的边缘信息及depth图像金字塔的深度信息将特征进行初始化操作;将当前帧的边缘特征投影到关键帧中,并计算当前帧中边缘位置的像素与关键帧中投影位置的像素的差值,得到基于关键帧与当前帧的光度误差;其中,在初始的第一次投影时,旋转矩阵和平移向量都设定为零,在后续的投影中,旋转矩阵和平移向量设定为前一帧的相对旋转位姿;
将几何误差与光度误差融合,自适应地生成相对应的权重系数,具体为:
Figure FDA0003722589340000011
Figure FDA0003722589340000012
以旋转矩阵及平移向量作为变量,根据融合后得到的重投影误差进行迭代处理获取最终的相对位姿,具体为:
ξ*=argminΣ(ω几何r几何 2光度r光度 2);
其中,r几何为几何误差,ω几何为几何误差的自适应权重,r光度为光度误差,ω光度为光度误差的自适应权重;
将相对位姿作为初始位姿,在初始位姿基础上对图像处理生成的点云进行初始化后,矫正得到最终位置;
基于矫正位姿获取定位信息,并依据定位信息和点云数据生成实时三维地图。
2.如权利要求1所述的基于视觉边缘特征的高精度定位及建图方法,其特征在于,使用深度相机对环境中的场景信息进行采集,获取实时的环境信息,形成连续的图像序列,包括RGB图像和depth图像。
3.如权利要求1所述的基于视觉边缘特征的高精度定位及建图方法,其特征在于,根据得到的重投影误差进行最小二乘化迭代处理,通过不断迭代得到最终的相对位姿。
4.如权利要求1所述的基于视觉边缘特征的高精度定位及建图方法,其特征在于,使用当前帧与关键帧的对应RGB图像和depth图像生成对应的点云,在得到的初始位姿的基础上对点云进行初始化,对点云进行矫正得到最终位置。
CN202110083458.8A 2021-01-21 2021-01-21 一种基于视觉边缘特征的高精度定位及建图方法 Active CN112767481B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110083458.8A CN112767481B (zh) 2021-01-21 2021-01-21 一种基于视觉边缘特征的高精度定位及建图方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110083458.8A CN112767481B (zh) 2021-01-21 2021-01-21 一种基于视觉边缘特征的高精度定位及建图方法

Publications (2)

Publication Number Publication Date
CN112767481A CN112767481A (zh) 2021-05-07
CN112767481B true CN112767481B (zh) 2022-08-16

Family

ID=75703629

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110083458.8A Active CN112767481B (zh) 2021-01-21 2021-01-21 一种基于视觉边缘特征的高精度定位及建图方法

Country Status (1)

Country Link
CN (1) CN112767481B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116681841B (zh) * 2023-08-03 2023-10-20 中国科学院长春光学精密机械与物理研究所 断层重建的质量评估方法及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108537848A (zh) * 2018-04-19 2018-09-14 北京工业大学 一种面向室内场景重建的两级位姿优化估计方法
CN110866496A (zh) * 2019-11-14 2020-03-06 合肥工业大学 基于深度图像的机器人定位与建图方法和装置
CN111540000A (zh) * 2020-04-28 2020-08-14 深圳市商汤科技有限公司 场景深度和相机运动预测方法及装置、电子设备和介质
CN111882613A (zh) * 2020-07-24 2020-11-03 中国科学院上海微***与信息技术研究所 基于边缘语义的视觉里程计方法、装置、存储介质及设备
CN111899345A (zh) * 2020-08-03 2020-11-06 成都圭目机器人有限公司 一种基于2d视觉图像的三维重建方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108036785A (zh) * 2017-11-24 2018-05-15 浙江大学 一种基于直接法与惯导融合的飞行器位姿估计方法
CN109461180B (zh) * 2018-09-25 2022-08-30 北京理工大学 一种基于深度学习的三维场景重建方法
CN109961506B (zh) * 2019-03-13 2023-05-02 东南大学 一种融合改进Census图的局部场景三维重建方法
CN111693047B (zh) * 2020-05-08 2022-07-05 中国航空工业集团公司西安航空计算技术研究所 一种高动态场景下的微小型无人机视觉导航方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108537848A (zh) * 2018-04-19 2018-09-14 北京工业大学 一种面向室内场景重建的两级位姿优化估计方法
CN110866496A (zh) * 2019-11-14 2020-03-06 合肥工业大学 基于深度图像的机器人定位与建图方法和装置
CN111540000A (zh) * 2020-04-28 2020-08-14 深圳市商汤科技有限公司 场景深度和相机运动预测方法及装置、电子设备和介质
CN111882613A (zh) * 2020-07-24 2020-11-03 中国科学院上海微***与信息技术研究所 基于边缘语义的视觉里程计方法、装置、存储介质及设备
CN111899345A (zh) * 2020-08-03 2020-11-06 成都圭目机器人有限公司 一种基于2d视觉图像的三维重建方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Edge-aware Depth Completion for Point-cloud 3D Scene Visualization on an RGB-D Camera;Yung-Lin Huang et al;《IEEE》;20141231;第422-425页 *
SLAM激光点云整体精配准位姿图技术;闫利等;《测绘学报》;20190331;第48卷(第3期);第313-321页 *
融合光度和深度的视觉里程计改进算法;黄宴委等;《福州大学学报( 自然科学版)》;20191231;第47卷(第6期);第746-752页 *

Also Published As

Publication number Publication date
CN112767481A (zh) 2021-05-07

Similar Documents

Publication Publication Date Title
CN110223348B (zh) 基于rgb-d相机的机器人场景自适应位姿估计方法
CN109166149B (zh) 一种融合双目相机与imu的定位与三维线框结构重建方法与***
CN108986037B (zh) 基于半直接法的单目视觉里程计定位方法及定位***
CN111076733B (zh) 一种基于视觉与激光slam的机器人室内建图方法及***
CN108537848B (zh) 一种面向室内场景重建的两级位姿优化估计方法
US9613420B2 (en) Method for locating a camera and for 3D reconstruction in a partially known environment
CN104484648B (zh) 基于轮廓识别的机器人可变视角障碍物检测方法
CN110146099B (zh) 一种基于深度学习的同步定位与地图构建方法
CN110807809B (zh) 基于点线特征和深度滤波器的轻量级单目视觉定位方法
CN108010081B (zh) 一种基于Census变换和局部图优化的RGB-D视觉里程计方法
CN107843251B (zh) 移动机器人的位姿估计方法
CN114399554B (zh) 一种多相机***的标定方法及***
CN113108771B (zh) 一种基于闭环直接稀疏视觉里程计的移动位姿估计方法
CN111524194B (zh) 一种激光雷达和双目视觉相互融合的定位方法及终端
CN111311679A (zh) 一种基于深度相机的自由漂浮目标位姿估计方法
CN108645398A (zh) 一种基于结构化环境的即时定位与地图构建方法及***
CN108680177B (zh) 基于啮齿类动物模型的同步定位与地图构建方法及装置
CN116222543B (zh) 用于机器人环境感知的多传感器融合地图构建方法及***
CN111998862A (zh) 一种基于bnn的稠密双目slam方法
CN111798373A (zh) 一种基于局部平面假设及六自由度位姿优化的快速无人机图像拼接方法
CN113658337A (zh) 一种基于车辙线的多模态里程计方法
CN113256698A (zh) 一种具有深度预测的单目3d重建方法
CN111275764B (zh) 基于线段阴影的深度相机视觉里程测量方法
CN110349249B (zh) 基于rgb-d数据的实时稠密重建方法及***
CN112767481B (zh) 一种基于视觉边缘特征的高精度定位及建图方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant