CN114004808B - 基于微分流形的回环检测方法 - Google Patents

基于微分流形的回环检测方法 Download PDF

Info

Publication number
CN114004808B
CN114004808B CN202111277004.0A CN202111277004A CN114004808B CN 114004808 B CN114004808 B CN 114004808B CN 202111277004 A CN202111277004 A CN 202111277004A CN 114004808 B CN114004808 B CN 114004808B
Authority
CN
China
Prior art keywords
camera pose
robot
curve
pose
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111277004.0A
Other languages
English (en)
Other versions
CN114004808A (zh
Inventor
董天祯
薛彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Institute of Technology
Original Assignee
Shanghai Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Institute of Technology filed Critical Shanghai Institute of Technology
Priority to CN202111277004.0A priority Critical patent/CN114004808B/zh
Publication of CN114004808A publication Critical patent/CN114004808A/zh
Application granted granted Critical
Publication of CN114004808B publication Critical patent/CN114004808B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于微分流形的回环检测方法,包括如下步骤:通过输入的数据集获取关键帧图像所对应的相机位姿;获取相机位姿所对应的相机位姿节点,将所述相机位姿节点和邻域内位姿节点引入到Frenet框架;在Frenet框架下,建立所述相机位姿节点的流形切空间,在流形切空间中寻求最优的机器人朝向;根据所述邻域内位姿节点信息,依次计算由若干个所述相机位姿节点所构成曲线的曲率和挠率,利用所述相机位姿节点的曲线插值和拟合方法对机器人运动轨迹进行逼近,结合最优的机器人朝向求取机器人运动轨迹的平滑曲线。本发明能够有效保证机器人运动轨迹的光滑性,降低整个***的累积误差。

Description

基于微分流形的回环检测方法
技术领域
本发明涉及视觉实时定位与地图构建领域,具体地,涉及基于微分流形的回环检测方法。
背景技术
视觉实时定位与地图构建(Simultaneous Localization and Mapping,SLAM)是实现自主移动机器人的关键技术,广泛应用于服务类机器人、自动驾驶等领域。回环检测是SLAM***的重要模块,机器人在长时间运行时由于邻近帧的误差会不断累积,会导致轨迹出现漂移从而无法构建全局一致的地图,增加这一模块可以有效降低***的累积误差。
现存的回环检测方法大都是采用基于外观的方法,主要是视觉词袋模型(Bag ofWords)及其改进方法,其基本思想是把图像局部特征点的描述子转换成单词,然后由这些单词组成字典,最后对整张图像的单词统计词袋向量,词袋向量间的距离即表示了图像之间的差异性。此方法虽有效的检测到回环的发生,但却没有从根本上降低***的累积误差。
由于机器人在实时运动时的轨迹是复杂多变的,机器人如果做的是直线或类直线运动,误差会较小,运动轨迹漂移量很小或者几乎不发生任何漂移;但由于真实场景中受到各种噪声影响,不可能一直保持直线或类直线运动,因此仅由图像匹配算法计算得到的关键帧位姿存在大量误差,由这些关键帧位姿组成的机器人运动轨迹与其真实运动严重不符,每个位姿处发生一定的误差,这些误差逐渐累积最终导致机器人的运动线路发生漂移,因此得到的机器人运动路线累计误差较大。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种基于微分流形的回环检测方法。
本发明提供一种基于微分流形的回环检测方法,包括相机和机器人,其中所述相机跟随机器人同步移动,包括相机和机器人,其中所述相机跟随机器人同步移动,包括如下步骤:
通过输入的数据集获取关键帧图像所对应的相机位姿;
获取相机位姿所对应的位姿节点,将位姿节点和邻域内位姿节点的引入到Frenet框架;
在Frenet框架下,建立位姿节点的流形切空间,在流形切空间中寻求最优的机器人朝向;
根据邻域内位姿节点信息,依次计算由若干个位姿节点所构成曲线的曲率和挠率,利用位姿节点的曲线插值和拟合方法对机器人运动轨迹进行逼近,结合最优的机器人朝向求取机器人运动轨迹的平滑曲线。
可选地,通过输入的数据集获取关键帧图像所对应的相机位姿进一步包括:
输入数据集,其中,数据集包括相机在采样样本空间得到的图像数据,并构建对应的图像特征描述符;
基于图像特征描述符并利用图像匹配算法获取关键帧图像所对应的相机位姿。
可选地,构建对应的图像特征描述符是利用四叉树算法获取图像的特征点来实现的。
可选地,建立的流形切空间的表达式为:
其中,γ是曲面M上一条过相机位姿节点的光滑曲线,即γ∈C(R1,M),γ(0)=p,TpM为M在p点的切平面,为M在p点的切向量。
可选地,曲线段的曲率表达式为:
由于当时Δt→0,Δθ→0,故/>
其中,T(t)和T(t+Δt)分别为相邻关键帧图像所对应的相机位姿节点的单位切向量,Δθ为相邻关键帧的相机位姿间的相机位姿的夹角,Δt表示相邻关键帧间相机位姿的时间增量。
可选地,由若干个位姿节点所组成曲线段的挠率的表达式为:
其中,Δt表示相邻关键帧间相机位姿的时间增量,表示关键帧的相机位姿P(s)及相邻关键帧节点的相机位姿P(s+Δs)间副法向量B(s)与B(s+Δs)的夹角。
可选地,所述根据所述邻域内位姿节点信息,依次计算由若干个所述相机位姿节点所构成曲线的曲率和挠率,利用所述相机位姿节点的曲线插值和拟合方法对机器人运动轨迹进行逼近,结合最优的机器人朝向求取机器人运动轨迹的平滑曲线进一步包括:
结合邻域内位姿节点信息,依次计算由若干个所述相机位姿节点构成曲线的曲率和挠率,根据设定的曲率和挠率的阈值范围将曲线分成若干段曲线段并确定优化的强度;
根据最优的机器人朝向选择邻域内位姿节点;
根据相机位姿节点并利用曲线插值和拟合方法对机器人运动轨迹进行逼近;
求取相邻曲线段连接处的所述相机位姿节点的一阶导数和二阶导数并进而求取机器人运动轨迹的平滑曲线。
与现有技术相比,本发明具有如下的有益效果:
本发明提供的基于微分流形的回环检测方法,依次计算相邻关键帧的位姿节点所组成曲线的曲率和挠率,结合关键帧的曲线插值和拟合算法实现对机器人运动轨迹的逼近,求取机器人运动轨迹的平滑曲线,从而降低了累积误差和***误差,提高了机器人实时位姿和轨迹的计算精度。本发明能够有效保证机器人运动轨迹的光滑性,降低整个***的累积误差。
本发明提供的基于微分流形的回环检测方法,基于流形切空间的机器人实时运动朝向,对关键帧节点的相机位姿引入对应流形中的切空间理论,把机器人的实时朝向问题等价于寻找最优角度的切向量问题,保证机器人朝向的准确性。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明实施例提供的基于微分流形的回环检测方法的流程图;
图2为本发明实施例提供的基于微分流形的回环检测方法的Frenet框架示意图;
图3为本发明实施例提供的基于微分流形的回环检测方法的曲率示意图;
图4为本发明实施例提供的基于微分流形的回环检测方法的挠率示意图;
图5为本发明实施例提供的基于微分流形的回环检测方法的流形切空间示意图;
图6为本发明实施例提供的实况轨迹曲线图;
图7为本发明实施例提供的关键帧轨迹曲线图;
图8为本发明的实施例得到的光滑曲线图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
在对本发明的技术方案进行解释说明之前,先对现有技术中存在的技术问题进行介绍。
视觉实时定位与地图构建(Simultaneous Localization and Mapping,SLAM)是实现自主移动机器人的关键技术,广泛应用于服务类机器人、自动驾驶等领域。回环检测是SLAM***的重要模块,机器人在长时间运行时由于邻近帧的误差会不断累积,会导致轨迹出现漂移从而无法构建全局一致的地图,增加这一模块可以有效降低***的累积误差。
现存的回环检测方法大都是采用基于外观的方法,主要是视觉词袋模型(Bag ofWords)及其改进方法,其基本思想是把图像局部特征点的描述子转换成单词,然后由这些单词组成字典,最后对整张图像的单词统计词袋向量,词袋向量间的距离即表示了图像之间的差异性。此方法虽有效的检测到回环的发生,但却没有从根本上降低***的累积误差。
由于机器人在实时运动时的轨迹是复杂多变的,机器人如果做的是直线或类直线运动,误差会较小,运动轨迹漂移量很小或者几乎不发生任何漂移;但由于真实场景中受到各种噪声影响,不可能一直保持直线或类直线运动,因此仅由图像匹配算法计算得到的关键帧位姿存在大量误差,由这些关键帧位姿组成的机器人运动轨迹与其真实运动严重不符,每个位姿处发生一定的误差,这些误差逐渐累积最终导致机器人的运动线路发生漂移,导致机器人最终的运动轨迹与真实轨迹有着很大的误差。
为了解决上述现有技术中存在的机器人运动轨迹的误差,现给出如下技术方案。
图1为本发明实施例提供的基于微分流形的回环检测方法的流程图,图2为本发明实施例提供的基于微分流形的回环检测方法的Frenet框架示意图;图3为本发明实施例提供的基于微分流形的回环检测方法的曲率示意图;图4为本发明实施例提供的基于微分流形的回环检测方法的挠率示意图;图5为本发明实施例提供的基于微分流形的回环检测方法的流形切空间示意图;图6为本发明实施例提供的实况轨迹曲线图;图7为本发明实施例提供的关键帧轨迹曲线图;图8为本发明的实施例得到的光滑曲线图;参见图1-5,本实施例中的方法包括相机和机器人,其中相机跟随机器人同步移动,具体包括如下步骤:
通过输入的数据集获取关键帧图像所对应的相机位姿;
在本实施例中,通过输入的数据集获取关键帧图像所对应的相机位姿进一步包括:
输入数据集,其中,数据集包括相机在采样样本空间得到的图像数据,并构建对应的图像特征描述符;
其中,上述描述中提到的图像特征描述符可以理解为一种描述了关键点周围像素信息的向量,可以通过计算局部区域的梯度方向直方图来构成特征
基于图像特征描述符并利用图像匹配算法获取关键帧图像所对应的相机位姿;
在本实施例中,本领域技术人员可以采用本领域中公知的匹配算法得到关键帧的相机位姿,然后再求取关键帧的相机位姿,关键帧的确定方法可以理解为:
采样样本空间内的若干帧的图像是按时间顺序依次排列的,预设若干帧中时间最早的第一帧图像为关键帧,然后计算与之相邻的第二帧图像的相机位姿与第一帧图像的相机位姿之间的向量间距离,当两者之间的向量间距离大于设定的值,则认为第二帧图像为关键帧,低于设定的值,则认为第二帧图像不是关键帧,然后,计算第二帧图像和与之相邻的第三帧图像的相机位姿的向量间距离,当两者之间的向量间距离高于设定的阈值,则认为第三帧图像为关键帧,低于设定的阈值,则认为第三帧图像不是关键帧,以此类推。
参见图2,获取相机位姿所对应的相机位姿节点,将相机位姿节点和邻域内位姿节点引入到Frenet框架;
在本实施例中,相机位姿节点可以理解为相机位姿所对应的三维坐标点,可以理解的是,相机位姿一般包括相机的位置信息和姿态信息,其中位置信息即用三维坐标点进行表示,邻域内位姿节点可以理解为相邻关键帧间的图像集,图像集中的图像均具有相机位姿,其相机位姿对应的坐标点即邻域内位姿节点,其中图像集中的图像均来自于数据集,在图2中,x所对应的直线为表示空间坐标系的横轴,y所对应的直线为空间坐标系的纵轴,z所对应的直线为空间坐标系的竖轴,T所代表的的线段表示切向量、N所代表的线段表示主法向量、B所代表的线段表示副法向量。
在Frenet框架下,建立相机位姿节点的流形切空间,在流形切空间中寻求最优的机器人朝向;
本实施例中,在流形切空间中寻求最优的机器人朝向可以理解为把机器人的实时朝向问题等价于寻求最优角度的切向量,其中最优角度的切向量,根据机器人关键帧的邻域内若干图像的相机位姿进行确定。
根据邻域内位姿节点信息,依次计算由若干个位姿节点所构成曲线的曲率和挠率,利用位姿节点的曲线插值和拟合方法对机器人运动轨迹进行逼近,结合最优的机器人朝向求取机器人运动轨迹的平滑曲线。
在本实施例中,求取机器人运动轨迹的平滑曲线进一步包括:
求取机器人运动轨迹的平滑曲线进一步包括:
结合关键帧邻域信息,依次计算由若干个节点所构成曲线的曲率和挠率,根据曲率和挠率的阈值确定优化的强度;
根据最优的机器人朝向选择邻域内的位姿节点;
利用关键帧节点的曲线插值和拟合方法实现对机器人运动轨迹的逼近;
求取相邻曲线段连接处的位姿节点的一阶导数和二阶导数,保证每段轨迹连接处的光滑性,进而求取机器人运动轨迹的平滑曲线,有效降低全局轨迹的累积误差。
在一种可选的实施方式中,建立的流形切空间的表达式为:
其中,γ是曲面M上一条过相机位姿节点的光滑曲线,即γ∈C(R1,M),γ(0)=p,TpM为M在p点的切平面,为M在p点的切向量。
在一种可选的实施方式中,曲线段的曲率表达式为:
由于当时Δt→0,Δθ→0,故/>
其中,T(t)和T(t+Δt)分别为相邻关键帧图像所对应的相机位姿节点的单位切向量,Δθ为相邻关键帧的相机位姿间的相机位姿的夹角,Δt表示相邻关键帧间相机位姿的时间增量。
在一种可选的实施方式中,曲线段的挠率的表达式为:
其中,Δt表示相邻关键帧间相机位姿的时间增量,表示关键帧的相机位姿P(s)及相邻关键帧节点的相机位姿P(s+Δs)间副法向量B(s)与B(s+Δs)的夹角。
在一种可选的实施方式中,构建对应的图像特征描述符是利用四叉树算法获取图像的特征点来实现的。
在本实施例中,在构建图像特征描述符时采用本领域中常规的四叉树算法获取图像的特征点。
在一种可选的实施方式中,所述根据所述邻域内位姿节点信息,依次计算由若干个所述相机位姿节点所构成曲线的曲率和挠率,利用所述相机位姿节点的曲线插值和拟合方法对机器人运动轨迹进行逼近,结合最优的机器人朝向求取机器人运动轨迹的平滑曲线进一步包括:
结合邻域内位姿节点信息,依次计算由若干个所述相机位姿节点构成曲线的曲率和挠率,根据设定的曲率和挠率的阈值范围将曲线分成若干段曲线段并确定优化的强度;
根据最优的机器人朝向选择邻域内位姿节点;
根据相机位姿节点并利用曲线插值和拟合方法对机器人运动轨迹进行逼近,其中,曲线插值***的点是根据最优的机器人朝向选择的邻域内位姿节点,而且拟合方法是本领域中常规的拟合方法;
求取相邻曲线段连接处的所述相机位姿节点的一阶导数和二阶导数并进而求取机器人运动轨迹的平滑曲线。
在本实施例具体的实施过程中,求取机器人运动轨迹的平滑曲线的具体步骤为:首先按照所求的曲率和挠率值研究机器人轨迹运动特性如下:当曲率值大于0.5,挠率值大于0.8,这一轨迹段包含了二十个相机位姿节点,然后我们在对这二十个相机位姿节点按照曲率值和挠率值再进行划分,如曲率值介于0.3到0.5之间,挠率值介于0.5到0.8之间,包含了十个相机位姿节点,对这十个相机位姿节点选择3-8个节点进行拟合和插值,保留最符合机器人运动轨迹的形状,如由五个位姿节点拟合成的抛物线形状更符合机器人实际运行轨迹,即达到了确定的优化强度;然后,在每一小段曲线段连接处,求连接处的相机位姿节点的一阶导数和二阶导数(其中,连接处的相机位姿节点可以理解为两条曲线段的交点,而每条曲线段的两端的端点必定为相机位姿节点),令它们的二阶导数相等进而保证每段连接处节点的光滑性。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。

Claims (4)

1.一种基于微分流形的回环检测方法,其特征在于,包括如下步骤:
通过输入的数据集获取关键帧图像所对应的相机位姿;
获取相机位姿所对应的相机位姿节点,将所述相机位姿节点和邻域内位姿节点引入到Frenet框架;
在Frenet框架下,建立所述相机位姿节点的流形切空间,在流形切空间中寻求最优的机器人朝向,所述流形切空间的表达式为:其中,γ是曲面M上一条过相机位姿节点的光滑曲线,即γ∈C∞(R1,M),γ(0)=p,TpM为M在p点的切平面,为M在p点的切向量;
根据所述邻域内位姿节点信息,依次计算由若干个所述相机位姿节点所构成曲线的曲率和挠率,所述曲线段的曲率表达式为:
由于当时Δt→0,Δθ→0,故/>
其中,T(t)和T(t+Δt)分别为相邻所述关键帧图像所对应的相机位姿节点的单位切向量,Δθ为所述相邻关键帧的相机位姿间的相机位姿的夹角,Δt表示所述相邻关键帧间相机位姿的时间增量;
所述曲线段的挠率的表达式为:
其中,Δt表示相邻关键帧间相机位姿的时间增量,表示所述关键帧的相机位姿P(s)及相邻关键帧节点的相机位姿P(s+Δs)间副法向量B(s)与B(s+Δs)的夹角;
利用所述相机位姿节点的曲线插值和拟合方法对机器人运动轨迹进行逼近,结合最优的机器人朝向求取机器人运动轨迹的平滑曲线。
2.根据权利要求1所述的基于微分流形的回环检测方法,其特征在于,所述通过输入的数据集获取关键帧图像所对应的相机位姿进一步包括:
输入数据集,其中,数据集包括相机在采样样本空间得到的图像数据,并构建对应的图像特征描述符;
基于图像特征描述符并利用图像匹配算法获取关键帧图像所对应的相机位姿。
3.根据权利要求2所述的基于微分流形的回环检测方法,其特征在于,构建对应的所述图像特征描述符是利用四叉树算法获取图像的特征点来实现的。
4.根据权利要求1所述的基于微分流形的回环检测方法,其特征在于,所述根据所述邻域内位姿节点信息,依次计算由若干个所述相机位姿节点所构成曲线的曲率和挠率,利用所述相机位姿节点的曲线插值和拟合方法对机器人运动轨迹进行逼近,结合最优的机器人朝向求取机器人运动轨迹的平滑曲线进一步包括:
结合邻域内位姿节点信息,依次计算由若干个所述相机位姿节点构成曲线的曲率和挠率,根据设定的曲率和挠率的阈值范围将曲线分成若干段曲线段并确定优化的强度;
根据最优的机器人朝向选择邻域内位姿节点;
根据相机位姿节点并利用曲线插值和拟合方法对机器人运动轨迹进行逼近;
求取相邻曲线段连接处的所述相机位姿节点的一阶导数和二阶导数并进而求取机器人运动轨迹的平滑曲线。
CN202111277004.0A 2021-10-29 2021-10-29 基于微分流形的回环检测方法 Active CN114004808B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111277004.0A CN114004808B (zh) 2021-10-29 2021-10-29 基于微分流形的回环检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111277004.0A CN114004808B (zh) 2021-10-29 2021-10-29 基于微分流形的回环检测方法

Publications (2)

Publication Number Publication Date
CN114004808A CN114004808A (zh) 2022-02-01
CN114004808B true CN114004808B (zh) 2024-04-16

Family

ID=79925615

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111277004.0A Active CN114004808B (zh) 2021-10-29 2021-10-29 基于微分流形的回环检测方法

Country Status (1)

Country Link
CN (1) CN114004808B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005122064A1 (en) * 2004-06-03 2005-12-22 The United States Of America, As Represented By The Secretary Of The Navy A technique for estimating the pose of surface shapes using tripod operators
WO2019169540A1 (zh) * 2018-03-06 2019-09-12 斯坦德机器人(深圳)有限公司 紧耦合视觉slam的方法、终端及计算机可读存储介质
CN112381890A (zh) * 2020-11-27 2021-02-19 上海工程技术大学 一种基于点线特征的rgb-d视觉slam方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005122064A1 (en) * 2004-06-03 2005-12-22 The United States Of America, As Represented By The Secretary Of The Navy A technique for estimating the pose of surface shapes using tripod operators
WO2019169540A1 (zh) * 2018-03-06 2019-09-12 斯坦德机器人(深圳)有限公司 紧耦合视觉slam的方法、终端及计算机可读存储介质
CN112381890A (zh) * 2020-11-27 2021-02-19 上海工程技术大学 一种基于点线特征的rgb-d视觉slam方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于RGB-D图像的三维同步定位与建图研究;胡凌燕;曹禄;熊鹏文;辛勇;谢泽坤;;***仿真学报(11);全文 *
基于流形优化法的相机位姿估计;潘绍松;左洪福;;江苏大学学报(自然科学版)(03);全文 *

Also Published As

Publication number Publication date
CN114004808A (zh) 2022-02-01

Similar Documents

Publication Publication Date Title
CN112014857B (zh) 用于智能巡检的三维激光雷达定位导航方法及巡检机器人
CN108242079B (zh) 一种基于多特征视觉里程计和图优化模型的vslam方法
CN112132897A (zh) 一种基于深度学习之语义分割的视觉slam方法
CN100595792C (zh) 基于视频技术的车辆检测与跟踪方法
CN110782494A (zh) 一种基于点线融合的视觉slam方法
WO2019057179A1 (zh) 一种基于点线特征的视觉slam方法和装置
CN110610486B (zh) 单目图像深度估计方法及装置
CN103218827B (zh) 基于形状传递联合分割和图匹配校正的轮廓跟踪方法
CN104200523A (zh) 一种融合附加信息的大场景三维重建方法
CN111340881B (zh) 一种动态场景下基于语义分割的直接法视觉定位方法
CN110688905A (zh) 一种基于关键帧的三维物体检测与跟踪方法
CN112446882A (zh) 一种动态场景下基于深度学习的鲁棒视觉slam方法
Liu et al. Visual slam based on dynamic object removal
CN116592897B (zh) 基于位姿不确定性的改进orb-slam2定位方法
Fanani et al. Multimodal scale estimation for monocular visual odometry
CN111242985A (zh) 基于马尔科夫模型的视频多行人追踪方法
CN116758153A (zh) 用于机器人精准位姿获取的基于多因子图的后端优化方法
CN110176022B (zh) 一种基于视频检测的隧道全景监控***及方法
Li et al. Multi-sensor fusion for robust localization with moving object segmentation in complex dynamic 3D scenes
CN114004808B (zh) 基于微分流形的回环检测方法
CN115731287B (zh) 基于集合与拓扑空间的运动目标检索方法
CN116563341A (zh) 一种处理复杂环境下动态物体的视觉定位与建图方法
CN112348854A (zh) 一种基于深度学习视觉惯性里程检测方法
Zhang et al. Accurate real-time SLAM based on two-step registration and multimodal loop detection
CN117173607A (zh) 多层级融合多目标跟踪方法、***及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant