CN118038103B - 基于改进动态扩展模型自适应算法的视觉回环检测方法 - Google Patents

基于改进动态扩展模型自适应算法的视觉回环检测方法 Download PDF

Info

Publication number
CN118038103B
CN118038103B CN202410432780.0A CN202410432780A CN118038103B CN 118038103 B CN118038103 B CN 118038103B CN 202410432780 A CN202410432780 A CN 202410432780A CN 118038103 B CN118038103 B CN 118038103B
Authority
CN
China
Prior art keywords
image
matrix
clustering
feature
feature tag
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202410432780.0A
Other languages
English (en)
Other versions
CN118038103A (zh
Inventor
高静
谢非
张弘毅
张策
杨继全
李艺钧
王伟涵
王鲁睿
陆晅
刘益剑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Normal University
Original Assignee
Nanjing Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Normal University filed Critical Nanjing Normal University
Priority to CN202410432780.0A priority Critical patent/CN118038103B/zh
Publication of CN118038103A publication Critical patent/CN118038103A/zh
Application granted granted Critical
Publication of CN118038103B publication Critical patent/CN118038103B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于改进动态扩展模型自适应算法的视觉回环检测方法,获取环境图像并进行标签定义,获得图像的特征标签矩阵;获取聚类图像,通过原图像与聚类图像之间的相似性计算,得到特征标签矩阵的非相似性值;并与阈值比较后进行特征标签矩阵划分;对划分后的强数据标签集合和正常数据标签集合进行改进的原型聚类处理,将正常数据标签集合聚类到聚类图像中的聚类中心附近,将强数据标签集合嵌套到距聚类图像中的聚类中心更远处,形成新的聚类图像;对处理后的图像实现视觉回环检测。采用改进的动态扩展模型自适应算法可排除未知目标域的强数据的污染干扰,保持正常数据样本匹配的精准稳定性,提高回环检测的精准性。

Description

基于改进动态扩展模型自适应算法的视觉回环检测方法
技术领域
本发明涉及图像处理,具体是涉及基于改进动态扩展模型自适应算法的视觉回环检测方法。
背景技术
在图像处理和深度学习模型处理的过程中,环境场景的多样性变化或多或少会劣化图像处理和深度学习模型处理的两个方面:特征标签的提取和匹配。环境场景的多样性变化对特征标签提取的影响在于会产生很多未知目标域的数据污染干扰,而若简单的使用特征标签匹配处理,会无法有效地区别超出正常分布范围的样本数据,错误的剔除掉很多实际需要的场景信息,无法自动适应新环境场景,而这些情况传统的深度学习模型处理是没有办法解决的。
如图2所示,当前视觉回环检测方法大多数针对已知且未超出正常分布范围的样本数据的目标域进行特征标签的提取匹配和精准的回环检测,如图3所示,面对有强数据污染干扰时会剔除掉很多实际需要的场景信息,无法保持其回环检测精准性。
发明内容
发明目的:针对以上缺点,本发明提供一种回环检测精准性、环境适应性强的基于改进动态扩展模型自适应算法的视觉回环检测方法。
技术方案:为解决上述问题,本发明采用一种基于改进动态扩展模型自适应算法的视觉回环检测方法,包括以下步骤:
(1)获取环境图像,并进行标签定义,获得环境图像的标签集合,标签集合中包括特征标签矩阵;
(2)对第一张环境图像进行原型聚类,得到第一聚类图像,通过第一张环境图像与第一聚类图像之间的特征标签矩阵的相似性计算,得到第一张环境图像中每个特征标签矩阵的非相似性值;对第他张环境图像,通过与第t-1聚类图像之间的特征标签矩阵的相似性计算,得到第t张环境图像中每个特征标签矩阵的非相似性值;其中t>1;
(3)通过特征标签矩阵的非相似性值与阈值的比较,对特征标签举证进行划分,划分为强数据标签集合和正常数据标签集合;
(4)对环境图像进行改进的动态扩展模型自适应算法处理:对第一张环境图像的强数据标签集合和正常数据标签集合进行改进的原型聚类处理,将正常数据标签集合聚类到第一聚类图像中的聚类中心附近,将强数据标签集合嵌套到距聚类图像中的聚类中心更远处,形成第二聚类图像;对第t张环境图像的强数据标签集合和正常数据标签集合进行改进的原型聚类处理,将正常数据标签集合聚类到第t-1聚类图像中的聚类中心附近,将强数据标签集合嵌套到距聚类图像中的聚类中心更远处,形成第t聚类图像;
(5)对改进的动态扩展模型自适应算法处理后的环境图像,进行三维结算处理,获得关键帧,对关键帧进行视觉里程计的回环检测,实现基于动态扩展模型自适应算法的视觉回环检测。
进一步的,所述步骤(1)中进行标签定义包括:通过学习网络分类器进行标签定义,学习网络分类器公式为:
其中,为分类器的类别标签;/>为学习网络;/>为输入学习网络的环境图像;/>为学习网络的参数;/>为分类器的权重参数;/>为分类器的偏置参数。
进一步的,所述步骤(2)中非相似性值的计算公式为:
其中,为环境图像中的第/>特征标签矩阵与聚类图像中的聚类中心的特征标签之间相似性的最大值;/>为环境图像中的标签集合;/>为环境图像中的标签集合中的第/>特征标签矩阵;/>为聚类图像中的聚类中心的第/>特征标签矩阵;/>为环境图像中的第/>特征标签矩阵的非相似性值。非相似性值大于阈值的特征标签矩阵划分至强数据标签集合/>;非相似性值不大于阈值的特征标签矩阵划分至正常数据标签集合/>
进一步的,所述阈值采用自适应阈值,具体为:从0到1遍历阈值数,选择损失函数最小时的阈值;阈值选取公式为:
其中,为环境图像中所有特征标签矩阵的总数;/>为聚类图像中的第/>特征标签矩阵的非相似值,/>为环境图像中非相似性值大于阈值的特征标签矩阵的总数;/>为环境图像中非相似性值不大于阈值的特征标签矩阵的总数;/>为环境图像中非相似性值大于阈值的特征标签矩阵的非相似性值的和;/>为业环境的图像中非相似性值不大于阈值的特征标签矩阵的非相似性值的和。
进一步的,所述步骤(4)中改进的原型聚类处理的原型聚类损失函数如下:
其中,为阈值划分后图像中的数据标签集合中聚类中心的特征标签矩阵;/>为含有聚类中心的图像的聚类中心的类别;/>为特征标签矩阵/>与第聚类图像中的聚类中心的特征标签矩阵的距离函数,/>为阈值划分后图像中的正常数据标签集合中的第/>特征标签矩阵;/>为第/>特征标签矩阵与聚类图像中的聚类中心的距离函数;/>为阈值划分后图像中的强数据标签集合中的第/>特征标签矩阵;/>为第/>特征标签矩阵与聚类图像中的聚类中心的特征标签矩阵的距离函数;/>为常数;/>为指示函数。
进一步的,输入的特征标签矩阵与聚类图像中的聚类中心标签的距离函数计算公式为:
其中,为输入的特征标签矩阵中非相似性值的最小值;/>为输入的第/>特征标签矩阵。
进一步的,所述步骤(5)中,所述对改进的动态扩展模型自适应算法处理后的若干环境图像,进行三维结算处理,获得关键帧具体为:对改进的动态扩展模型自适应算法处理后的若干环境图像的相邻两张图像和/>进行特征点提取,得到两个特征点的二维坐标、/>,利用两个特征点的二维坐标,通过三维结算得到三维坐标,获得关键帧。
三维坐标计算公式为:
其中,为图像/>的投影矩阵/>的第一行元素;/>为图像/>投影矩阵/>的第三行元素;/>为图像/>的投影矩阵/>的第一行元素;/>为图像/>的投影矩阵/>的第三行元素;/>为三维坐标点的x轴坐标;/>为三维坐标点的y轴坐标;/>为三维坐标点的z轴坐标。
进一步的,所述步骤(5)中对关键帧进行视觉里程计的回环检测具体为:对关键帧通过欧几里得距离计算相似性及相似性评分,根据计算出的相似性评分,通过基于滑动窗口的方法判断当前帧和历史帧之间是否存在回环关系,如果存在回环关系,则进一步使用约束信息来修正累积误差,并更新视觉里程计,实现基于动态扩展模型自适应算法的视觉回环检测。
有益效果:本发明相对于现有技术,其显著优点是采用改进的动态扩展模型自适应算法可排除未知目标域的强数据的污染干扰,保持正常数据样本匹配的精准稳定性,提高回环检测的精准性。采用的非相似性函数的预处理可以有效地解决图像特征表现不明显,环境适应性强;在样本数据处理中,采用改进的自适应阈值强数据污染分离处理可针对异常样本的正常数据和强污染数据进行精准有效地区分,具备较强的鲁棒性。该方法具有抗强数据污染性、回环检测精准性、环境适应性强的优点,对于无人驾驶、机器人多源导航等领域的技术研究具有重要意义。
附图说明
图1是本发明视觉回环检测方法的流程示意图。
图2是现有技术中对正常样本数据的识别处理效果示意图。
图3是现有技术中面对强超出正常分布范围的样本数据的识别处理效果示意。
图4是本发明中的方法面对强超出正常分布范围的样本数据的识别处理效果示意图。
图5是本发明中视觉里程计结果示意图。
图6是采用现有技术的视觉回环检测后相对位姿误差示意图。
图7是采用本发明中的方法的视觉回环检测后相对位姿误差示意图。
具体实施方式
如图1所示,本实施例中一种基于改进动态扩展模型自适应算法的视觉回环检测方法,包括以下步骤:
步骤1:通过摄像头采集并保存若干作业环境的RGB原始图像,对采集的若干作业环境的RGB图像进行标签定义,获得含有标签定义的作业环境的RGB图像。标签定义及学习网络分类器公式如下:
其中:为含有作业环境的RGB原始图像中的标签集合;/>分别为标签集合的第1、2、3、S特征标签矩阵;/>为输入学习网络的作业环境的RGB图像;/>为分类器的类别标签;/>为学习网络的参数;/>为分类器的权重参数;/>为分类器的偏置参数。
对含有标签定义的作业环境的RGB图像,在特征空间中进行非相似性函数处理,获得含有非相似性值的作业环境的RGB图像。具体步骤为:遍历原型聚类后作业环境的RGB图像/>中聚类中心的所有特征标签;对于第一张含有标签定义的作业环境的RGB图像/>,原型聚类后作业环境的RGB图像/>为该图像的聚类图像;对于后续的含有标签定义的作业环境的RGB图像/>,原型聚类后作业环境的RGB图像/>为上一张作业环境图像进行改进的动态扩展模型自适应算法处理后得到的聚类图像;非相似性计算中的聚类图像是指相机采集的上一张已经经过动态扩展模型自适应算法中的原型聚类处理后的图像,该图像中含有聚类中心,相机当前采集的新的图像与上一张图像的聚类中心进行非相似性值处理。
将含有标签定义的作业环境的RGB图像中的每一个标签与原型聚类后作业环境的RGB图像/>中所有特征标签依次求取相似性值,得到含有标签定义的作业环境的RGB图像中每一个标签的最大相似性值,完全相似定义相似值为1,非相似性值定义为完全相似与求取的最大相似性值的差值,即含有标签定义的作业环境的RGB图像/>中的每一个标签都含有一个非相似性值,获得含有非相似性值的作业环境的RGB图像。非相似性函数处理的公式如下:
其中:为含有作业环境的RGB原始图像中的标签集合中的第/>特征标签矩阵 ;/>为原型聚类后作业环境的RGB图像/>中的聚类中心的特征标签集合的第/>特征标签矩阵;为含有标签定义的作业环境RGB图像中的标签集合中的第/>特征标签矩阵与/>中的聚类中心的特征标签求取相似性的最大值;/>为含有标签定义的作业环境RGB图像中的标签集合中的第/>特征标签矩阵的非相似性值。
步骤2:对含有非相似性值的作业环境的RGB图像,进行改进的自适应阈值强数据污染分离处理,获得改进的自适应阈值强数据污染分离处理后的作业环境的RGB图像。具体为:定义一个分离强数据污染的自适应阈值,从0到1遍历阈值数,损失函数最小时的阈值为分离强数据污染的自适应阈值,根据得到的自适应阈值将含有非相似性值的作业环境的RGB图像中的特征标签分为强数据标签集合和正常数据标签集合/>,获得改进的自适应阈值强数据污染分离处理后的作业环境的RGB图像。改进的自适应阈值求取公式如下:
根据自适应阈值分离的强数据标签集合/>和正常数据标签集合/>如下:
其中:为自适应阈值;/>为含有非相似性值的作业环境的RGB图像中超出阈值的数据样本的非相似性值;/>为含有非相似性值的作业环境的RGB图像中未超出阈值的数据样本的非相似性值;/>为指示函数;/>为含有聚类中心的RGB图像中的非相似值;/>为作业环境的RGB图像中所有的样本总数;/>为含有非相似性值的作业环境的RGB图像中超出阈值的数据样本总数;/>为含有非相似性值的作业环境的RGB图像中未超出阈值的数据样本总数;为含有非相似性值的作业环境的RGB图像中超出阈值部分的数据样本非相似性值的和;为含有非相似性值的作业环境的RGB图像中未超出阈值部分的数据样本非相似性值的和;/>为含有非相似性值的作业环境的RGB图像中的强数据标签集合;/>为含有非相似性值的作业环境的RGB图像中的正常数据标签集合;/>为含有非相似性值的作业环境的RGB图像中的强数据标签集合中的第1,2,3,…,Q特征标签矩阵;为含有非相似性值的作业环境的RGB图像中的正常数据标签集合中的第1,2,3,…,R特征标签矩阵。
步骤3:对改进的自适应阈值强数据污染分离处理后的作业环境的RGB图像,进行改进的动态扩展模型自适应算法处理,获得改进的动态扩展模型自适应算法处理后的作业环境的RGB图像。具体为:根据自适应阈值分离后得到的作业环境的RGB图像中强数据标签集合/>和正常数据标签集合/>进行改进的原型聚类处理,将正常数据样本聚类到/>中的聚类中心附近,将强数据样本嵌套到离/>中的聚类中心更远的地方形成一个新的聚类,实现动态扩展模型处理。改进的原型聚类损失如下:
其中:为输入的数据标签与/>中的聚类中心标签的距离函数;/>为输入的数据标签集合的第/>特征标签矩阵;/>为输入的数据标签中所含有的非相似性值的最小值;为原型聚类损失函数;/>为/>中的数据标签集合中聚类中心的特征标签矩阵;/>为含有聚类中心作业环境的RGB图像的聚类中心类别;/>为/>中的正常数据标签集合中的第/>特征标签矩阵;/>为输入的/>中的正常数据标签与/>中的聚类中心标签的距离函数;/>为/>中的强数据标签集合中的第/>特征标签矩阵;/>为输入的/>中的强数据标签与/>中的聚类中心标签的距离函数,/>为常数。
步骤4:对改进的动态扩展模型自适应算法处理后的作业环境的RGB图像,进行三维结算处理,获得关键帧,对关键帧进行视觉里程计的回环检测,视觉里程计结果如图5所示,实现基于动态扩展模型自适应算法的视觉回环检测,视觉回环检测处理后的效果如图4所示。具体步骤为:
步骤4.1:对改进的动态扩展模型自适应算法处理后的作业环境的若干RGB图像的相邻两张图像和/>进行特征点提取,得到坐标/>、/>,利用两个二维坐标点,通过三维结算得到三维坐标,获得关键帧。三维结算公式具体如下:
其中:为改进的动态扩展模型自适应算法处理后的作业环境的RGB图像的深度值;/>为提取特征点的/>轴坐标;/>为提取特征点的/>轴坐标;/>为相机的坐标系相对于世界坐标系的旋转矩阵;/>为相机坐标系相对于世界坐标系的平移矩阵;/>为三维坐标点的x轴坐标;/>为三维坐标点的y轴坐标;/>为三维坐标点的z轴坐标;/>为二维坐标矩阵的逆矩阵;/>为投影矩阵等于/>;/>为矩阵/>的反对称矩阵。
对上式展开后得到:
其中:为投影矩阵/>的第一行元素;/>为投影矩阵/>的第二行元素;/>为投影矩阵的第三行元素。
将RGB图像的相邻两张图像和/>提取的特征点坐标/>、/>带入:
其中:为图像/>的投影矩阵/>的第一行元素;/>为图像/>投影矩阵/>的第三行元素;/>为图像/>的投影矩阵/>的第一行元素;/>为图像/>的投影矩阵/>的第三行元素。
对方程进行求解,得到三维坐标
步骤4.2:对进行三维结算处理后获得的关键帧,通过欧几里得距离计算相似性及相似性评分。根据计算出的相似性评分,通过基于滑动窗口的方法判断当前帧和历史帧之间是否存在回环关系,如果存在回环关系,则进一步使用约束信息来修正累积误差,并更新视觉里程计,实现基于动态扩展模型自适应算法的视觉回环检测。如图6和图7的对比可见,将进行三维结算处理后获得的关键帧间的相似性和特征应用于检测回环关系,可以有效地提高视觉里程计的鲁棒性。

Claims (10)

1.一种基于改进动态扩展模型自适应算法的视觉回环检测方法,其特征在于,包括以下步骤:
(1)获取动态作业环境中若干连续环境图像,并进行标签定义,获得环境图像的标签集合,标签集合中包括特征标签矩阵;
(2)对第一张环境图像进行原型聚类,得到第一原型聚类图像,通过第一张环境图像与第一原型聚类图像之间的特征标签矩阵的相似性计算,得到第一张环境图像中每个特征标签矩阵的非相似性值;对第t张环境图像,通过与第t-1聚类图像之间的特征标签矩阵的相似性计算,得到第t张环境图像中每个特征标签矩阵的非相似性值;其中t>1;
(3)通过特征标签矩阵的非相似性值与阈值的比较,对特征标签矩阵进行划分,划分为强数据标签集合和正常数据标签集合;
(4)对环境图像进行改进的动态扩展模型自适应算法处理:对第一张环境图像的强数据标签集合和正常数据标签集合进行改进的原型聚类处理,将正常数据标签集合聚类到第一原型聚类图像中的聚类中心附近,将强数据标签集合嵌套到距第一原型聚类图像中的聚类中心更远处,形成第一聚类图像;对第t张环境图像的强数据标签集合和正常数据标签集合进行改进的原型聚类处理,将正常数据标签集合聚类到第t-1聚类图像中的聚类中心附近,将强数据标签集合嵌套到距第t-1聚类图像中的聚类中心更远处,形成第t聚类图像;
(5)对改进的动态扩展模型自适应算法处理后的若干环境图像,进行三维结算处理,获得关键帧,对关键帧进行视觉里程计的回环检测,实现对环境图像基于动态扩展模型自适应算法的视觉回环检测。
2.根据权利要求1所述的视觉回环检测方法,其特征在于,所述步骤(1)中进行标签定义包括:通过学习网络分类器进行标签定义,学习网络分类器公式为:
其中,为分类器的类别标签;/>为学习网络;/>为输入学习网络的环境图像;/>为学习网络的参数;/>为分类器的权重参数;/>为分类器的偏置参数。
3.根据权利要求1所述的视觉回环检测方法,其特征在于,所述步骤(2)中非相似性值的计算公式为:
其中,为环境图像中的第/>特征标签矩阵与聚类图像中的聚类中心的特征标签之间相似性的最大值;/>为环境图像中的标签集合;/>为环境图像中的标签集合中的第/>特征标签矩阵;/>为聚类图像中的聚类中心的第/>特征标签矩阵;/>为环境图像中的第/>特征标签矩阵的非相似性值。
4.根据权利要求3所述的视觉回环检测方法,其特征在于,非相似性值大于阈值的特征标签矩阵划分至强数据标签集合;非相似性值不大于阈值的特征标签矩阵划分至正常数据标签集合/>
5.根据权利要求4所述的视觉回环检测方法,其特征在于,所述阈值采用自适应阈值,具体为:从0到1遍历阈值数,选择损失函数最小时的阈值;阈值选取公式为:
其中,为环境图像中所有特征标签矩阵的总数;/>为聚类图像中的第/>特征标签矩阵的非相似值,/>为环境图像中非相似性值大于阈值的特征标签矩阵的总数;/>为环境图像中非相似性值不大于阈值的特征标签矩阵的总数;/>为环境图像中非相似性值大于阈值的特征标签矩阵的非相似性值的和;/>为环境图像中非相似性值不大于阈值的特征标签矩阵的非相似性值的和。
6.根据权利要求5所述的视觉回环检测方法,其特征在于,所述步骤(4)中改进的原型聚类处理的原型聚类损失函数如下:
其中,为阈值划分后图像中的数据标签集合中聚类中心的特征标签矩阵;/>为含有聚类中心的图像的聚类中心的类别;/>为特征标签矩阵/>与第聚类图像中的聚类中心的特征标签矩阵的距离函数,/>为阈值划分后图像中的正常数据标签集合中的第/>特征标签矩阵;/>为第/>特征标签矩阵与聚类图像中的聚类中心的距离函数;/>为阈值划分后图像中的强数据标签集合中的第/>特征标签矩阵;/>为第/>特征标签矩阵与聚类图像中的聚类中心的特征标签矩阵的距离函数;/>为常数;/>为指示函数。
7.根据权利要求6所述的视觉回环检测方法,其特征在于,输入的特征标签矩阵与聚类图像中的聚类中心的特征标签矩阵的距离函数计算公式为:
其中,为输入的特征标签矩阵中非相似性值的最小值;/>为输入的第/>特征标签矩阵。
8.根据权利要求7所述的视觉回环检测方法,其特征在于,所述步骤(5)中,所述对改进的动态扩展模型自适应算法处理后的若干环境图像,进行三维结算处理,获得关键帧具体为:对改进的动态扩展模型自适应算法处理后的若干环境图像的相邻两张图像和/>进行特征点提取,得到两个特征点的二维坐标/>、/>,利用两个特征点的二维坐标,通过三维结算得到三维坐标,获得关键帧。
9.根据权利要求8所述的视觉回环检测方法,其特征在于,三维坐标计算公式为:
其中,为图像/>的投影矩阵/>的第一行元素;/>为图像/>投影矩阵/>的第三行元素;为图像/>的投影矩阵/>的第一行元素;/>为图像/>的投影矩阵/>的第三行元素;/>为三维坐标点的x轴坐标;/>为三维坐标点的y轴坐标;/>为三维坐标点的z轴坐标。
10.根据权利要求9所述的视觉回环检测方法,其特征在于,所述步骤(5)中对关键帧进行视觉里程计的回环检测具体为:对关键帧通过欧几里得距离计算相似性及相似性评分,根据计算出的相似性评分,通过基于滑动窗口的方法判断当前帧和历史帧之间是否存在回环关系,如果存在回环关系,则进一步使用约束信息来修正累积误差,并更新视觉里程计,实现基于动态扩展模型自适应算法的视觉回环检测。
CN202410432780.0A 2024-04-11 2024-04-11 基于改进动态扩展模型自适应算法的视觉回环检测方法 Active CN118038103B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410432780.0A CN118038103B (zh) 2024-04-11 2024-04-11 基于改进动态扩展模型自适应算法的视觉回环检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410432780.0A CN118038103B (zh) 2024-04-11 2024-04-11 基于改进动态扩展模型自适应算法的视觉回环检测方法

Publications (2)

Publication Number Publication Date
CN118038103A CN118038103A (zh) 2024-05-14
CN118038103B true CN118038103B (zh) 2024-06-14

Family

ID=90989859

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410432780.0A Active CN118038103B (zh) 2024-04-11 2024-04-11 基于改进动态扩展模型自适应算法的视觉回环检测方法

Country Status (1)

Country Link
CN (1) CN118038103B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108986168A (zh) * 2018-06-13 2018-12-11 深圳市感动智能科技有限公司 一种基于深度度量学习结合词袋树模型的机器人回环检测方法和装置
CN109272021A (zh) * 2018-08-22 2019-01-25 广东工业大学 一种基于宽度学习的智能移动机器人导航方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109800692B (zh) * 2019-01-07 2022-12-27 重庆邮电大学 一种基于预训练卷积神经网络的视觉slam回环检测方法
CN110110694B (zh) * 2019-05-16 2023-01-24 东北大学 一种基于目标检测的视觉slam闭环检测方法
CN111447553B (zh) * 2020-03-26 2021-10-15 云南电网有限责任公司电力科学研究院 一种基于wifi的增强视觉slam方法及装置
CN112233221B (zh) * 2020-11-10 2023-04-21 北京邮电大学 基于即时定位与地图构建的三维地图重建***及方法
CN112991448B (zh) * 2021-03-22 2023-09-26 华南理工大学 一种基于颜色直方图的回环检测方法、装置及存储介质
CN113781563B (zh) * 2021-09-14 2023-10-24 中国民航大学 一种基于深度学习的移动机器人回环检测方法
CN115240115B (zh) * 2022-07-27 2023-04-07 河南工业大学 一种语义特征和词袋模型相结合的视觉slam回环检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108986168A (zh) * 2018-06-13 2018-12-11 深圳市感动智能科技有限公司 一种基于深度度量学习结合词袋树模型的机器人回环检测方法和装置
CN109272021A (zh) * 2018-08-22 2019-01-25 广东工业大学 一种基于宽度学习的智能移动机器人导航方法

Also Published As

Publication number Publication date
CN118038103A (zh) 2024-05-14

Similar Documents

Publication Publication Date Title
CN111680542B (zh) 基于多尺度特征提取和Pointnet神经网络的钢卷点云识别与分类方法
CN108288088B (zh) 一种基于端到端全卷积神经网络的场景文本检测方法
CN111241931B (zh) 一种基于YOLOv3的空中无人机目标识别和跟踪方法
CN111310662B (zh) 一种基于集成深度网络的火焰检测识别方法及***
CN110175649B (zh) 一种关于重新检测的快速多尺度估计目标跟踪方法
CN111950525B (zh) 一种基于破坏重建学习与GoogLeNet的细粒度图像分类方法
CN109740613B (zh) 一种基于Feature-Shift和预测的视觉伺服控制方法
CN111914832B (zh) 一种rgb-d相机在动态场景下的slam方法
CN112907667A (zh) 一种视觉激光融合的托盘位姿估计方法、***及装置
Fan et al. Visual localization using semantic segmentation and depth prediction
CN118038103B (zh) 基于改进动态扩展模型自适应算法的视觉回环检测方法
CN112581502A (zh) 一种基于孪生网络的目标跟踪方法
CN116188959A (zh) 基于元宇宙的电商购物场景智能识别及存储***
CN115100416A (zh) 一种不规则钢板位姿识别方法及相关设备
CN114913289A (zh) 一种生产车间三维动态不确定性语义slam方法
CN114067240A (zh) 一种融合行人特性的在线更新策略行人单目标跟踪方法
CN107491761B (zh) 一种基于深度学习特征和点到集合距离度量学习的目标跟踪方法
CN116071400B (zh) 一种基于激光雷达设备的目标轨迹跟踪方法
CN117611677B (zh) 一种基于目标检测和结构化特征的机器人定位方法
CN118072115B (zh) 一种医学细胞检测方法及***
CN112734777B (zh) 一种基于簇形状边界闭包聚类的图像分割方法及***
Xu et al. A Tube Arranging System With a Generic And Efficient Grasp Reasoning Method
CN118295309A (zh) 一种在线捞渣机器人的视觉伺服控制***
Zhang LSGDDN-LCD: An Appearance-based Loop Closure Detection using Local Superpixel Grid Descriptors and Incremental Dynamic Nodes
CN116977825A (zh) 基于深度学习的视觉slam动态特征点去除方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant