CN112396167B - 一种外观相似度与空间位置信息融合的回环检测方法 - Google Patents
一种外观相似度与空间位置信息融合的回环检测方法 Download PDFInfo
- Publication number
- CN112396167B CN112396167B CN202011603737.4A CN202011603737A CN112396167B CN 112396167 B CN112396167 B CN 112396167B CN 202011603737 A CN202011603737 A CN 202011603737A CN 112396167 B CN112396167 B CN 112396167B
- Authority
- CN
- China
- Prior art keywords
- image
- similarity
- scene
- robot
- convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 29
- 238000000034 method Methods 0.000 claims abstract description 29
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 12
- 239000013598 vector Substances 0.000 claims description 54
- 238000011176 pooling Methods 0.000 claims description 18
- 239000011159 matrix material Substances 0.000 claims description 15
- 238000012360 testing method Methods 0.000 claims description 14
- 238000007906 compression Methods 0.000 claims description 9
- 238000003780 insertion Methods 0.000 claims description 9
- 230000037431 insertion Effects 0.000 claims description 9
- 230000006835 compression Effects 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 5
- 238000012163 sequencing technique Methods 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 claims description 3
- 101100110035 Escherichia coli (strain K12) aslA gene Proteins 0.000 claims 1
- 238000004364 calculation method Methods 0.000 abstract description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
- G01C11/08—Interpretation of pictures by comparison of two or more pictures of the same area the pictures not being supported in the same relative position as when they were taken
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/002—Image coding using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种外观相似度与空间位置信息融合的回环检测方法,包括步骤:将装有视觉传感器和定位***的机器人置于场景中自由探索,同时采集图像与相应的空间坐标信息。通过以卷积神经网络为核心的孪生网络框架训练相似度计算模型。采用训练完成的模型将新采集的场景图像与已有图像进行相似度判别,相似度大于一定阈值时,则认为机器人曾经经过该场景。在判别为机器人经过该场景的情况下,计算两张场景图像对应空间坐标的水平距离差,若距离差小于一定阈值,则判定机器人经过的路径产生闭合环路。本方法从外观相似度与里程计两个方面同时进行约束,从而达到检测机器人移动路径中闭合环路的目的。
Description
技术领域
本发明涉及一种机器人即时定位与地图构建工程中的回环检测方法,具体是一种外观相似度与空间位置信息融合的回环检测方法。
背景技术
机器人的即时定位与地图构建(SLAM)依赖机器人对自身空间位置的准确判断以及对行走路径的累积记录。在现实情况下,随着路径不断延伸,机器人在建图过程中会产生一些累积误差。
回环检测是一种有效的误差消除方法,它能够通过检测机器人行走路径中的闭合环路,主动削减位姿估计过程中的递推次数,从而达到减小累积误差的目的。然而现有的一些回环检测方法仍存在一些缺陷,如:
基于相似度计算的回环检测方法稳定性不够高,在光线变化的环境下效果较差;
基于词袋模型的回环检测方法太依赖既定的词典,对于特殊场景难有较好的适应性;
基于空间坐标的回环检测方法虽然准确度较高,但是难以用于地图构建和有效路径的判断。
近年来,随着多传感器融合探测的发展,在一定程度上弥补了单一传感器对回环检测方案带来的局限性;而深度学习技术的迅速进步也为回环检测带来了更多创新的可能。
发明内容
针对上述现有技术中指出的缺陷,本发明提出了一种针对性使用视觉传感器与空间定位装置作为主要传感器的回环检测方法,以适用于视觉传感器与空间定位装置融合使用的机器人即时定位与地图构建***。
实现本发明目的的技术方案是:
一种外观相似度与空间位置信息融合的回环检测方法,包括如下步骤:
(1)将安装有视觉传感器和定位装置的机器人置于场景中自由移动,同时采集场景图像和相应的空间坐标信息;
(2)将采集得到的图像通过卷积自编码器(CAE)编码压缩后,经由机器人传送至后端计算机,然后针对目标样本图像,后端计算机通过最邻近结点算法(KNN)对压缩图像的特征矩阵进行相似度排序;
(3)将排序得到的与目标样本图像相似度最高的5张图像进行自编码器解码还原,然后将还原后的图像与目标样本图像分别组成5组样本,通过以卷积神经网络为核心的孪生网络模型再次计算相似度;
(4)若相似度大于或等于一定阈值时,则认为机器人曾移动经过目标图像对应场景;若相似度小于该阈值时,则判定机器人没有移动经过目标图像对应场景;
(5)在判定机器人移动经过目标场景的情况下,计算两张场景图像对应空间坐标的水平距离差,若该距离差小于一定阈值时,则判定机器人移动路径产生闭合环路,从而完成回环检测。
步骤(2)所述对图像进行自编码器编码压缩的方法,是:
设输入的RGB图像宽为w,高为h,将其转化为的矩阵,然后输入卷积自编
码器(CAE)的输入层;卷积自编码器的编码压缩部分为连续的三组卷积与池化网络结构,每
一组内先执行卷积,再执行池化,卷积层选择三通道的二维卷积,池化层选择最大池化
(Maxpooling),保留图像的更多纹理信息;卷积与池化过程如公式(1)、(2)所示:
其中,卷积核的大小是,X k 表示第k个输入通道的二维特征图,Y l 表示第l个输
出通道的二维特征图,H kl 表示第k行、第l列二维卷积核,a l 表示最大池化层的输出;编码压
缩完成后得到的个元素的一维向量则是输入图像的特征向量。
步骤(2)所述对压缩图像的特征矩阵进行相似度排序的方法,是:
对输入的所有场景图像特征向量,根据与目标图像特征向量的相似程度,由相似度从高到低进行排序;利用KNN测量自编码器压缩完成的一维特征向量之间元素的欧氏距离,采用欧氏距离来代表两个特征向量间的相似程度;一维特征向量如公式(3)所示,KNN距离测量算法如公式(4)所示:
其中d代表特征向量间的欧氏距离,X、Y表示两个特征向量,x n 、y n 表示特征向量中的元素;然后,对所有计算出的d值由小到大进行排序,再根据设定的阈值k,将排序得出d值最小的k个特征向量作为与目标图像相似程度最高的场景图像向量输出。
步骤(3)所述对图像进行自编码器解码还原的方法,是:
将图像的特征向量输入卷积自编码器进行解码还原,卷积自编码器的解码还原部
分设计为连续的三组反卷积,每一组反卷积内先执行卷积,再执行上采样,以达到反卷积的
目的;其中的卷积层与步骤(2)中的卷积层方法相同,但是在输入格式上对称;为了扩大被
压缩的特征向量,使其还原为原本大小的矩阵;采用双线性插值的方法,如公式
(5)所示:
其中(x, y)表示***点P的坐标,f(x, y)表示点P***的值,(x 1 ,y 1 )、(x 1 , y 2 )、(x 2 , y 1 )和(x 2 , y 2 )分别是***点P的邻近点,Q 11 、Q 21 、Q 12 、Q 22 分别是这四个点对应的值。
解码还原完成后得到的矩阵可将其转化为可显示的、与原图内容和大小相同的RGB图像。
步骤(3)所述以卷积神经网络为核心的孪生网络模型计算相似度的计算方法,包括如下步骤:
a.将相同结构的两个卷积神经网络(CNN)共享权重,分别输入目标样本图像矩阵和测试样本图像矩阵;经过卷积网络提取特征,其中,损失函数采用对比损失(ContrastiveLoss)进行约束,如公式(6)所示:
其中,代表两个样本特征的欧氏距离,y为两个样本是否匹配的标
签,y=1代表两个样本相似或者匹配,y=0则代表不匹配,margin为设定的阈值;两个结构与
权重都相同卷积神经网络各自的输出分别为目标样本特征向量A和测试样本特征向量B;
b.计算目标样本特征向量A和测试样本特征向量B之间的欧氏距离ED1,当ED1的值小于设定阈值ed1时,则判定目标样本图像与测试样本图像相似,否则判定为不相似;判定为相似的两张图像对应的场景被认为机器人曾经移动经过。
步骤(5)所述判定机器人移动路径产生闭合环路的判定方法,包括如下步骤:
a.当步骤(4)判定两张场景图像相似、即机器人移动经过某一场景时,获取这两张图像拍摄时对应的空间坐标,并计算这两个坐标点的水平欧氏距离ED2;
b.当两个坐标点水平距离ED2小于设定阈值ed2时,则判定机器人的移动路径产生闭合环路。
本发明的有益效果是:
1. 针对性的使用视觉传感器与空间定位装置作为主要传感器的回环检测方法,弥补两种传感器单独使用时的局限性,减少机器人记录路径的误差,增强地图构建的精确度和鲁棒性;
2. 利用卷积神经网络提取图像特征的优势和空间定位装置的高精度设计算法,从外观相似度与空间位置两个方面同时进行约束,从而达到检测机器人移动路径中闭合环路的目的,提升了采用单一传感器回环检测方法的精确度与鲁棒性。
3. 该方法可以广泛用于安装普通视觉传感器(如单目相机)和空间定位装置(如UWB)的机器人SLAM***。
附图说明
图1为本发明实施例回环检测方法的方法流程图;
图2为本发明实施例孪生网络框架计算相似度的流程图。
具体实施方式
下面结合附图和实施例对本发明作进一步的阐述。
实施例:
如图1所示,一种外观相似度与空间位置信息融合的回环检测方法,首先,将装备视觉传感器和空间定位装置的机器人置于场景中漫游,尽可能地采集RGB图像信息和图相对应的空间位置坐标。具体方法步骤如下:
1)图像编码压缩
设输入的RGB图像宽为w,高为h,将其转化为的矩阵,然后输入卷积自编
码器(CAE)的输入层。卷积自编码器的编码压缩部分为连续的三组卷积与池化网络结构,每
一组内先执行卷积,再执行池化,卷积层选择三通道的二维卷积,池化层选择最大池化
(Maxpooling),保留图像的更多纹理信息。卷积与池化的具体过程如公式(1)、(2)所示。
其中,卷积核的大小是,X k 表示第k个输入通道的二维特征图,Y l 表示第l个输
出通道的二维特征图,H kl 表示第k行、第l列二维卷积核,a l 表示最大池化层的输出。编码压
缩完成后得到的个元素的一维向量则是输入图像的特征向量。该向量能够传输至后
端计算机。
2)最邻近结点算法相似度排序
对输入的所有场景图像特征向量,根据与目标图像特征向量的相似程度,由相似度从高到低进行排序。排序算法采用的核心算法是最邻近结点算法(KNN),该算法能根据测量不同特征值之间的距离进行分类。本步骤中利用KNN测量自编码器压缩完成的一维特征向量之间元素的欧氏距离,采用欧氏距离来代表两个特征向量间的相似程度。一维特征向量如公式(4)所示,KNN距离测量算法如公式(5)所示:
其中d代表特征向量间的欧氏距离,X、Y表示两个特征向量,x n 、y n 表示特征向量中的元素。然后,对所有计算出的d值由小到大进行排序,再根据设定的阈值k,将排序得出d值最小的k个特征向量作为与目标图像相似程度最高的场景图像向量输出。
3)图像解码还原
将d值最小的k个图像特征向量输入卷积自编码器进行解码还原。卷积自编码器的
解码还原部分设计为连续的三组反卷积,每一组反卷积内先执行卷积,再执行上采样,以达
到反卷积的目的。其中的卷积层与1)中的卷积层方法相同,但是在输入格式上对称。上采样
步骤的目的是为了扩大被压缩的特征向量,使其还原为原本大小的矩阵。实际操
作中可采用双线性插值的方法,如公式(3)所示:
其中(x, y)表示***点P的坐标,f(x, y)表示点P***的值,(x 1 ,y 1 )、(x 1 , y 2 )、(x 2 , y 1 )和(x 2 , y 2 )分别是***点P的邻近点,Q 11 、Q 21 、Q 12 、Q 22 分别是这四个点对应的值。
解码还原完成后得到的矩阵可将其转化为可显示的、与原图内容和大小相同的RGB图像。
4)基于孪生网络框架的相似度计算方法(如图2所示)
a.将3)中还原的k个图像样本与目标图像组成k组样本对,每一对样本对中的两个样本分别以矩阵的形式分别输入结构相同、权重共享的两个卷积神经网络(CNN),经过卷积网络提取特征。其中,网络模型的损失函数采用对比损失(Contrastive Loss)进行约束,具体如公式(6)所示L:
最终两个结构与权重都相同卷积神经网络各自的输出分别为目标样本特征向量A和测试样本特征向量B。
b.计算目标样本特征向量A和测试样本特征向量B之间的欧氏距离ED1,当ED1的值小于设定阈值ed1时,则判定目标样本图像与测试样本图像相似,否则判定为不相似。判定为相似的两张图像对应的场景被认为机器人曾经移动经过。
5)结合空间坐标判断闭合环路
a.当4)中判定两张场景图像相似、即机器人移动经过某一场景时,获取这两张图像拍摄时对应的空间坐标,并计算这两个坐标点的水平欧氏距离ED2。
b.当两个坐标点水平距离ED2小于设定阈值ed2时,则判定机器人的移动路径产生闭合环路。
以上所提出的方法适用于同时安装视觉传感器与空间定位装置的机器人***,该方法能够以较高的效率与准确性完成机器人SLAM工程的回环检测工作。使用该方法时,需要将视觉传感器安装在机器人平台的适宜位置(距离地面垂直距离0.5m-1m),需要对空间定位装置提前进行校准。
Claims (6)
1.一种外观相似度与空间位置信息融合的回环检测方法,其特征是:包括如下步骤:
(1)将安装有视觉传感器和定位装置的机器人置于场景中自由移动,同时采集场景图像和相应的空间坐标信息;
(2)将采集得到的图像通过卷积自编码器(CAE)编码压缩后,经由机器人传送至后端计算机,然后针对目标样本图像,后端计算机通过最邻近结点算法(KNN)对压缩图像的特征矩阵进行相似度排序;
(3)将排序得到的与目标样本图像相似度最高的5张图像进行自编码器解码还原,然后将还原后的图像与目标样本图像分别组成5组样本,通过以卷积神经网络为核心的孪生网络模型再次计算相似度;
(4)若相似度大于或等于一定阈值时,则认为机器人曾移动经过目标图像对应场景;若相似度小于该阈值时,则判定机器人没有移动经过目标图像对应场景;
(5)在判定机器人移动经过目标场景的情况下,计算两张场景图像对应空间坐标的水平距离差,若该距离差小于一定阈值时,则判定机器人移动路径产生闭合环路,从而完成回环检测。
2.根据权利要求1所述的回环检测方法,其特征是:步骤(2)所述对图像进行自编码器编码压缩的方法,是:
设输入的RGB图像宽为w,高为h,将其转化为的矩阵,然后输入卷积自编码器(CAE)的输入层;卷积自编码器的编码压缩部分为连续的三组卷积与池化网络结构,每一组内先执行卷积,再执行池化,卷积层选择三通道的二维卷积,池化层选择最大池化(Maxpooling),保留图像的更多纹理信息;卷积与池化过程如公式(1)、(2)所示:
3.根据权利要求1所述的回环检测方法,其特征是:步骤(2)所述对压缩图像的特征矩阵进行相似度排序的方法,是:
对输入的所有场景图像特征向量,根据与目标图像特征向量的相似程度,由相似度从高到低进行排序;利用KNN测量自编码器压缩完成的一维特征向量之间元素的欧氏距离,采用欧氏距离来代表两个特征向量间的相似程度;一维特征向量如公式(3)所示,KNN距离测量算法如公式(4)所示:
其中d代表特征向量间的欧氏距离,X、Y表示两个特征向量,x n 、y n 表示特征向量中的元素;然后,对所有计算出的d值由小到大进行排序,再根据设定的阈值k,将排序得出d值最小的k个特征向量作为与目标图像相似程度最高的场景图像向量输出。
4.根据权利要求1所述的回环检测方法,其特征是:步骤(3)所述对图像进行自编码器解码还原的方法,是:
将图像的特征向量输入卷积自编码器进行解码还原,卷积自编码器的解码还原部分设计为连续的三组反卷积,每一组反卷积内先执行卷积,再执行上采样,以达到反卷积的目的;其中的卷积层与步骤(2)中的卷积层方法相同,但是在输入格式上对称;为了扩大被压缩的特征向量,使其还原为原本大小的矩阵;采用双线性插值的方法,如公式(5)所示:
其中(x, y)表示***点P的坐标,f(x, y)表示点P***的值,(x 1 ,y 1 )、(x 1 , y 2 )、(x 2 ,y 1 )和(x 2 , y 2 )分别是***点P的邻近点,Q 11 、Q 21 、Q 12 、Q 22 分别是这四个点对应的值;
解码还原完成后得到的矩阵可将其转化为可显示的、与原图内容和大小相同的RGB图像。
5.根据权利要求1所述的回环检测方法,其特征是:步骤(3)所述以卷积神经网络为核心的孪生网络模型计算相似度的计算方法,包括如下步骤:
a.将相同结构的两个卷积神经网络(CNN)共享权重,分别输入目标样本图像矩阵和测试样本图像矩阵;经过卷积网络提取特征,其中,损失函数采用对比损失(ContrastiveLoss)进行约束,如公式(6)所示:
其中,代表两个样本特征的欧氏距离,y为两个样本是否匹配的标签,y=1代表两个样本相似或者匹配,y=0则代表不匹配,margin为设定的阈值;两个结构与权重都相同卷积神经网络各自的输出分别为目标样本特征向量A和测试样本特征向量B;
b.计算目标样本特征向量A和测试样本特征向量B之间的欧氏距离ED1,当ED1的值小于设定阈值ed1时,则判定目标样本图像与测试样本图像相似,否则判定为不相似;判定为相似的两张图像对应的场景被认为机器人曾经移动经过。
6.根据权利要求1所述的回环检测方法,其特征是:步骤(5)所述判定机器人移动路径产生闭合环路的判定方法,包括如下步骤:
a.当步骤(4)判定两张场景图像相似、即机器人移动经过某一场景时,获取这两张图像拍摄时对应的空间坐标,并计算这两个坐标点的水平欧氏距离ED2;
b.当两个坐标点水平距离ED2小于设定阈值ed2时,则判定机器人的移动路径产生闭合环路。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011603737.4A CN112396167B (zh) | 2020-12-30 | 2020-12-30 | 一种外观相似度与空间位置信息融合的回环检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011603737.4A CN112396167B (zh) | 2020-12-30 | 2020-12-30 | 一种外观相似度与空间位置信息融合的回环检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112396167A CN112396167A (zh) | 2021-02-23 |
CN112396167B true CN112396167B (zh) | 2022-07-15 |
Family
ID=74625537
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011603737.4A Active CN112396167B (zh) | 2020-12-30 | 2020-12-30 | 一种外观相似度与空间位置信息融合的回环检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112396167B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113850864B (zh) * | 2021-09-14 | 2024-04-12 | 中南大学 | 一种面向室外移动机器人的gnss/lidar回环检测方法 |
CN115631319B (zh) * | 2022-11-02 | 2023-06-23 | 北京科技大学 | 一种基于交叉注意力网络的回环检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104851094A (zh) * | 2015-05-14 | 2015-08-19 | 西安电子科技大学 | 一种基于rgb-d的slam算法的改进方法 |
CN111325794A (zh) * | 2020-02-23 | 2020-06-23 | 哈尔滨工业大学 | 一种基于深度卷积自编码器的视觉同时定位与地图构建方法 |
CN111753789A (zh) * | 2020-07-01 | 2020-10-09 | 重庆邮电大学 | 基于堆栈式组合自编码器的机器人视觉slam闭环检测方法 |
CN111832484A (zh) * | 2020-07-14 | 2020-10-27 | 星际(重庆)智能装备技术研究院有限公司 | 一种基于卷积感知哈希算法的回环检测方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10867061B2 (en) * | 2018-09-28 | 2020-12-15 | Todd R. Collart | System for authorizing rendering of objects in three-dimensional spaces |
CN109800692B (zh) * | 2019-01-07 | 2022-12-27 | 重庆邮电大学 | 一种基于预训练卷积神经网络的视觉slam回环检测方法 |
CN110555881A (zh) * | 2019-08-29 | 2019-12-10 | 桂林电子科技大学 | 一种基于卷积神经网络的视觉slam测试方法 |
-
2020
- 2020-12-30 CN CN202011603737.4A patent/CN112396167B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104851094A (zh) * | 2015-05-14 | 2015-08-19 | 西安电子科技大学 | 一种基于rgb-d的slam算法的改进方法 |
CN111325794A (zh) * | 2020-02-23 | 2020-06-23 | 哈尔滨工业大学 | 一种基于深度卷积自编码器的视觉同时定位与地图构建方法 |
CN111753789A (zh) * | 2020-07-01 | 2020-10-09 | 重庆邮电大学 | 基于堆栈式组合自编码器的机器人视觉slam闭环检测方法 |
CN111832484A (zh) * | 2020-07-14 | 2020-10-27 | 星际(重庆)智能装备技术研究院有限公司 | 一种基于卷积感知哈希算法的回环检测方法 |
Non-Patent Citations (3)
Title |
---|
An End-To-End Siamese Convolutional Neural Network for Loop Closure Detection in Visual Slam System;H. Liu 等;《2018 IEEE International Conference on Acoustics, Speech and Signal》;20180913;3121-3125 * |
基于孪生网络的视觉SLAM闭环检测研究和实现;邱凯;《中国优秀博硕士学位论文全文数据库(硕士)》;20190515;I140-447 * |
基于深度学习的视觉SLAM闭环检测与优化;胡航;《中国优秀博硕士学位论文全文数据库(硕士)》;20171201;1-91 * |
Also Published As
Publication number | Publication date |
---|---|
CN112396167A (zh) | 2021-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110111366B (zh) | 一种基于多级损失量的端到端光流估计方法 | |
CN110009674B (zh) | 基于无监督深度学习的单目图像景深实时计算方法 | |
CN113469094A (zh) | 一种基于多模态遥感数据深度融合的地表覆盖分类方法 | |
CN108038420B (zh) | 一种基于深度视频的人体行为识别方法 | |
CN107424161B (zh) | 一种由粗至精的室内场景图像布局估计方法 | |
CN110246148B (zh) | 多模态的深度信息融合和注意力学习的显著性检测方法 | |
CN112396167B (zh) | 一种外观相似度与空间位置信息融合的回环检测方法 | |
CN110059728B (zh) | 基于注意力模型的rgb-d图像视觉显著性检测方法 | |
CN111667535B (zh) | 一种针对遮挡场景下的六自由度位姿估计方法 | |
CN114049335B (zh) | 一种基于时空注意力的遥感影像变化检测方法 | |
CN110705566B (zh) | 一种基于空间金字塔池的多模态融合显著性检测方法 | |
CN111832484A (zh) | 一种基于卷积感知哈希算法的回环检测方法 | |
CN113343822B (zh) | 一种基于3d卷积的光场显著性目标检测方法 | |
CN113592927B (zh) | 一种结构信息引导的跨域图像几何配准方法 | |
CN114565655A (zh) | 一种基于金字塔分割注意力的深度估计方法及装置 | |
CN114332639B (zh) | 一种非线性残差自注意力机制的卫星姿态视觉测量方法 | |
CN105957107A (zh) | 行人检测与跟踪方法及装置 | |
CN108335327B (zh) | 摄像机姿态估计方法和摄像机姿态估计装置 | |
CN112561807B (zh) | 一种基于卷积神经网络的端到端径向畸变校正方法 | |
CN111401113A (zh) | 一种基于人体姿态估计的行人重识别方法 | |
CN114299405A (zh) | 一种无人机图像实时目标检测方法 | |
CN114663880A (zh) | 基于多层级跨模态自注意力机制的三维目标检测方法 | |
CN116403152A (zh) | 一种基于空间上下文学习网络的人群密度估计方法 | |
CN113888629A (zh) | 一种基于rgbd相机的快速物体三维位姿估计方法 | |
CN117456330A (zh) | 一种基于MSFAF-Net的低照度目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |