CN112052862A - 基于k-svd字典学习的移动机器人视觉slam回环检测方法 - Google Patents

基于k-svd字典学习的移动机器人视觉slam回环检测方法 Download PDF

Info

Publication number
CN112052862A
CN112052862A CN202010955241.7A CN202010955241A CN112052862A CN 112052862 A CN112052862 A CN 112052862A CN 202010955241 A CN202010955241 A CN 202010955241A CN 112052862 A CN112052862 A CN 112052862A
Authority
CN
China
Prior art keywords
svd
dictionary
loop detection
atoms
mobile robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010955241.7A
Other languages
English (en)
Inventor
李帅永
杨雪梅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN202010955241.7A priority Critical patent/CN112052862A/zh
Publication of CN112052862A publication Critical patent/CN112052862A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2136Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on sparsity criteria, e.g. with an overcomplete basis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/513Sparse representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于K‑SVD字典学习的移动机器人视觉SLAM回环检测方法,属于机器人技术领域。该方法具体包括:S1:对数据集进行采用K‑SVD自学习算法获得K‑SVD字典;S2:对于再次检测到的图像,基于K‑SVD字典,通过匹配追踪算法求得测量信号的稀疏表示;S3:利用基于复杂度的图像表示方法进行计算,进而与设定阈值进行比较,来检测回环。本发明大大减少了保存的信息量和计算量,从而加速回环检测的过程,使得位置漂移问题更快速地得到解决。

Description

基于K-SVD字典学习的移动机器人视觉SLAM回环检测方法
技术领域
本发明属于机器人技术领域,涉及移动机器人定位领域,具体涉及一种基于K-SVD字典学习的移动机器人视觉SLAM回环检测方法。
背景技术
在同步定位与建图(simultaneous localization and mapping,SLAM)问题中,需要检测之前访问过的位置,从而减少估计误差,通过相似度度量来比较传感器的观测结果来检测回环,经常用到的词袋模型(Bag-of-Words,BoW)是把特征视为一个个单词,并比较两张图片单词的一致性,来判断两张图片是否属于同一场景,为了能够把特征归类为单词,需要训练一个字典,词袋模型的文档长度等于已知的单词的数量,所以在使用词袋模型的时候,需要减小词汇量压力。
M.Cummins和P.Newman提出了一种基于概率推理的词袋模型方法,名为FAB-MAP2.0。通过使用标准字典,该方法可以检测大轨迹上的循环,(M.Cummins and P.Newman,“Appearance-only SLAM at large scale with FAB-MAP 2.0,”Int.J.Robot.Res.,vol.30,no.9,pp.1100–1123,2011),Alireza Norouzzadeh Ravari和Hamid D.Taghirad提出在基本压缩感知的基础上扩展多测量向量技术,通过对少量传感器观测值的比较来实现闭环检测(Ravari A N,Taghirad H D.Loop closure detection by compressed sensingfor exploration of mobile robots in outdoor environments[C]//RsiInternational Conference on Robotics&Mechatronics.IEEE,2015.)。公开号为CN111444853A的专利申请公开了一种视觉SLAM的回环检测方法,通过视觉SLAM***技术目标载体的位姿以及环境地图,再通过回环检测模块对传入的图像与视觉SLAM***中保存的关键帧序列进行相似度计算,判别相似度后进行替换保存。公开号为CN110070578A的专利申请公开了一种回环检测方法,获取相机图像与数据库图像,根据相机图像得到关键帧图像特征向量与当前帧图像特征向量;根据关键帧与当前帧图像特征向量与离线词典得到第一,二词汇映射向量;根据第一词汇映射向量和第二词映射向量得到重投影误差并将投影误差与预设误差阈值作比较判断是否检测到回环。
上述方法都可以检测到回环,但是仍存在词袋模型数据压力大,相似度比较时计算量大,回环检测速度无法提高的问题。
发明内容
有鉴于此,本发明的目的在于提供一种基于K-SVD字典学习的移动机器人视觉SLAM回环检测方法,该方法采用字典学习的算法构造参数字典,大大加速了字典的生成且减少了数据的保存量,重构的图像与原始的图像差别很小,但是保存的信息却大大减少了,有效减小了计算量,从而加速回环检测的过程,使得位置漂移问题更快速地得到解决。
为达到上述目的,本发明提供如下技术方案:
一种基于K-SVD字典学习的移动机器人视觉SLAM回环检测方法,具体包括以下步骤:
S1:对数据集进行采用K-SVD自学习算法获得K-SVD字典;
S2:对于再次检测到的图像,基于K-SVD字典,通过匹配追踪算法求得测量信号的稀疏表示;
S3:利用算法信息理论所提出的基于复杂度的图像表示方法进行计算,进而与设定阈值进行比较,来检测回环。
进一步,步骤S1中,K-SVD字典的学习步骤具体包括:
首先,设迭代次数k=0,初始化字典Ak∈Rn×m,求解出样本的稀疏系数为:
Figure BDA0002678366690000021
其中,wi表示初始矩阵,T0表示所使用的原子数,x表示稀疏系数,m、n分别表示矩阵为n×m;
计算残差矩阵为:
Figure BDA0002678366690000022
其中,i、j分别表示矩阵的第i列,第j行,j=1,…,N,N表示原子个数,F表示一种数学运算,t表示迭代次数。
选取Ej中与原子aj表示的集合对应的列
Figure BDA0002678366690000023
并对
Figure BDA0002678366690000024
作SVD分解:
Figure BDA0002678366690000025
更新aj=u1
Figure BDA0002678366690000026
其中,v1、u1、S(1,1)分别表示U,V的第一列和S的第一个元素,将U的第一列作为更新后的原子,矩阵S的S(1,1)乘以V的第一列作为更新后的稀疏行向量,直至达到公式(5)的条件停止迭代;
||W-AkXk||2<β (5)
其中,W表示原始矩阵,Xk表示稀疏系数矩阵,β表示阈值。
这样将数据集经过K-SVD算法后生成的字典,具有减小数据保存量的特点,使得后期匹配进行的更加快速。
进一步,步骤S2中,通过匹配追踪算法求得测量信号的稀疏表示,具体包括:首先从获得的K-SVD字典A中选取与待分析的图片最匹配的原子,该原子满足如下条件:
Figure BDA0002678366690000031
其中,y表示待表示原子、
Figure BDA0002678366690000032
分别表示最匹配的原子;
这样就被分解为最匹配的原子的分量和残差为:
Figure BDA0002678366690000033
其中,R1表示残差;更新残差,直至迭代次数满足条件后,停止迭代。
进一步,步骤S3具体包括:基于复杂度的图像表示方法,利用NCD来衡量图像的相似性;当两个观测值之间的NCD低于给定的阈值时,检测到一个回环;
NCD的计算公式为:
Figure BDA0002678366690000034
其中,C(XY)是包含X和Y连接的压缩图像的长度,X和Y分别表示两个不同的图像的压缩值。
本发明的有益效果在于:本发明利用K-SVD算法对数据集进行处理获得过完备字典,大大加速了字典的生成且减少了数据的保存量,重构的图像与原始的图像差别很小,但是保存的信息却大大减少了。在图像进行相似度度量时,本发明提出了一种基于复杂度的图像表示方法,这种基于复杂度的表示是由每个原始图像观测的稀疏模型构建的,加速了回环检测的过程,使得位置漂移问题更快速地得到解决,从而提高了SLAM的速度。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为K-SVD字典学习在SLAM回环检测中的应用方法流程图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
请参阅图1,图1所示为本发明所述的基于K-SVD字典学习的移动机器人视觉SLAM回环检测方法。压缩感知的前提条件是图像信号在字典上具有稀疏性,其直接影响着压缩测量数,图像在所选择的稀疏字典上越稀疏,所需要的压缩测量数就越少,后期根据信号本身训练的过完备字典,可以更快地将基于复杂度表示的图像进行比对,从而检测回环,所以用字典学习对图像进行稀疏表示有很大的优势,这样可以解决以往所遇到的词袋存储压力过大的问题。
该回环检测的具体步骤如下:
1、字典学习
本发明将字典学习应用在SLAM的回环检测中,用K-SVD算法对数据集进行处理获得过完备字典,K-SVD字典学习步骤如下:
首先,设迭代次数k=0,初始化字典Ak∈Rn×m,求解出样本的稀疏系数为:
Figure BDA0002678366690000041
其中,wi表示初始矩阵,T0表示所使用的原子数,x表示稀疏系数,m、n分别表示矩阵为n×m;
计算残差矩阵为:
Figure BDA0002678366690000042
其中,i、j分别表示矩阵的第i列,第j行,j=1,…,N,N表示原子个数,F表示一种数学运算,t表示迭代次数。
选取Ej中与原子aj表示的集合对应的列
Figure BDA0002678366690000051
并对
Figure BDA0002678366690000052
作SVD分解:
Figure BDA0002678366690000053
更新aj=u1
Figure BDA0002678366690000054
其中,v1、u1、S(1,1)分别表示U,V的第一列和S的第一个元素,将U的第一列作为更新后的原子,矩阵S的S(1,1)乘以V的第一列作为更新后的稀疏行向量,直至达到公式(5)的条件停止迭代;
||W-AkXk||2<β (5)
其中,W表示原始矩阵,Xk表示稀疏系数矩阵,β表示阈值。这样将数据集经过K-SVD算法后生成的字典,具有减小数据保存量的特点,使得后期匹配进行的更加快速。
2、匹配追踪算法:
匹配追踪算法是一种典型的贪婪算法,它的核心思想是在每一次迭代过程中根据当前残差与原子之间的内积最大值来选择与当前残差最匹配的原子,并更新残差,直到迭代次数达到某阈值或残差小于某阈值时终止迭代。
对于再次检测到的图像,基于K-SVD字典,通过匹配追踪算法求得待测量信号的稀疏表示,具体如下:
首先从已经获得的字典A中选取与待分析的图片最匹配的原子满足:
Figure BDA0002678366690000055
其中,y表示待表示原子、
Figure BDA0002678366690000056
分别表示最匹配的原子,
这样就被分解为最匹配的原子的分量和残差为:
Figure BDA0002678366690000057
其中,R1表示残差;更新残差,直至迭代次数满足条件后,停止迭代。
3、基于复杂度的图形表示:
利用算法信息理论,给出了一种通用的归一化距离测度,在此基础上,提出了一种基于复杂度的图像表示方法,这种基于复杂度的表示是由每个原始图像观测的稀疏模型构建的。再次检测到的图像经过通过匹配追踪算法求得测量信号的稀疏表示,从而构建基于复杂度的表示。
为了使用NCD对图像进行相似度度量,需要为每个图像提供一个字符串描述符,从图像的模型生成字符描述符非常简单,由模型表示的图像可以描述为参数原子及其增益值的组合,为了构造基于复杂度的图像表示,考虑N个原子的图像模型,这个表示法可以分成两部分,第一个原子的描述用R0表示,而坐标系中的其余原子与第一个原子有关:
Figure BDA0002678366690000061
R0=ξ0gγ0 (9)
Figure BDA0002678366690000062
这种表示是基于稀疏模型可以用图像坐标系中的第一个原子表示,而坐标系中的其余原子与第一个原子有关的思想而发展起来的。
图像模型变换前后的复杂度变换如下:
K(IS)=K(R0,Ri)=K(R0)+K(Ri)+O(log(min{K(R0),K(Ri)})) (11)
因为对于每个稀疏模型,R0的复杂度都是固定的。因此,在图像变换下,K(R0)保持不变。
K(Is)=K(Ri)+k1 (12)
K(IS(ψ))=K(R0(ψ),Ri(ψ))=K(R0(ψ)+K(Ri(ψ)+O(log(min{K(R0(ψ)),K(Ri(ψ))})) (13))
K(Is(ψ))=K(Ri)+k1 (14)
有了基于Kolmogorov复杂度的图像表示,NCD可以用来衡量图像的相似性。当两个观测值之间的NCD低于给定的阈值时,就说明检测到一个回环,NCD计算公式如下:
Figure BDA0002678366690000063
其中,C(XY)是包含X和Y连接的压缩图像的长度。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (4)

1.一种基于K-SVD字典学习的移动机器人视觉SLAM回环检测方法,其特征在于,该方法具体包括以下步骤:
S1:对数据集进行采用K-SVD自学习算法获得K-SVD字典;
S2:对于再次检测到的图像,基于K-SVD字典,通过匹配追踪算法求得测量信号的稀疏表示;
S3:利用基于复杂度的图像表示方法进行计算,进而与设定阈值进行比较,来检测回环。
2.根据权利要求1所述的移动机器人视觉SLAM回环检测方法,其特征在于,步骤S1中,K-SVD字典的学习步骤具体包括:
首先,设迭代次数k=0,初始化字典Ak∈Rn×m,求解出样本的稀疏系数为:
Figure FDA0002678366680000011
其中,wi表示初始矩阵,T0表示所使用的原子数,x表示稀疏系数,m、n分别表示矩阵为n×m;
计算残差矩阵为:
Figure FDA0002678366680000012
其中,i、j分别表示矩阵的第i列,第j行,j=1,…,N,N表示原子个数,F表示一种数学运算,t表示迭代次数;
选取Ej中与原子aj表示的集合对应的列
Figure FDA0002678366680000013
并对
Figure FDA0002678366680000014
作SVD分解:
Figure FDA0002678366680000015
更新aj=u1
Figure FDA0002678366680000016
其中,v1、u1、S(1,1)分别表示U,V的第一列和S的第一个元素,将U的第一列作为更新后的原子,矩阵S的S(1,1)乘以V的第一列作为更新后的稀疏行向量,直至达到公式(5)的条件停止迭代;
||W-AkXk||2<β (5)
其中,W表示原始矩阵,Xk表示稀疏系数矩阵,β表示阈值。
3.根据权利要求1所述的移动机器人视觉SLAM回环检测方法,其特征在于,步骤S2中,通过匹配追踪算法求得测量信号的稀疏表示,具体包括:首先从获得的K-SVD字典A中选取与待分析的图片最匹配的原子,该原子满足如下条件:
Figure FDA0002678366680000021
其中,y表示待表示原子,
Figure FDA0002678366680000022
分别表示最匹配的原子;
这样就被分解为最匹配的原子的分量和残差为:
Figure FDA0002678366680000023
其中,R1表示残差;更新残差,直至迭代次数满足条件后,停止迭代。
4.根据权利要求1所述的移动机器人视觉SLAM回环检测方法,其特征在于,步骤S3具体包括:基于复杂度的图像表示方法,利用NCD来衡量图像的相似性;当两个观测值之间的NCD低于给定的阈值时,检测到一个回环;
NCD的计算公式为:
Figure FDA0002678366680000024
其中,C(XY)是包含X和Y连接的压缩图像的长度,X和Y分别表示两个不同的图像的压缩值。
CN202010955241.7A 2020-09-11 2020-09-11 基于k-svd字典学习的移动机器人视觉slam回环检测方法 Pending CN112052862A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010955241.7A CN112052862A (zh) 2020-09-11 2020-09-11 基于k-svd字典学习的移动机器人视觉slam回环检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010955241.7A CN112052862A (zh) 2020-09-11 2020-09-11 基于k-svd字典学习的移动机器人视觉slam回环检测方法

Publications (1)

Publication Number Publication Date
CN112052862A true CN112052862A (zh) 2020-12-08

Family

ID=73610741

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010955241.7A Pending CN112052862A (zh) 2020-09-11 2020-09-11 基于k-svd字典学习的移动机器人视觉slam回环检测方法

Country Status (1)

Country Link
CN (1) CN112052862A (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105743510A (zh) * 2016-02-03 2016-07-06 南京邮电大学 一种基于稀疏字典无线传感器网络WSNs信号处理的方法
CN109635699A (zh) * 2018-12-05 2019-04-16 陕西科技大学 一种基于k-svd与omp算法结合的心电信号去噪方法
CN109800692A (zh) * 2019-01-07 2019-05-24 重庆邮电大学 一种基于预训练卷积神经网络的视觉slam回环检测方法
CN110070578A (zh) * 2019-03-15 2019-07-30 西安电子科技大学 一种回环检测方法
CN110569728A (zh) * 2019-06-03 2019-12-13 南华大学 一种基于字典训练和正交匹配追踪的核信号提取方法
US20200116498A1 (en) * 2018-10-16 2020-04-16 Ubtech Robotics Corp Visual assisted distance-based slam method and mobile robot using the same
CN111444853A (zh) * 2020-03-27 2020-07-24 长安大学 一种视觉slam的回环检测方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105743510A (zh) * 2016-02-03 2016-07-06 南京邮电大学 一种基于稀疏字典无线传感器网络WSNs信号处理的方法
US20200116498A1 (en) * 2018-10-16 2020-04-16 Ubtech Robotics Corp Visual assisted distance-based slam method and mobile robot using the same
CN109635699A (zh) * 2018-12-05 2019-04-16 陕西科技大学 一种基于k-svd与omp算法结合的心电信号去噪方法
CN109800692A (zh) * 2019-01-07 2019-05-24 重庆邮电大学 一种基于预训练卷积神经网络的视觉slam回环检测方法
CN110070578A (zh) * 2019-03-15 2019-07-30 西安电子科技大学 一种回环检测方法
CN110569728A (zh) * 2019-06-03 2019-12-13 南华大学 一种基于字典训练和正交匹配追踪的核信号提取方法
CN111444853A (zh) * 2020-03-27 2020-07-24 长安大学 一种视觉slam的回环检测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
NIMA NIKVAND等: "Generic image similarity based on Kolmogorov complexity", 《2010 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING》 *
于华楠等: "基于压缩感知的电力设备视频图像去噪方法研究", 《电测与仪表》 *
孔超等: "基于多视觉词典的显著性加权图像检索方法", 《数据采集与处理》 *
郭俊锋等: "基于学习字典的机器人图像稀疏表示方法", 《自动化学报》 *

Similar Documents

Publication Publication Date Title
CN108304795B (zh) 基于深度强化学习的人体骨架行为识别方法及装置
CN106991388B (zh) 关键点定位方法
CN112364931B (zh) 一种基于元特征和权重调整的少样本目标检测方法及网络***
CN111368759B (zh) 基于单目视觉的移动机器人语义地图构建***
US20220156957A1 (en) Image Depth Estimation Method and Device, Readable Storage Medium and Electronic Equipment
CN106971189B (zh) 一种低分辨率含噪星图识别方法
CN107657627B (zh) 基于人脑记忆机制的时空上下文目标跟踪方法
CN114964313A (zh) 一种基于rvm的光纤陀螺温度补偿方法
CN111191739A (zh) 一种基于注意力机制的墙面缺陷检测方法
CN115346207A (zh) 一种基于实例结构相关性的二维图像中三维目标检测方法
Saxena et al. Generalizable pose estimation using implicit scene representations
CN116468919A (zh) 图像局部特征匹配方法及***
CN116051873A (zh) 关键点匹配方法、装置及电子设备
CN110826554B (zh) 一种红外目标检测方法
CN114612545A (zh) 图像分析方法及相关模型的训练方法、装置、设备和介质
CN117392545B (zh) 一种基于深度学习的sar图像目标检测方法
CN112766337B (zh) 用于预测众包数据的正确标签的方法及***
CN111553954B (zh) 一种基于直接法单目slam的在线光度标定方法
CN111695570B (zh) 一种基于变分原型推理的小样本下语义分割方法
CN112052862A (zh) 基于k-svd字典学习的移动机器人视觉slam回环检测方法
CN115841596A (zh) 多标签图像分类方法及其模型的训练方法、装置
CN115147576A (zh) 一种基于关键特征的水下机器人对接单目视觉导引方法
CN114663751A (zh) 一种基于增量学习技术的输电线路缺陷识别方法和***
CN111899284B (zh) 一种基于参数化esm网络的平面目标跟踪方法
CN114913541A (zh) 基于正交匹配追踪的人体关键点检测方法、装置及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20201208

RJ01 Rejection of invention patent application after publication