CN110322507A - 一种基于深度重投影和空间一致性特征匹配的方法 - Google Patents

一种基于深度重投影和空间一致性特征匹配的方法 Download PDF

Info

Publication number
CN110322507A
CN110322507A CN201910481847.9A CN201910481847A CN110322507A CN 110322507 A CN110322507 A CN 110322507A CN 201910481847 A CN201910481847 A CN 201910481847A CN 110322507 A CN110322507 A CN 110322507A
Authority
CN
China
Prior art keywords
point
characteristic
matching
depth
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910481847.9A
Other languages
English (en)
Other versions
CN110322507B (zh
Inventor
张涛
张硕骁
魏宏宇
颜亚雄
陈浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN201910481847.9A priority Critical patent/CN110322507B/zh
Publication of CN110322507A publication Critical patent/CN110322507A/zh
Application granted granted Critical
Publication of CN110322507B publication Critical patent/CN110322507B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度重投影和空间一致性特征匹配的方法,包括以下步骤:使用RGBD相机获得RGBD图像和深度图像,生成三维点云并利用RANSAC提取平面;使用ORB对生成的点云图像进行特征点提取,建立描述子;通过KNN算法建立两帧之间的粗略对应关系;利用特征点的空间一致性得到更可靠的对应关系,进行特征匹配,给定3D坐标,通过图优化得到可靠的匹配特征。本发明通过利用特征点的空间一致性更可靠地提取帧之间的对应关系,提高了特征匹配的准确性和鲁棒性。

Description

一种基于深度重投影和空间一致性特征匹配的方法
技术领域
本发明涉及适用于智能机器人、无人飞行器等自主导航领域,特别是涉及一种基于深度重投影和空间一致性特征匹配的方法。
背景技术
随着计算机视觉技术的不断发展以及自主导航技术的不断进步,视觉SLAM正成为无人机、智能机器人等方向的研究热点。SLAM的主要目研究标是同时进行设备的定位与周边三维地图的构建。指搭载特殊传感器的设备,在没有先验信息的基础上,在整个运动过程中估计自己的运动状态,并建立环境的模型。视觉里程计就是估计摄像机相对其周围环境的位姿变化。
视觉SLAM***中,常用的相机种类主要是单目相机,多目相机以及RGBD相机,多目相机中又以双目相机为主。由于RGB-D相机成本低,重量轻,可以提供彩色图像和深度图像,基于RGB-D相机的SLAM***使我们能够更轻松地匹配帧,估计并重建3D环境。
许多RGB-D SLAM***采用迭代最近点(ICP)和RANSAC作为标准算法来对齐特征点。但是,当数据中的噪声增加或帧之间的偏移很大时,RANSAC的结果可能不可靠。为了提高这种场景中轨迹估计的准确性,提出了一种利用RGB-D SLAM中点特征的空间一致性进行特征匹配的新方法。通过利用点特征的空间结构信息,我们的方法可以比使用RANSAC的特征匹配方法更可靠地提取帧之间的对应关系,特征匹配的准确性增加。
发明内容
针对数据中的噪声或帧之间的偏移变大时,基于RANSAC的特征匹配算法的准确性受到影响,本发明提供一种基于深度重投影和空间一致性特征匹配的方法,通过利用特征点的空间一致性更可靠地提取帧之间的对应关系,提高了特征匹配的准确性和鲁棒性,为达此目的,本发明提供一种基于深度重投影和空间一致性特征匹配的方法,包括以下步骤:
步骤1:使用RGBD相机获取场景中的彩色图和深度图,利用RANSAC算法生成点云并提取局部平面;
其中平面的模型为P=(a,b,c,d)={x,y,z|ax+by+cz+d=0},a,b,c,d为待估计的参数,d*为每个关键点的深度值;
根据深度重投影方程计算每个内点的位置,减小d*的噪声;
步骤2:对步骤1得到的平面进行特征点提取,采用KNN算法对步骤1中的特征点进行初始匹配;
步骤3:根据步骤2得到的结果,确定相应特征点pi和pi'之间的距离dii',定义函数来衡量空间一致性得分;
其中ci和cj两个N维点集,dii'为欧几里得距离;
步骤4:构建图G=(V,E),给定两组帧P、Q和对应映射特征点对(i,i')的集合C;
其中V是顶点集合,E是边集合;
步骤5:(1)构建关联矩阵M,给定n个候选赋值的列表C,每个赋值的关联度a∈C和每对赋值a,b∈C存储在n×n的矩阵M中;
其中
(2)给定两组特征点的集合给定两组帧P、Q,引入指示向量l来描述所有初始对应关系的匹配结果,双射约束可以表示线性约束Ax≤b;
其中A为稀疏矩阵,由0和1两个元素构成;
步骤6:步骤6:消除假阳性匹配包括如下具体步骤:
(1)利用光谱匹配技术求解lb *,给定仿射矩阵M,求解M的主特征值及其对应的特征向量,其中主特征向量记为l*
(2)对l*中的元素进行排序,找到最大的元素a,将lb *(a)赋值为1,然后迭代地按照降序找到l*中的所有元素b,若这些元素不与已有标记的元素发生冲突,lb *(b)被赋值为1,否则每个冲突元素的指示向量被赋值为0;
(3)当获得向量l时,就能从初始匹配中消除假阳性匹配,当移除指示向量为0的异常值时,就可以获得可靠的特征匹配,利用这些可靠的匹配点的3D位置计算改进的变换,输出匹配特征;
至此,完成基于深度重投影和空间一致性特征匹配全过程。
作为本发明进一步改进,步骤1中所述的平面提取和深度重投影具体包括如下步骤:
步骤1.1:使用RANSAC算法估计平面的系数和内点;
步骤1.2:采用ORB算法对平面进行特征点提取,计算每个特征点的描述子;
步骤1.3:将关键点从每个平面投影到焦平面,设(u,v)为图像中的点坐标,d为深度测量,(x,y,z)为点云中的空间位置,可得到重投影方程:
其中fx,fy,cx,cy是相机的内参,s是比例因子。
步骤1.4:投影后,恢复每个平面的灰度图像,检测ORB关键点,通过计算视线与提取的平面的交点来估计每个关键点的深度值d*
步骤1.5:利用(u,v,d*)和重投影方程计算每个特征点的三维坐标(x,y,z)的值,以减小噪声。
作为本发明进一步改进,步骤2中所述的建立相邻两帧之间的特征对应关系具体包括如下步骤:
步骤2.1:根据描述子,利用KNN算法建立相邻两帧之间的粗略对应。
作为本发明进一步改进,步骤3中所述的确定对应特征点之间的距离和衡量空间一致性得分包括如下步骤:
步骤3.1:根据欧几里得公式计算对应特征点之间的距离;
步骤3.2:给定N维点集ci和cj,定义空间一致性得分函数
其中σd为距离差的方差,且为可调参数;
当0≤Sd=(ci,cj)≤1时,即认为ci和cj在空间上是一致对应的,予以保留;当Sd=(ci,cj)>1时,ci和cj在空间上不一致对应,予以剔除。
作为本发明进一步改进,步骤4中所述的构建空间一致性图和给定特征点对的集合具体包括以下步骤:
步骤4.1:P和Q中属于C中某些对的特征点是内点,P和Q中不属于C中某些对的特征点是外点;
步骤4.2:节点vi∈V和C中的特征点对初始对应,每条边eij∈E是权重w(i,j)=Sd(ci,cj),用来描述ci对应cj的空间一致性;
作为本发明进一步改进,所述步骤5具体包括如下步骤:
步骤5.1:对于每一个候选赋值(i',j'),利用得分或者关联度来衡量P中的元素i,和Q中的元素i'的匹配程度;
步骤5.2:对于每一对赋值(a,b),a=(i,i'),b=(j,j'),利用关联度衡量数据特征(i,j)和模型特征(i',j')的兼容性;
步骤5.3:每个对角元素mii用来描述初始对应ci中的特征相似性,每个非对角元素mij测量对应ci和cj之间的空间一致性;
步骤5.4:将mij=Sd=(ci,cj)设置为空间一致性得分,dij和di'j'分别是点i和j之间以及它们的候选匹配之间的欧几里得距离。
作为本发明进一步改进,步骤6中引入指示向量l来描述所有初始对应关系具体包括如下步骤:
步骤6.1:对于帧P中的特征点pi和帧Q中的特征点pi',向量li定义为:若点pi和点pi'是匹配的,则li=1,否则为0,并且不再映射到Pj(i≠j),A为稀疏矩阵,由0和1两个元素构成。A的每一行上非零元素显示与一帧中的相同关键点相关联的对应关系;
求解最优解lb *
步骤6.2:利用光谱匹配技术求解lb *,给定仿射矩阵M,求解M的主特征值及其对应的特征向量,其中主特征向量记为l*
步骤6.3:对l*中的元素进行排序,找到最大的元素a,将lb *(a)赋值为1,然后迭代地按照降序找到l*中的所有元素b,若这些元素不与已有标记的元素发生冲突,lb *(b)被赋值为1,否则每个冲突元素的指示向量被赋值为0;
步骤6.4:当获得向量l时,就能从初始匹配中消除假阳性匹配,当移除指示向量为0的异常值时,就可以获得可靠的特征匹配,利用这些可靠的匹配点的3D位置计算改进的变换。
本发明公开了一种基于深度重投影和空间一致性特征匹配的方法,包括以下步骤:使用RGBD相机获得RGBD图像和深度图像,生成三维点云并利用RANSAC提取平面;使用ORB对生成的点云图像进行特征点提取,建立描述子;通过KNN算法建立两帧之间的粗略对应关系;利用特征点的空间一致性得到更可靠的对应关系,进行特征匹配,给定3D坐标,通过图优化得到可靠的匹配特征。本发明通过利用特征点的空间一致性更可靠地提取帧之间的对应关系,提高了特征匹配的准确性和鲁棒性。
附图说明
图1是本发明的方法流程图;
图2是本发明的空间一致性的示意图。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细描述:
本发明提供一种基于深度重投影和空间一致性特征匹配的方法,通过利用特征点的空间一致性更可靠地提取帧之间的对应关系,提高了特征匹配的准确性和鲁棒性。
为使本发明的目的、技术方案和优点更加清楚明白,结合附图,对本发明进一步详细说明。
图1是本发明的方法流程图。如图1所示,本发明提出的基于深度重投影和空间一致性的特征匹配方法包括以下步骤:
步骤1:使用RGBD相机获取场景中的彩色图和深度图,利用RANSAC算法生成点云并提取局部平面;
其中平面的模型为P=(a,b,c,d)={x,y,z|ax+by+cz+d=0},a,b,c,d为待估计的参数,d*为每个关键点的深度值
根据深度重投影方程计算每个内点的位置,减小d*的噪声;
步骤2:对步骤1得到的平面进行特征点提取,采用KNN(K-NearestNeighbor)算法对步骤1中的特征点进行初始匹配;
步骤3:根据步骤2得到的结果,确定相应特征点pi和pi'之间的距离dii',定义函数来衡量空间一致性得分;
其中ci和cj两个N维点集,dii'为欧几里得距离;
步骤4:构建图G=(V,E),给定两组帧P、Q和对应映射特征点对(i,i')的集合C;
其中V是顶点集合,E是边集合;
步骤5:(1)构建关联矩阵M,给定n个候选赋值的列表C,每个赋值的关联度a∈C和每对赋值a,b∈C存储在n×n的矩阵M中。
其中
(2)给定两组特征点的集合给定两组帧P、Q,引入指示向量x来描述所有初始对应关系的匹配结果,双射约束可以表示线性约束Ax≤b。
其中A为稀疏矩阵,由0和1两个元素构成。
步骤6:改写总得分S,利用光谱匹配技术求解xb *
其中s.t.Ax≤b,xb *∈(0,1)n。在给定映射约束情况下,最优解x*是二进制向量,最大化得分。
相比于RANSAC(Random Sample Consensus)算法,当噪声增加或者帧之间的偏移很大时,基于深度重投影和空间一致性的特征匹配方法可以有效减小错误匹配,具体步骤如下:
步骤1.1:使用RANSAC算法估计平面的系数和内点;
步骤1.2:采用ORB(Oriented FAST and Rotated BRIEF)算法对平面进行特征点提取,计算每个特征点的描述子。
步骤1.3:将关键点从每个平面投影到焦平面,设(u,v)为图像中的点坐标,d为深度测量,(x,y,z)为点云中的空间位置,可得到重投影方程:
其中fx,fy,cx,cy是相机的内参,s是比例因子。
图2是空间一致性型匹配,如果匹配正确,则帧P和帧Q中对应特征点的空间结构相似,刚体转换后,三维空间中特征点的空间结构保持不变,这些点的3D空间位置用于空间一致性的特征匹配,具体步骤如下:
步骤2.1:根据描述子,利用KNN算法建立相邻两帧之间的粗略对应
步骤3.1:根据欧几里得公式计算对应特征点之间的距离;
步骤3.2:给定N维点集ci和cj,定义空间一致性得分函数
其中σd为距离差的方差,且为可调参数;
当0≤Sd=(ci,cj)≤1时,即认为ci和cj在空间上是一致对应的,予以保留;当Sd=(ci,cj)>1时,ci和cj在空间上不一致对应,予以剔除;
图优化包括以下具体步骤:
步骤4.1:P和Q中属于C中某些对的特征点是内点,P和Q中不属于C中某些对的特征点是外点;
步骤4.2:节点vi∈V和C中的特征点对初始对应,每条边eij∈E是权重w(i,j)=Sd(ci,cj),用来描述ci对应cj的空间一致性。
步骤5.1:对于每一个候选赋值(i',j'),利用得分或者关联度来衡量P中的元素i,和Q中的元素i'的匹配程度;
步骤5.2:对于每一对赋值(a,b),a=(i,i'),b=(j,j'),利用关联度衡量数据特征(i,j)和模型特征(i',j')的兼容性;
步骤5.3:每个对角元素mii用来描述初始对应ci中的特征相似性,每个非对角元素mij测量对应ci和cj之间的空间一致性;
步骤5.4:将mij=Sd=(ci,cj)设置为空间一致性得分,dij和di'j'分别是点i和j之间以及它们的候选匹配之间的欧几里得距离。
消除假阳性匹配包括如下具体步骤:
步骤6.1:利用光谱匹配技术求解lb *,给定仿射矩阵M,求解M的主特征值及其对应的特征向量,其中主特征向量记为l*
步骤6.2:对l*中的元素进行排序,找到最大的元素a,将lb *(a)赋值为1,然后迭代地按照降序找到l*中的所有元素b,若这些元素不与已有标记的元素发生冲突,lb *(b)被赋值为1,否则每个冲突元素的指示向量被赋值为0。
步骤6.3:当获得向量l时,就能从初始匹配中消除假阳性匹配。当移除指示向量为0的异常值时,就可以获得可靠的特征匹配,利用这些可靠的匹配点的3D位置计算改进的变换,输出匹配特征。
至此,完成基于深度重投影和空间一致性特征匹配全过程。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作任何其他形式的限制,而依据本发明的技术实质所作的任何修改或等同变化,仍属于本发明所要求保护的范围。

Claims (7)

1.一种基于深度重投影和空间一致性特征匹配的方法,其特征在于,包括以下步骤:
步骤1:使用RGBD相机获取场景中的彩色图和深度图,利用RANSAC算法生成点云并提取局部平面;
其中平面的模型为P=(a,b,c,d)={x,y,z|ax+by+cz+d=0},a,b,c,d为待估计的参数,d*为每个关键点的深度值
根据深度重投影方程计算每个内点的位置,减小d*的噪声;
步骤2:对步骤1得到的平面进行特征点提取,采用KNN算法对步骤1中的特征点进行初始匹配;
步骤3:根据步骤2得到的结果,确定相应特征点pi和pi'之间的距离dii',定义函数来衡量空间一致性得分;
其中ci和cj两个N维点集,dii'为欧几里得距离;
步骤4:构建图G=(V,E),给定两组帧P、Q和对应映射特征点对(i,i')的集合C;
其中V是顶点集合,E是边集合;
步骤5:(1)构建关联矩阵M,给定n个候选赋值的列表C,每个赋值的关联度a∈C和每对赋值a,b∈C存储在n×n的矩阵M中;
其中
(2)给定两组特征点的集合给定两组帧P、Q,引入指示向量l来描述所有初始对应关系的匹配结果,双射约束可以表示线性约束Ax≤b;
其中A为稀疏矩阵,由0和1两个元素构成;
步骤6:消除假阳性匹配包括如下具体步骤:
(1)利用光谱匹配技术求解lb *,给定仿射矩阵M,求解M的主特征值及其对应的特征向量,其中主特征向量记为l*
(2)对l*中的元素进行排序,找到最大的元素a,将lb *(a)赋值为1,然后迭代地按照降序找到l*中的所有元素b,若这些元素不与已有标记的元素发生冲突,lb *(b)被赋值为1,否则每个冲突元素的指示向量被赋值为0;
(3)当获得向量l时,就能从初始匹配中消除假阳性匹配,当移除指示向量为0的异常值时,就可以获得可靠的特征匹配,利用这些可靠的匹配点的3D位置计算改进的变换,输出匹配特征。
至此,完成基于深度重投影和空间一致性特征匹配全过程。
2.根据权利要求1所述的一种基于深度重投影和空间一致性特征匹配的方法,其特征在于:步骤1中所述的平面提取和深度重投影具体包括如下步骤:
步骤1.1:使用RANSAC算法估计平面的系数和内点;
步骤1.2:采用ORB算法对平面进行特征点提取,计算每个特征点的描述子;
步骤1.3:将关键点从每个平面投影到焦平面,设(u,v)为图像中的点坐标,d为深度测量,(x,y,z)为点云中的空间位置,可得到重投影方程:
其中fx,fy,cx,cy是相机的内参,s是比例因子。
步骤1.4:投影后,恢复每个平面的灰度图像,检测ORB关键点,通过计算视线与提取的平面的交点来估计每个关键点的深度值d*
步骤1.5:利用(u,v,d*)和重投影方程计算每个特征点的三维坐标(x,y,z)的值,以减小噪声。
3.根据权利要求1所述的一种基于深度重投影和空间一致性特征匹配的方法,其特征在于:步骤2中所述的建立相邻两帧之间的特征对应关系具体包括如下步骤:
步骤2.1:根据描述子,利用KNN算法建立相邻两帧之间的粗略对应。
4.根据权利要求1所述的一种基于深度重投影和空间一致性特征匹配的方法,其特征在于:步骤3中所述的确定对应特征点之间的距离和衡量空间一致性得分包括如下步骤:
步骤3.1:根据欧几里得公式计算对应特征点之间的距离;
步骤3.2:给定N维点集ci和cj,定义空间一致性得分函数
其中σd为距离差的方差,且为可调参数;
当0≤Sd=(ci,cj)≤1时,即认为ci和cj在空间上是一致对应的,予以保留;当Sd=(ci,cj)>1时,ci和cj在空间上不一致对应,予以剔除。
5.根据权利要求1所述的一种基于深度重投影和空间一致性特征匹配的方法,其特征在于:步骤4中所述的构建空间一致性图和给定特征点对的集合具体包括以下步骤:
步骤4.1:P和Q中属于C中某些对的特征点是内点,P和Q中不属于C中某些对的特征点是外点;
步骤4.2:节点vi∈V和C中的特征点对初始对应,每条边eij∈E是权重w(i,j)=Sd(ci,cj),用来描述ci对应cj的空间一致性。
6.根据权利要求1所述的一种基于深度重投影和空间一致性特征匹配的方法,其特征在于,所述步骤5具体包括如下步骤:
步骤5.1:对于每一个候选赋值(i',j'),利用得分或者关联度来衡量P中的元素i,和Q中的元素i'的匹配程度;
步骤5.2:对于每一对赋值(a,b),a=(i,i'),b=(j,j'),利用关联度衡量数据特征(i,j)和模型特征(i',j')的兼容性;
步骤5.3:每个对角元素mii用来描述初始对应ci中的特征相似性,每个非对角元素mij测量对应ci和cj之间的空间一致性;
步骤5.4:将mij=Sd=(ci,cj)设置为空间一致性得分,dij和di'j'分别是点i和j之间以及它们的候选匹配之间的欧几里得距离。
7.根据权利要求1所述的一种基于深度重投影和空间一致性特征匹配的方法,其特征在于,步骤6中引入指示向量l来描述所有初始对应关系具体包括如下步骤:
步骤6.1:对于帧P中的特征点pi和帧Q中的特征点pi',向量li定义为:若点pi和点pi'是匹配的,则li=1,否则为0,并且不再映射到Pj(i≠j),A为稀疏矩阵,由0和1两个元素构成。A的每一行上非零元素显示与一帧中的相同关键点相关联的对应关系;
求解最优解lb *
步骤6.2:利用光谱匹配技术求解lb *,给定仿射矩阵M,求解M的主特征值及其对应的特征向量,其中主特征向量记为l*
步骤6.3:对l*中的元素进行排序,找到最大的元素a,将lb *(a)赋值为1,然后迭代地按照降序找到l*中的所有元素b,若这些元素不与已有标记的元素发生冲突,lb *(b)被赋值为1,否则每个冲突元素的指示向量被赋值为0;
步骤6.4:当获得向量l时,就能从初始匹配中消除假阳性匹配,当移除指示向量为0的异常值时,就可以获得可靠的特征匹配,利用这些可靠的匹配点的3D位置计算改进的变换。
CN201910481847.9A 2019-06-04 2019-06-04 一种基于深度重投影和空间一致性特征匹配的方法 Active CN110322507B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910481847.9A CN110322507B (zh) 2019-06-04 2019-06-04 一种基于深度重投影和空间一致性特征匹配的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910481847.9A CN110322507B (zh) 2019-06-04 2019-06-04 一种基于深度重投影和空间一致性特征匹配的方法

Publications (2)

Publication Number Publication Date
CN110322507A true CN110322507A (zh) 2019-10-11
CN110322507B CN110322507B (zh) 2023-04-07

Family

ID=68119403

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910481847.9A Active CN110322507B (zh) 2019-06-04 2019-06-04 一种基于深度重投影和空间一致性特征匹配的方法

Country Status (1)

Country Link
CN (1) CN110322507B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111784680A (zh) * 2020-07-06 2020-10-16 天津大学 基于双目摄像头左右目视图关键点一致性的检测方法
CN112380966A (zh) * 2020-11-12 2021-02-19 西安电子科技大学 基于特征点重投影的单眼虹膜匹配方法
CN112560818A (zh) * 2021-02-22 2021-03-26 深圳阜时科技有限公司 应用于窄条形指纹传感器的指纹识别方法及存储介质
CN112752028A (zh) * 2021-01-06 2021-05-04 南方科技大学 移动平台的位姿确定方法、装置、设备和存储介质
CN112862874A (zh) * 2021-04-23 2021-05-28 腾讯科技(深圳)有限公司 点云数据匹配方法、装置、电子设备及计算机存储介质
CN113643217A (zh) * 2021-10-15 2021-11-12 广州市玄武无线科技股份有限公司 视频去运动模糊方法、装置、终端设备及可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106355550A (zh) * 2016-10-31 2017-01-25 微景天下(北京)科技有限公司 图像拼接***和图像拼接方法
CN108090877A (zh) * 2017-11-29 2018-05-29 深圳慎始科技有限公司 一种基于图像序列的rgb-d相机深度图像修复方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106355550A (zh) * 2016-10-31 2017-01-25 微景天下(北京)科技有限公司 图像拼接***和图像拼接方法
CN108090877A (zh) * 2017-11-29 2018-05-29 深圳慎始科技有限公司 一种基于图像序列的rgb-d相机深度图像修复方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
杨德刚: "基于光场分析的多线索融合深度估计方法", 《计算机学报》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111784680A (zh) * 2020-07-06 2020-10-16 天津大学 基于双目摄像头左右目视图关键点一致性的检测方法
CN111784680B (zh) * 2020-07-06 2022-06-28 天津大学 基于双目摄像头左右目视图关键点一致性的检测方法
CN112380966A (zh) * 2020-11-12 2021-02-19 西安电子科技大学 基于特征点重投影的单眼虹膜匹配方法
CN112380966B (zh) * 2020-11-12 2023-06-02 西安电子科技大学 基于特征点重投影的单眼虹膜匹配方法
CN112752028A (zh) * 2021-01-06 2021-05-04 南方科技大学 移动平台的位姿确定方法、装置、设备和存储介质
CN112752028B (zh) * 2021-01-06 2022-11-11 南方科技大学 移动平台的位姿确定方法、装置、设备和存储介质
CN112560818A (zh) * 2021-02-22 2021-03-26 深圳阜时科技有限公司 应用于窄条形指纹传感器的指纹识别方法及存储介质
CN112862874A (zh) * 2021-04-23 2021-05-28 腾讯科技(深圳)有限公司 点云数据匹配方法、装置、电子设备及计算机存储介质
CN112862874B (zh) * 2021-04-23 2021-07-13 腾讯科技(深圳)有限公司 点云数据匹配方法、装置、电子设备及计算机存储介质
CN113643217A (zh) * 2021-10-15 2021-11-12 广州市玄武无线科技股份有限公司 视频去运动模糊方法、装置、终端设备及可读存储介质
CN113643217B (zh) * 2021-10-15 2022-03-29 广州市玄武无线科技股份有限公司 视频去运动模糊方法、装置、终端设备及可读存储介质

Also Published As

Publication number Publication date
CN110322507B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
CN110322507A (zh) 一种基于深度重投影和空间一致性特征匹配的方法
CN109307508B (zh) 一种基于多关键帧的全景惯导slam方法
CN112634451B (zh) 一种融合多传感器的室外大场景三维建图方法
CN109166149B (zh) 一种融合双目相机与imu的定位与三维线框结构重建方法与***
CN110070615B (zh) 一种基于多相机协同的全景视觉slam方法
CN109345588B (zh) 一种基于Tag的六自由度姿态估计方法
CN109506658B (zh) 机器人自主定位方法和***
US20180005018A1 (en) System and method for face recognition using three dimensions
CN109579825B (zh) 基于双目视觉和卷积神经网络的机器人定位***及方法
CN108711166A (zh) 一种基于四旋翼无人机的单目相机尺度估计方法
CN108615244B (zh) 一种基于cnn和深度滤波器的图像深度估计方法及***
CN112304307A (zh) 一种基于多传感器融合的定位方法、装置和存储介质
CN106595659A (zh) 城市复杂环境下多无人机视觉slam的地图融合方法
CN106529538A (zh) 一种飞行器的定位方法和装置
CN107170042B (zh) 一种无序图像的多视立体匹配的三维重建方法
EP3274964B1 (en) Automatic connection of images using visual features
CN112233177A (zh) 一种无人机位姿估计方法及***
CN112419497A (zh) 基于单目视觉的特征法与直接法相融合的slam方法
CN110119768B (zh) 用于车辆定位的视觉信息融合***及方法
CN112802096A (zh) 实时定位和建图的实现装置和方法
CN112767546B (zh) 移动机器人基于双目图像的视觉地图生成方法
Rubio et al. Efficient monocular pose estimation for complex 3D models
CN115272596A (zh) 一种面向单调无纹理大场景的多传感器融合slam方法
CN112541423A (zh) 一种同步定位与地图构建方法和***
CN116128966A (zh) 一种基于环境物体的语义定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant