CN112200850A - 一种基于成熟特征点的orb提取方法 - Google Patents

一种基于成熟特征点的orb提取方法 Download PDF

Info

Publication number
CN112200850A
CN112200850A CN202011110950.1A CN202011110950A CN112200850A CN 112200850 A CN112200850 A CN 112200850A CN 202011110950 A CN202011110950 A CN 202011110950A CN 112200850 A CN112200850 A CN 112200850A
Authority
CN
China
Prior art keywords
points
immature
mature
point
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011110950.1A
Other languages
English (en)
Other versions
CN112200850B (zh
Inventor
李伟
任孟瀚
张延宇
杜晓玉
周素芳
郭启程
马晓勇
周毅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Henan University
Original Assignee
Henan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Henan University filed Critical Henan University
Priority to CN202011110950.1A priority Critical patent/CN112200850B/zh
Publication of CN112200850A publication Critical patent/CN112200850A/zh
Application granted granted Critical
Publication of CN112200850B publication Critical patent/CN112200850B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明的目的是提供一种基于成熟特征点的ORB提取方法,用于提高ORB特征点提取算法用于视觉SLAM统的匹配精度,通过对未成熟点的提取,对于像素梯度值没有超过阈值的点将被永久舍弃,其余的点被选为未成熟点,未成熟点经过追踪线程,深度信息能够收敛的未成熟点会被***到局部建图中激活,转化为成熟地图点,在成熟地图点上进行ORB特征点提取,深度信息未能收敛的点会随着后端优化窗口的滑动,被边缘化移除,成熟地图点具有确切的三维坐标信息,能够与在下一帧上的位姿相匹配,准确反映周围的环境信息,随着相机运动,越来越多的成熟点地图点被***到局部建图中,构成了局部三维点云地图,局部三维点云地图经过后端优化后,最终得到全局三维点云地图。

Description

一种基于成熟特征点的ORB提取方法
技术领域
本发明属于ORB提取技术领域,具体涉及一种基于成熟特征点的ORB提取方法。
背景技术
视觉SLAM称为即时定位与地图构建,是将一个机器人放入位置环境中的未知位置,是否有办法让机器人一边移动一边逐步描绘出此环境完全的地图,通常机器人会搭载相机录制图像,在通过对图像的处理构建地图,视觉SLAM领域常见的特征点提取算法有SIFT、SURF、ORB等,三种算法被广泛应用于不同领域。ORB算法相比SIFT、SURF算法提取的特征点数量较少,但是在旋转不变性、鲁棒性和实时性方面均展现出巨大优势。由于视觉SLAM***在实际运行过程中,相机以较高的帧率向***输入图像,相邻帧之间的图像相似度较高,帧间往往存在大量冗余信息,并不需要太多的特征点信息,反而更关注于特征提取过程是否迅速、鲁棒。ORB特征点提取算法更为适合视觉SLAM***,但现有的ORB特征提取法在视觉SLAM***中实时性和鲁棒性相对较弱。
发明内容
本发明的目的是提供一种基于成熟特征点的ORB提取方法,用于提高ORB特征点提取算法用于视觉SLAM统的匹配精度。
本发明解决其技术问题的技术方案为:一种基于成熟特征点的ORB提取方法,包括以下步骤,
S1:相机在移动的过程中录制图片数据集。
S2:对图片数据集中当前帧上的未成熟点进行提取;
S3:求当前帧上的未成熟点在下一帧上的位姿;
S4:将当前帧的彩色图转化为深度图,获取当前帧上未成熟点的深度信息;
S5:将当前帧上未成熟点的深度信息与设定值比较,当深度信息的值小于设定值时,将未成熟点被安插到局部建图中激活为成熟地图点。
S6:将成熟地图点在下一帧上的位姿与成熟地图点的三维坐标信息相匹配,构建地图信息。
所述步骤S2具体为:
S2.1:将图像划分成M×M个区域(M取32),对每个区域计算阈值g;
Figure BDA0002728580060000021
其中,
Figure BDA0002728580060000022
为该区域所有像素点的中值绝对梯度,gth为全局梯度;
S2.2:在每个区域内选取像素梯度值最大的前N个点,像素梯度G(x,y)定义如下:
G(x,y)=dx(i,j)+dy(i,j)
Figure BDA0002728580060000023
其中,I(i,j)为坐标为(i,j)的像素点的像素值,dx(i,j)为坐标为(i,j)的像素点在x方向的像素值,dy(i,j)为坐标为(i,j)的像素点在y方向的像素值;
将像素梯度排名靠前的N个点的像素梯度值分别与阈值g比较,若超过阈值g,则将该点选为未成熟点,若N个点的像素梯度值均不超过阈值g,则舍弃该区域。
所述步骤S3具体为:
令图片数据集中相邻帧的图片m1,m2两未成熟点,在非齐次像素坐标系中坐标为p1,p2,设P为三维空间中的真实点,坐标为[X,Y,Z],在m1,m2中的深度为Z1,Z2,图片数据集中相邻帧的图片m1,m2之间的旋转平移关系由旋转矩阵R和平移矩阵t构成,对应的李代数为ξ,相机内参为K,[X,Y,Z]归一化后为
Figure BDA0002728580060000024
得p1,p2关系如下:
Figure BDA0002728580060000025
Figure BDA0002728580060000031
p2与p1之间的光度误差表示为:
e=m1(P1)-m2(P2)
其中e为标量,优化目标为误差的二范数,即
Figure BDA0002728580060000032
对于一帧图片上的多个未成熟点,优化问题表示为:
Figure BDA0002728580060000033
光度误差相对于李代数形式的雅克比矩阵:
Figure BDA0002728580060000034
扰动变量exp(ξ)在m2帧图像下的坐标记为u,
Figure BDA0002728580060000035
q=δξexp(ξ)P
对于每帧上的多个未成熟点,通过计算优化目标的雅克比矩阵,然后使用高斯-牛顿法迭代求出未成熟点在下一帧上的位姿。
所述步骤S5中的设定值为8。
当前帧的成熟地图点在下一帧上的位姿与成熟地图点的三维坐标信息相匹配,构建地图信息后对下一帧图像的操作重复步骤S2-S6。
本发明的有益效果为:通过对未成熟点的提取,对于像素梯度值没有超过阈值的点将被永久舍弃,其余的点被选为未成熟点,未成熟点经过追踪线程后,其中深度信息能够收敛的未成熟点会被***到局部建图中激活,转化为成熟地图点,在成熟地图点上进行ORB特征点的提取,深度信息未能收敛的点会随着后端优化窗口的滑动,被边缘化移除,成熟地图点具有确切的三维坐标信息,能够与在下一帧上的位姿相匹配,准确反映周围的环境信息。随着相机的运动,越来越多的成熟点地图点被***到局部建图中,构成了局部三维点云地图,局部三维点云地图经过后端优化后,最终得到全局三维点云地图。
附图说明
图1是本发明的未成熟点提取流程图。
图2是本发明的未成熟点追踪原理图。
图3是本发明的未成熟点激活原理图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明包括以下步骤,
S1:相机在移动的过程中录制图片数据集。
S2:对图片数据集中当前帧上的未成熟点进行提取;
S3:求当前帧上的未成熟点在下一帧上的位姿;
S4:将当前帧的彩色图转化为深度图,获取当前帧上未成熟点的深度信息;
S5:将当前帧上未成熟点的深度信息与设定值比较,当深度信息的值小于设定值时,将未成熟点被安插到局部建图中激活为成熟地图点。
S6:将成熟地图点在下一帧上的位姿与成熟地图点的三维坐标信息相匹配,构建地图信息。
所述步骤S2具体为:
S2.1:将图像划分成M×M个区域(M取32),对每个区域计算阈值g;
Figure BDA0002728580060000041
其中,
Figure BDA0002728580060000042
为该区域所有像素点的中值绝对梯度,gth为全局梯度;
S2.2:在每个区域内选取像素梯度值最大的前N个点,像素梯度G(x,y)定义如下:
G(x,y)=dx(i,j)+dy(i,j)
Figure BDA0002728580060000043
其中,I(i,j)为坐标为(i,j)的像素点的像素值,dx(i,j)为坐标为(i,j)的像素点在x方向的像素值,dy(i,j)为坐标为(i,j)的像素点在y方向的像素值;
将像素梯度排名靠前的N个点的像素梯度值分别与阈值g比较,若超过阈值g,则将该点选为未成熟点,若N个点的像素梯度值均不超过阈值g,则舍弃该区域。
完成未成熟点的提取工作后,需要对其在相邻帧之间进行追踪与处理。由于未成熟点的深度未知,所以在此线程中,***会在相邻帧之间对未成熟点,沿极线方向进行离散化搜索匹配,通过最小化光度误差,使其深度信息收敛,得到成熟的地图点与在下一帧上的位姿,由于在步骤S3求得了当前帧上的未成熟点在下一帧上的位姿,在未成熟点激活为成熟地图点后可获得成熟的地图点与在下一帧上的位姿。
所述步骤S3具体为:
令图片数据集中相邻帧的图片m1,m2两未成熟点,在非齐次像素坐标系中坐标为p1,p2,设P为三维空间中的真实点,坐标为[X,Y,Z],在m1,m2中的深度为Z1,Z2,图片数据集中相邻帧的图片m1,m2之间的旋转平移关系由旋转矩阵R和平移矩阵t构成,对应的李代数为ξ,相机内参为K,[X,Y,Z]归一化后为
Figure BDA0002728580060000051
得p1,p2关系如下:
Figure BDA0002728580060000052
Figure BDA0002728580060000053
p2与p1之间的光度误差表示为:
e=m1(P1)-m2(P2)
其中e为标量,优化目标为误差的二范数,即
Figure BDA0002728580060000054
对于一帧图片上的多个未成熟点,优化问题表示为:
Figure BDA0002728580060000055
光度误差相对于李代数形式的雅克比矩阵:
Figure BDA0002728580060000061
扰动变量exp(ξ)在m2帧图像下的坐标记为u,
Figure BDA0002728580060000062
q=δξexp(ξ)P
对于每帧上的多个未成熟点,通过计算优化目标的雅克比矩阵,然后使用高斯-牛顿法迭代求出未成熟点在下一帧上的位姿。
所述步骤S5中的设定值为8。
相匹配就是对应的关系、位姿可以用三维坐标信息来表示。成熟地图点在下一帧的位姿,用坐标系的信息来表示,也就是对应关系。
当前帧的成熟地图点在下一帧上的位姿与成熟地图点的三维坐标信息相匹配,构建地图信息后对下一帧图像的操作重复步骤S2-S6。
未成熟像素点演变成成熟地图点后,在此基础上提取ORB特征,使得前端、后端、闭环检测三者间的耦合度上升,一定程度上提升了***的鲁棒性。
本发明通过对未成熟点的提取,对于像素梯度值没有超过阈值的点将被永久舍弃,其余的点被选为未成熟点,未成熟点经过追踪线程后,其中深度信息能够收敛的未成熟点会被***到局部建图中激活,转化为成熟地图点,在成熟地图点上进行ORB特征点的提取,深度信息未能收敛的点会随着后端优化窗口的滑动,被边缘化移除,成熟地图点具有确切的三维坐标信息,能够与在下一帧上的位姿相匹配,准确反映周围的环境信息。随着相机的运动,越来越多的成熟点地图点被***到局部建图中,构成了局部三维点云地图,局部三维点云地图经过后端优化后,最终得到全局三维点云地图。

Claims (5)

1.一种基于成熟特征点的ORB提取方法,其特征在于:包括以下步骤,
S1:相机在移动的过程中录制图片数据集。
S2:把满足分布均匀良好,具有足够像素梯度的像素点命名为未成熟点,对图片数据集中当前帧上的未成熟点进行提取;
S3:求当前帧上的未成熟点在下一帧上的位姿;
S4:将当前帧的彩色图转化为深度图,获取当前帧上未成熟点的深度信息;
S5:将当前帧上未成熟点的深度信息与设定值比较,当深度信息的值小于设定值时,将未成熟点被安插到局部建图中激活为成熟地图点。
S6:将成熟地图点在下一帧上的位姿与成熟地图点的三维坐标信息相匹配,构建地图信息。
2.根据权利要求1所述的一种基于成熟特征点的ORB提取方法,其特征在于,所述步骤S2具体为:
S2.1:将图像划分成M×M个区域(M取32),对每个区域计算阈值g;
Figure FDA0002728580050000011
其中,
Figure FDA0002728580050000012
为该区域所有像素点的中值绝对梯度,gth为全局梯度;
S2.2:在每个区域内选取像素梯度值最大的前N个点,像素梯度G(x,y)定义如下:
G(x,y)=dx(i,j)+dy(i,j)
Figure FDA0002728580050000013
其中,I(i,j)为坐标为(i,j)的像素点的像素值,dx(i,j)为坐标为(i,j)的像素点在x方向的像素值,dy(i,j)为坐标为(i,j)的像素点在y方向的像素值;
将像素梯度排名靠前的N个点的像素梯度值分别与阈值g比较,若超过阈值g,则将该点选为未成熟点,若N个点的像素梯度值均不超过阈值g,则舍弃该区域。
3.根据权利要求2所述的一种基于成熟特征点的ORB提取方法,其特征在于,所述步骤S3具体为:
令图片数据集中相邻帧的图片m1,m2两未成熟点,在非齐次像素坐标系中坐标为p1,p2,设P为三维空间中的真实点,坐标为[X,Y,Z],在m1,m2中的深度为Z1,Z2,图片数据集中相邻帧的图片m1,m2之间的旋转平移关系由旋转矩阵R和平移矩阵t构成,对应的李代数为ξ,相机内参为K,[X,Y,Z]归一化后为
Figure FDA0002728580050000021
得p1,p2关系如下:
Figure FDA0002728580050000022
Figure FDA0002728580050000023
p2与p1之间的光度误差表示为:
e=m1(P1)-m2(P2)
其中e为标量,优化目标为误差的二范数,即
Figure FDA0002728580050000024
对于一帧图片上的多个未成熟点,优化问题表示为:
Figure FDA0002728580050000025
光度误差相对于李代数形式的雅克比矩阵:
Figure FDA0002728580050000026
扰动变量exp(ξ^)在m2帧图像下的坐标记为u,
Figure FDA0002728580050000027
q=δξ^exp(ξ^)P
对于每帧上的多个未成熟点,通过计算优化目标的雅克比矩阵,然后使用高斯-牛顿法迭代求出未成熟点在下一帧上的位姿。
4.根据权利要求3所述的一种基于成熟特征点的ORB提取方法,其特征在于,所述步骤S5中的设定值为8。
5.根据权利要求4所述的一种基于成熟特征点的ORB提取方法,其特征在于,当前帧的成熟地图点在下一帧上的位姿与成熟地图点的三维坐标信息相匹配,构建地图信息后对下一帧图像的操作重复步骤S2-S6。
CN202011110950.1A 2020-10-16 2020-10-16 一种基于成熟特征点的orb提取方法 Active CN112200850B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011110950.1A CN112200850B (zh) 2020-10-16 2020-10-16 一种基于成熟特征点的orb提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011110950.1A CN112200850B (zh) 2020-10-16 2020-10-16 一种基于成熟特征点的orb提取方法

Publications (2)

Publication Number Publication Date
CN112200850A true CN112200850A (zh) 2021-01-08
CN112200850B CN112200850B (zh) 2022-10-04

Family

ID=74009213

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011110950.1A Active CN112200850B (zh) 2020-10-16 2020-10-16 一种基于成熟特征点的orb提取方法

Country Status (1)

Country Link
CN (1) CN112200850B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116258769A (zh) * 2023-05-06 2023-06-13 亿咖通(湖北)技术有限公司 一种定位校验方法、装置、电子设备和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107392964A (zh) * 2017-07-07 2017-11-24 武汉大学 基于室内特征点和结构线结合的室内slam方法
CN109631855A (zh) * 2019-01-25 2019-04-16 西安电子科技大学 基于orb-slam的高精度车辆定位方法
CN111045017A (zh) * 2019-12-20 2020-04-21 成都理工大学 一种激光和视觉融合的巡检机器人变电站地图构建方法
CN111060115A (zh) * 2019-11-29 2020-04-24 中国科学院计算技术研究所 一种基于图像边缘特征的视觉slam方法及***
EP3671121A1 (en) * 2017-08-18 2020-06-24 Guangdong Bona Robot Corporation Limited Map creation method for mobile robot and path planning method based on map
CN111707281A (zh) * 2020-06-30 2020-09-25 华东理工大学 一种基于光度信息和orb特征的slam***

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107392964A (zh) * 2017-07-07 2017-11-24 武汉大学 基于室内特征点和结构线结合的室内slam方法
EP3671121A1 (en) * 2017-08-18 2020-06-24 Guangdong Bona Robot Corporation Limited Map creation method for mobile robot and path planning method based on map
CN109631855A (zh) * 2019-01-25 2019-04-16 西安电子科技大学 基于orb-slam的高精度车辆定位方法
CN111060115A (zh) * 2019-11-29 2020-04-24 中国科学院计算技术研究所 一种基于图像边缘特征的视觉slam方法及***
CN111045017A (zh) * 2019-12-20 2020-04-21 成都理工大学 一种激光和视觉融合的巡检机器人变电站地图构建方法
CN111707281A (zh) * 2020-06-30 2020-09-25 华东理工大学 一种基于光度信息和orb特征的slam***

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
RAÚL MUR-ARTAL ET AL: "ORB-SLAM A Versatile and Accurate Monocular SLAM System", 《 IEEE TRANSACTIONS ON ROBOTICS》 *
成立明等: "融合自监督单目图像深度估计的视觉里程计", 《计算机工程与应用(网络首发论文)》 *
陈剑斌: "基于深度学习和传统视觉SLAM融合的单目视觉LSLAM", 《中国优秀硕士学位论文全文数据库(电子期刊)》 *
齐晓世: "基于单目视觉的无人机SLAM技术研究", 《中国优秀硕士学位论文全文数据库(电子期刊)》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116258769A (zh) * 2023-05-06 2023-06-13 亿咖通(湖北)技术有限公司 一种定位校验方法、装置、电子设备和存储介质

Also Published As

Publication number Publication date
CN112200850B (zh) 2022-10-04

Similar Documents

Publication Publication Date Title
WO2022002150A1 (zh) 一种视觉点云地图的构建方法、装置
CN106709950B (zh) 一种基于双目视觉的巡线机器人跨越障碍导线定位方法
WO2018214195A1 (zh) 一种基于卷积神经网络的遥感图像桥梁检测方法
CN111899172A (zh) 一种面向遥感应用场景的车辆目标检测方法
CN104036524A (zh) 一种改进sift算法的快速目标跟踪方法
CN108010123B (zh) 一种保留拓扑信息的三维点云获取方法
CN111862201A (zh) 一种基于深度学习的空间非合作目标相对位姿估计方法
CN110827312B (zh) 一种基于协同视觉注意力神经网络的学习方法
CN109325444B (zh) 一种基于三维几何模型的单目无纹理三维物体姿态跟踪方法
CN105760898A (zh) 一种基于混合组回归方法的视觉映射方法
CN111998862B (zh) 一种基于bnn的稠密双目slam方法
CN112419497A (zh) 基于单目视觉的特征法与直接法相融合的slam方法
CN112581540B (zh) 一种大场景下基于人体姿态估计的相机标定方法
Wang et al. An overview of 3d object detection
Wan et al. A real-time branch detection and reconstruction mechanism for harvesting robot via convolutional neural network and image segmentation
CN110110618B (zh) 一种基于pca和全局对比度的sar目标检测方法
CN110766782A (zh) 基于多无人机视觉协同的大型施工场景实时重构方法
CN114492619A (zh) 一种基于统计和凹凸性的点云数据集构建方法及装置
CN107808391B (zh) 一种基于特征选择与光滑表示聚类的视频动态目标提取方法
CN115376034A (zh) 一种基于人体三维姿态时空关联动作识别的运动视频采集剪辑方法及装置
CN115222884A (zh) 一种基于人工智能的空间对象分析及建模优化方法
CN112200850B (zh) 一种基于成熟特征点的orb提取方法
CN113888603A (zh) 基于光流跟踪和特征匹配的回环检测及视觉slam方法
CN117351078A (zh) 基于形状先验的目标尺寸与6d姿态估计方法
Jisen A study on target recognition algorithm based on 3D point cloud and feature fusion

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant