CN110298884A - 一种适于动态环境中单目视觉相机的位姿估计方法 - Google Patents
一种适于动态环境中单目视觉相机的位姿估计方法 Download PDFInfo
- Publication number
- CN110298884A CN110298884A CN201910444196.6A CN201910444196A CN110298884A CN 110298884 A CN110298884 A CN 110298884A CN 201910444196 A CN201910444196 A CN 201910444196A CN 110298884 A CN110298884 A CN 110298884A
- Authority
- CN
- China
- Prior art keywords
- point
- characteristic point
- camera
- image
- dynamic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种适于动态环境中单目视觉相机的位姿估计方法,方法包括:获取图像,对每一帧图像进行ORB特征点检测;对连续两帧图像进行特征点局部匹配;判断特征点是否满足约束条件,若不满足约束条件,则将该特征点标记为动态点;对每一帧图像进行实例级分割得到物体轮廓,当得到的物体轮廓内动态点的个数超过阈值,则将物体轮廓内的所有特征点标记为动态点;利用RANSAC算法对未标记的动态点的特征点进行特征匹配,计算相机位姿变换的基础矩阵,得到相机旋转矩阵和平移向量,实现相机位姿估计。本发明提供能够提高相机位姿的准确度,从而提高整个SLAM***的精度。
Description
技术领域
本发明涉及计算机视觉技术领域,特别涉及一种适于动态环境中单目视觉相机的位姿估计方法。
背景技术
随着智能信息技术和传感器技术的迅速发展,机器人等智能设备获得快速的发展并广泛应用在社会生活的各个领域。智能机器人相比传统的机器人拥有许多独特的特征,这对智能机器人也提出了更高的要求,比如智能感知、自主决策、运动控制等。机器人实现智能化要求机器人能够在复杂场景中,自主进行定位,构建周围场景的地图,感知周边场景信息,自主完成任务。同时定位与建图(Simultaneous Location and Mapping,SLAM)是计算机视觉和智能设备领域的一个基本问题,是移动机器人实现自主化的一项基本任务,而视觉里程计是SLAM任务中关键一环。
在实际的应用场景下环境中必然存在除机器人外的运动物体,因此机器人得到的视频图像序列中背景与环境中存在的运动物体的运动不一致,直接使用未经运动分割的视频图像序列会导致视觉里程计求得的相机位姿不准确,从而影响整个SLAM***的精度。现有技术中进行相机位姿估计,Faster R-CNN测试网络结构难以达到分割目标像素,进而影响到相机位姿估计的准确性。
因此,为了解决现有技术中出现的上述问题,需要一种适于动态环境中单目视觉相机的位姿估计方法,以提高相机位姿的准确度,进而提高整个SLAM***的精度。
发明内容
本发明的目的在于一种适于动态环境中单目视觉相机的位姿估计方法,所述方法包括:
获取图像,对每一帧图像进行ORB特征点检测;
对连续两帧图像进行特征点局部匹配;
判断特征点是否满足约束条件,若不满足约束条件,则将该特征点标记为动态点;
获取图像,对每一帧图像进行实例级分割得到物体轮廓,其中,对每个目标对象,在Faster R-CNN测试网络结构,增加一个指示对象在窗口中像素位置的二进制掩模图像的输出,通过卷积和最大池化层把二进制掩模图像压缩至原始大小的1/32进行分类预测;
当得到的物体轮廓内动态点的个数超过阈值,则将物体轮廓内的所有特征点标记为动态点;
利用RANSAC算法对未标记的动态点的特征点进行特征匹配,计算相机位姿变换的基础矩阵,得到相机旋转矩阵和平移向量,实现相机位姿估计。
优选地,将每一帧图像分成M×N个等大的块进行ORB特征点检测。
优选地,连续两帧图像进行特征点局部匹配过程中,设定匹配阈值,当某特征点的描述子与最佳匹配特征点的描述子的汉明距离大于所述匹配阈值,则认为该特征未能找到匹配点。
优选地,所述约束条件包括极线约束和FVB约束。
优选地,所述FVB约束的概率为:其中,dmax和dmin为相机成像点的最大深度与最小深度zmax和最小深度zmin对应的特征点沿极线位移距离,FV为特征点的运动矢量,β为概率下降系数。
优选地,在Faster R-CNN测试网络结构上添加完全卷积网络,作为一个分支网络。
优选地,通过卷积和最大池化层把二进制掩模图像压缩至原始大小的1/32进行分类预测后,通过上采样和去卷积层进行图像还原。
优选地,按照如下方法计算相机位姿变换的基础矩阵:
设两帧图片之间一对匹配的特征点为p1=[u1,v1,1]T,p2=[u2,v2,1]T,设基础矩阵为F,
则有
把基础矩阵F的各个元素作为一个向量处理,有:
f=[f1,f2,f3,f4f5,f6,f7,f8,f9],
化为:
[u1u2,u1v2,u1,v1u2,v1v2,v1,v2,v2,1]·f=0
通过RANSAC算法循环计算得到误差最小的基础矩阵。
优选地,由F=K-Tt×RK-1将得到误差最小的基础矩阵进行分解,求得对应的相机旋转矩阵R和平移向量t,其中,K为相机内参。
优选地,任选一未标记的动态点的特征点对得到的相机旋转矩阵R和平移向量t进行验证,
当选取的未标记的动态点的特征点,经过相机旋转矩阵R和平移向量t变换得到的像点坐标深度为负,则舍弃该相机旋转矩阵R和平移向量t。
本发明提供的一种适于动态环境中单目视觉相机的位姿估计方法,能够提高相机位姿的准确度,从而提高整个SLAM***的精度。
应当理解,前述大体的描述和后续详尽的描述均为示例性说明和解释,并不应当用作对本发明所要求保护内容的限制。
附图说明
参考随附的附图,本发明更多的目的、功能和优点将通过本发明实施方式的如下描述得以阐明,其中:
图1示意性示出了本发明一种适于动态环境中单目视觉相机的位姿估计方法的整体流程框图。
图2示出了本发明一个实施例中极线约束的示意图。
图3示出了本发明一个实施例中对每一帧图像进行实例级分割的示意图。
图4示出了本发明一个实施例中验证相机旋转矩阵R和平移向量t的示意图。
具体实施方式
通过参考示范性实施例,本发明的目的和功能以及用于实现这些目的和功能的方法将得以阐明。然而,本发明并不受限于以下所公开的示范性实施例;可以通过不同形式来对其加以实现。说明书的实质仅仅是帮助相关领域技术人员综合理解本发明的具体细节。
在下文中,将参考附图描述本发明的实施例。在附图中,相同的附图标记代表相同或类似的部件,或者相同或类似的步骤。
下面通过具体的实施例对本发明的内容给出详细的说明,如图1所示本发明一种适于动态环境中单目视觉相机的位姿估计方法的整体流程框图。根据本发明的实施例,一种适于动态环境中单目视觉相机的位姿估计方法包括如下方法步骤:
步骤S101、相机获取图像,对每一帧图像进行ORB特征点检测。
实施例中,为了检测到的特征点在全局上分布更为均匀,将每一帧图像分成M×N个等大的块进行ORB特征点检测。
步骤S102、对连续两帧图像进行特征点局部匹配。
根据本发明,对连续两帧图像进行帧间特征点局部匹配,具体地实施例中,设第i帧图像得到的ORB特征点集合为对于第i帧图像的特征点以及其对应的ORB描述子在第i-1帧图像的对应局部区域内寻找最佳匹配的ORB特征点设第i帧图像的特征点所在局部区域为:
其中,r为局部区域半径。
匹配过程的表达式为:
其中,为第i帧图像的特征点的最佳匹配的ORB特征点,dHammi ng{}为汉明距离,为第i帧图像局部区域内的ORB特征点集。
根据本发明的实施例,连续两帧图像进行特征点局部匹配过程中,设定匹配阈值,当某特征点的描述子与最佳匹配特征点的描述子的汉明距离大于所述匹配阈值,则认为该特征未能找到匹配点。
具体的实施例中,设定匹配阈值dthreshold,当第i帧图像的特征点的描述子与最佳匹配的ORB特征点的描述子的汉明距离大于所述匹配阈值dthreshold时,则认为该特征点未能找到匹配点,在后续计算中抛弃。
步骤S103、判断特征点是否满足约束条件,若不满足约束条件,则将该特征点标记为动态点。
经过步骤S102局部特征点匹配后,判断特征点是否满足约束条件。根据本发明的实施例,约束条件包括极线约束和FVB约束。
极线约束条件:
如图2所示本发明一个实施例中极线约束的示意图,从像点x向相机的中心C反投影一条射线xC,则该射线必定经过对应像点的三维空间点X,但显然仅仅通过一个像点无法确定X的具***置,因为在射线xC上的任意空间点都可以通过“小孔”映射为像点x。如果用一对匹配点,则可以确定X的位置。
设x′是三维点X的另一个像点,其对应相机的中心为C′,那么从像点也反投影一条射线x′c′,并且该射线也必定经过X,也就是说从一对相匹配的像点反投影两条射线,必定相交于空间三维点X。
由此,一对匹配的像点之间存在这某种约束关系,这种约束被称为两视图的极线约束。
本实施例中,设置满足极线约束的距离阈值为d,当特征点对应的极线约束的距离dn满足dn≤d,则认为该特征点满足极线约束条件,否则不满足。
FVB约束:
根据本发明的实施例,特征点还应当满足FVB约束。
若存在运动物体的运动与极线的方向一致,则无法通过极线约束求得特征点的动态性质,利用FVB约束判断满足极线约束的特征点是否处于运动状态。
当相机只有平移运动,水平向量为t,pn,pn+1分别为真是点X连续两帧内的像点,相机内参数矩阵为K,则:
当运动物体的位移向量与相机水平移动的水平向量t向对应,则满足极线约束,但是无法标记为动态点。
根据本发明的实施例,所述FVB约束的概率为:
其中,dmax和dmin为相机成像点的最大深度与最小深度zmax和最小深度zmin对应的特征点沿极线位移距离,FV为特征点的运动矢量,β为概率下降系数。
当特征点的FVB约束的概率较高时,则特征点位于FVB约束边界内的概率较大。位于FVB约束边界内的特征点满足FVB约束条件,否则不满足。
根据本发明的实施例,既不满足极线约束,也不满足FVB约束的特征点标记为动态点。
步骤S104、获取图像,对每一帧进行实例级分割得到物体轮廓。
根据本发明的实施例,对每一帧图像图像进行实施例级分割,如图3所示本发明一个实施例中对每一帧图像进行实例级分割的示意图。
本发明在Faster R-CNN测试网络结构上添加完全卷积网络(Fully ConvolutionNetwor,FCN),作为一个分支网络。
根据本发明的实施例,在第一个阶段,通过Faster R-CNN测试网络结构,扫描图像并生成提议(proposals,即有可能包含一个目标的区域),
在第二阶段,通过完全卷积网络(FCN)分类提议并生成边界框和掩码。
第一阶段中,对于每个图像,Faster R-CNN测试网络结构都有两个输出,第一个分类标签,第二个候选窗口。根据本发明的实施例,对每个目标对象,在Faster R-CNN测试网络结构,增加一个指示对象在窗口中像素位置的二进制掩模图像的输出,通过卷积和最大池化层把二进制掩模图像压缩至原始大小的1/32进行分类预测。在这个细粒度级别进行分类预测,通过卷积和最大池化层把二进制掩模图像压缩至原始大小的1/32进行分类预测后,通过上采样和去卷积层(deconvolution)进行图像还原。
本发明通过增加一个Faster R-CNN测试网络结构的输出,实现分割目标像素,提取更精细的空间布局。本发明通过步骤S104每帧图片像素级分割,从而得到物体轮廓分割。
步骤S105、当得到的物体轮廓内动态点的个数超过阈值,则将物体轮廓内的所有特征点标记为动态点。
步骤S106、利用RANSAC算法对未标记的动态点的特征点进行特征匹配,计算相机位姿变换的基础矩阵,得到相机旋转矩阵和平移向量,实现相机位姿估计。
根据本发明的实施例,按照如下方法计算相机位姿变换的基础矩阵:
设两帧图片之间一对匹配的特征点为p1=[u1,v1,1]T,p2=[u2,v2,1]T,设基础矩阵为F,
则有
把基础矩阵F的各个元素作为一个向量处理,有:
f=[f1,f2,f3,f4,f5,f6,f7,f8,f9],
化为:
[u1 u2,u1 v2,u1,v1 u2,v1 v2,v1,u2,v2,1]·f=0
通过RANSAC算法循环计算得到误差最小的基础矩阵。
由F=K-Tt×RK-1将得到误差最小的基础矩阵进行分解,求得对应的相机旋转矩阵R和平移向量t,其中,K为相机内参。
任选一未标记的动态点的特征点对得到的相机旋转矩阵R和平移向量t进行验证,
当选取的未标记的动态点的特征点,经过相机旋转矩阵R和平移向量t变换得到的像点坐标深度为负,则舍弃该相机旋转矩阵R和平移向量t。
如图4所示本发明一个实施例中验证相机旋转矩阵R和平移向量t的示意图,在一个实施例中,对误差最小的基础矩阵分解后得到四组对应的相机旋转矩阵R和平移向量t。第(1)组相机旋转矩阵R和平移向量t对应的像点P坐标深度不为负,将第(1)组相机旋转矩阵R和平移向量t作为相机位姿变化的旋转矩阵R与平移向量t。
本发明提供的一种适于动态环境中单目视觉相机的位姿估计方法,能够提高相机位姿的准确度,从而提高整个SLAM***的精度。
结合这里披露的本发明的说明和实践,本发明的其他实施例对于本领域技术人员都是易于想到和理解的。说明和实施例仅被认为是示例性的,本发明的真正范围和主旨均由权利要求所限定。
Claims (10)
1.一种适于动态环境中单目视觉相机的位姿估计方法,其特征在于,所述方法包括:
获取图像,对每一帧图像进行ORB特征点检测;
对连续两帧图像进行特征点局部匹配;
判断特征点是否满足约束条件,若不满足约束条件,则将该特征点标记为动态点;
获取图像,对每一帧图像进行实例级分割得到物体轮廓,其中,对每个目标对象,在Faster R-CNN测试网络结构,增加一个指示对象在窗口中像素位置的二进制掩模图像的输出,通过卷积和最大池化层把二进制掩模图像压缩至原始大小的1/32进行分类预测;
当得到的物体轮廓内动态点的个数超过阈值,则将物体轮廓内的所有特征点标记为动态点;
利用RANSAC算法对未标记的动态点的特征点进行特征匹配,计算相机位姿变换的基础矩阵,得到相机旋转矩阵和平移向量,实现相机位姿估计。
2.根据权利要求1所述的方法,其特征在于,将每一帧图像分成M×N个等大的块进行ORB特征点检测。
3.根据权利要求1所述的方法,其特征在于,连续两帧图像进行特征点局部匹配过程中,设定匹配阈值,当某特征点的描述子与最佳匹配特征点的描述子的汉明距离大于所述匹配阈值,则认为该特征未能找到匹配点。
4.根据权利要去1所述的方法,其特征在于,所述约束条件包括极线约束和FVB约束。
5.根据权利要求4所述的方法,其特征在于,所述FVB约束的概率为:
其中,dmax和dmin为相机成像点的最大深度与最小深度zmax和最小深度zmin对应的特征点沿极线位移距离,FV为特征点的运动矢量,β为概率下降系数。
6.根据权利要求1所述的方法,其特征在于,在Faster R-CNN测试网络结构上添加完全卷积网络,作为一个分支网络。
7.根据权利要求1所述的方法,其特征在于,通过卷积和最大池化层把二进制掩模图像压缩至原始大小的1/32进行分类预测后,通过上采样和去卷积层进行图像还原。
8.根据权利要求1所述的方法,其特征在于,按照如下方法计算相机位姿变换的基础矩阵:
设两帧图片之间一对匹配的特征点为p1=[u1,v1,1]T,p2=[u2,v2,1]T,设基础矩阵为F,
则有
把基础矩阵F的各个元素作为一个向量处理,有:
f=[f1,f2,f3,f4,f5,f6,f7,f8,f9],
化为:
[u1u2,u1υ2,u1,υ1u2,υ1υ2,υ1,u2,υ2,1]·f=0
通过RANSAC算法循环计算得到误差最小的基础矩阵。
9.根据权利要求8所述的方法,其特征在于,由F=K-Tt×RK-1将得到误差最小的基础矩阵进行分解,求得对应的相机旋转矩阵R和平移向量t,其中,K为相机内参。
10.根据权利要求9所述的方法,其特征在于,任选一未标记的动态点的特征点对得到的相机旋转矩阵R和平移向量t进行验证,
当选取的未标记的动态点的特征点,经过相机旋转矩阵R和平移向量t变换得到的像点坐标深度为负,则舍弃该相机旋转矩阵R和平移向量t。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910444196.6A CN110298884B (zh) | 2019-05-27 | 2019-05-27 | 一种适于动态环境中单目视觉相机的位姿估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910444196.6A CN110298884B (zh) | 2019-05-27 | 2019-05-27 | 一种适于动态环境中单目视觉相机的位姿估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110298884A true CN110298884A (zh) | 2019-10-01 |
CN110298884B CN110298884B (zh) | 2023-05-30 |
Family
ID=68027240
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910444196.6A Active CN110298884B (zh) | 2019-05-27 | 2019-05-27 | 一种适于动态环境中单目视觉相机的位姿估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110298884B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110838145A (zh) * | 2019-10-09 | 2020-02-25 | 西安理工大学 | 一种室内动态场景的视觉定位与建图方法 |
CN110990563A (zh) * | 2019-11-18 | 2020-04-10 | 北京信息科技大学 | 一种基于人工智能的传统文化素材库构建方法及*** |
CN111160107A (zh) * | 2019-12-05 | 2020-05-15 | 东南大学 | 一种基于特征匹配的动态区域检测方法 |
CN111402336A (zh) * | 2020-03-23 | 2020-07-10 | 中国科学院自动化研究所 | 基于语义slam的动态环境相机位姿估计及语义地图构建方法 |
CN111724439A (zh) * | 2019-11-29 | 2020-09-29 | 中国科学院上海微***与信息技术研究所 | 一种动态场景下的视觉定位方法及装置 |
CN112396634A (zh) * | 2020-11-27 | 2021-02-23 | 苏州欧菲光科技有限公司 | 运动目标检测方法、装置、车辆及存储介质 |
CN112633300A (zh) * | 2020-12-30 | 2021-04-09 | 中国人民解放军国防科技大学 | 一种多维交互的图像特征参数提取匹配方法 |
CN114066987A (zh) * | 2022-01-12 | 2022-02-18 | 深圳佑驾创新科技有限公司 | 一种相机位姿估计方法、装置、设备及存储介质 |
WO2022041596A1 (zh) * | 2020-08-31 | 2022-03-03 | 同济人工智能研究院(苏州)有限公司 | 一种适用于室内动态环境的视觉slam方法 |
CN115170847A (zh) * | 2022-09-05 | 2022-10-11 | 煤炭科学研究总院有限公司 | 基于先验地图约束的煤矿井下单目视觉定位方法及装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140126769A1 (en) * | 2012-11-02 | 2014-05-08 | Qualcomm Incorporated | Fast initialization for monocular visual slam |
EP2840550A1 (en) * | 2013-08-19 | 2015-02-25 | Delphi Technologies, Inc. | Camera pose estimation |
CN105015419A (zh) * | 2015-07-17 | 2015-11-04 | 中山大学 | 基于立体视觉定位与建图的自动泊车***及方法 |
CN106803275A (zh) * | 2017-02-20 | 2017-06-06 | 苏州中科广视文化科技有限公司 | 基于相机位姿估计和空间采样的2d全景视频生成 |
CN107578419A (zh) * | 2017-09-13 | 2018-01-12 | 温州大学 | 一种基于一致性轮廓提取的立体图像分割方法 |
CN108615248A (zh) * | 2018-04-27 | 2018-10-02 | 腾讯科技(深圳)有限公司 | 相机姿态追踪过程的重定位方法、装置、设备及存储介质 |
CN108898610A (zh) * | 2018-07-20 | 2018-11-27 | 电子科技大学 | 一种基于mask-RCNN的物体轮廓提取方法 |
CN109118519A (zh) * | 2018-07-26 | 2019-01-01 | 北京纵目安驰智能科技有限公司 | 基于实例分割的目标Re-ID方法、***、终端和存储介质 |
CN109544636A (zh) * | 2018-10-10 | 2019-03-29 | 广州大学 | 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法 |
-
2019
- 2019-05-27 CN CN201910444196.6A patent/CN110298884B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140126769A1 (en) * | 2012-11-02 | 2014-05-08 | Qualcomm Incorporated | Fast initialization for monocular visual slam |
EP2840550A1 (en) * | 2013-08-19 | 2015-02-25 | Delphi Technologies, Inc. | Camera pose estimation |
CN105015419A (zh) * | 2015-07-17 | 2015-11-04 | 中山大学 | 基于立体视觉定位与建图的自动泊车***及方法 |
CN106803275A (zh) * | 2017-02-20 | 2017-06-06 | 苏州中科广视文化科技有限公司 | 基于相机位姿估计和空间采样的2d全景视频生成 |
CN107578419A (zh) * | 2017-09-13 | 2018-01-12 | 温州大学 | 一种基于一致性轮廓提取的立体图像分割方法 |
CN108615248A (zh) * | 2018-04-27 | 2018-10-02 | 腾讯科技(深圳)有限公司 | 相机姿态追踪过程的重定位方法、装置、设备及存储介质 |
CN108898610A (zh) * | 2018-07-20 | 2018-11-27 | 电子科技大学 | 一种基于mask-RCNN的物体轮廓提取方法 |
CN109118519A (zh) * | 2018-07-26 | 2019-01-01 | 北京纵目安驰智能科技有限公司 | 基于实例分割的目标Re-ID方法、***、终端和存储介质 |
CN109544636A (zh) * | 2018-10-10 | 2019-03-29 | 广州大学 | 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法 |
Non-Patent Citations (5)
Title |
---|
ABHIJIT KUNDU等: "Moving Object Detection by Multi-View Geometric Techniques from a Single Camera Mounted Robot", 《THE 2009 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS》 * |
CHAO YU等: "DS-SLAM: A Semantic Visual SLAM towards Dynamic Environments", 《2018 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS (IROS)》 * |
KAIMING HE等: "Mask R-CNN", 《ARXIV:1703.06870V3》 * |
王鹏等: "基于单目视觉的相机位姿解算", 《电子科技》 * |
陈文: "基于视觉的移动机器人同时定位与建图算法的研究" * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110838145A (zh) * | 2019-10-09 | 2020-02-25 | 西安理工大学 | 一种室内动态场景的视觉定位与建图方法 |
CN110838145B (zh) * | 2019-10-09 | 2020-08-18 | 西安理工大学 | 一种室内动态场景的视觉定位与建图方法 |
CN110990563A (zh) * | 2019-11-18 | 2020-04-10 | 北京信息科技大学 | 一种基于人工智能的传统文化素材库构建方法及*** |
CN111724439A (zh) * | 2019-11-29 | 2020-09-29 | 中国科学院上海微***与信息技术研究所 | 一种动态场景下的视觉定位方法及装置 |
CN111724439B (zh) * | 2019-11-29 | 2024-05-17 | 中国科学院上海微***与信息技术研究所 | 一种动态场景下的视觉定位方法及装置 |
CN111160107A (zh) * | 2019-12-05 | 2020-05-15 | 东南大学 | 一种基于特征匹配的动态区域检测方法 |
CN111402336A (zh) * | 2020-03-23 | 2020-07-10 | 中国科学院自动化研究所 | 基于语义slam的动态环境相机位姿估计及语义地图构建方法 |
CN111402336B (zh) * | 2020-03-23 | 2024-03-12 | 中国科学院自动化研究所 | 基于语义slam的动态环境相机位姿估计及语义地图构建方法 |
WO2022041596A1 (zh) * | 2020-08-31 | 2022-03-03 | 同济人工智能研究院(苏州)有限公司 | 一种适用于室内动态环境的视觉slam方法 |
CN112396634A (zh) * | 2020-11-27 | 2021-02-23 | 苏州欧菲光科技有限公司 | 运动目标检测方法、装置、车辆及存储介质 |
CN112633300B (zh) * | 2020-12-30 | 2023-06-20 | 中国人民解放军国防科技大学 | 一种多维交互的图像特征参数提取匹配方法 |
CN112633300A (zh) * | 2020-12-30 | 2021-04-09 | 中国人民解放军国防科技大学 | 一种多维交互的图像特征参数提取匹配方法 |
CN114066987A (zh) * | 2022-01-12 | 2022-02-18 | 深圳佑驾创新科技有限公司 | 一种相机位姿估计方法、装置、设备及存储介质 |
CN115170847A (zh) * | 2022-09-05 | 2022-10-11 | 煤炭科学研究总院有限公司 | 基于先验地图约束的煤矿井下单目视觉定位方法及装置 |
CN115170847B (zh) * | 2022-09-05 | 2022-12-13 | 煤炭科学研究总院有限公司 | 基于先验地图约束的煤矿井下单目视觉定位方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110298884B (zh) | 2023-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110298884A (zh) | 一种适于动态环境中单目视觉相机的位姿估计方法 | |
US11205298B2 (en) | Method and system for creating a virtual 3D model | |
Lv et al. | Learning rigidity in dynamic scenes with a moving camera for 3d motion field estimation | |
Mitrokhin et al. | EV-IMO: Motion segmentation dataset and learning pipeline for event cameras | |
US9626568B2 (en) | Use of spatially structured light for dynamic three dimensional reconstruction and reality augmentation | |
CN108898676B (zh) | 一种虚实物体之间碰撞及遮挡检测方法及*** | |
CN110378838B (zh) | 变视角图像生成方法,装置,存储介质及电子设备 | |
CN110223377A (zh) | 一种基于立体视觉***高精度的三维重建方法 | |
US11941831B2 (en) | Depth estimation | |
CN111815707B (zh) | 点云确定方法、点云筛选方法、装置、计算机设备 | |
CN108053449A (zh) | 双目视觉***的三维重建方法、装置及双目视觉*** | |
CN108764244B (zh) | 基于卷积神经网络和条件随机场的潜在目标区域检测方法 | |
CN110738731A (zh) | 一种用于双目视觉的3d重建方法和*** | |
CN113313740B (zh) | 一种基于平面连续性的视差图和表面法向量联合学习方法 | |
CN115035235A (zh) | 三维重建方法及装置 | |
CN112802197A (zh) | 动态场景下基于全卷积神经网络的视觉slam方法及*** | |
CN113436130B (zh) | 一种非结构光场智能感知***与装置 | |
JP7432793B1 (ja) | 三次元点群に基づくマッピング方法、装置、チップ及びモジュール機器 | |
CN113628250A (zh) | 目标跟踪方法、装置、电子设备以及可读存储介质 | |
CN116958927A (zh) | 一种基于bev图识别矮小柱状体的方法及装置 | |
CN116152442A (zh) | 一种三维点云模型生成方法及装置 | |
CN116630912A (zh) | 三维语义占用预测方法、***、设备、介质及产品 | |
US11747141B2 (en) | System and method for providing improved geocoded reference data to a 3D map representation | |
CN110717471B (zh) | 基于支持向量机模型b超图像目标检测方法及b超扫描仪 | |
CN111489384B (zh) | 基于互视角的遮挡评估方法及装置、设备、***和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |