CN110349250A - 一种基于rgbd相机的室内动态场景的三维重建方法 - Google Patents

一种基于rgbd相机的室内动态场景的三维重建方法 Download PDF

Info

Publication number
CN110349250A
CN110349250A CN201910572096.1A CN201910572096A CN110349250A CN 110349250 A CN110349250 A CN 110349250A CN 201910572096 A CN201910572096 A CN 201910572096A CN 110349250 A CN110349250 A CN 110349250A
Authority
CN
China
Prior art keywords
point
dynamic
frame
camera
convolutional neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910572096.1A
Other languages
English (en)
Other versions
CN110349250B (zh
Inventor
林斌
曹权
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201910572096.1A priority Critical patent/CN110349250B/zh
Publication of CN110349250A publication Critical patent/CN110349250A/zh
Application granted granted Critical
Publication of CN110349250B publication Critical patent/CN110349250B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Graphics (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Geometry (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于RGBD相机的室内动态场景的三维重建方法,包括标定RGBD相机、采集场景图像、提取特征点、动态点检测与剔除、利用卷积神经网络和多视图几何法相结合的方式来进行动态点的剔除、再跟踪、***新关键帧、局部地图优化、回环检测等步骤,使用该方法有效的解决了三维重建在动态场景下相机位姿估计不准确以及动态物体重影的问题,本发明对动态区域检测步骤进行了时间上的优化,可以实现实时重建的效果。在TUM的数据集上我们用相机轨迹绝对误差进行衡量,其均方根误差由先前的0.752提高至0.025。

Description

一种基于RGBD相机的室内动态场景的三维重建方法
技术领域
本发明属于三维成像领域,具体的说,是一种基于RGBD相机的室内动态场景的三维重建方法。
背景技术
在近些年的计算机技术的进步,AR、VR技术逐渐成为研究的热点领域之一,在智能家居领域,在虚拟购物领域有着重要的应用,如何有效的重建周围的场景是其中的研究的方向之一。随着人工智能技术的进步,在汽车自动驾驶领域,无人机自主飞行领域同样需要解决周围场景的构建以及自身的定位问题。
SLAM(同时定位与地图构建)技术的出现很好的解决了以上的问题。SLAM***利用搭载于物体上传感器(例如视觉SLAM中的单目、双目相机)来获得外界信息,利用这些信息对自身的位置和姿态进行估计,根据需要构建出地图。
与此同时,近几年深度学习的神经网络在图像识别和分割领域的表现令人惊艳,Alex-Net,Google-Net,VGG,Res-Net等网络不断刷新着目标识别数据集的准确率。因此与深度学习相结合的语义SLAM***有了新的发展。语义SLAM***在对周围场景进行重建的同时能够对场景中的物体进行识别,将其应用在机器人领域可以提高机器人对周围场景的理解与认知,可以为机器人完成更加复杂的任务提供可能。将其应用在自动驾驶领域可以实现主动避障,危险预警等功能,因此语义SLAM有着广阔的应用前景。
传统的SLAM方法很好的解决了静态场景下的定位和建图问题,但是在有动态物体的场景中,这些方法的定位和建图的准确度很差,因为传统的SLAM方法难以区分出动态物体和静态物体,而它们进行相同的处理。但实际上,动态物体提取的特征点与静态背景的特征点运动时不一致的,这会严重影响相机位置的定位,从而影响建图的结果。在实际应用中,消除动态物体也是很有必要的,例如在扫地机器人的路径规划和导航中,如果不能消除人,狗,猫等动态物体,会使机器人的导航路径产生偏差。
本发明解决了SLAM***中在动态场景下轨迹估计不准确,地图重建时产生重影的问题。本发明在SLAM***中加入了卷积神经网络,利用卷积神经网络对物体进行分割,利用先验知识和多视图几何法对动态点进行判断,从而消除了动态点对场景的影响。
发明内容
本发明的目的是针对现有三维重建方法在动态场景下存在的问题提出了一种基于RGBD相机和卷积神经网络的三维重建方法,是利用深度相机和彩色相机对室内场景进行三维重建,利用语义分割的方法消除了动态物体对最终重建效果的影响。
本发明是通过以下技术方案来实现的:
本发明公开了一种基于RGBD相机和卷积神经网络的三维重建方法,三维重建方法所用的装置主要包括RGBD相机,带有GPU的PC机,具体步骤如下:
1)、标定RGBD相机:得到RGBD相机的彩色相机内参值和深度相机的内参值以及深度相机和彩色相机的转移矩阵;
2)、采集场景图像:每一帧包括一张彩色图和深度图,利用RGBD相机的SDK将彩色图与深度图对齐;
3)、提取特征点:利用ORB特征点算法提取出彩色图像中的特征点;
4)、动态点检测与剔除:利用卷积神经网络和多视图几何法相结合的方式来进行动态点的剔除;
5)、再跟踪:在利用多视图几何法进一步剔除动态点后,重新利用速度模型和参考帧模型进行对当前帧位姿进行估计,在得到初始位姿后在局部地图中进行更精确的跟踪;
6)、***新关键帧:判断***新关键帧的依据是,距离上一次***关键帧超过了20帧以上,当前帧追踪到了到的地图点少于50个,当前帧与参考帧的重合比例少于90%;
7)、局部地图优化:对新加入的关键帧、新加入关键帧的所有共视帧及所有共视帧中的地图点进行BA优化;
8)、回环检测:利用当前关键帧的词袋模型判断是否与之前帧构成闭环,若过闭环一致性检,则计算闭环帧之间的相似变换,相邻帧进行闭环矫正。
作为进一步地改进,本发明所述的步骤4)中,动态点检测与剔除包括如下步骤:
a)、图像分割与识别:利用重新训练的SegNet网络(一种基于卷积神经网络的语义分割网络)对彩色图像进行分割,得到每个像素的标签,得到的人和其他动物的区域属于动态区域,其内的特征点属于动态点,对这些动态点进行剔除操作;
b)、跟踪:将当前帧剔除后的特征点和上一帧或者上一个参考帧做特征点匹配,将利用速度模型或参考帧模型估计出当前帧的一个初始位姿;
c)、多视图几何法判断动态点:通过比较某一空间特征点投影到当前帧上深度估计值与该点的深度测量值来进行判断,当其差值大于一定阈值是认为该点为动态点;
d)、对多视图几何法得到动态点,对其在深度图上进行区域生长操作,得到动态区域;
e)、将卷积神经网络和多视图几何法得到的两个动态区域进行融合,融合的具体操作方法是对两个区域取并集。
f)、作为进一步的改进,为了提高检测速度,每5帧进行一次动态区域检测,即每5帧重复以上a)-e)步骤。
作为进一步地改进,本发明所述的步骤c)中的具体判断的原理如下:将空间点X的坐标投影到当前帧上可以获得图像点x′,同时可以估计它的深度信息zproj,如果一个动态物体对X进行了遮挡,则实际测量得到的深度信息z′会小于zproj,因此当某个点的′Δz=zproj-z′大于某个阈值τ时,将其归类为动态点。
作为进一步地改进,本发明所述的τ值为0.5m。
作为进一步地改进,本发明所述的步骤6)后,步骤7)前还包括如下步骤:送入建图线程,建图线程负责将相机位姿,彩色图,深度图生成点云图。
作为进一步地改进,本发明所述的RGBD相机为Kinect V2(微软第二代3D体感摄影机)。
本发明的有益效果如下:
本发明提出了一种语义分割相结合的三维重建方法,使用该方法有效的解决了三维重建在动态场景下相机位姿估计不准确以及动态物体重影的问题,利用SegNet网络对图像进行分割,利用先验知识排除属于动态区域的点,再利用多视图几何法进一步判断图像中属于动态部分的其他点,最后利用所有静态点进行相机位姿估计和三维场景重建。本发明对动态区域检测步骤进行了时间上的优化,可以实现实时重建的效果。在TUM的数据集上我们用相机轨迹绝对误差进行衡量,其均方根误差由先前的0.752提高至0.025。
附图说明
图1是本发明***的流程示意图;
图2是多视图几何法判断动态点原理示意图。
具体实施方法
本发明公开了一种基于RGBD相机的室内三维重建方法,,着重解决室内场景中的动态物体,装置主要由RGBD相机,带有GPU的PC机组成,RGBD相机为Kinect,图1是本发明***的流程示意图;具体步骤如下:
标定Kinect相机,得到Kinect的彩色相机内参值和深度相机的内参值以及深度相机和彩色相机的转移矩阵。
采集场景图像:每一帧包括一张彩色图和深度图,利用Kinect的SDK将彩色图与深度图对齐。
提取特征点:利用ORB特征点算法提取出彩色图像中的特征点。
动态点剔除:本发明利用卷积神经网络和多视图几何法相结合的方式来进行动态点的剔除。具体方法如下:
1、利用重新训练的SegNet网络对彩色图像进行分割,得到每个像素的标签,得到的人和其他动物的区域属于动态区域,其内的特征点属于动态点,对这些动态点进行剔除操作。
2、跟踪:将当前帧剔除后的特征点和上一帧或者上一个参考帧做特征点匹配,将利用速度模型或参考帧模型估计出当前帧的一个初始位姿
3、多视图几何法判断动态点:通过比较某一空间特征点投影到当前帧上深度估计值与该点的深度测量值来进行判断,当其差值大于一定阈值是认为该点为动态点。
4、对多视图几何法得到动态点,对其在深度图上进行区域生长操作,得到动态区域。
5、将卷积神经网络和多视图几何法得到的两个动态区域进行融合:融合的具体操作方法是对两个区域取并集。
6、为了提高检测速度,每5帧进行一次动态区域检测。
再跟踪:在剔除动态点后,重新利用速度模型和参考帧模型进行对当前帧位姿进行估计,在得到初始位姿后在局部地图中进行更精确的跟踪。
***新关键帧:判断***新关键帧的依据是:距离上一次***关键帧超过了20帧以上,当前帧追踪到了到的地图点少于50个,当前帧与参考帧的重合比例少于90%。
送入建图线程,建图线程负责将相机位姿,彩色图,深度图生成点云图。
局部地图优化:对于新加入的关键帧,找出其共视帧和这些共视帧可以观察到的地图点,进行BA优化。
回环检测:利用当前关键帧的词袋模型判断是否能与之前帧构成闭环,如果通过闭环一致性检,则计算闭环帧之间的相似变换,并对相邻帧进行闭环矫正。
下面通过具体实施例对本发明的技术方案作进一步地说明:
作为一种优选RGBD相机采用了KinectV2,具体步骤如下:
步骤一:使用棋盘格对KinectV2进行标定,通过标定算法得到得到Kinect的彩色相机内参值和深度相机的内参值以及深度相机和彩色相机的转移矩阵R,T;
步骤二:可以手持Kinect或者将Kinect置于移动机器人上,对室内场景进行采集,其中Kinect得到每一帧信息包括一张彩色图和深度图,需要利用Kinect的SDK将彩色图与深度图对齐。
步骤三:对输入的每一帧图像进行跟踪,这一步包含了动态点部分的剔除以及对相机位姿的初始跟踪。
1、提取特征点:利用ORB特征点算法提取出彩色图像中的特征点。
2、动态点检测与剔除:
a)图像分割与识别:利用重新训练的SegNet网络对彩色图像进行分割,得到每个像素的标签,得到的人和其他动物的区域属于动态区域,其内的特征点属于动态点,对这些动态点进行剔除操作。
b)跟踪:将当前帧剔除后的特征点和上一帧或者上一个参考帧做特征点匹配,将利用速度模型或参考帧模型估计出当前帧的一个初始估计位姿
c)多视图几何法判断动态点:图2是多视图几何法判断动态点原理示意图;利用上一步求得的初始估计位姿对特征点进行判断是否属于动态点,具体判断的原理如下:将空间点X的坐标投影到当前帧上可以获得图像点x′,同时可以估计它的深度信息zproj,如果一个动态物体对X进行了遮挡,则实际测量得到的深度信息z′会小于zproj,如图2所示。因此当某个点的′Δz=zproj-z′大于某个阈值τ时,将其归类为动态点。经过多次实验我们将τ设置为0.5m。
d)对多视图几何法得到动态点,对其在深度图上进行区域生长操作,得到动态区域。
e)将卷积神经网络和多视图几何法得到的两个动态区域进行融合:融合的具体操作方法是对两个区域取并集。
f)为了提高检测速度,每5帧进行一次动态区域检测,对于未进行动态区域检测的帧,需要同已经进行动态区域检测的帧进行特征点匹配。利用匹配后落在动态区域外的特征点进行相机位姿估计。
3、再跟踪:在利用多视图几何法进一步剔除动态点后,重新利用速度模型和参考帧模型进行对当前帧位姿进行估计,在得到初始位姿后在局部地图中进行更精确的跟踪。
4、***新关键帧:判断***新关键帧的依据是:距离上一次***关键帧超过了20帧以上,当前帧追踪到了到的地图点少于50个,当前帧与参考帧的重合比例少于90%。
步骤四:局部地图优化:对新加入的关键帧、新加入关键帧的所有共视帧及所有共视帧中的地图点进行BA优化。
如果设观测方程为z=h(ξ,p),这里ξ是相机位姿的李代数表示,p表示路标点的世界坐标,而观测数据z表示像素坐标z=[us,vs]T,因此投影误差表示为e=z-h(ξ,p),对于BA优化是要将共视帧和共视帧中的地图点考虑进来,因此总的误差项写为
也就是让上述误差项最小,其中eij表示在第i个位姿观测第j个特征点的误差。
步骤五:回环检测,利用当前关键帧的词袋模型判断是否与之前帧构成闭环,如果通过闭环一致性检,则计算闭环帧之间的相似变换,相邻帧进行闭环矫正。
本发明最终的重建结果是:可以完整的还原出室内静态场景,并输出室内场景的彩色点云地图,点云地图中有效地消除了人等动态物体产生的残影。
以上所述并非是对本发明的限制,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明实质范围的前提下,还可以做出若干变化、改型、添加或替换,这些改进和润饰也应视为本发明的保护范围。

Claims (6)

1.一种基于RGBD相机和卷积神经网络的三维重建方法,其特征在于,三维重建方法所用的装置主要包括RGBD相机,带有GPU的PC机,具体步骤如下:
1)、标定RGBD相机:得到RGBD相机的彩色相机内参值和深度相机的内参值以及深度相机和彩色相机的转移矩阵;
2)、采集场景图像:每一帧包括一张彩色图和深度图,利用RGBD相机的SDK将彩色图与深度图对齐;
3)、提取特征点:利用ORB特征点算法提取出彩色图像中的特征点;
4)、动态点检测与剔除:利用卷积神经网络和多视图几何法相结合的方式来进行动态点的剔除;
5)、再跟踪:在利用多视图几何法进一步剔除动态点后,重新利用速度模型和参考帧模型进行对当前帧位姿进行估计,在得到初始位姿后在局部地图中进行更精确的跟踪;
6)、***新关键帧:判断***新关键帧的依据是,距离上一次***关键帧超过了20帧以上,当前帧追踪到了到的地图点少于50个,当前帧与参考帧的重合比例少于90%;
7)、局部地图优化:对新加入的关键帧、新加入关键帧的所有共视帧及所有共视帧中的地图点进行BA优化;
8)、回环检测:利用当前关键帧的词袋模型判断是否与之前帧构成闭环,若过闭环一致性检,则计算闭环帧之间的相似变换,相邻帧进行闭环矫正。
2.根据权利要求1所述的基于RGBD相机和卷积神经网络的三维重建方法,其特征在于,所述的步骤4)中,动态点检测与剔除包括如下步骤:
a)、图像分割与识别:利用重新训练的SegNet网络(一种基于卷积神经网络的语义分割网络);
对彩色图像进行分割,得到每个像素的标签,得到的人和其他动物的区域属于动态区域,其内的特征点属于动态点,对这些动态点进行剔除操作;
b)、跟踪:将当前帧剔除后的特征点和上一帧或者上一个参考帧做特征点匹配,将利用速度模型或参考帧模型估计出当前帧的一个初始位姿;
c)、多视图几何法判断动态点:通过比较某一空间特征点投影到当前帧上深度估计值与该点的深度测量值来进行判断,当其差值大于一定阈值是认为该点为动态点;
d)、对多视图几何法得到动态点,对其在深度图上进行区域生长操作,得到动态区域;
e)、将卷积神经网络和多视图几何法得到的两个动态区域进行融合,融合的具体操作方法是对两个区域取并集。
f)、作为进一步的改进,为了提高检测速度,每5帧进行一次动态区域检测,即每5帧重复以上a)-e)步骤。
3.根据权利要求2所述的基于RGBD相机和卷积神经网络的三维重建方法,其特征在于,所述的步骤c)中的具体判断的原理如下:将空间点X的坐标投影到当前帧上可以获得图像点x′,同时可以估计它的深度信息zproj,如果一个动态物体对X进行了遮挡,则实际测量得到的深度信息z′会小于zproj,因此当某个点的′Δz=zproj-z′大于某个阈值τ时,将其归类为动态点。
4.根据权利要求3所述的基于RGBD相机和卷积神经网络的三维重建方法,其特征在于,所述的ττ值为0.5m。
5.根据权利要求1所述的基于RGBD相机和卷积神经网络的三维重建方法,其特征在于,所述的步骤6)后,步骤7)前还包括如下步骤:送入建图线程,建图线程负责将相机位姿,彩色图,深度图生成点云图。
6.根据权利要求1或2或3或4或5所述的基于RGBD相机和卷积神经网络的三维重建方法,其特征在于,所述的RGBD相机为KinectV2(微软第二代3D体感摄影机)。
CN201910572096.1A 2019-06-28 2019-06-28 一种基于rgbd相机的室内动态场景的三维重建方法 Active CN110349250B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910572096.1A CN110349250B (zh) 2019-06-28 2019-06-28 一种基于rgbd相机的室内动态场景的三维重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910572096.1A CN110349250B (zh) 2019-06-28 2019-06-28 一种基于rgbd相机的室内动态场景的三维重建方法

Publications (2)

Publication Number Publication Date
CN110349250A true CN110349250A (zh) 2019-10-18
CN110349250B CN110349250B (zh) 2020-12-22

Family

ID=68177197

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910572096.1A Active CN110349250B (zh) 2019-06-28 2019-06-28 一种基于rgbd相机的室内动态场景的三维重建方法

Country Status (1)

Country Link
CN (1) CN110349250B (zh)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111161318A (zh) * 2019-12-30 2020-05-15 广东工业大学 一种基于yolo算法及gms特征匹配的动态场景slam方法
CN111160107A (zh) * 2019-12-05 2020-05-15 东南大学 一种基于特征匹配的动态区域检测方法
CN111402336A (zh) * 2020-03-23 2020-07-10 中国科学院自动化研究所 基于语义slam的动态环境相机位姿估计及语义地图构建方法
CN111390975A (zh) * 2020-04-27 2020-07-10 浙江库科自动化科技有限公司 具有摘风管功能的巡检智能机器人及其巡检方法
CN111462179A (zh) * 2020-03-26 2020-07-28 北京百度网讯科技有限公司 三维物体跟踪方法、装置及电子设备
CN111709982A (zh) * 2020-05-22 2020-09-25 浙江四点灵机器人股份有限公司 一种动态环境三维重建方法
CN111724439A (zh) * 2019-11-29 2020-09-29 中国科学院上海微***与信息技术研究所 一种动态场景下的视觉定位方法及装置
CN111739037A (zh) * 2020-07-31 2020-10-02 之江实验室 一种针对室内场景rgb-d图像的语义分割方法
CN111914832A (zh) * 2020-06-03 2020-11-10 华南理工大学 一种rgb-d相机在动态场景下的slam方法
CN112037261A (zh) * 2020-09-03 2020-12-04 北京华捷艾米科技有限公司 一种图像动态特征去除方法及装置
CN112037268A (zh) * 2020-09-02 2020-12-04 中国科学技术大学 一种动态场景下的基于概率传递模型的环境感知方法
CN112101160A (zh) * 2020-09-04 2020-12-18 浙江大学 一种面向自动驾驶场景的双目语义slam方法
CN112220444A (zh) * 2019-11-20 2021-01-15 北京健康有益科技有限公司 一种基于深度相机的瞳距测量方法和装置
CN112258618A (zh) * 2020-11-04 2021-01-22 中国科学院空天信息创新研究院 基于先验激光点云与深度图融合的语义建图与定位方法
CN112435262A (zh) * 2020-11-27 2021-03-02 广东电网有限责任公司肇庆供电局 基于语义分割网络和多视图几何的动态环境信息检测方法
CN112530014A (zh) * 2020-12-18 2021-03-19 北京理工大学重庆创新中心 一种多无人机室内场景三维重建方法及装置
CN112651357A (zh) * 2020-12-30 2021-04-13 浙江商汤科技开发有限公司 图像中目标物体的分割方法、三维重建方法及相关装置
CN112767409A (zh) * 2019-11-05 2021-05-07 珠海格力电器股份有限公司 定位前图像处理方法、装置、存储介质、计算机设备
CN112802186A (zh) * 2021-01-27 2021-05-14 清华大学 基于二值化特征编码匹配的动态场景实时三维重建方法
CN112802053A (zh) * 2021-01-27 2021-05-14 广东工业大学 一种面向动态环境稠密建图的动态物体检测方法
CN112907677A (zh) * 2019-12-04 2021-06-04 杭州海康威视数字技术股份有限公司 一种单帧图像的相机标定方法、装置及存储介质
CN113447014A (zh) * 2021-08-30 2021-09-28 深圳市大道智创科技有限公司 室内移动机器人、建图方法、定位方法以及建图定位装置
CN113673524A (zh) * 2021-07-05 2021-11-19 北京物资学院 一种仓库半结构化环境动态特征点祛除方法及装置
WO2022110514A1 (zh) * 2020-11-27 2022-06-02 叠境数字科技(上海)有限公司 基于rgb-d图像和多相机***的图像插值方法及装置
CN114723672A (zh) * 2022-03-09 2022-07-08 杭州易现先进科技有限公司 一种三维重建数据采集校验的方法、***、装置和介质
CN116206068A (zh) * 2023-04-28 2023-06-02 北京科技大学 基于真实数据集的三维驾驶场景生成与构建方法及装置
CN116258817A (zh) * 2023-02-16 2023-06-13 浙江大学 一种基于多视图三维重建的自动驾驶数字孪生场景构建方法和***
CN116452776A (zh) * 2023-06-19 2023-07-18 国网浙江省电力有限公司湖州供电公司 基于视觉同步定位与建图***的低碳变电站场景重建方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103049929A (zh) * 2012-11-20 2013-04-17 浙江大学 基于联合优化的多摄像机动态场景3d重建方法
US20130182894A1 (en) * 2012-01-18 2013-07-18 Samsung Electronics Co., Ltd. Method and apparatus for camera tracking
CN107193279A (zh) * 2017-05-09 2017-09-22 复旦大学 基于单目视觉和imu信息的机器人定位与地图构建***
CN107833236A (zh) * 2017-10-31 2018-03-23 中国科学院电子学研究所 一种动态环境下结合语义的视觉定位***和方法
CN108596974A (zh) * 2018-04-04 2018-09-28 清华大学 动态场景机器人定位建图***及方法
KR20180112622A (ko) * 2017-04-04 2018-10-12 엘지전자 주식회사 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 방법 및 이를 구현하는 로봇
CN109387204A (zh) * 2018-09-26 2019-02-26 东北大学 面向室内动态环境的移动机器人同步定位与构图方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130182894A1 (en) * 2012-01-18 2013-07-18 Samsung Electronics Co., Ltd. Method and apparatus for camera tracking
CN103049929A (zh) * 2012-11-20 2013-04-17 浙江大学 基于联合优化的多摄像机动态场景3d重建方法
KR20180112622A (ko) * 2017-04-04 2018-10-12 엘지전자 주식회사 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 방법 및 이를 구현하는 로봇
CN107193279A (zh) * 2017-05-09 2017-09-22 复旦大学 基于单目视觉和imu信息的机器人定位与地图构建***
CN107833236A (zh) * 2017-10-31 2018-03-23 中国科学院电子学研究所 一种动态环境下结合语义的视觉定位***和方法
CN108596974A (zh) * 2018-04-04 2018-09-28 清华大学 动态场景机器人定位建图***及方法
CN109387204A (zh) * 2018-09-26 2019-02-26 东北大学 面向室内动态环境的移动机器人同步定位与构图方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JIANBO ZHANG,ET AL: "《Semantic Segmentation based Dense RGB-D SLAM in Dynamic Environments》", 《2019 3RD INTERNATIONAL CONFERENCE ON ARTIFICIAL INTELLIGENCE, AUTOMATION AND CONTROL TECHNOLOGIES (AIACT 2019) 》 *
代具亭: "《基于RGB-D视频序列的大尺度场景三维语义表面重建技术研究》", 《中国博士学位论文全文数据库 信息科技辑》 *

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112767409A (zh) * 2019-11-05 2021-05-07 珠海格力电器股份有限公司 定位前图像处理方法、装置、存储介质、计算机设备
CN112220444A (zh) * 2019-11-20 2021-01-15 北京健康有益科技有限公司 一种基于深度相机的瞳距测量方法和装置
CN112220444B (zh) * 2019-11-20 2021-06-29 北京健康有益科技有限公司 一种基于深度相机的瞳距测量方法和装置
CN111724439A (zh) * 2019-11-29 2020-09-29 中国科学院上海微***与信息技术研究所 一种动态场景下的视觉定位方法及装置
CN111724439B (zh) * 2019-11-29 2024-05-17 中国科学院上海微***与信息技术研究所 一种动态场景下的视觉定位方法及装置
CN112907677A (zh) * 2019-12-04 2021-06-04 杭州海康威视数字技术股份有限公司 一种单帧图像的相机标定方法、装置及存储介质
CN112907677B (zh) * 2019-12-04 2023-07-25 杭州海康威视数字技术股份有限公司 一种单帧图像的相机标定方法、装置及存储介质
CN111160107A (zh) * 2019-12-05 2020-05-15 东南大学 一种基于特征匹配的动态区域检测方法
CN111161318A (zh) * 2019-12-30 2020-05-15 广东工业大学 一种基于yolo算法及gms特征匹配的动态场景slam方法
CN111402336B (zh) * 2020-03-23 2024-03-12 中国科学院自动化研究所 基于语义slam的动态环境相机位姿估计及语义地图构建方法
CN111402336A (zh) * 2020-03-23 2020-07-10 中国科学院自动化研究所 基于语义slam的动态环境相机位姿估计及语义地图构建方法
CN111462179B (zh) * 2020-03-26 2023-06-27 北京百度网讯科技有限公司 三维物体跟踪方法、装置及电子设备
CN111462179A (zh) * 2020-03-26 2020-07-28 北京百度网讯科技有限公司 三维物体跟踪方法、装置及电子设备
CN111390975A (zh) * 2020-04-27 2020-07-10 浙江库科自动化科技有限公司 具有摘风管功能的巡检智能机器人及其巡检方法
CN111709982A (zh) * 2020-05-22 2020-09-25 浙江四点灵机器人股份有限公司 一种动态环境三维重建方法
CN111914832A (zh) * 2020-06-03 2020-11-10 华南理工大学 一种rgb-d相机在动态场景下的slam方法
CN111914832B (zh) * 2020-06-03 2023-06-13 华南理工大学 一种rgb-d相机在动态场景下的slam方法
CN111739037A (zh) * 2020-07-31 2020-10-02 之江实验室 一种针对室内场景rgb-d图像的语义分割方法
CN111739037B (zh) * 2020-07-31 2020-12-01 之江实验室 一种针对室内场景rgb-d图像的语义分割方法
CN112037268A (zh) * 2020-09-02 2020-12-04 中国科学技术大学 一种动态场景下的基于概率传递模型的环境感知方法
CN112037268B (zh) * 2020-09-02 2022-09-02 中国科学技术大学 一种动态场景下的基于概率传递模型的环境感知方法
CN112037261A (zh) * 2020-09-03 2020-12-04 北京华捷艾米科技有限公司 一种图像动态特征去除方法及装置
CN112101160A (zh) * 2020-09-04 2020-12-18 浙江大学 一种面向自动驾驶场景的双目语义slam方法
CN112101160B (zh) * 2020-09-04 2024-01-05 浙江大学 一种面向自动驾驶场景的双目语义slam方法
CN112258618A (zh) * 2020-11-04 2021-01-22 中国科学院空天信息创新研究院 基于先验激光点云与深度图融合的语义建图与定位方法
CN112258618B (zh) * 2020-11-04 2021-05-14 中国科学院空天信息创新研究院 基于先验激光点云与深度图融合的语义建图与定位方法
WO2022110514A1 (zh) * 2020-11-27 2022-06-02 叠境数字科技(上海)有限公司 基于rgb-d图像和多相机***的图像插值方法及装置
CN112435262A (zh) * 2020-11-27 2021-03-02 广东电网有限责任公司肇庆供电局 基于语义分割网络和多视图几何的动态环境信息检测方法
CN112530014A (zh) * 2020-12-18 2021-03-19 北京理工大学重庆创新中心 一种多无人机室内场景三维重建方法及装置
CN112530014B (zh) * 2020-12-18 2023-07-25 北京理工大学重庆创新中心 一种多无人机室内场景三维重建方法及装置
CN112651357B (zh) * 2020-12-30 2024-05-24 浙江商汤科技开发有限公司 图像中目标物体的分割方法、三维重建方法及相关装置
CN112651357A (zh) * 2020-12-30 2021-04-13 浙江商汤科技开发有限公司 图像中目标物体的分割方法、三维重建方法及相关装置
CN112802186A (zh) * 2021-01-27 2021-05-14 清华大学 基于二值化特征编码匹配的动态场景实时三维重建方法
CN112802186B (zh) * 2021-01-27 2022-06-24 清华大学 基于二值化特征编码匹配的动态场景实时三维重建方法
CN112802053A (zh) * 2021-01-27 2021-05-14 广东工业大学 一种面向动态环境稠密建图的动态物体检测方法
CN113673524A (zh) * 2021-07-05 2021-11-19 北京物资学院 一种仓库半结构化环境动态特征点祛除方法及装置
CN113447014A (zh) * 2021-08-30 2021-09-28 深圳市大道智创科技有限公司 室内移动机器人、建图方法、定位方法以及建图定位装置
CN114723672A (zh) * 2022-03-09 2022-07-08 杭州易现先进科技有限公司 一种三维重建数据采集校验的方法、***、装置和介质
CN116258817A (zh) * 2023-02-16 2023-06-13 浙江大学 一种基于多视图三维重建的自动驾驶数字孪生场景构建方法和***
CN116258817B (zh) * 2023-02-16 2024-01-30 浙江大学 一种基于多视图三维重建的自动驾驶数字孪生场景构建方法和***
CN116206068A (zh) * 2023-04-28 2023-06-02 北京科技大学 基于真实数据集的三维驾驶场景生成与构建方法及装置
CN116452776A (zh) * 2023-06-19 2023-07-18 国网浙江省电力有限公司湖州供电公司 基于视觉同步定位与建图***的低碳变电站场景重建方法
CN116452776B (zh) * 2023-06-19 2023-10-20 国网浙江省电力有限公司湖州供电公司 基于视觉同步定位与建图***的低碳变电站场景重建方法

Also Published As

Publication number Publication date
CN110349250B (zh) 2020-12-22

Similar Documents

Publication Publication Date Title
CN110349250A (zh) 一种基于rgbd相机的室内动态场景的三维重建方法
Xiao et al. Dynamic-SLAM: Semantic monocular visual localization and mapping based on deep learning in dynamic environment
Yu et al. DS-SLAM: A semantic visual SLAM towards dynamic environments
Paz et al. Large-scale 6-DOF SLAM with stereo-in-hand
CN114782626A (zh) 基于激光与视觉融合的变电站场景建图及定位优化方法
CN109947093A (zh) 一种基于双目视觉的智能避障算法
CN105303518A (zh) 一种基于区域特征的视频帧间拼接方法
CN111998862A (zh) 一种基于bnn的稠密双目slam方法
Li et al. Robust stereo visual slam for dynamic environments with moving object
Song et al. DGM-VINS: Visual–inertial SLAM for complex dynamic environments with joint geometry feature extraction and multiple object tracking
Cui et al. A monocular ORB-SLAM in dynamic environments
Min et al. Coeb-slam: A robust vslam in dynamic environments combined object detection, epipolar geometry constraint, and blur filtering
Swadzba et al. Dynamic 3D scene analysis for acquiring articulated scene models
Wang et al. Real-time omnidirectional visual SLAM with semi-dense mapping
Zou et al. Learning motion field of LiDAR point cloud with convolutional networks
Zhao et al. Object Detection-based Visual SLAM for Dynamic Scenes
Yao et al. Fast and robust visual odometry with a low-cost IMU in dynamic environments
Yang et al. A review of visual odometry in SLAM techniques
Cui et al. Direct-ORB-SLAM: Direct Monocular ORB-SLAM
CN112305558B (zh) 一种利用激光点云数据的移动机器人轨迹确定方法及装置
WO2022193193A1 (zh) 数据处理方法和设备
Shi et al. Dynamic Visual SLAM Based on Semantic Information and Multi-View Geometry
Zhang et al. Feature regions segmentation based RGB-D visual odometry in dynamic environment
CN106874837A (zh) 一种基于视频图像处理的车辆检测方法
Ding et al. Robust indoor slam based on pedestrian recognition by using rgb-d camera

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant