CN110097553B - 基于即时定位建图与三维语义分割的语义建图*** - Google Patents

基于即时定位建图与三维语义分割的语义建图*** Download PDF

Info

Publication number
CN110097553B
CN110097553B CN201910285181.XA CN201910285181A CN110097553B CN 110097553 B CN110097553 B CN 110097553B CN 201910285181 A CN201910285181 A CN 201910285181A CN 110097553 B CN110097553 B CN 110097553B
Authority
CN
China
Prior art keywords
frustum
semantic
point cloud
candidate
mapping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910285181.XA
Other languages
English (en)
Other versions
CN110097553A (zh
Inventor
杨绿溪
郑亚茹
宋涣
赵清玄
邓亭强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN201910285181.XA priority Critical patent/CN110097553B/zh
Publication of CN110097553A publication Critical patent/CN110097553A/zh
Application granted granted Critical
Publication of CN110097553B publication Critical patent/CN110097553B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种新型的基于即时定位与建图和三维点云语义分割的语义建图***,属于计算机视觉和人工智能技术领域。本发明利用即时定位与建图建立稀疏地图并获取关键帧和相机位姿,利用点云语义分割基于关键帧进行语义分割。利用二维目标检测方法和点云拼接获取平截头体建议,设计一种贝叶斯更新方案将候选平截头体的语义标签进行整合,将带有最终修正标签的点***到建立的稀疏地图中。实验表明本***具有较高的效率和准确率。

Description

基于即时定位建图与三维语义分割的语义建图***
技术领域
本发明涉及计算机视觉技术领域,特别是涉及基于即时定位建图与三维语义分割的语义建图***。
背景技术
服务型机器人一般由三个模块构成:人机交互、环境感知、运动控制。机器人感知周围环境,需要一套稳定、性能强大的传感器***来充当“眼睛”,同时需要相应的算法和强有力的处理单元读懂物体。其中视觉传感器是不可或缺的一部分,相较于激光雷达、毫米波雷达,摄像头的分辨率更高,能获取足够的环境细节,如描述物体的外观和形状、读取标识等。尽管全球定位***(Global Positioning System,GPS)有助于定位过程,但是由于高大树木、建筑、隧道等造成的干扰会使得GPS定位不可靠。
即时定位与建图(Simultaneous Localization and Mapping,SLAM)是指载有特定传感器的主体在没有先验信息的情况下,通过运动估计自身的轨迹,并建立周围环境的地图。其广泛应用于机器人,无人机,自动驾驶,增强现实,虚拟现实等应用中。SLAM可以划分为激光SLAM和视觉SLAM两类。由于起步早,激光SLAM在理论技术和工程应用上都较为成熟。然而高昂的成本、庞大的体积以及缺少语义信息使其在一些特定的应用场景中受限。根据相机类型,可将视觉SLAM分为三种:单目、双目以及深度SLAM。类似于激光雷达,深度相机可以通过采集点云来直接计算到障碍物的距离。深度相机结构简单,易于安装操作,而且成本低、使用场景广泛。
大部分的SLAM方案都是特征点或像素级别,为了完成一个特定的任务,或者与周围环境进行有意义的互动,机器人需要获取语义信息。SLAM***应该能够选择有用信息,剔除无效信息。随着深度学习的发展,许多成熟的目标检测和语义分割的方法为精确的语义建图提供了条件。语义地图有利于提高机器人的自主性和鲁棒性,完成更复杂的任务,从路径规划转化为任务规划。
三维图像中的目标感知技术越来越成熟,三维理解的需求也越来越紧迫。由于点云的不规则性,大多数研究者会将点转化为规则的体素或者图像集合,利用深度网络进行预测。这样的转换不可避免地会导致数据量增大,空间点之间的相互关系被削弱。2017年提出的PointNet是第一个可以直接处理原始三维点云的深度神经网络。
现有大部分语义建图***采用的是稠密建图,对二维图像进行语义感知,并将二维信息映射到三维环境模型中。首先稠密建图会导致***性能下降,连续帧间存在信息冗余,有效利用帧间信息可以提高***效率。对二维图像进行语义感知,无法充分利用空间信息,对于小物体和遮挡等情况较敏感。将二维信息映射到三维模型中,并利用条件随机场等方法对结果做修正。相比于直接对三维点云进行语义感知,这样的做法一定程度上降低了效率、削弱了***性能。
发明内容
针对现有技术中存在的问题与不足,本发明提供基于即时定位建图与三维语义分割的语义建图***,使用基于特征点的稀疏建图***提取关键帧和相机位姿。针对关键帧,先利用成熟的二维目标检测方法提取感兴趣区域,再利用帧间信息即相机位姿,以及空间信息即图像深度,获取候选平截头体。利用点云语义分割方法对平截头体进行分割,设计一种贝叶斯更新方案将不同帧的分割结果进行融合。本发明旨在充分利用帧间信息和空间信息以提高***性能,为达此目的,本发明提供基于即时定位建图与三维语义分割的语义建图***,其计算处理步骤如下,利用稀疏建图技术与点云语义分割,建立包含感兴趣目标的半稠密语义地图,方法包括如下步骤:
(1)先对输入的图像帧序列进行即时定位与地图构建,获取关键帧与相机位姿。利用成熟的二维目标检测技术以及点云拼接,获得候选平截头体;
(2)再利用三维点云语义分割方法,对候选平截头体进行分割,利用贝叶斯更新方案,将多个候选平截头体的分割结果进行融合,将带有语义标签的空间点***到稀疏地图中得到最终的半稠密语义地图。
作为本发明进一步改进,所述步骤(1)中先对输入视频帧序列进行即时定位与建图,再获取平截头体建议,具体步骤为:
步骤2.1:假设在时刻k,相机的位置为xk,相机输入数据为uk,xk=f(xk-1,uk,wk),wk为噪声,将其称为运动方程,在xk位置上观测到路标点yj,产生一系列观测数据zk,j,可以用观测方程来描述:zk,j=h(yj,xk,vk,j),其中vk,j为观测噪声,这两个方程描述了最基本的SLAM问题:已知运动测量的读数u,以及传感器读数z,估计定位问题x和建图问题y;
在提取匹配特征点后,可以直接使用PnP估计相机的运动,采用EPnP计算初始位姿,核心思想是用4个控制点来表示空间点,然后构建重投影误差问题:
Figure BDA0002023036540000021
将估计的位姿作为初始值,采用相应方法可以求解,最后为解决累计漂移的问题,构造全局光束平差代价函数:
Figure BDA0002023036540000031
进行全局优化以解决累计漂移的问题;
步骤2.2:在获取到相机位姿和关键帧之后,利用二维目标检测方法SSD产生包围框、标签和置信度,本***只考虑感兴趣目标,提取包围框内的RGB数据和深度信息。若包围框参数为(x,y,x1,y1),包围框内像素的横坐标范围为[floor(rows*x),ceil(rows*x1)],纵坐标范围为[floor(cols*y),ceil(cols*y1)],其中floor为向下取整函数,ceil为向上取整,(rows,cols)为图像的尺寸,对于第i个像素Irefi=[rrefi,crefi]T,深度为drefi,相机坐标为:
Figure BDA0002023036540000036
步骤2.3:SLAM优化得到的位姿是旋转四元数的形式,一个四元数拥有一个实部和三个虚部:q=q0+q1i+q2j+q3k,其中i,j,k满足:
Figure BDA0002023036540000032
对应的旋转矩阵为:
Figure BDA0002023036540000033
变换矩阵
Figure BDA0002023036540000034
左上角为旋转矩阵,右侧为平移向量,左下角为零向量,右下角为1。根据关系Pw=TwcPc,可以得到平截头体内空间点的世界坐标。
作为本发明进一步改进,所述步骤(2)中获取候选平截头体,并对候选平截头体进行语义分割,具体步骤为:
步骤3.1:挑选具有固定间隔的关键帧以产生平截头体建议,给定间隔σ和序列长度S,第k个平截头体来自于第
Figure BDA0002023036540000035
个关键帧,k∈{1,...,σ},剔除深度大于dth的外点,先进行均匀采样,再将点云拼接得到最终的候选平截头体;
步骤3.2:直接对三维点云进行语义分割,基于点云语义分割网络,其对于输入遮挡和小物体具有较强的鲁棒性,首先对候选平截头体进行预处理,先进行随机采样至2048个点,转化为h5文件,再送入点云语义分割网络中,网络的的关键在于使用最大池化作为对称函数,对于点Pwi=[xwi,ywi,zwi]T,i∈{1,...,N},目标分类网络输出L个候选类别上的L个置信度,语义分割网络对于N个点和M个语义种类上的N×M个置信度。
作为本发明进一步改进,所述步骤(2)中利用贝叶斯更新方案对不同分割结果进行融合,设计方法为:
对于参考候选平截头体Prefw
Figure BDA0002023036540000041
表示其在第m个候选平截头体中的前向投影点,只有当
Figure BDA0002023036540000042
时,这个前向投影点才可以作为最终标签的影响因素,ε1的值随着场景的变化会有所不同;
给定一个点Prefwi和其对应的前向投影点集
Figure BDA0002023036540000043
用zrefi表示分配给点Prefwi的语义标签,标签集合为
Figure BDA0002023036540000044
对于标签l,可以得到:
Figure BDA0002023036540000045
本发明基于即时定位建图与三维语义分割的语义建图***,有益效果如下;
本发明提供的基于即时定位建图与三维语义分割的语义建图方案可以高效准确地将输入视频帧序列转化为半稠密语义地图。本发明建立稀疏地图,并且只对关键帧进行处理,提高了语义建图***的效率。充分利用空间信息和帧间信息,提高了***性能,尤其对于遮挡和小物体等有较强的鲁棒性。本发明适用于很多场景,稀疏定位建图***可以建立室内或室外场景的地图,基于深度学习的二维目标检测技术和三维点云语义分割方法只需要有效的训练便可以检测海量物体。
附图说明
图1为本发明基于SLAM和三维语义分割的语义建图***流程图;
图2为本发明利用SLAM获得关键帧和相机位姿的流程图;
图3为本发明Point-Net的网络架构图;
图4为本发明利用ORB-SLAM获取的稀疏地图,包含相机位姿以及关键帧;
图5为本发明关键的中间结果图,依次为:(1)二维目标检测产生目标候选区域和类别置信度;(2)提取平截头体中的点云;(3)挑选固定间隔的关键帧产生的平截头体点云,进行均匀采样并拼接;(4)最终产生的包含感兴趣目标的语义地图;
图6为本发明最终获取的半稠密语义地图示例。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细描述:
本发明提供基于即时定位建图与三维语义分割的语义建图***,使用基于特征点的稀疏建图***提取关键帧和相机位姿。针对关键帧,先利用成熟的二维目标检测方法提取感兴趣区域,再利用帧间信息即相机位姿,以及空间信息即图像深度,获取候选平截头体。利用点云语义分割方法对平截头体进行分割,设计一种贝叶斯更新方案将不同帧的分割结果进行融合。本发明旨在充分利用帧间信息和空间信息以提高***性能。
下面基于Ubuntu16.04和Nvidia Geforce GTX 1080,借助于Tensorfiow ObjectDetection API、OpenCV、Point Cloud Library等工具,在TUM数据集rgbd_dataset_freiburg1_plant上为例,结合附图对本发明基于即时定位建图与三维语义分割的语义建图方案的具体实施方式作进一步详细说明。
步骤1:基于即时定位与建图获取稀疏地图、关键帧以及相机位姿,如图4所示。在特征点提取匹配阶段,FAST检测过程为:
1.在图像中选取像素p,亮度为Ip,设置阈值T;
2.以像素p为中心,选择半径为3的圆上的16个像素点;
3.如果圆上有连续的N个点的亮度大于Ip+T或小于Ip-T,那么像素p可被认为是特征点。
灰度质心法的步骤包括:
1.定义图像块B的矩为:mpq=∑x,y∈BxpyqI(x,y),p,q∈{0,1};
2.图像块的质心为:
Figure BDA0002023036540000051
3.连接图像块的几何中心O和质心C,得到方向向量
Figure BDA0002023036540000052
特征点的方向可以定义为:θ=arctan(m01/m10)。
在局部BA中,重投影误差关于相机位姿李代数的一阶变化关系推导为:
Figure BDA0002023036540000053
重投影误差关于空间点的倒数推导为:
Figure BDA0002023036540000054
步骤2:基于关键帧和二维目标检测获得平截头体建议。首先利用SSD检测出目标的候选区域,得到包围框的参数(x,y,x1,y1),因此包围框内像素的横坐标范围为[floor(rows*x),ceil(rows*x1)],纵坐标范围为[floor(cols*y),ceil(cols*y1)],其中floor为向下取整函数,ceil为向上取整,(rows,cols)为图像的尺寸。假设上一步SLAM估计得到的该关键帧的位姿信息为(t1,t2,t3,q1,q2,q3,q0),构造旋转矩阵:
Figure BDA0002023036540000061
平移向量为t=[t1,t2,t3]T,因此转换矩阵为
Figure BDA0002023036540000062
对上述范围内的像素进行遍历,相机坐标pc到像素坐标(u,v,d)的关系为:
Figure BDA0002023036540000063
反过来,设pc=[x,y,z],那么:
Figure BDA0002023036540000064
根据关系Pw=TwcPc可以获得包围框内像素对应的空间点的世界坐标,利用PCL库构造平截头体内的点云,至此获得每个关键帧的平截头体建议。
步骤3:获取候选平截头体并进行语义分割。挑选具有固定间隔的关键帧产生的平截头体建议,给定间隔σ=15和序列长度S=195,第k个平截头体来自于第{15n+k,n∈{0,1,...12}}个关键帧,k∈{1,...,15},剔除深度大于0.7米的外点。先对每个候选平截头体进行均匀采样,然后进行点云拼接。对得到的拼接点云进行随机采样至2048个,将平截头体旋转到中心视角,使其中心轴与图像平面正交。在送入Point-Net之前,将点云的XYZ坐标值减去中心点的值获得局部坐标。将二维检测器检测出的语义类别编码为一个独热类别向量,并将其拼接到中间点云特征中。
步骤4:基于贝叶斯方案将多帧结果进行融合。对于参考候选平截头体Prefw中的点Prefwi
Figure BDA0002023036540000065
表示其在第m个候选平截头体中的前向投影点。做一个几何校验,将
Figure BDA0002023036540000066
转换到参考坐标系,只有当
Figure BDA0002023036540000067
时,这个前向投影点才可以作为最终标签的影响因素,ε1为5毫米。
给定平截头体中的一个点Prefwi和其对应的前向投影点集
Figure BDA0002023036540000068
用zrefi表示分配给点Prefwi的语义标签,标签集合为
Figure BDA0002023036540000069
即分配给该点的标签以及分配给其前向投影点的标签。对于标签l:
Figure BDA0002023036540000071
其中
Figure BDA0002023036540000072
表示分配给前向投影点但未分配给参考点的标签。在独立同分布假设下,假设所有类别的先验概率相同,上式可以简化为:
Figure BDA0002023036540000073
步骤5:将最终带有语义标签的点云***到之前建立的稀疏地图中,以建立带有感兴趣目标的半稠密语义地图,如图6所示。在总的195帧关键帧中,针对植物这一类别,SSD在63帧中存在漏检情况。在获得点云分割结果之后,将带有语义标签的点反向投影到二维图像中,平均准确度为90.2%。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作任何其他形式的限制,而依据本发明的技术实质所作的任何修改或等同变化,仍属于本发明所要求保护的范围。

Claims (1)

1.基于即时定位建图与三维语义分割的语义建图***,其计算处理步骤如下,其特征在于:利用稀疏建图技术与点云语义分割,建立包含感兴趣目标的半稠密语义地图,方法包括如下步骤:
(1)先对输入的图像帧序列进行即时定位与地图构建,获取关键帧与相机位姿,利用成熟的二维目标检测技术以及点云拼接,获得候选平截头体;
所述步骤(1)中先对输入视频帧序列进行即时定位与建图,再获取平截头体建议,具体步骤为:
步骤2.1:假设在时刻k,相机的位置为xk,相机输入数据为uk,xk=f(xk-1,uk,wk),wk为噪声,将其称为运动方程,在xk位置上观测到路标点yj,产生一系列观测数据zk,j,可以用观测方程来描述:zk,j=h(yj,xk,vk,j),其中vk,j为观测噪声,这两个方程描述了最基本的SLAM问题:已知运动测量的读数u,以及传感器读数z,估计定位问题x和建图问题y;
在提取匹配特征点后,可以直接使用PnP估许相机的运动,采用EPnP许算初始位姿,核心思想是用4个控制点来表示空间点,然后构建重投影误差问题:
将估许的位姿作为初始值,采用相应方法可以求解,最后为解决累许漂移的问题,构造全局光束平差代价函数:
进行全局优化以解决累许漂移的问题;
步骤2.2:在获取到相机位姿和关键帧之后,利用二维目标检测方法SSD产生包围框、标签和置信度,本***只考虑感兴趣目标,提取包围框内的RGB数据和深度信息,若包围框参数为(x,y,x1,y1),包围框内像素的横坐标范围为[floor(rows*x),ceil(rows*x1)],纵坐标范围为[floor(cols*y),ceil(cols*y1)],其中floor为向下取整函数,ceil为向上取整,(rows,cols)为图像的尺寸,对于第i个像素深度为drefi,相机坐标为:
步骤2.3:SLAM优化得到的位姿是旋转四元数的形式,一个四元数拥有一个实和三个虚:q=q0+q1i+q2j+q3k,其中i,j,k满足:
对应的旋转矩阵为:
变换矩阵左上角为旋转矩阵,右侧为平移向量,左下角为零向量,右下角为1,根据关系Pw=TwcPc,可以得到平截头体内空间点的世界坐标:
(2)再利用三维点云语义分割方法,对候选平截头体进行分割,利用贝叶斯更新方案,将多个候选平截头体的分割结果进行融合,将带有语义标签的空间点***到稀疏地图中得到最终的半稠密语义地图;
所述步骤(2)中获取候选平截头体,并对候选平截头体进行语义分割,具体步骤为:
步骤3.1:挑选具有固定间隔的关键帧以产生平截头体建议,给定间隔σ和序列长度S,第k个平截头体来自于第个关键帧,k∈{1,...,σ},剔除深度大干dth的外点,先进行均匀采样,再将点云拼接得到最终的候选平截头体;
步骤3.2:直接对三维点云进行语义分割,基于点云语义分割网络,其对于输入遮挡和小物体具有较强的鲁棒性,首先对候选平截头体进行预处理,先进行随机采样至2048个点,转化为h5文件,再送入点云语义分割网络中,网络的的关键在于使用最大池化作为对称函数,对于点Pwi=[xwi,ywi,zwi]T,i∈{1,...,N},目标分类网络输出L个候选类别上的L个置信度,语义分割网络对于N个点和M个语义种类上的N×M个置信度;
所述步骤(2)中利用贝叶斯更新方案对不同分割结果进行融合,设许方法为:
对于参考候选平截头体Prefw表示其在第m个候选平截头体中的前向投影点,只有当时,这个前向投影点才可以作为最终标签的影响因素,ε1的值随着场景的变化会有所不同;
给定一个点Prefwi和其对应的前向投影点集用zrefi表示分配给点Prefwi的语义标签,标签集合为对于标签l,可以得到:
CN201910285181.XA 2019-04-10 2019-04-10 基于即时定位建图与三维语义分割的语义建图*** Active CN110097553B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910285181.XA CN110097553B (zh) 2019-04-10 2019-04-10 基于即时定位建图与三维语义分割的语义建图***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910285181.XA CN110097553B (zh) 2019-04-10 2019-04-10 基于即时定位建图与三维语义分割的语义建图***

Publications (2)

Publication Number Publication Date
CN110097553A CN110097553A (zh) 2019-08-06
CN110097553B true CN110097553B (zh) 2023-05-02

Family

ID=67444592

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910285181.XA Active CN110097553B (zh) 2019-04-10 2019-04-10 基于即时定位建图与三维语义分割的语义建图***

Country Status (1)

Country Link
CN (1) CN110097553B (zh)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110533716B (zh) * 2019-08-20 2022-12-02 西安电子科技大学 一种基于3d约束的语义slam***及方法
CN110827395B (zh) * 2019-09-09 2023-01-20 广东工业大学 一种适用于动态环境的即时定位与地图构建方法
CN110751220B (zh) * 2019-10-24 2022-02-11 江西应用技术职业学院 一种基于改进卷积神经网络结构的机器视觉室内定位方法
CN110827305B (zh) * 2019-10-30 2021-06-08 中山大学 面向动态环境的语义分割与视觉slam紧耦合方法
CN110889349A (zh) * 2019-11-18 2020-03-17 哈尔滨工业大学 一种基于vslam的稀疏三维点云图的视觉定位方法
CN111179427A (zh) * 2019-12-24 2020-05-19 深圳市优必选科技股份有限公司 自主移动设备及其控制方法、计算机可读存储介质
CN113052846B (zh) * 2019-12-27 2024-05-28 小米汽车科技有限公司 一种多线雷达点云稠密化方法和装置
CN111141264B (zh) * 2019-12-31 2022-06-28 中国电子科技集团公司信息科学研究院 一种基于无人机的城市三维测绘方法和***
CN111325796B (zh) * 2020-02-28 2023-08-18 北京百度网讯科技有限公司 用于确定视觉设备的位姿的方法和装置
CN111325843B (zh) * 2020-03-09 2022-04-08 北京航空航天大学 一种基于语义逆深度滤波的实时语义地图构建方法
CN111462135B (zh) * 2020-03-31 2023-04-21 华东理工大学 基于视觉slam与二维语义分割的语义建图方法
CN111681279B (zh) * 2020-04-17 2023-10-31 东南大学 基于改进李群非线性优化的行车吊臂空间位姿测量方法
CN111563442B (zh) * 2020-04-29 2023-05-02 上海交通大学 基于激光雷达的点云和相机图像数据融合的slam方法及***
CN111768498A (zh) * 2020-07-09 2020-10-13 中国科学院自动化研究所 基于稠密语义三维地图与混合特征的视觉定位方法、***
CN112017188B (zh) * 2020-09-09 2024-04-09 上海航天控制技术研究所 一种空间非合作目标语义识别与重构方法
CN112419512B (zh) * 2020-10-13 2022-09-13 南昌大学 一种基于语义信息的空中三维模型修复***及方法
WO2022187251A1 (en) * 2021-03-01 2022-09-09 Waymo Llc Generating scene flow labels from point clouds using object labels
CN112991436B (zh) * 2021-03-25 2022-09-06 中国科学技术大学 基于物体尺寸先验信息的单目视觉slam方法
CN113469886B (zh) * 2021-07-23 2023-03-14 成都理工大学 一种基于三维重构的图像拼接方法
CN113808251B (zh) * 2021-08-09 2024-04-12 杭州易现先进科技有限公司 一种基于语义分割的稠密重建的方法、***、装置和介质
CN115222799B (zh) * 2021-08-12 2023-04-11 达闼机器人股份有限公司 图像重力方向的获取方法、装置、电子设备及存储介质
CN114298581A (zh) * 2021-12-30 2022-04-08 广州极飞科技股份有限公司 质量评估模型生成方法、质量评估方法、装置、电子设备和可读存储介质
CN115421158B (zh) * 2022-11-07 2023-04-07 中国人民解放军国防科技大学 自监督学习的固态激光雷达三维语义建图方法与装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106327469B (zh) * 2015-06-29 2019-06-18 北京航空航天大学 一种语义标签引导的视频对象分割方法
CN108596974B (zh) * 2018-04-04 2020-08-04 清华大学 动态场景机器人定位建图***及方法
CN109559320B (zh) * 2018-09-18 2022-11-18 华东理工大学 基于空洞卷积深度神经网络实现视觉slam语义建图功能的方法及***
CN109583457A (zh) * 2018-12-03 2019-04-05 荆门博谦信息科技有限公司 一种机器人定位与地图构建的方法及机器人

Also Published As

Publication number Publication date
CN110097553A (zh) 2019-08-06

Similar Documents

Publication Publication Date Title
CN110097553B (zh) 基于即时定位建图与三维语义分割的语义建图***
CN111462135B (zh) 基于视觉slam与二维语义分割的语义建图方法
CN110349250B (zh) 一种基于rgbd相机的室内动态场景的三维重建方法
CN110070615B (zh) 一种基于多相机协同的全景视觉slam方法
CN111563442B (zh) 基于激光雷达的点云和相机图像数据融合的slam方法及***
CN112132972B (zh) 一种激光与图像数据融合的三维重建方法及***
WO2021233029A1 (en) Simultaneous localization and mapping method, device, system and storage medium
US10192113B1 (en) Quadocular sensor design in autonomous platforms
CN112396650B (zh) 一种基于图像和激光雷达融合的目标测距***及方法
US10496104B1 (en) Positional awareness with quadocular sensor in autonomous platforms
US20170316569A1 (en) Robust Anytime Tracking Combining 3D Shape, Color, and Motion with Annealed Dynamic Histograms
CN111201451A (zh) 基于场景的激光数据和雷达数据进行场景中的对象检测的方法及装置
CN110706248A (zh) 一种基于slam的视觉感知建图算法及移动机器人
CN111563415A (zh) 一种基于双目视觉的三维目标检测***及方法
CN113985445A (zh) 一种基于相机与激光雷达数据融合的3d目标检测算法
CN111998862B (zh) 一种基于bnn的稠密双目slam方法
CN113108773A (zh) 一种融合激光与视觉传感器的栅格地图构建方法
CN112818925A (zh) 一种城市建筑和树冠识别方法
CN112419497A (zh) 基于单目视觉的特征法与直接法相融合的slam方法
Priya et al. 3dyolo: Real-time 3d object detection in 3d point clouds for autonomous driving
CN116879870A (zh) 一种适用于低线束3d激光雷达的动态障碍物去除方法
Buck et al. Capturing uncertainty in monocular depth estimation: Towards fuzzy voxel maps
CN116664851A (zh) 一种基于人工智能的自动驾驶数据提取方法
CN114419259B (zh) 一种基于物理模型成像仿真的视觉定位方法及***
CN116704112A (zh) 一种用于对象重建的3d扫描***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant