CN111079765B - 一种基于深度图的稀疏点云稠密化及路面去除方法 - Google Patents
一种基于深度图的稀疏点云稠密化及路面去除方法 Download PDFInfo
- Publication number
- CN111079765B CN111079765B CN201911289613.0A CN201911289613A CN111079765B CN 111079765 B CN111079765 B CN 111079765B CN 201911289613 A CN201911289613 A CN 201911289613A CN 111079765 B CN111079765 B CN 111079765B
- Authority
- CN
- China
- Prior art keywords
- depth map
- point cloud
- sparse
- points
- ddm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/273—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion removing elements interfering with the pattern to be recognised
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种基于深度图的稀疏点云稠密化及路面去除方法,涉及激光雷达数据处理及应用领域。本发明首先利用传感器参数矩阵对稀疏点云进行投影得到稀疏深度图,采用基于Delaunay三角剖分(DT)的线性插值方法得到粗糙稠密深度图,接着应用从稀疏深度图提取的掩模得到精细稠密深度图。在空间坐标系中对稀疏点云进行RANSAC地面拟合并去除,滤除离群点,然后投影得到无地面稀疏深度图并生成掩模,并对精细稠密深度图进一步应用,得到无路面精细稠密深度图。最后对这两种深度图进行反向投影,得到有路面和无路面的稠密点云。本方法能够在不结合其他数据的前提下对感兴趣的点云数据进行稠密化和路面去除,且速度较快,较好地保证了点云数据信息的有效性。
Description
技术领域
本发明涉及自动驾驶中环境感知和目标检测的激光雷达数据处理及应用领域。
背景技术
在自动驾驶领域,激光雷达因其对目标对象的精确定位而被广泛使用。激光雷达作为一种主动式传感器,其通过接收物体反射的激光脉冲,实现物体的探测,可以以较高的频率提供准确的距离信息,并且对环境光的强弱和物体色彩有很强的鲁棒性,可以弥补传统相机在这方面的不足,因此,经常被用来作为环境感知和目标检测的重要组成构件。在过去激光雷达常用于机器人的实时定位与建图(SLAM)。近年来,随着多线束激光雷达的出现,激光雷达感知能力得到极大提高,目前能够在多变天气,复杂交通场景下实现对障碍物的精准感知。然而激光雷达数据的具有离散及稀疏的特点,很难直接在后续的算法中直接使用。因此对点云数据进行稠密化是一项具有现实意义的工作。在目标检测过程中,目标往往位于路面之上,而点云数据中的路面点则被视为目标检测中的干扰点,需要予以去除。先稠密化点云再去除地面点会增加计算量和计算耗时,而先去除地面点再稠密化点云则会降低稠密化后的点云准确度,如何在保证准确度和降低计算量的前提下对稀疏点云进行稠密化并去除路面,这是一项具有挑战的工作。
现有的点云稠密化方法主要分为基于图像的方法、基于点云的方法和基于图像和点云的方法。Rashidi,A等人提出了基于双目视觉匹配生成视差图再转为稠密深度图,最后生成稠密点云的方法。相似地,Zhenfeng Shao等人提出了基于多视角低海拔遥感图像的稠密点云生成算法。Kai-Han Lo等人提出了利用联合三边滤波器将彩色图像和稀疏深度图结合的方法来稠密化深度图。然而上述算法数据主要来源于图像或与图像相结合,生成的数据对光照和颜色变化不具有鲁棒性,很难利用激光雷达的优势并后续利用。传统的只基于点云的稠密化方法主要通过在空间坐标系对原始点云直接上采样展开,这种方法存在计算量大,实时性差等缺点。
发明内容
本发明所要解决的技术问题就是提供一种自动驾驶环境下稀疏点云的快速稠密化及路面去除方法,将稀疏点云投影转换为稀疏深度图并用DT线性插值来进行稠密化操作得到初始稠密深度图,同时对稀疏点云进行RANSAC地面去除操作和滤除离群点并转换为无地面稀疏深度图,接着利用两种稀疏深度图生成掩模对初始稠密深度图精细化处理,最后反向投影得到有路面和无路面的稠密点云。该方法可以快速对点云进行稠密化和路面滤除,并较好地保证了点云数据的完整性,有效解决了现有激光雷达采集数据过于稀疏的问题,可以作为自动驾驶的数据预处理的有效手段,也可在此基础上进一步进行3D重建。
为了解决上述技术问题,达到上述目的,本发明所采用的技术方案如下所述。
一种基于深度图的稀疏点云稠密化及路面去除方法,其特征在于,包括如下步骤:
步骤1:输入原始稀疏点云Cpoints,利用传感器校准得到的内外参数矩阵T对点云坐标进行转换,并提取稀疏深度图DMorigin,转入步骤2;
步骤2:对步骤1提取的稀疏深度图DMorigin,进行Delaunay三角剖分线性插值,得到初始的粗糙稠密深度图DDMwild,转入步骤3;
步骤3:利用步骤1提取的稀疏深度图DMorigin,生成掩模maskdetailed,并应用至DDMwild,得到精细稠密深度图DDMdetailed,转入步骤4;
步骤4:对步骤1中的原始稀疏点云Cpoints,进行RANSAC地面拟合并去除地面,接着滤除离群点,提取无地面稀疏深度图DMng,转入步骤5;
步骤5:利用步骤4提取的无地面稀疏深度图DMng,生成掩模maskng,并应用至DDMdetailed,得到无地面精细稠密深度图DDMng,转入步骤6;
步骤6:对步骤3得到的精细稠密深度图DDMdetailed和步骤5得到的无地面精细稠密深度图DDMng,利用内外参数矩阵T进行反向投影,得到稠密点云DCpoints和稠密点云DCpoints_ng。
上述技术方案中,所述步骤1中具体有以下几个步骤:
步骤1.1:输入原始稀疏点云Cpoints,其数据格式为[X,Y,Z],即点云的空间坐标数据,对传感器进行校准(参照现有技术文献《A toolbox for automatic calibration ofrange and camera sensors using a single shot》)得到内外参数矩阵T;
步骤1.2:利用内外参数矩阵T对稀疏点云Cpoints进行坐标投影转换得到Cimg(用来表示点云的空间坐标系格式数据转换为图像坐标系格式下的数据),其数据格式为[xX,yY,X],并调整格式得到C′img其数据格式为[x,y,X],即Cpoints在图像空间的坐标x、y和空间坐标系的X坐标(深度),转换公式如下:
Cimg=T·Cpoints
步骤1.3:滤掉C′img中在图像边界(h,w)外的点,对C′img中的x、y取整,然后按照深度X从小到大进行排序,并去除x、y坐标重复的点,得到修正后的稀疏点云C″img;
步骤1.4:构造大小为(h,w)的全零矩阵I0,利用修正后的稀疏点云C″img的数据[x,y,X],在I0的坐标(y,x)中填入相应的深度X,得到稀疏深度图DMorigin;
上述技术方案中,所述步骤2的具体步骤如下:
步骤2.1:利用Delaunay三角剖分对稀疏深度图DMorigin的坐标(y,x)进行三角网格生成,产生孤立的三角网格集Δ={δ1,…,δn},每个三角形δ中包含三个坐标n1、n2和n3;这里n1、n2和n3实际上就是深度图的坐标在三角形网格里的标号,表示要在这三个坐标构成的三角形中进行插值运算;
步骤2.2:利用三角形δ三个坐标上的深度X进行线性插值估计三角形内部点上深度,最终得到粗糙的稠密深度图DDMwild;
上述技术方案中,所述步骤3具体步骤如下:
步骤3.1:构造大小为(h,w)的全零矩阵mask0;
步骤3.2:对步骤1得到的稀疏深度图DMorigin,每一列从上到下寻找第一个深度X不为0的点的坐标索引u,将mask0每一列第u个元素到最后一个元素全部置为1,得到mask′0;
步骤3.3:以横向方形结构元对mask′0进行形态学横向膨胀,得到掩模maskdetailed;
步骤3.4:将maskdetailed与DDMwild相乘得到精细稠密深度图DDMdetailed;
上述技术方案中,所述步骤4具体步骤如下:
步骤4.1:输入原始稀疏点云Cpoints,采用RANSAC算法进行地面拟合,并移除地面,得到无地面的稀疏点云Cpoints_ng;
步骤4.2:采用欧式距离统计无地面的稀疏点云Cpoints_ng中每个点周围m个点,并计算每个点与其周围m个点的平均距离计算这个m个点相对于的偏差,将偏差大于阈值ρ的点标记为离群点进行剔除,得到Cpoints_ng_d;
步骤4.3:对Cpoints_ng_d采用与步骤1相同的步骤,生成无地面稀疏深度图DMng;
上述技术方案中,所述步骤5具体有以下几个步骤:
步骤5.1:构造大小为(h,w)的全零矩阵mask01;
步骤5.2:对步骤4得到的无地面稀疏深度图DMng,每一列从上到下寻找第一个深度X不为0的点和最后一个非零点的坐标索引uv,将mask01每一列第u个元素到第v个元素全部置为1,得到mask′01;
步骤5.3:以椭圆形结构元对mask′01进行形态学纵向开运算,得到掩模maskng;
步骤5.4:将maskng与DDMdetailed相乘得到无地面精细稠密深度图DDMng;
上述技术方案中,所述步骤6中反向具体步骤如下:
步骤6.1:对步骤3得到的精细稠密深度图DDMdetailed和步骤5得到的无地面精细稠密深度图DDMng,分别找到其中的非零点坐标和坐标对应的深度X,构造格式为[x,y,X],形状为n×3,n为非零点个数,得到点云C;
步骤6.2:用传感器内外参数矩阵T的逆乘以C,得到稠密点云DC。
因为本发明采用上述技术方案因此具备以下有益效果:
本发明能够在不结合其他数据的前提下对点云数据进行稠密化和路面去除,该方法在稀疏点云进行RANSAC地面拟合去除,基于深度图进行稠密化,这两点使其具有速度快,能较好地保证点云数据信息的有效性等特点。
附图说明
图1为一种基于深度图的稀疏点云稠密化及路面去除方法设计流程;
图2为输入原始点云;
图3为稠密点云及其对应深度图;
图4为去除路面的稠密点云及其对应深度图
图1中mask2为掩模maskng,mask1为掩模maskdetailed。
具体实施方式
下面结合试验例及具体实施方式对本发明作进一步的详细描述。但不应将此理解为本发明上述主题的范围仅限于以下的实施例,凡基于本发明内容所实现的技术均属于本发明的范围。
本发明提出了一种基于深度图的稀疏点云稠密化及路面去除方法,能够在不结合其他数据的前提下对点云数据进行稠密化和路面去除,具有速度快,能较好地保证点云数据信息的有效性等特点,整个算法设计方案流程如图1所示,包括步骤:
步骤1:输入原始稀疏点云Cpoints,利用传感器校准得到的内外参数矩阵T对点云坐标进行转换,并提取稀疏深度图DMorigin,转入步骤2;
步骤2:对步骤1提取的稀疏深度图DMorigin,进行Delaunay三角剖分线性插值,得到初始的粗糙稠密深度图DDMwild,转入步骤3;
步骤3:利用步骤1提取的稀疏深度图DMorigin,生成掩模maskdetailed,并应用至DDMwild,得到精细稠密深度图DDmdetailed,转入步骤4;
步骤4:对步骤1中的原始稀疏点云Cpoints,进行RANSAC地面拟合并去除地面,接着滤除离群点,提取无地面稀疏深度图DMng,转入步骤5;
步骤5:利用步骤4提取的无地面稀疏深度图DMng,生成掩模maskng,并应用至DDMdetailed,得到无地面精细稠密深度图DMng,转入步骤6;
步骤6:对步骤3得到的精细稠密深度图DDMdetailed和步骤5得到的无地面精细稠密深度图DDMng,利用内外参数矩阵T进行反向投影,得到稠密点云DCpoints和稠密点云DCpoints_ng。
上述技术方案中,所述步骤1中具体有以下几个步骤:
步骤1.1:输入原始稀疏点云Cpoints,其数据格式为[X,Y,Z],即点云的空间坐标数据,对传感器进行校准得到内外参数矩阵T;
步骤1.2:利用内外参数矩阵T对稀疏点云Cpoints进行坐标投影转换得到Cimg,其数据格式为[xX,yY,X],并调整格式得到C′img其数据格式为[x,y,X],即Cpoints在图像空间的坐标x、y和空间坐标系的X坐标(深度),转换公式如下:
Cimg=T.Cpoints
步骤1.3:对滤掉C′img中在图像边界(h,w)外的点,对C′img中的x、y取整,然后按照深度X从小到大进行排序,并去除x、y坐标重复的点,得到修正后的稀疏点云C″img;
步骤1.4:构造大小为(h,w)的全零矩阵I0,利用稀疏点云C″img的数据[x,y,X],在I0的坐标(y,x)中填入相应的深度X,得到稀疏深度图DMorigin;
上述技术方案中,所述步骤2的具体步骤如下:
步骤2.1:利用Delaunay三角剖分对稀疏深度图DMorigin的坐标(y,x)进行三角网格生成,产生孤立的三角网格集Δ={δ1,…,δn},每个三角形δ中包含三个坐标nk(k=1,2,3);
步骤2.2:利用三角形δ三个坐标上的深度X进行线性插值估计三角形内部点上深度,最终得到粗糙的稠密深度图DDMwild;
其中,线性插值的具体步骤为:设点P为三角形ΔP1P2P3中的一个点,P1、P2、P3的值已知,则点P的值可以由下式1.1表示:
p=(1-u-v)P1+uP2+vP3 (1.1)
将值与点的坐标进行关联,P1、P2、P3以及P的坐标已知,可列如下公式:
解得参数u、v,再带入(1.1)中,即可得点P的值。
上述技术方案中,所述步骤3具体步骤如下:
步骤3.1:构造大小为(h,w)的全零矩阵mask0;
步骤3.2:对步骤1得到的稀疏深度图DMorigin,每一列从上到下寻找第一个深度X不为0的点的坐标(每一列第一个非零点坐标)索引u,将mask0每一列第u个元素到最后一个元素全部置为1,得到mask′0;
步骤3.3:以高为2,宽为10的方形结构元对mask′0进行形态学横向膨胀,得到掩模maskdetailed;
步骤3.4:将maskdetailed与DDMwild相乘得到精细稠密深度图DDMdetailed;
上述技术方案中,所述步骤4具体步骤如下:
步骤4.1:输入原始稀疏点云Cpoints,采用RANSAC算法进行地面拟合,并移除地面,得到Cpoints_ng;本示例中,RANSAC地面拟合由PCL库中的函数计算,设置拟合参数r=0.1;
步骤4.3:对Cpoints_ng_d采用与步骤1相同的步骤,生成无地面稀疏深度图DMng;
上述技术方案中,所述步骤5具体有以下几个步骤:
步骤5.1:构造大小为(h,w)的全零矩阵mask01;
步骤5.2:对步骤4得到的无地面稀疏深度图DMng,每一列从上到下寻找第一个深度X不为0的点和最后一个非零点的坐标索引u、v,将mask01每一列第u个元素到第v个元素全部置为1,得到mask′01;
步骤5.3:以位于高为15,宽为2长方形内的椭圆形结构元对mask′01进行形态学纵向开运算,得到掩模maskng;
步骤5.4:将maskng与DDMdetailed相乘得到无地面精细稠密深度图DDMng;
上述技术方案中,所述步骤6中反向具体步骤如下:
步骤6.1:对步骤3得到的精细稠密深度图DDMdetailed和步骤5得到的无地面精细稠密深度图DDMng,分别找到其中的非零点坐标和坐标对应的深度X,构造格式为[x,y,X],形状为n×3,n为非零点个数,得到点云C;
步骤6.2:用C乘以内外参数矩阵T的逆,得到稠密点云DC。
Claims (7)
1.一种基于深度图的稀疏点云稠密化及路面去除方法,其特征在于,包括如下步骤:
步骤1:输入原始稀疏点云Cpoints,利用传感器校准得到的内外参数矩阵T对点云坐标进行转换,并提取稀疏深度图DMorigin,转入步骤2;
步骤2:对步骤1提取的稀疏深度图DMorigin,进行Delaunay三角剖分线性插值,得到初始的粗糙稠密深度图DDMwild,转入步骤3;
步骤3:利用步骤1提取的稀疏深度图DMorigin,生成掩模maskdetailed,并应用至初始的粗糙稠密深度图DDMwild,得到精细稠密深度图DDMdetailed,转入步骤4;
步骤4:对步骤1中的原始稀疏点云Cpoints,进行RANSAC地面拟合并去除地面,接着滤除离群点,提取无地面稀疏深度图DMng,转入步骤5;
步骤5:利用步骤4提取的无地面稀疏深度图DMng,生成掩模maskng,并应用至精细稠密深度图DDMdetailed,得到无地面 精细稠密深度图DDMng,转入步骤6;
步骤6:对步骤3得到的精细稠密深度图DDMdetailed和步骤5得到的无地面精细稠密深度图DDMng,利用内外参数矩阵T进行反向投影,得到稠密点云DCpoints和稠密点云DCpoints_ng。
2.根据权利要求1所述的一种基于深度图的稀疏点云稠密化及路面去除方法,其特征在于:所述步骤1具体步骤如下:
步骤1.1:输入原始稀疏点云Cpoints,其数据格式为[X,Y,Z],即点云的空间坐标数据,对传感器进行校准得到内外参数矩阵T;
步骤1.2:利用内外参数矩阵T对稀疏点云Cpoints进行坐标投影转换得到Cimg,并调整格式得到C′img其数据格式为[x,y,X],即Cpoints在图像空间的坐标x、y和空间坐标系的X坐标,转换公式如下:
Cimg=T·Cpoints
步骤1.3:滤掉C′img中在图像边界(h,w)外的点,对C′img中的x、y取整,然后按照深度X从小到大进行排序,并去除x、y坐标重复的点,得到修正后的稀疏点云C″img;
步骤1.4:构造大小为(h,w)的全零矩阵I0,利用修正后的稀疏点云C″img的数据[x,y,X],在I0的坐标(y,x)中填入相应的深度X,得到稀疏深度图DMorigin。
3.根据权利要求1所述的一种基于深度图的稀疏点云稠密化及路面去除方法,其特征在于:所述步骤2的具体步骤如下:
步骤2.1:利用Delaunay三角剖分对稀疏深度图DMorigin的坐标(y,x)进行三角网格生成,产生孤立的三角网格集Δ={δ1,…,δn},每个三角形δ中包含三个坐标n1、n2和n3;这里n1、n2和n3实际上就是深度图的坐标在三角形网格里的标号,表示要在这三个坐标构成的三角形中进行插值运算;
步骤2.2:利用三角形δ三个坐标上的深度X进行线性插值估计三角形内部点上深度,最终得到粗糙的稠密深度图DDMwild。
4.根据权利要求1所述的一种基于深度图的稀疏点云稠密化及路面去除方法,其特征在于:所述步骤3具体步骤如下:
步骤3.1:构造大小为(h,w)的全零矩阵mask0;
步骤3.2:对步骤1得到的稀疏深度图DMorigin,每一列从上到下寻找第一个深度X不为0的点的坐标索引u,将mask0每一列第u个元素到最后一个元素全部置为1,得到mask′0;
步骤3.3:以横向方形结构元对mask′0进行形态学横向膨胀,得到掩模maskdetailed;
步骤3.4:将maskdetailed与DDMwild相乘得到精细稠密深度图DDMdetailed。
6.根据权利要求1所述的一种基于深度图的稀疏点云稠密化及路面去除方法,其特征在于:所述步骤5具体有以下几个步骤:
步骤5.1:构造大小为(h,w)的全零矩阵mask01;
步骤5.2:对步骤4得到的无地面稀疏深度图DMng,每一列从上到下寻找第一个深度X不为0的点和最后一个非零点的坐标索引uv,将mask01每一列第u个元素到第v个元素全部置为1,得到mask′01;
步骤5.3:以椭圆形结构元对mask′01进行形态学纵向开运算,得到掩模maskng;
步骤5.4:将maskng与DDMdetailed相乘得到无地面精细稠密深度图DDMng。
7.根据权利要求1所述的一种基于深度图的稀疏点云稠密化及路面去除方法,其特征在于:所述步骤6中反向投影具体步骤如下:
步骤6.1:对步骤3得到的精细稠密深度图DDMdetailed和步骤5得到的无地面精细稠密深度图DDMng,分别找到其中的非零点坐标和坐标对应的深度X,构造格式为[x,y,X],形状为n×3,n为非零点个数,得到点云C;
步骤6.2:用传感器内外参数矩阵T的逆乘以C,得到稠密点云DC。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911289613.0A CN111079765B (zh) | 2019-12-13 | 2019-12-13 | 一种基于深度图的稀疏点云稠密化及路面去除方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911289613.0A CN111079765B (zh) | 2019-12-13 | 2019-12-13 | 一种基于深度图的稀疏点云稠密化及路面去除方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111079765A CN111079765A (zh) | 2020-04-28 |
CN111079765B true CN111079765B (zh) | 2022-07-01 |
Family
ID=70314640
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911289613.0A Active CN111079765B (zh) | 2019-12-13 | 2019-12-13 | 一种基于深度图的稀疏点云稠密化及路面去除方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111079765B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111860321B (zh) * | 2020-07-20 | 2023-12-22 | 浙江光珀智能科技有限公司 | 一种障碍物识别方法及*** |
CN112927251B (zh) * | 2021-03-26 | 2022-10-14 | 中国科学院自动化研究所 | 基于形态学的场景稠密深度图获取方法、***及装置 |
CN113240813B (zh) * | 2021-05-12 | 2023-05-16 | 北京三快在线科技有限公司 | 三维点云信息确定方法及装置 |
CN114463409B (zh) * | 2022-02-11 | 2023-09-26 | 北京百度网讯科技有限公司 | 图像深度信息的确定方法、装置、电子设备和介质 |
CN114627351B (zh) * | 2022-02-18 | 2023-05-16 | 电子科技大学 | 一种基于视觉和毫米波雷达的融合深度估计方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104346608A (zh) * | 2013-07-26 | 2015-02-11 | 株式会社理光 | 稀疏深度图稠密化方法和装置 |
CN104992441A (zh) * | 2015-07-08 | 2015-10-21 | 华中科技大学 | 一种面向个性化虚拟试衣的真实人体三维建模方法 |
CN105021124A (zh) * | 2015-04-16 | 2015-11-04 | 华南农业大学 | 一种基于深度图的平面零件三维位置和法向量计算方法 |
EP3349176A1 (en) * | 2017-01-17 | 2018-07-18 | Facebook, Inc. | Three-dimensional scene reconstruction from set of two-dimensional images for consumption in virtual reality |
CN109448041A (zh) * | 2018-10-29 | 2019-03-08 | 重庆金山医疗器械有限公司 | 一种胶囊内镜图像三维重建方法及*** |
CN110379022A (zh) * | 2019-07-22 | 2019-10-25 | 西安因诺航空科技有限公司 | 一种航拍地形三维重建***中的点云及网格分块方法 |
-
2019
- 2019-12-13 CN CN201911289613.0A patent/CN111079765B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104346608A (zh) * | 2013-07-26 | 2015-02-11 | 株式会社理光 | 稀疏深度图稠密化方法和装置 |
CN105021124A (zh) * | 2015-04-16 | 2015-11-04 | 华南农业大学 | 一种基于深度图的平面零件三维位置和法向量计算方法 |
CN104992441A (zh) * | 2015-07-08 | 2015-10-21 | 华中科技大学 | 一种面向个性化虚拟试衣的真实人体三维建模方法 |
EP3349176A1 (en) * | 2017-01-17 | 2018-07-18 | Facebook, Inc. | Three-dimensional scene reconstruction from set of two-dimensional images for consumption in virtual reality |
CN109448041A (zh) * | 2018-10-29 | 2019-03-08 | 重庆金山医疗器械有限公司 | 一种胶囊内镜图像三维重建方法及*** |
CN110379022A (zh) * | 2019-07-22 | 2019-10-25 | 西安因诺航空科技有限公司 | 一种航拍地形三维重建***中的点云及网格分块方法 |
Non-Patent Citations (4)
Title |
---|
DeepPerimeter:Indoor Boundary Estimation from Posed Monocular Sequences;Ameya Phalak 等;《arXiv》;20190701;第1-11页 * |
Just-in-Time Reconstruction:Inpainting Sparse Maps using Single View Depth Predictors as Priors;Chamara Saroj Weerasekera 等;《2018 IEEE International Conference on Robotics and Automation 》;20180913;第4977-4984页 * |
单目多视角三维重建算法设计与实现;成祺;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20190915;第I138-767页 * |
车载多传感器融合下的动态目标检测与跟踪;曾湘峰;《中国优秀博硕士学位论文全文数据库(硕士)》;20180415;第C035-97页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111079765A (zh) | 2020-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111079765B (zh) | 一种基于深度图的稀疏点云稠密化及路面去除方法 | |
CN110264567B (zh) | 一种基于标记点的实时三维建模方法 | |
CN107316325B (zh) | 一种基于图像配准的机载激光点云与影像配准融合方法 | |
CN110569704B (zh) | 一种基于立体视觉的多策略自适应车道线检测方法 | |
CN112270713B (zh) | 标定方法以及装置、存储介质、电子装置 | |
CN111563921B (zh) | 一种基于双目相机的水下点云获取方法 | |
CN112001958B (zh) | 基于有监督单目深度估计的虚拟点云三维目标检测方法 | |
CN108474658B (zh) | 地面形态检测方法及***、无人机降落方法和无人机 | |
CN107560592B (zh) | 一种用于光电跟踪仪联动目标的精确测距方法 | |
CN106225774B (zh) | 一种基于计算机视觉的无人驾驶农机耕道测量装置及方法 | |
CN113362247A (zh) | 一种激光融合多目相机的语义实景三维重建方法及*** | |
CN113050074B (zh) | 无人驾驶环境感知中相机与激光雷达标定***及标定方法 | |
CN110942477B (zh) | 一种利用双目相机和激光雷达深度图融合的方法 | |
CN113205604A (zh) | 一种基于摄像机和激光雷达的可行区域检测方法 | |
CN113689483B (zh) | 一种基于单目摄像头和激光雷达的测距方法 | |
CN105513094A (zh) | 基于三维Delaunay三角剖分的立体视觉跟踪方法及*** | |
CN112669280A (zh) | 一种基于lsd算法的无人机倾斜航拍直角像控点目标检测方法 | |
Parmehr et al. | Automatic registration of optical imagery with 3d lidar data using local combined mutual information | |
CN114519681A (zh) | 自动标定方法及装置、计算机可读存储介质、终端 | |
CN114428259A (zh) | 一种基于地图车采集的地库激光点云中车辆自动提取方法 | |
CN117406234A (zh) | 基于单线激光雷达与视觉融合的目标测距和追踪的方法 | |
Shen et al. | A 3D modeling method of indoor objects using Kinect sensor | |
CN114119718A (zh) | 融合颜色特征和边缘特征的双目视觉绿色植被匹配定位方法 | |
CN113674407A (zh) | 基于双目视觉图像的三维地形重建方法、装置及存储介质 | |
KR101031661B1 (ko) | 디지털 항공사진정보를 이용한 3차원 객체 모델링 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |