CN110222626A - 一种基于深度学习算法的无人驾驶场景点云目标标注方法 - Google Patents

一种基于深度学习算法的无人驾驶场景点云目标标注方法 Download PDF

Info

Publication number
CN110222626A
CN110222626A CN201910475296.5A CN201910475296A CN110222626A CN 110222626 A CN110222626 A CN 110222626A CN 201910475296 A CN201910475296 A CN 201910475296A CN 110222626 A CN110222626 A CN 110222626A
Authority
CN
China
Prior art keywords
point
point cloud
cloud
target
algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910475296.5A
Other languages
English (en)
Other versions
CN110222626B (zh
Inventor
杨学博
张宏斌
李湛
潘惠惠
林伟阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo Intelligent Equipment Research Institute Co Ltd
Original Assignee
Ningbo Intelligent Equipment Research Institute Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo Intelligent Equipment Research Institute Co Ltd filed Critical Ningbo Intelligent Equipment Research Institute Co Ltd
Priority to CN201910475296.5A priority Critical patent/CN110222626B/zh
Publication of CN110222626A publication Critical patent/CN110222626A/zh
Application granted granted Critical
Publication of CN110222626B publication Critical patent/CN110222626B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本发明涉及智能算法领域,公开了一种基于深度学习算法的无人驾驶场景点云目标标注方法,对于无人驾驶场景下的三维点云数据标注,本发明解决了现有人工标注方法存在的速度慢、效率低、受心里状态影响比较大的缺点,针对算法提出柱坐标系的体素分割方法,在RPN每个位置产生[30°,90°,150°]三种anchor,不需要角度分类loss,提高了精度,达到90%的准确率,明显缩短激光雷达点云的标注时间,相比于现有方法的1帧/分钟的速度,该方法可以实现3帧/分钟的标注速度。

Description

一种基于深度学习算法的无人驾驶场景点云目标标注方法
技术领域
本发明涉及智能算法领域,特别是一种基于深度学习算法的无人驾驶场景点云目标标注方法。
背景技术
近年来,随着深度学习的快速发展,无人驾驶的发展也进入了快车道,基于深度学习的环境感知是无人驾驶技术中最为重要的技术之一。基于激光雷达的三维物体检测对于自动驾驶是不可避免的,因为它直接与环境理解相关联,因此为预测和运动规划奠定了基础。实时推断高度稀疏的3D数据的能力对于除自动车辆之外的许多其他应用领域也同样适用,然而深度学习模型的训练需要大量的标注数据,就现在而言,这些工作都是由人工完成的,无疑,开发一种自动或者半自动的点云标注算法无疑是一个非常有意义的研究工作,本课题基于目标识别算法的点云半自动标注工具设计旨在解决这个问题。
基于卷积网络的目标识别算法在图片上已经表现出了非常优秀的效果,然而对于点云信息而言,由于点云信息是无序存储的结构,无法进行常规的卷积操作。如果将3D信息映射到2D图像进行操作,然后尝试从2D图像信息中恢复实际的3D环境信,在这个过程中将丢弃对你最重要的许多信息。并且尝试将这些信息重新组合在一起很困难,即使对于最先进的算法,也容易出错。现在大多倾向于直接基于点云数据识别目标,将是无人驾驶技术中具有重要意义的一项技术。准确识别三维点云数据中的事物要素,仍然是当今快速发展的应用技术中的难题之一。无论是自动驾驶汽车,抑或自动化的清扫机器人,再或者其他需要自主导航能力的机器,都将需要更高精度、高效率的环境、包括针对各类物体的识别能力。而且与单纯的基于二维的图像识别能力相比,基于三维点云的数据识别能力往往准确性要更高;但受限于点云的密度差异,密度较低的点云数据在识别方面也往往引发不少问题。目前,行之有效的点云数据识别的训练方法,是依靠手工标注特点的方式来进行。例如操作人员会将点云数据从鸟瞰视角进行特点的标注,或者把这些数据三维网格化之后,对每一个立体网格要素进行手动标注,因此开发一种可以半自动甚至自动标注的工具就显得尤为重要。
发明内容
本发明的目的在于提供一种基于深度学习算法的无人驾驶场景点云目标标注方法,基于高度稀疏的3D点云数据的目标检测算法的智能、简单易用、高效的点云标注方法。
为实现上述技术目的,达到上述技术效果,本发明公开了一种基于深度学习算法的无人驾驶场景点云目标标注方法,包括了以下步骤:
S1、使用多线束激光雷达获取一帧点云数据,进行时间同步;
S2、将点云pi=[xi,yi,zi,ri]转换到柱坐标系pi=[ρii,zi,ri],ρ,θ,z三个轴均匀分割,将待检测空间分割为若干体素,对S1中采集得到的点云数据根据位置分组到对应的体素,设定体素中点数最大值Tmax
S3、定义V={pi=[ρii,zi,ri],i=1,2...,n}为非空体素,首先计算每个体素的中心,定义为[vρ,vθ,vz],然后将每个体素扩增 V={pi=[ρii,zi,rii-vρi-vθ,zi-vz],i=1,2...,n},使用全连接层提取特征,得到 4D稀疏矩阵;
S4、遍历所有体素,收集非空体素索引来构造矩阵,执行通用矩阵乘法算法,然后将数据映射回稀疏张量;
S5、利用S4得到的特征图输入到区域推荐网络,产生可能存在目标的区域;
S6、对S5得到的特征图进行卷积,得到目标的类别、位置、维度、角度和置信度;
S7、对S6得到的结果,根据置信度进行筛选,选择置信度大于0.8的目标,输出到标签,作为标注数据的初始标签;
S8、人工框选点云,然后使用区域生长算法来实现智能点云框;
S9、根据S8得到的点云,使用PCA主成分分析计算点云的三个主方向,转换点云主方向与坐标轴重合,建立包围盒,根据转换关系转换到原始坐标系,得到最小包围盒,完成一帧数据的标注;
S10、重复S1-S9,直至所需标注场景标注完毕。
其中,多线束激光雷达为2.5D激光雷达或3D激光雷达,激光雷达的垂直视野的范围为10°-40°。
其中,S2具体步骤为:
S21、对于所检测场景内的物体,将点云转换到圆柱坐标系下,然后将距离r轴,角度θ轴、高度轴z均匀划分,得到扇形的体素,并对不同物体进行最大点数限制;
S22、对不同物体的体素数量限制预分配缓冲区,迭代点云并将点云分配给相应的体素,保存体素坐标和每个体素的点数。
其中,S3中提取特征具体步骤为:
S31、将同一体素中的所有点作为输入体素特征编码层,并使用由线性层,批量归一化层和整流线性单元层组成的完全连接网络来提取逐点特征;
S32、使用元素最大池对S31得到的特征表示进行逐元素的聚合,得到局部聚合特征;
S33、将获得的特征平铺,并将这些平铺特征和逐点特征连接在一起。
其中,S4具体步骤为:
S41、遍历所有体素,卷积的输出Yx,y,m,其中Yx,y,m如下:
其中,Wu,v,l,m为滤波器的元素,Du,v,l为图像元素,其中u和v是空间位置索引,l表示输入通道,m表示输出通道;函数P(x,y)生成在给定输出位置的情况下需要计算的输入位置,其中x和y是输出空间索引,u-u0和v-v0表示内核偏移u和v坐标;
S42、收集构造矩阵所需的所有数据;然后执行通用矩阵乘法:
其中,其中W*,l,m对应于
对于稀疏数据DP′(j),l和相关的输出Yj,m,直接计算算法如下:
对于稀疏数据矩阵中不需要计算的零,直接收集内核偏移量k和输出索引j的输入索引i;
S43、执行通用矩阵乘法算法,将数据映射回稀疏张量。
其中,S5中区域推荐网络具体步骤如下:
S51、将区域推荐网络分层三个阶段,每个阶段均以下采样卷积层开始,随后后跟随若干卷积层,在每个卷积层之后,应用BatchNorm和ReLU层;
S52、通过将每个阶段的输出上采样到相同大小的要素图,并将各个要素图连接成一个要素图;
S53、通过三组1×1卷积来预测目标的类别、位置、维度、角度和置信度。
其中,S8点云标注具体步骤为:
S81、使用点云目标检测算法检测出点云中存在的目标,根据置信度将目标进行排序,将大于阈值的目标保留,作为点云的初始标签;
S82、打开初始标签,根据标注的质量进行修改、删除和增加;
S83、对于新增的标签,首先选中目标及目标***的一部分点,使用区域生长算法来实现智能点云框,以去除地面等环境因素对于目标定位的干扰。
进一步的,S83中区域生长算法如下:
S831、根据点的曲率值对点云进行排序,曲率最小的点设为初始种子点,从曲率最小的种子点开始生长;
S832、设置一空的聚类区域和空的种子点序列,选好初始种子点,将其加入种子点序列,并搜索该种子点的邻域点,计算每一个邻域点法线与种子点法线之间的夹角;
S833、判断夹角与平滑阀值的大小关系,当夹角小于设定的平滑阀值时,将邻域点加入到邻域中,同时判断该邻域点的曲率值是否小于曲率阀值,将小于曲率阔值的邻域点加入种子点序列中,返回步骤S832直至种子点中序列为空。
其中,S9中最小包围盒生成算法如下:
S91、利用PCA主成分分析法获得点云的三个主方向,获取质心,计算协方差,获得协方差矩阵,求取协方差矩阵的特征值和特征向量;
S92、利用S91中获得的主方向和质心,将输入点云转换至原点,且主方向与坐标系方向重回,建立变换到原点的点云的包围盒;
S93、给输入点云设置主方向和包围盒,通过输入点云到原点点云变换的逆变换实现。
本发明具有以下有益效果:
1、对于无人驾驶场景下的三维点云数据标注,本发明解决了现有人工标注方法存在的速度慢、效率低、受心里状态影响比较大的缺点。
2、本发明中的算法对于高度稀疏的无人驾驶场景点云数据,可以实现高精度的识别,达到90%的准确率。
3、本发明可以明显缩短激光雷达点云的标注时间,相比于现有方法的1帧/ 分钟的速度,该方法可以实现3帧/分钟的标注速度。
附图说明
图1为本发明的圆柱坐标系样视图。
图2为本发明的点云数据可视化结果图。
图3为本发明的点云目标检测算法网络结构图。
图4为本发明的智能点云框选算法处理结果图。
图5为本发明的基于PCA主成分分析算法生成的最小包围盒示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。
实施例1
如图1-5所示,本发明公开了一种基于深度学习算法的无人驾驶场景点云目标标注方法,包括了以下步骤:
S1、使用多线束激光雷达获取一帧点云数据,进行时间同步;
S2、如图1所示,将点云转换到圆柱坐标系下,然后将距离ρ轴,角度θ轴、高度轴z均匀划分,得到扇形的体素,V=[vρ=0.2,vθ=0.45,vz=0.4],设定检测检测为S={ρ∈[0,70m],θ∈[-360,0°],z∈[-3,,1m]},可以得到350×400×10的体素栅格;
设定每个空体素中的最大点数被设置为T=35,其基于KITTI数据集中每个体素的点数的分布来选择;行人和骑车者检测的相应最大值设置为T=45,因为行人和骑车者相对较小,因此,体素特征提取需要更多的点。
S3、定义V={pi=[ρii,zi,ri],i=1,2...,n}为非空体素,首先计算每个体素的中心,定义为[vρ,vθ,vz],然后将每个体素扩增 V={pi=[ρii,zi,rii-vρi-vθ,zi-vz],i=1,2...,n},使用全连接层提取特征,得到 4D稀疏矩阵;
其中,S3中提取特征具体步骤为:
S31、将同一体素中的所有点作为输入体素特征编码层,并使用由线性层,批量归一化层和整流线性单元层组成的完全连接网络来提取逐点特征;
S32、使用元素最大池对S31得到的特征表示进行逐元素的聚合,得到局部聚合特征;
S33、将获得的特征平铺,并将这些平铺特征和逐点特征连接在一起。
S4、遍历所有体素,收集非空体素索引来构造矩阵,执行通用矩阵乘法算法,然后将数据映射回稀疏张量;
具体步骤如下:
S41、遍历所有体素,卷积的输出Yx,y,m,其中Yx,y,m如下:
其中,Wu,v,l,m为滤波器的元素,Du,v,l为图像元素,其中u和v是空间位置索引,l表示输入通道,m表示输出通道;函数P(x,y)生成在给定输出位置的情况下需要计算的输入位置,其中x和y是输出空间索引,u-u0和v-v0表示内核偏移u和v坐标;
S42、收集构造矩阵所需的所有数据;然后执行通用矩阵乘法:
其中,其中W*,l,m对应于
对于稀疏数据DP′(j),l和相关的输出Yj,m,直接计算算法如下:
对于稀疏数据矩阵中不需要计算的零,直接收集内核偏移量k和输出索引j的输入索引i;
S43、执行通用矩阵乘法算法,将数据映射回稀疏张量。
S5、利用S4得到的特征图输入到区域推荐网络,产生可能存在目标的区域;
其中,S5中区域推荐网络具体步骤如下:
S51、将区域推荐网络分层三个阶段,每个阶段均以下采样卷积层开始,随后后跟随若干卷积层,在每个卷积层之后,应用BatchNorm和ReLU层;
S52、通过将每个阶段的输出上采样到相同大小的要素图,并将各个要素图连接成一个要素图;
S53、通过三组1×1卷积来预测目标的类别、位置、维度、角度和置信度。
S6、对S5得到的特征图进行卷积,得到目标的类别、位置、维度、角度和置信度;
S7、对S6得到的结果,根据置信度进行筛选,选择置信度大于0.8的目标,输出到标签,作为标注数据的初始标签;
S8、人工框选点云,然后使用区域生长算法来实现智能点云框;
其中,S8点云标注具体步骤为:
S81、使用点云目标检测算法检测出点云中存在的目标,根据置信度将目标进行排序,将大于阈值的目标保留,作为点云的初始标签;
S82、打开初始标签,根据标注的质量进行修改、删除和增加;
S83、对于新增的标签,首先选中目标及目标***的一部分点,使用区域生长算法来实现智能点云框,以去除地面等环境因素对于目标定位的干扰。
进一步的,S83中区域生长算法如下:
S831、根据点的曲率值对点云进行排序,曲率最小的点设为初始种子点,从曲率最小的种子点开始生长;
S832、设置一空的聚类区域和空的种子点序列,选好初始种子点,将其加入种子点序列,并搜索该种子点的邻域点,计算每一个邻域点法线与种子点法线之间的夹角;
S833、判断夹角与平滑阀值的大小关系,当夹角小于设定的平滑阀值时,将邻域点加入到邻域中,同时判断该邻域点的曲率值是否小于曲率阀值,将小于曲率阔值的邻域点加入种子点序列中,返回步骤S832直至种子点中序列为空。
S9、根据S8得到的点云,使用PCA主成分分析计算点云的三个主方向,转换点云主方向与坐标轴重合,建立包围盒,根据转换关系转换到原始坐标系,得到最小包围盒,完成一帧数据的标注;
其中,S9中最小包围盒生成算法如下:
S91、利用PCA主成分分析法获得点云的三个主方向,获取质心,计算协方差,获得协方差矩阵,求取协方差矩阵的特征值和特征向量;
S92、利用S91中获得的主方向和质心,将输入点云转换至原点,且主方向与坐标系方向重回,建立变换到原点的点云的包围盒;
S93、给输入点云设置主方向和包围盒,通过输入点云到原点点云变换的逆变换实现。
S10、重复S1-S9,直至所需标注场景标注完毕。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。

Claims (9)

1.一种基于深度学习算法的无人驾驶场景点云目标标注方法,其特征在于,包括了以下步骤:
S1、使用多线束激光雷达获取一帧点云数据,进行时间同步;
S2、将点云pi=[xi,yi,zi,ri]转换到柱坐标系pi=[ρii,zi,ri],ρ,θ,z三个轴均匀分割,将待检测空间分割为若干体素,对S1中采集得到的点云数据根据位置分组到对应的体素,设定体素中点数最大值Tmax
S3、定义V={pi=[ρii,zi,ri],i=1,2...,n}为非空体素,首先计算每个体素的中心,定义为[vρ,vθ,vz],然后将每个体素扩增V={pi=[ρii,zi,rii-vρi-vθ,zi-vz],i=1,2...,n},使用全连接层提取特征,得到4D稀疏矩阵;
S4、遍历所有体素,收集非空体素索引来构造矩阵,执行通用矩阵乘法算法,然后将数据映射回稀疏张量;
S5、利用S4得到的特征图输入到区域推荐网络,产生可能存在目标的区域;
S6、对S5得到的特征图进行卷积,得到目标的类别、位置、维度、角度和置信度;
S7、对S6得到的结果,根据置信度进行筛选,选择置信度大于0.8的目标,输出到标签,作为标注数据的初始标签;
S8、人工框选点云,然后使用区域生长算法来实现智能点云框;
S9、根据S8得到的点云,使用PCA主成分分析计算点云的三个主方向,转换点云主方向与坐标轴重合,建立包围盒,根据转换关系转换到原始坐标系,得到最小包围盒,完成一帧数据的标注;
S10、重复S1-S9,直至所需标注场景标注完毕。
2.如权利要求1所述的一种基于深度学习算法的无人驾驶场景点云目标标注方法,其特征在于,所述的多线束激光雷达为2.5D激光雷达或3D激光雷达,激光雷达的垂直视野的范围为10°-40°。
3.如权利要求1所述的一种基于深度学习算法的无人驾驶场景点云目标标注方法,其特征在于,所述的S2具体步骤为:
S21、对于所检测场景内的物体,将点云转换到圆柱坐标系下,然后将距离ρ轴,角度θ轴、高度轴z均匀划分,得到扇形的体素,并对不同物体进行最大点数限制;
S22、对不同物体的体素数量限制预分配缓冲区,迭代点云并将点云分配给相应的体素,保存体素坐标和每个体素的点数。
4.如权利要求1所述的一种基于深度学习算法的无人驾驶场景点云目标标注方法,其特征在于,所述的S3中提取特征具体步骤为:
S31、将同一体素中的所有点作为输入体素特征编码层,并使用由线性层,批量归一化层和整流线性单元层组成的完全连接网络来提取逐点特征;
S32、使用元素最大池对S31得到的特征表示进行逐元素的聚合,得到局部聚合特征;
S33、将获得的特征平铺,并将这些平铺特征和逐点特征连接在一起。
5.如权利要求1所述的一种基于深度学习算法的无人驾驶场景点云目标标注方法,其特征在于,所述的S4具体步骤为:
S41、遍历所有体素,卷积的输出Yx,y,m,其中Yx,y,m如下:
其中,Wu,v,l,m为滤波器的元素,Du,v,l为图像元素,其中u和v是空间位置索引,l表示输入通道,m表示输出通道;函数P(x,y)生成在给定输出位置的情况下需要计算的输入位置,其中x和y是输出空间索引,u-u0和v-v0表示内核偏移u和v坐标;
S42、收集构造矩阵所需的所有数据;然后执行通用矩阵乘法:
其中,其中W*,l,m对应于
对于稀疏数据DP′(j),l和相关的输出Yj,m,直接计算算法如下:
对于稀疏数据矩阵中不需要计算的零,直接收集内核偏移量k和输出索引j 的输入索引i;
S43、执行通用矩阵乘法算法,将数据映射回稀疏张量。
6.如权利要求1所述的一种基于深度学习算法的无人驾驶场景点云目标标注方法,其特征在于,所述的S5中区域推荐网络具体步骤如下:
S51、将区域推荐网络分层三个阶段,每个阶段均以下采样卷积层开始,随后后跟随若干卷积层,在每个卷积层之后,应用BatchNorm和ReLU层;
S52、通过将每个阶段的输出上采样到相同大小的要素图,并将各个要素图连接成一个要素图;
S53、通过三组1×1卷积来预测目标的类别、位置、维度、角度和置信度。
7.如权利要求1所述的一种基于深度学习算法的无人驾驶场景点云目标标注方法,其特征在于,所述的S8点云标注具体步骤为:
S81、使用点云目标检测算法检测出点云中存在的目标,根据置信度将目标进行排序,将大于阈值的目标保留,作为点云的初始标签;
S82、打开初始标签,根据标注的质量进行修改、删除和增加;
S83、对于新增的标签,首先选中目标及目标***的一部分点,使用区域生长算法来实现智能点云框,以去除地面等环境因素对于目标定位的干扰。
8.如权利要求7所述的一种基于深度学习算法的无人驾驶场景点云目标标注方法,其特征在于,所述的S83中区域生长算法如下:
S831、根据点的曲率值对点云进行排序,曲率最小的点设为初始种子点,从曲率最小的种子点开始生长;
S832、设置一空的聚类区域和空的种子点序列,选好初始种子点,将其加入种子点序列,并搜索该种子点的邻域点,计算每一个邻域点法线与种子点法线之间的夹角;
S833、判断夹角与平滑阀值的大小关系,当夹角小于设定的平滑阀值时,将邻域点加入到邻域中,同时判断该邻域点的曲率值是否小于曲率阀值,将小于曲率阔值的邻域点加入种子点序列中,返回步骤S832直至种子点中序列为空。
9.如权利要求1所述的一种基于深度学习算法的无人驾驶场景点云目标标注方法,其特征在于,所述的S9中最小包围盒生成算法如下:
S91、利用PCA主成分分析法获得点云的三个主方向,获取质心,计算协方差,获得协方差矩阵,求取协方差矩阵的特征值和特征向量;
S92、利用S91中获得的主方向和质心,将输入点云转换至原点,且主方向与坐标系方向重回,建立变换到原点的点云的包围盒;
S93、给输入点云设置主方向和包围盒,通过输入点云到原点点云变换的逆变换实现。
CN201910475296.5A 2019-06-03 2019-06-03 一种基于深度学习算法的无人驾驶场景点云目标标注方法 Active CN110222626B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910475296.5A CN110222626B (zh) 2019-06-03 2019-06-03 一种基于深度学习算法的无人驾驶场景点云目标标注方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910475296.5A CN110222626B (zh) 2019-06-03 2019-06-03 一种基于深度学习算法的无人驾驶场景点云目标标注方法

Publications (2)

Publication Number Publication Date
CN110222626A true CN110222626A (zh) 2019-09-10
CN110222626B CN110222626B (zh) 2021-05-28

Family

ID=67819009

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910475296.5A Active CN110222626B (zh) 2019-06-03 2019-06-03 一种基于深度学习算法的无人驾驶场景点云目标标注方法

Country Status (1)

Country Link
CN (1) CN110222626B (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111223107A (zh) * 2019-12-31 2020-06-02 武汉中海庭数据技术有限公司 基于点云深度学习的点云数据集制作***及方法
CN111274927A (zh) * 2020-01-17 2020-06-12 北京三快在线科技有限公司 一种训练数据的生成方法、装置、电子设备和存储介质
CN111797692A (zh) * 2020-06-05 2020-10-20 武汉大学 一种基于半监督学习的深度图像手势估计方法
CN112614186A (zh) * 2020-12-28 2021-04-06 上海汽车工业(集团)总公司 目标位姿计算方法及计算模块
CN112639822A (zh) * 2020-03-27 2021-04-09 华为技术有限公司 一种数据处理方法及装置
CN112731339A (zh) * 2021-01-04 2021-04-30 东风汽车股份有限公司 一种基于激光点云的三维目标检测***及其检测方法
CN113521741A (zh) * 2020-10-23 2021-10-22 腾讯科技(深圳)有限公司 自动生成地图区域链接的方法、装置、设备及存储介质
CN113971712A (zh) * 2020-07-22 2022-01-25 上海商汤临港智能科技有限公司 一种点云数据的处理方法、装置、电子设备及存储介质
CN113970922A (zh) * 2020-07-22 2022-01-25 商汤集团有限公司 点云数据的处理方法、智能行驶控制方法及装置
WO2022017038A1 (zh) * 2020-07-22 2022-01-27 上海科技大学 用于无人驾驶的三维激光雷达点云高效k-最近邻搜索算法
WO2022017129A1 (zh) * 2020-07-22 2022-01-27 上海商汤临港智能科技有限公司 目标对象检测方法、装置、电子设备及存储介质
CN114359562A (zh) * 2022-03-20 2022-04-15 宁波博登智能科技有限公司 一种四维点云自动语义分割标注***及方法
CN114581739A (zh) * 2022-04-15 2022-06-03 长沙公信诚丰信息技术服务有限公司 一种基于特征识别的点云标注方法、装置及电子设备
WO2022142890A1 (zh) * 2020-12-29 2022-07-07 华为技术有限公司 数据处理方法及相关装置
CN115984583A (zh) * 2022-12-30 2023-04-18 广州沃芽科技有限公司 数据处理方法、装置、计算机设备、存储介质和程序产品

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104298998A (zh) * 2014-09-28 2015-01-21 北京理工大学 一种3d点云的数据处理方法
CN107657130A (zh) * 2017-10-18 2018-02-02 安徽佳通乘用子午线轮胎有限公司 一种面向轮胎花纹结构设计参数的逆向建模方法
CN108564525A (zh) * 2018-03-31 2018-09-21 上海大学 一种基于多线激光雷达的3d点云2d化数据处理方法
CN109191369A (zh) * 2018-08-06 2019-01-11 三星电子(中国)研发中心 2d图片集转3d模型的方法、存储介质和装置
CN109214982A (zh) * 2018-09-11 2019-01-15 大连理工大学 一种基于双圆柱投影模型的三维点云成像方法
CN109410307A (zh) * 2018-10-16 2019-03-01 大连理工大学 一种场景点云语义分割方法
CN109523552A (zh) * 2018-10-24 2019-03-26 青岛智能产业技术研究院 基于视锥点云的三维物体检测方法
CN109543601A (zh) * 2018-11-21 2019-03-29 电子科技大学 一种基于多模态深度学习的无人车目标检测方法
CN109829399A (zh) * 2019-01-18 2019-05-31 武汉大学 一种基于深度学习的车载道路场景点云自动分类方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104298998A (zh) * 2014-09-28 2015-01-21 北京理工大学 一种3d点云的数据处理方法
CN107657130A (zh) * 2017-10-18 2018-02-02 安徽佳通乘用子午线轮胎有限公司 一种面向轮胎花纹结构设计参数的逆向建模方法
CN108564525A (zh) * 2018-03-31 2018-09-21 上海大学 一种基于多线激光雷达的3d点云2d化数据处理方法
CN109191369A (zh) * 2018-08-06 2019-01-11 三星电子(中国)研发中心 2d图片集转3d模型的方法、存储介质和装置
CN109214982A (zh) * 2018-09-11 2019-01-15 大连理工大学 一种基于双圆柱投影模型的三维点云成像方法
CN109410307A (zh) * 2018-10-16 2019-03-01 大连理工大学 一种场景点云语义分割方法
CN109523552A (zh) * 2018-10-24 2019-03-26 青岛智能产业技术研究院 基于视锥点云的三维物体检测方法
CN109543601A (zh) * 2018-11-21 2019-03-29 电子科技大学 一种基于多模态深度学习的无人车目标检测方法
CN109829399A (zh) * 2019-01-18 2019-05-31 武汉大学 一种基于深度学习的车载道路场景点云自动分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YONG LI 等: "MVF-CNN: Fusion of Multilevel Features for Large-Scale Point Cloud Classification", 《IEEEACCESS》 *

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111223107A (zh) * 2019-12-31 2020-06-02 武汉中海庭数据技术有限公司 基于点云深度学习的点云数据集制作***及方法
CN111274927A (zh) * 2020-01-17 2020-06-12 北京三快在线科技有限公司 一种训练数据的生成方法、装置、电子设备和存储介质
CN112639822A (zh) * 2020-03-27 2021-04-09 华为技术有限公司 一种数据处理方法及装置
CN111797692A (zh) * 2020-06-05 2020-10-20 武汉大学 一种基于半监督学习的深度图像手势估计方法
US11430200B2 (en) 2020-07-22 2022-08-30 Shanghaitech University Efficient K-nearest neighbor search algorithm for three-dimensional (3D) lidar point cloud in unmanned driving
CN113971712A (zh) * 2020-07-22 2022-01-25 上海商汤临港智能科技有限公司 一种点云数据的处理方法、装置、电子设备及存储介质
CN113970922A (zh) * 2020-07-22 2022-01-25 商汤集团有限公司 点云数据的处理方法、智能行驶控制方法及装置
WO2022017131A1 (zh) * 2020-07-22 2022-01-27 商汤集团有限公司 点云数据的处理方法、智能行驶控制方法及装置
WO2022017038A1 (zh) * 2020-07-22 2022-01-27 上海科技大学 用于无人驾驶的三维激光雷达点云高效k-最近邻搜索算法
WO2022017129A1 (zh) * 2020-07-22 2022-01-27 上海商汤临港智能科技有限公司 目标对象检测方法、装置、电子设备及存储介质
CN113970922B (zh) * 2020-07-22 2024-06-14 商汤集团有限公司 点云数据的处理方法、智能行驶控制方法及装置
CN113521741B (zh) * 2020-10-23 2024-02-23 腾讯科技(深圳)有限公司 自动生成地图区域链接的方法、装置、设备及存储介质
CN113521741A (zh) * 2020-10-23 2021-10-22 腾讯科技(深圳)有限公司 自动生成地图区域链接的方法、装置、设备及存储介质
CN112614186A (zh) * 2020-12-28 2021-04-06 上海汽车工业(集团)总公司 目标位姿计算方法及计算模块
WO2022142890A1 (zh) * 2020-12-29 2022-07-07 华为技术有限公司 数据处理方法及相关装置
CN112731339A (zh) * 2021-01-04 2021-04-30 东风汽车股份有限公司 一种基于激光点云的三维目标检测***及其检测方法
CN114359562A (zh) * 2022-03-20 2022-04-15 宁波博登智能科技有限公司 一种四维点云自动语义分割标注***及方法
CN114581739A (zh) * 2022-04-15 2022-06-03 长沙公信诚丰信息技术服务有限公司 一种基于特征识别的点云标注方法、装置及电子设备
CN114581739B (zh) * 2022-04-15 2023-04-18 长沙公信诚丰信息技术服务有限公司 一种基于特征识别的点云标注方法、装置及电子设备
CN115984583B (zh) * 2022-12-30 2024-02-02 广州沃芽科技有限公司 数据处理方法、装置、计算机设备、存储介质和程序产品
CN115984583A (zh) * 2022-12-30 2023-04-18 广州沃芽科技有限公司 数据处理方法、装置、计算机设备、存储介质和程序产品

Also Published As

Publication number Publication date
CN110222626B (zh) 2021-05-28

Similar Documents

Publication Publication Date Title
CN110222626A (zh) 一种基于深度学习算法的无人驾驶场景点云目标标注方法
Xia et al. Geometric primitives in LiDAR point clouds: A review
CN106204572B (zh) 基于场景深度映射的道路目标深度估计方法
CN107767383B (zh) 一种基于超像素的道路图像分割方法
CN103325142B (zh) 一种基于Kinect的计算机三维模型建模方法
CN103411609B (zh) 一种基于在线构图的飞行器返航路线规划方法
CN106127791B (zh) 一种航空遥感影像的建筑物轮廓线提取方法
CN106909902B (zh) 一种基于改进的层次化显著模型的遥感目标检测方法
CN114424250A (zh) 结构建模
Abdollahi et al. Investigation of SVM and level set interactive methods for road extraction from *** earth images
CN112288857A (zh) 一种基于深度学习的机器人语义地图物体识别方法
CN108564650B (zh) 基于车载2D LiDAR点云数据的行道树靶标识别方法
CN105930815A (zh) 一种水下生物检测方法和***
CN110349186B (zh) 基于深度匹配的大位移运动光流计算方法
CN103218787A (zh) 多源异构遥感影像控制点自动采集方法
Wang et al. An overview of 3d object detection
CN115294293B (zh) 基于低空航摄成果自动化编译高精地图道路参考线的方法
CN113706710A (zh) 基于fpfh特征差异的虚拟点多源点云融合方法及***
CN104318051A (zh) 基于规则的大范围水体信息遥感自动提取***及方法
CN113985435A (zh) 一种融合多激光雷达的建图方法及***
CN112435336B (zh) 一种弯道类型识别方法、装置、电子设备及存储介质
Zhuang et al. Contextual classification of 3D laser points with conditional random fields in urban environments
CN112950786A (zh) 一种基于神经网络的车辆三维重建方法
Hu et al. A combined clustering and image mapping based point cloud segmentation for 3D object detection
Li et al. Stereo neural vernier caliper

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant