CN111310765A - 激光点云语义分割方法和装置 - Google Patents

激光点云语义分割方法和装置 Download PDF

Info

Publication number
CN111310765A
CN111310765A CN202010092826.0A CN202010092826A CN111310765A CN 111310765 A CN111310765 A CN 111310765A CN 202010092826 A CN202010092826 A CN 202010092826A CN 111310765 A CN111310765 A CN 111310765A
Authority
CN
China
Prior art keywords
semantic
unit
target
categories
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010092826.0A
Other languages
English (en)
Inventor
***
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jingwei Hirain Tech Co Ltd
Original Assignee
Beijing Jingwei Hirain Tech Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jingwei Hirain Tech Co Ltd filed Critical Beijing Jingwei Hirain Tech Co Ltd
Priority to CN202010092826.0A priority Critical patent/CN111310765A/zh
Publication of CN111310765A publication Critical patent/CN111310765A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明实施例提供激光点云语义分割方法和装置,以实现对路沿、护栏等的语义分割。在本发明实施例中,在获取三维空间点云后,会将三维空间点云划分为至少一个单元,使用深度学习卷积神经网络预测任一单元在预设的语义类别中,所属的n个语义类别(目标语义类别)及各语义类别所对应的高度区间(目标高度区间)。再将该单元位于目标高度区间的所有点的语义类别预测为目标语义类别。上述预设的语义类别至少包括:地面、护栏、路沿。这样,可实现将三维空间点云中的点的语义类别预测为地面、护栏、路沿等,进而可实现从三维空间点云中分割出路沿、护栏等对应的点。

Description

激光点云语义分割方法和装置
技术领域
本发明涉及汽车电子技术领域,特别涉及激光点云语义分割方法和装置。
背景技术
自动驾驶车辆是汽车未来的重要发展方向。在自动驾驶汽车行驶过程中,识别障碍物是智能车辆的基本要求,除了周围车辆、行人外,诸如路沿、护栏等静态障碍物在驾驶过程也要予以识别。
自动驾驶车辆一般安装有激光雷达,使用激光雷达可扫描到三维空间点云,如能从三维空间点云中分割出路沿、护栏对应的点,则可进一步识别出路沿、护栏。因此,如何从三维空间点云中分割出路沿、护栏等对应的点是目前研究的热门。
发明内容
有鉴于此,本发明实施例提供激光点云语义分割方法和装置,以实现对路沿、护栏等的语义分割。
为实现上述目的,本发明实施例提供如下技术方案:
一种激光点云语义分割装置,包括:
转换模块,用于:
获取三维空间点云;其中,所述三维空间点云包括多个点,每一点的信息包括在预设三维坐标系下的位置信息和反射强度信息,所述空间位置信息包括高度信息;
将所述三维空间点云划分为至少一个单元;
提取每一单元的特征向量;
语义分割模块,用于:
以各单元的特征向量为输入,使用深度学习卷积神经网络进行语义分割,得到各单元的预测结果;所述预测结果包括:预测出的n个语义类别,以及,所述n个语义类别中每一语义类别所对应的高度区间;任一单元所对应的n个语义类别中的任意一个为目标语义类别,所述目标语义类别对应的高度区间为目标高度区间;其中,所述n个语义类别包括:在由所述深度学习卷积神经网络预测出针对各预设的语义类别的概率后,概率最大的n个语义类别;预设的语义类别至少包括:地面、护栏和路沿;n不小于2,不大于M;M为预设的语义类别的总个数;
预测输出模块,用于:
在所述任一单元中,将位于所述目标高度区间的点的语义类别预测为所述目标语义类别;
其中,所述n个语义类别包括:在由所述深度学习卷积神经网络预测出针对各预设的语义类别的概率后,概率最大的n个语义类别;预设的语义类别至少包括:地面、护栏和路沿;n不小于2,不大于M;M为预设的语义类别的总个数。
可选的,在所述将所述三维空间点云划分为至少一个单元的方面,所述转换模块具体用于:
将所述三维空间点云在预设平面上的投影划分为N个栅格;N为正整数;
按照所述N个栅格将所述三维空间点云分割为N个体柱单元;其中,每一体柱单元均包括所述三维空间点云中的点,并且,不同体柱单元所包含的点不重叠;一体柱单元的底面为一个栅格;
所述单元具体为体柱单元。
可选的,在所述提取每一单元的特征向量的方面,所述转换模块具体用于:将所述体柱单元按高度分为m层;对每一层提取一个特征数据;所述特征向量包括m个特征数据。
可选的,所述深度学习卷积神经网络包括第一分支和第二分支;所述第一分支用于:预测任一体柱单元针对各预设的语义类别的概率;选择概率最大的n个语义类别作为所述预测出的n个语义类别;所述第二分支用于:预测所述n个语义类别中每一语义类别所对应的高度区间。
可选的,还包括目标编码单元和损失计算单元;其中:所述目标编码模块用于:在训练过程中,获取多个体柱单元样本;所述体柱单元样本中的每一点均标注有语义类别;获取所述体柱单元样本对应的训练目标;所述训练目标包括:目标待识别语义类别,以及,每种目标待识别语义类别所对应的高度区间边界;所述目标待识别语义类别包括:所述体柱单元样本中点数占比最大的n个语义类别;所述高度区间边界包括:属于所述目标待识别语义类别的点中最低点和最高点的高度信息;将所述多个体柱单元样本和对应的训练目标输入深度学习卷积神经网络进行训练;训练完成后的深度学习卷积神经网络用于在预测阶段进行所述语义分割;所述损失计算模块用于:在训练过程中计算所述体柱单元样本的损失值;所述损失值用于调整深度学习卷积神经网络的权重。
一种激光点云语义分割方法,包括:
获取三维空间点云;其中,所述三维空间点云包括多个点,每一点的信息包括在预设三维坐标系下的位置信息,所述空间位置信息包括高度信息;
将所述三维空间点云划分为至少一个单元;
提取每一单元的特征向量;
以各单元的特征向量为输入,使用深度学习卷积神经网络进行语义分割,得到各单元的预测结果;所述预测结果包括:预测出的n个语义类别,以及,所述n个语义类别中每一语义类别所对应的高度区间;任一单元所对应的n个语义类别中的任意一个为目标语义类别,所述目标语义类别对应的高度区间为目标高度区间;其中,所述n个语义类别包括:在由所述深度学习卷积神经网络预测出针对各预设的语义类别的概率后,概率最大的n个语义类别;预设的语义类别至少包括:地面、护栏和路沿;n不小于2,不大于M;M为预设的语义类别的总个数;
在所述任一单元中,将位于所述目标高度区间的点的语义类别预测为所述目标语义类别;
其中,所述n个语义类别包括:在由所述深度学习卷积神经网络预测出针对各预设的语义类别的概率后,概率最大的n个语义类别;预设的语义类别至少包括:地面、护栏和路沿;n不小于2,不大于M;M为预设的语义类别的总个数。
可选的,所述将所述三维空间点云划分为至少一个单元包括:将所述三维空间点云在预设平面上的投影划分为N个栅格;N为正整数;按照所述N个栅格将所述三维空间点云分割为N个体柱单元;其中,每一体柱单元均包括所述三维空间点云中的点,并且,不同体柱单元所包含的点不重叠;一体柱单元的底面为一个栅格;所述单元具体为体柱单元。
可选的,所述提取每一单元的特征向量包括:将所述体柱单元按高度分为m层;对每一层提取一个特征数据;所述特征向量包括m个特征数据。
可选的,所述深度学习卷积神经网络包括第一分支和第二分支;所述第一分支用于:预测任一体柱单元针对各预设的语义类别的概率;选择概率最大的n个语义类别作为所述预测出的n个语义类别;所述第二分支用于:预测所述n个语义类别中每一语义类别所对应的高度区间。
可选的,还包括:在训练过程中,获取多个体柱单元样本;所述体柱单元样本中的每一点均标注有语义类别;获取所述体柱单元样本对应的训练目标;所述训练目标包括:目标待识别语义类别,以及,每种目标待识别语义类别所对应的高度区间边界;所述目标待识别语义类别包括:所述体柱单元样本中点数占比最大的n个语义类别;所述高度区间边界包括:属于所述目标待识别语义类别的点中最低点和最高点的高度信息;将所述多个体柱单元样本和对应的训练数据输入深度学习卷积神经网络进行训练;训练完成后的深度学习卷积神经网络用于进行所述语义分割;计算所述体柱单元样本的损失值;所述损失值用于调整深度学习卷积神经网络的权重。
可见,在本发明实施例中,在获取三维空间点云后,会将三维空间点云划分为至少一个单元,使用深度学习卷积神经网络预测任一单元在预设的语义类别中,所属的n个语义类别(目标语义类别)及各语义类别所对应的高度区间(目标高度区间)。再将该单元位于目标高度区间的所有点的语义类别预测为目标语义类别。上述预设的语义类别至少包括:地面、护栏、路沿。这样,可实现将三维空间点云中的点的语义类别预测为地面、护栏、路沿等,进而可实现从三维空间点云中分割出路沿、护栏等对应的点。
附图说明
图1为本发明实施例提供的激光点云语义分割装置的一种示例性结构;
图2为本发明实施例提供的语义分割方法的一种示例性流程;
图3为本发明实施例提供的三维空间点云划分方式的示例性流程;
图4a为本发明实施例提供的将投影划分为栅格的示意图;
图4b为本发明实施例提供的体柱单元示意图;
图4c为本发明实施例提供的提取特征向量示意图;
图4d为本发明实施例提供的路沿、车道地面、人行道或其他道路示意图;
图5为本发明实施例提供的激光点云语义分割装置另一示例性结构;
图6为本发明实施例提供的训练过程的示例性流程;
图7为本发明实施例提供的体柱单元样本示意图。
具体实施方式
本发明提供激光点云语义分割装置和方法,以实现对路沿、护栏等的语义分割。
激光点云语义分割装置可以硬件或软件的方式部署于激光雷达上,作为激光雷达的组成部分,也可作为独立于激光雷达的装置。
图1示出了激光点云语义分割装置的一种示例性结构,包括:
转换模块1、语义分割模块2和预测输出模块3。
图2示出了上述激光点云语义分割装置所执行的语义分割方法的一种示例性流程,包括:
S1:转换模块获取三维空间点云;
当一束激光照射到物体(障碍物)表面再反射回来后,所反射的激光会携带障碍物的方位、距离等信息。
激光雷达一般包括多个探测器,也即能发出多束激光。若将上述多个探测器按照某种轨迹进行扫描,便会边扫描边记录到反射的大量激光点,因而就可形成激光点云。
每个点信息包含在预设三维坐标系(一般是以激光雷达为原点建立的三维坐标系或车辆坐标系)下的位置信息(x y z)及反射强度信息i。
在一个示例中,可将激光雷达得到的激光点云作为后续要处理的三维空间点云。
在另一个示例中,由于本实施例目的在于对地面、路沿、护栏进行语义分割,而地面、路沿、护栏的高度是有一定高度范围限制的。因此,可对激光雷达得到的激光点云进行筛选。例如,可将位于预设三维空间内的所有点作为后续要处理的三维空间点云。
示例性的,在预设三维坐标系下,预设三维空间的x取值范围为[0,50m],y取值范围为[-25m,25m],z取值范围为[-1m,2.5m]。
S2:转换模块将三维空间点云划分为至少一个单元。
划分的方式有多种,例如利用俯视图的栅格化方式进行划分。具体的,请参见图3,可按照下述步骤划分:
S21:将三维空间点云在预设平面(例如水平面)上的投影划分为N个栅格。
其中,N为正整数。
假定某三维空间点云在水平面上的投影如图4a所示,可将其投影划分为多个栅格。
在一个示例中,N可为一个预设数值,例如等于32。
在另一个示例中,可规定一个栅格所占用的面积为n(或设定其边长),那么N则由投影的最小外接矩形的面积S和n决定,N=(S/n)-m,m为空白的栅格的数量。
仍以图4a为例,在图4a中,带阴影的栅格为空白栅格,在空白栅格中没有点云的投影。
在又一个示例中,可同时设定N的最小值Nmin和n的推荐取值,若(S/n)-m大于Nmin,就令N=(S/n)-m,若(S/n)-m小于Nmin,就令N=Nmin
此外,面积n也是可以有多种选择的,例如,可设计当S的大小位于区间1时,n为第一取值,当S的大小位于区间2时,n为第二取值,等等。
S22:按照上述N个栅格将三维空间点云分割为N个体柱单元。
请参见图4b,每一体柱单元的底面为一个栅格,各体柱单元均包括三维空间点云中的点,并且,不同体柱单元所包含的点不重叠。
S3:转换模块提取每一单元的特征向量。
以图4b所示体柱单元为例,请参见图4c,可将体柱单元按高度分为m层(也即m个通道),对每一层提取一个特征数据(特征值)。前述提及的特征向量包括m个特征数据。
m的取值可为大于3的任意一个数,例如16、32、64等,m是可变参数,在训练时,需要调节后确定。
在一个示例中,可由一个神经网络全连接层(感知层)提取体柱单元的特征向量,或者说,将该体柱单元编码成m长度的特征向量。具体的,可求取每个点相对于所属体柱单元左下角的相对位置坐标(xyz),将每个点的相对位置坐标值和反射强度信息送入神经网络全连接层,获得每个点表示的特征向量,然后对所有特征向量进行求和,得到一个向量表示,从而获得最终的特征向量。
此外,也可求每个立柱单元的反射强度的平均值,与每个点的相对位置坐标值一起输入神经网络全连接层,由其提取特征向量。
S4:语义分割模块以各单元的特征向量为输入,使用深度学习卷积神经网络进行语义分割,得到各单元的预测结果。
语义分割模块主要包括深度学习卷积神经网络。
可利用现有的UNet卷积神经网络模型结构作为主干,将转换模块的输出作为输入,经过逐层卷积编码:对每个体柱单元周边的信息进行特征提取,提取的特征用于预测每个体柱单元的预测结果。
具体的,预测结果包括:预测出的n个语义类别(可称为目标语义类别),以及,该n个语义类别中每一语义类别所对应的高度区间(可称为目标高度区间)。
其中,n不小于2,不大于M;M为预设的语义类别的总个数。
在一个示例中,预设的语义类别可包括:地面、护栏、路沿和其他地面。
需要说明的是,这里的地面,一般指车道地面,而其他地面,指高出车道地面的人行道或其他道路。请参见图4d,车道地面和高出车道地面的人行道或其他道路之间,存在路沿。
另外,可将语义类别为地面、护栏、路沿、其他地面之外的点的类别,统称为背景。
以M=5为例,深度学习卷积神经网络可针对5个预设的语义类别预测相应的概率,然后从中选出概率最大的n个语义类别作为预测结果之一。
以某体柱单元为例,假定体柱单元长宽高为:10cm*10cm*3m,该体柱单元针对5个语义类别的概率分别为:0.1,0.1,0.3,0.4,0.1,若n=2,则0.3和0.4最大,假定,0.3所对应的语义类别为地面,0.4所对应的语义类别为路沿,则目标语义类别分别为地面和路沿。
在一个示例中,可使用one-hot编码来表示预测出的目标语义类别。假定M=5,则10000表示第一类语义类别,01000表示第二类语义类别,00100表示第三类语义类别,以此类推。
沿用前例,0.3和0.4分别为第三类和第四类,则可输出00100和00010。
目标高度区间是使用最低高度zmin和最高高度zmax表示的。例如,地面所对应的高度区间为zmin=0m,zmax=0.05m,护栏类别的高度区间为zmin=0.8,zmax=2。因此,若n=2,则预测结果中包括两个目标语义类别对应的4个高度值。
由于预测了类别和高度区间这两种不同的信息,在一个示例中,深度学习卷积神经网络具体可包括第一分支和第二分支,其中,第一分支用于预测任一体柱单元针对各预设的语义类别的概率,并选择概率最大的n个语义类别作为预测出的n个语义类别。而第二分支用于预测上述n个语义类别中每一语义类别所对应的高度区间。
上述两分支的输入均相同,输出不同。
S5:预测输出模块在上述任一单元中,将位于目标高度区间的点的语义类别预测为目标语义类别。
沿用前例,假定对于体柱单元A,目标语义类别分别为地面和路沿,地面所对应的高度区间为zmin=0m,zmax=0.05m,路沿类别的高度区间为zmin=0.8,zmax=2,则根据体柱单元A中各点的高度信息,将高度位于0m至0.05m的点的语义类别预测为地面,将高度位于0.8m至2m的点的语义类别预测为路沿。
对于体柱单元A内的其他点,可预测为背景。
依次对所有体柱单元进行同样的操作。
可见,在本发明实施例中,在获取三维空间点云后,会将三维空间点云划分为至少一个单元,使用深度学习卷积神经网络预测任一单元在预设的语义类别中,所属的n个语义类别(目标语义类别)及各语义类别所对应的高度区间(目标高度区间)。再对该单元位于目标高度区间的所有点的语义类别标注为目标语义类别。上述预设的语义类别包括:地面、护栏、路沿。这样,可实现将三维空间点云中的点的语义类别预测为地面、护栏、路沿等,进而可实现从三维空间点云中分割出路沿、护栏等对应的点。
分割出的点云,经过一些后处理方法,可以应用于驾驶员可行驶区域的检测,地图定位以及车辆水平定位等场景。
例如,在执行完步骤S5后,可使用含语义标注的激光雷达点云进行实时点云地图的构建,获得点云语义地图。
此外,也可将属于同一预设的语义类别的点进行分割聚类处理,得到聚类结果;每一聚类结果对应一个障碍物。
上述深度学习卷积神经网络需要预先经过训练,这样在预测阶段才可得到较为准确的预测结果。
下面介绍如何对深度学习卷积神经网络进行训练。为进行训练,请参见图5,前述的激光点云语义分割装置还包括:目标编码模块4和损失计算模块5。
请参见图6,训练过程示例性的包括:
S61:目标编码模块获取多个体柱单元样本。
每一体柱单元样本中的每一点均标注有语义类别。
其中,体柱单元样本与前述的体柱单元相类似,不同的是,体柱单元样本中的点是预先标注了语义类别的。
体柱单元样本可由转换模块基于三维空间点云样本生成,人工标注每一点的语义类别。
S62:目标编码模块生成(获取)体柱单元样本对应的训练目标。
训练目标可包括:目标待识别语义类别,以及,每种目标待识别语义类别所对应的高度区间边界。
其中,目标待识别语义类别可包括:体柱单元样本中点数占比最大的n个语义类别。
高度区间边界包括:属于目标待识别语义类别的点中最低点和最高点的高度信息。
举例来讲,n=2,若某体柱单元包含10个点,其中5个点标注为地面,3个点标注为路沿,地面和路沿这两种类别的点占该体柱单元内总点云点的比例最多,则这两类别将作为该体柱单元的目标待识别语义类别。
将每一目标待识别语义类别中最低点和最高点的高度信息作为该栅格中属于该两种类别点所在的高度区间边界[zmin,zmax]。
如图7所示,两种类别的高度信息分别用[zmin1,zmax1,zmin2,zmax2]表示,类别信息分别用c1和c2表示,可使用One-hot对类别进行编码。
需要说明的是,目标编码模块不是预测了体柱单元所对应的类别,而是经过代码统计的方式将人工标注的数据,转化为训练目标。
S63:目标编码模块将多个体柱单元样本和对应的训练目标输入(语义分割模块的)深度学习卷积神经网络进行训练,输出目标值。
深度学习卷积神经网络会使用体柱单元样本进行训练,输出目标值。目标值包括:语义类别信息和高度信息,其中,语义类别信息包括针对每一预设的语义类别的概率(可称为预测数据),高度信息包括:概率最大的n个语义类别中的每一语义类别所对应的高度区间。每一高度区间用两个高度值表示,分别是最低高度和最高高度。
训练完成后的深度学习卷积神经网络可用于在预测阶段进行语义分割。
S64:损失计算模块使用目标值和训练目标计算体柱单元样本的损失值。
计算出的损失值用于调整深度学习卷积神经网络的权重。
由于目标值包括语义类别信息和高度信息两大类,可分别计算语义类别的交叉熵损失和计算高度区间的最小平方损失,然后将交叉熵损失和最小平方损失求和得到损失值。
在一个示例中,交叉熵损失可使用交叉熵损失函数,交叉熵损失函数公式如下表示:
Figure BDA0002384281570000101
其中,x表示要识别的数据,也就是点云数据;整个点云数据与整个深度学习卷积神经网络之间的关系是一种函数映射,用q表示。
p(x)表示训练目标中的类别信息,即目标编码模块对每个体柱单元编码的类别信息(c1,c2)。
q(x)表示深度学习卷积神经网络输出每个体柱单元的10个预测数值,前五个数值与c1作损失,后五个与c2作损失。
举例来讲,c1=00100,c2=00010,q(x)=0.1,0.1,0.3,0.3,0.2,0.1,0.4,0.3,0.1,0.1,将前五个数值与c1作损失,则得到-log0.3,将后五个与c2作损失,得到-log0.1,二者相加,得到-log0.3-log0.1。
在另一个示例中,因为高度信息的值是连续值,所以采用最小平方损失方法进行回归损失的计算,公式如下:
Figure BDA0002384281570000111
其中:i至n表示所有包含高度信息的体柱单元,在预测高度信息时,需要进行损失累加计算。所以i=0,n表示总个数。
yi表示训练目标中的高度区间边界,即目标编码模块对每个体柱单元编码的高度信息,以n=2为例,高度信息包括4个高度值:[zmin1,zmax1,zmin2,zmax2]。
yie表示深度学习卷积神经网络输出的高度信息,也包含4个预测的高度值。
损失值Loss=H+Q。
S65:深度学习卷积神经网络根据至少一个体柱单元样本的损失值调整权重。
可利用神经网络固有的梯度反向传播机制,将损失经过链式法则传播到卷积神经网络中的每个参数上,然后使用更新后参数再次训练,从而实现卷积神经网络中权重的学习。
在实际上,为节约时间提高效率,一般是训练多个体柱单元样本(例如64个)后,统一调整一次权重。则可分别计算各样本的损失值后,根据各损失值调整权重。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及模型步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或模型的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、WD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种激光点云语义分割装置,其特征在于,包括:
转换模块,用于:
获取三维空间点云;其中,所述三维空间点云包括多个点,每一点的信息包括在预设三维坐标系下的位置信息和反射强度信息,所述空间位置信息包括高度信息;
将所述三维空间点云划分为至少一个单元;
提取每一单元的特征向量;
语义分割模块,用于:
以各单元的特征向量为输入,使用深度学习卷积神经网络进行语义分割,得到各单元的预测结果;所述预测结果包括:预测出的n个语义类别,以及,所述n个语义类别中每一语义类别所对应的高度区间;任一单元所对应的n个语义类别中的任意一个为目标语义类别,所述目标语义类别对应的高度区间为目标高度区间;其中,所述n个语义类别包括:在由所述深度学习卷积神经网络预测出针对各预设的语义类别的概率后,概率最大的n个语义类别;预设的语义类别至少包括:地面、护栏和路沿;n不小于2,不大于M;M为预设的语义类别的总个数;
预测输出模块,用于:
在所述任一单元中,将位于所述目标高度区间的点的语义类别预测为所述目标语义类别;
其中,所述n个语义类别包括:在由所述深度学习卷积神经网络预测出针对各预设的语义类别的概率后,概率最大的n个语义类别;预设的语义类别至少包括:地面、护栏和路沿;n不小于2,不大于M;M为预设的语义类别的总个数。
2.如权利要求1所述的装置,其特征在于,在所述将所述三维空间点云划分为至少一个单元的方面,所述转换模块具体用于:
将所述三维空间点云在预设平面上的投影划分为N个栅格;N为正整数;
按照所述N个栅格将所述三维空间点云分割为N个体柱单元;其中,每一体柱单元均包括所述三维空间点云中的点,并且,不同体柱单元所包含的点不重叠;一体柱单元的底面为一个栅格;
所述单元具体为体柱单元。
3.如权利要求2所述的装置,其特征在于,在所述提取每一单元的特征向量的方面,所述转换模块具体用于:
将所述体柱单元按高度分为m层;
对每一层提取一个特征数据;所述特征向量包括m个特征数据。
4.如权利要求2所述的装置,其特征在于,
所述深度学习卷积神经网络包括第一分支和第二分支;
所述第一分支用于:
预测任一体柱单元针对各预设的语义类别的概率;
选择概率最大的n个语义类别作为所述预测出的n个语义类别;
所述第二分支用于:预测所述n个语义类别中每一语义类别所对应的高度区间。
5.权利要求2所述的装置,其特征在于,还包括目标编码单元和损失计算单元;其中:
所述目标编码模块用于:
在训练过程中,获取多个体柱单元样本;所述体柱单元样本中的每一点均标注有语义类别;
获取所述体柱单元样本对应的训练目标;所述训练目标包括:目标待识别语义类别,以及,每种目标待识别语义类别所对应的高度区间边界;所述目标待识别语义类别包括:所述体柱单元样本中点数占比最大的n个语义类别;所述高度区间边界包括:属于所述目标待识别语义类别的点中最低点和最高点的高度信息;
将所述多个体柱单元样本和对应的训练目标输入深度学习卷积神经网络进行训练;训练完成后的深度学习卷积神经网络用于在预测阶段进行所述语义分割;
所述损失计算模块用于:
在训练过程中计算所述体柱单元样本的损失值;所述损失值用于调整深度学习卷积神经网络的权重。
6.一种激光点云语义分割方法,其特征在于,包括:
获取三维空间点云;其中,所述三维空间点云包括多个点,每一点的信息包括在预设三维坐标系下的位置信息,所述空间位置信息包括高度信息;
将所述三维空间点云划分为至少一个单元;
提取每一单元的特征向量;
以各单元的特征向量为输入,使用深度学习卷积神经网络进行语义分割,得到各单元的预测结果;所述预测结果包括:预测出的n个语义类别,以及,所述n个语义类别中每一语义类别所对应的高度区间;任一单元所对应的n个语义类别中的任意一个为目标语义类别,所述目标语义类别对应的高度区间为目标高度区间;其中,所述n个语义类别包括:在由所述深度学习卷积神经网络预测出针对各预设的语义类别的概率后,概率最大的n个语义类别;预设的语义类别至少包括:地面、护栏和路沿;n不小于2,不大于M;M为预设的语义类别的总个数;
在所述任一单元中,将位于所述目标高度区间的点的语义类别预测为所述目标语义类别;
其中,所述n个语义类别包括:在由所述深度学习卷积神经网络预测出针对各预设的语义类别的概率后,概率最大的n个语义类别;预设的语义类别至少包括:地面、护栏和路沿;n不小于2,不大于M;M为预设的语义类别的总个数。
7.如权利要求6所述的方法,其特征在于,所述将所述三维空间点云划分为至少一个单元包括:
将所述三维空间点云在预设平面上的投影划分为N个栅格;N为正整数;
按照所述N个栅格将所述三维空间点云分割为N个体柱单元;其中,每一体柱单元均包括所述三维空间点云中的点,并且,不同体柱单元所包含的点不重叠;一体柱单元的底面为一个栅格;
所述单元具体为体柱单元。
8.如权利要求7所述的方法,其特征在于,所述提取每一单元的特征向量包括:
将所述体柱单元按高度分为m层;
对每一层提取一个特征数据;所述特征向量包括m个特征数据。
9.如权利要求7所述的方法,其特征在于,所述深度学习卷积神经网络包括第一分支和第二分支;
所述第一分支用于:预测任一体柱单元针对各预设的语义类别的概率;
选择概率最大的n个语义类别作为所述预测出的n个语义类别;
所述第二分支用于:预测所述n个语义类别中每一语义类别所对应的高度区间。
10.如权利要求8所述的方法,其特征在于,还包括:
在训练过程中,获取多个体柱单元样本;所述体柱单元样本中的每一点均标注有语义类别;
获取所述体柱单元样本对应的训练目标;所述训练目标包括:目标待识别语义类别,以及,每种目标待识别语义类别所对应的高度区间边界;所述目标待识别语义类别包括:所述体柱单元样本中点数占比最大的n个语义类别;所述高度区间边界包括:属于所述目标待识别语义类别的点中最低点和最高点的高度信息;
将所述多个体柱单元样本和对应的训练数据输入深度学习卷积神经网络进行训练;训练完成后的深度学习卷积神经网络用于进行所述语义分割;
计算所述体柱单元样本的损失值;所述损失值用于调整深度学习卷积神经网络的权重。
CN202010092826.0A 2020-02-14 2020-02-14 激光点云语义分割方法和装置 Pending CN111310765A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010092826.0A CN111310765A (zh) 2020-02-14 2020-02-14 激光点云语义分割方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010092826.0A CN111310765A (zh) 2020-02-14 2020-02-14 激光点云语义分割方法和装置

Publications (1)

Publication Number Publication Date
CN111310765A true CN111310765A (zh) 2020-06-19

Family

ID=71161776

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010092826.0A Pending CN111310765A (zh) 2020-02-14 2020-02-14 激光点云语义分割方法和装置

Country Status (1)

Country Link
CN (1) CN111310765A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112214019A (zh) * 2020-09-21 2021-01-12 国网浙江省电力有限公司 一种无人巡检设备无盲区智能反馈控制***、方法、终端
CN112287939A (zh) * 2020-10-29 2021-01-29 平安科技(深圳)有限公司 三维点云语义分割方法、装置、设备及介质
CN112381948A (zh) * 2020-11-03 2021-02-19 上海交通大学烟台信息技术研究院 一种基于语义的激光条纹中心线提取及拟合方法
CN113252053A (zh) * 2021-06-16 2021-08-13 中智行科技有限公司 高精度地图生成方法、装置和电子设备
WO2022078197A1 (zh) * 2020-10-16 2022-04-21 北京字节跳动网络技术有限公司 点云分割方法、装置、设备和存储介质
CN115147798A (zh) * 2022-07-18 2022-10-04 重庆长安汽车股份有限公司 可行驶区域预测方法、模型、装置及车辆
US11703457B2 (en) 2020-12-29 2023-07-18 Industrial Technology Research Institute Structure diagnosis system and structure diagnosis method
CN116863432A (zh) * 2023-09-04 2023-10-10 之江实验室 基于深度学习的弱监督激光可行驶区域预测方法和***

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109558838A (zh) * 2018-11-29 2019-04-02 北京经纬恒润科技有限公司 一种物体识别方法及***
US20190147250A1 (en) * 2017-11-15 2019-05-16 Uber Technologies, Inc. Semantic Segmentation of Three-Dimensional Data
CN109902702A (zh) * 2018-07-26 2019-06-18 华为技术有限公司 目标检测的方法和装置
CN109932730A (zh) * 2019-02-22 2019-06-25 东华大学 基于多尺度单极三维检测网络的激光雷达目标检测方法
CN110175576A (zh) * 2019-05-29 2019-08-27 电子科技大学 一种结合激光点云数据的行驶车辆视觉检测方法
CN110210398A (zh) * 2019-06-03 2019-09-06 宁波智能装备研究院有限公司 一种三维点云语义分割标注方法
CN110414577A (zh) * 2019-07-16 2019-11-05 电子科技大学 一种基于深度学习的激光雷达点云多目标地物识别方法
WO2019237646A1 (zh) * 2018-06-14 2019-12-19 清华大学深圳研究生院 一种基于深度学习和语义分割的图像检索方法
CN110770791A (zh) * 2018-11-22 2020-02-07 深圳市大疆创新科技有限公司 一种基于点云地图的图像边界获取方法、设备及飞行器

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190147250A1 (en) * 2017-11-15 2019-05-16 Uber Technologies, Inc. Semantic Segmentation of Three-Dimensional Data
WO2019237646A1 (zh) * 2018-06-14 2019-12-19 清华大学深圳研究生院 一种基于深度学习和语义分割的图像检索方法
CN109902702A (zh) * 2018-07-26 2019-06-18 华为技术有限公司 目标检测的方法和装置
CN110770791A (zh) * 2018-11-22 2020-02-07 深圳市大疆创新科技有限公司 一种基于点云地图的图像边界获取方法、设备及飞行器
CN109558838A (zh) * 2018-11-29 2019-04-02 北京经纬恒润科技有限公司 一种物体识别方法及***
CN109932730A (zh) * 2019-02-22 2019-06-25 东华大学 基于多尺度单极三维检测网络的激光雷达目标检测方法
CN110175576A (zh) * 2019-05-29 2019-08-27 电子科技大学 一种结合激光点云数据的行驶车辆视觉检测方法
CN110210398A (zh) * 2019-06-03 2019-09-06 宁波智能装备研究院有限公司 一种三维点云语义分割标注方法
CN110414577A (zh) * 2019-07-16 2019-11-05 电子科技大学 一种基于深度学习的激光雷达点云多目标地物识别方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112214019A (zh) * 2020-09-21 2021-01-12 国网浙江省电力有限公司 一种无人巡检设备无盲区智能反馈控制***、方法、终端
WO2022078197A1 (zh) * 2020-10-16 2022-04-21 北京字节跳动网络技术有限公司 点云分割方法、装置、设备和存储介质
CN112287939A (zh) * 2020-10-29 2021-01-29 平安科技(深圳)有限公司 三维点云语义分割方法、装置、设备及介质
CN112287939B (zh) * 2020-10-29 2024-05-31 平安科技(深圳)有限公司 三维点云语义分割方法、装置、设备及介质
CN112381948A (zh) * 2020-11-03 2021-02-19 上海交通大学烟台信息技术研究院 一种基于语义的激光条纹中心线提取及拟合方法
CN112381948B (zh) * 2020-11-03 2022-11-29 上海交通大学烟台信息技术研究院 一种基于语义的激光条纹中心线提取及拟合方法
US11703457B2 (en) 2020-12-29 2023-07-18 Industrial Technology Research Institute Structure diagnosis system and structure diagnosis method
CN113252053A (zh) * 2021-06-16 2021-08-13 中智行科技有限公司 高精度地图生成方法、装置和电子设备
CN113252053B (zh) * 2021-06-16 2021-09-28 中智行科技有限公司 高精度地图生成方法、装置和电子设备
CN115147798A (zh) * 2022-07-18 2022-10-04 重庆长安汽车股份有限公司 可行驶区域预测方法、模型、装置及车辆
CN116863432A (zh) * 2023-09-04 2023-10-10 之江实验室 基于深度学习的弱监督激光可行驶区域预测方法和***
CN116863432B (zh) * 2023-09-04 2023-12-22 之江实验室 基于深度学习的弱监督激光可行驶区域预测方法和***

Similar Documents

Publication Publication Date Title
CN111310765A (zh) 激光点云语义分割方法和装置
US11860629B2 (en) Sparse convolutional neural networks
CN109919072B (zh) 基于深度学习和轨迹跟踪的精细车型识别与流量统计方法
US10846874B2 (en) Method and apparatus for processing point cloud data and storage medium
Chen et al. Gaussian-process-based real-time ground segmentation for autonomous land vehicles
CN108583578B (zh) 用于自动驾驶车辆的基于多目标决策矩阵的车道决策方法
CN109932730B (zh) 基于多尺度单极三维检测网络的激光雷达目标检测方法
Ma et al. Simultaneous detection of lane and pavement boundaries using model-based multisensor fusion
US20190138024A1 (en) Map Automation - Lane Classification
Collado et al. Model based vehicle detection for intelligent vehicles
DE102019125303A1 (de) Reinigung des fahrzeugsensors
US20080166024A1 (en) Image processing apparatus, method and program thereof
Kanagaraj et al. Deep learning using computer vision in self driving cars for lane and traffic sign detection
JP2016115334A (ja) 意味付け交通空間についての適合型射線ベースのシーン分析を行うための方法及びシステム、並びにそのようなシステムを備える車両
Prophet et al. Semantic segmentation on automotive radar maps
KR20220134754A (ko) 이미징 시스템들을 위한 차선 검출 및 추적 기법들
CN115605777A (zh) 一种基于路侧感知单元的动态目标点云快速识别及点云分割方法
EP4105606A1 (en) Autonomous path generation with path optimization
EP4174792A1 (en) Method for scene understanding and semantic analysis of objects
CN113671522A (zh) 基于语义约束的动态环境激光slam方法
CN116977970A (zh) 一种基于激光雷达与毫米波雷达融合的道路可行驶区域检测方法
WO2023155903A1 (en) Systems and methods for generating road surface semantic segmentation map from sequence of point clouds
US11555928B2 (en) Three-dimensional object detection with ground removal intelligence
Steinke et al. Groundgrid: Lidar point cloud ground segmentation and terrain estimation
EP4137845A1 (en) Methods and systems for predicting properties of a plurality of objects in a vicinity of a vehicle

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 4 / F, building 1, No.14 Jiuxianqiao Road, Chaoyang District, Beijing 100020

Applicant after: Beijing Jingwei Hirain Technologies Co.,Inc.

Address before: 8 / F, block B, No. 11, Anxiang Beili, Chaoyang District, Beijing 100101

Applicant before: Beijing Jingwei HiRain Technologies Co.,Ltd.