CN112633350B - 一种基于图卷积的多尺度点云分类实现方法 - Google Patents

一种基于图卷积的多尺度点云分类实现方法 Download PDF

Info

Publication number
CN112633350B
CN112633350B CN202011503553.0A CN202011503553A CN112633350B CN 112633350 B CN112633350 B CN 112633350B CN 202011503553 A CN202011503553 A CN 202011503553A CN 112633350 B CN112633350 B CN 112633350B
Authority
CN
China
Prior art keywords
point cloud
points
edge
convolution
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011503553.0A
Other languages
English (en)
Other versions
CN112633350A (zh
Inventor
张正文
胡永东
巩朋成
张林让
李婕
潘懋舜
柯凡
余梦婕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hubei University of Technology
Original Assignee
Hubei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hubei University of Technology filed Critical Hubei University of Technology
Priority to CN202011503553.0A priority Critical patent/CN112633350B/zh
Publication of CN112633350A publication Critical patent/CN112633350A/zh
Application granted granted Critical
Publication of CN112633350B publication Critical patent/CN112633350B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于三维点云分类技术领域,公开了一种基于图卷积的多尺度三维点云分类实现方法。其目的是通过提取点云集合不同尺度的边缘特征,获取更加丰富的邻域信息,以此提高点云分类的准确率。具体步骤如下:步骤1,通过改进的KNN邻近算法,获取不同尺度范围内的等间隔采样的k个点,从而构建点云集合不同尺度的M‑KNN图;步骤2,使用M‑KNN图搭建EdgeConv(边缘卷积层)模块,实现点云边缘特征的提取。步骤3,利用边缘卷积层构建多尺度点云分类网络模型,使用ModelNet40数据集对网络进行训练,获取最终的点云分类网络。

Description

一种基于图卷积的多尺度点云分类实现方法
技术领域
本发明属于三维点云分类技术领域,具体涉及到一种基于图卷积的多尺度三维点云分类实现方法。
背景技术
三维点云分类是指从具有三维空间坐标等信息的复杂无序点云中提取人工或自然地理要素的过程。近些年,随着三维激光扫描技术的发展,三维点云数据的采取也变得快速且廉价。在无人驾驶、机器人、室内场景检测和识别等领域都有非常广泛的应用,三维点云分类在计算机视觉领域已然成为研究热点。
传统的点云分类方法是通过人工设计一系列的特征,然后使用合适的分类器对三维点云直接进行分类。这种分类方法在很多特定的场景中获得了不错的分类结果,但是在新的数据集中表现并不是很理想。近些年,深度学习在计算机视觉领域快速发展,并且在二维图像的识别、分类上取得了显著的成就。同时,三维点云分类的研究受此影响也越来越多的开始使用深度学习的方法。
由于点云数据自身的无序性、稀疏性导致它不能像图像这些有序的数据直接应用于卷积神经网络。因此,在2015年Maturana和Scherer提出了VoxNet点云网络模型,对三维点云进行体素化,将二维图像深度学习的方法迁移到三维点云领域中。但是使用该方法需要非常大的计算量和内存占用,因此只适合一些低分辨率的点云场景中。在2017年,斯坦福大学的科研工作者们提出了一种直接适用于点云分类的深度学习模型PointNet,它利用最大池化函数作为对称函数,使得点云中点的顺序不影响它在空间中对整体形状的表示,该模型取得了不错的分类效果。但PointNet并不能捕获点云的局部特征。因此,该团队在后续的工作中又提出了PointNet++模型,它是基于PointNet的思想,加入了抽象层,从而获取到点云的局部特征,分类效果得到进一步的优化。在2018年,Wang等人提出了一种动态图卷积神经网络(Dynamic Graph CNN),通过引入边缘卷积(EdgeConv)模块来获取到点云数据的局部特征,得到不错的分类效果。然而,该方法只能捕捉到有限邻域内的边缘特征,缺少多尺度特征。因此,要进一步提高三维点云分类性能仍然具有一定的挑战性。
发明内容
本发明的目的在于针对上述已有方法的缺陷,提出一种基于图卷积的多尺度点云分类实现方法,既能捕获点云数据的全局以及局部特征,又能获取到点云数据的多尺度特征,以此进一步提高点云分类的性能。
实现本发明的技术思想是:通过改进KNN邻近算法,将原本获取的每个点的最近邻k个点替换为按照不同尺度范围内的等间隔采样的k个点。然后,借鉴DGCNN网络模型思想,将改进后的算法应用到其中的EdgeConv模块中,利用该模块设计多尺度的三维点云分类网络模型。最后,通过对数据集的训练获取优化后的网络模型。
为了实现上述技术目的,本发明采用如下技术步骤予以实现。
一种基于图卷积的多尺度点云分类实现方法,其特征在于:基于以下定义:
点云集合中点的数目为n,一个具有n个点的D维点云,表示为:
Figure BDA0002844322630000021
其中X表示一个点云集合,xi表示每一个点,n表示点云集合中点的数目,D表示点云数据的维度;
使用点云的位置信息,即D=3;因此,每个点都只包含其三维坐标,即:
Xi=(xi,yi,zi) (2)
点云的局部结构用一个有向图表示:
G=(V,E) (5)
其中,V={1,...,n}表示图结构的顶点,
Figure BDA0002844322630000022
表示图结构的边;
包括如下骤:
步骤1,使用ModelNet40数据集作为用于分类的点云数据,该数据中共有12311个CAD模型,对每个模型均匀采样1024个点并将其标准化到单位球体中,然后将采样点的坐标作为输入数据;然后使用基于改进的KNN邻近算法,获取不同尺度范围内的等间隔采样的k个点,从而获得点云集合不同尺度的M-KNN图:
步骤2,使用M-KNN图搭建EdgeConv(边缘卷积层)模块,实现点云边缘特征的提取,具体包括:
步骤2.1、通过M-KNN图构建点云的图结构G;对于点Xi,找到其k个邻近点(用
Figure BDA0002844322630000023
表示),其中Xi与邻近点之间的定向边为(i,ji1),...,(i,jik);定义有向图的边缘特征为:
eij=hθ(xi,xj)=hθ(xi,xj-xi) (6)
其中,eij表示Xi与Xj之间的边缘特征,xj-xi代表邻近点构成的局部块信息;hθ是由可学习参数θ构成的非线性激活函数,这里使用多层感知器(MLP)对中心点Xi的M-KNN图进行特征提取和学习;
步骤2.2、再用一个最大池化层Maxpool来聚合每个M-KNN图的局域信息,用来完成RD×RD→RD',即输入具有n个点的D维点云,通过图卷积后输出具有D'维点云特征的n个点;EdgeConv的数学表达式如下:
xi'=Maxpoolj:(i,j)∈Ehθ(xi,xj-xi) (7)
其中,xi′表示经过最大池化操作后获取到的该点的高维特征;Maxpool表示最大池化操作,E表示图结构的边,hθ是由可学习参数θ构成的非线性激活函数;步骤3,利用步骤2.2中的边缘卷积层构建多尺度点云分类网络模型,使用ModelNet40数据集对网络进行训练,获取最终的点云分类网络。
在上述的基于图卷积的多尺度点云分类实现方法,改进KNN邻近算法具体包括:
步骤1、对于点Xi=(xi,yi,zi),与其相邻的点xj=(xj,yj,zj)之间的欧式距离为:
Figure BDA0002844322630000031
计算每个点到点Xi的距离,再根据距离值对每个点进行排序;
步骤2、在距离点Xi最近的前n/m个点中进行等间隔采样,获取到k个邻近点,k个邻近点用
Figure BDA0002844322630000032
表示,其中:
1≤m≤n/k,m∈R (4)
m值的大小表示对点云集合不同程度的划分,越小的m值对应获取到的k个邻近点所表征的邻域范围越大,以此来得到不同尺度的邻域信息;
步骤3、对每个点重复步骤2的操作即可获取到点云集合的不同尺度的M-KNN图。
在上述的基于图卷积的多尺度点云分类实现方法,步骤3中搭建的多尺度图卷积点云分类网络模型为提取三种不同尺度边缘特征的网络结构,具体为:
网络的输入格式为三维向量数据:(B×n×3),其中,B表示批处理的大小(Batchsize),n表示每个点云数据中点的数量(Number Point),3表示坐标信息(x,y,z);
获取最终的点云分类网络的具体步骤包括:
步骤3.1、读取到点云数据后,提取第一尺度边缘特征,此时设置:m=n/k,k=20,其中m表示为对点云集合划分的程度,n表示点云集合中点的数量,k表示对邻近点采样的个数;相当于将距离点Xi最近的k个点作为邻近点,边缘卷积内核参数设置为(1×1),使用4个边缘卷积层(EdgeConv)模块提取边缘特征,卷积通道数分别为:(64,64,64,128);每次卷积后得到的结果分别命名为:(net1_1,net1_2,net1_3,net1_4);最终获取到第一尺度边缘特征net1_4的数据格式为:(B×n×128);
步骤3.2、基于第一尺度获取到的边缘特征,利用获得的net1_2的结果,提取第二尺度特征,此时设置:m=16,k=20;即在距离Xi最近的前n/16个点中等间隔采样到k个点,扩大了采样的邻域范围;边缘卷积内核参数设置为(1×1),使用2个边缘卷积层(EdgeConv)模块提取边缘特征,卷积通道数分别为:(64,128);每次卷积后得到的结果分别命名为:(net2_1,net2_2);最终获取到第二尺度边缘特征net2_2的数据格式为:(B×n×128);
步骤3.3、基于第二尺度获取到的边缘特征,利用获得的net2_1的结果,提取第三尺度特征,此时设置:m=8,k=20;进一步扩大了邻域范围;边缘卷积内核参数设置为(1×1),使用1个边缘卷积(EdgeConv)模块提取边缘特征,卷积通道数为128,卷积后的得到的结果命名为net3_1,获取到第三尺度边缘特征net3_1的数据格式为:(B×n×128);
步骤3.4、得到net1_4、net2_2、net3_1之后,使用concat操作将(net1_4,net2_2,net3_1)多个尺度的特征融合,然后再添加一个卷积层,卷积内核仍为(1×1),卷积通道数增加到1024;
步骤3.5、使用MaxPooling获取到点云集合中最大的1024维特征值;之后再引入三层全连接层,通道数分别为:(512,256,c),其中c表示数据集的类别数,即网络的最终输出为c个类别的语义标签。
在上述的基于图卷积的多尺度点云分类实现方法,所述步骤3中,为了防止网络过拟合,在每两个全连接层中加入dropout层,阈值设置为0.5;网络中所有卷积层的padding方式统一设置为VALID,并且使用了批量标准化(Batch Normalization)来加快网络训练的速度;
网络中所有卷积层以及全连接层都使用Relu函数作为激活函数,表示为:
Figure BDA0002844322630000051
其中,x表示通过加权求和后得到的特征值;
使用交叉熵损失函数,表示为:
Figure BDA0002844322630000052
其中:M表示类别的数量;yic表示指示变量(0或1),如果该类别和样本i的类别相同就是1,否则是0;pic表示对于观测样本i属于类别c的预测概率。
在上述的基于图卷积的多尺度点云分类实现方法,步骤3中训练网络模型的数据集和训练参数如下:
网络使用了包含40个人造物体类别的ModelNet40数据集进行训练、测试;使用Python2.7,Tensorflow-GPU==1.15搭建网络模型;初始学习率(learning_rate)设置为0.001,动量(momentum)为0.9,批处理大小(batch_size)为32,延迟步长(decay_step)为200000,最大迭代次数(max_epoch)为200。
与现有技术相比,本发明所设计的三维点云分类网络模型,围绕图卷积网络的思想,通过改进的KNN邻近算法,设置了多个可以提取不同尺度邻域特征的边缘卷积层,丰富了点云分类的参考特征,可以进一步提高点云分类的准确率。
附图说明
下面结合附图说明和具体实施方式对发明做进一步说明。
图1是本发明基于改进KNN邻近算法获取到的不同尺度邻近点分布图;
图2是本发明基于M-KNN图构建的EdgeConv(边缘卷积层)模块结构图;
图3是本发明的基于图卷积的多尺度用于点云分类的深度学习网络模型。
具体实施方式
参照图1、图2和图3,说明本发明的基于图卷积的多尺度点云分类实现方法具体实现步骤包括:
步骤1,改进KNN邻近算法,获取不同尺度范围内的等间隔采样的k个点,从而构建点云集合不同尺度的M-KNN图:
一个具有n个点的D维点云,表示为:
Figure BDA0002844322630000061
其中X表示一个点云集合,xi表示每一个点,n表示点云集合中点的数目,D表示点云数据的维度。
由于,在本发明中只使用点云的位置信息,即D=3。因此,每个点都只包含其三维坐标,即:
Xi=(xi,yi,zi) (2)
根据坐标计算点云集合中点与点之间的欧式距离为:
Figure BDA0002844322630000062
计算点Xi到每个点的距离,再根据距离值对每个点进行排序。KNN邻近算法是将距离Xi最近的k个点提取出来作为其邻近点。而在本发明中为了获取到点云的多尺度邻域特征,在对k个点的选取上进行了改变。
具体来说是:使用ModelNet40数据集作为用于分类的点云数据,该数据中共有12311个CAD模型,对每个模型均匀采样1024个点并将其标准化到单位球体中,然后将采样点的坐标作为输入数据。已知点云集合中点的数目为n,对于点Xi,通过以上的计算已得知它与每个点的距离并进行了排序,在距离点Xi最近的前n/m个点中进行等间隔采样,获取到k个邻近点。其中:
1≤m≤n/k,m∈R (4)
m值的大小表示对点云集合不同程度的划分,越小的m值对应获取到的k个邻近点所表征的邻域范围越大,以此来得到不同尺度的邻域信息,如图1所示。
对每个点进行以上操作即可获取到点云集合的不同尺度的M-KNN图。
步骤2,使用M-KNN图搭建EdgeConv(边缘卷积层)模块,实现点云边缘特征的提取:
点云的局部结构可以用一个有向图表示:
G=(V,E) (5)
其中,V={1,...,n}表示图结构的顶点,
Figure BDA0002844322630000063
表示图结构的边。
首先,通过M-KNN图构建点云的图结构G。对于点Xi,找到其k个邻近点(用
Figure BDA0002844322630000064
表示),其中Xi与邻近点之间的定向边为(i,ji1),...,(i,jik)。定义有向图的边缘特征为:
eij=hθ(xi,xj)=hθ(xi,xj-xi) (6)
其中,eij表示Xi与Xj之间的边缘特征,xj-xi代表邻近点构成的局部块信息。hθ是由可学习参数θ构成的非线性激活函数,这里使用多层感知器(MLP)对中心点Xi的M-KNN图进行特征提取和学习。然后再用一个最大池化层Maxpool来聚合每个M-KNN图的局域信息,用来完成RD×RD→RD',即输入具有n个点的D维点云,通过图卷积后输出具有D'维点云特征的n个点。EdgeConv的数学表达式如下:
xi'=Maxpoolj:(i,j)∈Ehθ(xi,xj-xi) (7)
其中,xi′表示经过最大池化操作后获取到的该点的高维特征。Maxpool表示最大池化操作,E表示图结构的边,hθ是由可学习参数θ构成的非线性激活函数。
具体结构如图2所示。
步骤3,利用上述边缘卷积层构建多尺度点云分类网络模型,使用ModelNet40数据集对网络进行训练,获取最终的点云分类网络。
本发明中设计的点云分类网络为可提取三种不同尺度边缘特征的网络结构,具体网络结构如图3所示。网络的输入格式为三维向量数据:(B×n×3),其中,B表示批处理的大小(Batch size),n表示每个点云数据中点的数量(NumberPoint),3表示坐标信息(x,y,z)。
读取到点云数据后,首先提取第一尺度边缘特征,此时设置:m=n/k,k=20,其中m表示为对点云集合划分的程度,n表示点云集合中点的数量,k表示对邻近点采样的个数。相当于将距离点Xi最近的k个点作为邻近点,边缘卷积内核参数设置为(1×1),使用4个边缘卷积层(EdgeConv)模块提取边缘特征,卷积通道数分别为:(64,64,64,128)。每次卷积后的得到的结果分别命名为:(net1_1,net1_2,net1_3,net1_4)。最终获取到第一尺度边缘特征net1_4的数据格式为:(B×n×128)。
基于第一尺度获取到的边缘特征,利用获得的net1_2的结果,提取第二尺度特征,此时设置:m=16,k=20。即在距离Xi最近的前n/16个点中等间隔采样到k个点,扩大了采样的邻域范围。边缘卷积内核参数设置为(1×1),使用2个边缘卷积层(EdgeConv)模块提取边缘特征,卷积通道数分别为:(64,128)。每次卷积后得到的结果分别命名为:(net2_1,net2_2)。最终获取到第二尺度边缘特征net2_2的数据格式为:(B×n×128)。
基于第二尺度获取到的边缘特征,利用获得的net2_1的结果,提取第三尺度特征,此时设置:m=8,k=20。进一步扩大了邻域范围。边缘卷积内核参数设置为(1×1),使用1个边缘卷积(EdgeConv)模块提取边缘特征,卷积通道数为128,卷积后的得到的结果命名为net3_1,获取到第三尺度边缘特征net3_1的数据格式为:(B×n×128)。
得到net1_4、net2_2、net3_1之后,使用concat操作将(net1_4,net2_2,net3_1)多个尺度的特征融合,然后再添加一个卷积层,卷积内核仍为(1×1),卷积通道数增加到1024。
接下来使用MaxPooling获取到点云集合中最大的1024维特征值。之后再引入三层全连接层,通道数分别为:(512,256,c),其中c表示数据集的类别数,即网络的最终输出为c个类别的语义标签。
为了防止网络过拟合,在每两个全连接层中加入dropout层,阈值设置为0.5。网络中所有的卷积层的padding方式统一设置为VALID。网络中还使用了批量标准化(BatchNormalization)来加快网络训练的速度。
网络中所有卷积层以及全连接层都使用Relu函数作为激活函数,表示为:
Figure BDA0002844322630000081
其中,x表示通过加权求和后得到的特征值。
网络使用交叉熵损失函数,表示为:
Figure BDA0002844322630000082
其中:M表示类别的数量;yic表示指示变量(0或1),如果该类别和样本i的类别相同就是1,否则是0;pic表示对于观测样本i属于类别c的预测概率。
网络使用了包含40个人造物体类别的ModelNet40数据集进行训练、测试。使用Python2.7,Tensorflow-GPU==1.15搭建网络模型。初始学习率(learning_rate)设置为0.001,动量(momentum)为0.9,批处理大小(batch_size)为32,延迟步长(decay_step)为200000,最大迭代次数(max_epoch)为200。

Claims (3)

1.一种基于图卷积的多尺度点云分类实现方法,其特征在于,基于以下定义:
点云集合中点的数目为n,一个具有n个点的D维点云,表示为:
Figure FDA0003235468050000011
其中X表示一个点云集合,xi表示每一个点,n表示点云集合中点的数目,D表示点云数据的维度;
使用点云的位置信息,即D=3;因此,每个点都只包含其三维坐标,即:
Xi=(xi,yi,zi) (2)
点云的局部结构用一个有向图表示:
G=(V,E) (3)
其中,V={1,...,n}表示图结构的顶点,
Figure FDA0003235468050000012
表示图结构的边;
包括如下步骤:
步骤1,使用ModelNet40数据集作为用于分类的点云数据,该数据中共有12311个CAD模型,对每个模型均匀采样1024个点并将其标准化到单位球体中,然后将采样点的坐标作为输入数据;然后使用基于M-KNN算法,获取不同尺度范围内的等间隔采样的k个点,从而获得点云集合不同尺度的M-KNN图;
步骤2,使用M-KNN图搭建边缘卷积层模块EdgeConv,实现点云边缘特征的提取,具体包括:
步骤2.1、通过M-KNN图构建点云的图结构G;对于点Xi,找到其k个邻近点
Figure FDA0003235468050000013
其中Xi与邻近点之间的定向边为(i,ji1),...,(i,jik);定义有向图的边缘特征为:
eij=hθ(xi,xj)=hθ(xi,xj-xi) (4)
其中,eij表示Xi与Xj之间的边缘特征,xj-xi代表邻近点构成的局部块信息;hθ是由可学习参数θ构成的非线性激活函数,这里使用多层感知器MLP对中心点Xi的M-KNN图进行特征提取和学习;
步骤2.2、再用一个最大池化层Maxpool来聚合每个M-KNN图的局域信息,用来完成RD×RD→RD',即输入具有n个点的D维点云,通过图卷积后输出具有D'维点云特征的n个点;EdgeConv的数学表达式如下:
xi'=Maxpoolj:(i,j)∈Ehθ(xi,xj-xi) (5)
其中,xi′表示经过最大池化操作后获取到的该点的高维特征;Maxpool表示最大池化操作,E表示图结构的边,hθ是由可学习参数θ构成的非线性激活函数;
步骤3,利用步骤2.2中的边缘卷积层构建多尺度点云分类网络模型,使用ModelNet40数据集对网络进行训练,获取最终的点云分类网络;
M-KNN算法具体包括:
步骤1.1、对于点Xi=(xi,yi,zi),与其相邻的点xj=(xj,yj,zj)之间的欧式距离为:
Figure FDA0003235468050000021
计算每个点到点Xi的距离,再根据距离值对每个点进行排序;
步骤1.2、在距离点Xi最近的前n/m个点中进行等间隔采样,获取到k个邻近点,k个邻近点用xji1,...,xjik表示,其中:
1≤m≤n/k,m∈R (7)
m值的大小表示对点云集合不同程度的划分,越小的m值对应获取到的k个邻近点所表征的邻域范围越大,以此来得到不同尺度的邻域信息;然后对每个点重复以上操作即可获取到点云集合的不同尺度的M-KNN图;
设计基于图卷积的多尺度点云分类网络模型的结构,其具体内容包括:
步骤3.1、网络的输入格式为三维向量数据:(B×n×3),其中,B表示批处理的大小Batch size,n表示每个点云数据中点的数量Number Point,3表示坐标信息(x,y,z);读取到点云数据后,提取第一尺度边缘特征,此时设置:m=n/k,k=20,其中m表示为对点云集合划分的程度,n表示点云集合中点的数量,k表示对邻近点采样的个数;相当于将距离点Xi最近的k个点作为邻近点,边缘卷积内核参数设置为(1×1),使用4个边缘卷积层模块EdgeConv提取边缘特征,卷积通道数分别为:(64,64,64,128);每次卷积后得到的结果分别命名为:(net1_1,net1_2,net1_3,net1_4);最终获取到第一尺度边缘特征net1_4的数据格式为:(B×n×128);
步骤3.2、基于第一尺度获取到的边缘特征,利用获得的net1_2的结果,提取第二尺度特征,此时设置:m=16,k=20;即在距离Xi最近的前n/16个点中等间隔采样到k个点,扩大了采样的邻域范围;边缘卷积内核参数设置为(1×1),使用2个边缘卷积层模块EdgeConv提取边缘特征,卷积通道数分别为:(64,128);每次卷积后得到的结果分别命名为:(net2_1,net2_2);最终获取到第二尺度边缘特征net2_2的数据格式为:(B×n×128);
步骤3.3、基于第二尺度获取到的边缘特征,利用获得的net2_1的结果,提取第三尺度特征,此时设置:m=8,k=20;进一步扩大了邻域范围;边缘卷积内核参数设置为(1×1),使用1个边缘卷积模块EdgeConv提取边缘特征,卷积通道数为128,卷积后的得到的结果命名为net3_1,获取到第三尺度边缘特征net3_1的数据格式为:(B×n×128);
步骤3.4、得到net1_4、net2_2、net3_1之后,使用concat操作将(net1_4,net2_2,net3_1)多个尺度的特征融合,然后再添加一个卷积层,卷积内核仍为(1×1),卷积通道数增加到1024;
步骤3.5、使用MaxPooling获取到点云集合中最大的1024维特征值;之后再引入三层全连接层,通道数分别为:(512,256,c),其中c表示数据集的类别数,即网络的最终输出为c个类别的语义标签。
2.根据权利要求1所述的基于图卷积的多尺度点云分类实现方法,其特征在于,所述步骤3中,为了防止网络过拟合,在每两个全连接层中加入dropout层,阈值设置为0.5;网络中所有卷积层的padding方式统一设置为VALID,并且使用了批量标准化来加快网络训练的速度;
网络中所有卷积层以及全连接层都使用Relu函数作为激活函数,表示为:
Figure FDA0003235468050000031
其中,x表示通过加权求和后得到的特征值;
使用交叉熵损失函数,表示为:
Figure FDA0003235468050000032
其中:M表示类别的数量;yic表示指示变量为 0或1,如果该类别和样本i的类别相同就是1,否则是0;pic表示对于观测样本i属于类别c的预测概率。
3.根据权利要求1所述的基于图卷积的多尺度点云分类实现方法,其特征在于,步骤3中训练网络模型的数据集和训练参数如下:
网络使用了包含40个人造物体类别的ModelNet40数据集进行训练、测试;使用Python2.7,Tensorflow-GPU==1.15搭建网络模型;初始学习率learning_rate 设置为0.001,动量momentum为0.9,批处理大小batch_size为32,延迟步长decay_step为200000,最大迭代次数max_epoch为200。
CN202011503553.0A 2020-12-18 2020-12-18 一种基于图卷积的多尺度点云分类实现方法 Active CN112633350B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011503553.0A CN112633350B (zh) 2020-12-18 2020-12-18 一种基于图卷积的多尺度点云分类实现方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011503553.0A CN112633350B (zh) 2020-12-18 2020-12-18 一种基于图卷积的多尺度点云分类实现方法

Publications (2)

Publication Number Publication Date
CN112633350A CN112633350A (zh) 2021-04-09
CN112633350B true CN112633350B (zh) 2021-10-01

Family

ID=75316993

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011503553.0A Active CN112633350B (zh) 2020-12-18 2020-12-18 一种基于图卷积的多尺度点云分类实现方法

Country Status (1)

Country Link
CN (1) CN112633350B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112990373B (zh) * 2021-04-28 2021-08-03 四川大学 基于多尺度特征融合的卷积孪生点网络叶片轮廓拼接***
CN113393474B (zh) * 2021-06-10 2022-05-13 北京邮电大学 一种基于特征融合的三维点云的分类和分割方法
CN113506311B (zh) * 2021-06-29 2023-08-22 大连民族大学 面向自动驾驶的深度学习图像边缘特征提取方法
CN113592013B (zh) * 2021-08-06 2024-04-30 国网新源水电有限公司富春江水力发电厂 一种基于图注意力网络的三维点云分类方法
CN113674403B (zh) * 2021-08-26 2023-12-26 上海交通大学 一种三维点云上采样方法、***、设备及介质
CN113822342B (zh) * 2021-09-02 2023-05-30 湖北工业大学 一种安全图卷积网络的文献分类方法及***
CN113850304B (zh) * 2021-09-07 2024-06-18 辽宁科技大学 一种高准确率的点云数据分类分割改进方法
CN114186603B (zh) * 2021-09-28 2022-07-01 北京博能科技股份有限公司 多源模型单体化融合方法及***、存储介质及终端
CN114239808B (zh) * 2021-12-20 2023-09-01 湖北工业大学 一种基于PointCloudTransformer的多尺度优化网络方法
CN114419372A (zh) * 2022-01-13 2022-04-29 南京邮电大学 一种多尺度点云分类方法及***
CN116403058B (zh) * 2023-06-09 2023-09-12 昆明理工大学 一种遥感跨场景多光谱激光雷达点云分类方法
CN116977572B (zh) * 2023-09-15 2023-12-08 南京信息工程大学 一种多尺度动态图卷积的建筑物立面结构提取方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110197223A (zh) * 2019-05-29 2019-09-03 北方民族大学 基于深度学习的点云数据分类方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10943352B2 (en) * 2018-12-17 2021-03-09 Palo Alto Research Center Incorporated Object shape regression using wasserstein distance
CN111583263B (zh) * 2020-04-30 2022-09-23 北京工业大学 一种基于联合动态图卷积的点云分割方法
CN112085123B (zh) * 2020-09-25 2022-04-12 北方民族大学 基于显著点采样的点云数据分类和分割方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110197223A (zh) * 2019-05-29 2019-09-03 北方民族大学 基于深度学习的点云数据分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"利用神经网络的城区机载激光雷达点云分类算法";释小松等;《计算机应用研究》;20200430;第1256-1260页 *
"基于DGCNN 语义分割的倾斜摄影测量三维点云建筑物分类";韩姗姗等;《测绘标准化》;20200930;第21-25页 *

Also Published As

Publication number Publication date
CN112633350A (zh) 2021-04-09

Similar Documents

Publication Publication Date Title
CN112633350B (zh) 一种基于图卷积的多尺度点云分类实现方法
CN111310861B (zh) 一种基于深度神经网络的车牌识别和定位方法
CN110135267B (zh) 一种大场景sar图像细微目标检测方法
CN112396002B (zh) 一种基于SE-YOLOv3的轻量级遥感目标检测方法
CN110197223B (zh) 基于深度学习的点云数据分类方法
CN111242041B (zh) 基于伪图像技术的激光雷达三维目标快速检测方法
CN114202672A (zh) 一种基于注意力机制的小目标检测方法
CN112488210A (zh) 一种基于图卷积神经网络的三维点云自动分类方法
CN111191583B (zh) 基于卷积神经网络的空间目标识别***及方法
CN112446388A (zh) 一种基于轻量化二阶段检测模型的多类别蔬菜幼苗识别方法及***
CN111612017B (zh) 一种基于信息增强的目标检测方法
CN106599797A (zh) 一种基于局部并行神经网络的红外人脸识别方法
CN107403200A (zh) 改进图像分割算法结合深度学习的多重不良图片分类方法
CN111583263A (zh) 一种基于联合动态图卷积的点云分割方法
CN110309842B (zh) 基于卷积神经网络的物体检测方法及装置
CN110222718B (zh) 图像处理的方法及装置
CN110334584B (zh) 一种基于区域全卷积网络的手势识别方法
CN113326930A (zh) 数据处理方法、神经网络的训练方法及相关装置、设备
CN112766229B (zh) 基于注意力机制的人脸点云图像智能识别***及方法
CN110543581A (zh) 基于非局部图卷积网络的多视图三维模型检索方法
CN113032613B (zh) 一种基于交互注意力卷积神经网络的三维模型检索方法
CN110942110A (zh) 一种三维模型的特征提取方法和装置
CN114170410A (zh) 基于PointNet的图卷积与KNN搜索的点云零件级分割方法
CN115311502A (zh) 基于多尺度双流架构的遥感图像小样本场景分类方法
CN114120067A (zh) 一种物体识别方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant