CN114120110B - 一种混杂场景机载激光点云分类的多粒度计算方法 - Google Patents

一种混杂场景机载激光点云分类的多粒度计算方法 Download PDF

Info

Publication number
CN114120110B
CN114120110B CN202111383336.7A CN202111383336A CN114120110B CN 114120110 B CN114120110 B CN 114120110B CN 202111383336 A CN202111383336 A CN 202111383336A CN 114120110 B CN114120110 B CN 114120110B
Authority
CN
China
Prior art keywords
point cloud
point
scene
classification
ground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111383336.7A
Other languages
English (en)
Other versions
CN114120110A (zh
Inventor
秦楠楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Purple Mountain Observatory of CAS
Original Assignee
Purple Mountain Observatory of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Purple Mountain Observatory of CAS filed Critical Purple Mountain Observatory of CAS
Priority to CN202111383336.7A priority Critical patent/CN114120110B/zh
Publication of CN114120110A publication Critical patent/CN114120110A/zh
Application granted granted Critical
Publication of CN114120110B publication Critical patent/CN114120110B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出一种混杂场景机载激光点云分类的多粒度计算方法,包括步骤:以采样点为中心选取分类邻域点集和场景邻域点集;以无监督学习的方式训练点云全局特征提取模型,实现粗粒度的场景感知;采用基于注意力机制的特征融合策略,在点云语义分割模型中嵌入空间上下文信息,并定义兼顾离地高度和类别的多任务损失函数,对分类邻域点集中各点的类别和离地高度进行监督,实现较细粒度的点云语义分割及离地高度预测;通过基于图割优化的点云分割及地面不规则三角网的迭代吸附,实现精细粒度的地面分类结果精化。本发明将混杂场景点云的分类难题分解为三个相对单一问题的组合,有效降低了整个问题的复杂度,能够实现不同复杂场景点云的鲁棒、精细分类。

Description

一种混杂场景机载激光点云分类的多粒度计算方法
技术领域
本发明属于激光扫描数据处理领域,具体涉及一种混杂场景机载激光点云分类的多粒度计算方法。
背景技术
机载激光扫描(Airborne Laser Scanning,ALS)是大范围三维地理空间数据快速获取的一个重要手段,在智慧城市、全球制图、全球变化等国家重大需求中发挥着重要作用,目前已广泛应用于城市三维重建、林业调查、浅海测深、遗迹考古及深空探测等国民生产或科学研究中。作为ALS***诸多应用的关键基础,点云分类具有广泛的实用价值。然而,直到目前该技术依然困扰着业界与学界(难题尚未完全解决),已成为制约三维地理数据处理效率及自动化程度的关键瓶颈。
作为摄影测量与遥感领域中的一个经典问题,点云分类已被广泛研究。早期的研究聚焦于设计判别能力强的人工特征,当前的研究越来越多的采用端对端的深度学习技术。
基于传统机器学习的点云分类方法通常分为两步:首先,从局部邻域点中提取手工特征;其次,训练并利用分类器(如支持向量机、随机森林、高斯混合模型以及人工神经网络等)进行逐点分类。然而,由于该类方法只利用了每个点孤立的局部邻域几何信息,忽略了大范围空间上下文的相关性,导致分类结果中往往出现严重的噪点错分。利用空间上下文信息能够较好解决分类结果的不一致性,因此部分研究将概率图模型(如马尔科夫随机场和条件随机场等)引入到点云分类方法中,并取得了不错的去噪效果。然而,这些方法所依赖的手工特征不能很好的对ALS点云中形态复杂多变的地物进行表征,限制了该类方法最终的分类性能。深度学习技术能从原始数据中学习出更具表征能力的深层特征,目前已被越来越多的运用到三维点云分类当中。根据所采用的输入表示不同,可将现有基于深度学习的点云分类模型分为:基于特征图表示的分类模型、基于体素表示的分类模型、基于点表示的分类模型以及基于混合表示的分类模型。
总体而言,现有的点云分类方法已可在简单场景下获得很高的分类精度。然而,实际测区通常覆盖大量混合复杂场景,此类场景具有如下特点:(1)多种单一场景混合(如密集建筑物区、大型建筑区、梯田、缓坡、陡坡等);(2)地形起伏剧烈变化(如陡坎、山脊、山谷等局部区域);(3)地物结构(大小、形状、互相之间的关系)错综复杂(如平面状的房屋、线条状的电力线、形态各异的植被等);(4)不同地物以及相同地物间尺寸差异巨大(如房屋与电力线、大型厂房与普通住宅等)。混杂场景下剧烈的地形起伏以及复杂的地物结构给算法的鲁棒性和精细度带来了极大挑战,导致当前最先进的点云分类算法依然不能完全满足实际生产需求。
发明内容
本发明针对现有技术的不足,提出了一种混杂场景机载激光点云分类的多粒度计算方法,将混杂场景点云的分类难题分解为“场景知识学习+知识引导分类+地面错分纠正”三个相对单一问题的组合,实现对不同复杂场景点云稳健的高精度分类能力。
为实现上述目的,本发明采用以下技术方案:
一种混杂场景机载激光点云分类的多粒度计算方法,包括以下步骤:
步骤1:在整块点云中随机选取一个采样点,并以该采样点为中心分别搜索其分类邻域点集和场景邻域点集,场景邻域点集的范围大于分类邻域点集;
步骤2:以无监督学习的方式训练点云全局特征提取模型,并从场景邻域点集中提取空间上下文信息,以实现粗粒度的场景感知;
步骤3:采用基于注意力机制的特征融合策略,在点云语义分割模型中嵌入从场景邻域点集中提取的空间上下文信息,并定义兼顾离地高度和类别的多任务损失函数,对分类邻域点集中各点的类别和离地高度同时进行监督,以实现较细粒度的点云语义分割及离地高度预测;
步骤4:通过基于图割优化的点云分割以及地面不规则三角网的迭代吸附,从点云语义分割结果中准确识别出伪地面点并找回被错分的真实地面点,实现精细粒度的地面分类结果精化;
步骤5:重复步骤1至4,直到所有采样点的分类邻域点集的总和覆盖整块点云,最终获得整块点云的分类结果。
进一步地,步骤2包括以下步骤:
S2.1、搜集若干包含不同场景类别的点云块;
S2.2、以点云块为处理单元,分别生成各点云块对应的多视特征图和三维体素;
S2.3、将多视特征图输入到多视图特征提取模块中提取多视图特征,将三维体素输入到体素特征提取模块中提取体素特征;
S2.4、采用基于注意力机制的特征融合策略,将多视图特征和体素特征进行融合,得到强化的多视图特征;
S2.5、通过视图池化层将强化的多视图特征合并为场景上下文特征;
S2.6、基于无监督度量学习,在通过特征聚类自动生成各点云块的伪标签的同时基于伪标签对S2.3-S2.5中的各神经网络层进行监督训练;
S2.7、将训练好的S2.3-S2.5中用于生成最终场景上下文特征的各神经网络层组合为点云场景上下文特征提取模型,用于提取场景邻域点集的粗粒度的空间上下文信息。
进一步地,S2.3中,所述多视图特征提取模块包括若干二维卷积网络分支,所述体素特征提取模块基于子流形稀疏卷积层构建。
进一步地,步骤3包括以下步骤:
S3.1、通过核心点卷积层(Kernel Point Convolution)提取分类邻域点集的点云局部特征;
S3.2、利用S2.7构建的点云场景上下文特征提取模型从场景邻域点集中提取空间上下文信息,并采用基于注意力机制的特征融合策略,将空间上下文信息和点云局部特征进行融合,得到增强的点云语义分割特征;
S3.3、定义兼顾离地高度和类别的多任务损失函数,并加之以若干卷积层、类别输出层和离地高度输出层构建点云语义分割模型;
S3.4、基于标注好的训练集对S3.3构建的点云语义分割模型进行监督训练;
S3.5、利用训练好的点云语义分割模型获取分类邻域点集的语义分割和离地高度预估结果;
进一步地,所述兼顾离地高度和类别的多任务损失函数为:
Lossα=αLosspred+(1-α)Losshag
其中,Lossα代表总损失函数,α代表权重,Losspred代表分类任务中常用的交叉熵损失函数;Losshag代表离地高度损失函数,由预估的离地高度与真值离地高度间的差值构成。
进一步地,步骤4包括以下步骤:
S4.1、对分类邻域点集的点云语义分割结果中的地面点进行Delaunay三角剖分,得到地面点的三角网,根据三角网中各点间的连接关系获得每个地面点的邻域索引信息;
S4.2、构建马尔科夫随机场能量函数:
E=Edata+β·Esmooth
其中,数据项Edata由点云语义分割结果中每个点属于地面类别的概率以及每个点的离地高度构成,根据邻域索引信息,平滑项Esmooth由每个点与其邻域间的高度差及法向夹角构成,β代表权重;
S4.3、采用图论中的最大流-最小割算法优化马尔科夫随机场能量函数,进而识别出点云语义分割结果中的伪地面点。相比于现有技术,本发明具有如下优点:
(1)采用了无监督场景上下文特征学习技术,无需预定义场景类别及制作数据集,既避免了部分地形场景难以定义的问题,又能节省制作场景数据集的成本;
(2)采用了基于注意力机制的特征融合策略,在点云语义分割模型中嵌入大范围场景上下文信息,既可实现场景关联特征的选择性凸显以提升识别精度,又能为大尺寸地物的准确识别提供充足的空间上下文信息以提升鲁棒性;
(3)设计了兼顾离地高度的多任务损失函数,既能抑制较高地物点的错分,又能增强语义分割模型对具有不同离地高度的亚地物类别(如高、低植被等)的区分能力;
(4)提出了基于图割优化的地面点精化方法,能够获取地面与伪地面点间的最优分割面,精确检测出具有异常离地高度的伪地面点。
附图说明
图1为本发明方法的框架示意图;
图2为本发明中随机采样点的场景邻域点集与分类邻域点集示意图;
图3为本发明中无监督点云场景上下文特征学习示意图;
图4为本发明中场景上下文引导的点云语义分割与离地高度预测示意图;
图5为本发明中图割优化模块所采用的数据项与平滑项示意图;
图6为本发明方法对复杂场景点云分类结果示例图。
具体实施方式
现在结合附图对本发明作进一步详细的说明。
如图1所示,本发明方法主要包括以下步骤:
步骤1:在整块点云中随机选取一个采样点,并以该采样点为中心分别搜索一组边长为150米的方形场景邻域点集和一组边长为50米的方形分类邻域点集,如图2所示。
步骤2:以无监督学习的方式,训练点云全局特征提取模型,并从范围较大的场景邻域点集中提取出空间上下文信息(场景知识),实现粗粒度的大范围场景感知。如图3所示,包括以下子步骤:
(1)搜集大量包含不同场景类别的边长为150米的方形点云块;
(2)以点云块为处理单元,将各点云块分别转换为多视特征图和三维体素;
(3)将点云块对应的多视特征图和三维体素分别传给一个多视图特征提取模块(由多个二维卷积网络分支构成)提取多视图特征和一个体素特征提取模块(基于子流形稀疏卷积层构建)提取全局形貌特征;
(4)采用基于注意力机制的特征融合策略,利用体素的全局形貌特征引导多视图中关键视图特征自适应凸显,并对多视图特征和体素全局特征进行融合,得到增强的多视图特征;
(5)通过视图池化层将增强的多视图特征进一步合并,得到场景上下文特征;
(6)基于无监督度量学习,在通过特征聚类自动生成伪标签的同时将伪标签作为监督信息对图3所示的各神经网络层进行训练;
(7)将训练好的步骤(3)到步骤(5)中用到的各神经网络层组合为点云场景上下文特征提取模型,并从场景邻域点集中提取出粗粒度的空间上下文信息(场景知识)。
步骤3:采用基于注意力机制的特征融合策略,在点云语义分割模型中嵌入大范围场景知识,并设计顾及离地高度的多任务损失函数,对范围较小的分类邻域点集中各点的类别和离地高度同时进行监督,实现较细粒度的点云语义分割及离地高度预估。如图4所示,包括以下子步骤:
(1)将分类邻域点集传给一系列核心点卷积层提取深层次的点云局部特征;
(2)采用基于注意力机制的特征融合策略,利用步骤2从场景邻域点集中提取的大范围空间上下文信息(场景知识)引导关键点云局部特征自适应凸显,并将空间上下文特征和点云局部特征进行融合,得到增强的点云语义分割特征;
(3)将步骤(1)到步骤(2)中用到的各神经网络层进行组合,并加之以若干卷积层、类别输出层和离地高度输出层构建如图4所示的点云语义分割模型;
(4)定义顾及离地高度的多任务损失函数如下:
Lossα=αLosspred+(1-α)Losshag
其中,Lossα代表总损失函数,α代表权重,Losspred代表分类任务中常用的交叉熵损失函数;Losshag代表离地高度相关的损失函数,由预估的离地高度与真值离地高度间差值构成。利用总损失函数Lossα以及标注好的训练集对图4所示的点云语义分割模型进行训练。
(5)利用训练好的点云语义分割模型对分类邻域点集进行处理,获得分类邻域点集的高精度语义分割及离地高度预估结果。
步骤4:通过基于图割优化的点云分割以及地面不规则三角网的迭代吸附,从分类邻域点集的语义分割结果中准确识别出伪地面点并找回被错分的真实地面点,实现细粒度的地面分类结果精化。其中,基于图割优化的点云分割来识别伪地面点的具体步骤如下:
(1)对分类邻域点集的语义分割结果中的地面点进行Delaunay三角剖分,得到地面点的三角网(无向连通图),根据三角网中各点间的连接关系,获得每个地面点的邻域索引信息(如果两点间存在边连接,则互为邻域)。
(2)构建马尔科夫随机场能量函数,如下:
E=Edata+β·Esmooth
其中,数据项Edata由点云语义分割结果中每个点属于地面类别的概率以及每个点的离地高度(如图5所示)构成,根据邻域索引信息,平滑项Esmooth由每个点与其邻域间的高差以及法向夹角构成,β代表权重。
(3)采用图论中的最大流-最小割算法优化上述能量函数,进而识别出点云语义分割结果中的伪地面点。
步骤5:重复采用上述步骤1-步骤4对整块点云进行处理,直到所有采样点的分类邻域点集的总和覆盖了整块点云。如图6所示,左侧为输入的点云,右侧为其最终的点云语义分割结果。
以上仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,应视为本发明的保护范围。

Claims (4)

1.一种混杂场景机载激光点云分类的多粒度计算方法,其特征在于,包括以下步骤:
步骤1:在整块点云中随机选取一个采样点,并以该采样点为中心分别搜索其分类邻域点集和场景邻域点集,场景邻域点集的范围大于分类邻域点集;
步骤2:以无监督学习的方式训练点云全局特征提取模型,并从场景邻域点集中提取空间上下文信息,以实现粗粒度的场景感知;
步骤3:采用基于注意力机制的特征融合策略,在点云语义分割模型中嵌入从场景邻域点集中提取的空间上下文信息,并定义兼顾离地高度和类别的多任务损失函数,对分类邻域点集中各点的类别和离地高度同时进行监督,以实现较细粒度的点云语义分割及离地高度预测;所述兼顾离地高度和类别的多任务损失函数为:
Lossα=αLosspred+(1-α)Losshag
其中,Lossα代表总损失函数,α代表权重,Losspred代表分类任务中常用的交叉熵损失函数;Losshag代表离地高度损失函数,由预估的离地高度与真值离地高度间的差值构成;
步骤4:通过基于图割优化的点云分割以及地面不规则三角网的迭代吸附,从点云语义分割结果中准确识别出伪地面点并找回被错分的真实地面点,实现精细粒度的地面分类结果精化,具体包括:
S4.1、对分类邻域点集的点云语义分割结果中的地面点进行Delaunay三角剖分,得到地面点的三角网,根据三角网中各点间的连接关系获得每个地面点的邻域索引信息;
S4.2、构建马尔科夫随机场能量函数:
E=Edata+β·Esmooth
其中,数据项Edata由点云语义分割结果中每个点属于地面类别的概率以及每个点的离地高度构成,根据邻域索引信息,平滑项Esmooth由每个点与其邻域间的高度差及法向夹角构成,β代表权重;
S4.3、采用图论中的最大流-最小割算法优化马尔科夫随机场能量函数,进而识别出点云语义分割结果中的伪地面点;
步骤5:重复步骤1至4,直到所有采样点的分类邻域点集的总和覆盖整块点云,最终获得整块点云的分类结果。
2.如权利要求1所述的一种混杂场景机载激光点云分类的多粒度计算方法,其特征在于,步骤2包括以下步骤:
S2.1、搜集若干包含不同场景类别的点云块;
S2.2、以点云块为处理单元,分别生成各点云块对应的多视特征图和三维体素;
S2.3、将多视特征图输入到多视图特征提取模块中提取多视图特征,将三维体素输入到体素特征提取模块中提取体素特征;
S2.4、采用基于注意力机制的特征融合策略,将多视图特征和体素特征进行融合,得到强化的多视图特征;
S2.5、通过视图池化层将强化的多视图特征合并为场景上下文特征;
S2.6、基于无监督度量学习,在通过特征聚类自动生成各点云块的伪标签的同时基于伪标签对S2.3-S2.5中的各神经网络层进行监督训练;
S2.7、将训练好的S2.3-S2.5中用于生成最终场景上下文特征的各神经网络层组合为点云场景上下文特征提取模型,用于提取场景邻域点集的粗粒度的空间上下文信息。
3.如权利要求2所述的一种混杂场景机载激光点云分类的多粒度计算方法,其特征在于,S2.3中,所述多视图特征提取模块包括若干二维卷积网络分支,所述体素特征提取模块基于子流形稀疏卷积层构建。
4.如权利要求2所述的一种混杂场景机载激光点云分类的多粒度计算方法,其特征在于,步骤3包括以下步骤:
S3.1、通过核心点卷积层提取分类邻域点集的点云局部特征;
S3.2、利用S2.7构建的点云场景上下文特征提取模型从场景邻域点集中提取空间上下文信息,并采用基于注意力机制的特征融合策略,将空间上下文信息和点云局部特征进行融合,得到增强的点云语义分割特征;
S3.3、定义兼顾离地高度和类别的多任务损失函数,并加之以若干卷积层、类别输出层和离地高度输出层构建点云语义分割模型;
S3.4、基于标注好的训练集对S3.3构建的点云语义分割模型进行监督训练;
S3.5、利用训练好的点云语义分割模型获取分类邻域点集的语义分割和离地高度预估结果。
CN202111383336.7A 2021-11-22 2021-11-22 一种混杂场景机载激光点云分类的多粒度计算方法 Active CN114120110B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111383336.7A CN114120110B (zh) 2021-11-22 2021-11-22 一种混杂场景机载激光点云分类的多粒度计算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111383336.7A CN114120110B (zh) 2021-11-22 2021-11-22 一种混杂场景机载激光点云分类的多粒度计算方法

Publications (2)

Publication Number Publication Date
CN114120110A CN114120110A (zh) 2022-03-01
CN114120110B true CN114120110B (zh) 2022-08-05

Family

ID=80438990

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111383336.7A Active CN114120110B (zh) 2021-11-22 2021-11-22 一种混杂场景机载激光点云分类的多粒度计算方法

Country Status (1)

Country Link
CN (1) CN114120110B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114639024A (zh) * 2022-03-03 2022-06-17 江苏方天电力技术有限公司 一种输电线路激光点云自动分类方法
CN114596420A (zh) * 2022-03-16 2022-06-07 中关村科学城城市大脑股份有限公司 一种应用于城市大脑的激光点云建模方法和***
CN114511682B (zh) * 2022-04-19 2022-07-15 清华大学 一种基于激光雷达的三维场景重建方法、装置及电子设备
CN115222988B (zh) * 2022-07-17 2024-06-18 桂林理工大学 激光雷达点云数据城市地物PointEFF精细分类方法
CN115424022B (zh) * 2022-11-03 2023-03-03 南方电网数字电网研究院有限公司 输电走廊地面点云分割方法、装置和计算机设备
CN115830597B (zh) * 2023-01-05 2023-07-07 安徽大学 一种基于伪标签生成的从局部到全局的域自适应遥感影像语义分割方法
CN115861571B (zh) * 2023-01-18 2023-04-28 武汉大学 语义感知的三角网模型建筑物实体重建方法
CN115862013B (zh) * 2023-02-09 2023-06-27 南方电网数字电网研究院有限公司 基于注意力机制的输配电场景点云语义分割模型训练方法
CN116363099A (zh) * 2023-03-31 2023-06-30 西南大学 一种三维点云数据细粒度解析方法、装置、介质及设备
CN116863432B (zh) * 2023-09-04 2023-12-22 之江实验室 基于深度学习的弱监督激光可行驶区域预测方法和***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9633483B1 (en) * 2014-03-27 2017-04-25 Hrl Laboratories, Llc System for filtering, segmenting and recognizing objects in unconstrained environments
CN110110802A (zh) * 2019-05-14 2019-08-09 南京林业大学 基于高阶条件随机场的机载激光点云分类方法
CN110197215A (zh) * 2019-05-22 2019-09-03 深圳市牧月科技有限公司 一种自主驾驶的地面感知点云语义分割方法
CN111815776A (zh) * 2020-02-04 2020-10-23 山东水利技师学院 综合机载和车载三维激光点云及街景影像的三维建筑物精细几何重建方法
US11099275B1 (en) * 2020-04-29 2021-08-24 Tsinghua University LiDAR point cloud reflection intensity complementation method and system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11004202B2 (en) * 2017-10-09 2021-05-11 The Board Of Trustees Of The Leland Stanford Junior University Systems and methods for semantic segmentation of 3D point clouds
EP3525000B1 (en) * 2018-02-09 2021-07-21 Bayerische Motoren Werke Aktiengesellschaft Methods and apparatuses for object detection in a scene based on lidar data and radar data of the scene
CN109493344A (zh) * 2018-09-18 2019-03-19 北京大学 一种大规模城市三维场景的语义分割方法
CN110097556A (zh) * 2019-04-29 2019-08-06 东南大学 基于PointNet的大规模点云语义分割算法
US11244500B2 (en) * 2019-12-31 2022-02-08 Woven Planet North America, Inc. Map feature extraction using overhead view images
EP4115392A4 (en) * 2020-03-04 2023-08-23 Magic Leap, Inc. SYSTEMS AND PROCESSES FOR EFFICIENT GENERATION OF FLOOR PLANS FROM 3D SCANS OF INTERIOR SCENES

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9633483B1 (en) * 2014-03-27 2017-04-25 Hrl Laboratories, Llc System for filtering, segmenting and recognizing objects in unconstrained environments
CN110110802A (zh) * 2019-05-14 2019-08-09 南京林业大学 基于高阶条件随机场的机载激光点云分类方法
CN110197215A (zh) * 2019-05-22 2019-09-03 深圳市牧月科技有限公司 一种自主驾驶的地面感知点云语义分割方法
CN111815776A (zh) * 2020-02-04 2020-10-23 山东水利技师学院 综合机载和车载三维激光点云及街景影像的三维建筑物精细几何重建方法
US11099275B1 (en) * 2020-04-29 2021-08-24 Tsinghua University LiDAR point cloud reflection intensity complementation method and system

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
一种迭代的小光斑LiDAR波形分解方法;赖旭东等;《红外与毫米波学报》;20130815;第32卷(第04期);全文 *
基于DGCNN语义分割的倾斜摄影测量三维点云建筑物分类;韩姗姗等;《测绘标准化》;20200925(第03期);全文 *
基于深度残差网络的机载LiDAR点云分类;赵传等;《测绘学报》;20200215(第02期);全文 *

Also Published As

Publication number Publication date
CN114120110A (zh) 2022-03-01

Similar Documents

Publication Publication Date Title
CN114120110B (zh) 一种混杂场景机载激光点云分类的多粒度计算方法
Liu et al. Cylinder detection in large-scale point cloud of pipeline plant
Huang et al. GraNet: Global relation-aware attentional network for semantic segmentation of ALS point clouds
Özdemir et al. Aerial point cloud classification with deep learning and machine learning algorithms
CN114004938B (zh) 一种基于海量数据的城市场景重建方法及装置
CN115512216A (zh) 耦合街区时空特征和集成学习的城市功能区精细化识别方法
Li et al. A GCN-based method for extracting power lines and pylons from airborne LiDAR data
Ledoux Modelling three-dimensional fields in geoscience with the Voronoi diagram and its dual
CN115619963A (zh) 一种基于内容感知的城市建筑物实体建模方法
Hu et al. Geometric feature enhanced line segment extraction from large-scale point clouds with hierarchical topological optimization
Tu et al. Extraction of street pole-like objects based on plane filtering from mobile LiDAR data
Zhang et al. A dual attention neural network for airborne LiDAR point cloud semantic segmentation
Xu et al. Classification of 3-D point clouds by a new augmentation convolutional neural network
Zhang et al. A graph-voxel joint convolution neural network for ALS point cloud segmentation
Qin et al. Deep learning for filtering the ground from ALS point clouds: A dataset, evaluations and issues
CN112200248B (zh) 一种基于dbscan聚类的城市道路环境下的点云语义分割方法、***及存储介质
Lei et al. Automatic identification of street trees with improved RandLA-Net and accurate calculation of shading area with density-based iterative α-shape
He Automated 3D building modelling from airborne LiDAR data
Gupta et al. Tree annotations in LiDAR data using point densities and convolutional neural networks
CN112634447A (zh) 一种露头岩层分层方法、装置、设备及存储介质
Zhou 3D urban modeling from city-scale aerial LiDAR data
CN114494586B (zh) 晶格投影的深度学习网络阔叶树枝叶分离与骨架重建方法
CN114565730A (zh) 地图矢量样本的处理方法、设备和计算机可读存储介质
Li et al. [Retracted] PointLAE: A Point Cloud Semantic Segmentation Neural Network via Multifeature Aggregation for Large‐Scale Application
An et al. Automatic recognition and feature extraction of rock blocks based on 3D point cloud data analytics

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 210023 No. 10, Yuanhua Road, Qixia District, Nanjing, Jiangsu Province

Applicant after: PURPLE MOUNTAIN OBSERVATORY, CHINESE ACADEMY OF SCIENCES

Address before: 210008 No. 2 West Beijing Road, Gulou District, Jiangsu, Nanjing

Applicant before: PURPLE MOUNTAIN OBSERVATORY, CHINESE ACADEMY OF SCIENCES

GR01 Patent grant
GR01 Patent grant