CN115620287A - 一种基于面片上下文特征的室内点云场景语义分割方法 - Google Patents

一种基于面片上下文特征的室内点云场景语义分割方法 Download PDF

Info

Publication number
CN115620287A
CN115620287A CN202211398672.3A CN202211398672A CN115620287A CN 115620287 A CN115620287 A CN 115620287A CN 202211398672 A CN202211398672 A CN 202211398672A CN 115620287 A CN115620287 A CN 115620287A
Authority
CN
China
Prior art keywords
scene
patch
point cloud
patches
sampling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211398672.3A
Other languages
English (en)
Inventor
缪永伟
任国祥
章益民
王金荣
刘复昌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Normal University
Original Assignee
Hangzhou Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Normal University filed Critical Hangzhou Normal University
Priority to CN202211398672.3A priority Critical patent/CN115620287A/zh
Publication of CN115620287A publication Critical patent/CN115620287A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/36Indoor scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于面片上下文特征的室内点云场景语义分割方法。本发明基于用户输入的大规模场景点云数据,利用动态区域增长算法提取室内场景中几何特征一致的点云作为场景面片;在神经网络编码器中借助多尺度结构并嵌入面片局部特征聚合模块,以有效聚合不同尺度下场景相邻面片的上下文信息;借助基于多头自注意力机制的Transformer模块学习场景面片全局特征,同时将场景面片的全局特征与局部特征进行连接融合并利用多层感知器降低场景面片的特征维度;然后,在神经网络解码器中利用插值上采样将经降采样后的场景面片分辨率恢复到原始面片分辨率并给每个面片分配语义标签,能高效、准确地分割具有大量重复结构的大规模室内点云场景。

Description

一种基于面片上下文特征的室内点云场景语义分割方法
技术领域
本发明属于技术领域,涉及一种基于面片上下文特征的室内点云场景语义分割方法。
背景技术
利用3D扫描仪和深度相机获取的大量室内场景(如大剧院、室内体育馆、大型商场)点云数据,由于场景范围大、场景布局复杂、场景物体多等特点,通常导致点云数据规模大、点云数据分布不均等缺陷,这些将给大规模室内点云场景的理解带来很大挑战。
在大规模点云场景语义分割方面,传统以离散点云作为场景数据表示的方法中存在如下缺陷:一是由于大规模场景点云数据量庞大,导致对其进行神经网络训练时难以直接处理;二是由于室内场景中物体类型复杂多样,难以建立统一模型有效学习并分割不同类型形状,其存在物体之间分割边界较模糊等现象。具体体现在:1)场景点云数据规模过大导致其进行神经网络训练时难以直接处理;2)室内点云场景中三维物体形状复杂多样,大到墙梁板柱窗、小到家具物品等,很多难以用统一的网络模型进行学习并识别其语义信息;3)由于真实室内环境下存在场景物体杂乱、物体之间相互遮挡等问题导致对场景点云数据的分割难度增加。因此,如何表征大规模场景点云数据?如何提取场景数据特征信息?如何基于场景特征信息进行有效的场景语义分割?所有这些亟需提出新的思路和方法。
为了有效克服大规模室内场景点云数据的语义分割中神经网络训练低效耗时、耗硬件资源等缺陷,提出一种将场景面片作为大规模点云数据的一种表征形式,通过室内场景的面片提取及其上下文特征表示,从而有助于实现大规模室内点云场景的高效语义分割方法。
发明内容
本发明的目的就是提供一种基于面片上下文特征的室内点云场景语义分割方法。为了克服室内点云场景理解中点云数据规模庞大、点云数据分布不均且难以有效分析室内场景的上下文语义关系等缺陷,能够高效、准确地分割具有大量重复结构的大规模室内场景点云数据。
本发明基于用户输入的大规模场景点云数据,利用动态区域增长算法提取室内场景中几何特征一致的点云作为场景面片;其次,在神经网络编码器中借助多尺度结构并嵌入面片局部特征聚合模块,以有效聚合不同尺度下场景相邻面片的上下文信息;接着,借助基于多头自注意力机制的Transformer模块学习场景面片全局特征,该模块通过堆叠4个注意力模块串联构造出场景面片的高层语义空间并学习场景面片之间的特征相似度,同时将场景面片的全局特征与局部特征进行连接融合并利用多层感知器降低场景面片的特征维度;然后,在神经网络解码器中利用插值上采样将经降采样后的场景面片分辨率恢复到原始面片分辨率并给每个面片分配语义标签,最终实现大规模场景语义分割。
具体包括以下步骤:
通过区域增长策略从室内场景点云数据中提取大量场景面片;采用基于编码器-解码器结构的点云分割MPTNet网络进行点云场景的语义分割点云分割MPTNet网络中的编码器由多尺度特征聚合层和中间层面片Transformer模块构成,解码器由特征扩散层构成。编码器结构中的多尺度特征聚合层包括面片局部特征聚合模块,用于通过降采样获取不同尺度下场景面片的局部特征信息,并聚合不同尺度下场景相邻面片的上下文信息。中间层面片Transformer模块用于学***均池化层与最大池化层获取场景面片全局特征,并将场景面片的全局特征与局部特征进行连接融合。在解码器在特征扩散层中,利用插值上采样将经降采样后的场景面片分辨率恢复到原始面片分辨率并给每个场景面片分配语义标签,最终实现大规模室内点云场景的语义分割。
本发明提出的基于面片上下文特征的点云分割网络中采用自注意力模块以适合场景面片特征提取,其能有效学习场景面片之间的特征相似度并从几何语义角度提升场景分割的有效性;采用一种能有效聚合场景面片上下文信息的局部特征聚合模块,其能有效聚合不同尺度下场景相邻面片的上下文信息特征信息并从特征提取角度提升场景分割的准确性。本发明提供的场景语义分割方法能高效、准确地分割具有大量重复结构的大规模室内点云场景。
附图说明
图1为本发明的整体流程示意图;
图2为本发明提出的点云分割MPTNet网络示意图;
图3为点云分割MPTNet网络中的面片多尺度特征聚合MPLA模块示意图;
图4为点云分割MPTNet网络中的面片局部特征聚合PLA模块示意图;
图5是实施例中针对教室场景点云数据的语义分割效果示例图;
图6是实施例中针对走廊场景点云数据的语义分割效果示例图。
具体实施方式
下面结合附图对本发明的技术方法和目标检测效果作进一步描述和说明。
如图1所示,一种基于面片上下文特征的室内点云场景语义分割方法,具体步骤如下:
步骤一、通过区域增长策略从室内场景点云数据中提取大量场景面片;
在区域增长过程中,对场景点云数据进行分析并根据其采样点曲率进行排序,选取曲率最大的采样点s作为种子点,设初始面片Π为空集;然后根据种子点选择面片Π以外的最近邻点p,假设近邻点p满足以下条件:Np·Ns>t1,(p-s)·Ns<t2,(p-q)·Nq<t3,#(П)<t4,则将近邻点p添加到面片П中,直到面片中点云数目达到阈值上限t4则选择另外一个种子点重复上述操作,直至遍历场景中所有点云数据为止。
其中,q表示依次添加至面片П中的最后一个采样点,N表示相应采样点的法向量,#表示点集中采样点数目,t1、t2、t3、t4为阈值参数。
步骤二、基于场景面片表征,采用基于编码器-解码器结构的点云分割MPTNet网络,最终实现大规模室内点云场景的语义分割。
如图2所示,在点云分割MPTNet网络中,编码器由多尺度特征聚合层MPLA和中间层面片Transformer模块构成,解码器由特征扩散层构成。
在多尺度特征聚合MPLA层中,输入的点云场景面片数目为N以及其特征维度为64维;然后,通过两次降采样将场景面片数目由N依次减少下降至N/4、N/16,同时其特征维度由64维依次上升至128维、256维;其中,为了聚合场景面片局部特征,在降采样过程中嵌入PLA模块以得到128维、256维场景面片特征;最终,通过多层感知机和最大池化操作得到含256维特征信息的N/16个面片的场景点云。
在中间层面片Transformer模块中,需要对数目为N/16的场景面片(其特征维度为256维)学***均池化层与最大池化层得到一个包括1024维的场景面片全局特征并利用重复(Repeat)操作将其全局特征堆叠成N/16个包括1024维的场景面片特征。最后,将场景面片局部特征与全局特征连接融合成数目为N/16以及特征维度为2304维的场景面片特征,并通过多层感知器得到包括256维特征信息的包括N/16个面片的场景点云数据。
在特征扩散层中,首先将数目为N/16以及特征维度为256维的场景面片进行两次插值上采样,并将经降采样后的场景面片分辨率恢复到原始面片分辨率,即场景面片数目由N/16上升至N/4、N,同时面片特征维度由256维依次下降至128维、64维;然后,通过多层感知机得到包括13维特征信息的N个场景面片并对给每个场景面片分配语义标签,最终实现大规模室内点云场景的语义分割。
如图3所示,多尺度特征聚合层提取不同尺度下的面片特征。由面片组成的场景点云
Figure BDA0003934168830000031
作为输入(I代表输入),该输入共包括NI个场景面片,每个面片包括FI维特征信息和3维面片质心坐标信息;首先,通过最远点采样算法得到降采样面片点云
Figure BDA0003934168830000032
(S代表降采样)。其中降采样过程通过从输入场景面片点云ΠI中选取种子面片s将其加入降采样面片点云中,依次计算种子面片s的质心坐标与ΠI中剩余面片质心坐标的欧式距离,并选择距离最远的面片加入到ΠS中,依此循环直到ПS中面片数目达到NS为止。由此场景面片数目由NI下降到NS,同时通过多层感知器将降采样面片的特征维度提升2倍至FS维特征信息;接着,为了获取到周围邻域的局部信息,针对每个降采样面片点云∏S通过KNN算法从输入场景面片点云∏I中获取与其最近邻的k个面片,由此得到NS个包括k个邻近面片的场景邻近面片点云
Figure BDA0003934168830000033
其中每个面片包括FS维特征信息。然后,利用如图4所示的局部特征聚合(PLA)模块得到Npla个局部聚合特征的面片
Figure BDA0003934168830000034
其中每个面片包括Fpla维特征信息,再依次通过多层感知器降低面片的特征维度以及通过最大化池函数提取场景面片的全局特征;最后将降采样面片点云∏S与聚合面片点云∏pla合并得到场景点云面片表征
Figure BDA0003934168830000035
(O代表输入),其中每个面片包括FO维特征信息和3维面片质心坐标信息。
如图5所示,给出了教室场景点云数据的语义分割效果,图5a是输入的教室场景点云数据,图5b是利用上述方法实现的点云场景语义分割效果示例图(其中圆圈代表分割效果较好的区域),图5c是局部放大效果示例图;如图6所示,给出了走廊场景点云数据的语义分割效果,图6a是输入的走廊场景点云数据,图6b是利用上述方法实现的点云场景语义分割效果示例图(其中圆圈代表分割效果较好的区域),图6c是局部放大效果示例图。
由图5可以看到,本专利提出的方法能对教室场景点云数据进行有效地语义分割,其分割结果能保持教室场景的完整结构,同时不同物体形状的边界较清晰;从局部放大效果示例图中可以看出,教室场景中的椅子、天花板、地板、门、墙、柱子等类别点云均能得到有效的分割,尤其对于大量重复结构的椅子分割效果更佳。
由图6可以看到,本专利提出的方法能对走廊场景点云数据进行有效地语义分割;从局部放大效果示例图中可以看出,走廊场景中的大部分建筑元素均能被准确分割并能保证其结构信息的完整性,尤其对墙元素(虽受柱、梁等遮挡干扰)亦能进行有效分割。

Claims (6)

1.一种基于面片上下文特征的室内点云场景语义分割方法,其特征在于:具体包括以下步骤:
通过区域增长策略从室内场景点云数据中提取场景面片;采用基于编码器-解码器结构的点云分割MPTNet网络进行点云场景的语义分割;点云分割MPTNet网络中的编码器由多尺度特征聚合层和中间层面片Transformer模块构成,解码器由特征扩散层构成;编码器结构中的多尺度特征聚合层包括面片局部特征聚合模块,用于通过降采样获取不同尺度下场景面片的局部特征信息,并聚合不同尺度下场景相邻面片的上下文信息;中间层面片Transformer模块用于学***均池化层与最大池化层获取场景面片全局特征,并将场景面片的全局特征与局部特征进行连接融合;在解码器特征扩散层中,利用插值上采样将经降采样后的场景面片分辨率恢复到原始面片分辨率并给每个场景面片分配语义标签,最终实现大规模室内点云场景的语义分割。
2.如权利要求1所述的基于面片上下文特征的室内点云场景语义分割方法,其特征在于:在步骤一所述区域增长过程中,首先对场景点云数据进行分析并根据其采样点曲率进行排序,选取曲率最大的采样点s作为种子点,设初始面片П为空集;然后根据种子点选择面片П以外的最近邻点p,假设近邻点p满足以下条件:Np·Ns>t1,(p-s)·Ns<t2,(p-q)·Nq<t3,#(Π)<t4,则将近邻点p添加到面片Π中,直到面片中点云数目达到阈值上限t4则选择另外一个种子点重复上述操作,直至遍历场景中所有点云数据为止;其中,公式中q表示依次添加至面片Π中的最后一个采样点,N表示相应采样点的法向量,#表示点集中采样点数目,t1、t2、t3、t4为阈值参数。
3.如权利要求1所述的基于面片上下文特征的室内点云场景语义分割方法,其特征在于:在所述多尺度特征聚合层中,输入的点云场景面片数目为N以及其特征维度为64维;然后,通过两次降采样将场景面片数目由N依次减少下降至N/4、N/16,同时其特征维度由64维依次上升至128维、256维;其中,为了聚合场景面片局部特征,在降采样过程中嵌入PLA模块以得到128维、256维场景面片特征;最终,通过多层感知机和最大池化操作得到含256维特征信息的N/16个面片的场景点云。
4.如权利要求1所述的基于面片上下文特征的室内点云场景语义分割方法,其特征在于:在所述中间层面片Transformer模块中,需要对数目为N/16的场景面片学***均池化层与最大池化层得到一个包括1024维的场景面片全局特征并利用重复操作将其全局特征堆叠成N/16个包括1024维的场景面片特征;最后,将场景面片局部特征与全局特征连接融合成数目为N/16以及特征维度为2304维的场景面片特征,并通过多层感知器得到包括256维特征信息的含N/16个面片的场景点云数据。
5.如权利要求1所述的基于面片上下文特征的室内点云场景语义分割方法,其特征在于:在所述特征扩散层中,首先将数目为N/16以及特征维度为256维的场景面片进行两次插值上采样,并将经降采样后的场景面片分辨率恢复到原始面片分辨率,即场景面片数目由N/16上升至N/4、N,同时面片特征维度由256维依次下降至128维、64维;然后,通过多层感知机得到包括13维特征信息的N个场景面片并对给每个场景面片分配语义标签,最终实现大规模室内点云场景的语义分割。
6.如权利要求2所述的基于面片上下文特征的室内点云场景语义分割方法,其特征在于:所述的多尺度特征聚合层提取不同尺度下的面片特征,由面片组成的场景点云
Figure FDA0003934168820000021
作为输入,I代表输入,该输入共包括NI个场景面片,每个面片包括FI维特征信息和3维面片质心坐标信息;
首先,通过最远点采样算法得到降采样面片点云
Figure FDA0003934168820000022
S代表降采样;其中降采样过程通过从输入场景面片点云ΠI中选取种子面片s将其加入降采样面片点云中,依次计算种子面片s的质心坐标与ΠI中剩余面片质心坐标的欧式距离,并选择距离最远的面片加入到ΠS中,依此循环直到ΠS中面片数目达到NS为止;由此场景面片数目由NI下降到NS,同时通过多层感知器将降采样面片的特征维度提升2倍至FS维特征信息;接着,为了获取到周围邻域的局部信息,针对每个降采样面片点云ΠS通过KNN算法从输入场景面片点云ΠI中获取与其最近邻的k个面片,由此得到NS个包括k个邻近面片的场景邻近面片点云
Figure FDA0003934168820000023
其中每个面片包括FS维特征信息;然后,利用局部特征聚合模块得到Npla个局部聚合特征的面片
Figure FDA0003934168820000024
其中每个面片包括Fpla维特征信息,再依次通过多层感知器降低面片的特征维度以及通过最大化池函数提取场景面片的全局特征;最后将降采样面片点云ΠS与聚合面片点云Πpla合并得到场景点云面片表征
Figure FDA0003934168820000025
O代表输入,其中每个面片包括FO维特征信息和3维面片质心坐标信息。
CN202211398672.3A 2022-11-09 2022-11-09 一种基于面片上下文特征的室内点云场景语义分割方法 Pending CN115620287A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211398672.3A CN115620287A (zh) 2022-11-09 2022-11-09 一种基于面片上下文特征的室内点云场景语义分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211398672.3A CN115620287A (zh) 2022-11-09 2022-11-09 一种基于面片上下文特征的室内点云场景语义分割方法

Publications (1)

Publication Number Publication Date
CN115620287A true CN115620287A (zh) 2023-01-17

Family

ID=84878980

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211398672.3A Pending CN115620287A (zh) 2022-11-09 2022-11-09 一种基于面片上下文特征的室内点云场景语义分割方法

Country Status (1)

Country Link
CN (1) CN115620287A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116993748A (zh) * 2023-07-31 2023-11-03 西安邮电大学 基于并行特征提取的点云语义分割方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116993748A (zh) * 2023-07-31 2023-11-03 西安邮电大学 基于并行特征提取的点云语义分割方法

Similar Documents

Publication Publication Date Title
Xiong et al. Automatic creation of semantically rich 3D building models from laser scanner data
CN111968121B (zh) 一种基于实例嵌入与语义融合的三维点云场景分割方法
CN107622244B (zh) 一种基于深度图的室内场景精细化解析方法
Lin et al. Semantic decomposition and reconstruction of residential scenes from LiDAR data
Deschaud et al. A fast and accurate plane detection algorithm for large noisy point clouds using filtered normals and voxel growing
Xu et al. Reconstruction of scaffolds from a photogrammetric point cloud of construction sites using a novel 3D local feature descriptor
CN110222642B (zh) 一种基于全局图聚类的平面建筑构件点云轮廓提取方法
CN109558862B (zh) 基于空间感知的注意力细化框架的人群计数方法及***
CN108171780A (zh) 一种基于激光雷达构建室内真实三维地图的方法
CN101930537B (zh) 基于弯曲不变量相关特征的三维人脸识别方法及***
CN112396703A (zh) 一种单图像三维点云模型重建方法
CN107066916B (zh) 基于反卷积神经网络的场景语义分割方法
CN105139379B (zh) 基于分类分层的机载Lidar点云建筑物顶面渐进提取方法
Wang et al. Object verification based on deep learning point feature comparison for scan-to-BIM
CN112767405A (zh) 一种基于图注意力网络的三维网格模型分割方法及***
CN116630802A (zh) 一种基于SwinT与尺寸自适应卷积的电力设备锈蚀缺陷图像检测方法
Chen et al. 3D model-based terrestrial laser scanning (TLS) observation network planning for large-scale building facades
CN115620287A (zh) 一种基于面片上下文特征的室内点云场景语义分割方法
CN116052159A (zh) 基于深度霍夫投票的3d物体识别***及其识别方法
Xu et al. Three-dimensional object detection with deep neural networks for automatic as-built reconstruction
CN114187506A (zh) 视点意识的动态路由胶囊网络的遥感图像场景分类方法
Zhang et al. Building façade element extraction based on multidimensional virtual semantic feature map ensemble learning and hierarchical clustering
Wang et al. Methods of As-is BIM reconstruction using point cloud data for existing buildings
CN116129118A (zh) 基于图卷积的城市场景激光LiDAR点云语义分割方法
CN115937507A (zh) 一种基于点空洞方向卷积的点云语义分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination