CN115147545A - 一种基于bim和深度学习的场景三维智能重建***及方法 - Google Patents
一种基于bim和深度学习的场景三维智能重建***及方法 Download PDFInfo
- Publication number
- CN115147545A CN115147545A CN202210734738.5A CN202210734738A CN115147545A CN 115147545 A CN115147545 A CN 115147545A CN 202210734738 A CN202210734738 A CN 202210734738A CN 115147545 A CN115147545 A CN 115147545A
- Authority
- CN
- China
- Prior art keywords
- dimensional
- point cloud
- layer
- bim
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/13—Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Geometry (AREA)
- Evolutionary Computation (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Architecture (AREA)
- Civil Engineering (AREA)
- Computer Graphics (AREA)
- Structural Engineering (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于BIM和深度学习的场景三维智能重建***及方法,***包括深度数据采集与处理模块、三维重建模块、语义分割模块和BIM融合诊断模块。深度数据采集与处理模块收集深度信息并且将其预处理。三维重建模块将预处理过的深度数据重建出三维模型。语义分割模块将数据通过改进的PointNet++网络进行语义分割,获取三维模型的语义信息。BIM融合诊断模块将三维模型与语义分割的结果进行融合,与BIM模型相对比,实现三维重建模型和BIM模型的融合,提供施工进度与竣工效果诊断结果。本发明克服了现有技术中利用深度信息进行三维重建成本较高和重建时间较长的缺点,在一定程度上丰富了三维重建的技术手段。
Description
技术领域
本发明涉及一种基于BIM和深度学习的场景三维智能重建***及方法,属于场景三维重建技术领域。
背景技术
建筑业是我国经济的支柱产业,21世纪的中国建筑业正处在产业成长和体制变革的关键时期,拥有极其广阔的发展前景。随着我国城市化进程的加快,城市化水平的不断提高,科学技术与信息技术的迅速发展,BIM(Building Information Modeling,建筑信息模型)技术、三维激光扫描技术、深度学习技术、AR(Augmented Reality,增强现实)技术、VR(Virtual Reality,虚拟现实)技术、3D打印技术等技术的相继出现与应用,建筑业已然面临新的变革。
三维重建(3DReconstruction)是三维计算机视觉领域中的一项基础工作,是在二维图像的基础上利用了第三维的深度数据信息重构出物体或场景的三维模型,三维重建技术的重点在于如何获取目标场景或物体的深度信息。在景物深度信息已知的条件下,只需要经过点云数据的配准及融合,即可实现景物的三维重建。目前常用的三维重建***是KinectFusion,但是通过研究发现KinectFusion建模***重建范围非常有限,如果应用到室内工程三维重建中来,完整模型后续需进行分块点云间二次拼接。
发明内容
本发明所要解决的技术问题是:提供一种基于BIM和深度学习的场景三维智能重建***及方法,提高了建筑三维重建的精度。
本发明为解决上述技术问题采用以下技术方案:
一种基于BIM和深度学习的场景三维智能重建***,所述***包括深度数据采集与处理模块、三维重建模块、语义分割模块和BIM融合诊断模块;
所述深度数据采集与处理模块用于采集建筑施工阶段的深度数据,并对所述深度数据进行预处理,将预处理后的深度数据转化为点云数据,同时对深度数据进行HHA编码处理;
所述三维重建模块用于对点云数据进行补全,并根据补全后的点云数据进行三维重建,得到三维模型;
所述语义分割模块用于利用改进后的PointNet++语义分割网络对经过HHA编码处理后的深度数据进行语义分割,并且标注语义信息;
所述BIM融合诊断模块用于对所述三维重建模块得到的三维模型与所述语义分割模块得到的语义信息进行融合,并将融合得到的模型与建筑BIM模型进行对比,实现建筑施工阶段与设计阶段之间的差异对比。
作为本发明***的一种优选方案,所述深度数据采集与处理模块包括RGB-D传感器、预处理单元、点云转化单元和HHA编码处理单元;
所述深度数据采集与处理模块的工作过程如下:
1)对RGB-D传感器进行内外参数的标定,通过标定好的RGB-D传感器采集建筑施工阶段的深度数据;
2)利用预处理单元对采集的深度数据进行滤波处理;
3)利用点云转化单元将滤波处理后的深度数据转化为点云数据,为所述三维重建模块做好准备;
4)利用HHA编码处理单元对深度数据进行HHA编码处理,为所述语义分割模块做好准备。
作为本发明***的一种优选方案,所述三维重建模块的工作过程如下:
先通过点云补全的神经网络对点云数据进行补全,再通过BundleFunsion方法对补全后的点云数据进行三维重建,得到三维模型。
作为本发明***的一种优选方案,所述改进后的PointNet++语义分割网络包括依次连接的第一采样和分组层、第一改进PointNet网络层、第二采样和分组层、第二改进PointNet网络层、第一反向插值层、第三改进PointNet网络层、第二反向插值层、第四改进PointNet网络层以及输出层,所述第一采样和分组层的输出和第二反向插值层的输出作为第四改进PointNet网络层的输入,所述第二采样和分组层的输出和第一反向插值层的输出作为第三改进PointNet网络层的输入;
所述第一改进PointNet网络层包括依次连接的空间对齐层、第一全连接网络、特征对齐层、注意力机制模块、第二全连接网络、最大池化层、第三全连接网络、第四全连接网络以及输出层;所述第一改进PointNet网络层对于N×3的点云输入,先通过空间对齐层将其在空间上对齐后,再通过第一全连接网络映射到64维的高维空间上,再经过特征对齐层进行对齐后,得到64维的局部特征,64维的局部特征通过注意力机制模块、第二全连接网络和最大池化层后得到1024维的全局特征,将64维的局部特征和1024维的全局特征合并起来,组成1088维空间,再依次通过第三全连接网络和第四全连接网络,得到第一改进PointNet网络层的输出;其中,N为经过HHA编码处理后的深度数据的数量,第一全连接网络的维数为64×64,第二全连接网络的维数为64×128×1024,第三全连接网络的维数为512×256×128,第四全连接网络的维数为128×M,M为点云数据的类别数;
所述第一改进PointNet网络层、第二改进PointNet网络层、第三改进PointNet网络层和第四改进PointNet网络层的结构均相同。
作为本发明***的一种优选方案,所述BIM融合诊断模块的工作过程如下:
通过将所述三维重建模块得到的三维模型与所述语义分割模块得到的语义信息进行融合后,转换为点云文件,将点云文件导入到Revit软件中与设计阶段的BIM模型进行对比,实现三维语义信息和BIM模型的融合,提供建筑施工阶段与设计阶段之间的差异对比信息。
一种基于上述的基于BIM和深度学习的场景三维智能重建***的场景三维智能重建方法,所述场景三维智能重建方法包括如下步骤:
步骤1,采集建筑施工阶段的深度数据,并对所述深度数据进行预处理,将预处理后的深度数据转化为点云数据,对深度数据进行HHA编码处理;
步骤2,对点云数据进行补全,并根据补全后的点云数据进行三维重建,得到三维模型;
步骤3,利用改进后的PointNet++语义分割网络对经过HHA编码处理后的深度数据进行语义分割,并且标注语义信息;
步骤4,对步骤2得到的三维模型与步骤3得到的语义信息进行融合,并将融合得到的模型与建筑BIM模型进行对比,实现建筑施工阶段与设计阶段之间的差异对比。
一种计算机设备,包括存储器、处理器,以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述的场景三维智能重建方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述的场景三维智能重建方法的步骤。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
1、本发明通过提高三维重建和语义分割的效率,并将其与BIM模型集成起来,运用到施工管理,提升施工与验收阶段的信息化、实时性、可视化水平,以期建立适用于基于BIM和深度学习的场景三维智能重建***,加快智能建造与建筑工业化协同发展。
2、本发明克服了现有技术中对建筑三维重建和语义分割效率及精度不高的问题,使三维重建和语义分割更加方便、及时,同时创新的采用RGB-D传感器进行数据采集,具有效率高、精度适中、成本低的特点,并且通过深度神经网络算法对深度数据补全,进一步地提高后续三维重建的精度。本发明能应用于建筑竣工对比,可以很好的比较设计阶段和施工阶段的建筑之间的差异。
3、本发明重新采用基于BundleFusion的三维重建方法,主要对点云配准、点云融合阶段的算法进行了研究和改进,其余阶段参照KinectFusion中所用方法。该方法可以扩展原始的重建范围,实现设备扫描视野范围内追踪定位相机姿态,提高相机跟踪稳定性,因此能更好地适应实际工程建模需求。
附图说明
图1是本发明一种基于BIM和深度学习的场景三维智能重建***的架构图;
图2是本发明一种基于BIM和深度学习的场景三维智能重建***的流程示意图;
图3是改进后的PointNet++语义分割网络的结构图;
图4是引入了注意力机制的PointNet网络结构图;
图5是注意力机制模块的结构图。
具体实施方式
下面详细描述本发明的实施方式,所述实施方式的示例在附图中示出。下面通过参考附图描述的实施方式是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
如图1、图2所示,本发明提出一种基于BIM和深度学习的场景三维智能重建***,该***包括深度数据采集与处理模块、三维重建模块、语义分割模块和BIM融合诊断模块;其中:
深度数据采集与处理模块通过RGBD传感器收集深度数据,并且通过算法进行数据处理,实现对深度数据的采集与处理;
三维重建模块是基于深度数据采集与处理模块采集到的数据来进行的三维重建模块,先通过点云补全的神经网络将采集到的深度信息进行丰富,再通过BundleFunsion,完成深度信息的三维重建过程,同时渲染出三维模型;
语义分割模块是对原有的PointNet++神经网络进行改进,通过引入注意力机制,进一步的提高网络分割的准确率,再根据深度数据采集与处理模块采集到的数据进行训练,对深度信息进行语义分割,并且标注语义信息,划分出各个构件的信息;
BIM融合诊断模块是通过将三维重建模块的三维模型与语义分割模块的语义信息进行融合,并且将其与设计阶段的BIM模型进行对比,实现模型的融合,提供了施工进度管理和竣工对比***的技术方案。
深度数据采集与处理模块通过RGB-D传感器采集深度图像数据,然后进行数据的处理,实现深度数据的采集,采集与处理的方法如下:
步骤(1),RGB-D相机进行内外参数的标定,标定结果的精度及算法的稳定性直接影响RGB-D相机工作产生结果的准确性;
步骤(2),通过标定好的RGB-D相机进行RGB数据与深度数据的采集;
步骤(3),将采集到的数据进行数据滤波和转化成点云数据;
步骤(4),将深度数据进行HHA编码处理为后续的语义分割模块做好准备。
三维重建模块是利用深度数据采集与处理模块采集到的数据进行三维重建。该模块主要对点云配准、点云融合阶段的算法进行了研究和改进。该模块可以扩展原始的重建范围,实现设备扫描视野范围内追踪定位相机姿态,提高相机跟踪稳定性,因此能更好地适应实际工程建模需求。三维重建模块主要采用BundleFusion方法,该方法的核心是一种鲁棒姿态估计策略,通过考虑RGB-D输入的完整扫描图像,采用一种高效的层次化方法,在稀疏特征和稠密对应的基础上,对不断变化的姿态估计流进行监测,通过动态积分和去积分对重建进行更新对全局相机姿态集的每帧进行优化,实现全局配准问题的实时解决,达到三维重建的目的。
语义分割模块是对原有的PointNet++网络进行改进,PointNet++网络对于局部特征的提取是使用PointNet网络进行提取,本发明通过使用引入了注意力机制的PointNet对PointNet++进行改进,提高语义分割的准确率。将深度数据采集与处理模块采集到的数据进行训练,得出语义分割的结果。最后通过特征点匹配的方式,将语义分割的结果标注在三维重建的模型中。直观的反映出场景中各位物体的分割结果。
具体来说,语义分割模块是对原有的PointNet++网络进行改进,如图3所示,PointNet++网络对于局部特征的提取是使用PointNet网络进行提取,本发明通过使用引入了注意力机制的PointNet对PointNet++进行改进,提高语义分割的准确率,具体来说,如图4所示,PointNet对于每一个N×3的点云输入,网络先通过一个T-Net将其在空间上对齐(旋转到正面),再通过MLP将其映射到64维的高维空间上,再64维空间再进行对齐,使其通过如图5所示的注意力机制模块,最后映射到1024维的空间上。再将64维的局部特征和1024维的全局特征结合起来,组成1088维空间,进行另外一个MLP的变化,最后把它每个点分类成M类,相当于输出M个score得出语义分割的结果。其中注意力机制模块沿着特征通道数N维度,同样使用平均池化和最大池化对点云输入特征进行特征聚合,生成不同角度的特征表述符,然后采用MLP对点云特征进行精炼,使用共享参数的双隐藏层MLP对聚合特征进行训练,生成注意力权重。
BIM融合诊断模块是通过将三维重建的模型与语义分割的结果进行融合后,转换为点云文件,将其导入到Revit软件中与BIM模型进行对比,实现三维语义信息和BIM模型的融合,提供施工进度管理和竣工对比***的技术方案。
基于同一发明构思,本发明还提出一种基于BIM和深度学习的场景三维智能重建方法,包括如下步骤:
步骤1,采集建筑施工阶段的深度数据,并对深度数据进行预处理,将预处理后的深度数据转化为点云数据,对深度数据进行HHA编码处理;
步骤2,对点云数据进行补全,并根据补全后的点云数据进行三维重建,得到三维模型;
步骤3,利用改进后的PointNet++语义分割网络对经过HHA编码处理后的深度数据进行语义分割,并且标注语义信息;
步骤4,对步骤2得到的三维模型与步骤3得到的语义信息进行融合,并将融合得到的模型与建筑BIM模型进行对比,实现建筑施工阶段与设计阶段之间的差异对比。
基于同一发明构思,本申请实施例提供一种计算机设备,包括存储器、处理器,以及存储在存储器中并可在所述处理器上运行的计算机程序,处理器执行计算机程序时实现上述的场景三维智能重建方法的步骤。
基于同一发明构思,本申请实施例提供一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现上述的场景三维智能重建方法的步骤。
以上实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。
Claims (8)
1.一种基于BIM和深度学习的场景三维智能重建***,其特征在于,所述***包括深度数据采集与处理模块、三维重建模块、语义分割模块和BIM融合诊断模块;
所述深度数据采集与处理模块用于采集建筑施工阶段的深度数据,并对所述深度数据进行预处理,将预处理后的深度数据转化为点云数据,同时对深度数据进行HHA编码处理;
所述三维重建模块用于对点云数据进行补全,并根据补全后的点云数据进行三维重建,得到三维模型;
所述语义分割模块用于利用改进后的PointNet++语义分割网络对经过HHA编码处理后的深度数据进行语义分割,并且标注语义信息;
所述BIM融合诊断模块用于对所述三维重建模块得到的三维模型与所述语义分割模块得到的语义信息进行融合,并将融合得到的模型与建筑BIM模型进行对比,实现建筑施工阶段与设计阶段之间的差异对比。
2.根据权利要求1所述的基于BIM和深度学习的场景三维智能重建***,其特征在于,所述深度数据采集与处理模块包括RGB-D传感器、预处理单元、点云转化单元和HHA编码处理单元;
所述深度数据采集与处理模块的工作过程如下:
1)对RGB-D传感器进行内外参数的标定,通过标定好的RGB-D传感器采集建筑施工阶段的深度数据;
2)利用预处理单元对采集的深度数据进行滤波处理;
3)利用点云转化单元将滤波处理后的深度数据转化为点云数据,为所述三维重建模块做好准备;
4)利用HHA编码处理单元对深度数据进行HHA编码处理,为所述语义分割模块做好准备。
3.根据权利要求1所述的基于BIM和深度学习的场景三维智能重建***,其特征在于,所述三维重建模块的工作过程如下:
先通过点云补全的神经网络对点云数据进行补全,再通过BundleFunsion方法对补全后的点云数据进行三维重建,得到三维模型。
4.根据权利要求1所述的基于BIM和深度学习的场景三维智能重建***,其特征在于,所述改进后的PointNet++语义分割网络包括依次连接的第一采样和分组层、第一改进PointNet网络层、第二采样和分组层、第二改进PointNet网络层、第一反向插值层、第三改进PointNet网络层、第二反向插值层、第四改进PointNet网络层以及输出层,所述第一采样和分组层的输出和第二反向插值层的输出作为第四改进PointNet网络层的输入,所述第二采样和分组层的输出和第一反向插值层的输出作为第三改进PointNet网络层的输入;
所述第一改进PointNet网络层包括依次连接的空间对齐层、第一全连接网络、特征对齐层、注意力机制模块、第二全连接网络、最大池化层、第三全连接网络、第四全连接网络以及输出层;所述第一改进PointNet网络层对于N×3的点云输入,先通过空间对齐层将其在空间上对齐后,再通过第一全连接网络映射到64维的高维空间上,再经过特征对齐层进行对齐后,得到64维的局部特征,64维的局部特征通过注意力机制模块、第二全连接网络和最大池化层后得到1024维的全局特征,将64维的局部特征和1024维的全局特征合并起来,组成1088维空间,再依次通过第三全连接网络和第四全连接网络,得到第一改进PointNet网络层的输出;其中,N为经过HHA编码处理后的深度数据的数量,第一全连接网络的维数为64×64,第二全连接网络的维数为64×128×1024,第三全连接网络的维数为512×256×128,第四全连接网络的维数为128×M,M为点云数据的类别数;
所述第一改进PointNet网络层、第二改进PointNet网络层、第三改进PointNet网络层和第四改进PointNet网络层的结构均相同。
5.根据权利要求1所述的基于BIM和深度学习的场景三维智能重建***,其特征在于,所述BIM融合诊断模块的工作过程如下:
通过将所述三维重建模块得到的三维模型与所述语义分割模块得到的语义信息进行融合后,转换为点云文件,将点云文件导入到Revit软件中与设计阶段的BIM模型进行对比,实现三维语义信息和BIM模型的融合,提供建筑施工阶段与设计阶段之间的差异对比信息。
6.一种基于权利要求1-5任一项所述的基于BIM和深度学习的场景三维智能重建***的场景三维智能重建方法,其特征在于,所述场景三维智能重建方法包括如下步骤:
步骤1,采集建筑施工阶段的深度数据,并对所述深度数据进行预处理,将预处理后的深度数据转化为点云数据,对深度数据进行HHA编码处理;
步骤2,对点云数据进行补全,并根据补全后的点云数据进行三维重建,得到三维模型;
步骤3,利用改进后的PointNet++语义分割网络对经过HHA编码处理后的深度数据进行语义分割,并且标注语义信息;
步骤4,对步骤2得到的三维模型与步骤3得到的语义信息进行融合,并将融合得到的模型与建筑BIM模型进行对比,实现建筑施工阶段与设计阶段之间的差异对比。
7.一种计算机设备,包括存储器、处理器,以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求6所述的场景三维智能重建方法的步骤。
8.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求6所述的场景三维智能重建方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210734738.5A CN115147545A (zh) | 2022-06-27 | 2022-06-27 | 一种基于bim和深度学习的场景三维智能重建***及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210734738.5A CN115147545A (zh) | 2022-06-27 | 2022-06-27 | 一种基于bim和深度学习的场景三维智能重建***及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115147545A true CN115147545A (zh) | 2022-10-04 |
Family
ID=83408311
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210734738.5A Pending CN115147545A (zh) | 2022-06-27 | 2022-06-27 | 一种基于bim和深度学习的场景三维智能重建***及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115147545A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115994405A (zh) * | 2023-03-24 | 2023-04-21 | 湖北中图勘测规划设计有限公司 | 基于bim技术的城市信息管理平台构建方法 |
CN116561879A (zh) * | 2023-07-12 | 2023-08-08 | 中铁水利信息科技有限公司 | 基于bim的水利工程信息管理***及其方法 |
CN116704137A (zh) * | 2023-07-27 | 2023-09-05 | 山东科技大学 | 一种海上石油钻井平台点云深度学习逆向建模方法 |
CN117523134A (zh) * | 2023-09-22 | 2024-02-06 | 南京林业大学 | 基于结构感知点云语义分割的三维建筑物模型简化方法 |
CN118229244A (zh) * | 2024-05-27 | 2024-06-21 | 山东商业职业技术学院 | 数字技术生产服务产教融合实训基地建设项目管理方法及*** |
-
2022
- 2022-06-27 CN CN202210734738.5A patent/CN115147545A/zh active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115994405A (zh) * | 2023-03-24 | 2023-04-21 | 湖北中图勘测规划设计有限公司 | 基于bim技术的城市信息管理平台构建方法 |
CN116561879A (zh) * | 2023-07-12 | 2023-08-08 | 中铁水利信息科技有限公司 | 基于bim的水利工程信息管理***及其方法 |
CN116704137A (zh) * | 2023-07-27 | 2023-09-05 | 山东科技大学 | 一种海上石油钻井平台点云深度学习逆向建模方法 |
CN116704137B (zh) * | 2023-07-27 | 2023-10-24 | 山东科技大学 | 一种海上石油钻井平台点云深度学习逆向建模方法 |
CN117523134A (zh) * | 2023-09-22 | 2024-02-06 | 南京林业大学 | 基于结构感知点云语义分割的三维建筑物模型简化方法 |
CN117523134B (zh) * | 2023-09-22 | 2024-07-12 | 南京林业大学 | 基于结构感知点云语义分割的三维建筑物模型简化方法 |
CN118229244A (zh) * | 2024-05-27 | 2024-06-21 | 山东商业职业技术学院 | 数字技术生产服务产教融合实训基地建设项目管理方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115147545A (zh) | 一种基于bim和深度学习的场景三维智能重建***及方法 | |
CN108921926B (zh) | 一种基于单张图像的端到端三维人脸重建方法 | |
CN109165680B (zh) | 基于视觉slam的室内场景下单一目标物体字典模型改进方法 | |
CN111968217B (zh) | 基于图片的smpl参数预测以及人体模型生成方法 | |
CN100543775C (zh) | 基于多目相机的三维人体运动跟踪的方法 | |
CN110264416A (zh) | 稀疏点云分割方法及装置 | |
CN106296812A (zh) | 同步定位与建图方法 | |
CN110570522B (zh) | 一种多视图三维重建方法 | |
CN109815847B (zh) | 一种基于语义约束的视觉slam方法 | |
CN113012122B (zh) | 一种类别级6d位姿与尺寸估计方法及装置 | |
CN110223382B (zh) | 基于深度学习的单帧图像自由视点三维模型重建方法 | |
CN111028335B (zh) | 一种基于深度学习的点云数据的分块面片重建方法 | |
CN117274388B (zh) | 基于视觉文本关系对齐的无监督三维视觉定位方法及*** | |
CN116778288A (zh) | 一种多模态融合目标检测***及方法 | |
CN115457539A (zh) | 一种基于多传感器的3d目标检测算法 | |
CN115032648A (zh) | 一种基于激光雷达密集点云的三维目标识别与定位方法 | |
CN115496862A (zh) | 基于spin模型的实时三维重建方法和*** | |
CN114708475A (zh) | 一种用于3d场景理解的点云多模态特征融合网络方法 | |
CN114638866A (zh) | 一种基于局部特征学习的点云配准方法及*** | |
CN117711066A (zh) | 一种三维人体姿态估计方法、装置、设备及介质 | |
CN113569849A (zh) | 基于计算机视觉的汽车充电桩界面检测智能交互*** | |
CN113593007B (zh) | 一种基于变分自编码的单视图三维点云重建方法及*** | |
CN114255328A (zh) | 一种基于单视图与深度学习的古文物三维重建方法 | |
CN114283258A (zh) | 一种基于cnn的单幅图像生成三维点云的方法 | |
Liu et al. | 3D point cloud construction and display based on LiDAR |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |