CN111899291A - 基于多源维度分解的城市点云从粗到精的自动配准方法 - Google Patents
基于多源维度分解的城市点云从粗到精的自动配准方法 Download PDFInfo
- Publication number
- CN111899291A CN111899291A CN202010778539.5A CN202010778539A CN111899291A CN 111899291 A CN111899291 A CN 111899291A CN 202010778539 A CN202010778539 A CN 202010778539A CN 111899291 A CN111899291 A CN 111899291A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- scene
- point
- registration
- straight line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000000354 decomposition reaction Methods 0.000 title claims abstract description 20
- 238000013519 translation Methods 0.000 claims description 28
- 239000013598 vector Substances 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 5
- 150000001875 compounds Chemical class 0.000 claims description 4
- 238000009434 installation Methods 0.000 claims description 4
- 238000007634 remodeling Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 3
- 238000007689 inspection Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- XOOUIPVCVHRTMJ-UHFFFAOYSA-L zinc stearate Chemical compound [Zn+2].CCCCCCCCCCCCCCCCCC([O-])=O.CCCCCCCCCCCCCCCCCC([O-])=O XOOUIPVCVHRTMJ-UHFFFAOYSA-L 0.000 claims description 3
- 238000011161 development Methods 0.000 abstract description 5
- 230000009286 beneficial effect Effects 0.000 abstract description 4
- 238000000605 extraction Methods 0.000 abstract description 4
- 239000000463 material Substances 0.000 abstract description 4
- 238000013499 data model Methods 0.000 abstract description 3
- 230000003993 interaction Effects 0.000 abstract description 3
- 238000004519 manufacturing process Methods 0.000 abstract description 3
- 230000009467 reduction Effects 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 8
- 230000018109 developmental process Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 229910000831 Steel Inorganic materials 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000000265 homogenisation Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000010959 steel Substances 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000013011 mating Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/344—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2518—Projection by scanning of the object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明涉及一种基于多源维度分解的城市点云从粗到精的自动配准方法,结合城市场景扫描对象特点和地面扫描仪器工作特点,提出了维度分解方法,并在其支撑下实现数据维度和参数维度同时缩减、特征的高效辨识与提取、迭代求解的高效收敛,进而突破当前大规模城市点云场景配准中配准精度与速度的瓶颈;该方法充分利用了点云对场景三维结构化重塑的能力,顾及问题的具体属性,提出了面向对象的配准方案,为点云配准问题的发展提供了新思路;同时,该方法无需人工对场景进行标识,无需提供先验的初始解算值,也无需后续的人机交互选点,是一套从原始数据输入到获取三维精细化点云数据模型的全自动方法,有助于在实际生产中降低时间、人力、物力的开销。
Description
技术领域
本发明涉及计算机视觉技术领域,具体地说是一种基于多源维度分解的城市点云从粗到精的自动配准方法。
背景技术
数字城市的发展离不开三维土地空间管理、表达和可视化等虚拟城市环境构建技术。该技术是全面支撑城市信息感知与互联、以及VR/AR等“数字化”应用的基础,因此大规模、精细化、富语义信息的三维城市模型已经成为智慧城市建设的必要条件。点云数据因其相对于传统测量数据所特有的优势,即数据量丰富并可直接获取扫描物体的三维空间坐标等,已经成为空间数据处理的标准化数据类型。因此,点云数据的处理成为摄影测量、计算机视觉、计算机图形学以及机器人学等领域的研究热点,并获得了丰富的研究成果。
随着三维数字化城市的发展,近年来多源点云配准研究得到了广泛的关注。传统的方法在处理当前大规模多源多尺度复杂结构点云时会遇到不同程度的问题,例如特征点提取复现率低辨识度差,以及特征描述时人为认知干预的局限性等,这些都将对三维点云融合配准以及随后的三维模型重建造成负面影响。
目前较多的点云匹配方法存在如下问题:缺乏针对性,更多追求问题处理的泛化性,现有商业软件对于任意位置下的点云配准还主要基于手工选点(包括人工识别靶标,并建立序列)的方式完成,需要大量人工参与,处理效率低下,成本高;当前可用于点云采集的传感器较多,场景也较为丰富(例如,室内,城市,森林等),但缺乏针对性,在效率和精度上都存在瓶颈。
因此,提供一种面向对象的点云自动配准方法,以突破当前大规模城市点云场景配准中配准精度与速度的瓶颈问题。
发明内容
有鉴于此,本申请的目的在于提供一种基于多源维度分解的城市点云从粗到精的自动配准方法,以提高当前大规模城市点云融合配准和三维重建的效率,提高配准精度,降低人力、物力成本。
为了达到上述目的,本申请提供如下技术方案。
基于多源维度分解的城市点云从粗到精的自动配准方法,包括以下步骤:
101、对城市场景进行地面扫描,采集点云数据,相邻两个站点的扫描需存在人造建筑物重叠部分;
102、对原始点云数据进行预处理,剔除点云数据中的噪声点,将空间三维点云数据垂直投影到一个法方向为天顶方向的平面上,设置点云密度阈值ρ0,并利用该阈值对投影后的二维平面点云进行建筑侧立面的提取;
103、实现侧立面投影点云在二维平面上的直线探测与分割,并利用配对直线段实现κ参数与水平平移参数(x,y)方向的求解,实现场景二维配准;
104、利用地面点重叠部分,快速计算高差;随机获取N个地面对应区域后,求得高差的均值作为垂直方向平移值Δz;
105、针对步骤103获得的候选集合的每一组解,都完成步骤104操作,并利用场景随机子集做最近点测试检验,选取满足条件的最优解作为最终的解,两个相邻的点云场景就完成了粗配准;
106、结合建筑物上富含大量的面信息,将以面为基元实现精配准,获得场景精细化配准结果。
优选地,所述步骤101中对城市场景进行地面扫描包括地面激光扫描仪和移动激光测量车。
优选地,所述地面激光扫描仪,通过三脚架架设支撑,并对三脚架进行整平操作,其倾斜角的影响在场景粗配准中可以忽略。
优选地,所述移动激光测量车,激光镜头的安装角度在整个扫描作业中是固定不变的,通过硬件信息实现点云的整体变换。
优选地,所述步骤103具体如下:
利用采样一致性方法(RANSAC)在平面点云中提取直线信息,并最终实现利用直线对二维场景的重塑;
在场景A中随机提取两条并不平行的直线段na和ma,随后在场景B中查找与之匹配的直线段nb和mb,并组成配对直线对{na,nb}和{ma,mb};
在获得两组配对直线段后,求解旋转角κ,使na//nb的同时满足ma//mb,完成旋转后,求得pa和pb之间的欧式距离,即da,并进一步将其分解到x和y方向上得到平移参数中水平平移,即Δx和Δy;根据RANSAC求解平台的理论支撑,可以获得一个最大求解次数K;
在解算过程中,对于每一组符合条件的直线配对集,获得一组解,即{κ,Δx,Δy}i;利用每一组解,将A场景内的二维直线段,旋转平移到B场景中;旋转后对于A场景内的任意一条直线段l'a在B场景内寻找与之平行的直线段,并且该直线段与l'a的距离应小于一个距离阈值;每寻找到满足条件的配对直线,将对其进行量化评分,将所有配对直线的得分相加,即获得该组解的得分,将得分前α的解,记录下来,作为最终解的候选集合,对于每一组解,用其对应的所有直线段对进行优化。
优选地,判定其为配对直线对,需满足如下条件:对应线段的长度差值不应大于给定距离阈值;两两直线段所成角度之差不应大于给定角度阈值;对应直线段的三维侧立面高差不应大于给定高度阈值;na和ma所得到的交点pa,与nb和mb所得到的交点pb的欧式距离与实际两个测站位相关,不应该大于给定的距离阈值。
优选地,所述步骤104具体如下:利用圆柱体搜索点的邻域,在同一圆柱体下,点q'A对应点云A'内获得邻域N'qA(上标标识旋转后),在该邻域的约束下,可以在点云B内获得点云域NqB,若无对应的NqB,则此处不满足条件。
优选地,对于点q'A,N'qA和NqB,有如下条件:q'A应小于扫描架设的先验高度;N'qA与NqB均具备一定平整度,并且法向量方向差值小于2°,且与天顶方向偏差小于10°;N'qA与NqB在Z方向上无联系点;满足以上条件,N'qA和NqB将被标记为地面对应区域。
优选地,所述步骤106实现精配准,具体如下:
利用基于法向量方向的点到点关系,获得q'A在点云B中的对应点qB,以点q'A和点qB为中心,在各自的点云中获取足够小的邻域,认为是一个极小的面;
在场景内随机获取N个极小面,并计算其对应的法方向,将所有的法方向指向场景中心点,并按方向投影到三维的高斯球体上,获得极小面的法方向分布,基于此利用均匀采样技术在保证法方向数据多样性的同时实现均匀化;
先通过求解目标函数得到定姿旋转参数,旋转参数被固定,再通过求解目标函数得到平移参数,平移参数的求解即为对应面间的距离达到最小;
当迭代再次收敛后,即可以获得两个场景的精配准重建结果。
式中,N'qA为点q'A对应点云A'内获得邻域,NqB为点云B内获得点云域。
本发明所获得的有益技术效果:
1)本发明充分利用了点云对场景三维结构化重塑的能力,以及顾及问题的具体属性,提出了面向对象的配准方案,为点云配准问题的发展提供了新思路。具体而言,结合城市场景扫描对象的特点和地面激光扫描仪器(包括移动测量***)工作的特点,提出了多源维度分解方法,并在其支撑下实现数据维度和参数维度同时约减、特征的高效辨识与提取、以及迭代求解的高效收敛,进而突破当前大规模城市点云场景配准中配准精度与速度的瓶颈问题;
2)本发明无需人工对场景进行标识,无需提供先验的初始解算值,也无需后续的人机交互选点,是一套从原始数据输入到获取三维精细点云数据模型的全自动方法,有助于在实际生产中降低时间、人力、物力的开销;
3)本发明在降低数据维度的同时也缩小参数搜索空间,将粗配准问题从传统钢体变换6参数求解三维空间匹配问题,约减到1+3参数独立求解二维空间和一维空间匹配问题,进而显著提高解算的效率;
4)本发明基于城市建筑物是城市场景的主要目标,并且地面点云数据对于建筑物侧立面的描述非常丰富,提出了提取建筑物侧立面二维线条的概念,将数据空间从三维转到缩减二维,显著提高搜索效率;并且在精确配准过程中,同样根据建筑的固有特点,提出极小面的配准模式,并进一步提出了将方向量投影到三维高斯球体,进而在保证方向多样性的同时实现转换在各个方向的均匀化;以上基于建筑物的特征表达与描述提高了方法解算中配对信息建立的稳定性。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,从而可依照说明书的内容予以实施,并且为了让本申请的上述和其他目的、特征和优点能够更明显易懂,以下以本申请的较佳实施例并配合附图详细说明如后。
根据下文结合附图对本申请具体实施例的详细描述,本领域技术人员将会更加明了本申请的上述及其他目的、优点和特征。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在所有附图中,类似的元件或部分一般由类似的附图标记标识。附图中,各元件或部分并不一定按照实际的比例绘制。
图1是本公开了一种实施例中基于多源维度分解的城市点云从粗到精的自动配准方法的流程图;
图2是本公开了一种实施例中地面激光扫描仪的正确架设示意图;
图3是本公开了一种实施例中邻域N'qA和点云域NqB的位置示意图;
图4是本公开了一种实施例中原始点云数据未配准时俯视图;
图5是本公开了一种实施例中获得的点云场景配准三维效果图;
图6是本公开了一种实施例中获得的点云场景配准三维效果细节图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。
此外,本申请可以在不同例子中重复参考数字和/或字母。这种重复是为了简化和清楚的目的,其本身并不指示所讨论各种实施例和/或设置之间的关系。
还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含。
实施例1
如附图1所示,一种基于多源维度分解的城市点云从粗到精的自动配准方法,包括相邻点云场景输入、点云去噪、粗配准、精配准、获得三维点云场景配准结果。
其中,粗配准包括投影至二维平面、基于点云密度直线提取、直线段配对、获得本地最优解集合、求解高差偏移量;精配准包括对应点生产对应极小面、极小面法方向筛查、场景精确定姿、场景精确求解平移参数。
具体操作,包括以下步骤:
101、对城市场景进行地面扫描,采集点云数据,相邻两个站点的扫描需存在人造建筑物重叠部分。
其中,对城市场景进行地面扫描包括地面激光扫描仪和移动激光测量车。
所述移动激光测量车,激光镜头的安装角度在整个扫描作业中是固定不变的,通过硬件信息实现点云的整体变换,如:R·P,其中R是一个4×4的旋转矩阵,P是移动激光测量车所采集的原始点云。
在配准问题中,解决如下的钢体变换问题:
其中,r是由三个欧拉角,即组成的4×4的旋转矩阵,t是平移参数。结合前面所描述的扫描仪器架设特点,在粗配准问题中将未知参数的搜索空间从6参数(外方位元素:3个姿态参数,3个位置参数)降低到4参数(外方位元素:1个姿态参数,3个位置参数),即r(0,0,κ)。
102、对原始点云数据进行预处理,剔除点云数据中的噪声点,并将空间三维点云数据垂直投影到一个法方向为天顶方向的平面上,设置点云密度阈值ρ0,并利用该阈值对投影后的二维平面点云进行建筑侧立面的提取,其中,建筑侧立面的点云投影密度特征将非常显著。
噪声点和阈值设置:
对三维点云建立kd-Tree,利用K邻域技术查找每一个点的K个邻近点,例如点p的K(=20)邻域为Np,并同时获得对应的距离集合Dp={d1,d2…dk},若距离均值大于1米(根据实际情况调节,非强制性参数),认定该点为噪声。
去噪后,将点云投影至二维平面,建立二维kd-Tree,并对每一个点同样查找其K个邻近点,并计算距离均值记为点云密度值。对点云密度实现聚类,高密度区域被判断为侧立面投影点,并依据其值设定点云密度阈值ρ0。
103、在城市场景的扫描中,人造建筑物是场景内的主要对象,而地面扫描数据的特点是对建筑物侧立面实现详细的描绘,实现侧立面投影点云在二维平面上的直线探测与分割,并利用配对直线段实现κ参数与水平平移参数(x,y)方向的求解,实现场景二维配准。
具体如下:
利用采样一致性方法(RANSAC)在平面点云中提取直线信息,并最终实现利用直线对二维场景的重塑。
在场景A中随机提取两条并不平行的直线段na和ma,随后在场景B中查找与之匹配的直线段nb和mb,并组成配对直线对{na,nb}和{ma,mb}。
在查找并判断是否匹配时,需满足如下条件:对应线段的长度差值不应大于给定距离阈值;两两直线段所成角度之差不应大于给定角度阈值;对应直线段的三维侧立面高差不应大于给定高度阈值;na和ma所得到的交点pa,与nb和mb所得到的交点pb的欧式距离与实际两个测站位相关,不应该大于给定的距离阈值。在满足如上条件时,判定其为配对直线对。
在获得两组配对直线段后,求解旋转角κ,使na//nb的同时满足ma//mb,完成旋转后,求得pa和pb之间的欧式距离,即da,并进一步将其分解到x和y方向上得到平移参数中水平平移,即Δx和Δy;根据RANSAC求解平台的理论支撑,可以获得一个最大求解次数K。但是,本实施例所使用的直线段,是从建筑物侧立面投影所获得,在一站点云数据中,直线段的数量是非常有限的(<100),并且通过对直线段显著性(即保留大于一定长度的直线段)判断,可以进一步缩减数据搜索维度,因此,可以快速设置K为直线段数量的全组合,即其中h为直线段数目。
在解算过程中,对于每一组符合条件的直线配对集,获得一组解,即{κ,Δx,Δy}i;利用每一组解,将A场景内的二维直线段,旋转平移到B场景中;旋转后对于A场景内的任意一条直线段l'a(上标标识旋转后)在B场景内寻找与之平行的直线段,并且该直线段与l'a的距离应小于一个距离阈值(该距离阈值为二维匹配的精度控制,一般可以设置为2cm,同时考虑到测量中误差的存在,平行关系的量化可以认为是两直线段夹角小于2度);每寻找到满足条件的配对直线,将对其进行量化评分,将所有配对直线的得分相加,即获得该组解的得分,记为si(>0),将得分前α(=3~5建议)的解,记录下来,作为最终解的候选集合,对于每一组解,用其对应的所有直线段对进行优化。
104、完成步骤103后,场景已经实现了二维配准,返回到三维空间,此时场景的配准仅存在垂直方向的高差配准问题。针对地面激光数据存在大量的地面点云数据的事实,利用地面点重叠部分,快速计算高差;随机获取N个地面对应区域后,求得高差的均值作为垂直方向平移值Δz。
具体如下:利用圆柱体搜索点的邻域,在同一圆柱体下,点q'A对应点云A'内获得邻域N'qA(上标标识旋转后),在该邻域的约束下,可以在点云B内获得点云域NqB,若无对应的NqB,则此处不满足条件。
其中,对于点q'A,N'qA和NqB,有如下条件:q'A应小于扫描架设的先验高度;N'qA与NqB均具备一定平整度,并且法向量方向差值小于2°,且与天顶方向偏差小于10°;N'qA与NqB在Z方向上无联系点;如附图3所示,满足以上条件,N'qA和NqB将被标记为地面对应区域。随机获取N(>10)个地面对应区域后,求得高差的均值作为垂直方向平移值Δz。
105、针对步骤103获得的候选集合的每一组解,都完成步骤104操作,并利用场景随机子集做最近点测试检验,选取满足条件的最优解作为最终的解,两个相邻的点云场景就完成了粗配准。
106、将解算流程分为姿态对准和位置对准两个步骤,结合建筑物上富含大量的面信息,将以面为基元实现精配准,获得场景配准结果。
具体如下:
利用基于法向量方向的点到点关系,获得q'A在点云B中的对应点qB,以点q'A和点qB为中心,在各自的点云中获取足够小的邻域,认为是一个极小的面。
在场景内随机获取N(>50,建议)个极小面,并计算其对应的法方向,将所有的法方向指向场景中心点,并按方向投影到三维的高斯球体上,获得极小面的法方向分布。在高斯球体上对法方向做均匀采用,进而保证在定姿时每个方向的作用力一致。
先通过求解目标函数得到定姿旋转参数,在完成上述目标函数求解后,旋转参数被固定,再通过求解目标函数得到平移参数,平移参数的求解即为对应面间的距离达到最小。
式中,N'qA为点q'A对应点云A'内获得邻域,NqB为点云B内获得点云域。
为了保证平移参数不会陷入局部最小的问题,提出在极小面的选取上,应该尽量满足法方向的多样性。
当迭代再次收敛后,即可以获得两个场景的精配准重建结果。
如附图4所示,结合城市场景扫描对象特点和地面扫描仪器工作特点,采集的原始点云数据未配准时俯视图;采用本实施例中基于多源维度分解的城市点云从粗到精的自动配准方法,获得的点云场景配准三维效果图,如附图5所示,获得的点云场景配准三维效果细节图,如附图6所示。
由附图5和附图6可知,点云配准的准确性高,最终配准效果好,配准后的三维效果图更接近实际场景。上述基于多源维度分解的城市点云从粗到精的自动配准方法,充分利用了点云对场景三维结构化重塑的能力,以及顾及问题的具体属性,提出了面向对象的配准方案,为点云配准问题的发展提供了新思路。具体而言,结合城市场景扫描对象的特点和地面激光扫描仪器(包括移动测量***)工作的特点,提出了多源维度分解方法,并在其支撑下实现数据维度和参数维度同时约减、特征的高效辨识与提取、以及迭代求解的高效收敛,进而突破当前大规模城市点云场景配准中配准精度与速度的瓶颈问题。
上述基于多源维度分解的城市点云从粗到精的自动配准方法,无需人工对场景进行标识,无需提供先验的初始解算值,也无需后续的人机交互选点,是一套从原始数据输入到获取三维精细点云数据模型的全自动方法,有助于在实际生产中降低时间、人力、物力的开销。
以上所述仅为本发明的优选实施例而已,其并非因此限制本发明的保护范围,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,通过常规的替代或者能够实现相同的功能在不脱离本发明的原理和精神的情况下对这些实施例进行变化、修改、替换、整合和参数变更均落入本发明的保护范围内。
Claims (10)
1.一种基于多源维度分解的城市点云从粗到精的自动配准方法,其特征在于,包括以下步骤:
101、对城市场景进行地面扫描,采集点云数据,相邻两个站点的扫描需存在人造建筑物重叠部分;
102、对原始点云数据进行预处理,剔除点云数据中的噪声点,并将空间三维点云数据垂直投影到一个法方向为天顶方向的平面上,设置点云密度阈值ρ0,并利用该阈值对投影后的二维平面点云进行建筑侧立面的提取;
103、实现侧立面投影点云在二维平面上的直线探测与分割,并利用配对直线段实现κ参数与水平平移参数(x,y)方向的求解,实现场景二维配准;
104、利用地面点重叠部分,快速计算高差;随机获取N个地面对应区域后,求得高差的均值作为垂直方向平移值Δz;
105、针对步骤103获得的候选集合的每一组解,都完成步骤104操作,并利用场景随机子集做最近点测试检验,选取满足条件的最优解作为最终的解,两个相邻的点云场景就完成了粗配准;
106、结合建筑物上富含大量的面信息,将以面为基元实现精配准,获得场景精细化配准结果。
2.根据权利要求1所述的基于多源维度分解的城市点云从粗到精的自动配准方法,其特征在于,所述步骤101中对城市场景进行地面扫描包括地面激光扫描仪和移动激光测量车。
3.根据权利要求2所述的基于多源维度分解的城市点云从粗到精的自动配准方法,其特征在于,所述地面激光扫描仪,通过三脚架架设支撑,并对三脚架进行整平操作,其倾斜角的影响在场景粗配准中可以忽略。
4.根据权利要求2所述的基于多源维度分解的城市点云从粗到精的自动配准方法,其特征在于,所述移动激光测量车,激光镜头的安装角度在整个扫描作业中是固定不变的,通过硬件信息实现点云的整体变换。
5.根据权利要求1所述的基于多源维度分解的城市点云从粗到精的自动配准方法,其特征在于,所述步骤103具体如下:
利用采样一致性方法(RANSAC)在平面点云中提取直线信息,并最终实现利用直线对二维场景的重塑;
在场景A中随机提取两条并不平行的直线段na和ma,随后在场景B中查找与之匹配的直线段nb和mb,并组成配对直线对{na,nb}和{ma,mb};
在获得两组配对直线段后,求解旋转角κ,使na//nd的同时满足ma//mb,完成旋转后,求得pa和pb之间的欧式距离,即da,并进一步将其分解到x和y方向上得到平移参数中水平平移,即Δx和Δy;根据RANSAC求解平台的理论支撑,可以获得一个最大求解次数K;
在解算过程中,对于每一组符合条件的直线配对集,获得一组解,即{κ,Δx,Δy}i;利用每一组解,将A场景内的二维直线段,旋转平移到B场景中;旋转后对于A场景内的任意一条直线段l'a在B场景内寻找与之平行的直线段,并且该直线段与l'a的距离应小于一个距离阈值;每寻找到满足条件的配对直线,将对其进行量化评分,将所有配对直线的得分相加,即获得该组解的得分,将得分前α的解,记录下来,作为最终解的候选集合,对于每一组解,用其对应的所有直线段对进行优化。
6.根据权利要求5所述的基于多源维度分解的城市点云从粗到精的自动配准方法,其特征在于,判定其为配对直线对,需满足如下条件:对应线段的长度差值不应大于给定距离阈值;两两直线段所成角度之差不应大于给定角度阈值;对应直线段的三维侧立面高差不应大于给定高度阈值;na和ma所得到的交点pa,与nb和mb所得到的交点pb的欧式距离与实际两个测站位相关,不应该大于给定的距离阈值。
9.根据权利要求1所述的基于多源维度分解的城市点云从粗到精的自动配准方法,其特征在于,所述步骤106实现精配准,具体如下:
利用基于法向量方向的点到点关系,获得q'A在点云B中的对应点qB,以点q'A和点qB为中心,在各自的点云中获取足够小的邻域,认为是一个极小的面;
在场景内随机获取N个极小面,并计算其对应的法方向,将所有的法方向指向场景中心点,并按方向投影到三维的高斯球体上,获得极小面的法方向分布;
先通过求解目标函数得到定姿旋转参数,旋转参数被固定,再通过求解目标函数得到平移参数,平移参数的求解即为对应面间的距离达到最小;
当迭代再次收敛后,即可以获得两个场景的精配准重建结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010778539.5A CN111899291A (zh) | 2020-08-05 | 2020-08-05 | 基于多源维度分解的城市点云从粗到精的自动配准方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010778539.5A CN111899291A (zh) | 2020-08-05 | 2020-08-05 | 基于多源维度分解的城市点云从粗到精的自动配准方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111899291A true CN111899291A (zh) | 2020-11-06 |
Family
ID=73247311
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010778539.5A Pending CN111899291A (zh) | 2020-08-05 | 2020-08-05 | 基于多源维度分解的城市点云从粗到精的自动配准方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111899291A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114399550A (zh) * | 2022-01-18 | 2022-04-26 | 中冶赛迪重庆信息技术有限公司 | 一种基于三维激光扫描的汽车鞍座提取方法及*** |
CN116740156A (zh) * | 2023-08-10 | 2023-09-12 | 西南交通大学 | 基于高斯球和主平面分布的任意位姿施工元件的配准方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090232388A1 (en) * | 2008-03-12 | 2009-09-17 | Harris Corporation | Registration of 3d point cloud data by creation of filtered density images |
CN103679741A (zh) * | 2013-12-30 | 2014-03-26 | 北京建筑大学 | 一种基于三维线特征的激光点云数据自动配准方法 |
CN104395932A (zh) * | 2012-06-29 | 2015-03-04 | 三菱电机株式会社 | 对准数据的方法 |
DE102016116572A1 (de) * | 2016-09-05 | 2018-03-08 | Navvis Gmbh | Ausrichtung von Punktwolken zur Modellierung von Innenräumen |
CN110009745A (zh) * | 2019-03-08 | 2019-07-12 | 浙江中海达空间信息技术有限公司 | 根据平面基元和模型驱动对点云提取平面的方法 |
CN110443836A (zh) * | 2019-06-24 | 2019-11-12 | 中国人民解放军战略支援部队信息工程大学 | 一种基于平面特征的点云数据自动配准方法及装置 |
US20200020116A1 (en) * | 2018-07-10 | 2020-01-16 | Raytheon Company | Synthetic image generation from 3d-point cloud |
US20200020072A1 (en) * | 2018-07-10 | 2020-01-16 | Raytheon Company | Multi-source image fusion |
-
2020
- 2020-08-05 CN CN202010778539.5A patent/CN111899291A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090232388A1 (en) * | 2008-03-12 | 2009-09-17 | Harris Corporation | Registration of 3d point cloud data by creation of filtered density images |
CN104395932A (zh) * | 2012-06-29 | 2015-03-04 | 三菱电机株式会社 | 对准数据的方法 |
CN103679741A (zh) * | 2013-12-30 | 2014-03-26 | 北京建筑大学 | 一种基于三维线特征的激光点云数据自动配准方法 |
DE102016116572A1 (de) * | 2016-09-05 | 2018-03-08 | Navvis Gmbh | Ausrichtung von Punktwolken zur Modellierung von Innenräumen |
US20200020116A1 (en) * | 2018-07-10 | 2020-01-16 | Raytheon Company | Synthetic image generation from 3d-point cloud |
US20200020072A1 (en) * | 2018-07-10 | 2020-01-16 | Raytheon Company | Multi-source image fusion |
CN110009745A (zh) * | 2019-03-08 | 2019-07-12 | 浙江中海达空间信息技术有限公司 | 根据平面基元和模型驱动对点云提取平面的方法 |
CN110443836A (zh) * | 2019-06-24 | 2019-11-12 | 中国人民解放军战略支援部队信息工程大学 | 一种基于平面特征的点云数据自动配准方法及装置 |
Non-Patent Citations (4)
Title |
---|
XIAOSHUI HUANG ET AL: "A Coarse-to-Fine Algorithm for Matching and Registration in 3D Cross-Source Point Cloud", 《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEM FOR VIDEO TECHNOLOGY》, vol. 28, no. 10, pages 2965 - 2977, XP011701924, DOI: 10.1109/TCSVT.2017.2730232 * |
孙成: "三维激光点云特征提取及配准算法改进", 《中国优秀硕士学位论文全文数据库基础科学辑》, no. 1, pages 1 - 65 * |
彭蹦 等: "一种多模式融合的激光点云配准算法", 《激光与红外》, vol. 50, no. 4, pages 396 - 402 * |
梁栋 等: "基于平面基元组的建筑物场景点云自动配准方法", 《武汉大学学报(信息科学版)》, vol. 41, no. 12, pages 1613 - 1618 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114399550A (zh) * | 2022-01-18 | 2022-04-26 | 中冶赛迪重庆信息技术有限公司 | 一种基于三维激光扫描的汽车鞍座提取方法及*** |
CN116740156A (zh) * | 2023-08-10 | 2023-09-12 | 西南交通大学 | 基于高斯球和主平面分布的任意位姿施工元件的配准方法 |
CN116740156B (zh) * | 2023-08-10 | 2023-11-03 | 西南交通大学 | 基于高斯球和主平面分布的任意位姿施工元件的配准方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021232463A1 (zh) | 多源移动测量点云数据空地一体化融合方法、存储介质 | |
KR102125959B1 (ko) | 포인트 클라우드 데이터 사이의 매칭 관계를 확정하는 방법 및 장치 | |
CN110570428B (zh) | 一种从大规模影像密集匹配点云分割建筑物屋顶面片的方法及*** | |
CN111882612B (zh) | 一种基于三维激光检测车道线的车辆多尺度定位方法 | |
CN105740798B (zh) | 一种基于结构分析的点云场景物体识别方法 | |
CN107092877B (zh) | 基于建筑物基底矢量的遥感影像屋顶轮廓提取方法 | |
CN110322511B (zh) | 一种基于物体和平面特征的语义slam方法和*** | |
CN111311650B (zh) | 一种点云数据的配准方法、装置及存储介质 | |
CN109631855A (zh) | 基于orb-slam的高精度车辆定位方法 | |
WO2018061010A1 (en) | Point cloud transforming in large-scale urban modelling | |
CN109919237B (zh) | 点云处理方法及装置 | |
CN112305559A (zh) | 基于地面定点激光雷达扫描的输电线距离测量方法、装置、***和电子设备 | |
CN111915517B (zh) | 适用于室内光照不利环境下rgb-d相机全局定位方法 | |
WO2023060632A1 (zh) | 基于点云数据的街景地物多维度提取方法和*** | |
CN116740288B (zh) | 一种融合激光雷达、倾斜摄影的三维重建方法 | |
CN111899291A (zh) | 基于多源维度分解的城市点云从粗到精的自动配准方法 | |
CN113012206B (zh) | 一种顾及房檐特征的机载与车载LiDAR点云配准方法 | |
CN114283250A (zh) | 高精度的三维点云地图自动拼接与优化方法及*** | |
Liu et al. | Image-translation-based road marking extraction from mobile laser point clouds | |
CN110246165B (zh) | 提高可见光图像与sar图像配准速度的方法及*** | |
CN116385420A (zh) | 区域尺寸的确定方法、***、设备及存储介质 | |
CN112070800A (zh) | 一种基于三维点云极化地图表征的智能车定位方法及*** | |
CN110927743A (zh) | 一种基于多线激光点云极化表征的智能车定位方法 | |
CN107610216B (zh) | 基于粒子群优化多视角立体点云生成方法及应用的摄像机 | |
CN116071530B (zh) | 一种基于机载激光点云的建筑物屋***化分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |