CN114463521A - 一种面向空地影像数据融合的建筑目标点云快速生成方法 - Google Patents
一种面向空地影像数据融合的建筑目标点云快速生成方法 Download PDFInfo
- Publication number
- CN114463521A CN114463521A CN202210012783.XA CN202210012783A CN114463521A CN 114463521 A CN114463521 A CN 114463521A CN 202210012783 A CN202210012783 A CN 202210012783A CN 114463521 A CN114463521 A CN 114463521A
- Authority
- CN
- China
- Prior art keywords
- seed
- point
- plane
- points
- patch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 89
- 230000004927 fusion Effects 0.000 title claims abstract description 20
- 230000008569 process Effects 0.000 claims abstract description 12
- 238000003708 edge detection Methods 0.000 claims abstract description 10
- 238000012545 processing Methods 0.000 claims abstract description 6
- 238000004364 calculation method Methods 0.000 claims description 22
- 239000013598 vector Substances 0.000 claims description 18
- 238000012937 correction Methods 0.000 claims description 13
- 238000005457 optimization Methods 0.000 claims description 13
- 230000003287 optical effect Effects 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 241001632422 Radiola linoides Species 0.000 claims 1
- 238000001914 filtration Methods 0.000 abstract description 8
- 238000011160 research Methods 0.000 abstract description 2
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000007547 defect Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 241001632427 Radiola Species 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种面向空地影像数据融合的建筑目标点云快速生成方法,属于点云数据处理领域。本发明以城市场景中丰富的建筑平面特征为约束,研究并提出面向空地影像融合的高效可靠的密集匹配方法,引入边缘检测算子提升初始种子点数量、优化种子点分布,加入平面过滤方法滤除非平面种子点,并通过平面拟合纠正种子点的初始法方向,通过归一化互相关系数约束快速生成面片以提升建筑物平面区域密集点云生成效率,加速密集匹配过程提高空地影像数据融合的时间效率。
Description
技术领域
本发明属于点云数据处理领域,特别是涉及一种面向空地影像数据融合的建筑目标点云快速生成方法。
背景技术
城市地理信息数字化产物作为地理信息载体在智慧城市和数字城市建设中起着非常重要的作用,三维重建技术因此发展迅速。然而仅利用单一的从空中获取的数据进行三维重建时,由于遮挡和拍摄倾角过大等问题,靠近地面的部分容易出现扭曲和孔洞等几何缺陷以及纹理模糊,特别是在对建筑目标的立面进行重建时,这些问题尤为突出。而利用单一的地面数据进行三维重建,虽然可以获得纹理清晰,几何变形较小的近地面数据,然而其问题在于测量距离有限,无法获得目标的完整测量数据,例如无法获得建筑物的屋顶面数据等。由于航空数据与地面数据互为补充,联合空地数据进行三维重建将成为解决目前仅仅利用单一数据源进行三维重建时导致的目标不完整、细节信息缺失等问题的一种可行方法。
现有的多视密集匹配方法可以分为四类:基于体素的方法需要已知场景的包围盒,并且重建精度受体素网格的分辨率限制;基于深度图的方法需要估计所有图像的深度图,然后将它们融合成一个统一的三维场景表示,精度稍低;基于深度学习的方法需要使用大量数据训练深度神经网络的参数,然后直接基于影像预测出深度信息。该方法在弱纹理区域能够得到较好的结果,但极度依赖训练数据,当训练数据不足时重建质量会快速下降,并且该方法对硬件要求较高,目前仅适合用于处理较小分辨率的数据;基于面片的方法通过收集场景的面片来表示场景表面,重建模型完整性依赖关键点匹配情况。前三类方法都需要获取先验知识,这对大规模城市场景来说可行性较低,而最后基于面片的方法不依赖任何先验信息,且对异常点有一定的过滤能力,鲁棒性较好。根据middlebury基准数据集定性评价结果,基于面片的多视密集匹配算法(Patch-based Multi-View Stereo,PMVS)对于所有的六组数据均获得了较好的精度和完整性重建结果,算法性能出色。不足的是,使用PMVS算法进行重建耗时较长,这在一定程度上不利于其投入实际应用。针对PMVS算法这一不足,部分学者提出了改进办法,虽然时间效率取得不同程度提高,然而效率提升幅度有限,最高仅为10%左右,且并未对算法性能进行定量评价。
空地影像数据融合的关键在于获取空地影像在统一坐标***下的位姿参数,利用影像特征匹配的方式可以获取,然而现有的特征匹配算法适用的视角差异有限,不足以直接用于空地影像上的大视角特征匹配。利用影像生成的密集点云获得空地影像之间的位姿转换关系的方法实现空地影像的位姿参数统一是实现自动化空地影像数据融合的有效可行路径,但现有密集匹配点云生成方法效率较低,不利于实现快速的自动融合。
PMVS算法包含三个过程:初始特征匹配,面片扩展和面片过滤。首先通过Harris和DoG(difference-of-Gaussians)算子提取特征点进行特征匹配得到稀疏种子点,也称为初始面片。然后在初始面片周围扩展得到密集面片,在此阶段需要对新生成的每一个面片的位置和法方向进行优化。最后,过滤掉密集面片中的错误面片。然而该方法存在以下缺点:
1)DoG算子需要构建影像金字塔,主要提取斑点特征用于生成种子点,耗时较长,且生成的种子点多位于树叶、地面等非典型目标区域,意义不大。
2)现有的密集匹配方法采用逐点优化的方式生成点云,通过最小化影像光度差异值来得到最优种子点位置和法方向,该方法耗时且优化后的法方向容易陷入局部最优,并非真正的法线方向。
发明内容
针对现有技术的不足,本发明在PMVS的基础上做出改进,通过引入边缘检测算子提升建筑区域的特征显著性,利用角点算子提取角点特征,提升时间效率,且所获得的种子点基本位于建筑区域。在面片扩展之前,引入法方向纠正步骤,为后续法方向优化步骤提供相对正确的初值,同时通过平面约束减少位于平面上种子点的优化计算,减少算法的计算时间。
本发明以城市场景中丰富的建筑平面特征为约束,研究并提出面向空地影像融合的高效可靠的密集匹配方法,引入边缘检测算子提升初始种子点数量、优化种子点分布,加入平面过滤方法滤除非平面种子点,并通过平面拟合纠正种子点的初始法方向,通过归一化互相关系数约束快速生成面片以提升建筑物平面区域密集点云生成效率,加速密集匹配过程提高空地影像数据融合的时间效率。
为了达到上述目的,本发明提供的技术方案是,一种面向空地影像数据融合的建筑目标点云快速生成方法,包括以下步骤:
步骤1,首先将影像二值化,并提取角点特征,进而获得初始种子点;
步骤2,通过最大化种子面片对应影像窗口的归一化互相关系数平均值NCC来优化和调整初始种子点的位置和法方向,并采用平面拟合方式将初始种子点法方向纠正到垂直于平面的方向上,得到位于平面上的种子点集合,种子面片即为经过种子点且垂直于种子点法方向的平面;
步骤3,对于种子点集合中满足平面约束条件的种子点,在平面上扩展种子点时通过种子点所在的种子面片计算出相邻的扩展种子点的位置,将种子点的法方向赋值给新扩展的相邻种子点;对于不满足平面约束条件的种子点,按照PMVS方法扩展生成新的种子点,并将新扩展成功的种子点加入到种子点集合中,由此快速生成平面点云。
进一步的,步骤1中引入Canny边缘检测算子对原始影像进行二值化处理,并使用Harris算子提取角点特征,获得角点特征后,在每张影像的固定大小尺寸像素区域中选择多个响应值最大的Harris角点,所述像素区域即格网;
依次将每一张影像当做参考影像,将剩下的影像按照视角和距离进行优先级排序,选择优先级靠前的多张影像作为待匹配影像;
将参考影像格网中的每个特征点通过对极几何约束找到其在待匹配影像上的同名特征,通过三角测量计算这个特征点对应的空间三维点坐标,一旦该格网中有一个特征点的三维点坐标计算成功或者该格网中所有的特征点都计算完毕,则进入影像上的下一个格网,开始新的三维点坐标计算,直到影像上所有的格网都计算完毕;
所有影像都按照上述步骤操作,得到三维点云模型的初始种子点。
进一步的,步骤2中,NCC的具体计算方式如下;
初始种子点的位置通过对极几何约束下的三角化获得,种子面片的初始法线方向由种子点指向参考影像的光心,通过最大化种子面片对应影像窗口的归一化互相关系数平均值NCC来优化和调整初始种子点的位置和法方向,优化函数见公式(1);
式中:NCC表示种子点投影到可见影像上对应的相关窗口归一化互相关系数的平均值;V(p)表示种子点的可见影像集合;|V(p)|表示种子点的可见影像数目;R(p)表示种子点对应的参考影像;Ij表示种子点的可见影像;ncc(·)表示种子点的归一化互相关系数计算函数,见公式(2);
进一步的,步骤2中,将初始种子点法方向纠正到垂直于平面的方向上的具体实现方式如下,
对所有种子点构建kd树,首先,对每一个种子点qi在其较大邻域范围内搜索邻居点并设置严苛的平面拟合条件threshold1,|planar point|≥max(0.7*|neighbors|,5),得到种子点所在平面参数和新的法方向,对所有的邻域点进行平面拟合,所有的邻域点中会有一部分点位于平面上,这部分点用planar point表示,neighbors表示邻域点,||表示取数量;
根据新的法方向构建面片,计算面片的NCC,如果NCC大于一定阈值,认为新的法方向正确,将种子点的法方向纠正到正确的方向上;
接着,对已经纠正了法向量的每一个种子点qj搜索其邻域,找到距离该种子点法平面小于n个像素对应空间距离的邻居种子点,对每一个未纠正法方向的种子点neighborj,搜索其邻域并拟合平面得到该邻居点的新法方向;
最后剔除掉初始种子点集合中法方向始终未被纠正的种子点。
进一步的,步骤3中满足平面约束条件的种子点是指NCC大于某一阈值的点。
进一步的,步骤3的具体实现方式如下;
按照优先级取出种子点集合中已经通过法方向纠正的种子点,在该种子点的法平面上建立边长为M像素的面片并计算NCC,认为NCC大于某一阈值时,该种子点位于平面上,直接在该种子点的周围生成新的种子点,设置该种子点的法方向属性为已通过拟合纠正;
新的种子点的三维点坐标计算方法如下:
以面片中心为原点建立局部空间坐标系,x轴从面片中心出发,取面片对应参考影像的x轴方向,用ax表示,z轴取面片的法向量n(p),y轴从面片中心出发,取同时垂直于x轴和z轴的方向,用ay表示,将x轴和y轴向量归一化成物方空间中的单位向量,用ax′,ay′表示;其中ax′=(x1,y1,z1),ay′=(x2,y2,z2),xi,yi,zi表示向量在物方三维空间中的三个分量;
计算影像的空间分辨率,即单位像素对应到空间中的距离,计算公式见公式(3);
式中:d表示单位像素对应到面片平面上的空间距离;Z表示面片中心到相机光心的距离;f表示相机主距;
计算扩展生成的新三维点的坐标Pnew,计算公式见公式(4):
式中:Pnew=(xnew,ynew,znew)表示扩展生成的新面片中心点坐标;(x0,y0,z0)表示面片的中心点坐标;Δx,Δy取{-1,0,1},表示扩展面片中心点在面片上的平面坐标位移值步长;
由此在平面上快速扩展生成面片,对于在扩展过程中不属于平面上的点则继续通过PMVS方法进行逐点优化,设置新面片发方向为未通过拟合纠正;
按照以上方法不断扩展新的面片,直至种子点集合为空,扩展完毕。
进一步的,NCC的阈值取0.8。
与现有技术相比,本发明的优点和有益效果:
1)本发明考虑了建筑物在影像上呈现的几何特征,引入了边缘检测算子,改善了密集点云种子点的数量和分布情况,提升角点显著性。
2)本发明引入了点云法方向纠正步骤,能将生成的种子点法方向改正到正确的方向上,并通过平面约束,减少优化计算,提高面片扩展速度。
3)本发明提出改进的算法在取得与一众密集匹配算法相同效果的情况下,点云生成效率明显提升。
附图说明
图1为本发明方法流程图。
图2为本发明实施例中加入canny算子前后特征对比图,(a)(b)分别为原图和canny算子提取的边缘图;(c)(d)分别为区域1加入canny算子前后特征数量和分布对比;(e)(f)分别为区域2加入canny算子前后特征数量和分布对比。
图3为本发明实施例法方向纠正算法中的相关变量示意图,其中空心圆点表示第一批纠正法方向的种子点;空心方形点和实心方形点表示第二批纠正法方向的种子点。
图4为种子点过滤与法向量纠正,(a)(b)(c)为种子点纠正前的位置和法方向;(d)(e)(f)为种子点纠正后的位置和法方向。
图5为本实施例中的面片模型,(a)为面片模型示意图;(b)为PMVS算法的面片尺寸;(c)为本文面片尺寸。
具体实施方式
下面结合附图和实施例对本发明的技术方案作进一步说明。
为了获得空地点云的转换关系,并不需要对整个城市地区进行重建,考虑到建筑物作为城市地区的显著地理要素,可以将建筑物点云作为获得转换关系的驱动,通过配准建筑物的空地点云获得空地影像之间的转换关系,因此,对建筑物的快速可靠重建对提升整个联合建模过程的效率十分关键。本文根据城区建筑物呈现明显平面特征的特点,对基于面片的多视密集匹配算法进行改进,引入边缘检测算子提升初始种子点数量、优化种子点分布,加入平面过滤方法滤除非平面种子点,并通过平面拟合纠正种子点的初始法方向,通过归一化互相关系数约束快速生成面片以提升建筑物平面区域密集点云生成效率,加速密集匹配过程,为进一步利用点云进行空地影像融合提供可靠的数据基础。
本发明以影像作为输入,首先引入边缘检测算子将影像二值化,提升角点特征的显著性;生成种子点后,采用平面拟合方式将种子点法方向纠正到垂直于平面的方向上,为后续快速生成密集点云提供条件;最后通过平面约束快速生成平面点云,减少点云生成过程中的优化计算,提升密集点云生生成的时间效率,优化流程如图1所示。包括以下步骤:
步骤(1),首先引入边缘检测算子将影像二值化,并使用Harris算子提取角点特征,进而获得初始种子点
引入Canny边缘检测算子对原始影像进行二值化处理,并使用Harris算子提取角点特征。如图2所示,(a)为原始图像,(b)为使用Canny算子提取的边缘图像,从(c)(d)和(e)(f)两个区域的对比可以看出加入Canny算子后提取到的特征角点数量显著增加。
获得角点特征后,在每张影像的32*32个像素区域(下称影像格网)选择8个响应值最大的Harris角点。
依次将每一张影像当做参考影像,将剩下的影像按照视角和距离进行优先级排序,选择优先级靠前的6张影像作为待匹配影像。
将参考影像格网中的每个特征点通过对极几何约束找到其在待匹配影像上的同名特征,通过三角测量计算这个特征点对应的空间三维点坐标,一旦该格网中有一个特征点的三维点坐标计算成功或者该格网中所有的特征点都计算完毕,则进入影像上的下一个格网,开始新的三维点坐标计算,直到影像上所有的格网都计算完毕。
所有影像都按照上述步骤操作,得到三维点云模型的初始种子点。
步骤(2),通过最大化种子面片对应影像窗口的归一化互相关系数平均值NCC来优化和调整初始种子点的位置和法方向,并采用平面拟合方式将初始种子点法方向纠正到垂直于平面的方向上,得到位于平面上的种子点集合,种子面片即为经过种子点且垂直于种子点法方向的平面,具体方法如下:
初始种子点的位置通过对极几何约束下的三角化获得,种子面片的初始法线方向由种子点指向参考影像的光心,接着通过最大化种子面片对应影像窗口的归一化互相关系数平均值NCC来优化和调整初始种子点的位置和法方向,优化函数见公式(1)。
式中:NCC表示种子点投影到可见影像上对应的相关窗口归一化互相关系数的平均值;V(p)表示种子点的可见影像集合;|V(p)|表示种子点的可见影像数目;R(p)表示种子点对应的参考影像;Ij表示种子点的可见影像;ncc(·)表示种子点的归一化互相关系数计算函数,见公式(2)。
实现过程示意图见图3。
对所有种子点构建kd树(k-dimensional tree)。首先,对每一个种子点qi在其较大邻域范围内(search radius=64pixels)搜索邻居点并设置较为严苛的平面拟合条件threshold1(|planar point|≥max(0.7*|neighbors|,5))得到种子点所在平面参数和新的法方向,对所有的邻域点进行平面拟合,所有的邻域点中会有一部分点位于平面上,这部分点用planar point表示,neighbors表示邻域点,||表示取数量。
根据新的法方向构建面片,计算面片的NCC,如果NCC≥0.8,0.8为经验值,也可以取其他数值,认为新的法方向正确,将种子点的法方向纠正到正确的方向上。
通过以上步骤,使得一部分种子点获得纠正后的法方向,在这一阶段设置严格筛选条件能够更好地保证第一批纠正的种子点法向量正确。
接着,对已经纠正了法向量的每一个种子点qj搜索其邻域(search radius=32pixel),找到距离该种子点法平面小于4个像素对应空间距离的邻居种子点,对每一个未纠正法方向的种子点neighborj,搜索其邻域并拟合平面得到该邻居点的新法方向。
最后剔除掉初始种子点集合中法方向始终未被纠正的种子点。种子点过滤前后的数量和法方向对比如图4所示,(a)(d)为纠正前后的种子点分布情况;(b)(e)为纠正前后种子点法方向正视图;(c)(f)为纠正前后种子点法方向俯视图。
步骤(3),对于种子点集合中满足平面约束条件的种子点,在平面上扩展种子点时通过种子点所在的种子面片计算出相邻的扩展种子点的位置,将种子点的法方向赋值给新扩展的相邻种子点;对于不满足平面约束条件的种子点,按照PMVS方法扩展生成新的种子点,并将新扩展成功的种子点加入到种子点集合中,以此来减少平面点云扩展过程中的优化计算,提升平面点云扩展的效率,由此快速生成平面点云。
按照优先级取出种子点集合中已经通过法方向纠正的种子点,在该种子点的法平面上建立边长为32像素的面片并计算NCC,认为NCC≥0.8时,该种子点位于平面上,因此可以直接在该种子点的周围生成新的种子点,设置该种子点的法方向属性为已通过拟合纠正,并减少对其位置和法方向的优化计算。如图5所示:(a)为面片模型,由中心点和法向量组成,(b)为PMVS采用的面片尺寸模型,(c)为本文方法采用的面片模型,以种子点为中心,垂直于种子点法方向、尺寸大小为32*32像素的平面作为种子面片,在其周围8邻域扩展生成新的种子点,其中空心点表示已有的种子点,实心点表示由种子点扩展生成的新三维点。
新的三维点坐标计算方法如下:
以面片中心为原点建立局部空间坐标系,x轴从面片中心出发,取面片对应参考影像的x轴方向,用ax表示,z轴取面片的法向量n(p),y轴从面片中心出发,取同时垂直于x轴和z轴的方向,用ay表示,将x轴和y轴向量归一化成物方空间中的单位向量,用ax′,ay′表示。其中ax′=(x1,y1,z1),ay′=(x2,y2,z2),xi,yi,zi(i=1,2)表示向量在物方三维空间中的三个分量。
计算影像的空间分辨率,即单位像素对应到空间中的距离,计算公式见公式(3)。
式中:d表示单位像素对应到面片平面上的空间距离;Z表示面片中心到相机光心的距离;f表示相机主距。
计算扩展生成的新三维点的坐标Pnew,计算公式见公式(4):
式中:Pnew=(xnew,ynew,znew)表示扩展生成的新面片中心点坐标;(x0,y0,z0)表示种子面片的中心点坐标;Δx,Δy取{-1,0,1},表示扩展面片中心点在种子面片上的平面坐标位移值步长。
通过以上步骤可以在平面上快速扩展生成面片,对于在扩展过程中不属于平面上的点则继续通过PMVS方法进行逐点优化,设置新面片法方向为未通过拟合纠正。
按照以上方法不断扩展新的面片,直至种子点集合为空,扩展完毕。
本发明通过输入影像及其外方位元素,能够快速获取影像所拍摄场景的密集点云,点云效果较高,计算效率高。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (7)
1.一种面向空地影像数据融合的建筑目标点云快速生成方法,其特征在于,包括如下步骤:
步骤1,首先将影像二值化,并提取角点特征,进而获得初始种子点;
步骤2,通过最大化种子面片对应影像窗口的归一化互相关系数平均值NCC来优化和调整初始种子点的位置和法方向,并采用平面拟合方式将初始种子点法方向纠正到垂直于平面的方向上,得到位于平面上的种子点集合,种子面片即为经过种子点且垂直于种子点法方向的平面;
步骤3,对于种子点集合中满足平面约束条件的种子点,在平面上扩展种子点时通过种子点所在的种子面片计算出相邻的扩展种子点的位置,将种子点的法方向赋值给新扩展的相邻种子点;对于不满足平面约束条件的种子点,按照PMVS方法扩展生成新的种子点,并将新扩展成功的种子点加入到种子点集合中,由此快速生成平面点云。
2.如权利要求1所述的一种面向空地影像数据融合的建筑目标点云快速生成方法,其特征在于:步骤1中引入Canny边缘检测算子对原始影像进行二值化处理,并使用Harris算子提取角点特征,获得角点特征后,在每张影像的固定大小尺寸像素区域中选择多个响应值最大的Harris角点,所述像素区域即格网;
依次将每一张影像当做参考影像,将剩下的影像按照视角和距离进行优先级排序,选择优先级靠前的多张影像作为待匹配影像;
将参考影像格网中的每个特征点通过对极几何约束找到其在待匹配影像上的同名特征,通过三角测量计算这个特征点对应的空间三维点坐标,一旦该格网中有一个特征点的三维点坐标计算成功或者该格网中所有的特征点都计算完毕,则进入影像上的下一个格网,开始新的三维点坐标计算,直到影像上所有的格网都计算完毕;
所有影像都按照上述步骤操作,得到三维点云模型的初始种子点。
3.如权利要求1所述的一种面向空地影像数据融合的建筑目标点云快速生成方法,其特征在于:步骤2中,NCC的具体计算方式如下;
初始种子点的位置通过对极几何约束下的三角化获得,种子面片的初始法线方向由种子点指向参考影像的光心,通过最大化种子面片对应影像窗口的归一化互相关系数平均值NCC来优化和调整初始种子点的位置和法方向,优化函数见公式(1);
式中:NCC表示种子点投影到可见影像上对应的相关窗口归一化互相关系数的平均值;V(p)表示种子点的可见影像集合;|V(p)|表示种子点的可见影像数目;R(p)表示种子点对应的参考影像;Ij表示种子点的可见影像;ncc(·)表示种子点的归一化互相关系数计算函数,见公式(2);
4.如权利要求1所述的一种面向空地影像数据融合的建筑目标点云快速生成方法,其特征在于:步骤2中,将初始种子点法方向纠正到垂直于平面的方向上的具体实现方式如下,
对所有种子点构建kd树,首先,对每一个种子点qi在其较大邻域范围内搜索邻居点并设置严苛的平面拟合条件threshold1,|planar point|≥max(0.7*|neighbors|,5),得到种子点所在平面参数和新的法方向,对所有的邻域点进行平面拟合,所有的邻域点中会有一部分点位于平面上,这部分点用planar point表示,neighbors表示邻域点,||表示取数量;
根据新的法方向构建面片,计算面片的NCC,如果NCC大于一定阈值,认为新的法方向正确,将种子点的法方向纠正到正确的方向上;
接着,对已经纠正了法向量的每一个种子点qj搜索其邻域,找到距离该种子点法平面小于n个像素对应空间距离的邻居种子点,对每一个未纠正法方向的种子点neighborj,搜索其邻域并拟合平面得到该邻居点的新法方向;
最后剔除掉初始种子点集合中法方向始终未被纠正的种子点。
5.如权利要求1所述的一种面向空地影像数据融合的建筑目标点云快速生成方法,其特征在于:步骤3中满足平面约束条件的种子点是指NCC大于某一阈值的点。
6.如权利要求1所述的一种面向空地影像数据融合的建筑目标点云快速生成方法,其特征在于:步骤3的具体实现方式如下;
按照优先级取出种子点集合中已经通过法方向纠正的种子点,在该种子点的法平面上建立边长为M像素的面片并计算NCC,认为NCC大于某一阈值时,该种子点位于平面上,直接在该种子点的周围生成新的种子点,设置该种子点的法方向属性为已通过拟合纠正;
新的种子点的三维点坐标计算方法如下:
以面片中心为原点建立局部空间坐标系,x轴从面片中心出发,取面片对应参考影像的x轴方向,用ax表示,z轴取面片的法向量n(p),y轴从面片中心出发,取同时垂直于x轴和z轴的方向,用ay表示,将x轴和y轴向量归一化成物方空间中的单位向量,用ax′,ay′表示;其中ax′=(x1,y1,z1),ay′=(x2,y2,z2),xi,yi,zi表示向量在物方三维空间中的三个分量;
计算影像的空间分辨率,即单位像素对应到空间中的距离,计算公式见公式(3);
式中:d表示单位像素对应到面片平面上的空间距离;Z表示面片中心到相机光心的距离;f表示相机主距;
计算扩展生成的新三维点的坐标Pnew,计算公式见公式(4):
式中:Pnew=(xnew,ynew,znew)表示扩展生成的新面片中心点坐标;(x0,y0,z0)表示面片的中心点坐标;Δx,Δy取{-1,0,1},表示扩展面片中心点在面片上的平面坐标位移值步长;
由此在平面上快速扩展生成面片,对于在扩展过程中不属于平面上的点则继续通过PMVS方法进行逐点优化,设置新面片法方向为未通过拟合纠正;
按照以上方法不断扩展新的面片,直至种子点集合为空,扩展完毕。
7.如权利要求4或5或6所述的一种面向空地影像数据融合的建筑目标点云快速生成方法,其特征在于:NCC的阈值取0.8,认为当NCC>=0.8时,种子点位于平面上。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210012783.XA CN114463521B (zh) | 2022-01-07 | 2022-01-07 | 一种面向空地影像数据融合的建筑目标点云快速生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210012783.XA CN114463521B (zh) | 2022-01-07 | 2022-01-07 | 一种面向空地影像数据融合的建筑目标点云快速生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114463521A true CN114463521A (zh) | 2022-05-10 |
CN114463521B CN114463521B (zh) | 2024-01-30 |
Family
ID=81410114
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210012783.XA Active CN114463521B (zh) | 2022-01-07 | 2022-01-07 | 一种面向空地影像数据融合的建筑目标点云快速生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114463521B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114937123A (zh) * | 2022-07-19 | 2022-08-23 | 南京邮电大学 | 基于多源影像融合的建筑建模方法、装置 |
CN115187843A (zh) * | 2022-07-28 | 2022-10-14 | 中国测绘科学研究院 | 基于物方体素及几何特征约束的深度图融合方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103017739A (zh) * | 2012-11-20 | 2013-04-03 | 武汉大学 | 基于激光雷达点云与航空影像的真正射影像的制作方法 |
US20130208997A1 (en) * | 2010-11-02 | 2013-08-15 | Zte Corporation | Method and Apparatus for Combining Panoramic Image |
CN105069843A (zh) * | 2015-08-22 | 2015-11-18 | 浙江中测新图地理信息技术有限公司 | 一种面向城市三维建模的密集点云的快速提取方法 |
CN105825543A (zh) * | 2016-03-31 | 2016-08-03 | 武汉大学 | 基于低空遥感影像的多视密集点云生成方法及*** |
CN105957076A (zh) * | 2016-04-27 | 2016-09-21 | 武汉大学 | 一种基于聚类的点云分割方法及*** |
CN111079611A (zh) * | 2019-12-09 | 2020-04-28 | 成都奥伦达科技有限公司 | 一种道路面及其标志线的自动提取方法 |
CN112489212A (zh) * | 2020-12-07 | 2021-03-12 | 武汉大学 | 一种基于多源遥感数据的建筑物智能化三维测图方法 |
CN112927360A (zh) * | 2021-03-24 | 2021-06-08 | 广州蓝图地理信息技术有限公司 | 一种基于倾斜模型与激光点云数据融合的三维建模方法和*** |
US20210358206A1 (en) * | 2020-05-14 | 2021-11-18 | Star Institute Of Intelligent Systems | Unmanned aerial vehicle navigation map construction system and method based on three-dimensional image reconstruction technology |
-
2022
- 2022-01-07 CN CN202210012783.XA patent/CN114463521B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130208997A1 (en) * | 2010-11-02 | 2013-08-15 | Zte Corporation | Method and Apparatus for Combining Panoramic Image |
CN103017739A (zh) * | 2012-11-20 | 2013-04-03 | 武汉大学 | 基于激光雷达点云与航空影像的真正射影像的制作方法 |
CN105069843A (zh) * | 2015-08-22 | 2015-11-18 | 浙江中测新图地理信息技术有限公司 | 一种面向城市三维建模的密集点云的快速提取方法 |
CN105825543A (zh) * | 2016-03-31 | 2016-08-03 | 武汉大学 | 基于低空遥感影像的多视密集点云生成方法及*** |
CN105957076A (zh) * | 2016-04-27 | 2016-09-21 | 武汉大学 | 一种基于聚类的点云分割方法及*** |
CN111079611A (zh) * | 2019-12-09 | 2020-04-28 | 成都奥伦达科技有限公司 | 一种道路面及其标志线的自动提取方法 |
US20210358206A1 (en) * | 2020-05-14 | 2021-11-18 | Star Institute Of Intelligent Systems | Unmanned aerial vehicle navigation map construction system and method based on three-dimensional image reconstruction technology |
CN112489212A (zh) * | 2020-12-07 | 2021-03-12 | 武汉大学 | 一种基于多源遥感数据的建筑物智能化三维测图方法 |
CN112927360A (zh) * | 2021-03-24 | 2021-06-08 | 广州蓝图地理信息技术有限公司 | 一种基于倾斜模型与激光点云数据融合的三维建模方法和*** |
Non-Patent Citations (1)
Title |
---|
YINGLONG HU ET AL.: ""Unmanned Aerial Vehicle and Ground Remote Sensing Applied in 3D Reconstruction of Historical Building Groups in Ancient Villages"", 《2018 FIFTH INTERNATIONAL WORKSHOP ON EARTH OBSERVATION AND REMOTE SENSING APPLICATIONS》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114937123A (zh) * | 2022-07-19 | 2022-08-23 | 南京邮电大学 | 基于多源影像融合的建筑建模方法、装置 |
CN114937123B (zh) * | 2022-07-19 | 2022-11-04 | 南京邮电大学 | 基于多源影像融合的建筑建模方法、装置 |
CN115187843A (zh) * | 2022-07-28 | 2022-10-14 | 中国测绘科学研究院 | 基于物方体素及几何特征约束的深度图融合方法 |
CN115187843B (zh) * | 2022-07-28 | 2023-03-14 | 中国测绘科学研究院 | 基于物方体素及几何特征约束的深度图融合方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114463521B (zh) | 2024-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112288875B (zh) | 一种面向无人机矿山巡检场景的快速三维重建方法 | |
CN108038906B (zh) | 一种基于图像的三维四边形网格模型重建方法 | |
WO2020165557A1 (en) | 3d face reconstruction system and method | |
CN110866531A (zh) | 一种基于三维建模的建筑物特征提取方法、***及存储介质 | |
CN112686935B (zh) | 基于特征融合的机载测深雷达与多光谱卫星影像配准方法 | |
CN114463521B (zh) | 一种面向空地影像数据融合的建筑目标点云快速生成方法 | |
CN113192179A (zh) | 一种基于双目立体视觉的三维重建方法 | |
CN114782628A (zh) | 基于深度相机的室内实时三维重建方法 | |
CN108629742B (zh) | 真正射影像阴影检测与补偿方法、装置及存储介质 | |
CN112164145A (zh) | 基于点云数据快速提取室内三维线段结构的方法 | |
CN114359503A (zh) | 一种基于无人机倾斜摄影建模方法 | |
CN116805356A (zh) | 建筑模型的构建方法、设备及计算机可读存储介质 | |
CN115222884A (zh) | 一种基于人工智能的空间对象分析及建模优化方法 | |
CN113034681B (zh) | 空间平面关系约束的三维重建方法及装置 | |
CN107610216B (zh) | 基于粒子群优化多视角立体点云生成方法及应用的摄像机 | |
CN112002007B (zh) | 基于空地影像的模型获取方法及装置、设备、存储介质 | |
CN110969650B (zh) | 一种基于中心投影的强度图像与纹理序列间的配准方法 | |
CN113345084A (zh) | 三维建模***及三维建模方法 | |
CN116091706B (zh) | 多模态遥感影像深度学习匹配的三维重建方法 | |
CN116228964A (zh) | 一种无人机倾斜摄影三维模型与无人车影像联合建模方法 | |
CN107194334B (zh) | 基于光流模型的视频卫星影像密集匹配方法及*** | |
CN115512055A (zh) | 一种基于二维视频进行室内结构三维重建的方法、装置及计算机设备 | |
CN114491697A (zh) | 一种基于深度学习的树木点云补全方法 | |
Yu et al. | Advanced approach for automatic reconstruction of 3d buildings from aerial images | |
Wang et al. | Identifying and filling occlusion holes on planar surfaces for 3-D scene editing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |