CN114387416A - 针对倾斜摄影三维重建的纹理自动生成和修复方法 - Google Patents
针对倾斜摄影三维重建的纹理自动生成和修复方法 Download PDFInfo
- Publication number
- CN114387416A CN114387416A CN202210291654.9A CN202210291654A CN114387416A CN 114387416 A CN114387416 A CN 114387416A CN 202210291654 A CN202210291654 A CN 202210291654A CN 114387416 A CN114387416 A CN 114387416A
- Authority
- CN
- China
- Prior art keywords
- texture
- building
- oblique photography
- dimensional reconstruction
- repaired
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 230000011218 segmentation Effects 0.000 claims abstract description 17
- 239000012528 membrane Substances 0.000 claims abstract description 5
- 238000012805 post-processing Methods 0.000 claims abstract description 4
- 238000012549 training Methods 0.000 claims description 13
- 230000000007 visual effect Effects 0.000 claims description 13
- 230000002776 aggregation Effects 0.000 claims description 10
- 238000004220 aggregation Methods 0.000 claims description 10
- 230000008439 repair process Effects 0.000 claims description 8
- 238000010801 machine learning Methods 0.000 claims description 4
- 238000005286 illumination Methods 0.000 abstract description 4
- 230000007547 defect Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000007792 addition Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000011449 brick Substances 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000004568 cement Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 239000011150 reinforced concrete Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开一种针对倾斜摄影三维重建的纹理自动生成和修复方法。该方法包括如下步骤:步骤1:对倾斜摄影的数据进行单体化,得到单栋建筑的数据;步骤2:对单栋建筑的贴图进行语义分割,得到建筑倾斜摄影的纹理图片;步骤3.1:将步骤2得到的倾斜摄影纹理图片输入编码网络,得到纹理图片对应的隐码子;步骤3.2:将步骤3.1得到的隐码子输入预训练的生成网络,生成修复的纹理图片;步骤4:对步骤3.2生成的修复的纹理图片进行后处理,将其贴回到三维几何重建得到的建筑白膜上,得到完整的带纹理的重构建筑。该方法既能保留原始建筑物纹理中的风格、颜色、光照等信息,又能改善图像模糊、拉伸、破缺等畸变问题。
Description
技术领域
本发明属于遥感领域的建筑三维重建领域,具体属于三维重建的纹理生成领域,尤其属于倾斜摄影三维重建的纹理自动生成和修复方法。
背景技术
伴随着摄影测量与计算机视觉技术的理论和硬件的发展,倾斜摄影测量作为传统摄影测量的技术发展方向,不仅弥补了航空摄影测量不能获取建筑物侧面纹理的缺陷,为采用摄影测量方法进行影像纹理映射提供了可能性,而且也为快速,大面积城市建筑物真三维模型自动化获取提供了新的途径。
在传统的倾斜摄影三维重建中,现有技术首先从原始航拍的数据中提取纹理,然后将得到的纹理图片贴合到三维重建的白膜上。这种方法面临如下问题: (1)从倾斜摄影数据提取的纹理有瑕疵。因为树木遮挡、窗户、噪声等因素,从倾斜摄影数据提取的纹理往往存在着破缺、变形等瑕疵。(2)将从倾斜摄影得到的纹理贴到三维重建的建筑上会导致畸变。三维重建的建筑相对于原始倾斜摄影的建筑发生了旋转,直接将从倾斜摄影提取的纹理贴合到三维重建的建筑上,会导致纹理的拉伸、模糊等畸变。
发明内容
为了解决现有技术中倾斜摄影建筑三维重建时纹理重构存在的模糊、拉伸、破缺等畸变问题,本发明提出一种针对倾斜摄影三维重建的纹理自动生成和修复方法,该方法包括如下步骤:
步骤1:对倾斜摄影的数据进行单体化,得到单栋建筑的数据;
步骤2:对单栋建筑的贴图进行语义分割,得到建筑倾斜摄影的纹理图片;
步骤3.1:将步骤2得到的倾斜摄影纹理图片输入编码网络,得到纹理图片对应的隐码子;
步骤3.2:将步骤3.1得到的隐码子输入预训练的生成网络,生成修复的纹理图片;
步骤4:对步骤3.2生成的修复的纹理图片进行后处理,将其贴回到三维几何重建得到的建筑白膜上,得到完整的带纹理的重构建筑。
其中步骤2中,通过语义分割得到建筑倾斜摄影的纹理图片,并根据纹理信息的重要性进行分类。
在步骤2中,还可以替代地或同时对单栋建筑的贴图进行空间分割,以区分建筑本身不同的空间特征,并根据空间信息的重要性进行分类。
在步骤3.1中,根据建筑物不同的特征信息,分别对空间、纹理信息重要性不一样的区域采取不同的编码网络和编码方法。
具体地,一方面对于纹理特征较为重要的区域,采用局部聚合描述符的编码方法。
所述局部聚合描述符的编码方法具体是指,首先,将局部图像的描述符分配给具有d个元素字典,即视觉词袋BoVW,中的最邻近的视觉词;然后通过以下公式获得每个描述符的隐码子:ζ’(fi) =(fi − kCζ(fi)) ⊗ ζ(fi),其中fi指代任一图像子区域的局部特征值,k指代该图像子区域对应的修复权重系数,C对应于BoVW 方法中拥有d个元素的字典C =c1… cd ∈ MD×d,ζ(fi)对应于通过BoVW 方法获得的fi 的视觉词的一位有效向量即隐码子,⊗指代克罗内克积。
另一方面,对于空间特征较为重要的区域,采用阶数敏感的编码方法。
所述阶数敏感的编码方法是指,通过在需要重点处理空间信息的倾斜摄影的图像子区域再进一步划分成若干个对于空间敏感的图像微区域,从而强调这些区域的空间特征。
在步骤3.2中,所述预训练的生成网络,指的是采集大量正常的正视和/或斜视角度的不同建筑物表面的图像,通过机器学习的方法进行训练归类,形成参考集。
获得预训练的参考集后,输入步骤3.1得到的不同子区域的隐码进行训练,从而得到与相应子区域最为相近的预生成网络中的参考子集,并基于该参考子集中的特征信息对图像区域中模糊较为严重、或者较大范围缺失或者失真的部分进行填补、修复,从而获得修复的纹理图片。
有益效果
本发明提供的上述技术方案,至少具有如下有益效果:
相比于从原始倾斜摄影数据提取纹理的方法,本发明得到的纹理没有模糊、破缺、变形等畸变。同时,还保留了原始纹理数据的颜色、风格、光照等信息,保证了纹理的逼真程度,能满足绝大多数城市数字孪生场景的需要。
本申请通过对建筑物的贴图进行语义分割和空间分割,既保留了整体建筑及其局部特征的空间信息,同时充分挖掘和编码建筑物外观的纹理信息。
本申请从建筑的倾斜摄影纹理图片提取了隐码,该隐码不仅编码了原始纹理的颜色、风格等特征,并对空间信息和纹理信息进行重要性分类;并根据建筑物自身的特点和周围的环境基于不同的重要性采用不同的编码方法,既节省了计算量,又尽量保证了数据的准确性,同时对于例如由摄像机突然出现暂时抖动导致的图像轻度模糊,或者建筑物被小障碍物遮挡而导致的小部分缺损或失真可进行简单恢复,从而便于后面的进一步处理。
在步骤3.2中,该隐码被输入预训练的生成网络,来修复存在较大模糊、大范围区域畸变或被遮挡的纹理。由此,修复的纹理图片不仅能保留原始纹理的颜色、风格、光照等特征,还解决了拉伸、畸变等问题。
使用本方法提供的倾斜摄影三维重建来生成和修复纹理,并非直接从原始数据提取,而是既保留了原始图像数据中的有用信息,又对图像中的缺陷进行修复,由此,避免了原始纹理中的树木遮挡、窗户、噪声等因素的影响,解决了纹理模糊、破缺等问题。同时,通过恰当地训练编码网络,可以保证在步骤3.2中,生成的纹理图片的角度始终是正视的,从而避免了将纹理贴回建筑时的旋转、拉伸等形变问题。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所 需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明 的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下, 还可以根据这些附图获得其他的附图。
图1为本发明针对倾斜摄影三维重建的纹理自动生成方法的流程图。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。
参照附图1,本发明提出了一种针对倾斜摄影三维重建的纹理自动生成和修复方法。该方法首先需要获取摄影数据,并且为了对建筑物全方位重建,需要获得倾斜摄影数据,随后对倾斜摄影的数据进行单体化,得到单栋建筑的数据。 具体地,该倾斜摄影的数据取自五摄像头,能够从俯视、前方、后方、左侧、右侧5个维度获得图像数据。该五摄像头既可以集成到一个摄影机架上,也可以分别独立的进行。该步骤进行的单体化,仅是初步将整体图像分割为若干个图像,得到的单栋建筑图像可能被树木遮挡、窗户存在畸变等缺陷。
得到单栋建筑的图像数据后,获得其表面图像,即贴图。随后进行步骤2:对单栋建筑的贴图进行语义分割和空间分割,通过语义分割得到建筑倾斜摄影的纹理图片,并根据纹理信息的重要性进行分类;通过空间分割,可区分建筑本身不同的空间特征,例如是否建筑倾斜、拉伸,是否存在窗户、窗户的大小位置等;并区分建筑的场景特征-例如是否被树木遮挡等,从而将单栋建筑区分为不同的空间子区域。
空间分割和纹理分割完毕后,进行步骤3.1:将步骤2得到的不同空间子区域的倾斜摄影纹理图片输入编码网络,得到纹理图片对应的隐码。此处,根据建筑物的不同的特征信息,分别对空间、纹理信息重要性不一样的区域采取不同的编码网络和编码方法,从而能够兼顾整栋建筑的空间和纹理信息。
例如,对于建筑的主要外表面,可能存在钢筋混凝土的纹理、可能存在瓦片或砖块的纹理、或者水泥,甚至不同刷漆的纹理,这些纹理中既包含不同的风格,也包含不同的颜色、照明等信息;相对来说,即使整栋建筑存在一定角度的倾斜,通过后期的视角转换很容易将整栋建筑外观重建到正视的角度,因此在这些区域,纹理特征更为重要。为了充分展现纹理的颜色、风格、照明等,我们提出一种无阶编码的方法。
本领域公知的是,目前常用的无阶编码的方法是一种叫做视觉词袋(Bagofvisual words, BoVW)的方法,该编码方法首先对局部特征fi∈MD 进行矢量量化(VQ),方法是将它们分配给有d 个元素的字典 C = c1… cd ∈ MD×d中最接近的视觉词。视觉词可以被认为是“原型特征”,是在训练过程中通过对示例局部特征进行聚类获得的。描述符隐码子ζ(fi)是指示对应于 fi 的视觉词的一位有效向量,然后平均池化这些一位有效向量产生视觉词出现次数的直方图。
为了包含更多纹理信息,且为了便于修复缺损信息,我们提出一种局部聚合描述符的编码方法,该种局部聚合描述符的隐码子包含的信息更为丰富。首先,我们将局部图像的描述符分配给具有d个元素的字典,例如BoVW中的最邻近的视觉词;然后通过以下公式获得每个描述符的隐码子:ζ’(fi) =(fi − kCζ(fi)) ⊗ ζ(fi),其中fi指代任一图像子区域的局部特征值, k指代该图像子区域对应的修复权重系数,C对应于BoVW 方法中拥有d个元素的字典C = c1… cd ∈ MD×d,ζ(fi)对应于通过BoVW 方法获得的fi 的视觉词的一位有效向量即隐码子,⊗指代克罗内克Kronecker 积。
直观地说,我们提出的局部聚合描述符的编码方法从局部特征值fi中减去相应的视觉词Cζ(fi )以及预期为其作出修复的权重系数的乘积,然后将差值赋值到d个可能的子向量之一中,并与BoVW方法获得的fi 的视觉词的隐码子即一位有效向量进行矩阵运算,从而获得包含信息更为丰富的每个视觉词的隐码子ζ’(fi )。可见,该隐码子ζ’(fi )累积一阶描述符的统计信息,而不是像 BoVW只是处理单个事件,因此我们提出的这种编码方法特别适应于图像存在轻度模糊,或者建筑由于树木遮挡导致建筑外观信息存在少部分缺失的图像编码,因此得到的纹理编码更能反应建筑物的风格、颜色、照明等信息,且能够适当处理例如由摄像机突然出现暂时抖动导致的图像轻度模糊和少部分缺损问题。
本领域人员公知的是,即使是轻度模糊,也存在不同级别的轻度模糊。我们提出的这种方法还可以基于图像子区域轻度模糊的级别进行预判,从而设置其修复的权重系数k,从而可以针对不同级别的轻度模糊进行相应的修复,从而获得更好的修复效果。
另一方面,由于倾斜摄影可能导致一栋建筑的窗户畸变严重,而本领域公知的是,透明窗户的纹理信息基本上相同的,因此在这些窗户区域,窗户的大小、位置、倾斜角度等空间特征更为重要,纹理特征不太重要。因此我们使用阶数敏感的编码方法。
具体地,通过在需要重点处理空间信息的倾斜摄影的图像子区域再进一步划分成若干个对于空间敏感的图像微区域,从而强调这些区域的空间特征。同时,为了减少纹理编码的计算量,并使处理更为快速,在这些需要仅重点关注空间特征的子区域,可以不用上述我们提出的局部聚合描述符的编码方法,而替代地采用上述本领域公知的常用的视觉词袋(Bag ofvisual words, BoVW)的方法。当然本领域技术人员容易理解,在精度要求或者计算条件允许的情况下,也可以替代或叠加地使用我们提出的上述局部聚合描述符的编码方法。
并且本领域技术人员可以理解,上述语义分割和空间分割并不是必须一起进行,也可以根据具体的情形和需求,只进行语义分割,或者只进行空间分割,只要其能最终保证整体建筑不拉伸,不畸变,能够保证纹理的逼真程度即可。
通过采用以上两种方法,一方面既保留整体建筑及其局部特征的空间信息,同时充分挖掘和编码建筑物外观的纹理信息,同时对于例如由摄像机突然出现暂时抖动导致的图像轻度模糊,或者建筑物被小障碍物遮挡而导致的小部分缺损或失真可进行简单恢复,从而便于后面的进一步处理。
上面编码及其调整方法,仅是对于轻度模糊以及小部分缺失或者失真的图像有效。对于图像模糊较为严重,以及存在较大范围缺失或者失真的图像,需要采取如下步骤3.2:将步骤3.1得到的不同子区域的隐码输入预训练的生成网络,生成修复的纹理图片。
具体地,所述预训练生成网络,指的是采集大量正常的正视和/或斜视角度的不同建筑物表面的图像,通过机器学习的方法进行训练归类,形成参考集。机器学习的方法可以采用如下现有技术中已有的方法,例如,卷积神经网络CNN、深度卷积神经网络DCNN、线性回归、人工神经网络ANN等,在此不再赘述。
获得预训练的生成网络后,输入步骤3.1得到的不同子区域的隐码进行训练,从而得到与相应子区域最为相近的预生成网络中的参考子集,并基于该参考子集中的特征信息对图像区域中模糊较为严重、或者较大范围缺失或者失真的部分进行填补、修复,从而获得修复的纹理图片。
最后,修复的纹理图片生成后,进行步骤4:对步骤3.2生成的修复的纹理图片进行后处理,将其贴回到三维几何重建得到的建筑白膜上,得到完整的带修复纹理的重构建筑。
通过以上的步骤,既通过我们提出的局部聚合描述符的编码方法修复了五维摄像头获得图像数据的小缺陷,也通过大数据训练模型的算法修正了五维摄像头获得图像数据的大缺陷,既保留了原始纹理的特征,又规避掉了从原始图片提取纹理时遇到的噪音、残损等问题,达到了很好的技术效果。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以做出若干叠加、删除、改进和润饰,这些叠加、删除、改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种针对倾斜摄影三维重建的纹理自动生成和修复方法,该方法包括如下步骤:
步骤1:对倾斜摄影的数据进行单体化,得到单栋建筑的数据;
步骤2:对单栋建筑的贴图进行语义分割,得到建筑倾斜摄影的纹理图片;
步骤3.1:将步骤2得到的倾斜摄影纹理图片输入编码网络,得到纹理图片对应的隐码子;
步骤3.2:将步骤3.1得到的隐码子输入预训练的生成网络,生成修复的纹理图片;
步骤4:对步骤3.2生成的修复的纹理图片进行后处理,将其贴回到三维几何重建得到的建筑白膜上,得到完整的带纹理的重构建筑。
2.根据权利要求1所述的针对倾斜摄影三维重建的纹理自动生成和修复方法,其中步骤2中,通过语义分割得到建筑倾斜摄影的纹理图片,并根据纹理信息的重要性进行分类。
3.根据权利要求1或2所述的针对倾斜摄影三维重建的纹理自动生成和修复方法,其中步骤2中,还可以替代地或同时地对单栋建筑的贴图进行空间分割,以区分建筑本身不同的空间特征,并根据空间信息的重要性进行分类。
4.根据权利要求3所述的针对倾斜摄影三维重建的纹理自动生成和修复方法,其中步骤3.1中,根据建筑物不同的特征信息,分别对空间、纹理信息重要性不一样的区域采取不同的编码网络和编码方法。
5.根据权利要求2或4所述的针对倾斜摄影三维重建的纹理自动生成和修复方法,其中对于纹理特征较为重要的区域,采用局部聚合描述符的编码方法。
6.根据权利要求5所述的针对倾斜摄影三维重建的纹理自动生成和修复方法,所述局部聚合描述符的编码方法具体是指,首先,将局部图像的描述符分配给具有d个元素的字典,即视觉词袋BoVW,中的最邻近的视觉词;然后通过以下公式获得每个描述符的隐码子:ζ’(fi) =(fi – kCζ(fi)) ⊗ ζ(fi),其中fi指代任一图像子区域的局部特征值, k指代该图像子区域对应的修复权重系数,C对应于BoVW 方法中拥有d个元素的字典C = c1… cd ∈MD×d,ζ(fi)对应于通过BoVW 方法获得的fi 的视觉词的一位有效向量即隐码子,⊗指代克罗内克积。
7.根据权利要求4所述的针对倾斜摄影三维重建的纹理自动生成和修复方法,其中对于空间特征较为重要的区域,采用阶数敏感的编码方法。
8.根据权利要求7所述的针对倾斜摄影三维重建的纹理自动生成和修复方法,所述阶数敏感的编码方法是指,通过在需要重点处理空间信息的倾斜摄影的图像子区域再进一步划分成若干个对于空间敏感的图像微区域,从而强调这些区域的空间特征。
9.根据权利要求1所述的针对倾斜摄影三维重建的纹理自动生成和修复方法,步骤3.2中,所述预训练的生成网络,指的是采集大量正常的正视和/或斜视角度的不同建筑物表面的图像,通过机器学习的方法进行训练归类,形成参考集。
10.根据权利要求9所述的针对倾斜摄影三维重建的纹理自动生成和修复方法,获得预训练的参考集后,输入步骤3.1得到的不同子区域的隐码进行训练,从而得到与相应子区域最为相近的预生成网络中的参考子集,并基于该参考子集中的特征信息对图像区域中模糊较为严重、或者较大范围缺失或者失真的部分进行填补、修复,从而获得修复的纹理图片。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210291654.9A CN114387416B (zh) | 2022-03-24 | 2022-03-24 | 针对倾斜摄影三维重建的纹理自动生成和修复方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210291654.9A CN114387416B (zh) | 2022-03-24 | 2022-03-24 | 针对倾斜摄影三维重建的纹理自动生成和修复方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114387416A true CN114387416A (zh) | 2022-04-22 |
CN114387416B CN114387416B (zh) | 2022-05-27 |
Family
ID=81206263
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210291654.9A Active CN114387416B (zh) | 2022-03-24 | 2022-03-24 | 针对倾斜摄影三维重建的纹理自动生成和修复方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114387416B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080050011A1 (en) * | 2006-08-24 | 2008-02-28 | Microsoft Corporation | Modeling and texturing digital surface models in a mapping application |
CN104732578A (zh) * | 2015-03-10 | 2015-06-24 | 山东科技大学 | 一种基于倾斜摄影技术的建筑物纹理优化方法 |
CN110379004A (zh) * | 2019-07-22 | 2019-10-25 | 泰瑞数创科技(北京)有限公司 | 一种对倾斜摄影成果进行地物分类及单体化提取的方法 |
CN111583411A (zh) * | 2020-04-25 | 2020-08-25 | 镇江市勘察测绘研究院 | 一种基于倾斜摄影的三维模型建立方法 |
CN114117614A (zh) * | 2021-12-01 | 2022-03-01 | 武汉大势智慧科技有限公司 | 一种建筑物立面纹理自动生成方法和*** |
-
2022
- 2022-03-24 CN CN202210291654.9A patent/CN114387416B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080050011A1 (en) * | 2006-08-24 | 2008-02-28 | Microsoft Corporation | Modeling and texturing digital surface models in a mapping application |
CN104732578A (zh) * | 2015-03-10 | 2015-06-24 | 山东科技大学 | 一种基于倾斜摄影技术的建筑物纹理优化方法 |
CN110379004A (zh) * | 2019-07-22 | 2019-10-25 | 泰瑞数创科技(北京)有限公司 | 一种对倾斜摄影成果进行地物分类及单体化提取的方法 |
CN111583411A (zh) * | 2020-04-25 | 2020-08-25 | 镇江市勘察测绘研究院 | 一种基于倾斜摄影的三维模型建立方法 |
CN114117614A (zh) * | 2021-12-01 | 2022-03-01 | 武汉大势智慧科技有限公司 | 一种建筑物立面纹理自动生成方法和*** |
Non-Patent Citations (2)
Title |
---|
张新 等: "倾斜摄影三维建模遮挡物去除和修复方法", 《遥感信息》 * |
汪雅 等: "一种近景倾斜摄影的三维建模盲区自动修复技术", 《国土资源遥感》 * |
Also Published As
Publication number | Publication date |
---|---|
CN114387416B (zh) | 2022-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111915530B (zh) | 一种基于端到端的雾霾浓度自适应神经网络图像去雾方法 | |
AU2020100274A4 (en) | A Multi-Scale Feature Fusion Network based on GANs for Haze Removal | |
CN104301735B (zh) | 城市交通监控视频全局编码方法及*** | |
CN113572962A (zh) | 室外自然场景光照估计方法及装置 | |
CN111539888B (zh) | 一种基于金字塔通道特征注意力的神经网络图像去雾方法 | |
CN111950477A (zh) | 一种基于视频监督的单图像三维人脸重建方法 | |
WO2023066173A1 (zh) | 图像处理方法、装置及存储介质、电子设备 | |
CN110807738B (zh) | 一种基于边缘图块锐化的模糊图像非盲复原方法 | |
CN114170286B (zh) | 一种基于无监督深度学习的单目深度估计方法 | |
CN100337473C (zh) | 运动视频的全景图合成方法 | |
CN112241939A (zh) | 一种基于多尺度和非局部的轻量去雨方法 | |
CN114049464A (zh) | 一种三维模型的重建方法及设备 | |
CN112950589A (zh) | 一种多尺度卷积神经网络的暗通道先验去雾算法 | |
CN115953321A (zh) | 一种基于零次学习的低照度图像增强方法 | |
CN115272119A (zh) | 一种图像阴影去除方法、装置、计算机设备和存储介质 | |
CN114627269A (zh) | 一种基于深度学***台 | |
CN112164010A (zh) | 一种多尺度融合卷积神经网络图像去雾方法 | |
CN114897916A (zh) | 图像处理方法及装置、非易失性可读存储介质、电子设备 | |
CN115019340A (zh) | 一种基于深度学习的夜间行人检测算法 | |
CN114387416B (zh) | 针对倾斜摄影三维重建的纹理自动生成和修复方法 | |
CN111861935B (zh) | 一种基于图像修复技术的去雨方法 | |
CN115713473A (zh) | 基于上下文信息聚合和融合特征注意力的图像去雾方法 | |
CN117333682A (zh) | 一种基于自注意力机制的多视角立体三维重建方法 | |
CN112364200A (zh) | 一种类脑成像的方法、装置、设备及存储介质 | |
CN113537359A (zh) | 训练数据的生成方法及装置、计算机可读介质和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address |
Address after: Room Y579, 3rd Floor, Building 3, No. 9 Keyuan Road, Daxing District Economic Development Zone, Beijing 102600 Patentee after: Beijing Feidu Technology Co.,Ltd. Address before: 102600 608, floor 6, building 1, courtyard 15, Xinya street, Daxing District, Beijing Patentee before: Beijing Feidu Technology Co.,Ltd. |
|
CP03 | Change of name, title or address |