CN114463503A - 三维模型和地理信息***的融合方法及装置 - Google Patents

三维模型和地理信息***的融合方法及装置 Download PDF

Info

Publication number
CN114463503A
CN114463503A CN202210055032.6A CN202210055032A CN114463503A CN 114463503 A CN114463503 A CN 114463503A CN 202210055032 A CN202210055032 A CN 202210055032A CN 114463503 A CN114463503 A CN 114463503A
Authority
CN
China
Prior art keywords
model
matching
satellite image
matched
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210055032.6A
Other languages
English (en)
Inventor
周小平
王佳
郑洋
张伟松
陆一昕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bim Winner Beijing Technology Co ltd
Original Assignee
Bim Winner Shanghai Technology Co ltd
Foshan Yingjia Smart Space Technology Co ltd
Jiaxing Wuzhen Yingjia Qianzhen Technology Co ltd
Shenzhen Bim Winner Technology Co ltd
Shenzhen Qianhai Yingjia Data Service Co ltd
Yingjia Internet Beijing Smart Technology Co ltd
Bim Winner Beijing Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bim Winner Shanghai Technology Co ltd, Foshan Yingjia Smart Space Technology Co ltd, Jiaxing Wuzhen Yingjia Qianzhen Technology Co ltd, Shenzhen Bim Winner Technology Co ltd, Shenzhen Qianhai Yingjia Data Service Co ltd, Yingjia Internet Beijing Smart Technology Co ltd, Bim Winner Beijing Technology Co ltd filed Critical Bim Winner Shanghai Technology Co ltd
Priority to CN202210055032.6A priority Critical patent/CN114463503A/zh
Publication of CN114463503A publication Critical patent/CN114463503A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)

Abstract

本发明提供一种三维模型和地理信息***的融合方法及装置,其中方法包括:获取3D模型的俯视图截图和地理信息***GIS中的待匹配卫星影像图;将所述俯视图截图和所述待匹配卫星影像图输入至图像匹配模型,获得所述图像匹配模型输出的匹配点对集合;基于所述匹配点对集合计算所述3D模型在所述待匹配卫星影像图上的映射区域以及所述映射区域的中心经纬度;基于所述中心经纬度对所述3D模型和所述GIS进行融合。本发明扩展了三维模型与GIS融合中的三维模型的种类和范围,提高了三维模型和地理信息***的融合方法的适用性。

Description

三维模型和地理信息***的融合方法及装置
技术领域
本发明涉及计算机技术领域,尤其涉及一种三维模型和地理信息***的融合方法及装置。
背景技术
城市信息模型(City Information Modeling,CIM)是以建筑信息模型(BuildingInformation Modeling,BIM)和地理信息***(Geographic Information System,GIS)等技术为基础,整合城市多维度多尺度空间数据,构建起的三维数字空间的城市信息有机综合体。CIM基础平台已成为智慧城市的基础性设施,其将有力地推动城市转型和高质量发展。GIS主要用于定义城市或地区的比例尺和地理空间,其并没有关注太多细节,这便难以满足CIM可视化多维多尺度数据的要求。三维(3D)模型天然的拥有表达细节信息的能力,因此GIS领域的研究者开始大量的使用3D模型,将3D模型融合到GIS中来描述建筑或地形等空间物体,这样可以极大地促进CIM的发展。
GIS区别于其它***的特点是其数据是以地理坐标为参考的,融合3D模型时必然需要考虑模型在GIS空间位置映射的问题。然而现有技术中拘束于3D模型复杂的空间特性,针对3D模型在GIS的空间位置映射问题提出的方法过于局限,只适合小部分种类三维模型的映射。
发明内容
本发明提供一种三维模型和地理信息***的融合方法及装置,用以解决现有技术中3D模型与GIS映射方法只适用于部分特定种类3D模型的缺陷,扩展了GIS融合三维模型的种类和范围。
第一方面,本发明提供一种三维模型和地理信息***的融合方法,包括:
获取3D模型的俯视图截图和地理信息***GIS中的待匹配卫星影像图;
将所述俯视图截图和所述待匹配卫星影像图输入至图像匹配模型,获得所述图像匹配模型输出的匹配点对集合;
基于所述匹配点对集合计算所述3D模型在所述待匹配卫星影像图上的映射区域以及所述映射区域的中心经纬度;
基于所述中心经纬度对所述3D模型和所述GIS进行融合;
其中,所述图像匹配模型是基于图像匹配算法构建的;所述匹配点对包括第一特征向量和第二特征向量,所述第一特征向量对应于所述俯视图截图,所述第二特征向量对应于所述待匹配卫星影像图。
可选地,所述图像匹配模型包括特征提取模块和特征匹配模块;所述特征提取模块是基于特征提取算法构建的,所述特征匹配模块是基于K近邻特征点匹配算法构建的;
所述将所述俯视图截图和所述待匹配卫星影像图输入至图像匹配模型,获得所述图像匹配模型输出的匹配点对集合,包括:
将所述俯视图截图和所述待匹配卫星影像图输入至所述特征提取模块,获得所述特征提取模块输出的第一特征向量集合和第二特征向量集合;
将所述第一特征向量和所述第二特征向量输入至所述特征匹配模块,获得所述特征匹配模块输出的匹配点对集合。
可选地,所述基于所述匹配点对集合计算所述3D模型在所述待匹配卫星影像图上的映射区域以及所述映射区域的中心经纬度,包括:
基于RANSAC算法对所述匹配点对集合进行筛选,并获得筛选后的匹配点对集合对应的变换矩阵;
基于所述变换矩阵对所述俯视图截图进行变换,获得所述3D模型在所述待匹配卫星影像图上的映射区域;
计算所述映射区域的中心点对应的经纬度,获得所述中心经纬度。
可选地,获取所述待匹配卫星影像图的步骤包括:
获取多个候选卫星影像图;所述候选卫星影像图是通过滑动窗口在所述GIS***中的全区域卫星影像图中步进获得的;所述滑动窗口是根据所述俯视图截图的尺寸信息和所述全区域卫星影像图的尺寸信息预先确定的;
基于所述图像匹配模型依次将每个所述候选卫星影像图与所述俯视图截图进行匹配,获得每个所述候选卫星影像图对应的候选匹配点对集合;
基于所述候选匹配点对集合确定待匹配卫星影像图。
可选地,所述基于所述候选匹配点对集合确定待匹配卫星影像图,包括:
基于RANSAC算法对每个所述候选匹配点对集合进行筛选,筛选后的匹配点对数量最大的候选匹配点对集合对应的候选卫星影像图为待匹配卫星影像图。
可选地,所述特征提取模块是基于特征提取算法构建的,所述特征提取算法为SIFT算法或ASLFeat算法。
第二方面,本发明还提供一种三维模型和地理信息***的融合装置,包括:
获取模块,用于获取3D模型的俯视图截图和地理信息***GIS中的待匹配卫星影像图;
匹配模块,用于将所述俯视图截图和所述待匹配卫星影像图输入至图像匹配算法,获得所述图像匹配算法输出的匹配点对集合;
计算模块,用于基于所述匹配点对集合计算所述3D模型在所述待匹配卫星影像图上的映射区域以及所述映射区域的中心经纬度;
融合模块,用于基于所述中心经纬度对所述3D模型和所述GIS进行融合;
其中,所述匹配点对包括第一特征向量和第二特征向量,所述第一特征向量对应于所述俯视图截图,所述第二特征向量对应于所述待匹配卫星影像图。
第三方面,本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如第一方面所述三维模型和地理信息***的融合方法的步骤。
第四方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面所述三维模型和地理信息***的融合方法的步骤。
第五方面,本发明还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如第一方面所述三维模型和地理信息***的融合方法的步骤。
本发明提供的三维模型和地理信息***的融合方法及装置,通过将3D模型的俯视图截图和3D模型所在区域的卫星影像图作为图像匹配模型的输入,得到两张图片的匹配点对,再根据匹配点对计算3D模型在GIS中的映射区域并得到对应区域的中心经纬度,最终将3D模型按照中心经纬度映射到GIS中对应区域。本申请实施例基于图像匹配对3D模型和GIS进行融合,扩展了3D模型和GIS融合中三维模型的种类和范围,提高了三维模型和地理信息***的融合方法的适用性。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的三维模型和地理信息***的融合方法的流程示意图之一;
图2是本发明实施例提供的特征点示意图;
图3是本发明实施例提供的梯度直方图的计算示意图;
图4是本发明实施例提供的映射示意图;
图5是本发明实施例提供的使用滑动窗口划分卫星影像图的示意图;
图6是本发明实施例提供的三维模型和地理信息***的融合方法的流程示意图之二;
图7是本发明实施例提供的截图预处理的流程示意图;
图8是本发明实施例提供的三维模型和地理信息***的融合装置的结构示意图;
图9是本发明实施例提供的电子设备的实体结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合图1-图7描述本发明实施例提供的三维模型和地理信息***的融合方法。
图1是本发明实施例提供的三维模型和地理信息***的融合方法的流程示意图之一,如图1所示,本发明实施例提供的三维模型和地理信息***的融合方法,包括:
步骤110,获取3D模型的俯视图截图和地理信息***GIS中的待匹配卫星影像图;
步骤120,将所述俯视图截图和所述待匹配卫星影像图输入至图像匹配模型,获得所述图像匹配模型输出的匹配点对集合;
步骤130,基于所述匹配点对集合计算所述3D模型在所述待匹配卫星影像图上的映射区域以及所述映射区域的中心经纬度;
步骤140,基于所述中心经纬度对所述3D模型和所述GIS进行融合;
其中,所述图像匹配模型是基于图像匹配算法构建的;所述匹配点对包括第一特征向量和第二特征向量,所述第一特征向量对应于所述俯视图截图,所述第二特征向量对应于所述待匹配卫星影像图。
GIS***中的卫星影像图精度可以达到1m,而3D建模技术生成的模型精度更是无限接近于真实的。因此在相近比例尺下,3D模型对应区域的卫星影像图和3D模型的俯视图截图具有高度的相似性。另外,在保证3D模型的方位与GIS的方位保持一致的情形下,只需要找到3D模型在GIS上映射区域的中心经纬度,再将3D模型加载到GIS中对应经纬度,即可完成3D模型与GIS的映射过程。
因此,本发明实施例提供一种三维模型和地理信息***的融合方法,将3D模型的俯视图截图和3D模型所在区域的卫星影像图作为图像匹配模型的输入,得到两张图片的匹配点对,再根据匹配点对计算3D模型在GIS中的映射区域并得到对应区域的中心经纬度,最终将3D模型按照中心经纬度映射到GIS中对应区域。本申请实施例基于图像匹配对3D模型和GIS进行融合,不拘束于3D模型复杂的空间特性,本发明实施例中的3D模型可以是通过3D软件建模的模型(比如BIM模型),也可以是通过仪器设备建模而来的三维模型(比如倾斜摄影模型);可以是与GIS同源的三维模型,也可以是非同源的三维模型。本发明实施例扩展了GIS融合非同源三维模型的种类和范围,提高了三维模型和地理信息***的融合方法的适用性。
下面,对上述步骤在具体实施例中的可能的实现方式做进一步说明。
步骤110,获取3D模型的俯视图截图和地理信息***GIS中的待匹配卫星影像图。
将需要映射的3D模型表示为M,模型映射的目标GIS表示为g,3D模型的俯视图截图表示为PM,3D模型对应区域的卫星影像图为待匹配卫星影像图,表示为Pg。Pg中包含经纬度信息,即可以在GIS***中确定Pg中每个像素点对应的经纬度范围,PM与Pg的方位保持一致,即3D模型的俯视图截图与待匹配卫星影像图均按照上北下南,左西右东的原则进行匹配。
步骤120,将所述俯视图截图和所述待匹配卫星影像图输入至图像匹配模型,获得所述图像匹配模型输出的匹配点对集合。
其中,所述图像匹配模型是基于图像匹配算法构建的;所述匹配点对包括第一特征向量和第二特征向量,所述第一特征向量对应于所述俯视图截图,所述第二特征向量对应于所述待匹配卫星影像图。
可选地,所述图像匹配模型包括特征提取模块和特征匹配模块;所述特征提取模块是基于特征提取算法构建的,所述特征匹配模块是基于K近邻特征点匹配算法构建的;
所述将所述俯视图截图和所述待匹配卫星影像图输入至图像匹配模型,获得所述图像匹配模型输出的匹配点对集合,包括:
步骤121,将所述俯视图截图和所述待匹配卫星影像图输入至所述特征提取模块,获得所述特征提取模块输出的第一特征向量集合和第二特征向量集合;
步骤122,将所述第一特征向量和所述第二特征向量输入至所述特征匹配模块,获得所述特征匹配模块输出的匹配点对集合。
所述特征提取模块是基于特征提取算法构建的,所述特征提取算法为SIFT算法或ASLFeat算法。
一个实施例中,图像匹配模型是基于SIFT算法和K近邻特征点匹配算法构建的。
SIFT算法主要分为特征点检测、特征点描述子生成和特征点匹配三个步骤,下面将详细介绍这三个步骤。
特征点检测:
a.构建尺度空间。尺度空间理论的建立是为了模拟图像的多尺度特征。高斯卷积核是实现尺度变换的唯一线性核,图像的尺度空间定义为:
Figure BDA0003476122410000081
L(x,y,z)=G(x,y,z)*I(x,y);
其中G(x,y,z)是尺度可变的高斯函数。(x,y)是空间坐标也是尺度坐标。图像的平滑程度取决于σ的大小:粗糙尺度(低分辨率)对应于大的σ值,精细尺度(高分辨率)对应于小的σ。*代表卷积操作,L(x,y,z)表示图像I(x,y)的尺度空间。
b.检测空间极值点。将每一个采样点和其全部相邻的点进行比较,对比他们之间图像域和尺度域的大小,以这样的方式可以达到寻找尺度空间极值点的目的。图2是本发明实施例提供的特征点示意图,如图2所示,图中的中间层为当前层,中间层中有白色交叉标记的点为特征点,图中的特征点的相邻点是当前层8个相邻的点和相邻的上一层和下一层各9个相邻点,因此检测空间极值点的时候,共检测26个相邻点。
c.特征点描述子生成:通过计算特征点的方向梯度直方图来确定特征点的主方向。
经过以上步骤,SIFT找到对应图像中不同尺度的特征点,此时可以保证提取出来的特征点具有尺度不变性。
特征点描述子生成:
经过对图片的裁剪预处理,生成水平和垂直方向的梯度幅值图,图3是本发明实施例提供的梯度直方图的计算示意图,如图3所示,图3-a表示本发明实施例所取的特征点邻近的16×16的cell图,并将cell图分为4×4的窗口分别计算梯度直方图(Histograms oforiented gradients,HOG),图3-b表示每一个4×4的窗口计算出来的HOG,并且每个HOG可用一个向量vi表示,i=1,2,...,16,图3-a和图3-b中心处的圆点表示特征点。计算特征点周围16×16的cell中的HOG,计算每个cell向量时,其中每个特征点将用128维向量表征,在计算梯度直方图之前将坐标轴旋转至特征点的主方向,这样提取出来的特征具备旋转不变性。最后将特征进行标准化,使提取出来的特征具有光照不变性。最终得到的向量即为对应特征点的特征向量。
基于SIFT算法,将所述俯视图截图输入至特征提取模块,可以获得特征提取模块输出的第一特征向量集合;将待匹配卫星影像图输入至特征提取模块,可以获得特征提取模块输出的第二特征向量集合。
特征点匹配:k近邻特征点匹配算法
考虑到在进行匹配时,需要对大量的特征向量进行搜索。因此建立多棵随机k-d树,具体数量由算法运行环境限制。Fmodel表示提取出来的一定比例尺下3D模型的俯视图截图的特征点的特征向量集合,即第一特征向量集合,其中
Figure BDA0003476122410000091
fm表示Fmodel中的特征向量;Fbase表示提取出来的需要进行匹配的待匹配卫星影像图中的特征向量集合,即第二特征向量集合,
Figure BDA0003476122410000092
fb表示Fbase中的特征向量。Φ表示匹配点对pair的集合,初始化为空集。ψ表示建立的k-d树,σ表示k近邻算法中当前待匹配的特征向量vm与次近邻向量Nnext相似度和最近邻向量Nmax相似度的比值,一般将其设置为0.7,特征向量
Figure BDA0003476122410000101
与特征向量
Figure BDA0003476122410000102
之间的相似度用
Figure BDA0003476122410000103
函数计算。
具体算法如下:
Figure BDA0003476122410000104
一个实施例中,图像匹配模型是基于ASLFeat算法和K近邻特征点匹配算法构建的。
ASLFeat为了提高计算效率,其网络框架主要以L2-Net为基准,将网络最后三层换成DCN(deformable convolutional network),同时ASLFeat利用了网络金字塔特征的固有层次性,提出了新的多尺度检测机制,即一种分层的尺度融合方法,使检测出来的特征点具有尺度不变性。相比于原来的D2-Net,其在通道上改变了特征点的判断标准,能够检测更加准确的特征点。
ASLFeat其在M函数上进行了改动,可以更加稳定的检测特征点和生成特征点描述子。Γ(I,I)表示网络的损失函数。I和I表示需要匹配的两张图片,fc和fc 表示特征点对应的描述符,M(.,.)为网络的排序损失。D(.,.)表示两个特征点的欧几里得距离,mp和mn分别设定其值为0.2,1.0。
Figure BDA0003476122410000111
Figure BDA0003476122410000112
分别将PM和Pg为特征提取模块的输入,经过特征提取网络的迭代,最终检测出两张图片的特征点并同时生成对应特征点的描述子,即生成第一特征向量集合和第二特征向量集合。ASLFeat网络已经在D2-Net上分类任务进行了初始化。相比于传统的SIFT算法提取的特征点,ASLFeat算法能提取更多的更高质量特征点,但是它对图片的旋转适应性较差同时对算法运行内存的要求较高且耗费更多的时间。
特征匹配与上文所述的基于k近邻特征点匹配算法进行特征点匹配相同,此处不再赘述。
步骤130,基于所述匹配点对集合计算所述3D模型在所述待匹配卫星影像图上的映射区域以及所述映射区域的中心经纬度。
可选地,所述基于所述匹配点对集合计算所述3D模型在所述待匹配卫星影像图上的映射区域以及所述映射区域的中心经纬度,包括:
步骤131,基于RANSAC算法对所述匹配点对集合进行筛选,并获得筛选后的匹配点对集合对应的变换矩阵;
该步骤中,采用随机抽样一致性算法(Random sample consensus,RANSAC)对匹配点对集合进行筛选,获得正确的匹配点对。先随机选取匹配点对集合中的若干个匹配点对,计算出变换矩阵F,然后检测其他的点是否满足变换矩阵F,得到满足该变换矩阵的内点,基于RANSAC算法进行迭代,获得多个变换矩阵,得到内点最多的变换矩阵为基于二维点对之间的最优单映射变换矩阵,即所述匹配点对集合对应的变换矩阵。通过将俯视图截图中的点代入变换矩阵,可以得到俯视图截图中的点在卫星影像图中的对应位置。
步骤132,基于所述变换矩阵对所述俯视图截图进行变换,获得所述3D模型在所述待匹配卫星影像图上的映射区域;
图4是本发明实施例提供的映射示意图,如图4所示,图4中左上方小图为俯视图截图,右侧为待匹配卫星影像图,图中连线代表俯视图截图和待匹配卫星影像图中的匹配上的一对特征点。根据变换矩阵对俯视图截图的四个角进行变换,获得四个角在卫星影像图上对应的坐标,连接四个角在卫星影像图上的映射位置,得到映射区域,如图4中卫星影像图中的白色四边形框选区域所示。
步骤133,计算所述映射区域的中心点对应的经纬度,获得所述中心经纬度。
计算映射区域中的中心点,即映射区域的中心像素。由于比例尺足够小,故可认为在卫星影像图上经度线与纬度线为直线,同时又已知晓整张卫星影像图的经纬度范围,所以可以直接计算出卫星影像图每一个像素对应的经纬度坐标,因此可以得到映射区域的中心点像素对应的经纬度。
步骤140,基于所述中心经纬度对所述3D模型和所述GIS进行融合。
由于3D模型中包含地理信息,如建筑物的距离信息、方向信息和比例尺信息等,GIS***中也包含相同的地理信息,因此将3D模型与GIS的比例尺和朝向(通常按照上北下南左西右东的规则)调节一致后,只需要将3D模型和GIS***进行位置匹配即可完成3D模型和GIS的融合。本发明实施例可以通过计算3D模型俯视图截图的中心位置,在3D模型中确定映射位置,所述映射位置是指所述俯视图截图中心对应在3D模型中的位置,将3D模型的映射位置移动到GIS中确定的中心经纬度位置,进而完成将3D模型精确映射到GIS对应区域的任务。
在匹配过程中,待匹配卫星影像图可以是GIS***中保存的全区域卫星影像图,全区域卫星影像图是指包含GIS***中保存的完整的区域卫星影像图,可以是一片区域,也可以是整个地球表面,如GIS***中保存有A市卫星影像图,3D模型对应A市B区的C街道,此时用A市的全区域卫星影像图与3D模型俯视图截图进行匹配,一方面,3D模型映射到GIS上只对应全区域卫星影像图上的一小块区域,然而由于全区域卫星影像图过大,造成在匹配时存在较多的相似区域的特征干扰,从而降低了匹配的精度。另一方面,全区域卫星影像图过大也会造成占用内存过多而无法完成3D模型映射到GIS上的任务。
可选地,本发明实施例中获取所述待匹配卫星影像图的步骤包括:
步骤510,获取多个候选卫星影像图;所述候选卫星影像图是通过滑动窗口在所述GIS***中的全区域卫星影像图中步进获得的;所述滑动窗口是根据所述俯视图截图的尺寸信息和所述全区域卫星影像图的尺寸信息预先确定的;
将全区域卫星影像图划分为网格,网格大小由俯视图截图和卫星影像图的比例尺共同决定,通过比例尺换算,可以计算出3D模型在卫星影像图上映射区域的大小。用SM表示俯视图截图的比例尺,用Sg表示卫星影像图的比例尺,WM,HM分别表示俯视图截图的宽度和高度,Wmatch,Hmatch分别表示3D模型在卫星影像图上的映射区域的宽度和高度。通过以下公式可以计算出映射区域的宽度和高度。
Figure BDA0003476122410000141
Figure BDA0003476122410000142
这样将卫星影像图按照宽度Wmatch和高度Hmatch的网格划分,能保证3D模型的映射区域至少包含在一个完整的网格内。根据网格大小确定滑动窗口的大小,可选的,2×2网格大小的滑动窗口则保证跨网格的映射区域能在一次特征点匹配任务中完整的计算出来,即每次PM与一个滑动窗口进行特征点匹配,因此必有一个窗口将映射区域包含在内。对于全区域卫星影像图,首先按照宽度Wmatch和高度Hmatch划分为网格
Figure BDA0003476122410000143
N为正整数,共分为N个网格。再将网格组成滑动窗口wdj,j=1,2,3,……,M,M为正整数,共分为M个窗口。每一个窗口对应的区域为一个候选卫星影像图。
一个实施例中,图5是本发明实施例提供的使用滑动窗口划分卫星影像图的示意图,如图5所示,图5中左边小图表示3D模型的俯视图截图,右边表示被网格划分为较小区域的卫星影像图。全区域卫星影像图被划分为28个网格,滑动窗口大小采用2×2网格大小,初始滑动窗口包括网格1、2、8和9,网格1、2、8和9组成一个候选卫星影像图,滑动窗口以一个网格为步长进行步进,进入下一个区域网格2、3、9和10(如图5中第一个白色矩形框所示)。
步骤520,基于所述图像匹配模型依次将每个所述候选卫星影像图与所述俯视图截图进行匹配,获得每个所述候选卫星影像图对应的候选匹配点对集合;
将俯视图截图输入至图像匹配模型的特征提取模块,获取特征提取模块输出的第一特征向量集合,将每个候选卫星影像图输入至图像匹配模型的特征提取模块,获取特征提取模块输出的与各个候选卫星影像图对应的第二特征向量集合,可以表示为:wdj,j=1,2,3,……,M。
将第一特征向量集合和wd1输入至特征匹配模块,获得特征匹配模块输出的候选匹配点对集合;将第一特征向量集合和wd2输入至特征匹配模块,获得特征匹配模块输出的候选匹配点对集合……以此类推,直至俯视图截图与所有候选卫星影像图完成匹配。可以理解的是,为防止出现内存溢出,可以将依次进行特征提取和匹配,为了提高效率,也可以将多个特征提取和匹配任务分配给多台计算机同时进行。
基于多个候选卫星影像图的分布式特征点匹配算法,如下:
Figure BDA0003476122410000151
Figure BDA0003476122410000161
步骤530,基于所述候选匹配点对集合确定待匹配卫星影像图。
基于RANSAC算法对每个所述候选匹配点对集合进行筛选,筛选后的匹配点对数量最大的候选匹配点对集合对应的候选卫星影像图为待匹配卫星影像图。
基于RANSAC算法对每个所述候选匹配点对集合进行筛选与上述步骤131方法相同,此处不再赘述。
一个实施例中,筛选后的候选匹配点对集合1中有8个匹配点对,筛选后的候选匹配点对集合2中有18个匹配点对,筛选后的候选匹配点对集合3中有99个匹配点对,则候选匹配点对集合3对应的候选卫星影像图为待匹配卫星影像图。如图5所示,候选匹配点对集合3对应网格11、12、18和19组成的候选卫星影像图(如图中第二个白色矩形框所示),网格11、12、18和19中间的白色小矩形框代表3D模型在卫星影像图中的映射区域。
可以理解的是,确定待匹配卫星影像图后,可以直接转到步骤132,无需重新对俯视图截图和待匹配卫星影像图进行图像匹配和匹配点对筛选。
本发明实施例提供的基于分布式算法确定待匹配卫星影像图,解决了GIS对应区域的卫星影像地图过大造成内存溢出问题,同时也提高了算法运行效率,能更快的将3D模型映射到GIS中指定的区域。
图6是本发明实施例提供的三维模型和地理信息***的融合方法的流程示意图之二,如图6所示,本发明实施例提供的三维模型和地理信息***的融合方法,包括:
1、图片匹配。将3D模型俯视图截图与卫星影像图(以下也称为底图)输入SIFT算法,经过三个小的步骤:特征点检测;特征点描述子生成;特征点匹配,最终算法输出俯视图截图与卫星影像图两两对应的特征点向量对的集合。对于基于深度学习的ASLFeat算法的图片匹配,该算法在检测特征点同时也生成特征点的描述子,在进行特征点匹配时采用K近邻特征点匹配算法(与SIFT采用相同的匹配算法)来进行此过程。为便于理解,图6中采用了两种大小的俯视图截图作为示例,图中白色矩形框与箭头组合代表局部放大,对应GIS区域卫星影像图中的第一框选区域局部放大后,将第一框选区域卫星影像图与较大的俯视图截图进行匹配,此时由于卫星影像图区域较大,造成在匹配时存在较多的相似区域的特征干扰,从而降低了匹配的精度。对第一框选区域中匹配点对密集的区域进行框选,得到第二框选区域,对第二框选区域局部放大,对应的3D模型俯视图截图相应放大,匹配精度提高。
2、区域映射及中心经纬度计算。采用RANSAC算法计算俯视图截图映射到卫星影像图区域范围,若最终得到的区域范围是俯视图截图经过尺度变换后在底图上映射的区域范围大小,则即可判断该映射区域就是最终三维模型映射在GIS上正确区域。之后计算映射区域的中心经纬度并返回该经纬度数据,在GIS平台将三维模型加载至该经纬度即完成了三维模型与GIS的精确映射。
本发明实施例提出的方法将3D模型与GIS的精准映射问题转化为两张图片的匹配,通过将3D模型俯视图截图与卫星影像图进行图片匹配,再根据匹配结果计算模型截图映射到卫星影像图的具体区域,同时计算出映射区域中心经纬度,再将3D模型加载到GIS上对应的经纬度位置,这样就完成了3D模型与GIS的精准映射。通过3D建模技术对一片区域的场景进行3D建模,最终得到的模型具有该片区域的精细的3D特征,再将该3D模型映射到GIS上指定经纬度,弥补了GIS缺乏局部细节3D信息的缺点。
下面对本发明实施例的效果进行介绍,本实施例均在谷歌浏览器上进行。首先需要将3D模型在浏览器中加载出来,对其俯视图进行截图。因为在进行图片匹配时需要考虑比例尺,所以在截图时需要调整截图视角高度,同时还需要对截图进行预处理;其次因为实验在浏览器上进行,需要在后台调用Python语言封装的SIFT和ASLFeat算法。所以下面分两部分介绍实验的进行,第一部分为预处理部分:视角高度调整和截图预处理;第二部分为SIFT或ASLFeat算法返回结果对模型位置调整部分:算法调用和参数传递。对于GIS的卫星影像图数据,通过调用地图API直接获取对应区域的卫星图像,其比例尺为固定值。
视角高度调整和截图预处理。在浏览器中将3D模型按照不同视角高度将其加载出来,后台自动调用函数对模型的俯视图进截图,选择截图中3D模型俯视图面积最大的一张作为输入图片。因为在浏览器中对模型进行截图时会截到一些与模型无关的区域,因此需要进一步对模型截图进行预处理。设计预处理算法,首先定位原始截图(即浏览器中的未经处理的完整截图)区域边界并裁剪,然后对图像进行二值化并检索得到模型截图边界。图7是本发明实施例提供的截图预处理的流程示意图,如图7所示,左边的图为从浏览器界面截到的完整的图,可以发现除了3D模型的俯视图,还有浏览器的界面以及大部分背景。右边的图为调用预处理算法后返回的结果,预处理后的截图去除了浏览器界面以及与模型无关的背景。
算法调用和参数传递。建立一个node服务器,通过监听主机8086端口来调用基于图像匹配算法构建的图像匹配模型。具体是在模型展示页面设置一个按钮,点击按钮向node服务器发送一个post请求,后台运行程序先调整模型的缩放比例,其次对屏幕进行截图并对图片进行预处理,以此图片和对应区域的GIS的截图为参数运行图片匹配模型,具体使用node中的child_process.exec()方法去调用python脚本,child_process.exec('python test.py')相当于在命令行中输入python test.py达到调用脚本的目的。服务器在后台完成算法运行和结果处理,最终向网页返回中心经纬度,在前端页面自动完成模型的移动。
本发明实施例中正确匹配的特征点数越多,3D模型映射到GIS就越精确;算法耗时越少,其性能越好。特征点对数表示从3D模型俯视图截图与底图上提取的达到匹配要求精度的特征点。
本实施例主要用3D模型(倾斜摄影模型与BIM模型)映射到对应的GIS上对算法进行测试,其中模型1~3为倾斜摄影模型,模型4为BIM模型,将对应GIS区域的卫星影像图分成六种比例尺:L15,L16,L17,L18,L19,L20,不同比例尺的信息见表1所示。
表1.尺度与比例尺对应表
Figure BDA0003476122410000191
3D模型俯视图截图数据如表2所示。
表2. 3D模型俯视图截图信息
Figure BDA0003476122410000192
表3为模型1和不同比例尺区域1底图的实验结果,表4为模型2和不同比例尺区域2底图的实验结果,表5为模型3和不同比例尺区域3底图的实验结果,表6为模型4和不同比例尺区域3底图的实验结果。
表3中原算法与使用分布式匹配后的原算法中,3D模型与L15和L16比例尺的底图均未能匹配成功。原算法与使用了分布式技术的原算法性能差异不显著,而采用了分布式匹配的ASLFeat算法却能匹配成功,可见其提取特征点的能力优于SIFT算法。在L17比例尺下三种算法均能在同样配置的主机上匹配成功,但由于需要训练网络,需要计算大量参数,其匹配点数虽然多,但是耗时太长反而不能达到工业生产环境下的标准。3D模型截图比例尺和L16级别底图比例尺接近,匹配点对最多,匹配可靠性更高。本实施例对两种算法进行了不同3D模型截图模型和不同比例尺的底图的匹配实验,算法具有一定的尺度适应性,但综合而言只有当3D模型截图和底图比例尺接近时匹配效果最好。如果比例尺差距过大则会造成特征差异较大无法匹配的情况,且图片比例尺和像素更大时匹配效果更好。随着图像像素的增大,特征点检测和匹配运算量增大,算法耗时也会增加。无论是SIFT算法还是ASLFeat算法,采用了分布式技术以后,在进行图片匹配时不用将整张GIS底图加载到内存进行匹配,解决了由于3D GIS底图过大内存溢出的问题。
表3.模型1匹配实验结果
Figure BDA0003476122410000201
表4.模型2匹配实验结果
Figure BDA0003476122410000202
Figure BDA0003476122410000211
表5.模型3匹配实验结果
Figure BDA0003476122410000212
表6.模型4匹配实验结果
Figure BDA0003476122410000213
本发明实施例解决了在实际应用中将3D模型在与之对应的3DGIS区域映射的问题。利用图像处理中的特征点匹配算法,对不同比例尺下的3D模型的俯视图截图和3D模型对应地区的卫星影像图进行特征点提取,再利用梯度直方图对提取到的特征点进行描述,最后再用k近邻匹配算法对3D模型俯视图截图的特征向量和其对应卫星影像图的特征向量进行匹配。本发明实施例还根据3D模型截图和底图的比例尺及尺寸,计算3D模型的截图映射在底图上的区域大小,采用更大的网格将底图划分(比如四倍范围)。这样并行的将3D模型截图和划分后的底图进行匹配,一方面可以减少在匹配时候其他相似区域的特征干扰;另一方面,由于我们将底图进行划分,算法可以在多台机器并行地进行图片匹配任务,提升了匹配的效率。
下面对本发明提供的三维模型和地理信息***的融合装置进行描述,下文描述的三维模型和地理信息***的融合装置与上文描述的三维模型和地理信息***的融合方法可相互对应参照。
图8是本发明实施例提供的三维模型和地理信息***的融合装置的结构示意图,如图8所示,本发明实施例提供的三维模型和地理信息***的融合装置包括:获取模块810、匹配模块820、计算模块830和融合模块840;
获取模块810,用于获取3D模型的俯视图截图和地理信息***GIS中的待匹配卫星影像图;
匹配模块820,用于将所述俯视图截图和所述待匹配卫星影像图输入至图像匹配算法,获得所述图像匹配算法输出的匹配点对集合;
计算模块830,用于基于所述匹配点对集合计算所述3D模型在所述待匹配卫星影像图上的映射区域以及所述映射区域的中心经纬度;
融合模块840,用于基于所述中心经纬度对所述3D模型和所述GIS进行融合;
其中,所述匹配点对包括第一特征向量和第二特征向量,所述第一特征向量对应于所述俯视图截图,所述第二特征向量对应于所述待匹配卫星影像图。
在此需要说明的是,本发明实施例提供的上述装置,能够实现上述方法实施例所实现的所有方法步骤,且能够达到相同的技术效果,在此不再对本实施例中与方法实施例相同的部分及有益效果进行具体赘述。
图9是本发明实施例提供的电子设备的实体结构示意图,如图9所示,该电子设备可以包括:处理器(processor)910、通信接口(Communications Interface)920、存储器(memory)930和通信总线940,其中,处理器910,通信接口920,存储器930通过通信总线940完成相互间的通信。处理器910可以调用存储器930中的逻辑指令,以执行三维模型和地理信息***的融合方法,该方法包括:获取3D模型的俯视图截图和地理信息***GIS中的待匹配卫星影像图;将所述俯视图截图和所述待匹配卫星影像图输入至图像匹配模型,获得所述图像匹配模型输出的匹配点对集合;基于所述匹配点对集合计算所述3D模型在所述待匹配卫星影像图上的映射区域以及所述映射区域的中心经纬度;基于所述中心经纬度对所述3D模型和所述GIS进行融合;其中,所述图像匹配模型是基于图像匹配算法构建的;所述匹配点对包括第一特征向量和第二特征向量,所述第一特征向量对应于所述俯视图截图,所述第二特征向量对应于所述待匹配卫星影像图。
此外,上述的存储器930中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括计算机程序,计算机程序可存储在非暂态计算机可读存储介质上,所述计算机程序被处理器执行时,计算机能够执行上述各方法所提供的三维模型和地理信息***的融合方法,该方法包括:获取3D模型的俯视图截图和地理信息***GIS中的待匹配卫星影像图;将所述俯视图截图和所述待匹配卫星影像图输入至图像匹配模型,获得所述图像匹配模型输出的匹配点对集合;基于所述匹配点对集合计算所述3D模型在所述待匹配卫星影像图上的映射区域以及所述映射区域的中心经纬度;基于所述中心经纬度对所述3D模型和所述GIS进行融合;其中,所述图像匹配模型是基于图像匹配算法构建的;所述匹配点对包括第一特征向量和第二特征向量,所述第一特征向量对应于所述俯视图截图,所述第二特征向量对应于所述待匹配卫星影像图。
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各方法提供的三维模型和地理信息***的融合方法,该方法包括:获取3D模型的俯视图截图和地理信息***GIS中的待匹配卫星影像图;将所述俯视图截图和所述待匹配卫星影像图输入至图像匹配模型,获得所述图像匹配模型输出的匹配点对集合;基于所述匹配点对集合计算所述3D模型在所述待匹配卫星影像图上的映射区域以及所述映射区域的中心经纬度;基于所述中心经纬度对所述3D模型和所述GIS进行融合;其中,所述图像匹配模型是基于图像匹配算法构建的;所述匹配点对包括第一特征向量和第二特征向量,所述第一特征向量对应于所述俯视图截图,所述第二特征向量对应于所述待匹配卫星影像图。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种三维模型和地理信息***的融合方法,其特征在于,包括:
获取3D模型的俯视图截图和地理信息***GIS中的待匹配卫星影像图;
将所述俯视图截图和所述待匹配卫星影像图输入至图像匹配模型,获得所述图像匹配模型输出的匹配点对集合;
基于所述匹配点对集合计算所述3D模型在所述待匹配卫星影像图上的映射区域以及所述映射区域的中心经纬度;
基于所述中心经纬度对所述3D模型和所述GIS进行融合;
其中,所述图像匹配模型是基于图像匹配算法构建的;所述匹配点对包括第一特征向量和第二特征向量,所述第一特征向量对应于所述俯视图截图,所述第二特征向量对应于所述待匹配卫星影像图。
2.根据权利要求1所述的三维模型和地理信息***的融合方法,其特征在于,所述图像匹配模型包括特征提取模块和特征匹配模块;所述特征提取模块是基于特征提取算法构建的,所述特征匹配模块是基于K近邻特征点匹配算法构建的;
所述将所述俯视图截图和所述待匹配卫星影像图输入至图像匹配模型,获得所述图像匹配模型输出的匹配点对集合,包括:
将所述俯视图截图和所述待匹配卫星影像图输入至所述特征提取模块,获得所述特征提取模块输出的第一特征向量集合和第二特征向量集合;
将所述第一特征向量和所述第二特征向量输入至所述特征匹配模块,获得所述特征匹配模块输出的匹配点对集合。
3.根据权利要求1或2所述的三维模型和地理信息***的融合方法,其特征在于,所述基于所述匹配点对集合计算所述3D模型在所述待匹配卫星影像图上的映射区域以及所述映射区域的中心经纬度,包括:
基于RANSAC算法对所述匹配点对集合进行筛选,并获得筛选后的匹配点对集合对应的变换矩阵;
基于所述变换矩阵对所述俯视图截图进行变换,获得所述3D模型在所述待匹配卫星影像图上的映射区域;
计算所述映射区域的中心点对应的经纬度,获得所述中心经纬度。
4.根据权利要求3所述的三维模型和地理信息***的融合方法,其特征在于,获取所述待匹配卫星影像图的步骤包括:
获取多个候选卫星影像图;所述候选卫星影像图是通过滑动窗口在所述GIS***中的全区域卫星影像图中步进获得的;所述滑动窗口是根据所述俯视图截图的尺寸信息和所述全区域卫星影像图的尺寸信息预先确定的;
基于所述图像匹配模型依次将每个所述候选卫星影像图与所述俯视图截图进行匹配,获得每个所述候选卫星影像图对应的候选匹配点对集合;
基于所述候选匹配点对集合确定待匹配卫星影像图。
5.根据权利要求4所述的三维模型和地理信息***的融合方法,其特征在于,所述基于所述候选匹配点对集合确定待匹配卫星影像图,包括:
基于RANSAC算法对每个所述候选匹配点对集合进行筛选,筛选后的匹配点对数量最大的候选匹配点对集合对应的候选卫星影像图为待匹配卫星影像图。
6.根据权利要求2所述的三维模型和地理信息***的融合方法,其特征在于,所述特征提取模块是基于特征提取算法构建的,所述特征提取算法为SIFT算法或ASLFeat算法。
7.一种三维模型和地理信息***的融合装置,其特征在于,包括:
获取模块,用于获取3D模型的俯视图截图和地理信息***GIS中的待匹配卫星影像图;
匹配模块,用于将所述俯视图截图和所述待匹配卫星影像图输入至图像匹配算法,获得所述图像匹配算法输出的匹配点对集合;
计算模块,用于基于所述匹配点对集合计算所述3D模型在所述待匹配卫星影像图上的映射区域以及所述映射区域的中心经纬度;
融合模块,用于基于所述中心经纬度对所述3D模型和所述GIS进行融合;
其中,所述匹配点对包括第一特征向量和第二特征向量,所述第一特征向量对应于所述俯视图截图,所述第二特征向量对应于所述待匹配卫星影像图。
8.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至6任一项所述三维模型和地理信息***的融合方法的步骤。
9.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述三维模型和地理信息***的融合方法的步骤。
10.一种计算机程序产品,包括计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述三维模型和地理信息***的融合方法的步骤。
CN202210055032.6A 2022-01-18 2022-01-18 三维模型和地理信息***的融合方法及装置 Pending CN114463503A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210055032.6A CN114463503A (zh) 2022-01-18 2022-01-18 三维模型和地理信息***的融合方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210055032.6A CN114463503A (zh) 2022-01-18 2022-01-18 三维模型和地理信息***的融合方法及装置

Publications (1)

Publication Number Publication Date
CN114463503A true CN114463503A (zh) 2022-05-10

Family

ID=81410017

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210055032.6A Pending CN114463503A (zh) 2022-01-18 2022-01-18 三维模型和地理信息***的融合方法及装置

Country Status (1)

Country Link
CN (1) CN114463503A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115457222A (zh) * 2022-09-14 2022-12-09 北京建筑大学 一种在地理信息***中地理配准三维模型的方法
CN117876723A (zh) * 2024-03-11 2024-04-12 湖南大学 一种拒止环境下无人机航拍图像全局检索定位方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115457222A (zh) * 2022-09-14 2022-12-09 北京建筑大学 一种在地理信息***中地理配准三维模型的方法
CN117876723A (zh) * 2024-03-11 2024-04-12 湖南大学 一种拒止环境下无人机航拍图像全局检索定位方法
CN117876723B (zh) * 2024-03-11 2024-05-31 湖南大学 一种拒止环境下无人机航拍图像全局检索定位方法

Similar Documents

Publication Publication Date Title
US9508186B2 (en) Pre-segment point cloud data to run real-time shape extraction faster
US9189862B2 (en) Outline approximation for point cloud of building
CN109683699B (zh) 基于深度学习实现增强现实的方法、装置及移动终端
Wang et al. Land cover change detection at subpixel resolution with a Hopfield neural network
US11403812B2 (en) 3D object reconstruction method, computer apparatus and storage medium
CN112529015A (zh) 一种基于几何解缠的三维点云处理方法、装置及设备
Gui et al. Automated LoD-2 model reconstruction from very-high-resolution satellite-derived digital surface model and orthophoto
CN114463503A (zh) 三维模型和地理信息***的融合方法及装置
Jiang et al. Estimation of construction site elevations using drone-based orthoimagery and deep learning
CN112489099A (zh) 点云配准方法、装置、存储介质及电子设备
KR20200136723A (ko) 가상 도시 모델을 이용하여 객체 인식을 위한 학습 데이터 생성 방법 및 장치
CN116563493A (zh) 基于三维重建的模型训练方法、三维重建方法及装置
CN115457492A (zh) 目标检测方法、装置、计算机设备及存储介质
CN115937546A (zh) 图像匹配、三维图像重建方法、装置、电子设备以及介质
CN113284237A (zh) 一种三维重建方法、***、电子设备及存储介质
CN105631849B (zh) 多边形目标的变化检测方法及装置
CN117372604A (zh) 一种3d人脸模型生成方法、装置、设备及可读存储介质
CN117132649A (zh) 人工智能融合北斗卫星导航的船舶视频定位方法及装置
CN116758419A (zh) 针对遥感图像的多尺度目标检测方法、装置和设备
Li et al. Low-cost 3D building modeling via image processing
Ahmed et al. High-quality building information models (BIMs) using geospatial datasets
Huang Change detection of construction sites based on 3D point clouds
CN112767477A (zh) 一种定位方法、装置、存储介质及电子设备
Boos Image Segmentation using Convolutional Neural Networks for Change Detection of Landcover
Widyaningrum et al. Tailored features for semantic segmentation with a DGCNN using free training samples of a colored airborne point cloud

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20240408

Address after: 1308, 13th Floor, Shougang Sports Building, No. 6 Jinyuanzhuang Road, Shijingshan District, Beijing, 100043

Applicant after: BIM WINNER (BEIJING) TECHNOLOGY CO.,LTD.

Country or region after: China

Address before: 100041 1008, building 16, xishanhui, Shijingshan Park, Zhongguancun Science Park, Haidian District, Beijing

Applicant before: BIM WINNER (BEIJING) TECHNOLOGY CO.,LTD.

Country or region before: China

Applicant before: BIM WINNER (SHANGHAI) TECHNOLOGY Co.,Ltd.

Applicant before: SHENZHEN BIM WINNER TECHNOLOGY Co.,Ltd.

Applicant before: Foshan Yingjia Smart Space Technology Co.,Ltd.

Applicant before: Yingjia Internet (Beijing) Smart Technology Co.,Ltd.

Applicant before: SHENZHEN QIANHAI YINGJIA DATA SERVICE Co.,Ltd.

Applicant before: JIAXING WUZHEN YINGJIA QIANZHEN TECHNOLOGY Co.,Ltd.