CN118053010A - 拒止环境下基于无人机图像和卫星地图的景象匹配方法 - Google Patents
拒止环境下基于无人机图像和卫星地图的景象匹配方法 Download PDFInfo
- Publication number
- CN118053010A CN118053010A CN202410445247.8A CN202410445247A CN118053010A CN 118053010 A CN118053010 A CN 118053010A CN 202410445247 A CN202410445247 A CN 202410445247A CN 118053010 A CN118053010 A CN 118053010A
- Authority
- CN
- China
- Prior art keywords
- image
- feature
- satellite
- aerial vehicle
- unmanned aerial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000012549 training Methods 0.000 claims abstract description 26
- 230000000007 visual effect Effects 0.000 claims abstract description 12
- 239000013598 vector Substances 0.000 claims description 57
- 230000004927 fusion Effects 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 13
- 230000009466 transformation Effects 0.000 claims description 8
- 230000002776 aggregation Effects 0.000 claims description 7
- 238000004220 aggregation Methods 0.000 claims description 7
- 238000007781 pre-processing Methods 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 3
- 238000000844 transformation Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Image Processing (AREA)
Abstract
本发明公开了拒止环境下基于无人机图像和卫星地图的景象匹配方法,包括数据集制作,对SuperRetrieval模型进行训练;使用卫星地图裁剪后的图片经过训练好的SuperRetrieval模型后提取的全局描述符,与对应地理坐标和图像一起保存生成地图数据库,在无人机飞行过程中,将所拍摄到的无人机图像送入训练好的SuperRetrieval模型,得到该图像的全局描述符,使用该描述符在地图数据库中进行检索,获得当前视角的地理坐标与图像,进行完成景象导航和匹配。有效解决由于拒止环境下无人机无法获取足够的定位信息而导致粗定位失败的问题,以确保无人机能够在各种挑战性的环境中可靠地执行景象匹配任务。
Description
技术领域
本发明涉及景象匹配技术领域,特别是涉及一种拒止环境下基于无人机图像和卫星地图的景象匹配方法。
背景技术
在景象匹配领域,通常使用无人机上携带的全球定位***(GPS)获取自身无人机位置,结合无人机姿态参数和云台参数,解算得到无人机当前视角范围。通过当前视角范围,在预先下载好的卫星地图上进行裁剪,获得粗匹配区域。然后使用SIFT或ORB技术对裁剪下来的粗匹配图像和无人机图像进行特征提取,利用提取的特征进行图像匹配,从而完成景象匹配任务。
然而,在拒止环境下,通常由于无法依赖传统的GPS定位信息,无人机无法获取用于匹配的粗匹配图像。这是因为在拒止环境中,GPS信号可能会受到干扰或根本不可用,从而导致传统方法无法获取足够的位置信息。这一情况可能威胁无人机的导航和定位,影响到景象匹配任务的可行性和成功性。
为解决这个问题,本发明提出了一种拒止环境下基于无人机图像和卫星地图的景象匹配方法。
发明内容
针对以上技术问题,本发明提供一种拒止环境下基于无人机图像和卫星地图的景象匹配方法。
本发明解决其技术问题采用的技术方案是:
拒止环境下基于无人机图像和卫星地图的景象匹配方法,所述方法包括以下步骤:
S100:获取区域的原始卫星地图以及该区域的无人机真实航拍图像,并建立数据集;
S200:搭建SuperRetrieval模型,根据数据集结合预设的损失函数对SuperRetrieval模型进行训练,得到训练好的SuperRetrieval模型;其中,SuperRetrieval模型包括特征提取模块、特征融合模块和汇聚模块,特征提取模块用于接收输入图像进行特征提取,输出关键点概率图和特征描述子向量,特征融合模块用于接收关键点概率图和特征描述子向量,根据概率图锁定关键点,选择对应的特征描述子向量作为输入,输出联系上下文的特征向量,汇聚模块用于对特征融合模块输出的特征向量进行转置,然后通过MLP将其汇聚成全局描述符,作为该张图像的最终特征表示;
S300:获取实时卫星地图,对卫星地图进行预处理得到卫星地图库,根据卫星地图库得到地理坐标和卫星图像,将预处理后的卫星地图图片输入到训练好的SuperRetrieval模型提取得到第一特征向量,与其对应的地理坐标和卫星图像一起保存,作为地图数据库;
S400:将无人机当前所拍摄的图像输入到训练好的SuperRetrieval中提取第二特征向量,将第二特征向量作为查询,对地图数据库进行余弦相似度检索,得到与第二特征向量对应的卫星图像及地理坐标;
S500:将检索得到的卫星图像作为粗匹配区域图像和无人机当前所拍摄的图像进行图像匹配,结合匹配结果以及卫星图像的地理坐标,完成景象匹配任务。
优选地,S100包括:
获取区域的原始卫星地图以及该区域的无人机真实航拍图像,对卫星图像进行预处理,将预处理后的卫星图像和原始卫星图像标记成对作为第一数据集,根据无人机飞行的参数,通过传统粗匹配的方法,锁定无人机拍摄图像在卫星地图上视野范围,根据这个视野范围,将卫星地图裁剪后的图像和无人机图像标记成对,作为第二数据集。
优选地,S200包括:
搭建SuperRetrieval模型,使用第一数据集结合预设的损失函数对SuperRetrieval模型进行自监督训练,再使用第二数据集结合预设的损失函数对自监督训练完成后得到的SuperRetrieval模型进行训练,得到训练好的SuperRetrieval模型。
优选地,特征提取模块包括编码器、关键点解码器、描述子解码器,编码器由卷积层、激活层、汇聚层交替构成,将输入图像输入至编码器,将编码器产生的结果分别送入关键点解码器和描述子解码器,得到图像中的关键点概率图及对应关键点的特征描述子。
优选地,将输入图像分辨率调整为640x480,输入到编码器,编码器输出特征向量的维度为80x60;将输出的结果分别输入到关键点解码器和描述子解码器,关键点解码器输出一个640x480x1的特征向量,其中每个数据代表原始图像上对应点是否为关键点的概率;描述子解码器输出一个80x60x256的特征向量,再通过插值算法,扩充为640x480x256的特征向量,其中每个1x256的特征向量为对应关键点的特征描述子。
优选地,特征融合模块包括Transformer模块,将关键点解码器输出的关键点的概率从大到小进行排序,将前预设数量个关键点的特征描述子提取出来,作为特征融合模块的输入,在每个Transformer层中,每个特征描述子作为查询,对同一图像中其他特征描述子作交叉注意力运算,使得每个关键点都能和其他关键点产生联系,聚合上下文信息,得到更为全面的特征描述子信息。
优选地,交叉注意力运算的具体操作为:
对每个特征描述子进行三次不同的全连接层线性变换,得到查询/>、键、值/>,每个/>都需要和所有的键/>进行点乘,再通过Softmax得到注意力权重;使用注意力权重和对应的值/>求得加权和,作为新的特征描述子表示,公式如下:
;
其中、/>、/>分别为三次不同的全连接层线性变换参数,/>为输入的特征描述子,/>为输出的特征描述子。
优选地,汇聚模块包括MLP,汇聚模块用于将特征融合模块输出维度为100x256的特征向量转置,然后输入至MLP,通过MLP将其汇聚成维度为100x1的全局描述符,作为该张图像的最终特征表示。
优选地,输入一张查询图像,选择对比损失作为模型的预设损失函数,选择余弦相似度最低的N个卫星图像样本作为负样本,对应标记的卫星图像样本作为正样本,进行训练,具体为:
;
其中,为查询图像通过模型后输出的特征描述子第p维度的特征,/>为正样本图像通过模型后输出的特征描述子第p维度的特征,/>为图像/>和图像/>两组特征描述子的欧氏距离。当输入的样本为正样本时/>,当输入的样本为负样本时/>,为损失值,/>,m为正样本与负样本的欧式距离的预设阈值,设置为0.8。
上述拒止环境下基于无人机图像和卫星地图的景象匹配方法,不依赖传统的GPS定位,而是依赖深度学习网络从无人机图像和卫星地图数据捕获所需信息,以推断和精确定位无人机,从而允许进行景象匹配,即使在无法依赖GPS的极端环境中也能够成功完成导航任务,能够有效解决景象匹配领域中,由于拒止环境下无人机无法获取足够的定位信息导致粗定位失败的问题。并且提出的自监督训练方法能够提高模型训练效率,特别是在模型训练初期,它解决了由于无人机图像和卫星图像采集方法和视角存在差异而导致的模型难以快速收敛的问题。这一方法可以提供更大的鲁棒性和适应性,以确保无人机能够在各种挑战性的环境中可靠地执行景象匹配任务。
附图说明
图1为本发明一实施例中一种拒止环境下基于无人机图像和卫星地图的景象匹配方法的流程图;
图2为本发明另一实施例中一种拒止环境下基于无人机图像和卫星地图的景象匹配方法的流程图;
图3为本发明一实施例中SuperRetrieval模型的特征提取模块的原理示意图;
图4为本发明一实施例中SuperRetrieval模型的特征融合模块的原理示意图;
图5为本发明一实施例中SuperRetrieval模型的汇聚模块的原理示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明的技术方案,下面结合附图对本发明作进一步的详细说明。
在一个实施例中,如图1和2所示,拒止环境下基于无人机图像和卫星地图的景象匹配方法,所述方法包括以下步骤:
S100:获取区域的原始卫星地图以及该区域的无人机真实航拍图像,并建立数据集。
在一个实施例中,S100包括:
获取区域的原始卫星地图以及该区域的无人机真实航拍图像,对卫星图像进行预处理,将预处理后的卫星图像和原始卫星图像标记成对作为第一数据集,根据无人机飞行的参数,通过传统粗匹配的方法,锁定无人机拍摄图像在卫星地图上视野范围,根据这个视野范围,将卫星地图裁剪后的图像和无人机图像标记成对,作为第二数据集。
具体地,首先从卫星地图下载所需的卫星地图,并使用无人机拍摄该区域的无人机真实航拍图像。对整个卫星地图进行切割,得到一系列图片,并对图片进行光度、旋转、随机单应性变换的数据增强,将原始图像和对应的增强图像标记成对,作为第一数据集,以便后续使用神经网络进行训练。接着根据无人机飞行的参数,通过传统粗匹配的方法,锁定无人机拍摄图像在卫星地图上视野范围,根据这个视野范围,将卫星地图裁剪后的图像和无人机图像标记成对,作为第二数据集。
S200:搭建SuperRetrieval模型,根据数据集结合预设的损失函数对SuperRetrieval模型进行训练,得到训练好的SuperRetrieval模型,其中,SuperRetrieval模型包括特征提取模块、特征融合模块和汇聚模块,特征提取模块用于接收输入图像进行特征提取,输出关键点概率图和特征描述子向量,特征融合模块用于接收关键点概率图和特征描述子向量,根据概率图锁定关键点,选择对应的特征描述子向量作为输入,输出联系上下文的特征向量,汇聚模块用于对特征融合模块输出的特征向量进行转置,然后通过MLP将其汇聚成全局描述符,作为该张图像的最终特征表示。
在一个实施例中,S200包括:
搭建SuperRetrieval模型,使用第一数据集结合预设的损失函数对SuperRetrieval模型进行自监督训练,再使用第二数据集结合预设的损失函数对自监督训练完成后得到的SuperRetrieval模型进行训练,得到训练好的SuperRetrieval模型。
具体地,通过两步训练策略训练模型,即先使用较为容易训练的第一数据集对本发明提出的SuperRetrieval(超级检索)模型进行自监督训练,接着在使用较有挑战性的第二数据集对模型进行训练。通过训练,得到一个能够对输入图像提取关键点及对应描述符,并进一步融合描述符信息得到整张图像的特征向量的模型。
在一个实施例中,如图3所示,特征提取模块包括编码器、关键点解码器、描述子解码器,编码器由卷积层、激活层、汇聚层交替构成,将输入图像输入至编码器,将编码器产生的结果分别送入关键点解码器和描述子解码器,得到图像中的关键点概率图及对应关键点的特征描述子。
在一个实施例中,将输入图像分辨率调整为640x480,输入到编码器,编码器输出特征向量的维度为80x60;将输出的结果分别输入到关键点解码器和描述子解码器,关键点解码器输出一个640x480x1的特征向量,其中每个数据代表原始图像上对应点是否为关键点的概率;描述子解码器输出一个80x60x256的特征向量,再通过插值算法,扩充为640x480x256的特征向量,其中每个1x256的特征向量为对应关键点的特征描述子。其中,W和H分别为图片的宽度和长度。
在一个实施例中,如图4所示,特征融合模块包括Transformer模块,将关键点解码器输出的关键点的概率从大到小进行排序,将前预设数量个关键点的特征描述子提取出来,作为特征融合模块的输入,在每个Transformer层中,每个特征描述子作为查询,对同一图像中其他特征描述子作交叉注意力运算,使得每个关键点都能和其他关键点产生联系,聚合上下文信息,得到更为全面的特征描述子信息。
具体地,在本实施例中,前预设数量为100,Transformer层的层数设置为4,Q、K、V分别为特征描述子经过线性变换后的查询q、键k、值v。
在一个实施例中,交叉注意力运算的具体操作为:
对每个特征描述子进行三次不同的全连接层线性变换,得到查询/>、键、值/>,每个/>都需要和所有的键/>进行点乘,再通过Softmax得到注意力权重;使用注意力权重和对应的值/>求得加权和,作为新的特征描述子表示,公式如下:
;
其中、/>、/>分别为三次不同的全连接层线性变换参数,/>为输入的特征描述子,/>为输出的特征描述子。
在一个实施例中,如图5所示,汇聚模块包括MLP(Multilayer Perceptron,多层感知机),汇聚模块用于将特征融合模块输出维度为100x256的特征向量转置,然后输入至MLP,通过MLP将其汇聚成维度为100x1的全局描述符,作为该张图像的最终特征表示。
在一个实施例中,输入一张查询图像,选择对比损失作为模型的预设损失函数,选择余弦相似度最低的N个卫星图像样本作为负样本,对应标记的卫星图像样本作为正样本,进行训练,具体为:
;
其中,为查询图像通过模型后输出的特征描述子第p维度的特征,/>为正样本图像通过模型后输出的特征描述子第p维度的特征,/>为图像/>和图像/>两组特征描述子的欧氏距离。当输入的样本为正样本时/>,当输入的样本为负样本时/>,为损失值,/>,m为正样本与负样本的欧式距离的预设阈值,设置为0.8。
S300:获取实时卫星地图,对卫星地图进行预处理得到卫星地图库,根据卫星地图库得到地理坐标和卫星图像,将预处理后的卫星地图图片输入到训练好的SuperRetrieval模型提取得到第一特征向量,与其对应的地理坐标和卫星图像一起保存,作为地图数据库。
具体地,对卫星地图进行裁剪得到卫星地图库,根据卫星地图库得到地理坐标和卫星图像,将裁剪后的卫星地图图片,输入到SuperRetrieval模型提取特征向量,与其对应的地理坐标和卫星图像一起保存,作为地图数据库。
S400:将无人机当前所拍摄的图像输入到训练好的SuperRetrieval中提取第二特征向量,将第二特征向量作为查询,对地图数据库进行余弦相似度检索,得到与第二特征向量对应的卫星图像及地理坐标。
S500:将检索得到的卫星图像作为粗匹配区域图像和无人机当前所拍摄的图像进行图像匹配,结合匹配结果以及卫星图像的地理坐标,完成景象匹配任务。
上述拒止环境下基于无人机图像和卫星地图的景象匹配方法,不依赖传统的GPS定位,而是依赖深度学习网络从无人机图像和卫星地图数据捕获所需信息,以推断和精确定位无人机,从而允许进行景象匹配,即使在无法依赖GPS的极端环境中也能够成功完成导航任务,能够有效解决景象匹配领域中,由于拒止环境下无人机无法获取足够的定位信息导致粗定位失败的问题。并且提出的自监督训练方法能够提高模型训练效率,特别是在模型训练初期,它解决了由于无人机图像和卫星图像采集方法和视角存在差异而导致的模型难以快速收敛的问题。这一方法可以提供更大的鲁棒性和适应性,以确保无人机能够在各种挑战性的环境中可靠地执行景象匹配任务。
以上对本发明所提供的拒止环境下基于无人机图像和卫星地图的景象匹配方法进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
Claims (9)
1.拒止环境下基于无人机图像和卫星地图的景象匹配方法,其特征在于,所述方法包括以下步骤:
S100:获取区域的原始卫星地图以及该区域的无人机真实航拍图像,并建立数据集;
S200:搭建SuperRetrieval模型,根据数据集结合预设的损失函数对SuperRetrieval模型进行训练,得到训练好的SuperRetrieval模型,其中,SuperRetrieval模型包括特征提取模块、特征融合模块和汇聚模块,特征提取模块用于接收输入图像进行特征提取,输出关键点概率图和特征描述子向量,特征融合模块用于接收关键点概率图和特征描述子向量,根据概率图锁定关键点,选择对应的特征描述子向量作为输入,输出联系上下文的特征向量,汇聚模块用于对特征融合模块输出的特征向量进行转置,然后通过MLP将其汇聚成全局描述符,作为该张图像的最终特征表示;
S300:获取实时卫星地图,对卫星地图进行预处理得到卫星地图库,根据卫星地图库得到地理坐标和卫星图像,将预处理后的卫星地图图片输入到训练好的SuperRetrieval模型提取得到第一特征向量,与其对应的地理坐标和卫星图像一起保存,作为地图数据库;
S400:将无人机当前所拍摄的图像输入到训练好的SuperRetrieval中提取第二特征向量,将第二特征向量作为查询,对地图数据库进行余弦相似度检索,得到与第二特征向量对应的卫星图像及地理坐标;
S500:将检索得到的卫星图像作为粗匹配区域图像和无人机当前所拍摄的图像进行图像匹配,结合匹配结果以及卫星图像的地理坐标,完成景象匹配任务。
2.根据权利要求1所述的方法,其特征在于,S100包括:
获取区域的原始卫星地图以及该区域的无人机真实航拍图像,对卫星图像进行预处理,将预处理后的卫星图像和原始卫星图像标记成对作为第一数据集,根据无人机飞行的参数,通过传统粗匹配的方法,锁定无人机拍摄图像在卫星地图上视野范围,根据这个视野范围,将卫星地图裁剪后的图像和无人机图像标记成对,作为第二数据集。
3.根据权利要求2所述的方法,其特征在于,S200包括:
搭建SuperRetrieval模型,使用第一数据集结合预设的损失函数对SuperRetrieval模型进行自监督训练,再使用第二数据集结合预设的损失函数对自监督训练完成后得到的SuperRetrieval模型进行训练,得到训练好的SuperRetrieval模型。
4.根据权利要求3所述的方法,其特征在于,特征提取模块包括编码器、关键点解码器、描述子解码器,编码器由卷积层、激活层、汇聚层交替构成,将输入图像输入至编码器,将编码器产生的结果分别送入关键点解码器和描述子解码器,得到图像中的关键点概率图及对应关键点的特征描述子。
5.根据权利要求4所述的方法,其特征在于,将输入图像分辨率调整为640x480,输入到编码器,编码器输出特征向量的维度为80x60;将输出的结果分别输入到关键点解码器和描述子解码器,关键点解码器输出一个640x480x1的特征向量,其中每个数据代表原始图像上对应点是否为关键点的概率;描述子解码器输出一个80x60x256的特征向量,再通过插值算法,扩充为640x480x256的特征向量,其中每个1x256的特征向量为对应关键点的特征描述子。
6.根据权利要求5所述的方法,其特征在于,特征融合模块包括Transformer模块,将关键点解码器输出的关键点的概率从大到小进行排序,将前预设数量个关键点的特征描述子提取出来,作为特征融合模块的输入,在每个Transformer层中,每个特征描述子作为查询,对同一图像中其他特征描述子作交叉注意力运算,使得每个关键点都能和其他关键点产生联系,聚合上下文信息,得到更为全面的特征描述子信息。
7.根据权利要求6所述的方法,其特征在于,交叉注意力运算的具体操作为:
对每个特征描述子进行三次不同的全连接层线性变换,得到查询/>、键、值/>,每个/>都需要和所有的键/>进行点乘,再通过Softmax得到注意力权重;使用注意力权重和对应的值/>求得加权和,作为新的特征描述子表示,公式如下:
;
其中、/>、/>分别为三次不同的全连接层线性变换参数,/>为输入的特征描述子,/>为输出的特征描述子。
8.根据权利要求7所述的方法,其特征在于,汇聚模块包括MLP,汇聚模块用于将特征融合模块输出维度为100x256的特征向量转置,然后输入至MLP,通过MLP将其汇聚成维度为100x1的全局描述符,作为该张图像的最终特征表示。
9.根据权利要求1所述的方法,其特征在于,输入一张查询图像,选择对比损失作为模型的预设损失函数,选择余弦相似度最低的N个卫星图像样本作为负样本,对应标记的卫星图像样本作为正样本,进行训练,具体为:
;
其中,为查询图像通过模型后输出的特征描述子第p维度的特征,/>为正样本图像通过模型后输出的特征描述子第p维度的特征,/>为图像/>和图像/>两组特征描述子的欧氏距离,当输入的样本为正样本时/>,当输入的样本为负样本时/>,为损失值,/>,m为正样本与负样本的欧式距离的预设阈值,设置为0.8。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410445247.8A CN118053010A (zh) | 2024-04-15 | 2024-04-15 | 拒止环境下基于无人机图像和卫星地图的景象匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410445247.8A CN118053010A (zh) | 2024-04-15 | 2024-04-15 | 拒止环境下基于无人机图像和卫星地图的景象匹配方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN118053010A true CN118053010A (zh) | 2024-05-17 |
Family
ID=91045207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410445247.8A Pending CN118053010A (zh) | 2024-04-15 | 2024-04-15 | 拒止环境下基于无人机图像和卫星地图的景象匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118053010A (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114510594A (zh) * | 2022-01-28 | 2022-05-17 | 北京邮电大学 | 一种基于自注意力机制的传统纹样子图检索方法 |
CN115272719A (zh) * | 2022-07-27 | 2022-11-01 | 上海工程技术大学 | 一种用于无人机图像和卫星图像的跨视角景象匹配方法 |
CN115578426A (zh) * | 2022-10-25 | 2023-01-06 | 哈尔滨工业大学 | 一种基于稠密特征匹配的室内服务机器人重定位方法 |
US20230107921A1 (en) * | 2021-10-05 | 2023-04-06 | Naver Corporation | Systems and methods for image retrieval using super features |
JP2023063768A (ja) * | 2021-10-25 | 2023-05-10 | Kddi株式会社 | グラフ構造を用いた画像記述子更新モデル及び方法、並びに画像マッチング装置及びプログラム |
CN116912175A (zh) * | 2023-06-26 | 2023-10-20 | 江苏大学 | 一种基于点云体素化TransFormer的Lidar-SLAM回环检测***及方法 |
CN117253029A (zh) * | 2023-09-07 | 2023-12-19 | 北京自动化控制设备研究所 | 基于深度学习的图像匹配定位方法及计算机设备 |
CN117876723A (zh) * | 2024-03-11 | 2024-04-12 | 湖南大学 | 一种拒止环境下无人机航拍图像全局检索定位方法 |
-
2024
- 2024-04-15 CN CN202410445247.8A patent/CN118053010A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230107921A1 (en) * | 2021-10-05 | 2023-04-06 | Naver Corporation | Systems and methods for image retrieval using super features |
JP2023063768A (ja) * | 2021-10-25 | 2023-05-10 | Kddi株式会社 | グラフ構造を用いた画像記述子更新モデル及び方法、並びに画像マッチング装置及びプログラム |
CN114510594A (zh) * | 2022-01-28 | 2022-05-17 | 北京邮电大学 | 一种基于自注意力机制的传统纹样子图检索方法 |
CN115272719A (zh) * | 2022-07-27 | 2022-11-01 | 上海工程技术大学 | 一种用于无人机图像和卫星图像的跨视角景象匹配方法 |
CN115578426A (zh) * | 2022-10-25 | 2023-01-06 | 哈尔滨工业大学 | 一种基于稠密特征匹配的室内服务机器人重定位方法 |
CN116912175A (zh) * | 2023-06-26 | 2023-10-20 | 江苏大学 | 一种基于点云体素化TransFormer的Lidar-SLAM回环检测***及方法 |
CN117253029A (zh) * | 2023-09-07 | 2023-12-19 | 北京自动化控制设备研究所 | 基于深度学习的图像匹配定位方法及计算机设备 |
CN117876723A (zh) * | 2024-03-11 | 2024-04-12 | 湖南大学 | 一种拒止环境下无人机航拍图像全局检索定位方法 |
Non-Patent Citations (2)
Title |
---|
DANIEL DETONE ET AL.: "《SuperPoint: Self-Supervised Interest Point Detection and Description》", 《CVPR》, 31 December 2018 (2018-12-31) * |
关威 等: "《基于神经网络的无人机视觉定位方法》", 《沈阳航空航天大学学报》, 30 April 2021 (2021-04-30) * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111539370B (zh) | 一种基于多注意力联合学习的图像行人重识别方法和*** | |
US20220172386A1 (en) | Method and device for simultaneous localization and mapping (slam) | |
CN104794219A (zh) | 一种基于地理位置信息的场景检索方法 | |
Dos Santos et al. | Matching color aerial images and underwater sonar images using deep learning for underwater localization | |
CN111310728B (zh) | 基于监控相机和无线定位的行人重识别*** | |
CN112580546B (zh) | 一种用于无人机图像和卫星图像跨视角图像匹配方法 | |
CN112084895B (zh) | 一种基于深度学习的行人重识别方法 | |
CN110969648A (zh) | 一种基于点云序列数据的3d目标跟踪方法及*** | |
CN115861591B (zh) | 基于transformer关键纹理编码匹配的无人机定位方法 | |
CN114241464A (zh) | 基于深度学习的跨视角影像实时匹配地理定位方法及*** | |
Zhao et al. | Probabilistic spatial distribution prior based attentional keypoints matching network | |
Ribeiro et al. | Underwater place recognition in unknown environments with triplet based acoustic image retrieval | |
Cheng et al. | A two-stage outlier filtering framework for city-scale localization using 3D SfM point clouds | |
CN117253029A (zh) | 基于深度学习的图像匹配定位方法及计算机设备 | |
Tomešek et al. | CrossLocate: cross-modal large-scale visual geo-localization in natural environments using rendered modalities | |
CN112668662B (zh) | 基于改进YOLOv3网络的野外山林环境目标检测方法 | |
Yin et al. | isimloc: Visual global localization for previously unseen environments with simulated images | |
Fang et al. | CFVL: A coarse-to-fine vehicle localizer with omnidirectional perception across severe appearance variations | |
US10430459B2 (en) | Server and method for providing city street search service | |
CN118053010A (zh) | 拒止环境下基于无人机图像和卫星地图的景象匹配方法 | |
CN116664867A (zh) | 一种基于多证据融合选取训练样本的特征提取方法及装置 | |
CN114241278B (zh) | 一种多分支的行人重识别方法和*** | |
CN115719455A (zh) | 一种地空地理定位方法 | |
CN115457125A (zh) | 跨模态检索的视觉位置识别方法、存储介质和电子设备 | |
CN114723977A (zh) | 一种用于视觉slam***的稳定特征点识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |