CN113326926A - 一种面向遥感图像检索的全连接哈希神经网络 - Google Patents
一种面向遥感图像检索的全连接哈希神经网络 Download PDFInfo
- Publication number
- CN113326926A CN113326926A CN202110733494.4A CN202110733494A CN113326926A CN 113326926 A CN113326926 A CN 113326926A CN 202110733494 A CN202110733494 A CN 202110733494A CN 113326926 A CN113326926 A CN 113326926A
- Authority
- CN
- China
- Prior art keywords
- neural network
- fully
- hash
- feature extraction
- hash neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 35
- 230000006870 function Effects 0.000 claims abstract description 33
- 238000012549 training Methods 0.000 claims abstract description 28
- 239000013598 vector Substances 0.000 claims abstract description 26
- 238000000605 extraction Methods 0.000 claims abstract description 22
- 238000000034 method Methods 0.000 claims abstract description 18
- 230000008569 process Effects 0.000 claims abstract description 9
- 238000013527 convolutional neural network Methods 0.000 claims description 19
- 230000004913 activation Effects 0.000 claims description 6
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 239000000203 mixture Substances 0.000 claims description 3
- 230000001537 neural effect Effects 0.000 claims description 3
- 210000002569 neuron Anatomy 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 2
- 230000014509 gene expression Effects 0.000 description 9
- 238000013461 design Methods 0.000 description 2
- 201000011243 gastrointestinal stromal tumor Diseases 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Library & Information Science (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提出一种面向遥感图像检索的全连接哈希神经网络,包括特征提取和目标函数;所述特征提取包括中级特征提取以及深度特征提取;所述目标函数用于对比图像的相似度;对比过程为:给定n幅训练图像的向量集其中zi是第i幅图像的特征向量;构建一组符合li,j∈{0,1}的成对标签L={li,j}来提供监督信息;li,j=1表明zi和zj是相似的,当li,j=0时;zi和zj就是不相似的;zi和zj为类间样本;哈希神经网络的目的将zi映射为具有d位的二进制码bi∈{‑1,1}d,使得bi和bj在li,j=1时具有低的汉明距离,在li,j=0时具有高的汉明距离,从而提出一种有效提高RSI检索性能和学习效率的全连接哈希神经网络。
Description
技术领域
本发明涉及图像检索技术领域,尤其涉及一种面向遥感图像检索的全连接哈希神经网络。
背景技术
由于大量的地球观测传感器为我们的生活提供了大量的遥感数据,使得我们生活在遥感大数据时代,因而快速而准确的基于内容的图像检索(CBIR)方法的研究在遥感领域变得日益重要。传统上,遥感图像(RSI)的表达通过具有数千维的实数向量来描述。每个维度可以通过4字节的浮点数据存储在计算机内存中,这可能会导致:(1)大规模数据集的存储需要大量的硬盘;(2)从大规模数据集中穷举搜索出相关图像的计算代价很高。
针对上述问题,由于其具有低存储空间和高效的搜索特性,使得基于哈希的近似最近邻搜索成为一种流行的基于大数据的检索技术。哈希映射将图像表达为包含少量位(例如32位(4个字节))的二进制码,从而有助于显著减少所需的存储量。
基于哈希的检索方案一般可以分为两类:数据独立和数据依赖。作为典型的与数据独立的方法如局部敏感哈希(LSH),通常使用无训练数据的随机投影来生成哈希函数。由于数据独立哈希方法的局限性,因此提出了许多基于无监督或监督的新哈希方法来构造更高效的哈希函数。在遥感领域,基于哈希的RSI检索只有少数研究。研究者们提出了两种基于学***面将LSH扩展到非线性可分离数据。KSLSH定义了基于核空间的哈希函数,使得类内图像的汉明距离最小,而类间图像的汉明距离最大。KULSH和KSLSH都使用了结合SIFT描述子的BOVW表达。Li和Ren在《IEEE Geoscience and Remote Sensing Letters》,vol.14,no.3,page464-468,2017.上发表的“Partial randomness hashing for large-scale remotesensing image retrieval”一文中提出的用于RSI检索的部分随机哈希方法(PRH)分为两个阶段:(1)生成随机投影以将图像特征(例如,512维的GIST描述符)以数据独立的方式映射到较低的汉明空间;(2)根据训练图像学习变换权值矩阵。在KULSH,KSLSH和PRH方法中,图像表达(BOVW或GIST)都是基于手工设计的特征。
由于最近深度学习的快速发展,Li等人《IEEE Transactions on Geoscience andRemote Sensing》vol.56,no.2,page 950-965,2017.上发表了“Large-scale remotesensing image retrievalby deep hashing neural networks”,并提出了深度哈希神经网络(DHNN),并对L1和L2范数之间的二进制量化损失进行了比较。作为DPSH(基于成对标签的监督深度哈希)的改进版本,DHNN改进了sigmoid函数的设计,可以同时进行特征学习和哈希函数学习。与基于手工设计特征的方法相比,DHNN方法可以自动学习不同级别的特征抽象表达,从而得到更好的表达能力。然而,由于深度特征学习和哈希学习是在端到端的框架下进行的,因此DHNN的学习是耗时的。
发明内容
本发明的目的在于提出一种有效提高RSI检索性能和学习效率的面向遥感图像检索的全连接哈希神经网络。
为达到上述目的,本发明提出一种面向遥感图像检索的全连接哈希神经网络,包括特征提取和目标函数;
所述特征提取包括中级特征提取以及深度特征提取;
所述目标函数用于对比图像的相似度;对比过程为:给定n幅训练图像的向量集其中zi是第i幅图像的特征向量;构建一组符合li,j∈{0,1}的成对标签L={li,j}来提供监督信息;li,j=1表明zi和zj是相似的,当li,j=0时;zi和zj就是不相似的;zi和zj为类间样本;
基于此,哈希神经网络的目的将zi映射为具有d位的二进制码bi∈{-1,1}d,使得bi和bj在li,j=1时具有低的汉明距离,在li,j=0时具有高的汉明距离;判断公式如下:
进一步的,所述全连接哈希神经网络由三个全连接层组成,将图像特征映射为一组二进制码0或1;前两个全连接层为FC1和FC2,FC1和FC2分别包含4096个神经元;在FC1和FC2层后是一个称为整流线性单位的非线性操作;最后的全连接层为FC3,所述FC3为包含N个神经节点的二进制输出,N为经过哈希编码后期望的位数。
进一步的,还包括如下目标函数:
所述目标函数使得全连接哈希神经网络的输出ai和最终的二进制码bi尽可能的相似。
进一步的,所述全连接哈希神经网络还包括如下目标函数:
其中bi Tai尽可能大,而Ψi,j-li,j尽可能小;考虑到最终哈希码的性能,上述目标函数可以显著的加快学习速度以获得理想的结果;因此,可以得到:
在每次迭代过程中,从n幅训练图像的向量集收集一小批训练图像以交替地更新参数;bi直接通过bi=sign(ai)=sign(WTf(zi;θ)+v)进行优化;对于W,v和θ,首先对ai计算目标函数的导数:
然后,可以通过反向传播来更新W,v和θ。
进一步的,FCHNN网络的具体学习过程为,根据给定的训练图像和成对标签信息,首先,使用具有均值为0和方差为0.01的高斯分布随机初始化FCHNN网络的所有全连接层权重;然后,从训练图像中随机选取一小部分图像,针对每幅训练样本,重复进行如下操作:(1)通过正向传播计算f(zi;θ0;(2)计算ai=WTf(zi;θ)+v;(3)根据bi=sign(ai)计算二进制码zi;(4)计算zi的梯度;(5)通过反向传播算法更新参数W,v和θ;重复上述步骤直到固定迭代次数后即停止。
进一步的,所述中级特征提取为中级表达包括仿射不变兴趣点检测,SIFT描述子提取和具有GMM聚类的Fisher编码;使用由VLFeat工具箱实现的多尺度Hessian阵进行兴趣点检测,并为每个兴趣点提取128维SIFT描述子;然后将SIFT描述子依次变换为RootSIFT和64维PCA-SIFT;在Fisher编码阶段,通过PCA-SIFT和32个GMM(高斯混合模型)簇获得4096维的(2×32×64)Fisher向量,即为中级特征向量。
进一步的,所述深度特征提取为采用CaffeNet和VGG-VD16的预训练卷积神经网络(CNN)提取深度特征;两个CNN都是在MatConvNet上实现的并在ImageNet数据集上进行了训练;CaffeNet和VGG-VD16都包含三个全连接层;给定一幅输入图像和一个CNN模型,从而提取4096维激活向量作为深度特征向量;
通过使用微调策略,可以通过在相应的训练数据集上对预训练CNN模型进行重新训练直至收敛来获得微调的CaffeNet和VGG-VD16;给定输入图像和微调的CNN,也可以获得4096维激活向量。
与现有技术相比,本发明的优势之处在于:
(1)引入了一种基于仿射不变性的局部描述子和Fisher编码的扩展BOVW表达,这种表达在哈希后与深度特征具有可比性。
(2)提出了三层FCHNN框架用于成对标签的监督哈希学习,所提出的从特征到二进制的框架在检索性能和效率方面优于从像素到二进制(例如,DPSH)的框架。
附图说明
图1为本发明实施例中全连接哈希神经网络的框架结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将对本发明的技术方案作进一步地说明。
本发明提出一种面向遥感图像检索的全连接哈希神经网络(FCHNN),FCHNN由两部分组成:(1)特征提取;(2)基于特征到二值框架的哈希学习或者结果的输出,所提出的框架有利于研究不同类型的特征(手工设计的特征或深度特征)。
A.特征提取
为了对RSI表达进行综合性分析,同时研究FCHNN在不同特征上的一般性,本文采用了五种特征提取方法。
中级特征:中级表达包括仿射不变兴趣点检测,SIFT描述子提取和具有GMM聚类的Fisher编码。使用由VLFeat工具箱实现的多尺度Hessian阵进行兴趣点检测,并为每个兴趣点提取128维SIFT描述子。然后将SIFT描述子依次变换为RootSIFT和64维PCA-SIFT。在Fisher编码阶段,通过PCA-SIFT和32个GMM(高斯混合模型)簇获得4096维的(2×32×64)Fisher向量。
深度特征:采用两种名为CaffeNet和VGG-VD16的预训练卷积神经网络(CNN)提取深度特征。两个CNN都是在MatConvNet上实现的并在ImageNet数据集上进行了训练。CaffeNet和VGG-VD16都包含三个全连接层。给定一幅输入图像和一个CNN模型,我们可以提取4096维激活向量作为深度特征。
通过使用微调策略,可以通过在相应的训练数据集上对预训练CNN模型进行重新训练直至收敛来获得微调的CaffeNet和VGG-VD16。给定输入图像和微调的CNN,也可以获得4096维激活向量,类似于预训练CNN的特征提取。
B.FCHNN
框架:如图1所示,FCHNN由三个全连接层组成,旨在将图像特征映射为一组二进制码(0或1)。FCHNN的前两个全连接层(由FC1和FC2表示)分别包含4096个神经元。在FC1和FC2层后是一个称为整流线性单位(ReLU)的非线性操作。最后的全连接层(由FC3表示)是包含N个神经节点的二进制输出。N是经过哈希编码后期望的位数。除了输出节点的数量之外,FCHNN的框架类似于AlexNet的最后三个全连接层。FCHNN特性:(1)它是一个从特征到二进制码而不是从像素到二进制的框架;(2)手工设计特征和深度特征都是通用的;(3)使用较少的层就可以显著提高学习速度。
目标函数:给定n幅训练图像其中zi是第i幅图像的向量(如图1所示的图像特征)。构建一组符合li,j∈{0,1}的成对标签L={li,j}来提供监督信息。li,j=1表明zi和zj(类内样本)是相似的,否则(当li,j=0时)zi和zj(类间样本)就是不相似的。
FCHNN的目的是将zi映射为具有d位的二进制码bi∈{-1,1}d,使得bi和bj当li,j=1时具有低的汉明距离,而当li,j=0时具有高的汉明距离。
通过取L[·]中的成对标签li,j的负对数似然,可以得到如下目标函数:
公式(2)的目的是使FCHNN的输出ai和最终的二进制码bi尽可能的相似。另外,我们引入了另一个约束的目标函数,方程(2)可以改写为:
其中bi Tai应该尽可能大,而Ψi,j-li,j应尽可能小。考虑到最终哈希码的性能,公式(3)可以显著的加快学习速度以获得理想的结果。因此,可以得到:
其中B,W,v和θ是需要学习的参数。
FCHNN学习:算法1给出了FCHNN的学习过程。在每次迭代过程中,从整个训练集中收集一小批训练图像以交替地更新参数。特别地,bi可以直接通过bi=sign(ai)=sign(WTf(zi;θ)+v)进行优化。对于W,v和θ,我们首先对ai计算目标函数的导数:
然后,可以通过反向传播来更新W,v和θ。
FCHNN网络的具体学习过程为,根据给定的训练图像和成对标签信息,首先,使用具有均值为0和方差为0.01的高斯分布随机初始化FCHNN网络的所有全连接层权重。然后,从训练图像中随机选取一小部分图像,针对每幅训练样本,重复进行如下操作:(1)通过正向传播计算f(zi;θ);(2)计算ai=WTf(zi;θ)+v;(3)根据bi=sign(ai)计算二进制码zi;(4)计算zi的梯度;(5)通过反向传播算法更新参数W,v和θ;重复上述步骤直到固定迭代次数后即停止。
上述仅为本发明的优选实施例而已,并不对本发明起到任何限制作用。任何所属技术领域的技术人员,在不脱离本发明的技术方案的范围内,对本发明揭露的技术方案和技术内容做任何形式的等同替换或修改等变动,均属未脱离本发明的技术方案的内容,仍属于本发明的保护范围之内。
Claims (8)
1.一种面向遥感图像检索的全连接哈希神经网络,其特征在于,包括特征提取和目标函数;
所述特征提取包括中级特征提取以及深度特征提取;
所述目标函数用于对比图像的相似度;对比过程为:给定n幅训练图像的向量集其中zi是第i幅图像的特征向量;构建一组符合li,j∈{0,1}的成对标签L={li,j}来提供监督信息;li,j=1表明zi和zj是相似的,当li,j=0时;zi和zj就是不相似的;zi和zj为类间样本;
基于此,哈希神经网络的目的将zi映射为具有d位的二进制码bi∈{-1,1}d,使得bi和bj在li,j=1时具有低的汉明距离,在li,j=0时具有高的汉明距离;判断公式如下:
2.根据权利要求1所述的面向遥感图像检索的全连接哈希神经网络,其特征在于,所述全连接哈希神经网络由三个全连接层组成,将图像特征映射为一组二进制码0或1;前两个全连接层为FC1和FC2,FC1和FC2分别包含4096个神经元;在FC1和FC2层后是一个称为整流线性单位的非线性操作;最后的全连接层为FC3,所述FC3为包含N个神经节点的二进制输出,N为经过哈希编码后期望的位数。
6.根据权利要求5所述的面向遥感图像检索的全连接哈希神经网络,其特征在于,FCHNN网络的具体学习过程为,根据给定的训练图像和成对标签信息,首先,使用具有均值为0和方差为0.01的高斯分布随机初始化FCHNN网络的所有全连接层权重;然后,从训练图像中随机选取一小部分图像,针对每幅训练样本,重复进行如下操作:(1)通过正向传播计算f(zi;θ);(2)计算ai=WTf(zi;θ)+v;(3)根据bi=sign(ai)计算二进制码zi;(4)计算zi的梯度;(5)通过反向传播算法更新参数W,v和θ;重复上述步骤直到固定迭代次数后即停止。
7.根据权利要求1所述的面向遥感图像检索的全连接哈希神经网络,其特征在于,所述中级特征提取为中级表达包括仿射不变兴趣点检测,SIFT描述子提取和具有GMM聚类的Fisher编码;使用由VLFeat工具箱实现的多尺度Hessian阵进行兴趣点检测,并为每个兴趣点提取128维SIFT描述子;然后将SIFT描述子依次变换为RootSIFT和64维PCA-SIFT;在Fisher编码阶段,通过PCA-SIFT和32个GMM(高斯混合模型)簇获得4096维的(2×32×64)Fisher向量,即为中级特征向量。
8.根据权利要求1所述的面向遥感图像检索的全连接哈希神经网络,其特征在于,所述深度特征提取为采用CaffeNet和VGG-VD16的预训练卷积神经网络(CNN)提取深度特征;两个CNN都是在MatConvNet上实现的并在ImageNet数据集上进行了训练;CaffeNet和VGG-VD16都包含三个全连接层;给定一幅输入图像和一个CNN模型,从而提取4096维激活向量作为深度特征向量;
通过使用微调策略,可以通过在相应的训练数据集上对预训练CNN模型进行重新训练直至收敛来获得微调的CaffeNet和VGG-VD16;给定输入图像和微调的CNN,也可以获得4096维激活向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110733494.4A CN113326926B (zh) | 2021-06-30 | 2021-06-30 | 一种面向遥感图像检索的全连接哈希神经网络 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110733494.4A CN113326926B (zh) | 2021-06-30 | 2021-06-30 | 一种面向遥感图像检索的全连接哈希神经网络 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113326926A true CN113326926A (zh) | 2021-08-31 |
CN113326926B CN113326926B (zh) | 2023-05-09 |
Family
ID=77423448
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110733494.4A Active CN113326926B (zh) | 2021-06-30 | 2021-06-30 | 一种面向遥感图像检索的全连接哈希神经网络 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113326926B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106909924A (zh) * | 2017-02-18 | 2017-06-30 | 北京工业大学 | 一种基于深度显著性的遥感影像快速检索方法 |
CN108334830A (zh) * | 2018-01-25 | 2018-07-27 | 南京邮电大学 | 一种基于目标语义和深度外观特征融合的场景识别方法 |
US20180276528A1 (en) * | 2015-12-03 | 2018-09-27 | Sun Yat-Sen University | Image Retrieval Method Based on Variable-Length Deep Hash Learning |
CN108875814A (zh) * | 2018-06-04 | 2018-11-23 | 联想(北京)有限公司 | 图片检索方法、装置及电子设备 |
CN109284741A (zh) * | 2018-10-30 | 2019-01-29 | 武汉大学 | 一种基于深度哈希网络的大规模遥感影像检索方法和*** |
CN112182275A (zh) * | 2020-09-29 | 2021-01-05 | 神州数码信息***有限公司 | 一种基于多维度特征融合的商标近似检索***和方法 |
CN112650877A (zh) * | 2021-01-20 | 2021-04-13 | 北京工业大学 | 一种基于改进的深度残差卷积神经网络和深度哈希的高清遥感图像快速检索方法 |
-
2021
- 2021-06-30 CN CN202110733494.4A patent/CN113326926B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180276528A1 (en) * | 2015-12-03 | 2018-09-27 | Sun Yat-Sen University | Image Retrieval Method Based on Variable-Length Deep Hash Learning |
CN106909924A (zh) * | 2017-02-18 | 2017-06-30 | 北京工业大学 | 一种基于深度显著性的遥感影像快速检索方法 |
CN108334830A (zh) * | 2018-01-25 | 2018-07-27 | 南京邮电大学 | 一种基于目标语义和深度外观特征融合的场景识别方法 |
CN108875814A (zh) * | 2018-06-04 | 2018-11-23 | 联想(北京)有限公司 | 图片检索方法、装置及电子设备 |
CN109284741A (zh) * | 2018-10-30 | 2019-01-29 | 武汉大学 | 一种基于深度哈希网络的大规模遥感影像检索方法和*** |
CN112182275A (zh) * | 2020-09-29 | 2021-01-05 | 神州数码信息***有限公司 | 一种基于多维度特征融合的商标近似检索***和方法 |
CN112650877A (zh) * | 2021-01-20 | 2021-04-13 | 北京工业大学 | 一种基于改进的深度残差卷积神经网络和深度哈希的高清遥感图像快速检索方法 |
Non-Patent Citations (5)
Title |
---|
HUANGJING_1993: ""利用VLFeat工具包完成Fisher Vector实验"", 《IT610》 * |
李泗兰等: ""基于深度学习哈希算法的快速图像检索研究"", 《计算机与数字工程》 * |
李金等: "融合全局特性的SIFT特征在图像检索中的应用", 《黑龙江大学工程学报》 * |
王伟栋等: "基于深度神经网络和哈希算法的图像检索研究", 《电子科技》 * |
王科俊等: "采用SIFT特征和增强型高斯混合模型的目标识别", 《弹箭与制导学报》 * |
Also Published As
Publication number | Publication date |
---|---|
CN113326926B (zh) | 2023-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109165306B (zh) | 基于多任务哈希学习的图像检索方法 | |
Roy et al. | Metric-learning-based deep hashing network for content-based retrieval of remote sensing images | |
Lin et al. | RSCM: Region selection and concurrency model for multi-class weather recognition | |
Lian et al. | Max-margin dictionary learning for multiclass image categorization | |
CN111125411B (zh) | 一种深度强相关哈希学习的大规模图像检索方法 | |
CN110297931B (zh) | 一种图像检索方法 | |
CN109063112B (zh) | 一种基于多任务学习深度语义哈希的快速图像检索方法、模型及模型构建方法 | |
CN110598022B (zh) | 一种基于鲁棒深度哈希网络的图像检索***与方法 | |
Sumbul et al. | Deep learning for image search and retrieval in large remote sensing archives | |
Zhong et al. | Deep hashing learning networks | |
Varga et al. | Fast content-based image retrieval using convolutional neural network and hash function | |
Zuo et al. | FSL-EGNN: Edge-labeling graph neural network for hyperspectral image few-shot classification | |
Passalis et al. | Learning neural bag-of-features for large-scale image retrieval | |
Roy et al. | Deep metric and hash-code learning for content-based retrieval of remote sensing images | |
CN110188827A (zh) | 一种基于卷积神经网络和递归自动编码器模型的场景识别方法 | |
Wang et al. | Similarity-preserving hashing based on deep neural networks for large-scale image retrieval | |
CN112163114B (zh) | 一种基于特征融合的图像检索方法 | |
CN111461175A (zh) | 自注意与协同注意机制的标签推荐模型构建方法及装置 | |
CN113656700A (zh) | 基于多相似度一致矩阵分解的哈希检索方法 | |
CN117493674A (zh) | 基于标签增强的监督多模态哈希检索方法及*** | |
Yu et al. | Text-image matching for cross-modal remote sensing image retrieval via graph neural network | |
CN115329120A (zh) | 一种知识图谱嵌入注意力机制的弱标注哈希图像检索架构 | |
CN114579794A (zh) | 特征一致性建议的多尺度融合地标图像检索方法及*** | |
Cheng et al. | Multi-scale and discriminative part detectors based features for multi-label image classification. | |
Inkeaw et al. | Density based semi-automatic labeling on multi-feature representations for ground truth generation: Application to handwritten character recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |