CN109472282A - 一种基于极少训练样本的深度图像哈希方法 - Google Patents

一种基于极少训练样本的深度图像哈希方法 Download PDF

Info

Publication number
CN109472282A
CN109472282A CN201811053140.XA CN201811053140A CN109472282A CN 109472282 A CN109472282 A CN 109472282A CN 201811053140 A CN201811053140 A CN 201811053140A CN 109472282 A CN109472282 A CN 109472282A
Authority
CN
China
Prior art keywords
hash
network
sample
depth
few
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811053140.XA
Other languages
English (en)
Other versions
CN109472282B (zh
Inventor
耿立冰
潘炎
印鉴
赖韩江
潘文杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Guangzhou Zhongda Nansha Technology Innovation Industrial Park Co Ltd
Original Assignee
Sun Yat Sen University
Guangzhou Zhongda Nansha Technology Innovation Industrial Park Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University, Guangzhou Zhongda Nansha Technology Innovation Industrial Park Co Ltd filed Critical Sun Yat Sen University
Priority to CN201811053140.XA priority Critical patent/CN109472282B/zh
Publication of CN109472282A publication Critical patent/CN109472282A/zh
Application granted granted Critical
Publication of CN109472282B publication Critical patent/CN109472282B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供一种基于极少训练样本的深度图像哈希方法,该方法在已有的传统哈希方法的和基于深度学习的哈希方法都是在大量训练样本的前提下来进行设计的,而在真实的生产环境中,得到大量标记训练样本的成本很高,所以在在极少训练样本下,如果能得到一个效果相对较好的图像哈希模型是具有非常大的实用价值的。

Description

一种基于极少训练样本的深度图像哈希方法
技术领域
本发明涉及图像检索和计算机视觉领域,更具体地,涉及一种基于极少训练样本的深度图像哈希方法。
背景技术
近年来,随着大数据和信息技术突飞猛进的发展,每一天产生的图像数据无法估计,如何在这浩瀚的图像数据中搜索到自己想要的图像显的尤为重要。同时信息检索技术也得很大的发展和应用,在信息检索领域中比较重要的技术之一就是图像哈希。
对于图像哈希技术来说,从实现角度上可分为传统图像哈希和基于深度学习的图像哈希(deep hashing)。近年来,随着深度学习的飞速发展,深度哈希已经成为了目前最领先的图像哈希方法。深度哈希模型具有强大的表征能力,同时需要大量的训练样本来学习整个深度神经网络。但是在现实环境中,往往很难得到大量的训练样本,因此就出现了一个问题:当某些训练样本很少的时候,该如何设计一个效果相对较好的哈希模型?这就是发明专利要解决的问题,因此提出了一种从已有先验知识中学习极少新样本的深度哈希方法(few-shot hashing)。
发明内容
本发明提供一种可得到一个效果相对较好的图像哈希模型基于极少训练样本的深度图像哈希方法。
为了达到上述技术效果,本发明的技术方案如下:
一种基于极少训练样本的深度图像哈希方法,包括以下步骤:
S1:任务定义及数据划分;
S2:构建triplet-based通用深度哈希模型;
S3:基于通用深度哈希模型构建支持记忆体;
S4:通过双向长短期记忆子网络和支持记忆体学习极少样本的特征表示;
S5:训练极少样本下的深度图像哈希模型,并对极少样本的测试集进行检索测试。
进一步地,所述步骤S1的具体过程是:
S11:以cifar100数据集为例,给出few-shot hashing的具体定义。将cifar100划分为2部分,第一部分有80类,每一类有充足的500张训练图片,记作S(support set);另外一部分有20类,每一类只有少量的3张(或者5张、10张..)训练样本,该部分记作L(learningset)。的目的是训练一个深度哈希模型,使得属于这20类的图片能够在整个100类的图像数据库里进行相对有效的检索。
进一步地,所述步骤S2的具体过程是:
S21:针对深度图像哈希的任务,首先需要构建特征学习子网络,即深度卷积网络(CNN)。卷积网络由卷积层、激活层和池化层堆叠而成,具有强大的特征表达能力;
S22:经过卷积子网络后,每一张图片转换为一个语义特征向量,然后,特征向量后面加一个输出神经元数量为q的全连接层和相应的sigmod激活函数层。这样,每一个图像就转换为q维的、范围在0~1之间的实数向量,即哈希向量;
S23:得到哈希向量后,通过三元组损失函数(triplet ranking loss)进行约束,三元组损失函数的目的就通过学习,让相似图片的近似哈希向量之间的距离要远远小于不相似图片的哈希向量之间的距离;
S24:训练triplet-based的通用深度哈希网络,得到通用深度哈希模型。
进一步地,所述步骤S3的具体过程如下:
S31:从前面任务定义中,的数据集有2部分,一部分是S(support set),另一部分是关心的、也是训练样本极少的L(learning set),S中每一类有充足的训练样本,可以对应于已经见过或者学习过的事物;L中训练样本很少,对应于新见到的事物;
S32:用训练好的triplet-based通用深度哈希模型对S的样本进行特征提取。具体为:将样本I[i][j](1≤i≤s,1≤j≤n,s为S的种类数,n为每一类的样本数)依次输入到通过深度哈希模型,得到每一张图片的语义维特征;
S33:将所有的特征排列为M[i][j],具体为:每一行i相同,表示该行的特征向量属于同一类,不同列表示该类第j个样本特征向量,M,即为的支持记忆体(support memory);
进一步地,所述步骤S4的具体过程如下:
S41:在每一个迭代中,支持会按照指定顺序对每一类特征弹出一个特征向量,记作ft,1≤t≤s。
S42:双向长短期记忆子网络(BLSTM)的正向和反向展开为s个time step。
S43:令fl作为双向长短期记忆子网络的时不变(non-time-varying、static)的输入xstatic,令ft作为双向长短期记忆子网络的时变(time-varying)的输入xt
S44:经过双向长短期记忆子网络和支持记忆体的交互,得到极少新样本的最终特征表示
S45:对新的特征表示用三元组损失函数进行约束。
进一步地,所述步骤S5的具体过程如下:
S51:用随机梯度下降的方法对整个网络进行训练。
S52:L的测试集在整个图像数据库中进行检索,并计算测试结果。
与现有技术相比,本发明技术方案的有益效果是:
本发明在已有的传统哈希方法的和基于深度学习的哈希方法都是在大量训练样本的前提下来进行设计的,而在真实的生产环境中,得到大量标记训练样本的成本很高,所以在在极少训练样本下,如果能得到一个效果相对较好的图像哈希模型是具有非常大的实用价值的。
附图说明
图1为triplet-based通用深度哈希网络示意图;
图2为本发明的整体网络结构图;
图3为双向长短期记忆子网络网络结构图;
图4为SUN数据集上的NDCG实验结果;
图5为CIFAR-10数据集上的NDCG实验结果;
图6为CIFAR-100数据集上的NDCG实验结果。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
下面结合附图和实施例对本发明的技术方案做进一步的说明。
1、任务定义及数据划分
深度神经网络在一个新的训练样本到来时,会从头到尾更新整个网络,如果新的训练样本很少,则必然会发生过拟合,效果变的很差。但是发现,当人类看到新事物的时候,往往会联想到之前看到过的事物,比如一个孩子第一次看到老虎,他可能从记忆中搜索,发现这个新事物与之前经常见过的猫很相似,所以,他见过老虎一次,可能就记住了老虎的样子。
从中受到启发,并且应用到了图像哈希问题上:如果某些事物的训练图片非常少,比如每一类只有3张、5张,可以能通过已有的其他事物的大量样本去学习一个“先验知识”(prior knowledge)或者是“支持记忆”(support memory),然后从这些先验知识中去学习新样本,称之为few-shot hashing。
下面以cifar100数据集为例,给出few-shot hashing的具体定义。将cifar100划分为2部分,第一部分有80类,每一类有充足的500张训练图片,记作S(support set);另外一部分有20类,每一类只有少量的3张(或者5张、10张..)训练样本,该部分记作L(learningset)。的目的是训练一个深度哈希模型,使得属于这20类的图片能够在整个100类的图像数据库里进行相对有效的检索。
2、构建triplet-based通用深度哈希模型
深度哈希模型广泛应用在图像检索领域,如“以图搜图”,“淘宝相似商品查找”等等。而且,深度哈希模型是few-shot hashing模型的基础部分,所以首先来阐述本文中的深度哈希模型,如图1所示,它主要分为三大部分:特征学习子网络、哈希码生成子网络和损失函数。
a)特征学习子网络
在图像领域,深度卷积网络(CNN)由卷积层、激活层和池化层堆叠而成,具有强大的特征表达能力,常见的有AlexNet、GoogLenet、VGG、ResNet等等。图像经过卷积网络可以转化为特征向量,比如,GoogLenet的最后pooling层的1024维向量或者VGG的最后一层全连接层的4096维向量都可以作为图像的特征表示,而且这些深度特征要远远好于传统的手工特征,如GIST特征、SIFT特征等。下面均以使用的GoogLenet为例进行阐述。
b)哈希码生成子网络
经过CNN之后,每一张图片转换为了一个1024维的特征向量,而最终的目的是得到特定长度的0/1哈希码,比如12bit的哈希码,因此一个最直观也是最普遍的做法就是在1024维特征向量后面加一个输出神经元数量为12的全连接层,然后后面再接一个sigmod激活函数。这样,每一个图像就转换为了12维的、范围在0~1之间的实数向量了,称它为近似哈希码向量。
c)三元组损失函数triplet ranking loss
深度哈希模型的损失函数有很多种,大概可以分为两大类,一类是pair-based,另一种是triplet-based。本文中使用的是triplet ranking loss,下面详细阐述tripletranking loss。
triplet ranking loss的输入是triplets,即图像三元组,如有一个图像数据集,I为其中的样本,sim为2个图像之间的相似度,若有sim(I,I+)>sim(I,I-),则称(I,I+,I-)为一个triplet。举例来说,在单标签图像数据集的情况下:图像a和图像b属于同一类,a和c不同类,那么(a,b,c)就是一个triplet。
triplet ranking loss的目的就是通过学习,让I和I+的近似哈希向量之间的距离要远远小于I和I-哈希向量之间的距离,数学定义如下:
ltri(v(I),v(I+),v(I-))=max(0,m+||v(I)-v(I+)||-||v(I)-v(I-)||)
s.t.v(I),v(I+),v(I-)∈[0,1]n
其中,v(I)表示哈希码近似向量,m表示距离参数margin。从公式(1)可以看出,当I和I-之间的距离小于I和I+之间的距离和margin之和时,loss的值大于零,就会产生损失,就会拉大I和I-的距离,减小I和I+的距离;当I和I-之间的距离大于I与I+之间的距离和margin之和时,loss为零,说明这个triplet已经学习好了。
当深度哈希模型训练结束后,用户提交一张图片,该图片通过深度哈希模型变为一个近似哈希向量,经过量化(哈希近似向量每一位大于等于0.5为1,否则为0),变为二进制的哈希吗,该哈希码与数据库中所有图像的哈希码进行海明距离计算,计算后将所有海明距离从小到大排序,就可以迅速返回top-k的结果呈现给用户。
3、基于通用深度哈希模型构建支持记忆体
从前面任务定义中,的数据集有2部分,一部分是S(support set),另一部分是关心的、也是训练样本极少的L(learning set)。S中每一类有充足的训练样本,可以对应于一个孩子已经见过或者学习过的事物;L中训练样本很少,对应于新见到的事物。首先要通过S来构建“先验知识”或“支持记忆”。
用S所有的数据去训练一个triplet-based深度哈希网络,如图1所示。因为S训练样本充足,所以可以非常好的去学习深度哈希网络的参数并且得到一个效果很好的哈希模型,记为support hashing model(SHM)。
然后用SHM构建“支持记忆”,具体为:将样本I[i][j](1≤i≤s,1≤j≤n,s为S的种类数,如80,n为每一类的样本数,如500)依次输入到SHM,如图2所示,得到每一张图片的1024维特征(最后一个pooling层),然后将所有的特征排列为M[i][j],具体为:每一行i相同,表示该行的特征向量属于同一类,不同列表示该类第j个样本特征向量,M,即为的support memory。
4、通过双向长短期记忆子网络和支持记忆体学习极少样本的特征表示
这一部分是few-shot hashing的核心部分,将会描述如何从support memory中学习极少的新样本。
首先给出few-shot hashing的整体网络结构图,主要区别是在的triplet-based深度哈希网络的基础上增加了support memory和一个双向长短期记忆子网络,如下图所示:
可以从图2可以看出,在训练的时候,每一个新样本I经过卷积子网络进行特征提取,特征极为fl,这里值得注意的是,该卷积子网络的参数和SHM共享并且该部分参数不更新,即训练好的SHM除了用来进行构建support memory还用来充当新样的特征提取器。
特征提取之后,设计了一种双向长短期记忆网络BLSTM来进行新样本和supportmemory的交互和学习。如图3所示。
具体的,在训练阶段每一个iteration中,M会按照指定顺序对每一类特征弹出一个特征向量,记作ft,1≤t≤s,同时,BLSTM的正向和反向展开为s个time step。然后,如图3所示,令fl作为BLSTM的non-time-varying(static)的输入xstatic,令ft作为BLSTM的time-varying的输入xt,数学形式为:
x’t=concat(xt,xstatic)
其中concat函数为特征向量的拼接操作,比如2个1024维的ft和fl拼接成为2048维的向量x’t。BLSTM的hidden size设置为1024(与原始特征维度保持一致),经过s个timesteps的BLSTM之后,按照公式(3)de运算操作,每一个正向的LSTM cell会输出一个1024维的hft,每一个反向的LSTM cell会输出一个1024位的hbt:
hft=LSTMf(hft-1,xt-1),1<t≤s
hbt=LSTMb(hbt+1,x′t+1),1≤t<s
然后新样本的新的特征lnew就可以表示为:
lsum=eltwise sum(hfs,hb1)
lnew=eltwise product(hsum,0.5)
其中eltwise_num是向量元素间的加法操作,eltwise_product是元素间的乘法操作,直观来说,公式(4)就是将hfs和hb1相加然后取平均作为新的特征表示。
至此,每一个新的样本经过BLSTM子网络与support memory交互学习后,得到一个新的1024维的特征表示。
如图2所示,得到了新的特征表示之后,就可以经过同样的哈希码生成子网络和triplet ranking loss来进行模型训练。
5、实验结果
1)数据集
SUN,64类图片,每一类430个样本,总共27,520张图片。将SUN分为2部分:第一部分S,包含54类所有样本,2共23200张图片。第二部分L剩余的10类,为新学习的样本,并且L每类训练样本只有3、5、10个(本文实验few-shot的三种情况,分别称为3shot、5shot、10shot)。除了L的L的测试样本之外,S和L的所有样本组成检索数据库。
CIFAR-10,每一类样本有6000个,共10类,60000张图片。CIFAR-10的第一部分S包含前8类的48000个样本。剩下的后2类为L。同样的,L每类的训练样本个数有3种情况:3shot、5shot和10shot。除了L的测试样本之外,S和L的所有样本组成检索数据库。
CIFAR-100与CIFAR-10类似,不同之处在于它包含100类样本,每一类600个训练样本。前80类样本组成,后20类组成。同样,L的训练样本每类只有3张、5张、10张这三种情况。
2)评价指标
选择信息检索领域中最常见的Mean Average Precision(MAP)和NormalizedDis-counted Cumulative Gains(NDCG)作为的评价指标。MAP和NDCG越大表示检索效果越好。
3)对比试验
下面为在3个数据集上的对比试验:
表1:SUN数据集上的MAP实验结果
表2:CIFAR-10数据集上的MAP实验结果
表3:CIFAR-100数据集上的MAP实验结果
从结果可以看出的发明相较于以前方法都很大的提升,本发明从大量的支持记忆或先验知识除法,合理的利用了双向长短期记忆子网络和支持记忆体才学习极少新样本的特征表示,本发明的整体网络结构如附图2所示。
相同或相似的标号对应相同或相似的部件;
附图中描述位置关系的用于仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (6)

1.一种基于极少训练样本的深度图像哈希方法,其特征在于,包括以下步骤:
S1:任务定义及数据划分;
S2:构建triplet-based通用深度哈希模型;
S3:基于通用深度哈希模型构建支持记忆体;
S4:通过双向长短期记忆子网络和支持记忆体学习极少样本的特征表示;
S5:训练极少样本下的深度图像哈希模型,并对极少样本的测试集进行检索测试。
2.根据权利要求1所述的基于极少训练样本的深度图像哈希方法,其特征在于,所述步骤S1的具体过程是:
以cifar100数据集为样本,将cifar100划分为2部分,第一部分有80类,每一类有充足的500张训练图片,记作S;另外一部分有20类,每一类只有少量的3张或者5张、10张训练样本,该部分记作L,目的是训练一个深度哈希模型,使得属于这20类的图片能够在整个100类的图像数据库里进行相对有效的检索。
3.根据权利要求2所述的基于极少训练样本的深度图像哈希方法,其特征在于,所述步骤S2的具体过程是:
S21:针对深度图像哈希的任务,首先需要构建特征学习子网络,即深度卷积网络,卷积网络由卷积层、激活层和池化层堆叠而成,具有强大的特征表达能力;
S22:经过卷积子网络后,每一张图片转换为一个语义特征向量。然后,特征向量后面加一个输出神经元数量为q的全连接层和相应的sigmod激活函数层,每一个图像就转换为q维的、范围在0~1之间的实数向量,即哈希向量;
S23:得到哈希向量后,通过三元组损失函数(triplet ranking loss)进行约束,三元组损失函数的目的就通过学习,让相似图片的近似哈希向量之间的距离要远远小于不相似图片的哈希向量之间的距离;
S24:训练triplet-based的通用深度哈希网络,得到通用深度哈希模型。
4.根据权利要求3所述的基于极少训练样本的深度图像哈希方法,其特征在于,所述步骤S3的具体过程是:
S31:从前面任务定义中,数据集有2部分,一部分是S,另一部分是L,S中每一类有充足的训练样本,可以对应于已经见过或者学习过的事物;L中训练样本很少,对应于新见到的事物;
S32:用训练好的triplet-based通用深度哈希模型对S的样本进行特征提取,具体为:将样本I[i][j],其中1≤i≤s,1≤j≤n,s为S的种类数,n为每一类的样本数依次输入到通过深度哈希模型,得到每一张图片的语义维特征;
S33:将所有的特征排列为M[i][j],具体为:每一行i相同,表示该行的特征向量属于同一类,不同列表示该类第j个样本特征向量,M即为的支持记忆体。
5.根据权利要求4所述的基于极少训练样本的深度图像哈希方法,其特征在于,所述步骤4的具体过程如下:
S41:在每一个迭代中,支持会按照指定顺序对每一类特征弹出一个特征向量,记作ft,1≤t≤s;
S42:双向长短期记忆子网络的正向和反向展开为s个time step;
S43:令fl作为双向长短期记忆子网络的时不变的输入xstatic,令ft作为双向长短期记忆子网络的时变的输入xt
S44:经过双向长短期记忆子网络和支持记忆体的交互,得到极少新样本的最终特征表示;
S45:对新的特征表示用三元组损失函数进行约束。
6.根据权利要求5所述的基于极少训练样本的深度图像哈希方法,其特征在于,所述步骤5的具体过程如下:
S51:用随机梯度下降的方法对整个网络进行训练;
S52:L的测试集在整个图像数据库中进行检索,并计算测试结果。
CN201811053140.XA 2018-09-10 2018-09-10 一种基于极少训练样本的深度图像哈希方法 Expired - Fee Related CN109472282B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811053140.XA CN109472282B (zh) 2018-09-10 2018-09-10 一种基于极少训练样本的深度图像哈希方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811053140.XA CN109472282B (zh) 2018-09-10 2018-09-10 一种基于极少训练样本的深度图像哈希方法

Publications (2)

Publication Number Publication Date
CN109472282A true CN109472282A (zh) 2019-03-15
CN109472282B CN109472282B (zh) 2022-05-06

Family

ID=65664206

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811053140.XA Expired - Fee Related CN109472282B (zh) 2018-09-10 2018-09-10 一种基于极少训练样本的深度图像哈希方法

Country Status (1)

Country Link
CN (1) CN109472282B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110134803A (zh) * 2019-05-17 2019-08-16 哈尔滨工程大学 基于哈希学习的图像数据快速检索方法
CN110210988A (zh) * 2019-05-31 2019-09-06 北京理工大学 一种基于深度哈希的符号社交网络嵌入方法
CN110674335A (zh) * 2019-09-16 2020-01-10 重庆邮电大学 一种基于多生成多对抗的哈希码与图像双向转换方法
CN113780245A (zh) * 2021-11-02 2021-12-10 山东建筑大学 一种多场景下的物品检索方法及***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106682233A (zh) * 2017-01-16 2017-05-17 华侨大学 一种基于深度学习与局部特征融合的哈希图像检索方法
CN107871014A (zh) * 2017-11-23 2018-04-03 清华大学 一种基于深度融合哈希的大数据跨模态检索方法及***

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106682233A (zh) * 2017-01-16 2017-05-17 华侨大学 一种基于深度学习与局部特征融合的哈希图像检索方法
CN107871014A (zh) * 2017-11-23 2018-04-03 清华大学 一种基于深度融合哈希的大数据跨模态检索方法及***

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CHANGQIN HUANG ET AL: "Object-Location-Aware Hashing for Multi-Label Image Retrieval via Automatic Mask Learning", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 *
YUE CAO ET AL: "Deep Visual-Semantic Hashing for Cross-Modal Retrieval", 《PROCEEDINGS OF THE 22ND ACM SIGKDD INTERNATIONAL CONFERENCE ON KNOWLEDGE DISCOVERY AND DATA》 *
ZHAOFAN QIU ER AL: "Deep Semantic Hashing with Generative Adversarial Networks", 《PROCEEDINGS OF THE 40TH INTERNATIONAL ACM SIGIR CONFERENCE ON RESEARCH AND DEVELOPMENT IN INFORMATION》 *
刘冶 等: "FP-CNNH:一种基于深度卷积神经网络的快速图像哈希算法", 《计算机科学》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110134803A (zh) * 2019-05-17 2019-08-16 哈尔滨工程大学 基于哈希学习的图像数据快速检索方法
CN110210988A (zh) * 2019-05-31 2019-09-06 北京理工大学 一种基于深度哈希的符号社交网络嵌入方法
CN110210988B (zh) * 2019-05-31 2021-04-27 北京理工大学 一种基于深度哈希的符号社交网络嵌入方法
CN110674335A (zh) * 2019-09-16 2020-01-10 重庆邮电大学 一种基于多生成多对抗的哈希码与图像双向转换方法
CN110674335B (zh) * 2019-09-16 2022-08-23 重庆邮电大学 一种基于多生成多对抗的哈希码与图像双向转换方法
CN113780245A (zh) * 2021-11-02 2021-12-10 山东建筑大学 一种多场景下的物品检索方法及***

Also Published As

Publication number Publication date
CN109472282B (zh) 2022-05-06

Similar Documents

Publication Publication Date Title
CN109472282A (zh) 一种基于极少训练样本的深度图像哈希方法
CN109960763B (zh) 基于用户细粒度摄影偏好的摄影社区个性化好友推荐方法
CN108021658B (zh) 一种基于鲸鱼优化算法的大数据智能搜索方法及***
CN104317834B (zh) 一种基于深度神经网络的跨媒体排序方法
CN112819023B (zh) 样本集的获取方法、装置、计算机设备和存储介质
CN109635083B (zh) 一种用于搜索ted演讲中话题式查询的文档检索方法
CN104156433B (zh) 一种基于语义映射空间构建的图像检索方法
CN109960722B (zh) 一种信息处理方法及装置
CN110083683B (zh) 基于随机游走的实体语义标注方法
CN110879834B (zh) 一种基于循环卷积网络的观点检索***及其观点检索方法
CN106934071A (zh) 基于异构信息网络和贝叶斯个性化排序的推荐方法及装置
CN109145083B (zh) 一种基于深度学习的候选答案选取方法
CN110321437B (zh) 一种语料数据处理方法、装置、电子设备及介质
CN105701225B (zh) 一种基于统一关联超图规约的跨媒体检索方法
CN113378938B (zh) 一种基于边Transformer图神经网络的小样本图像分类方法及***
CN110941698A (zh) 一种基于bert下卷积神经网络的服务发现方法
CN113190593A (zh) 一种基于数字人文知识图谱的搜索推荐方法
CN116383422B (zh) 一种基于锚点的无监督跨模态哈希检索方法
CN111090765B (zh) 一种基于缺失多模态哈希的社交图像检索方法及***
Dai et al. Multi-granularity association learning for on-the-fly fine-grained sketch-based image retrieval
CN111177411A (zh) 一种基于nlp的知识图谱构建方法
CN111444313A (zh) 基于知识图谱的问答方法、装置、计算机设备和存储介质
CN114821140A (zh) 基于曼哈顿距离的图像聚类方法、终端设备及存储介质
CN114579794A (zh) 特征一致性建议的多尺度融合地标图像检索方法及***
WO2021253938A1 (zh) 一种神经网络的训练方法、视频识别方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20220506