CN110751271B - 一种基于深度神经网络的图像溯源特征表征方法 - Google Patents
一种基于深度神经网络的图像溯源特征表征方法 Download PDFInfo
- Publication number
- CN110751271B CN110751271B CN201911029301.6A CN201911029301A CN110751271B CN 110751271 B CN110751271 B CN 110751271B CN 201911029301 A CN201911029301 A CN 201911029301A CN 110751271 B CN110751271 B CN 110751271B
- Authority
- CN
- China
- Prior art keywords
- neural network
- convolutional neural
- images
- layer
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012512 characterization method Methods 0.000 title claims abstract description 26
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 14
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 70
- 238000012549 training Methods 0.000 claims abstract description 39
- 238000011176 pooling Methods 0.000 claims description 20
- 239000013598 vector Substances 0.000 claims description 18
- 238000000034 method Methods 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 239000003086 colorant Substances 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 description 16
- 238000013461 design Methods 0.000 description 8
- 241001465754 Metazoa Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Business, Economics & Management (AREA)
- Mathematical Physics (AREA)
- Marketing (AREA)
- Tourism & Hospitality (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Databases & Information Systems (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Library & Information Science (AREA)
- General Business, Economics & Management (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于深度神经网络的图像溯源特征表征方法,基于传统VGG16卷积神经网络为基础,构建新卷积神经网络,并应用内容不同、分辨率大小不一的图片作为训练数据集,作为新卷积神经网络的输入,并结合新损失函数,针对新卷积神经网络进行训练,使得该网络对不同分辨率的同一图像的特征表征一致,即获得目标卷积神经网络,在实际应用中,使得同一内容图片在不同分辨率下的特征表征一致,不同内容图片之间的特征表征不同,进而拥有同一内容、不同分辨率图片之间相似度增大,不同图片之间相似度降低的优点,进而显著提升图像特征的鲁棒性。
Description
技术领域
本发明涉及一种基于深度神经网络的图像溯源特征表征方法,属于图像处理技术领域。
背景技术
随着社交网站的流行,互联网中图像、视频等非结构化数据每天都在以惊人的速度增长。针对包含丰富视觉信息的海量图片,如何在这些浩瀚的图像库中使用缩略图方便、快速、准确地检索到原图,成为图像检索领域研究的热点。
缩略图图像检索技术对于提取特征的好坏有着较高的要求,如果特征无法很好地表征或有效的区别于其他图像,则很有可能导致检索失败。因此,缩略图图像的特征表征成为了缩略图图像检索的关键。现阶段多使用图像的浅层特征(如灰度值,轮廓等)或者对图像像素使用二值变换(哈希码),进行图像的特征表示。但以上特征提取方法需要先将图像统一缩放到同一尺度,导致图像发生了严重变形,同时造成了人为的像素损失,以上问题使得缩略图与原图的特征表征相差甚远。
发明内容
本发明所要解决的技术问题是提供一种基于深度神经网络的图像溯源特征表征方法,使得同一内容图片在不同分辨率下的特征表征一致,不同内容图片之间的特征表征不同,进而拥有同一内容、不同分辨率图片之间相似度增大,不同图片之间相似度降低的优点。
本发明为了解决上述技术问题采用以下技术方案:本发明设计了一种基于深度神经网络的图像溯源特征表征方法,用于实现目标图像溯源特征的提取,包括如下步骤:
步骤A.以VGG16卷积神经网络为基础,针对第二卷积层的输出、第四卷积层的输出、第七卷积层的输出,分别对接下采样模块,且各下采样模块的下采样比例随卷积层的序号顺序降低;
同时针对第四池化层、第五池化层分别应用全局平均池化;然后将各采样模块的输出、以及第四池化层的输出、第五池化层的输出对接全连接层,最后全连接层的输出对接分类层,分类层以Cosine Loss函数作为目标函数,由此构建待训练卷积神经网络,然后进入步骤B;
步骤B.以不同内容的图像归为不同类,同一内容所对应的不同尺寸图像归为相同类的规则,采用训练数据集针对待训练卷积神经网络进行训练,获得目标卷积神经网络,然后进入步骤C;
步骤C.去除目标卷积神经网络中的分类层,更新目标卷积神经网络,然后进入步骤D;
步骤D.应用目标卷积神经网络,针对目标图像进行处理,由其中的全连接层输出目标图像的溯源特征向量,实现目标图像溯源特征的提取。
作为本发明的一种优选技术方案:基于目标图像溯源特征的提取,还包括如下步骤I至步骤II,用于实现两张任意尺寸图像之间相似度的获得;
步骤I.应用目标卷积神经网络,针对两张任意尺寸图像分别进行处理,获得该两张图像分别所对应的溯源特征向量,然后进入步骤II;
步骤II.针对该两张图像分别所对应的溯源特征向量进行归一化更新,然后计算该两张图像分别所对应溯源特征向量的余弦距离,即为该两张图像之间的相似度。
作为本发明的一种优选技术方案,所述步骤B中包括如下步骤:
步骤B1.收集预设数量颜色、内容互不相同的图片,然后分别针对每一张图片,根据图像金字塔生成预设数量不同尺寸大小的图片,构成训练数据集,然后进入步骤B2;
步骤B2.以不同内容的图像归为不同类,同一内容所对应的不同尺寸图像归为相同类的规则,首先应用训练数据集针对待训练卷积神经网络中的分类层训练预设次数,然后应用训练数据集针对待训练卷积神经网络中除分类层外的其它层训练预设次数,进而获得目标卷积神经网络,然后进入步骤C。
作为本发明的一种优选技术方案,所述步骤A中,首先应用预设数量类别的图像,以不同内容的图像归为不同类,同一内容所对应的不同尺寸图像归为相同类的规则,针对步骤A中作为基础的VGG16卷积神经网络进行训练;然后以训练后VGG16卷积神经网络为基础,构建待训练卷积神经网络,然后进入步骤B。
作为本发明的一种优选技术方案,所述步骤B中,以不同内容的图像归为不同类,同一内容所对应的不同尺寸图像归为相同类的规则,基于Tensorflow训练框架,采用训练数据集针对待训练卷积神经网络进行训练,获得目标卷积神经网络。
作为本发明的一种优选技术方案:所述步骤A中,以VGG16卷积神经网络为基础,针对第二卷积层的输出、第四卷积层的输出、第七卷积层的输出,分别对接下采样模块,其中,第二卷积层输出对接下采样模块的下采样比例为8*8,第四卷积层输出对接下采样模块的下采样比例为4*4,第七卷积层输出对接下采样模块的下采样比例为2*2。
本发明所述一种基于深度神经网络的图像溯源特征表征方法,采用以上技术方案与现有技术相比,具有以下技术效果:
本发明所设计基于深度神经网络的图像溯源特征表征方法,基于传统VGG16卷积神经网络为基础,构建新卷积神经网络,并应用内容不同、分辨率大小不一的图片作为训练数据集,作为新卷积神经网络的输入,并结合新损失函数,针对新卷积神经网络进行训练,使得该网络对不同分辨率的同一图像的特征表征一致,即获得目标卷积神经网络,在实际应用中,使得同一内容图片在不同分辨率下的特征表征一致,不同内容图片之间的特征表征不同,进而拥有同一内容、不同分辨率图片之间相似度增大,不同图片之间相似度降低的优点,进而显著提升图像特征的鲁棒性。
附图说明
图1是本发明所设计卷积神经网络的架构示意图;
图2是本发明设计中两张任意尺寸图像之间相似度获得的流程示意图。
具体实施方式
下面结合说明书附图对本发明的具体实施方式作进一步详细的说明。
本发明设计了一种基于深度神经网络的图像溯源特征表征方法,用于实现目标图像溯源特征的提取,包括如下步骤A至步骤D。
步骤A.首先应用预设数量类别的图像,以不同内容的图像归为不同类,同一内容所对应的不同尺寸图像归为相同类的规则,针对VGG16卷积神经网络进行训练,诸如经过ImageNet中1000个类别的数据集进行训练;具体应用中,针对VGG16卷积神经网络中每一层的激活函数,设计选用了ReLU函数,以及针对池化层,设计选择最大池化,步长为2。
由于后续所设计卷积神经网络所对应输入图像的大小不一,导致了全连接层的输入维度不一,为了解决这一问题,同时考虑相似图像间的颜色、轮廓等特征差异不大,则以上述经过训练的VGG16卷积神经网络为基础,如图1所示,针对第二卷积层的输出、第四卷积层的输出、第七卷积层的输出,分别对接下采样模块,且各下采样模块的下采样比例随卷积层的序号顺序降低,具体诸如设计第二卷积层输出对接下采样模块的下采样比例为8*8,第四卷积层输出对接下采样模块的下采样比例为4*4,第七卷积层输出对接下采样模块的下采样比例为2*2。
同时如图1所示,针对第四池化层、第五池化层分别应用全局平均池化;然后将各采样模块的输出、以及第四池化层的输出、第五池化层的输出对接全连接层,最后全连接层的输出对接分类层,分类层以Cosine Loss函数作为目标函数,由此构建待训练卷积神经网络,然后进入步骤B。
基于上述具体对第二卷积层输出所对接下采样模块、第四卷积层输出所对接下采样模块、以及第七卷积层输出所对接下采样模块的设计,以及第四池化层、第五池化层分别应用全局平均池化,最后将以上特征融合,形成64*64+16*128+4*256+512*2=8192维特征向量,作为特征层的输出。为了使每一类图片的类内距离减小、类间距离增大,并具体使用了Arcface Loss作为最后的输出,实验证明,该方法能够有效提升类内特征的聚合度,增大类间特征的距离。
步骤B.以不同内容的图像归为不同类,同一内容所对应的不同尺寸图像归为相同类的规则,基于Tensorflow训练框架,采用训练数据集针对待训练卷积神经网络进行训练,获得目标卷积神经网络,然后进入步骤C。
实际应用当中,上述步骤B具体包括如下步骤B1至步骤B2。
步骤B1.收集预设数量颜色、内容互不相同的图片,然后分别针对每一张图片,根据图像金字塔生成预设数量不同尺寸大小的图片,构成训练数据集,然后进入步骤B2。
具体实际应用中,对于训练数据集来说,其中图片内容包含风景、人物、动物、卡通人物等不同场景图片,诸如首先收集100万张颜色、内容等不同的图片;然后每张图片根据图像金字塔生成5张不同大小的图片;最终生成100万类,500万张左右不同大小的图片,构成训练数据集。
步骤B2.以不同内容的图像归为不同类,同一内容所对应的不同尺寸图像归为相同类的规则,基于Tensorflow训练框架,首先应用训练数据集针对待训练卷积神经网络中的分类层训练预设次数,然后应用训练数据集针对待训练卷积神经网络中除分类层外的其它层训练预设次数,进而获得目标卷积神经网络,然后进入步骤C。
基于上述以Arcface Loss函数作为待训练卷积神经网络的目标函数,目标函数如下式所述:
与传统的Softmax Loss函数相比,Arcface Loss函数能够将平面边界映射到超球面的角度边界,使得边界距离更加清晰。该函数的应用,能够缩小所有图片在不同尺度下的类内边界,扩大类间边界。
在本发明设计的具体应用中,采用基于BP反向传播中的具有动量的小批量梯度下降法,训练框架选用tensorflow,使用上述的目标函数对待训练卷积神经网络进行训练。其中,目标函数中的参数s为40,m为0.5,动量moutenm为0.9,学习率调整方式为step模式,batch_size为20,训练epoch为100。
步骤C.去除目标卷积神经网络中的分类层,更新目标卷积神经网络,然后进入步骤D。
即基于上述设计实施例中,所形成64*64+16*128+4*256+512*2=8192维特征向量,作为特征层的输出,即最后一层特征层输出的8192维特征向量,即作为目标卷积神经网络的最终输出。
步骤D.应用目标卷积神经网络,针对目标图像进行处理,由其中的全连接层输出目标图像的溯源特征向量,实现目标图像溯源特征的提取。
基于上述步骤A至步骤D关于目标图像溯源特征的提取,本发明进一步设计如下步骤I至步骤II,如图2所示,用于实现两张任意尺寸图像之间相似度的获得。
步骤I.应用目标卷积神经网络,针对两张任意尺寸图像分别进行处理,获得该两张图像分别所对应的溯源特征向量,然后进入步骤II。
步骤II.针对该两张图像分别所对应的溯源特征向量进行归一化更新,然后计算该两张图像分别所对应溯源特征向量的余弦距离,即为该两张图像之间的相似度。
实际应用中,即基于上述设计实施例,两张图像分别经过目标卷积神经网络、输出8192维特征向量,针对各张图像分别所对应的8192维特征向量,进行特征归一化更新,然后计算该两张图像分别所对应溯源特征向量的余弦距离,即为该两张图像之间的相似度。
上述技术方案所设计基于深度神经网络的图像溯源特征表征方法,基于传统VGG16卷积神经网络为基础,构建新卷积神经网络,并应用内容不同、分辨率大小不一的图片作为训练数据集,作为新卷积神经网络的输入,并结合新损失函数,针对新卷积神经网络进行训练,使得该网络对不同分辨率的同一图像的特征表征一致,即获得目标卷积神经网络,在实际应用中,使得同一内容图片在不同分辨率下的特征表征一致,不同内容图片之间的特征表征不同,进而拥有同一内容、不同分辨率图片之间相似度增大,不同图片之间相似度降低的优点,进而显著提升图像特征的鲁棒性。
上面结合附图对本发明的实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下做出各种变化。
Claims (4)
1.一种基于深度神经网络的图像溯源特征表征方法,用于实现目标图像溯源特征的提取,其特征在于,包括如下步骤:
步骤A. 以VGG16卷积神经网络为基础,针对第二卷积层的输出、第四卷积层的输出、第七卷积层的输出,分别对接下采样模块,且各下采样模块的下采样比例随卷积层的序号顺序降低,其中,第二卷积层输出对接下采样模块的下采样比例为8*8,第四卷积层输出对接下采样模块的下采样比例为4*4,第七卷积层输出对接下采样模块的下采样比例为2*2;
同时针对第四池化层、第五池化层分别应用全局平均池化;然后将各采样模块的输出、以及第四池化层的输出、第五池化层的输出对接全连接层,最后全连接层的输出对接分类层,分类层以Cosine Loss函数作为目标函数,由此构建待训练卷积神经网络,然后进入步骤B;
步骤B. 以不同内容的图像归为不同类,同一内容所对应的不同尺寸图像归为相同类的规则,采用训练数据集针对待训练卷积神经网络进行训练,获得目标卷积神经网络,然后进入步骤C;
上述步骤B中包括如下步骤:
步骤B1. 收集预设数量颜色、内容互不相同的图片,然后分别针对每一张图片,根据图像金字塔生成预设数量不同尺寸大小的图片,构成训练数据集,然后进入步骤B2;
步骤B2. 以不同内容的图像归为不同类,同一内容所对应的不同尺寸图像归为相同类的规则,首先应用训练数据集针对待训练卷积神经网络中的分类层训练预设次数,然后应用训练数据集针对待训练卷积神经网络中除分类层外的其它层训练预设次数,进而获得目标卷积神经网络,然后进入步骤C;
步骤C. 去除目标卷积神经网络中的分类层,更新目标卷积神经网络,然后进入步骤D;
步骤D. 应用目标卷积神经网络,针对目标图像进行处理,由其中的全连接层输出目标图像的溯源特征向量,实现目标图像溯源特征的提取。
2.根据权利要求1所述一种基于深度神经网络的图像溯源特征表征方法,其特征在于:基于目标图像溯源特征的提取,还包括如下步骤I至步骤II,用于实现两张任意尺寸图像之间相似度的获得;
步骤I. 应用目标卷积神经网络,针对两张任意尺寸图像分别进行处理,获得该两张图像分别所对应的溯源特征向量,然后进入步骤II;
步骤II. 针对该两张图像分别所对应的溯源特征向量进行归一化更新,然后计算该两张图像分别所对应溯源特征向量的余弦距离,即为该两张图像之间的相似度。
3.根据权利要求1所述一种基于深度神经网络的图像溯源特征表征方法,其特征在于,所述步骤A中,首先应用预设数量类别的图像,以不同内容的图像归为不同类,同一内容所对应的不同尺寸图像归为相同类的规则,针对步骤A中作为基础的VGG16卷积神经网络进行训练;然后以训练后VGG16卷积神经网络为基础,构建待训练卷积神经网络,然后进入步骤B。
4.根据权利要求1所述一种基于深度神经网络的图像溯源特征表征方法,其特征在于,所述步骤B中,以不同内容的图像归为不同类,同一内容所对应的不同尺寸图像归为相同类的规则,基于Tensorflow训练框架,采用训练数据集针对待训练卷积神经网络进行训练,获得目标卷积神经网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911029301.6A CN110751271B (zh) | 2019-10-28 | 2019-10-28 | 一种基于深度神经网络的图像溯源特征表征方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911029301.6A CN110751271B (zh) | 2019-10-28 | 2019-10-28 | 一种基于深度神经网络的图像溯源特征表征方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110751271A CN110751271A (zh) | 2020-02-04 |
CN110751271B true CN110751271B (zh) | 2023-05-26 |
Family
ID=69280382
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911029301.6A Active CN110751271B (zh) | 2019-10-28 | 2019-10-28 | 一种基于深度神经网络的图像溯源特征表征方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110751271B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111639558B (zh) * | 2020-05-15 | 2023-06-20 | 圣点世纪科技股份有限公司 | 一种基于ArcFace Loss和改进残差网络的指静脉身份验证方法 |
CN111933124B (zh) * | 2020-09-18 | 2021-04-30 | 电子科技大学 | 一种可支持自定唤醒词的关键词检测方法 |
CN112818161B (zh) * | 2021-02-24 | 2023-03-24 | 西安博达软件股份有限公司 | 基于深度学习的融媒体资源库缩略图识别原图的方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107563422A (zh) * | 2017-08-23 | 2018-01-09 | 西安电子科技大学 | 一种基于半监督卷积神经网络的极化sar分类方法 |
CN107967484A (zh) * | 2017-11-14 | 2018-04-27 | 中国计量大学 | 一种基于多分辨率的图像分类方法 |
WO2018214195A1 (zh) * | 2017-05-25 | 2018-11-29 | 中国矿业大学 | 一种基于卷积神经网络的遥感图像桥梁检测方法 |
-
2019
- 2019-10-28 CN CN201911029301.6A patent/CN110751271B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018214195A1 (zh) * | 2017-05-25 | 2018-11-29 | 中国矿业大学 | 一种基于卷积神经网络的遥感图像桥梁检测方法 |
CN107563422A (zh) * | 2017-08-23 | 2018-01-09 | 西安电子科技大学 | 一种基于半监督卷积神经网络的极化sar分类方法 |
CN107967484A (zh) * | 2017-11-14 | 2018-04-27 | 中国计量大学 | 一种基于多分辨率的图像分类方法 |
Non-Patent Citations (2)
Title |
---|
刘孟轲 ; 吴洋 ; 王逊 ; .基于卷积神经网络的轨道表面缺陷检测技术实现.现代计算机(专业版).2017,(29),全文. * |
蔡芷茵 ; 高炜 ; 俞祝良 ; 黄金洪 ; 刘浩 ; 李宏海 ; .基于三元组卷积神经网络的图像检索.西安邮电大学学报.2016,(06),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN110751271A (zh) | 2020-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Golts et al. | Unsupervised single image dehazing using dark channel prior loss | |
Ji et al. | A scale robust convolutional neural network for automatic building extraction from aerial and satellite imagery | |
CN110210551B (zh) | 一种基于自适应主体敏感的视觉目标跟踪方法 | |
CN111401384B (zh) | 一种变电设备缺陷图像匹配方法 | |
CN113052835B (zh) | 一种基于三维点云与图像数据融合的药盒检测方法及其检测*** | |
CN110751271B (zh) | 一种基于深度神经网络的图像溯源特征表征方法 | |
Li et al. | Single image snow removal via composition generative adversarial networks | |
CN113239954B (zh) | 基于注意力机制的图像语义分割特征融合方法 | |
Tang et al. | Single image dehazing via lightweight multi-scale networks | |
CN109509156B (zh) | 一种基于生成对抗模型的图像去雾处理方法 | |
CN110136162B (zh) | 无人机视角遥感目标跟踪方法及装置 | |
CN113888501B (zh) | 一种基于注意力定位网络的无参考型图像质量评价方法 | |
CN112183675B (zh) | 一种基于孪生网络的针对低分辨率目标的跟踪方法 | |
CN116486074A (zh) | 一种基于局部和全局上下文信息编码的医学图像分割方法 | |
CN115049945B (zh) | 一种基于无人机图像的小麦倒伏面积提取方法和装置 | |
CN111062329A (zh) | 基于增广网络的无监督行人重识别方法 | |
Cai et al. | Multiscale attentive image de-raining networks via neural architecture search | |
CN116402851A (zh) | 一种复杂背景下的红外弱小目标跟踪方法 | |
CN110633706B (zh) | 一种基于金字塔网络的语义分割方法 | |
CN111079585B (zh) | 图像增强结合伪孪生卷积神经网络的行人再识别方法 | |
CN110555379B (zh) | 一种根据性别动态调整特征的人脸愉悦度估计方法 | |
CN110070626B (zh) | 一种基于多视角分类的三维物体检索方法 | |
CN114743045B (zh) | 一种基于双分支区域建议网络的小样本目标检测方法 | |
CN116416649A (zh) | 一种基于多尺度分辨率对齐的视频行人重识别方法 | |
Huang et al. | Low illumination soybean plant reconstruction and trait perception |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |