CN109543745B - 基于条件对抗自编码网络的特征学习方法及图像识别方法 - Google Patents

基于条件对抗自编码网络的特征学习方法及图像识别方法 Download PDF

Info

Publication number
CN109543745B
CN109543745B CN201811379900.6A CN201811379900A CN109543745B CN 109543745 B CN109543745 B CN 109543745B CN 201811379900 A CN201811379900 A CN 201811379900A CN 109543745 B CN109543745 B CN 109543745B
Authority
CN
China
Prior art keywords
layer
sample
self
network model
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811379900.6A
Other languages
English (en)
Other versions
CN109543745A (zh
Inventor
陈秀宏
肖汉雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangnan University
Original Assignee
Jiangnan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangnan University filed Critical Jiangnan University
Priority to CN201811379900.6A priority Critical patent/CN109543745B/zh
Publication of CN109543745A publication Critical patent/CN109543745A/zh
Application granted granted Critical
Publication of CN109543745B publication Critical patent/CN109543745B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

基于条件对抗自编码网络的特征学习方法,其通过标签变量来控制生成结果,生成具有标签的样本用以辅助其他学习任务,提高图像识别效率;同时本发明还公开了基于条件对抗自编码网络的特征学习方法的图像识别方法,其能够在复杂的对象布局以及多标签图像场景时,获得高精度的图像识别效果。其包括S1选定训练集;S2选定先验分布函数;S3以对抗自编码网络模型为基础,在网络模型中的判别器或者编码器的输入数据中引入样本数据的标签信息,构建网络模型;S4训练网络模型,以优化网络模型中的参数;S5通过训练好的网络模型中的判别器进行数据特征的提取、或者利用训练好的生成器生成原始输入的重构。

Description

基于条件对抗自编码网络的特征学习方法及图像识别方法
技术领域
本发明涉及图像识别技术领域,具体为基于条件对抗自编码网络的特征学习方法及图像识别方法。
背景技术
近几年来,基于深度学习(Deep Learning)的技术在计算机视觉领域取得了很多显著的成果,其中有代表性的深度学习方法,如CNN(卷积神经网络)、AutoEncoder(以下简称AE)、生成式对抗网络(Generative Adversarial Nets,以下简称GAN)、对抗自编码(Adversarial AutoEncoder,以下简称AAE),都被广泛地使用到了图像识别领域。然而,随着技术的发展,图像识别技术被广泛地应用到复杂的对像布局以及多标签图像的场景,此时,如何从有限的样本中有效地利用数据的标签信息学习数据分布,进而提高面对复杂场景时的图像识别的效率和精度,依然是一个极具挑战性的任务。
如图1所示,GAN模型通过生成器3和判别器4之间的“最小-最大对抗游戏”来捕捉数据分布,训练过程中GAN模型从给定的先验分布2中生成伪训练样本5,判别器4从输入的伪训练样本5和真实样本1中判断真实来源,以提高判断样本来源的能力。尽管 GAN 模型能够很好地捕捉数据的分布,但是依然面临训练过程中存在模式崩塌的现象和样本空间到隐空间的映射不存在的问题。如图2所示,AAE模型中编码器6对真实样本1进行编码,获得一个隐含层8,解码器7对编码的隐含层8进行解码,从而获得原始输入的重构;编码器6和解码器7构成了AE部分,AAE模型将通过隐含层8提取的真实样本1的数据的编码特征作为负样本,将给定的先验分布2作为正样本,结合判别器4进行对抗训练。AAE是无监督学习方法,生成的样本虽然能够很好地拟合训练样本的分布,在用到图像识别技术中时能很好地消除GAN模型生成图像不逼真的问题,但是只能生成没有标签的样本,无法有效地利用标签信息。
发明内容
为了解决无法在有限的样本中有效地利用数据的标签信息来学习数据特征,进而获得更高的图像识别效率和识别精度的问题,本发明提供基于条件对抗自编码网络的特征学习方法,其通过标签变量来控制生成结果,生成具有标签的样本用以辅助其他学习任务,提高图像识别效率;同时本发明还公开了基于条件对抗自编码网络的特征学习方法的图像识别方法,其能够在复杂的对象布局以及多标签图像场景时,获得高精度的图像识别效果。
本发明的技术方案是这样的:基于条件对抗自编码网络的特征学习方法,其包括以下步骤:
S1:选定训练集;
S2:选定先验分布函数;
S3:以对抗自编码网络模型为基础构建网络模型;
S4:训练所述网络模型,以优化所述网络模型中的参数;
S5:通过训练好的所述网络模型中的判别器进行数据特征的提取、或者利用训练好的生成器生成原始输入的重构;
其特征在于:
步骤S3中构建的、以对抗自编码网络模型为基础的所述网络模型为基于条件对抗自编码网络模型,其在网络模型中的判别器或者编码器的输入数据中引入样本数据的标签信息,使所述基于条件对抗自编码网络模型的判别能力得到提高。
其进一步特征在于:
所述基于条件对抗自编码网络模型为基于隐变量分布拟合的条件对抗自编码网络,其在判别器中融合所述样本数据的标签信息,所述样本数据的标签信息结合在步骤S2中选定的作为正样本的所述先验分布函数、以及通过隐含层提取的作为负样本的真实样本的数据编码特征一起作为所述判别器的输入;
所述基于条件对抗自编码网络模型为基于样本的条件对抗自编码网络,其在编码器中融合所述样本数据的标签信息,所述样本数据的标签信息结合在步骤S2中选定的所述先验分布函数一起作为所述编码器的输入;
所述基于样本的条件对抗自编码网络中,通过所述隐含层生成伪训练样本,所述伪训练样本作为负样本、通过训练数据生成的真实样本作为正样本输入到所述判别器中,所述判别器从输入的所述伪训练样本和所述真实样本中判断真实来源;所述解码器对所述隐含层进行解码,将所述伪训练样本还原至给定的所述先验分布函数和所述样本数据的标签信息;
步骤S4中所述训练过程包括如下步骤:
S4-1:确定训练迭代次数;
S4-2:从所述训练集中采样,得到小批量的训练样本{x(1),……x(m)};
S4-3:根据下面公式1利用梯度法更新所述编码器和所述解码器的网络参数θAe与θAd
Figure DEST_PATH_IMAGE001
S4-4:根据下面的公式2利用梯度法更新所述编码器的网络参数θAe
Figure 741757DEST_PATH_IMAGE002
S4-5:根据下面的公式3利用梯度法更新所述判别器的网络参数θd
Figure DEST_PATH_IMAGE003
S4-6:重复步骤S4-2至S4-5,直至重复次数等于所述训练迭代次数;
上述各式中,
E(•)表示期望,
pdata(•)表示服从真实样本的数据分布,
p(z)表示服从随机本分布的数据分布,
z为输入的随机变量,
x表示输入的样本,
D表示判别器;
所述基于隐变量分布拟合的条件对抗自编码网络中的所述编码器和解码器分别包括下面四种组合:
全连接层、全连接层,全连接层、反卷积层,卷积层、全连接层,卷积层、反卷积层;
所述基于隐变量分布拟合的条件对抗自编码网络中的所述编码器包括依次连接的对输入向量进行矢量化操作的卷积层结构、矢量化层、全连接层,每个卷积层结构包括卷积层及其后面依次跟着BatchNorm层、激活函数、下采样;所述解码器包括依次连接的全连接层、逆矢量化层、反卷积层结构,每个反卷积层结构包括反卷积层及其后面依次跟着的BatchNorm层、所述激活函数、上采样;所述判别器包括全连接层;每个全连接层后面都跟着所述激活函数;
所述基于样本的条件对抗自编码网络的所述编码器包括全连接层;所述解码器包括全连接层;所述判别器包括依次连接的卷积层结构、矢量化层、全连接层,每个所述卷积层结构包括卷积层及其后面跟着BatchNorm层、激活函数、下采样;每个全连接层后面都跟着所述激活函数;
所述激活函数为Rectified Linear Units函数;所述卷积层和所述反卷积层的卷积核的尺寸全部设置为3×3。
基于条件对抗自编码网络的特征学习方法的图像识别方法,其包括以下步骤:
步骤1. 构建网络模型;
步骤2. 选定数据集、先验分布函数,训练所述网络模型;
步骤3. 将待识别图像数据输入到训练好的所述网络模型中,利用所述判别器进行图像分类识别;
其特征在于:
步骤1中所述网络模型为基于条件对抗自编码网络模型,在所述网络模型的判别器或编码器中融合所述样本数据的标签信息,用以完成更有效的识别图像数据。
本发明提供的基于条件对抗自编码网络的特征学习方法,其通过在对抗自编码网络模型中引入数据标签信息,构建基于条件对抗自编码网络,其无监督的训练过程中引入了有监督的标签信息,以此来强化对抗自编码网络模型的训练过程,能够使对抗自编码网络模型的训练过程更加稳定,且不会发生类似生成式对抗网络的塌陷现象;其通过标签变量来控制生成结果,生成具有标签的样本,进而提高了对抗自编码网络模型学习判别特征的能力,基于条件对抗自编码网络与对抗自编码网络模型相比,更有效地提高了对数据标签的利用率,且在有限的样本中更有效地学习数据分布;采用基于条件对抗自编码网络的特征学习方法的图像识别方法,能够更好地提取图像数据的特征,以更高的效率进行图像识别;在面对复杂的对象布局以及多标签图像场景的时候,可以通过有限的样本中有效地利用数据的标签信息后,取得高精度的图像识别效果。
附图说明
图1为现有技术中GAN网络的结构示意图;
图2为现有技术中AAE网络的结构示意图;
图3为基于隐变量分布拟合的条件对抗自编码网络的结构示意图;
图4为基于样本的条件对抗自编码网络的结构示意图;
图5为基于隐变量分布拟合的条件对抗自编码网络中编码器、解码器、判别器的结构示意图;
图6基于样本的条件对抗自编码网络的中编码器、解码器、判别器的结构示意图。
具体实施方式
如图1~图6所示,基于条件对抗自编码网络的特征学习方法,其包括以下步骤:
S1:选定训练集;
S2:选定先验分布函数;
S3:构建对抗自编码网络模型;对抗自编码网络模型为基于条件对抗自编码网络模型,其输入包括样本数据的标签信息,其在网络模型中的判别器或者编码器的输入数据中引入样本数据的标签信息,基于条件对抗自编码网络模型生成的数据具有标签信息;
S4:训练对抗自编码网络模型,以优化网络模型中的参数;
S5:通过训练好的对抗自编码网络模型中的判别器进行数据特征的提取、或者利用训练好的生成器生成原始输入的重构。
基于条件对抗自编码网络模型按照融合数据标签信息的组建不同,分为两种:基于隐变量分布拟合的条件对抗自编码网络和基于样本的条件对抗自编码网络。
如图3所示,基于隐变量分布拟合的条件对抗自编码网络(Latent DistributionBased Conditional Adversarial Autoencoder,以下简称L-CAAE)在判别器4-1中融合样本数据的标签信息9,样本数据的标签信息9结合在步骤S2中选定的作为正样本的先验分布函数2、以及通过隐含层8提取的作为负样本的真实样本的数据编码特征一起作为判别器4-1的输入。
基于隐变量分布拟合的条件对抗自编码网络中的编码器6和解码器7分别包括下面四种组合:
全连接层、全连接层,全连接层、反卷积层,卷积层、全连接层,卷积层、反卷积层;
如图5所示,作为最优结构,基于隐变量分布拟合的条件对抗自编码网络中的编码器6包括多个依次连接的卷积层结构、矢量化层、全连接层,每个卷积层结构包括卷积层及其后面依次跟着的BatchNorm层(简称 BN层)、激活函数、下采样,矢量化层对卷积后的特征图进行矢量化操作,转换成普通的向量,然后进行全连接操作;解码器7包括依次连接的全连接层、逆矢量化层、多个连续的反卷积层结构,每个反卷积层结构包括反卷积层及其后面依次跟着的BN层、激活函数、上采样,逆矢量化层将全连接层的结构转换为普通卷基层可接受的输入;判别器4-1包括多个全连接层,每个全连接层后面都跟着激活函数;激活函数为Rectified Linear Units函数(以下简称ReLU);卷积层和反卷积层的卷积核的尺寸全部设置为3×3。
基于隐变量分布拟合的条件对抗自编码网络是编码—解码结构的网络,其在判别器中如何数据的标签信息,来间接强化编码器的学习判别特征的能力。
如图4所示,基于样本的条件对抗自编码网络(Samples Based ConditionalAdversarial Autoencoder,以下简称S-CAAE),其在编码器6-1中融合样本数据的标签信息9,样本数据的标签信息9结合在步骤S2中选定的先验分布函数2一起作为编码器6-1的输入;基于样本的条件对抗自编码网络中,通过隐含层生成伪训练样本5,伪训练样本5作为负样本、通过训练数据10生成的真实样本1作为正样本输入到判别器4中,判别器4从输入的伪训练样本5和真实样本1中判断真实来源;解码器7-1对隐含层进行解码,将伪训练样本5还原至给定的先验分布函数和样本数据的标签信息。
如图6所示,基于样本的条件对抗自编码网络的编码器6-1包括多个全连接层;解码器7-1包括多个全连接层;判别器4包括依次连接的多个卷积层结构、矢量化层、全连接层,每个卷积层结构包括卷积层及其后面跟着的BN层、激活函数、下采样;激活函数为ReLU函数;每个全连接层后面都跟着激活函数;卷积层和反卷积层的卷积核的尺寸全部设置为3×3。
基于条件对抗自编码网络模型是解码—编码结构的网络模型,其在编码器中使用了样本的标签信息,能够完成生成图像到输入特征的映射,以提高模型的特征学习能力。
基于条件对抗自编码网络模型以对抗自编码网络模型为基础,所以其优化模型为:
Figure 737526DEST_PATH_IMAGE004
其中:
E表示编码器,
D表示判别器,判别器是一个二分类器,用于估计一个输入样本来自于真实的训练数据集而非生成数据集的概率,
x表示输入的样本,
z为输入的随机变量,
y表示需要优化的参数。
步骤S4中训练过程包括如下步骤:
S4-1:确定训练迭代次数;
S4-2:从训练集中采样,得到小批量的训练样本{x(1),……x(m)}
S4-3:根据下面公式1利用梯度法更新编码器和解码器的网络参数θAe与θAd
Figure 986104DEST_PATH_IMAGE001
S4-4:根据下面的公式2利用梯度法更新编码器的网络参数θAe
Figure 53417DEST_PATH_IMAGE002
S4-5:根据下面的公式3利用梯度法更新判别器的网络参数θd
Figure 336631DEST_PATH_IMAGE003
S4-6:重复步骤S4-2至S4-5,直至重复次数等于训练迭代次数;反复交替训练判别器和生成器,使得判别器和生成器的性能不断提升,当最终判别器的判别能力提升到一定程度,并且无法正确判别数据来源时,可以认为这个生成器已经学到了真实数据的分布,从而得到最终的网络参数;
其中,
E(•)表示期望,
pdata(•)表示服从真实样本的数据分布,
p(z)表示服从随机本分布的数据分布,p(z)可以选择混合高斯分布,也可以使其他分布如均匀分布函数,
z为输入的随机变量,
x表示输入的样本,
D表示判别器。
基于条件对抗自编码网络的特征学习方法的图像识别方法,其包括以下步骤:
1. 构建网络模型,所述网络模型为基于条件对抗自编码网络模型,在所述网络模型的判别器或编码器中融合所述样本数据的标签信息,用以完成更有效的识别图像数据;
2. 选定数据集、先验分布函数,训练网络模型;
3. 将待识别图像数据输入到训练好的网络模型中,利用判别器进行图像分类识别;
以基于隐变量分布拟合的条件对抗自编码网络为例,先验分布函数选择混合高斯模型,基于隐变量分布拟合的条件对抗自编码网络的隐藏单元数设置为2,编码器结构中的卷积层结构为Conv-BN-ReLU-下采样,设置为784 —1024 —1024—2;解码器结构的反卷积层结构为Deconv-BN-ReLU-上采样设置为784-1024-1024-2;训练过程中训练迭代次数设置为200;各个部分分别采用Adam优化方法。用下面的现有网络模型做对比,分别 在 MNIST 、ETH80 以及 CIFAR10三个数据集上进行实验,所有算法都使用基于 softmax 的微调作为最后结果,得到表1的结果:
对比网络模型如下:
(1) 自编码网络 (AutoEncoder,简称AE)
(2) 稀疏自编码器(Sparse AutoEncoder,简称SAE )
(3) 降噪自编码器(Denoising AutoEncoders,简称DAE)
(4) 压缩自编码器(Contractive AutoEncoders ,简称CAE)
(5) K-稀疏自编码器(K-Sparse Autoencoder,简称K-SAE)
(6) 堆叠卷积自动编码器(Stacked Convolutional AutoEncoders,简称S-CAE)
表1 各个模型在实验数据集上的分类的错误率(%)
Figure DEST_PATH_IMAGE005
由上表1可知,尽管随着数据复杂度的增加,各个模型的分类精度都出现了明显的下降,但是,基于隐变量分布拟合的条件对抗自编码网络取得的分类效果是最好的。可见,结合了数据标签信息的基于隐变量分布拟合的条件对抗自编码网络能够很好的拟合给定的先验分布,使得网络学习具有较强的判别性;在面对复杂的对象布局以及多标签图像场景的时候,通过有限的样本中有效地利用数据的标签信息后,取得了高精度的图像识别效果。

Claims (1)

1.基于条件对抗自编码网络的特征学习方法的图像识别方法,其包括以下步骤:
步骤1. 构建网络模型;
步骤2. 选定数据集、先验分布函数,训练所述网络模型;
步骤3. 将待识别图像数据输入到训练好的所述网络模型中,利用判别器进行图像分类识别;
其特征在于:
步骤1中所述网络模型为基于条件对抗自编码网络模型,所述基于条件对抗自编码网络模型为基于隐变量分布拟合的条件对抗自编码网络,或基于样本的条件对抗自编码网络;在基于隐变量分布拟合的条件对抗自编码网络的判别器中融合所述样本数据的标签信息,或者在基于样本的条件对抗自编码网络的编码器中融合所述样本数据的标签信息,使所述基于条件对抗自编码网络模型的判别能力得到提高;
所述条件对抗自编码网络模型,是基于所述条件对抗自编码网络的特征学习方法进行训练的,其包括以下步骤:
S1:选定训练集;
S2:选定先验分布函数;
S3:以对抗自编码网络模型为基础构建网络模型;
网络模型中的判别器或者编码器的输入数据中引入样本数据的标签信息,使所述基于条件对抗自编码网络模型的判别能力得到提高;
S4:训练所述网络模型,以优化所述网络模型中的参数;
S5:通过训练好的所述网络模型中的编码器进行数据特征的提取;
所述基于条件对抗自编码网络模型为基于隐变量分布拟合的条件对抗自编码网络,其在所述判别器中融合所述样本数据的标签信息,所述样本数据的标签信息结合在步骤S2中选定的作为正样本的所述先验分布函数、以及通过隐含层提取的作为负样本的真实样本的数据编码特征一起作为所述判别器的输入;
所述基于隐变量分布拟合的条件对抗自编码网络中的所述编码器和解码器分别包括下面四种组合:
全连接层、全连接层,全连接层、反卷积层,卷积层、全连接层,卷积层、反卷积层;
所述基于隐变量分布拟合的条件对抗自编码网络中的所述编码器包括依次连接的对输入向量进行矢量化操作的卷积层结构、矢量化层、全连接层,每个卷积层结构包括卷积层及其后面依次跟着BatchNorm层、激活函数、下采样;所述解码器包括依次连接的全连接层、逆矢量化层、反卷积层结构,每个反卷积层结构包括反卷积层及其后面依次跟着的BatchNorm层、所述激活函数、上采样;所述判别器包括全连接层;每个全连接层后面都跟着所述激活函数;
所述基于条件对抗自编码网络模型为基于样本的条件对抗自编码网络,其在所述编码器中融合所述样本数据的标签信息,所述样本数据的标签信息结合在步骤S2中选定的所述先验分布函数一起作为所述编码器的输入;
所述基于样本的条件对抗自编码网络中,通过隐含层生成伪训练样本,所述伪训练样本作为负样本、通过训练数据生成的真实样本作为正样本输入到所述判别器中,所述判别器从输入的所述伪训练样本和所述真实样本中判断真实来源;解码器对所述隐含层进行解码,将所述伪训练样本还原至给定的所述先验分布函数和所述样本数据的标签信息;
所述基于样本的条件对抗自编码网络的所述编码器包括全连接层;所述解码器包括全连接层;所述判别器包括依次连接的卷积层结构、矢量化层、全连接层,每个所述卷积层结构包括卷积层及其后面跟着BatchNorm层、激活函数、下采样;每个全连接层后面都跟着所述激活函数;
步骤S4中所述训练过程包括如下步骤:
S4-1:确定训练迭代次数;
S4-2:从所述训练集中采样,得到小批量的训练样本{x(1),……x(m)};
其中,m为样本个数;
S4-3:根据下面公式1利用梯度法更新所述编码器和所述解码器的网络参数θAe与θAd
Figure 602780DEST_PATH_IMAGE001
S4-4:根据下面的公式2利用梯度法更新所述编码器的网络参数θAe
Figure 113395DEST_PATH_IMAGE002
S4-5:根据下面的公式3利用梯度法更新所述判别器的网络参数θd
Figure 361974DEST_PATH_IMAGE003
S4-6:重复步骤S4-2至S4-5,直至重复次数等于所述训练迭代次数;
上述各式中,
E(•)表示期望,
pdata(•)表示服从真实样本的数据分布,
p(z)表示随机的数据分布,
z为输入的随机变量,
x表示输入的样本,
D表示判别器。
CN201811379900.6A 2018-11-20 2018-11-20 基于条件对抗自编码网络的特征学习方法及图像识别方法 Active CN109543745B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811379900.6A CN109543745B (zh) 2018-11-20 2018-11-20 基于条件对抗自编码网络的特征学习方法及图像识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811379900.6A CN109543745B (zh) 2018-11-20 2018-11-20 基于条件对抗自编码网络的特征学习方法及图像识别方法

Publications (2)

Publication Number Publication Date
CN109543745A CN109543745A (zh) 2019-03-29
CN109543745B true CN109543745B (zh) 2021-08-24

Family

ID=65848319

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811379900.6A Active CN109543745B (zh) 2018-11-20 2018-11-20 基于条件对抗自编码网络的特征学习方法及图像识别方法

Country Status (1)

Country Link
CN (1) CN109543745B (zh)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110163796B (zh) * 2019-05-29 2023-03-24 北方民族大学 一种无监督多模态对抗自编码的图像生成方法及框架
CN110458003B (zh) * 2019-06-29 2023-09-19 天津大学 基于局部注意力模型的面部表情动作单元对抗合成方法
CN110602494A (zh) * 2019-08-01 2019-12-20 杭州皮克皮克科技有限公司 基于深度学习的图像编码、解码***及编码、解码方法
CN110503636B (zh) * 2019-08-06 2024-01-26 腾讯医疗健康(深圳)有限公司 参数调整方法、病灶预测方法、参数调整装置及电子设备
CN110609477B (zh) * 2019-09-27 2021-06-29 东北大学 一种基于深度学习的电力***暂态稳定性判别***及方法
CN110969585B (zh) * 2019-10-22 2024-04-12 广东石油化工学院 一种基于条件变分自编码网络的除雨方法
CN111080605A (zh) * 2019-12-12 2020-04-28 哈尔滨市科佳通用机电股份有限公司 一种铁路货车人力制动机轴链脱落故障图像识别方法
CN111382675B (zh) * 2020-02-24 2024-02-27 江苏大学 一种用于行人识别数据集增强训练的生成对抗网络***
CN111402179B (zh) * 2020-03-12 2022-08-09 南昌航空大学 结合对抗自编码器和生成对抗网络的图像合成方法及***
CN111428734B (zh) * 2020-03-17 2022-08-09 山东大学 一种基于残差对抗推理学习的图像特征提取方法、装置和计算机可读存储介质
CN111859790B (zh) * 2020-07-08 2022-09-16 大连理工大学 一种基于图像特征学习的曲线加筋结构布局智能设计方法
CN111985161B (zh) * 2020-08-21 2024-06-14 广东电网有限责任公司清远供电局 一种变电站三维模型重构方法
CN111967534A (zh) * 2020-09-03 2020-11-20 福州大学 基于生成对抗网络知识蒸馏的增量学习方法
CN112015932A (zh) * 2020-09-11 2020-12-01 深兰科技(上海)有限公司 一种基于神经网络的图片存储方法、介质及装置
CN112329875B (zh) * 2020-11-16 2022-05-03 电子科技大学 一种基于连续吸引子网络的连续图像序列识别方法
CN112767344A (zh) * 2021-01-16 2021-05-07 北京工业大学 一种基于车载摄像的耦合传统和机器学习的病害增强方法
CN113222147B (zh) * 2021-05-11 2024-02-13 北华航天工业学院 一种条件双对抗学习推理模型的构建方法
CN113295722B (zh) * 2021-05-21 2022-09-20 厦门大学 一种基于深度学习算法的x射线光谱数据矫正方法及装置
CN113962381B (zh) * 2021-09-30 2023-02-03 西南电子技术研究所(中国电子科技集团公司第十研究所) 微弱信号数据增强方法
CN113990520B (zh) * 2021-11-05 2024-06-07 天津工业大学 一种基于可控生成对抗网络的中医药处方生成方法
CN114897722B (zh) * 2022-04-29 2023-04-18 中国科学院西安光学精密机械研究所 一种基于自编码网络的波前图像复原方法
CN114972878B (zh) * 2022-06-14 2024-05-14 云南大学 攻击无依赖的可迁移对抗样本检测方法
CN115691695B (zh) * 2022-11-11 2023-06-30 中南大学 基于gan和vae的材料成分生成方法及评价方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106709997A (zh) * 2016-04-29 2017-05-24 电子科技大学 基于深度神经网络和稀疏自编码器的三维关键点检测方法
CN107590515A (zh) * 2017-09-14 2018-01-16 西安电子科技大学 基于熵率超像素分割的自编码器的高光谱图像分类方法
CN107977629A (zh) * 2017-12-04 2018-05-01 电子科技大学 一种基于特征分离对抗网络的人脸图像衰老合成方法
CN108334497A (zh) * 2018-02-06 2018-07-27 北京航空航天大学 自动生成文本的方法和装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10733744B2 (en) * 2017-05-11 2020-08-04 Kla-Tencor Corp. Learning based approach for aligning images acquired with different modalities

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106709997A (zh) * 2016-04-29 2017-05-24 电子科技大学 基于深度神经网络和稀疏自编码器的三维关键点检测方法
CN107590515A (zh) * 2017-09-14 2018-01-16 西安电子科技大学 基于熵率超像素分割的自编码器的高光谱图像分类方法
CN107977629A (zh) * 2017-12-04 2018-05-01 电子科技大学 一种基于特征分离对抗网络的人脸图像衰老合成方法
CN108334497A (zh) * 2018-02-06 2018-07-27 北京航空航天大学 自动生成文本的方法和装置

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Adversarial Autoencoders;Alireza Makhzani等;《Machine Learning》;20160525;第1-16页 *
Age Progression/Regression by Conditional Adversarial Autoencoder;Zhifei Zhang等;《Computer Vision and Pattern Recognition》;20170328;第4-6页,图3、6 *
Conditional Generative Adversarial Nets;Mehdi Mirza等;《Machine Learning》;20151106;第1-7页 *
特征聚类自适应变组稀疏自编码网络及图像识别;肖汉雄等;《计算机工程与科学》;20181031;第40卷(第10期);第1858-1866页 *
生成式对抗网络研究进展;王万良等;《通信学报》;20180228;第39卷(第2期);第2018032-1-14页 *

Also Published As

Publication number Publication date
CN109543745A (zh) 2019-03-29

Similar Documents

Publication Publication Date Title
CN109543745B (zh) 基于条件对抗自编码网络的特征学习方法及图像识别方法
Han et al. A survey on visual transformer
Do et al. Forensics face detection from GANs using convolutional neural network
Tao et al. Self-supervised video representation learning using inter-intra contrastive framework
CN113128591B (zh) 基于自监督学习的旋转鲁棒的点云分类方法
CN111325165B (zh) 考虑空间关系信息的城市遥感影像场景分类方法
Valsesia et al. Learning localized representations of point clouds with graph-convolutional generative adversarial networks
CN114638994B (zh) 基于注意力的多交互网络的多模态图像分类***及方法
CN111639564A (zh) 一种基于多注意力异构网络的视频行人重识别方法
CN113076957A (zh) 一种基于跨模态特征融合的rgb-d图像显著性目标检测方法
CN111860116B (zh) 一种基于深度学习和特权信息的场景识别方法
CN115631513B (zh) 基于Transformer的多尺度行人重识别方法
CN115393396B (zh) 一种基于掩码预训练的无人机目标跟踪方法
CN112906623A (zh) 一种基于多尺度深度监督的反向注意力模型
CN113192073A (zh) 基于交叉融合网络的服装语义分割方法
CN113160032A (zh) 一种基于生成对抗网络的无监督多模态图像转换方法
CN116310305A (zh) 一种基于张量和二阶协方差注意力机制的编解码结构语义分割模型
Huang et al. Busy-quiet video disentangling for video classification
Xiao et al. ANE: Network embedding via adversarial autoencoders
Kuriakose et al. Synthesizing images from hand-drawn sketches using conditional generative adversarial networks
CN117115588A (zh) 一种基于扩散模型的3d预训练方法与***
CN113869154B (zh) 根据语言描述的视频动作者分割方法
CN112215282B (zh) 一种基于小样本图像分类的元泛化网络***
CN115270891A (zh) 一种信号对抗样本的生成方法、装置、设备及存储介质
CN105631476B (zh) 一种矩阵变量rbm的识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant