CN110458216A - 基于条件生成对抗网络的图像风格迁移方法 - Google Patents

基于条件生成对抗网络的图像风格迁移方法 Download PDF

Info

Publication number
CN110458216A
CN110458216A CN201910701942.5A CN201910701942A CN110458216A CN 110458216 A CN110458216 A CN 110458216A CN 201910701942 A CN201910701942 A CN 201910701942A CN 110458216 A CN110458216 A CN 110458216A
Authority
CN
China
Prior art keywords
image
style
arbiter
confrontation network
composer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910701942.5A
Other languages
English (en)
Other versions
CN110458216B (zh
Inventor
李惠川
刘树郁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201910701942.5A priority Critical patent/CN110458216B/zh
Publication of CN110458216A publication Critical patent/CN110458216A/zh
Application granted granted Critical
Publication of CN110458216B publication Critical patent/CN110458216B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于条件生成对抗网络的图像风格迁移方法,包括以下步骤:S1.构造条件生成对抗网络的图像生成器G和判别器D;S2.收集不同风格的图像并对其进行预处理和数据增强,制定训练策略,对图像生成器G和判别器D进行训练;S3.利用训练好的图像生成器G和判别器D进行图像风格的迁移。

Description

基于条件生成对抗网络的图像风格迁移方法
技术领域
本发明涉及数字图像处理技术领域,更具体地,涉及一种基于条件生成对抗网络的图像风格迁移方法。
背景技术
2014年lanGoodfellow提出了生成对抗网络(GAN),通过对抗训练的思想,有效地学习了训练样本并生成高度真实的合成数据,它为深度学习中的无监督学习和半监督学习提供了广阔的思路。随后生成对抗网络对抗训练的思想被广泛地应用于解决各种棘手的训练问题,并且取得了不错的效果。其中,Mehdi Mirza在2014年提出的条件生成对抗网络(Condition GAN,CGAN),便是在GAN的基础上引入了标签信息,即用标签标记图像的某种特征再进行训练,这样在生成数据的过程中,加入的条件信息就能够指引条件生成对抗网络中的生成器生成所需要的某种特征的图像了。CGAN不仅能用在生成特定条件的数据,还应用到了图像转化和风格迁移当中。另外,在2018年提出来的CycleGAN实现了无监督的风格迁移,并取得了出色的效果。但是该模型针对多种风格的迁移任务仍存在许多问题,如只能实现两种风格之间的迁移、整个模型包含两个生成器G和两个判别器D,参数量大等问题
发明内容
本发明为解决现有技术只能实现两种风格之间的迁移的技术缺陷,提供了一种基于条件生成对抗网络的图像风格迁移方法。
为实现以上发明目的,采用的技术方案是:
一种基于条件生成对抗网络的图像风格迁移方法,包括以下步骤:
S1.构造条件生成对抗网络的图像生成器G和判别器D;
S2.收集不同风格的图像并对其进行预处理和数据增强,制定训练策略,对图像生成器G和判别器D进行训练;
S3.利用训练好的图像生成器G和判别器D进行图像风格的迁移。
优选地,所述步骤S1构造的图像生成器G采用编码器-解码器的结构,其中编码器由3个卷积层组成,采用3×3的卷积核,解码器是由3个反卷积层组成;判别器D由5个卷积层组成。
优选地,所述步骤S2的预处理包括随机裁剪、缩放、旋转,以及按照图像的风格类型对图像使用one-hot的方法进行统一的标注。
优选地,所述步骤S2对图像生成器G进行训练的具体过程如下:
S21.训练过程中,每次随机选取两种风格类型,再从各自的风格类型中分别选取一张图像作为一次训练的数据;
S22.对步骤S21选择的数据进行抽取,每次抽取的信息包括不同风格的图像xi、xj以及各自的风格相关向量yi、yj
S23.将抽取的信息向图像生成器G进行交叉输入,分别分为(xi,yj,yi)和(xj,yi,yj);
S24.采用循环一致性损失,记x为原始输入图像,记原始输入图像在经过图像生成器G生成为指定风格的图像之后再次经过图像生成器G生成为原始风格的图像为,计算x与的欧式距离作为损失函数,并基于计算的损失函数,对图像生成器G的参数进行更新。
优选地,所述图像生成器G的损失函数表示为:
LG=λDLGAN,DcLcycle
其中LGAN,D和Lcycle表示为:
其中Pdata代表原始数据分布,E表示期望;xi表示第i种风格的图像,yi表示第i种风格的风格相关向量;LGAN,D表示优化生成器G过程中的主体损失函数;Lcycle表示循环一致性损失,为输入图像在经过生成器生成为指定风格的图像之后再次经过生成器生成为原始风格的图像与原图像之间的欧式距离;G表示生成器,D表示判别器。
与现有技术相比,本发明的有益效果是:
本发明提供一种基于条件生成对抗网络的图像风格迁移方法,通过收集和标注不同风格的图像训练得到一个由两个部分组成的用以多种风格迁移的条件生成对抗网络,这两个部分包括生成器(Generator,G),判别器(Discriminator,D)。其中,生成器G用以实现对图像的风格转换,通过输入原始图像和目标风格的one-hot向量,可以有效的将原始图像转化为目标风格的图像。判别器D通过将输入的图像进行特征提取,最终输出一个和风格相关向量长度一致的向量,从而判断输入图像的所属风格。在训练网络的过程中,还引入了一致性损失函数,有效地帮助了生成器的收敛。该发明通过对网络结构的设计,结合了多种损失函数,使得模型可以根据需求实现多种风格迁移,并且取得了良好的视觉效果。
附图说明
图1为条件生成对抗网络的结构示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
以下结合附图和实施例对本发明做进一步的阐述。
实施例1
本发明提供了一种基于条件生成对抗网络的图像风格迁移方法,其包括以下步骤:
步骤S1:构造图像生成器G和判别器D,具体结构如图1所示,构建的具体过程如下:
S11:构建生成器G。生成器G采用编码器-解码器的结构,编码器提取原始图像进行编码,并由卷积神经网络将风格相关向量将对应的风格特征信息和图像信息相融合,再经过解码器恢复到生成图像。
S12:编码器由3个卷积层组成,采用3×3的卷积核,增加网络的非线性特征,减少网络的参数量,内存占用并加快训练的速度。
S13:图像经过编码器编码后输入残差网络,残差网络有4层,能够提取图像的深度特征。
S14:解码器是由3个反卷积层组成,能够将融合了条件信息的深度特征重新解码成新的图像,从而达到风格迁移的目的。
S15:参照S12-S14网络中每一层的最后都要进行一次Batch Normalization(BN)操作,做归一化处理,解决数据偏移对网络训练造成影响,加快训练速度,BN操作后再经过一个ReLU层,然后再输入到下一层的网络当中。
S16:构建判别器D。判别器D用于判断图像不仅要判断属于原始图像的概率分布,还要在判断属于原始图像概率分布的前提下,判断图像的风格是属于哪一类。
S17:判别器D由5个卷积层组成,逐层地提取图像地深层特征,并最终输出一个和风格相关向量长度一致的向量。
S18:图像经过判别器D输出的向量与图像对应的风格相关向量的距离作为判别器的损失函数。
S19:收敛好的模型中,生成器G可以根据输入的风格相关向量对输入图像进行风格迁移,判别器D可以根据输入的图像对其进行风格的鉴别。
步骤S2:收集不同风格的图像并对其进行预处理,制定训练策略,具体过程如下:
S21:从网络上采集不同风格类型的图像作为训练图像。
S22:对得到的图像按各自的风格进行分类,并对图像进行预处理和数据增强,包括随机裁剪、缩放、旋转等。
S23:按风格类型对图像使用one-hot的方法进行统一的标注,不同的one-hot向量代表不同的风格类型。
训练过程中,每次随机选取两种风格,再从各自的风格分类中分别选取一张图像作为一次训练的数据。每次抽取的信息包括不同风格的图像xi,xj以及各自的风格相关向量yi,yj。对抽取的数据进行交叉输入,分别分为(xi,yj,yi)和(xj,yi,yj)充分利用训练图像,提高训练效率。采用循环一致性损失,记x为原始输入图像,记输入图像在经过生成器生成为指定风格的图像之后再次经过生成器生成为原始风格的图像为,计算x与的欧式距离作为损失函数,帮助生成器充分收敛。
步骤S3:利用得到的不同分类且编码的图片,训练用于风格迁移的条件生成对抗网络,具体过程如下:
S31:一般的条件生成对抗网络,其训练的过程可以等价为对生成器和判别器的对抗训练,表示为:
S32:不同于原始的条件生成网络,在本发明中,判别器D的损失函数表示为:
其中xi表示第i种风格的图像,yi表示第i种风格的风格相关向量,yf对应判别器输入的图像是由生成器生成。
S33:在本发明中,生成器G的损失函数可以表示为:
LG=λDLGAN,DcLcycle
其中LGAN,D和Lcycle可以表示为:
其中Lcycle表示循环一致性损失,为输入图像在经过生成器生成为指定风格的图像之后再次经过生成器生成为原始风格的图像与原图像之间的欧式距离,能有效地促进模型的收敛
S34:固定LG的两个参数,对数据进行处理,并采取相应的训练策略进行训练。
S35:将上述的损失函数最小化,得到的误差反向传播更新模型参数,交替训练生成器G和判别器D,实现最优化,最终使得生成器G学习了条件与风格的对应关系以及判别器D能够判断输入图像的风格类型。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (5)

1.一种基于条件生成对抗网络的图像风格迁移方法,其特征在于:包括以下步骤:
S1.构造条件生成对抗网络的图像生成器G和判别器D;
S2.收集不同风格的图像并对其进行预处理和数据增强,制定训练策略,对图像生成器G和判别器D进行训练;
S3.利用训练好的图像生成器G和判别器D进行图像风格的迁移。
2.根据权利要求1所述的基于条件生成对抗网络的图像风格迁移方法,其特征在于:所述步骤S1构造的图像生成器G采用编码器-解码器的结构,其中编码器由3个卷积层组成,采用3×3的卷积核,解码器是由3个反卷积层组成;判别器D由5个卷积层组成。
3.根据权利要求1所述的基于条件生成对抗网络的图像风格迁移方法,其特征在于:所述步骤S2的预处理包括随机裁剪、缩放、旋转,以及按照图像的风格类型对图像使用one-hot的方法进行统一的标注。
4.根据权利要求1所述的基于条件生成对抗网络的图像风格迁移方法,其特征在于:所述步骤S2对图像生成器G进行训练的具体过程如下:
S21.训练过程中,每次随机选取两种风格类型,再从各自的风格类型中分别选取一张图像作为一次训练的数据;
S22.对步骤S21选择的数据进行抽取,每次抽取的信息包括不同风格的图像xi、xj以及各自的风格相关向量yi、yj
S23.将抽取的信息向图像生成器G进行交叉输入,分别分为(xi,yj,yi)和(xj,yi,yj);
S24.采用循环一致性损失,记x为原始输入图像,记原始输入图像在经过图像生成器G生成为指定风格的图像之后再次经过图像生成器G生成为原始风格的图像为计算x与的欧式距离作为损失函数,并基于计算的损失函数,对图像生成器G的参数进行更新。
5.根据权利要求4所述的基于条件生成对抗网络的图像风格迁移方法,其特征在于:所述图像生成器G的损失函数表示为:
LG=λDLGAN,DcLcycle
其中λD,λc为两个常数,LGAN,D和Lcycle表示为:
其中Pdata代表原始数据分布,E表示期望;xi表示第i种风格的图像,yi表示第i种风格的风格相关向量;LGAN,D表示优化生成器G过程中的主体损失函数;Lcycle表示循环一致性损失,为输入图像在经过生成器生成为指定风格的图像之后再次经过生成器生成为原始风格的图像与原图像之间的欧式距离;G表示生成器,D表示判别器。
CN201910701942.5A 2019-07-31 2019-07-31 基于条件生成对抗网络的图像风格迁移方法 Active CN110458216B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910701942.5A CN110458216B (zh) 2019-07-31 2019-07-31 基于条件生成对抗网络的图像风格迁移方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910701942.5A CN110458216B (zh) 2019-07-31 2019-07-31 基于条件生成对抗网络的图像风格迁移方法

Publications (2)

Publication Number Publication Date
CN110458216A true CN110458216A (zh) 2019-11-15
CN110458216B CN110458216B (zh) 2022-04-12

Family

ID=68484259

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910701942.5A Active CN110458216B (zh) 2019-07-31 2019-07-31 基于条件生成对抗网络的图像风格迁移方法

Country Status (1)

Country Link
CN (1) CN110458216B (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111127309A (zh) * 2019-12-12 2020-05-08 杭州格像科技有限公司 肖像风格迁移模型训练方法、肖像风格迁移方法以及装置
CN111724299A (zh) * 2020-05-21 2020-09-29 同济大学 一种基于深度学习的超现实主义绘画图像风格迁移方法
CN111753908A (zh) * 2020-06-24 2020-10-09 北京百度网讯科技有限公司 图像分类方法和装置及风格迁移模型训练方法和装置
CN111862274A (zh) * 2020-07-21 2020-10-30 有半岛(北京)信息科技有限公司 生成对抗网络训练方法、图像风格迁移方法及装置
CN111932438A (zh) * 2020-06-18 2020-11-13 浙江大华技术股份有限公司 图像风格迁移方法、设备及存储装置
CN112017301A (zh) * 2020-07-24 2020-12-01 武汉纺织大学 用于服装图像特定相关区域的风格迁移模型及方法
CN112164130A (zh) * 2020-09-07 2021-01-01 北京电影学院 基于深度对抗网络的视频-动画风格迁移方法
CN112951253A (zh) * 2019-11-24 2021-06-11 华南理工大学 一种基于Cycle-GAN的音频风格转换方法及***
CN112967174A (zh) * 2021-01-21 2021-06-15 北京达佳互联信息技术有限公司 图像生成模型训练、图像生成方法、装置及存储介质
CN112991148A (zh) * 2020-10-30 2021-06-18 北京字节跳动网络技术有限公司 风格图像生成方法、模型的训练方法、装置、设备及介质
CN113538216A (zh) * 2021-06-16 2021-10-22 电子科技大学 一种基于属性分解的图像风格迁移方法
CN113553932A (zh) * 2021-07-14 2021-10-26 同济大学 一种基于风格迁移的书法文字侵蚀修复方法
CN113793258A (zh) * 2021-09-18 2021-12-14 超级视线科技有限公司 监控视频图像的隐私保护方法及其装置
CN114118024A (zh) * 2021-12-06 2022-03-01 成都信息工程大学 一种条件文本生成方法及生成***
CN114154613A (zh) * 2020-09-07 2022-03-08 北京达佳互联信息技术有限公司 一种图像风格迁移模型的训练方法、装置及电子设备
CN116309032A (zh) * 2023-05-24 2023-06-23 南昌航空大学 一种图片处理方法、***及计算机
CN116596753A (zh) * 2023-07-20 2023-08-15 哈尔滨工程大学三亚南海创新发展基地 一种基于风格迁移网络的声学图像数据集扩充方法和***
CN117994122A (zh) * 2024-01-31 2024-05-07 哈尔滨工业大学(威海) 一种基于循环生成对抗网络的图像风格迁移方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108038821A (zh) * 2017-11-20 2018-05-15 河海大学 一种基于生成式对抗网络的图像风格迁移方法
CN108460720A (zh) * 2018-02-01 2018-08-28 华南理工大学 一种基于生成对抗网络模型改变图像风格的方法
CN109190722A (zh) * 2018-08-06 2019-01-11 大连民族大学 基于满文字符图片的字体风格迁移变换方法
US20190130253A1 (en) * 2017-10-31 2019-05-02 Levi Strauss & Co. Using Neural Networks in Laser Finishing of Apparel
CN109753992A (zh) * 2018-12-10 2019-05-14 南京师范大学 基于条件生成对抗网络的无监督域适应图像分类方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190130253A1 (en) * 2017-10-31 2019-05-02 Levi Strauss & Co. Using Neural Networks in Laser Finishing of Apparel
CN108038821A (zh) * 2017-11-20 2018-05-15 河海大学 一种基于生成式对抗网络的图像风格迁移方法
CN108460720A (zh) * 2018-02-01 2018-08-28 华南理工大学 一种基于生成对抗网络模型改变图像风格的方法
CN109190722A (zh) * 2018-08-06 2019-01-11 大连民族大学 基于满文字符图片的字体风格迁移变换方法
CN109753992A (zh) * 2018-12-10 2019-05-14 南京师范大学 基于条件生成对抗网络的无监督域适应图像分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MEHDI MIRZA等: "Conditional Generative Adversarial Nets", 《ARXIV:1411.1784V1》 *
谢志峰等: "基于生成对抗网络的HDR图像风格迁移技术", 《上海大学学报(自然科学版)》 *

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112951253A (zh) * 2019-11-24 2021-06-11 华南理工大学 一种基于Cycle-GAN的音频风格转换方法及***
CN111127309A (zh) * 2019-12-12 2020-05-08 杭州格像科技有限公司 肖像风格迁移模型训练方法、肖像风格迁移方法以及装置
CN111127309B (zh) * 2019-12-12 2023-08-11 杭州格像科技有限公司 肖像风格迁移模型训练方法、肖像风格迁移方法以及装置
CN111724299A (zh) * 2020-05-21 2020-09-29 同济大学 一种基于深度学习的超现实主义绘画图像风格迁移方法
CN111724299B (zh) * 2020-05-21 2023-08-08 同济大学 一种基于深度学习的超现实主义绘画图像风格迁移方法
CN111932438A (zh) * 2020-06-18 2020-11-13 浙江大华技术股份有限公司 图像风格迁移方法、设备及存储装置
CN111753908A (zh) * 2020-06-24 2020-10-09 北京百度网讯科技有限公司 图像分类方法和装置及风格迁移模型训练方法和装置
CN111862274A (zh) * 2020-07-21 2020-10-30 有半岛(北京)信息科技有限公司 生成对抗网络训练方法、图像风格迁移方法及装置
CN112017301A (zh) * 2020-07-24 2020-12-01 武汉纺织大学 用于服装图像特定相关区域的风格迁移模型及方法
CN114154613A (zh) * 2020-09-07 2022-03-08 北京达佳互联信息技术有限公司 一种图像风格迁移模型的训练方法、装置及电子设备
CN112164130B (zh) * 2020-09-07 2024-04-23 北京电影学院 基于深度对抗网络的视频-动画风格迁移方法
CN112164130A (zh) * 2020-09-07 2021-01-01 北京电影学院 基于深度对抗网络的视频-动画风格迁移方法
CN112991148A (zh) * 2020-10-30 2021-06-18 北京字节跳动网络技术有限公司 风格图像生成方法、模型的训练方法、装置、设备及介质
CN112991148B (zh) * 2020-10-30 2023-08-11 抖音视界有限公司 风格图像生成方法、模型的训练方法、装置、设备及介质
CN112967174B (zh) * 2021-01-21 2024-02-09 北京达佳互联信息技术有限公司 图像生成模型训练、图像生成方法、装置及存储介质
CN112967174A (zh) * 2021-01-21 2021-06-15 北京达佳互联信息技术有限公司 图像生成模型训练、图像生成方法、装置及存储介质
CN113538216A (zh) * 2021-06-16 2021-10-22 电子科技大学 一种基于属性分解的图像风格迁移方法
CN113538216B (zh) * 2021-06-16 2022-03-01 电子科技大学 一种基于属性分解的图像风格迁移方法
CN113553932A (zh) * 2021-07-14 2021-10-26 同济大学 一种基于风格迁移的书法文字侵蚀修复方法
CN113553932B (zh) * 2021-07-14 2022-05-13 同济大学 一种基于风格迁移的书法文字侵蚀修复方法
CN113793258A (zh) * 2021-09-18 2021-12-14 超级视线科技有限公司 监控视频图像的隐私保护方法及其装置
CN114118024B (zh) * 2021-12-06 2022-06-21 成都信息工程大学 一种条件文本生成方法及生成***
CN114118024A (zh) * 2021-12-06 2022-03-01 成都信息工程大学 一种条件文本生成方法及生成***
CN116309032A (zh) * 2023-05-24 2023-06-23 南昌航空大学 一种图片处理方法、***及计算机
CN116596753A (zh) * 2023-07-20 2023-08-15 哈尔滨工程大学三亚南海创新发展基地 一种基于风格迁移网络的声学图像数据集扩充方法和***
CN116596753B (zh) * 2023-07-20 2024-02-02 哈尔滨工程大学三亚南海创新发展基地 一种基于风格迁移网络的声学图像数据集扩充方法和***
CN117994122A (zh) * 2024-01-31 2024-05-07 哈尔滨工业大学(威海) 一种基于循环生成对抗网络的图像风格迁移方法

Also Published As

Publication number Publication date
CN110458216B (zh) 2022-04-12

Similar Documents

Publication Publication Date Title
CN110458216A (zh) 基于条件生成对抗网络的图像风格迁移方法
CN109299342B (zh) 一种基于循环生成式对抗网络的跨模态检索方法
CN110689086B (zh) 基于生成式对抗网络的半监督高分遥感图像场景分类方法
CN110837850B (zh) 一种基于对抗学习损失函数的无监督域适应方法
CN108875807B (zh) 一种基于多注意力多尺度的图像描述方法
Lee et al. Controllable generative adversarial network
Zhou et al. Convnets vs. transformers: Whose visual representations are more transferable?
CN107038159B (zh) 一种基于无监督领域自适应的神经网络机器翻译方法
CN114120041B (zh) 一种基于双对抗变分自编码器的小样本分类方法
CN111832511A (zh) 一种增强样本数据的无监督行人重识别方法
Guo et al. Self-supervised GANs with similarity loss for remote sensing image scene classification
CN113191445B (zh) 基于自监督对抗哈希算法的大规模图像检索方法
CN116109898A (zh) 基于双向对抗训练与关系度量约束的广义零样本学习方法
CN110175248A (zh) 一种基于深度学习和哈希编码的人脸图像检索方法和装置
CN112927266A (zh) 基于不确定性引导训练的弱监督时域动作定位方法及***
Wang et al. Out-of-distributed semantic pruning for robust semi-supervised learning
CN113204522B (zh) 基于结合生成对抗网络的哈希算法的大规模数据检索方法
CN109697694A (zh) 基于多头注意力机制的高分辨率的图片的生成方法
CN108959512A (zh) 一种基于属性增强注意力模型的图像描述网络及技术
Jiang et al. Multi-feature deep learning for face gender recognition
Tsutsui et al. Reinforcing generated images via meta-learning for one-shot fine-grained visual recognition
CN116148864A (zh) 一种基于DyConvGRU和Unet的预测细化结构的雷达回波外推方法
CN110909254B (zh) 基于深度学习模型针对问答社区进行问题热度预测的方法和***
Shao et al. Teaching what you should teach: a data-based distillation method
CN114386966A (zh) 一种基于深度学习的区块链加密货币地址身份识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant