CN109598279A - 基于自编码对抗生成网络的零样本学习方法 - Google Patents
基于自编码对抗生成网络的零样本学习方法 Download PDFInfo
- Publication number
- CN109598279A CN109598279A CN201811134484.3A CN201811134484A CN109598279A CN 109598279 A CN109598279 A CN 109598279A CN 201811134484 A CN201811134484 A CN 201811134484A CN 109598279 A CN109598279 A CN 109598279A
- Authority
- CN
- China
- Prior art keywords
- classification
- sample
- semantic
- visual signature
- coding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/192—Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
- G06V30/194—References adjustable by an adaptive method, e.g. learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
一种基于自编码对抗生成网络的零样本学***衡参数λ及α的数值;设定参数的初始值,学习率,利用Adam优化器训练本发明所提出的自编码对抗生成网络,得到编码器和解码器的模型参数;输入未见类别的语义特征,利用已训练好的模型参数合成对应类别的视觉特征;对未见类别的测试样本进行分类。本发明能够有效地对齐视觉模态和类别语义模态之间的语义关系。将视觉信息和类别语义信息充分的交融在一起,能够更有效地挖掘两种模态之间的语义关联,合成更有效地视觉特征。
Description
技术领域
本发明涉及一种零样本学习方法。特别是涉及一种基于自编码对抗生成网络的零样本学习方法。
背景技术
深度学习技术的进步极大地促进了机器学习和计算机视觉领域的发展。然而这些技术大都局限于监督学习,即需要大量的标注样本训练模型。在现实中,样本标注是一件极其费力的工作。因此标注样本的缺失问题是影响当前机器学习发展的瓶颈之一,需要一种在完全缺失目标类别的视觉标注数据情况下仍然能够识别这些类别的技术,零样本学习正是这样的一类技术。
零样本学习是利用可见类别的数据,辅以一定的先验知识,对未见类别(无训练数据的类别)进行识别的技术。因此,零样本学习是解决样本缺失的一种有效手段。
当前实现零样本学习的基本思路是利用可见类别(有标注数据的训练类别)的样本数据以及样本对应的类别语义特征训练模型,并利用训练模型实现未见类别(没有标注数据的测试类别)样本的分类。当前针对如何训练样本数据和类别语义之间语义关系的模型主要分为两类:一类是基于判别的模型,另一类是基于生成的模型。基于判别的模型将零样本学习看作是一种特殊的多模态学习任务。具体为,样本数据的特征和类别语义特征是分布在不同模态空间中,判别模型的任务是学习一种模型将不同模态的特征映射到同一空间,以实现不同模态之间语义相似度的度量。尽管基于判别模型的方法在零样本学习中取得了较好的效果,但这类方法容易产生域偏移问题,即利用可见类别训练的模型容易在测试类别上发生偏移。近年来,为了解决零样本学习中未见类别样本缺失的问题,研究者们提出利用生成模型合成未见类别数据特征的方法。这类方法的基本思路是利用类别的语义特征或者利用由类别的语义特征及噪声组成的联合特征作为输入学习一个能够减小生成数据和真实数据分布之间差异的模型。然而这类模型大部分只关注类别语义到视觉特征之间的语义对齐关系而忽视了视觉特征到类别语义之间的关系,这弱化了不同模态之间的对齐关系。
发明内容
本发明所要解决的技术问题是,提供一种有效地合成未见类别的样本特征,同时有效地建立不同模态之间的语义交互关系的基于自编码对抗生成网络的零样本学习方法。
本发明所采用的技术方案是:一种基于自编码对抗生成网络的零样本学习方法,包括如下步骤:
1)将可见类别样本的视觉特征x输入到编码器中,在样本对应的类别语义特征a的监督下得到隐类别语义特征和隐噪声特征所述的编码器由三层网络构成;
2)将样本对应的类别语义特征a和真实的噪声特征z输入到解码器中,在样本的真实视觉特征的监督下得到合成的样本视觉特征解码器由三层网络构成;
3)将由隐类别语义特征和隐噪声特征组成的联合特征作为假数据,将由类别语义特征a和真实的噪声特征z组成的联合特征作为真数据,输入到类别语义判别器中,得到对应的得分,其中真数据的得分为1,假数据的得分为0;
4)将样本的视觉特征x作为真数据,合成的视觉特征作为假数据,输入到视觉判别器中,得到对应的得分,其中真数据的得分为1,假数据的得分为0;
5)根据步骤1)和步骤2)建立自编码器的目标函数:
其中E,G分别是编码器,解码器;w,v分别是编码器和解码器对应的参数,是用于约束模型参数的正则项,表示二范数,λ表示所述正则项的平衡参数;
6)根据步骤3)建立类别语义判别器的目标函数:
其中D为语义判别器模型,表示真实的噪声特征z的期望,表示样本的视觉特征x的期望,σ表示逻辑函数,[·,·]表示连接函数,r表示语义判别器的参数;
7)根据步骤4)建立视觉判别器的目标函数:
其中D′表示视觉判别器模型,u表示视觉判别器的参数,所述目标函数的最后一项是Lipschitz约束,α是Lipschitz约束的平衡参数;
8)给定正则项的平衡参数λ和Lipschitz约束的平衡参数α的具体值,利用Adam优化器对模型参数进行优化,得到模型参数的最优值;
9)输入未见类别的语义特征at,利用已训练好的模型参数合成对应类别的视觉特征;
10)对未见类别的测试样本进行分类。
步骤1)中所述的编码器结构为:全连接层—隐藏层—全连接层。
步骤2)中所述的解码器结构为:全连接层—隐藏层—全连接层。
步骤8)中所述的正则项的平衡参数λ和Lipschitz约束的平衡参数α的选择范围为:[0.01,0.001,0.0001]。
步骤10)是根据分类器的不同,有不同的分类方案,若利用无参数的最近邻分类器,那么测试样本的分类是利用测试样本的视觉特征和未见类别的合成视觉特征之间的相似度实现;若利用有参数的分类器,那么测试样本的分类是利用训练合成的未见类别的视觉特征实现。
本发明的基于自编码对抗生成网络的零样本学习方法,具有以下优点:
1)能够有效地对齐视觉模态和类别语义模态之间的语义关系。本发明不仅考虑了类别语义特征到样本视觉特征的语义对齐,并且考虑了样本视觉特征到类别语义特征的对齐关系,这种双向的语义对齐能够约束合成的视觉特征能够有效地重构语义特征,包含更多的语义信息。
2)能够合成更符合真实数据分布的视觉特征。本发明包含两个对抗网络,一个类别语义对抗网络,另一个是视觉对抗网络。对于编码器:其输入是真实的视觉特征,是输入视觉对抗网络的真数据,而其输出是类别语义对抗网络的假数据;对于解码器,其输入是类别语义对抗网络的真数据,而其输出是视觉对抗网络的假数据。这两个对抗网络将视觉信息和类别语义信息充分的交融在一起,能够更有效地挖掘两种模态之间的语义关联,合成更有效地视觉特征。
附图说明
图1是本发明自编码对抗生成网络的整体流程示意图;
图2是本发明自编码对抗生成方法用于零样本学习的流程图。
具体实施方式
下面结合实施例和附图对本发明的基于自编码对抗生成网络的零样本学习方法做出详细说明。
本发明的基于自编码对抗生成网络的零样本学习方法,利用可见类别的视觉样本数据以及对应的类别语义特征训练一种基于自编码器框架下的对抗生成网络,其结构图如图1所示。方法包括如下步骤:
1)将可见类别样本的视觉特征x输入到编码器中,在样本对应的类别语义特征a的监督下得到隐类别语义特征和隐噪声特征所述的编码器由三层网络构成,所述的编码器结构为:全连接层—隐藏层—全连接层;
2)将样本对应的类别语义特征a和真实的噪声特征z输入到解码器中,在样本的真实视觉特征的监督下得到合成的样本视觉特征解码器由三层网络构成,所述的解码器结构为:全连接层—隐藏层—全连接层;
3)将由隐类别语义特征和隐噪声特征组成的联合特征作为假数据,将由类别语义特征a和真实的噪声特征z组成的联合特征作为真数据,输入到类别语义判别器中,得到对应的得分,其中真数据的得分为1,假数据的得分为0;
4)将样本的视觉特征x作为真数据,合成的视觉特征作为假数据,输入到视觉判别器中,得到对应的得分,其中真数据的得分为1,假数据的得分为0;
5)根据步骤1)和步骤2)建立自编码器的目标函数:
其中E,G分别是编码器,解码器;w,v分别是编码器和解码器对应的参数,是用于约束模型参数的正则项,表示二范数,λ表示所述正则项的平衡参数;
6)根据步骤3)建立类别语义判别器的目标函数:
其中D为语义判别器模型,表示真实的噪声特征z的期望,表示样本的视觉特征x的期望,σ表示逻辑函数,[·,·]表示连接函数,r表示语义判别器的参数;
7)根据步骤4)建立视觉判别器的目标函数:
其中D′表示视觉判别器模型,u表示视觉判别器的参数,所述目标函数的最后一项是Lipschitz约束,α是Lipschitz约束的平衡参数;
8)给定正则项的平衡参数λ和Lipschitz约束的平衡参数α的具体值,所述的正则项的平衡参数λ和Lipschitz约束的平衡参数α的选择范围为:[0.01,0.001,0.0001]。利用Adam优化器对模型参数进行优化,得到模型参数的最优值。
9)输入未见类别的语义特征at,利用已训练好的模型参数合成对应类别的视觉特征;
10)对未见类别的测试样本进行分类。本发明根据分类器的不同,有不同的分类方案,若利用无参数的最近邻分类器,那么测试样本的分类是利用测试样本的视觉特征和未见类别的合成视觉特征之间的相似度实现;若利用有参数的分类器,如支持向量机,softmax等,那么测试样本的分类是利用训练合成的未见类别的视觉特征实现。
将本发明的基于自编码对抗生成网络的零样本学习方法应用到零样本具体任务中的流程如图2所示,包括如下步骤:
1)输入可见类别样本的视觉特征,以及对应的类别语义特征;
2)输入具体的平衡参数λ及α的数值;
3)设定参数的初始值,学习率,利用Adam优化器训练本发明所提出的自编码对抗生成网络,得到编码器和解码器的模型参数;
4)输入未见类别的语义特征,利用已训练好的模型参数合成对应类别的视觉特征;
5)对未见类别的测试样本进行分类。
Claims (5)
1.一种基于自编码对抗生成网络的零样本学习方法,其特征在于,包括如下步骤:
1)将可见类别样本的视觉特征x输入到编码器中,在样本对应的类别语义特征a的监督下得到隐类别语义特征和隐噪声特征所述的编码器由三层网络构成;
2)将样本对应的类别语义特征a和真实的噪声特征z输入到解码器中,在样本的真实视觉特征的监督下得到合成的样本视觉特征解码器由三层网络构成;
3)将由隐类别语义特征和隐噪声特征组成的联合特征作为假数据,将由类别语义特征a和真实的噪声特征z组成的联合特征作为真数据,输入到类别语义判别器中,得到对应的得分,其中真数据的得分为1,假数据的得分为0;
4)将样本的视觉特征x作为真数据,合成的视觉特征作为假数据,输入到视觉判别器中,得到对应的得分,其中真数据的得分为1,假数据的得分为0;
5)根据步骤1)和步骤2)建立自编码器的目标函数:
其中E,G分别是编码器,解码器;w,v分别是编码器和解码器对应的参数,是用于约束模型参数的正则项,表示二范数,λ表示所述正则项的平衡参数;
6)根据步骤3)建立类别语义判别器的目标函数:
其中D为语义判别器模型,表示真实的噪声特征z的期望,表示样本的视觉特征x的期望,σ表示逻辑函数,[·,·]表示连接函数,r表示语义判别器的参数;
7)根据步骤4)建立视觉判别器的目标函数:
其中D′表示视觉判别器模型,u表示视觉判别器的参数,所述目标函数的最后一项是Lipschitz约束,α是Lipschitz约束的平衡参数;
8)给定正则项的平衡参数λ和Lipschitz约束的平衡参数α的具体值,利用Adam优化器对模型参数进行优化,得到模型参数的最优值;
9)输入未见类别的语义特征at,利用已训练好的模型参数合成对应类别的视觉特征;
10)对未见类别的测试样本进行分类。
2.根据权利要求1所述的基于自编码对抗生成网络的零样本学习方法,其特征在于,步骤1)中所述的编码器结构为:全连接层—隐藏层—全连接层。
3.根据权利要求1所述的基于自编码对抗生成网络的零样本学习方法,其特征在于,步骤2)中所述的解码器结构为:全连接层—隐藏层—全连接层。
4.根据权利要求1所述的基于自编码对抗生成网络的零样本学***衡参数λ和Lipschitz约束的平衡参数α的选择范围为:[0.01,0.001,0.0001]。
5.根据权利要求1所述的基于自编码对抗生成网络的零样本学习方法,其特征在于,步骤10)是根据分类器的不同,有不同的分类方案,若利用无参数的最近邻分类器,那么测试样本的分类是利用测试样本的视觉特征和未见类别的合成视觉特征之间的相似度实现;若利用有参数的分类器,那么测试样本的分类是利用训练合成的未见类别的视觉特征实现。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811134484.3A CN109598279B (zh) | 2018-09-27 | 2018-09-27 | 基于自编码对抗生成网络的零样本学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811134484.3A CN109598279B (zh) | 2018-09-27 | 2018-09-27 | 基于自编码对抗生成网络的零样本学习方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109598279A true CN109598279A (zh) | 2019-04-09 |
CN109598279B CN109598279B (zh) | 2023-04-25 |
Family
ID=65957966
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811134484.3A Active CN109598279B (zh) | 2018-09-27 | 2018-09-27 | 基于自编码对抗生成网络的零样本学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109598279B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110097095A (zh) * | 2019-04-15 | 2019-08-06 | 天津大学 | 一种基于多视图生成对抗网络的零样本分类方法 |
CN110210933A (zh) * | 2019-05-21 | 2019-09-06 | 清华大学深圳研究生院 | 一种基于生成对抗网络的隐语义推荐方法 |
CN110517328A (zh) * | 2019-07-12 | 2019-11-29 | 杭州电子科技大学 | 一种基于相关双自编码器在零次学习上的运用方法 |
CN110580501A (zh) * | 2019-08-20 | 2019-12-17 | 天津大学 | 一种基于变分自编码对抗网络的零样本图像分类方法 |
CN110598806A (zh) * | 2019-07-29 | 2019-12-20 | 合肥工业大学 | 一种基于参数优化生成对抗网络的手写数字生成方法 |
CN111881935A (zh) * | 2020-06-19 | 2020-11-03 | 北京邮电大学 | 一种基于内容感知gan的对抗样本生成方法 |
CN112364893A (zh) * | 2020-10-23 | 2021-02-12 | 天津大学 | 一种基于数据增强的半监督零样本图像分类方法 |
CN112529772A (zh) * | 2020-12-18 | 2021-03-19 | 深圳龙岗智能视听研究院 | 一种零样本设置下的无监督图像转换方法 |
CN113642604A (zh) * | 2021-07-09 | 2021-11-12 | 南京邮电大学 | 一种基于云边协同的音视频辅助触觉信号重建方法 |
CN115758159A (zh) * | 2022-11-29 | 2023-03-07 | 东北林业大学 | 基于混合对比学习和生成式数据增强的零样本文本立场检测方法 |
WO2023071123A1 (zh) * | 2021-10-29 | 2023-05-04 | 广东坚美铝型材厂(集团)有限公司 | 最大间隔的语义特征自学习方法、计算机设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160034512A1 (en) * | 2014-08-04 | 2016-02-04 | Regents Of The University Of Minnesota | Context-based metadata generation and automatic annotation of electronic media in a computer network |
CN106485272A (zh) * | 2016-09-30 | 2017-03-08 | 天津大学 | 基于流形约束的跨模态嵌入的零样本分类方法 |
CN107679556A (zh) * | 2017-09-18 | 2018-02-09 | 天津大学 | 基于变分自动编码器的零样本图像分类方法 |
CN107767384A (zh) * | 2017-11-03 | 2018-03-06 | 电子科技大学 | 一种基于对抗训练的图像语义分割方法 |
CN108376267A (zh) * | 2018-03-26 | 2018-08-07 | 天津大学 | 一种基于类别转移的零样本分类方法 |
WO2018161217A1 (en) * | 2017-03-06 | 2018-09-13 | Nokia Technologies Oy | A transductive and/or adaptive max margin zero-shot learning method and system |
CN108564121A (zh) * | 2018-04-09 | 2018-09-21 | 南京邮电大学 | 一种基于自编码器的未知类别图像标签预测方法 |
-
2018
- 2018-09-27 CN CN201811134484.3A patent/CN109598279B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160034512A1 (en) * | 2014-08-04 | 2016-02-04 | Regents Of The University Of Minnesota | Context-based metadata generation and automatic annotation of electronic media in a computer network |
CN106485272A (zh) * | 2016-09-30 | 2017-03-08 | 天津大学 | 基于流形约束的跨模态嵌入的零样本分类方法 |
WO2018161217A1 (en) * | 2017-03-06 | 2018-09-13 | Nokia Technologies Oy | A transductive and/or adaptive max margin zero-shot learning method and system |
CN107679556A (zh) * | 2017-09-18 | 2018-02-09 | 天津大学 | 基于变分自动编码器的零样本图像分类方法 |
CN107767384A (zh) * | 2017-11-03 | 2018-03-06 | 电子科技大学 | 一种基于对抗训练的图像语义分割方法 |
CN108376267A (zh) * | 2018-03-26 | 2018-08-07 | 天津大学 | 一种基于类别转移的零样本分类方法 |
CN108564121A (zh) * | 2018-04-09 | 2018-09-21 | 南京邮电大学 | 一种基于自编码器的未知类别图像标签预测方法 |
Non-Patent Citations (3)
Title |
---|
ELYOR KODIROV ET AL.: ""Semantic Autoencoder for Zero-Shot Learning"", 《ARXIV》 * |
冀中 等: ""一种基于直推判别字典学习的零样本分类方法"", 《软件学报》 * |
陈祥凤 等: ""度量学习改进语义自编码零样本分类算法"", 《北京邮电大学学报》 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110097095A (zh) * | 2019-04-15 | 2019-08-06 | 天津大学 | 一种基于多视图生成对抗网络的零样本分类方法 |
CN110097095B (zh) * | 2019-04-15 | 2022-12-06 | 天津大学 | 一种基于多视图生成对抗网络的零样本分类方法 |
CN110210933A (zh) * | 2019-05-21 | 2019-09-06 | 清华大学深圳研究生院 | 一种基于生成对抗网络的隐语义推荐方法 |
CN110517328A (zh) * | 2019-07-12 | 2019-11-29 | 杭州电子科技大学 | 一种基于相关双自编码器在零次学习上的运用方法 |
CN110598806A (zh) * | 2019-07-29 | 2019-12-20 | 合肥工业大学 | 一种基于参数优化生成对抗网络的手写数字生成方法 |
CN110580501B (zh) * | 2019-08-20 | 2023-04-25 | 天津大学 | 一种基于变分自编码对抗网络的零样本图像分类方法 |
CN110580501A (zh) * | 2019-08-20 | 2019-12-17 | 天津大学 | 一种基于变分自编码对抗网络的零样本图像分类方法 |
CN111881935A (zh) * | 2020-06-19 | 2020-11-03 | 北京邮电大学 | 一种基于内容感知gan的对抗样本生成方法 |
CN112364893A (zh) * | 2020-10-23 | 2021-02-12 | 天津大学 | 一种基于数据增强的半监督零样本图像分类方法 |
CN112529772A (zh) * | 2020-12-18 | 2021-03-19 | 深圳龙岗智能视听研究院 | 一种零样本设置下的无监督图像转换方法 |
CN112529772B (zh) * | 2020-12-18 | 2024-05-28 | 深圳龙岗智能视听研究院 | 一种零样本设置下的无监督图像转换方法 |
CN113642604A (zh) * | 2021-07-09 | 2021-11-12 | 南京邮电大学 | 一种基于云边协同的音视频辅助触觉信号重建方法 |
CN113642604B (zh) * | 2021-07-09 | 2023-08-18 | 南京邮电大学 | 一种基于云边协同的音视频辅助触觉信号重建方法 |
WO2023071123A1 (zh) * | 2021-10-29 | 2023-05-04 | 广东坚美铝型材厂(集团)有限公司 | 最大间隔的语义特征自学习方法、计算机设备及存储介质 |
CN115758159B (zh) * | 2022-11-29 | 2023-07-21 | 东北林业大学 | 基于混合对比学习和生成式数据增强的零样本文本立场检测方法 |
CN115758159A (zh) * | 2022-11-29 | 2023-03-07 | 东北林业大学 | 基于混合对比学习和生成式数据增强的零样本文本立场检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109598279B (zh) | 2023-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109598279A (zh) | 基于自编码对抗生成网络的零样本学习方法 | |
CN111476294B (zh) | 一种基于生成对抗网络的零样本图像识别方法及*** | |
CN111754596B (zh) | 编辑模型生成、人脸图像编辑方法、装置、设备及介质 | |
CN110580501B (zh) | 一种基于变分自编码对抗网络的零样本图像分类方法 | |
JP2016218999A (ja) | ターゲット環境の画像内に表現されたオブジェクトを検出するように分類器をトレーニングする方法およびシステム | |
CN112818849B (zh) | 基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法 | |
Brekke et al. | Multimodal 3d object detection from simulated pretraining | |
CN110706300A (zh) | 虚拟形象生成方法及装置 | |
CN106096642A (zh) | 基于鉴别局部保持投影的多模态情感特征融合方法 | |
Peng et al. | Contour-enhanced CycleGAN framework for style transfer from scenery photos to Chinese landscape paintings | |
CN104573726B (zh) | 基于四等分及各成分重构误差最优组合的人脸图像识别方法 | |
Li et al. | Segmentation of discrete vector fields | |
Lin et al. | Urban space simulation based on wave function collapse and convolutional neural network | |
Ardhianto et al. | Generative deep learning for visual animation in landscapes design | |
Hu | Visual Health Analysis of Print Advertising Graphic Design Based on Image Segmentation and Few‐Shot Learning | |
KR20230068941A (ko) | 딥러닝 학습 기법을 이용하는 유사도 기반 클러스터링 장치 및 그 방법 | |
CN113111906A (zh) | 一种基于单对图像训练的条件生成对抗网络模型的方法 | |
Wang | Research and Application Analysis of Correlative Optimization Algorithms for GAN | |
He et al. | Automatic generation algorithm analysis of dance movements based on music–action association | |
Luo et al. | Clarifying origin-destination flows using force-directed edge bundling layout | |
Jia et al. | Facial expression synthesis based on motion patterns learned from face database | |
Gai et al. | Digital Art Creation and Visual Communication Design Driven by Internet of Things Algorithm | |
Tarakanov et al. | Immunocomputing of hydroacoustic fields. | |
Sun et al. | Simulation of Image Restoration Technology on Museum VR Platform Based on Adaptive Segmentation and Wireless Sensor Network | |
Jin et al. | SAW-GAN: Multi-granularity Text Fusion Generative Adversarial Networks for text-to-image generation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |