CN113537031B - 基于多鉴别器条件生成对抗网络的雷达图像目标识别方法 - Google Patents

基于多鉴别器条件生成对抗网络的雷达图像目标识别方法 Download PDF

Info

Publication number
CN113537031B
CN113537031B CN202110783193.2A CN202110783193A CN113537031B CN 113537031 B CN113537031 B CN 113537031B CN 202110783193 A CN202110783193 A CN 202110783193A CN 113537031 B CN113537031 B CN 113537031B
Authority
CN
China
Prior art keywords
image
label
discriminator
discriminators
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110783193.2A
Other languages
English (en)
Other versions
CN113537031A (zh
Inventor
黄钰林
裴季方
刘小钰
王陈炜
霍伟博
杨海光
张寅�
杨建宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202110783193.2A priority Critical patent/CN113537031B/zh
Publication of CN113537031A publication Critical patent/CN113537031A/zh
Application granted granted Critical
Publication of CN113537031B publication Critical patent/CN113537031B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于多鉴别器条件生成对抗网络的雷达图像目标识别方法,包括以下步骤:S1、将随机噪声和带有标签的图像数据样本输入条件对抗生成网络的生成器中生成伪图像;S2、将伪图像与带有标签的真实图像数据样本一起分别输入到两个鉴别器中进行训练;S3、将未打标签的图像数据样本输入到训练好的两个鉴别器中,获得带有预测标签的图像数据样本;S4、将最初带标签的真实图像数据样本和鉴别器分配了预测标签的图像数据样本结合,作为网络的训练数据集,在半监督学习的基础上训练CNN并实现雷达图像目标识别。本发明具有更精确的图像生成能力,并且可以提高的识别精度。同时,该方法可以有效地提高带有少量标记样本的网络的识别精度和鲁棒性。

Description

基于多鉴别器条件生成对抗网络的雷达图像目标识别方法
技术领域
本发明属于图像识别技术领域,特别涉及一种基于多鉴别器条件生成对抗网络的雷达图像目标识别方法。
背景技术
在遥感图像处理中,成像雷达微波遥感探测的主要信息是目标与微波波段电磁波相互作用后反射的微波信息。因此,雷达图像包含目标物体的形状和散射信息,可以很好的表示目标特征信息。因此,基于雷达图像的目标识别技术在军事和民用领域的应用具有重要的意义。
深度卷积神经网络(Convolutional Neural Network,CNN)因其强大的高级特征学习能力,在雷达图像目标识别领域中取得了一定进展。但是,此类方法需要大量的标记数据集来训练模型,而大多数雷达图像数据集是未标记或稀疏标记的,这会造成训练深层网络时的过度拟合。文献“Chen,Sizhe,et al."Target classification using the deepconvolutional networks for SAR images."IEEE Transactions on Geoscience andRemote Sensing 54.8(2016):4806-4817.”中提出了一种全卷积网络,将所有全连接层替换为卷积层。该方法通过减少模型参数来减少过度拟合。但是,它的识别性能随着减少标记的训练样本而显著降低。由于手动标记雷达图像数据集耗时耗力,提升在标签有限训练集中训练CNN的性能至关重要。
迁移学习可以通过使用从大量数据集中学习到的参数来初始化模型,然后用目标任务的少量带标签样本对初始化的模型进行微调,从而克服标签受限的难题。文献“Huang,Zhongling,Zongxu Pan,and Bin Lei."Transfer learning with deep convolutionalneural network for SAR target classification with limited labeled data."Remote Sensing 9.9(2017):907.”预训练了无监督的生成网络Auto-Encoder来学习大量未标记的雷达图像的特征。随后,添加了一个分类层对整个网络进行微调。该方法增强了在小标签样本训练集下CNN的识别性能。但是,此类方法仅利用目标域中的标记训练样本,而忽略了目标域中未标记样本的信息。因此,出现了基于半监督学习的目标识别研究。半监督学习旨在通过学习标记数据样本的特征,从而预测大量未标记的数据样本,以建立更好的分类器。
发明内容
本发明的目的在于克服现有技术的不足,提供一种具有更精确的图像生成能力,并且可以提高的识别精度,同时可以有效地提高带有少量标记样本的网络的识别精度和鲁棒性的基于多鉴别器条件生成对抗网络的雷达图像目标识别方法。
本发明的目的是通过以下技术方案来实现的:基于多鉴别器条件生成对抗网络的雷达图像目标识别方法,包括以下步骤:
S1、将随机噪声和带有标签的图像数据样本输入条件对抗生成网络的生成器中生成伪图像;
S2、将伪图像与带有标签的真实图像数据样本一起分别输入到两个鉴别器中进行训练,第一个鉴别器用于预测输入图像所属标签,第二个鉴别器用于判断输入图片为真实图像或伪图像;
S3、将未打标签的图像数据样本输入到训练好的两个鉴别器中,鉴别器将类别标签分配给这些图像数据样本,获得带有预测标签的图像数据样本;
S4、将最初带标签的真实图像数据样本和鉴别器分配了预测标签的图像数据样本结合,作为网络的训练数据集,在半监督学习的基础上训练CNN并实现雷达图像目标识别。
进一步地,所述步骤S2具体实现方法为:
第一个鉴别器的损失函数设置为交叉熵函数,由下式表示
Figure BDA0003157778950000021
其中,N表示目标标签类别总数,x表示真实的标签,L为鉴别器判断各类别的概率向量,yi表示预测的标签;
多鉴别器条件生成对抗网络的损失函数表示为:
Figure BDA0003157778950000022
其中,G表示生成器,D表示鉴别器,V(G,D)为目标函数,
Figure BDA0003157778950000023
表示数学期望计算,n为输入的随机噪声,Pn(n)为随机噪声的分布,Pdata(r)为输入样本数据的分布,r为输入的带标签的数据样本,z为输出的生成样本,G(n|r)表示在带标签数据样本条件下,给定随机噪声r时生成器的输出,D(G(n|r))表示鉴别器在带标签数据样本条件下判断伪数据为真实数据的概率估计,D(z|r)表示鉴别器在带标签数据样本条件下判断真实数据为真实数据的概率估计;
进一步地,所述步骤S3具体实现方法为:将未打标签的图像数据样本输入到训练好的鉴别器中,两个鉴别器将输出N维的对数向量
l=[l1,l2,...,lN]
随后,通过最后一层Softmax层转换为N维的类别标签概率向量:
p=[p1,p2,...,pN]
其中,l为多鉴别器输出的对数向量,p为多鉴别器输出的类别标签概率向量,N为目标标签类别总数;Softmax层的处理方程表示为
Figure BDA0003157778950000031
采用阈值来选择正样本,将对应于大于阈值的概率的类别标签分配给输入的未标记样本,该阈值设置为Pth≥0.8;
若输入多鉴别器的图像最终输出的类别概率向量p中的N个元素均小于0.8,则判定该图像为伪图像并舍弃;若类别概率向量p中有大于0.8的元素,则取这些元素中最大值对应的类别,将该标签分配给输入的图像。
本发明的有益效果是:与其他基于半监督学习的方法相比,本发明提出的方法具有更精确的图像生成能力,并且可以提高的识别精度。同时,该方法可以有效地提高带有少量标记样本的网络的识别精度和鲁棒性。
附图说明
图1为本发明的雷达图像目标识别方法的流程图;
图2为本实施例带有标签的图像数据样本;
图3为本实施例生成的伪图像。
具体实施方式
本发明利用条件生成器生成的伪图像和真实带标签的图像来训练两个鉴别器。一共包括以下三个阶段:训练生成器和鉴别器、预测标签、训练和测试。
下面结合附图进一步说明本发明的技术方案。
如图1所示,本发明的一种基于多鉴别器条件生成对抗网络的雷达图像目标识别方法,包括以下步骤:
S1、将随机噪声和带有标签的图像数据样本输入条件对抗生成网络(ConditionalGenerative Adversarial Network,CGAN)的生成器中生成伪图像。
条件生成器的损失函数可以视为一个极大极小问题,由下式表示
Figure BDA0003157778950000032
其中,G表示生成器,D表示鉴别器,V(G,D)为目标函数,
Figure BDA0003157778950000033
表示数学期望计算,n为输入的随机噪声,Pn(n)为随机噪声的分布,Pdata(r)为输入样本数据的分布,r为输入的带标签的数据样本,z为输出的生成样本,G(n|r)表示在带标签数据样本条件下,给定随机噪声r时生成器的输出,D(G(n|r))表示鉴别器在带标签数据样本条件下判断伪数据为真实数据的概率估计,D(z|r)表示鉴别器在带标签数据样本条件下判断真实数据为真实数据的概率估计。
类别标签和随机噪声信号可以组合作为隐空间表示。其中,图像数据样本的标签为该生成器的条件,目的是有条件地监督生成器生成的图像数据,使生成器生成结果的方式不是完全自由无监督的。该条件生成器使用数字的类别r作为类别标签,并进行了one-hot编码,r中的真实类比标签为“1”,其余元素均为“0”,随机噪声n来自均均匀分布。随机噪声n和类别标签r均映射到隐层后,进行拼接作为下一层全连接层的输入,激活函数使用ReLU。两个全连接层后为两层反卷积层,反卷积层可以看作卷积层的逆过程,它们拥有相同的卷积核和池化索引。当输入为图片时,反卷积将特征值逆映射回了输入图片的像素空间,借此说明输入中的哪些像素参与激活了该特征值。条件生成器网络的最后一层使用Sigmoid函数,得到最终的生成图像样本。本发明的生成器与鉴别其的网络参数设置如表1所示。
表1
Figure BDA0003157778950000041
本实施例的带有标签的图像数据样本如图2所示,生成的伪图像如图3所示。
S2、将伪图像与带有标签的真实图像数据样本一起分别输入到两个鉴别器中进行训练,第一个鉴别器用于预测输入图像所属标签,第二个鉴别器用于判断输入图片为真实图像或伪图像;具体实现方法为:
第一个鉴别器的损失函数设置为交叉熵函数,由下式表示
Figure BDA0003157778950000051
其中,N表示目标标签类别总数,x表示真实标签的one-hot向量,L为鉴别器判断各类别的概率向量,yi表示预测的标签;
根据公式(1)和(2),得到多鉴别器条件生成对抗网络的损失函数表示为:
Figure BDA0003157778950000052
利用损失函数优化条件对抗生成网络的生成器和鉴别器的参数,直至损失函数收敛。
S3、将未打标签的图像数据样本输入到训练好的两个鉴别器中,鉴别器将类别标签分配给这些图像数据样本,获得带有预测标签的图像数据样本;具体实现方法为:将未打标签的图像数据样本输入到训练好的鉴别器中,两个鉴别器将输出N维的对数向量
l=[l1,l2,...,lN]
随后,通过最后一层Softmax层转换为N维的类别标签概率向量:
p=[p1,p2,...,pN]
其中,l为多鉴别器输出的对数向量,每一个元素代表相对应类别输出的对数向量,p为多鉴别器输出的类别标签概率向量,每一个元素代表相对应类别输出的概率向量,N为目标标签类别总数;Softmax层的处理方程表示为
Figure BDA0003157778950000053
由于Softmax层的输出概率可能非常接近,所以采用阈值来选择正样本,将对应于大于阈值的概率的类别标签分配给输入的未标记样本,该阈值设置为Pth≥0.8;
若输入多鉴别器的图像最终输出的类别概率向量p中的N个元素均小于0.8,则判定该图像为伪图像并舍弃;若类别概率向量p中有大于0.8的元素,则取这些元素中最大值对应的类别,将该标签分配给输入的图像。
多鉴别器通过这样的方式将类别标签分配给未打标签的图像数据样本,以获得带有预测标签的图像数据样本。
S4、将最初带标签的真实图像数据样本和鉴别器分配了预测标签的图像数据样本结合,作为网络的训练数据集,在半监督学习的基础上训练CNN并实现雷达图像目标识别。采用本实施例的图像作为测试数据,输入生成的模型,得到本发明的识别方法与其他识别方法的识别准确率对比如表2所示。
表2
Figure BDA0003157778950000061
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。

Claims (2)

1.基于多鉴别器条件生成对抗网络的雷达图像目标识别方法,其特征在于,包括以下步骤:
S1、将随机噪声和带有标签的图像数据样本输入条件对抗生成网络的生成器中生成伪图像;
S2、将伪图像与带有标签的真实图像数据样本一起分别输入到两个鉴别器中进行训练,第一个鉴别器用于预测输入图像所属标签,第二个鉴别器用于判断输入图片为真实图像或伪图像;具体实现方法为:
第一个鉴别器的损失函数设置为交叉熵函数,由下式表示
Figure FDA0004071540670000011
其中,N表示目标标签类别总数,x表示真实的标签,L为鉴别器判断各类别的概率向量,yi表示预测的标签;
多鉴别器条件生成对抗网络的损失函数表示为:
Figure FDA0004071540670000012
其中,G表示生成器,D表示鉴别器,V(G,D)为目标函数,
Figure FDA0004071540670000013
表示数学期望计算,n为输入的随机噪声,Pn(n)为随机噪声的分布,Pdata(r)为输入样本数据的分布,r为输入的带标签的数据样本,z为输出的生成样本,G(n|r)表示在带标签数据样本条件下,给定随机噪声r时生成器的输出,D(G(n|r))表示鉴别器在带标签数据样本条件下判断伪数据为真实数据的概率估计,D(z|r)表示鉴别器在带标签数据样本条件下判断真实数据为真实数据的概率估计;
利用损失函数对条件对抗生成网络的生成器和鉴别器进行优化,直至损失函数收敛;
S3、将未打标签的图像数据样本输入到训练好的两个鉴别器中,鉴别器将类别标签分配给这些图像数据样本,获得带有预测标签的图像数据样本;
S4、将最初带标签的真实图像数据样本和鉴别器分配了预测标签的图像数据样本结合,作为网络的训练数据集,在半监督学习的基础上训练CNN并实现雷达图像目标识别。
2.根据权利要求1所述的基于多鉴别器条件生成对抗网络的雷达图像目标识别方法,其特征在于,所述步骤S3具体实现方法为:将未打标签的图像数据样本输入到训练好的鉴别器中,两个鉴别器将输出N维的对数向量
l=[l1,l2,...,lN]
随后,通过最后一层Softmax层转换为N维的类别标签概率向量:
p=[p1,p2,...,pN]
其中,l为多鉴别器输出的对数向量,p为多鉴别器输出的类别标签概率向量,N为目标标签类别总数;Softmax层的处理方程表示为
Figure FDA0004071540670000021
采用阈值来选择正样本,将对应于大于阈值的概率的类别标签分配给输入的未标记样本,该阈值设置为Pth≥0.8;
若输入多鉴别器的图像最终输出的类别概率向量p中的N个元素均小于0.8,则判定该图像为伪图像并舍弃;若类别概率向量p中有大于0.8的元素,则取这些元素中最大值对应的类别,将该标签分配给输入的图像。
CN202110783193.2A 2021-07-12 2021-07-12 基于多鉴别器条件生成对抗网络的雷达图像目标识别方法 Active CN113537031B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110783193.2A CN113537031B (zh) 2021-07-12 2021-07-12 基于多鉴别器条件生成对抗网络的雷达图像目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110783193.2A CN113537031B (zh) 2021-07-12 2021-07-12 基于多鉴别器条件生成对抗网络的雷达图像目标识别方法

Publications (2)

Publication Number Publication Date
CN113537031A CN113537031A (zh) 2021-10-22
CN113537031B true CN113537031B (zh) 2023-04-07

Family

ID=78127391

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110783193.2A Active CN113537031B (zh) 2021-07-12 2021-07-12 基于多鉴别器条件生成对抗网络的雷达图像目标识别方法

Country Status (1)

Country Link
CN (1) CN113537031B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114897901B (zh) * 2022-07-13 2022-11-01 东声(苏州)智能科技有限公司 基于样本扩充的电池质量检测方法、装置和电子设备
CN116363329B (zh) * 2023-03-08 2023-11-03 广州中望龙腾软件股份有限公司 基于CGAN与LeNet-5的三维图像生成方法及***
CN116106833B (zh) * 2023-04-12 2023-07-04 中南大学 一种基于深度学习的抑制表层钢筋回波的处理方法及***
CN116563169B (zh) * 2023-07-07 2023-09-05 成都理工大学 基于混合监督学习的探地雷达图像异常区域增强方法
CN116681790B (zh) * 2023-07-18 2024-03-22 脉得智能科技(无锡)有限公司 一种超声造影图像生成模型的训练方法及图像的生成方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108764173A (zh) * 2018-05-31 2018-11-06 西安电子科技大学 基于多类生成对抗网络的高光谱图像分类方法
CN108805188A (zh) * 2018-05-29 2018-11-13 徐州工程学院 一种基于特征重标定生成对抗网络的图像分类方法
CN109145992A (zh) * 2018-08-27 2019-01-04 西安电子科技大学 协作生成对抗网络和空谱联合的高光谱图像分类方法
CN109766835A (zh) * 2019-01-11 2019-05-17 西安电子科技大学 基于多参数优化生成对抗网络的sar目标识别方法
CN110110745A (zh) * 2019-03-29 2019-08-09 上海海事大学 基于生成对抗网络的半监督x光图像自动标注
CN110689086A (zh) * 2019-10-08 2020-01-14 郑州轻工业学院 基于生成式对抗网络的半监督高分遥感图像场景分类方法
CN111027439A (zh) * 2019-12-03 2020-04-17 西北工业大学 基于辅助分类生成对抗网络的sar目标识别方法
CN111037365A (zh) * 2019-12-26 2020-04-21 大连理工大学 基于生成式对抗网络的刀具状态监测数据集增强方法
CN111428758A (zh) * 2020-03-06 2020-07-17 重庆邮电大学 一种改进的基于无监督表征学习的遥感图像场景分类方法
CN112232395A (zh) * 2020-10-08 2021-01-15 西北工业大学 一种基于联合训练生成对抗网络的半监督图像分类方法
CN112529806A (zh) * 2020-12-15 2021-03-19 哈尔滨工程大学 基于生成对抗网络信息最大化的sar图像数据增强方法
CN113095218A (zh) * 2021-04-09 2021-07-09 西北工业大学 一种高光谱图像目标检测算法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11003995B2 (en) * 2017-05-19 2021-05-11 Huawei Technologies Co., Ltd. Semi-supervised regression with generative adversarial networks

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108805188A (zh) * 2018-05-29 2018-11-13 徐州工程学院 一种基于特征重标定生成对抗网络的图像分类方法
CN108764173A (zh) * 2018-05-31 2018-11-06 西安电子科技大学 基于多类生成对抗网络的高光谱图像分类方法
CN109145992A (zh) * 2018-08-27 2019-01-04 西安电子科技大学 协作生成对抗网络和空谱联合的高光谱图像分类方法
CN109766835A (zh) * 2019-01-11 2019-05-17 西安电子科技大学 基于多参数优化生成对抗网络的sar目标识别方法
CN110110745A (zh) * 2019-03-29 2019-08-09 上海海事大学 基于生成对抗网络的半监督x光图像自动标注
CN110689086A (zh) * 2019-10-08 2020-01-14 郑州轻工业学院 基于生成式对抗网络的半监督高分遥感图像场景分类方法
CN111027439A (zh) * 2019-12-03 2020-04-17 西北工业大学 基于辅助分类生成对抗网络的sar目标识别方法
CN111037365A (zh) * 2019-12-26 2020-04-21 大连理工大学 基于生成式对抗网络的刀具状态监测数据集增强方法
CN111428758A (zh) * 2020-03-06 2020-07-17 重庆邮电大学 一种改进的基于无监督表征学习的遥感图像场景分类方法
CN112232395A (zh) * 2020-10-08 2021-01-15 西北工业大学 一种基于联合训练生成对抗网络的半监督图像分类方法
CN112529806A (zh) * 2020-12-15 2021-03-19 哈尔滨工程大学 基于生成对抗网络信息最大化的sar图像数据增强方法
CN113095218A (zh) * 2021-04-09 2021-07-09 西北工业大学 一种高光谱图像目标检测算法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
Baiying Lei等.Skin lesion segmentation via generative adversarial networks with dual discriminators.《Medical Image Analysis》.2020,第64卷1-12. *
Changjie Cao等.Cost-Sensitive Awareness-Based SAR Automatic Target Recognition for Imbalanced Data.《IEEE Transactions on Geoscience and Remote Sensing》.2021,第60卷1-16. *
Jiayi Ma等.DDcGAN: A Dual-Discriminator Conditional Generative Adversarial Network for Multi-Resolution Image Fusion.《IEEE Transactions on Image Processing》.2020,第29卷4980 - 4995. *
Miao Yang等.Underwater image enhancement based on conditional generative adversarial network.《Signal Processing: Image Communication》.2019,第81卷1-9. *
刘汝佳.基于随机丢弃的多鉴别器生成对抗网络研究.《中国优秀硕士学位论文全文数据库 信息科技辑》.2020,I138-1259. *
范斯诺.基于深度学习的视频预测与异常检测方法.《中国优秀硕士学位论文全文数据库 信息科技辑》.2021,I138-744. *

Also Published As

Publication number Publication date
CN113537031A (zh) 2021-10-22

Similar Documents

Publication Publication Date Title
CN113537031B (zh) 基于多鉴别器条件生成对抗网络的雷达图像目标识别方法
CN110472627B (zh) 一种端到端的sar图像识别方法、装置及存储介质
Gu et al. Stack-captioning: Coarse-to-fine learning for image captioning
CN110443143B (zh) 多分支卷积神经网络融合的遥感图像场景分类方法
CN109684922B (zh) 一种基于卷积神经网络的多模型对成品菜的识别方法
CN111126134B (zh) 基于非指纹信号消除器的雷达辐射源深度学习识别方法
CN114492574A (zh) 基于高斯均匀混合模型的伪标签损失无监督对抗域适应图片分类方法
CN111783841A (zh) 基于迁移学习和模型融合的垃圾分类方法、***及介质
CN111986125A (zh) 一种用于多目标任务实例分割的方法
CN111126226A (zh) 一种基于小样本学习和特征增强的辐射源个体识别方法
CN114926693A (zh) 基于加权距离的sar图像小样本识别方法及装置
CN111986126A (zh) 一种基于改进vgg16网络的多目标检测方法
Ye et al. Recognition algorithm of emitter signals based on PCA+ CNN
Zhu Selection of multi-level deep features via spearman rank correlation for synthetic aperture radar target recognition using decision fusion
CN117237733A (zh) 一种结合自监督和弱监督学习的乳腺癌全切片图像分类方法
Li et al. Transductive distribution calibration for few-shot learning
Tian et al. SAR object classification using the DAE with a modified triplet restriction
Liang et al. Adaptive multiple kernel fusion model using spatial-statistical information for high resolution SAR image classification
CN116630816B (zh) 基于原型对比学习的sar目标识别方法、装置、设备及介质
CN109993050B (zh) 一种合成孔径雷达图像识别方法
CN116630694A (zh) 一种偏多标记图像的目标分类方法、***及电子设备
CN116895016A (zh) 一种sar图像船舶目标生成与分类方法
CN116340846A (zh) 一种弱监督下多示例多标签学习的混叠调制信号识别方法
CN116030300A (zh) 一种用于零样本sar目标识别的渐进式域自适应识别方法
Huan et al. SAR multi‐target interactive motion recognition based on convolutional neural networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant