CN113269243A - 一种基于生成式对抗网络的关联识别方法及设备 - Google Patents

一种基于生成式对抗网络的关联识别方法及设备 Download PDF

Info

Publication number
CN113269243A
CN113269243A CN202110541068.0A CN202110541068A CN113269243A CN 113269243 A CN113269243 A CN 113269243A CN 202110541068 A CN202110541068 A CN 202110541068A CN 113269243 A CN113269243 A CN 113269243A
Authority
CN
China
Prior art keywords
training
network
detection signal
generative
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110541068.0A
Other languages
English (en)
Inventor
贺雨晨
陈薏冰
陈辉
郑淮斌
徐卓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Jiaotong University
Original Assignee
Xian Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Jiaotong University filed Critical Xian Jiaotong University
Priority to CN202110541068.0A priority Critical patent/CN113269243A/zh
Publication of CN113269243A publication Critical patent/CN113269243A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2132Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

一种基于生成式对抗网络的关联识别方法及设备,关联识别方法包括以下步骤:将待识别物体的类别作为网络训练的目标,将一套随机散斑序列与待识别物体同类型且形态各异的物体作用,经过多次采样形成物体的桶探测信号阵列,不同物体对应不同的桶探测信号阵列,将桶探测信号阵列作为网络训练的样本,利用生成式对抗网络进行训练;训练完成后,利用训练过程中使用到的随机散斑序列对目标物体进行探测,并收集对应的桶探测信号,在完成多次采样之后形成对应桶探测信号阵列;将桶探测信号阵列输入训练好的生成式对抗网络,输出目标物体类别。本发明实现了不依靠目标图像信息进行识别,能够大幅缩短数据采集和处理的时间。

Description

一种基于生成式对抗网络的关联识别方法及设备
技术领域
本发明属于目标识别领域,涉及一种基于生成式对抗网络的关联识别方法及设备。
背景技术
目标识别一直是国民经济和军事战争领域中备受关注的重点及难点问题。当前,基于目标图像信息的识别技术,极大地依赖于目标图像信息获取的质量,以及对获取图像的处理和分析的质量。同时,这种方式无形中增加了***的复杂度,影响识别速度,这些都制约了目标识别技术的实用化进程和应用场景。关联成像,又名量子成像或鬼成像,是在量子纠缠基础上发展起来的一种新型成像技术。1995年,由美国马里兰大学的华人科学家史砚华和Pittman首次完成。与传统成像技术相比,关联成像具有无透镜成像、抗扰动性强和非定域性等特点,它在遥感成像、弱光探测、医学成像、安检以及穿透散射介质成像等方面具备很好的应用前景。因此,亟需实现一种能够将关联成像运用于目标识别的方案。
发明内容
本发明的目的在于针对上述现有技术中依赖目标图像信息进行目标识别的问题,提供一种基于生成式对抗网络的关联识别方法及设备,利用深度学习方法中的生成式对抗网络架构以及关联成像机理进行目标识别,缩短数据的采集及处理时间,实现对目标的快速识别。
为了实现上述目的,本发明有如下的技术方案:
一种基于生成式对抗网络的关联识别方法,包括以下步骤:
S1、将待识别物体的类别作为网络训练的目标,将一套随机散斑序列与待识别物体同类型且形态各异的物体作用,经过多次采样形成物体的桶探测信号阵列,不同物体对应不同的桶探测信号阵列,将桶探测信号阵列作为网络训练的样本,利用生成式对抗网络进行训练;
S2、训练完成后,利用步骤S1训练过程中使用到的随机散斑序列对目标物体进行探测,并收集对应的桶探测信号,在完成多次采样之后形成对应桶探测信号阵列;
S3、将步骤S2的桶探测信号阵列输入训练好的生成式对抗网络,输出目标物体类别。
作为本发明关联识别方法的一种优选方案,步骤S1将一套随机散斑序列与待识别物体同类型且形态各异的物体作用包括以下步骤:使用一套已知序列的随机散斑依次照明不同类别的物体,并收集物体反射光的总光强,即桶探测信号阵列。
作为本发明关联识别方法的一种优选方案,步骤S1利用生成式对抗网络进行训练包括以下步骤:
1)采样真实数据,获得相应的标签y并传给判别器,根据输出结果更新参数;
2)产生随机噪声,将步骤1)中的标签y与随机噪声传入生成器生成假数据;
3)将步骤2)中生成的假数据与标签y传入判别器;
4)生成器根据判别器的输出来调整参数;
5)经过不断循环直到生成器和判别器达到纳什均衡。
作为本发明关联识别方法的一种优选方案,步骤S3按照以下步骤对生成式对抗网络进行训练:
1)准备训练集和测试集:根据计算鬼成像机制,利用随机散斑序列多次照明目标,采集到的桶形信号阵列分为训练集和测试集两部分;
2)建立网络:基于TensorFlow-gpu1.13、keras2.1.5版本,使用PyCharm搭建以下三个模型:生成模型、判别模型和对抗训练模型;
3)训练网络:循环输入训练集中的图像及其对应的类别,同时训练生成器和判别器模型。
作为本发明关联识别方法的一种优选方案,每个类别的桶探测信号阵列都有一个其对应目标的类别标签c,将全部类别标签c~PC和正态分布的随机数z同时作为生成器的输入,其输出为Xfake=G(c,z);判别器的输入为真实的桶探测数据样本及其对应的类别标签c~PC和生成器生成的带标签的数据Xfake,其输出为生成数据样本的真假概率分布Xreal=D(c,x);所述生成式对抗网络的目标函数包括两个部分:真实桶探测样本的对数似然LS和真实桶探测类别标签的对数似然LC,分布表示为下式:
Ls=E[logP(S=real|Xreal)]+E[logP(S=fake|Xfake)]
Lc=E[logP(C=c|Xreal)]+[ElogP(C=c|Xfake)]。
作为本发明关联识别方法的一种优选方案,所述生成器的目标为找到值使得LS+LC取得最大值,判别器的目标为找到值使得LS-LC取得最大值。
作为本发明关联识别方法的一种优选方案,所述的判别器无法区分输入的数据是否为真实数据时输出的概率分布为0.5;判别器在与生成器对抗的过程中学习真实样本数据特征分布,判断输入的样本来自真实样本还是生成样本及其对应类型。
本发明还提供一种基于生成式对抗网络的关联识别***,包括:
生成式对抗网络训练模块,用于将待识别物体的类别作为网络训练的目标,将一套随机散斑序列与待识别物体同类型且形态各异的物体作用,经过多次采样形成物体的桶探测信号阵列,不同物体对应不同的桶探测信号阵列,将桶探测信号阵列作为网络训练的样本,利用生成式对抗网络进行训练;
桶探测信号阵列生成模块,用于在生成式对抗网络训练完成之后,利用生成式对抗网络训练过程中使用到的随机散斑序列对目标物体进行探测,并收集对应的桶探测信号,在完成多次采样之后形成对应桶探测信号阵列;
目标物体类别判断模块,用于将目标物体的桶探测信号阵列输入训练好的生成式对抗网络,输出目标物体类别。
本发明还提供一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述的处理器执行所述的计算机程序时实现本发明所述基于生成式对抗网络的关联识别方法的步骤。
本发明还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述的计算机程序被处理器执行时实现所述基于生成式对抗网络的关联识别方法的步骤。
相较于现有技术,本发明至少具有如下的有益效果:实现了不依靠目标图像信息进行识别,本发明基于关联成像的***架构,利用生成式对抗网络输入随机噪声的特点,设计了通过关联成像中桶探测信号阵列进行目标识别的方法。本发明能够大幅缩短数据采集和处理的时间,本发明在训练完成后,依靠目标的回波信号进行识别,因此,不需要大量的数据进行图像恢复,也不需要对图像进行优化和分析处理,经测试,识别十个样本仅用时0.081秒。
附图说明
图1本发明实施例以手写字母为目标物体的识别方法框图;
图2本发明实施例基于生成式对抗网络的关联识别方法流程图;
图3本发明实施例的实验结果示例图。
具体实施方式
下面结合附图及实施例对本发明做进一步的详细说明。
参见图1,本发明采用字母ABCDEFGHIJ以及数字0123456789对应的手写体图片作为目标物体,定义目标ABCDEFGHIJ以及0123456789对应的类别标签为0123456789,采用GAN网络训练完成后,输入测试数据,输出为对应的类别标签。
参见图2,本发明基于生成式对抗网络的关联识别方法,主要包括以下步骤:
S1、将待识别物体的类别作为网络训练的目标,将一套随机散斑序列与待识别物体同类型且形态各异的物体作用,包括以下步骤:使用一套已知序列的随机散斑依次照明不同类别的物体,并收集物体反射光的总光强,即桶探测信号阵列。
经过多次采样形成物体的桶探测信号阵列,不同物体对应不同的桶探测信号阵列,将桶探测信号阵列作为网络训练的样本,利用生成式对抗网络进行训练,包括以下步骤:
1)采样真实数据,获得相应的标签y并传给判别器,根据输出结果更新参数;
2)产生随机噪声,将步骤1)中的标签y与随机噪声传入生成器生成假数据;
3)将步骤2)中生成的假数据与标签y传入判别器;
4)生成器根据判别器的输出来调整参数;
5)经过不断循环直到生成器和判别器达到纳什均衡。
S2、训练完成后,利用步骤S1训练过程中使用到的随机散斑序列对目标物体进行探测,并收集对应的桶探测信号,在完成多次采样之后形成对应桶探测信号阵列;
S3、将步骤S2的桶探测信号阵列输入训练好的生成式对抗网络,输出目标物体类别。
按照以下步骤对生成式对抗网络进行训练:
1)准备训练集和测试集:根据计算鬼成像机制,利用随机散斑序列多次照明目标,采集到的桶形信号阵列分为训练集和测试集两部分;
2)建立网络:基于TensorFlow-gpu1.13、keras2.1.5版本,使用PyCharm搭建以下三个模型:生成模型、判别模型和对抗训练模型;
3)训练网络:循环输入训练集中的图像及其对应的类别,同时训练生成器和判别器模型。
生成式对抗网络采用的博弈竞争方式使其不需要预先建模,进行采样即可逼近真实数据。这种方式虽然简单有效,但也有一定的缺点,即太过自由,生成器的输出不能控制。因此提出了带约束条件的生成对抗网络,具体指对得到的桶探测信号阵列加上类别标签,如目标A的桶探测信号阵列对应0类标签,如目标B的桶探测信号阵列对应1类标签以此类推,并将其分为带标签的训练集和测试集。在训练过程中,采样训练集数据,获得相应的标签y并传给判别器,根据输出结果,生成器学习标签对应的桶探测信号阵列的数据分布更新参数,达到约束的目的。本发明基于生成式对抗网络的关联识别方法通过在判别器和生成器中均加入约束条件,从而指导数据生成过程。这一简单的改进被证明非常有效,并被广泛运用。
条件生成对抗网络在训练过程中,每类桶探测阵列都有一个其对应目标的类别标签c,c~PC和正态分布的随机数z同时作为生成器的输入,其输出为Xfake=G(c,z)。判别器的输入为真实的桶探测数据样本及其对应的类别标签c~PC和生成器生成的带标签的数据Xfake,其输出为生成数据样本的真假概率分布Xture=D(c,x)。其目标函数包括两个部分:真实桶探测样本的对数似然LS和真实桶探测类别标签的对数似然LC,分布可以表示为:
Ls=E[logP(S=real|Xreal)]+E[logP(S=fake|Xfake)]
Lc=E[logP(C=c|Xreal)]+[ElogP(C=c|Xfake)]
判别器的输出包括两部分:一部分输出是训练样本图像的真假,对应LS,其使用sigmoid函数对上层的输出进行归一化。另一部分输出的是训练样本图像的类别,对应LC,其使用softmax函数对上层的输出进行归一化。
将训练样本输出与标记的交叉熵作为训练损失函数,对比样本输出与标记,使用优化器Adam控制学习率的变化,最后,定义使损失减小的操作,进行对抗训练。训练时,生成器和判别器互相博弈,判别器的目标为找到合适的值使LS+LC取得最大值,而生成器的目标则是寻找合适的值使LS-LC取得最大值,最终使网络达到纳什均衡状态,判别器无法区分输入的数据是否为真实数据时输出的概率分布为0.5。通过引入桶探测数据类别标签作为条件变量,改善原始生成对抗网络训练过程中自由不可控的缺点,最终可以通过桶探测数据类别标签控制生成器生成对应类别的桶探测数据。判别器也在对抗过程中会不断学习真实样本数据特征分布,判断输入的样本来自真实样本还是生成样本及其对应类型。
参见图3,本发明利用一组已知序列的随机散斑与“0123456789”这10类目标作用,散斑与目标的大小为28*28。经过多次采样后,得到桶探测信号的阵列,并分为训练集与测试集两部分,按照本发明提出的方法进行训练。搭建三部分模型:生成模型、判别模型和生成器与判别器对抗训练模型。在循环中执行读取训练集文件数据的图片和其对应的类别,并同时对生成网络和判别网络进行对抗训练。每读取一批数据执行一次对抗训练操作,训练结束后保存模型。测试时载入训练好的网络模型,读取测试集文件中的图片,执行判别器,判断测试图片的类别达到识别的目的。经过测试,单个目标十次识别率为100%。
本发明还提出一种基于生成式对抗网络的关联识别***,包括:
生成式对抗网络训练模块,用于将待识别物体的类别作为网络训练的目标,将一套随机散斑序列与待识别物体同类型且形态各异的物体作用,经过多次采样形成物体的桶探测信号阵列,不同物体对应不同的桶探测信号阵列,将桶探测信号阵列作为网络训练的样本,利用生成式对抗网络进行训练;
桶探测信号阵列生成模块,用于在生成式对抗网络训练完成之后,利用生成式对抗网络训练过程中使用到的随机散斑序列对目标物体进行探测,并收集对应的桶探测信号,在完成多次采样之后形成对应桶探测信号阵列;
目标物体类别判断模块,用于将目标物体的桶探测信号阵列输入训练好的生成式对抗网络,输出目标物体类别。
本发明还提出一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述的处理器执行所述的计算机程序时实现所述基于生成式对抗网络的关联识别方法的步骤。
本发明还提出一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述的计算机程序被处理器执行时实现所述基于生成式对抗网络的关联识别方法的步骤。
所述的计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器中,并由所述处理器执行,以完成本发明的关联识别方法。
所述的终端可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备,也可以是处理器、存储器。处理器可以是中央处理单元(CentralProcessingUnit,CPU),还可以是其他通用处理器、数字信号处理器(DigitalSignalProcessor,DSP)、专用集成电路(ApplicationSpecificIntegratedCircuit,ASIC)、现成可编程门阵列(Field-ProgrammableGateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。存储器可用于存储计算机程序和/或模块,所述处理器通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现本发明关联识别***的各种功能。
以上所述的仅仅是本发明的较佳实施例,并不用以对本发明的技术方案进行任何限制,本领域技术人员应当理解的是,在不脱离本发明精神和原则的前提下,该技术方案还可以进行若干简单的修改和替换,这些修改和替换也均属于权利要求书所涵盖的保护范围之内。

Claims (10)

1.一种基于生成式对抗网络的关联识别方法,其特征在于,包括以下步骤:
S1、将待识别物体的类别作为网络训练的目标,将一套随机散斑序列与待识别物体同类型且形态各异的物体作用,经过多次采样形成物体的桶探测信号阵列,不同物体对应不同的桶探测信号阵列,将桶探测信号阵列作为网络训练的样本,利用生成式对抗网络进行训练;
S2、训练完成后,利用步骤S1训练过程中使用到的随机散斑序列对目标物体进行探测,并收集对应的桶探测信号,在完成多次采样之后形成对应桶探测信号阵列;
S3、将步骤S2的桶探测信号阵列输入训练好的生成式对抗网络,输出目标物体类别。
2.根据权利要求1所述基于生成式对抗网络的关联识别方法,其特征在于,步骤S1将一套随机散斑序列与待识别物体同类型且形态各异的物体作用包括以下步骤:使用一套已知序列的随机散斑依次照明不同类别的物体,并收集物体反射光的总光强,即桶探测信号阵列。
3.根据权利要求1所述基于生成式对抗网络的关联识别方法,其特征在于:
步骤S1利用生成式对抗网络进行训练包括以下步骤:
1)采样真实数据,获得相应的标签y并传给判别器,根据输出结果更新参数;
2)产生随机噪声,将步骤1)中的标签y与随机噪声传入生成器生成假数据;
3)将步骤2)中生成的假数据与标签y传入判别器;
4)生成器根据判别器的输出来调整参数;
5)经过不断循环直到生成器和判别器达到纳什均衡。
4.根据权利要求1所述基于生成式对抗网络的关联识别方法,其特征在于:
步骤S3按照以下步骤对生成式对抗网络进行训练:
1)准备训练集和测试集:根据计算鬼成像机制,利用随机散斑序列多次照明目标,采集到的桶形信号阵列分为训练集和测试集两部分;
2)建立网络:基于TensorFlow-gpu1.13、keras2.1.5版本,使用PyCharm搭建以下三个模型:生成模型、判别模型和对抗训练模型;
3)训练网络:循环输入训练集中的图像及其对应的类别,同时训练生成器和判别器模型。
5.根据权利要求4所述基于生成式对抗网络的关联识别方法,其特征在于:每个类别的桶探测信号阵列都有一个其对应目标的类别标签c,将全部类别标签c~PC和正态分布的随机数z同时作为生成器的输入,其输出为Xfake=G(c,z);判别器的输入为真实的桶探测数据样本及其对应的类别标签c~PC和生成器生成的带标签的数据Xfake,其输出为生成数据样本的真假概率分布Xreal=D(c,x);所述生成式对抗网络的目标函数包括两个部分:真实桶探测样本的对数似然LS和真实桶探测类别标签的对数似然LC,分布表示为下式:
Ls=E[log P(S=real|Xreal)]+E[log P(S=fake|Xfake)]
Lc=E[log P(C=c|Xreal)]+[E log P(C=c|Xfake)]。
6.根据权利要求5所述基于生成式对抗网络的关联识别方法,其特征在于:所述生成器的目标为找到值使得LS+LC取得最大值,判别器的目标为找到值使得LS-LC取得最大值。
7.根据权利要求4所述基于生成式对抗网络的关联识别方法,其特征在于:所述的判别器无法区分输入的数据是否为真实数据时输出的概率分布为0.5;判别器在与生成器对抗的过程中学习真实样本数据特征分布,判断输入的样本来自真实样本还是生成样本及其对应类型。
8.一种基于生成式对抗网络的关联识别***,其特征在于,包括:
生成式对抗网络训练模块,用于将待识别物体的类别作为网络训练的目标,将一套随机散斑序列与待识别物体同类型且形态各异的物体作用,经过多次采样形成物体的桶探测信号阵列,不同物体对应不同的桶探测信号阵列,将桶探测信号阵列作为网络训练的样本,利用生成式对抗网络进行训练;
桶探测信号阵列生成模块,用于在生成式对抗网络训练完成之后,利用生成式对抗网络训练过程中使用到的随机散斑序列对目标物体进行探测,并收集对应的桶探测信号,在完成多次采样之后形成对应桶探测信号阵列;
目标物体类别判断模块,用于将目标物体的桶探测信号阵列输入训练好的生成式对抗网络,输出目标物体类别。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于:所述的处理器执行所述的计算机程序时实现如权利要求1至7中任意一项所述基于生成式对抗网络的关联识别方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于:所述的计算机程序被处理器执行时实现如权利要求1至7中任意一项所述基于生成式对抗网络的关联识别方法的步骤。
CN202110541068.0A 2021-05-18 2021-05-18 一种基于生成式对抗网络的关联识别方法及设备 Pending CN113269243A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110541068.0A CN113269243A (zh) 2021-05-18 2021-05-18 一种基于生成式对抗网络的关联识别方法及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110541068.0A CN113269243A (zh) 2021-05-18 2021-05-18 一种基于生成式对抗网络的关联识别方法及设备

Publications (1)

Publication Number Publication Date
CN113269243A true CN113269243A (zh) 2021-08-17

Family

ID=77231701

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110541068.0A Pending CN113269243A (zh) 2021-05-18 2021-05-18 一种基于生成式对抗网络的关联识别方法及设备

Country Status (1)

Country Link
CN (1) CN113269243A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114359667A (zh) * 2021-12-30 2022-04-15 西安交通大学 一种基于生成式对抗网络的强度相干识别方法及设备
CN114494055A (zh) * 2022-01-19 2022-05-13 西安交通大学 基于循环神经网络的鬼成像方法、***、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111027439A (zh) * 2019-12-03 2020-04-17 西北工业大学 基于辅助分类生成对抗网络的sar目标识别方法
US20210073630A1 (en) * 2019-09-10 2021-03-11 Robert Bosch Gmbh Training a class-conditional generative adversarial network

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210073630A1 (en) * 2019-09-10 2021-03-11 Robert Bosch Gmbh Training a class-conditional generative adversarial network
CN111027439A (zh) * 2019-12-03 2020-04-17 西北工业大学 基于辅助分类生成对抗网络的sar目标识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YUCHEN HE, YIBING CHEN: "《Generative-Adversarial-Networks-based Ghost Recognition》", 《ARXIV》, pages 1 - 4 *
易珂;: "基于深度网络ACGAN的图像识别", 电子技术与软件工程, no. 18 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114359667A (zh) * 2021-12-30 2022-04-15 西安交通大学 一种基于生成式对抗网络的强度相干识别方法及设备
CN114359667B (zh) * 2021-12-30 2024-01-30 西安交通大学 一种基于生成式对抗网络的强度相干识别方法及设备
CN114494055A (zh) * 2022-01-19 2022-05-13 西安交通大学 基于循环神经网络的鬼成像方法、***、设备及存储介质
CN114494055B (zh) * 2022-01-19 2024-02-06 西安交通大学 基于循环神经网络的鬼成像方法、***、设备及存储介质

Similar Documents

Publication Publication Date Title
Bendale et al. Towards open set deep networks
CN109583342B (zh) 基于迁移学习的人脸活体检测方法
Russakovsky et al. Detecting avocados to zucchinis: what have we done, and where are we going?
CN111709311B (zh) 一种基于多尺度卷积特征融合的行人重识别方法
Wang et al. Two-stage method based on triplet margin loss for pig face recognition
CN110363220B (zh) 行为类别检测方法、装置、电子设备和计算机可读介质
Prasetyo et al. A comparison of yolo and mask r-cnn for segmenting head and tail of fish
CN113269243A (zh) 一种基于生成式对抗网络的关联识别方法及设备
CN103593648B (zh) 一个面向开放环境的人脸识别方法
Rezatofighi et al. Deep perm-set net: Learn to predict sets with unknown permutation and cardinality using deep neural networks
Talas et al. CamoGAN: evolving optimum camouflage with Generative Adversarial Networks
Chin et al. Dorsal hand vein authentication system using artificial neural network
Wang et al. Dog breed classification based on deep learning
Ha et al. Fine-grained interactive attention learning for semi-supervised white blood cell classification
CN112949469A (zh) 针对人脸篡改图像特点分布的图像识别方法、***及设备
CN111965639A (zh) 基于双向长短时记忆神经网络的雷达信号分析方法
Zhu et al. A novel simple visual tracking algorithm based on hashing and deep learning
Soysal et al. An introduction to zero-shot learning: An essential review
Gong et al. An analysis of plant diseases identification based on deep learning methods
Li et al. A study on IR target recognition approach in aerial jamming environment based on Bayesian probabilistic model
CN111797690A (zh) 基于小波神经网络光栅阵列光纤周界入侵识别方法及装置
Zhao et al. Cross-modal knowledge distillation for fine-grained one-shot classification
CN114581819A (zh) 一种视频行为识别方法及***
Masum et al. YOLOv5 vs. YOLOv8 in Marine Fisheries: Balancing Class Detection and Instance Count
Wang et al. Design of Intelligent Detection System for Smoking Based on Improved YOLOv4.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination