CN113870157A - 一种基于CycleGAN的SAR图像合成方法 - Google Patents
一种基于CycleGAN的SAR图像合成方法 Download PDFInfo
- Publication number
- CN113870157A CN113870157A CN202111130062.0A CN202111130062A CN113870157A CN 113870157 A CN113870157 A CN 113870157A CN 202111130062 A CN202111130062 A CN 202111130062A CN 113870157 A CN113870157 A CN 113870157A
- Authority
- CN
- China
- Prior art keywords
- image
- sar
- generated
- generator
- discriminator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001308 synthesis method Methods 0.000 title claims description 9
- 238000013508 migration Methods 0.000 claims abstract description 76
- 230000005012 migration Effects 0.000 claims abstract description 76
- 238000000034 method Methods 0.000 claims abstract description 52
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 32
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 32
- 238000009826 distribution Methods 0.000 claims description 33
- 230000004913 activation Effects 0.000 claims description 31
- 230000008569 process Effects 0.000 claims description 30
- 238000010606 normalization Methods 0.000 claims description 19
- 230000003042 antagnostic effect Effects 0.000 claims description 18
- 125000004122 cyclic group Chemical group 0.000 claims description 17
- 238000013507 mapping Methods 0.000 claims description 15
- 238000011176 pooling Methods 0.000 claims description 7
- 230000002194 synthesizing effect Effects 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 4
- 230000003213 activating effect Effects 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 3
- 230000004927 fusion Effects 0.000 abstract description 2
- 238000010189 synthetic method Methods 0.000 abstract description 2
- 238000003672 processing method Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 77
- 238000012545 processing Methods 0.000 description 23
- 230000000694 effects Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 19
- 238000012549 training Methods 0.000 description 14
- 238000013528 artificial neural network Methods 0.000 description 10
- 230000009286 beneficial effect Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 7
- 239000013598 vector Substances 0.000 description 7
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 6
- 230000008485 antagonism Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 230000035945 sensitivity Effects 0.000 description 5
- 238000004088 simulation Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000006872 improvement Effects 0.000 description 3
- 238000011158 quantitative evaluation Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000005315 distribution function Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 108010049931 Bone Morphogenetic Protein 2 Proteins 0.000 description 1
- 102100024506 Bone morphogenetic protein 2 Human genes 0.000 description 1
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 1
- 206010061274 Malocclusion Diseases 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于CycleGAN的SAR图像合成方法,通过采集SAR图像构建SAR目标图像数据集,并对SAR目标图像数据集进行区域划分,得到第一域图像与第二域图像;并通过改进深度卷积生成对抗网络与最小二乘生成对抗网络构建改进循环一致性生成对抗网络CycleGAN,利用得到的改进循环一致性生成对抗网络CycleGAN对第一域图像与第二域图像进行迁徙合成,得到迁徙合成后的SAR图像,并进行直方图均衡,得到最终合成SAR图像;本发明通过改进深度卷积生成对抗网络与最小二乘生成对抗网络构建改进循环一致性生成对抗网络CycleGAN,提高模型的泛化能力,并通过双重循环结构优化SAR背景与目标迁移融合,并结合直方图均衡,改善图像的细节以及空间结构感,提高图像的质感,可扩充SAR图像数据集。
Description
技术领域
本发明涉及SAR图像合成领域,具体涉及一种基于CycleGAN的SAR图像 合成方法。
背景技术
SAR图像解译对于SAR***的应用十分重要,SAR图像生成技术不仅可以 用于欺骗干扰,还可以为后期图像处理研究提供数据等,是诸多SAR图像应用 领域中的重要环节,现实中SAR图像解译经常面临数据集不足的问题,而且由 于噪声干扰的影响,SAR数据集的质量也参差不齐。
针对缺少SAR目标图像数据导致识别网络难以训练的问题,最近深度学习 领域中提出了一种生成对抗网络结构来生成SAR图像的新方法,这种生成对抗 模型是目前深度生成模型中最具潜力的代表,在无监督类别中被认为是最具前 景的生成模型,能够得到近似真实的数据,有着以假乱真的效果,由于其强大 的生成能力,训练稳定,收敛较快,生成样本多样化等优点,所以在数据扩充 方面,采用该类模型来进行图像生成,可以更好地节约人力物力资源,故将生 成对抗类模型引入SAR图像生成领域具有重要意义。
现有技术中通过基于特征提取的手段,所模拟产生的SAR目标图像与真实 图像相比相似度不高,不真实,此外,要仿真一定数量的SAR图像,就需要逐 个进行特征提取,导致其产生SAR图像的成本太高,且不能提高数据集的质量, 并非真正意义上的有效扩展。
发明内容
针对现有技术中的上述不足:SAR数据集的质量参差不齐,本发明提供了 一种基于CycleGAN的SAR图像合成方法。
为了达到上述发明目的,本发明采用的技术方案为:
一种基于CycleGAN的SAR图像合成方法,包括以下步骤:
S1、采集SAR图像,构建SAR目标图像数据集;
S2、对SAR目标图像数据集进行区域划分,得到第一域图像与第二域图像;
S3、构建改进循环一致性生成对抗网络CycleGAN;
S4、利用改进循环一致性生成对抗网络CycleGAN对第一域图像与第二域 图像进行迁徙合成,得到迁移合成后的SAR图像;
S5、对迁移合成后的SAR图像进行直方图灰度均衡,得到最终合成SAR 图像。
本发明具有以下有益效果:
通过采集SAR图像并预处理得到SAR目标图像数据集,解决了目前SAR 图像数据集存在通用性低、图片属性特定不尽相同的问题,有助于图像的局部 判断以及分割合成,并对SAR目标图像数据集进行区域划分,得到第一域图像 与第二域图像;并通过改进深度卷积生成对抗网络与最小二乘生成对抗网络构 建改进循环一致性生成对抗网络CycleGAN,提高网络的泛化能力;利用最小二 乘生成对抗网络提供的最小二乘法损失函数稳定训练,作为提高训练稳定性的 关键,保证了正向迁徙过程中的内容不变性,降低对内容变化的敏感性,保证 合成效果,同时利用改进深度卷积生成对抗网络得到生成器与判别器的结构,并确定最终的激活函数,利用得到的改进循环一致性生成对抗网络CycleGAN 对第一域图像与第二域图像进行迁徙合成,得到迁徙合成后的SAR图像,并进 行直方图均衡,改善图像的细节以及空间结构感,提高图像的质感,利用灰度 均衡增加了SAR图像局部对比度,得到最终合成SAR图像,具有较高相似度, 可用于扩充SAR图像数据集,解决SAR数据集的质量参差不齐的问题。
进一步地,步骤S1具体包括以下分步骤:
S11、选取MSTAR数据集中正常的SAR地物目标图像与SAR背景图像作 为SAR图像;
S12、对步骤S11采集的SAR图像进行切片,得到SAR目标图像数据集。
该进一步方案的有益效果为:
采集图像并进行切片处理,使算法中使用的图像产生最佳的分割或合成效 果,规范数据集。
进一步地,步骤S2具体为:
选取SAR数据集中需要迁移的SAR目标图像作为第一域图像,选取SAR 数据集中需要的SAR风格图像作为第二域图像,完成区域划分。
该进一步方案的有益效果为:
为下述过程中利用改进循环一致性生成对抗网络CycleGAN完成对SAR图 像的迁移合成奠定数据基础。
进一步地,步骤S3具体包括以下分步骤:
S31、构建改进深度卷积生成对抗网络;
S32、构建最小二乘生成对抗网络;
S33、根据改进深度卷积生成对抗网络与最小二乘生成对抗网络构建改进循 环一致性生成对抗网络CycleGAN。
该进一步方案的有益效果为:
利用最小二乘生成对抗网络提供的最小二乘法损失函数稳定训练,作为提 高训练稳定性的关键,保证了正向迁徙过程中的内容不变性,降低对内容变化 的敏感性,保证合成效果,同时利用改进深度卷积生成对抗网络得到生成器与 判别器的结构,并确定最终的激活函数,完成对循环一致性生成对抗网络 CycleGAN的改进。
进一步地,步骤S31具体为:
用卷积层替换深度卷积生成对抗网络中池化层;去除深度卷积生成对抗网 络中全连接层,并使用批归一化调节深度卷积生成对抗网络中层级输出的数据 分布。
该进一步方案的有益效果为:
舍弃了网络结构中的池化层,利用卷积层替换,来增强学***均池化操作;最后是使用批 归一化来调整网络中每一层输出的数据分布情况,通过一层层批归一化控制来 使得模型能够保持数据分布不会发生改变。
通过激活函数为神经网络引入非线性,采用非线性函数,增强神经网络处理 这类复杂任务的能力。
进一步地,步骤S32具体为:
通过最小二乘目标函数构建最小二乘生成对抗网络,最小二乘目标函数表 示为:
其中,为最小化判别器D损失,为固定判别器D后最小化生成器G损失,Pdata(x)为真实样本x服从的分布,Pz(z)为生成样本z服从的分 布,a,b分别为真实样本x和生成样本z的标记,c为让判别器D判别生成样本z为 真实样本x设定的参数,为判别器D将真实样本x判别为生成样本z的 均方差损失,为判别器D将生成样本z判别为真实样本x的均方差损失, D(x)为判别器D判别真实样本x产生的标记值,D(G(z))为判别器D判别生成器的 生成样本产生的标记值。
该进一步方案的有益效果为:
利用最小二乘生成对抗网络提供的最小二乘法损失函数稳定训练,作为提 高训练稳定性的关键,保证了正向迁徙过程中的内容不变性,降低对内容变化 的敏感性,保证合成效果。
进一步地,步骤S33具体为:
根据改进深度卷积生成对抗网络与最小二乘生成对抗网络构建循环一致性 生成对抗网络CycleGAN中成对的生成对抗网络结构,包括:
第一生成器、第一判别器、第二生成器、第二判别器,第一生成器对应第 一判别器,第二生成器对应第二判别器,生成器用于生成符合真实样本的数据 分布,判别器用于判断生成器生成样本是否符合真实样本的数据分布;
生成器依次包括:
第一卷积模块,用于对输入图像依次进行卷积、批归一化以及激活操作;
残差模块,用于对不同分辨率的输入图像进行跳级连接;
反卷积模块,用于对残差模块输出结果进行反卷积操作;
第一输出卷积模块,用于通过激活函数激活输出图像;
判别器包括:
第二卷积模块,用于对输入图像依次进行卷积、批归一化以及激活操作;
第二输出卷积模块,用于通过激活函数激活输出图像。
该进一步方案的有益效果为:
生成器中卷积层完成卷积、批归一化和激活操作,卷积层的作用是通过卷 积层提取目标区域特征,通过批归一化消除前后连接的神经网络中参数的分布 差异影响,增加模型的稳定性,调整残差块可以实现跳级连接,解决收敛速度 慢和网络表现退化的问题,最后的两个反卷积层和一个卷积层完善对输出结果 的卷积优化。
判别器中卷积层完成卷积、批归一化和激活操作,以及对卷积结果的输出。
进一步地,步骤S4具体包括以下分步骤:
S41、将步骤S2中划分SAR目标图像数据集得到的第一域图像作为第一生 成器的输入,生成第二域图像;
S42、利用第一判别器判别当前步骤S41中生成的第二域图像的真假,若为 假则进入步骤S43,若为真则进入步骤S44;
S43、利用循环一致损失函数修正第一生成器与第一判别器的参数,使当前 步骤S41中生成的第二域图像达到那什均衡,进入步骤S44;
S44、将当前生成的第二域图像与步骤S2中划分SAR目标图像数据集得到 的第二域图像作为第二生成器输入,生成第一域图像;
S45、利用第二判别器判断当前步骤S44中生成的第一域图像的真假,若为 假则进入步骤S46,若为真则进入步骤S47;
S46、利用循环一致损失函数修正第二生成器与第二判别器的参数,使当前 步骤S45中生成的第一域图像达到那什均衡,进入步骤S47;
S47、判断循环次数是否满足预设阈值,若满足则结束迁徙合成,否则将当 前第一域图像代替步骤S41中第一生成器的输入,返回步骤S41。
该进一步方案的有益效果为:
通过构建的改进循环一致性生成对抗网络CycleGAN结合双重结构实现循 环一致,并通过加在第一域真图像和第一域假图像之间以及第二域真图像和第 二域假图像之间的循环一致损失函数优化循环过程,保证图像内容的不变形。
进一步地,步骤S43与步骤S46中循环一致损失函数定义式表示为:
其中,Lcyc(G,F)为循环一致性损失函数,为当真实样本y的分布满 足Pdata(y)时,真实样本y与生成样本y*的损失,G(F(y))为真实样本y先经过生 成器F后经过生成器G生成的生成样本y*,为真实样本x的分布符合 Pdata(x)时,真实样本x与生成样本x*的损失,F(G(x))为真实样本x先经过生成 器G后经过生成器F生成的生成样本x*,||·||1为L1范数。
该进一步方案的有益效果为:
整体损失函数包括对抗性损失和循环一致性损失,对抗性损失函数借鉴 LSGAN损失函数,循环一致性损失函数采用L1损失函数,损失函数中对抗性 损失函数为最小二乘损失,将两个域中的图像靠近,使其生成的真实度更高; 通过L1损失函数使迁移过程中降低对内容变化的敏感性,保证迁移合成的效果。
进一步地,步骤S5具体为:
对步骤S4中迁徙合成后的SAR图像中像素点进行符合预设条件的灰度映 射,得到最终合成SAR图像,其中直方图均衡化映射函数表示为:
其中,gk为均衡处理后的灰度级k,fk为均衡处理前的灰度级k,EQ(·)和pf(·) 为灰度映射函数,nk为当前灰度级k的像素个数,L为图像灰度级总数。
该进一步方案的有益效果为:
通过对迁徙合成的SAR图像进行直方图均衡化处理,改善图像的细节以及 空间结构感,提高图像的质感,利用灰度均衡增加了SAR图像局部对比度。
附图说明
图1为本发明提供的一种基于CycleGAN的SAR图像合成方法的整体步骤 流程图;
图2为本发明中步骤S1的分步骤流程图;
图3为本发明中步骤S3的分步骤流程图;
图4为本发明中生成器的结构示意图;
图5为本发明实施例中生成器网络结构示意图;
图6为本发明中判别器的结构示意图;
图7为本发明实施例中判别器的结构示意图;
图8为本发明中步骤S4的分步骤流程图;
图9为本发明实施例中改进循环一致性生成对抗网络CycleGAN循环生成 图像流程示意图;
图10为本发明实施例中第一域输入图像;
图11为本发明实施例中第一域输入图像经过改进循环一致性生成对抗网络CycleGAN生成的第二域图像;
图10为本发明实施例中简单背景迁移SAR图像
图11为本发明实施例中简单背景迁徙不同角度的SAR图像
图12为本发明实施例中对简单背景迁徙不同角度的SAR图像在场景一下 的SAR图像灰度均衡过程效果图;
图13为本发明实施例中对简单背景迁徙不同角度的SAR图像在场景一下 的灰度直方图均衡过程效果图;
图14为本发明实施例中对简单背景迁徙不同角度的SAR图像在场景二下 的SAR图像灰度均衡过程效果图;
图15为本发明实施例中对简单背景迁徙不同角度的SAR图像在场景二下 的灰度直方图均衡过程效果图;
图16为本发明实施例中对简单背景迁徙不同角度的SAR图像在场景三下 的SAR图像灰度均衡过程效果图;
图17为本发明实施例中对简单背景迁徙不同角度的SAR图像在场景三下 的灰度直方图均衡过程效果图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理 解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的 普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精 神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保 护之列。
如图1所示,一种基于CycleGAN的SAR图像合成方法,包括以下步骤S1 至步骤S5:
S1、采集SAR图像,构建SAR目标图像数据集;
如图2所示,本发明实施例中,步骤S1具体包括以下分步骤:
S11、选取MSTAR数据集中正常的SAR地物目标图像与SAR背景图像作 为SAR图像;
实际中,数据集中可采用MSTAR数据集,该数据集包含了多类场景下的地 面目标图像。有防空炮,运输装甲车辆和各式样的坦克目标等,除此外还有一 些地面某些区域图像,有农田,森林等环境图像,在本发明实施例中采集数据 是用机载SAR雷达,采集的SAR图像的成像分辨率是0.3m×0.3m,转化到方位 向和距离向上就是一英尺的成像分辨率,因此在数据集中包含了目标的方位角 和俯仰角分类图像,俯仰角细分为15°和17°两种。
在本发明实施例中仿真流程需要的图像可按照SAR地物目标和光学背景图 像进行收集,SAR地物目标图像可收集:坦克、车辆等不同类型,SAR背景图 像可收集包括森林、植被和湖泊等图像。
S12、对步骤S11采集的SAR图像进行切片,得到SAR目标图像数据集。
实际中,为了规范数据集,需要将所有图像切片为相同大小,从而使图像 产生最佳的分割或合成效果,可对构建的数据集采用如表1所示的规格进行切 片处理,得到SAR目标图像数据集。
表1构建的各类数据集
设计数据集 | 规格 | 数量 |
D7 | 177×178 | 573 |
SAR背景 | 256×256 | 506 |
受损2S1 | 158×158 | 275 |
正常2S1 | 158×158 | 280 |
T72 | 138×139 | 550 |
Bmp | 128×128 | 537 |
S2、对SAR目标图像数据集进行区域划分,得到第一域图像与第二域图像;
本发明实施例中,步骤S2具体为:
选取SAR数据集中需要迁移的SAR目标图像作为第一域图像,选取SAR 数据集中需要的SAR风格图像作为第二域图像,完成区域划分。
S3、构建改进循环一致性生成对抗网络CycleGAN;
如图3所示,本发明实施例中,步骤S3具体包括以下分步骤:
S31、构建改进深度卷积生成对抗网络;
本发明实施例中,步骤S31具体为:
用卷积层替换深度卷积生成对抗网络中池化层;去除深度卷积生成对抗网 络中全连接层,并使用批归一化调节深度卷积生成对抗网络中层级输出的数据 分布。
实际中,深度卷积生成对抗网络DCGAN的融入主要改进循环一致性生成 对抗网络CycleGAN的网络结构和激活函数,并由改进的网络结构确定了最终 的激活函数,深度卷积生成对抗网络DCGAN首先是对GAN进行卷积化,舍弃 了网络结构中的池化层,利用卷积层替换,来增强学***均池化操作;最后是使用批归 一化来调整网络中每一层输出的数据分布情况,通过一层层批归一化控制来使 得模型能够保持数据分布不会发生改变。
基于构建好网络结构得到激活函数,为神经网络引入非线性,由于神经网 络处理任务的复杂性,所以激活函数不能使用线性函数需要采用非线性函数, 增强神经网络处理这类复杂任务的能力,由于tanh函数相较于sigmoid函数而 言,中心范围的收敛速度更为迅速,而relu函数由于导数不变,经常用与梯度 下降算法,使得神经网络学习过程中不会出现梯度消失或***,因此在本发明 实施例中,生成器采用tanh函数作为输出层的激活函数,判别器采用relu函数 作为输出层的激活函数。
S32、构建最小二乘生成对抗网络;
本发明实施例中,步骤S32具体为:
通过最小二乘目标函数构建最小二乘生成对抗网络,最小二乘目标函数表 示为:
其中,为最小化判别器D损失,为固定判别器D后 最小化生成器G损失,Pdata(x)为真实样本x服从的分布,Pz(z)为生成样本z服从 的分布,a,b分别为真实样本x和生成样本z的标记,c为让判别器D判别生成样 本z为真实样本x设定的参数,为判别器D将真实样本x判别为生成样 本z的均方差损失,为判别器D将生成样本z判别为真实样本x的均方 差损失,D(x)为判别器D判别真实样本x产生的标记值,D(G(z))为判别器D判别 生成器的生成样本产生的标记值。
实际中,GAN类模型的训练非常不稳定,容易在训练过程中出现崩塌,陷 入过拟合,多样性变差,针对这些缺陷对GAN进行基于深度卷积神经网络的改 进,可采用最小二乘生成对抗网络LSGAN来改进训练稳定性的关键,并采用最 小二乘损失函数作为稳定训练。
S33、根据改进深度卷积生成对抗网络与最小二乘生成对抗网络构建改进循 环一致性生成对抗网络CycleGAN。
实际中,为了稳定训练,利用最小二乘生成对抗网络构将循环一致性生成 对抗网络CycleGAN的对抗损失函数设为最小二乘损失函数,保证正向迁移过 程中内容的不变性,但是循环一致性损失函数因为涉及到逆向迁移过程中图像 内容的改变,不设置为最小二乘损失,设为L1损失函数,使得迁移过程中降低 对内容变化的敏感性,保证迁移合成的效果,同时根据改进深度卷积生成对抗 网络构建成对的生成器与判别器,从而结合双重循环结构完成循环一致性生成 对抗网络CycleGAN的改进。
本发明实施例中,步骤S33具体为:
根据改进深度卷积生成对抗网络与最小二乘生成对抗网络构建循环一致性 生成对抗网络CycleGAN中成对的生成对抗网络结构,包括:
第一生成器、第一判别器、第二生成器、第二判别器,第一生成器对应第 一判别器,第二生成器对应第二判别器,生成器用于生成符合真实样本的数据 分布,判别器用于判断生成器生成样本是否符合真实样本的数据分布;
如图4所示,生成器依次包括:
第一卷积模块,用于对输入图像依次进行卷积、批归一化以及激活操作;
残差模块,用于对不同分辨率的输入图像进行跳级连接;
反卷积模块,用于对残差模块输出结果进行反卷积操作;
第一输出卷积模块,用于通过激活函数激活输出图像;
实际中,如图5所示,生成器依次包括3个卷积层,9个残差块,2个反卷 积层以及最后的输出卷积层;
卷积层包含的操作是卷积、批归一化和激活,卷积层的作用是通过卷积层提 取目标区域特征,通过批归一化消除前后连接的神经网络中参数的分布差异影 响,增加模型的稳定性,激活层采用relu激活函数;
由于SAR图像存在不同分辨率的数据集,本发明实施例所用数据集输入分 辨率不尽相同,当输入数据集当前输入图像分辨率为128×128,可采用6个残差 块,当输入分辨率为256×256甚至更高时,可采用9个残差块,随着分辨率提 高,需要更多的残差块,因为在图像合成任务需要建立一个图像到图像的恒等 映射,对于神经网络,恒等映射实现比较困难,往往网络在某一阶段的表现趋 于稳定饱和,在下一阶段的表现却又开始下降,通过调整残差块可以实现跳级 连接,解决收敛速度慢和网络表现退化的问题;
两个反卷积层采用relu激活函数,最后一层卷积输出层采用Tanh激活函数 激活生成的输出;其中,生成器及其结构的深度参考表如表2所示。
表2生成器的结构参数
level | Kernel | bias |
c0 | [1,256,256] | [64] |
c1 | [1,128,128] | [128] |
c2 | [1,64,64] | [256] |
r1-r9 | [1,64,64] | [256] |
d1 | [1,128,128] | [128] |
d2 | [1,256,256] | [64] |
d3 | [1,256,256] | [3] |
如图6所示,判别器包括:
第二卷积模块,用于对输入图像依次进行卷积、批归一化以及激活操作;
第二输出卷积模块,用于通过激活函数激活输出图像。
实际中,如图7所示,判别器包括五个卷积层,前四层卷积层分别用于卷积、 批归一化和激活,并采用Leaky-relu激活函数,最后一层为输出卷积层,用于将 卷积结果直接输出,其中,判别器及其结构的深度参考表如表3所示。
表3判别器的结构参数
level | Kernel | bias |
c0 | [1,128,128] | [64] |
c1 | [1,64,64] | [128] |
c2 | [1,32,32] | [256] |
c3 | [1,32,32] | [512] |
c4 | [1,32,32] | [1] |
S4、利用改进循环一致性生成对抗网络CycleGAN对第一域图像与第二域 图像进行迁徙合成,得到迁移合成后的SAR图像;
如图8所示,本发明实施例中,步骤S4具体包括以下分步骤:
S41、将步骤S2中划分SAR目标图像数据集得到的第一域图像作为第一生 成器的输入,生成第二域图像;
实际中,图像处理中要建立A域中的图像到B域中的图像的完全映射是比 较困难的,所以CycleGAN实现的是图像的部分迁移,也称为风格迁移,首先 将图像划分为第一域图像与第二域图像,即得到内容与风格两类图像,本发明 实施例中,如图9所示,以A域图像到B域图像的迁徙过程为例,将A域图像 到B域图像则是将B域图像中的内容信息保留,将A域图像的风格信息迁移到 B域图像中;同理,B域图像迁移到A域图像则是将B域图像中的内容信息保 留,将A域图像的风格信息迁移到B域图像中,以此来达到非配对图像迁移融 合的效果。
S42、利用第一判别器判别当前步骤S41中生成的第二域图像的真假,若为 假则进入步骤S43,若为真则进入步骤S44;
实际中,如图9所示,迁徙合成后的图像不可避免会与原图像存在一定差 异,判别器会将图像判别为0和1,其中0代表生成图像为假,1代表生成图像 为真。
S43、利用循环一致损失函数修正第一生成器与第一判别器的参数,使当前 步骤S41中生成的第二域图像达到那什均衡,进入步骤S44;
实际中,通过循环一致损失函数修正生成器与判别器的参数来使生成器和 判别器达到纳什均衡,即使生成器生成的图像足够真实,使判别器判别结果为0 和1的概率达到50%。
S44、将当前生成的第二域图像与步骤S2中划分SAR目标图像数据集得到 的第二域图像作为第二生成器输入,生成第一域图像;
S45、利用第二判别器判断当前步骤S44中生成的第一域图像的真假,若为 假则进入步骤S46,若为真则进入步骤S47;
S46、利用循环一致损失函数修正第二生成器与第二判别器的参数,使当前 步骤S45中生成的第一域图像达到那什均衡,进入步骤S47;
S47、判断循环次数是否满足预设阈值,若满足则结束迁徙合成,否则将当 前第一域图像代替步骤S41中第一生成器的输入,返回步骤S41。
本发明实施例中,步骤S43与步骤S46中循环一致损失函数定义式表示为:
其中,Lcyc(G,F)为循环一致性损失函数,为当真实样本y的分布满 足Pdata(y)时,真实样本y与生成样本y*的损失,G(F(y))为真实样本y先经过生 成器F后经过生成器G生成的生成样本y*,为真实样本x的分布符合 Pdata(x)时,真实样本x与生成样本x*的损失,F(G(x))为真实样本x先经过生成 器G后经过生成器F生成的生成样本x*,||·||1为L1范数。
实际中,对于改进循环一致性生成对抗网络CycleGAN的循环一致整体损 失函数定义式表示为:
L(G,F,DX,DY)=LGAN(G,DY,X,Y)
+LGAN(F,DX,Y,X)
+λLcyc(G,F)
其中,L(G,F,DX,DY)为循环一致整体损失函数,LGAN(G,DY,X,Y)为第一域X 图像到第二域Y图像的迁移过程的对抗性损失函数,LGAN(F,DX,Y,X)为第二域Y 图像到第一域X图像的迁移过程的对抗性损失函数,Lcyc(G,F)为循环一致性损失 函数,λ为循环一致性损失的权重,DX为分辨第一域X图像的判别器,DY为分 辨生成第二域Y图像的判别器,G为将第一域X图像转换为第二域Y图像的生 成器,F为将第二域Y图像转换为第一域X图像的生成器;
实际中,对抗性损失函数函数以第一域X图像到第二域Y图像的迁移过程 的对抗性损失函数LGAN(G,DY,X,Y)为例,其定义式表示为:
其中,||·||2为L2范数。
实际中,损失函数中对抗性损失函数为最小二乘损失,使用最小二乘损失来 将两个域中的图像靠近,使其生成的真实度更高。但如果对抗损失权重过高, 就无法保证生成迁移图像的结构一致性。通过多次实验发现,图像的变换更加 的侧重于图像中的风格迁移部分,所以在损失函数上会加大循环一致损失的权 重,因此在本发明实施例中设置循环一致性损失函数权重为10,使其不会因为 对抗损失造成中间层输出以及生成图像与原始图像差异很大的情况,并使SAR 图像的迁移合成有一个较好的迁移效果。
实际中,如图9所示,改进循环一致性生成对抗网络CycleGAN的迁徙合 成有两个过程,每个生成器后都有一个判别器,用来判断当前输入图像的真假, 循环一致性主要体现在训练过程中的循环一致性检查,循环一致性检查是添加 在第一域真图像与第一域假图像之间,以及第二域真图像与第二域假图像之间, 通过L1 loss来保护图像内容的不变形。
S5、对迁移合成后的SAR图像进行直方图灰度均衡,得到最终合成SAR 图像。
本发明实施例中,步骤S5具体为:
对步骤S4中迁徙合成后的SAR图像中像素点进行符合预设条件的灰度映 射,得到最终合成SAR图像,其中直方图均衡化映射函数表示为:
其中,gk为均衡处理后的灰度级k,fk为均衡处理前的灰度级k,EQ(·)和pf(·) 为灰度映射函数,nk为当前灰度级k的像素个数,L为图像灰度级总数。
本发明实施例中,直方图均衡化映射函数采用累计分布函数来描述,而对 于累积分布函数定义对连续函数而言,所有小于a的值,其出现的概率和满足: F(a)=P(x≤a)。
实际中,灰度映射函数定义为:g=EQ(f),表示为灰度级为f经均衡处理 后变为g,其中灰度映射需要满足两个约束条件,第一个条件为图像灰度均衡后, 各灰度级保留原始图像的灰度排列信息,即在0≤f≤L-1中变化趋势为单增,第 二个条件为灰度值动态变化的前后一致,即对0≤f≤L-1有0≤g≤L-1。
实际中,如图10与图11所示,迁徙结果会缺少一些细节和空间结构感, 因此需要进行直方图均衡化处理,从而提高图像的质感,使得生成图像更加接 近原始图。
本实施例中,如图12、图13所示,可知,经过直方图均衡优化后可以看到 图像的灰度直方图更贴近真实SAR目标图像,并且匹配后的SSIM指数也从 0.29656降到了0.27191,体现了背景迁移更换后背景的效果。
本发明实施例中,如图13所示,对简单背景迁徙不同角度的SAR图像在 场景一下进行灰度均衡仿真,其量化评估结果如表4所示,
表4场景一SSIM和直方图相似度
场景一的迁移合成图像与SAR背景结构相似度达到了63%,如果不考虑迁 移的目标和阴影区域在迁移合成图像中的比例,迁移合成图像的背景已经达到 了与迁移前SAR背景一致,同时通过图13中可以看到迁移后的合成图像的灰 度分布已经与SAR背景分布基本一致,直方图相似度也达到了55%,与均衡化 处理前的SAR图像的相似度也达到了54%,一定程度上保留了SAR目标和阴 影等结构特征。而均衡化处理前与SAR背景的相似度相比处理后与SAR背景的 相似度要低了0.31,直方图相似度低了0.21左右,所以直方图均衡化的效果是 明显的,提升了生成场景一图像的真实性。
本发明实施例中,如图14、图15所示,对简单背景迁徙不同角度的SAR 图像在场景二下进行灰度均衡仿真,其量化评估结果如表5所示,
表5场景二SSIM和直方图相似度
场景二中由于SAR背景图像中目标所占比例较小,所以相似度会高于场景 一中迁移合成图像与SAR背景结构相似度,最终场景二中的相似度达到了78%, 如果不考虑迁移的目标和阴影区域在迁移合成图像中的比例,场景二的迁移合 成图像的背景已经达到了与迁移前SAR背景一致,同时通过图15中可以看到 迁移后的合成图像的灰度分布已经与SAR背景分布基本一致,直方图相似度也 达到了52%。与均衡化处理前的SAR图像的相似度也达到了64%,保留了SAR 图像中的大部目标和阴影等结构特征。而均衡化处理前与SAR背景的相似度比 处理后与SAR背景的相似度要低了0.30,直方图相似度低了0.29左右,所以直 方图均衡化的效果是明显的,提升了生成场景二图像的真实性。
本发明实施例中,如图16、图17所示,对简单背景迁徙不同角度的SAR 图像在场景三下进行灰度均衡仿真,其量化评估结果如表6所示,
表6场景三SSIM和直方图相似度
场景三中迁移合成图像与场景一迁移合成图像情况较为相似,场景三中合成 图像与SAR背景相似度达到了66%,如果不考虑迁移的目标和阴影区域在迁移 合成图像中的比例,场景三的迁移合成图像的背景已经达到了与迁移前SAR背 景一致,同时通过图17中可以看到迁移后的合成图像的灰度分布已经与SAR 背景分布基本一致,直方图相似度也达到了65%。与均衡化处理前的SAR图像 的相似度也达到了72%,大幅度保留了SAR图像中的结构纹理等特征。而均衡 化处理前与SAR背景的相似度比处理后与SAR背景的相似度要低了0.13,直方 图相似度低了0.38左右,所以直方图均衡化的效果是明显的,提升了生成场景 三图像的真实性。
表4、表5以及表6是对合成图像的背景逼真程度做测试,为了对图像的逼 真度进一步测试,需要对合成图像的目标识别率进行对比,其中表7中真实T72 识别率是对训练中的真实T72图像的识别结果;迁移重建图像的识别率,是对 迁移网络中真实T72图像重建结果的识别结果;迁移合成T72识别率是对最终 的迁移合成图像识别结果。
表7迁移合成T72目标的识别率
本发明实施例中,识别图像中目标类型采用基于模板库的SAR ATR自动识 别***识别,识别目标需要首先建立模板库,利用模板库对图像和特征向量来 进行目标表示,模板库中每个模板提供一种分类假设,利用选择的待检测目标 图像的特征向量与模板进行匹配来完成目标识别分类,识别模板对MSTAR数据 库中的Tank目标进行识别,数据库分别提供了三种坦克(BMP-2步兵战车、 BTR70装甲人员输送车、T-72主战坦克)在不同俯仰角及方位角下的128*128大 小的图像。
建立模板库需要对数据样本进行统计,分别对各目标进行目标特征统计, 提取的特征向量包含了转动惯量,Hu不变矩,仿射不变矩,面积周长比等特征。 采用相似性测度函数来计算目标特征向量和模板库中向量的相似程度。将特征 向量看成目标空间中的点,两点之间的距离与两个向量相似程度的关系是:距 离越大,相似程度越小;距离越小,相似程度越大。
分类测试的数据采用了迁移网络中构建的SART72数据集、迁移网络中重 建的T72图像和迁移网络生成的合成图像,分别提取测试图像的转动惯量、Hu 不变矩、仿射不变矩和面积周长比等特征,基于这些特征对数据集中的真实 SART72图像、对网络中迁移重建的SAR T72图像和迁移合成的SAR T72图像 进行识别分类测试。由于数据集中图像本身带有相干斑噪声,合成图像因为与 真实图像相似,所以也会引入噪声,而相干斑噪声会影响识别方法的效果,所 以识别率会出现一定程度波动,但从表7中可以看到真实图像被成功识别为T72 的概率为74%,迁移重建的T72识别概率为74%,迁移合成T72的概率为72%。 通过对比识别率发现迁移之后的目标与真实SAR图像目标基本无差异。
本发明是参照根据本发明实施例的方法、设备(***)、和计算机程序产品的 流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框 图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。 可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他 可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程 数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程 和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备 以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的 指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流 程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使 得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理, 从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程 或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本发明中应用了具体实施例对本发明的原理及实施方式进行了阐述,以上 实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领 域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有 改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理 解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和 实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种 不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明 的保护范围内。
Claims (10)
1.一种基于CycleGAN的SAR图像合成方法,其特征在于,包括以下步骤:
S1、采集SAR图像,构建SAR目标图像数据集;
S2、对SAR目标图像数据集进行区域划分,得到第一域图像与第二域图像;
S3、构建改进循环一致性生成对抗网络CycleGAN;
S4、利用改进循环一致性生成对抗网络CycleGAN对第一域图像与第二域图像进行迁徙合成,得到迁移合成后的SAR图像;
S5、对迁移合成后的SAR图像进行直方图灰度均衡,得到最终合成SAR图像。
2.根据权利要求1所述的基于CycleGAN的SAR图像合成方法,其特征在于,步骤S1具体包括以下分步骤:
S11、选取MSTAR数据集中正常的SAR地物目标图像与SAR背景图像作为SAR图像;
S12、对步骤S11采集的SAR图像进行切片,得到SAR目标图像数据集。
3.根据权利要求1所述的基于CycleGAN的SAR图像合成方法,其特征在于,步骤S2具体为:
选取SAR数据集中需要迁移的SAR目标图像作为第一域图像,选取SAR数据集中需要的SAR风格图像作为第二域图像,完成区域划分。
4.根据权利要求3所述的基于CycleGAN的SAR图像合成方法,其特征在于,步骤S3具体包括以下分步骤:
S31、构建改进深度卷积生成对抗网络;
S32、构建最小二乘生成对抗网络;
S33、根据改进深度卷积生成对抗网络与最小二乘生成对抗网络构建改进循环一致性生成对抗网络CycleGAN。
5.根据权利要求4所述的基于CycleGAN的SAR图像合成方法,其特征在于,步骤S31具体为:
用卷积层替换深度卷积生成对抗网络中池化层;去除深度卷积生成对抗网络中全连接层,并使用批归一化调节深度卷积生成对抗网络中层级输出的数据分布。
6.根据权利要求4所述的基于CycleGAN的SAR图像合成方法,其特征在于,步骤S32具体为:
通过最小二乘目标函数构建最小二乘生成对抗网络,最小二乘目标函数表示为:
7.根据权利要求4所述的基于CycleGAN的SAR图像合成方法,其特征在于,步骤S33具体为:
根据改进深度卷积生成对抗网络与最小二乘生成对抗网络构建循环一致性生成对抗网络CycleGAN中成对的生成对抗网络结构,包括:
第一生成器、第一判别器、第二生成器、第二判别器,第一生成器对应第一判别器,第二生成器对应第二判别器,生成器用于生成符合真实样本的数据分布,判别器用于判断生成器生成样本是否符合真实样本的数据分布;
生成器依次包括:
第一卷积模块,用于对输入图像依次进行卷积、批归一化以及激活操作;
残差模块,用于对不同分辨率的输入图像进行跳级连接;
反卷积模块,用于对残差模块输出结果进行反卷积操作;
第一输出卷积模块,用于通过激活函数激活输出图像;
判别器包括:
第二卷积模块,用于对输入图像依次进行卷积、批归一化以及激活操作;
第二输出卷积模块,用于通过激活函数激活输出图像。
8.根据权利要求7所述的基于CycleGAN的SAR图像合成方法,其特征在于,步骤S4具体包括以下分步骤:
S41、将步骤S2中划分SAR目标图像数据集得到的第一域图像作为第一生成器的输入,生成第二域图像;
S42、利用第一判别器判别当前步骤S41中生成的第二域图像的真假,若为假则进入步骤S43,若为真则进入步骤S44;
S43、利用循环一致损失函数修正第一生成器与第一判别器的参数,使当前步骤S41中生成的第二域图像达到那什均衡,进入步骤S44;
S44、将当前生成的第二域图像与步骤S2中划分SAR目标图像数据集得到的第二域图像作为第二生成器输入,生成第一域图像;
S45、利用第二判别器判断当前步骤S44中生成的第一域图像的真假,若为假则进入步骤S46,若为真则进入步骤S47;
S46、利用循环一致损失函数修正第二生成器与第二判别器的参数,使当前步骤S45中生成的第一域图像达到那什均衡,进入步骤S47;
S47、判断循环次数是否满足预设阈值,若满足则结束迁徙合成,否则将当前第一域图像代替步骤S41中第一生成器的输入,返回步骤S41。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111130062.0A CN113870157A (zh) | 2021-09-26 | 2021-09-26 | 一种基于CycleGAN的SAR图像合成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111130062.0A CN113870157A (zh) | 2021-09-26 | 2021-09-26 | 一种基于CycleGAN的SAR图像合成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113870157A true CN113870157A (zh) | 2021-12-31 |
Family
ID=78994661
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111130062.0A Pending CN113870157A (zh) | 2021-09-26 | 2021-09-26 | 一种基于CycleGAN的SAR图像合成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113870157A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114511475A (zh) * | 2022-04-21 | 2022-05-17 | 天津大学 | 一种基于改进Cycle GAN的图像生成方法 |
CN115830462A (zh) * | 2023-02-24 | 2023-03-21 | 中国人民解放军国防科技大学 | 基于循环一致性对抗网络的sar图像重构方法及装置 |
CN116503296A (zh) * | 2023-04-04 | 2023-07-28 | 苏州大学 | 一种手术场景图像转换方法 |
CN116778157A (zh) * | 2023-06-13 | 2023-09-19 | 苏州大学 | 矩不变对比循环一致性对抗网络的跨域分割方法及*** |
CN116930884A (zh) * | 2023-09-15 | 2023-10-24 | 西安电子科技大学 | 一种基于光sar图像转换的sar欺骗干扰模板生成及干扰方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109671018A (zh) * | 2018-12-12 | 2019-04-23 | 华东交通大学 | 一种基于生成式对抗网络和ResNets技术的图像转换方法及*** |
CN110503598A (zh) * | 2019-07-30 | 2019-11-26 | 西安理工大学 | 基于条件循环一致性生成对抗网络的字体风格迁移方法 |
CN111275647A (zh) * | 2020-01-21 | 2020-06-12 | 南京信息工程大学 | 一种基于循环生成对抗网络的水下图像复原方法 |
CN111429340A (zh) * | 2020-03-25 | 2020-07-17 | 山东大学 | 一种基于自注意力机制的循环图像翻译方法 |
-
2021
- 2021-09-26 CN CN202111130062.0A patent/CN113870157A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109671018A (zh) * | 2018-12-12 | 2019-04-23 | 华东交通大学 | 一种基于生成式对抗网络和ResNets技术的图像转换方法及*** |
CN110503598A (zh) * | 2019-07-30 | 2019-11-26 | 西安理工大学 | 基于条件循环一致性生成对抗网络的字体风格迁移方法 |
CN111275647A (zh) * | 2020-01-21 | 2020-06-12 | 南京信息工程大学 | 一种基于循环生成对抗网络的水下图像复原方法 |
CN111429340A (zh) * | 2020-03-25 | 2020-07-17 | 山东大学 | 一种基于自注意力机制的循环图像翻译方法 |
Non-Patent Citations (2)
Title |
---|
师永超;朱立军;: "基于GAN的图像风格迁移研究", 电子技术与软件工程, no. 16, pages 140 - 142 * |
白江波等: "基于改进CycleGAN的合成孔径雷达图像仿真", vol. 50, no. 08, pages 1181 - 1186 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114511475A (zh) * | 2022-04-21 | 2022-05-17 | 天津大学 | 一种基于改进Cycle GAN的图像生成方法 |
CN114511475B (zh) * | 2022-04-21 | 2022-08-02 | 天津大学 | 一种基于改进Cycle GAN的图像生成方法 |
CN115830462A (zh) * | 2023-02-24 | 2023-03-21 | 中国人民解放军国防科技大学 | 基于循环一致性对抗网络的sar图像重构方法及装置 |
CN116503296A (zh) * | 2023-04-04 | 2023-07-28 | 苏州大学 | 一种手术场景图像转换方法 |
CN116778157A (zh) * | 2023-06-13 | 2023-09-19 | 苏州大学 | 矩不变对比循环一致性对抗网络的跨域分割方法及*** |
CN116930884A (zh) * | 2023-09-15 | 2023-10-24 | 西安电子科技大学 | 一种基于光sar图像转换的sar欺骗干扰模板生成及干扰方法 |
CN116930884B (zh) * | 2023-09-15 | 2023-12-26 | 西安电子科技大学 | 一种基于光sar图像转换的sar欺骗干扰模板生成及干扰方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111723860B (zh) | 一种目标检测方法及装置 | |
CN109859190B (zh) | 一种基于深度学习的目标区域检测方法 | |
CN107945204B (zh) | 一种基于生成对抗网络的像素级人像抠图方法 | |
CN113870157A (zh) | 一种基于CycleGAN的SAR图像合成方法 | |
CN106845529B (zh) | 基于多视野卷积神经网络的影像特征识别方法 | |
CN112418074A (zh) | 一种基于自注意力的耦合姿态人脸识别方法 | |
CN110097609B (zh) | 一种基于样本域的精细化绣花纹理迁移方法 | |
CN107633226B (zh) | 一种人体动作跟踪特征处理方法 | |
CN111445488B (zh) | 一种弱监督学习自动识别和分割盐体的方法 | |
CN106780485A (zh) | 基于超像素分割和特征学习的sar图像变化检测方法 | |
CN111860236B (zh) | 一种基于迁移学习的小样本遥感目标检测方法及*** | |
CN111027493A (zh) | 一种基于深度学习多网络软融合的行人检测方法 | |
CN112733614B (zh) | 一种带有相似尺寸强化识别的害虫图像检测方法 | |
CN111080678B (zh) | 一种基于深度学习的多时相sar图像变化检测方法 | |
CN110490265B (zh) | 一种基于双路卷积和特征融合的图像隐写分析方法 | |
CN111368769A (zh) | 基于改进锚点框生成模型的船舶多目标检测方法 | |
CN111553837A (zh) | 一种基于神经风格迁移的艺术文本图像生成方法 | |
CN111833322B (zh) | 一种基于改进YOLOv3的垃圾多目标检测方法 | |
CN109872331A (zh) | 一种基于深度学习的遥感图像数据自动识别分类方法 | |
CN113743484A (zh) | 基于空间和通道注意力机制的图像分类方法与*** | |
CN110827312A (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
CN109191418A (zh) | 一种基于收缩自编码器特征学习的遥感图像变化检测方法 | |
CN111401387A (zh) | 异常样本构建方法、装置、计算机设备和存储介质 | |
CN117079098A (zh) | 一种基于位置编码的空间小目标检测方法 | |
CN111310609A (zh) | 基于时序信息和局部特征相似性的视频目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |