CN112634135A - 基于超分辨率风格迁移网络的遥感影像超分辨率重建方法 - Google Patents
基于超分辨率风格迁移网络的遥感影像超分辨率重建方法 Download PDFInfo
- Publication number
- CN112634135A CN112634135A CN202011537739.8A CN202011537739A CN112634135A CN 112634135 A CN112634135 A CN 112634135A CN 202011537739 A CN202011537739 A CN 202011537739A CN 112634135 A CN112634135 A CN 112634135A
- Authority
- CN
- China
- Prior art keywords
- resolution
- super
- image
- remote sensing
- sensing image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013508 migration Methods 0.000 title claims abstract description 43
- 230000005012 migration Effects 0.000 title claims abstract description 43
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000012549 training Methods 0.000 claims abstract description 18
- 230000003213 activating effect Effects 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 8
- 230000004913 activation Effects 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 4
- 230000007547 defect Effects 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 14
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于超分辨率风格迁移网络的遥感影像超分辨率重建方法,包括以下步骤:构建超分辨率风格迁移网络模型;所述超分辨率风格迁移网络模型包括生成部分和判别部分;所述生成部分由超分辨率重建网络SSR和U‑net网络连接而成;利用训练集交替训练所述生成部分和判别部分,得到训练完成的超分辨率风格迁移网络模型;将低分辨率的遥感影像输入至所述训练完成的超分辨率风格迁移网络模型,得到超分辨率遥感影像。本发明克服了传统超分辨率网络模型泛化能力差和重建影像纹理细节丢失等缺点,能够生成清晰度和纹理特征更加接近真实高分辨率遥感图像的重建影像。
Description
技术领域
本发明涉及遥感影像数据处理领域,尤其涉及基于超分辨率风格迁移网络的遥感影像超分辨率重建方法。
背景技术
卫星遥感影像能够快速提供地球表面的信息,但是中、低分辨率的卫星遥感影像对于提取高精度的GIS信息、地图更新、目标识别等具有一定的局限性。高分辨率的卫星遥感影像的发展使得遥感影像的深入应用成为可能,从而为GIS数据的更新、GIS的应用提供了有利的条件。对于地图更新、影像匹配、目标检测等也具有重要意义。
在遥感领域,受成像技术和拍摄设备的影响,高分辨率的遥感影像获取比较困难,往往需要无人机去进行航拍,既耗费了人力也耗费了物力,由此,从算法的角度着手,实现图像超分辨率重建的技术成为了图像处理和计算机视觉等多个领域的热点研究课题。
近年来越来越多的研究人员用深度学习的方法进行超分辨率重建,并且取得了不错的进展,但是在遥感领域,由于卫星拍摄的影像存在着压缩、融合等处理,使得得到的低分辨率遥感影像的纹理细节损失严重,由这些已有的超分辨率重建模型无法恢复卫星拍摄到的低分辨率遥感影像的纹理细节并且无法生成清晰度接近真实高清遥感影像的超分辨率重建影像。
发明内容
针对以上技术问题,因此本发明提出一种超分辨率风格迁移网络,该网络首先利用一系列的小尺寸卷积核对原始低分辨率遥感影像进行一个超分辨率重建处理,再利用风格迁移网络强大的图像到图像转换的能力,把初步超分辨率重建后的影像向真实高分辨率遥感影像转换,并学习真实高分辨率遥感影像的纹理特征,该网络克服了传统超分辨率网络模型泛化能力差和重建影像纹理细节丢失等缺点,最终可以生成清晰度和纹理特征更加接近真实高分辨率遥感图像的重建影像。
本发明提出的一种基于超分辨率风格迁移网络的遥感影像超分辨率重建方法,具体包括以下步骤:
S101:构建超分辨率风格迁移网络模型;所述超分辨率风格迁移网络模型包括生成部分和判别部分;所述生成部分由超分辨率重建网络SSR和U-net网络连接而成;
S102:利用训练集交替训练所述生成部分和判别部分,得到训练完成的超分辨率风格迁移网络模型;
S103:将低分辨率的遥感影像输入至所述训练完成的超分辨率风格迁移网络模型,得到超分辨率遥感影像。
进一步地,所述超分辨率重建网络SSR的构建过程如下:
S201:利用64个尺寸为5*5的卷积核对低分辨率遥感影像real_A进行卷积运算,并使用PRelu激活,得到低分辨率遥感影像real_A对应的原始特征图像;
S202:利用16个尺寸为1*1的卷积核对所述原始特征图像进行通道收缩,并使用PRelu激活,得到收缩后的特征图像;
S203:通过4个卷积层(每层具体由16个尺寸为3*3的卷积核和PRelu激活函数组成)对所述收缩后的特征图像进行非线性映射,得到非线性映射后的特征图像;
S204:利用64个尺寸为1*1的卷积核对所述非线性映射后的特征图像进行通道扩张,并使用PRelu激活,最后进行反卷积处理,得到相较于低分辨率遥感影像real_A放大4倍的初步超分辨率遥感影像SSR_A;初步超分辨率遥感影像SSR_A和原始高分辨率图像real_B尺寸相同。
进一步地,步骤S203中,所述4个卷积层,每层具体由16个尺寸为3*3的卷积核和PRelu激活函数组成。
进一步地,所述生成部分用于生成欺骗判别部分的假图像,具体如下式:
Fake_B=model(SSR_A)
其中model表示一个U-net网络;Fake_B表示初步超分辨率遥感影像SSR_A经过U-net网络风格迁移后的输出图像,即用于生成欺骗判别部分的假图像。
进一步地,步骤S102中,利用训练集交替训练所述生成部分和判别部分,其中生成部分的损失函数计算如下:
loss_G=loss_G_GAN+loss_G_L1+loss_SSR
其中,loss_G_GAN表示初步超分辨率重建图像SSR_A和fake_B图像进行通道合并后输入判别器网络输出值的损失;loss_G_L1是fake_B和原始高分辨率图像real_B之间像素值的损失,所述real_B为训练集中的训练数据;loss_SSR是初步超分辨率重建图像SSR_A和原始高分辨率图像real_B的损失;loss_G即为生成部分的损失。
所述判别部分具体为马尔科夫判别器。
本发明提供的有益效果是:克服了传统超分辨率网络模型泛化能力差和重建影像纹理细节丢失等缺点,能够生成清晰度和纹理特征更加接近真实高分辨率遥感图像的重建影像。
附图说明
图1是基于超分辨率风格迁移网络的遥感影像超分辨率重建方法的流程图;
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地描述。
请参阅图1,图1是本发明基于超分辨率风格迁移网络的遥感影像超分辨率重建方法的流程图,具体包括下面步骤:
S101:构建超分辨率风格迁移网络模型;所述超分辨率风格迁移网络模型包括生成部分和判别部分;所述生成部分由超分辨率重建网络SSR和U-net网络连接而成;
所述超分辨率重建网络SSR的构建过程如下:
S201:利用64个尺寸为5*5的卷积核对低分辨率遥感影像real_A进行卷积运算,并使用PRelu激活,得到低分辨率遥感影像real_A对应的原始特征图像;
S202:利用16个尺寸为1*1的卷积核对所述原始特征图像进行通道收缩,并使用PRelu激活,得到收缩后的特征图像;
S203:通过4个卷积层(每层具体由16个尺寸为3*3的卷积核和PRelu激活函数组成)对所述收缩后的特征图像进行非线性映射,得到非线性映射后的特征图像;
S204:利用64个尺寸为1*1的卷积核对所述非线性映射后的特征图像进行通道扩张,并使用PRelu激活,最后进行反卷积处理,得到相较于低分辨率遥感影像real_A放大4倍的初步超分辨率遥感影像SSR_A;初步超分辨率遥感影像SSR_A和原始高分辨率图像real_B尺寸相同。
S102:利用训练集交替训练所述生成部分和判别部分,得到训练完成的超分辨率风格迁移网络模型;
生成部分(或称为生成器网络)的实现流程:
生成器网络中超分辨率重建部分网络的实现流程为:SSR_A=SSR(real_A)
生成器网络中风格迁移部分网络的实现流程为:fake_B=model(SSR_A)
其中real_A为原始低分辨率遥感图像,SSR为所述超分辨率重建网络,SSR_A为原始低分辨率影像经过超分重建网络输出的初步超分辨率重建影像;model表示一个U-net网络,fake_B为初步超分辨率重建影像经过U-net网络风格迁移后的输出图像。
生成器网络中的损失计算为:
loss_G=loss_G_GAN+loss_G_L1+loss_SSR
其中loss_G_GAN为超分重建图像SSR_A和风格迁移后的fake_B图像进行通道合并后输入判别器网络输出值的BCEWithLogitsLoss,在生成器网络损失计算和参数更新时,保持判别器网络参数不变;loss_G_L1是风格迁移后的fake_B图像和原始高分辨率real_B图像二者像素值的L1Loss;loss_SSR是初步超分辨率重建图像SSR_A和原始高分辨率图像real_B的SmoothL1Loss。最终融合后的loss_G即为我们生成器网络部分的目标函数,在与判别器网络的交替训练中,更新生成器网络的参数。所述判别部分(或称为判别器网络)具体为马尔科夫判别器。
S103:将低分辨率的遥感影像输入至所述训练完成的超分辨率风格迁移网络模型,得到超分辨率遥感影像。
基于上述内容,本发明提供的实施例如下:
S101:构建超分辨率风格迁移网络模型;所述超分辨率风格迁移网络模型包括生成部分和判别部分;所述生成部分由超分辨率重建网络SSR和U-net网络连接而成;
所述超分辨率重建网络SSR的构建过程如下:
S201:利用64个尺寸为5*5的卷积核对低分辨率遥感影像real_A进行卷积运算,并使用PRelu激活,得到低分辨率遥感影像real_A对应的原始特征图像;
具体调用如下函数模块:
torch.nn.Sequential(torch.nn.Conv2d(in_channels=3,out_channels=64,kernel_size=5,stride=1,padding=2),torch.nn.PReLU())
其中in_channels表示输入低分辨率遥感图像的通道数;out_channels表示输出图像的通道数,也表示卷积核的数量;kernel_size表示卷积核的大小;stride表示卷积核移动的步长;padding表示输入的图像边界补0的尺寸,nn.PReLU表示调用PRelu函数对卷积后的图像进行激活。
S202:利用16个尺寸为1*1的卷积核对所述原始特征图像进行通道收缩,并使用PRelu激活,得到收缩后的特征图像;
具体调用如下函数模块:
torch.nn.Sequential(torch.nn.Conv2d(in_channels=64,out_channels=16,kernel_size=1,stride=1,padding=0),torch.nn.PReLU())
S203:通过4个卷积层(每层具体由16个尺寸为3*3的卷积核和PRelu激活函数组成)对所述收缩后的特征图像进行非线性映射,得到非线性映射后的特征图像;
非线性映射调用如下函数模块:
torch.nn.Sequential(torch.nn.Conv2d(in_channels=16,out_channels=16,kernel_size=3,stride=1,padding=1),torchnn.PReLU())
S204:利用64个尺寸为1*1的卷积核对所述非线性映射后的特征图像进行通道扩张,并使用PRelu激活,最后进行反卷积处理,得到相较于低分辨率遥感影像real_A放大4倍的初步超分辨率遥感影像SSR_A;初步超分辨率遥感影像SSR_A和原始高分辨率图像real_B尺寸相同。
调用如下函数模块:
torch.nn.Sequential(torch.nn.Conv2d(in_channels=16,out_channels=64,kernel_size=1,stride=1,padding=0),nn.PReLU())
torch.nn.ConvTranspose2d(in_channels=64,out_channels=3,kernel_size=9,stride=4,padding=3,output_padding=1)
其中output_padding表示输出图像边界补0的尺寸。
S102:利用训练集交替训练所述生成部分和判别部分,得到训练完成的超分辨率风格迁移网络模型;
生成部分(或称为生成器网络)的实现流程:
生成器网络中超分辨率重建部分网络的实现流程为:SSR_A=SSR(real_A)生成器网络中风格迁移部分网络的实现流程为:fake_B=model(SSR_A)
其中real_A为原始低分辨率遥感图像,SSR为所述超分辨率重建网络,SSR_A为原始低分辨率影像经过超分重建网络输出的初步超分辨率重建影像;model表示一个U-net网络,fake_B为初步超分辨率重建影像经过U-net网络风格迁移后的输出图像。
生成器网络中的损失计算为:
loss_G=loss_G_GAN+loss_G_L1+loss_SSR
其中loss_G_GAN为超分重建图像SSR_A和风格迁移后的fake_B图像进行通道合并后输入判别器网络输出值的BCEWithLogitsLoss,调用函数模块为torch.nn.BCEWithLogitsLoss(),在生成器网络损失计算和参数更新时,保持判别器网络参数不变;loss_G_L1是风格迁移后的fake_B图像和原始高分辨率real_B图像二者像素值的L1Loss,调用函数模块为torch.nn.L1loss();loss_SSR是初步超分辨率重建图像SSR_A和原始高分辨率图像real_B的SmoothL1Loss,调用函数模块为torch.nn.SmoothL1loss()。最终融合后的loss_G即为我们生成器网络部分的目标函数,在与判别器网络的交替训练中,更新生成器网络的参数。所述判别部分(或称为判别器网络)具体为马尔科夫判别器。
S103:将低分辨率的遥感影像输入至所述训练完成的超分辨率风格迁移网络模型,得到超分辨率遥感影像。
本发明提供的有益效果是:克服了传统超分辨率网络模型泛化能力差和重建影像纹理细节丢失等缺点,能够生成清晰度和纹理特征更加接近真实高分辨率遥感图像的重建影像。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.基于超分辨率风格迁移网络的遥感影像超分辨率重建方法,其特征在于:具体包括以下步骤:
S101:构建超分辨率风格迁移网络模型;所述超分辨率风格迁移网络模型包括生成部分和判别部分;所述生成部分由超分辨率重建网络SSR和U-net网络连接而成;
S102:利用训练集交替训练所述生成部分和判别部分,得到训练完成的超分辨率风格迁移网络模型;
S103:将低分辨率的遥感影像输入至所述训练完成的超分辨率风格迁移网络模型,得到超分辨率遥感影像。
2.如权利要求1所述的基于超分辨率风格迁移网络的遥感影像超分辨率重建方法,其特征在于:所述超分辨率重建网络SSR的构建过程如下:
S201:利用64个尺寸为5*5的卷积核对低分辨率遥感影像real_A进行卷积运算,并使用PRelu激活,得到低分辨率遥感影像real_A对应的原始特征图像;
S202:利用16个尺寸为1*1的卷积核对所述原始特征图像进行通道收缩,并使用PRelu激活,得到收缩后的特征图像;
S203:通过4个卷积层(每层具体由16个尺寸为3*3的卷积核和PRelu激活函数组成)对所述收缩后的特征图像进行非线性映射,得到非线性映射后的特征图像;
S204:利用64个尺寸为1*1的卷积核对所述非线性映射后的特征图像进行通道扩张,并使用PRelu激活,最后进行反卷积处理,得到相较于低分辨率遥感影像real_A放大4倍的初步超分辨率遥感影像SSR_A;初步超分辨率遥感影像SSR_A和原始高分辨率图像real_B尺寸相同。
3.如权利要求2所述的基于超分辨率风格迁移网络的遥感影像超分辨率重建方法,其特征在于:步骤S203中,所述4个卷积层,每层具体由16个尺寸为3*3的卷积核和PRelu激活函数组成。
4.如权利要求2所述的基于超分辨率风格迁移网络的遥感影像超分辨率重建方法,其特征在于:所述生成部分用于生成欺骗判别部分的假图像,具体如下式:
Fake_B=model(SSR_A)
其中model表示一个U-net网络;Fake_B表示初步超分辨率遥感影像SSR_A经过U-net网络风格迁移后的输出图像,即用于生成欺骗判别部分的假图像。
5.如权利要求4所述的基于超分辨率风格迁移网络的遥感影像超分辨率重建方法,其特征在于:步骤S102中,利用训练集交替训练所述生成部分和判别部分,其中生成部分的损失函数计算如下:
loss_G=loss_G_GAN+loss_G_L1+loss_SSR
其中,loss_G_GAN表示初步超分辨率重建图像SSR_A和fake_B图像进行通道合并后输入判别器网络输出值的损失;loss_G_L1是fake_B和原始高分辨率图像real_B之间像素值的损失,所述real_B为训练集中的训练数据;loss_SSR是初步超分辨率重建图像SSR_A和原始高分辨率图像real_B的损失;loss_G即为生成部分的损失。
6.如权利要求5所述的基于超分辨率风格迁移网络的遥感影像超分辨率重建方法,其特征在于:所述判别部分具体为马尔科夫判别器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011537739.8A CN112634135B (zh) | 2020-12-23 | 2020-12-23 | 基于超分辨率风格迁移网络的遥感影像超分辨率重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011537739.8A CN112634135B (zh) | 2020-12-23 | 2020-12-23 | 基于超分辨率风格迁移网络的遥感影像超分辨率重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112634135A true CN112634135A (zh) | 2021-04-09 |
CN112634135B CN112634135B (zh) | 2022-09-13 |
Family
ID=75321734
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011537739.8A Active CN112634135B (zh) | 2020-12-23 | 2020-12-23 | 基于超分辨率风格迁移网络的遥感影像超分辨率重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112634135B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180075581A1 (en) * | 2016-09-15 | 2018-03-15 | Twitter, Inc. | Super resolution using a generative adversarial network |
CN109949222A (zh) * | 2019-01-30 | 2019-06-28 | 北京交通大学 | 基于语义图的图像超分辨率重建方法 |
CN110136063A (zh) * | 2019-05-13 | 2019-08-16 | 南京信息工程大学 | 一种基于条件生成对抗网络的单幅图像超分辨率重建方法 |
CN110599401A (zh) * | 2019-08-19 | 2019-12-20 | 中国科学院电子学研究所 | 遥感图像超分辨率重建方法、处理装置及可读存储介质 |
EP3611699A1 (en) * | 2018-08-14 | 2020-02-19 | Siemens Healthcare GmbH | Image segmentation using deep learning techniques |
CN110827213A (zh) * | 2019-10-11 | 2020-02-21 | 西安工程大学 | 一种基于生成式对抗网络的超分辨率图像修复方法 |
CN111583109A (zh) * | 2020-04-23 | 2020-08-25 | 华南理工大学 | 基于生成对抗网络的图像超分辨率方法 |
CN111667407A (zh) * | 2020-05-18 | 2020-09-15 | 武汉大学 | 一种深度信息引导的图像超分辨率方法 |
CN111899168A (zh) * | 2020-07-02 | 2020-11-06 | 中国地质大学(武汉) | 一种基于特征增强的遥感影像超分辨率重建方法和*** |
-
2020
- 2020-12-23 CN CN202011537739.8A patent/CN112634135B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180075581A1 (en) * | 2016-09-15 | 2018-03-15 | Twitter, Inc. | Super resolution using a generative adversarial network |
EP3611699A1 (en) * | 2018-08-14 | 2020-02-19 | Siemens Healthcare GmbH | Image segmentation using deep learning techniques |
CN109949222A (zh) * | 2019-01-30 | 2019-06-28 | 北京交通大学 | 基于语义图的图像超分辨率重建方法 |
CN110136063A (zh) * | 2019-05-13 | 2019-08-16 | 南京信息工程大学 | 一种基于条件生成对抗网络的单幅图像超分辨率重建方法 |
CN110599401A (zh) * | 2019-08-19 | 2019-12-20 | 中国科学院电子学研究所 | 遥感图像超分辨率重建方法、处理装置及可读存储介质 |
CN110827213A (zh) * | 2019-10-11 | 2020-02-21 | 西安工程大学 | 一种基于生成式对抗网络的超分辨率图像修复方法 |
CN111583109A (zh) * | 2020-04-23 | 2020-08-25 | 华南理工大学 | 基于生成对抗网络的图像超分辨率方法 |
CN111667407A (zh) * | 2020-05-18 | 2020-09-15 | 武汉大学 | 一种深度信息引导的图像超分辨率方法 |
CN111899168A (zh) * | 2020-07-02 | 2020-11-06 | 中国地质大学(武汉) | 一种基于特征增强的遥感影像超分辨率重建方法和*** |
Non-Patent Citations (3)
Title |
---|
何平等: "基于生成对抗网络的遥感图像居民区分割", 《传感器与微***》 * |
史振威等: "图像超分辨重建算法综述", 《数据采集与处理》 * |
李英等: "基于生成对抗网络的多用途图像增强鲁棒算法", 《计算机应用与软件》 * |
Also Published As
Publication number | Publication date |
---|---|
CN112634135B (zh) | 2022-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110135366B (zh) | 基于多尺度生成对抗网络的遮挡行人重识别方法 | |
Wang et al. | Patchmatchnet: Learned multi-view patchmatch stereo | |
CN111524135B (zh) | 基于图像增强的输电线路细小金具缺陷检测方法及*** | |
CN109241972B (zh) | 基于深度学习的图像语义分割方法 | |
CN110363068B (zh) | 一种基于多尺度循环生成式对抗网络的高分辨行人图像生成方法 | |
CN113870422B (zh) | 一种点云重建方法、装置、设备及介质 | |
CN111353938A (zh) | 一种基于网络反馈的图像超分辨率学习方法 | |
CN113449612B (zh) | 一种基于子流型稀疏卷积的三维目标点云识别的方法 | |
CN116758130A (zh) | 一种基于多路径特征提取和多尺度特征融合的单目深度预测方法 | |
CN113313180A (zh) | 一种基于深度对抗学习的遥感图像语义分割方法 | |
CN116580184A (zh) | 一种基于YOLOv7的轻量化模型 | |
CN115293986A (zh) | 一种多时相遥感图像云区重建方法 | |
CN113034361B (zh) | 一种基于改进esrgan的遥感影像超分重建方法 | |
CN113111740A (zh) | 一种遥感图像目标检测的特征编织方法 | |
CN112634135B (zh) | 基于超分辨率风格迁移网络的遥感影像超分辨率重建方法 | |
CN116823610A (zh) | 一种基于深度学习的水下图像超分辨率生成方法和*** | |
Li et al. | Monocular 3-D Object Detection Based on Depth-Guided Local Convolution for Smart Payment in D2D Systems | |
Zhao et al. | Label freedom: Stable diffusion for remote sensing image semantic segmentation data generation | |
CN115965968A (zh) | 基于知识引导的小样本目标检测识别方法 | |
CN116129234A (zh) | 一种基于注意力的4d毫米波雷达与视觉的融合方法 | |
CN112465836B (zh) | 基于轮廓信息的热红外语义分割无监督领域自适应方法 | |
CN111860668B (zh) | 一种针对原始3d点云处理的深度卷积网络的点云识别方法 | |
CN111047571B (zh) | 一种具有自适应选择训练过程的图像显著目标检测方法 | |
CN115205527A (zh) | 一种基于域适应和超分辨率的遥感图像双向语义分割方法 | |
CN113362240A (zh) | 一种基于轻量级特征金字塔模型的图像修复方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230824 Address after: Room 415, 4th Floor, Building 35, Erlizhuang, Haidian District, Beijing, 100080 Patentee after: BEIJING SPACE-TIME TECHNOLOGY DEVELOPMENT CO.,LTD. Address before: 430000 Lu Mill Road, Hongshan District, Wuhan, Hubei Province, No. 388 Patentee before: CHINA University OF GEOSCIENCES (WUHAN CITY) |