CN110097110A - 一种基于目标优化的语义图像修复方法 - Google Patents
一种基于目标优化的语义图像修复方法 Download PDFInfo
- Publication number
- CN110097110A CN110097110A CN201910341570.XA CN201910341570A CN110097110A CN 110097110 A CN110097110 A CN 110097110A CN 201910341570 A CN201910341570 A CN 201910341570A CN 110097110 A CN110097110 A CN 110097110A
- Authority
- CN
- China
- Prior art keywords
- image
- result
- semantic
- repaired
- objective
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于目标优化的语义图像修复方法,该方法是以网络结构优化和修复过程优化为主要目标。在网络结构优化方面,通过移除Context‑Encoder中的通道连接层、添加并联空洞卷积层和设置符合人类感官层次的损失函数的方式,使整个网络在尽量捕获更多图像语义特征的同时保留其空间关系。在修复过程优化方面,通过图像语义分割网络捕获待修复图像中的特定目标,在利用泛化模型对整张图像进行修复的同时可以针对捕获到的目标进行修复优化操作,从而使修复结果具备更高的可靠性和准确性。本发明既保留了图像的空间信息,也针对特定的目标进行修复优化,进而有效地解决了常规修复方法中存在的语义混乱问题。
Description
技术领域
本发明涉及数字图像处理的技术领域,尤其是指一种基于目标优化的语义图像修复方法。
背景技术
卷积神经网络是基于人工神经网络提出的。人工神经网络模拟人的神经***,由一定数量的神经元构成。在一个监督学***面hw,b(x),通过这个超平面可以将输入的所有图像数据进行分类。
一个神经元是神经网络中的一个运算单元,它实质上就是一个函数。如图1所示,为一个神经元的示意图:
有3个输入x1、x2、x3,+1是一个偏置值,输出f是激活函数,w为每个输入所占的比重,b为偏置值,这里的激活函数用的是sigmoid函数:
人工神经网络就是由多个上述的神经元组合成的,如图2所示,为一个小型的人工神经网络的示意图:
图中的卷积神经网络中,输入就是一幅幅的图像,权值w就是卷积模板, 为不同神经元的权重,一般是卷积层和下采样层交替,最后是全连接的神经网络,也就是上述经典的人工神经网络。如图3所示,为一个简单的卷积神经网络示意图:
图中,卷积层对图像进行信息提取,池化层用于增大图像的感受野,全连接层将中间层映射为特定维度的输出。
Context-Encoder是神经网络的一种,它是最早的用于图像修复的深度学习网络,它的主要贡献在于将生成式对抗网络的对抗思想引入到图像修复领域。Context-Encoder的主要结构包含一个编码器和一个解码器。网络结构比较一致,从头到尾使用的都是卷积层。到目前为止,Context-Encoder仍然被很广泛地用于图像修复的研究。
Context-Encoder网络结构中通道连接层丢失了图像的空间信息,且无法针对图像中的特定目标进行单独修复,以上两个因素使得修复结果存在局部模糊的问题。针对以上问题,本发明提出一种更适用于图像修复的解决方案。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提出了一种基于目标优化的语义图像修复方法,能够针对图像中的特定目标进行优化的图像修复,可以有效解决普通修复算法在特定情况下的语义混乱问题。
为实现上述目的,本发明所提供的技术方案为:一种基于目标优化的语义图像修复方法,该方法是以网络结构优化和修复过程优化为主要目标,在网络结构优化方面,通过移除Context-Encoder中的通道连接层、添加并联空洞卷积层和设置符合人类感官层次的损失函数的方式,使整个网络在尽量捕获更多图像语义特征的同时保留其空间关系,在修复过程优化方面,通过图像语义分割网络捕获待修复图像中的特定目标,在利用泛化模型对整张图像进行修复的同时能够针对捕获到的目标进行修复优化操作,从而使修复结果具备更高的可靠性和准确性;其包括以下步骤:
1)通过线性插值对输入图像和掩膜进行预处理,使所有图像满足网络输入要求;
2)将输入图像与掩膜相结合,获得缺失图像;
3)对缺失图像进行第一次修复操作,获取修复结果;
4)利用语义分割网络对第一次修复结果进行修复,获取图像中的特定目标;
5)分离图像中的特定目标,使用特定网络进行修复,获取第二次修复结果;
6)将第一次修复结果和第二次修复结果在目标区域的位置进行融合,得到最终修复结果。
在步骤1)中,利用线性插值将任意大小的RGB图像调整为256×256大小的图像,其核心思想是在两个方向上分别进行一次线性插值,线性插值操作流程及公式如下:
已知图像矩阵数据上存在四个点(x0,y0)、(x0,y1)、(x1,y0)、(x1,y1),f(x0,y0)、f(x0,y1)、f(x1,y0)、f(x1,y1)分别为四个点对应的值;
对横坐标为x0的y轴方向进行线性插值的计算公式如下:
式中,Z1表示计算结果,v表示计算插值结果的点离坐标(x0,y0)的y轴方向距离;
对横坐标为x1的y轴方向进行线性插值的计算公式如下:
式中,Z2为计算结果,v表示计算插值结果的点离坐标(x1,y0)的y轴方向的距离;
对x轴方向进行线性插值的计算公式如下:
式中,Z为最终的插值结果,u表示计算差值结果的点离x0的x轴方向的距离。
在步骤2)中,图像与掩膜相结合的实施方式为像素级操作,对于与掩膜中黑色区域对应的图像位置,保留其像素值;对于与掩膜中白色区域对应的位置,使用图像像素平均值进行填充。
在步骤3)中,第一次修复操作通过改进的Context-Encoder结构进行,改进的具体方式是:将编码器中间三层普通卷积操作改为并联空洞卷积,并联空洞卷积设置不同的步长,能够捕获到不同层次的语义特征。
在步骤4)中,特定目标获取操作通过成熟的语义分割网络DeepLabV2进行,分割结果包含图像中不同目标所在的位置及区域,目标的设定需要在模型训练的时候进行指定。
在步骤5)中,分离操作通过像素点级的切割进行,修复操作通过使用改进的Context-Encoder结构进行,模型训练过程中使用的数据集为与特定目标对应的同类数据集;其中,改进的Context-Encoder结构的具体方式是:将编码器中间三层普通卷积操作改为并联空洞卷积,并联空洞卷积设置不同的步长,能够捕获到不同层次的语义特征。
在步骤6)中,融合操作具体实现方式是利用特定目标修复结果替换整幅图像修复结果对应位置的内容。
本发明与现有技术相比,具有如下优点与有益效果:
1、通过空洞卷积使网络感受到更大范围内的图像信息的同时不造成信息损失。
2、通过为并联结构设置不同的步长获取到图像不同维度的语义特征,有利于修复过程的进行。
3、取消通道连接层,保留了特征图中的图像空间信息。
4、添加感官损失函数,使特征提取过程更加可靠。
5、针对待修复图像中的特定目标进行优化,解决常规修复算法语义混乱的问题。
附图说明
图1为背景技术中一个神经元的示意图。
图2为背景技术中一个小型的人工神经网络的示意图。
图3为背景技术中一个简单的卷积神经网络示意图。
图4为本发明方法所使用的网络结构示意图。
图5为本发明方法的流程图。
图6为目标优化过程的示意图。
图7为本发明方法的输入与输出案例。
具体实施方式
下面结合具体实施例对本发明作进一步说明。
在介绍本发明以前,需要对Context-Encoder网络结构进行介绍。Context-Encoder网络结构包含卷积层、通道连接层和去卷积层。卷积核的大小以3×3为主在实现局部感受野的同时也能保证有效降低网络结构参数数量。
如图4所示为本发明方法中所使用的网络结构,该结构相对于Context-Encoder的区别在于取消网络中的通道连接层,并添加了并联空洞卷积层。取消通道连接层的原因是经过通道连接层以后图像的空间信息会被打乱;添加空洞卷积的原因是空洞卷积可以使网络感受到更大范围内的图像信息的同时不造成信息损失;使用并联结构的原因在于通过并联设置不同的步长可以捕获到图像不同维度的特征。
本实施例所提供的基于目标优化的语义图像修复方法,具体是以网络结构优化和修复过程优化为主要目标。在网络结构优化方面,通过移除Context-Encoder中的通道连接层、添加并联空洞卷积层和设置符合人类感官层次的损失函数的方式,使整个网络在尽量捕获更多图像语义特征的同时保留其空间关系。在修复过程优化方面,通过图像语义分割网络DeepLabV2捕获待修复图像中的特定目标,在利用泛化模型对整张图像进行修复的同时可以针对捕获到的目标进行修复优化操作,从而使修复结果具备更高的可靠性和准确性。其包括以下步骤:
1)通过线性插值对输入图像进行预处理,使所有图像满足网络输入要求;其中,利用线性插值将任意大小的RGB图像调整为256×256大小的图像,其核心思想是在两个方向上分别进行一次线性插值,线性插值操作流程及公式如下:
已知图像矩阵数据上存在四个点(x0,y0)、(x0,y1)、(x1,y0)、(x1,y1),f(x0,y0)、f(x0,y1)、f(x1,y0)、f(x1,y1)分别为四个点对应的值;
对横坐标为x0的y轴方向进行线性插值的计算公式如下:
式中,Z1表示计算结果,v表示计算插值结果的点离坐标(x0,y0)的y轴方向距离;
对横坐标为x1的y轴方向进行线性插值的计算公式如下:
式中,Z2为计算结果,v表示计算插值结果的点离坐标(x1,y0)的y轴方向的距离;
对x轴方向进行线性插值的计算公式如下:
式中,Z为最终的插值结果,Z2与Z1分别为之前的计算结果,u表示计算差值结果的点离x0的x轴方向的距离。
2)对于图像和掩膜实施像素级的结合操作。其中,所述结合操作具体方式为对于与掩膜中黑色区域对应的图像位置,保留其像素值;对于与掩膜中白色区域对应的位置,使用图像像素平均值进行填充。
3)通过改进的Context-Encoder结构针对上一步得到的缺失图像进行修复操作。其中,所述改进结构的内容包括为将编码器中间三层普通卷积操作改为并联空洞卷积,并联空洞卷积设置不同的步长,可以捕获到不同层次的语义特征。
4)通过成熟的语义分割网络DeepLabV2针对上一步得到的修复进行进行分割。其中,所述分割操作获得的结果包含图像中不同目标所在的位置及区域,目标的设定需要在模型训练的时候进行指定。
5)通过像素点级的切割方式对上一步获取到的目标进行分离操作,并针对分理处的目标进行图像修复。其中,所述修复操作通过使用改进的Context-Encoder结构进行,模型训练过程中使用的数据集为与特定目标对应的同类数据集。
6)将特定目标修复结果与整幅图像修复结果相融合。其中,所述融合操作具体实现方式为利用特定目标修复结果替换整幅图像修复结果对应位置的内容。
如图5所示的具体操作流程。首先,利用输入图像与掩膜图像进行像素级操作获取缺失图像,然后对缺失图像进行第一次修复,对修复的结果进行语义分割获取到缺失图像中特定目标的位置。接下来,按照目标的位置提取对应区域的掩膜并利用特定的修复网络针对目标进行修复,将目标修复得到的结果与上述第一次修复结果进行拼接,即可得到最终的修复结果。修复过过程中的分支及网络使用如图6所示。
输入与输出的图像效果请参见图7所示。
综上所述,本发明实质是通过以下五种方式生成一种用于进行图像修复的新型网络:
1)通过空洞卷积使网络感受到更大范围内的图像信息的同时不造成信息损失;
2)通过为并联结构设置不同的步长获取到图像不同维度的语义特征,有利于修复过程的进行;
3)取消通道连接层,保留特征图中的图像空间信息;
4)添加感官损失函数,使特征提取过程更加可靠;
5)针对待修复图像中的特定目标进行优化,解决常规修复算法语义混乱的问题。
以上所述之实施例子只为本发明之较佳实施例,并非以此限制本发明的实施范围,故凡依本发明之形状、原理所作的变化,均应涵盖在本发明的保护范围内。
Claims (7)
1.一种基于目标优化的语义图像修复方法,其特征在于:该方法是以网络结构优化和修复过程优化为主要目标,在网络结构优化方面,通过移除Context-Encoder中的通道连接层、添加并联空洞卷积层和设置符合人类感官层次的损失函数的方式,使整个网络在尽量捕获更多图像语义特征的同时保留其空间关系,在修复过程优化方面,通过图像语义分割网络捕获待修复图像中的特定目标,在利用泛化模型对整张图像进行修复的同时能够针对捕获到的目标进行修复优化操作,从而使修复结果具备更高的可靠性和准确性;其包括以下步骤:
1)通过线性插值对输入图像和掩膜进行预处理,使所有图像满足网络输入要求;
2)将输入图像与掩膜相结合,获得缺失图像;
3)对缺失图像进行第一次修复操作,获取修复结果;
4)利用语义分割网络对第一次修复结果进行修复,获取图像中的特定目标;
5)分离图像中的特定目标,使用特定网络进行修复,获取第二次修复结果;
6)将第一次修复结果和第二次修复结果在目标区域的位置进行融合,得到最终修复结果。
2.根据权利要求1所述的一种基于目标优化的语义图像修复方法,其特征在于:在步骤1)中,利用线性插值将任意大小的RGB图像调整为256×256大小的图像,其核心思想是在两个方向上分别进行一次线性插值,线性插值操作流程及公式如下:
已知图像矩阵数据上存在四个点(x0,y0)、(x0,y1)、(x1,y0)、(x1,y1),f(x0,y0)、f(x0,y1)、f(x1,y0)、f(x1,y1)分别为四个点对应的值;
对横坐标为x0的y轴方向进行线性插值的计算公式如下:
式中,Z1表示计算结果,v表示计算插值结果的点离坐标(x0,y0)的y轴方向距离;
对横坐标为x1的y轴方向进行线性插值的计算公式如下:
式中,Z2为计算结果,v表示计算插值结果的点离坐标(x1,y0)的y轴方向的距离;
对x轴方向进行线性插值的计算公式如下:
式中,Z为最终的插值结果,u表示计算差值结果的点离x0的x轴方向的距离。
3.根据权利要求1所述的一种基于目标优化的语义图像修复方法,其特征在于:在步骤2)中,图像与掩膜相结合的实施方式为像素级操作,对于与掩膜中黑色区域对应的图像位置,保留其像素值;对于与掩膜中白色区域对应的位置,使用图像像素平均值进行填充。
4.根据权利要求1所述的一种基于目标优化的语义图像修复方法,其特征在于:在步骤3)中,第一次修复操作通过改进的Context-Encoder结构进行,改进的具体方式是:将编码器中间三层普通卷积操作改为并联空洞卷积,并联空洞卷积设置不同的步长,能够捕获到不同层次的语义特征。
5.根据权利要求1所述的一种基于目标优化的语义图像修复方法,其特征在于:在步骤4)中,特定目标获取操作通过语义分割网络DeepLabV2进行,分割结果包含图像中不同目标所在的位置及区域,目标的设定需要在模型训练的时候进行指定。
6.根据权利要求1所述的一种基于目标优化的语义图像修复方法,其特征在于:在步骤5)中,分离操作通过像素点级的切割进行,修复操作通过使用改进的Context-Encoder结构进行,模型训练过程中使用的数据集为与特定目标对应的同类数据集;其中,改进的Context-Encoder结构的具体方式是:将编码器中间三层普通卷积操作改为并联空洞卷积,并联空洞卷积设置不同的步长,能够捕获到不同层次的语义特征。
7.根据权利要求1所述的一种基于目标优化的语义图像修复方法,其特征在于:在步骤6)中,融合操作具体实现方式是利用特定目标修复结果替换整幅图像修复结果对应位置的内容。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910341570.XA CN110097110B (zh) | 2019-04-26 | 2019-04-26 | 一种基于目标优化的语义图像修复方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910341570.XA CN110097110B (zh) | 2019-04-26 | 2019-04-26 | 一种基于目标优化的语义图像修复方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110097110A true CN110097110A (zh) | 2019-08-06 |
CN110097110B CN110097110B (zh) | 2021-07-20 |
Family
ID=67445970
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910341570.XA Expired - Fee Related CN110097110B (zh) | 2019-04-26 | 2019-04-26 | 一种基于目标优化的语义图像修复方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110097110B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021035979A1 (zh) * | 2019-08-23 | 2021-03-04 | 平安科技(深圳)有限公司 | 边缘学习的图像填充方法、装置、终端及可读存储介质 |
CN113298734A (zh) * | 2021-06-22 | 2021-08-24 | 云南大学 | 一种基于混合空洞卷积的图像修复方法及*** |
CN113538273A (zh) * | 2021-07-13 | 2021-10-22 | 荣耀终端有限公司 | 图像处理方法及图像处理装置 |
WO2022247702A1 (zh) * | 2021-05-28 | 2022-12-01 | 杭州睿胜软件有限公司 | 图像处理方法及装置、电子设备和存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018078213A1 (en) * | 2016-10-27 | 2018-05-03 | Nokia Technologies Oy | A method for analysing media content |
CN108629789A (zh) * | 2018-05-14 | 2018-10-09 | 华南理工大学 | 一种基于VggNet的显著目标检测方法 |
CN108985269A (zh) * | 2018-08-16 | 2018-12-11 | 东南大学 | 基于卷积和空洞卷积结构的融合网络驾驶环境感知模型 |
CN109598754A (zh) * | 2018-09-29 | 2019-04-09 | 天津大学 | 一种基于深度卷积网络的双目深度估计方法 |
-
2019
- 2019-04-26 CN CN201910341570.XA patent/CN110097110B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018078213A1 (en) * | 2016-10-27 | 2018-05-03 | Nokia Technologies Oy | A method for analysing media content |
CN108629789A (zh) * | 2018-05-14 | 2018-10-09 | 华南理工大学 | 一种基于VggNet的显著目标检测方法 |
CN108985269A (zh) * | 2018-08-16 | 2018-12-11 | 东南大学 | 基于卷积和空洞卷积结构的融合网络驾驶环境感知模型 |
CN109598754A (zh) * | 2018-09-29 | 2019-04-09 | 天津大学 | 一种基于深度卷积网络的双目深度估计方法 |
Non-Patent Citations (2)
Title |
---|
SATOSHI IIZUKA ETC.: ""Globally and Lolly Consistent Image Completion"", 《ACM TRANSACTIONS ON GRAPHICS》 * |
张浩等: ""基于空洞卷积的快速背景自动更换"", 《计算机应用》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021035979A1 (zh) * | 2019-08-23 | 2021-03-04 | 平安科技(深圳)有限公司 | 边缘学习的图像填充方法、装置、终端及可读存储介质 |
WO2022247702A1 (zh) * | 2021-05-28 | 2022-12-01 | 杭州睿胜软件有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN113298734A (zh) * | 2021-06-22 | 2021-08-24 | 云南大学 | 一种基于混合空洞卷积的图像修复方法及*** |
CN113298734B (zh) * | 2021-06-22 | 2022-05-06 | 云南大学 | 一种基于混合空洞卷积的图像修复方法及*** |
CN113538273A (zh) * | 2021-07-13 | 2021-10-22 | 荣耀终端有限公司 | 图像处理方法及图像处理装置 |
CN113538273B (zh) * | 2021-07-13 | 2023-09-19 | 荣耀终端有限公司 | 图像处理方法及图像处理装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110097110B (zh) | 2021-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110097110A (zh) | 一种基于目标优化的语义图像修复方法 | |
CN111968053B (zh) | 基于门控卷积生成对抗网络的图像修复方法 | |
CN111292264B (zh) | 一种基于深度学习的图像高动态范围重建方法 | |
CN108986050A (zh) | 一种基于多分支卷积神经网络的图像和视频增强方法 | |
CN115797931A (zh) | 一种基于双分支特征融合的遥感图像语义分割方法 | |
CN107977932A (zh) | 一种基于可鉴别属性约束生成对抗网络的人脸图像超分辨率重建方法 | |
CN107945118A (zh) | 一种基于生成式对抗网络的人脸图像修复方法 | |
CN110458844A (zh) | 一种低光照场景的语义分割方法 | |
CN109360155A (zh) | 基于多尺度特征融合的单帧图像去雨方法 | |
CN108460746A (zh) | 一种基于结构和纹理分层预测的图像修复方法 | |
CN108230278A (zh) | 一种基于生成对抗网络的图像去雨滴方法 | |
CN108682017A (zh) | 基于Node2Vec算法的超像素图像边缘检测方法 | |
CN111626918B (zh) | 一种基于语义分割网络技术对数字图像进行风格变化的方法及*** | |
CN110223234A (zh) | 基于级联收缩扩张的深度残差网络图像超分辨率重建方法 | |
CN110751075A (zh) | 一种基于实例分割的遥感影像养殖塘检测方法 | |
CN108615228A (zh) | 基于混合神经网络的人脸图像补全方法 | |
CN109583507A (zh) | 一种基于深度卷积神经网络的猪体识别方法 | |
CN108304786A (zh) | 一种基于二值化卷积神经网络的行人检测方法 | |
CN103971329A (zh) | 一种基于遗传优化细胞神经网络的多源图像融合方法 | |
CN108537747A (zh) | 一种基于带对称跨层连接的卷积神经网络的图像修复方法 | |
CN112967178A (zh) | 一种图像转换方法、装置、设备及存储介质 | |
CN110059769A (zh) | 用于街景理解的基于像素重排重建的语义分割方法及*** | |
CN112884758B (zh) | 一种基于风格迁移方法的缺陷绝缘子样本生成方法及*** | |
CN109903373A (zh) | 一种基于多尺度残差网络的高质量人脸生成方法 | |
CN112560624A (zh) | 基于模型深度集成的高分遥感影像语义分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210720 |