CN109345507B - 一种基于迁移学习的大坝图像裂缝检测方法 - Google Patents
一种基于迁移学习的大坝图像裂缝检测方法 Download PDFInfo
- Publication number
- CN109345507B CN109345507B CN201810972498.6A CN201810972498A CN109345507B CN 109345507 B CN109345507 B CN 109345507B CN 201810972498 A CN201810972498 A CN 201810972498A CN 109345507 B CN109345507 B CN 109345507B
- Authority
- CN
- China
- Prior art keywords
- image
- convolution
- training
- discriminator
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30132—Masonry; Concrete
Landscapes
- Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于迁移学习的大坝图像裂缝检测方法,步骤:收集大坝裂缝图像,通过生成式对抗网络GAN对图像数据集进行预处理以填充数据集;采用不保留顶层全连接层的预训练模型MobileNet来提取图像特征,并在MobileNet后拼接Flatten层,在Flatten层后拼接一层激活函数为ReLU的全连接层,最后拼接一层激活函数为Sigmoid的全连接层作为输出层;对MobileNet中的前K个深度可分解卷积结构进行冻结,固定这K个深度可分解卷积结构的相关权重;对模型进行训练,在模型训练过程中仅更新未冻结的网络层的权重;利用训练好的模型在图像中对大坝裂缝的检测。本发明解决了小数据集情况下的过拟合问题,并通过迁移学习思想提高了预测性能和运行速度。
Description
技术领域
本发明属于图像识别技术领域,特别涉及了一种基于迁移学习的大坝图像裂缝检测方法。
背景技术
我国在水利建设发展方面取得了举世瞩目的成就,大坝作为水利工程的重要组成部分,如何对其进行有效的安全性诊断一直是学界不断探讨的问题。大坝因其基本性质,一直承受着温度梯度和很大的水压、水的冲刷、渗透、侵蚀等,其不可避免地会产生裂缝,坝体内裂缝可能会形成集中渗漏通道,恶化大坝的运行状态,影响坝体的安全,因此对大坝裂缝的检测极其重要。
目前,对大坝监测资料分析方法众多,如多元线性回归、统计模型、确定性模型和混合模型、灰色模型、人工神经网络等,然而这些方法所遇到的普遍问题是当大坝投入使用其处于一个复杂的开放环境中,水下环境复杂,采集的图像具有模糊不清、对比度低、亮度不均等特点,当自变量因子较多且存在多重相关性时,传统回归模型的拟合预测效果较差,人工神经网络算法等具有一定的自适应性且检测效果较好,但是算法实现困难。各种方法均有其适用性,同时针对各方法的局限性,许多学者对此都做出了进一步的改进。近年来,卷积神经网络在图像识别领域的应用越来越受到重视,其可以有效地捕获图像的网络状拓扑,通过卷积自动提取图像特征,经网络逐层分析获得较好的识别效果。
发明内容
为了解决上述背景技术提出的技术问题,本发明旨在提供一种基于迁移学习的大坝图像裂缝检测方法,解决小数据集情况下的过拟合问题,并通过迁移学习思想提高预测性能和运行速度。
为了实现上述技术目的,本发明的技术方案为:
一种基于迁移学习的大坝图像裂缝检测方法,包括以下步骤:
(1)收集大坝裂缝图像,通过生成式对抗网络GAN,对图像数据集进行预处理以填充数据集,从而减小因数据集数量不够而产生过拟合的影响;
(2)构建网络模型:采用不保留顶层全连接层的预训练模型MobileNet来提取图像特征,并在MobileNet后拼接Flatten层,在Flatten层后拼接一层激活函数为ReLU的全连接层,最后拼接一层激活函数为Sigmoid的全连接层作为输出层;MobileNet包含13个深度可分解卷积结构;
(3)对MobileNet中的前K个深度可分解卷积结构进行冻结,固定这K个深度可分解卷积结构的相关权重,1≤K≤13;
(4)模型训练:将损失函数loss设置为对数损失,对模型进行训练,在模型训练过程中仅更新未冻结的网络层的权重;
(5)模型训练完成后,通过使用滑动窗口截取测试图像在不同位置的窗口图像作为输入数据在模型中进行识别,根据输出结果判断该位置是否有裂缝,实现在图像中对大坝裂缝的检测。
进一步地,在步骤(1)中,生成式对抗网络GAN包含一个生成器G和一个判别器D,生成器G接收一个随机的噪声z,通过这个噪声生成新的样本图像,记做G(z);判别器D判别接收的图像的真假,并输出接收图像是真实图像的概率,若输入是真实图像,则输出就越接近1,否则输出越接近0;通过训练使生成式对抗网络GAN达到动态均衡的状态,即生成器G生成的图像接近于真实图像分布,同时判别器D对于给定图像的预测为真的概率接近0.5;训练完成后,利用生成器G输出伪裂缝图填充数据集,对原始图像数据集进行填充。
进一步地,在步骤(1)中,训练生成式对抗网络GAN的过程如下:
(11)在噪声数据分布中随机采样,输入生成器G,得到伪造的裂缝图G(z);
(12)在真实数据分布中随机采样,作为真实数据x;
(13)将前两步中某一步产生的数据作为判别器D的输入,此时判别器D能判别出两者的差异,即D(G(z))接近于0,D(x)接近于1;
(14)训练判别器D是最小化交叉熵的过程,判别器D的损失函数为:
其中,Pdata(x)为真实数据分布,Pg(x)为生成器G的数据分布,E(·)表示数学期望值;则生成器G的损失函数ObjG(θG)=-ObjD(θD,θG);
(15)根据判别器和生成器的损失函数,采用交替优化的方法,先固定生成器G,优化判别器D,使判别器D的判别准确率最大化;然后固定判别器D,优化生成器G,使判别器D的判别准确率最小化;当且仅当Pdata(x)=Pg(x)时达到全局最优解,训练完成。
进一步地,步骤(2)的具体过程如下:
(21)固定MobileNet最开始的输入图像尺寸为128*128*3,其中3为图像深度,MobileNet中的每个深度可分解卷积结构均包含2层卷积层,即首先使用一组2D的卷积核,这一组2D卷积核的数量与输入通道数相同,卷积核的通道数为1,每次仅处理一个输入通道,逐个输入通道卷积处理后,再使用3D的1*1卷积核来处理,将最终输出通道数变为指定的数量;
(22)连接Flatten层,用于将MobileNet的多维输出一维化,得到1*1*1024的列向量;
(23)连接一个具有256个ReLU神经元的连接层和1个Sigmoid神经元的全连接层作为输出层,输出层结点数设置为1,用于解决二分类问题。
进一步地,在步骤(3)中,由于每个深度可分解卷积结构具有2层卷积层,则总共冻结MobileNet中的K*2层顶层,冻结从第一个具有32个3*3卷积核的卷积层与64个1*1卷积核的卷积层的深度可分解卷积结构开始,到第K个具有Y个3*3卷积核与Z个1*1卷积核的深度可分解卷积结构结束,其中
进一步地,在步骤(4)中,采用学习率为1e-3的Adam优化器对模型进行训练,e为自然常数。
采用上述技术方案带来的有益效果:
(1)本发明通过生成式对抗网络解决了因数据集小而造成的过拟合问题;
(2)本发明一方面使用MobileNet替代传统3D卷积进行特征提取,减少了卷积核的冗余表达,同时采用迁移学习思想即冻结MobileNet的几个顶层,减少了运算量与运算时间。
附图说明
图1是本发明的整体流程图;
图2是本发明中GAN模型训练过程图;
图3是本发明中深度可分解卷积结构示意图;
图4是本发明中MobileNet结构示意图;
图5是本发明中串接网络结构示意图。
具体实施方式
以下将结合附图,对本发明的技术方案进行详细说明。
如图1所示,本发明提出的一种基于迁移学习的大坝图像裂缝检测方法,具体步骤如下。
步骤1、收集大坝裂缝图片,在应用中为了减小数据集数量不够而可能产生过拟合的影响,通过GAN对图片数据集进行预处理填充数据集。GAN包含一个生成器G和一个判别器D,生成器接收一个随机的噪声z,通过这个噪声生成新的样本图片,记做G(z);判别器判别接收的图片的真假,输出为接收图片是真实图片的概率,若输入是真样本,则输出就越接近1,输入是假样本,则输出越接近0。在实际应用过程中,通过训练使判别器和生成器的相互“对抗”,使GAN达到动态均衡的状态,即生成器生成的图像接近于真实图像分布,同时判别器对于给定图像的预测为真的概率接近0.5;训练完成后,利用生成器输出的伪裂缝图填充数据集。如图2所示,具体训练过程如下:
(1)在噪声数据分布中随机采样,输入生成器G,得到伪造的裂缝图G(z);
(2)在真实数据分布中随机采样,作为真实数据x;
(3)将前两步中某一步产生的数据作为判别器D的输入,此时判别器D很容易判别出两者的差异,即D(G(z))接近于0,D(x)接近于1;
(4)然后根据得到的概率值计算损失函数,训练判别器D是最小化交叉熵的过程,其损失函数为:
其中,Pdata(x)为真实数据分布,Pg(x)为生成器G的数据分布,E(·)表示数学期望值;则生成器G的损失函数ObjG(θG)=-ObjD(θD,θG);
(5)根据判别器和生成器的损失函数,采用交替优化的方法,即先固定生成器G,优化判别器D,使D的判别准确率最大化;然后固定判别器D,优化生成器G,使D的判别准确率最小化,当且仅当Pdata=Pg时达到全局最优解,训练完成。
步骤2、构建分类网络模型,采用不保留顶层全连接层的预训练模型MobileNet与分类网络进行拼接,MobileNet的每个深度可分解卷积结构中采用一个逐个通道处理的2D卷积层结合3D的1*1卷积层。在MobileNet网络模型基础上串接新的网络层,即MobileNet拼接Flatten层,Flatten层下面拼接一层激活函数为ReLU的全连接层Dense,最后拼接一层激活函数为Sigmoid的全连接层Dense作为输出层,具体构建步骤如下:
(1)创建MobileNet模型用于图像的特征提取,固定网络最开始的输入图像尺寸为128*128*3,其中3为图像深度。MobileNet的网络结构为由13个具有一层逐个通道处理的2D卷积结合一层3D 1*1卷积的深度可分解卷积结构串联拼接成的26层卷积神经网络,其网络结构如图3、4所示,每个深度可分解卷积结构由2层卷积层构成,即首先使用一组二维的卷积核,这一组二维卷积核的数量与输入通道数相同,卷积核的通道数为1,每次仅处理一个输入通道,使用逐个通道卷积处理后,再使用3D的1*1卷积核来处理之前输出的特征图,将最终输出通道数变为指定的数量;
(2)连接Flatten层,用于将MobileNet的多维输出一维化,向全连接层过渡;
(3)连接一个具有256个ReLU神经元的连接层和1个Sigmoid神经元的全连接层作为输出层完成图片的识别任务,即输出层结点数设置为1用于解决二分类问题;这几个模型通过线性堆叠连接,如图5所示。
步骤3、对MobileNet模型中的前K(1≤K≤13)个顶层进行冻结,固定K个冻结层的相关权重然后再进行模型训练。冻结MobileNet的前K个深度可分解卷积结构具体为:由于每个结构具有2层卷积层,则总共冻结MobileNet中的K*2层顶层,即冻结从第一个具有32个3*3卷积核的卷积层与64个1*1卷积核的卷积层的深度可分解卷积结构开始,到第K个具有个3*3卷积核与个1*1点卷积的深度可分解卷积结构结束。
步骤4、模型训练,模型训练中将损失函数loss设置为对数损失,采用学习率为1e-3的Adam优化器即基于适应性矩估计算法的优化器对模型进行训练,利用128*128*3的输入数据,通过MobileNet与Flatten层得到1*1*1024的列向量,最后通过全连接层与输出层得到分类结果,由于MobileNet部分顶层冻结所以在模型训练过程中仅更新其余网络层的权重
步骤5、模型训练完成后,通过使用滑动窗口截取测试图像在不同位置的大小的窗口图像作为输入数据在模型中进行识别,得出输出结果后判断该位置是否有裂缝从而实现在图像中对大坝裂缝的检测。
实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。
Claims (6)
1.一种基于迁移学习的大坝图像裂缝检测方法,其特征在于,包括以下步骤:
(1)收集大坝裂缝图像,通过生成式对抗网络GAN,对图像数据集进行预处理以填充数据集,从而减小因数据集数量不够而产生过拟合的影响;
(2)构建网络模型:采用不保留顶层全连接层的预训练模型MobileNet来提取图像特征,并在MobileNet后拼接Flatten层,在Flatten层后拼接一层激活函数为ReLU的全连接层,最后拼接一层激活函数为Sigmoid的全连接层作为输出层;MobileNet包含13个深度可分解卷积结构;
(3)对MobileNet中的前K个深度可分解卷积结构进行冻结,固定这K个深度可分解卷积结构的相关权重,1≤K≤13;
(4)模型训练:将损失函数loss设置为对数损失,对模型进行训练,在模型训练过程中仅更新未冻结的网络层的权重;
(5)模型训练完成后,通过使用滑动窗口截取测试图像在不同位置的窗口图像作为输入数据在模型中进行识别,根据输出结果判断该位置是否有裂缝,实现在图像中对大坝裂缝的检测。
2.根据权利要求1所述基于迁移学习的大坝图像裂缝检测方法,其特征在于,在步骤(1)中,生成式对抗网络GAN包含一个生成器G和一个判别器D,生成器G接收一个随机的噪声z,通过这个噪声生成新的样本图像,记做G(z);判别器D判别接收的图像的真假,并输出接收图像是真实图像的概率,若输入是真实图像,则输出就越接近1,否则输出越接近0;通过训练使生成式对抗网络GAN达到动态均衡的状态,即生成器G生成的图像接近于真实图像分布,同时判别器D对于给定图像的预测为真的概率接近0.5;训练完成后,利用生成器G输出伪裂缝图填充数据集,对原始图像数据集进行填充。
3.根据权利要求2所述基于迁移学习的大坝图像裂缝检测方法,其特征在于,在步骤(1)中,训练生成式对抗网络GAN的过程如下:
(11)在噪声数据分布中随机采样,输入生成器G,得到伪造的裂缝图G(z);
(12)在真实数据分布中随机采样,作为真实数据x;
(13)将前两步中某一步产生的数据作为判别器D的输入,此时判别器D能判别出两者的差异,即D(G(z))接近于0,D(x)接近于1;
(14)训练判别器D是最小化交叉熵的过程,判别器D的损失函数为:
其中,Pdata(x)为真实数据分布,Pg(x)为生成器G的数据分布;则生成器G的损失函数ObjG(θG)=-ObjD(θD,θG);
(15)根据判别器和生成器的损失函数,采用交替优化的方法,先固定生成器G,优化判别器D,使判别器D的判别准确率最大化;然后固定判别器D,优化生成器G,使判别器D的判别准确率最小化;当且仅当Pdata(x)=Pg(x)时达到全局最优解,训练完成。
4.根据权利要求1所述基于迁移学习的大坝图像裂缝检测方法,其特征在于,步骤(2)的具体过程如下:
(21)固定MobileNet最开始的输入图像尺寸为128*128*3,其中3为图像深度,MobileNet中的每个深度可分解卷积结构均包含2层卷积层,即首先使用一组2D的卷积核,这一组2D卷积核的数量与输入通道数相同,卷积核的通道数为1,每次仅处理一个输入通道,逐个输入通道卷积处理后,再使用3D的1*1卷积核来处理,将最终输出通道数变为指定的数量;
(22)连接Flatten层,用于将MobileNet的多维输出一维化,得到1*1*1024的列向量;
(23)连接一个具有256个ReLU神经元的连接层和1个Sigmoid神经元的全连接层作为输出层,输出层结点数设置为1,用于解决二分类问题。
6.根据权利要求1所述基于迁移学习的大坝图像裂缝检测方法,其特征在于,在步骤(4)中,采用学习率为1e-3的Adam优化器对模型进行训练,e为自然常数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810972498.6A CN109345507B (zh) | 2018-08-24 | 2018-08-24 | 一种基于迁移学习的大坝图像裂缝检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810972498.6A CN109345507B (zh) | 2018-08-24 | 2018-08-24 | 一种基于迁移学习的大坝图像裂缝检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109345507A CN109345507A (zh) | 2019-02-15 |
CN109345507B true CN109345507B (zh) | 2021-07-13 |
Family
ID=65296562
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810972498.6A Active CN109345507B (zh) | 2018-08-24 | 2018-08-24 | 一种基于迁移学习的大坝图像裂缝检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109345507B (zh) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110008338B (zh) * | 2019-03-04 | 2021-01-19 | 华南理工大学 | 一种融合gan和迁移学习的电商评价情感分析方法 |
CN110008554B (zh) * | 2019-03-27 | 2022-10-18 | 哈尔滨工业大学 | 一种基于数值模拟和深度学习的搅拌摩擦焊缝成形预测的工艺参数、焊具结构优化方法 |
CN110147772B (zh) * | 2019-05-23 | 2022-09-20 | 河海大学常州校区 | 一种基于迁移学习的水下坝体表面裂缝识别方法 |
CN110220912A (zh) * | 2019-05-28 | 2019-09-10 | 太原理工大学 | 一种基于深度学习的蓝宝石生长缺陷视觉检测方法 |
CN110458750B (zh) * | 2019-05-31 | 2021-05-25 | 北京理工大学 | 一种基于对偶学习的无监督图像风格迁移方法 |
CN110489661B (zh) * | 2019-07-24 | 2022-04-26 | 武汉大学 | 一种基于生成对抗网络和迁移学习的社交关系预测方法 |
CN110490249B (zh) * | 2019-08-16 | 2022-06-07 | 哈尔滨工业大学 | 基于属性类别关系和少样本元学习的结构损伤识别方法 |
CN110544251B (zh) * | 2019-09-08 | 2021-02-09 | 河海大学 | 基于多迁移学习模型融合的大坝裂缝检测方法 |
CN110796634A (zh) * | 2019-09-10 | 2020-02-14 | 中国三峡建设管理有限公司 | 大坝状态检测方法、装置、计算机设备和可读存储介质 |
CN110738235B (zh) * | 2019-09-16 | 2023-05-30 | 平安科技(深圳)有限公司 | 肺结核判定方法、装置、计算机设备及存储介质 |
CN110675374B (zh) * | 2019-09-17 | 2022-05-03 | 电子科技大学 | 一种基于生成对抗网络的二维图像污水流量检测方法 |
CN110956591B (zh) * | 2019-11-06 | 2021-07-27 | 河海大学 | 一种基于深度卷积生成对抗网络的大坝裂缝图像数据增强方法 |
CN111209620B (zh) * | 2019-12-30 | 2021-11-16 | 浙江大学 | 含裂纹结构剩余承载力及裂纹扩展路径的预测方法 |
CN111402196A (zh) * | 2020-02-10 | 2020-07-10 | 浙江工业大学 | 一种基于对抗生成网络的轴承滚子图像生成方法 |
CN111861906B (zh) * | 2020-06-22 | 2023-10-31 | 长安大学 | 一种路面裂缝图像虚拟增广模型建立及图像虚拟增广方法 |
CN111985299B (zh) * | 2020-06-29 | 2022-10-18 | 山东浪潮科学研究院有限公司 | 一种基于改进卷积神经网络的口罩识别方法及装置 |
CN112036472A (zh) * | 2020-08-28 | 2020-12-04 | 长安大学 | 一种电力***视觉图像分类方法及*** |
CN112101432B (zh) * | 2020-09-04 | 2022-06-07 | 西北工业大学 | 一种基于深度学习的材料显微图像与性能双向预测方法 |
CN112381787A (zh) * | 2020-11-12 | 2021-02-19 | 福州大学 | 一种基于迁移学习的钢板表面缺陷的分类方法 |
CN112487903B (zh) * | 2020-11-23 | 2023-07-04 | 中国信息通信科技集团有限公司 | 基于对抗网络的步态数据生成方法及设备 |
CN112861881A (zh) * | 2021-03-08 | 2021-05-28 | 太原理工大学 | 一种基于改进MobileNet模型的蜂窝肺识别方法 |
CN113284107B (zh) * | 2021-05-25 | 2022-10-11 | 重庆邮电大学 | 一种引入注意力机制改进型U-net的混凝土裂缝实时检测方法 |
CN113592000A (zh) * | 2021-08-03 | 2021-11-02 | 成都理工大学 | 基于卷积对抗神经网络的裂缝识别技术 |
CN113822880A (zh) * | 2021-11-22 | 2021-12-21 | 中南大学 | 一种基于深度学习的裂缝识别方法 |
CN116188973B (zh) * | 2022-12-16 | 2024-02-13 | 深圳大学 | 认知生成机制裂缝检测方法 |
CN115953672B (zh) * | 2023-03-13 | 2024-02-27 | 南昌工程学院 | 一种水下大坝表面裂缝识别方法 |
CN116443682B (zh) * | 2023-06-20 | 2023-08-25 | 兰州理工大学 | 一种智能电梯控制*** |
CN116956191A (zh) * | 2023-07-18 | 2023-10-27 | 重庆交通大学 | 一种大坝监测数据异常识别及重构方法 |
CN117876334B (zh) * | 2024-01-12 | 2024-07-09 | 黑龙江大学 | 基于动态蛇形卷积的智能驾驶道路裂缝检测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107945118A (zh) * | 2017-10-30 | 2018-04-20 | 南京邮电大学 | 一种基于生成式对抗网络的人脸图像修复方法 |
CN108010030A (zh) * | 2018-01-24 | 2018-05-08 | 福州大学 | 一种基于深度学习的航拍图像绝缘子实时检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10360470B2 (en) * | 2016-10-10 | 2019-07-23 | Gyrfalcon Technology Inc. | Implementation of MobileNet in a CNN based digital integrated circuit |
-
2018
- 2018-08-24 CN CN201810972498.6A patent/CN109345507B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107945118A (zh) * | 2017-10-30 | 2018-04-20 | 南京邮电大学 | 一种基于生成式对抗网络的人脸图像修复方法 |
CN108010030A (zh) * | 2018-01-24 | 2018-05-08 | 福州大学 | 一种基于深度学习的航拍图像绝缘子实时检测方法 |
Non-Patent Citations (1)
Title |
---|
基于迁移学习和显著性检测的盲道识别;李林等;《计算机工程与应用》;20180531;8-14 * |
Also Published As
Publication number | Publication date |
---|---|
CN109345507A (zh) | 2019-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109345507B (zh) | 一种基于迁移学习的大坝图像裂缝检测方法 | |
CN110188685B (zh) | 一种基于双注意力多尺度级联网络的目标计数方法及*** | |
CN109086824B (zh) | 一种基于卷积神经网络的海底底质声呐图像分类方法 | |
CN110163302B (zh) | 基于正则化注意力卷积神经网络的示功图识别方法 | |
CN112699847A (zh) | 基于深度学习的人脸特征点检测方法 | |
CN112052886A (zh) | 基于卷积神经网络的人体动作姿态智能估计方法及装置 | |
CN112561796B (zh) | 基于自注意生成对抗网络的激光点云超分辨率重建方法 | |
CN110458844A (zh) | 一种低光照场景的语义分割方法 | |
CN111507884A (zh) | 一种基于深层卷积神经网络的自适应图像隐写分析方法及*** | |
CN105528638A (zh) | 灰色关联分析法确定卷积神经网络隐层特征图个数的方法 | |
CN111861906B (zh) | 一种路面裂缝图像虚拟增广模型建立及图像虚拟增广方法 | |
CN108596818B (zh) | 一种基于多任务学习卷积神经网络的图像隐写分析方法 | |
CN106503661B (zh) | 基于烟花深度信念网络的人脸性别识别方法 | |
CN110490265B (zh) | 一种基于双路卷积和特征融合的图像隐写分析方法 | |
CN108399430B (zh) | 一种基于超像素和随机森林的sar图像舰船目标检测方法 | |
CN113408423A (zh) | 适用于tx2嵌入式平台的水产品目标实时检测方法 | |
CN111161224A (zh) | 基于深度学习的铸件内部缺陷分级评估***及方法 | |
CN107563430A (zh) | 一种基于稀疏自动编码器和灰度关联分析法的卷积神经网络算法优化方法 | |
Jin et al. | Defect identification of adhesive structure based on DCGAN and YOLOv5 | |
CN117036875B (zh) | 一种基于融合注意力gan的红外弱小移动目标生成算法 | |
CN115860113B (zh) | 一种自对抗神经网络模型的训练方法及相关装置 | |
CN107766858A (zh) | 一种应用合成孔径雷达图像进行船舶检测的方法 | |
CN116895016A (zh) | 一种sar图像船舶目标生成与分类方法 | |
CN112862946A (zh) | 基于级联条件生成对抗网络的灰度岩心图像三维重建方法 | |
CN114529484B (zh) | 针对成像中直流分量变化的深度学习样本增强方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |