CN117237334B - 一种基于深度学习的手机镜头杂光检测方法 - Google Patents
一种基于深度学习的手机镜头杂光检测方法 Download PDFInfo
- Publication number
- CN117237334B CN117237334B CN202311481518.7A CN202311481518A CN117237334B CN 117237334 B CN117237334 B CN 117237334B CN 202311481518 A CN202311481518 A CN 202311481518A CN 117237334 B CN117237334 B CN 117237334B
- Authority
- CN
- China
- Prior art keywords
- image
- model
- stray light
- mobile phone
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000013135 deep learning Methods 0.000 title claims abstract description 26
- 238000012549 training Methods 0.000 claims abstract description 36
- 238000001514 detection method Methods 0.000 claims abstract description 25
- 230000004313 glare Effects 0.000 claims abstract description 18
- 238000012545 processing Methods 0.000 claims abstract description 7
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 6
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 230000006870 function Effects 0.000 claims description 16
- 238000004422 calculation algorithm Methods 0.000 claims description 14
- 238000005457 optimization Methods 0.000 claims description 9
- 239000013598 vector Substances 0.000 claims description 9
- 238000011176 pooling Methods 0.000 claims description 8
- 238000005315 distribution function Methods 0.000 claims description 6
- 230000003213 activating effect Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 claims 1
- 238000013136 deep learning model Methods 0.000 abstract description 6
- 238000005516 engineering process Methods 0.000 abstract description 6
- 238000003672 processing method Methods 0.000 abstract description 4
- 230000006872 improvement Effects 0.000 abstract description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000008439 repair process Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000000149 argon plasma sintering Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000008358 core component Substances 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 125000001475 halogen functional group Chemical group 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003071 parasitic effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及镜头检测技术领域,具体涉及到一种基于深度学习的手机镜头杂光检测方法,包括以下步骤:收集若干包含杂光的图像作为训练数据,对收集的图像进行人工标记;对收集到的图像进行预处理;设计卷积神经网络作为基本框架来构建杂光检测模型;利用数据集进行杂光检测模型的训练;将训练好的杂光检测模型应用于手机镜头拍摄的实际图像中,以检测手机镜头是否存在杂光问题。本发明的基于深度学习的手机镜头杂光检测方法通过收集大量的训练数据和优化深度学习模型,可以准确地检测和定位杂光区域,并采取相应的图像处理方法来改善图像的质量。随着深度学习技术的不断进步和手机硬件的提升,该技术将在手机镜头图像处理领域发挥更大的作用。
Description
技术领域
本发明涉及镜头检测技术领域,具体涉及到一种基于深度学习的手机镜头杂光检测方法。
背景技术
基于深度学习的镜头杂光检测是指使用深度学习算法来检测和降低由于镜头散射引起的图像杂光问题。
镜头杂光是指在摄影或图像采集过程中,由于光线被镜头折射或反射产生的不均匀亮度分布。这可能导致图像中出现明亮的斑点、光晕、光斑等现象,影响图像的质量和细节。
为了减少或消除镜头杂光问题,可以尝试以下方法:
使用逆光遮蔽:当拍摄时有强烈的光源,可以使用遮蔽物将光源遮挡住,减少直接照射到镜头的光线。
调整拍摄角度:改变拍摄的角度和位置,尽量避免光线直接照射到镜头表面,以减少杂光的产生。
使用遮光罩或光圈:一些相机配备了专门的遮光罩或光圈附件,可以帮助减少光线的散射和反射,从而减轻镜头杂光问题。
使用滤镜或偏振镜:滤镜或偏振镜可以有效地减少镜头杂光,通过选择适合的滤镜类型,可以根据不同的拍摄场景来减少杂光问题。
后期处理:使用图像处理软件进行后期修复,可以采用去除杂光、增加对比度、调整色彩平衡等操作来降低镜头杂光对图像的影响。
需要注意的是,镜头杂光问题可能因镜头质量、光线条件、拍摄环境等因素而有所差异。在实际应用中,可以尝试不同的方法或结合多种方法,根据具体情况选择适合的处理方式来改善图像的质量。
基于深度学习的镜头杂光检测方法可以通过训练一个深度神经网络模型来学习和识别图像中的镜头杂光特征。一般来说,可以使用带有和不带有镜头杂光的图像对模型进行训练,通过网络的前向传播和反向传播来优化网络参数,使其能够准确地区分出带有镜头杂光和未带有镜头杂光的图像。
在实际应用中,深度学习模型可以应用于图像预处理阶段,通过检测和降低图像中的镜头杂光,提高图像质量和细节。例如,在摄影后期处理中,可以使用深度学习算法来自动检测并修复图像中的镜头杂光问题。
总结来说,基于深度学习的镜头杂光检测方法可以通过训练深度神经网络模型来识别和降低图像中由镜头散射引起的杂光问题,提高图像质量和细节表现。
发明内容
本发明的目的在于至少解决现有技术中存在的技术问题之一,提供一种基于深度学习的手机镜头杂光检测方法。
为实现上述目的,本发明采用的技术方案如下:一种基于深度学习的手机镜头杂光检测方法,包括以下步骤:
步骤1,收集若干包含杂光的图像作为训练数据,对收集的图像进行人工标记;
步骤2,对收集到的图像进行预处理,使用数据增强生成对抗网络DAGAN进行数据增强;
步骤3,设计了包含两个卷积层,两个最大池化层,两个激活层,一个全连接层的卷积神经网络作为基本框架来构建杂光检测模型;
步骤4,利用数据集进行杂光检测模型的训练,使用AngleAdam优化算法不断调整模型参数;
步骤5,将训练好的杂光检测模型应用于手机镜头拍摄的实际图像中,以检测手机镜头是否存在杂光问题。
进一步的,在步骤2中,引入了数据增强生成对抗网络DAGAN进行数据增强;
隐向量和输入图像类别/>作为输入,输出生成的图像/>和生成图像的类别/>,其中/>表示生成网络,/>表示隐向量/>的概率分布函数,/>表示输入图像类别/>的生成概率分布函数;/>表示分类网络,输出为生成图像和输入图像的标签,Real表示该图像为输入图像,Fake表示该图像为生成图像;DAGAN的训练分为两个阶段第一阶段为数据生成阶段,生成网络和判别网络优化相反的目标函数,在不断的对抗中达到平衡;
对于判别网络其损失函数如下:
其中表示数学期望,/>为正则化项,具体形式如下:
其中,表示输入图像类别/>的判别概率分布,/>表示判别网络中间某一层的输出,即要在相同类别的前提下,生成数据和真实数据特征应当相近;第二阶段为分类训练阶段,第一段训练完成后,生成网络已经学习到真实数据分布;在此阶段,生成网络将不再进行训练,仅仅作为一个数据的提供者,生成的数据和真实数据一起训练分类网络;第二阶段的判别网络的损失函数由两部分构成,分别是真实数据和生成数据:
其中,
。
进一步的,在步骤3中,将卷积操作用在图像处理中,给定一个图像和一个卷积核/>,卷积操作的定义为:
其中,分别表示卷积核的高度和宽度,/>表示高度和宽度像素位置,表示输入图像/>在/>处的值,/>表示在卷积核的位置,/>表示卷积核在/>处的值,/>表示在/>位置卷积操作的输出值;
输入图像和卷积核/>的定义为:
其中,为卷积操作的输出值。
进一步的,在步骤3中,在卷积操作的基础上,引入卷积核的滑动步长和零填充,以抽取特征;
假设输入图像的尺寸为,卷积核大小为/>,步长为/>,在输入图像周围补充/>个0 ,则输入大小为:
其中,为高度,/>为宽度。
进一步的,在步骤3中,通过池化作用是进行特征选择,降低特征数量,减少参数量;
对于每个特征,将其划分很多区域,这些区域可以重叠,也可以不重叠。
进一步的,对拍摄到的图像进行杂光检测,收集到并标记的训练数据集为,一共收集到/>张图像;/>表示图像,/>为标记,其取值为0或者1,当为0时,表示该图像中无杂光,反之有杂光;为了让模型能够有效训练,将损失函数定义为:
用表示的模型,对于任何一张输入图像/>,有/>;
Pi表示模型输出的值,在0和1之间,当其越接近1表示模型认为图像包含杂光,越接近0表示模型认为/>图像不包含杂光;/>表示整个模型的参数,当模型的参数确定好了,通过模型用来预测新图像中是否包含杂光。
进一步的,为了确定模型的参数,使用AngleAdam算法,其在优化过程中考虑了两个连续梯度之间的角度,将角度信息用到参数向量的更新中;角系数计算如下:
其中表示连续两次梯度/>和/>之间的角度,而/>是一个非线性函数,其计算方法如下:
取的值为0.8;
步骤如下:
步骤1.1,随机初始化,设置一阶矩/>为0,二阶矩/>为0,迭代次数/>为0,一阶矩/>和二阶矩/>的指数衰减率,设置终止阈值/>,学习速率/>和精度值/>;
步骤1.2,
步骤1.3,若,算法终止;否则继续,/>;
步骤1.4,使用公式更新/>中的参数,回到步骤1.2;
其中,和/>分别表示一阶矩和二阶矩衰减值;将训练数据集输入到模型中,通过所述AngleAdam算法确定模型的参数/>,之后使用训练好的模型对图像进行杂光检测。
本发明的有益效果:由上述对本发明的描述可知,与现有技术相比,本发明的基于深度学习的手机镜头杂光检测方法通过收集大量的训练数据和优化深度学习模型,可以准确地检测和定位杂光区域,并采取相应的图像处理方法来改善图像的质量。并且,随着深度学习技术的不断进步和手机硬件的提升,该技术将在手机镜头图像处理领域发挥更大的作用。
附图说明
图1为本发明优选实施例中一种基于深度学习的手机镜头杂光检测方法的步骤流程图。
具体实施方式
下面将结合本发明实施例中的附图对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的描述中,需要说明的是,术语“上”、“下”、“内”、“外”、“顶/底端”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“设置有”、“套设/接”、“连接”等,应做广义理解,例如“连接”,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
参照图1所示,本发明的优选实施例,一种基于深度学习的手机镜头杂光检测方法,包括以下步骤:
步骤1,收集若干包含杂光的图像作为训练数据,对收集的图像进行人工标记;
步骤2,对收集到的图像进行预处理,使用数据增强生成对抗网络DAGAN进行数据增强;
步骤3,设计了包含两个卷积层,两个最大池化层,两个激活层,一个全连接层的卷积神经网络作为基本框架来构建杂光检测模型;
步骤4,利用数据集进行杂光检测模型的训练,使用AngleAdam优化算法不断调整模型参数;
步骤5,将训练好的杂光检测模型应用于手机镜头拍摄的实际图像中,以检测手机镜头是否存在杂光问题。
本发明的基于深度学习的手机镜头杂光检测方法通过收集大量的训练数据和优化深度学习模型,可以准确地检测和定位杂光区域,并采取相应的图像处理方法来改善图像的质量。并且,随着深度学习技术的不断进步和手机硬件的提升,该技术将在手机镜头图像处理领域发挥更大的作用。
具体的,步骤1,数据收集:收集大量包含杂光的图像作为训练数据,数据集应具有充足的样本量和良好的标注质量。这些图像可以通过实际拍摄或模拟产生,具有不同的光线条件和杂光程度。数据标记:深度学习的手机镜头杂光检测需要大量的数据用于模型训练与测试,对收集到的图像进行人工标记。
具体的,步骤2,数据预处理:对收集到的图像进行预处理,包括缩放、裁剪、调整亮度等操作,以确保输入到深度学习模型的数据具有一致性和可比性。
具体的,步骤3,构建深度学习模型:使用卷积神经网络“CNN”作为基本框架构建杂光检测模型。卷积层是卷积神经网络的核心组成部分,通过对输入图像与一系列可学习的卷积核进行卷积操作,提取图像的局部特征。卷积操作将卷积核在图像上滑动,并对每个位置的像素进行加权求和,得到对应的特征映射。在卷积层后,通常会引入非线性激活函数,如ReLU“Rectified Linear Unit”,用于引入非线性变换,增强模型的表达能力。池化层用于降低特征图的空间维度,减少参数量,同时保留主要特征。全连接层将前面的卷积层和池化层的输出连接起来,并通过一系列全连接层进行分类。为了防止模型过拟合,可以在全连接层之间添加Dropout层,随机将一部分节点置零,增强模型的泛化能力。
作为本发明的优选实施例,其还可具有以下附加技术特征:
在本实施例中,在步骤2中,引入了数据增强生成对抗网络DAGAN进行数据增强;
隐向量和输入图像类别/>作为输入,输出生成的图像/>和生成图像的类别/>,其中/>表示生成网络,/>表示隐向量/>的概率分布函数,/>表示输入图像类别/>的生成概率分布函数;/>表示分类网络,输出为生成图像和输入图像的标签,Real表示该图像为输入图像,Fake表示该图像为生成图像;DAGAN的训练分为两个阶段第一阶段为数据生成阶段,生成网络和判别网络优化相反的目标函数,在不断的对抗中达到平衡;
对于判别网络其损失函数如下:
其中表示数学期望,/>为正则化项,具体形式如下:
其中,表示输入图像类别/>的判别概率分布,/>表示判别网络中间某一层的输出,即要在相同类别的前提下,生成数据和真实数据特征应当相近;第二阶段为分类训练阶段,第一段训练完成后,生成网络已经学习到真实数据分布;在此阶段,生成网络将不再进行训练,仅仅作为一个数据的提供者,生成的数据和真实数据一起训练分类网络;第二阶段的判别网络的损失函数由两部分构成,分别是真实数据和生成数据:
其中,
。
在本实施例中,在步骤3中,将卷积操作用在图像处理中,给定一个图像和一个卷积核/>,卷积操作的定义为:
其中,分别表示卷积核的高度和宽度,/>表示高度和宽度像素位置,表示输入图像/>在/>处的值,/>表示在卷积核的位置,/>表示卷积核在/>处的值,/>表示在/>位置卷积操作的输出值;
输入图像和卷积核/>的定义为:
其中,为卷积操作的输出值。
在本实施例中,在步骤3中,在卷积操作的基础上,引入卷积核的滑动步长和零填充,以抽取特征;
假设输入图像的尺寸为,卷积核大小为/>,步长为/>,在输入图像周围补充/>个0 ,则输入大小为:
其中,为高度,/>为宽度。
在本实施例中,在步骤3中,通过池化作用是进行特征选择,降低特征数量,减少参数量;
对于每个特征,将其划分很多区域,这些区域可以重叠,也可以不重叠。
在本实施例中,对拍摄到的图像进行杂光检测,收集到并标记的训练数据集为,一共收集到/>张图像;/>表示图像,/>为标记,其取值为0或者1,当为0时,表示该图像中无杂光,反之有杂光;为了让模型能够有效训练,将损失函数定义为:
用表示的模型,对于任何一张输入图像/>,有/>;
Pi表示模型输出的值,在0和1之间,当其越接近1表示模型认为图像包含杂光,越接近0表示模型认为/>图像不包含杂光;/>表示整个模型的参数,当模型的参数确定好了,通过模型用来预测新图像中是否包含杂光。
在本实施例中,为了确定模型的参数,使用AngleAdam算法,其在优化过程中考虑了两个连续梯度之间的角度,将角度信息用到参数向量的更新中;角系数计算如下:
其中表示连续两次梯度/>和/>之间的角度,而/>是一个非线性函数,其计算方法如下:
取的值为0.8;
步骤如下:
步骤1.1,随机初始化,设置一阶矩/>为0,二阶矩/>为0,迭代次数/>为0,一阶矩/>和二阶矩/>的指数衰减率,设置终止阈值/>,学习速率/>和精度值/>;
步骤1.2,
步骤1.3,若,算法终止;否则继续,/>;
步骤1.4,使用公式更新/>中的参数,回到步骤1.2;
其中,和/>分别表示一阶矩和二阶矩衰减值;将训练数据集输入到模型中,通过所述AngleAdam算法确定模型的参数/>,之后使用训练好的模型对图像进行杂光检测。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其改进构思加以等同替换或改变,都应涵盖在本发明的保护范围内。
Claims (6)
1.一种基于深度学习的手机镜头杂光检测方法,其特征在于,包括以下步骤:
步骤1,收集若干包含杂光的图像作为训练数据,对收集的图像进行人工标记;
步骤2,对收集到的图像进行预处理,使用数据增强生成对抗网络DAGAN进行数据增强;
步骤3,设计了包含两个卷积层,两个最大池化层,两个激活层,一个全连接层的卷积神经网络作为基本框架来构建杂光检测模型;
步骤4,利用数据集进行杂光检测模型的训练,使用AngleAdam优化算法不断调整模型参数;
步骤5,将训练好的杂光检测模型应用于手机镜头拍摄的实际图像中,以检测手机镜头是否存在杂光问题;
具体的:
对拍摄到的图像进行杂光检测,收集到并标记的训练数据集为(xi,ti),0≤i≤I,一共收集到I张图像;xi表示图像,ti为标记,其取值为0或者1,当为0时,表示该图像中无杂光,反之有杂光;为了让模型能够有效训练,将损失函数定义为:
用F表示的模型,对于任何一张输入图像xi,有pi=F(xi);
pi表示模型输出的值,在0和1之间,当其越接近1表示模型认为xi图像包含杂光,越接近0表示模型认为xi图像不包含杂光;θ∈RG表示整个模型的参数,当模型的参数确定好了,通过模型用来预测新图像中是否包含杂光。
2.根据权利要求1所述的一种基于深度学***衡;
对于判别网络其损失函数如下:
其中E表示数学期望,Lfm为正则化项,具体形式如下:
其中,pc表示输入图像类别y的判别概率分布,f(x)表示判别网络中间某一层的输出,即要在相同类别的前提下,生成数据和真实数据特征应当相近;第二阶段为分类训练阶段,第一段训练完成后,生成网络已经学习到真实数据分布;在此阶段,生成网络将不再进行训练,仅仅作为一个数据的提供者,生成的数据和真实数据一起训练分类网络;第二阶段的判别网络的损失函数由两部分构成,分别是真实数据和生成数据:
LC'=Ldata+Lgen
其中,
3.根据权利要求1所述的一种基于深度学习的手机镜头杂光检测方法,其特征在于,在步骤3中,将卷积操作用在图像处理中,给定一个图像X∈RM×N和一个卷积核W∈RU×V,卷积操作的定义为:
其中,U,V分别表示卷积核的高度和宽度,i,j表示高度和宽度像素位置,xi-u+1,j-v+1表示输入图像X在i,j处的值,u,v表示在卷积核的位置,wu,v表示卷积核W在u,v处的值,yi,j表示在i,j位置卷积操作的输出值;
输入图像X和卷积核W的定义为:
Y=W*X
其中,Y为卷积操作的输出值。
4.根据权利要求1所述的一种基于深度学习的手机镜头杂光检测方法,其特征在于,在步骤3中,在卷积操作的基础上,引入卷积核的滑动步长和零填充,以抽取特征;
假设输入图像的尺寸为M×N,卷积核大小为U×V,步长为S,在输入图像周围补充P个0,则输入大小为:
其中,OH为高度,OW为宽度。
5.根据权利要求1所述的一种基于深度学习的手机镜头杂光检测方法,其特征在于,在步骤3中,通过池化作用是进行特征选择,降低特征数量,减少参数量;
对于每个特征Y∈ROH×OW,将其划分很多区域,这些区域可以重叠,也可以不重叠。
6.根据权利要求1所述的一种基于深度学习的手机镜头杂光检测方法,其特征在于,为了确定模型的参数θ∈RG,使用AngleAdam算法,其在优化过程中考虑了两个连续梯度之间的角度,将角度信息用到参数向量的更新中;角系数计算如下:
其中Bt表示连续两次梯度gt和gt-1之间的角度,而K是一个非线性函数,其计算方法如下:
取σ的值为0.8;
步骤如下:
步骤1.1,随机初始化θ,设置一阶矩m0为0,二阶矩v0为0,迭代次数t为0,一阶矩β1和二阶矩β2的指数衰减率,设置终止阈值ε,学习速率α和精度值κ;
步骤1.2,
mt←β1·mt-1+(1-β1)·gt
步骤1.3,若J(θ)≤ε,算法终止;否则继续,t←t+1;
步骤1.4,使用公式更新θ中的参数,回到步骤1.2;
其中,和/>分别表示一阶矩和二阶矩衰减值;将训练数据集输入到模型中,通过所述AngleAdam算法确定模型的参数θ,之后使用训练好的模型对图像进行杂光检测。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311481518.7A CN117237334B (zh) | 2023-11-09 | 2023-11-09 | 一种基于深度学习的手机镜头杂光检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311481518.7A CN117237334B (zh) | 2023-11-09 | 2023-11-09 | 一种基于深度学习的手机镜头杂光检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117237334A CN117237334A (zh) | 2023-12-15 |
CN117237334B true CN117237334B (zh) | 2024-03-26 |
Family
ID=89082841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311481518.7A Active CN117237334B (zh) | 2023-11-09 | 2023-11-09 | 一种基于深度学习的手机镜头杂光检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117237334B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108564109A (zh) * | 2018-03-21 | 2018-09-21 | 天津大学 | 一种基于深度学习的遥感图像目标检测方法 |
CN109741307A (zh) * | 2018-12-27 | 2019-05-10 | 宁波舜宇光电信息有限公司 | 摄像模组的杂光检测方法、杂光检测装置及杂光检测*** |
CN110210555A (zh) * | 2019-05-29 | 2019-09-06 | 西南交通大学 | 基于深度学习的钢轨鱼鳞伤损检测方法 |
EP3611699A1 (en) * | 2018-08-14 | 2020-02-19 | Siemens Healthcare GmbH | Image segmentation using deep learning techniques |
CN111784671A (zh) * | 2020-06-30 | 2020-10-16 | 天津大学 | 基于多尺度深度学习的病理图像病灶区域检测方法 |
CN113553972A (zh) * | 2021-07-29 | 2021-10-26 | 青岛农业大学 | 一种基于深度学习的苹果病害诊断方法 |
CN113688787A (zh) * | 2021-09-14 | 2021-11-23 | 青岛农业大学 | 花生叶片病害识别方法 |
CN115410157A (zh) * | 2022-09-02 | 2022-11-29 | 东华理工大学 | 一种物料输送巷道异物视觉检测方法 |
CN115564950A (zh) * | 2022-09-29 | 2023-01-03 | 中北大学 | 基于深度学习的小样本火箭弹粘接缺陷检测方法 |
CN116843650A (zh) * | 2023-07-04 | 2023-10-03 | 上海交通大学 | 融合aoi检测与深度学习的smt焊接缺陷检测方法及*** |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111654368B (zh) * | 2020-06-03 | 2021-10-08 | 电子科技大学 | 一种基于深度学习生成对抗网络的密钥生成方法 |
US11580646B2 (en) * | 2021-03-26 | 2023-02-14 | Nanjing University Of Posts And Telecommunications | Medical image segmentation method based on U-Net |
-
2023
- 2023-11-09 CN CN202311481518.7A patent/CN117237334B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108564109A (zh) * | 2018-03-21 | 2018-09-21 | 天津大学 | 一种基于深度学习的遥感图像目标检测方法 |
EP3611699A1 (en) * | 2018-08-14 | 2020-02-19 | Siemens Healthcare GmbH | Image segmentation using deep learning techniques |
CN109741307A (zh) * | 2018-12-27 | 2019-05-10 | 宁波舜宇光电信息有限公司 | 摄像模组的杂光检测方法、杂光检测装置及杂光检测*** |
CN110210555A (zh) * | 2019-05-29 | 2019-09-06 | 西南交通大学 | 基于深度学习的钢轨鱼鳞伤损检测方法 |
CN111784671A (zh) * | 2020-06-30 | 2020-10-16 | 天津大学 | 基于多尺度深度学习的病理图像病灶区域检测方法 |
CN113553972A (zh) * | 2021-07-29 | 2021-10-26 | 青岛农业大学 | 一种基于深度学习的苹果病害诊断方法 |
CN113688787A (zh) * | 2021-09-14 | 2021-11-23 | 青岛农业大学 | 花生叶片病害识别方法 |
CN115410157A (zh) * | 2022-09-02 | 2022-11-29 | 东华理工大学 | 一种物料输送巷道异物视觉检测方法 |
CN115564950A (zh) * | 2022-09-29 | 2023-01-03 | 中北大学 | 基于深度学习的小样本火箭弹粘接缺陷检测方法 |
CN116843650A (zh) * | 2023-07-04 | 2023-10-03 | 上海交通大学 | 融合aoi检测与深度学习的smt焊接缺陷检测方法及*** |
Non-Patent Citations (4)
Title |
---|
Recurrent topic-transition GAN for visual paragraph generation;Liang X D et al.;《Proceedings of the 2017 IEEE International Conference on Computer Vision (ICCV)》;20171231;全文 * |
产品质量检测的生成对抗网络方法;杜卉然;《万方数据库》;正文第1-2章、第5.3节 * |
生成对抗网络在各领域应用研究进展;刘建伟;《自动化学报》;20201231;第46卷(第12期);全文 * |
面向医学图像分割的半监督条件生成对抗网络;刘少鹏;洪佳明;梁杰鹏;贾西平;欧阳佳;印鉴;;软件学报(第08期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117237334A (zh) | 2023-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109544555B (zh) | 基于生成式对抗网络的细小裂缝分割方法 | |
Fang et al. | Multilevel edge features guided network for image denoising | |
Kang et al. | Stainnet: a fast and robust stain normalization network | |
CN109635806B (zh) | 基于残差网络的电表数值识别方法 | |
CN115661144B (zh) | 基于可变形U-Net的自适应医学图像分割方法 | |
CN110490073A (zh) | 目标检测方法、装置、设备及存储介质 | |
CN107909560A (zh) | 一种基于SiR的多聚焦图像融合方法及*** | |
CN111882489A (zh) | 用于水下图像同时增强的超分辨率图形恢复方法 | |
CN114549985B (zh) | 一种基于自监督对比学习的目标检测方法及*** | |
CN116757986A (zh) | 一种红外与可见光图像融合方法及装置 | |
CN117237279A (zh) | 一种非均匀失真全景图像盲质量评价方法及*** | |
CN111476794A (zh) | 一种基于unet的宫颈病理组织分割方法 | |
CN115661029A (zh) | 基于YOLOv5的肺结节检测与识别*** | |
CN112017130A (zh) | 新颖的基于自适应各向异性全变分正则化的图像复原方法 | |
Sun et al. | Enhancing gland segmentation in colon histology images using an instance-aware diffusion model | |
CN113763300A (zh) | 一种联合深度上下文与卷积条件随机场的多聚焦图像融合方法 | |
Su et al. | Physical model and image translation fused network for single-image dehazing | |
CN117876367A (zh) | 一种用于电路板印刷的曝光优化方法 | |
CN117237334B (zh) | 一种基于深度学习的手机镜头杂光检测方法 | |
CN117217997A (zh) | 一种基于上下文感知边缘增强的遥感图像超分辨率方法 | |
CN116958736A (zh) | 一种基于跨模态边缘引导的rgb-d显著性目标检测方法 | |
CN116129417A (zh) | 一种基于低质量图像的数字仪表读数检测方法 | |
Liu et al. | Dual UNet low-light image enhancement network based on attention mechanism | |
CN114419401A (zh) | 白细胞检测识别方法、装置、计算机存储介质及电子设备 | |
Xia et al. | DMFF-Net: Double-stream multilevel feature fusion network for image forgery localization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |