CN114092793B - 适用于复杂水下环境的端到端生物目标检测方法 - Google Patents

适用于复杂水下环境的端到端生物目标检测方法 Download PDF

Info

Publication number
CN114092793B
CN114092793B CN202111342981.4A CN202111342981A CN114092793B CN 114092793 B CN114092793 B CN 114092793B CN 202111342981 A CN202111342981 A CN 202111342981A CN 114092793 B CN114092793 B CN 114092793B
Authority
CN
China
Prior art keywords
network
underwater
image
convolution
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111342981.4A
Other languages
English (en)
Other versions
CN114092793A (zh
Inventor
方笑海
章学挺
潘勉
于海滨
吕帅帅
彭时林
史剑光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202111342981.4A priority Critical patent/CN114092793B/zh
Publication of CN114092793A publication Critical patent/CN114092793A/zh
Application granted granted Critical
Publication of CN114092793B publication Critical patent/CN114092793B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种适用于复杂水下环境的端到端生物目标检测方法。包括以下步骤:S1,使用的水下数据集由水下机器人抓取,划分为训练集和测试集,先将水下图像通过上采样或下采样统一尺寸,然后进行归一化;S2,从已有水下数据集中挑选出成像质量较差的水下图像,通过直方图均衡的方法增强图像,形成增强网络的数据集;S3,将较差的水下图像作为增强网络的输入,增强后的图像作为真实值,训练水下图像增强网络;S4,使用全卷积网络提取经过网络增强后的水下训练集图像的特征,然后使用一阶段检测网络对水下图像的特征图进行目标识别和分类,得到已训练完的模型;S5,将处理后的水下测试集送入已经训练完的模型中测试。

Description

适用于复杂水下环境的端到端生物目标检测方法
技术领域
本发明属于图像处理技术领域,具体涉及一种适用于复杂水下环境的端到端生物目标检测方法。
背景技术
随着计算机视觉和图像处理技术的发展,图像处理方法的应用以提高水下图像质量来满足人类视觉***和机器识别的要求已逐渐成为热点。随着人工智能的发展,深度学习的方法逐渐被应用到了水下目标识别中。但是受到水下光线不均匀的影响,水下图像存在颜色失真和曝光不足等问题,传统的深度学习目标检测方法缺乏足够的能力来处理水下目标。在水下环境中,低质量图像的增强对于计算机视觉来说是必需的。
对于水下图像增强,传统的图像处理方法包括颜色校正算法和对比度增强算法,白平衡方法,灰色世界理论和灰色边缘理论是典型的颜色校正方法。但对于水下视觉而言,这些方法的处理结果并不令人满意。对于水下图像的目标检测任务还有待进一步研究。
发明内容
鉴于以上存在的技术问题,本发明用于提供一种适用于复杂水下环境的端到端生物目标检测方法,先对数据预处理,提高分类器准确性,再通过生成网络对水下图像进行增强,然后通过一个深度神经网络进行特征提取,最后进行识别和分类。
为解决上述技术问题,本发明采用如下的技术方案:
S1,使用的水下数据集由水下机器人抓取,划分为训练集和测试集,水下数据集包括海参、海胆、扇贝和海星的水下目标,其中20%作为测试集,80%作为训练集,先将水下图像通过上采样或下采样统一尺寸,然后进行归一化;
S2,从已有水下数据集中挑选出成像质量较差的水下图像,通过直方图均衡的方法增强图像,形成增强网络的数据集;
S3,将较差的水下图像作为增强网络的输入,增强后的图像作为真实值,训练水下图像增强网络;
S4,使用全卷积网络提取经过网络增强后的水下训练集图像的特征,然后使用一阶段检测网络对水下图像的特征图进行目标识别和分类,得到已训练完的模型;
S5,将处理后的水下测试集送入已经训练完的模型中测试。
优选地,S1进一步包括:
S101,假设xi是图像像素点值,min(xi)和max(xi)分别表示图像像素的最大值和最小值。归一化后的水下图像为:
优选地,S2进一步包括:
使用直方图均衡的获得较差图像的真实值用于增强网络的训练,首先统计图像中各灰度级的像素数目nk,k的范围为[O,L-1],图像直方图初始概率密度函数为p(rk),则变换函数为:
通过变换函数即可得到均衡化后的概率密度函数p(Sk),应用到实际图像中获取成对的水下数据集。
优选地,S3进一步包括:
S301,使用生成对抗网络做图像增强,将经过质量较差水下图像的X输入到生成网络之中,每一层的卷积模块中包含了卷积,批处理归一化和ReLu三个过程,输入的X经过N个kernel_size为3*3的卷积核,得到输出N表示总的通道数,i表示第i个通道,提取到的特征为:
式中表示卷积操作,一共通过5个卷积层,第3个卷积层的输出和第五个卷积层的输出叠加;
S302,卷积层后的数据需要进一步处理,为了使模型易于收敛,网络训练过程更加稳定,在卷积之后加入了批归一化,通过计算每个批次中数据的均值和方差,假设一个小批次中有Nm个样本,那么定义输出为其中Fn表示第n个样本对应的卷积输出,在每个小批次中,对/>中的数据进行批归一化得到/>表示为:
其中,Fn(k,l)表示批归一化之前的样本对应的卷积层输出中,第k个通道中的第l个元素,即为批归一化之后的数据,αk和βk为可训练的对应于第k个通道的参数,ε是一个很小的数,防止除数为0,E(.)为求均值操作,Var(.)表示求方差操作;
S303,之后使用激活函数ReLU对中每一个元素进行非线性激活得到若输入为/>则经过ReLU之后对应的输出/>表示为:
S304,将生成网络生成的图像输入对抗网络中判别生成网络的输出是否达到增强的目的,判别器由3个简单的卷积层组成,每个卷积层也有卷积,批处理归一化和ReLu三个过程;
S305,为了保证结果有一个好的视觉和定量的成绩,损失函数由对抗损失L1和特征损失L2两部分组成,对抗损失是为了让生成器生成更好效果的输出,假设D表示判别器网络,xr和xf分别是从真实分布和伪分布中的采样值,则对抗损失为:
特征损失是输入和生成图像分别通过VGG16的卷积层中抽取的特征数据的欧式距离,能降低生成器网络的不稳定性,假设IL表示偏色的输入,G(IL)表示生成网络的输出,φi表示从特征提取网络中获得的特征图,i表示它的第i个池化后的特征图,Wi,Hi是提取的特征图的维数,则特征损失为:
优选地,S4进一步包括:
S401,特征提取层使用Resnet50模块,Resnet50网络结构首先对输入做了卷积操作,之后包含4个残差块,一共50次卷积操作,各个残差块有跳跃连接解决梯度消散或***的问题,假设残差块的输入是X,卷尺网络的输出为H,则输出为:
Y=H(X)+X
S402,低层的特征语义信息比较少,但是目标位置准确;而高层的特征语义信息比较丰富,但是目标位置比较粗略,首先采用自顶向下的路径,将高层的强语义特征传递下来,然后再添加一个自底向上的路径,对特征图进行补充,将低层的强定位特征传递上去。
优选地,S5进一步包括:
S501,检测模块主要由两个子网络,分类子网络和边框回归子网络组成,分类子网络为每个锚点预测每个空间位置的目标存在概率及类别概率。这个子网络是一个简单的全卷积模块,由四个全卷积层构成,此子网络的参数在所有不同尺度的特征图之间共享;最后使用sidmoid进行分类,假设pi为经网络判断当前第i个锚点可能为目标的概率,为第i个锚点标记为目标的概率,则分类损失函数为:
S502,与目标分类子网络并行,使用另一个简单的全卷机网络将每个锚框的偏移量回归到附近的真实值,目标分类子网络和边框回归子网络虽然结构相同,但使用参数不同。假设ti为正样本预测框相对于锚点的偏移量,为真实值相对于锚点的偏移量,则边框回归损失为:
附图说明
图1为本发明实施例的适用于复杂水下环境的端到端生物目标检测方法的整体算法步骤流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图1,所示为本发明实施例的适用于复杂水下环境的端到端生物目标检测方法步骤流程图,其包括以下步骤:
S1,使用的水下数据集由水下机器人抓取,划分为训练集和测试集,水下数据集包括海参、海胆、扇贝和海星的水下目标,其中20%作为测试集,80%作为训练集,由于水下图像尺寸不一,无法直接进入网络,先将水下图像通过上采样或下采样统一尺寸,然后进行归一化。
S2,针对实际工程中无法获得成对用于图像增强网络训练的水下数据集问题,从已有水下数据集中挑选出成像质量较差的水下图像,通过直方图均衡的方法增强图像,形成增强网络的数据集;
S3,将较差的水下图像作为增强网络的输入,增强后的图像作为真实值,训练水下图像增强网络;
S4,使用全卷积网络提取经过网络增强后的水下训练集图像的特征,然后使用一阶段检测网络对水下图像的特征图进行目标识别和分类,得到已训练完的模型;
S5,将处理后的水下测试集送入已经训练完的模型中测试。
具体应用实例中,S1进一步包括:
图像归一化,归一化的目标是找到某种映射关系,归一化后,不同维度之间的特征在数值上有一定比较性,可以大大提高分类器的准确性。假设xi是图像像素点值,min(xi)和max(xi)分别表示图像像素的最大值和最小值。归一化后的水下图像为:
具体应用实例中,S2进一步包括:
实际工程中无法获得成对水下数据集,使用直方图均衡的获得较差图像的真实值用于增强网络的训练。首先统计图像中各灰度级的像素数目nk,k的范围为[O,L-1],图像直方图初始概率密度函数为p(rk),则变换函数为:
通过变换函数即可得到均衡化后的概率密度函数p(Sk),应用到实际图像中获取成对的水下数据集。
具体应用实例中,S3进一步包括:
S301,使用生成对抗网络做图像增强。将经过质量较差水下图像的X输入到生成网络之中,每一层的卷积模块中包含了卷积,批处理归一化和ReLu三个过程,输入的X经过N个kernel_size为3*3的卷积核,得到输出N表示总的通道数,i表示第i个通道,提取到的特征为:
式中表示卷积操作,一共通过5个卷积层,第3个卷积层的输出和第五个卷积层的输出叠加;
S302,卷积层后的数据需要进一步处理,为了使模型易于收敛,网络训练过程更加稳定,在卷积之后加入了批归一化,通过计算每个批次中数据的均值和方差,假设一个小批次中有Nm个样本,那么定义输出为其中Fn表示第n个样本对应的卷积输出,在每个小批次中,对/>中的数据进行批归一化得到/>表示为:
其中,Fn(k,l)表示批归一化之前的样本对应的卷积层输出中,第k个通道中的第l个元素,即为批归一化之后的数据,αk和βk为可训练的对应于第k个通道的参数,ε是一个很小的数,防止除数为0,E(.)为求均值操作,Var(.)表示求方差操作;
S303,之后使用激活函数ReLU对中每一个元素进行非线性激活得到若输入为/>则经过ReLU之后对应的输出/>表示为:
S304,将生成网络生成的图像输入对抗网络中判别生成网络的输出是否达到增强的目的。判别器由3个简单的卷积层组成,每个卷积层也有卷积,批处理归一化和ReLu三个过程。
S305,为了保证结果有一个好的视觉和定量的成绩,我们的损失函数由对抗损失L1和特征损失L2两部分组成。对抗损失是为了让生成器生成更好效果的输出。假设D表示判别器网络,xr和xf分别是从真实分布和伪分布中的采样值。则对抗损失为:
特征损失是输入和生成图像分别通过VGG16的卷积层中抽取的特征数据的欧式距离,能降低生成器网络的不稳定性。假设IL表示偏色的输入,G(IL)表示生成网络的输出,φi表示从特征提取网络中获得的特征图。i表示它的第i个池化后的特征图。Wi,Hi是提取的特征图的维数。则特征损失为:
具体应用实例中,S4进一步包括:
S401,特征提取层使用Resnet50模块。Resnet50网络结构首先对输入做了卷积操作,之后包含4个残差块,一共50次卷积操作。各个残差块有跳跃连接解决梯度消散或***的问题。假设残差块的输入是X,卷尺网络的输出为H,则输出为:
Y=H(X)+X
S402,低层的特征语义信息比较少,但是目标位置准确;而高层的特征语义信息比较丰富,但是目标位置比较粗略。首先采用自顶向下的路径,将高层的强语义特征传递下来,然后再添加一个自底向上的路径,对特征图进行补充,将低层的强定位特征传递上去。
具体应用实例中,S5进一步包括:
S501,检测模块主要由两个子网络:分类子网络和边框回归子网络组成。分类子网络为每个锚点预测每个空间位置的目标存在概率及类别概率。这个子网络是一个简单的全卷积模块,由四个全卷积层构成,此子网络的参数在所有不同尺度的特征图之间共享。最后使用sidmoid进行分类。假设pi为经网络判断当前第i个锚点可能为目标的概率,为第i个锚点标记为目标的概率,则分类损失函数为:
S502,与目标分类子网络并行,我们使用另一个简单的全卷机网络将每个锚框的偏移量回归到附近的真实值。目标分类子网络和边框回归子网络虽然结构相同,但使用参数不同。假设ti为正样本预测框相对于锚点的偏移量,为真实值相对于锚点的偏移量,则边框回归损失为:
应当理解,本文所述的示例性实施例是说明性的而非限制性的。尽管结合附图描述了本发明的一个或多个实施例,本领域普通技术人员应当理解,在不脱离通过所附权利要求所限定的本发明的精神和范围的情况下,可以做出各种形式和细节的改变。

Claims (1)

1.一种适用于复杂水下环境的端到端生物目标检测方法,其特征在于,包括以下步骤:
S1,使用的水下数据集由水下机器人抓取,划分为训练集和测试集,水下数据集包括海参、海胆、扇贝和海星的水下目标,其中20%作为测试集,80%作为训练集,先将水下图像通过上采样或下采样统一尺寸,然后进行归一化;
S2,从已有水下数据集中挑选出成像质量较差的水下图像,通过直方图均衡的方法增强图像,形成增强网络的数据集;
S3,将较差的水下图像作为增强网络的输入,增强后的图像作为真实值,训练水下图像增强网络;
S4,使用全卷积网络提取经过网络增强后的水下训练集图像的特征,然后使用一阶段检测网络对水下图像的特征图进行目标识别和分类,得到已训练完的模型;
S5,将处理后的水下测试集送入已经训练完的模型中测试;
S1进一步包括:
假设xi是图像像素点值,min(xi)和max(xi)分别表示图像像素的最大值和最小值,归一化后的水下图像为:
S2进一步包括:
统计图像中各灰度级的像素数目nk,k的范围为[0,L-1],图像直方图初始概率密度函数为p(rk),则变换函数为:
通过变换函数即可得到均衡化后的概率密度函数p(Sk),应用到实际图像中获取成对的水下数据集;
S3进一步包括:
S301,使用生成对抗网络做图像增强,将经过质量较差水下图像的X输入到生成网络之中,每一层的卷积模块中包含了卷积,批处理归一化和ReLu三个过程,输入的X经过N个kernel_size为3*3的卷积核,得到输出N表示总的通道数,i表示第i个通道,提取到的特征为:
式中表示卷积操作,一共通过5个卷积层,第3个卷积层的输出和第五个卷积层的输出叠加;
S302,卷积层后的数据进一步处理,为了使模型易于收敛,网络训练过程更加稳定,在卷积之后加入了批归一化,通过计算每个批次中数据的均值和方差,假设一个小批次中有Nm个样本,那么定义输出为其中Fn表示第n个样本对应的卷积输出,在每个小批次中,对/>中的数据进行批归一化得到/> 表示为:
其中,Fn(k,l)表示批归一化之前的样本对应的卷积层输出中,第k个通道中的第l个元素,即为批归一化之后的数据,αk和βk为可训练的对应于第k个通道的参数,ε是一个很小的数,防止除数为0,E(.)为求均值操作,Var(.)表示求方差操作;
S303,之后使用激活函数ReLU对中每一个元素进行非线性激活得到/>若输入为/>则经过ReLU之后对应的输出/>表示为:
S304,将生成网络生成的图像输入对抗网络中判别生成网络的输出是否达到增强的目的,判别器由3个简单的卷积层组成,每个卷积层也有卷积,批处理归一化和ReLu三个过程;
S305,为了保证结果有一个好的视觉和定量的成绩,损失函数由对抗损失L1和特征损失L2两部分组成;对抗损失是为了让生成器生成更好效果的输出,假设D表示判别器网络,xr和xf分别是从真实分布和伪分布中的采样值,则对抗损失为:
特征损失是输入和生成图像分别通过VGG16的卷积层中抽取的特征数据的欧式距离,假设IL表示偏色的输入,G(IL)表示生成网络的输出,φi表示从特征提取网络中获得的特征图,i表示它的第i个池化后的特征图,Wi,Hi是提取的特征图的维数,则特征损失为:
S4进一步包括:
S401,特征提取层使用Resnet50模块,Resnet50网络结构首先对输入做了卷积操作,之后包含4个残差块,一共50次卷积操作,各个残差块有跳跃连接解决梯度消散或***的问题,假设残差块的输入是X,卷尺网络的输出为H,则输出为:
Y=H(X)+X
S402,低层的特征语义信息比较少,但是目标位置准确;而高层的特征语义信息比较丰富,但是目标位置比较粗略,首先采用自顶向下的路径,将高层的强语义特征传递下来,然后再添加一个自底向上的路径,对特征图进行补充,将低层的强定位特征传递上去;
S5进一步包括:
S501,检测模块主要由两个子网络:分类子网络和边框回归子网络组成,分类子网络为每个锚点预测每个空间位置的目标存在概率及类别概率,这个子网络是一个简单的全卷积模块,由四个全卷积层构成,此子网络的参数在所有不同尺度的特征图之间共享,最后使用sidmoid进行分类,假设pi为经网络判断当前第i个锚点可能为目标的概率,为第i个锚点标记为目标的概率,则分类损失函数为:
S502,与目标分类子网络并行,使用另一个简单的全卷机网络将每个锚框的偏移量回归到附近的真实值,目标分类子网络和边框回归子网络虽然结构相同,但使用参数不同,假设ti为正样本预测框相对于锚点的偏移量,为真实值相对于锚点的偏移量,则边框回归损失为:
CN202111342981.4A 2021-11-12 2021-11-12 适用于复杂水下环境的端到端生物目标检测方法 Active CN114092793B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111342981.4A CN114092793B (zh) 2021-11-12 2021-11-12 适用于复杂水下环境的端到端生物目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111342981.4A CN114092793B (zh) 2021-11-12 2021-11-12 适用于复杂水下环境的端到端生物目标检测方法

Publications (2)

Publication Number Publication Date
CN114092793A CN114092793A (zh) 2022-02-25
CN114092793B true CN114092793B (zh) 2024-05-17

Family

ID=80300549

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111342981.4A Active CN114092793B (zh) 2021-11-12 2021-11-12 适用于复杂水下环境的端到端生物目标检测方法

Country Status (1)

Country Link
CN (1) CN114092793B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114387190B (zh) * 2022-03-23 2022-08-16 山东省计算中心(国家超级计算济南中心) 一种基于复杂环境下的自适应图像增强方法及***
CN115880574B (zh) * 2023-03-02 2023-06-16 吉林大学 一种水下光学图像轻量化目标识别方法、设备和介质
CN115984269B (zh) * 2023-03-20 2023-07-14 湖南长理尚洋科技有限公司 一种非侵入式局部水生态安全检测方法与***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543585A (zh) * 2018-11-16 2019-03-29 西北工业大学 基于卷积神经网络的水下光学目标检测与识别方法
CN111209952A (zh) * 2020-01-03 2020-05-29 西安工业大学 基于改进ssd和迁移学习的水下目标检测方法
CN111723823A (zh) * 2020-06-24 2020-09-29 河南科技学院 一种基于第三方迁移学习的水下目标检测方法
CN112417980A (zh) * 2020-10-27 2021-02-26 南京邮电大学 一种基于特征增强和细化的单阶段水下生物目标检测方法
CN112767279A (zh) * 2021-02-01 2021-05-07 福州大学 一种基于离散小波集成生成对抗网络的水下图像增强方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543585A (zh) * 2018-11-16 2019-03-29 西北工业大学 基于卷积神经网络的水下光学目标检测与识别方法
CN111209952A (zh) * 2020-01-03 2020-05-29 西安工业大学 基于改进ssd和迁移学习的水下目标检测方法
CN111723823A (zh) * 2020-06-24 2020-09-29 河南科技学院 一种基于第三方迁移学习的水下目标检测方法
CN112417980A (zh) * 2020-10-27 2021-02-26 南京邮电大学 一种基于特征增强和细化的单阶段水下生物目标检测方法
CN112767279A (zh) * 2021-02-01 2021-05-07 福州大学 一种基于离散小波集成生成对抗网络的水下图像增强方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于YOLO和图像增强的海洋动物目标检测;贾振卿;刘雪峰;;电子测量技术;20200723(第14期);全文 *
基于卷积神经网络的水下图像增强方法;徐岩;孙美双;;吉林大学学报(工学版);20180326(第06期);全文 *

Also Published As

Publication number Publication date
CN114092793A (zh) 2022-02-25

Similar Documents

Publication Publication Date Title
CN114092793B (zh) 适用于复杂水下环境的端到端生物目标检测方法
CN111639692B (zh) 一种基于注意力机制的阴影检测方法
CN107945204B (zh) 一种基于生成对抗网络的像素级人像抠图方法
CN107133943B (zh) 一种防震锤缺陷检测的视觉检测方法
CN111950649B (zh) 基于注意力机制与胶囊网络的低照度图像分类方法
CN109034184B (zh) 一种基于深度学习的均压环检测识别方法
CN111241924B (zh) 基于尺度估计的人脸检测及对齐方法、装置、存储介质
CN110136162B (zh) 无人机视角遥感目标跟踪方法及装置
CN113361645B (zh) 基于元学习及知识记忆的目标检测模型构建方法及***
CN112800980B (zh) 一种基于多层次特征的sar目标识别方法
CN112818969A (zh) 一种基于知识蒸馏的人脸姿态估计方法及***
CN106599864A (zh) 一种基于极值理论的深度人脸识别方法
CN111242026A (zh) 一种基于空间层次感知模块和度量学习的遥感图像目标检测方法
CN112633257A (zh) 基于改良卷积神经网络的马铃薯病害识别方法
CN116385958A (zh) 一种用于电网巡检和监控的边缘智能检测方法
CN114897782B (zh) 基于生成式对抗网络的胃癌病理切片图像分割预测方法
CN112149526A (zh) 一种基于长距离信息融合的车道线检测方法及***
CN113435254A (zh) 一种基于哨兵二号影像的耕地深度学习提取方法
CN117115616A (zh) 一种基于卷积神经网络的实时低照度图像目标检测方法
CN111898454A (zh) 权重二值化神经网络与迁移学习人眼状态检测方法及设备
CN116824330A (zh) 一种基于深度学习的小样本跨域目标检测方法
CN116579985A (zh) 一种基于RefineDet模型的晶圆缺陷检测方法
CN116309270A (zh) 一种基于双目图像的输电线路典型缺陷识别方法
CN112991257B (zh) 基于半监督孪生网络的异质遥感图像变化快速检测方法
CN114821098A (zh) 一种基于灰度梯度融合特征及cnn的高速路面破损检测算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant