CN113591854B - 一种浮游生物全息图的低冗余快速重建方法 - Google Patents

一种浮游生物全息图的低冗余快速重建方法 Download PDF

Info

Publication number
CN113591854B
CN113591854B CN202110922020.4A CN202110922020A CN113591854B CN 113591854 B CN113591854 B CN 113591854B CN 202110922020 A CN202110922020 A CN 202110922020A CN 113591854 B CN113591854 B CN 113591854B
Authority
CN
China
Prior art keywords
network
reconstruction
loss
plankton
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110922020.4A
Other languages
English (en)
Other versions
CN113591854A (zh
Inventor
王楠
胡文杰
张兴
杨学文
崔燕妮
辛国玲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ocean University of China
Original Assignee
Ocean University of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ocean University of China filed Critical Ocean University of China
Priority to CN202110922020.4A priority Critical patent/CN113591854B/zh
Publication of CN113591854A publication Critical patent/CN113591854A/zh
Application granted granted Critical
Publication of CN113591854B publication Critical patent/CN113591854B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及计算机视觉技术领域,具体公开了一种浮游生物全息图的低冗余快速重建方法,包括步骤:S1:采集浮游生物的数字全息图,生成源图像数据集;S2:对所述源图像数据集中每幅全息源图像中的浮游生物进行标定,得到标定数据集;S3:运用所述标定数据集对搭建的全息图重建网络进行训练,以及运用所述源图像数据集对训练完成的全息图重建网络进行测试;S4:将测试完成的所述全息图重建网络用于其他浮游生物全息源图像的重建。全息图重建网络可实现自主检测有效目标区域,并对感兴趣区域进行重建。相比传统的数值重建方法,本发明所训练的全息图重建网络对浮游生物全息图重建速度快、消除冗余信息的效率高,有望在海洋环境检测中发挥重要作用。

Description

一种浮游生物全息图的低冗余快速重建方法
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种浮游生物全息图的低冗余快速重建方法。
背景技术
海洋对于调节地球气候、维持全球生命***等具有重要意义。浮游生物作为海洋生态***的重要组成部分,在气候变化和海洋生态环境变化具有指示作用。全息成像技术已经成为重要的海洋分析工具,并用于海洋浮游生物的检测中。对全息图进行重建可以获取浮游生物的状态、粒径光谱等信息,为海洋监测提供信息。因为源图像数据集中有效目标稀疏且存在大量噪声。传统的数值重建方法需要对不同的衍射深度进行扫描重建,在多个重建图像中再进行有效目标的检测。这种传统方法不仅耗时长,而且扫描重建过程需要大量存储空间和计算开支,无法适应于原位检测的需求。因此,能够直接输出最优重建结果并可进行嵌入式计算的浮游生物全息图处理方法对浮游生物全息原位检测具有重要意义。
发明内容
本发明提供一种浮游生物全息图的低冗余快速重建方法,解决的技术问题在于:如何低冗余且快速地对拍摄的全息源图像进行有效重建。
为解决以上技术问题,本发明提供一种浮游生物全息图的低冗余快速重建方法,包括步骤:
S1:采集浮游生物的数字全息图,生成源图像数据集;
S2:对所述源图像数据集中每幅全息源图像中的浮游生物进行标定,得到标定数据集;
S3:运用所述标定数据集对搭建的全息图重建网络进行训练,以及运用所述源图像数据集对训练完成的所述全息图重建网络进行测试;
S4:将测试完成的所述全息图重建网络用于其他浮游生物全息源图像的重建。
进一步地,所述步骤S2具体包括步骤:
S21:通过卷积重建法对所述源图像数据集中的每幅全息源图像进行重建,得到该全息源图像的多张重建图像;
S22:对每幅全息源图像的多张重建图像进行预处理,得到浮游生物的轮廓曲线,并对轮廓曲线加矩形框得到浮游生物的位置信息,得到目标检测数据集;
S23:根据位置信息对每幅全息源图像的多张重建图像进行剪裁,运用聚焦评价函数对裁剪后的图像进行清晰度测评,选出最清晰的一张作为该全息源图像的ROI重建真值图,从而生成目标重建数据集。
进一步地,所述步骤S22具体包括步骤:
S221:将获得的重建图像选用滤波窗口为3*3的中值滤波进行去噪,选用自适应阈值二值化算法对滤波后的图像进行处理,得到二值图像;
S222:将二值图像选用滤波窗口为2*2的开运算去除噪声点,用Canny算子进行边缘检测,得到边缘曲线;
s223:将边缘曲线使用2*2的结构元素进行膨胀处理,使边缘曲线完整闭合,使用findContours算子再次提取浮游生物轮廓;
S224:对提取出的浮游生物轮廓进行外加矩形的操作得到浮游生物的位置信息,从而生成目标检测数据集。
进一步地,所述步骤S23具体包括步骤:
S231:按照步骤S22获得的位置信息对重建图像进行剪裁,得到ROI重建图像;
S232:使用Gamma变换对ROI重建图像进行处理;
S233:选用Brenner、Laplacian、SMD、SMD2、Variance、Energy、Vollath七种聚焦评价函数对ROI重建图像进行清晰度评测,以七种测评结果的众数作为该ROI重建图像的输出结果;
s234:将众数最大的ROI重建图像作为ROI重建真值图。
进一步地,所述步骤S3具体包括步骤:
S31:搭建全息图重建网络;所述全息图重建网络包括依次相连的目标检测单元和目标重建单元;
S32:运用所述目标检测数据集对所述目标检测单元进行训练,得到ROI的位置信息;
S33:运用所述目标重建数据集对所述目标重建单元进行训练,生成ROI的重建图像;
S34:运用所述源图像数据集对训练完成的所述全息图重建网络进行测试,完成全息图的重建。
进一步地,所述目标检测单元采用Faster RCNN网络,所述Faster RCNN网络包括RPN网络和Fast RCNN网络;所述RPN网络由特征提取网络CNN-1、并行的第一分类网络Softmax-1和第一边界框回归网络Regressor-1构成;所述Fast RCNN网络由所述特征提取网络CNN-1、ROI Pooling层和第二边界框回归网络Regressor-2构成;所述RPN网络和所述Fast RCNN网络共享所述特征提取网络CNN-1;
所述目标重建单元采用U-Net网络,所述U-Net网络包括四次下采样操作和四次上采样操作。
进一步地,所述步骤S32具体包括步骤:
S321:所述RPN网络生成输入图像的候选框并在生成的过程中计算损失函数LRPN,然后根据梯度反向传播更新自身参数;
S322:采用所述RPN网络提供的候选框训练所述Fast RCNN网络,并根据所述候选框的边界框回归参数计算所述Fast RCNN网络的损失函数LFast-RCNN,然后根据梯度反向传播更新自身参数;
S323:固定所述特征提取网络CNN-1的参数,微调所述RPN网络和所述Fast RCNN网络中的参数。
进一步地,在所述步骤S321中,所述损失函数LRPN的计算式为:
其中,i表示候选框的索引,pi为第i个候选框预测为目标区域的概率,pi *为该候选框是否包含目标的分类真值;ti为第i个候选框的边界框回归参数,ti *为第i个候选框对应的边界框回归参数真值,Ncls为一个mini-batch中所有样本数量,Nreg为anchor位置的个数,λ为平衡系数,Ncls=256,Nreg=2400,λ=10;损失Lcls描述为交叉熵损失;损失Lloc描述为smooth L1 Loss损失;
在所述步骤S322中,损失函数LFast-RCNN的表达式与损失函数LRPN一致。
进一步地,所述步骤S33具体包括步骤:
S331:所述U-Net网络生成输入图像的重建图像;
S332:计算所述重建图像与所述步骤S23的ROI重建真值图之间的损失函数L,并根据梯度反向传播更新自身参数。
进一步地,在所述步骤S332中,所述损失函数L的计算式为:
L=Loss_MSE+Loss_VGG
其中,Loss_MSE代表MSE损失,Loss_VGG代表感知损失;
所述MSE损失的计算式为:
其中,W、H代表重建图像及ROI重建真值图的宽和高,(i,j)代表第i列第j行的像素点,D代表重建图像的像素值,Dgt代表ROI重建真值图的像素值;
所述感知损失的计算式为:
其中,表示计算U-Net网络中VGG-16中第i层最大池化层之前的第j层卷积层输出的特征图的损失;Wi,j和Hi,j表示VGG-16网络中第i层最大池化层之前的第j层卷积得的特征图的宽和高;Φi,j(I)x,y代表VGG-16网络中第i层最大池化层之前的第j层卷积获得的特征图,(x,y)代表该特征图中第x列第y行的像素点;I代表重建图,Igt代表真值图,α1=1、α2=10、α3=1×106、α4=5×109代表对应的平衡系数。
本发明提供的一种浮游生物全息图的低冗余快速重建方法,通过构建、训练和测试全息图重建网络Holo-Net,可实现自主检测有效目标区域,并对感兴趣区域进行重建。相比传统的数值重建方法,本发明所训练的全息图重建网络对浮游生物全息图重建速度快、消除冗余信息的效率高,有望在海洋环境检测中发挥重要作用。全息图重建可以获取浮游生物的状态、粒径光谱等信息,为海洋监测提供信息以及对后续研究海洋生态环境变化和全球气候变化具有指导价值。
附图说明
图1是本发明实施例提供的一种浮游生物全息图的低冗余快速重建方法的步骤流程图;
图2是本发明实施例提供的全息图重建网络的架构图;
图3是本发明实施例提供的全息图重构前与重构后的对比图。
具体实施方式
下面结合附图具体阐明本发明的实施方式,实施例的给出仅仅是为了说明目的,并不能理解为对本发明的限定,包括附图仅供参考和说明使用,不构成对本发明专利保护范围的限制,因为在不脱离本发明精神和范围基础上,可以对本发明进行许多改变。
为了低冗余且快速地对拍摄的全息源图像进行有效重建,本发明实施例提供一种浮游生物全息图的低冗余快速重建方法,如图1的步骤流程图所示,包括步骤:
S1:采集浮游生物的数字全息图,生成源图像数据集;
S2:对源图像数据集中每幅全息源图像中的浮游生物进行标定,得到标定数据集;
S3:运用标定数据集对搭建的全息图重建网络进行训练,以及运用源图像数据集对训练完成的全息图重建网络进行测试;
S4:将测试完成的所述全息图重建网络用于其他浮游生物全息源图像的重建。
对于步骤S1,本例采用HoloCam-II@200全息相机拍摄全息源图像。
对于步骤S2,其具体包括步骤:
S21:通过卷积重建法对源图像数据集中的每幅全息源图像进行重建,得到该全息源图像的多张重建图像(本实施例为30张,可根据实际情况进行调整);
S22:对每幅全息源图像的多张重建图像进行预处理,得到浮游生物的轮廓曲线,并对轮廓曲线加矩形框得到浮游生物的位置信息,得到目标检测数据集;
S23:根据位置信息对每幅全息源图像的多张重建图像进行剪裁,运用聚焦评价函数对裁剪后的图像进行清晰度测评,选出最清晰的一张作为该全息源图像的ROI重建真值图,从而生成目标重建数据集。
对于步骤S22,其具体包括步骤:
S221:将获得的重建图像选用滤波窗口为3*3的中值滤波进行去噪,选用自适应阈值二值化算法对滤波后的图像进行处理,得到二值图像;
s222:将二值图像选用滤波窗口为2*2的开运算去除噪声点,用Canny算子进行边缘检测,得到边缘曲线;
S223:将边缘曲线使用2*2的结构元素进行膨胀处理,使边缘曲线完整闭合,使用findContours算子再次提取浮游生物轮廓;
S224:对提取出的浮游生物轮廓进行外加矩形的操作得到浮游生物的位置信息,从而生成目标检测数据集。
步骤S22的预处理方式相对比于其他的方法更加适合噪声点较多的全息图,其中各种参数、窗口大小的选择都是多次实验对比出来的,提取的轮廓效果最好。
对于步骤S23,其具体包括步骤:
S231:按照步骤S22获得的位置信息对重建图像进行剪裁,得到ROI重建图像;
S232:使用Gamma变换对ROI重建图像进行处理;
S233:选用Brenner、Laplacian、SMD、SMD2、Variance、Energy、Vollath七种聚焦评价函数对ROI重建图像进行清晰度评测,以七种测评结果的众数作为该ROI重建图像的输出结果;
S234:将众数最大的ROI重建图像作为ROI重建真值图。
步骤S233的优势在于可以规避仅用一种聚焦评价函数所导致结果存在偏差,并且结合数字全息图噪声多的特点,选择了七种比较适合对全息图进行图像清晰度评价的指标,比较适合全息图任务,使得ROI重建真值图中浮游生物的轮廓十分清晰。
对于步骤S3,其具体包括步骤:
S31:搭建全息图重建网络Holo-Net;全息图重建网络Holo-Net包括依次相连的目标检测单元和目标重建单元;
S32:运用目标检测数据集对目标检测单元进行训练,得到ROI的位置信息;
S33:运用目标重建数据集对目标重建单元进行训练,生成ROI的重建图像;
S34:运用源图像数据集对训练完成的全息图重建网络Holo-Net进行测试,完成全息图的重建。
对于步骤S31,如图2所示,全息图重建网络Holo-Net包括目标检测单元和目标重建单元。目标检测单元采用Faster RCNN网络,Faster RCNN网络包括RPN网络和Fast RCNN网络。RPN网络由特征提取网络CNN-1、并行的第一分类网络Softmax-1和第一边界框回归网络Regressor-1构成;Fast RCNN网络由特征提取网络CNN-1、ROI Pooling层和第二边界框回归网络Regressor-2构成;RPN网络和Fast RCNN网络共享特征提取网络CNN-1。目标重建单元采用U-Net网络,U-Net网络包括四次下采样操作和四次上采样操作。
相对目前整张图重建的方式,本例所用Holo-Net仅针对有浮游生物出现的感兴趣区域,其可以有效移除噪声干扰,减小重建冗余度,并且可以提高重建速度,获得高质量的重建效果。传统的数值重建方法,不仅耗时长需要大量存储空间且无法适应原位检测的需求,Holo-Net能够直接输出最优重建结果并可进行嵌入式计算的浮游生物全息图处理方法对浮游生物全息原位检测具有重要意义。
对于步骤S32,其具体包括步骤:
S321:RPN网络生成输入图像的候选框并在生成的过程中计算损失函数LRPN,然后根据梯度反向传播更新自身参数;
S322:采用RPN网络提供的候选框训练Fast RCNN网络,并根据候选框的边界框回归参数计算FastRCNN网络的损失函数LFast-RCNN,然后根据梯度反向传播更新自身参数;
S323:固定所述特征提取网络CNN-1的参数,微调所述RPN网络和Fast RCNN网络中的参数。
在步骤S321中,损失函数LRPN的计算式为:
其中,i表示候选框的索引,pi为第i个候选框预测为目标区域的概率,pi *为该候选框是否包含目标的分类真值;ti为第i个候选框的边界框回归参数,ti *为第i个候选框对应的边界框回归参数真值,Ncls=256为抽取的候选框的数量,Nreg为2400,λ=10为平衡系数;损失Lcls描述为交叉熵损失;损失Lloc描述为smooth L1 Loss损失;
在步骤S322中,损失函数LFast-RCNN的表达式与损失函数LRPN一致。
目标检测的过程为:首先通过CNN-1卷积神经网络提取特征生成Feature map,RPN网络通过Softmax-1区分前景和背景实现二分类,通过Regressor-1对先验框进行调整,通过NMS(非极大值抑制)筛选出类别概率得分最高的2000个建议框对Fast RCNN进行训练。
Fast RCNN将RPN输出的建议框映射到CNN-1的特征图上,通过ROI Pooling层实现将建议框统一大小,通过Regressor-2对建议框再进一步调整。
对于步骤S33,其具体包括步骤:
S331:U-Net网络生成输入图像的重建图像;
S332:计算重建图像与步骤S23的ROI重建真值图之间的损失函数L,并根据梯度反向传播更新自身参数。
在步骤S332中,损失函数L的计算式为:
L=Loss_MSE+Loss_VGG
其中,Loss_MSE代表MSE损失,Loss_VGG代表感知损失;
MSE损失的计算式为:
其中,W、H代表重建图像及ROI重建真值图的宽和高,(i,j)代表第i列第j行的像素点,D代表重建图像的像素值,Dgt代表ROI重建真值图的像素值;
感知损失的计算式为:
其中,表示计算U-Net网络中VGG-16网络中第i层最大池化层之前的第j层卷积层输出的特征图的损失;Wi,j和Hi,j表示VGG-16网络中第i层最大池化层之前的第j层卷积得的特征图的宽和高;Φi,j(I)x,y代表VGG-16网络中第i层最大池化层之前的第j层卷积(激活后)获得的特征图,(x,y)代表该特征图中第x列第y行的像素点;I代表重建图,Igt代表真值图,α1=1、α2=10、α3=1×106、α4=5×109代表对应的平衡系数。
VGG损失可以保证高频图像信息生成,MSE损失保证低频信息生成,两者结合使生成的图像质量更好,并且平衡系数是根据自身项目多次实验总结的,能够起到最优效果。
因为源图像数据集中有效目标稀疏且存在大量噪声,显然对整张全息图重建不仅耗时长,而且重建过程会受到噪声的影响,从而导致重建质量差。对此,本例进行创新,构建、训练并测试全息图重建网络Holo-Net,可实现自主检测有效目标区域,并对感兴趣区域进行重建。相比传统的数值重建方法,本发明所训练的全息图重建网络对浮游生物全息图重建速度快、消除冗余信息的效率高,重建的效果如图3所示。全息图重建可以获取浮游生物的状态、粒径光谱等信息,为海洋监测提供信息以及对后续研究海洋生态环境变化和全球气候变化具有指导价值。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (5)

1.一种浮游生物全息图的低冗余快速重建方法,其特征在于,包括步骤:
S1:采集浮游生物的数字全息图,生成源图像数据集;
S2:对所述源图像数据集中每幅全息源图像中的浮游生物进行标定,得到标定数据集;
S3:运用所述标定数据集对搭建的全息图重建网络进行训练,以及运用所述源图像数据集对训练完成的所述全息图重建网络进行测试;
所述步骤S3具体包括步骤:
S31:搭建全息图重建网络;所述全息图重建网络包括依次相连的目标检测单元和目标重建单元;
S32:运用目标检测数据集对所述目标检测单元进行训练,得到ROI的位置信息;
所述步骤S32具体包括步骤:
S321:RPN网络生成输入图像的候选框并在生成的过程中计算损失函数LRPN,然后根据梯度反向传播更新自身参数;
在所述步骤S321中,所述损失函数LRPN的计算式为:
其中,i表示候选框的索引,pi为第i个候选框预测为目标区域的概率,pi *为该候选框是否包含目标的分类真值;ti为第i个候选框的边界框回归参数,ti *为第i个候选框对应的边界框回归参数真值,Ncls为一个mini-batch中所有样本数量,Nreg为anchor位置的个数,λ为平衡系数,Ncls=256,Nreg=2400,λ=10;损失Lcls描述为交叉熵损失;损失Lloc描述为smoothL1 Loss损失;
S322:采用所述RPN网络提供的候选框训练Fast RCNN网络,并根据所述候选框的边界框回归参数计算所述Fast RCNN网络的损失函数LFast-RCNN,然后根据梯度反向传播更新自身参数;在所述步骤S322中,损失函数LFast-RCNN的表达式与损失函数LRPN一致;
S323:固定特征提取网络CNN-1的参数,微调所述RPN网络和所述Fast RCNN网络中的参数;
S33:运用所述目标重建数据集对所述目标重建单元进行训练,生成ROI的重建图像;
所述步骤S33具体包括步骤:
S331:U-Net网络生成输入图像的重建图像;
S332:计算所述步骤S331的重建图像与步骤S23的ROI重建真值图之间的损失函数L,并根据梯度反向传播更新自身参数;
在所述步骤S332中,所述损失函数L的计算式为:
L=Loss_MSE+Loss_VGG
其中,Loss_MSE代表MSE损失,Loss_VGG代表感知损失;
所述MSE损失的计算式为:
其中,W、H代表重建图像及ROI重建真值图的宽和高,i,j代表第i列第j行的像素点,D代表重建图像的像素值,Dgt代表ROI重建真值图的像素值;
所述感知损失的计算式为:
Loss_VGG=α1*loss_vgg(1,2)+α2*loss_vgg(2,2)+α3*loss_vgg(3,3)+α4*loss_vgg(4,3)
其中,表示计算U-Net网络中VGG-16网络第i层最大池化层之前的第j层卷积层输出的特征图的损失;Wi,j和Hi,j表示VGG-16网络中第i层最大池化层之前的第j层卷积得的特征图的宽和高;Φi,j(I)x,y代表VGG-16网络中第i层最大池化层之前的第j层卷积获得的特征图,x,y代表该特征图中第x列第y行的像素点;I代表重建图,Igt代表真值图,α1=1、α2=10、α3=1×106、α4=5×109代表对应的平衡系数;
S34:运用所述源图像数据集对训练完成的所述全息图重建网络进行测试,完成全息图的重建;
S4:将测试完成的所述全息图重建网络用于其他浮游生物全息源图像的重建。
2.根据权利要求1所述的一种浮游生物全息图的低冗余快速重建方法,其特征在于,所述步骤S2具体包括步骤:
S21:通过卷积重建法对所述源图像数据集中的每幅全息源图像进行重建,得到该全息源图像的多张重建图像;
S22:对每幅全息源图像的多张重建图像进行预处理,得到浮游生物的轮廓曲线,并对轮廓曲线加矩形框得到浮游生物的位置信息,得到目标检测数据集;
S23:根据位置信息对每幅全息源图像的多张重建图像进行剪裁,运用聚焦评价函数对裁剪后的图像进行清晰度测评,选出最清晰的一张作为该全息源图像的ROI重建真值图,从而生成目标重建数据集。
3.根据权利要求2所述的一种浮游生物全息图的低冗余快速重建方法,其特征在于,所述步骤S22具体包括步骤:
S221:将获得的重建图像选用滤波窗口为3*3的中值滤波进行去噪,选用自适应阈值二值化算法对滤波后的图像进行处理,得到二值图像;
S222:将二值图像选用滤波窗口为2*2的开运算去除噪声点,用Canny算子进行边缘检测,得到边缘曲线;
S223:将边缘曲线使用2*2的结构元素进行膨胀处理,使边缘曲线完整闭合,使用findContours算子再次提取浮游生物轮廓;
S224:对提取出的浮游生物轮廓进行外加矩形的操作得到浮游生物的位置信息,从而生成目标检测数据集。
4.根据权利要求2所述的一种浮游生物全息图的低冗余快速重建方法,其特征在于,所述步骤S23具体包括步骤:
S231:按照步骤S22获得的位置信息对重建图像进行剪裁,得到ROI重建图像;
S232:使用Gamma变换对ROI重建图像进行处理;
S233:选用Brenner、Laplacian、SMD、SMD2、Variance、Energy、Vollath七种聚焦评价函数对ROI重建图像进行清晰度评测,以七种测评结果的众数作为该ROI重建图像的输出结果;
S234:将众数最大的ROI重建图像作为ROI重建真值图。
5.根据权利要求1所述的一种浮游生物全息图的低冗余快速重建方法,其特征在于:
所述目标检测单元采用Faster RCNN网络,所述Faster RCNN网络包括RPN网络和FastRCNN网络;所述RPN网络由特征提取网络CNN-1、并行的第一分类网络Softmax-1和第一边界框回归网络Regressor-1构成;所述Fast RCNN网络由所述特征提取网络CNN-1、ROIPooling层和第二边界框回归网络Regressor-2构成;所述RPN网络和所述Fast RCNN网络共享所述特征提取网络CNN-1;所述目标重建单元采用U-Net网络,所述U-Net网络包括四次下采样操作和四次上采样操作。
CN202110922020.4A 2021-08-12 2021-08-12 一种浮游生物全息图的低冗余快速重建方法 Active CN113591854B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110922020.4A CN113591854B (zh) 2021-08-12 2021-08-12 一种浮游生物全息图的低冗余快速重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110922020.4A CN113591854B (zh) 2021-08-12 2021-08-12 一种浮游生物全息图的低冗余快速重建方法

Publications (2)

Publication Number Publication Date
CN113591854A CN113591854A (zh) 2021-11-02
CN113591854B true CN113591854B (zh) 2023-09-26

Family

ID=78257369

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110922020.4A Active CN113591854B (zh) 2021-08-12 2021-08-12 一种浮游生物全息图的低冗余快速重建方法

Country Status (1)

Country Link
CN (1) CN113591854B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114529679B (zh) * 2022-04-19 2022-09-16 清华大学 基于神经辐射场的计算全息场生成方法及装置
CN115145138B (zh) * 2022-06-14 2023-09-26 浙江大学 一种稀疏颗粒全息图快速处理方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置
CN110210463A (zh) * 2019-07-03 2019-09-06 中国人民解放军海军航空大学 基于Precise ROI-Faster R-CNN的雷达目标图像检测方法
KR20200129314A (ko) * 2019-05-08 2020-11-18 전북대학교산학협력단 고해상도 항공 이미지내의 물체를 감지하기 위한 단일 단계 고밀도 피라미드 특징 네트워크
CN112329615A (zh) * 2020-11-04 2021-02-05 中国海洋大学 一种用于水下视觉目标自主抓取的环境态势评估方法
CN112529791A (zh) * 2020-11-16 2021-03-19 中国海洋大学 基于浮游生物数字全息图像的自适应性多焦点复原方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置
KR20200129314A (ko) * 2019-05-08 2020-11-18 전북대학교산학협력단 고해상도 항공 이미지내의 물체를 감지하기 위한 단일 단계 고밀도 피라미드 특징 네트워크
CN110210463A (zh) * 2019-07-03 2019-09-06 中国人民解放军海军航空大学 基于Precise ROI-Faster R-CNN的雷达目标图像检测方法
CN112329615A (zh) * 2020-11-04 2021-02-05 中国海洋大学 一种用于水下视觉目标自主抓取的环境态势评估方法
CN112529791A (zh) * 2020-11-16 2021-03-19 中国海洋大学 基于浮游生物数字全息图像的自适应性多焦点复原方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于深度学习的图像目标检测算法综述;张婷婷;章坚武;郭春生;陈华华;周迪;王延松;徐爱华;;电信科学(07);第96-110页 *

Also Published As

Publication number Publication date
CN113591854A (zh) 2021-11-02

Similar Documents

Publication Publication Date Title
CN111260055B (zh) 基于三维图像识别的模型训练方法、存储介质和设备
US9799098B2 (en) Method and apparatus for image processing
CN113591854B (zh) 一种浮游生物全息图的低冗余快速重建方法
CN112465759A (zh) 一种基于卷积神经网络的航空发动机叶片缺陷检测方法
Dezert et al. Edge detection in color images based on DSmT
Ali et al. Robust focus volume regularization in shape from focus
CN116664605A (zh) 基于扩散模型和多模态融合的医学图像肿瘤分割方法
CN115439408A (zh) 一种金属表面缺陷检测方法、装置及存储介质
Lee et al. Speckle reduction via deep content-aware image prior for precise breast tumor segmentation in an ultrasound image
CN110991408B (zh) 基于深度学习方法分割脑白质高信号的方法和装置
Pang et al. Underwater image enhancement via variable contrast and saturation enhancement model
Weligampola et al. A retinex based gan pipeline to utilize paired and unpaired datasets for enhancing low light images
Nemer et al. Unsupervised fuzzy-wavelet framework for coastal polynya detection in synthetic aperture radar images
CN115689958A (zh) 一种基于深度学习的合成雷达图像去噪方法
CN114863223A (zh) 结合去噪自编码器与场景增强的高光谱弱监督分类方法
Salman et al. Image Enhancement using Convolution Neural Networks
Muneera et al. Edge Preserving Filter Selection for Noise Removal and Histogram Equalization
Ferzo et al. Image Denoising Techniques Using Unsupervised Machine Learning and Deep Learning Algorithms: A Review
Saravanan et al. A new framework to classify the cancerous and non-cancerous pap smear images using filtering techniques to improve accuracy
CN110675372A (zh) 细胞分辨水平的脑组织三维图像的脑区自动分割方法及***
Alaa et al. A new mathematical model for contrast enhancement in digital images
Tomar et al. ENHANCING IMAGE SUPER-RESOLUTION WITH DEEP CONVOLUTIONAL NEURAL NETWORKS.
Mo et al. Contrastive adaptive frequency decomposition network guided by haze discrimination for real-world image dehazing
Hu et al. Remote Sensing Image Reconstruction Method Based on Parameter Adaptive Dual-Channel Pulse-Coupled Neural Network to Optimize Multiscale Decomposition
Chen et al. A Self-supervised SAR Image Despeckling Strategy Based on Parameter-sharing Convolutional Neural Networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant