CN111680741B - 基于深度学习的计算机辅助干涉仪的自动装调方法 - Google Patents

基于深度学习的计算机辅助干涉仪的自动装调方法 Download PDF

Info

Publication number
CN111680741B
CN111680741B CN202010500866.4A CN202010500866A CN111680741B CN 111680741 B CN111680741 B CN 111680741B CN 202010500866 A CN202010500866 A CN 202010500866A CN 111680741 B CN111680741 B CN 111680741B
Authority
CN
China
Prior art keywords
training
data
network
interferometer
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010500866.4A
Other languages
English (en)
Other versions
CN111680741A (zh
Inventor
王志浩
马骏
李镇洋
祁琨雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN202010500866.4A priority Critical patent/CN111680741B/zh
Publication of CN111680741A publication Critical patent/CN111680741A/zh
Application granted granted Critical
Publication of CN111680741B publication Critical patent/CN111680741B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的计算机辅助干涉仪的自动装调方法。采集干涉图及其三维坐标作为训练数据;基于K均值聚类算法对扩充后的训练数据进行分类,获得数据集;采用k折交叉验证法将数据集分为训练集和验证集,并利用每折得到的训练集和验证集对VGG‑16网络模型进行训练;将实时采集的干涉图输入到训练好的VGG‑16网络模型,得到干涉仪的失调量。本发明不需要对具体的干涉图偏差量进行求解,充分利用训练好的网络分类数据,通过对干涉仪所成的干涉图分类确定干涉仪所处位置坐标,进而控制待测镜移动到达准确位置,充分发挥了深度卷积网络的优势,具有鲁棒性较佳,准确度高的优点。

Description

基于深度学习的计算机辅助干涉仪的自动装调方法
技术领域
本发明属于图像处理与计算机视觉技术领域,具体为一种基于深度学习的计算机辅助干涉仪的自动装调方法。
背景技术
计算机辅助装调技术(ComputerAidedAlignment,CAA)是指脱离传统装调中主要依靠人的手动操作和操作经验的、借助计算机和精密移动设备的新技术,在光学领域,各种精密的、复杂的设备和器件使用极为广泛,依靠传统装调方法准确度低,耗时长,采用计算机辅助装调技术能够实时求解光学***的位置失调量,然后控制机械结构调整光学元件位置。计算机辅助装调技术使光学***有机地与电、机、软相结合,更加的智能化与自动化。
目前光学元件检测领域常用的计算机辅助装调方法主要有逆向优化法、下山单纯形法、灵敏度矩阵法等方法。这三种算法的原理都是由计算机建立仿真模型,将干涉仪的检测结果与计算机的仿真结果进行对比,调整评价函数直到其值为0,然后求解位置失调量大小。当位置失调量过多的时候,其计算效率会大大下降,实时性得不到保障,并且这类方法大多需要研究Zernike多项式与波像差理论,求解***失调量,本身在公式上已经存在近似误差。
基于深度学习的方法一般包括特征提取,分类器训练和检测三个部分。近些年来,随着技术的发展,深度学习在图像处理领域几乎成为最热门的方向之一。将深度学习用于光学领域的计算机辅助装调技术也开始蓬勃发展起来。2015年西班牙的Esther Oteo和JosepArasa提出了利用人工神经网络进行光学***失调量计算的新策略,基于数学上多项式逼近泽尼克系数的不确定性,研究通过非线性函数逼近来提高多项式的逼近结果,并利用神经网络计算***失调量中的倾斜值和离心率,进而调整光学元件的位置。该方法提高了Zernike多项式的拟合精度,但是没有从根本上解决计算机仿真模型的误差。
发明内容
本发明的目的在于提供了一种基于深度学习的计算机辅助干涉仪的自动装调方法,以提高计算机辅助干涉仪自动装调方法的速度和准确性。
实现本发明目的的技术方案为:一种基于深度学习的计算机辅助干涉仪的自动装调方法,具体步骤为:
步骤1:采集干涉图及其三维坐标作为训练数据;
步骤2:基于K均值聚类算法对扩充后的训练数据进行分类,获得数据集;
步骤3:采用k折交叉验证法将数据集分为训练集和验证集,并利用每折得到的训练集和验证集对VGG-16网络模型进行训练;
步骤4:将实时采集的干涉图输入到训练好的VGG-16网络模型,得到干涉仪的失调量。
优选地,采集干涉图及其三维坐标作为训练数据的具体步骤为:
步骤11:将待测镜固定在调整架上,调整待测镜,使得干涉仪图像采集窗口出现同心圆环形干涉条纹,调整待测镜分别在X、Y、Z轴方向进行移动,采集每次移动对应的干涉图及待测镜位置的三维坐标;
步骤12:对采集到的干涉图像进行数据增强实现数据扩充。
优选地,基于K均值聚类算法对扩充后的训练数据进行分类的具体方法为:
将三维坐标数据分为K组,随机选取K个对象作为初始的聚类中心,计算每个坐标与各个聚类中心之间的欧式距离,把每个坐标分配给距离它最近的聚类中心;每分配一个坐标,根据聚类中现有的坐标重新计算聚类中心,直到无法计算出聚类中心或聚类中心不再发生变化;根据坐标的聚类结果,将坐标对应的干涉图进行聚类得到数据集,将类别作为数据集的标签值。
优选地,采用k折交叉验证法将数据集分为训练集和验证集,并利用每折得到的训练集和验证集对VGG-16网络模型进行训练的具体方法为:
步骤31:对数据集进行预处理,包括对数据集进行均衡化以及自适应裁剪;
步骤32:对每类数据集进行等间距划分;
步骤33:从每类数据集中随机挑选出一份数据集合并作为验证集,其余都作为训练集;
步骤34:对全连接网络部分进行冻结,将训练集与网络损失函数输入VGG-16网络的特征提取卷积神经网络部分,并将对应的类别作为标签值,训练特征提取卷积神经网络;
步骤35:解除对全连接层的冻结,将网络权重更改为步骤34训练得到的权重,将训练集与网络损失函数输入VGG-16网络模型进行第二次训练;
步骤36:返回步骤33进行下一折的训练,将总损失函数最小的一折的权重作为VGG-16网络模型最优权重。
优选地,步骤34中初始学习率设为0.01,并在特征提取卷积神经网络最后一层以及其前一层之间加入Dropout,对神经元之间的连接进行选择性失活。
优选地,步骤35中初始学习率设定为1e-4
本发明与现有技术相比,其显著优点为:本发明不需要对具体的干涉图偏差量进行求解,借助深度学习算法对干涉图进行分类,确定***失调量的范围,提高了计算机辅助干涉仪自动装调方法的速度和准确性。
附图说明
图1为一种基于深度学习的计算机辅助干涉仪的自动装调方法流程图。
图2为VGG-16的具体结构示意图。
图3为k折交叉验证法的流程图。
具体实施方式
如图1所示,一种基于深度学习的计算机辅助干涉仪的自动装调方法,包含训练和测试两个阶段,具体步骤为:
步骤1:利用干涉仪采集干涉图及其三维坐标作为训练数据。光线从干涉仪发出,经待测镜反射后进入干涉仪,在干涉仪内部形成干涉,经CCD收集图像,在干涉仪配套的计算机中显示干涉图。利用干涉仪采集干涉图及其三维坐标作为训练数据包含以下步骤:
步骤11:将待测镜固定在调整架上,调整待测镜,使得干涉仪图像采集窗口出现同心圆环形干涉条纹,然后微调待测镜的X、Y、Z坐标,直到条纹位于中心且最为稀疏,将此位置作为原点。调整待测镜分别在X、Y、Z轴方向进行移动,采集每次移动对应的干涉图及待测镜位置的三维坐标。采集至少8000张X、Y、Z坐标不同的干涉图。
步骤12:对采集到的干涉图像进行数据增强实现数据扩充:考虑到这个图片集数据的有限性,为了避免网络过拟合,获得更多的数据进行学习与处理,对图像进行诸如翻转、旋转、缩放、裁剪、添加噪声等数据增强操作来扩充图片集,使得神经网络具有更好的泛化效果。
步骤2:基于K均值聚类算法对扩充后的训练数据进行分类,具体为:
将三维坐标数据分为K组,随机选取K个对象作为初始的聚类中心,然后计算每个坐标与各个聚类中心之间的欧式距离,把每个坐标分配给距离它最近的聚类中心。聚类中心以及分配给它们的坐标就代表一个聚类。每分配一个坐标,根据聚类中现有的坐标重新计算聚类中心。这个过程将不断重复直到满足没有(或最小数目)聚类中心再发生变化。根据坐标的聚类结果,将坐标对应的干涉图也进行聚类,即干涉图按照坐标进行聚类,成为后续网络训练的数据集,而将类别作为数据集的标签值记录下来。
步骤3:采用k折交叉验证法将数据集分为训练集和验证集,并利用每折得到的训练集和验证集对VGG-16网络模型进行训练;
所述VGG-16网络模型基于VGG-16框架实现。VGG网络是由Simonyan和Zisserman在文献《Very Deep Convolutional Networks for Large Scale Image Recognition》中提出的卷积神经网络模型。VGG-16的突出特点是简洁,体现在:(1)卷积层均采用相同的卷积核参数。卷积层均表示为conv3-XXX,其中conv3说明该卷积层采用的卷积核的尺寸是3,即宽和高均为3,3*3是很小的卷积核尺寸,结合其它参数(步幅stride=1,填充方式padding=same),这样就能够使得每一个卷积层(张量)与前一层(张量)保持相同的宽和高。XXX代表卷积层的通道数。(2)池化层均采用相同的池化核参数。池化层的参数均为2×2,步幅stride=2的池化方式,这样就能够使得每一个池化层的宽和高是前一层的1/2。(3)模型是由若干卷积层和池化层堆叠的方式构成,比较容易形成较深的网络结构。VGG-16的具体结构示意图如图2所示。
所述VGG-16网络模型包括:13个卷积层(Convolutional Layer)、5个池化层(Poollayer)、3个全连接层(Fully connected Layer),卷积层和池化层一起组成了特征提取卷积神经网络。采用迁移学习的策略:迁移学习的原理是借助通用的VGG-16的训练网络的相关参数,对本发明的VGG-16网络模型进行初始化,避免网络在后续训练中陷入不好的局部最小值,并加速网络的收敛;根据训练集特点对预训练权重中网络结构以及权重数量进行改进:网络的输出层节点数根据测试镜的X、Y、Z轴可调节范围确定,由于输出层节点数较多,适当增加了隐含层节点数;
进一步的实施例中,具体的训练过程为:
步骤31:对数据集进行预处理,考虑到数据集不均衡的特点,即数据集中经过K均值聚类之后,每一类所包含的图像数量不相同,对数据集进行均衡化,保证最后的分类结果具有一致性;并对不同尺寸图像进行自适应裁剪处理,使之符合通用VGG-16网络的输入标准;
步骤32:对每类数据集进行等间距划分;
步骤33:从每类数据集中随机挑选出一份数据集合并作为验证集,其余都作为训练集;
步骤34:对全连接网络部分进行冻结,将训练集与网络损失函数输入VGG-16网络的特征提取卷积神经网络部分,并将对应的类别作为标签值,训练特征提取卷积神经网络。在训练过程中,先将初始学习率设为0.01,并在特征提取卷积神经网络最后一层与前一层之间加入Dropout,对神经元之间的连接进行选择性失活,以此来减少参数总数量,降低网络的过拟合概率,然后添加Earlystop机制,即迭代过程中验证误差连续增加3次时终止训练的机制,以此来保证训练效果最优。在迭代过程中,学习率进行缓慢衰减,以此来降低参数更新速度,设定学习率下限以免学习率过低而影响训练进度;对每个迭代后的权重进行保存,方便选择最佳权重文件来进行后续的微调;
步骤35:解除对全连接层的冻结,将网络权重更改为步骤34训练得到的权重,再进行第二次训练。第二次训练将初始学习率设定为1e-4,同时在每次迭代中将学习率进行缓慢的衰减,衰减的大小为前一次的0.85,起到了微调的作用;同时也加入了Earlystop机制来保证训练效果最优;
步骤36:返回步骤33进行下一折的训练。完成全部训练后,取总损失函数(val_loss)较小的一折的权重文件作为VGG-16网络模型最优权重。本发明中总损失函数(val_loss)定义为本折选中的训练集的损失函数与验证集的损失函数之和。
本发明采用k折交叉验证法,保证训练集和验证集中所包含的特征在每次训练都能覆盖到。
步骤37:通过调用训练好的权重文件对现有图片的类别进行预测,将预测的正确率作为最终的模型评价指标。
至此,本发明所提供的一种基于深度学习的计算机辅助干涉仪的自动装调方法的训练阶段完成。
步骤4:在测试阶段,将干涉仪实时采集到的干涉图输入到训练好的模型中,就可以得到干涉图对应的坐标,即干涉仪待测镜的失调量,进而根据失调量调整待测镜移动到三维坐标均为0的位置,实现自动装调。
本发明基于深度学习的开源工具pycharm实现。
综上所述,本发明公开了一种基于深度学习的计算机辅助干涉仪的自动装调方法,主要阐述了训练网络的方法。首先对采集并导入的干涉图图像进行数据增强,扩充数据集,然后利用K均值聚类算法进行数据集分类,然后基于改进的VGG-16网络来进行训练。本发明采用的是一个并不复杂的通用网络,可以达到不错的实验效果,充分发挥了深度卷积网络的优势,具有设计简单,效率高的优点。
本发明不需要对具体的干涉图偏差量进行求解,充分利用训练好的网络分类数据,通过对干涉仪所成的干涉图分类确定干涉仪所处位置坐标,进而控制待测镜移动到达准确位置,充分发挥了深度卷积网络的优势,具有鲁棒性较佳,准确度高的优点。
本发明直接从训练样本中学习干涉图的图像特征与位置失调量之间的关系,得到模型,然后将干涉仪实时采集到的干涉图导入模型中,根据其图像特征求解位置失调量,不需要对具体的干涉图偏差量进行求解,能够提高装调的准确性和效率。

Claims (5)

1.一种基于深度学习的计算机辅助干涉仪的自动装调方法,其特征在于,具体步骤为:
步骤1:采集干涉图及其三维坐标作为训练数据;
步骤2:基于K均值聚类算法对扩充后的训练数据进行分类,获得数据集;
步骤3:采用k折交叉验证法将数据集分为训练集和验证集,并利用每折得到的训练集和验证集对VGG-16网络模型进行训练,具体方法为:
步骤31:对数据集进行预处理,包括对数据集进行均衡化以及自适应裁剪;
步骤32:对每类数据集进行等间距划分;
步骤33:从每类数据集中随机挑选出一份数据集合并作为验证集,其余都作为训练集;
步骤34:对全连接网络部分进行冻结,将训练集与网络损失函数输入VGG-16网络的特征提取卷积神经网络部分,并将对应的类别作为标签值,训练特征提取卷积神经网络;
步骤35:解除对全连接层的冻结,将网络权重更改为步骤34训练得到的权重,将训练集与网络损失函数输入VGG-16网络模型进行第二次训练;
步骤36:返回步骤33进行下一折的训练,将总损失函数最小的一折的权重作为VGG-16网络模型最优权重;
步骤4:将实时采集的干涉图输入到训练好的VGG-16网络模型,得到干涉仪的失调量。
2.根据权利要求1所述的基于深度学习的计算机辅助干涉仪的自动装调方法,其特征在于,采集干涉图及其三维坐标作为训练数据的具体步骤为:
步骤11:将待测镜固定在调整架上,调整待测镜,使得干涉仪图像采集窗口出现同心圆环形干涉条纹,调整待测镜分别在X、Y、Z轴方向进行移动,采集每次移动对应的干涉图及待测镜位置的三维坐标;
步骤12:对采集到的干涉图像进行数据增强实现数据扩充。
3.根据权利要求1所述的基于深度学习的计算机辅助干涉仪的自动装调方法,其特征在于,基于K均值聚类算法对扩充后的训练数据进行分类的具体方法为:
将三维坐标数据分为K组,随机选取K个对象作为初始的聚类中心,计算每个坐标与各个聚类中心之间的欧式距离,把每个坐标分配给距离它最近的聚类中心;每分配一个坐标,根据聚类中现有的坐标重新计算聚类中心,直到无法计算出聚类中心或聚类中心不再发生变化;根据坐标的聚类结果,将坐标对应的干涉图进行聚类得到数据集,将类别作为数据集的标签值。
4.根据权利要求1所述的基于深度学习的计算机辅助干涉仪的自动装调方法,其特征在于,步骤34中初始学习率设为0.01,并在特征提取卷积神经网络最后一层以及其前一层之间加入Dropout,对神经元之间的连接进行选择性失活。
5.根据权利要求1所述的基于深度学习的计算机辅助干涉仪的自动装调方法,其特征在于,步骤35中初始学习率设定为1e-4
CN202010500866.4A 2020-06-04 2020-06-04 基于深度学习的计算机辅助干涉仪的自动装调方法 Active CN111680741B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010500866.4A CN111680741B (zh) 2020-06-04 2020-06-04 基于深度学习的计算机辅助干涉仪的自动装调方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010500866.4A CN111680741B (zh) 2020-06-04 2020-06-04 基于深度学习的计算机辅助干涉仪的自动装调方法

Publications (2)

Publication Number Publication Date
CN111680741A CN111680741A (zh) 2020-09-18
CN111680741B true CN111680741B (zh) 2022-09-20

Family

ID=72434934

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010500866.4A Active CN111680741B (zh) 2020-06-04 2020-06-04 基于深度学习的计算机辅助干涉仪的自动装调方法

Country Status (1)

Country Link
CN (1) CN111680741B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116593137B (zh) * 2023-07-14 2023-09-29 苏州然玓光电科技有限公司 一种基于干涉仪的光学镜片质量测试方法及***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170140473A (ko) * 2016-06-10 2017-12-21 주식회사 토모큐브 3차원 굴절률 토모그램과 딥러닝을 이용한 비염색 비표지 세포 종류 구분 방법 및 장치
CN107564025A (zh) * 2017-08-09 2018-01-09 浙江大学 一种基于深度神经网络的电力设备红外图像语义分割方法
CN109726743A (zh) * 2018-12-12 2019-05-07 苏州大学 一种基于三维卷积神经网络的视网膜oct图像分类方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170140473A (ko) * 2016-06-10 2017-12-21 주식회사 토모큐브 3차원 굴절률 토모그램과 딥러닝을 이용한 비염색 비표지 세포 종류 구분 방법 및 장치
CN107564025A (zh) * 2017-08-09 2018-01-09 浙江大学 一种基于深度神经网络的电力设备红外图像语义分割方法
CN109726743A (zh) * 2018-12-12 2019-05-07 苏州大学 一种基于三维卷积神经网络的视网膜oct图像分类方法

Also Published As

Publication number Publication date
CN111680741A (zh) 2020-09-18

Similar Documents

Publication Publication Date Title
CN109145939B (zh) 一种小目标敏感的双通道卷积神经网络语义分割方法
CN111563706A (zh) 一种基于lstm网络的多变量物流货运量预测方法
CN114841257B (zh) 一种基于自监督对比约束下的小样本目标检测方法
CN108665005B (zh) 一种利用dcgan提高基于cnn图像识别性能的方法
CN114092832B (zh) 一种基于并联混合卷积网络的高分辨率遥感影像分类方法
CN110543906B (zh) 基于Mask R-CNN模型的肤质自动识别方法
CN113554156B (zh) 基于注意力机制与可变形卷积的多任务图像处理方法
CN113228096A (zh) 通过机器学习进行光学矫正
CN109993208A (zh) 一种有噪声图像的聚类处理方法
CN116992779B (zh) 基于数字孪生模型的光伏储能***仿真方法及***
CN112598683A (zh) 一种基于扫频光学相干层析成像的扫频oct人眼图像分割方法
CN111694977A (zh) 一种基于数据增强的车辆图像检索方法
CN111680741B (zh) 基于深度学习的计算机辅助干涉仪的自动装调方法
CN116561614A (zh) 一种基于元学习的小样本数据处理***
CN115423145A (zh) 一种基于Kmeans-VMD-WT-LSTM方法的光伏功率预测方法
CN114372926A (zh) 一种基于图像修复与卷积神经网络的中医舌质老嫩识别方法
CN113762370A (zh) 一种结合高斯随机场的深度网络集合生成方法
CN112651499A (zh) 一种基于蚁群优化算法和层间信息的结构化模型剪枝方法
CN112862063A (zh) 一种基于深度信念网络的复杂管网泄漏定位方法
CN112508183A (zh) 用于图像分类的单纯形神经网络的构建方法及装置
CN117034060A (zh) 基于ae-rcnn的洪水分级智能预报方法
CN116933090A (zh) 一种基于深度神经网络的pm2.5预测方法和装置
CN117152427A (zh) 基于扩散模型和知识蒸馏的遥感图像语义分割方法与***
CN113657438B (zh) 一种热红外模式下vgg神经网络的排水管道病害检测方法
CN113807005B (zh) 基于改进fpa-dbn的轴承剩余寿命预测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant