CN110414383A - 基于Wasserstein距离的卷积神经网络对抗迁移学习方法及其应用 - Google Patents
基于Wasserstein距离的卷积神经网络对抗迁移学习方法及其应用 Download PDFInfo
- Publication number
- CN110414383A CN110414383A CN201910624662.9A CN201910624662A CN110414383A CN 110414383 A CN110414383 A CN 110414383A CN 201910624662 A CN201910624662 A CN 201910624662A CN 110414383 A CN110414383 A CN 110414383A
- Authority
- CN
- China
- Prior art keywords
- convolutional neural
- neural networks
- source domain
- target
- wasserstein distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/192—Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
- G06V30/194—References adjustable by an adaptive method, e.g. learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/08—Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于Wasserstein距离的卷积神经网络对抗迁移学习方法及其应用,包括:采用待迁移的卷积神经网络,得到源域标记样本集的源域特征集和源域故障判断集以及目标域样本集的目标特征集;以最大化源域特征集和目标特征集之间的Wasserstein距离并最小化Wasserstein距离和源域故障判断集的判断损失值的加和为目标,基于收敛判据,实现卷积神经网络的对抗迁移学习。本发明在卷积神经网络的迁移学习中引入Wasserstein距离,以Wasserstein距离最大为目标,提高对两种样本集所提取的特征的区分敏感度,再以Wasserstein距离和源域故障判断集的损失值的加和最小为目标,以提高卷积神经网络的判断精度,在保证故障诊断能力的同时对样本数据和网络结构要求低,可适用于多工况间迁移,实际应用性强。
Description
技术领域
本发明属于工业过程故障诊断领域,更具体地,涉及一种基于Wasserstein距离的卷积神经网络对抗迁移学习方法及其应用,
背景技术
故障诊断旨在通过使用获取的测量数据和其他信息,监测和分析机器状态来隔离***上的故障,想做到上述这点需要具有高超技能、经验丰富的专家,这增加了使用人工智能技术做出故障诊断决策的需求。实时故障诊断框架的部署允许维护团队提前采取行动来更换或修复受影响的组件,从而提高生产效率并保证操作安全。因此,精确的诊断轴承故障对机械制造***的可靠性和安全性具有关键意义。
许多先进的信号处理和机器学习技术已被用于故障诊断。在过去几年中,深度学习模型(例如,深度置信网络,稀疏自动编码器,尤其是卷积神经网络),在故障诊断任务中,比基于规则和基于模型的方法,表现出更好的拟合和学习能力,其旨在利用相关源域的知识(具有足够的标记数据),在目标域(标记数据不足或没有标记数据)中进行学习,从而节省了从头开始重建一个新的故障诊断模型的大量时间和计算成本。
然而,上述深度学习模型仍存在两个困难:1)大多数方法需要基于独立同分布假设,即源域和目标域任务的样本集需要相同的分布。因此,当面对新的诊断任务时,提前训练的网络的适应性受到限制,其中新任务的不同操作条件和物理特性可能导致新样本集(目标样本集)和原始样本集(源样本集)之间的分布差异,导致的结果是:对于新的故障诊断任务,深度学习模型通常是需要从头开始训练,这导致计算资源和训练时间的浪费;2)目标域中标记或未标记的数据不足是另一个常见问题。在实际工业情况下,对于新的诊断任务,收集足够的典型样本以构建大规模和高质量的数据集来训练网络是极其困难的。并且由于难以在封装设备中安装足够的传感器,同时,工业打标通常需要昂贵的人力。因此,域适应的挑战在于无法在目标域中采集到有标记的数据或者只能收集到少量的有标记数据。
基于上述挑战,目前深度迁移学***均差异法最为常见,但这种最大平均差异法,计算成本将随着样本数的增加而呈四次方增长,这限制了MMD在许多具有大数据集的实际应用中的适用性。
因此,开发一种工业实用性强且故障诊断能力高的深度迁移学习算法,是目标工业过程故障诊断领域亟待解决的技术问题。
发明内容
本发明提供一种基于Wasserstein距离的卷积神经网络对抗迁移学习方法及其应用,用以解决现有深度迁移学习方法在保证工业过程故障诊断能力的同时对实际样本数据和/或神经网络结构要求较高而导致难以应用于实际工业过程的技术问题。
本发明解决上述技术问题的技术方案如下:一种基于Wasserstein距离的卷积神经网络对抗迁移学习方法,包括:
步骤1、从源域标记数据集和目标域数据集中,确定源域标记样本集和目标域样本集;
步骤2、采用待迁移学习的卷积神经网络,得到所述源域标记样本集的源域特征集和源域故障判断集以及所述目标域样本集的目标特征集;
步骤3、以最大化所述源域特征集和所述目标特征集之间的Wasserstein距离并最小化所述Wasserstein距离和所述源域故障判断集的判断损失值的加和为目标,调整所述卷积神经网络的参数,基于收敛判据,重复步骤1,或者,完成卷积神经网络的对抗迁移学习。
本发明的有益效果是:本发明在卷积神经网络的迁移学习中引入Wasserstein距离,以Wasserstein距离最大为目标,提高对两种样本集所提取的特征的区分敏感度,再以Wasserstein距离和源域故障判断集的判断损失值的加和最小为目标,以提高卷积神经网络的判断精度。基于上述目标,优化卷积神经网络的参数,在训练过程中,两个目标形成对抗,实现深度对抗迁移学习。因此,本发明训练得到的卷积神经网络能够最小化源域和目标域之间的分布差异,采用未标记的目标域数据进行无监督迁移学习,就足够获得精确度高的故障诊断能力。一定程度上解决了现有技术面对新的故障诊断任务需要从头开始重建深度学习模型所导致的计算资源和训练时间的浪费以及缺乏在目标域中足够的标记数据的技术问题,并且在保证工业过程故障诊断能力的同时,对样本数据和网络结构没有特别高的要求,适用于实际工业过程的故障诊断。
上述技术方案的基础上,本发明还可以做如下改进。
进一步,所述Wasserstein距离为:
通过采用域相似度评价神经网络,分别将所述源域特征集映射为源域实数集、所述目标特征集映射为目标实数集,并将所述源域实数集的实数平均值减去所述目标实数集的实数平均值计算得到。
本发明的进一步有益效果是:本发明引入域相似度评价神经网络,分别将源域判断集和目标判断集映射为实数,基于实数计算Wasserstein距离,以Wasserstein距离最大为目标,训练基于域相似度的评价神经网络,提高域相似度评价神经网络对两种样本集所提取的特征的区分敏感度。其中,基于实数平均值进行Wasserstein距离计算,简单且可靠性高。
进一步,所述步骤3包括:
步骤3.1、以增大所述源域特征集和所述目标特征集之间的Wasserstein距离为目标,优化所述域相似度评价神经网络的参数,得到预设迭代次数对应的新的域相似度评价神经网络;
步骤3.2、基于所述源域标记样本集、所述目标域样本集和所述新的域相似度评价神经网络,以减小所述Wasserstein距离和所述卷积神经网络的判断损失值的加和为目标,优化所述卷积神经网络的参数,得到预设迭代次数对应的新的卷积神经网络;
步骤3.3、基于域相似度评价神经网络和卷积神经网络的收敛判据,停止训练,完成所述卷积神经网络的对抗迁移学习,或者,重复步骤1。
本发明的进一步有益效果是:以Wasserstein距离最大为目标,训练域相似度评价神经网络,提高域相似度评价神经网络对两种样本集所提取的特征的区分敏感度。之后,固定域相似度评价神经网络的参数,调整卷积神经网络的参数,一方面基于卷积神经网络得到源域样本集的判断损失值,另一方面,将卷积神经网络提取得到的源域特征集和目标域特征集输入上述训练好的域相似度评价神经网络,得到Wasserstein距离,以Wasserstein距离和判断损失值的加和最小为目标,训练故障判断卷积神经网络。因此,基于先训练域相似度评价神经网络后训练卷积神经网络,之后再训练域相似度评价神经网络再训练卷积神经网络的方式,反复迭代多次,直至两种神经网络收敛,完成卷积神经网络训练,使得该积神经网络具有较高的故障判断能力。
进一步,所述步骤3.1中,所述Wasserstein距离为基于梯度惩罚的所述源域实数集的实数平均值和所述目标实数集的实数平均值的差值;
所述步骤3.2中,所述Wasserstein距离为所述源域实数集的实数平均值和所述目标实数集的实数平均值的差值。
本发明的进一步有益效果是:本发明引入梯度惩罚,用于限制域相似度评价神经网络,防止参数过于复杂,降低计算复杂度,提高域相似度评价神经网络和卷积神经网络的收敛速度。另外,在优化卷积神经网络的参数时,忽略梯度惩罚,梯度惩罚不影响特征表示的学习过程,避免了梯度惩罚对卷积神经网络的故障诊断能力。
进一步,所述Wasserstein距离表示:
源域子实数集的实数平均值减去目标子实数集的实数平均值;
其中,所述源域子实数集是通过利普希茨约束从所述源域实数集获得,所述目标子实数集是通过所述利普希茨约束从所述目标实数集获得。
本发明的进一步有益效果是:基于利普希茨约束,得到计算Wasserstein距离所需的实数集,降低数据维度,在保证卷积神经网络的故障诊断能力的同时,提高域相似度评价神经网络和卷积神经网络的收敛速度。
进一步,所述利普希茨约束具体为一阶利普希茨约束。
本发明的进一步有益效果是:采用一阶的利普希茨约束,计算Wasserstein距离,以保证卷积神经网络的连续性和可导性,同时保证卷积神经网络的故障诊断能力的同时,提高域相似度评价神经网络和卷积神经网络的收敛速度。
进一步,当所述目标域样本集中包括部分标记样本时,则所述步骤2为:
采用待迁移学习的卷积神经网络,得到所述源域标记样本集的源域特征集和源域故障判断集以及所述目标域样本集的目标特征集和目标故障判断集;
所述步骤3为:
以最大化所述源域特征集和所述目标特征集之间的Wasserstein距离并最小化所述Wasserstein距离、所述源域故障判断集的判断损失值和所述目标故障判断集的判断损失值的加和为目标,调整所述卷积神经网络的参数,基于收敛判据,重复步骤1,或者,完成卷积神经网络的对抗迁移学习。
本发明的进一步有益效果是:本发明的深度对抗迁移学习方法,即使面对相关但不足够相似的任务之间的迁移任务(例如不同传感器位置之间的迁移学习)时,与大量未标记样本的无监督情况相比,只需添加少量标记的目标域样本,便大大提高迁移学习的准确性。因此,本发明不仅适用于目标域样本集无标记的情况,也适用于有部分标记的样本集,灵活应用。且当采用有部分标记的目标域样本集时,能够进一步提高对抗迁移训练得到的卷积神经网络对工业过程故障的判断精度,实用性强。
本发明还提供一种工业过程故障诊断卷积神经网络,采用如上所述的任一种基于Wasserstein距离的卷积神经网络对抗迁移学习方法训练得到。
本发明的有益效果是:可以基于任务之间的相关性,采用上述任一种基于Wasserstein距离的卷积神经网络对抗迁移学习方法训练得到的卷积神经网络,将源域对应的卷积神经网络深度对抗迁移学习为适用于源域和目标域且精度较高的卷积神经网络,一定程度上解决了现有技术面对新的故障诊断任务需要从头开始重建深度学习模型所导致的计算资源和训练时间的浪费以及缺乏在目标域中足够的样本数据的技术问题。
本发明还提供一种工业过程故障诊断方法,基于如上所述的任一种工业过程故障诊断卷积神经网络,当接收到如上所述的任一种基于Wasserstein距离的卷积神经网络对抗迁移学习方法中所述目标域的新样本时,得到该新样本对应的工业过程故障判断结果。
本发明的有益效果是:采用上述任一种基于Wasserstein距离的卷积神经网络对抗迁移学习方法训练得到的卷积神经网络,进行工业过程故障诊断,在保证安全、高效的前提下,故障诊断精度更高。
本发明还提供一种存储介质,所述存储介质中存储有指令,当计算机读取所述指令时,使所述计算机执行上述任一种基于Wasserstein距离的卷积神经网络对抗迁移学习方法和/或如上所述的任一种工业过程故障诊断方法。
附图说明
图1为本发明一个实施例提供的一种基于Wasserstein距离的卷积神经网络对抗迁移学习方法的流程框图;
图2为本发明一个实施例提供的基于Wasserstein距离的卷积神经网络对抗迁移学习方法的流程图;
图3为本发明一个实施例提供的迁移任务US(C)→US(A)的卷积神经网络输出可视化示意图;
图4为本发明一个实施例提供的迁移任务US(E)→US(F)的的卷积神经网络输出可视化示意图;
图5为本发明一个实施例提供的任务(a)US(E)→US(F)和任务(b)S(E)→S(F)的诊断准确度随样本数量变化曲线。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
实施例一
一种基于Wasserstein距离的卷积神经网络对抗迁移学习方法100,如图1所示,包括:
步骤110、从源域标记数据集和目标域数据集中,确定源域标记样本集和目标域样本集;
步骤120、采用待迁移学习的卷积神经网络,得到源域标记样本集的源域特征集和源域故障判断集以及目标域样本集的目标特征集;
步骤130、以最大化源域特征集和目标特征集之间的Wasserstein距离并最小化Wasserstein距离和源域故障判断集的判断损失值的加和为目标,调整卷积神经网络的参数,基于收敛判据,重复步骤110,或者,完成卷积神经网络的对抗迁移学习。
需要说明的是,在本发明之前,需要先基于源域数据集,训练得到一个卷积神经网络,该卷积神经网络即为待迁移学习的卷积神经网络。
具体的,首先,使用源域的标记数据集Xs对卷积神经网络模型进行预训练:卷积层包含一个大小为k的滤波器和偏置被用来计算特征。一个输出特征vi通过滤波器w和一个非线性激活函数Γ获得,具体表达式为:υi=Γ(w*uj+b),其中,是代表源域数据集Xs第j个子向量的输入数据,“*”代表卷积操作。使用非线性激活函数修正线性单元(ReLU)来降低影响深度学习优化过程中梯度消失的风险。因此,定义特征映射为v=[υ1,υ2,...,υL],其中L=(pN-s)/Icv+1是特征数,p表示填充的大小,N表示输入的维度,s表示滤波器大小,是卷积操作的步长。
然后,将最大池化层应用到特征映射上,以提取一个步长范围内的最大特征值最大池化对应的滤波器大小为β,步长为Ipl。
通过交替堆叠多个卷积层和最大池化层(滤波器尺寸可变),构造用于描述特征的多层结构。多层结构的输出特征被展平并传递给全连接层来进行分类,从而在标签上产生概率分布的最终输出。源域中预训练的卷积神经网络使用Softmax函数来获得最终的分类结果。为了在源域中计算预测标签和真实数据的标签之间的差异,使用交叉熵计算损失lc,即:
具有未标记数据的目标域的可迁移特征,通过上述训练的卷积神经网络的特征提取器(即为全连接层之前的网络结构,包括卷积层和最大池化层交替堆叠构成的多层结构)直接获得。
下一步衡量源数据集和目标数据集之间的特征分布差异。具体的,可以基于在两个特征分布之间的共同潜在空间,利用Wasserstein距离,进行对抗训练,来学习提取不变特征。具体使用预训练卷积神经网络模型的特征提取器来学习来自两个域的特征。对于n<Ns,Nt,给定两个来自Xs和Xt的小批量实例和两个实例都通过一个参数为θf的特征提取器直接生成源域特征hs=rf(xs)和目标域特征ht=rf(xt)。设和分别为hs和ht的分布。其中,(·)s和(·)t分别代表源域和目标域信息。
通过Wasserstein距离进行域适应的目的是优化参数θf以减小分布和之间的距离,即学习两个域的不变特征。
本实施例采用反向传播理论优化模型思想。在卷积神经网络的迁移学习中引入Wasserstein距离,以Wasserstein距离最大为目标,提高对两种样本集所提取的特征的区分敏感度,再以Wasserstein距离和源域故障判断集的判断损失值的加和最小为目标,以提高卷积神经网络的判断精度。基于上述目标,更改卷积神经网络的参数,在训练过程中,两个目标形成对抗,实现深度对抗迁移学习。因此,本实施例训练得到的卷积神经网络能够最小化源域和目标域之间的分布差异,采用未标记的目标域数据进行无监督迁移学习,就足够获得精确度高的故障诊断能力。一定程度上解决现有技术面对新的故障诊断任务需要从头开始重建深度学习模型所导致的计算资源和训练时间的浪费以及在目标域中缺乏足够的样本数据的技术问题。
优选的,Wasserstein距离为:
通过采用域相似度评价神经网络,分别将源域特征集映射为源域实数集、目标特征集映射为目标实数集,并将源域实数集的实数平均值减去目标实数集的实数平均值计算得到。
本实施例引入域相似度评价神经网络,分别将源域判断集和目标判断集映射为实数,基于实数计算Wasserstein距离,以Wasserstein距离最大为目标,训练域相似度评价神经网络,提高域相似度评价神经网络对两种样本集所提取的特征的区分敏感度。其中,基于实数平均值进行Wasserstein距离计算,简单且可靠性高。
优选的,步骤130包括:
步骤131、以增大源域特征集和目标特征集之间的Wasserstein距离为目标,调整域相似度评价神经网络的参数,得到预设迭代次数对应的新的域相似度评价神经网络;
步骤132、基于源域标记样本集、目标域样本集和新的域相似度评价神经网络,以减小Wasserstein距离和卷积神经网络的判断损失值的加和为目标,更改卷积神经网络的参数,得到预设迭代次数对应的新的卷积神经网络;
步骤133、基于域相似度评价神经网络和卷积神经网络的收敛判据,停止训练,完成卷积神经网络的对抗迁移学习,或者,重复步骤110。
以Wasserstein距离最大为目标,训练域相似度评价神经网络,提高域相似度评价神经网络对两种样本集所提取的特征的区分敏感度。之后,固定域相似度评价神经网络的参数,调整卷积神经网络的参数,一方面基于卷积神经网络得到源域样本集的判断损失值,另一方面,将卷积神经网络提取得到的源域特征集和目标域特征集输入上述训练好的域相似度评价神经网络,得到Wasserstein距离,以Wasserstein距离和判断损失值的加和最小为目标,训练故障判断卷积神经网络。因此,基于先训练域相似度评价神经网络后训练卷积神经网络,之后再训练域相似度评价神经网络再训练卷积神经网络的方式,反复迭代多次,直至两种神经网络收敛,完成卷积神经网络训练,使得该积神经网络具有较高的故障判断能力。
优选的,Wasserstein距离表示:源域子实数集的实数平均值减去目标子实数集的实数平均值;其中,源域子实数集是通过利普希茨约束从源域实数集获得,目标子实数集是通过利普希茨约束从目标实数集获得。
基于利普希茨约束,得到计算Wasserstein距离所需的实数集,降低数据维度,在保证卷积神经网络的故障诊断能力的同时,提高域相似度评价神经网络和卷积神经网络的收敛速度。
优选的,利普希茨约束具体为一阶利普希茨约束。
采用一阶的利普希茨约束,计算Wasserstein距离,降低计算复杂度,在保证卷积神经网络的故障诊断能力的同时,提高域相似度评价神经网络和卷积神经网络的收敛速度。
优选的,Wasserstein距离为基于梯度惩罚的Wasserstein距离。
引入梯度惩罚,用于限制神经网络,防止参数过于复杂,降低计算复杂度,提高域相似度评价神经网络和卷积神经网络的收敛速度。
具体的,如图2所示,在步骤130中引入一个评价域相似度的神经网络(记作DomainCritic,缩写为DC)来学习参数为θc的映射能将源域和目标域的特征映射成实数。
而Wasserstein距离可以通过来计算,其中上限超过所有一阶利普希茨函数且经验Wasserstein距离可近似计算如下:其中,lwd表示源域数据Xs和目标域数据Xt之间的DC损失(即命名为经验Wasserstein-1距离)。现在在受利普希茨约束时找lwd的最大值,实践证明,可以结合梯度惩罚来训练DC的参数θc,式中的特征表示h由生成的源域和目标域特征(即hs和ht)以及沿hs和ht对之间的直线上随机选择的点hr组成。由于Wasserstein-1距离是可微且几乎所有地方都连续的,因此通过求解以下优化问题来训练DC:其中,ρ是平衡系数。
上述采用无标记的目标域样本集,是一种用于域自适应的无监督特征学习,但可能两个域中学习的特征还分得不够开。本实施例最终目标是为目标域开发一个精确的深度迁移学习分类器,它需要将标记的源域(和目标域,如果可以的话)数据的监督学习结合进不变特征学习的问题中。然后将鉴别器(具有两个全连接层)用于进一步减小源域和目标域特征分布之间的距离。在该步骤中,DC的参数θc是在上述训练的参数,并且更新参数θf以优化最小化算子。
最终的目标函数可以根据鉴别器的交叉熵损失lc和与域差异相关的上述经验Wasserstein距离lwd表示,即:其中,θd表示鉴别器的参数,λ是确定域混乱程度的超参数。当优化上述最小化算子时,忽略了梯度惩罚lgrad(即设置ρ等于0),因为它不应该影响表示的学习过程。
优选的,当目标域样本集中包括部分标记样本时,则步骤120为:
采用待迁移学习的卷积神经网络,得到源域标记样本集的源域特征集和源域故障判断集以及目标域样本集的目标特征集和目标故障判断集;步骤130为:以最大化源域特征集和目标特征集之间的Wasserstein距离并最小化Wasserstein距离、源域故障判断集的判断损失值和目标故障判断集的判断损失值的加和为目标,优化卷积神经网络的参数,基于收敛判据,重复步骤110,或者,完成卷积神经网络的对抗迁移学习。
本实施例的深度对抗迁移学习方法,即使面对相关但不足够相似的任务之间的迁移任务(例如不同传感器位置之间的迁移学习)时,与大量未标记样本的无监督情况相比,只需添加少量标记的目标域样本,便大大提高迁移学习的准确性。因此,本发明不仅适用于目标域样本集无标记的情况,也适用于有部分标记的样本集,灵活应用。且当采用有部分标记的目标域样本集时,能够进一步提高对抗迁移训练得到的卷积神经网络对工业过程故障的诊断精度,实用性强。
实施例二
一种工业过程故障诊断卷积神经网络,采用如上实施例一所述的任一种基于Wasserstein距离的卷积神经网络对抗迁移学习方法训练得到。
可以基于任务之间的相关性,采用上述任一种基于Wasserstein距离的卷积神经网络对抗迁移学习方法训练得到的卷积神经网络,将源域对应的卷积神经网络深度对抗迁移学习为适用于源域和目标域且精度较高的卷积神经网络,一定程度上解决了现有技术面对新的故障诊断任务需要从头开始重建深度学习模型所导致的计算资源和训练时间的浪费以及缺乏在目标域中足够的样本数据的技术问题。
实施例三
一种工业过程故障诊断方法,基于如上实施例二所述的任一种工业过程故障诊断卷积神经网络,当接收到如上实施例一所述的任一种基于Wasserstein距离的卷积神经网络对抗迁移学习方法中所述目标域的新样本时,得到该新样本对应的工业过程故障判断结果。
采用上述任一种基于Wasserstein距离的卷积神经网络对抗迁移学习方法训练得到的卷积神经网络,进行工业过程故障诊断,在保证安全、高效的前提下,故障诊断精度更高。
为了验证上述深度对抗迁移学习对故障诊断问题的有效性,本实施例引入了凯斯西储大学数据中心获得的基准轴承故障数据集。监测四种类型的轴承状态(即正常、内圈故障、外圈故障和滚子故障),数字信号的采样频率为12kHz,驱动端轴承故障数据同时也以48kHz的采样速率采集。同时,每种故障类型都以不同的故障严重程度(0.007英寸、0.014英寸和0.021英寸的故障直径)运行。每种类型的故障轴承都配备有测试电机,该电机在四种不同的电机速度(即1797rpm、1772rpm、1750rpm和1730rpm)下运行。记录每个实验的振动信号以进行故障诊断。
数据预处理:将简单的数据预处理技术应用于轴承数据集:1)分割样本以保持每个样本在和中都有2000个测量点;2)使用快速傅里叶变换(FFT)计算每个样本的频域功率谱;3)将FFT计算的对称功率谱左侧部分作为深度迁移学习模型的输入。因此,每个输入样本具有1000个测量值。
一下基于两个无监督场景和一个监督场景(见表1)进行验证,场景具体包括:
(1)电机速度之间的无监督迁移(US-Speed):对于这种情况,测试在电机驱动端获得的数据,且忽略故障的严重性。这里构建四分类任务(即正常,以及内圈、外圈和滚子故障的三种故障条件),跨越4个不同电机速度的域:1797rpm(US(A)),1772rpm(US(B)),1750rpm(US(C))和1730rpm(US(D))。
(2)两个传感器位置(US-Location)之间的无监督迁移:对于这种情况,关注不同传感器位置之间的域自适应,但忽略故障的严重程度和电机速度的差异。同样,这里为源域和目标域构建四分类(正常和三种故障)任务,其中振动加速度数据分别由位于驱动端(US(E))和电机外壳的风扇端(US(F))的两个传感器获取。
(3)两个传感器位置(S-Location)的数据集之间的监督迁移:此场景使用与前一场景US-Location相同的设置,但在源域中添加了少量目标域的标记数据(大约0.5%),旨在提高分类性能。
表1
为进行比较,其他的方法也在相同的数据集做测试,包括:
(1)卷积神经网络(CNN):该模型是实施例一描述的预训练网络,该网络基于标记的源域数据进行训练,并直接用于测试目标域上的分类结果。
(2)深度适应网络(DAN):通过深度神经网络中的MK-MMD学习可迁移特征。MMD度量是一个积分概率度量,它通过将样本映射到再生核希尔伯特空间(RKHS)来测量两个概率分布之间的距离。
此外,与使用传统统计特征相比,本实施例还评估了卷积神经网络的特征提取能力、比较了使用统计(手工)特征的传统迁移学习方法的结果,包括迁移成分分析(TCA)、联合分布适应(JDA)和相关对齐(CORAL)。
具体的实现细节,如下:
使用TensorFlow作为实验的软件框架,这些模型都使用Adam进行训练。在5000次迭代中测试每种方法五次,并记录每次测试的最佳结果。这里采用平均值和分类准确度的95%置信区间进行比较。电动机速度任务(A)、(B)、(C)和(D)的样本大小分别为1026、1145、1390和1149。不同传感器位置的任务(E)和(F)的样本大小分别为3790和4710。对于所有实验,每一次训练或诊断的样本批量大小n固定为32。
卷积神经网络(CNN):卷积神经网络架构由两个卷积层(Conv1-Conv2),两个最大池化层(Pool1-Pool2)和两个全连接层(FC1-FC2)组成。输出层中的激活函数是Softmax,而ReLU用于卷积层。FC1和FC2中的神经元数分别为128和4。每层的滤波器数量,核大小和步长可参见表2。在迁移之前,对CNN模型进行微调,以便达到所有迁移场景的最佳验证精度。
深度自适应网络(DAN):卷积神经网络的卷积层(Conv1-Conv2)用作特征提取器。然后,为了最小化源域和目标域之间的域距离,FC1被用作适应的隐藏层。两个域中隐藏层的最终表示被嵌入在RKHS中以减少MK-MMD距离。最终目标函数是MK-MMD损失和分类损失的组合。
本申请的基于Wasserstein深度对抗迁移学***衡系数λ为0.1和0.8,分别用于电机速度迁移和传感器位置迁移。
就传统的迁移学习方法TCA、JDA和CORAL而言,正则化项λ选自{0.001 0.01 0.11.0 10 100}。使用SVM在TCA和CORAL进行分类。
表2
层 | 滤波器 | 核大小 | 步长 |
Conv1/2 | 8/16 | 1x20 | 2 |
Pool1/2 | - | 1x2 | 2 |
基于以上实现细节,得出如下结果:
WD-DTL和其他两种方法的迁移任务结果如表3所示。对于在目标域中具有未标记数据的迁移任务(即US-Speed和US-Location),可以观察到深度迁移学***均准确度分别在电动机速度和传感器位置迁移任务中大约增加了13.6%和25%。此外,除了在迁移任务US(D)US(A)中准确度小于DAN 1%之外,WD-DTL的迁移准确度优于DAN的大多数结果(平均增加5%)。
表3
TCA | JDA | CORAL | CNN | DAN | WD-DTL | |
Us(A)→Us(B) | 26.55 | 65.07(±7.55) | 59.18 | 82.75(±6.77) | 92.97(±3.88) | 97.52(±3.09) |
Us(A)→Us(C) | 46.80 | 51.31(±1.56) | 62.14 | 78.65(±4.54) | 85.32(±5.26) | 94.43(±2.99) |
Us(A)→Us(D) | 26.57 | 57.70(±8.59) | 49.83 | 82.99(±5.89) | 89.39(±4.37) | 95.05(±2.12) |
Us(B)→Us(A) | 26.63 | 71.19(±1.21) | 53.57 | 84.14(±6.63) | 94.43(±2.95) | 96.80(±1.10) |
Us(B)→Us(C) | 26.60 | 69.80(±5.67) | 57.28 | 85.41(±9.44) | 90.43(±4.62) | 99.69(±0.59) |
Us(B)→Us(D) | 26.57 | 88.50(±1.96) | 60.53 | 86.09(±4.63) | 87.37(±5.42) | 95.51(±2.52) |
Us(C)→Us(A) | 26.63 | 56.42(±2.52) | 54.03 | 76.50(±3.76) | 89.88(±1.57) | 92.16(±2.61) |
Us(C)→Us(B) | 26.66 | 69.18(±1.90) | 76.66 | 82.75(±5.51) | 92.93(±1.57) | 96.03(±6.27) |
Us(C)→Us(D) | 46.75 | 77.45(±0.83) | 70.34 | 87.04(±6.81) | 90.66(±5.24) | 97.56(±3.31) |
Us(D)→Us(A) | 46.74 | 61.72(±5.48) | 59.78 | 79.23(±6.96) | 90.88(±1.82) | 89.82(±2.41) |
Us(D)→Us(B) | 46.79 | 74.03(±0.86) | 59.73 | 79.73(±5.49) | 87.91(±2.42) | 95.16(±3.67) |
Us(D)→Us(C) | 26.60 | 65.24(±4.18) | 63.02 | 80.64(±4.23) | 92.94(±3.96) | 99.62(±0.80) |
平均 | 33.32 | 67.35(±3.53) | 56.01 | 82.10(±5.89) | 90.42(±3.59) | 95.75(±2.62) |
Us(E)→Us(F) | 19.05 | 57.35(±0.47) | 47.97 | 39.07(±2.22) | 56.89(±2.73) | 64.17(±7.16) |
Us(F)→Us(E) | 20.45 | 66.34(±4.47) | 39.87 | 39.95(±3.84) | 55.97(±3.17) | 64.24(±3.87) |
平均 | 19.75 | 61.85(±2.47) | 43.92 | 39.51(±3.03) | 56.43(±2.95) | 64.20(±5.52) |
s(E)→s(F) | 20.43 | 65.48(±0.57) | 51.77 | 54.04(±7.67) | 59.68(±4.61) | 65.69(±3.74) |
s(F)→s(E) | 19.02 | 59.07(±0.56) | 47.88 | 50.47(±5.74) | 58.78(±5.67) | 64.15(±5.52) |
平均 | 19.73 | 62.28(±0.57) | 49.83 | 52.26(±6.71) | 59.23(±5.14) | 64.92(±4.63) |
总结一下,可以得出以下观察结果:1)WD-DTL达到最佳迁移准确度,平均得分为95.75%;2)在没有域适应的情况下,卷积神经网络方法由于其出色的特征检测能力,已经具备了为电机速度迁移任务实现良好分类性能的能力;3)本发明提出的WD-DTL方法显示出用少量标记数据解决监督问题的良好能力。监督迁移任务S(E)→S(F)和S(F)→S(E)仅使用无监督案例的0.5%样本大小进行,但实现了使用100%未标记的样本的无监督案例一样好的性能。
基于上述结果,现实验分析如下:
特征可视化:采用T分布随机邻域嵌入(t-SNE)对网络可视化进行非线性降维。对于电机速度之间的迁移任务,即US-Speed,随机选择任务US(C)→US(A)以在不同电机速度下可视化所学习的特征表示。图3显示了比较结果。可以观察到,由本发明提出的WD-DTL形成的图3(c)中的簇比图3(a)中的CNN网络结果和图3(b)中的DAN域自适应的结果更好地分离了。更重要的是,可以观察到图3(c)中域自适应的明显改进,因为源域和目标域特征几乎是在同一个簇中。
对于不同传感器位置之间的迁移任务,即US-Location和S-Location,传输任务US(E)→US(F)的t-SNE,结果如图4所示。可以看出虽然故障类型1、2和3难以清楚地分成单个聚类,但是WD-DTL显示出比CNN和DAN更好的聚类结果。必须强调的是,上述结果是通过在目标域中使用100%(4710)样本大小来执行的,即使在这种情况下,性能也不够满足。这就提出了当源域和目标域中的信号相关但不够相似时如何增强迁移学习性能的问题。
样本大小对无监督和监督准确性的影响:图5显示了任务US(E)→US(F)和S(E)→S(F)相对于US-Location和S-Location的WD-DTL的准确度变化曲线,其中样本数从10增加到2500。当样本数大于2500时,诊断精度将在固定值附近发生饱和,因此仅显示10到2500的结果。在图5(a)中,可以观察到,WD-DTL的准确度从59.47%增加,最终测试准确度限制在64%左右。当样本数量增加时,WD-DTL方法的故障诊断准确度均高于DAN和CNN。该分析表明,对于这种无监督的情况,样本数量的增加可以提高迁移学习的准确性,然而,即使目标域中的样本数量为100%,改进也是有限的(小于5%)。为了解决这个问题,在图5(b)中,采用少量标记数据来提高故障诊断的准确性,这与实际工业应用中标签数据有限的情况对应。该图显示,当标记的样本量大于20(总样本数4710)时,WD-DTL的迁移学习准确度将超过图5(a)中具有100%样本大小的情况(图5(a)中的蓝色区域)。更具体地说,仅使用100个标记样本(相当于每个故障分类25个)可以实现80%的迁移学习的准确性,这表明本发明提出的WD-DTL也是监督迁移任务的极好框架。
实施例四
一种存储介质,所述存储介质中存储有指令,当计算机读取所述指令时,使所述计算机执行上述实施例一任一种基于Wasserstein距离的卷积神经网络对抗迁移学习方法和/或如上实施例三所述的任一种工业过程故障诊断方法。
先构建卷积神经网络架构,提取特征并引入Wasserstein距离来学习域的不变特征表示。通过对抗性训练过程,显著减少了域差异。相关技术方案同上,在此不再赘述。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于Wasserstein距离的卷积神经网络对抗迁移学习方法,其特征在于,包括:
步骤1、从源域标记数据集和目标域数据集中,确定源域标记样本集和目标域样本集;
步骤2、采用待迁移的卷积神经网络,得到所述源域标记样本集的源域特征集和源域故障判断集以及所述目标域样本集的目标特征集;
步骤3、以最大化所述源域特征集和所述目标特征集之间的Wasserstein距离并最小化所述Wasserstein距离和所述源域故障判断集的判断损失值的加和为目标,优化所述卷积神经网络的参数,基于收敛判据,重复步骤1,或者,完成卷积神经网络的对抗迁移学习。
2.根据权利要求1所述的一种基于Wasserstein距离的卷积神经网络对抗迁移学习方法,其特征在于,所述Wasserstein距离为:
通过采用域相似度评价神经网络,分别将所述源域特征集映射为源域实数集、所述目标特征集映射为目标实数集,并将所述源域实数集的实数平均值减去所述目标实数集的实数平均值计算得到。
3.根据权利要求2所述的一种基于Wasserstein距离的卷积神经网络对抗迁移学习方法,其特征在于,所述步骤3包括:
步骤3.1、以增大所述源域特征集和所述目标特征集之间的Wasserstein距离为目标,优化所述域相似度评价神经网络的参数,得到预设迭代次数对应的新的域相似度评价神经网络;
步骤3.2、基于所述源域标记样本集、所述目标域样本集和所述新的域相似度评价神经网络,以减小所述Wasserstein距离和所述卷积神经网络的判断损失值的加和为目标,优化所述卷积神经网络的参数,得到预设迭代次数对应的新的卷积神经网络;
步骤3.3、基于域相似度评价神经网络和卷积神经网络的收敛判据,停止训练,完成所述卷积神经网络的对抗迁移学习,或者,重复步骤1。
4.根据权利要求3任一项所述的一种基于Wasserstein距离的卷积神经网络对抗迁移学***均值和所述目标实数集的实数平均值的差值;
所述步骤3.2中,所述Wasserstein距离为所述源域实数集的实数平均值和所述目标实数集的实数平均值的差值。
5.根据权利要求2所述的一种基于Wasserstein距离的卷积神经网络对抗迁移学习方法,其特征在于,所述Wasserstein距离表示:
源域子实数集的实数平均值减去目标子实数集的实数平均值;
其中,所述源域子实数集是通过利普希茨约束从所述源域实数集获得,所述目标子实数集是通过所述利普希茨约束从所述目标实数集获得。
6.根据权利要求5所述的一种基于Wasserstein距离的卷积神经网络对抗迁移学习方法,其特征在于,所述利普希茨约束具体为一阶利普希茨约束。
7.根据权利要求1至6任一项所述的一种基于Wasserstein距离的卷积神经网络对抗迁移学习方法,其特征在于,当所述目标域样本集中包括部分标记样本时,则所述步骤2为:
采用待迁移学习的卷积神经网络,得到所述源域标记样本集的源域特征集和源域故障判断集以及所述目标域样本集的目标特征集和目标故障判断集;
所述步骤3为:
以最大化所述源域特征集和所述目标特征集之间的Wasserstein距离并最小化所述Wasserstein距离、所述源域故障判断集的判断损失值和所述目标故障判断集的判断损失值的加和为目标,优化所述卷积神经网络的参数,基于收敛判据,重复步骤1,或者,完成卷积神经网络的对抗迁移学习。
8.一种工业过程故障诊断卷积神经网络,其特征在于,采用如权利要求1至7任一项所述的一种基于Wasserstein距离的卷积神经网络对抗迁移学习方法训练得到。
9.一种工业过程故障诊断方法,其特征在于,基于如权利要求8所述的一种工业过程故障诊断卷积神经网络,当接收到如权利要求1至7任一项所述的一种基于Wasserstein距离的卷积神经网络对抗迁移学习方法中所述目标域的新样本时,得到该新样本对应的工业过程故障判断结果。
10.一种存储介质,其特征在于,所述存储介质中存储有指令,当计算机读取所述指令时,使所述计算机执行上述如权利要求1至7任一项所述的一种基于Wasserstein距离的卷积神经网络对抗迁移学习方法和/或如权利要求9所述的一种工业过程故障诊断方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910624662.9A CN110414383A (zh) | 2019-07-11 | 2019-07-11 | 基于Wasserstein距离的卷积神经网络对抗迁移学习方法及其应用 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910624662.9A CN110414383A (zh) | 2019-07-11 | 2019-07-11 | 基于Wasserstein距离的卷积神经网络对抗迁移学习方法及其应用 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110414383A true CN110414383A (zh) | 2019-11-05 |
Family
ID=68361085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910624662.9A Pending CN110414383A (zh) | 2019-07-11 | 2019-07-11 | 基于Wasserstein距离的卷积神经网络对抗迁移学习方法及其应用 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110414383A (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110837865A (zh) * | 2019-11-08 | 2020-02-25 | 北京计算机技术及应用研究所 | 一种基于表示学习和迁移学习的领域适配方法 |
CN110995475A (zh) * | 2019-11-20 | 2020-04-10 | 国网湖北省电力有限公司信息通信公司 | 一种基于迁移学习的电力通信网故障检测方法 |
CN110987436A (zh) * | 2020-03-05 | 2020-04-10 | 天津开发区精诺瀚海数据科技有限公司 | 基于激励机制的轴承故障诊断方法 |
CN111026058A (zh) * | 2019-12-16 | 2020-04-17 | 浙江大学 | 基于瓦瑟斯坦距离和自编码器的半监督深度学习故障诊断方法 |
CN111092836A (zh) * | 2019-12-13 | 2020-05-01 | 中国人民解放军空军工程大学 | 一种信号调制方式识别方法及装置 |
CN111178427A (zh) * | 2019-12-27 | 2020-05-19 | 杭州电子科技大学 | 一种基于Sliced-Wasserstein距离的深度自编码嵌入聚类的方法 |
CN111290947A (zh) * | 2020-01-16 | 2020-06-16 | 华南理工大学 | 一种基于对抗判别的跨软件缺陷预测方法 |
CN111428803A (zh) * | 2020-03-31 | 2020-07-17 | 山东大学 | 一种基于Wasserstein距离的深度域适应图像分类方法 |
CN111442926A (zh) * | 2020-01-11 | 2020-07-24 | 哈尔滨理工大学 | 一种基于深层特征迁移的变负载下不同型号滚动轴承故障诊断方法 |
CN111858345A (zh) * | 2020-07-23 | 2020-10-30 | 深圳慕智科技有限公司 | 一种基于对抗样本定义的图像样本生成能力多维评估方法 |
CN112232293A (zh) * | 2020-11-09 | 2021-01-15 | 腾讯科技(深圳)有限公司 | 图像处理模型训练、图像处理方法及相关设备 |
CN112683532A (zh) * | 2020-11-25 | 2021-04-20 | 西安交通大学 | 轴承的跨工况条件对抗诊断方法 |
CN113010013A (zh) * | 2021-03-11 | 2021-06-22 | 华南理工大学 | 一种基于Wasserstein距离的运动想象脑电迁移学习方法 |
CN113139590A (zh) * | 2021-04-13 | 2021-07-20 | 索信达(北京)数据技术有限公司 | 时间序列数据的降维方法、装置、计算机设备和存储介质 |
CN113536697A (zh) * | 2021-08-24 | 2021-10-22 | 江南大学 | 一种基于改进残差网络和wgan的轴承剩余寿命预测方法 |
CN114021285A (zh) * | 2021-11-17 | 2022-02-08 | 上海大学 | 基于相互局部对抗迁移学习的旋转机械故障诊断方法 |
CN116992953A (zh) * | 2023-09-27 | 2023-11-03 | 苏州捷杰传感技术有限公司 | 一种模型训练方法、故障诊断方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105300693A (zh) * | 2015-09-25 | 2016-02-03 | 东南大学 | 一种基于迁移学习的轴承故障诊断方法 |
CN105606363A (zh) * | 2016-01-29 | 2016-05-25 | 济南大学 | 一种基于域自适应的轴承故障诊断方法 |
CN109376769A (zh) * | 2018-09-21 | 2019-02-22 | 广东技术师范学院 | 基于生成式对抗神经网络用于多任务分类的信息迁移方法 |
CN109947086A (zh) * | 2019-04-11 | 2019-06-28 | 清华大学 | 基于对抗学习的机械故障迁移诊断方法及*** |
-
2019
- 2019-07-11 CN CN201910624662.9A patent/CN110414383A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105300693A (zh) * | 2015-09-25 | 2016-02-03 | 东南大学 | 一种基于迁移学习的轴承故障诊断方法 |
CN105606363A (zh) * | 2016-01-29 | 2016-05-25 | 济南大学 | 一种基于域自适应的轴承故障诊断方法 |
CN109376769A (zh) * | 2018-09-21 | 2019-02-22 | 广东技术师范学院 | 基于生成式对抗神经网络用于多任务分类的信息迁移方法 |
CN109947086A (zh) * | 2019-04-11 | 2019-06-28 | 清华大学 | 基于对抗学习的机械故障迁移诊断方法及*** |
Non-Patent Citations (2)
Title |
---|
CHENG CHENG ET AL: "Wasserstein Distance based Deep Adversarial Transfer Learning for Intelligent Fault Diagnosis", 《ARXIV》 * |
MING ZHANG ET AL: "A Deep Transfer Model With Wasserstein Distance Guided Multi Adversarial Network for Bearing Fault Diagnosis Under Different Working Condition", 《IEEE ACCESS》 * |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110837865A (zh) * | 2019-11-08 | 2020-02-25 | 北京计算机技术及应用研究所 | 一种基于表示学习和迁移学习的领域适配方法 |
CN110995475A (zh) * | 2019-11-20 | 2020-04-10 | 国网湖北省电力有限公司信息通信公司 | 一种基于迁移学习的电力通信网故障检测方法 |
CN111092836B (zh) * | 2019-12-13 | 2022-05-17 | 中国人民解放军空军工程大学 | 一种信号调制方式识别方法及装置 |
CN111092836A (zh) * | 2019-12-13 | 2020-05-01 | 中国人民解放军空军工程大学 | 一种信号调制方式识别方法及装置 |
CN111026058A (zh) * | 2019-12-16 | 2020-04-17 | 浙江大学 | 基于瓦瑟斯坦距离和自编码器的半监督深度学习故障诊断方法 |
CN111178427A (zh) * | 2019-12-27 | 2020-05-19 | 杭州电子科技大学 | 一种基于Sliced-Wasserstein距离的深度自编码嵌入聚类的方法 |
CN111178427B (zh) * | 2019-12-27 | 2022-07-26 | 杭州电子科技大学 | 一种基于Sliced-Wasserstein距离的深度自编码进行图像降维并嵌入聚类的方法 |
CN111442926A (zh) * | 2020-01-11 | 2020-07-24 | 哈尔滨理工大学 | 一种基于深层特征迁移的变负载下不同型号滚动轴承故障诊断方法 |
CN111290947A (zh) * | 2020-01-16 | 2020-06-16 | 华南理工大学 | 一种基于对抗判别的跨软件缺陷预测方法 |
CN110987436A (zh) * | 2020-03-05 | 2020-04-10 | 天津开发区精诺瀚海数据科技有限公司 | 基于激励机制的轴承故障诊断方法 |
CN111428803A (zh) * | 2020-03-31 | 2020-07-17 | 山东大学 | 一种基于Wasserstein距离的深度域适应图像分类方法 |
CN111858345A (zh) * | 2020-07-23 | 2020-10-30 | 深圳慕智科技有限公司 | 一种基于对抗样本定义的图像样本生成能力多维评估方法 |
CN112232293A (zh) * | 2020-11-09 | 2021-01-15 | 腾讯科技(深圳)有限公司 | 图像处理模型训练、图像处理方法及相关设备 |
CN112683532A (zh) * | 2020-11-25 | 2021-04-20 | 西安交通大学 | 轴承的跨工况条件对抗诊断方法 |
CN113010013A (zh) * | 2021-03-11 | 2021-06-22 | 华南理工大学 | 一种基于Wasserstein距离的运动想象脑电迁移学习方法 |
CN113139590A (zh) * | 2021-04-13 | 2021-07-20 | 索信达(北京)数据技术有限公司 | 时间序列数据的降维方法、装置、计算机设备和存储介质 |
CN113139590B (zh) * | 2021-04-13 | 2022-03-22 | 索信达(北京)数据技术有限公司 | 时间序列数据的降维方法、装置、计算机设备和存储介质 |
CN113536697A (zh) * | 2021-08-24 | 2021-10-22 | 江南大学 | 一种基于改进残差网络和wgan的轴承剩余寿命预测方法 |
CN114021285A (zh) * | 2021-11-17 | 2022-02-08 | 上海大学 | 基于相互局部对抗迁移学习的旋转机械故障诊断方法 |
CN114021285B (zh) * | 2021-11-17 | 2024-04-12 | 上海大学 | 基于相互局部对抗迁移学习的旋转机械故障诊断方法 |
CN116992953A (zh) * | 2023-09-27 | 2023-11-03 | 苏州捷杰传感技术有限公司 | 一种模型训练方法、故障诊断方法及装置 |
CN116992953B (zh) * | 2023-09-27 | 2024-04-19 | 苏州捷杰传感技术有限公司 | 一种模型训练方法、故障诊断方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110414383A (zh) | 基于Wasserstein距离的卷积神经网络对抗迁移学习方法及其应用 | |
CN110361176B (zh) | 一种基于多任务特征共享神经网络的智能故障诊断方法 | |
CN104712542B (zh) | 一种基于物联网的往复压缩机敏感特征提取与故障诊断方法 | |
CN108931387B (zh) | 提供准确诊断决策的基于多传感器信号分析的故障诊断方法 | |
CN112763214B (zh) | 基于多标签零样本学习的滚动轴承故障诊断方法 | |
CN111709448A (zh) | 一种基于迁移关系网络的机械故障诊断方法 | |
CN111898634A (zh) | 一种基于深度对抗域自适应的智能故障诊断方法 | |
CN109324604A (zh) | 一种基于多源信号的智能列车综合故障分析方法 | |
CN107884475A (zh) | 一种基于深度学习神经网络的城市燃气管道故障诊断方法 | |
CN104596780B (zh) | 一种动车组制动***传感器故障的诊断方法 | |
CN108285071A (zh) | 一种基于贝叶斯网络的电梯健康诊断方法 | |
CN106338406A (zh) | 列车牵引电传动***的在线监测与故障预警***及方法 | |
CN111505424A (zh) | 一种基于深度卷积神经网络的大型实验装置电力设备故障诊断方法 | |
CN107392304A (zh) | 一种风电机组异常数据识别方法及装置 | |
CN107132760A (zh) | 基于模糊支持向量域描述的水下机器人状态监测方法 | |
CN113157732A (zh) | 一种基于pso-bp神经网络的地下铲运机故障诊断方法 | |
CN117034143B (zh) | 一种基于机器学习的分布式***故障诊断方法及装置 | |
CN112784872B (zh) | 一种基于开放集联合迁移学习的跨工况故障诊断方法 | |
CN112364706A (zh) | 一种基于类不平衡的小样本轴承故障诊断方法 | |
CN106813921A (zh) | 一种旋转机械复合故障诊断方法 | |
CN115859077A (zh) | 一种变工况下多特征融合的电机小样本故障诊断方法 | |
CN114037079A (zh) | 基于图神经网络与知识图谱的气缸盖多故障整体诊断方法 | |
CN114429152A (zh) | 基于动态指数对抗性自适应的滚动轴承故障诊断方法 | |
CN109870306A (zh) | 一种拖拉机发动机故障诊断及预测方法 | |
CN106706314A (zh) | 基于虚拟仪器的汽车自动变速器故障诊断仪及诊断方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191105 |