CN115713097A - 基于seq2seq算法的电子显微镜机时计算方法 - Google Patents

基于seq2seq算法的电子显微镜机时计算方法 Download PDF

Info

Publication number
CN115713097A
CN115713097A CN202310017145.1A CN202310017145A CN115713097A CN 115713097 A CN115713097 A CN 115713097A CN 202310017145 A CN202310017145 A CN 202310017145A CN 115713097 A CN115713097 A CN 115713097A
Authority
CN
China
Prior art keywords
current
state
time
sequence
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310017145.1A
Other languages
English (en)
Inventor
陈宁
陈盼
何世伟
叶宗昆
陈科明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Thingcom Information Technology Co ltd
Zhejiang Science And Technology Project Management Service Center
Original Assignee
Hangzhou Thingcom Information Technology Co ltd
Zhejiang Science And Technology Project Management Service Center
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Thingcom Information Technology Co ltd, Zhejiang Science And Technology Project Management Service Center filed Critical Hangzhou Thingcom Information Technology Co ltd
Priority to CN202310017145.1A priority Critical patent/CN115713097A/zh
Publication of CN115713097A publication Critical patent/CN115713097A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Complex Calculations (AREA)

Abstract

本发明公开了一种基于seq2seq算法的电子显微镜机时计算方法,首先筛选出典型的扫描电子显微镜和透射电子显微镜的电流数据作为样本集,通过seq2seq算法结构训练模型,模型通过Encoder‑Decoder结构将CNN网络处理得到的特征序列转换为状态概率分布序列,在多次迭代后获得最优的训练模型,将得到的模型文件保存到云端服务器。后续采集到的电子显微镜的电流数据,只需要做相同的数据切分,并输入至模型即可快速得到电流所对应的机时状态,进而得到机时数据。本发明整合了同类型科学仪器的电流信息,通过这些电流信息训练出同类型仪器的通用模型,对同一类科学仪器的机时进行较为准确的预测,具有较大的工程价值。

Description

基于seq2seq算法的电子显微镜机时计算方法
技术领域
本发明属于数据分析技术领域,具体设计一种基于seq2seq算法的电子显微镜机时计算方法。
背景技术
如今社会正在进入大数据时代,随着数据采集技术的不断提高以及数据采集产品越来越多,可提供给人们进行分析处理的数据也在不断增多。同时,随着高校科研的进一步发展,仪器的数量以及种类越来越多,而实验技术人员有限,这些大型仪器普遍存在着仪器闲置率高、仪器使用时长不清晰等问题,而仪器机时(关机机时、待机机时、工作机时)可以清晰地反映仪器的工作状态,对于仪器管理有着重要作用。利用大数据分析及挖掘技术等,通过传感器采集大型仪器的电流并且通过大数据分析算法提取仪器的机时信息的需求亟待解决。
对于此类问题,通常是提取一台仪器的特征值,通过机器学***衡,比如数据量严重失衡或者类别的方差不同,则聚类效果不佳。又如文献[刘永梅,杜松怀,盛万兴.基于AdaBoost算法的剩余电流分类方法[J].电子技术应用,2018]提出一种利用AdaBoost算法的剩余电流分类方法,该方法首先通过提取实验获取不同类型剩余电流分量的特征分量,而后将这些分量特征映射到AdaBoost的算法之中,利用AdaBoost算法检测出总剩余电流中的触电电流分量类型,但是这种方法需要先提取特征值,根据电流区间的特征值对区间进行分类,这对于特征值的选取要求较为苛刻。
上述两种方法忽视了电流数据的序列特性,无法挖掘序列中的规律性,电流数据是在相等间隔的时间段内按照指定的采样率对仪器电流进行采样的结果,具有数据连续性强、时间点紧密、相关变量多等特点,每个变量的变化不仅仅取决于它的历史数据值,还依赖于其它相关变量对它的影响。因此同一类型仪器的电流可能存在相同的规律,对同一类仪器的电流进行训练,就可以得到该类仪器的通用模型。
发明内容
鉴于上述,本发明提供了一种基于seq2seq算法的电子显微镜机时计算方法,整合了同类型科学仪器的电流信息,通过这些电流信息训练出同类型仪器的通用模型,对同一类科学仪器的机时进行较为准确的预测,具有较大的工程价值。
一种基于seq2seq算法的电子显微镜机时计算方法,包括如下步骤:
(1)针对电子显微镜类的科学仪器,建立关于其运行电流的数据集;
(2)对数据集进行预处理,并将整个数据集划分成训练集和测试集;
(3)构建基于seq2seq算法的状态预测模型,其由编码器、注意力机制层以及解码器依次连接组成,编码器用于对输入的电流数据进行特征编码,注意力机制层用于为特征信息中不同的隐层状态赋予不同的权重,解码器用于对特征信息进行解码得到仪器每一时刻的状态概率分布;
(4)利用训练集的电流数据对上述模型进行训练;
(5)将测试集的电流数据输入至训练好的模型中,即可预测得到仪器每一时刻的状态指示,进而对仪器工作运行状态的持续时间进行统计。
进一步地,所述步骤(1)的具体实现方式为:首先从仪器后台管理***的数据库中筛选出多组关于扫描电子显微镜和透射电子显微镜的运行电流序列,该序列具有完整电流周期(待机、工作、关机)包含周期内各个时刻的电流值;然后为运行电流序列中每个电流值打上标签得到对应的标签序列,即对于任一时刻的电流值,若该时刻仪器处于工作运行状态,对应标签赋值为2;若该时刻仪器处于待机状态,对应标签赋值为1;该时刻仪器处于关机状态,对应标签赋值为0;进而将运行电流序列及其对应的标签序列组合作为一组电流数据,依此得到多组电流数据从而组建构成数据集。
进一步地,所述步骤(2)中对数据集进行预处理的具体实现方式为:首先对数据集中的运行电流序列进行归一化处理,然后将运行电流序列转换分成各个时刻的电流输入向量,即对于运行电流序列中任一时刻t的电流值i t ,根据预设窗口大小wi t 及其前w个时刻的电流值组成t时刻的电流输入向量[i t-w ,i t-w+1 ,,i t-1 ,i t ],若其中的电流值数量不足w+1,则复制i t 进行补全;依此遍历运行电流序列中各个时刻的电流值,从而得到各个时刻的电流输入向量。
进一步地,所述编码器采用BiLSTM网络,其包含了前向和后向两个LSTM单元,具体计算表达式如下:
Figure 261013DEST_PATH_IMAGE001
其中:H为编码器输出的编码特征向量,h t 为BiLSTM网络在t时刻的隐层状态,t为自然数且1≤tmm为运行电流序列的时间长度,x t t时刻的电流输入向量,
Figure 381416DEST_PATH_IMAGE002
Figure 629995DEST_PATH_IMAGE003
分别为前向LSTM单元在t时刻和t-1时刻的隐层状态,
Figure 494045DEST_PATH_IMAGE004
Figure 42839DEST_PATH_IMAGE005
分别为后向LSTM单元在t时刻和t+1时刻的隐层状态,BiLSTM+( )和BiLSTM-( )分别表示前向LSTM单元和后向LSTM单元的内部计算函数。
进一步地,所述注意力机制层的计算表达式如下:
Figure 334143DEST_PATH_IMAGE006
其中:C t 为注意力机制层的输出即t时刻的时序向量,α t 为隐层状态h t 的权重值,v t 为隐层状态h t 的注意力分数,exp( )表示以自然常数e为底的指数函数,tanh( )表示双曲正切函数,V e W e 为待学习的权值矩阵,T表示转置,s t-1为解码器在t-1时刻的隐层状态。
进一步地,所述解码器采用单向LSTM网络计算隐层状态s t ,进而将隐层状态s t 、注意力机制层的输出C t 以及t-1时刻仪器的状态概率密度分布向量p t-1拼接后通过全连接层降维得到t时刻仪器的状态概率密度分布向量p t 作为模型输出。
进一步地,所述隐层状态s t 的计算表达式如下:
Figure 70017DEST_PATH_IMAGE007
其中:s t 为解码器在t时刻的隐层状态,p t-1t-1时刻仪器的状态概率密度分布向量,LSTM( )表示单向LSTM网络的内部计算函数。
进一步地,对于初始的隐层状态s 0,其为通过全连接层对隐层状态h m 降维后得到。
进一步地,所述步骤(4)中对模型进行训练的具体过程如下:
4.1 初始化模型参数,包括每一层的偏置向量和权值矩阵、学习率以及优化器;
4.2 将训练集电流数据中每一时刻的电流输入向量输入至模型,模型正向传播输出得到对应的预测结果即状态概率密度分布向量,计算该预测结果与对应标签序列之间的损失函数L
4.3 根据损失函数L利用优化器通过梯度下降法对模型参数不断迭代更新,直至损失函数L收敛,训练完成。
进一步地,所述损失函数L的表达式如下:
Figure 472180DEST_PATH_IMAGE008
其中:p t 为模型输出的预测结果即t时刻仪器的状态概率密度分布向量,y t 为对应标签序列中t时刻的标签值,t为自然数且1≤tmm为运行电流序列的时间长度。
本发明首先筛选出典型的扫描电子显微镜和透射电子显微镜的电流数据作为样本集,通过seq2seq算法结构训练模型。本发明所用seq2seq网络的核心思想为通过Encoder-Decoder结构将CNN网络处理得到的特征序列转换为状态概率分布序列,在多次迭代后获得最优的训练模型,将得到的模型文件保存到云端服务器;后续采集到的电子显微镜的电流数据,只需要做相同的数据切分,并输入至模型即可快速得到电流所对应的机时状态,进而得到机时数据。
此外,本发明整合了同类型科学仪器的电流信息,通过这些电流信息训练出同类型仪器的通用模型,对同一类科学仪器的机时进行较为准确的预测,具有较大的工程价值。
附图说明
图1为本发明电子显微镜机时计算方法的流程示意图。
图2为典型扫描电子显微镜和透射电子显微镜的电流波形示例图。
图3为本发明seq2seq算法模型的基本结构示意图。
图4为本发明seq2seq算法模型的仿真结果示意图。
图5为加入Attention机制与未加入Attention机制的seq2seq算法模型仿真结果对比示意图。
具体实施方式
为了更为具体地描述本发明,下面结合附图及具体实施方式对本发明的技术方案进行详细说明。
本发明选用的电流数据基于仪器后台管理***,通过筛选选出较为典型的扫描电子显微镜和透射电子显微镜的电流数据,提出了针对电子显微镜类仪器的机时计算方法,具体流程如图1所示,该方法首先需要训练模型,训练过程中选取电子显微镜的典型运行电流,具体实施过程如下:
(1)建立数据集,包括数据标签和数据预处理。
1.1 从仪器后台管理***的数据库中筛选具有完整电流周期(工作、待机、关机)的电子显微镜电流序列,如图2所示。
1.2 将电流序列进行归一化,打上标签,并分割为训练集和测试集。
首先对电流序列进行归一化,最大最小归一化的公式如下:
Figure 353110DEST_PATH_IMAGE009
其中:i min 代表序列中电流值的最小值,i max 代表序列中电流值的最大值。
接下来将各个电子显微镜的电流数据根据实际情况打上标签,假设某一台电子显微镜电流数据为S={0.04, 0.04, 0.05, 0.04, 0.05, 0.04, 0.04, 1.34, 1.37, 1.33,1.35, 1.31, 0.34, 0.34, 0.35, 0.36, 0.35},经归一化后的电流数据D={0.03, 0.03,0.04, 0.03, 0.04, 0.03, 0.03, 0.98, 1, 0.98, 0.99, 0.96, 0.25, 0.25, 0.26,0.26, 0.26};经打标处理之后,对应标签集合C={0, 0, 0, 0, 0, 0, 0, 2, 2, 2, 2, 2,1, 1, 1, 1, 1},其中0表示关机状态,1表示待机状态,2表示工作状态。
最后将所得运行电流序列及其对应的标签序列组合作为一组样本,依此得到多组样本从而组建构成数据集,对于得到的数据集按8:2的比例切分为训练集与测试集。
(2)搭建seq2seq算法模型。
2.1 使用BiLSTM网络的Encoder结构。
如图3所示,编码器负责处理输入的电流序列,将有关输入序列的所有信息放入固定长度的向量中。Encoder结构使用BiLSTM网络替换单向LSTM,因为BiLSTM网络利用输入序列信息的能力更强,编码器结构的公式如下:
Figure 815315DEST_PATH_IMAGE010
其中:
Figure 38486DEST_PATH_IMAGE002
为前向LSTM单元在t时刻的隐层状态,
Figure 244340DEST_PATH_IMAGE004
为后向LSTM单元在t时刻的隐层状态,x t 为在t时刻的电流输入向量,
Figure 236566DEST_PATH_IMAGE003
为前向LSTM单元在t-1时刻的隐层状态,
Figure 135252DEST_PATH_IMAGE005
为后向LSTM单元在t+1时刻的隐层状态,BiLSTM+( )和BiLSTM-( )分别表示前向LSTM单元和后向LSTM单元的计算函数,h t 为BiLSTM网络在t时刻的隐层状态;
Figure 845719DEST_PATH_IMAGE011
Figure 855264DEST_PATH_IMAGE012
的值初始化为电流值全为0的窗口区间对应的隐层编码。
2.2 引入Attention机制。
在seq2seq算法中引入了Attention机制,在输出向量进入Decoder结构之前,先读取Encoder中输出的所有时刻的编码特征向量H=[h 1 ,h 2 ,,h m ],m表示隐藏层状态个数(即运行电流序列的时间长度),并通过Attention机制对不同变量赋不同权重,使得Decoder结构能更加关注有效特征信息,Decoder结构的公式如下:
Figure 967576DEST_PATH_IMAGE007
其中:s t 表示Decoder结构中t时刻的隐层状态,s t-1表示Decoder结构中t-1时刻的隐层状态,C t 表示t时刻的时序向量,p t-1表示t-1时刻仪器的状态概率密度分布向量,LSTM( )表示单向LSTM网络的内部计算函数;动态可变的时序向量C t 能够储存当前时刻模型输入的完整有效信息,其计算过程可分为以下3个步骤:
第1步:通过2个全连接层计算注意力机制得分,如下式所示:
Figure 771584DEST_PATH_IMAGE013
其中:V e W e 为权值矩阵,v t 表示隐层状态h t 的注意力分数,tanh( )表示双曲正切函数。
第2步:对上式得到的v t 使用softmax函数计算各隐层状态的权重,如下式所示:
Figure 969347DEST_PATH_IMAGE014
其中:exp( )表示以自然常数e为底的指数函数,α t 表示隐层状态h t 所对应的权值。
第3步:根据上式所得的权重α t 和其对应隐层状态h t ,加权相加得到时序向量C t ,如下式所示:
Figure 517003DEST_PATH_IMAGE015
2.3 使用Decoder 结构得到最终的分解结果。
Decoder结构将步骤2.2所得的时序特征序列转换为机时状态序列;与Encoder部分相反,由于Decoder需要按顺序生成电流序列的状态编码,所以必须使用单向LSTM网络。Encoder中BiLSTM网络最后一个隐层状态h m 对应Decoder 结构中LSTM层的初始状态s 0;由于隐层状态
Figure 483822DEST_PATH_IMAGE016
是由正向与后向的隐层状态拼接而成,维度跟s 0不匹配,所以需要通过全连接层对h m 进行降维后传入Decoder。
Decoder将t时刻的隐层状态s t t时刻的时序向量C t 以及t-1时刻仪器的概率密度分布向量p t-1拼接后,通过全连接层得到t时刻仪器的概率密度分布向量p t p t 的计算如下式所示:
Figure 724311DEST_PATH_IMAGE017
其中:初始值p 0按照仪器电流值对应状态个数均分为{0.5,0.5}或{0.33,0.33,0.33}。
由于有的仪器电流值会对应两种状态,有的仪器电流值对应三种状态,因此不同仪器进行概率密度分布向量p t 预测时,需要通过不同的全连接层进行处理,仪器状态的个数与全连接层神经元个数相对应。
2.4 设置损失函数和优化函数。
本发明模型通过聚类和编码操作,将分解问题转换为求解各个仪器状态的多分类问题,因此使用交叉熵函数作为模型训练的损失函数,如下式所示:
Figure 143791DEST_PATH_IMAGE008
其中:y t 为对应标签序列中t时刻的标签值。
优化器采用SGD+Momentum,在SGD基础上引入了一阶动量,如下式所示:
Figure 495138DEST_PATH_IMAGE018
其中:β表示可以自行设置的超参数,α为学***均实际上是计算当前的速度,当前速度由之前的速度和现在的加速度共同影响;而β<1,又能限制速度V dW 过大,这保证了梯度下降的平稳性和准确性,减少振荡,较快地达到最小值处。
(3)针对电子显微镜类科学仪器的电流数据类型进行预测,主要由以下步骤完成:
3.1 获取待计算的电流序列。
3.2 将获得的电流序列转化为张量,通过seq2seq算法模型进行预测,最终得到与电流序列相映射的机时状态序列。
3.3 根据预测结果进行机时统计。
在如图4所示的seq2seq算法仿真结果中,可见本发明训练的模型对于电子显微镜类仪器的机时计算分析较为准确。通常来说,扫描电子显微镜的电流峰值较小,波动较小,而透射电子显微镜的电流峰值较大,波动更为明显;本发明该算法模型对于不同运行情况不同波形的同类电子显微镜的运行情况都能较为准确地识别,对于大电流或者波动较强的情况,就会识别为开机;对于非工作电流或者波动较为平稳的情况,就会识别为待机;其余情况则会识别为关机,基本达到了发明的目的。
为验证本发明算法模型的效果,将其与未加Attention机制优化的seq2seq算法进行对比。在如图5所示的算法仿真对比结果中可以看出Attention机制使得Decoder结构能更加关注有效特征信息,对于连续波动的电流区间的机时预测效果更好,很少出现连续波动的电流区间内预测机时抖动的情况。
上述对实施例的描述是为便于本技术领域的普通技术人员能理解和应用本发明,熟悉本领域技术的人员显然可以容易地对上述实施例做出各种修改,并把在此说明的一般原理应用到其他实施例中而不必经过创造性的劳动。因此,本发明不限于上述实施例,本领域技术人员根据本发明的揭示,对于本发明做出的改进和修改都应该在本发明的保护范围之内。

Claims (10)

1.一种基于seq2seq算法的电子显微镜机时计算方法,包括如下步骤:
(1)针对电子显微镜类的科学仪器,建立关于其运行电流的数据集;
(2)对数据集进行预处理,并将整个数据集划分成训练集和测试集;
(3)构建基于seq2seq算法的状态预测模型,其由编码器、注意力机制层以及解码器依次连接组成,编码器用于对输入的电流数据进行特征编码,注意力机制层用于为特征信息中不同的隐层状态赋予不同的权重,解码器用于对特征信息进行解码得到仪器每一时刻的状态概率分布;
(4)利用训练集的电流数据对状态预测模型进行训练;
(5)将测试集的电流数据输入至训练好的模型中,即可预测得到仪器每一时刻的状态指示,进而对仪器工作运行状态的持续时间进行统计。
2.根据权利要求1所述的电子显微镜机时计算方法,其特征在于:所述步骤(1)的具体实现方式为:首先从仪器后台管理***的数据库中筛选出多组关于扫描电子显微镜和透射电子显微镜的运行电流序列,该序列具有完整电流周期包含周期内各个时刻的电流值;然后为运行电流序列中每个电流值打上标签得到对应的标签序列,即对于任一时刻的电流值,若该时刻仪器处于工作运行状态,对应标签赋值为2;若该时刻仪器处于待机状态,对应标签赋值为1;该时刻仪器处于关机状态,对应标签赋值为0;进而将运行电流序列及其对应的标签序列组合作为一组电流数据,依此得到多组电流数据从而组建构成数据集。
3.根据权利要求2所述的电子显微镜机时计算方法,其特征在于:所述步骤(2)中对数据集进行预处理的具体实现方式为:首先对数据集中的运行电流序列进行归一化处理,然后将运行电流序列转换分成各个时刻的电流输入向量,即对于运行电流序列中任一时刻t的电流值i t ,根据预设窗口大小wi t 及其前w个时刻的电流值组成t时刻的电流输入向量
Figure 924191DEST_PATH_IMAGE001
,若其中的电流值数量不足w+1,则复制i t 进行补全;依此遍历运行电流序列中各个时刻的电流值,从而得到各个时刻的电流输入向量。
4.根据权利要求3所述的电子显微镜机时计算方法,其特征在于:所述编码器采用BiLSTM网络,其包含了前向和后向两个LSTM单元,具体计算表达式如下:
Figure 388801DEST_PATH_IMAGE002
其中:H为编码器输出的编码特征向量,h t 为BiLSTM网络在t时刻的隐层状态,t为自然数且1≤tmm为运行电流序列的时间长度,x t t时刻的电流输入向量,
Figure 230855DEST_PATH_IMAGE003
Figure 157223DEST_PATH_IMAGE004
分别为前向LSTM单元在t时刻和t-1时刻的隐层状态,
Figure 283180DEST_PATH_IMAGE005
Figure 902380DEST_PATH_IMAGE006
分别为后向LSTM单元在t时刻和t+1时刻的隐层状态,BiLSTM+( )和BiLSTM-( )分别表示前向LSTM单元和后向LSTM单元的内部计算函数。
5.根据权利要求4所述的电子显微镜机时计算方法,其特征在于:所述注意力机制层的计算表达式如下:
Figure 716883DEST_PATH_IMAGE007
其中:C t 为注意力机制层的输出即t时刻的时序向量,α t 为隐层状态h t 的权重值,v t 为隐层状态h t 的注意力分数,exp( )表示以自然常数e为底的指数函数,tanh( )表示双曲正切函数,V e W e 为待学习的权值矩阵,T表示转置,s t-1为解码器在t-1时刻的隐层状态。
6.根据权利要求5所述的电子显微镜机时计算方法,其特征在于:所述解码器采用单向LSTM网络计算隐层状态s t ,进而将隐层状态s t 、注意力机制层的输出C t 以及t-1时刻仪器的状态概率密度分布向量p t-1拼接后通过全连接层降维得到t时刻仪器的状态概率密度分布向量p t 作为模型输出。
7.根据权利要求6所述的电子显微镜机时计算方法,其特征在于:所述隐层状态s t 的计算表达式如下:
Figure 978100DEST_PATH_IMAGE008
其中:s t 为解码器在t时刻的隐层状态,p t-1t-1时刻仪器的状态概率密度分布向量,LSTM( )表示单向LSTM网络的内部计算函数。
8.根据权利要求7所述的电子显微镜机时计算方法,其特征在于:对于初始的隐层状态s 0,其为通过全连接层对隐层状态h m 降维后得到。
9.根据权利要求2所述的电子显微镜机时计算方法,其特征在于:所述步骤(4)中对模型进行训练的具体过程如下:
4.1 初始化模型参数,包括每一层的偏置向量和权值矩阵、学习率以及优化器;
4.2 将训练集电流数据中每一时刻的电流输入向量输入至模型,模型正向传播输出得到对应的预测结果即状态概率密度分布向量,计算该预测结果与对应标签序列之间的损失函数L
4.3 根据损失函数L利用优化器通过梯度下降法对模型参数不断迭代更新,直至损失函数L收敛,训练完成。
10.根据权利要求9所述的电子显微镜机时计算方法,其特征在于:所述损失函数L的表达式如下:
Figure 443717DEST_PATH_IMAGE009
其中:p t 为模型输出的预测结果即t时刻仪器的状态概率密度分布向量,y t 为对应标签序列中t时刻的标签值,t为自然数且1≤tmm为运行电流序列的时间长度。
CN202310017145.1A 2023-01-06 2023-01-06 基于seq2seq算法的电子显微镜机时计算方法 Pending CN115713097A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310017145.1A CN115713097A (zh) 2023-01-06 2023-01-06 基于seq2seq算法的电子显微镜机时计算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310017145.1A CN115713097A (zh) 2023-01-06 2023-01-06 基于seq2seq算法的电子显微镜机时计算方法

Publications (1)

Publication Number Publication Date
CN115713097A true CN115713097A (zh) 2023-02-24

Family

ID=85236139

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310017145.1A Pending CN115713097A (zh) 2023-01-06 2023-01-06 基于seq2seq算法的电子显微镜机时计算方法

Country Status (1)

Country Link
CN (1) CN115713097A (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180329884A1 (en) * 2017-05-12 2018-11-15 Rsvp Technologies Inc. Neural contextual conversation learning
CN110442707A (zh) * 2019-06-21 2019-11-12 电子科技大学 一种基于seq2seq的多标签文本分类方法
CN115510964A (zh) * 2022-09-21 2022-12-23 浙江省科技项目管理服务中心 一种针对液相色谱仪类科学仪器的机时计算方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180329884A1 (en) * 2017-05-12 2018-11-15 Rsvp Technologies Inc. Neural contextual conversation learning
CN110442707A (zh) * 2019-06-21 2019-11-12 电子科技大学 一种基于seq2seq的多标签文本分类方法
CN115510964A (zh) * 2022-09-21 2022-12-23 浙江省科技项目管理服务中心 一种针对液相色谱仪类科学仪器的机时计算方法

Similar Documents

Publication Publication Date Title
CN110399850B (zh) 一种基于深度神经网络的连续手语识别方法
CN111984791B (zh) 一种基于注意力机制的长文分类方法
CN113806494B (zh) 一种基于预训练语言模型的命名实体识别方法
CN111597340A (zh) 一种文本分类方法及装置、可读存储介质
CN117034123B (zh) 健身器材的故障监控***及其方法
CN117037427B (zh) 一种地质灾害联网监测预警***
CN113836896A (zh) 一种基于深度学习的专利文本摘要生成方法和装置
CN115130591A (zh) 一种基于交叉监督的多模态数据分类方法及装置
CN114019370A (zh) 基于灰度图像和轻量级cnn-svm模型的电机故障检测方法
CN116703642A (zh) 基于数字孪生技术的产品制造生产线智能管理***
CN117333146A (zh) 基于人工智能的人力资源管理***及方法
CN115859142A (zh) 一种基于卷积变压器生成对抗网络的小样本滚动轴承故障诊断方法
CN117332206A (zh) 一种基于注意力机制的RCNN-FA-BiGRU自动扶梯轴承故障诊断方法
CN117217277A (zh) 语言模型的预训练方法、装置、设备、存储介质及产品
CN115994204A (zh) 适用于少样本场景的国防科技文本结构化语义分析方法
CN111783464A (zh) 一种面向电力的领域实体识别方法、***及存储介质
CN115713097A (zh) 基于seq2seq算法的电子显微镜机时计算方法
CN115577111A (zh) 基于自注意力机制的文本分类方法
CN116521863A (zh) 一种基于半监督学习的标签抗噪文本分类方法
CN114706054A (zh) 一种人体运动微多普勒信号识别的方法
CN114357166A (zh) 一种基于深度学习的文本分类方法
US20230289533A1 (en) Neural Topic Modeling with Continuous Learning
CN114036947A (zh) 一种半监督学习的小样本文本分类方法和***
CN110825851A (zh) 基于中值转化模型的句子对关系判别方法
CN111158640B (zh) 一种基于深度学习的一对多需求分析识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination