CN117910550B - 一种基于深度学习的无油超高速离心压缩机自动优化*** - Google Patents

一种基于深度学习的无油超高速离心压缩机自动优化*** Download PDF

Info

Publication number
CN117910550B
CN117910550B CN202410310358.8A CN202410310358A CN117910550B CN 117910550 B CN117910550 B CN 117910550B CN 202410310358 A CN202410310358 A CN 202410310358A CN 117910550 B CN117910550 B CN 117910550B
Authority
CN
China
Prior art keywords
data
output
input
module
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202410310358.8A
Other languages
English (en)
Other versions
CN117910550A (zh
Inventor
王胜兵
尹海日
毛红良
林亨俊
刘亨通
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Haituobin Future Industrial Technology Group Co ltd
Original Assignee
Jiangsu Haituobin Future Industrial Technology Group Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Haituobin Future Industrial Technology Group Co ltd filed Critical Jiangsu Haituobin Future Industrial Technology Group Co ltd
Priority to CN202410310358.8A priority Critical patent/CN117910550B/zh
Publication of CN117910550A publication Critical patent/CN117910550A/zh
Application granted granted Critical
Publication of CN117910550B publication Critical patent/CN117910550B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种基于深度学习的无油超高速离心压缩机自动优化***,属于离心压缩机的调节控制技术领域,包括:采集模块,用于采集压缩机的运行数据;预处理模块,用于对运行数据进行预处理;构建模块,用于构建基于长短时记忆网络的目标预测模型;划分模块,用于将运行数据划分为训练集和验证集;寻优模块,用于用训练集对目标预测模型训练,对目标预测模型进行超参数寻优;验证模块,用于利用验证集对目标预测模型进行预测准确率验证;获取模块,获取当前输入数据,利用训练后的目标预测模型给出当前目标数据,否则,调用寻优模块;优化模块,用于按当前目标数据对压缩机进行调整优化。提升自动化优化能力和优化准确性。

Description

一种基于深度学习的无油超高速离心压缩机自动优化***
技术领域
本发明属于离心压缩机的调节控制技术领域,具体涉及一种基于深度学习的无油超高速离心压缩机自动优化***。
背景技术
无油超高速离心压缩机是一种用于将气体或气体混合物压缩成高压状态的设备。相较于传统的润滑剂依赖型压缩机,无油超高速离心压缩机采用了无油设计,减少了对润滑油的依赖,降低了对维护的需求,并且适用于一些对油污染敏感的应用。
无油超高速离心压缩机通常由压缩机本体、电机、轴承和控制***等组成。其中,压缩机本体是最关键的部分,它包括压缩机轴、叶轮、静叶环、蜗壳等组件。压缩机内部有一个或多个旋转的叶轮,这些叶轮被安装在压缩机的主轴上,当主轴旋转时,叶轮也随之旋转。待压缩的气体通过压缩机的进气口进入,然后被叶轮的旋转吸引,在叶轮的旋转作用下,气体被推向叶轮的外缘。由于叶轮的旋转,气体在叶轮外缘受到离心力的作用而被压缩,这导致气体的压力和温度升高。压缩后的气体通过压缩机的排气口冷却后排出,进入***管道,用于后续的工业过程或其他应用。无油超高速离心压缩机通常配备先进的控制***,以监测和调整压缩机的运行状态,这些***可以实时响应工况变化,确保压缩机在不同负载条件下都能保持高效运行。无油超高速离心压缩机通过旋转叶轮产生的离心力来实现气体的压缩,而无需使用润滑油,这种设计减少了对维护的需求,提高了***的可靠性,特别适用于对油污染敏感的应用。
现有技术为了提升离心压缩机的自动化程度,引入了人工智能学习离心压缩机运行过程中的调整动作,以进行监测和自动调控,使得***在满足预期需求的同时时刻调控,降低人工参与,提升离心压缩机的无间隙监测。但是,目前使用的人工模型学习模型缺乏模型的调整能力,对于压缩机的运行数据直接进行无区别的引入,进行模型训练,未考虑整个***是一个整体,这就导致统一的权重分配导致训练出的模型预测能力不准确,另外,对于运行数据往往存在周期性的对应关系,而现有的模型并未考虑这一情况,只将运行数据进行简单的时序分析对模型进行训练,不能捕捉到运行数据的周期性变化,使得训练出的模型预测偏差大,泛化能力不足。
发明内容
为了解决现有技术存在的目前使用的人工模型学习模型缺乏模型的调整能力,对于压缩机的运行数据直接进行无区别的引入,进行模型训练,未考虑整个***是一个整体,这就导致统一的权重分配导致训练出的模型预测能力不准确,另外,对于运行数据往往存在周期性的对应关系,而现有的模型并未考虑这一情况,只将运行数据进行简单的时序分析对模型进行训练,不能捕捉到运行数据的周期性变化,使得训练出的模型预测偏差大,泛化能力不足的技术问题,本发明提供一种基于深度学习的无油超高速离心压缩机自动优化***。
本发明提供了一种基于深度学习的无油超高速离心压缩机自动优化***,***包括:
采集模块,用于采集压缩机的运行数据,其中,运行数据包括输入数据和目标数据,其中,输入数据包括输出温度、输出流量和输出气体压缩率,目标数据包括冷却温度、转速、工作流量和工作压力;
预处理模块,用于对运行数据进行预处理;
构建模块,用于构建基于长短时记忆网络的目标预测模型,其中,目标预测模型包括依次连接的输入层、输出层和基于注意力机制改进的具有门控注意力的长短时记忆网络层,其中,输入层与长短时记忆网络层之间包括一维卷积神经网络层,一维卷积神经网络层分别与输入层和长短时记忆网络层连接,一维卷积神经网络层包括1×4卷积层和最大池化层;
划分模块,用于将预处理后的运行数据按预设比例划分为训练集和验证集,其中,训练集和验证集中均包括输入数据以及相对应的目标数据;
寻优模块,用于利用训练集对目标预测模型进行训练,并结合卷积神经网络模型和遗传算法对目标预测模型进行超参数寻优;
验证模块,用于利用验证集对训练后得到的目标预测模型进行预测准确率验证;
获取模块,用于在预测准确率大于预设准确率的情况下,获取当前输入数据,利用训练后的目标预测模型给出当前目标数据,否则,调用寻优模块;
优化模块,用于按当前目标数据对压缩机进行调整优化;
其中,所述寻优模块具体用于:
S1051:使用所述卷积层对所述训练集进行特征提取:
其中,表示经过i层卷积特征提取后的输出特征向量,/>表示输入数据,/>和/>表示第i层卷积层的权值矩阵和偏置向量,g表示ReLU激活函数,符号“/>”表示卷积运算;
S1052:通过所述最大池化层对所述输出特征向量进行数据降维:
其中,和/>分别表示降维前后的输出特征向量,P表示池化函数;
S1053:将降维后的输出特征向量作为所述长短时记忆网络层的输入信息进行输入,捕捉所述输入数据与所述目标数据之间的关系;
S1054:结合卷积神经网络模型和遗传算法对所述目标预测模型进行超参数寻优,其中,所述超参数为权重参数和偏置参数;
S1055:将寻优后的超参数代入所述目标预测模型,完成所述目标预测模型的训练;
所述长短时记忆网络层包括记忆单元、遗忘门、输入门、输入门候选值和输出门,所述遗忘门、输入门和输出门均由Sigmoid函数和点乘单元组成,所述门控注意力相应的电路布置于记忆单元和遗忘门之间以及所述输入门和所述输出门之间,其中,所述门控注意力的作用是将记忆信息传递至所述遗忘门、所述输入门和所述输出门;
所述S1053具体包括:
S1053A:所述遗忘门、输入门/>、输出门/>、输入门候选值/>和以输出数据/>作为所述目标数据的计算方式具体为:
其中, 和/>分别表示当前时刻t的输入信息和输出数据,/>表示前一时刻t-1的输出数据,/>表示记忆单元C的当前细胞状态、/>表示记忆单元在前一时刻t-1时的细胞状态,/>、/>和/>分别表示所述遗忘门对于输入数据/>、/>和/>的权重参数,、/>和/>分别表示所述输入门对于输入数据/>、/>和/>的权重参数,/>、/>分别表示所述输出门对于输入数据/>、/>和/>的权重参数,/>和/>分别表示所述记忆单元对于输入数据/>和/>的权重参数,其中,所述权重参数的下标表示连接来源,、/>、/>和/>分别表示所述长短时记忆网络层中遗忘门/>、输入门/>、输出门/>、记忆单元/>的偏置参数,/>和/>分别表示Sigmoid激活函数和tanh激活函数;
S1053B:通过门控注意力机制对当前时刻t的输入信息的权值参数进行权重分配:
令中间变量
其中,表示特征i的输入信息,所述特征即所述输出温度、所述输出流量或者所述输出气体压缩率,Wb分别表示进行权重分配的特征矩阵和偏置参数;
计算特征i的权重分配权值参数
对重分配后的权值参数进行加权求和,并将得到的和值作为当前时刻t的输入信息/>的权值参数:
S1053C:将所述和值作为当前时刻t相应输入数据的权值参数。
与现有技术相比,本发明至少具有以下有益技术效果:
(1)在本发明中,通过采集压缩机的运行数据,并构建目标预测模型,使其学习运行数据中目标数据即冷却温度、转速、工作流量和工作压力与输入数据即输出温度、输出流量和输出气体压缩率的相对情况,使得目标预测模型能够对于新采集到的输入数据进行自动化预测,进而根据目标数据对***进行相应调整,提升***的自动化程度,并且,对于难以确定的模型超参数,在训练过程中结合卷积神经网络模型和遗传算法进行寻优,进而将难以评估和预测的模型超参数转化为寻优问题,提升***的自动更新和优化能力,进而提升模型的预测准确性。
(2)在本发明中,引入了注意力机制建立门控注意力对普通的长短时记忆网络进行结构改进,对输入信息进行权重重分配,增加模型的聚焦能力以处理多目标优化问题,避免将***的运行单独拆开进行训练导致的训练出的模型预测能力不足的问题,使得记忆单元通过门控注意力将记忆信息传递给遗忘门、输入门和输出门,增强运行数据之间的长期关联性,获取运行数据周期性的对应关系,有效提升运行数据对应关联关系的获取,从而提升最终模型的预测精度和泛化能力,进而提升***性能和工作效率。
附图说明
下面将以明确易懂的方式,结合附图说明优选实施方式,对本发明的上述特性、技术特征、优点及其实现方式予以进一步说明。
图1是本发明提供的一种基于深度学习的无油超高速离心压缩机自动优化***的结构示意图;
图2是本发明提供的一种长短时记忆网络层的结构示意图;
图3是本发明提供的一种目标预测模型的结构示意图。
具体实施方式
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对照附图说明本发明的具体实施方式。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,并获得其他的实施方式。
为使图面简洁,各图中只示意性地表示出了与发明相关的部分,它们并不代表其作为产品的实际结构。另外,以使图面简洁便于理解,在有些图中具有相同结构或功能的部件,仅示意性地绘示了其中的一个,或仅标出了其中的一个。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
在本文中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接。可以是机械连接,也可以是电连接。可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
另外,在本发明的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在一个实施例中,参照图1,示出了本发明提供的一种基于深度学习的无油超高速离心压缩机自动优化***的结构示意图。
本发明提供的一种基于深度学习的无油超高速离心压缩机自动优化***,***包括:
采集模块1,用于采集压缩机的运行数据。
其中,运行数据包括输入数据和目标数据,其中,输入数据包括输出温度、输出流量和输出气体压缩率,目标数据包括冷却温度、转速、工作流量和工作压力。
其中,输出温度指的是压缩机输出的气体的温度,即通过压缩后的气体的温度,这是一个重要的参数,因为气体温度的变化可能影响整个***的性能和稳定性。输出流量表示单位时间内从压缩机输出的气体流量,输出流量是一个关键的性能指标,特别是在需要稳定的气体供应的应用中。输出气体压缩率这是指压缩机对气体进行压缩的程度,即输出气体相对于输入气体的压缩比率,这个比率影响了***的能效和性能。冷却温度是压缩机冷却***的温度,用于确保设备在正常工作温度范围内,冷却温度的控制对于设备的长期稳定运行至关重要。转速表示压缩机的转速,即压缩机每分钟旋转的次数,转速是一个关键的参数,因为它直接影响了压缩机的输出流量和压缩比。工作流量这是***中期望的气体流量,即压缩机应该输入的气体流量,与输出流量相比,工作流量更多地表示能够达到***期望的输入的气体流量目标。工作压力是指压缩机输出气体的压力,工作压力的稳定性对于保持***的正常运行至关重要。
输入数据提供了有关压缩机当前期望达到的输出效果,运行状态和性能的信息,而目标数据定义了***能够达到预期输出效果时压缩机的工作情况,这些数据采集作为基础训练数据训练建立的深度学习模型,通过学习输入数据与目标数据之间的关系,实现对压缩机性能的自动优化和调整。
在一种可能的实施方式中,采集模块1具体用于:
通过均匀降采样方式采集运行数据。
其中,均匀降采样是一种从原始数据中等间隔地选择样本的方法,即在一定的时间或数据点间隔内,选择一个均匀的子集作为采样数据。采用均匀降采样的方法可以在保留关键信息的前提下降低数据量,以提高***的效率和鲁棒性。
预处理模块2,用于对运行数据进行预处理。
在一种可能的实施方式中,预处理模块具体用于:
通过删除方式去除异常值,完成运行数据的预处理。
需要说明的是,在预处理模块中使用删除方式去除异常值的目的是为了提高数据的质量和模型的稳定性,异常值是指在数据集中明显偏离其他值的数据点,可能由于测量错误、设备故障或其他异常情况引起,异常值可能会对模型的训练和性能产生负面影响,因此在建立深度学习模型之前去除这些异常值可以提升训练效果。
参照图2,示出了本发明提供的一种长短时记忆网络层的结构示意图。参照图3,示出了本发明提供的一种目标预测模型的结构示意图。
构建模块3,用于构建基于长短时记忆网络的目标预测模型。
其中,目标预测模型包括依次连接的输入层、输出层和基于注意力机制改进的具有门控注意力的长短时记忆网络层,其中,输入层与长短时记忆网络层之间包括一维卷积神经网络层,一维卷积神经网络层分别与输入层和长短时记忆网络层连接,一维卷积神经网络层包括1×4卷积层和最大池化层。
其中,输入层是模型的输入部分,接受来自采集模块的运行数据,输入层包括输出温度、输出流量和输出气体压缩率等特征,这些特征将用于模型学习输入数据与目标数据之间的关系。一维卷积神经网络层用于对输入数据进行一维卷积操作,卷积操作有助于提取输入数据中的特征,并通过权重共享的方式减少参数数量,1×4卷积层表示卷积核的大小是1×4,即对每个特征维度进行卷积,从而捕捉数据中的时序特征。卷积后,通过最大池化操作降低数据的维度,有助于保留重要的特征,同时减少计算负担。长短时记忆网络层是一个用于处理时序数据的循环神经网络层,用于捕捉输入数据中的时序依赖关系,门控注意力机制被应用于长短时记忆网络层,以提高对输入序列中不同时间步的关注度,从而更好地捕获重要的时序信息。输出层是模型的输出部分,负责产生目标数据的预测结果,如冷却温度、转速、工作流量和工作压力。
通过这样的架构,模型可以学习输入数据中的时序和特征信息,并通过长短时记忆网络层中的门控注意力机制更加聚焦于关键的时间步,一维卷积神经网络层层有助于提取输入数据的局部特征,从而丰富了模型对于输入数据的理解,整个模型的结构设计旨在更好地适应时序性的数据,并从中学习并预测目标数据。
划分模块4,用于将预处理后的运行数据按预设比例划分为训练集和验证集。
其中,训练集和验证集中均包括输入数据以及相对应的目标数据。
在一种可能的实施方式中,预设比例为7:3。
其中,训练集是用来训练深度学习模型的数据集,模型通过学习训练集中的输入数据与目标数据之间的关系,提高自身的性能,更大的训练集通常有助于模型更好地学习数据的模式和特征。验证集是用来评估模型性能的数据集,在训练过程中,模型没有见过验证集的数据,因此验证集提供了一个独立的数据集,用于估计模型在未见过的数据上的表现。验证集的性能评估有助于监测模型是否过拟合(在训练集上表现好但在未见过的数据上表现差)或者欠拟合(在训练集和验证集上表现都差)。较大的训练集有助于模型更好地学习数据的规律,而较大的验证集有助于更可靠地评估模型的泛化性能。
在实践中,这个划分过程通常是随机的,以确保训练集和验证集的数据分布是随机的,从而更好地代表整体数据集,划分模块的目标是提供独立的训练和验证数据,以支持模型的训练和性能评估。
寻优模块5,用于利用训练集对目标预测模型进行训练,并结合卷积神经网络模型和遗传算法对目标预测模型进行超参数寻优。
在一种可能的实施方式中,寻优模块5具体用于:
S1051:使用卷积层对训练集进行特征提取:
其中,表示经过i层卷积特征提取后的输出特征向量,/>表示输入数据,/>和/>表示第i层卷积层的权值矩阵和偏置向量,g表示ReLU激活函数,符号“/>”表示卷积运算。
S1052:通过最大池化层对输出特征向量进行数据降维:
其中,和/>分别表示降维前后的输出特征向量,P表示池化函数。
S1053:将降维后的输出特征向量作为长短时记忆网络层的输入信息进行输入,捕捉输入数据与目标数据之间的关系。
在一种可能的实施方式中,长短时记忆网络层包括记忆单元、遗忘门、输入门、输入门候选值和输出门,遗忘门、输入门和输出门均由Sigmoid函数和点乘单元组成,门控注意力相应的电路布置于记忆单元和遗忘门之间以及输入门和输出门之间,其中,门控注意力的作用是将记忆信息传递至遗忘门、输入门和输出门。
需要说明的是,门控注意力机制允许网络在处理不同的输入数据时,自适应地调整对不同特征的关注度,这意味着网络能够更灵活地捕捉输入数据中的关键信息,从而提高模型的自适应性。通过引入门控注意力,网络可以在记忆单元和遗忘门之间以及输入门和输出门之间动态调整权重,以更加关注对当前任务而言更为重要的特征,这有助于减轻不相关或冗余特征对模型性能的影响,提高模型的有效性。通过在LSTM中引入门控注意力,可以更好地捕捉序列中的长程依赖性,使模型能够更好地处理时间序列数据。门控注意力机制有助于网络对输入数据进行更有效的学习,可以减少模型对训练集中噪声或不必要信息的过度拟合,这提高了模型的泛化性能,使其更适应新的、未见过的数据。通过关注特定的输入特征,门控注意力机制可以增加模型的可解释性,这使得在模型做出预测时,能够更清晰地理解哪些输入特征对决策起到关键作用。总体而言,门控注意力的引入使得模型能够更灵活、精确地处理输入数据,提高了深度学习模型在复杂任务中的性能。
在一种可能的实施方式中,S1053具体包括:
S1053A:遗忘门、输入门/>、输出门/>、输入门候选值/>和以输出数据/>作为目标数据的计算方式具体为:
其中,和/>分别表示当前时刻t的输入信息和输出数据,/>表示前一时刻t-1的输出数据,/>表示记忆单元C的当前细胞状态、/>表示记忆单元在前一时刻t-1时的细胞状态,/>、/>和/>分别表示所述遗忘门对于输入数据/>、/>和/>的权重参数,、/>和/>分别表示所述输入门对于输入数据/>、/>和/>的权重参数,/>、/>分别表示所述输出门对于输入数据/>、/>和/>的权重参数,/>和/>分别表示所述记忆单元对于输入数据/>和/>的权重参数,其中,所述权重参数的下标表示连接来源,、/>、/>和/>分别表示所述长短时记忆网络层中遗忘门/>、输入门/>、输出门/>、记忆单元/>的偏置参数,/>和/>分别表示Sigmoid激活函数和tanh激活函数;
S1053B:通过门控注意力机制对当前时刻t的输入信息的权值参数进行权重分配:
令中间变量
其中,表示特征i的输入信息,所述特征即所述输出温度、所述输出流量或者所述输出气体压缩率,Wb分别表示进行权重分配的特征矩阵和偏置参数;
计算特征i的权重分配权值参数
对重分配后的权值参数进行加权求和,并将得到的和值作为当前时刻t的输入信息/>的权值参数:
S1053C:将所述和值作为当前时刻t相应输入数据的权值参数。
需要说明的是,通过遗忘门、输入门、输出门和门控注意力机制,动态地调整权值参数,以捕捉输入数据与目标数据之间的复杂关系,通过引入注意力机制,网络能够更加聚焦于对目标数据预测影响较大的特征,提高模型的表达能力和预测准确性。长短时记忆网络结构的单元状态主要是将前一时刻的关键信息传入当前时刻,且其保留关键信息的周期较长。通过分别在记忆单元和遗忘门、输入门和输出门之间增加门控注意力机制,记忆单元通过门控注意力机制将记忆信息传递给遗忘门、输入门和输出门,这种改进结构使得故障数据之间的长期关联性增强,能有效的提升故障数据信息的获取,从而提升在应对新数据时有效结合历史数据进行平稳***调整,提升***的整体运行平稳性,避免跳跃式的调整,降低***因频繁大幅度调整导致的故障率。
S1054:结合卷积神经网络模型和遗传算法对目标预测模型进行超参数寻优,其中,超参数为权重参数和偏置参数。
在一种可能的实施方式中,S1054具体包括:
S1054A:构建包括超参数的卷积神经网络模型,确定隐含层最大节点数,其中,卷积神经网络模型包括输入层、隐含层和输出层。
在一种可能的实施方式中,S1054A具体包括:
S1054A1:确定卷积神经网络模型输出矩阵
其中,L表示隐含层的节点数量,表示输入矩阵,/>,/>分别表示隐含层第i个节点的输入权重和输出权重,/>分别表示代表超参数的节点i的权重参数和偏置参数,r表示正则化参数,λ表示权重参数和偏置参数的比例系数,/>表示最大备选节点,n表示用于初始化第i个节点权重参数的随机参数,/>表示在所述随机参数n下循环遍历所述最大备选节点的随机采样值,/>表示在随机参数确定为1的情况下,循环遍历所述最大备选节点的随机采样值;
S1054A2:根据输出矩阵,计算卷积神经网络模型的预测误差
其中,Y表示观测实际误差;
S1054A3:在预测误差大于或者等于预设误差的情况下,停止循环,并将此时的节点数量作为隐含层的最大节点数。
需要说明的是,本领域技术人员可以根据实际需要设置预设误差的大小,本发明在此不做限定。
S1054B:将卷积神经网络模型中的正则化参数和比例系数作为种群个体,初始化遗传算法的最大迭代次数和种群数量。
S1054C:基于均方根误差计算卷积神经网络模型中每个种群个体的适应度值。
在一种可能的实施方式中,适应度值的计算方式为:
其中,u表示代表正则化参数和比例系数的种群个体,表示目标数据实际值,表示目标数据的输出值,M表示样本数量即选取的训练集中相对应输入数据和目标数据的组数。
S1054D:重复迭代,直至达到最大迭代次数。
S1054F:输出最大适应度时对应的正则化参数和比例系数。
S1054G:将正则化参数和比例系数代入卷积神经网络模型,将此时的超参数作为寻优结果输出。
具体地,在这一步中,将对超参数的优化问题,转为了对卷积神经网络的正则化参数和比例系数的寻优,通过遗传算法重复迭代确定最佳正则化参数和比例系数,之后将其代入到包括超参数的卷积神经网络模型计算出此时的超参数,在超参数的寻优阶段,引入了遗传算法,将优化问题从传统的超参数调整扩展到卷积神经网络的正则化参数和比例系数的寻优,这样的转变不仅能够在调整超参数的同时考虑正则化参数和比例系数的影响,而且通过遗传算法的迭代过程,***地搜索超参数空间,找到最佳的正则化参数和比例系数的组合,从而全面提升了模型的泛化性能。
遗传算法作为一种启发式搜索算法,模拟了生物进化的过程,通过种群的交叉、变异等操作,在解空间中寻找最优解,这种全局搜索的性质使得遗传算法能够有效应对高维、非凸的超参数优化问题,避免陷入局部最优解,通过将遗传算法与卷积神经网络结合,不仅提高了优化效率,同时也增加了对复杂非线性问题的适应性。
最终,通过这一结合策略,成功地将超参数优化问题嵌入到卷积神经网络模型的训练过程中,使得模型在训练过程中不断调整参数,逐步优化性能,这种综合利用卷积神经网络和遗传算法的方法,不仅提高了模型的预测准确性,还使得模型更具鲁棒性和泛化能力,能够更好地适应不同的运行数据情境。
S1055:将寻优后的超参数代入目标预测模型,完成目标预测模型的训练。
验证模块6,用于利用验证集对训练后得到的目标预测模型进行预测准确率验证。
获取模块7,用于在预测准确率大于预设准确率的情况下,获取当前输入数据,利用训练后的目标预测模型给出当前目标数据,否则,调用寻优模块。
具体地,首先,验证模块通过验证集评估模型的性能,如果性能达到预期,获取模块将用模型进行实时预测,如果性能不足,获取模块会调用寻优模块进行超参数优化,以改进模型并提高准确率,这种反馈机制确保模型在运行时能够适应数据的变化,并持续提高性能。需要说明的是,本领域技术人员可以根据实际需要设置预设准确率的大小,本发明在此不做限定。
优化模块8,用于按当前目标数据对压缩机进行调整优化。
需要说明的是,通过对输入数据的分析,得到期望的输出,利用具有泛化能力的目标预测模型得到目标数据,获取***需要调整的位置和调整程度,进而使得调整后的***能够达到期望的输出,完成***的实时优化。
在一种可能的实施方式中,基于深度学习的无油超高速离心压缩机自动优化***还包括:
监测模块9,用于对当前目标数据进行实时监测,在当前目标数据出现异常时,发出警报。
需要说明的是,设置实时监测是为了防止模型预测出的目标数据脱离实际的***调整上限,即***的最大调整阈值,这个最大调整阈值可以基于***的运行手册获取,避免出现极端数据,在当前目标数据出现异常时,发出警报,提升***的运行安全性。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (8)

1.一种基于深度学习的无油超高速离心压缩机自动优化***,其特征在于,包括:
采集模块,用于采集压缩机的运行数据,其中,所述运行数据包括输入数据和目标数据,其中,所述输入数据包括输出温度、输出流量和输出气体压缩率,所述目标数据包括冷却温度、转速、工作流量和工作压力;
预处理模块,用于对所述运行数据进行预处理;
构建模块,用于构建基于长短时记忆网络的目标预测模型,其中,所述目标预测模型包括依次连接的输入层、输出层和基于注意力机制改进的具有门控注意力的长短时记忆网络层,其中,所述输入层与所述长短时记忆网络层之间包括一维卷积神经网络层,所述一维卷积神经网络层分别与所述输入层和所述长短时记忆网络层连接,所述一维卷积神经网络层包括1×4卷积层和最大池化层;
划分模块,用于将预处理后的运行数据按预设比例划分为训练集和验证集,其中,所述训练集和所述验证集中均包括输入数据以及相对应的目标数据;
寻优模块,用于利用所述训练集对所述目标预测模型进行训练,并结合卷积神经网络模型和遗传算法对所述目标预测模型进行超参数寻优;
验证模块,用于利用所述验证集对训练后得到的目标预测模型进行预测准确率验证;
获取模块,用于在所述预测准确率大于预设准确率的情况下,获取当前输入数据,利用训练后的目标预测模型给出当前目标数据,否则,调用所述寻优模块;
优化模块,用于按所述当前目标数据对所述压缩机进行调整优化;
其中,所述寻优模块具体用于:
S1051:使用所述卷积层对所述训练集进行特征提取:
;
其中,表示经过i层卷积特征提取后的输出特征向量,/>表示输入数据,/>和/>表示第i层卷积层的权值矩阵和偏置向量,g表示ReLU激活函数,符号“/>”表示卷积运算;
S1052:通过所述最大池化层对所述输出特征向量进行数据降维:
;
其中,和/>分别表示降维前后的输出特征向量,P表示池化函数;
S1053:将降维后的输出特征向量作为所述长短时记忆网络层的输入信息进行输入,捕捉所述输入数据与所述目标数据之间的关系;
S1054:结合卷积神经网络模型和遗传算法对所述目标预测模型进行超参数寻优,其中,所述超参数为权重参数和偏置参数;
S1055:将寻优后的超参数代入所述目标预测模型,完成所述目标预测模型的训练;
所述长短时记忆网络层包括记忆单元、遗忘门、输入门、输入门候选值和输出门,所述遗忘门、输入门和输出门均由Sigmoid函数和点乘单元组成,所述门控注意力相应的电路布置于记忆单元和遗忘门之间以及所述输入门和所述输出门之间,其中,所述门控注意力的作用是将记忆信息传递至所述遗忘门、所述输入门和所述输出门;
所述S1053具体包括:
S1053A:所述遗忘门、输入门/>、输出门/>、输入门候选值/>和以输出数据/>作为所述目标数据的计算方式具体为:
,
,
,
,
,
;
其中, 和/>分别表示当前时刻t的输入信息和输出数据,/>表示前一时刻t-1的输出数据,/>表示记忆单元C的当前细胞状态、/>表示记忆单元在前一时刻t-1时的细胞状态,/>、/>和/>分别表示所述遗忘门对于输入数据/>、/>和/>的权重参数,/>和/>分别表示所述输入门对于输入数据/>、/>和/>的权重参数,/>、/>和/>分别表示所述输出门对于输入数据/>、/>和/>的权重参数,/>和/>分别表示所述记忆单元对于输入数据/>和/>的权重参数,其中,所述权重参数的下标表示连接来源,/>、/>和/>分别表示所述长短时记忆网络层中遗忘门/>、输入门/>、输出门/>、记忆单元的偏置参数,/>和/>分别表示Sigmoid激活函数和tanh激活函数;
S1053B:通过门控注意力机制对当前时刻t的输入信息的权值参数进行权重分配:
令中间变量
;
其中,表示特征i的输入信息,所述特征即所述输出温度、所述输出流量或者所述输出气体压缩率,Wb分别表示进行权重分配的特征矩阵和偏置参数;
计算特征i的权重分配权值参数
对重分配后的权值参数进行加权求和,并将得到的和值作为当前时刻t的输入信息的权值参数:
S1053C:将所述和值作为当前时刻t相应输入数据的权值参数。
2.根据权利要求1所述的基于深度学习的无油超高速离心压缩机自动优化***,其特征在于,所述采集模块具体用于:
通过均匀降采样方式采集所述运行数据。
3.根据权利要求1所述的基于深度学习的无油超高速离心压缩机自动优化***,其特征在于,所述预处理模块具体用于:
通过删除方式去除异常值,完成所述运行数据的预处理。
4.根据权利要求1所述的基于深度学习的无油超高速离心压缩机自动优化***,其特征在于,所述预设比例为7:3。
5.根据权利要求1所述的基于深度学习的无油超高速离心压缩机自动优化***,其特征在于,所述S1054具体包括:
S1054A:构建包括所述超参数的卷积神经网络模型,确定隐含层最大节点数,其中,所述卷积神经网络模型包括输入层、隐含层和输出层;
S1054B:将所述卷积神经网络模型中的正则化参数和比例系数作为种群个体,初始化所述遗传算法的最大迭代次数和种群数量;
S1054C:基于均方根误差计算所述卷积神经网络模型中每个种群个体的适应度值;
S1054D:重复迭代,直至达到所述最大迭代次数;
S1054F:输出最大适应度时对应的正则化参数和比例系数;
S1054G:将所述正则化参数和所述比例系数代入所述卷积神经网络模型,将此时的超参数作为寻优结果输出。
6.根据权利要求5所述的基于深度学习的无油超高速离心压缩机自动优化***,其特征在于,所述S1054A具体包括:
S1054A1:确定所述卷积神经网络模型输出矩阵
,
,
,
;
其中,L表示所述隐含层的节点数量,表示输入矩阵,/>,/>分别表示隐含层第i个节点的输入权重和输出权重,/>分别表示代表所述超参数的节点i的权重参数和偏置参数,r表示正则化参数,λ表示所述权重参数和所述偏置参数的比例系数,/>表示最大备选节点,n表示用于初始化第i个节点权重参数的随机参数,/>表示在所述随机参数n下循环遍历所述最大备选节点的随机采样值,/>表示在随机参数确定为1的情况下,循环遍历所述最大备选节点的随机采样值;
S1054A2:根据所述输出矩阵,计算所述卷积神经网络模型的预测误差
;
其中,Y表示观测实际误差;
S1054A3:在所述预测误差大于或者等于预设误差的情况下,停止循环,并将此时的节点数量作为所述隐含层的最大节点数。
7.根据权利要求5所述的基于深度学习的无油超高速离心压缩机自动优化***,其特征在于,所述适应度值的计算方式为:
;
其中,u表示代表所述正则化参数和所述比例系数的种群个体,表示目标数据实际值,/>表示目标数据的输出值,M表示样本数量即选取的训练集中相对应输入数据和目标数据的组数。
8.根据权利要求1所述的基于深度学习的无油超高速离心压缩机自动优化***,其特征在于,还包括:
监测模块,用于对所述当前目标数据进行实时监测,在所述当前目标数据出现异常时,发出警报。
CN202410310358.8A 2024-03-19 2024-03-19 一种基于深度学习的无油超高速离心压缩机自动优化*** Active CN117910550B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410310358.8A CN117910550B (zh) 2024-03-19 2024-03-19 一种基于深度学习的无油超高速离心压缩机自动优化***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410310358.8A CN117910550B (zh) 2024-03-19 2024-03-19 一种基于深度学习的无油超高速离心压缩机自动优化***

Publications (2)

Publication Number Publication Date
CN117910550A CN117910550A (zh) 2024-04-19
CN117910550B true CN117910550B (zh) 2024-06-07

Family

ID=90697574

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410310358.8A Active CN117910550B (zh) 2024-03-19 2024-03-19 一种基于深度学习的无油超高速离心压缩机自动优化***

Country Status (1)

Country Link
CN (1) CN117910550B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023097705A1 (zh) * 2021-11-30 2023-06-08 大连理工大学 一种基于多源数据融合的压气机旋转失速预测方法
CN117171700A (zh) * 2023-08-10 2023-12-05 辽宁石油化工大学 一种基于深度学习的钻井溢流预测组合模型及模型适时静默更新与迁移学习方法
CN117520809A (zh) * 2023-09-27 2024-02-06 三峡大学 一种基于EEMD-KPCA-CNN-BiLSTM的变压器故障诊断方法
CN117637046A (zh) * 2023-10-17 2024-03-01 河北大河材料科技有限公司 一种转炉tso预测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023097705A1 (zh) * 2021-11-30 2023-06-08 大连理工大学 一种基于多源数据融合的压气机旋转失速预测方法
CN117171700A (zh) * 2023-08-10 2023-12-05 辽宁石油化工大学 一种基于深度学习的钻井溢流预测组合模型及模型适时静默更新与迁移学习方法
CN117520809A (zh) * 2023-09-27 2024-02-06 三峡大学 一种基于EEMD-KPCA-CNN-BiLSTM的变压器故障诊断方法
CN117637046A (zh) * 2023-10-17 2024-03-01 河北大河材料科技有限公司 一种转炉tso预测方法

Also Published As

Publication number Publication date
CN117910550A (zh) 2024-04-19

Similar Documents

Publication Publication Date Title
CN111275288B (zh) 基于XGBoost的多维数据异常检测方法与装置
CN111709490B (zh) 一种基于gru神经网络的风机健康状态评估方法
CN112990556A (zh) 一种基于Prophet-LSTM模型的用户用电能耗预测方法
CN110689171A (zh) 一种基于e-lstm的汽轮机健康状态预测方法
CN111062533A (zh) 一种基于鲸鱼优化算法优化加权最小二乘支持向量机的风机故障预测方法
CN116757534A (zh) 一种基于神经训练网络的智能冰箱可靠性分析方法
CN111648992B (zh) 燃气轮机压气机故障识别预警方法
CN114282443B (zh) 基于mlp-lstm有监督联合模型的剩余使用寿命预测方法
CN114218872B (zh) 基于dbn-lstm半监督联合模型的剩余使用寿命预测方法
CN111340282A (zh) 基于da-tcn的设备剩余使用寿命的估计方法及***
CN111079926B (zh) 基于深度学习的具有自适应学习率的设备故障诊断方法
CN113420509A (zh) 一种风电机组状态评价方法、装置及存储介质
CN110874665B (zh) 用于风力发电机组的控制装置和方法
CN113344288A (zh) 梯级水电站群水位预测方法、装置及计算机可读存储介质
CN115879369A (zh) 一种基于优化LightGBM算法的磨煤机故障预警方法
CN112580254A (zh) 一种基于多级决策融合的换流变多维度分析和预警方法
CN117313351A (zh) 一种安全的数据中心优化冷量预测方法与***
CN117910550B (zh) 一种基于深度学习的无油超高速离心压缩机自动优化***
CN113762591A (zh) 一种基于gru和多核svm对抗学习的短期电量预测方法及***
CN116541778A (zh) 一种基于物联网的设备数据处理和缓存方法
CN110414734B (zh) 一种计及风资源利用率预测评估的方法
CN117232809A (zh) 基于dematel-anp-critic组合赋权的风机主轴故障预诊断方法
CN116821828A (zh) 一种基于工业数据的多维时序预测方法
CN111047121A (zh) 一种风机故障预测方法及***
CN116127831A (zh) 一种重型燃气轮机难测参数软测量方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant