CN112905213B - 一种基于卷积神经网络实现ecu刷写参数优化的方法及*** - Google Patents

一种基于卷积神经网络实现ecu刷写参数优化的方法及*** Download PDF

Info

Publication number
CN112905213B
CN112905213B CN202110327752.9A CN202110327752A CN112905213B CN 112905213 B CN112905213 B CN 112905213B CN 202110327752 A CN202110327752 A CN 202110327752A CN 112905213 B CN112905213 B CN 112905213B
Authority
CN
China
Prior art keywords
neural network
convolutional neural
brushing
refreshing
occupancy rate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110327752.9A
Other languages
English (en)
Other versions
CN112905213A (zh
Inventor
刘杰
朱磊磊
朱雪岩
王殿辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China National Heavy Duty Truck Group Jinan Power Co Ltd
Original Assignee
China National Heavy Duty Truck Group Jinan Power Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China National Heavy Duty Truck Group Jinan Power Co Ltd filed Critical China National Heavy Duty Truck Group Jinan Power Co Ltd
Priority to CN202110327752.9A priority Critical patent/CN112905213B/zh
Publication of CN112905213A publication Critical patent/CN112905213A/zh
Application granted granted Critical
Publication of CN112905213B publication Critical patent/CN112905213B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/60Software deployment
    • G06F8/65Updates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/60Software deployment
    • G06F8/61Installation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明提供一种基于卷积神经网络实现ECU刷写参数优化的方法及***,二者均可执行以下步骤:D1、采集硬件配置参数和刷写时序参数,硬件配置参数包括刷写前CPU占用率z;D2、采用训练好的第一卷积神经网络模型得到预测CPU占用率y;D3、计算y+z;D4、判断y+z是否小于m,若是,则执行步骤D5,若否,则执行步骤D7;D5、将刷写时序参数的当前值自减,并利用训练好的第二卷积神经网络预测刷写时长t;D6、判断所述刷写时长t是否小于n,若是,则执行步骤D8,否则执行步骤D7;D7、将刷写时序参数的当前值自加,之后执行步骤D1;D8、控制ECU刷写程序按刷写时序参数的最新值进行刷写。本发明用于降低刷写终端设备软硬件环境对刷写速率的影响。

Description

一种基于卷积神经网络实现ECU刷写参数优化的方法及***
技术领域
本发明涉及车辆控制技术领域,具体涉及一种基于卷积神经网络实现ECU刷写参数优化的方法及***。
背景技术
ECU是汽车发动机的重要组成部分,它可以基于内部刷写的数据调控发动机动力输出数值。
ECU的数据刷写分三个方面:一是发动机/汽车下线出厂时进行数据封装,二是汽车维修站进行ECU更新、维修,三是发动机改装应用。其中,ECU更新是为了优化汽车发动机和ECU的参数,其工作原理是通过优化程序,在原始数据的基础上细化燃料供应和点火,优化参数,增加输出功率,增加扭矩或降低油耗。增加马力和扭矩会增加燃油消耗并降低马力和扭矩,从而降低油耗。刷ECU在广泛意义上则指的是改变电脑里的程序,比如,改写ECU里的MAP,或者覆盖原车MAP,或者动态干预MAP最终的目的,即重新匹配点火以及喷油的时间以及控制进排气阀门的开合时间和速度。
近年来,随着电喷技术的发展,刷写ECU数据成为汽车行业的必备环节。ECU刷写主要领域在发动机和生产环节,目前,大量官方维修站、民间维修站均提供ECU刷写服务,市场对ECU刷写工具需求量较大。但当前ECU刷写工具供应商包括德国博世公司、德国Vector公司、奥地利AVL公司等,这些产品种类相对,难以满足市场的实际需求。
现今,ECU刷写工具除ECU数据刷写外,也兼具故障诊断、故障码清除、数据标定等功能。ECU刷写工具大多通过ECU诊断刷写设备连接电脑端与ECU控制器,由电脑端软件控制实现刷写功能。作为ECU刷写工具的核心功能,ECU数据刷写的工作效率是ECU刷写工具软件设计的最为重要的部分。通过电脑端软件刷写ECU程序,除ECU本身及CAN总线等的影响,不同的电脑配置也会对刷写速率及刷写结果造成影响,通过实验发现,上述刷写方法存在以下不足:
当电脑CPU占用率过高时会导致刷写过程卡顿,容易引起超时失败;在电脑本身硬件环境配置较低时,相同刷写时序下,刷写时长会相对较长。
为此,本发明提供一种基于卷积神经网络(CNN)的ECU程序刷写优化方法及***,用于解决上述问题。
发明内容
针对现有技术的上述不足,本发明提供一种基于卷积神经网络(CNN)的ECU程序刷写优化方法及***,用于降低刷写终端设备的硬件及软件环境对刷写速率的影响,提高刷写速率及成功率。
第一方面,本发明提供一种基于卷积神经网络实现ECU刷写参数优化的方法,应用于刷写终端设备,该包括步骤:
D1、采集刷写终端设备的硬件配置参数,并采集刷写终端设备上所要执行的ECU刷写程序的当前的刷写时序参数;所述硬件配置参数包括刷写终端设备的CPU占用率,该CPU占用率记为刷写前CPU占用率z;
D2、将最新采集到的硬件配置参数以及最新采集到的刷写时序参数作为输入,采用训练好的第一卷积神经网络模型预测刷写终端设备的CPU占用率,得到预测CPU占用率y;
D3、计算所述刷写前CPU占用率z与所述预测CPU占用率y的加和y+z;
D4、判断y+z是否小于m,若是,则继续执行步骤D5,若否,则转而执行步骤D7;其中,m为预先设定的CPU总占用率阈值;
D5、将上述刷写时序参数的当前值按预先设定的方式自减,并将自减调整后的刷写时序参数以及将步骤D1中最新采集到的硬件配置参数作为输入,利用训练好的第二卷积神经网络预测并输出预测到的刷写时长t,之后执行步骤D6;
D6、判断所述刷写时长t是否小于n,若是,则转向步骤D8继续执行,否则转而继续执行步骤D7;其中,n为预先设定的刷写时长阈值;
D7、将上述刷写时序参数的当前值按预先设定的方式自加,之后转而继续执行步骤D1;
D8、控制上述ECU刷写程序按所述刷写时序参数的最新值进行刷写。
进一步地,所述第一卷积神经网络模型及所述第二卷积神经网络模型的构建方法均包括步骤:
Q1:获取样本数据集;
Q2:建立第一卷积神经网络和第二卷积神经网络;
所述的第一卷积神经网络和所述的第二卷积神经网络均包括五个卷积层conv、三个池化层pooling、两个归一化层Lrn和两个全连接层fc,对应的网络结构均为
在上述网络结构中,各ReLU均为激活函数,MSE为损失函数,其中:第一卷积神经网络中的损失函数MSE的公式为式中y′为实际采集到的刷写前CPU占用率,y为通过第一卷积神经网络预测到的CPU占用率;第二卷积神经网络中的损失函数MSE的公式为/>式中t′表示实际的刷写时长,t表示第二卷积神经网络预测到的刷写时长;上述n1为用于训练第一卷积神经网络的样本数,上述n2为用于训练第二卷积神经网络的样本数;
Q3:利用上述构建的样本数据集,分别对上述建立的第一卷积神经网络和第二卷积神经网络进行训练,得到训练好的第一卷积神经网络模型和训练好的第二卷积神经网络模型。
进一步地,步骤Q3的实现方法为:
将所述样本数据集按照4:1的比例划分为训练集和测试集,其中训练集按照k-fold校验法划分k份,其中的k-1份用作训练、另外一份用作校验;
分别利用训练集对所建立的第一卷积神经网络和第二卷积神经网络进行训练;
分别利用测试集对所建立的第一卷积神经网络和第二卷积神经网络进行校验;
每次训练均通过损失函数MSE计算预测结果与实际结果之间的差值,并分别依据预先确定的校验误差最小值,根据循环训练次数,调整参数重新训练模型,直至损失函数计算的结果小于或等于上述预先确定的校验误差最小值,得到训练好的对应的卷积神经网络模型。
进一步地,步骤Q1的实现方法为:
采集样本;
对采集到的每一个样本分别进行预处理,对应得到各样本的预处理后的样本;
将上述得到的所有预处理后的样本汇集形成所述的样本数据集;
其中,对采集到的每一个样本分别进行预处理的方法为:
计算样本中所有数据的均值average;
计算样本中每一个数据的标准差;
利用所述均值average以及计算所得的标准差,对样本中的每一个数据x均采用公式H=|x-average|/σ进行预处理,得到预处理后的样本;其中,H为数据x对应的预处理后的数据,σ为x对应的标准差。
进一步地,所述的刷写时序参数包括ECU刷写程序对应的帧与帧刷写时间间隔CFMS、包与包刷写时间间隔FFMS和超时时间设置参数RTMS;
所述的硬件配置参数,还包括刷写终端设备的CPU处理频率、内存条大小、当前剩余内存大小、刷写对应的CPU占用率和刷写对应的刷写时长;
所述刷写对应的CPU占用率,为预先设定的CPU占用率差值;所述CPU占用率差值用于代表刷写时最高CPU占用率与刷写前CPU占用率的最新取值之间的差值;
所述刷写对应的刷写时长,为依据经验预先设定的刷写时长,用于代表ECU刷写程序执行刷写所用的刷写时长。
第二方面,本发明提供一种基于卷积神经网络实现ECU刷写参数优化的***,应用于刷写终端设备,该***包括:
参数采集单元,用于采集刷写终端设备的硬件配置参数,并采集刷写终端设备上所要执行的ECU刷写程序的当前的刷写时序参数;所述硬件配置参数包括刷写终端设备的CPU占用率,该CPU占用率记为刷写前CPU占用率z;
CPU占用率预测单元,用于将参数采集单元最新采集到的硬件配置参数以及将参数采集单元最新采集到的刷写时序参数作为输入,采用训练好的第一卷积神经网络模型预测刷写终端设备的CPU占用率,得到预测CPU占用率y;
计算单元,用于计算所述刷写前CPU占用率z与所述预测CPU占用率y的加和y+z;
第一判断单元,用于判断所述加和y+z是否小于m;m为预先设定的CPU总占用率阈值;
刷写时长预测单元,用于在第一判断单元的判断结果为是时,将上述刷写时序参数的当前值按预先设定的方式自减,并将自减调整后的刷写时序参数以及将参数采集单元最新采集到的硬件配置参数作为输入,利用训练好的第二卷积神经网络预测并输出预测到的刷写时长t;
第二判断单元,用于判断所述刷写时长t是否小于n,n为预先设定的刷写时长阈值;
第一执行单元,用于在第一判断单元的判断结果为否时以及在第二判断单元的判断结果为否时,分别执行:将上述刷写时序参数的当前值按预先设定的方式自加,之后再次调用参数采集单元;
第二执行单元,用于在第二判断单元的判断结果为是时,控制上述ECU刷写程序按所述刷写时序参数的最新值进行刷写。
进一步地,所述第一卷积神经网络模型及所述第二卷积神经网络模型的构建方法均包括步骤:
Q1:获取样本数据集;
Q2:建立第一卷积神经网络和第二卷积神经网络;
所述的第一卷积神经网络和所述的第二卷积神经网络均包括五个卷积层conv、三个池化层pooling、两个归一化层LRN和两个全连接层fc,所对应的网络结构均为
在上述网络结构中,各ReLU均为激活函数,MSE为损失函数,其中:第一卷积神经网络中的损失函数MSE的公式为式中y′为实际采集到的刷写前CPU占用率,y为通过第一卷积神经网络预测到的CPU占用率;第二卷积神经网络中的损失函数MSE的公式为/>式中t′表示实际的刷写时长,t表示第二卷积神经网络预测到的刷写时长;上述n1为用于训练第一卷积神经网络的样本数,上述n2为用于训练第二卷积神经网络的样本数;
Q3:利用上述构建的样本数据集,分别对上述建立的第一卷积神经网络和第二卷积神经网络进行训练,得到训练好的第一卷积神经网络模型和训练好的第二卷积神经网络模型。
进一步地,步骤Q3的实现方法为:
将所述样本数据集按照4:1的比例划分为训练集和测试集,其中训练集按照k-fold校验法划分k份,其中的k-1份用作训练、另外一份用作校验;
分别利用训练集对所建立的第一卷积神经网络和第二卷积神经网络进行训练;
分别利用测试集对所建立的第一卷积神经网络和第二卷积神经网络进行校验;
每次训练均通过损失函数MSE计算预测结果与实际结果之间的差值,并分别依据预先确定的校验误差最小值,根据循环训练次数,调整参数重新训练模型,直至损失函数计算的结果小于或等于上述预先确定的校验误差最小值,得到训练好的对应的卷积神经网络模型。
进一步地,步骤Q1的实现方法为:
采集样本;
对采集到的每一个样本分别进行预处理,对应得到各样本的预处理后的样本;
将上述得到的所有预处理后的样本汇集形成所述的样本数据集;
其中,对采集到的每一个样本分别进行预处理的方法为:
计算样本中所有数据的均值average;
计算样本中每一个数据的标准差;
利用所述均值average以及计算所得的标准差,对样本中的每一个数据x均采用公式H=|x-average|/σ进行预处理,得到预处理后的样本;其中,H为数据x对应的预处理后的数据,σ为x对应的标准差。
进一步地,所述的刷写时序参数包括ECU刷写程序对应的帧与帧刷写时间间隔CFMS、包与包刷写时间间隔FFMS和超时时间设置参数RTMS;
所述的硬件配置参数,还包括刷写终端设备的CPU处理频率、内存条大小、当前剩余内存大小、刷写对应的CPU占用率和刷写对应的刷写时长;
所述刷写对应的CPU占用率,为预先设定的CPU占用率差值;所述CPU占用率差值用于代表刷写时最高CPU占用率与刷写前CPU占用率的最新取值之间的差值;
所述刷写对应的刷写时长,为依据经验预先设定的刷写时长,用于代表ECU刷写程序执行刷写所用的刷写时长。
本发明的有益效果在于:
本发明提供的基于卷积神经网络实现ECU刷写参数优化的方法及***,有助于在刷写前,根据计算机(即刷写终端设备)各项环境参数,预判CPU占用率及刷写时长,并可在预判CPU占用率过高及预判刷写时长过长时,及时调整刷写时序参数,有助于在一定程度上避免刷写时长过长,也可在一定程度上避免CPU占用率过高出现程序卡顿超时造成刷写时间过程失败。可见本发明能够在一定程度上规避计算机软、硬件环境对程序刷写速率的影响。
此外,本发明设计原理可靠,结构简单,具有非常广泛的应用前景。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一个实施例的方法的示意性流程图。
图2是本发明中所述第一卷积神经网络和所述第二卷积神经网络的网络结构示意图。
图3是本发明一个实施例的***的示意性框图。
具体实施方式
为了使本技术领域的人员更好地理解本发明中的技术方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
图1是本发明一个实施例的方法的示意性流程图。其中,该方法应用于刷写终端设备,可基于卷积神经网络,对刷写时长及CPU占用率进行预测,当CPU占用率过高时,能够调小刷写时序参数,当刷写时长过长时,可调大刷写时序参数。刷写终端设备可以是计算机。
如图1所示,该方法100包括:
步骤110、采集刷写终端设备的硬件配置参数,并采集刷写终端设备上所要执行的ECU刷写程序的当前的刷写时序参数。
所述硬件配置参数包括刷写终端设备的CPU占用率,该CPU占用率记为刷写前CPU占用率z。
步骤120、将最新采集到的硬件配置参数以及最新采集到的刷写时序参数作为输入,采用训练好的第一卷积神经网络模型预测刷写终端设备的CPU占用率,得到预测CPU占用率y。
步骤130、计算所述刷写前CPU占用率z与所述预测CPU占用率y的加和y+z。
步骤140、判断y+z是否小于m,若是,则继续执行步骤150,若否,则转而执行步骤170。
其中,m为预先设定的CPU总占用率阈值。
步骤150、将上述刷写时序参数的当前值按预先设定的方式自减,并将自减调整后的刷写时序参数以及将步骤110中最新采集到的硬件配置参数作为输入,利用训练好的第二卷积神经网络预测并输出预测到的刷写时长t。
之后执行步骤160。
步骤160、判断所述刷写时长t是否小于n,若是,则转向步骤180继续执行,否则转而继续执行步骤170。
其中,n为预先设定的刷写时长阈值。
步骤170、将上述刷写时序参数的当前值按预先设定的方式自加,之后转而继续执行步骤110。
步骤180、控制上述ECU刷写程序按所述刷写时序参数的最新值进行刷写。
具体地,进入刷写过程,控制上述ECU刷写程序按所述刷写时序参数的最新值进行刷写。
可选地,作为本发明的一个示意性实施例,在步骤110中,所述的刷写时序参数包括ECU刷写程序对应的帧与帧刷写时间间隔CFMS、包与包刷写时间间隔FFMS和超时时间设置参数RTMS;所述的硬件配置参数,还包括刷写终端设备的CPU处理频率、内存条大小、当前剩余内存大小、刷写对应的CPU占用率和刷写对应的刷写时长。
所述刷写对应的CPU占用率,为预先设定的CPU占用率差值;所述CPU占用率差值用于代表刷写时最高CPU占用率与刷写前CPU占用率的最新取值之间的差值。
所述刷写对应的刷写时长,为依据经验预先设定的刷写时长,用于代表ECU刷写程序执行刷写所用的刷写时长。
可选地,作为本发明的一个示意性实施例,所述第一卷积神经网络模型及所述第二卷积神经网络模型的构建方法均包括:
步骤一:获取样本数据集。
具体地,该步骤一的实现方法包括:
步骤(1),采集样本。
实现时,可通过在刷写终端设备连续执行具有不同取值的刷写时序参数的ECU刷写程序获取样本数据。具体地,对于每一次执行ECU刷写程序,分别采集一次刷写终端设备的硬件配置参数及ECU刷写程序的刷写时序参数(即参数值)作为一个样本。其中,刷写终端设备的硬件配置参数的参数种类及ECU刷写程序的刷写时序参数的参数种类参照步骤110中的硬件配置参数和刷写时序参数,具体地:对于每一个样本,样本中的刷写时序参数为所执行的ECU刷写程序对应的帧与帧刷写时间间隔CFMS、包与包刷写时间间隔FFMS和超时时间设置参数RTMS,样本中的硬件配置参数为刷写终端设备的CPU处理频率、内存条大小、当前剩余内存大小、刷写前CPU占用率、刷写对应的CPU占用率和刷写对应的刷写时长,与步骤110不同的是:
样本中的刷写前CPU占用率,为刷写终端设备在执行该样本对应的ECU刷写程序之前的CPU占用率,只采集一次;
样本中的CPU处理频率、内存条大小和当前剩余内存大小,均采集一次(且均在刷写终端设备执行该样本对应的ECU刷写程序之前进行采集);
样本中刷写对应的CPU占用率的计算方法为,用刷写终端设备在实际执行该样本对应的ECU刷写程序的过程中的最高CPU占用率减去该样本中的刷写前CPU占用率(比如有一个样本A,该样本A对应的ECU刷写程序为ECU刷写程序B,则有:样本A中的刷写对应的CPU占用率的计算方法为,用刷写终端设备在实际执行ECU刷写程序B的过程中的最高CPU占用率减去该样本中的刷写前CPU占用率);
样本中的刷写对应的刷写时长,为刷写终端设备使用该样本对应的ECU刷写程序执行刷写的实际刷写时长。
样本中的刷写时序参数为该样本对应的ECU刷写程序所对应的帧与帧刷写时间间隔CFMS、包与包刷写时间间隔FFMS和超时时间设置参数RTMS,在刷写终端设备执行该样本对应的ECU刷写程序之前进行采集,且仅采集一次;
所述的硬件配置参数,还包括刷写终端设备的CPU处理频率、内存条大小、当前剩余内存大小、刷写对应的CPU占用率和刷写对应的刷写时长;
所述刷写对应的CPU占用率,为预先设定的CPU占用率差值;所述CPU占用率差值用于代表刷写时最高CPU占用率与刷写前CPU占用率的最新取值之间的差值;
所述刷写对应的刷写时长,为依据经验预先设定的刷写时长,用于代表ECU刷写程序执行刷写所用的刷写时长。
步骤(2),对采集到的每一个样本分别进行预处理,对应得到各样本的预处理后的样本。
具体地,对采集到的每一个样本分别进行预处理的方法为:
计算样本中所有数据的均值average;
计算样本中每一个数据的标准差;
利用所述均值average以及计算所得的标准差,对样本中的每一个数据x均采用公式H=|x-average|/σ进行预处理,得到预处理后的样本;其中,H为数据x对应的预处理后的数据,σ为x对应的标准差。
之后执行步骤(3)。
步骤(3),将所得到的所有预处理后的样本汇集形成所述的样本数据集。
步骤二:建立第一卷积神经网络和第二卷积神经网络。
该步骤二中所建立的第一卷积神经网络和第二卷积神经网络均包括五个卷积层conv、三个池化层pooling、两个归一化层LRN和两个全连接层fc,具体地,该第一卷积神经网络和第二卷积神经网络的网络结构均为:
在上述网络结构中,各ReLU均为激活函数,MSE为损失函数,其中:
第一卷积神经网络中的损失函数MSE的公式为式中y′为实际采集到的刷写前CPU占用率,y为通过第一卷积神经网络预测到的CPU占用率(对应所述的预测CPU占用率);n1为用于训练第一卷积神经网络的样本数;
第二卷积神经网络中的损失函数MSE的公式为式中t′表示实际的刷写时长,t表示第二卷积神经网络预测到的刷写时长;n2为用于训练第二卷积神经网络的样本数。
在本实施例中,n1和n2取值相等,并且均等于所述样本数据集中样本的数量。
另外,该步骤二中所建立的第一卷积神经网络和第二卷积神经网络均有:
第一层卷积层采用大小为11×11、步长为4的卷积核;
第二层卷积层、第三层卷积层、第四层卷积层和第五层卷积层,均采用大小为3×3、步长为1的卷积核;
第一层卷积层和第二层卷积层在进行池化之后,均利用LRN进行归一化;
各池化层的大小均为3×3、步长均为2。
第一卷积神经网络和第二卷积神经网络的网络结构示意图均如图2所示。
在图2中,附图标记300、400、500和600依次表示conv+ReLU(卷积层+激活函数)、fully connected+ReLU(全连接层+激活函数)、fully connected(全连接层)、pooling(池化层)。
步骤三:利用上述构建的样本数据集,分别对上述建立的第一卷积神经网络和第二卷积神经网络进行训练,得到训练好的第一卷积神经网络模型和训练好的第二卷积神经网络模型。
其中,利用所构建的样本数据集,对上述建立的第一卷积神经网络进行训练,所得到的训练好的第一卷积神经网络即为训练好的第一卷积神经网络模型;利用上述构建的样本数据集,对上述建立的第二卷积神经网络进行训练,所得到的训练好的第二卷积神经网络即为训练好的第二卷积神经网络模型。
第一卷积神经网络模型通过五个卷积层提取输入样本的深度特征后,再通过两个全连接层fc,最终利用其损失函数MSE实现CPU占用率预测。
第二卷积神经网络模型通过五个卷积层提取输入样本的深度特征后,再通过两个全连接层fc,最终利用其损失函数MSE实现刷写时长预测。
可选地,作为本发明的一个实施例,上述步骤三的具体实现方法为:
将所述样本数据集按照4:1的比例划分为训练集和测试集,其中训练集按照k-fold校验法划分k份,其中的k-1份用作训练、另外一份用作校验;
分别利用训练集对所建立的第一卷积神经网络和第二卷积神经网络进行训练;
分别利用测试集对所建立的第一卷积神经网络和第二卷积神经网络进行校验;
每次训练均通过损失函数MSE计算预测结果与实际结果之间的差值,并分别依据预先确定的校验误差最小值,根据循环训练次数,调整参数重新训练模型,直至损失函数计算的结果小于或等于上述预先确定的校验误差最小值,得到训练好的对应的卷积神经网络模型。
图3是本发明所述基于卷积神经网络实现ECU刷写参数优化的***的一个实施例。如图3所示,该***200应用于刷写终端设备,具体包括:
参数采集单元201,用于采集刷写终端设备的硬件配置参数,并采集刷写终端设备上所要执行的ECU刷写程序的当前的刷写时序参数;所述硬件配置参数包括刷写终端设备的CPU占用率,该CPU占用率记为刷写前CPU占用率z;
CPU占用率预测单元202,用于将参数采集单元201最新采集到的硬件配置参数以及将参数采集单元201最新采集到的刷写时序参数作为输入,采用训练好的第一卷积神经网络模型预测刷写终端设备的CPU占用率,得到预测CPU占用率y;
计算单元203,用于计算所述刷写前CPU占用率z与所述预测CPU占用率y的加和y+z;
第一判断单元204,用于判断所述加和y+z是否小于m;m为预先设定的CPU总占用率阈值;
刷写时长预测单元205,用于在第一判断单元204的判断结果为是时,将上述刷写时序参数的当前值按预先设定的方式自减,并将自减调整后的刷写时序参数以及将参数采集单元201最新采集到的硬件配置参数作为输入,利用训练好的第二卷积神经网络预测并输出预测到的刷写时长t;
第二判断单元206,用于判断所述刷写时长t是否小于n,n为预先设定的刷写时长阈值;
第一执行单元207,用于在第一判断单元204的判断结果为否时以及在第二判断单元206的判断结果为否时,分别执行:将上述刷写时序参数的当前值按预先设定的方式自加,之后再次调用参数采集单元201;
第二执行单元208,用于在第二判断单元206的判断结果为是时,控制上述ECU刷写程序按所述刷写时序参数的最新值进行刷写。
可选地,作为本发明的一个实施例,所述第一卷积神经网络模型及所述第二卷积神经网络模型的构建方法均包括:
步骤Q1:获取样本数据集;
步骤Q2:建立第一卷积神经网络和第二卷积神经网络;
所述的第一卷积神经网络和所述的第二卷积神经网络均包括五个卷积层conv、三个池化层pooling、两个归一化层LRN和两个全连接层fc,所对应的网络结构均为
在上述网络结构中,各ReLU均为激活函数,MSE为损失函数,其中:第一卷积神经网络中的损失函数MSE的公式为式中y′为实际采集到的刷写前CPU占用率,y为通过第一卷积神经网络预测到的CPU占用率;第二卷积神经网络中的损失函数MSE的公式为/>式中t′表示实际的刷写时长,t表示第二卷积神经网络预测到的刷写时长;上述n1为用于训练第一卷积神经网络的样本数,上述n2为用于训练第二卷积神经网络的样本数;
步骤Q3:利用上述构建的样本数据集,分别对上述建立的第一卷积神经网络和第二卷积神经网络进行训练,得到训练好的第一卷积神经网络模型和训练好的第二卷积神经网络模型。
其中,步骤Q2中建立的第一卷积神经网络和第二卷积神经网络,均有:
第一层卷积层采用大小为11×11、步长为4的卷积核;
第二层卷积层、第三层卷积层、第四层卷积层和第五层卷积层,均采用大小为3×3、步长为1的卷积核;
第一层卷积层和第二层卷积层在进行池化后,分别利用LRN进行归一化;
各池化层的大小均为3×3、步长均为2。
可选地,作为本发明的一个实施例,步骤Q3的实现方法为:
将所述样本数据集按照4:1的比例划分为训练集和测试集,其中训练集按照k-fold校验法划分k份,其中的k-1份用作训练、另外一份用作校验;
分别利用训练集对所建立的第一卷积神经网络和第二卷积神经网络进行训练;
分别利用测试集对所建立的第一卷积神经网络和第二卷积神经网络进行校验;
每次训练均通过损失函数MSE计算预测结果与实际结果之间的差值,并分别依据预先确定的校验误差最小值,根据循环训练次数,调整参数重新训练模型,直至损失函数计算的结果小于或等于上述预先确定的校验误差最小值,对应得到训练好的相应的卷积神经网络模型。
可选地,作为本发明的一个实施例,步骤Q1的实现方法为:
采集样本;
对采集到的每一个样本分别进行预处理,对应得到各样本的预处理后的样本;
将上述得到的所有预处理后的样本汇集形成所述的样本数据集;
其中,对采集到的每一个样本分别进行预处理的方法为:
计算样本中所有数据的均值average;
计算样本中每一个数据的标准差;
利用所述均值average以及计算所得的标准差,对样本中的每一个数据x均采用公式H=|x-average|/σ进行预处理,得到预处理后的样本;其中,H为数据x对应的预处理后的数据,σ为x对应的标准差。
可选地,作为本发明的一个实施例,在参数采集单元201中:所述的刷写时序参数包括ECU刷写程序对应的帧与帧刷写时间间隔CFMS、包与包刷写时间间隔FFMS和超时时间设置参数RTMS;
所述的硬件配置参数,还包括刷写终端设备的CPU处理频率、内存条大小、当前剩余内存大小、刷写对应的CPU占用率和刷写对应的刷写时长;其中,
所述刷写对应的CPU占用率,为预先设定的CPU占用率差值;所述CPU占用率差值用于代表刷写时最高CPU占用率与刷写前CPU占用率的最新取值之间的差值;
所述刷写对应的刷写时长,为依据经验预先设定的刷写时长,用于代表ECU刷写程序执行刷写所用的刷写时长。
本说明书中各个实施例之间相同相似的部分互相参见即可。尤其,对于***实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例中的说明即可。
尽管通过参考附图并结合优选实施例的方式对本发明进行了详细描述,但本发明并不限于此。在不脱离本发明的精神和实质的前提下,本领域普通技术人员可以对本发明的实施例进行各种等效的修改或替换,而这些修改或替换都应在本发明的涵盖范围内/任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (8)

1.一种基于卷积神经网络实现ECU刷写参数优化的方法,应用于刷写终端设备,其特征在于,包括步骤:
D1、采集刷写终端设备的硬件配置参数,并采集刷写终端设备上所要执行的ECU刷写程序的当前的刷写时序参数;所述硬件配置参数包括刷写终端设备的CPU占用率,该CPU占用率记为刷写前CPU占用率z;
D2、将最新采集到的硬件配置参数以及最新采集到的刷写时序参数作为输入,采用训练好的第一卷积神经网络模型预测刷写终端设备的CPU占用率,得到预测CPU占用率y;
D3、计算所述刷写前CPU占用率z与所述预测CPU占用率y的加和
D4、判断是否小于m,若是,则继续执行步骤D5,若否,则转而执行步骤D7;其中,m为预先设定的CPU总占用率阈值;
D5、将上述刷写时序参数的当前值按预先设定的方式自减,并将自减调整后的刷写时序参数以及将步骤D1中最新采集到的硬件配置参数作为输入,利用训练好的第二卷积神经网络预测并输出预测到的刷写时长t,之后执行步骤D6;
D6、判断所述刷写时长t是否小于n,若是,则转向步骤D8继续执行,否则转而继续执行步骤D7;其中,n为预先设定的刷写时长阈值;
D7、将上述刷写时序参数的当前值按预先设定的方式自加,之后转而继续执行步骤D1;
D8、控制上述ECU刷写程序按所述刷写时序参数的最新值进行刷写;
所述第一卷积神经网络模型及所述第二卷积神经网络模型的构建方法均包括步骤:
Q1:获取样本数据集;
Q2:建立第一卷积神经网络和第二卷积神经网络;
所述的第一卷积神经网络和所述的第二卷积神经网络均包括五个卷积层、三个池化层/>、两个归一化层/>和两个全连接层/>,所对应的网络结构均为
在上述网络结构中,各均为激活函数,/>为损失函数,其中:第一卷积神经网络中的损失函数/>的公式为/>,式中/>为实际采集到的刷写前CPU占用率,/>为通过第一卷积神经网络预测到的CPU占用率;第二卷积神经网络中的损失函数/>的公式为/>,式中/> 表示实际的刷写时长,/>表示第二卷积神经网络预测到的刷写时长;上述/>为用于训练第一卷积神经网络的样本数,上述/>为用于训练第二卷积神经网络的样本数;
Q3:利用上述构建的样本数据集,分别对上述建立的第一卷积神经网络和第二卷积神经网络进行训练,得到训练好的第一卷积神经网络模型和训练好的第二卷积神经网络模型。
2.根据权利要求1所述的基于卷积神经网络实现ECU刷写参数优化的方法,其特征在于,步骤Q3的实现方法为:
将所述样本数据集按照4:1的比例划分为训练集和测试集,其中训练集按照k-fold校验法划分k份,其中的k-1份用作训练、另外一份用作校验;
分别利用训练集对所建立的第一卷积神经网络和第二卷积神经网络进行训练;
分别利用测试集对所建立的第一卷积神经网络和第二卷积神经网络进行校验;
每次训练均通过损失函数计算预测结果与实际结果之间的差值,并分别依据预先确定的校验误差最小值,根据循环训练次数,调整参数重新训练模型,直至损失函数计算的结果小于或等于上述预先确定的校验误差最小值,得到训练好的对应的卷积神经网络模型。
3.根据权利要求1所述的基于卷积神经网络实现ECU刷写参数优化的方法,其特征在于,步骤Q1的实现方法为:
采集样本;
对采集到的每一个样本分别进行预处理,对应得到各样本的预处理后的样本;
将上述得到的所有预处理后的样本汇集形成所述的样本数据集;
其中,对采集到的每一个样本分别进行预处理的方法为:
计算样本中所有数据的均值average;
计算样本中每一个数据的标准差;
利用所述均值average以及计算所得的标准差,对样本中的每一个数据x均采用公式H=|x-average|/σ进行预处理,得到预处理后的样本;其中,H为数据x对应的预处理后的数据,σ为x对应的标准差。
4.根据权利要求1所述的基于卷积神经网络实现ECU刷写参数优化的方法,其特征在于,所述的刷写时序参数包括ECU刷写程序对应的帧与帧刷写时间间隔CFMS、包与包刷写时间间隔FFMS和超时时间设置参数RTMS;
所述的硬件配置参数,还包括刷写终端设备的CPU处理频率、内存条大小、当前剩余内存大小、刷写对应的CPU占用率和刷写对应的刷写时长;
所述刷写对应的CPU占用率,为预先设定的CPU占用率差值;所述CPU占用率差值用于代表刷写时最高CPU占用率与刷写前CPU占用率的最新取值之间的差值;
所述刷写对应的刷写时长,为依据经验预先设定的刷写时长,用于代表ECU刷写程序执行刷写所用的刷写时长。
5.一种基于卷积神经网络实现ECU刷写参数优化的***,应用于刷写终端设备,其特征在于,包括:
参数采集单元,用于采集刷写终端设备的硬件配置参数,并采集刷写终端设备上所要执行的ECU刷写程序的当前的刷写时序参数;所述硬件配置参数包括刷写终端设备的CPU占用率,该CPU占用率记为刷写前CPU占用率z;
CPU占用率预测单元,用于将参数采集单元最新采集到的硬件配置参数以及将参数采集单元最新采集到的刷写时序参数作为输入,采用训练好的第一卷积神经网络模型预测刷写终端设备的CPU占用率,得到预测CPU占用率y;
计算单元,用于计算所述刷写前CPU占用率z与所述预测CPU占用率y的加和
第一判断单元,用于判断所述加和是否小于m;m为预先设定的CPU总占用率阈值;
刷写时长预测单元,用于在第一判断单元的判断结果为是时,将上述刷写时序参数的当前值按预先设定的方式自减,并将自减调整后的刷写时序参数以及将参数采集单元最新采集到的硬件配置参数作为输入,利用训练好的第二卷积神经网络预测并输出预测到的刷写时长t;
第二判断单元,用于判断所述刷写时长t是否小于n,n为预先设定的刷写时长阈值;
第一执行单元,用于在第一判断单元的判断结果为否时以及在第二判断单元的判断结果为否时,分别执行:将上述刷写时序参数的当前值按预先设定的方式自加,之后再次调用参数采集单元;
第二执行单元,用于在第二判断单元的判断结果为是时,控制上述ECU刷写程序按所述刷写时序参数的最新值进行刷写;
所述第一卷积神经网络模型及所述第二卷积神经网络模型的构建方法均包括步骤:
Q1:获取样本数据集;
Q2:建立第一卷积神经网络和第二卷积神经网络;
所述的第一卷积神经网络和所述的第二卷积神经网络均包括五个卷积层、三个池化层/>、两个归一化层/>和两个全连接层/>,所对应的网络结构均为
,
在上述网络结构中,各均为激活函数,/>为损失函数,其中:第一卷积神经网络中的损失函数/>的公式为/>,式中/>为实际采集到的刷写前CPU占用率,/>为通过第一卷积神经网络预测到的CPU占用率;第二卷积神经网络中的损失函数/>的公式为/>,式中/> 表示实际的刷写时长,/>表示第二卷积神经网络预测到的刷写时长;/>为用于训练第一卷积神经网络的样本数,/>为用于训练第二卷积神经网络的样本数;
Q3:利用上述构建的样本数据集,分别对上述建立的第一卷积神经网络和第二卷积神经网络进行训练,得到训练好的第一卷积神经网络模型和训练好的第二卷积神经网络模型。
6.根据权利要求5所述的基于卷积神经网络实现ECU刷写参数优化的***,其特征在于,步骤Q3的实现方法为:
将所述样本数据集按照4:1的比例划分为训练集和测试集,其中训练集按照k-fold校验法划分k份,其中的k-1份用作训练、另外一份用作校验;
分别利用训练集对所建立的第一卷积神经网络和第二卷积神经网络进行训练;
分别利用测试集对所建立的第一卷积神经网络和第二卷积神经网络进行校验;
每次训练均通过损失函数计算预测结果与实际结果之间的差值,并分别依据预先确定的校验误差最小值,根据循环训练次数,调整参数重新训练模型,直至损失函数计算的结果小于或等于上述预先确定的校验误差最小值,得到训练好的对应的卷积神经网络模型。
7.根据权利要求5所述的基于卷积神经网络实现ECU刷写参数优化的***,其特征在于,步骤Q1的实现方法为:
采集样本;
对采集到的每一个样本分别进行预处理,对应得到各样本的预处理后的样本;
将上述得到的所有预处理后的样本汇集形成所述的样本数据集;
其中,对采集到的每一个样本分别进行预处理的方法为:
计算样本中所有数据的均值average;
计算样本中每一个数据的标准差;
利用所述均值average以及计算所得的标准差,对样本中的每一个数据x均采用公式H=|x-average|/σ进行预处理,得到预处理后的样本;其中,H为数据x对应的预处理后的数据,σ为x对应的标准差。
8.根据权利要求5所述的基于卷积神经网络实现ECU刷写参数优化的***,其特征在于,所述的刷写时序参数包括ECU刷写程序对应的帧与帧刷写时间间隔CFMS、包与包刷写时间间隔FFMS和超时时间设置参数RTMS;
所述的硬件配置参数,还包括刷写终端设备的CPU处理频率、内存条大小、当前剩余内存大小、刷写对应的CPU占用率和刷写对应的刷写时长;
所述刷写对应的CPU占用率,为预先设定的CPU占用率差值;所述CPU占用率差值用于代表刷写时最高CPU占用率与刷写前CPU占用率的最新取值之间的差值;
所述刷写对应的刷写时长,为依据经验预先设定的刷写时长,用于代表ECU刷写程序执行刷写所用的刷写时长。
CN202110327752.9A 2021-03-26 2021-03-26 一种基于卷积神经网络实现ecu刷写参数优化的方法及*** Active CN112905213B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110327752.9A CN112905213B (zh) 2021-03-26 2021-03-26 一种基于卷积神经网络实现ecu刷写参数优化的方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110327752.9A CN112905213B (zh) 2021-03-26 2021-03-26 一种基于卷积神经网络实现ecu刷写参数优化的方法及***

Publications (2)

Publication Number Publication Date
CN112905213A CN112905213A (zh) 2021-06-04
CN112905213B true CN112905213B (zh) 2023-08-08

Family

ID=76109246

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110327752.9A Active CN112905213B (zh) 2021-03-26 2021-03-26 一种基于卷积神经网络实现ecu刷写参数优化的方法及***

Country Status (1)

Country Link
CN (1) CN112905213B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113553069B (zh) * 2021-06-30 2023-04-07 东风柳州汽车有限公司 一种发动机ecu刷写方法、装置及***
CN115062413B (zh) * 2022-06-20 2024-07-16 中国重汽集团济南动力有限公司 一种适用于整车装配质量控制的工艺方案优化方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106250812A (zh) * 2016-07-15 2016-12-21 汤平 一种基于快速r‑cnn深度神经网络的车型识别方法
CN107851213A (zh) * 2015-07-22 2018-03-27 高通股份有限公司 神经网络中的转移学习
CN108647834A (zh) * 2018-05-24 2018-10-12 浙江工业大学 一种基于卷积神经网络结构的交通流预测方法
CN108965001A (zh) * 2018-07-12 2018-12-07 北京航空航天大学 一种车辆报文数据模型的评估方法及装置
CN109711349A (zh) * 2018-12-28 2019-05-03 百度在线网络技术(北京)有限公司 用于生成控制指令的方法和装置
CN109784489A (zh) * 2019-01-16 2019-05-21 北京大学软件与微电子学院 基于fpga的卷积神经网络ip核
CN110210644A (zh) * 2019-04-17 2019-09-06 浙江大学 基于深度神经网络集成的交通流量预测方法
CN110555057A (zh) * 2019-08-19 2019-12-10 武汉世纪楚林科技有限公司 节能大数据分析方法、装置、终端设备及存储介质
CN111050116A (zh) * 2018-10-12 2020-04-21 本田技研工业株式会社 利用时间递归网络进行在线动作检测的***和方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018104929A1 (en) * 2016-12-07 2018-06-14 Arilou Information Security Technologies Ltd. System and method for using signal waveform analysis for detecting a change in a wired network

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107851213A (zh) * 2015-07-22 2018-03-27 高通股份有限公司 神经网络中的转移学习
CN106250812A (zh) * 2016-07-15 2016-12-21 汤平 一种基于快速r‑cnn深度神经网络的车型识别方法
CN108647834A (zh) * 2018-05-24 2018-10-12 浙江工业大学 一种基于卷积神经网络结构的交通流预测方法
CN108965001A (zh) * 2018-07-12 2018-12-07 北京航空航天大学 一种车辆报文数据模型的评估方法及装置
CN111050116A (zh) * 2018-10-12 2020-04-21 本田技研工业株式会社 利用时间递归网络进行在线动作检测的***和方法
CN109711349A (zh) * 2018-12-28 2019-05-03 百度在线网络技术(北京)有限公司 用于生成控制指令的方法和装置
CN109784489A (zh) * 2019-01-16 2019-05-21 北京大学软件与微电子学院 基于fpga的卷积神经网络ip核
CN110210644A (zh) * 2019-04-17 2019-09-06 浙江大学 基于深度神经网络集成的交通流量预测方法
CN110555057A (zh) * 2019-08-19 2019-12-10 武汉世纪楚林科技有限公司 节能大数据分析方法、装置、终端设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
云千芮.混合动力客车构型优选与参数标定方法研究.《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》.2020,(第8期),C035-589. *

Also Published As

Publication number Publication date
CN112905213A (zh) 2021-06-04

Similar Documents

Publication Publication Date Title
CN112905213B (zh) 一种基于卷积神经网络实现ecu刷写参数优化的方法及***
CN110481536B (zh) 一种应用于混合动力汽车的控制方法及设备
CN110824923A (zh) 一种基于深度学习与云计算的污水处理控制方法及其***
WO2022062339A1 (zh) 一种变风量布风器风阀的控制***及其控制方法
CN114240243A (zh) 一种基于动态***辨识的精馏塔产品质量预测方法及装置
CN115062668A (zh) 基于RAdam优化宽度学习的谐波参数检测方法和***
CN104503847A (zh) 一种数据中心节能方法和装置
CN115915708A (zh) 制冷设备控制参数预测方法、装置、电子设备及存储介质
CN114066052A (zh) 基于改进tcn修正累积误差的可调节负荷功率多步预测方法
US20220243347A1 (en) Determination method and determination apparatus for conversion efficiency of hydrogen production by wind-solar hybrid electrolysis of water
CN113673089B (zh) 一种发动机性能确定方法、装置以及电子设备
CN116562156B (zh) 一种控制决策模型的训练方法、装置、设备及存储介质
CN116739147A (zh) 基于bim的智能能耗管理与动态碳排放计算联合方法及***
CN114757111B (zh) 一种基于数字孪生技术的智能装备健康管理方法
CN115310359A (zh) 氮氧化物瞬态排放确定方法、装置、设备及介质
CN113808727B (zh) 设备监控方法、装置、计算机设备和可读存储介质
CN115859808A (zh) 一种泵组工作预测方法、装置、电子设备及存储介质
CN104537224A (zh) 基于自适应学习算法的多状态***可靠性分析方法及***
CN113048012B (zh) 基于混合高斯模型的风电机组偏航角度识别方法和装置
CN110866996B (zh) 一种发动机起停频次控制方法、***、车辆和存储介质
CN110909455B (zh) 一种延缓固体氧化物燃料电池性能衰退的方法
CN113780644A (zh) 一种基于在线学习的光伏出力预测方法
CN111340648A (zh) 一种基于物联网的能源管控方法及***
CN110569562B (zh) 基于轨迹跟踪及误差修正的短期电力负荷预测方法及***
CN116488167B (zh) 攻击补偿数据驱动电压安全控制方法、***、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant