CN109242194A - 一种基于混合模型的浓密机底流浓度预测方法 - Google Patents
一种基于混合模型的浓密机底流浓度预测方法 Download PDFInfo
- Publication number
- CN109242194A CN109242194A CN201811114507.4A CN201811114507A CN109242194A CN 109242194 A CN109242194 A CN 109242194A CN 201811114507 A CN201811114507 A CN 201811114507A CN 109242194 A CN109242194 A CN 109242194A
- Authority
- CN
- China
- Prior art keywords
- model
- layer
- hidden layer
- output
- hidden
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 113
- 239000002562 thickening agent Substances 0.000 title claims abstract description 11
- 230000007246 mechanism Effects 0.000 claims abstract description 109
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 65
- 238000005406 washing Methods 0.000 claims abstract description 34
- 238000005259 measurement Methods 0.000 claims abstract description 33
- 238000005457 optimization Methods 0.000 claims abstract description 31
- 238000009826 distribution Methods 0.000 claims abstract description 23
- 239000010410 layer Substances 0.000 claims description 325
- 239000011159 matrix material Substances 0.000 claims description 72
- 238000012549 training Methods 0.000 claims description 72
- 210000002569 neuron Anatomy 0.000 claims description 64
- 230000008569 process Effects 0.000 claims description 60
- 238000013499 data model Methods 0.000 claims description 45
- 238000013528 artificial neural network Methods 0.000 claims description 37
- 230000004913 activation Effects 0.000 claims description 29
- 230000006870 function Effects 0.000 claims description 23
- 239000002245 particle Substances 0.000 claims description 21
- 239000012530 fluid Substances 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 8
- 238000012360 testing method Methods 0.000 claims description 8
- 239000012141 concentrate Substances 0.000 claims description 7
- 238000001514 detection method Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000002159 abnormal effect Effects 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 239000000203 mixture Substances 0.000 claims description 4
- 238000011160 research Methods 0.000 claims description 4
- 230000006835 compression Effects 0.000 claims description 3
- 238000007906 compression Methods 0.000 claims description 3
- 238000009795 derivation Methods 0.000 claims description 3
- 239000006185 dispersion Substances 0.000 claims description 3
- 239000011229 interlayer Substances 0.000 claims description 3
- 230000003585 interneuronal effect Effects 0.000 claims description 3
- 238000004062 sedimentation Methods 0.000 claims description 3
- 238000007619 statistical method Methods 0.000 claims description 3
- 230000017105 transposition Effects 0.000 claims description 3
- 238000013316 zoning Methods 0.000 claims description 3
- 238000007689 inspection Methods 0.000 claims description 2
- 238000009854 hydrometallurgy Methods 0.000 abstract description 6
- 230000000694 effects Effects 0.000 description 16
- 238000004519 manufacturing process Methods 0.000 description 13
- 238000004458 analytical method Methods 0.000 description 11
- 238000004088 simulation Methods 0.000 description 10
- 235000013399 edible fruits Nutrition 0.000 description 8
- 230000008901 benefit Effects 0.000 description 6
- 230000001447 compensatory effect Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 239000007788 liquid Substances 0.000 description 3
- 238000013178 mathematical model Methods 0.000 description 3
- 238000002156 mixing Methods 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013213 extrapolation Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 210000004218 nerve net Anatomy 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 229920002472 Starch Polymers 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003245 coal Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011143 downstream manufacturing Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000012065 filter cake Substances 0.000 description 1
- 238000005188 flotation Methods 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 238000000227 grinding Methods 0.000 description 1
- 229910052500 inorganic mineral Inorganic materials 0.000 description 1
- 239000011707 mineral Substances 0.000 description 1
- 238000011085 pressure filtration Methods 0.000 description 1
- 238000004801 process automation Methods 0.000 description 1
- 238000011165 process development Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 239000010865 sewage Substances 0.000 description 1
- 239000010802 sludge Substances 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 235000019698 starch Nutrition 0.000 description 1
- 239000008107 starch Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/04—Manufacturing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- Human Resources & Organizations (AREA)
- General Physics & Mathematics (AREA)
- Marketing (AREA)
- Tourism & Hospitality (AREA)
- General Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Manufacturing & Machinery (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Primary Health Care (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Development Economics (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Feedback Control In General (AREA)
Abstract
本发明提供了一种基于混合模型的浓密机底流浓度预测方法,针对湿法冶金浓密洗涤过程底流浓度难以在线测量的问题,在深入分析浓密洗涤过程特点的基础上,利用机理建模与基于整体分布优化算法改进的三层ELM误差补偿模型相结合的混合建模方法实现浓密洗涤过程底流浓度的精准测量。
Description
背景技术:
随着湿法冶金工业生产的大型化、集中化和连续化,迫切要求高效、稳定的自动化生产线。而我国湿法冶金生产过程自动化总体水平较低,而其自动化技术极大地制约着我国湿法冶金工业的发展。当前某精矿浓密机底流浓度难以检测,操作工靠生产经验来进行放矿,导致下游压滤工序生产急剧波动滤饼产品水分难以达标。尾矿浓密机靠操作工人经验进行控制,随意性大,如能做好优化控制,将减小尾矿库压力,提高生产效率。
浓密机由于其具有占地面积小、能耗低、效率高等优点,在国内外湿法冶金、煤炭、污水处理等行业得到广泛的应用,尤其在我国选矿厂得到普遍使用。目前,浓密机在我国选矿厂应用过程中大多存在以下问题:生产过程中的许多关键变量仍未能实现在线检测;浓密机生产过程仍处于人工操作状态,生产人员大多凭借自身经验和感觉来判断生产情况,从而进行操作;浓密机的工作负荷、底流水的浓度、溢流水的浊度等关键环节都不能得到有效的控制,导致其浓度和流量波动都比较大,对后续选矿过程的生产指标造成严重影响,同时很可能会增加后续浮选工序的药剂用量,增大了选矿的成本,严重制约了浓密机生产效率的提高。随着计算机和自动化技术的发展,迫切需要将计算机控制***引入全流程,形成全流程自动化控制与资源共享,从而提高生产率,提升企业竞争力。
近几十年来,固液分离技术有了很大的发展,但对浓密洗涤过程的数学模型的研究却远远不够。浓密洗涤过程的数学模型有助于描述和理解沉降过程的反应机理,对***设计及设备选型提供理论指导,有助于研究污泥产量的变化,模拟沉降过程的动态变化,可以指导实际生产。随着固液分离技术的发展,必须开展数学模型的研究,从而更深刻地认识固液分离的现象和规律。但是目前仍没有能够应用于优化控制的精确的浓密洗涤过程模型,浓密洗涤过程的模型研究仍处于探索阶段。
本发明是针对湿法冶金浓密洗涤过程底流浓度难以在线测量的问题,在深入分析浓密洗涤过程特点的基础上,利用机理建模与基于整体分布优化算法(EntireDistribution Optimization,EDO)改进的三层ELM(Three hidden layers ExtremeLearning Machine,TELM)误差补偿模型相结合的混合建模方法实现浓密洗涤过程底流浓度的精准测量。ELM与EDO算法是两种机制不同的优化算法,它们表现出不同的优化特性并适用于不同的优化问题,从而有可能将二者结合起来,融合二者的长处构建更为有效的优化方法。混合模型实现了用改进的EDO-TELM算法作为误差补偿模型去补偿机理模型未建模部分的误差,对模型的不确定部分给予了合理的估计,显著减小了模型误差,从理论上提高了模型的预测精度。浓密机机理模型的建模精度要求高,并且数据量较大,该混合模型的建模方法为浓密机底流浓度的预测提供了一个不错的方法。最后通过Matlab软件仿真结果分析,混合模型的预测精度比机理模型和数据模型的测量精度得到了明显的提高,能够适应工业现场的测量需求。
机理建模的优点是反映过程的规律,可靠性高,外推性好,具有可解释性,缺点是建模过程比较繁琐,依赖于先验知识,对于一些复杂过程而言,需要通过合理假设得到被控过程的简化机理模型,然而简化后的机理模型的精度不能得到保证。数据建模的优点是可以根据过程的输入输出数据直接建立过程模型,无需过程对象的先验知识,避免了复杂机理的分析,缺点是模型推广性能差、不具有可解释性、容易造成过拟合现象,甚至可能将噪声也拟合进来,造成模型的不稳定。因此,本专利提出了一种将机理模型和基于数据驱动的建模方法相结合的方法,使得机理模型和数据模型可以互为补充。机理模型可以为数据模型提供先验知识,从而可以节省训练样本,降低了对样本数据的要求,而基于数据驱动的模型又能补偿机理模型的未建模特性,使模型不仅具有局部逼近特性,而且具有全局逼近特性,广泛应用于各种复杂工业过程。
发明内容:
针对现有技术问题,提出一种基于混合模型的浓密机底流浓度预测方法,包括以下步骤:
步骤1:机理建模
步骤1.1机理模型的建立
由于浓密过程是基于重力沉降作用的,则矿浆浓度是取决于沉降时间和空间高度的量,因此矿浆浓度可表示为C(z,t),其中设置z轴竖直向下为正方向,t为浓密过程时间,进行合理化的假设,假设沉降过程是一维的,由于重力沉降和压缩作用本质上是一维的,通过一维沉降模型捕获过程基本特性,沉降过程的质量守恒关系由偏微分方程来描述:
其中vs≥0是矿浆向下沉降速率,方程中包含两个未知量矿浆浓度C和沉降速率vs,因此求解此方程需要建立矿浆浓度C和沉降速率vs之间的本构关系;
在单位时间内,任意间隔(z1,z2)质量的增长等于z1高度流入的流量减去z2高度流出的流量再加上间隔内产生的流量,表达式为:
其中Qf为进料流量;为浓密机的横截面积;Cf为进料浓度;δ(z)为δ函数,只有在进料层时δ(z)=1,其他高度δ(z)=0;流量Φ表示为其中:
其中:
采用分层思想将浓密机内部细分为n层,则每层的高度为Δz=(B+H)/n,设层与层之间的分界线,每层分界线的高度通过计算得到,公式为:
z:=iΔz-H,i=0,...N
则溢流层z0和底流层zn落在分界线上,溢流层z0=-H,底流层zn=B,设进料口z=0在(zm-1,zm]区间内,相应的第m层为进料层;在仿真***中,对应溢流区和底流区在方程的顶部和底部分别多加了两层,顶部两层模拟溢流区,底部两层模拟底流区,溢流浊度Ce取第0层浓度,底流浓度Cn为第n+1层浓度;因此,计算区域由n+4个长度为Δz的区间组成,确保精确;
对于每一层,可以重新写一个精确版本的质量守恒方程如下式:
其中是压缩系数;
由于精确版本的质量守恒方程的每一项并不是在每一层中都会存在,分层建立更详细的机微分方程:
在沉降区,第i=2,...,m-1层:
第i=m,进料层:
对于底流层:
其中Cf是进料浓度;是弥散系数;n是分层的层数;z是浓密机的高度;zf是进料高度;vs是沉降速度;C是矿浆的浓度;Gi如式所示;
基于现场条件的限制,流体的流速无法通过仪器测量出来,故而引用流体力学的伯努利方程进行转换,将现场仪表测得的压力数据转换成适用于机理模型的流速,同时忽略同一水平上流体的重力势能,故而流体的流速与压力的转换公式为:
步骤1.2:辅助变量选择:对浓密洗涤过程的关键变量底流浓度进行预测,确定软测量模型的主导变量为底流浓度,对底流浓度影响较大的变量包括顶层体积流量,进料流量,底流体积密度,流体流速,同时这四个变量在工业现场可以通过检测装置测得的,因此选择它们作为输入变量,选择底流浓度作为输出变量,来进行数据预处理,机理模型和混合模型的研究;
步骤1.3.数据预处理:在实际测量数据中,常常会有个别测量数据明显超出测量数据的一般范围,即测量值偏离其余测量值的平均水平过远,把这样的数据称为异常值,对于异常值通常可以采用3σ原则进行处理;对于一个样本集x1,x2,x3,x4,如果样本中只存在随机误差,统计随机误差的正态分布规律,把偏差绝对值大于3σ的数据视作异常数据,予以剔除,实现方法为:
对于测量数据[x1,x2,x3,x4],首先根据公式计算其平均值,再根据式计算标准差的估计值:
假设对于任意数据点xd,若满足则根据3σ原则,该数据视为异常值,应将xd从测量数据中剔除;再将xd剔除后,再对保留下来的数据重新计算σ值,重新进行异常值检测,重复迭代操作,直至所有异常值都被剔除为止;
步骤2:基于三层极限学习机算法的数据模型建立:
步骤2.1:ELM算法:极限学习机的网络结构是由输入层,隐含层和输出层共三个网络层组成的前馈神经网络,在ELM模型的训练过程中,网络的权值与阈值参数是不需要迭代修正的,而是在训练之前,随机设置隐含层中的神经元节点的个数,并且随后随机取值输入层与隐含层的权值矩阵和隐含层的阈值矩阵,这两个网络参数一般都初始化为在-1至1之间的随机数矩阵,经过最小二乘法的运算后,ELM神经网络便可以获得唯一的最优解,而不会陷入局部最优中;
ELM网络中两两相邻的网络层中神经元之间是全部连接在一起的,输入层中神经元节点的个数有n个,对应着一个输入数据样本有n个维度;隐含层中神经元节点的个数有l个,是凭借经验随机设置的;输出层中神经元节点个数为m个,对应着m个输出变量;
设输入层与隐含层之间的连接权值矩阵w为:
其中wji代表着输入层第i个神经元与隐含层第j个神经元间的连接权值;
设隐含层与输出层间的连接权值β为:
其中,βjk代表着隐含层第j个神经元与输出层第k个神经元之间的连接权值;
设隐含层神经元的阈值为:
假设具有Q个训练集样本的输入矩阵为X(n×Q),标记矩阵为Y(m×Q);
隐含层神经元的激活函数为g(x),则ELM网络的输出T为:
T=[t1 t2 … tQ]m×Q,j=1,2,…,Q
其中,wi=[wi1 wi2 … win];xj=[x1j x2j … xnj]T,
上式也可以表示如下:
Hβ=T'
其中,H为ELM隐含层的输出矩阵,T'为标记矩阵T的转置;
其中H为:
提高网络的泛化能力,使网络预测输出更加稳定,在β的求解过程中加入正则化项,而且与ELM中求解输出权重的方法有所不同:
当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果训练样本集中包含的训练样本数目较多时,则输出权值的求解为:
当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果隐含层中包含的神经元节点个数较多时,则输出权值的求解为:
当训练样本集中包含的训练样本数目与隐含层神经元节点的数目相比较时,如果这两个数值相等时,则输出权值的求解为:
β=H+T
其中H+是输出矩阵H的Moore-Penrose广义逆;
则求出ELM网络的输出:y=Hβ;
步骤2.2:常见的激活函数以及隐含层节点个数的选择:ELM神经网络中激活函数的选择对模型的精确度有着巨大的影响,合适的激活函数可以提高模型的精确度和稳定性,激活函数要满足非线性、可微性、单调性等特征;
对于极限学习机隐含层神经元个数的选择是通过“尝试法”来确定;在学习训练的过程中,随机生成隐含层节点数,重新调整网络结构,训练网络模型,取最优的网络模型为准;
步骤2.3:三隐含层ELM算法:三隐含层网络结构的极限学习机,是在经典极限学习机的基础之上添加两个隐含层,构成具有一个输入层,三个隐含层和一个输出层的神经网络结构,各层神经元之间都是处于全连接状态的;同时该TELM网络算法继承了ELM网络算法随机初始化第一个隐含层与输入层之间的权值矩阵和第一个隐含层的阈值矩阵的理论,引入一种方法来获得剩余隐含层的权值矩阵与阈值矩阵的参数,组合成一个新的含有多个隐含层的网络结构模型;
假设给定输入训练集样本为{X,T}={xi,ti}(i=1,2,…,Q),其中X是输入样本,T是标志样本;且所有的隐含层都具有相同的隐含层节点数目;根据TELM算法的原理介绍,首先我们把具有三个隐含层ELM神经网络中的三个隐含层看成是两个隐含层,且第一个隐含层的权值矩阵与阈值参数都是随机初始化的,由单隐含层ELM推导公式得到第一个隐含层与第二个隐含层的权值矩阵、阈值矩阵和隐含层的输出矩阵,由ELM算法可以得知,第三个隐含层的期望输出为:
H3*=Tβnew +
其中,是βnew的广义逆矩阵;
把第三个隐含层加入到TELM网络中去,就恢复到了含有三个隐含层的TELM神经网络结构,由于三个隐含层ELM中层与层之间的神经元是全部连接在一起的,就可以得到第三个隐含层的预测输出H3为:
H3=g(W2H2+B2)
其中W2是第二个隐含层与第三个隐含层之间的权值矩阵,B2是第三个隐含层的阈值,H2是隐含层的输出矩阵,这里作为第二个隐含层的输出矩阵;
为了满足第三个隐含层的预测输出无穷接近于期望输出,使得H3=H3*;
假设矩阵WHE1=[B2 W2],第三个隐含层的权值W2和阈值B2可以求解得:
WHE1=g-1(H3*)HE1 +
其中,是矩阵HE1=[1 H2]T的广义逆矩阵,1表示一个有Q个元素的向量,且每一个元素都是1,g-1(x)是激活函数g(x)的反函数;
当以上隐含层的参数全部求解过后,更新第三个隐含层的预测输出H4:
H4=g(W2H2+B2)=g(WHE1HE1)
提高多隐含层ELM神经网络的泛化能力,使网络预测输出更加稳定,一般可以再βnew的更新求解过程中加入正则化项;而且与TELM算法中求解输出权重的方法有所不同:
当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果训练样本集中包含的训练样本数目较多时,则输出权值的求解为:
当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果隐含层中包含的神经元节点个数较多时,则输出权值的求解为:
当训练样本集中包含的训练样本数目与隐含层神经元节点的数目相比较时,如果这两个数值相等时,则输出权值的求解为:
βnew1=H4 +T
则最终可以得到具有三个隐含层的ELM神经网络输出f(x)为:
f(x)=H4βnew1
步骤2.4数据模型的建立:
数据建模是通过对被控过程的历史数据进行数据处理、统计分析,找出过程输入与输出之间的关系式;
步骤3:机理模型与数据补偿模型建立混合模型:
数据补偿模型与机理模型相结合构成了浓密洗涤过程的并联混合模型,以机理模型来描述浓密洗涤过程的整体特性,数据模型作为机理模型的误差补偿模型,建立的是机理模型预测值与实际值的偏差与过程可测变量之间的关系;将机理模型与实际值的偏差作为输出样本,输入数据作为输入样本来训练补偿器,即EDO-TELM模型;将机理模型与补偿器的预测值相加作为模型的预估值;实现用EDO-TELM来逼近实际***和机理模型之间的差值,即用EDO-TELM去补偿了未建模部分的误差,对模型的不确定部分给予了合理的估计,大大地减小了模型误差,从理论上提高了模型的预估精度;
浓密洗涤过程的机理模型与EDO-TELM数据补偿模型并联,对浓密洗涤过程的关键变量进行预估,混合模型的输入输出关系可以作如下表示:
Yt=Ym(x1,x2,x3,x4)+YEDO-TELM(x1,x2,x3,x4)
式中x1,x2,x3,x4代表可测的辅助变量,分别为4个变量;函数Ym(x1,x2,x3,x4)代表机理模型的预测输出;函数YEDO-TELM(x1,x2,x3,x4)代表EDO-TELM补偿模型对机理模型输出误差的补偿值;Yt代表混合模型的预测输出,即模型预估值;
步骤3.1:整体分布优化算法优化三层极限学习机:
在整体分布优化算法优化三层极限学习机(EDO-TELM)的过程中,EDO算法中每个粒子的位置向量对应极限学习机的输入权重和偏置向量,粒子的维数由极限学习机中起连接作用的权值的数量和阈值个数决定,用给定训练样本集来计算极限学习机输出权重,再根据输出权重计算给定测试样本集的输出误差,以输出误差作为适应度值,误差越小即表示该粒子的性能越好;粒子群通过在权值空间内移动搜索,寻找使得极限学习机输出误差最小的输入权重和偏置向量;
利用整体分布优化算法优化三层极限学习机的具体实现步骤如下:
步骤3.1.1:初始化TELM:设定网络的输入层、隐含层和输出层的神经元个数,激活函数的选择;
步骤3.1.2:初始化EDO:在整个定义域内随机产生种群,同时初始化柯西分布的半径为覆盖整个定义域的0.5倍;柯西分布尺度参数γ=0.1,种群直径递减率α=0.93,停滞次数β=9,最大迭代次数10000或者种群直径的标度小于0.000001,种群规模为70;
步骤3.1.3:计算适应度值:对所有的粒子,根据TELM的模型计算出各自的输出值,最终求得其样本误差,此样本误差即为各个粒子的适应度;
判断算法是否达到最大迭代次数,或粒子的适应度值小于某个设定值,条件满足则转到第六步,否则转到步骤3.1.4;
步骤3.1.4:更新全局极值与各个粒子的个体极值:找出本次最好的个体与上次的最优个体比较,如果好于上次的最优个体,替换上次最优个体,作为本次的最优个体,种群直径保持不变;如果差于上次的最优个体,则保留上次最优个体,作为本次的最优个体,同时使停滞次数减1,若停滞次数为0,则使种群直径减为原来直径的0.93,,同时使停滞次数置为9;若停滞次数不为0,则保持原来的直径不变;迭代次数减1;
步骤3.1.5:以已经找到的最优个体的位置为中心,用柯西分布产生新的种群;
步骤3.1.6:当迭代次数达到预先设定的最大次数或种群直径的标度小于0.000001,则算法迭代停止,全局极值所对应的三层极限学习机的输入权值和偏置向量即为问题的最优解,输入检测样本进行预报。
有益效果
在本发明中,我们将基于机理模型与数据补偿模型建立的混合模型应用到了某精矿浓密机底流浓度的软测量方法中,开创了新型混合模型的建模思路并取得了不错的改进效果。首先从一些相关背景知识介绍,逐步了解并分析了浓密机机理模型的建模到优化过程,并将浓密机机理模型的参数进行RLS辨识预测浓密机底流浓度。同时通过采集的数据结合TELM算法建立数据模型并预测底流浓度。经比较辨识后的浓密机机理模型预测输出和数据模型预测输出与实际值的差异,从实际效果可以看出机理模型和数据模型均对过程的趋势有较好的预测效果,但是预测值与实际值之间仍存在较大的偏差。最后提出了一种基于数据补偿模型的浓密机混合模型,混合模型实现了用改进的EDO-TELM算法作为误差补偿模型去补偿机理模型未建模部分的误差,对模型的不确定部分给予了合理的估计,显著减小了模型误差,从理论上提高了模型的预测精度。通过仿真分析该混合模型减小了机理模型和数据模型预测误差,混合模型的预测精度更为准确。
附图说明:
图1浓密机内部作业空间分布
图2分层结构图
图3ELM神经网络结构
图4TELM的工作流程
图5TELM的网络结构
图6浓密洗涤过程混合模型结构
图7整体分布优化算法的程序流程图
图8优化模型
图9机理模型底流浓度预测误差比较
图10底流浓度预测效果比较
图11 TELM测试集预测误差
图12 TELM测试集输出结果比较
图13混合模型底流浓度预测误差
图14混合模型底流浓度预测效果的比较
具体实施例:
一种基于混合模型的软测量方法研究并提高底流浓度预测精度的处理方法
步骤1:机理建模:
步骤1.1机理模型的建立:
浓密过程是基于重力沉降作用的,显而易见,矿浆浓度必是取决于沉降时间和空间高度的量,因此矿浆浓度可表示为C(z,t),其中z轴向下为正方向,t为浓密过程时间,如图1所示。我们进行合理化的假设,假设沉降过程是一维的,由于重力沉降和压缩作用本质上是一维的,因此一维沉降模型可以很好的捕获过程基本特性。沉降过程的质量守恒关系可由式(1)的偏微分方程来描述:
其中vs≥0是矿浆向下沉降速率。方程中包含两个未知量矿浆浓度C和沉降速率vs,因此要求解此方程需要建立矿浆浓度C和沉降速率vs之间的本构关系。
在单位时间内,任意间隔(z1,z2)质量的增长等于z1高度流入的流量减去z2高度流出的流量再加上间隔内产生的流量,表达式如式(2)所示。
其中Qf为进料流量;为浓密机的横截面积;Cf为进料浓度;δ(z)为δ函数,只有在进料层时δ(z)=1,其他高度δ(z)=0;流量Φ表示为
其中:
其中
采用分层思想将浓密机内部细分为n层,于是每层的高度为Δz=(B+H)/n。设层与层之间的分界线位置如图2所示,每层分界线的高度可由式(6)计算得到。
z:=iΔz-H,i=0,...N (6)
因此,溢流层z0和底流层zn落在分界线上,溢流层z0=-H,底流层zn=B,设进料口z=0在(zm-1,zm]区间内,相应的第m层为进料层。在仿真方案中,对应溢流区和底流区在方程的顶部和底部分别多加了两层,顶部两层模拟溢流区,底部两层模拟底流区,溢流浊度Ce取第0层浓度,底流浓度Cn为第n+1层浓度。因此,计算区域由n+4个长度为Δz的区间组成,对于一个精确的仿真实施过程这四层是十分必要的。
对于每一层,方程(2)可以重新写为一个精确版本的质量守恒方程如下式:
其中是压缩系数。
由于式(7)的每一项并不是在每一层中都会存在,分层建立更详细的机微分方程:
在沉降区,第i=2,...,m-1层:
第i=m,进料层:
对于底流层:
其中Cf是进料浓度;是弥散系数;n是分层的层数;z是浓密机的高度;zf是进料高度;vs是沉降速度;C是矿浆的浓度;Gi如式(11)所示。
基于现场条件的限制,流体的流速无法通过仪器测量出来,故而引用流体力学的伯努利方程进行转换,将现场仪表测得的压力数据转换成适用于机理模型的流速,为后续的数据处理带来了很大的方便。同时再忽略同一水平上流体的重力势能,故而流体的流速与压力的转换公式为:
步骤1.2:辅助变量选择:辅助变量的选择包括变量类型、变量数目和监测点位置的选择,是建立过程数据模型的第一步,这一步确定了软测量模型的输入信息矩阵,因而直接决定了过程模型的结构和输出,对建模的成功与否至为关键。辅助变量的选择一般是通过机理分析,明确软测量模型的任务,确定主导变量,并在此基础上从影响主导变量的可测变量中挑选主要影响因素。本文机理模型的任务是对浓密洗涤过程的关键变量底流浓度进行预测,从而确定软测量模型的主导变量为底流浓度。对底流浓度影响较大的变量包括顶层体积流量,进料流量,底流体积密度,流体流速,同时这四个变量在工业现场可以通过检测装置测得的,因此选择它们作为输入变量,选择底流浓度作为输出变量,来进行数据预处理,机理模型和混合模型的研究。辅助变量如下表1所示:
表1变量表
基于RLS参数辨识的机理模型的底流浓度预测
为了进行下一步仿真分析,给出浓密洗涤过程机理模型模型参数,见表2。
表2浓密机机理模型参数
RLS优化浓密机机理模型如图8所示:
对建立浓密机机理模型进行参数改进:
其中A为浓密机的横截面积,H为澄清区的高度,B为沉降区的深度,Δz=(B+H)/n为每层的高度,Qe为顶层体积流量,Qf为进料流量,Qu底流体积密度,是压缩系数包含矿浆浓度和密度,Gi由式3.24可知,包含沉降速度模型v。
从现场实测的190组数据中随机选择50组数据进行RLS辨识浓密机机理模型参数辨识,辨识后机理模型参数为表3所述:
表3 RLS参数辨识结果
参数 | γ<sub>1</sub> | γ<sub>2</sub> | γ<sub>3</sub> | γ<sub>4</sub> | γ<sub>5</sub> |
辨识结果 | 0.2327 | 0.0293 | 0.2585 | 0.7427 | 0.5155 |
带入辨识后的参数,得到RLS算法辨识后的机理模型为:
RLS参数辨识的机理模型预测输出仿真结果如图9:
由图9可知,RLS参数辨识的机理模型预测值与实际值之间仍存在一定的误差,因此需要进一步的修正,使机理模型预测值与实际值更接近。
由图10可知,参数辨识的机理模型虽然对过程的趋势有较好的预测效果,但实际的工业过程往往比较复杂,过程中的某些因素在不断变化,而其变化难以精确描述,导致预测值与实际值之间仍存在较大的偏差,无法适用于工业现场数据的实时监测,因此需要进一步的修正,得到更精确的预测效果。
通过对浓密洗涤过程工艺进行深入分析的基础上,从矿浆沉降原理出发,依据固体通量理论和质量守恒理论建立浓密洗涤过程矿浆浓度分布的机理模型。然后引用流体力学的伯努利原理将现场仪表测得的压力数据转换成适用于机理模型的流速,为后续的数据处理带来了很大的方便。最后采用RLS算法参数辨识机理模型,通过对参数辨识的机理模型进行仿真,找出了影响浓密洗涤过程的主要因素,取得了机理模型测量底流浓度带来的一定的效果,为后续的优化提供了方向。
步骤1.3:数据预处理
在实际测量数据中,常常会有个别测量数据明显超出测量数据的一般范围,即测量值偏离其余测量值的平均水平过远,通常把这样的数据成为异常值。对于异常值通常可以采用3σ原则进行处理。一般的,对于一个样本集x1,x2,x3,x4,如果样本中只存在随机误差,统计随机误差的正态分布规律,把偏差绝对值大于3σ的数据视作异常数据,予以剔除。具体实现方法为:
对于测量数据[x1,x2,x3,x4],首先根据公式(12)计算其平均值,再根据式(13)计算标准差的估计值。
假设对于任意数据点xd,若满足则根据3σ原则,该数据视为异常值,应将xd从测量数据中剔除。再将xd剔除后,再对保留下来的数据重新计算σ值,重新进行异常值检测,重复迭代操作,直至所有异常值都被剔除为止。
步骤2:基于三层极限学习机(TELM)算法的数据模型建立:
步骤2.1:ELM算法:极限学习机(Extreme Learning Machine,ELM)是针对单隐含层前馈神经网络(single-hidden layer feed-forward neural networks,SLFNs)提出的一种新型的学习算法。它的网络结构是由输入层,隐含层和输出层共三个网络层组成的前馈神经网络,在ELM模型的训练过程中,网络的权值与阈值参数是不需要迭代修正的,而是在训练之前,随机设置隐含层中的神经元节点的个数,并且随后随机取值输入层与隐含层的权值矩阵和隐含层的阈值矩阵,这两个网络参数一般都初始化为在-1至1之间的随机数矩阵,经过最小二乘法的运算后,ELM神经网络便可以获得唯一的最优解,而不会陷入局部最优中去。
图3为ELM神经网络结构图,从图中可以看出ELM网络中两两相邻的网络层中神经元之间是全部连接在一起的。在图中显示的是输入层中神经元节点的个数有n个,对应着一个输入数据样本有n个维度;隐含层中神经元节点的个数有l个,是凭借经验随机设置的;输出层中神经元节点个数为m个,对应着m个输出变量(例如在分类问题中,有几种类别就有几个神经元节点)。
设输入层与隐含层之间的连接权值矩阵w为:
其中wji代表着输入层第i个神经元与隐含层第j个神经元间的连接权值。
设隐含层与输出层间的连接权值β为:
其中,βjk代表着隐含层第j个神经元与输出层第k个神经元之间的连接权值。
设隐含层神经元的阈值为:
假设具有Q个训练集样本的输入矩阵为X(n×Q),标记矩阵为Y(m×Q)。
隐含层神经元的激活函数为g(x)。则ELM网络的输出T为:
T=[t1 t2 … tQ]m×Q,
其中,wi=[wi1 wi2 … win];xj=[x1j x2j … xnj]T。
式(18)也可以表示如下:
Hβ=T' (19)
其中,H为ELM隐含层的输出矩阵,T'为标记矩阵T的转置。
其中H为:
为了更好地提高网络的泛化能力,使网络预测输出更加稳定,一般可以在β的求解过程中加入正则化项。而且与ELM中求解输出权重的方法有所不同:
当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果训练样本集中包含的训练样本数目较多时,则输出权值的求解为:
当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果隐含层中包含的神经元节点个数较多时,则输出权值的求解为:
当训练样本集中包含的训练样本数目与隐含层神经元节点的数目相比较时,如果这两个数值相等时,则输出权值的求解为:
β=H+T (22)
其中H+是输出矩阵H的Moore-Penrose广义逆。
则求出ELM网络的输出:y=Hβ。
步骤2.2:常见的激活函数以及隐含层节点个数的选择
在人工神经网络中,激活函数异常的重要,选择合适的激活函数对模型的影响也是非常巨大的。有时候,一个合适的激活函数,可以把模型的精确度提高到一个新的档次。由于神经网络处理的数据集可能非线性度比较低,影响模型的训练,因此就需要加入激活函数用以提高模型的非线性。在人工神经网络中,当激活函数为线性函数的时,那么最终输出与输入必然也是线性的关系,这样的话网络中的隐含层就没有体现其隐含层的价值,因此激活函数必然需要非线性的函数来进行表示;同时也可以当线性数据的表达能力较弱时,通过加入激活函数引入非线性因素,提高模型的表达能力。
同理,ELM神经网络中激活函数的选择对模型的精确度有着巨大的影响,一个合适的激活函数可以提高模型的精确度和稳定性。激活函数一定要满足一下的条件,非线性、可微性、单调性等特征。
下面本文列出了一些大家在人工神经网络的学习过程中经常会用到的激活函数和其数学表达式:
sigmoid函数:g(x)=1/(1+e-x)
线性函数:g(x)=kx+c
ReLU:g(x)=max(x,0)
正弦函数:g(x)=sin(x)
log函数:g(x)=ln(x)
双曲正切函数:
hardlim函数:
多项式函数:g(x)=0.1×(ex+x2cos(x2)+x2)
radbas函数:
satlin函数:
对于一个人工神经网络究竟应该选择多少个隐含层节点数目,至今为止,依然没有定论,大多数学者都是根据自己以往的经验,进行许多组不同的实验,择优选择隐含层节点数目。在本专利中,对于极限学习机隐含层神经元个数的选择是通过“尝试法”来确定。在学习训练的过程中,随机生成隐含层节点数,重新调整网络结构,训练网络模型,取最优的网络模型为准。
步骤2.3:三隐含层ELM算法:
三隐含层网络结构的极限学习机(TELM),该结构是在经典极限学习机的基础之上添加两个隐含层,构成具有一个输入层,三个隐含层和一个输出层的神经网络结构,各层神经元之间都是处于全连接状态的。同时该TELM网络算法继承了ELM网络算法随机初始化第一个隐含层与输入层之间的权值矩阵和第一个隐含层的阈值矩阵的理论,通过引入一种方法来获得剩余隐含层的权值矩阵与阈值矩阵的参数,组合成一个新的含有多个隐含层的网络结构模型。该方法可以有效的避免部分隐含层节点失效的情况,通过不同隐含层之间网络参数的逐层优化、传递、最后得到的输出结果更加的接近于实际的结果相较于传统的ELM模型,同时也继承了传统极限学习机泛化能力好的优点。
三隐含层ELM(TELM)流程图4和结构图5:
假设给定输入训练集样本为{X,T}={xi,ti}(i=1,2,…,Q),其中X是输入样本,T是标志样本。且所有的隐含层都具有相同的隐含层节点数目。根据TELM算法的原理介绍,首先我们把具有三个隐含层ELM神经网络中的三个隐含层看成是两个隐含层(两个隐含层分别表示:第一个隐含层独立代表一个隐含层,后面两个隐含层看作为一个隐含层),且第一个隐含层的权值矩阵与阈值参数都是随机初始化的,由单隐含层ELM推导公式得到第一个隐含层与第二个隐含层的权值矩阵、阈值矩阵和隐含层的输出矩阵。由ELM算法可以得知,第三个隐含层的期望输出为:
H3*=Tβnew + (23)
其中,是βnew的广义逆矩阵。
现在,则要把第三个隐含层加入到TELM网络中去,就恢复到了含有三个隐含层的TELM神经网络结构,由于三个隐含层ELM中层与层之间的神经元是全部连接在一起的,就可以得到第三个隐含层的预测输出H3为:
H3=g(W2H2+B2) (24)
其中W2是第二个隐含层与第三个隐含层之间的权值矩阵,B2是第三个隐含层的阈值,H2是隐含层的输出矩阵,这里作为第二个隐含层的输出矩阵。
为了满足第三个隐含层的预测输出无穷接近于期望输出,使得H3=H3*。
现在我们假设矩阵WHE1=[B2 W2],因此第三个隐含层的权值W2和阈值B2可以求解得:
WHE1=g-1(H3*)HE1 + (25)
其中,是矩阵HE1=[1 H2]T的广义逆矩阵,1表示一个有Q个元素的向量,且每一个元素都是1,g-1(x)是激活函数g(x)的反函数。
当以上隐含层的参数全部求解过后,我们可以更新第三个隐含层的预测输出H4:
H4=g(W2H2+B2)=g(WHE1HE1) (26)
为了更好地提高多隐含层ELM神经网络的泛化能力,使网络预测输出更加稳定,一般可以再βnew的更新求解过程中加入正则化项。而且与TELM算法中求解输出权重的方法有所不同:
当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果训练样本集中包含的训练样本数目较多时,则输出权值的求解为:
当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果隐含层中包含的神经元节点个数较多时,则输出权值的求解为:
当训练样本集中包含的训练样本数目与隐含层神经元节点的数目相比较时,如果这两个数值相等时,则输出权值的求解为:
βnew1=H4 +T (29)
则最终可以得到具有三个隐含层的ELM神经网络输出f(x)为:
f(x)=H4βnew1 (30)
步骤2.4:数据模型的建立:
数据建模是通过对被控过程的历史数据进行数据处理、统计分析,找出过程输入与输出之间的关系式。数据建模不要求知道对象的工艺过程以及复杂的实际构造,避免了复杂机理的分析,只需确定模型的输入输出,求解模型相对比较方便。
将从工业现场采集的数据进行处理后,从190组数据中随机选取140组作为训练集,另外50组数据作为测试集,通过TELM算法仿真出数据模型的输出误差和结果。
从图11可以看出,简单的通过数据模型产生的预测值误差与实际值仍然存在一定的偏差,达不到工业现场实际测量的需求,需要对数据模型的结构进行优化和提高。
图12显示的是数据模型的预测值与实际值的比较,可以发现数据模型的预测输出与实际值拟合的效果也存在一定的偏差。正由于数据模型只依赖于过程数据,信息来源单一,不能反映过程特性,数据模型的结构具有很大的主观性,造成推广性差,并且模型不具有解释性,容易造成过拟合现象,预测输出的不准确性。
通过对工艺现场采集的数据经过预处理后,选取数据进行数据模型的训练和测试,通过仿真分析可知,数据模型的建立虽然避免了复杂机理的分析,只需确定模型的输入输出变量,求解模型非常方便。但由于只依赖过程数据,数据来源单一,仿真结果与实际仍存在一定的偏差,不能满足工业现场的测量需求,但为接下来的混合模型的建立与优化提供了明确的方向。
步骤3:机理模型与数据补偿模型建立混合模型:
机理建模的优点是反映过程的规律,可靠性高,外推性好,具有可解释性,缺点是建模过程比较繁琐,依赖于先验知识,对于一些复杂过程而言,需要通过合理假设得到被控过程的简化机理模型,然而简化后的机理模型的精度不能得到保证。数据建模的优点是可以根据过程的输入输出数据直接建立过程模型,无需过程对象的先验知识,避免了复杂机理的分析,缺点是模型推广性能差、不具有可解释性、容易造成过拟合现象,甚至可能将噪声也拟合进来,造成模型的不稳定。综上所述,单独使用机理模型或是单独使用数据模型在建模过程中都有很大的弊端。因此,本文提出了一种将机理建模和基于数据驱动的建模相结合的方法,使得机理模型和数据模型可以互为补充。
数据补偿模型与机理模型相结合构成了浓密洗涤过程的并联混合模型,如图6所示。该模型以机理模型来描述浓密洗涤过程的整体特性,数据模型作为机理模型的误差补偿模型,建立的是机理模型预测值与实际值的偏差与过程可测变量之间的关系。将机理模型与实际值的偏差作为输出样本,输入数据作为输入样本来训练补偿器,即EDO-TELM模型。将机理模型与补偿器的预测值相加作为模型的预估值。从而实现用EDO-TELM来逼近实际***和机理模型之间的差值,即用EDO-TELM去补偿了未建模部分的误差,对模型的不确定部分给予了合理的估计,大大地减小了模型误差,从理论上提高了模型的预估精度。
浓密洗涤过程的机理模型与EDO-TELM数据补偿模型并联,对浓密洗涤过程的关键变量进行预估,混合模型的输入输出关系可以作如下表示:
Yt=Ym(x1,x2,x3,x4)+YEDO-TELM(x1,x2,x3,x4) (35)
式中x1,x2,x3,x4代表可测的辅助变量,分别为4个变量;函数Ym(x1,x2,x3,x4)代表机理模型的预测输出;函数YEDO-TELM(x1,x2,x3,x4)代表EDO-TELM补偿模型对机理模型输出误差的补偿值;Yt代表混合模型的预测输出,即模型预估值。
整体分布优化算法介绍:粒子群(PSO)算法作为一种有效的优化算法,已经在智能优化算法中得到了广泛应用。整体分布优化算法(EDO)是一种衍生于PSO算法的新优化算法,是在总结PSO算法的种群分布规律的基础上提出来的。与PSO算法比较,具有实现简单、收敛速度快、鲁棒性强等特点。具体的计算过程如图7所示:
步骤3.1:整体分布优化算法优化三层极限学习机:
ELM与EDO算法是两种机制不同的优化算法,它们表现出不同的优化特性并适用于不同的优化问题。但这两种优化方法都是通过模拟或揭示自然界中的某些现象或过程发展起来的,因此二者之间必然存在某种共性,从而有可能将二者结合起来,融合二者的长处构建更为有效的优化方法。
在整体分布优化算法优化三层极限学习机(EDO-TELM)的过程中,EDO算法中每个粒子的位置向量对应极限学习机的输入权重和偏置向量,粒子的维数由极限学习机中起连接作用的权值的数量和阈值个数决定,用给定训练样本集来计算极限学习机输出权重,再根据输出权重计算给定测试样本集的输出误差,以输出误差作为适应度值,误差越小即表示该粒子的性能越好。粒子群通过在权值空间内移动搜索,寻找使得极限学习机输出误差最小的输入权重和偏置向量。
本文利用整体分布优化算法优化三层极限学习机的具体实现步骤如下:
步骤3.1.1:初始化TELM:设定网络的输入层、隐含层和输出层的神经元个数,激活函数的选择;
步骤3.1.2:初始化EDO:在整个定义域内随机产生种群,同时初始化柯西分布的半径为覆盖整个定义域的0.5倍。柯西分布尺度参数γ=0.1,种群直径递减率α=0.93,停滞次数β=9,最大迭代次数10000或者种群直径的标度小于0.000001,种群规模为70;
步骤3.1.3:计算适应度值:对所有的粒子,根据TELM的模型计算出各自的输出值,最终求得其样本误差,此样本误差即为各个粒子的适应度。
判断算法是否达到最大迭代次数,或粒子的适应度值小于某个设定值,条件满足则转到第六步,否则转到步骤3.1.4;
步骤3.1.4:更新全局极值与各个粒子的个体极值:找出本次最好的个体与上次的最优个体比较,如果好于上次的最优个体,替换上次最优个体,作为本次的最优个体,种群直径保持不变;如果差于上次的最优个体,则保留上次最优个体,作为本次的最优个体,同时使停滞次数减1,若停滞次数为0,则使种群直径减为原来直径的0.93,,同时使停滞次数置为9;若停滞次数不为0,则保持原来的直径不变。迭代次数减1。
步骤3.1.5:以已经找到的最优个体的位置为中心,用柯西分布产生新的种群;
步骤3.1.6:当迭代次数达到预先设定的最大次数或种群直径的标度小于0.000001,则算法迭代停止,全局极值所对应的三层极限学习机的输入权值和偏置向量即为问题的最优解,输入检测样本进行预报。
选取现场实测输入变量x1,x2,x3,x4(即Qe,Qf,Qu,v)进行机理模型、数据模型以及混合模型的预测输出比较,预测结果是底流浓度,比较的是预测值与实际值的误差和误差率。以下三张表是选取实验结果的部分数据的数值比较。
表4机理模型预测输出与实际值比较
实际值 | 783 | 796 | 619 | 615 | 568 | 576 | 633 | 666 | 678 | 646 | 568 | 547 | 666 | 564 |
预测值 | 823.6 | 841.9 | 654.2 | 650.8 | 613.3 | 616.6 | 689.6 | 733.5 | 712.3 | 690.1 | 613.3 | 584.5 | 733.5 | 615.1 |
误差 | 40.6 | 45.9 | 35.2 | 35.8 | 45.3 | 40.6 | 56.6 | 67.5 | 34.3 | 44.1 | 45.3 | 37.5 | 67.5 | 51.1 |
误差率 | 0.052 | 0.058 | 0.057 | 0.058 | 0.08 | 0.071 | 0.089 | 0.101 | 0.051 | 0.068 | 0.074 | 0.064 | 0.092 | 0.083 |
表5数据模型预测输出与实际值比较
实际值 | 783 | 796 | 619 | 615 | 568 | 576 | 633 | 666 | 678 | 646 | 568 | 547 | 666 | 564 |
预测值 | 823.6 | 841.9 | 654.2 | 650.8 | 613.3 | 616.6 | 689.6 | 733.5 | 712.3 | 690.1 | 613.3 | 584.5 | 733.5 | 615.1 |
误差 | 40.6 | 45.9 | 35.2 | 35.8 | 45.3 | 40.6 | 56.6 | 67.5 | 34.3 | 44.1 | 45.3 | 37.5 | 67.5 | 51.1 |
误差率 | 0.052 | 0.058 | 0.057 | 0.058 | 0.08 | 0.071 | 0.089 | 0.101 | 0.051 | 0.068 | 0.074 | 0.064 | 0.092 | 0.083 |
表6混合模型预测输出与实际值比较
结果分析:表4,表5,表6分别是部分机理模型预测值与实际值的误差及误差率,数据模型预测值与实际值的误差及误差率,混合模型预测值与实际值的误差及误差率。由表3可知,通过参数辨识后的机理模型预测值与实际值的误差较大,最大误差率达到10%及以上,进一步说明纯机理模型不适合复杂的工业过程,需要与其他建模方法相结合。由表4可知,数据模型的预测误差率也比较大,无法适应工业现场测量需求。而表5数据显示表明,通过基于数据补偿模型的机理模型混合建模后,混合模型的预测值与实际值接近,误差率在5%左右,比机理模型的预测输出准确率提高了5个百分点,适合复杂的工业现场测量需求。进一步证明将机理模型和基于数据驱动的建模方法相结合的方法是正确的。
为了验证建立的混合模型的预测效果,运用机理模型生成的190数据,其中140组为训练样本,50组为测试样本,仿真结果如图13所示:
图13是混合模型对底流浓度预测误差的仿真结果,容易发现混合模型的底流浓度度的测量误差在2%以下,明显的提高了浓密机底流浓度的测量精度。分析比较可知,混合模型的测量误差比机理模型和单一的数据模型的测量误差显著的降低了。
图14是混合模型浓密机底流浓度预测与实际值的比较,从仿真结果可知,混合模型的预测输出与实际值非常接近。可以看出混合模型能够补偿机理模型的偏差,预测效果更好,精度更高,能够达到复杂的工业过程测量的要求。
为了解决实际浓密洗涤过程中底流浓度的预测问题,本专利提出利用并行混合建模的方法建立浓密洗涤过程的软测量模型,该模型由优化的机理模型与数据补偿模型共同组成。浓密过程优化的机理模型用以描述浓密洗涤过程的整体趋势,降低模型的运算量;补偿模型用以补偿机理模型的预测误差。考虑到浓密洗涤过程的非线性特性,对机理模型进行了参数辨识,以此提高机理模型建模的准确性,数据补偿模型采用改进的EDO-TELM算法。在优化机理模型的基础上,分别对机理模型和混合模型的预测输出进行了仿真分析,仿真结果表明与机理模型和数据模型相比,混合模型的预测效果更好,提高了模型的预测精度。
Claims (1)
1.一种基于混合模型的浓密机底流浓度预测方法,其特征在于,包括以下步骤:
步骤1:机理建模
步骤1.1机理模型的建立
由于浓密过程是基于重力沉降作用的,则矿浆浓度是取决于沉降时间和空间高度的量,因此矿浆浓度可表示为C(z,t),其中设置z轴竖直向下为正方向,t为浓密过程时间,进行合理化的假设,假设沉降过程是一维的,由于重力沉降和压缩作用本质上是一维的,通过一维沉降模型捕获过程基本特性,沉降过程的质量守恒关系由偏微分方程来描述:
其中vs≥0是矿浆向下沉降速率,方程中包含两个未知量矿浆浓度C和沉降速率vs,因此求解此方程需要建立矿浆浓度C和沉降速率vs之间的本构关系;
在单位时间内,任意间隔(z1,z2)质量的增长等于z1高度流入的流量减去z2高度流出的流量再加上间隔内产生的流量,表达式为:
其中Qf为进料流量;为浓密机的横截面积;Cf为进料浓度;δ(z)为δ函数,只有在进料层时δ(z)=1,其他高度δ(z)=0;流量Φ表示为
其中:
其中:
采用分层思想将浓密机内部细分为n层,则每层的高度为Δz=(B+H)/n,设层与层之间的分界线,每层分界线的高度通过计算得到,公式为:
z:=iΔz-H,i=0,...N
则溢流层z0和底流层zn落在分界线上,溢流层z0=-H,底流层zn=B,设进料口z=0在(zm-1,zm]区间内,相应的第m层为进料层;在仿真***中,对应溢流区和底流区在方程的顶部和底部分别多加了两层,顶部两层模拟溢流区,底部两层模拟底流区,溢流浊度Ce取第0层浓度,底流浓度Cn为第n+1层浓度;因此,计算区域由n+4个长度为Δz的区间组成,确保精确;
对于每一层,可以重新写一个精确版本的质量守恒方程如下式:
其中是压缩系数;
由于精确版本的质量守恒方程的每一项并不是在每一层中都会存在,分层建立更详细的机微分方程:
在沉降区,第i=2,...,m-1层:
第i=m,进料层:
对于底流层:
其中Cf是进料浓度;是弥散系数;n是分层的层数;z是浓密机的高度;zf是进料高度;vs是沉降速度;C是矿浆的浓度;Gi如式所示;
基于现场条件的限制,流体的流速无法通过仪器测量出来,故而引用流体力学的伯努利方程进行转换,将现场仪表测得的压力数据转换成适用于机理模型的流速,同时忽略同一水平上流体的重力势能,故而流体的流速与压力的转换公式为:
步骤1.2:辅助变量选择:对浓密洗涤过程的关键变量底流浓度进行预测,确定软测量模型的主导变量为底流浓度,对底流浓度影响较大的变量包括顶层体积流量,进料流量,底流体积密度,流体流速,同时这四个变量在工业现场可以通过检测装置测得的,因此选择它们作为输入变量,选择底流浓度作为输出变量,来进行数据预处理,机理模型和混合模型的研究;步骤1.3.数据预处理:在实际测量数据中,常常会有个别测量数据明显超出测量数据的一般范围,即测量值偏离其余测量值的平均水平过远,把这样的数据称为异常值,对于异常值通常可以采用3σ原则进行处理;对于一个样本集x1,x2,x3,x4,如果样本中只存在随机误差,统计随机误差的正态分布规律,把偏差绝对值大于3σ的数据视作异常数据,予以剔除,实现方法为:
对于测量数据[x1,x2,x3,x4],首先根据公式计算其平均值,再根据式计算标准差的估计值:
假设对于任意数据点xd,若满足则根据3σ原则,该数据视为异常值,应将xd从测量数据中剔除;再将xd剔除后,再对保留下来的数据重新计算σ值,重新进行异常值检测,重复迭代操作,直至所有异常值都被剔除为止;
步骤2:基于三层极限学习机算法的数据模型建立:
步骤2.1:ELM算法:极限学习机的网络结构是由输入层,隐含层和输出层共三个网络层组成的前馈神经网络,在ELM模型的训练过程中,网络的权值与阈值参数是不需要迭代修正的,而是在训练之前,随机设置隐含层中的神经元节点的个数,并且随后随机取值输入层与隐含层的权值矩阵和隐含层的阈值矩阵,这两个网络参数一般都初始化为在-1至1之间的随机数矩阵,经过最小二乘法的运算后,ELM神经网络便可以获得唯一的最优解,而不会陷入局部最优中;
ELM网络中两两相邻的网络层中神经元之间是全部连接在一起的,输入层中神经元节点的个数有n个,对应着一个输入数据样本有n个维度;隐含层中神经元节点的个数有l个,是凭借经验随机设置的;输出层中神经元节点个数为m个,对应着m个输出变量;
设输入层与隐含层之间的连接权值矩阵w为:
其中wji代表着输入层第i个神经元与隐含层第j个神经元间的连接权值;
设隐含层与输出层间的连接权值β为:
其中,βjk代表着隐含层第j个神经元与输出层第k个神经元之间的连接权值;
设隐含层神经元的阈值为:
假设具有Q个训练集样本的输入矩阵为X(n×Q),标记矩阵为Y(m×Q);
隐含层神经元的激活函数为g(x),则ELM网络的输出T为:
T=[t1 t2 …tQ]m×Q,
其中,wi=[wi1 wi2 … win];xj=[x1j x2j … xnj]T,
上式也可以表示如下:
Hβ=T'
其中,H为ELM隐含层的输出矩阵,T'为标记矩阵T的转置;
其中H为:
提高网络的泛化能力,使网络预测输出更加稳定,在β的求解过程中加入正则化项,而且与ELM中求解输出权重的方法有所不同:
当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果训练样本集中包含的训练样本数目较多时,则输出权值的求解为:
当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果隐含层中包含的神经元节点个数较多时,则输出权值的求解为:
当训练样本集中包含的训练样本数目与隐含层神经元节点的数目相比较时,如果这两个数值相等时,则输出权值的求解为:
β=H+T
其中H+是输出矩阵H的Moore-Penrose广义逆;
则求出ELM网络的输出:y=Hβ;
步骤2.2:常见的激活函数以及隐含层节点个数的选择:
ELM神经网络中激活函数的选择对模型的精确度有着巨大的影响,合适的激活函数可以提高模型的精确度和稳定性,激活函数要满足非线性、可微性、单调性等特征;
对于极限学习机隐含层神经元个数的选择是通过“尝试法”来确定;在学习训练的过程中,随机生成隐含层节点数,重新调整网络结构,训练网络模型,取最优的网络模型为准;
步骤2.3:三隐含层ELM算法:三隐含层网络结构的极限学习机,是在经典极限学习机的基础之上添加两个隐含层,构成具有一个输入层,三个隐含层和一个输出层的神经网络结构,各层神经元之间都是处于全连接状态的;同时该TELM网络算法继承了ELM网络算法随机初始化第一个隐含层与输入层之间的权值矩阵和第一个隐含层的阈值矩阵的理论,引入一种方法来获得剩余隐含层的权值矩阵与阈值矩阵的参数,组合成一个新的含有多个隐含层的网络结构模型;
假设给定输入训练集样本为{X,T}={xi,ti}(i=1,2,…,Q),其中X是输入样本,T是标志样本;且所有的隐含层都具有相同的隐含层节点数目;根据TELM算法的原理介绍,首先我们把具有三个隐含层ELM神经网络中的三个隐含层看成是两个隐含层,且第一个隐含层的权值矩阵与阈值参数都是随机初始化的,由单隐含层ELM推导公式得到第一个隐含层与第二个隐含层的权值矩阵、阈值矩阵和隐含层的输出矩阵,由ELM算法可以得知,第三个隐含层的期望输出为:
H3*=Tβnew +
其中,是βnew的广义逆矩阵;
把第三个隐含层加入到TELM网络中去,就恢复到了含有三个隐含层的TELM神经网络结构,由于三个隐含层ELM中层与层之间的神经元是全部连接在一起的,就可以得到第三个隐含层的预测输出H3为:
H3=g(W2H2+B2)
其中W2是第二个隐含层与第三个隐含层之间的权值矩阵,B2是第三个隐含层的阈值,H2是隐含层的输出矩阵,这里作为第二个隐含层的输出矩阵;
为了满足第三个隐含层的预测输出无穷接近于期望输出,使得H3=H3*;
假设矩阵WHE1=[B2 W2],第三个隐含层的权值W2和阈值B2可以求解得:
WHE1=g-1(H3*)HE1 +
其中,是矩阵HE1=[1 H2]T的广义逆矩阵,1表示一个有Q个元素的向量,且每一个元素都是1,g-1(x)是激活函数g(x)的反函数;
当以上隐含层的参数全部求解过后,更新第三个隐含层的预测输出H4:
H4=g(W2H2+B2)=g(WHE1HE1)
提高多隐含层ELM神经网络的泛化能力,使网络预测输出更加稳定,一般可以再βnew的更新求解过程中加入正则化项;而且与TELM算法中求解输出权重的方法有所不同:
当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果训练样本集中包含的训练样本数目较多时,则输出权值的求解为:
当训练样本集中包含的训练样本数目与隐含层中神经元节点的数目相比较时,如果隐含层中包含的神经元节点个数较多时,则输出权值的求解为:
当训练样本集中包含的训练样本数目与隐含层神经元节点的数目相比较时,如果这两个数值相等时,则输出权值的求解为:
βnew1=H4 +T
则最终可以得到具有三个隐含层的ELM神经网络输出f(x)为:
f(x)=H4βnew1
步骤2.4数据模型的建立:
数据建模是通过对被控过程的历史数据进行数据处理、统计分析,找出过程输入与输出之间的关系式;
步骤3:机理模型与数据补偿模型建立混合模型:
数据补偿模型与机理模型相结合构成了浓密洗涤过程的并联混合模型,以机理模型来描述浓密洗涤过程的整体特性,数据模型作为机理模型的误差补偿模型,建立的是机理模型预测值与实际值的偏差与过程可测变量之间的关系;将机理模型与实际值的偏差作为输出样本,输入数据作为输入样本来训练补偿器,即EDO-TELM模型;将机理模型与补偿器的预测值相加作为模型的预估值;实现用EDO-TELM来逼近实际***和机理模型之间的差值,即用EDO-TELM去补偿了未建模部分的误差,对模型的不确定部分给予了合理的估计,大大地减小了模型误差,从理论上提高了模型的预估精度;
浓密洗涤过程的机理模型与EDO-TELM数据补偿模型并联,对浓密洗涤过程的关键变量进行预估,混合模型的输入输出关系可以作如下表示:
Yt=Ym(x1,x2,x3,x4)+YEDO-TELM(x1,x2,x3,x4)
式中x1,x2,x3,x4代表可测的辅助变量,分别为4个变量;函数Ym(x1,x2,x3,x4)代表机理模型的预测输出;函数YEDO-TELM(x1,x2,x3,x4)代表EDO-TELM补偿模型对机理模型输出误差的补偿值;Yt代表混合模型的预测输出,即模型预估值;
步骤3.1:整体分布优化算法优化三层极限学习机:
在整体分布优化算法优化三层极限学习机(EDO-TELM)的过程中,EDO算法中每个粒子的位置向量对应极限学习机的输入权重和偏置向量,粒子的维数由极限学习机中起连接作用的权值的数量和阈值个数决定,用给定训练样本集来计算极限学习机输出权重,再根据输出权重计算给定测试样本集的输出误差,以输出误差作为适应度值,误差越小即表示该粒子的性能越好;粒子群通过在权值空间内移动搜索,寻找使得极限学习机输出误差最小的输入权重和偏置向量;
利用整体分布优化算法优化三层极限学习机的具体实现步骤如下:
步骤3.1.1:初始化TELM:设定网络的输入层、隐含层和输出层的神经元个数,激活函数的选择;
步骤3.1.2:初始化EDO:在整个定义域内随机产生种群,同时初始化柯西分布的半径为覆盖整个定义域的0.5倍;柯西分布尺度参数γ=0.1,种群直径递减率α=0.93,停滞次数β=9,最大迭代次数10000或者种群直径的标度小于0.000001,种群规模为70;
步骤3.1.3:计算适应度值:对所有的粒子,根据TELM的模型计算出各自的输出值,最终求得其样本误差,此样本误差即为各个粒子的适应度;
判断算法是否达到最大迭代次数,或粒子的适应度值小于某个设定值,条件满足则转到第六步,否则转到步骤3.1.4;
步骤3.1.4:更新全局极值与各个粒子的个体极值:找出本次最好的个体与上次的最优个体比较,如果好于上次的最优个体,替换上次最优个体,作为本次的最优个体,种群直径保持不变;如果差于上次的最优个体,则保留上次最优个体,作为本次的最优个体,同时使停滞次数减1,若停滞次数为0,则使种群直径减为原来直径的0.93,,同时使停滞次数置为9;若停滞次数不为0,则保持原来的直径不变;迭代次数减1;
步骤3.1.5:以已经找到的最优个体的位置为中心,用柯西分布产生新的种群;
步骤3.1.6:当迭代次数达到预先设定的最大次数或种群直径的标度小于0.000001,则算法迭代停止,全局极值所对应的三层极限学习机的输入权值和偏置向量即为问题的最优解,输入检测样本进行预报。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811114507.4A CN109242194B (zh) | 2018-09-25 | 2018-09-25 | 一种基于混合模型的浓密机底流浓度预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811114507.4A CN109242194B (zh) | 2018-09-25 | 2018-09-25 | 一种基于混合模型的浓密机底流浓度预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109242194A true CN109242194A (zh) | 2019-01-18 |
CN109242194B CN109242194B (zh) | 2022-01-14 |
Family
ID=65056093
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811114507.4A Expired - Fee Related CN109242194B (zh) | 2018-09-25 | 2018-09-25 | 一种基于混合模型的浓密机底流浓度预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109242194B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109933031A (zh) * | 2019-03-26 | 2019-06-25 | 沈阳铝镁设计研究院有限公司 | 一种根据化验数据自动校正软测量仪表的***及方法 |
CN110095995A (zh) * | 2019-04-16 | 2019-08-06 | 杭州坤天自动化***有限公司 | 基于工业大数据和机理混合建模的仿真方法及装置 |
CN110196358A (zh) * | 2019-06-11 | 2019-09-03 | 东华大学 | 基于极限学习机的混纺型金属纤维织物屏蔽效能预测方法 |
CN110276128A (zh) * | 2019-06-21 | 2019-09-24 | 东北大学 | 一种基于dajypls算法的浓密机底流浓度预测方法 |
CN110334452A (zh) * | 2019-07-09 | 2019-10-15 | 中南大学 | 一种智慧农业大气污染浓度分层次预警方法 |
CN110837886A (zh) * | 2019-10-28 | 2020-02-25 | 北京工业大学 | 一种基于elm-sl0神经网络的出水nh4-n软测量方法 |
CN111709998A (zh) * | 2019-03-18 | 2020-09-25 | 长春工业大学 | 一种tof相机深度数据测量误差校正的elm空间配准模型方法 |
CN112445136A (zh) * | 2020-12-16 | 2021-03-05 | 北京科技大学 | 一种基于连续时间神经网络的浓密机预测控制方法及*** |
CN114110939A (zh) * | 2021-09-13 | 2022-03-01 | 上海交通大学 | 一种便携式集中空调***综合性能及健康评估装置 |
CN117193025A (zh) * | 2023-11-07 | 2023-12-08 | 矿冶科技集团有限公司 | 加药机控制方法、装置、电子设备及存储介质 |
CN117852418A (zh) * | 2024-03-07 | 2024-04-09 | 中国科学院地理科学与资源研究所 | 基于地理集成机器学习的海洋中深层流速数据重构方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105092509A (zh) * | 2015-08-20 | 2015-11-25 | 东北大学 | 一种基于pcr-elm算法的样品成份测定方法 |
WO2018140519A1 (en) * | 2017-01-24 | 2018-08-02 | Flagship Pioneering, Inc. | Compositions and related methods for agriculture |
CN108490154A (zh) * | 2018-03-05 | 2018-09-04 | 沈阳工程学院 | 基于主成分分析与在线极限学习机的混合选别***的精矿品位软测量方法及*** |
-
2018
- 2018-09-25 CN CN201811114507.4A patent/CN109242194B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105092509A (zh) * | 2015-08-20 | 2015-11-25 | 东北大学 | 一种基于pcr-elm算法的样品成份测定方法 |
WO2018140519A1 (en) * | 2017-01-24 | 2018-08-02 | Flagship Pioneering, Inc. | Compositions and related methods for agriculture |
CN108490154A (zh) * | 2018-03-05 | 2018-09-04 | 沈阳工程学院 | 基于主成分分析与在线极限学习机的混合选别***的精矿品位软测量方法及*** |
Non-Patent Citations (2)
Title |
---|
李海波等: "浮选工艺指标KPCA-ELM软测量模型及应用", 《化工学报》 * |
赵立杰等: "基于选择性极限学习机集成的磨机负荷软测量", 《浙江大学学报(工学版)》 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111709998A (zh) * | 2019-03-18 | 2020-09-25 | 长春工业大学 | 一种tof相机深度数据测量误差校正的elm空间配准模型方法 |
CN109933031A (zh) * | 2019-03-26 | 2019-06-25 | 沈阳铝镁设计研究院有限公司 | 一种根据化验数据自动校正软测量仪表的***及方法 |
CN109933031B (zh) * | 2019-03-26 | 2021-08-31 | 沈阳铝镁设计研究院有限公司 | 一种根据化验数据自动校正软测量仪表的***及方法 |
CN110095995A (zh) * | 2019-04-16 | 2019-08-06 | 杭州坤天自动化***有限公司 | 基于工业大数据和机理混合建模的仿真方法及装置 |
CN110196358A (zh) * | 2019-06-11 | 2019-09-03 | 东华大学 | 基于极限学习机的混纺型金属纤维织物屏蔽效能预测方法 |
CN110196358B (zh) * | 2019-06-11 | 2021-08-10 | 东华大学 | 基于极限学习机的混纺型金属纤维织物屏蔽效能预测方法 |
CN110276128A (zh) * | 2019-06-21 | 2019-09-24 | 东北大学 | 一种基于dajypls算法的浓密机底流浓度预测方法 |
CN110334452B (zh) * | 2019-07-09 | 2021-03-16 | 中南大学 | 一种智慧农业大气污染物浓度分层次预警方法 |
CN110334452A (zh) * | 2019-07-09 | 2019-10-15 | 中南大学 | 一种智慧农业大气污染浓度分层次预警方法 |
CN110837886A (zh) * | 2019-10-28 | 2020-02-25 | 北京工业大学 | 一种基于elm-sl0神经网络的出水nh4-n软测量方法 |
CN112445136A (zh) * | 2020-12-16 | 2021-03-05 | 北京科技大学 | 一种基于连续时间神经网络的浓密机预测控制方法及*** |
CN112445136B (zh) * | 2020-12-16 | 2022-02-22 | 北京科技大学 | 一种基于连续时间神经网络的浓密机预测控制方法及*** |
CN114110939A (zh) * | 2021-09-13 | 2022-03-01 | 上海交通大学 | 一种便携式集中空调***综合性能及健康评估装置 |
CN114110939B (zh) * | 2021-09-13 | 2022-10-11 | 上海交通大学 | 一种便携式集中空调***综合性能及健康评估装置 |
CN117193025A (zh) * | 2023-11-07 | 2023-12-08 | 矿冶科技集团有限公司 | 加药机控制方法、装置、电子设备及存储介质 |
CN117193025B (zh) * | 2023-11-07 | 2024-02-02 | 矿冶科技集团有限公司 | 加药机控制方法、装置、电子设备及存储介质 |
CN117852418A (zh) * | 2024-03-07 | 2024-04-09 | 中国科学院地理科学与资源研究所 | 基于地理集成机器学习的海洋中深层流速数据重构方法 |
CN117852418B (zh) * | 2024-03-07 | 2024-05-14 | 中国科学院地理科学与资源研究所 | 基于地理集成机器学习的海洋中深层流速数据重构方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109242194B (zh) | 2022-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109242194A (zh) | 一种基于混合模型的浓密机底流浓度预测方法 | |
Singh et al. | Slake durability study of shaly rock and its predictions | |
CN101382556B (zh) | 一种基于数据驱动的煤泥浮选精煤灰份软测量方法 | |
CN110824915B (zh) | 基于ga-dbn网络的废水处理智能监控方法及*** | |
CN107341576A (zh) | 一种大数据可视化的空气污染溯源和走向预测方法 | |
CN105894125A (zh) | 一种输变电工程造价预测方法 | |
CN103226728B (zh) | 高密度聚乙烯串级聚合反应过程智能检测与收率优化方法 | |
Putz et al. | Hybrid model predictive control for flotation plants | |
CN101863088A (zh) | 一种橡胶混炼过程中门尼粘度的预报方法 | |
CN102004444A (zh) | 稀土萃取过程组分含量多模型预测控制方法 | |
CN103530818A (zh) | 一种基于brb***的供水管网建模方法 | |
Nakhaeie et al. | Concentrate grade prediction in an industrial flotation column using artificial neural network | |
CN108536979A (zh) | 一种基于浓密机机理模型的底流浓度预测方法 | |
Nakhaei et al. | Recovery and grade prediction of pilot plant flotation column concentrate by a hybrid neural genetic algorithm | |
CN105676645A (zh) | 一种基于函数型权rbf-arx模型的双回路水箱液位预测控制方法 | |
CN109214500A (zh) | 一种基于混合智能算法的变压器故障识别方法 | |
Torabi et al. | Prediction of soil permeability coefficient using the GEP approach | |
CN113607601A (zh) | 基于辨识模型与深度学习相结合的矿浆浓度智能检测方法 | |
Yang et al. | Optimizing control of coal flotation by neuro-immune algorithm | |
Xiao et al. | Research on a method for predicting the underflow concentration of a thickener based on the hybrid model | |
CN109210268B (zh) | 一种基于超低功率电磁阀的大数据处理方法 | |
Navia et al. | On dealing with measured disturbances in the modifier adaptation method for real-time optimization | |
Khoshdast et al. | Coupled fuzzy logic and experimental design application for simulation of a coal classifier in an industrial environment | |
Keshavarzi et al. | Modeling of soil cation exchange capacity based on fuzzy table look-up scheme and artificial neural network approach | |
Xie et al. | An accuracy model for on-line prediction of effluent ammonia nitrogen in anammox treatment system based on pca-bp algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220114 |
|
CF01 | Termination of patent right due to non-payment of annual fee |