CN103606006A - 基于自组织t-s模糊神经网络的污泥沉降指数软测量方法 - Google Patents

基于自组织t-s模糊神经网络的污泥沉降指数软测量方法 Download PDF

Info

Publication number
CN103606006A
CN103606006A CN201310558054.5A CN201310558054A CN103606006A CN 103606006 A CN103606006 A CN 103606006A CN 201310558054 A CN201310558054 A CN 201310558054A CN 103606006 A CN103606006 A CN 103606006A
Authority
CN
China
Prior art keywords
layer
partiald
node
input
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310558054.5A
Other languages
English (en)
Other versions
CN103606006B (zh
Inventor
乔俊飞
许少鹏
韩红桂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201310558054.5A priority Critical patent/CN103606006B/zh
Publication of CN103606006A publication Critical patent/CN103606006A/zh
Application granted granted Critical
Publication of CN103606006B publication Critical patent/CN103606006B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Feedback Control In General (AREA)

Abstract

基于自组织T-S模糊神经网络的污泥沉降指数软测量方法既属于控制领域,又属于污水处理领域。污泥沉降指数SVI的准确预测是污水处理过程正常运行的保证,本发明首先以规则层的输出量,即规则层的空间激活强度作为判定模糊规则是否增加的依据;其次,在生成新的模糊规则的基础上,以隶属函数层输出量作为判定模糊集是否增加的依据;最后,利用梯度下降算法调整模型的权值参数和高斯函数的中心值和宽度,获得一种自组织T-S模糊递归神经网络,并基于SOTSFEN建立了SVI的在线软测量模型,实现了SVI的实时检测,为预防污泥膨胀提供了一种有效方法。

Description

基于自组织T-S模糊神经网络的污泥沉降指数软测量方法
技术领域
本发明利用自组织T-S模糊递归网络建立污泥容积指数SVI的软测量模型,实现对污泥沉降指标SVI的实时预测。污泥沉降指数SVI的准确预测是污水处理过程正常运行的保证,本发明既属于控制领域,又属于污水处理领域。
背景技术
污水处理是我国政府水资源综合利用的重要举措,也是我国可持续发展战略的重要组成部分。目前,全国各城市、县基本上建立了城镇污水处理厂,污水处理能力与美国等国家发达国家相当。但污水处理运行状况不容乐观,其中污泥膨胀问题严重制约着污水处理的发展。污泥膨胀一旦发生,丝状菌大量繁殖,污泥沉降性能变差,固液分离困难,导致出水水质超标,污泥溢出流失,甚至可能引发泡沫的产生,造成污水处理***崩溃。因此,本发明基于自组织T-S模糊递归神经网络SOTSRFNN的SVI的软测量研究具有广泛的应用前景。
污泥容积指数SVI是污泥沉降性能的重要评价指标之一。目前,针对SVI的检测方法主要有两类:①人工检测法,利用量筒定时采样检测,计算SVI值,但该方法耗时且误差大,难以满足污水处理日益复杂的现实要求;②自动检测法,但该方法存在设备造价高,寿命短,稳定性差等缺点,而且受现场环境和人工操作的影响,检测精度得不到保障。软测量技术利用***变化及参量之间的关系,建立输入输出之间的模型,通过易测水质变量估计SVI值。具有投资少、时间短、反应迅速,易于保养和维护等优点。因此,研究SOTSRFNN的软测量方法对解决SVI实时测量问题具有重要的现实意义。
本发明提出了一种SVI的在线软测量方法:首先,以规则层的空间激活强度,即规则层的输出作为判定模糊规则是否增加的依据;其次,在生成新的模糊规则的基础上,以隶属函数层输出量作为判定模糊集是否增加的依据;最后,利用梯度下降算法调整模型的权值参数和高斯函数的中心值和宽度,获得一种自组织T-S模糊递归神经网络,并基于SOTSRFNN建立了SVI的在线软测量模型,实现了SVI的实时检测,为预防污泥膨胀提供了一种有效方法。
发明内容
本发明针对SVI在线测量困难的问题,分析污泥膨胀的形成原因,总结与SVI密切相关的易测水质参量,利用主元分析法PCA确定了模型的输入量;并提出了一种改进的模糊递归神经网络,基于结构自组织算法,设计了SOTSRFNN,建立了SVI的在线软测量模型;最后,利用建立的模型进行SVI的软测量,实现SVI的在线测量;
本发明采用了如下的技术方案及实现步骤:
1一种SVI软测量方法,其特征在于,包括以下步骤:
(1)数据预处理及辅助变量精选;
样本集数据用零均值标准化方法进行归一化处理,通过主元分析PCA进行辅助变量的精选,最终确定混合液悬浮物浓度MLSS、酸碱度pH、曝气池水温T、曝气池氨NH4作为模型的输入变量。
(2)建立SVI的软测量的递归模糊神经网络模型,输入量为MLSS、pH、T、NH4,模型的输出量为SVI。递归模糊神经网络拓扑结构:输入层即第一层、隶属函数层即第二层、规则层即第三层、参数层即第四层、输出层即第五层、反馈层。
神经网络结构:输入层有4个输入节点,每个输入层节点连接m个隶属函数层节点,规则层有m个节点,m表示模糊规则数,在网络结构训练过程中生成的模糊规则数确定m的值,参数层节点个数、反馈层节点数与规则层的节点数相等,输出层有1个节点。x=[x1,x2,x3,x4]表示神经网络的输入,yd表示神经网络的期望输出。设第k组样本数据为x(k)=[x1(k),x2(k),x3(k),x4(k)]。第k组样本数据输入时:
输入层第i个节点的输出表示为:
o i ( 1 ) ( k ) = x i ( k ) , i = 1,2,3,4 - - - ( 1 )
其中,表示输入层的第i个节点在输入第k组样本时的输出;
隶属函数层的节点总数为:4m,每个输入层的节点均连接m个隶属函数层的节点,隶属函数层的输出为:
o ij ( 2 ) ( k ) = exp ( - ( o i ( 1 ) ( k ) - c ij ( k ) ) 2 ( σ ij ( k ) ) 2 ) , j = 1,2 . . . m - - - ( 2 )
其中,隶属函数采用高斯函数,cij和σij分别代表输入层第i个节点对应的隶属函数层第j个节点的高斯函数的中心值和宽度,每一个高斯函数均为一个模糊集,在结构调整阶段对高斯函数赋初值。
Figure BDA0000412124170000023
表示输入层的第i个节点对应的隶属函数层的第j个节点在输入第k组样本时的输出;
规则层的节点数为m,输入层的每个节点对应的隶属函数层的第j个节点均连接到规则层的第j个节点。在规则层引入反馈连接,在反馈层加入内部变量。反馈层节点包含两种类型的节点:承接节点,对规则层的输出量和权值进行加权求和运算,计算内部变量;反馈节点,采用sigmoid函数作为隶属函数,计算反馈层的输出量。规则层每个节点均连接所有的反馈层承接节点。反馈层的承接节点与反馈节点一一对应,节点数相等,反馈节点与规则层节点一一对应,节点数相等,并随着模糊规则数的变化而变化,始终等于模糊规则数。规则层第j个节点的输出为:
h q = Σ j = 1 m o j ( 3 ) ( k - 1 ) ω jq , j = 1,2 , . . . , m ; q = 1,2 , . . . , m - - - ( 3 )
f q = 1 1 + exp ( - h q ) - - - ( 4 )
o j ( 3 ) ( k ) = f q Π i = 1 4 o ij ( 2 ) ( k )
(5)
其中,ωjq是规则层的第j个节点与反馈层的第q个承接节点的连接权值,初始赋值为0到1间的随机数。表示规则层第j个节点在第k-1组样本的输出量,
Figure BDA0000412124170000035
hq表示反馈层第q个承接节点的内部变量。fq表示反馈层第q个反馈节点的输出量。规则层的输出
Figure BDA0000412124170000036
即模糊规则的激活强度,其中表示空间激活强度,fq表示时间激活强度。
规则层的节点与参数层的节点是一一对应的,参数层有m个节点,该层的输出表示为:
W j ( k ) = Σ i = 1 4 a ij x i ( k ) - - - ( 6 )
o j ( 4 ) ( k ) = o j ( 3 ) ( k ) W j ( k )
(7)
其中,aij表示线性参数,初值赋值为0至1的随机数,aj=[a1j,a2j,a3j,a4j]。Wj(k)表示参数层第j个节点在输入第k组样本时的线性参数加权求和的值,
Figure BDA00004121241700000310
表示参数层的第j个节点在第k组样本的输出。
网络模型为多输入单输出,输出层有1个节点,所有的参数层节点连接到输出节点。网络输出表示为:
y ( k ) = Σ j = 1 m o j ( 4 ) ( k ) Σ j = 1 m o j ( 3 ) ( k ) - - - ( 8 )
其中,y(k)表示第k样本的网络输出。
(3)模糊神经网络首先通过结构自组织调整确定网络结构。网络的结构自组织调整:x(k)=[x1(k),x2(k),x3(k),x4(k)]表示模型当前输入第k组样本,从第一组样本数据开始输入,到全部数据输入完成,每输入一组样本数据均采用以下步骤判断是否增加新的模糊规则,在增加模糊规则的基础上判断是否增加新的模糊集。
①网络模型初始结构中模糊规则数为0,第一组数据输入,模糊规则数变为1,并增加新的模糊集。模糊集的初始化,即高斯函数中心值和宽度值的初始化表示为:
c(1)=x(1)=[x1(1),x2(1),x3(1),x4(1),]                               (9)
σ(1)=[σ11213141]=[0.5,0.5,0.5,0.5]                         (10)其中c(1)表示生成的第一组模糊集的中心值,即隶属函数的中心值。σ(1)表示生成的第一个模糊集的宽度值,即隶属函数的宽度值。
②输入数据依次输入,每输入一组数据,均判断是否增加新的模糊规则,判断公式表示为:
Figure BDA0000412124170000041
Figure BDA0000412124170000042
其中
Figure BDA0000412124170000044
表示规则层第j个节点的空间激活强度。J表示当
Figure BDA0000412124170000045
取最大值时j的值。N表示当前模糊规则数。
Figure BDA0000412124170000046
为预先设定的阈值,取值为0.24。
如果满足式(13),则增加一条新的模糊规则,N'=N+1,执行③。
如果不满足式(13),重复②,输入下一组数据;
③在增加一条新的模糊规则的基础上,判断是否增加新的模糊集,判断公式表示为:
I = arg max 1 < = j < = h ( o ij ( 2 ) ( k ) ) - - - ( 14 )
o iI ( 2 ) ( k ) > I th
(15)
其中I表示当
Figure BDA0000412124170000049
取最大值时j的值,h表示当前模型的模糊集数,h=N。Ith为预先设定的阈值,取值为0.92。
如果满足式(15),则增加一条新的模糊集,h'=h+1,h'=N'。对新增的模糊集赋初值即对隶属函数层的新增的高斯函数中心值和宽度值赋初值。初始化表示为:
cN+1=x(k)                                 (16)
c + = arg min 1 < = p < = N | | x ( k ) - c p | | - - - ( 17 )
&sigma; i , N + 1 = r | x i ( k ) - c i + | , i = 1,2,3,4 - - - ( 18 )
其中,N表示当前模型已有的模糊规则数,p=1,2,...,N,cN+1表示新增隶属函数的中心值的初始值,r表示重叠系数,取值为0.6。cp表示为当前模型中第p个高斯函数的中心值。c+表示当x(k)与cp空间距离最小时cp的值。σi,N+1表示新增隶属函数的宽度初始值,输入量x(k)与c+的差值的绝对值与重叠系数的乘积。增加新的模糊集,即在每个输入层节点对应的隶属函数层增加一个新的节点,规则层、反馈层、参数层相应的各增加对应节点。
如果不满足(15),则不增加新的模糊集h'=h,并且N''=N'-1,即将新增加的模糊规则删除。
④继续调整神经网络的结构,输入数据依次输入,重复②③,所有输入数据输入完成后,神经网络结构调整训练完成。
(4)确定了网络模型的结构,然后对网络参数就行调整,用校正后的数据来训练神经网络,其中共150组样本数据,训练样本数据90组,测试样本数据60组,训练步数为1000步,每一步的训练过程中,90组训练样本数据全部输入,每组训练样本数据输入均采用梯度下降算法对网络参数进行调整,其中调整的参数包括:参数层的线性参数a,规则层到反馈层的连接权值ω,隶属函数层高斯函数的中心值c和宽度值σ。
定义训练的目标函数即***误差定义为:
E ( k ) = 1 2 ( y ( k ) - y d ( k ) ) 2 - - - ( 19 )
其中y(k)为网络的实际输出量,yd(k)为网络的期望输出量,E(k)表示***误差。
梯度下降算法:采用目标函数对每一层的输出量求偏导数,计算每层输出的误差传播项。通过复合函数求偏导数,计算目标函数对参数值的偏导数,偏导数即为各参数的调整量。
参数层的误差传播项δ(4),即目标函数对参数层输出的偏导数:
&delta; j ( 4 ) ( k ) = - &PartialD; E ( k ) &PartialD; y ( k ) &PartialD; y ( k ) &PartialD; o j ( 4 ) ( k ) - - - ( 20 )
对线性参数aj的调整量为:
&PartialD; E ( k ) &PartialD; a j ( k ) = &PartialD; E ( k ) &PartialD; o j ( 4 ) ( k ) &PartialD; o j ( 4 ) ( k ) &PartialD; a j ( k ) = - &delta; j ( 4 ) ( k ) o j ( 3 ) ( k ) &Sigma; j = 1 m o j ( 3 ) ( k ) - - - ( 21 )
a j ( k + 1 ) = a j ( k ) - &eta; &PartialD; E ( k ) &PartialD; a j ( k ) - - - ( 22 )
规则层误差传播项
Figure BDA0000412124170000063
如下:
&delta; j ( 3 ) ( k ) = - &PartialD; E ( k ) &PartialD; o j ( 3 ) ( k ) = &delta; ( 4 ) ( k ) &PartialD; o ( 4 ) ( k ) &PartialD; o j ( 3 ) ( k ) - - - ( 23 )
递归层到规则层连接权值ωjq的调整规则如下:
&PartialD; E ( k ) &PartialD; &omega; jq ( k ) = &PartialD; E ( k ) &PartialD; o j ( 3 ) ( k ) &PartialD; o j ( 3 ) ( k ) &PartialD; &omega; jq ( k ) = - &delta; j ( 3 ) ( k ) &PartialD; o j ( 3 ) ( k ) &PartialD; &omega; jq ( k ) - - - ( 24 )
&omega; jq ( k + 1 ) = &omega; jq ( k ) - &eta; &PartialD; E &PartialD; &omega; jq ( k ) - - - ( 25 )
隶属函数层的误差传播项
Figure BDA0000412124170000067
如下:
&delta; ij ( 2 ) ( k ) = - &PartialD; E ( k ) &PartialD; o ij ( 2 ) ( k ) = &delta; j ( 3 ) ( k ) &PartialD; o j ( 3 ) ( k ) &PartialD; o ij ( 2 ) ( k ) - - - ( 26 )
隶属函数层高斯函数的中心值cij的调整规则如下:
&PartialD; E ( k ) &PartialD; c ij ( k ) = &PartialD; E ( k ) &PartialD; o j ( 2 ) ( k ) &PartialD; o j ( 2 ) ( k ) &PartialD; c ij ( k ) ( k ) = - &delta; j ( 2 ) ( k ) &PartialD; o j ( 2 ) ( k ) &PartialD; c ij ( k ) - - - ( 27 )
c ij ( k + 1 ) = c ij ( k ) - &eta; &PartialD; E ( k ) &PartialD; c ij ( k ) - - - ( 28 )
隶属函数层高斯函数的宽度σij的调整规则如下:
&PartialD; E ( k ) &PartialD; &sigma; ij ( k ) = &PartialD; E ( k ) &PartialD; o j ( 3 ) ( k ) &PartialD; o j ( 3 ) ( k ) &PartialD; &sigma; ij ( k ) = - &delta; j ( 3 ) ( k ) &PartialD; o j ( 3 ) ( k ) &PartialD; &sigma; ij ( k ) - - - ( 29 )
&sigma; ij ( k + 1 ) = &sigma; ij ( k ) - &eta; &PartialD; E ( k ) &PartialD; &sigma; ij ( k ) - - - ( 30 )
其中η为参数的学习率,取值为0.15。
(5)对测试样本进行预测,将测试样本数据作为训练好的神经网络的输入,神经网络的输出即为SVI的预测结果。
本发明的创造性主要体现在:
(1).本发明针对当前污泥容积指数SVI难以在线检测的问题,提出了基于一种自组织T-S模糊递归网络的软测量方法,实现了辅助变量和SVI之间的映射关系及SVI的在线检测;该模型具有精度高、稳定性好、实时性强等特点,为预防污泥膨胀提供了一种有效的检测方法,促进了污水处理自动化水平的提高;
(2).本发明针对污泥膨胀的特性,对模糊递归神经网络的反馈层加以改进。基于规则产生准则,自动的生成模糊规则,通过有效的模糊集生成算法,动态调整网络结构。解决了网络结构难以确定的问题,在保证模型精度的同时,有效的简化了网络结构。采用梯度下降参数学习算法,提高了网络的学习能力。
附图说明
图1.自组织T-S模糊递归神经网络的拓扑结构图;
图2.本发明网络模糊规则生成图;
图3.本发明网络训练拟合结果图;
图4.本发明软测量结果图;
具体实施方式
实验数据来源于北京某小型污水处理厂实际日报表。图1给出了SVI的神经网络预测模型,其输入分别为混合液悬浮物浓度MLSS、酸碱度pH、曝气池水温T、曝气池氨NH4,模型输出为污泥容积指数SVI。其中MLSS是指单位体积生化池混合液所含干污泥的重量;pH反应进水水质的酸碱程度;T是曝气池当前的污水温度;NH4代表曝气池进水的氨含量,SVI代表曝气池混合液经30分钟沉淀后,相应的1克干污泥所占的容积。输入量中除pH和T外,其他单位均为毫克/升。输出量单位毫升/克。共150组数据,其中90组数据用于训练网络,另60组作为测试样本,采用结构自组织算法对神经网络进行动态变化。
利用自组织T-S模糊递归神经网络建立SVI的软测量模型,对SVI进行实时检测;具体步骤如下:
(1)初始化神经网络,输入节点为4,输出节点为1,模糊规则数为0,对神经网络的权值赋初值,本实验的权值初值均为为0到1的随机数。
(2)对样本数据进行校正,然后做归一化处理。
(3)对神经网络的结构进行自组织调整,式(13)
Figure BDA0000412124170000071
式(15)Ith=0.92,输入已校正的输入数据:
①输入第一组数据x(1)=[4.72 23.1 43.6 250.4],归一化处理x(1)=[0.1092 0.8867 0.7572 0.3915]。模糊规则数变为1,根据式(9)(10)对第一组模糊集高斯函数中心值和宽度值初始化:中心值c1(1)=[0.1092 0.8867 0.7572 0.3915],宽度值σ1(1)=[0.5 0.5 0.5 0.5];
②输入第二组数据x(2)=[5.63 23.4 37.2 250.1],归一化处理x(2)=[0.3707 0.9434 0.5527 0.33907]根据式(1)(2)计算隶属函数层的输出
Figure BDA0000412124170000072
式(11)计算空间激活强度
Figure BDA0000412124170000073
的值,
Figure BDA0000412124170000074
因为只有一个模糊规则,
Figure BDA0000412124170000075
为最大值,
Figure BDA0000412124170000076
不满足式(13),不增加新的模糊规则;
③依次输入数据,直到输入第23组数据,归一化处理x(23)=[0.1954 0.1886 0.5495 0.3968]。据式(1)(2)计算隶属函数层的输出
Figure BDA0000412124170000081
式(11)计算空间激活强度的值,因为只有一个模糊规则,
Figure BDA0000412124170000083
为最大值,满足式(13):
Figure BDA0000412124170000084
则增加一个新的模糊规则;
计算隶属函数层节点的输出 o 1 ( 2 ) ( 23 ) = 0.9881 0.4555 0.5636 0.8579 , o 11 ( 2 ) ( 23 ) = 0.9881 为最大值,满足式(15)
Figure BDA0000412124170000086
则对新增加的模糊规则生成对应的模糊集,根据式(16)~(18)对新增的模糊集的参数初始化:中心值初值值c2=x(23),r取值为0.6,宽度初始值σi2=r*|xi(23)-ci1|,i=1,2,3,4,σi2=[0.0517 0.0.4189 0.1246 0.0032]。
④当输入第k组数据时,根据(1)(2)计算隶属函数层的节点输出
Figure BDA0000412124170000087
计算规则层节点的空间激活强度
Figure BDA0000412124170000088
的值,根据式(12),找出的最大值;判断空间激活强度的值是否小于预定阈值如果满足式(13),则增加一个新的模糊规则,执行第⑤步;如果不满足式(13),则输入第k+1组数据,执行第⑥步。
⑤根据式(15)判断隶属函数节点输出
Figure BDA00004121241700000811
的最大值是否大于预定阈值Ith,满足式(15),则针对新增加的模糊规则生成对应的模糊集,根据式(16)~(18)对模糊集的参数初始化;如果不满足式(15),则不生成新的模糊集,并且删除新增加的模糊规则;
⑥判断输入数据是否全部输入完成,完成则进入第(4)步,否则转到第④步,全部数据训练完成共生成4条模糊规则。高斯函数的初值为:
高斯函数的中心值初值为 c ( 1 ) = 0.1092 0.8867 0.7572 0.3915 0.1954 0.1886 0.5495 0.3968 0.7052 0.5495 0.7124 0.6166 0.2328 0.3968 0.3723 0.5638
高斯函数的宽度值初值为 &sigma; ( 1 ) = 0.5 0.5 0.5 0.5 0.0517 0.4189 0.1246 0.0032 0.4394 0.1456 0.0127 0.2776 0.3704 0.2701 0.0046 0.4414
规则层到反馈层的权值初值为 &omega; ( 1 ) = 0.6229 0.7149 0.6219 0.8923 0.8571 0.0309 0.3152 0.8153 0.3965 0.9725 0.8241 0.6114 0.7359 0.4310 0.8726 0.2938
线性参数的初值为 a ( 1 ) = 0.5 0.5 0.5 0.5 0.5 0.5 0.5 0.5 0.5 0.5 0.5 0.5 0.5 0 . 5 0.5 0.5 ,
W ( 1 ) = &Sigma; i = 1 4 a ij x i ( 1 ) = 1.0723 1.0723 1.0723 1.0723
(4)用校正后的训练样本数据训练神经网络,训练步数s=1000,如果训练步数选的过小,则采集的信息量不够;如果训练步数选的过大,会出现过拟合现象。
(5)对神经网络的参数调整,训练步数s=1,输入数据从第一组数据输入,计算每一层的网络输入输出量,根据式(19)计算目标函数值,采用梯度下降法对4个参数调整:参数层的线性参数a,规则层到反馈层的连接权值ω,隶属函数层高斯函数的中心值c和宽度值σ。
①输入第一组数据x(1)=[0.1092 0.8867 0.7572 0.3915]
输入层的输出:o(1)(1)=x(1)=[0.1092 0.8867 0.7572 0.3915]
隶属函数层的输出: o ( 2 ) ( 1 ) = exp ( - ( o ( 1 ) ( 1 ) - c ( 1 ) ) 2 ( &sigma; ( 1 ) ) 2 ) = 1 1 1 1 0.0620 0.0622 0.0621 0.0646 0.1588 0.0047 0 0.5181 0.8946 0.0373 0 0.8412
反馈层和规则层输出:
Figure BDA0000412124170000092
o(3)(0)=[0 0 0 0],所以h=[0 0 0 0]
f = 1 1 + exp ( - h ) = 0.5 0.5 0.5 0.5
所以o(3)(1)=[0.0044 0 0 0.0281]
参数层的输出:o(4)(1)=o(3)(1)W(1)=[0.0047 0 0 0.0301]
模型的输出: y ( 1 ) = &Sigma; j = 1 4 o j ( 4 ) ( 1 ) &Sigma; j = 1 4 o j ( 3 ) ( 1 ) = 1.0723
②yd(1)=0.5960,计算***误差 E ( 1 ) = 1 2 ( y ( 1 ) - y d ( 1 ) ) 2 = 0.1134
③采用梯度下降法对参数调整:根据式(20)~(22),计算参数层线性参数a调整量,获得调整后的参数值;根据式(23)~(25),计算规则层到反馈层的连接权值ω调整量,获得调整后的参数值;根据式(26)~(30),计算高斯函数的中心值c和宽度值σ调整量,获得调整后的参数值。
④输入下一组数据,计算模型每一层的输出量,采用梯度下降算法调整各参数值,直到所有训练数据全部输入完成。训练步数加1。
(6)继续训练神经网络,重复第(5)步,直到训练步数达到1000步,完成网络训练。
(7)对测试样本进行预测:将测试样本数据作为训练好的神经网络的输入,神经网络的输出为污泥容积指数SVI。

Claims (1)

1.一种SVI软测量方法,其特征在于,包括以下步骤:
(1)数据预处理及辅助变量精选;
样本集数据用零均值标准化方法进行归一化处理,通过主元分析PCA进行辅助变量的精选,最终确定混合液悬浮物浓度MLSS、酸碱度pH、曝气池水温T、曝气池氨NH4作为模型的输入变量;
(2)建立SVI的软测量的递归模糊神经网络模型,输入量为MLSS、pH、T、NH4,模型的输出量为SVI;递归模糊神经网络拓扑结构:输入层即第一层、隶属函数层即第二层、规则层即第三层、参数层即第四层、输出层即第五层、反馈层;
神经网络结构:输入层有4个输入节点,每个输入层节点连接m个隶属函数层节点,规则层有m个节点,m表示模糊规则数,在网络结构训练过程中生成的模糊规则数确定m的值,参数层节点个数、反馈层节点数与规则层的节点数相等,输出层有1个节点;x=[x1,x2,x3,x4]表示神经网络的输入,yd表示神经网络的期望输出;设第k组样本数据为x(k)=[x1(k),x2(k),x3(k),x4(k)];第k组样本数据输入时:
输入层第i个节点的输出表示为:
o i ( 1 ) ( k ) = x i ( k ) , i = 1,2,3,4
(1)
其中,
Figure FDA0000412124160000014
表示输入层的第i个节点在输入第k组样本时的输出;
隶属函数层的节点总数为:4m,每个输入层的节点均连接m个隶属函数层的节点,隶属函数层的输出为:
o ij ( 2 ) ( k ) = exp ( - ( o i ( 1 ) ( k ) - c ij ( k ) ) 2 ( &sigma; ij ( k ) ) 2 ) , j = 1,2 . . . m
(2)
其中,隶属函数采用高斯函数,cij和σij分别代表输入层第i个节点对应的隶属函数层第j个节点的高斯函数的中心值和宽度,每一个高斯函数均为一个模糊集,在结构调整阶段对高斯函数赋初值;
Figure FDA0000412124160000013
表示输入层的第i个节点对应的隶属函数层的第j个节点在输入第k组样本时的输出;
规则层的节点数为m,输入层的每个节点对应的隶属函数层的第j个节点均连接到规则层的第j个节点;在规则层引入反馈连接,在反馈层加入内部变量;反馈层节点包含两种类型的节点:承接节点,对规则层的输出量和权值进行加权求和运算,计算内部变量;反馈节点,采用sigmoid函数作为隶属函数,计算反馈层的输出量;规则层每个节点均连接所有的反馈层承接节点;反馈层的承接节点与反馈节点一一对应,节点数相等,反馈节点与规则层节点一一对应,节点数相等,并随着模糊规则数的变化而变化,始终等于模糊规则数;规则层第j个节点的输出为:
h q = &Sigma; j = 1 m o j ( 3 ) ( k - 1 ) &omega; jq , j = 1,2 , . . . , m ; q = 1,2 , . . . , m
(3)
f q = 1 1 + exp ( - h q )
(4)
o j ( 3 ) ( k ) = f q &Pi; i = 1 4 o ij ( 2 ) ( k )
(5)
其中,ωjq是规则层的第j个节点与反馈层的第q个承接节点的连接权值,初始赋值为0到1间的随机数;
Figure FDA0000412124160000027
表示规则层第j个节点在第k-1组样本的输出量,
Figure FDA0000412124160000028
hq表示反馈层第q个承接节点的内部变量;fq表示反馈层第q个反馈节点的输出量;规则层的输出
Figure FDA0000412124160000029
即模糊规则的激活强度,其中
Figure FDA00004121241600000210
表示空间激活强度,fq表示时间激活强度;
规则层的节点与参数层的节点是一一对应的,参数层有m个节点,该层的输出表示为:
W j ( k ) = &Sigma; i = 1 4 a ij x i ( k )
(6)
o j ( 4 ) ( k ) = o j ( 3 ) ( k ) W j ( k )
(7)
其中,aij表示线性参数,初值赋值为0至1的随机数,aj=[a1j,a2j,a3j,a4j];Wj(k)表示参数层第j个节点在输入第k组样本时的线性参数加权求和的值,
Figure FDA0000412124160000026
表示参数层的第j个节点在第k组样本的输出;
网络模型为多输入单输出,输出层有1个节点,所有的参数层节点连接到输出节点;网络输出表示为:
y ( k ) = &Sigma; j = 1 m o j ( 4 ) ( k ) &Sigma; j = 1 m o j ( 3 ) ( k )
(8)
其中,y(k)表示第k样本的网络输出;
(3)模糊神经网络首先通过结构自组织调整确定网络结构;网络的结构自组织调整:x(k)=[x1(k),x2(k),x3(k),x4(k)]表示模型当前输入第k组样本,从第一组样本数据开始输入,到全部数据输入完成,每输入一组样本数据均采用以下步骤判断是否增加新的模糊规则,在增加模糊规则的基础上判断是否增加新的模糊集;
①网络模型初始结构中模糊规则数为0,第一组数据输入,模糊规则数变为1,并增加新的模糊集;模糊集的初始化,即高斯函数中心值和宽度值的初始化表示为:
c(1)=x(1)=[x1(1),x2(1),x3(1),x4(1),]                            (9)
σ(1)=[σ11213141]=[0.5,0.5,0.5,0.5]                      (10)
其中c(1)表示生成的第一组模糊集的中心值,即隶属函数的中心值;σ(1)表示生成的第一个模糊集的宽度值,即隶属函数的宽度值;
②输入数据依次输入,每输入一组数据,均判断是否增加新的模糊规则,判断公式表示为:
(11)
(12)
Figure FDA0000412124160000034
(13)
其中
Figure FDA0000412124160000035
表示规则层第j个节点的空间激活强度;J表示当取最大值时j的值;N表示当前模糊规则数;
Figure FDA0000412124160000037
为预先设定的阈值,取值为0.24;
如果满足式(13),则增加一条新的模糊规则,N'=N+1,执行③;
如果不满足式(13),重复②,输入下一组数据;
③在增加一条新的模糊规则的基础上,判断是否增加新的模糊集,判断公式表示为:
I = arg max 1 < = j < = h ( o ij ( 2 ) ( k ) ) - - - ( 14 )
o iI ( 2 ) ( k ) > I th
(15)
其中I表示当
Figure FDA0000412124160000042
取最大值时j的值,h表示当前模型的模糊集数,h=N;Ith为预先设定的阈值,取值为0.92;
如果满足式(15),则增加一条新的模糊集,h'=h+1,h'=N';对新增的模糊集赋初值即对隶属函数层的新增的高斯函数中心值和宽度值赋初值;初始化表示为:
cN+1=x(k)
(16)
c + arg min 1 < = p < = N | | x ( k ) - c p | | - - - ( 17 )
&sigma; i , N + 1 = r | x i ( k ) - c i + | , i = 1,2,3,4 - - - ( 18 )
其中,N表示当前模型已有的模糊规则数,p=1,2,...,N,cN+1表示新增隶属函数的中心值的初始值,r表示重叠系数,取值为0.6;cp表示为当前模型中第p个高斯函数的中心值;c+表示当x(k)与cp空间距离最小时cp的值;σi,N+1表示新增隶属函数的宽度初始值,输入量x(k)与c+的差值的绝对值与重叠系数的乘积;增加新的模糊集,即在每个输入层节点对应的隶属函数层增加一个新的节点,规则层、反馈层、参数层相应的各增加对应节点;
如果不满足(15),则不增加新的模糊集h'=h,并且N''=N'-1,即将新增加的模糊规则删除;
④继续调整神经网络的结构,输入数据依次输入,重复②③,所有输入数据输入完成后,神经网络结构调整训练完成;
(4)确定了网络模型的结构,然后对网络参数就行调整,用校正后的数据来训练神经网络,其中共150组样本数据,训练样本数据90组,测试样本数据60组,训练步数为1000步,每一步的训练过程中,90组训练样本数据全部输入,每组训练样本数据输入均采用梯度下降算法对网络参数进行调整,其中调整的参数包括:参数层的线性参数a,规则层到反馈层的连接权值ω,隶属函数层高斯函数的中心值c和宽度值σ;
定义训练的目标函数即***误差定义为:
E ( k ) = 1 2 ( y ( k ) - y d ( k ) ) 2
(19)
其中y(k)为网络的实际输出量,yd(k)为网络的期望输出量,E(k)表示***误差;
梯度下降算法:采用目标函数对每一层的输出量求偏导数,计算每层输出的误差传播项;通过复合函数求偏导数,计算目标函数对参数值的偏导数,偏导数即为各参数的调整量;
参数层的误差传播项δ(4),即目标函数对参数层输出的偏导数:
&delta; j ( 4 ) ( k ) = - &PartialD; E ( k ) &PartialD; y ( k ) &PartialD; y ( k ) &PartialD; o j ( 4 ) ( k ) - - - ( 20 )
对线性参数aj的调整量为:
&PartialD; E ( k ) &PartialD; a j ( k ) = &PartialD; E ( k ) &PartialD; o j ( 4 ) ( k ) &PartialD; o j ( 4 ) ( k ) &PartialD; a j ( k ) = - &delta; j ( 4 ) ( k ) o j ( 3 ) ( k ) &Sigma; j = 1 m o j ( 3 ) ( k )
( 21 ) a j ( k + 1 ) = a j ( k ) - &eta; &PartialD; E ( k ) &PartialD; a j ( k ) - - - ( 22 )
规则层误差传播项
Figure FDA0000412124160000055
如下:
&delta; j ( 3 ) ( k ) = - &PartialD; E ( k ) &PartialD; o j ( 3 ) ( k ) = &delta; ( 4 ) ( k ) &PartialD; o ( 4 ) ( k ) &PartialD; o j ( 3 ) ( k ) - - - ( 23 )
递归层到规则层连接权值ωjq的调整规则如下:
&PartialD; E ( k ) &PartialD; &omega; jq ( k ) = &PartialD; E ( k ) &PartialD; o j ( 3 ) ( k ) &PartialD; o j ( 3 ) ( k ) &PartialD; &omega; jq ( k ) = - &delta; j ( 3 ) ( k ) &PartialD; o j ( 3 ) ( k ) &PartialD; &omega; jq ( k ) - - - ( 24 )
&omega; jq ( k + 1 ) = &omega; jq ( k ) - &eta; &PartialD; E &PartialD; &omega; jq ( k ) - - - ( 25 )
隶属函数层的误差传播项如下:
&delta; ij ( 2 ) ( k ) = - &PartialD; E ( k ) &PartialD; o ij ( 2 ) ( k ) = &delta; j ( 3 ) ( k ) &PartialD; o j ( 3 ) ( k ) &PartialD; o ij ( 2 ) ( k ) - - - ( 26 )
隶属函数层高斯函数的中心值cij的调整规则如下:
&PartialD; E ( k ) &PartialD; c ij ( k ) = &PartialD; E ( k ) &PartialD; o j ( 2 ) ( k ) &PartialD; o j ( 2 ) ( k ) &PartialD; c ij ( k ) ( k ) = - &delta; j ( 2 ) ( k ) &PartialD; o j ( 2 ) ( k ) &PartialD; c ij ( k ) - - - ( 27 )
c ij ( k + 1 ) = c ij ( k ) - &eta; &PartialD; E ( k ) &PartialD; c ij ( k )
(28)
隶属函数层高斯函数的宽度σij的调整规则如下:
&PartialD; E ( k ) &PartialD; &sigma; ij ( k ) = &PartialD; E ( k ) &PartialD; o j ( 3 ) ( k ) &PartialD; o j ( 3 ) ( k ) &PartialD; &sigma; ij ( k ) = - &delta; j ( 3 ) ( k ) &PartialD; o j ( 3 ) ( k ) &PartialD; &sigma; ij ( k ) - - - ( 29 )
&sigma; ij ( k + 1 ) = &sigma; ij ( k ) - &eta; &PartialD; E ( k ) &PartialD; &sigma; ij ( k )
(30)
其中η为参数的学习率,取值为0.15;
(5)对测试样本进行预测,将测试样本数据作为训练好的神经网络的输入,神经网络的输出即为SVI的预测结果。
CN201310558054.5A 2013-11-12 2013-11-12 基于自组织t‑s模糊神经网络的污泥沉降指数软测量方法 Active CN103606006B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310558054.5A CN103606006B (zh) 2013-11-12 2013-11-12 基于自组织t‑s模糊神经网络的污泥沉降指数软测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310558054.5A CN103606006B (zh) 2013-11-12 2013-11-12 基于自组织t‑s模糊神经网络的污泥沉降指数软测量方法

Publications (2)

Publication Number Publication Date
CN103606006A true CN103606006A (zh) 2014-02-26
CN103606006B CN103606006B (zh) 2017-05-17

Family

ID=50124226

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310558054.5A Active CN103606006B (zh) 2013-11-12 2013-11-12 基于自组织t‑s模糊神经网络的污泥沉降指数软测量方法

Country Status (1)

Country Link
CN (1) CN103606006B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103886369A (zh) * 2014-03-27 2014-06-25 北京工业大学 一种基于模糊神经网络的出水总磷tp预测方法
CN104634265A (zh) * 2015-02-15 2015-05-20 中南大学 一种基于多元图像特征融合的矿物浮选泡沫层厚度软测量方法
CN105574326A (zh) * 2015-12-12 2016-05-11 北京工业大学 一种基于自组织模糊神经网络的出水氨氮浓度软测量方法
CN105676649A (zh) * 2016-04-09 2016-06-15 北京工业大学 一种基于自组织神经网络的污水处理过程控制方法
CN106371321A (zh) * 2016-12-06 2017-02-01 杭州电子科技大学 一种焦化炉炉膛压力***模糊网络优化pid控制方法
CN108563118A (zh) * 2018-03-22 2018-09-21 北京工业大学 一种基于自适应模糊神经网络的溶解氧模型预测控制方法
CN108628164A (zh) * 2018-03-30 2018-10-09 浙江大学 一种基于循环神经网络模型的工业过程半监督软测量方法
CN110928187A (zh) * 2019-12-03 2020-03-27 北京工业大学 一种基于模糊宽度自适应学习模型的污水处理过程故障监测方法
CN110942208A (zh) * 2019-12-10 2020-03-31 萍乡市恒升特种材料有限公司 一种碳化硅泡沫陶瓷的最优生产条件确定方法
CN111222529A (zh) * 2019-09-29 2020-06-02 上海上实龙创智慧能源科技股份有限公司 一种基于GoogLeNet-SVM的污水曝气池泡沫识别方法
CN111479982A (zh) * 2017-11-15 2020-07-31 吉奥奎斯特***公司 具有滤波器的现场操作***
CN112435683A (zh) * 2020-07-30 2021-03-02 珠海市杰理科技股份有限公司 基于t-s模糊神经网络的自适应噪声估计及语音降噪方法
CN114911159A (zh) * 2022-04-26 2022-08-16 西北工业大学 基于t-s模糊神经网络的仿蝠鲼航行器深度控制方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109711707B (zh) * 2018-12-21 2021-05-04 中国船舶工业***工程研究院 一种船舶动力装置综合状态评估方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06328091A (ja) * 1993-05-25 1994-11-29 Meidensha Corp 生物学的処理装置の制御システムにおける汚泥容量指標推定方法
CN102494979A (zh) * 2011-10-19 2012-06-13 北京工业大学 一种污泥沉降体积指数svi的软测量方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06328091A (ja) * 1993-05-25 1994-11-29 Meidensha Corp 生物学的処理装置の制御システムにおける汚泥容量指標推定方法
CN102494979A (zh) * 2011-10-19 2012-06-13 北京工业大学 一种污泥沉降体积指数svi的软测量方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
G.CIVELEKOGLU ETAL.: "Modelling of COD removal in a biological wastewater treatment plant using adaptive neuro-fuzzy inference system and artifical neural network", 《WATER SCIENCE AND TECHNOLOGY》 *
余颖 等: "基于神经网络的污水处理过程建模的研究", 《第五届全球智能控制与自动化大会》 *

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103886369A (zh) * 2014-03-27 2014-06-25 北京工业大学 一种基于模糊神经网络的出水总磷tp预测方法
CN103886369B (zh) * 2014-03-27 2016-10-26 北京工业大学 一种基于模糊神经网络的出水总磷tp预测方法
CN104634265A (zh) * 2015-02-15 2015-05-20 中南大学 一种基于多元图像特征融合的矿物浮选泡沫层厚度软测量方法
CN104634265B (zh) * 2015-02-15 2017-06-20 中南大学 一种基于多元图像特征融合的矿物浮选泡沫层厚度软测量方法
CN105574326A (zh) * 2015-12-12 2016-05-11 北京工业大学 一种基于自组织模糊神经网络的出水氨氮浓度软测量方法
CN105676649A (zh) * 2016-04-09 2016-06-15 北京工业大学 一种基于自组织神经网络的污水处理过程控制方法
CN106371321A (zh) * 2016-12-06 2017-02-01 杭州电子科技大学 一种焦化炉炉膛压力***模糊网络优化pid控制方法
CN111479982A (zh) * 2017-11-15 2020-07-31 吉奥奎斯特***公司 具有滤波器的现场操作***
US11591894B2 (en) 2017-11-15 2023-02-28 Schlumberger Technology Corporation Field operations system with particle filter
US11674375B2 (en) 2017-11-15 2023-06-13 Schlumberger Technology Corporation Field operations system with filter
US11603749B2 (en) * 2017-11-15 2023-03-14 Schlumberger Technology Corporation Field operations system
CN108563118A (zh) * 2018-03-22 2018-09-21 北京工业大学 一种基于自适应模糊神经网络的溶解氧模型预测控制方法
CN108563118B (zh) * 2018-03-22 2020-10-16 北京工业大学 一种基于自适应模糊神经网络的溶解氧模型预测控制方法
CN108628164A (zh) * 2018-03-30 2018-10-09 浙江大学 一种基于循环神经网络模型的工业过程半监督软测量方法
CN111222529A (zh) * 2019-09-29 2020-06-02 上海上实龙创智慧能源科技股份有限公司 一种基于GoogLeNet-SVM的污水曝气池泡沫识别方法
CN110928187A (zh) * 2019-12-03 2020-03-27 北京工业大学 一种基于模糊宽度自适应学习模型的污水处理过程故障监测方法
CN110928187B (zh) * 2019-12-03 2021-02-26 北京工业大学 一种基于模糊宽度自适应学习模型的污水处理过程故障监测方法
CN110942208A (zh) * 2019-12-10 2020-03-31 萍乡市恒升特种材料有限公司 一种碳化硅泡沫陶瓷的最优生产条件确定方法
CN110942208B (zh) * 2019-12-10 2023-07-07 萍乡市恒升特种材料有限公司 一种碳化硅泡沫陶瓷的最优生产条件确定方法
CN112435683A (zh) * 2020-07-30 2021-03-02 珠海市杰理科技股份有限公司 基于t-s模糊神经网络的自适应噪声估计及语音降噪方法
CN112435683B (zh) * 2020-07-30 2023-12-01 珠海市杰理科技股份有限公司 基于t-s模糊神经网络的自适应噪声估计及语音降噪方法
CN114911159A (zh) * 2022-04-26 2022-08-16 西北工业大学 基于t-s模糊神经网络的仿蝠鲼航行器深度控制方法

Also Published As

Publication number Publication date
CN103606006B (zh) 2017-05-17

Similar Documents

Publication Publication Date Title
CN103606006A (zh) 基于自组织t-s模糊神经网络的污泥沉降指数软测量方法
CN105510546B (zh) 一种基于自组织递归rbf神经网络的生化需氧量bod智能检测方法
CN108898215B (zh) 一种基于二型模糊神经网络的污泥膨胀智能辨识方法
CN104965971B (zh) 一种基于模糊神经网络的氨氮浓度软测量方法
CN104376380A (zh) 一种基于递归自组织神经网络的氨氮浓度预测方法
CN108469507B (zh) 一种基于自组织rbf神经网络的出水bod软测量方法
CN104182794B (zh) 一种基于神经网络的污水处理过程出水总磷tp软测量方法
CN111291937A (zh) 基于支持向量分类与gru神经网络联合的处理污水水质预测方法
CN102854296B (zh) 一种基于集成神经网络的污水处理软测量方法
CN102313796B (zh) 一种污水处理生化需氧量软测量方法
CN103226741B (zh) 城市供水管网爆管预测方法
CN102662040B (zh) 一种动态模块化神经网络的氨氮在线软测量方法
CN105574326A (zh) 一种基于自组织模糊神经网络的出水氨氮浓度软测量方法
CN104360035A (zh) 一种基于自组织粒子群-径向基神经网络的污水总磷tp软测量方法
CN106096730B (zh) 一种基于递归rbf神经网络的mbr膜透水率的智能检测方法
CN107247888B (zh) 基于储备池网络的污水处理出水总磷tp软测量方法
Li et al. Sensitivity analysis of groundwater level in Jinci Spring Basin (China) based on artificial neural network modeling
CN114037163A (zh) 一种基于动态权重pso优化bp神经网络的污水处理出水质量预警方法
CN111125907B (zh) 一种基于混合智能模型的污水处理氨氮软测量方法
CN112819087B (zh) 一种基于模块化神经网络的出水bod传感器异常检测方法
CN106802983B (zh) 一种基于优化的bp神经网络的沼气产量建模计算方法及装置
CN109408896B (zh) 一种污水厌氧处理产气量多元智能实时监控方法
CN113343601A (zh) 一种复杂水系湖泊水位和污染物迁移的动态模拟方法
CN103942600B (zh) 基于尖峰自组织径向基神经网络的污泥膨胀预测方法
CN117247132B (zh) 一种基于aao工艺的智能精准曝气方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant