基于自组织TS模糊神经网络的污泥沉降指数软测量方法.pdf

上传人:狗** 文档编号:6221742 上传时间:2019-05-22 格式:PDF 页数:15 大小:1.41MB
返回 下载 相关 举报
摘要
申请专利号:

CN201310558054.5

申请日:

2013.11.12

公开号:

CN103606006A

公开日:

2014.02.26

当前法律状态:

授权

有效性:

有权

法律详情:

授权|||实质审查的生效IPC(主分类):G06N 3/02申请日:20131112|||公开

IPC分类号:

G06N3/02; G06N3/08; G01N15/04

主分类号:

G06N3/02

申请人:

北京工业大学

发明人:

乔俊飞; 许少鹏; 韩红桂

地址:

100124 北京市朝阳区平乐园100号

优先权:

专利代理机构:

北京思海天达知识产权代理有限公司 11203

代理人:

刘萍

PDF下载: PDF下载
内容摘要

基于自组织T-S模糊神经网络的污泥沉降指数软测量方法既属于控制领域,又属于污水处理领域。污泥沉降指数SVI的准确预测是污水处理过程正常运行的保证,本发明首先以规则层的输出量,即规则层的空间激活强度作为判定模糊规则是否增加的依据;其次,在生成新的模糊规则的基础上,以隶属函数层输出量作为判定模糊集是否增加的依据;最后,利用梯度下降算法调整模型的权值参数和高斯函数的中心值和宽度,获得一种自组织T-S模糊递归神经网络,并基于SOTSFEN建立了SVI的在线软测量模型,实现了SVI的实时检测,为预防污泥膨胀提供了一种有效方法。

权利要求书

权利要求书
1.  一种SVI软测量方法,其特征在于,包括以下步骤:
(1)数据预处理及辅助变量精选;
样本集数据用零均值标准化方法进行归一化处理,通过主元分析PCA进行辅助变量的精选,最终确定混合液悬浮物浓度MLSS、酸碱度pH、曝气池水温T、曝气池氨NH4作为模型的输入变量;
(2)建立SVI的软测量的递归模糊神经网络模型,输入量为MLSS、pH、T、NH4,模型的输出量为SVI;递归模糊神经网络拓扑结构:输入层即第一层、隶属函数层即第二层、规则层即第三层、参数层即第四层、输出层即第五层、反馈层;
神经网络结构:输入层有4个输入节点,每个输入层节点连接m个隶属函数层节点,规则层有m个节点,m表示模糊规则数,在网络结构训练过程中生成的模糊规则数确定m的值,参数层节点个数、反馈层节点数与规则层的节点数相等,输出层有1个节点;x=[x1,x2,x3,x4]表示神经网络的输入,yd表示神经网络的期望输出;设第k组样本数据为x(k)=[x1(k),x2(k),x3(k),x4(k)];第k组样本数据输入时:
输入层第i个节点的输出表示为:
oi(1)(k)=xi(k),i=1,2,3,4]]>
(1)
其中,表示输入层的第i个节点在输入第k组样本时的输出;
隶属函数层的节点总数为:4m,每个输入层的节点均连接m个隶属函数层的节点,隶属函数层的输出为:
oij(2)(k)=exp(-(oi(1)(k)-cij(k))2(σij(k))2),j=1,2...m]]>
(2)
其中,隶属函数采用高斯函数,cij和σij分别代表输入层第i个节点对应的隶属函数层第j个节点的高斯函数的中心值和宽度,每一个高斯函数均为一个模糊集,在结构调整阶段对高斯函数赋初值;表示输入层的第i个节点对应的隶属函数层的第j个节点在输入第k组样本时的输出;
规则层的节点数为m,输入层的每个节点对应的隶属函数层的第j个节点均连接到规则层的第j个节点;在规则层引入反馈连接,在反馈层加入内部变量;反馈层节点包含两种类型的节点:承接节点,对规则层的输出量和权值进行加权 求和运算,计算内部变量;反馈节点,采用sigmoid函数作为隶属函数,计算反馈层的输出量;规则层每个节点均连接所有的反馈层承接节点;反馈层的承接节点与反馈节点一一对应,节点数相等,反馈节点与规则层节点一一对应,节点数相等,并随着模糊规则数的变化而变化,始终等于模糊规则数;规则层第j个节点的输出为:
hq=Σj=1moj(3)(k-1)ωjq,j=1,2,...,m;q=1,2,...,m]]>
(3)
fq=11+exp(-hq)]]>
(4)
oj(3)(k)=fqΠi=14oij(2)(k)]]>
(5)
其中,ωjq是规则层的第j个节点与反馈层的第q个承接节点的连接权值,初始赋值为0到1间的随机数;表示规则层第j个节点在第k-1组样本的输出量,hq表示反馈层第q个承接节点的内部变量;fq表示反馈层第q个反馈节点的输出量;规则层的输出即模糊规则的激活强度,其中表示空间激活强度,fq表示时间激活强度;
规则层的节点与参数层的节点是一一对应的,参数层有m个节点,该层的输出表示为:
Wj(k)=Σi=14aijxi(k)]]>
(6)
oj(4)(k)=oj(3)(k)Wj(k)]]>
(7)
其中,aij表示线性参数,初值赋值为0至1的随机数,aj=[a1j,a2j,a3j,a4j];Wj(k)表示参数层第j个节点在输入第k组样本时的线性参数加权求和的值,表示参数层的第j个节点在第k组样本的输出;
网络模型为多输入单输出,输出层有1个节点,所有的参数层节点连接到输出节点;网络输出表示为:
y(k)=Σj=1moj(4)(k)Σj=1moj(3)(k)]]>
(8)
其中,y(k)表示第k样本的网络输出;
(3)模糊神经网络首先通过结构自组织调整确定网络结构;网络的结构自组织调整:x(k)=[x1(k),x2(k),x3(k),x4(k)]表示模型当前输入第k组样本,从第一组样本数据开始输入,到全部数据输入完成,每输入一组样本数据均采用以下步骤判断是否增加新的模糊规则,在增加模糊规则的基础上判断是否增加新的模糊集;
①网络模型初始结构中模糊规则数为0,第一组数据输入,模糊规则数变为1,并增加新的模糊集;模糊集的初始化,即高斯函数中心值和宽度值的初始化表示为:
c(1)=x(1)=[x1(1),x2(1),x3(1),x4(1),]                            (9)
σ(1)=[σ11,σ21,σ31,σ41]=[0.5,0.5,0.5,0.5]                      (10)
其中c(1)表示生成的第一组模糊集的中心值,即隶属函数的中心值;σ(1)表示生成的第一个模糊集的宽度值,即隶属函数的宽度值;
②输入数据依次输入,每输入一组数据,均判断是否增加新的模糊规则,判断公式表示为:

(11)

(12)

(13)
其中表示规则层第j个节点的空间激活强度;J表示当取最大值时j的值;N表示当前模糊规则数;为预先设定的阈值,取值为0.24;
如果满足式(13),则增加一条新的模糊规则,N'=N+1,执行③;
如果不满足式(13),重复②,输入下一组数据;
③在增加一条新的模糊规则的基础上,判断是否增加新的模糊集,判断公式表示为:
I=argmax1<=j<=h(oij(2)(k))---(14)]]>
oiI(2)(k)>Ith]]>
(15)
其中I表示当取最大值时j的值,h表示当前模型的模糊集数,h=N;Ith为预先设定的阈值,取值为0.92;
如果满足式(15),则增加一条新的模糊集,h'=h+1,h'=N';对新增的模糊集赋初值即对隶属函数层的新增的高斯函数中心值和宽度值赋初值;初始化表示为:
cN+1=x(k)
(16)
c+argmin1<=p<=N||x(k)-cp||---(17)]]>
σi,N+1=r|xi(k)-ci+|,i=1,2,3,4---(18)]]>
其中,N表示当前模型已有的模糊规则数,p=1,2,...,N,cN+1表示新增隶属函数的中心值的初始值,r表示重叠系数,取值为0.6;cp表示为当前模型中第p个高斯函数的中心值;c+表示当x(k)与cp空间距离最小时cp的值;σi,N+1表示新增隶属函数的宽度初始值,输入量x(k)与c+的差值的绝对值与重叠系数的乘积;增加新的模糊集,即在每个输入层节点对应的隶属函数层增加一个新的节点,规则层、反馈层、参数层相应的各增加对应节点;
如果不满足(15),则不增加新的模糊集h'=h,并且N''=N'-1,即将新增加的模糊规则删除;
④继续调整神经网络的结构,输入数据依次输入,重复②③,所有输入数据输入完成后,神经网络结构调整训练完成;
(4)确定了网络模型的结构,然后对网络参数就行调整,用校正后的数据来训练神经网络,其中共150组样本数据,训练样本数据90组,测试样本数据60组,训练步数为1000步,每一步的训练过程中,90组训练样本数据全部输入,每组训练样本数据输入均采用梯度下降算法对网络参数进行调整,其中调整的参数包括:参数层的线性参数a,规则层到反馈层的连接权值ω,隶属函数层高斯函数的中心值c和宽度值σ;
定义训练的目标函数即系统误差定义为:
E(k)=12(y(k)-yd(k))2]]>
(19)
其中y(k)为网络的实际输出量,yd(k)为网络的期望输出量,E(k)表示系统误差;
梯度下降算法:采用目标函数对每一层的输出量求偏导数,计算每层输出的误差传播项;通过复合函数求偏导数,计算目标函数对参数值的偏导数,偏导数即为各参数的调整量;
参数层的误差传播项δ(4),即目标函数对参数层输出的偏导数:
δj(4)(k)=-&PartialD;E(k)&PartialD;y(k)&PartialD;y(k)&PartialD;oj(4)(k)---(20)]]>
对线性参数aj的调整量为:
&PartialD;E(k)&PartialD;aj(k)=&PartialD;E(k)&PartialD;oj(4)(k)&PartialD;oj(4)(k)&PartialD;aj(k)=-δj(4)(k)oj(3)(k)Σj=1moj(3)(k)]]>
(21)]]>aj(k+1)=aj(k)-η&PartialD;E(k)&PartialD;aj(k)---(22)]]>
规则层误差传播项如下:
δj(3)(k)=-&PartialD;E(k)&PartialD;oj(3)(k)=δ(4)(k)&PartialD;o(4)(k)&PartialD;oj(3)(k)---(23)]]>
递归层到规则层连接权值ωjq的调整规则如下:
&PartialD;E(k)&PartialD;ωjq(k)=&PartialD;E(k)&PartialD;oj(3)(k)&PartialD;oj(3)(k)&PartialD;ωjq(k)=-δj(3)(k)&PartialD;oj(3)(k)&PartialD;ωjq(k)---(24)]]>
ωjq(k+1)=ωjq(k)-η&PartialD;E&PartialD;ωjq(k)---(25)]]>
隶属函数层的误差传播项如下:
δij(2)(k)=-&PartialD;E(k)&PartialD;oij(2)(k)=δj(3)(k)&PartialD;oj(3)(k)&PartialD;oij(2)(k)---(26)]]>
隶属函数层高斯函数的中心值cij的调整规则如下:
&PartialD;E(k)&PartialD;cij(k)=&PartialD;E(k)&PartialD;oj(2)(k)&PartialD;oj(2)(k)&PartialD;cij(k)(k)=-δj(2)(k)&PartialD;oj(2)(k)&PartialD;cij(k)---(27)]]>
cij(k+1)=cij(k)-η&PartialD;E(k)&PartialD;cij(k)]]>
(28)
隶属函数层高斯函数的宽度σij的调整规则如下:
&PartialD;E(k)&PartialD;σij(k)=&PartialD;E(k)&PartialD;oj(3)(k)&PartialD;oj(3)(k)&PartialD;σij(k)=-δj(3)(k)&PartialD;oj(3)(k)&PartialD;σij(k)---(29)]]>
σij(k+1)=σij(k)-η&PartialD;E(k)&PartialD;σij(k)]]>
(30)
其中η为参数的学习率,取值为0.15;
(5)对测试样本进行预测,将测试样本数据作为训练好的神经网络的输入,神经网络的输出即为SVI的预测结果。

说明书

说明书基于自组织T-S模糊神经网络的污泥沉降指数软测量方法
技术领域
本发明利用自组织T-S模糊递归网络建立污泥容积指数SVI的软测量模型,实现对污泥沉降指标SVI的实时预测。污泥沉降指数SVI的准确预测是污水处理过程正常运行的保证,本发明既属于控制领域,又属于污水处理领域。
背景技术
污水处理是我国政府水资源综合利用的重要举措,也是我国可持续发展战略的重要组成部分。目前,全国各城市、县基本上建立了城镇污水处理厂,污水处理能力与美国等国家发达国家相当。但污水处理运行状况不容乐观,其中污泥膨胀问题严重制约着污水处理的发展。污泥膨胀一旦发生,丝状菌大量繁殖,污泥沉降性能变差,固液分离困难,导致出水水质超标,污泥溢出流失,甚至可能引发泡沫的产生,造成污水处理系统崩溃。因此,本发明基于自组织T-S模糊递归神经网络SOTSRFNN的SVI的软测量研究具有广泛的应用前景。
污泥容积指数SVI是污泥沉降性能的重要评价指标之一。目前,针对SVI的检测方法主要有两类:①人工检测法,利用量筒定时采样检测,计算SVI值,但该方法耗时且误差大,难以满足污水处理日益复杂的现实要求;②自动检测法,但该方法存在设备造价高,寿命短,稳定性差等缺点,而且受现场环境和人工操作的影响,检测精度得不到保障。软测量技术利用系统变化及参量之间的关系,建立输入输出之间的模型,通过易测水质变量估计SVI值。具有投资少、时间短、反应迅速,易于保养和维护等优点。因此,研究SOTSRFNN的软测量方法对解决SVI实时测量问题具有重要的现实意义。
本发明提出了一种SVI的在线软测量方法:首先,以规则层的空间激活强度,即规则层的输出作为判定模糊规则是否增加的依据;其次,在生成新的模糊规则的基础上,以隶属函数层输出量作为判定模糊集是否增加的依据;最后,利用梯度下降算法调整模型的权值参数和高斯函数的中心值和宽度,获得一种自组织T-S模糊递归神经网络,并基于SOTSRFNN建立了SVI的在线软测量模型,实现了SVI的实时检测,为预防污泥膨胀提供了一种有效方法。
发明内容
本发明针对SVI在线测量困难的问题,分析污泥膨胀的形成原因,总结与SVI密切相关的易测水质参量,利用主元分析法PCA确定了模型的输入量;并提出了一种改进的模糊递归神经网络,基于结构自组织算法,设计了SOTSRFNN,建立了SVI的在线软测量模型;最后,利用建立的模型进行SVI的软测量,实现SVI的在线测量;
本发明采用了如下的技术方案及实现步骤:
1一种SVI软测量方法,其特征在于,包括以下步骤:
(1)数据预处理及辅助变量精选;
样本集数据用零均值标准化方法进行归一化处理,通过主元分析PCA进行辅助变量的精选,最终确定混合液悬浮物浓度MLSS、酸碱度pH、曝气池水温T、曝气池氨NH4作为模型的输入变量。
(2)建立SVI的软测量的递归模糊神经网络模型,输入量为MLSS、pH、T、NH4,模型的输出量为SVI。递归模糊神经网络拓扑结构:输入层即第一层、隶属函数层即第二层、规则层即第三层、参数层即第四层、输出层即第五层、反馈层。
神经网络结构:输入层有4个输入节点,每个输入层节点连接m个隶属函数层节点,规则层有m个节点,m表示模糊规则数,在网络结构训练过程中生成的模糊规则数确定m的值,参数层节点个数、反馈层节点数与规则层的节点数相等,输出层有1个节点。x=[x1,x2,x3,x4]表示神经网络的输入,yd表示神经网络的期望输出。设第k组样本数据为x(k)=[x1(k),x2(k),x3(k),x4(k)]。第k组样本数据输入时:
输入层第i个节点的输出表示为:
oi(1)(k)=xi(k),i=1,2,3,4---(1)]]>
其中,表示输入层的第i个节点在输入第k组样本时的输出;
隶属函数层的节点总数为:4m,每个输入层的节点均连接m个隶属函数层的节点,隶属函数层的输出为:
oij(2)(k)=exp(-(oi(1)(k)-cij(k))2(σij(k))2),j=1,2...m---(2)]]>
其中,隶属函数采用高斯函数,cij和σij分别代表输入层第i个节点对应的隶属函数层第j个节点的高斯函数的中心值和宽度,每一个高斯函数均为一个模糊集,在结构调整阶段对高斯函数赋初值。表示输入层的第i个节点对应的隶属函数层的第j个节点在输入第k组样本时的输出;
规则层的节点数为m,输入层的每个节点对应的隶属函数层的第j个节点均连接到规则层的第j个节点。在规则层引入反馈连接,在反馈层加入内部变量。反馈层节点包含两种类型的节点:承接节点,对规则层的输出量和权值进行加权求和运算,计算内部变量;反馈节点,采用sigmoid函数作为隶属函数,计算反馈层的输出量。规则层每个节点均连接所有的反馈层承接节点。反馈层的承接节点与反馈节点一一对应,节点数相等,反馈节点与规则层节点一一对应,节点数 相等,并随着模糊规则数的变化而变化,始终等于模糊规则数。规则层第j个节点的输出为:
hq=Σj=1moj(3)(k-1)ωjq,j=1,2,...,m;q=1,2,...,m---(3)]]>
fq=11+exp(-hq)---(4)]]>
oj(3)(k)=fqΠi=14oij(2)(k)]]>
(5)
其中,ωjq是规则层的第j个节点与反馈层的第q个承接节点的连接权值,初始赋值为0到1间的随机数。表示规则层第j个节点在第k-1组样本的输出量,hq表示反馈层第q个承接节点的内部变量。fq表示反馈层第q个反馈节点的输出量。规则层的输出即模糊规则的激活强度,其中表示空间激活强度,fq表示时间激活强度。
规则层的节点与参数层的节点是一一对应的,参数层有m个节点,该层的输出表示为:
Wj(k)=Σi=14aijxi(k)---(6)]]>
oj(4)(k)=oj(3)(k)Wj(k)]]>
(7)
其中,aij表示线性参数,初值赋值为0至1的随机数,aj=[a1j,a2j,a3j,a4j]。Wj(k)表示参数层第j个节点在输入第k组样本时的线性参数加权求和的值,表示参数层的第j个节点在第k组样本的输出。
网络模型为多输入单输出,输出层有1个节点,所有的参数层节点连接到输出节点。网络输出表示为:
y(k)=Σj=1moj(4)(k)Σj=1moj(3)(k)---(8)]]>
其中,y(k)表示第k样本的网络输出。
(3)模糊神经网络首先通过结构自组织调整确定网络结构。网络的结构自组织调整:x(k)=[x1(k),x2(k),x3(k),x4(k)]表示模型当前输入第k组样本,从第一组样本数据 开始输入,到全部数据输入完成,每输入一组样本数据均采用以下步骤判断是否增加新的模糊规则,在增加模糊规则的基础上判断是否增加新的模糊集。
①网络模型初始结构中模糊规则数为0,第一组数据输入,模糊规则数变为1,并增加新的模糊集。模糊集的初始化,即高斯函数中心值和宽度值的初始化表示为:
c(1)=x(1)=[x1(1),x2(1),x3(1),x4(1),]                               (9)
σ(1)=[σ11,σ21,σ31,σ41]=[0.5,0.5,0.5,0.5]                         (10)其中c(1)表示生成的第一组模糊集的中心值,即隶属函数的中心值。σ(1)表示生成的第一个模糊集的宽度值,即隶属函数的宽度值。
②输入数据依次输入,每输入一组数据,均判断是否增加新的模糊规则,判断公式表示为:



其中表示规则层第j个节点的空间激活强度。J表示当取最大值时j的值。N表示当前模糊规则数。为预先设定的阈值,取值为0.24。
如果满足式(13),则增加一条新的模糊规则,N'=N+1,执行③。
如果不满足式(13),重复②,输入下一组数据;
③在增加一条新的模糊规则的基础上,判断是否增加新的模糊集,判断公式表示为:
I=argmax1<=j<=h(oij(2)(k))---(14)]]>
oiI(2)(k)>Ith]]>
(15)
其中I表示当取最大值时j的值,h表示当前模型的模糊集数,h=N。Ith为预先设定的阈值,取值为0.92。
如果满足式(15),则增加一条新的模糊集,h'=h+1,h'=N'。对新增的模糊集赋初值即对隶属函数层的新增的高斯函数中心值和宽度值赋初值。初始化表示为:
cN+1=x(k)                                 (16)
c+=argmin1<=p<=N||x(k)-cp||---(17)]]>
σi,N+1=r|xi(k)-ci+|,i=1,2,3,4---(18)]]>
其中,N表示当前模型已有的模糊规则数,p=1,2,...,N,cN+1表示新增隶属函数的中心值的初始值,r表示重叠系数,取值为0.6。cp表示为当前模型中第p个高斯函数的中心值。c+表示当x(k)与cp空间距离最小时cp的值。σi,N+1表示新增隶属函数的宽度初始值,输入量x(k)与c+的差值的绝对值与重叠系数的乘积。增加新的模糊集,即在每个输入层节点对应的隶属函数层增加一个新的节点,规则层、反馈层、参数层相应的各增加对应节点。
如果不满足(15),则不增加新的模糊集h'=h,并且N''=N'-1,即将新增加的模糊规则删除。
④继续调整神经网络的结构,输入数据依次输入,重复②③,所有输入数据输入完成后,神经网络结构调整训练完成。
(4)确定了网络模型的结构,然后对网络参数就行调整,用校正后的数据来训练神经网络,其中共150组样本数据,训练样本数据90组,测试样本数据60组,训练步数为1000步,每一步的训练过程中,90组训练样本数据全部输入,每组训练样本数据输入均采用梯度下降算法对网络参数进行调整,其中调整的参数包括:参数层的线性参数a,规则层到反馈层的连接权值ω,隶属函数层高斯函数的中心值c和宽度值σ。
定义训练的目标函数即系统误差定义为:
E(k)=12(y(k)-yd(k))2---(19)]]>
其中y(k)为网络的实际输出量,yd(k)为网络的期望输出量,E(k)表示系统误差。
梯度下降算法:采用目标函数对每一层的输出量求偏导数,计算每层输出的误差传播项。通过复合函数求偏导数,计算目标函数对参数值的偏导数,偏导数即为各参数的调整量。
参数层的误差传播项δ(4),即目标函数对参数层输出的偏导数:
δj(4)(k)=-&PartialD;E(k)&PartialD;y(k)&PartialD;y(k)&PartialD;oj(4)(k)---(20)]]>
对线性参数aj的调整量为:
&PartialD;E(k)&PartialD;aj(k)=&PartialD;E(k)&PartialD;oj(4)(k)&PartialD;oj(4)(k)&PartialD;aj(k)=-δj(4)(k)oj(3)(k)Σj=1moj(3)(k)---(21)]]>
aj(k+1)=aj(k)-η&PartialD;E(k)&PartialD;aj(k)---(22)]]>
规则层误差传播项如下:
δj(3)(k)=-&PartialD;E(k)&PartialD;oj(3)(k)=δ(4)(k)&PartialD;o(4)(k)&PartialD;oj(3)(k)---(23)]]>
递归层到规则层连接权值ωjq的调整规则如下:
&PartialD;E(k)&PartialD;ωjq(k)=&PartialD;E(k)&PartialD;oj(3)(k)&PartialD;oj(3)(k)&PartialD;ωjq(k)=-δj(3)(k)&PartialD;oj(3)(k)&PartialD;ωjq(k)---(24)]]>
ωjq(k+1)=ωjq(k)-η&PartialD;E&PartialD;ωjq(k)---(25)]]>
隶属函数层的误差传播项如下:
δij(2)(k)=-&PartialD;E(k)&PartialD;oij(2)(k)=δj(3)(k)&PartialD;oj(3)(k)&PartialD;oij(2)(k)---(26)]]>
隶属函数层高斯函数的中心值cij的调整规则如下:
&PartialD;E(k)&PartialD;cij(k)=&PartialD;E(k)&PartialD;oj(2)(k)&PartialD;oj(2)(k)&PartialD;cij(k)(k)=-δj(2)(k)&PartialD;oj(2)(k)&PartialD;cij(k)---(27)]]>
cij(k+1)=cij(k)-η&PartialD;E(k)&PartialD;cij(k)---(28)]]>
隶属函数层高斯函数的宽度σij的调整规则如下:
&PartialD;E(k)&PartialD;σij(k)=&PartialD;E(k)&PartialD;oj(3)(k)&PartialD;oj(3)(k)&PartialD;σij(k)=-δj(3)(k)&PartialD;oj(3)(k)&PartialD;σij(k)---(29)]]>
σij(k+1)=σij(k)-η&PartialD;E(k)&PartialD;σij(k)---(30)]]>
其中η为参数的学习率,取值为0.15。
(5)对测试样本进行预测,将测试样本数据作为训练好的神经网络的输入,神经网络的输出即为SVI的预测结果。
本发明的创造性主要体现在:
(1).本发明针对当前污泥容积指数SVI难以在线检测的问题,提出了基于一种自组织T-S模糊递归网络的软测量方法,实现了辅助变量和SVI之间的映射关系及SVI的在线检测;该模型具有精度高、稳定性好、实时性强等特点,为预防污泥膨胀提供了一种有效的检测方法,促进了污水处理自动化水平的提高;
(2).本发明针对污泥膨胀的特性,对模糊递归神经网络的反馈层加以改进。基于规则产生准则,自动的生成模糊规则,通过有效的模糊集生成算法,动态调 整网络结构。解决了网络结构难以确定的问题,在保证模型精度的同时,有效的简化了网络结构。采用梯度下降参数学习算法,提高了网络的学习能力。
附图说明
图1.自组织T-S模糊递归神经网络的拓扑结构图;
图2.本发明网络模糊规则生成图;
图3.本发明网络训练拟合结果图;
图4.本发明软测量结果图;
具体实施方式
实验数据来源于北京某小型污水处理厂实际日报表。图1给出了SVI的神经网络预测模型,其输入分别为混合液悬浮物浓度MLSS、酸碱度pH、曝气池水温T、曝气池氨NH4,模型输出为污泥容积指数SVI。其中MLSS是指单位体积生化池混合液所含干污泥的重量;pH反应进水水质的酸碱程度;T是曝气池当前的污水温度;NH4代表曝气池进水的氨含量,SVI代表曝气池混合液经30分钟沉淀后,相应的1克干污泥所占的容积。输入量中除pH和T外,其他单位均为毫克/升。输出量单位毫升/克。共150组数据,其中90组数据用于训练网络,另60组作为测试样本,采用结构自组织算法对神经网络进行动态变化。
利用自组织T-S模糊递归神经网络建立SVI的软测量模型,对SVI进行实时检测;具体步骤如下:
(1)初始化神经网络,输入节点为4,输出节点为1,模糊规则数为0,对神经网络的权值赋初值,本实验的权值初值均为为0到1的随机数。
(2)对样本数据进行校正,然后做归一化处理。
(3)对神经网络的结构进行自组织调整,式(13)式(15)Ith=0.92,输入已校正的输入数据:
①输入第一组数据x(1)=[4.72 23.1 43.6 250.4],归一化处理x(1)=[0.1092 0.8867 0.7572 0.3915]。模糊规则数变为1,根据式(9)(10)对第一组模糊集高斯函数中心值和宽度值初始化:中心值c1(1)=[0.1092 0.8867 0.7572 0.3915],宽度值σ1(1)=[0.5 0.5 0.5 0.5];
②输入第二组数据x(2)=[5.63 23.4 37.2 250.1],归一化处理x(2)=[0.3707 0.9434 0.5527 0.33907]根据式(1)(2)计算隶属函数层的输出式(11)计算空间激活强度的值,因为只有一个模糊规则,为最大值,不满足式(13),不增加新的模糊规则;
③依次输入数据,直到输入第23组数据,归一化处理x(23)=[0.1954 0.1886 0.5495 0.3968]。据式(1)(2)计算隶属函数层的输出式(11)计算空间激活强度的值,因为只有一个模糊规则,为最大值,满足式(13):则增加一个新的模糊规则;
计算隶属函数层节点的输出o1(2)(23)=0.98810.45550.56360.8579,o11(2)(23)=0.9881]]>为最大值,满足式(15)则对新增加的模糊规则生成对应的模糊集,根据式(16)~(18)对新增的模糊集的参数初始化:中心值初值值c2=x(23),r取值为0.6,宽度初始值σi2=r*|xi(23)-ci1|,i=1,2,3,4,σi2=[0.0517 0.0.4189 0.1246 0.0032]。
④当输入第k组数据时,根据(1)(2)计算隶属函数层的节点输出计算规则层节点的空间激活强度的值,根据式(12),找出的最大值;判断空间激活强度的值是否小于预定阈值如果满足式(13),则增加一个新的模糊规则,执行第⑤步;如果不满足式(13),则输入第k+1组数据,执行第⑥步。
⑤根据式(15)判断隶属函数节点输出的最大值是否大于预定阈值Ith,满足式(15),则针对新增加的模糊规则生成对应的模糊集,根据式(16)~(18)对模糊集的参数初始化;如果不满足式(15),则不生成新的模糊集,并且删除新增加的模糊规则;
⑥判断输入数据是否全部输入完成,完成则进入第(4)步,否则转到第④步,全部数据训练完成共生成4条模糊规则。高斯函数的初值为:
高斯函数的中心值初值为c(1)=0.10920.88670.75720.39150.19540.18860.54950.39680.70520.54950.71240.61660.23280.39680.37230.5638]]>
高斯函数的宽度值初值为σ(1)=0.50.50.50.50.05170.41890.12460.00320.43940.14560.01270.27760.37040.27010.00460.4414]]>
规则层到反馈层的权值初值为ω(1)=0.62290.71490.62190.89230.85710.03090.31520.81530.39650.97250.82410.61140.73590.43100.87260.2938]]>
线性参数的初值为a(1)=0.50.50.50.50.50.50.50.50.50.50.50.50.50.50.50.5,]]>
W(1)=Σi=14aijxi(1)=1.07231.07231.07231.0723]]>
(4)用校正后的训练样本数据训练神经网络,训练步数s=1000,如果训练步数选 的过小,则采集的信息量不够;如果训练步数选的过大,会出现过拟合现象。
(5)对神经网络的参数调整,训练步数s=1,输入数据从第一组数据输入,计算每一层的网络输入输出量,根据式(19)计算目标函数值,采用梯度下降法对4个参数调整:参数层的线性参数a,规则层到反馈层的连接权值ω,隶属函数层高斯函数的中心值c和宽度值σ。
①输入第一组数据x(1)=[0.1092 0.8867 0.7572 0.3915]
输入层的输出:o(1)(1)=x(1)=[0.1092 0.8867 0.7572 0.3915]
隶属函数层的输出:o(2)(1)=exp(-(o(1)(1)-c(1))2(σ(1))2)=11110.06200.06220.06210.06460.15880.004700.51810.89460.037300.8412]]>
反馈层和规则层输出:o(3)(0)=[0 0 0 0],所以h=[0 0 0 0]
f=11+exp(-h)=0.50.50.50.5]]>
所以o(3)(1)=[0.0044 0 0 0.0281]
参数层的输出:o(4)(1)=o(3)(1)W(1)=[0.0047 0 0 0.0301]
模型的输出:y(1)=Σj=14oj(4)(1)Σj=14oj(3)(1)=1.0723]]>
②yd(1)=0.5960,计算系统误差E(1)=12(y(1)-yd(1))2=0.1134]]>
③采用梯度下降法对参数调整:根据式(20)~(22),计算参数层线性参数a调整量,获得调整后的参数值;根据式(23)~(25),计算规则层到反馈层的连接权值ω调整量,获得调整后的参数值;根据式(26)~(30),计算高斯函数的中心值c和宽度值σ调整量,获得调整后的参数值。
④输入下一组数据,计算模型每一层的输出量,采用梯度下降算法调整各参数值,直到所有训练数据全部输入完成。训练步数加1。
(6)继续训练神经网络,重复第(5)步,直到训练步数达到1000步,完成网络训练。
(7)对测试样本进行预测:将测试样本数据作为训练好的神经网络的输入,神经网络的输出为污泥容积指数SVI。

基于自组织TS模糊神经网络的污泥沉降指数软测量方法.pdf_第1页
第1页 / 共15页
基于自组织TS模糊神经网络的污泥沉降指数软测量方法.pdf_第2页
第2页 / 共15页
基于自组织TS模糊神经网络的污泥沉降指数软测量方法.pdf_第3页
第3页 / 共15页
点击查看更多>>
资源描述

《基于自组织TS模糊神经网络的污泥沉降指数软测量方法.pdf》由会员分享,可在线阅读,更多相关《基于自组织TS模糊神经网络的污泥沉降指数软测量方法.pdf(15页珍藏版)》请在专利查询网上搜索。

1、(10)申请公布号 CN 103606006 A (43)申请公布日 2014.02.26 CN 103606006 A (21)申请号 201310558054.5 (22)申请日 2013.11.12 G06N 3/02(2006.01) G06N 3/08(2006.01) G01N 15/04(2006.01) (71)申请人 北京工业大学 地址 100124 北京市朝阳区平乐园 100 号 (72)发明人 乔俊飞 许少鹏 韩红桂 (74)专利代理机构 北京思海天达知识产权代理 有限公司 11203 代理人 刘萍 (54) 发明名称 基于自组织 T-S 模糊神经网络的污泥沉降指 数软测。

2、量方法 (57) 摘要 基于自组织 T-S 模糊神经网络的污泥沉降指 数软测量方法既属于控制领域, 又属于污水处理 领域。污泥沉降指数 SVI 的准确预测是污水处 理过程正常运行的保证, 本发明首先以规则层的 输出量, 即规则层的空间激活强度作为判定模糊 规则是否增加的依据 ; 其次, 在生成新的模糊规 则的基础上, 以隶属函数层输出量作为判定模糊 集是否增加的依据 ; 最后, 利用梯度下降算法调 整模型的权值参数和高斯函数的中心值和宽度, 获得一种自组织 T-S 模糊递归神经网络, 并基于 SOTSFEN 建立了 SVI 的在线软测量模型, 实现了 SVI 的实时检测, 为预防污泥膨胀提供了。

3、一种有 效方法。 (51)Int.Cl. 权利要求书 4 页 说明书 8 页 附图 2 页 (19)中华人民共和国国家知识产权局 (12)发明专利申请 权利要求书4页 说明书8页 附图2页 (10)申请公布号 CN 103606006 A CN 103606006 A 1/4 页 2 1. 一种 SVI 软测量方法, 其特征在于, 包括以下步骤 : (1) 数据预处理及辅助变量精选 ; 样本集数据用零均值标准化方法进行归一化处理, 通过主元分析 PCA 进行辅助变量的 精选, 最终确定混合液悬浮物浓度MLSS、 酸碱度pH、 曝气池水温T、 曝气池氨NH4作为模型的 输入变量 ; (2) 建立。

4、 SVI 的软测量的递归模糊神经网络模型, 输入量为 MLSS、 pH、 T、 NH4, 模型的输 出量为 SVI ; 递归模糊神经网络拓扑结构 : 输入层即第一层、 隶属函数层即第二层、 规则层 即第三层、 参数层即第四层、 输出层即第五层、 反馈层 ; 神经网络结构 : 输入层有 4 个输入节点, 每个输入层节点连接 m 个隶属函数层节 点, 规则层有 m 个节点, m 表示模糊规则数, 在网络结构训练过程中生成的模糊规则数确 定 m 的值, 参数层节点个数、 反馈层节点数与规则层的节点数相等, 输出层有 1 个节点 ; x=x1,x2,x3,x4 表示神经网络的输入, yd表示神经网络的。

5、期望输出 ; 设第 k 组样本数据为 x(k)=x1(k),x2(k),x3(k),x4(k) ; 第 k 组样本数据输入时 : 输入层第 i 个节点的输出表示为 : (1) 其中,表示输入层的第 i 个节点在输入第 k 组样本时的输出 ; 隶属函数层的节点总数为 : 4m, 每个输入层的节点均连接 m 个隶属函数层的节点, 隶属 函数层的输出为 : (2) 其中, 隶属函数采用高斯函数, cij和 ij分别代表输入层第 i 个节点对应的隶属函数 层第 j 个节点的高斯函数的中心值和宽度, 每一个高斯函数均为一个模糊集, 在结构调整 阶段对高斯函数赋初值 ;表示输入层的第 i 个节点对应的隶属。

6、函数层的第 j 个节点在 输入第 k 组样本时的输出 ; 规则层的节点数为 m, 输入层的每个节点对应的隶属函数层的第 j 个节点均连接到规 则层的第 j 个节点 ; 在规则层引入反馈连接, 在反馈层加入内部变量 ; 反馈层节点包含两种 类型的节点 : 承接节点, 对规则层的输出量和权值进行加权求和运算, 计算内部变量 ; 反馈 节点, 采用 sigmoid 函数作为隶属函数, 计算反馈层的输出量 ; 规则层每个节点均连接所有 的反馈层承接节点 ; 反馈层的承接节点与反馈节点一一对应, 节点数相等, 反馈节点与规则 层节点一一对应, 节点数相等, 并随着模糊规则数的变化而变化, 始终等于模糊规。

7、则数 ; 规 则层第 j 个节点的输出为 : (3) (4) (5) 其中, jq是规则层的第 j 个节点与反馈层的第 q 个承接节点的连接权值, 初始赋值为 权 利 要 求 书 CN 103606006 A 2 2/4 页 3 0 到 1 间的随机数 ;表示规则层第 j 个节点在第 k-1 组样本的输出量,hq 表示反馈层第q个承接节点的内部变量 ; fq表示反馈层第q个反馈节点的输出量 ; 规则层的 输出即模糊规则的激活强度, 其中表示空间激活强度, fq表示时间激活强度 ; 规则层的节点与参数层的节点是一一对应的, 参数层有 m 个节点, 该层的输出表示为 : (6) (7) 其中, a。

8、ij表示线性参数, 初值赋值为 0 至 1 的随机数, aj=a1j,a2j,a3j,a4j ; Wj(k) 表示 参数层第 j 个节点在输入第 k 组样本时的线性参数加权求和的值,表示参数层的第 j 个节点在第 k 组样本的输出 ; 网络模型为多输入单输出, 输出层有 1 个节点, 所有的参数层节点连接到输出节点 ; 网 络输出表示为 : (8) 其中, y(k) 表示第 k 样本的网络输出 ; (3) 模糊神经网络首先通过结构自组织调整确定网络结构 ; 网络的结构自组织调整 : x(k)=x1(k),x2(k),x3(k),x4(k)表示模型当前输入第k组样本, 从第一组样本数据开始输 入。

9、, 到全部数据输入完成, 每输入一组样本数据均采用以下步骤判断是否增加新的模糊规 则, 在增加模糊规则的基础上判断是否增加新的模糊集 ; 网络模型初始结构中模糊规则数为 0, 第一组数据输入, 模糊规则数变为 1, 并增加 新的模糊集 ; 模糊集的初始化, 即高斯函数中心值和宽度值的初始化表示为 : c(1)=x(1)=x1(1),x2(1),x3(1),x4(1), (9) (1)=11,21,31,41=0.5,0.5,0.5,0.5 (10) 其中 c(1) 表示生成的第一组模糊集的中心值, 即隶属函数的中心值 ; (1) 表示生成 的第一个模糊集的宽度值, 即隶属函数的宽度值 ; 输入。

10、数据依次输入, 每输入一组数据, 均判断是否增加新的模糊规则, 判断公式表示 为 : (11) (12) (13) 其中表示规则层第 j 个节点的空间激活强度 ; J 表示当取最大值时 j 的值 ; N 表示 当前模糊规则数 ; 为预先设定的阈值, 取值为 0.24 ; 如果满足式 (13), 则增加一条新的模糊规则, N=N+1, 执行 ; 如果不满足式 (13), 重复, 输入下一组数据 ; 在增加一条新的模糊规则的基础上, 判断是否增加新的模糊集, 判断公式表示为 : 权 利 要 求 书 CN 103606006 A 3 3/4 页 4 (15) 其中 I 表示当取最大值时 j 的值, 。

11、h 表示当前模型的模糊集数, h=N ; Ith为预先设定 的阈值, 取值为 0.92 ; 如果满足式 (15), 则增加一条新的模糊集, h=h+1, h=N ; 对新增的模糊集赋初值即 对隶属函数层的新增的高斯函数中心值和宽度值赋初值 ; 初始化表示为 : cN+1=x(k) (16) 其中, N 表示当前模型已有的模糊规则数, p=1,2,.,N, cN+1表示新增隶属函数的中心 值的初始值, r 表示重叠系数, 取值为 0.6 ; cp表示为当前模型中第 p 个高斯函数的中心值 ; c+表示当 x(k) 与 cp空间距离最小时 cp的值 ; i,N+1表示新增隶属函数的宽度初始值, 输。

12、入 量 x(k) 与 c+的差值的绝对值与重叠系数的乘积 ; 增加新的模糊集, 即在每个输入层节点对 应的隶属函数层增加一个新的节点, 规则层、 反馈层、 参数层相应的各增加对应节点 ; 如果不满足 (15), 则不增加新的模糊集 h=h, 并且 N=N-1, 即将新增加的模糊规则 删除 ; 继续调整神经网络的结构, 输入数据依次输入, 重复, 所有输入数据输入完成 后, 神经网络结构调整训练完成 ; (4) 确定了网络模型的结构, 然后对网络参数就行调整, 用校正后的数据来训练神经网 络, 其中共 150 组样本数据, 训练样本数据 90 组, 测试样本数据 60 组, 训练步数为 1000。

13、 步, 每一步的训练过程中, 90 组训练样本数据全部输入, 每组训练样本数据输入均采用梯度下 降算法对网络参数进行调整, 其中调整的参数包括 : 参数层的线性参数 a, 规则层到反馈层 的连接权值 , 隶属函数层高斯函数的中心值 c 和宽度值 ; 定义训练的目标函数即系统误差定义为 : (19) 其中 y(k) 为网络的实际输出量, yd(k) 为网络的期望输出量, E(k) 表示系统误差 ; 梯度下降算法 : 采用目标函数对每一层的输出量求偏导数, 计算每层输出的误差传播 项 ; 通过复合函数求偏导数, 计算目标函数对参数值的偏导数, 偏导数即为各参数的调整 量 ; 参数层的误差传播项 (。

14、4), 即目标函数对参数层输出的偏导数 : 对线性参数 aj的调整量为 : 权 利 要 求 书 CN 103606006 A 4 4/4 页 5 规则层误差传播项如下 : 递归层到规则层连接权值 jq的调整规则如下 : 隶属函数层的误差传播项如下 : 隶属函数层高斯函数的中心值 cij的调整规则如下 : (28) 隶属函数层高斯函数的宽度 ij的调整规则如下 : (30) 其中 为参数的学习率, 取值为 0.15 ; (5) 对测试样本进行预测, 将测试样本数据作为训练好的神经网络的输入, 神经网络的 输出即为 SVI 的预测结果。 权 利 要 求 书 CN 103606006 A 5 1/8。

15、 页 6 基于自组织 T-S 模糊神经网络的污泥沉降指数软测量方法 技术领域 0001 本发明利用自组织 T-S 模糊递归网络建立污泥容积指数 SVI 的软测量模型, 实现 对污泥沉降指标 SVI 的实时预测。污泥沉降指数 SVI 的准确预测是污水处理过程正常运行 的保证, 本发明既属于控制领域, 又属于污水处理领域。 背景技术 0002 污水处理是我国政府水资源综合利用的重要举措, 也是我国可持续发展战略的重 要组成部分。目前, 全国各城市、 县基本上建立了城镇污水处理厂, 污水处理能力与美国等 国家发达国家相当。但污水处理运行状况不容乐观, 其中污泥膨胀问题严重制约着污水处 理的发展。 污。

16、泥膨胀一旦发生, 丝状菌大量繁殖, 污泥沉降性能变差, 固液分离困难, 导致出 水水质超标, 污泥溢出流失, 甚至可能引发泡沫的产生, 造成污水处理系统崩溃。 因此, 本发 明基于自组织 T-S 模糊递归神经网络 SOTSRFNN 的 SVI 的软测量研究具有广泛的应用前景。 0003 污泥容积指数 SVI 是污泥沉降性能的重要评价指标之一。目前, 针对 SVI 的检测 方法主要有两类 : 人工检测法, 利用量筒定时采样检测, 计算 SVI 值, 但该方法耗时且误 差大, 难以满足污水处理日益复杂的现实要求 ; 自动检测法, 但该方法存在设备造价高, 寿命短, 稳定性差等缺点, 而且受现场环境。

17、和人工操作的影响, 检测精度得不到保障。软测 量技术利用系统变化及参量之间的关系, 建立输入输出之间的模型, 通过易测水质变量估 计 SVI 值。具有投资少、 时间短、 反应迅速, 易于保养和维护等优点。因此, 研究 SOTSRFNN 的软测量方法对解决 SVI 实时测量问题具有重要的现实意义。 0004 本发明提出了一种 SVI 的在线软测量方法 : 首先, 以规则层的空间激活强度, 即 规则层的输出作为判定模糊规则是否增加的依据 ; 其次, 在生成新的模糊规则的基础上, 以隶属函数层输出量作为判定模糊集是否增加的依据 ; 最后, 利用梯度下降算法调整模型 的权值参数和高斯函数的中心值和宽度。

18、, 获得一种自组织 T-S 模糊递归神经网络, 并基于 SOTSRFNN建立了SVI的在线软测量模型, 实现了SVI的实时检测, 为预防污泥膨胀提供了一 种有效方法。 发明内容 0005 本发明针对SVI在线测量困难的问题, 分析污泥膨胀的形成原因, 总结与SVI密切 相关的易测水质参量, 利用主元分析法 PCA 确定了模型的输入量 ; 并提出了一种改进的模 糊递归神经网络, 基于结构自组织算法, 设计了 SOTSRFNN, 建立了 SVI 的在线软测量模型 ; 最后, 利用建立的模型进行 SVI 的软测量, 实现 SVI 的在线测量 ; 0006 本发明采用了如下的技术方案及实现步骤 : 0。

19、007 1 一种 SVI 软测量方法, 其特征在于, 包括以下步骤 : 0008 (1) 数据预处理及辅助变量精选 ; 0009 样本集数据用零均值标准化方法进行归一化处理, 通过主元分析 PCA 进行辅助变 量的精选, 最终确定混合液悬浮物浓度MLSS、 酸碱度pH、 曝气池水温T、 曝气池氨NH4作为模 说 明 书 CN 103606006 A 6 2/8 页 7 型的输入变量。 0010 (2) 建立 SVI 的软测量的递归模糊神经网络模型, 输入量为 MLSS、 pH、 T、 NH4, 模型 的输出量为 SVI。递归模糊神经网络拓扑结构 : 输入层即第一层、 隶属函数层即第二层、 规 。

20、则层即第三层、 参数层即第四层、 输出层即第五层、 反馈层。 0011 神经网络结构 : 输入层有 4 个输入节点, 每个输入层节点连接 m 个隶属函数层 节点, 规则层有 m 个节点, m 表示模糊规则数, 在网络结构训练过程中生成的模糊规则数 确定 m 的值, 参数层节点个数、 反馈层节点数与规则层的节点数相等, 输出层有 1 个节点。 x=x1,x2,x3,x4 表示神经网络的输入, yd表示神经网络的期望输出。设第 k 组样本数据为 x(k)=x1(k),x2(k),x3(k),x4(k)。第 k 组样本数据输入时 : 0012 输入层第 i 个节点的输出表示为 : 0013 0014。

21、 其中,表示输入层的第 i 个节点在输入第 k 组样本时的输出 ; 0015 隶属函数层的节点总数为 : 4m, 每个输入层的节点均连接 m 个隶属函数层的节点, 隶属函数层的输出为 : 0016 0017 其中, 隶属函数采用高斯函数, cij和 ij分别代表输入层第 i 个节点对应的隶属 函数层第 j 个节点的高斯函数的中心值和宽度, 每一个高斯函数均为一个模糊集, 在结构 调整阶段对高斯函数赋初值。表示输入层的第 i 个节点对应的隶属函数层的第 j 个 节点在输入第 k 组样本时的输出 ; 0018 规则层的节点数为 m, 输入层的每个节点对应的隶属函数层的第 j 个节点均连接 到规则层。

22、的第 j 个节点。在规则层引入反馈连接, 在反馈层加入内部变量。反馈层节点包 含两种类型的节点 : 承接节点, 对规则层的输出量和权值进行加权求和运算, 计算内部变 量 ; 反馈节点, 采用 sigmoid 函数作为隶属函数, 计算反馈层的输出量。规则层每个节点均 连接所有的反馈层承接节点。 反馈层的承接节点与反馈节点一一对应, 节点数相等, 反馈节 点与规则层节点一一对应, 节点数相等, 并随着模糊规则数的变化而变化, 始终等于模糊规 则数。规则层第 j 个节点的输出为 : 0019 0020 0021 0022 (5) 0023 其中, jq是规则层的第 j 个节点与反馈层的第 q 个承接。

23、节点的连接权值, 初始赋 值为0到1间的随机数。表示规则层第j个节点在第k-1组样本的输出量, hq表示反馈层第 q 个承接节点的内部变量。fq表示反馈层第 q 个反馈节点的输出量。规则 说 明 书 CN 103606006 A 7 3/8 页 8 层的输出即模糊规则的激活强度, 其中表示空间激活强度, fq表示时间激活 强度。 0024 规则层的节点与参数层的节点是一一对应的, 参数层有 m 个节点, 该层的输出表 示为 : 0025 0026 0027 (7) 0028 其中, aij表示线性参数, 初值赋值为 0 至 1 的随机数, aj=a1j,a2j,a3j,a4j。Wj(k) 表示。

24、参数层第 j 个节点在输入第 k 组样本时的线性参数加权求和的值,表示参数层的 第 j 个节点在第 k 组样本的输出。 0029 网络模型为多输入单输出, 输出层有 1 个节点, 所有的参数层节点连接到输出节 点。网络输出表示为 : 0030 0031 其中, y(k) 表示第 k 样本的网络输出。 0032 (3) 模糊神经网络首先通过结构自组织调整确定网络结构。网络的结构自组织调 整 : x(k)=x1(k),x2(k),x3(k),x4(k) 表示模型当前输入第 k 组样本, 从第一组样本数据开 始输入, 到全部数据输入完成, 每输入一组样本数据均采用以下步骤判断是否增加新的模 糊规则,。

25、 在增加模糊规则的基础上判断是否增加新的模糊集。 0033 网络模型初始结构中模糊规则数为 0, 第一组数据输入, 模糊规则数变为 1, 并 增加新的模糊集。模糊集的初始化, 即高斯函数中心值和宽度值的初始化表示为 : 0034 c(1)=x(1)=x1(1),x2(1),x3(1),x4(1), (9) 0035 ( 1 ) = 1 1, 2 1, 3 1, 4 1 = 0 . 5 , 0 . 5 , 0 . 5 , 0 . 5 (10) 其中 c(1) 表示生成的第一组模糊集的中心值, 即隶属函数的中心值。(1) 表示生成 的第一个模糊集的宽度值, 即隶属函数的宽度值。 0036 输入数据。

26、依次输入, 每输入一组数据, 均判断是否增加新的模糊规则, 判断公式 表示为 : 0037 0038 0039 说 明 书 CN 103606006 A 8 4/8 页 9 0040 其中表示规则层第 j 个节点的空间激活强度。J 表示当取最大值时 j 的值。N 表示当前模糊规则数。为预先设定的阈值, 取值为 0.24。 0041 如果满足式 (13), 则增加一条新的模糊规则, N=N+1, 执行。 0042 如果不满足式 (13), 重复, 输入下一组数据 ; 0043 在增加一条新的模糊规则的基础上, 判断是否增加新的模糊集, 判断公式表示 为 : 0044 0045 0046 (15)。

27、 0047 其中 I 表示当取最大值时 j 的值, h 表示当前模型的模糊集数, h=N。Ith为预先 设定的阈值, 取值为 0.92。 0048 如果满足式 (15), 则增加一条新的模糊集, h=h+1, h=N。对新增的模糊集赋初 值即对隶属函数层的新增的高斯函数中心值和宽度值赋初值。初始化表示为 : 0049 cN+1=x(k) (16) 0050 0051 0052 其中, N 表示当前模型已有的模糊规则数, p=1,2,.,N, cN+1表示新增隶属函数的 中心值的初始值, r 表示重叠系数, 取值为 0.6。cp表示为当前模型中第 p 个高斯函数的中 心值。c+表示当 x(k) 。

28、与 cp空间距离最小时 cp的值。i,N+1表示新增隶属函数的宽度初始 值, 输入量 x(k) 与 c+的差值的绝对值与重叠系数的乘积。增加新的模糊集, 即在每个输入 层节点对应的隶属函数层增加一个新的节点, 规则层、 反馈层、 参数层相应的各增加对应节 点。 0053 如果不满足 (15), 则不增加新的模糊集 h=h, 并且 N=N-1, 即将新增加的模糊 规则删除。 0054 继续调整神经网络的结构, 输入数据依次输入, 重复, 所有输入数据输入完 成后, 神经网络结构调整训练完成。 0055 (4) 确定了网络模型的结构, 然后对网络参数就行调整, 用校正后的数据来训练神 经网络, 其。

29、中共150组样本数据, 训练样本数据90组, 测试样本数据60组, 训练步数为1000 步, 每一步的训练过程中, 90 组训练样本数据全部输入, 每组训练样本数据输入均采用梯度 下降算法对网络参数进行调整, 其中调整的参数包括 : 参数层的线性参数 a, 规则层到反馈 层的连接权值 , 隶属函数层高斯函数的中心值 c 和宽度值 。 0056 定义训练的目标函数即系统误差定义为 : 0057 0058 其中 y(k) 为网络的实际输出量, yd(k) 为网络的期望输出量, E(k) 表示系统误差。 0059 梯度下降算法 : 采用目标函数对每一层的输出量求偏导数, 计算每层输出的误差 传播项。。

30、 通过复合函数求偏导数, 计算目标函数对参数值的偏导数, 偏导数即为各参数的调 说 明 书 CN 103606006 A 9 5/8 页 10 整量。 0060 参数层的误差传播项 (4), 即目标函数对参数层输出的偏导数 : 0061 0062 对线性参数 aj的调整量为 : 0063 0064 0065 规则层误差传播项如下 : 0066 0067 递归层到规则层连接权值 jq的调整规则如下 : 0068 0069 0070 隶属函数层的误差传播项如下 : 0071 0072 隶属函数层高斯函数的中心值 cij的调整规则如下 : 0073 0074 0075 隶属函数层高斯函数的宽度 ij。

31、的调整规则如下 : 0076 0077 0078 其中 为参数的学习率, 取值为 0.15。 0079 (5) 对测试样本进行预测, 将测试样本数据作为训练好的神经网络的输入, 神经网 络的输出即为 SVI 的预测结果。 0080 本发明的创造性主要体现在 : 0081 (1). 本发明针对当前污泥容积指数 SVI 难以在线检测的问题, 提出了基于一种自 组织 T-S 模糊递归网络的软测量方法, 实现了辅助变量和 SVI 之间的映射关系及 SVI 的在 线检测 ; 该模型具有精度高、 稳定性好、 实时性强等特点, 为预防污泥膨胀提供了一种有效 说 明 书 CN 103606006 A 10 6。

32、/8 页 11 的检测方法, 促进了污水处理自动化水平的提高 ; 0082 (2). 本发明针对污泥膨胀的特性, 对模糊递归神经网络的反馈层加以改进。基于 规则产生准则, 自动的生成模糊规则, 通过有效的模糊集生成算法, 动态调整网络结构。解 决了网络结构难以确定的问题, 在保证模型精度的同时, 有效的简化了网络结构。 采用梯度 下降参数学习算法, 提高了网络的学习能力。 附图说明 0083 图 1. 自组织 T-S 模糊递归神经网络的拓扑结构图 ; 0084 图 2. 本发明网络模糊规则生成图 ; 0085 图 3. 本发明网络训练拟合结果图 ; 0086 图 4. 本发明软测量结果图 ; 。

33、具体实施方式 0087 实验数据来源于北京某小型污水处理厂实际日报表。图 1 给出了 SVI 的神经网络 预测模型, 其输入分别为混合液悬浮物浓度 MLSS、 酸碱度 pH、 曝气池水温 T、 曝气池氨 NH4, 模型输出为污泥容积指数 SVI。其中 MLSS 是指单位体积生化池混合液所含干污泥的重量 ; pH 反应进水水质的酸碱程度 ;T 是曝气池当前的污水温度 ; NH4代表曝气池进水的氨含量, SVI 代表曝气池混合液经 30 分钟沉淀后 , 相应的 1 克干污泥所占的容积。输入量中除 pH 和 T 外, 其他单位均为毫克 / 升。输出量单位毫升 / 克。共 150 组数据, 其中 90。

34、 组数据用 于训练网络, 另 60 组作为测试样本, 采用结构自组织算法对神经网络进行动态变化。 0088 利用自组织 T-S 模糊递归神经网络建立 SVI 的软测量模型, 对 SVI 进行实时检测 ; 具体步骤如下 : 0089 (1)初始化神经网络, 输入节点为4, 输出节点为1, 模糊规则数为0, 对神经网络的 权值赋初值, 本实验的权值初值均为为 0 到 1 的随机数。 0090 (2) 对样本数据进行校正, 然后做归一化处理。 0091 (3)对神经网络的结构进行自组织调整, 式(13)式(15)Ith=0.92, 输入已 校正的输入数据 : 0092 输入第一组数据 x(1)=4.。

35、72 23.1 43.6 250.4, 归一化处理 x(1)=0.1092 0.8867 0.7572 0.3915。模糊规则数变为 1, 根据式 (9)(10) 对第一组模糊集高斯 函数中心值和宽度值初始化 : 中心值 c1(1)=0.1092 0.8867 0.7572 0.3915, 宽度值 1(1)=0.5 0.5 0.5 0.5 ; 0093 输入第二组数据 x(2)=5.63 23.4 37.2 250.1, 归一化处理 x(2)=0.3707 0.9434 0.5527 0.33907根据式(1)(2) 计算隶属函数层的输出 式 (11) 计算空间激活强度的值,因为只有一个模糊规。

36、则,为最大值, 不满足式 (13), 不增加新的模糊规则 ; 0094 依次输入数据, 直到输入第 23 组数据, 归一化处理 x(23)=0.1954 0.1886 0.5495 0.3968。据式 (1)(2) 计算隶属函数层的输出式 (11) 计算空间激活强度的值, 因为只有一个模糊规则,为最大值, 满足式 说 明 书 CN 103606006 A 11 7/8 页 12 (13) :则增加一个新的模糊规则 ; 0095 计算隶属函数层节点的输出为最大 值, 满足式 (15)则对新增加的模糊规则生成对应的模糊集, 根据式 (16) (18) 对新增的模糊集的参数初始化 : 中心值初值值 。

37、c2=x(23), r 取值为 0.6, 宽度初始值 i2=r*|xi(23)-ci1|,i=1,2,3,4, i2=0.0517 0.0.4189 0.1246 0.0032。 0096 当输入第 k 组数据时, 根据 (1)(2) 计算隶属函数层的节点输出计算规则 层节点的空间激活强度的值, 根据式 (12), 找出的最大值 ; 判断空间激活强度的值 是否小于预定阈值如果满足式 (13), 则增加一个新的模糊规则, 执行第步 ; 如果不满 足式 (13), 则输入第 k+1 组数据, 执行第步。 0097 根据式 (15) 判断隶属函数节点输出的最大值是否大于预定阈值 Ith, 满足 式(。

38、15), 则针对新增加的模糊规则生成对应的模糊集, 根据式(16)(18)对模糊集的参数 初始化 ; 如果不满足式 (15), 则不生成新的模糊集, 并且删除新增加的模糊规则 ; 0098 判断输入数据是否全部输入完成, 完成则进入第 (4) 步, 否则转到第步, 全部 数据训练完成共生成 4 条模糊规则。高斯函数的初值为 : 0099 高斯函数的中心值初值为 0100 高斯函数的宽度值初值为 0101 规则层到反馈层的权值初值为 0102 线性参数的初值为 0103 0104 (4) 用校正后的训练样本数据训练神经网络, 训练步数 s=1000, 如果训练步数选 的过小, 则采集的信息量不够。

39、 ; 如果训练步数选的过大, 会出现过拟合现象。 0105 (5) 对神经网络的参数调整, 训练步数 s=1, 输入数据从第一组数据输入, 计算每 一层的网络输入输出量, 根据式(19)计算目标函数值, 采用梯度下降法对4个参数调整 : 参 数层的线性参数a, 规则层到反馈层的连接权值, 隶属函数层高斯函数的中心值c和宽度 值 。 0106 输入第一组数据 x(1)=0.1092 0.8867 0.7572 0.3915 0107 输入层的输出 : o(1)(1)=x(1)=0.1092 0.8867 0.7572 0.3915 说 明 书 CN 103606006 A 12 8/8 页 13。

40、 0108 隶属函数层的输出 : 0109 反馈层和规则层输出 :o(3)(0)=0 0 0 0, 所以 h=0 0 0 0 0110 0111 所以 o(3)(1)=0.0044 0 0 0.0281 0112 参数层的输出 : o(4)(1)=o(3)(1)W(1)=0.0047 0 0 0.0301 0113 模型的输出 : 0114 yd(1)=0.5960, 计算系统误差 0115 采用梯度下降法对参数调整 : 根据式 (20) (22), 计算参数层线性参数 a 调整 量, 获得调整后的参数值 ; 根据式 (23) (25), 计算规则层到反馈层的连接权值 调整 量, 获得调整后的。

41、参数值 ; 根据式 (26) (30), 计算高斯函数的中心值 c 和宽度值 调整 量, 获得调整后的参数值。 0116 输入下一组数据, 计算模型每一层的输出量, 采用梯度下降算法调整各参数值, 直到所有训练数据全部输入完成。训练步数加 1。 0117 (6)继续训练神经网络, 重复第(5)步, 直到训练步数达到1000步, 完成网络训练。 0118 (7) 对测试样本进行预测 : 将测试样本数据作为训练好的神经网络的输入, 神经 网络的输出为污泥容积指数 SVI。 说 明 书 CN 103606006 A 13 1/2 页 14 图 1 图 2 说 明 书 附 图 CN 103606006 A 14 2/2 页 15 图 3 图 4 说 明 书 附 图 CN 103606006 A 15 。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 物理 > 计算;推算;计数


copyright@ 2017-2020 zhuanlichaxun.net网站版权所有
经营许可证编号:粤ICP备2021068784号-1