1 前言

近年来,不同的计算方法,如模糊集理论、神经网络、遗传算法以及Rough集理论的集成,成为一个活跃的领域,是为了产生更为有效的混合系统,称为软计算方法。人工神经网络通常考虑的是一种把神经元按预先定义的方法连接起来的、固定的拓扑布局,如果能够合理地确定网络的层数、各层的结点数、作用函数及权值的初始化值等,那么神经网络可以逼近数学上许多复杂问题。将模糊逻辑和神经网络的优势结合起来,既能处理模糊信息,完成模糊推理功能,又具有神经网络的并行处理和自学习等特点[2]。Rough集反映了认知过程在非确定性、非模型化信息处理方面的机制和特点,从而成为一种有效的非单调推理工具。

在神经网络中,试图应用Rough集理论是从Yasdi[3]开始的。然而,方法中的Rough集理论只是被用于数据提取一级的知识发现,并没有用于构造网络结构。文献[4]分析了基于神经网络集成的高木-关野模糊系统的缺点为精度不高、训练时间长,并提出了改进的神经网络模型,但该模型没有明显的模糊系统的对应关系,语义性差。

笔者把Rough集理论应用于模糊神经网络中,由训练样本形成的决策表中产生规则,并利用规则可信度作为阈值来约简规则(实际上采用了Skowron提出的缺省规则的思想[5],以约简后的规则数作为模糊神经网络的隐含层的节点数,构造一种新的网络结构,得到较为满意的数值结果。

《2 利用Rough集理论获取规则》

2 利用Rough集理论获取规则

1)论域划分 要运用Rough集理论,必须基于利用现有的知识对论域所做的划分,因此首先面对的问题便是将条件与决策论域按照某些不可分辨关系进行划分。在操作中,划分主要依据专家知识及数据聚类(文献[3]采用了FUSINTER 聚类)。为简便起见后面的实例进行人为的划分。因划分带有极大程度的专家性、主观性,所以论域中的元素与其所在的类之间实际上具有一种模隶属关系,故在划分论域的同时,每个类(实为一个模糊集)的隶属函数也根据专家知识确定下来。

2)构建决策表 按上面所确定的每个类的隶属函数,计算出样本数据针对其相应类的隶属度。取数据针对各隶属函数隶属度最大的类替代该数据,可依次得出条件属性值和决策值。

3)决策表约简 决策表约简可采用任一Rough集约简算法。例中采用文献[5]的算法。

4)计算规则可信度 计算每条规则中,决策属性类针对条件属性类的上、下近似,并利用

\(\mu\left(x_{k}\right)=\min \left|\left[x_{k}\right]_{R_{i}} \cap D_{k}\right| /\left|\left[x_{k}\right]_{R_{i}}\right| \)

计算各规则的可信度,其中xk代表第k(k=1,2,···,n)条规则,Dk代表第k条规则的决策属性类,Ri代表针对该规则的第i个条件属性所作的分类(i=1,2,,n)。

《3 构造模糊神经网络结构》

3 构造模糊神经网络结构

应用多层前馈BP网络构造模糊变量集隶属函数,实现 Rough推理过程。该网络是1个具有3层隐层的前馈神经网络,如图1所示。

《图1》

图1 模糊神经网络结构图

Fig.1 The structure of fuzzy neural network

第一层的输入为语言变量{xj},第j个节点对应输入向量x的第j个分量,输入值为精确值,输入向量x的分量个数就是最简决策表的属性核的个数j=1,2,,n。

第二层是词集节点,用来表示x;分别属于|NB,NM,NS,0,PS,PM,PB}的隶属函数为

\(\mu_{A_{i j}}\left(x_{j}\right)=\exp \left[-\left(\left(w_{s} x_{j}-w_{c}\right) /\left(1 / w_{\mathrm{d}}\right)\right)^{2}\right]\)

式中i=1,2,......,7为模糊化等级为7级(也可选3级或5级),\(w_{s}\)为输入变量的量化因子,\(w_{c}\)为隶属函数的中心元素,\(w_{d}\)为隶属函数的尺度因子,

在网络训练时的初始值为随机数。第二层在语言节点与对应的词集节点之间完全相联系。

设网络的第L层的第j个节点的输入为片,输出为O。网络第一层和第二层的输入输出关系如下:

第一层 \( I_{j}^{1}=w_{\mathrm{s} j} x_{j}, O_{j}^{1}=I_{j}^{1}, j=1,2, \cdots, n \) 。

第二层 \( \quad I_{j}^{2}=O_{n}^{1}-w_{\mathrm{cj}}, O_{j}^{2}=\exp \left[-\left(w_{\mathrm{d} j} I_{j}^{2}\right)^{2}\right] ,  j=7(n-1)+1, \cdots, 7 n  \)

第二层神经元的作用函数(核函数)取用高斯函数,具有如下优点:a.表示形式简单,即使对多变量输入也不增加太多的复杂性;b.径向对称;c.光滑性好,任意阶导数均存在;d.由于该基函数表示简单且解析性好,因而便于进行理论分析。

第三层是规则前件层,具有模糊“与”运算功能,所有第三层节点形成模糊规则基。该层神经元的个数为最简决策表所得出的初始规则的条件属性个数。第三、第四层间的连线起到联接机制的推理作用,以避免出现规则匹配过程。

第四层是规则决策层,执行模糊“或”运算,以合成有同样结果的加权规则。该层节点数为由最简决策表得出的初始规则的决策属性个数。

第五层是输出层,起清晰化作用,去模糊后得到网络输出。在多输入单输出系统中,该层的节点数为1,权值的初始值预设为各规则的可信度值。

网络第三层至第五层的输入输出关系如下:

第三层  \(\quad I_{k}^{3}=O_{i_{1}}^{2} O_{i_{2}}^{2} \cdots O_{i_{\|}}^{2}, i_{n}=7(n-1)+   1, \cdots, 7 n, O_{k}^{3}=I_{k}^{3}, k=1,2, \cdots, 7^{n} \);

第四层  \(\quad I_{k}^{4}=O_{k}^{3} / \sum_{s=1}^{7^{n}} O_{s}^{3}, O_{k}^{4}=I_{k}^{4} \);

第五层  \(\quad I_{1}^{5}=\sum_{k} O_{k}^{4} w_{\mathrm{b} k}, O_{1}^{5}=I_{1}^{5} \) 。

根据上述推导,模糊神经网络的输出为\(y= \sum_{k} P_{k}\left(x_{j}\right) w_{b k} \),其中

\(P_{k}\left(x_{j}\right)=\prod_{j=1}^{n} \mu_{A_{j k}}\left(x_{j}\right) / \sum_{k} \prod_{j=1}^{n} \mu_{A_{j k}}\left(x_{j}\right)\)

所以,模糊神经网络的输出\(y=\sum_{k} \prod_{j=1}^{n} \mu_{A_{j k}}\left(x_{j}\right) . w_{b k} / \sum_{k} \prod_{j=1}^{n} \mu_{A_{j k}}\left(x_{j}\right) \)的形式恰等同于文献[6]中提及的典型模糊推理系统的输出\(y=\sum_{j=1}^{R} \mu_{j} y^{j} / \sum_{j=1}^{R} \mu_{j} \)其中\( \mu_{j}-\mu_{A_{1}^{j}}\left(x_{1}\right) \mu_{A_{2}^{j}}\left(x_{2}\right) \cdots \mu_{A_{n}^{j}}\left(x_{n}\right) \)

《4 网络的学习算法》

4 网络的学习算法

在网络结构确立之后,就进入学习阶段以优化调整隶属函数的参数。对于模糊神经网络来说,误差函数定义为

\(E=\frac{1}{2} \sum^{m}\left(y_{0}(t)-y(t)\right)^{2}\),

式中m是学习样本数,y0(t)是系统期望输出值,y(t)是系统实际输出值。反向传播思想被用来监督学习,通过调整网络各权值,使误差函数E达到最小,从而达到修正隶属函数参数的目的。对每组训练数据,从输入节点开始,采用前向通道计算网络内所有节点的活性水平;从输出节点开始,通过反向通道计算所有隐节点的\(\frac{\partial E}{\partial w}\)假设w是一节点的可调参数,一般的学习规则为

\(\Delta w \propto-\frac{\partial E}{\partial w}, w(t+1)=w(t)+\eta\left(-\frac{\partial E}{\partial w}\right) \),

其中η是学习速率。为了表示学习规则,从输出节点开始,使用隶属函数进行计算,因此用隶属函数中心wci和宽度wdi作为可调整参数。

设用o表示第L层第j个节点的误差反传信号,各层的误差反传信号为:

输出层 \(\quad w_{\mathrm{c} i}(t+1)=w_{\mathrm{c} i}(t)+\eta\left[y_{0}(t)-\right. y(t)] w_{\mathrm{d} i} O_{i}^{4} / \sum_{k} w_{\mathrm{d} k} O_{k}^{4}\)

\(w_{\mathrm{d} i}(t+1)=w_{\mathrm{d} i}(t)+\eta\left[y_{0}(t)-y(t)\right] \cdot \\ \left[w_{\mathrm{c} i} O_{i}^{4} \sum_{k} w_{\mathrm{d} k} O_{k}^{4}-\left(\sum_{k} w_{\mathrm{ck}} w_{\mathrm{d} k} O_{k}^{4}\right) O_{i}^{4}\right] / \left(\sum_{k} w_{\mathrm{d} k} O_{k}^{4}\right)^{2} \)

第四层  \(\quad \sigma_{i}^{4}(t)=\left[y_{0}(t)-y(t)\right]\left[w_{\mathrm{c} i} O_{i}^{4} \sum_{k} w_{\mathrm{d} k}\right. . \\ \left.O_{k}^{4}-\left(\sum_{k} w_{\mathrm{c} k} w_{\mathrm{d} k} O_{k}^{4}\right) O_{i}^{4}\right] /\left(\sum_{k} w_{\mathrm{d} k} O_{k}^{4}\right)^{2}\) ;

第三层 \( \quad \sigma_{i}^{3}=\sum_{k} \sigma_{k}^{4}\) ;

第二层  \(w_{\mathrm{c} i j}(t+1\}=w_{\mathrm{c} i j}(t)-\eta \sum_{k} \sigma_{k}^{3} O_{i}^{2} 2\left(O_{i}^{1}-\right. \\ \begin{array}{c} \left.w_{\mathrm{c} i j}\right) / w_{\mathrm{d} i j}^{2}, \\ w_{\mathrm{d} i j}(t+1)=w_{\mathrm{d} i j}(t)-\eta \sum_{k} \sigma_{k}^{3} O_{i}^{2} 2\left(O_{i}^{1}-\right. \\ \left.w_{\mathrm{c} i j}\right)^{2} / w_{\mathrm{d} i j}^{3} \circ \end{array}\)

《5 网络模型的全局逼近性质》

5 网络模型的全局逼近性质

引理(Stone-Weirstrass定理[7])设Z为一组定义在致密集U上的连续实函数。如果:a.为一个代数,即集合Z对加法、乘法和标量乘法是封闭的;b.Z能离析U上的各点,即对每一个\(x, y \in U \subset R^{n} \), 若 \( x \neq y \), 则必然存在\(  f \in Z \), 使 得\(  f(x) \neq f(y) \); c.  Z  在  U  上任意一点不为零, 即对每一个\(  x \in U \), 均存在\(  f \in Z \), 使得 \( f(x) \neq  0 \), 则  Z  的一致封闭包括了  U  上的所有连续函数, 即\(  \left(Z, d_{\infty}\right)  \)\(  \left(c[U], d_{\infty}\right)  \)上是致密的。

证明 基于Rough集理论的模糊神经网络是一个全局逼近器。由网络的输入输出关系可知,Y是定义在U上的一组连续实函数,从三方面证明:

1)\( \left(Y, d_{\infty}\right) \)是一个代数

\(  \forall f_{1}, f_{2} \in Y \), 令 \( f_{1}, f_{2}  \)的表达式为:

\(\begin{array}{l} f_{1}(x)=\sum_{k=1}^{m_{1}} P_{k}^{1}\left(x_{j}\right) w_{\mathrm{b} k}^{1}, \\ f_{2}(x)=\sum_{k=1}^{m_{2}} P_{k}^{2}\left(x_{j}\right) w_{\mathrm{b} k}^{2}, \end{array}\)

于是有\(  f_{1}(x) f_{2}(x)=\sum_{k=1}^{m_{1}} P_{k}^{1}\left(x_{j}\right) w_{b k}^{1} \sum_{k=1}^{m_{2}} P_{k}^{2}\left(x_{j}\right) .\\ w_{\mathrm{b} k}^{2}=\sum_{k=1}^{m_{1}} \sum_{k=1}^{m_{2}} P_{k_{1}}^{1}\left(x_{j}\right) P_{k_{2}}^{2}\left(x_{j}\right) w_{\mathrm{b}}^{1} w_{\mathrm{b} k}^{2} \text { 。 }\)

由于\(  P_{k}^{1}\left(x_{j}\right)  \)\(  P_{k}^{2}\left(x_{j}\right)  \)均为高斯型, 因而二者的乘积仍为高斯型。所以上式的形式完全等同于网络输出的形式。所以有\(  f_{1}(x) f_{2}(x) \in Y_{\circ} \forall c \in R \), 有\(  c f_{1}(x)=\sum_{k=1}^{m_{1}} P_{k}^{1}\left(x_{j}\right) c w_{\mathrm{b} k}^{1} \), 显然该式的形式完全 等同于网络输出的形式, 所以有\(  c f_{1}(x) \in Y\)  。同样有\(  f_{1}(x)+f_{2}(x)=\sum_{k=1}^{m_{1}} P_{k}^{1}\left(x_{j}\right) w_{\mathrm{b} k}^{1}+   \sum_{k=1}^{m_{2}} P_{k}^{2}\left(x_{j}\right) w_{\mathrm{b} k}^{2} \), 显然该式的形式也完全等同于网络 输出 的形式, 所以有\(  f_{1}(x)+f_{2}(x) \in Y  \)。 因此可知, \( \left(Y, d_{\infty}\right)  \)是一个代数。

2) \( \left(Y, d_{\infty}\right)  \)能离析  U  上的点

证明要证对于任意给定的\(  x^{0}, y^{0} \in U \), 当\(  x^{0} \neq y^{0}  \)时, 有\(  f\left(x^{0}\right) \neq f\left(y^{0}\right) \) 。模糊神经网络的输 出表达式中, 令  k=2 , 则有:\(y=\frac{\prod_{j=1}^{n} \mu_{A_{j 1}}\left(x_{j}\right) w_{\mathrm{b} 1}+\prod_{j=1}^{n} \mu_{A_{j 2}}\left(x_{j}\right) w_{\mathrm{b} 2}}{\prod_{j=1}^{n} \mu_{A_{j 1}}\left(x_{j}\right)+\prod_{j=1}^{n} \mu_{A_{j 2}}\left(x_{j}\right)} \)

\(  \mu_{A_{j 1}}\left(x_{j}\right)=\exp \left[-\left(x_{j}-x_{j}^{0}\right)^{2}\right], \mu_{A_{j 2}}\left(x_{j}\right)=   \exp \left[-\left(x_{j}-y_{j}^{0}\right)^{2}\right] \), 则有


\(f\left(x^{0}\right)=\frac{w_{\mathrm{b} 1}+\prod_{j=1}^{n} \exp \left[-\left(x_{j}^{0}-y_{j}^{0}\right)^{2}\right] w_{\mathrm{b} 2}}{1+\prod_{j=1}^{n} \exp \left[-\left(x_{j}^{0}-y_{j}^{0}\right)^{2}\right]},\)


\(f\left(y^{0}\right)=\frac{w_{\mathrm{b} 2}+\prod_{j=1}^{n} \exp \left[-\left(y_{j}^{0}-x_{j}^{0}\right)^{2}\right] w_{\mathrm{b} 1}}{1+\prod_{j=1}^{n} \exp \left[-\left(y_{j}^{0}-x_{j}^{0}\right)^{2}\right]} \)

由于前面已经假设\(  x^{0} \neq y^{0} \), 因而必然存在某些  j , 使得\(  x_{j}^{0} \neq y_{j}^{0} \), 这样就有\(  \prod_{j=1}^{n} \exp \left[-\left(x_{j}^{0}-y_{j}^{0}\right)^{2}\right] \neq  1 \), 所以就有\(  f\left(x^{0}\right) \neq f\left(y^{0}\right) \) 。

3)  \(\left(Y, d_{\infty}\right)  \)上所有点均不为零

从模糊神经网络的输出表达式中可以看出,只要简单地选取wbk>0,其所对应的任何f均可以保证\(\left(Y, d_{\infty}\right)  \)上所有点不为零。

从以上结论,再根据引理(Stone-Weirstrass定理)的内容,可以直接推出图1所示的基于Rough集理论的模糊神经网络是一个全局逼近器。

6 实例及分析

以文献 [8] 中的二维非线性函数\(  z=\sin (\pi x) .  \cos (\pi y), x, y \in[-1,1]  \)来说明和验证新提出的方 法。将\(  x, y \in[-1,1]  \)分别均匀划分为 20 个区间, 代入上式可以得到441组样本数据见表1,函数图像见图2,采样图像见图3。对上述数据按表2的离散化方法进行处理,离散后的数据以x,y为条件属性,z为决策属性构成一个决策表,并利用Rough集理论,得到属性核为PCORE=| x,y |,通过约简得到68条规则如表3所示。通过可信度阈值(大于0.65)的限定,最后得到7条规则见表4。

《表1》

表1 样本数据*

Table 1 The sample data

-1.00-0.90-0.80-0.70-0.60-0.50-0.40-0.30-0.20-0.10 0.00 0.10 0.20 0.30 0.40 0.50  0.60   0.70 0.80      0.90 1.00

-1.0 0

0.31 0.59 0.81 0.95 1.00 0.95 0.81 0.59 0.31

0

-0.31-0.59-0.81-0.95-1.00-0.95-0.81-0.59-0.31 0

-0.9 0

0.29 0.56 0.77 0.90 0.95 0.90 0.77 0.56 0.29

0

-0.29-0.56-0.77-0.90-0.95-0.90-0.77-0.56-0.29 0

-0.8 0

0.25 0.48 0.65 0.77 0.81 0.77 0.65 0.48 0.25

0

-0.25-0.48-0.65-0.77-0.81-0.77-0.65-0.48-0.25 0

-0.7 0

0.18 0.35 0.48 0.56 0.59 0.56 0.48 0.35 0.18

0

-0.18-0.35-0.48-0.56-0.59-0.56-0.48-0.35-0.18 0

-0.6 0

0.10 0.18 0.25 0.29 0.31 0.29 0.25 0.18 0.10

0

-0.10-0.18-0.25-0.29-0.31-0.29-0.25-0.18-0.10 0

-0.5 0

0     0      0      0      0      0      0      00

0

0      0             0      0      0             0      0      0      0       0

-0.4 0

-0.10-0.18-0.25-0.29-0.31-0.29-0.25-0.18-0.10

0

0.10 0.18 0.25 0.29 0.31 0.29 0.25 0.18 0.10 0

-0.3 0

-0.18-0.35-0.48-0.56-0.59-0.56-0.48-0.35-0.18

0

0.18 0.35 0.48 0.56 0.59 0.56 0.48 0.35 0.18 0

-0.2 0

-0.25-0.48-0.65-0.77-0.81-0.77-0.65-0.48-0.25

0

0.25 0.48 0.65 0.77 0.81 0.77   0.65 0.48      0.25 0

-0.1 0

-0.29-0.56-0.77-0.90-0.95-0.90-0.77-0.56-0.29

0

0.29 0.56 0.77 0.90 0.95 0.90 0.77 0.56 0.29 0

0      0

-0.31-0.59-0.81-0.95-1.00-0.95-0.81-0.59-0.31

0

0.31 0.59 0.81 0.95     1.00 0.95 0.81 0.59 0.31 0

0.1 0

-0.29-0.56-0.77-0.90-0.95-0.90-0.77-0.56-0.29

0

0.29   0.56   0.77 0.90      0.95 0.90      0.77   0.56 0.29 0

0.2 0

-0.25-0.48-0.65-0.77-0.81-0.77-0.65-0.48-0.25

0

0.25 0.48      0.65 0.77 0.81  0.77   0.65   0.48   0.25 0

0.3 0

-0.18-0.35-0.48-0.56-0.59-0.56-0.48-0.35-0.18 0

 

0.18 0.35 0.48 0.56 0.59 0.56 0.48 0.35 0.18 0

0.4 0

-0.10-0.18-0.25-0.29-0.31-0.29-0.25-0.18-0.10

0

0.10 0.18 0.25 0.29 0.31 0.29 0.25 0.18  0.10 0

0.5 0

0    0      0      0      0      0      0      0      0

0

0      0      0      0      0      0      0      0      0      0

0.6 0

0.10 0.18 0.25 0.29 0.31 0.29 0.25 0.18 0.10

0

-0.10-0.18-0.25-0.29-0.31-0.29-0.25-0.18-0.10 0

0.7 0

0.18 0.35 0.48 0.56 0.59 0.56 0.48 0.35 0.18

0

-0.18-0.35-0.48-0.56-0.59-0.56-0.48-0.35-0.18 0

0.8 0

0.25 0.48 0.65 0.77 0.81 0.77 0.65 0.48 0.25

0

-0.25-0.48-0.65-0.77-0.81-0.77-0.65-0.48-0.25 0

0.9 0

0.29 0.56 0.77 0.90 0.95 0.90 0.77 0.56 0.29

0

-0.29-0.56-0.77-0.90-0.95-0.90-0.77-0.56-0.29 0

1.0 0

0.31 0.59 0.81 0.95  1.00 0.95 0.81 0.59 0.31

0

-0.31-0.59-0.81-0.95-1.00-0.95-0.81-0.59-0.31 0

*第一行为x,第一列为y,其余为z

这样,根据上述的数据处理方法得到相应的神经网络模型,即:第一层的节点数为2个,第二层的节点数为9个,第三层的节点数为7个,第四层的节点数为3个,第五层的节点数为1个。第四层

《图2》

图2 函数图像

Fig. 2 Function figure

《图3 》

图3 采样图像                

Fig.3 Sampling figure

《表2》

表2 x,y,z值的离散方法

Table 2 The discretization method of x,y,z

x,y,z值

离散区间 [-

1,-0.6]

[-0.6.-0.2]

[-0.2.0.2]

[0.2.0.6]

 [0.6.1]

对应离散值

1

2

3

4

5

和第五层之间的连接权值的初始值取规则的可信度,即为{1,0.75,0.9375},其余参数的初始值取[-1,1]间的随机数。最后构造的模糊神经网络结构如图4所示。

最后,用表1中的数据作为训练样本,学习速率为0.005,通过655次的训练后,总体误差为0.000 982(文献[8]中在75组数据同样训练次数

《7 结论》

7 结论

所提出的把 Rough集理论和模糊神经网络结合起来的新型神经网络构造方法,充分发挥了Rough集理论和模糊神经网络各自的优势,弥补了各自的缺点,从实例的结果可以看出该网络可以得到令人满意的解决问题的方法。这种模糊神经网络的模型和算法具有如下特点:

1)通过 Rough集理论进行知识约简,得出针对原始数据的最简初始规则,使网络从开始就具有良好简洁的拓扑结构,学习速度相应优良;

2)该网络是一个全局逼近器;

3)各层都有明显的物理意义,具有极好的语义性;

4)模型可以解释,每层的节点数都可具体确定;

《表3》

表3 利用Rough 集理论获取规则

Table 3 The rules acquired by Rough set theory

x([-1,-0.6]) AND y([-1, -0.6])==([-0.2,0.2])OR=([0.2,0.6))OR=([0.6,1])

0.3125,0.5,0.1875

x([-1,-0.6]] AND y([-0.6, -0.2))>=([-0.2,0.2))OR=([-0.6,-0.2))OR=([0.2.0.6))

0.75,0.1875,0.0625

x([-1,-0.6])AND y([-0.2,0.2]]>=([-0.2.0.2]]ORz([-0.6,-0.2]]OR=([-1,-0.6))

0.25,0.5,0.25

x([-1,-0.6])ANDy([0.2,0.6))>=([-0.2,0.2))OR=([-0.6,-0.2))OR=([-1,-0.6))

0.625,0.3125,0.0625

x([-1, -0.6]) AND y([0.6,1])>z([-0.2,0.2]]OR=([0.2,0.6]]OR=([0.6,1])

0.4,0.45,0.15

x([-0.6,-0.2])AND y([-1,-0.6))>z([0.6,1]) OR=([0.2,0.6))

0.75,0.25

x([-0.6,-0.2])AND y([-0.6,-0.2]]→z([0.2,0.6]] OR =([-0.2,0.2]]OR=([-0.6,-0.2))

0.25,0.25,0.5

x([-0.6,-0.2])AND y([-0.2,0.2])==([-1,-0.6])

1

x([-0.6,-0.2])AND y([0.2,0.6))==([-1,-0.6))OR=([-0.6,-0.2))OR=([-0.2,0.2))

0.25,0.5,0.25

x([-0.6,-0.2])AND y([0.6,1])=z([0.2,0.6))OR=([0.6,1])

0.4,0.6

x([-0.2,0.2])ANDy([-1,-0.6]]==([0.2,0.6]]OR=([-0.2,0.2]]OR=([-0.6,-0.2))

0.4375,0.375,0.1875

x([-0.2,0.2]) AND y([-0.6, -0.2))>=([-0.2, 0.2)) OR =([-0.6,-0.2))

0.9375,0.0625

x([-0.2,0.2])AND y([-0.2,0.2]]=([-0.6,-0.2]]OR=([-0.2,0.2]]OR=([0.2,0.6))

0.5,0.25,0.25

x([-0.2,0.2])AND y([0.2,0.6))>z([-0.6,-0.2))OR=([-0.2,0.2))OR=([0.2,0.6))

0.1875,0.75,0.0625

x([-0.2,0.2])AND y([0.6,1])=z([-0.2,0.2]] OR =([0.2,0.6]] OR =([-0.6, -0.2))

0.5,0.35,0.15

x([0.2,0.6])ANDy([-1,-0.6))==([-0.6,-0.2))OR=([-1,-0.6))

0.4375,0.5625

x([0.2,0.6]]AND y([-0.6,-0.2]]→=([-0.2,0.2]]OR=([0.2,0.6]]OR=([-0.6,-0.2))

0.375,0.4375,0.1875

x([0.2,0.6]]AND y([-0.2,0.2))=z([0.2,0.6))OR=([0.6,1])

0.25,0.75

x([0.2,0.6]]AND y([0.2,0.6]]=z([0.2,0.6]] OR =([-0.2,0.2))OR=([0.6,1])

0.5,0.3125,0.1875

x([0.2,0.6))AND y([0.6,1])==([-0.2.0.2))OR=([-0.6,-0.2))OR=([-1,-0.6))

0.05,0.5,0.45

x([0.6,1])AND y([-1,-0.6]]>=([-1, -0.6]] OR =([-0.6, -0.2]]OR=([-0.2,0.2))

0.3,0.45,0.25

x([0.6,1])AND y([-0.6,-0.2))>z([-0.6,-0.2))OR =([-0.2,0.2))OR=([0.2,0.6))

0.1,0.65,0.25

x([0.6,1])ANDy([-0.2,0.2]]==([0.6,1])OR=([0.2.0.6]]OR=([-0.2.0.2))

0.4,0.4,0.2

x([0.6,1])AND y([0.2,0.6))>z([0.6,1])OR=([0.2,0.6))OR=([-0.2,0.2)).

0.1,0.35,0.55

x([0.6,1])AND y([0.6,1])=z([-0.6,-0.2]]OR=([-1,-0.6]]OR=([-0.2,0.2))

0.44,0.24,0.32

《表4》

表4 约简后的缺省规则

Table 4 The default rules after the reduction

x([-1,-0.6]]ANDy([-0.6,-0.2]]

0.75

z([-0.2,0.2))

x([-0.6,-0.2))ANDy([-1,-0.6))>

0.75

([0.6,1])

x([-0.6,-0.2])ANDy([-0.2,0.2])=

1.00

z([-1,-0.6])

x([-0.2,0.2])AND y([-0.6,-0.2])>

0.9375

=([-0.2,0.2])

x([-0.2,0.2]]AND y([0.2,0.6]]

0.75

z([-0.2,0.2)

x([0.2,0.6))AND y([-0.2,0.2))>

0.75

=([0.6,1])

x([0.6,1])AND y([-0.6,-0.2))>

0.65

z([-0.2,0.2)

5)网络的精度取决于输入节点的不可分辨类的划分及规则的最小可信度的选取;

6)完全符合模糊推理过程。