《1 引言》

1 引言

自从1943年McCulloch与Pitts提出第一个人工神经元网络MP模型[1], 人工神经元网络的研究已走过了半个多世纪的坎坷道路。这期间人们曾提出了几十种较有影响力的神经元网络模型, 如Perceptron (感知机) [2], Adaline自适应线性元件[3], Grossberg的自适应理论[4,5], Anderson的BSB模型[6], Fukushima的神经认知网络理论[7], Kohonen的自组织映射网络[8]等。特别是进入80年代, Hopfield的反馈网络模型[9]以及多层BP网络[10]的研究使人工神经元网络再次进入蓬勃发展阶段。之后, 各种具有实用意义的神经元网络模型不断涌现, 如Boltzmannn机[11], RBF[12], CMAC[13]等。

在上述人工神经元网络模型中, 系统的输入均为与时间无关的常量, 即网络的输入是几何点式的瞬时输入。然而, 生物学研究表明[14]:在生物神经元中突触的输出变化与输入脉冲的相对定时有关, 即依赖于持续一定时间的输入过程。在其它实际问题中, 大多数系统的输入亦往往是一个过程, 或一个依赖于时间的函数, 而几何点式的瞬时输入只能在理论上存在。过程式输入放宽了传统神经元网络模型对输入的同步瞬时限制, 使问题更为一般化。很多应用可归结为此问题, 如实时控制中, 控制的输入往往是依赖于时间的连续函数, 控制信号的输出既依赖于空间的聚合 (多输入) , 又与时间的累积效应密切相关;在变分问题中, 泛函的定义域一般可为一个与时间有关的过程区间;依赖于时间的多因素优化问题也都可以归结为具有过程输入的情形。具有过程式输入的神经元网络是人工神经元网络在时间域上的扩展, 是更一般化的人工神经元网络模型。因此, 研究过程神经元网络模型的拓扑结构, 函数逼近性质, 学习算法等具有十分普遍性的意义, 在实际中对于求解与过程有关的众多问题有着很大的应用价值。

《2 过程神经元》

2 过程神经元

过程神经元由加权、聚合和激励三部分组成。单个过程神经元的结构图如图1所示。图1中, x1 (t) , x2 (t) , …, xn (t) 为过程神经元输入函数向量;w1 (t) , w2 (t) , …, wn (t) 为相应的权函数;K (t) 为过程神经元的时间聚合基函数;f (·) 为激励函数, 可取线性函数、Sigmoid函数、Gauss型函数等。

过程神经元的输入与输出之间的关系为

《图1》

图1 过程神经元

图1 过程神经元  

Fig.1 Procedure neuron

过程神经元的输入与输出之间的关系为

Y=f((W(t)X(t))Κ()-θ)(1)

这里“⊕”表示某种空间聚合运算, “⨂”表示某种时间 (过程) 聚合运算。例如

W(t)X(t)=i=1nwi(t)xi(t)(2)A(t)Κ()=0ΤA(t)Κ(t)dt(3)

其中K (·) 为[0, T]上的一个可积函数。或更一般地设K (·) 为一个一元泛函, 定义

A(t)Κ()=Κ(A(t))(4)

一般假设权函数W (t) 和时间聚合基函数 (泛函) K (·) 均连续。由式 (1~3) 描述的过程神经元, 其内部运算由加权乘、积分、累加和以及激励函数组成, 称之为狭义过程神经元。

其实, 加权聚合运算“⊕”和“⨂”还可以取其它一般形式的运算, 例如用max和min, 或T-算子和S-算子来构成“⊕”, 激励函数f也可以是任何形式的有界函数。由式 (1, 2, 4) 描述的过程神经元被称为广义过程神经元。

《3 过程神经元网络模型》

3 过程神经元网络模型

由若干个过程神经元按一定的拓扑结构组成的网络称过程神经元网络。类似于传统神经元网络, 过程神经元网络也可以分前向型和反馈型网络。本文仅讨论前向型过程神经元网络。

定义一种其权函数可由一组基函数展开的过程神经元网络模型。设U是泛函空间S={f (x) |x=x (t) ∈Rn, tR, f (x) ∈VRm}上的一个紧致集, 为讨论简单起见, 取m=1, 即多输入单输出系统。也不难将结果推广到m>1的情况。假设过程神经元网络的权函数可被基函数B (t) 展开, 即将权函数的形式限制在一类较简单的函数类中来考虑问题。基函数B (t) 可以是有限基, 也可是可数基, 可以是正交的, 也可以是非正交的。这种过程神经元网络如图2所示。图2中首先把权函数按基展开, 中间各子层的运算如下:

《图2》

图2 基展开过程神经元网络

图2 基展开过程神经元网络  

Fig.2 PNN expanded on base functions

wi(t)=k=1Lwi(k)bk(t)(5)A(t)=i=1nwi(t)xi(t)(6)y=f(0ΤA(t)Κ(t)dt-θ)(7)

或一般地有

y=f(Κ(A(t))-θ)(8)

其中θ为神经元的阈值, f为神经元的激励函数。函数 (泛函) K (·) 应根据实际需要来确定。

式 (7) 或式 (8) 表示的网络是一个单层过程神经元网络。下面讨论一种具有一个隐层的网络, 仍考虑多输入单输出系统, 网络的拓扑结构如图3所示。其中, 中间层 (隐层) 的各单元分别由图2中所示的神经元组成, 并设隐层有p个单元。各隐单元的激励函数和阈限可以相同, 也可以不同, 具有相同激励函数的网络称为正规过程神经元网络, 具有不同激励函数的网络称为混合过程神经元网络。输出层为一个非时变神经元。为简单起见, 仅讨论由式 (7) 定义的网络, 并设K (t) =1, 即

y=g(j=1pvjf(i=1n0Τ(k=1Lwij(k)bk(t)xi(t))dt-θj)-τ)(9)

若假设输出层中g (u) =u, τ=0, 并令

wij(t)=k=1Lwij(k)bk(t)(10)cj(x(t))=0Τi=1nwij(t)xi(t)dt-θj(11)

y=j=1pvjf(cj(x(t)))(12)

《图3》

图3 含一个隐层的基展开过程神经元网络

图3 含一个隐层的基展开过程神经元网络  

Fig.3 PNN expanded on base functions with one hidden layer

《4 基本定理》

4 基本定理

一个合理的神经元网络模型必须具备一些最基本的特性, 包括连续性、逼近能力和计算能力等。本节就来讨论这些问题。

定理1 (连续性定理) 设式 (12) 的输入为x (t) , x* (t) ∈U , 相应的输出分别为y, y*V。若f连续, 则对任意的ε>0, 必存在δ>0, 当‖x (t) - x* (t) ‖<δ时, 有|y- y*|<ε

证明:因f连续, 对任意的ε1>0, 存在δ1>0, 当|cj-c*j|=∫0Τi=1nwij(t)(xi(t)-xi*(t)dtnTWδ2<δ1时, 有| (f (cj) -f (cj′) |<ε1, 其中W=suptij|wij (t) |, 且‖x (t) -x* (t) ‖<δ2<δ1/ (nTW) 。若记hj=f (cj) , h*j=f (c*j) , 对任意的ε>0, 存在δ>0, 当|hj-h*j|<δ时, |j=1pvjhi-j=1pvjhj*|=|j=1pvj(hi-hj*)|p=1p|vj||hi-hj*|<pVε1<ε, 其中V=maxi{|vi|}。只需取ε1=ε/ (pV) , 则定理成立。

定理2 传统前馈神经元网络是过程神经元网络的一种特例。

证明: 只需在式 (9) 中取xi (t) =xi, bi (t) =1, T=1, 则

y=g(j=1pvjf(i=1nwixi-θj)-τ)(13)

即成为一个非时变的传统单隐层前馈神经元网络。

定义1 设K (·) :RnVRRnR上的任意连续函数, 记为KC (Rn) , 定义泛函类

n(Κ)={f:UV|f(x(t))=0ΤΚ(x(t))dtx(t)URn,f(x)VR}

定义2 设x (t) = (x1 (t) , x2 (t) , …, xn (t) ) T, 其中xi (t) 为[0, T]上的连续函数 (记为xi (t) ∈C[0, T]) , i=1, 2, …, n。对任意的t1, t2∈[0, T], 若 |xi (t1) -xi (t2) |≤L|t1-t2|, L≥0, 则称xi (t) 满足Lipschitz条件。若‖x (t1) - x (t2) ‖≤Lx |t1-t2|, Lx≥0, 则称x (t) 满足Lipschitz条件, 若|K (x (t1) ) -K (x (t2) ) |≤LKx (t1) -x (t2) ‖, 则称K (·) ∈C (Rn) 满足Lipschitz条件。

传统神经元网络的研究已经证明了下列熟知的逼近定理。

引理1[10] 对任意的连续函数g (·) ∈C (Rn) , 存在仅含一个隐层的前馈神经元网络可以以任意的精度逼近g

定理3 (逼近定理) 对任意的由定义1定义的连续泛函G (x (t) ) ∈∑n (K) 和ε>0, 若满足Lipschitz条件, 则存在过程神经元网络P, 使得 ‖G (x (t) ) -P (x (t) ) ‖<ε

证明:任取G∈∑n (K) 和ε>0, 即

G(x(t))=0ΤΚ(x(t))dt(14)

不失一般性, 设T=1, 将K看成关于t的复合函数, 并将积分区间N等分, ti=1i为等分点, 则

G(x(t))=i=1Νi-1ΝiΝΚ(x(t))dt(15)

设计泛函G˜(x(t))=1Νi=1ΝΚ(x(ti))作为G (x (t) ) 的近似, 则

|G(x(t))-G˜(x(t))|i=1Ν|i-1ΝiΝΚ(x(t))dt-1ΝΚ(x(ti))|(16)

由于K (x (t) ) 对于t连续, 由积分中值定理, 存在ξi[i-1ΝiΝ], 使

i-1ΝiΝΚ(x(t))dt=1ΝΚ(x(ξi))(17)

于是

|G(x(t))-G˜(x(t))|1Νi=1ΝLΚx(ti)-x(ξi)1Νi=1ΝLΚLx|ti-ξi|LΚLxΝ(18)

其中, LK, Lx分别为K (x) 关于x和x (t) 关于t的Lipschitz常数。于是

G(x(t))=0ΤΚ(x(t))dx=1Νi=0ΝΚ(x(ti))+Ο(1Ν)(19)

记x (i) =x (ti) 。由于K (x (i) ) :Rn→V为C (Rn) 中的连续函数, 由引理1知可用一个传统神经元网络来逼近, 再由定理2, 该传统前馈神经元网络一定能够用一个过程神经元网络来替代。即

|Κ(x(i))-Ρi(x(i))|εi(20)

其中εi>0为任意小数, i=1, 2, …, N, 不妨取εi<ε/ (2N) 。 由式 (19) 知, 存在N0, 当N>N0

|G(x(t))-1Νi=0ΝΚ(x(ti))|<ε2(21)

Ρ(x(t))=1Νi=0ΝΡi(x(ti))(22)

|G(x(t))-Ρ(x(t))|=|G(x(t))-1Νi=0ΝΡi(x(ti))||G(x(t))-1Νi=0ΝΚ(x(ti))|+|1Νi=0ΝΚ(x(i))-1Νi=0ΝΡi(x(i))|<ε/2+ε/2=ε(23)

P (x (t) ) 即为所求。

引理2 存在连续泛函K (·) , 使得对任意的x (t) = (x1 (t) , x2 (t) , …, xn (t) ) 和x* (t) = (x*1 (t) , x*2 (t) , …, x*n (t) ) , 当x (t) ≠x* (t) 时, 必有K (x (t) ) ≠K (x* (t) ) 。

证明:考虑x (t) 的第i个分量xi (t) ∈C [0, T], 可用如下多项式逼近:

xi(t)=j=0aijtj(24)

其中, {aij∈R}, i=1, 2, …, n;j =0, 1, 2, …。 不妨设

aij=(-1)dij10pijsij(25)

其中, dij∈{0, 1}, pijΝ为自然数集合, sij∈ (0, 1) 。令

pij=ni0ni1niΝj,nik{0,1,,9},k=0,1,,Νjsij=sij0sij1sijk,sijk{0,1,,9},k=0,1,,

aij, j=1, 2, … 作如下排列:

《图4》

z的小数部分排列顺序为阵列中从左上角到右下按箭头所示, 并且对于每一个位置做i的从1到n排列。显然z∈[0, 1]。将此映射关系记为K, 显然K为一一映射, 由z的取法知K (·) 连续。

定理4 (逼近定理) 对任意的连续泛函G (x (t) ) :UC (Rn) →VRε>0, 存在过程神经元网络P, 使得 ‖G (x (t) ) -P (x (t) ) ‖<ε

证明:按照引理2的构造方法, 把一个过程神经网络的逼近问题化成了一个传统神经网络的逼近问题, 根据引理1, 定理得证。

定理5 (计算能力定理) 狭义过程神经元网络的计算能力与图灵机等价。

证明:首先在狭义过程神经元网络中所用到的运算由式 (1~3) 知, 无非就是“+", “·", “∫" 以及它们的复合运算, 这些运算都可以用图灵机实现 (对“∫”运算只求近似值) , 故过程神经元网络的计算能力不会大于图灵机。另一方面, 由文献[15]知线性阈值神经元的计算能力等价于图灵机, 而线性阈值神经元又是过程神经元的特例, 因此过程神经元网络的计算能力不会小于图灵机。总之, 过程神经元网络的计算能力等价于图灵机。

《5 结论》

5 结论

本文提出了一类新的神经元网络——过程神经元网络的概念。并证明了相应的连续性定理, 逼近定理, 计算能力定理等重要理论结果。过程神经元网络是对生物神经元网络更贴切的模拟, 实际中很多应用可归结为此问题, 包括诸如某些化工和酿造等工业过程的建模和控制、农业领域内大棚栽培和室内养殖的调控和优化等。总之, 模型对于与过程有关的众多问题的解决具有广泛的应用前景。