《1 引言》

1 引言

作为线性方法, PCA (主分量分析) 方法是最小均方误差意义上的最优维数压缩技术[1]。这种方法基于数据的二阶统计信息 (基于相应协方差矩阵) 进行分析, 抽取不相关的各个特征分量.应用中, PCA方法可通过求解特征方程实现, 并选择对应较大特征值的特征向量作为变换轴。

如果原始数据的特征存在复杂的非线性关系, 相比主分量分析, 非线性主分量分析更适合用作特征抽取方法[2]。KPCA (核主分量分析) [3]是成功的一种NPCA (非线性主分量分析) 方法。相比一般的NPCA方法, KPCA并不需要直接对样本数据进行非线性映射, 因而其实现是简洁高效的。KPCA方法广泛地应用于特征抽取, 人脸识别, 图像处理等问题。如同其他核方法 (譬如KFDA, KMSE等) 一样, 基于KPCA方法对某样本进行特征抽取时, 需计算该样本与所有训练样本间的核函数;训练样本集越大, 相应计算量也越大, 效率也越低[4,5,6,7,8], 而很多实际的模式分类任务要求系统具有较高的效率。从应用角度分析, 有必要对KPCA方法进行改进, 以提高其效率。笔者假设特征空间中的变换轴可由一部分训练样本线性表出, 并据此发展了一种改进的KPCA (IKPCA) 方法。

《2 PCA与KPCA》

2 PCA与KPCA

《2.1PCA》

2.1PCA

PCA方法又称为K-L变换, 其表述如下[9,10]

X是一个n维的随机变量, u1, u2, …, unn维空间的正交归一化矢量系, 即

(ui)Τ(uj)={1(i=j)0(ij)(1)

则可将X无误差地表示为

X=i=1nyiui(2)

其中yi= (ui) TX, i=1, 2, …, n, 若用前r项估计X, 即

X^=i=1ryiui(3)

则由此引起的均方误差为

ε=i=r+1nE(yi2)(4)

亦即

ε=i=r+1n(ui)ΤE(XXΤ)(ui)=i=r+1n(ui)Τ(ui)(5)

使用拉格朗日乘子法, 可以求出在满足正交归一化条件式 (1) 下, 使得均方误差ε取极值的坐标系统。换言之, 拉格朗日函数

g=i=r+1n(ui)ΤΣ(ui)-i=r+1nλi((ui)Τ(ui)-1)(6)

取得极值时, 式 (5) 也取得极值。而式 (6) 取得极值应满足条件

(Σ-λiΙ)(ui)=0(i=r+1,,n)(7)

r=0, 则可得到如下结论:

以矩阵Σ的特征向量作为坐标轴来展开X时, 其截断均方误差具有极值性质, 且当取rui (i=1, …, r) 来表示X时, 其均方误差为

ε=i=r+1nλi(8)

式中, λi是矩阵Σ的相应特征值。因此, PCA方法一般求出协方差矩阵较大特征值对应的特征向量作为变换轴。

《2.2PCA中核函数的引入》

2.2PCA中核函数的引入

假设x1, x2, …, xN为训练样本, 用{xi}表示输入空间。KPCA方法的基本思想是通过某种隐式方式将输入空间映射到某个高维空间 (常称为特征空间) , 并在特征空间中实现PCA。假设相应的映射为ϕ, 并且由此映射而得的特征空间中数据满足中心化的条件, 即

i=1Νϕ(xi)=0(9)

则特征空间中协方差矩阵为

Σ=1Νi=1Νϕ(xi)ϕ(xi)Τ(10)

对不满足中心化的情况, 可参考文献[3]。 可认为特征空间中最小均方误差意义上的最优变换轴ui必为所有样本的线性组合, 也称ui位于ϕ (x1) , ϕ (x2) , …, ϕ (xN) 张成的子空间中, 并表示为[3]

ui=j=1Ναj(i)ϕ(xj)(11)

联合式 (6) 与式 (11) , 令r=0, 得

g=1Νi=1Ν(α(i))ΤΚΚΤα(i)-i=1Νλi(α(i))ΤΚα(i)+i=1Νλi(12)

矩阵K中元素为Mercer核, 即 (K) ij=k (xi, xj) =ϕ (xi) ϕ (xj) 。 由于此处K为对称阵, 将式 (12) 对α (i) 求导, 可得

Κ2α(i)/Ν=λiΚα(i)(13)

式 (13) 可改写为特征方程

Κα=λα(14)

其中 λ′=i

《2.3基于KPCA的特征抽取》

2.3基于KPCA的特征抽取

在特征空间的训练样本集{ϕ (xi) }上计算特征方程式 (14) 的非零特征值与相应特征向量。假设按降序排列的若干个较大非零特征值为λ1, λ2, …, λm (mN) , 相应特征向量为α (1) , α (2) , …, α (m) , 并假设特征空间中相应单位特征向量分别为u (1) , u (2) , …, u (m) , 则关系式

u(i)=λi-1/2j=1Ναj(i)ϕ(xj),i=1,2,,m(15)

成立。据此容易给出特征空间中样本ϕ (x) 在u (i) 上投影的计算式。若将ϕ (x) 在m个特征向量上的投影值组成矢量, 则可得

y=λ1-1/2[j=1Ναj(1)k(xj,x)λ2-1/2j=1Ναj(2)k(xj,x),λm-1/2k=1Ναj(m)k(xjx)]Τ(16)

在实际应用中, 可根据不同情况选定m值, m也称为KPCA方法的主分量数。分类可基于式 (16) 给出的样本特征进行。

《3 提升KPCA特征抽取效率的算法设计》

3 提升KPCA特征抽取效率的算法设计

《3.1提高KPCA方法特征抽取效率的思路》

3.1提高KPCA方法特征抽取效率的思路

KPCA算法认为特征空间中的特征向量位于ϕ (x1) , ϕ (x2) , …, ϕ (xN) 张成的子空间中, 特征抽取由式 (16) 规定。式 (16) 表明, 为了得出一个样本在特征空间的每一个特征分量, 均需计算该样本与所有训练样本间的核函数, 并做累加。若训练样本集较大, 特征抽取会对应很大的计算量, 使得基于KPCA的特征抽取效率较低, 其他核方法也面临这一问题。而在一些实时性要求很强的应用中, 算法的高效性是必须考虑的重要因素。鉴于此, 提升KPCA方法特征抽取效率很有重要意义。

假设, 在特征空间中训练样本集中一部分样本的线性组合即可较好地表示主分量 (或者称逼近主分量) 。换个角度分析, 虽然所有样本的线性组合可准确描述式 (15) 中的特征向量u (i) ;但可认为特征空间中不同样本在该线性组合中的重要性不完全相同, 其中一部分样本的贡献较大, 而另一些则相反。假如能从所有样本中找出比较重要的那部分样本, 并以其线性组合的形式给出特征空间中主分量的近似表示式, 则可减少基于KPCA的特征抽取的计算代价。相似的思路曾在KFD (核Fisher鉴别分析) 中得到很好的应用[11,12]

根据PCA方法的特点, 提出按照相应特征值的大小判断训练样本的重要程度, PCA方法中特征值越大, 相应主分量对原数据的描述能力越强, 由此抽取出的特征包含原数据的信息越多。

假设

ui=j=1sαj(i)ϕ(xj(0))s<Ν(17)

称ϕ (xj (0) ) 为特征空间中的节点。令α (i) =[α1 (i) α2 (i) αN (m) ]T。此时式 (12) 相应变形为

g=1Νi=1Ν(α(i))ΤΚ1(Κ1)Τα(i)-i=1Νλi(α(i))ΤΚ2α(i)+i=1Νλi(18)

其中

Κ1=[k(x1(0),x1)k(x1(0)xΝ)k(x2(0),x1)k(x2(0)xΝ)k(xs(0),x1)k(xs(0)xΝ)]Κ2=[k(x1(0),x1(0))k(x1(0)xs(0))k(x2(0),x1(0))k(x2(0)xs(0))k(xs(0),x1(0))k(xs(0)xs(0))]

将式 (18) 对α (i) 求导, 可得广义特征方程

Κ1(Κ1)Τα(i)/Ν=λiΚ2α(i)(19)

K2可逆条件下, 令 λ′=i, 该特征方程可改写为如下等价形式

(Κ2)-1Κ1(Κ1)Τα=λiα(20)

K2非可逆, 则可采用 (K2+μI) -1K1 (K1) Tα=λiα求解α, 其中I为单位矩阵, μ为正常数。

《3.2算法设计》

3.2算法设计

Step 1 选出第一个节点:

对单个训练样本xi, i=1, 2, …, N, 首先计算相应K1, K2。根据上面相应公式可知, 在该步骤中, K2为一数量值, K1 (K1) T也为一数量值。计算λi=K1 (K1) T/K2。将对应最大λi 的样本作为第一个节点, 并记为x1 (0) 。将对应x1 (0) K1, K2分别记为K1 (0) , K2 (0)

Step 2 选出第二个节点:

kj(1)=[k(xj,x1),k(xj,x2),,k(xj,xΝ)](21)

为样本xj (xjx1 (0) ) 的核向量, 且与x1 (0) , xj对应的矩阵K1, K2分别为

Κ1=[Κ1(0)kj(1)],Κ2=[Κ2(0)k(x1(0),xj)k(x1(0),xj)k(xj,xj)]

计算相应特征方程式 (19) 的特征值λ1, λ2, 令v=λ1+λ2。考察完所有满足条件的样本后, 将对应最大v值的样本选作第二个节点, 并记为x2 (0) 。将x1 (0) , x2 (0) 对应的矩阵K1, K2分别记为K1 (0) , K2 (0)

Step 3 选出第三个节点:

令样本x1 (0) , x2 (0) , xj (xjx1 (0) , x2 (0) ) 对应矩阵K1, K2

Κ1=[Κ1(0)kj(1)],Κ2=[Κ2(0)(kj(2))Τk(xj(2))k(xj,xj)]

其中 (kj (2) ) =[k (xj, x1 (0) ) k (xj, x2 (0) ) ], kj (1) 同式 (21) 。计算相应特征方程式 (19) 的特征值λ1, λ2, λ3, 令v=λ1+λ2+λ3。考察完所有满足条件的样本后, 将对应最大v值的样本选作第三个节点, 并记为x3 (0) 。将x1 (0) , x2 (0) , x3 (0) 对应的矩阵K1, K2分别记为K1 (0) , K2 (0)

Step s 选出第s个节点:

假设 已有s-1个节点x1 (0) , x2 (0) , …, xs-1 (0) 被选出, 与其对应的矩阵K1, K2分别记为K1 (0) , K2 (0) 。对样本xj (xjx1 (0) , x2 (0) , …, xs-1 (0) ) 仍令

Κ1=[Κ1(0)kj(1)],Κ2=[Κ2(0)(kj(2))Τk(xj(2))k(xj,xj)]

其中 (kj (2) ) =[k (xj, x1 (0) ) k (xj, x2 (0) ) … k (xj, xs-1 (0) ) ], kj (1) 同式 (21) 。计算相应特征方程式 (19) 的所有特征值λ1, λ2, …, λs。若sp, 令v=λ1+λ2+ … +λs;若s>p, 令v=λ1+λ2+ … +λp (p为主分量分析中选取的特征向量数目) 。考察完所有满足条件的样本后, 将对应最大v值 (记为vs) 的样本选作第s个节点, 并记为xs (0) 。将 x1 (0) , x2 (0) , …, xs (0) 对应的矩阵K1, K2分别记为K1 (0) , K2 (0) 。重复该步骤, 当条件sNr (r为小于1的系数, N为训练样本总数) 满足时终止节点的选择过程。

节点选择完毕后, 特征空间中样本ϕ (x) 的特征抽取可按下式进行

y=[λ1-1/2j=1sαj(1)k(xj(0),x)λ2-1/2j=1sαj(2)k(xj(0),x),λm-1/2j=1sαj(m)k(xj(0)x)]Τ(22)

《4 实验》

4 实验

实验在4个基准数据集上进行。每个数据集被随机地分成了100部分 (S除了plice除了数据集只包含20部分外) , 每部分又分别包含训练样本子集与测试样本子集。实验采用高斯型核函数 k (x, y) =exp (-‖x-y2/2σ2) 。每次实验中, 将σ2取为第一个训练样本子集协方差矩阵F-范数的二次方。在第一个训练样本子集上进行训练, 然后对所有测试样本子集进行分类。除了关于数据集Splice的实验中r取0.25外, 其他数据集的r=0.5。对测试样本的分类使用最小距离分类器。

表1与表2分别给出了KPCA与IPKCA在4个基准数据集上的实验结果。实验得出的特征抽取时间显示, 改进的KPCA方法的特征抽取效率大大高于KPCA方法。对4个数据集的分类结果显示, 在Diabetis与Cancer两个数据集上, 基于两类方法的分类错误率相当; 在Banana数据集上, 基于改进的KPCA方法的分类错误率略高于基于KPCA方法的分类错误率;在训练数据多达1 000的数据集Splice上, 基于改进的KPCA方法的分类错误率明显低于KPCA方法。需要说明的是, 错误率一项中的2个数据分别为平均分类错误率与分类错误率标准差。

表1 KPCA在基准数据集上的实验结果

Table 1 KPCA experimental result on benchmark datasets

《表1》


主分量数错误率训练样本总数特征抽取
时间/s
Splice 100 25.5±2.61 000864

9024.7±2.5832

8024.0±2.4801

7021.8±2.2778

Diabetis
10011.5±2.8468238

9011.7±2.8212

8011.5±2.8202

7011.8±2.9191

Banana
10013.8±0.24003 128

9013.8±0.22 983

8013.8±0.22 908

7013.8±0.22 825

Cancer
709.0±3.220025.4

608.5±3.023.2

508.5±3.022.2

409.8±3.321.8

表2 改进的KPCA在基准数据集上的实验

Table 2 Improved PCA experimental result on benchmark datasets

《表2》


主分量数错误率节点数特征抽取
时间/s
Splice 100 17.8±1.8 250260

9017.8±1.8247

8017.5±1.8230

7017.6±1.7214

Diabetis
10011.4±2.8234140

9011.9±2.9125

8011.6±2.8121

7012.0±2.9114

Banana
10014.1±0.22001 807

9014.2±0.21 799

8014.2±0.21 734

7014.2±0.21 688

Cancer
709.2±3.310015.3

608.6±2.913.9

508.6±2.913.2

408.1±2.912.7

《5 结论》

5 结论

作为一类核方法, KPCA方法在特征抽取中得到了较多的应用。由于KPCA抽取一个样本的特征时, 需计算训练集中所有样本与该样本间的核函数, 特征抽取的效率会随着训练集的增大而减小。另一方面, 实际应用中往往要求系统有较高的特征抽取效率。假定特征空间中KPCA对应的变换轴可由一部分训练样本 (节点) 线性表出, 并设计了一个改进的KPCA (IKPCA) 算法。 IKPCA算法只基于所有节点与某样本间的核函数, 即可抽取该样本特征。因此, IKPCA抽取特征的效率与节点数的多少直接相关, 节点数越少, 特征抽取效率越高。在基准数据集上进行的 KPCA与IKPCA的对比实验显示, IKPCA方法对应较高的特征抽取效率, 而且在此基础上的分类正确率与基于KPCA方法所抽取特征的分类正确率相当。