《1、 引言》
1、 引言
在水泥生产过程中,产品质量如生料细度、熟料中游离氧化钙含量等都是需要监控的关键指标。然而,这些指标的在线测量仪器往往成本高昂且需要频繁的定期维护。在实际工业应用中,化验室通常每隔两小时或更长时间对这些指标进行离线化验分析,导致控制系统得不到及时的反馈信息。而这类问题往往可通过软测量技术来解决[1‒2]。
软测量本质上是一种回归模型,可利用在线可用的其他辅助变量实时评估其质量指标。换言之,给定D维输入变量
软测量模型源自多元统计回归模型,包括线性回归(LR)、主成分回归(PCR)、偏最小二乘(PLS),以及一些具有正则化策略的变种方法,如最小绝对收缩选择算子(LASSO)和岭回归[7],用来平衡模型的经验误差和复杂性。核函数策略已得到广泛研究,并与上述算法相结合用于解决非线性回归问题[8‒9]。此后,众多机器学习方法涌现以实现海量数据的知识挖掘,诸如k最近邻回归(k-NNR)[10]、分类与回归树(CART)[11‒12]以及支持向量回归(SVR)[13‒14]。为了提高单一树模型的性能,在随机森林(RF)算法中使用了装袋策略[15‒16]。类似地,可以通过组合一系列弱学习器[17‒18],如梯度提升(GBM)和极限梯度提升(XGBoost)来提高增强算法的预测精度。此外,深度学习在图像和语音识别方面的突破使神经网络[19‒20]成为机器学习领域最流行的方法之一,尤其在数据样本充足的情况下效果更加明显。此类方法之所以流行,原因在于经过特殊设计的神经网络结构具有强大的特征提取能力[21]。
在这些算法中,k-NNR是最简单和最流行的回归方法之一。由于k-NNR不需要显式的模型结构或任何数据分布的先验知识,因此被广泛用于机器学习问题。但是,使用k个最近邻(k-NN)样本的平均输出作为预测结果的策略也是该方法最大的缺点。最初,k-NNR算法采用欧几里得距离度量来测量样本相似性。然而,输入特征的变化范围可以很大,变量之间的冗余和相关性也可能会产生使人误解的信息,从而导致不切实际的距离度量。为了解决这一问题,已有文献提出了一种更一般化的马氏距离[22],马氏距离等效于两个线性投影之间的加权欧几里得距离。然而,在实际应用中,输入特征往往对输出变量有不同的贡献。关键在于开发一个可靠的特征提取模型,并将经典度量(如欧几里得距离和余弦相似度)应用到特征映射上。局部线性嵌入(LLE)使用局部线性加权方法在低维空间中重构样本,并通过最小化重构误差来实现降维[23]。然而,在高维空间中由经典欧几里得度量构造的邻近关系不能满足所有分类任务的需求。因此,研究人员尝试将输入特征变换至缩放空间[24‒25],并通过空间中的局部重建获得权重系数来预测标签。但是,这类方法非常依赖变换模型的精巧设计。例如,在模糊变换中,基函数和模糊区间的划分可能对预测结果有很大影响,因为输出标签中包含的有价值的信息没有被充分利用。为了解决这个问题,Weinberger和Saul [26]引入了马氏距离度量学习的概念,利用马氏距离中的逆协方差矩阵表示任意正半定矩阵。类似于线性判别式分析(LDA)[27]的思想,通过最大化平均类内距离与平均类间距离的比率来学习马氏距离度量。Xing等[28]通过将平均类间距离作为优化目标,将平均类内距离作为约束,构造了度量学习的凸优化问题。目前,该方法已应用于处理半监督数据聚类问题。
上述方法主要针对分类问题,而对于回归问题,Nguyen等[27]通过在每个实例附近的一组受约束的三元组上最大化输入和输出距离的一致性,建立了一个凸优化问题。然而,针对变换矩阵,研究人员没有采用度量学习进行求解,只是根据给定的变换矩阵通过优化得到权重矩阵。而且,平衡参数C的选择对算法的性能也有显著影响。线性度量学习(LML)在特征表示方面的能力亦有限,尤其是对于图像和文本数据等高维样本。深度度量学习(DML)则使用深度神经网络(DNN)模型而非线性变换来提取特征,进而可实现度量学习[29‒31]。LML和DML之间最大的区别在于损失函数的形式。例如,Song等[30]最小化来自同一类的样本之间的距离,并最大化了来自不同类间样本的距离。一般而言,这些方法涉及三元组的构造,三元组由训练数据样本、同类样本和异类样本组成,意味着这些方法不能被直接应用于回归问题。
此外,使用k-NN的平均值作为预测输出通常会带来保守的结果。以加利福尼亚大学欧文分校(UCI)机器学习资料库上的葡萄酒质量评估数据集为例。k-NNR算法不能很好地区分特别高级或低级的葡萄酒。那么品酒师是如何进行鉴别的呢?他会先识别历史数据中与当前样本最相似的样例并作为参考,然后根据输入特征的变化修改标签。本文基于此思想提出了一种局部二次嵌入学习(LQEL)算法。虽然二次嵌入函数的系数矩阵往往难以获得,但幸运的是,该矩阵取决于展开点的位置,即当前样本点。因此,可以通过将当前样本输入神经网络进行估计。同时,必须事先确定适当的网络规模,否则模型容易被过度拟合。为此,使用多个神经网络进行集成的方法可提高神经网络模型的泛化能力[20,32]。文献表明,通过批量归一化(BN)标准化网络中隐藏层的输出可以防止训练过程中的分布发生变化[33],并加速网络的收敛速度,而dropout策略可以提高神经网络的泛化能力[34]。此外,在样本数据上叠加一定强度的高斯噪声可以增加训练样本的数量,从而提高模型的鲁棒性[35]。通常,这些方法可在两方面改进神经网络的泛化能力:其一,增加了训练样本的数量;其二,为网络结构加入了约束,降低其复杂性,从而提升网络的预测能力。本文将采用后一种技术路线。
在本文中,首先利用度量学习通过最大化输入和输出空间之间距离的一致性来确定某个样本的邻域,这充分利用了目标标签中包含的信息。然后,用一个训练好的神经网络生成局部二次系数矩阵,以实现基于近邻参考点的预测;并通过差分补偿方法防止传感器漂移或未测量变量引起的模型退化。进而,用另一个神经网络根据不同近邻数据的置信度为每个预测结果提供预测权重,实现了预测误差和测量噪声之间的平衡,从而最小化预测误差。这两个神经网络的参数可以利用随机梯度下降(SGD)算法的端到端训练来优化。经过对几个回归数据集(包括水泥生产过程和加氢裂化过程的两个实际工业数据集)的实证研究表明,在大部分情况下,所提出的方法优于流行的回归方法。
本文的其余章节安排如下:第2节引入了度量学习模型,并证明了该优化问题等价于凸优化问题;第3节介绍了LQEL模型框架;第4节列举了几项实证研究,其中包括实际工业验证结果;第5节总结了本文的结论和贡献。
《2、 度量学习》
2、 度量学习
度量学习中的度量就是希望能在输入空间中找到一个映射函数
(1)非负性:
(2)对称性:
(3)三角不等式:
给定一个D维输入变量
式中,为正定矩阵;和表示两个不同的样本。MML的目标就是根据学习的期望找到最优的矩阵。
本研究希望利用输出标签中隐含的信息来指导度量学习的方向。基本原理是相似的输入样本导致相似的目标标签。从统计角度来看,输入和输出空间之间距离的一致性可以用皮尔逊相关系数来描述。因此,优化问题形成如下:
式中,为正定矩阵;
本研究证明了上述问题具有唯一的全局最优解,并且可以通过松弛约束来获得该解。约束松弛后的重构问题如式(4)所示:
记
式中,
式中
综上分析可知,式(4)为凸优化问题,即具有唯一的全局最优解[36]。记该最优解为,那么得出结论:g(*) = 1。否则,如果0 < g(*) < 1,令
《3、 局部二次嵌入学习》
3、 局部二次嵌入学习
大多数k-NNR都以样本在输入空间的k-NN样本输出的加权均值作为预测结果。但是,由于数据本身存在噪声,在近邻数较少时预测结果不稳定;而在近邻数较多时预测的结果往往较保守。给定待预测的样本,定义其k-NN样本为(1), (2), …, (),以及相应的输出为y(1), y(2), …, y(),则采用非常直观的加权平均的方式
LQEL算法的框架如图1所示。为了获得与样本相对应的输出标签,首先使用第2节中的度量学习结论(图1左侧的椭圆)确定k-NN。定义一个函数
《图1》
图1 局部二次嵌入学习的框架图。
定义从输入到输出的真实映射函数为
那么,对于
式中,
式(10)的结果表明,可以设计线性模型来预测0的δ邻域。在不同参考点上展开的矩阵
该策略使每个样本可以得到不同近邻的k个预测结果,然而不同的近邻样本给出的预测结果的可靠性是不一样的。一个直观的想法是,非近邻点给出的预测往往具有更高的不确定性,意味着应该为每个预测结果分配不同的权重。而由测量噪声引起的预测不确定性可以通过平均法来抑制。受此启发,本文设计一个估计器,根据实例的相对位置生成不同的权重,从而最小化均方误差(MSE)的期望。
记叠加在近邻样本标签
式中,
上述优化问题可以通过拉格朗日乘子法和KKT(Karush-Kuhn-Tucker)条件求解得到。式(12)所涉及的变量有e()和
综上所述,本节提出一个如图2所示的预测框架。对于给定样本
《图2》
图2 局部二次嵌入模型学习预测的结构框图。
另外,样本()的系数矩阵
在本文中,采用MSE作为损失函数,两个神经网络的权重和偏差参数利用SGD算法进行优化。
《4、 算法验证》
4、 算法验证
为了评估所提出算法的效果,使用公开的标准回归数据集和两个实际的工业数据集进行验证。同时,为了更好地进行比较,本文简要介绍了一系列经典的方法。最后,通过图表展示相应的实验结果。
《4.1 测试数据集的简介》
4.1 测试数据集的简介
《4.1.1. 基准数据集》
4.1.1. 基准数据集
数据集[37‒39]的详细信息如表1所示。例如,第一行所示的红酒数据集包含1599个样本,每个样本包含12个特征属性和一个要预测的目标标签。实验的目的是建立一个数学模型,通过颜色、成分等评价红酒的质量。在这种情况下,红酒的质量从高到低等分为9个等级,数据集中只包括三级和八级之间的样品。
《表1》
表1 UCI数据集的详细描述
Name | Prediction label | Attribute number | Sample number |
---|---|---|---|
Wine quality | Wine quality | 12 | 1 599 |
Forest fire | Burned area | 12 | 517 |
CASP | RMSD-size of residue | 10 | 45 730 |
Air quality | CO concentration | 14 | 9 356 |
Air quality | NO | 14 | 9 356 |
Air quality | NO2 concentration | 14 | 9 356 |
Boston house price | House price | 13 | 506 |
《4.1.2. 生料细度数据集》
4.1.2. 生料细度数据集
第一个实际工业应用的目的是在线预测生料制备过程中的粉末细度。该工艺流程的细节如图3所示。在生料制备过程中,由三种或四种矿物组成的原料被输送到磨盘的中心,物料受到离心力的作用而沿外径扩散。物料在离开磨盘之前,通过研磨辊和磨盘之间的挤压被破碎成小颗粒。当高速热风从底部进入磨机时,较细的颗粒被吹入磨腔,而较大的颗粒落在底部,由斗式提升机运回磨机入口。由引风机驱动的高速气流将这些较细的颗粒送入高效的选粉机,不合格的颗粒沿着锥形筒落回磨盘上并被重新研磨。通过旋风筒和电收尘器回收的粉尘最终被输送至均化库进行储存。
《图3》
图3 生料制备过程的工艺流程图。
该过程最重要的指标是产品的细度,该指标将影响后续煅烧过程的能耗甚至产品质量。由于实验室化验分析能力有限,每两小时采集一次样品并进行分析,无法进行有效的实时控制,生料细度波动较大。因此,本节的目的在于利用可在线测量的相关过程变量实现对产品细度的在线估计。
所有可能影响或反映细度的变量都被视为辅助变量,包括引风机电流、选粉机电流、主电机电流、用于外循环的斗式提升机电流、输送成品的斗式提升机电流、压差、入口温度、出口温度、进料量等。通常,80 µm筛余量和200 µm筛余量被认为是生料细度的重要指标,且前者更灵敏。因此,数据集由14个辅助变量和一个输出标签构成,共959个样本(约4个月)。
《4.1.3. 加氢裂化工艺数据集》
4.1.3. 加氢裂化工艺数据集
典型加氢裂化工艺的简化流程图如图4所示。将原料与外部供应的氢气混合,并将氢气加热至规定温度,进入两个级联反应器。第一反应器装有加氢处理催化剂,以除去大部分硫和氮以及一些重金属化合物。第二反应器中装有加氢裂化催化剂以完成裂化反应。在这些反应器中,直接加入低温氢以吸收放热反应释放的热量,从而保持稳定的温度。反应产物通过高压分离器再循环未反应的氢气,然后通过低压分离器分离一些轻气体。最后,通过分馏塔实现不同组分的分离。收集了6种产品:轻馏分(LE)、轻石脑油(LN)、重石脑油(HN)、煤油(KE)、柴油(DI)和底油(BO)。
《图4》
图4 加氢裂化工艺流程图。
由于产品价格的波动和市场供求的变化,必须对不同产品的收益率进行相应调整,以实现总利润的最大化。因此,及时准确预测每种产品的产量以指导操作优化至关重要。本文以柴油产量为例建立了预测模型。在这个问题中,采样周期为4 h,数据集总共覆盖15个月。最后收集具有55个相关输入变量的2052个样品,包括进料质量流速、产出氢气的体积流量等。
《4.2 用户指定参数》
4.2 用户指定参数
本文的对比实验包括7个经典回归算法:
(1)基于MML的k-NNR首次采用参考文献[27]中提出的MML方法。该模型首先定义了基于三元组的约束,然后将优化问题转化为凸二次规划问题。该算法需要确定近邻的数量K。
(2)支持向量回归模型通过引入正则化参数C实现了结构风险和经验风险之间的平衡,并通过引入核函数方法实现了数据的非线性映射。本文使用线性、多项式和高斯核函数进行了性能对比测试。结果表明高斯核函数更适合这类回归问题。因此,正则化参数C和核参数γ需要被优化。
(3)随机森林模型是最成熟的bagging算法之一,该模型通过集成多个弱分类器的预测结果来提升算法的稳定性,另外,随机的行列采样也有利于进一步提升算法的泛化性能。在该算法中需要通过交叉验证的方式给出最大树深度
(4)Xgboost算法通过不断降低拟合残差得到一系列的弱估计器。其中,拟合过程中优化的方向采用残差二阶泰勒展开的方式进行估计。模型在多个实践应用场景中都表现出稳定可靠的性能。LightGBM [40]是XGBoost的改进分支之一,采用面向叶子节点分裂方法,并应用直方图的方法进行预处理以加速计算。已经证明,LightGBM可以在确保预测性能的同时大大提高计算性能。因此,本文将该方法作为对比算法之一,其中需要通过交叉验证给出的最佳参数包括:最大叶子节点数
(5)神经网络模型是解决回归问题的有效学习工具。采用包括BN和dropout在内的策略,这些策略在各个领域都是最先进的[35]。具体而言,在训练过程中选择的批次大小为30,dropout的比例为0.3,通过五重交叉验证选择隐藏神经元的数量
(6)深度因式分解机(deep factorization machine, DeepFM)[41]在广告点击率(click-through rate, CTR)预测问题[42]和股市价格的预测问题[43]上都有非常成功的应用。DeepFM旨在通过因式分解机(factorization machine, FM)和深度神经网络实现低阶和高阶特征之间的交互与融合。其中,FM得到的嵌入向量被用于深度神经网络初始嵌入状态。对于其中的深度神经网络模型,本文设置的隐层数量为2。因此在该算法中,待确定的参数包括嵌入的维度
(7)基于DML的k-NNR算法旨在通过深度学习模型找到样本的关键特征,并以此找到样本的相似近邻。由于本文针对的是回归问题,无法像当前DML那样构建三元组[29‒31]。因此,根据相似输入对应相似输出的基本原则,本文采用如式(13)所示损失函数进行深度度量模型的学习。
式中,
对于所提出的LQEL算法,待估计的参数包括嵌入的维度
《表2》
表2 本章测试案例采用的参数
Datasets | MML-based | SVR | RF | LightGBM | NN, | DeepFM | DML-based | LQEL | |||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Wine quality | 50 | 1 | 0.01 | 7 | 15 | 500 | 64 | 0.1 | 0 | 3 | 256 | 16 | 50 | 10 | 2 | 3 | 80 |
Forest fire | 40 | 100 | 10 000 | 3 | 22 | 200 | 32 | 0.001 | 1 | 3 | 128 | 8 | 10 | 5 | 1 | 4 | 100 |
CASP | 80 | 1 000 | 100 | 4 | 18 | 600 | 128 | 0.01 | 0.1 | 8 | 256 | 8 | 80 | 14 | 2 | 4 | 140 |
CO | 60 | 100 | 0.01 | 3 | 26 | 200 | 32 | 0.1 | 0 | 12 | 128 | 8 | 20 | 5 | 1 | 5 | 20 |
NO2 | 5 | 100 | 0.01 | 9 | 22 | 200 | 32 | 0.1 | 0.5 | 9 | 128 | 4 | 10 | 10 | 1 | 2 | 50 |
NO | 10 | 100 | 1 | 9 | 26 | 200 | 64 | 0.1 | 0 | 12 | 128 | 4 | 10 | 10 | 2 | 3 | 20 |
House price | 5 | 10 000 | 10 | 7 | 22 | 50 | 32 | 0.1 | 0.5 | 9 | 128 | 16 | 5 | 20 | 4 | 3 | 50 |
Fineness | 10 | 100 | 0.01 | 9 | 28 | 100 | 32 | 0.1 | 0 | 12 | 256 | 16 | 50 | 10 | 1 | 4 | 20 |
Hydrocracking | 50 | 100 | 0.0001 | 7 | 110 | 50 | 64 | 0.1 | 1 | 12 | 256 | 4 | 50 | 9 | 2 | 4 | 50 |
结果表明,算法的近邻数在不同数据集上差别较大。首先,取决于数据集的规模,较大的数据量意味着较大的样本密度。如在蛋白质结构预测的关键评估(critical assessment of protein structure prediction, CASP)数据集中,样本数足够多,这就意味着在样本附近有足够多的近邻数据可供参考,从而有效地提高模型的预测能力。然而对于工业中产品细度数据集,可用于建模的样本有限。此外很难使用辅助变量的值来表征状态。例如,立式辊磨机(VRM)中的吐渣量通常通过斗式提升机的电流来评估,但在定期维护(大约每两天一次)时,尤其是在添加润滑油后,会出现电流值漂移。因此,有必要更加关注当前的变化。在这些情况下,空间中近邻数据可能不如CASP数据集那样具有指导意义。因此,该模型选择少量相邻样本进行预测。由表2可知,所提出的具有简单前向神经网络的LQEL模型可以很好地解决回归问题。与前向神经网络模型相比,LQEL模型中的隐藏神经元更少(不超过4个),并且必须要估计的参数规模更小。这大大降低了模型的复杂性,从而提升了模型的泛化能力。
《4.3 LQEL算法性能评估结果》
4.3 LQEL算法性能评估结果
为验证本文所提算法的有效性,在7个数据集的9个回归问题上进行了比较。每组实验重复30次,并记录每个模型在测试集上预测结果的MSE指标和平均绝对误差(mean absolute error, MAE),并且对这些评价指标进行统计分析,评估算法的准确性和鲁棒性。
表3是每个算法在不同数据集上的MSE指标和MAE指标的均值,其中每个数据集上的最佳结果通过加粗进行标记。结果表明,对于下面列出的9个验证测试,LQEL算法在大部分数据集上取得了最佳的性能。此外,LQEL算法的性能与表现较好的LightGBM和随机森林算法相当,与其他算法相比有明显的优势。
《表3》
表3 不同算法预测结果的指标对比结果
Dataset | Error | MML-based | SVR | RF | LightGBM | NN | DeepFM | DML-based | LQEL |
---|---|---|---|---|---|---|---|---|---|
Wine quality | MSE | 0.627 | 0.537 | 0.517 | 0.528 | 0.582 | 0.530 | 0.487 | |
MAE | 0.792 | 0.733 | 0.700 | 0.697 | 0.769 | 0.768 | 0.720 | ||
Forest fire | MSE | 3570 | 3680 | 3730 | 3620 | 3890 | 4220 | 4010 | |
MAE | 62.4 | 63.4 | 65.7 | 62.9 | 72.2 | 70.0 | 68.5 | ||
CASP | MSE | 23.0 | 23.9 | 21.6 | 23.8 | 24.7 | 23.6 | 21.5 | |
MAE | 4.80 | 4.89 | 4.67 | 4.65 | 4.89 | 4.87 | 4.80 | ||
CO | MSE | 0.0690 | 0.0610 | 0.0617 | 0.0628 | 0.0838 | 0.0766 | 0.0635 | |
MAE | 0.263 | 0.247 | 0.261 | 0.251 | 0.281 | 0.301 | 0.269 | ||
NO2 | MSE | 133.0 | 212.0 | 84.3 | 77.6 | 287.0 | 205.0 | 102.0 | |
MAE | 11.50 | 14.60 | 8.81 | 8.81 | 16.20 | 14.20 | 11.10 | ||
NO | MSE | 502 | 546 | 440 | 434 | 527 | 490 | 458 | |
MAE | 22.4 | 23.4 | 21.1 | 22.7 | 22.7 | 23.0 | 20.8 | ||
House price | MSE | 7.84 | 9.56 | 6.27 | 5.48 | 8.12 | 8.86 | 5.76 | |
MAE | 2.80 | 3.09 | 2.34 | 2.98 | 2.86 | 2.51 | 2.29 | ||
Fineness | MSE | 0.292 | 0.220 | 0.262 | 0.247 | 0.283 | 0.205 | 0.208 | |
MAE | 0.541 | 0.448 | 0.523 | 0.497 | 0.502 | 0.447 | 0.456 | ||
Hydrocracking | MSE | 0.0703 | 0.0843 | 0.0749 | 0.0381 | 0.0718 | 0.0393 | 0.0567 | |
MAE | 0.265 | 0.290 | 0.286 | 0.195 | 0.264 | 0.200 | 0.234 |
除此之外,为评估算法的稳定性,需要对所获取的30组损失指标的分布情况进行分析。图5和图6分别是各个算法在不同数据集上所得MSE指标和MAE指标的箱线图。从图中可以看到,LQEL算法在除红酒质量、CASP和细度之外的众多数据集上都表现出非常稳定的结果。尽管在这些数据集的表现中,性能波动比其他一些算法稍大,但总体MSE和MAE明显更低,也就是说,性能更稳定的算法往往以牺牲预测精度作为代价。即便是在神经网络和LQEL算法中都采用了dropout、批量学习和BN等策略,后者仍优于前者。
《图5》
图5 不同算法在测试集上MSE指标的箱线图。MML:MML-based k-NNR;LGB:LightGBM;DML:DML-based k-NNR。
《图6》
图6 不同算法在测试集上MAE指标的箱线图。
图7和图8分别展示了两个工业数据集上不同算法的预测结果的散点图,其中横坐标是实际值,纵坐标是预测结果。确定性系数(R2)标记在左上角,并表明LQEL算法在这两种软测量应用中优于其他算法。这可归因于两个方面:
《图7》
图7 生料细度数据集上不同算法预测结果的散点图。
《图8》
图8 加氢裂化数据集上不同算法预测结果的散点图。
(1)这些工业数据集中变量的绝对值不能很好地描述过程状态。本文提出的方法根据辅助变量的变化对最近邻进行校正,更加强化了数据的差异性,从而降低了上述问题的风险。
(2)该方法使用两个非常简单的神经网络来实现LQEL。其中一个神经网络的目标是找到局部二次函数的系数,另一个用于实现最近邻预测结果的权重分配。基于这些优点,可以有效地提高该算法的泛化能力。
《5、 结论》
5、 结论
本文提出了一种用于回归建模的LQEL算法。首先以最大化输入输出空间中距离的一致性来改进MML,通过松弛约束条件,证明了修正问题是一个凸优化问题,同时保持了与原问题相同的解。在此基础上,建立了局部二次嵌入模型,并为预测结果分配不同的权重,以最小化预测误差的期望值。在这个框架中,通过两个非常简单的神经网络来学习二次嵌入矩阵和相邻预测的权重分配。从而构建一个统一的端到端模型,防止独立的双层优化易于陷入局部最优的问题。本文所提出的LQEL模型有以下优点:
• 通过改进的度量学习实现了输入和输出空间中距离的全局一致性。
• 充分利用了输出标签中包含的信息,从而更好地确定特定样本的邻域。
• 基于局部二次嵌入假设提出了LQEL框架,并通过从全局或局部角度简化模型结构来设计两个特殊的神经网络,改进了模型的泛化能力。
• 实验结果表明,采用轻量级神经网络的LQEL可以实现更准确和更稳定的预测。