基于低成本联邦宽度学习的智能超表面辅助车联网中隐私保护知识共享

, , , , , , , 袁晓铭 , 陈家辉 , 张宁 , 叶强 , 李长乐 , 朱春生 , 沈学民

工程(英文) ›› 2024, Vol. 33 ›› Issue (2) : 195 -207.

PDF (2603KB)
工程(英文) ›› 2024, Vol. 33 ›› Issue (2) : 195 -207. DOI: 10.1016/j.eng.2023.04.015
研究论文

基于低成本联邦宽度学习的智能超表面辅助车联网中隐私保护知识共享

作者信息 +

Low-Cost Federated Broad Learning for Privacy-Preserved Knowledge Sharing in the RIS-Aided Internet of Vehicles

Author information +
文章历史 +
PDF (2665K)

摘要

从车联网中挖掘知识,利用高效率、低成本的知识共享可以提高自动驾驶汽车的决策能力。然而,在高速移动的环境中,如何确保本地数据学习模型高效率的同时防止隐私泄露是一项挑战。为了在知识共享中保护数据隐私并提高数据学习效率,提出了一种异步联邦宽度学习(FBL)框架,该框架将宽度学习(BL)集成到联邦学习(FL)中。在FBL中,设计了一个宽度全连接模型(BFCM)作为训练客户端数据的本地模型。为了提高知识共享的无线信道质量并降低参与客户端的通信和计算成本,构建了一个针对FBL的联合资源分配和智能超表面(RIS)配置的优化框架。该问题被解耦为两个凸子问题。为了提高FBL的资源调度效率,利用双重Davidon-Fletcher-Powell(DDFP)优化算法来解决时隙分配和RIS配置问题。在资源调度结果的基础上,在FBL中设计了一种基于联邦激励学习的奖励分配算法,对客户端的成本进行补偿。仿真结果表明,所提出的FBL框架在IoV中知识共享的效率、准确性和成本方面相较对比模型能取得更好的性能。

Abstract

High-efficiency and low-cost knowledge sharing can improve the decision-making ability of autonomous vehicles by mining knowledge from the Internet of Vehicles (IoVs). However, it is challenging to ensure high efficiency of local data learning models while preventing privacy leakage in a high mobility environment. In order to protect data privacy and improve data learning efficiency in knowledge sharing, we propose an asynchronous federated broad learning (FBL) framework that integrates broad learning (BL) into federated learning (FL). In FBL, we design a broad fully connected model (BFCM) as a local model for training client data. To enhance the wireless channel quality for knowledge sharing and reduce the communication and computation cost of participating clients, we construct a joint resource allocation and reconfigurable intelligent surface (RIS) configuration optimization framework for FBL. The problem is decoupled into two convex subproblems. Aiming to improve the resource scheduling efficiency in FBL, a double Davidon-Fletcher-Powell (DDFP) algorithm is presented to solve the time slot allocation and RIS configuration problem. Based on the results of resource scheduling, we design a reward-allocation algorithm based on federated incentive learning (FIL) in FBL to compensate clients for their costs. The simulation results show that the proposed FBL framework achieves better performance than the comparison models in terms of efficiency, accuracy, and cost for knowledge sharing in the IoV.

关键词

知识共享 / 车联网 / 联邦学习 / 宽度学习 / 智能超表面 / 资源分配

Key words

Knowledge sharing / Internet of Vehicles / Federated learning / Broad learning / Reconfigurable intelligent surfaces / Resource allocation

引用本文

引用格式 ▾
Xiaoming Yuan,Jiahui Chen,Ning Zhang,Qiang (John) Ye,Changle Li,Chunsheng Zhu,Xuemin Sherman Shen,袁晓铭,陈家辉,张宁,叶强,李长乐,朱春生,沈学民. 基于低成本联邦宽度学习的智能超表面辅助车联网中隐私保护知识共享[J]. 工程(英文), 2024, 33(2): 195-207 DOI:10.1016/j.eng.2023.04.015

登录浏览全文

4963

注册一个新账户 忘记密码

1 引言

随着车联网(IoVs)的日益普及,车联网产生的各类数据可用于支持多样化的车辆服务[如增强现实(AR)导航和交通控制]和定制化车辆运营[12]。通过车载通信和计算单元,车辆可以处理、分析并与其他车辆共享数据,从而提高数据挖掘的效用。然而,原始数据共享很容易加深网络负担并且造成车联网中的数据泄露。因此,利用人工智能(AI)模型提取原始数据的隐藏表征信息,通过共享模型知识间接共享数据,可以增加网络带宽,提高数据安全性[3]。这些数据中的知识反映了自动驾驶应用(如高精度地图定位、实时路况分析等)离不开车联网知识的学习和共享。

扩大知识共享的覆盖范围可以提高智能汽车的学习体验和学习能力[4]。然而,数据驱动的知识共享也增加了隐私泄露的风险,因此确保客户端数据的安全性和降低知识共享的成本变得非常重要。高效的知识共享依赖于可靠的数据传输,以满足低延迟和高精度的要求。在多元化环境中,传输链路很容易受到干扰和障碍物的影响。为解决这个问题,可采用智能超表面(RIS)技术[5]。在城市建筑物表面或道路沿线部署RIS可主动重塑无线环境[6],在源节点和目的节点之间建立绕过干扰对象的通信链路,以提高信道质量[7],减少参数交换的通信开销。利用RIS,可以提高车辆与路侧单元(rsu)之间的通信性能[8]。

知识共享提供了一种基于车辆行为数据的学习体验。由于车辆的原始数据包括出行历史和驾驶习惯等信息,直接共享数据可能会导致隐私泄露。联邦学习(FL)[9]是一种能够在共享知识的同时保护客户端数据隐私的人工智能技术。智能联邦学习模型可以通过一个中央服务器连接多个客户端来定制,客户端以分布式的方式训练局部模型参数,再通过本地模型参数的聚合实现全局模型[1011]。通过这样的方式,来自客户端的原始训练数据集不会直接发送给第三方以保护数据隐私。

高效的知识共享容易受到车辆的移动性和FL的同步性问题的影响,有必要为客户端和服务器端建立一个高效、长期稳定的FL框架,以鼓励客户端积极参与知识共享。传统的FL框架是基于分布式模型训练和全局聚合建立的。本地人工智能模型结构(如深度神经网络)可能很复杂,它们的参数调整可能很困难。然而,未来的车联网服务需要在实时变化的环境中更有效地学习。因此,本文采用了一种新的机器学习范式,称为宽度学习(BL)[12],它使用增量学习方法而不是使用梯度下降法来训练模型参数。客户端采用BL模型作为本地训练模型提高知识学习效率[13],这种方法适合大规模、高动态的网络。

本文提出了一种异步联邦宽度学习(FBL)框架来保护知识共享中的数据隐私。为了提高实时数据学习的效率,本文设计了一种高效的知识学习模型,即宽度全连接模型(BFCM)来学习基于BL的车辆数据知识。为了提高FL的资源利用率,本文提出了智能反射相位调节和资源分配的联合优化问题,并进一步解耦为RIS中的上行/下行传输速率优化和相位调节系数配置两个子问题。然后,本文提出了一种双重Davidon-Fletcher-Powell (DDFP)算法作为配置RIS和分配传输带宽的问题解决方案,以提高RSU和车辆之间的信道质量。同时,提出一种基于联邦激励学习(FIL)的智能超表面辅助的联邦学习(RFL)算法,根据车辆客户在知识共享过程中所做出的FL贡献给予奖励[14]。本工作的贡献总结如下。

(1)FL框架设计。本文提出了一种用于车辆间知识共享的异步FBL框架,并设计了一种用于本地数据训练的改进BL框架。

(2)RIS配置与资源分配联合。为了提高FBL的性能,本文建立了一个优化框架来分配通信资源和调整RIS参数;还设计了一个DDFP算法来解决优化问题。

(3)FIL算法。为了提高资源利用率,本文基于车辆- RIS-RSU之间的FIL算法构建RIS辅助的联邦学习,实现知识共享。

本文的其余部分组织如下:第2节回顾了现有的关于RFL和BL的工作;第3节详细介绍了BL、FL的预备知识以及成本模型的建立;第4节介绍了提出的FBL框架和BFCM;而第5节介绍了为FBL设计的RFL和DDFP;第6节给出了仿真结果;第7节给出结论并讨论未来的工作。

2 相关工作

2.1 RIS辅助的无线通信

在知识共享过程中,参数交换需要大容量的通信通道。一般来说,RIS可以改善FL期间客户端和服务器之间的无线通道[15]。Ni等[10]提出了一种用于FL的RIS辅助的信道全局聚合性能的资源分配方法。Li等[16]提出了一种基于FL的分布式算法用于配置所有RIS参数。Wang等[17]提出了一种空中计算的RFL方法以减小均方误差。由于RIS具有智能控制的特点,在求解资源分配问题时,一般将优化问题分解为资源分配和RIS相位控制两个子问题[18]。Liu等[19]通过探索车辆可用的计算资源大大提高了资源利用率。前述的大部分工作将一个具有耦合资源变量的复杂资源分配问题解耦为多个子问题。通常用深度学习(DL)或凸优化技术解决这些子问题。

2.2 FL和BL

作为一种新的机器学习技术,BL在文本分类、图像识别等领域得到了广泛的应用[20]。Peng等[21]提出了一种雾计算辅助BL算法用于交通数据分析,节省了带宽资源。Guo等[22]使用宽度学习系统(BLS)进行半监督车型分类。Wei等[23]将BL与强化学习相结合,解决了红绿灯控制问题。这些研究表明,基于BL的车联网数据分析模型可以有效地解决自动驾驶中的图像分类和交通数据分析问题。

FL是一种新兴技术,用于保护IoV分布式机器学习中的数据隐私[2425]。传统的FL模式是基于DL模型来学习IoV生成的数据,实现知识共享。例如,Lu等[26]提出了一种用于车联网数据共享的异步FL方案,该方案可以根据学习质量选择车辆节点。Chai等[3]提出了一种分层知识共享框架,其中RSU既可以作为服务器,也可以作为客户端。然而,传统FL架构下的大规模移动数据训练无法满足低延迟高效率的要求。因此,一些研究工作研究BL与FL的融合来进行联网[12,27]。然而,如何有效地分配传输资源以提高FL性能需要进一步研究。

2.3 FL的激励机制

在FL过程中最重要的角色是客户端,因此FL的成本通常来自客户端的模型训练[8]。为了降低系统成本,大多研究集中在如何提高资源利用率和压缩模型上[25]。为了从客户的角度提高收益,一些研究者在FL中加入了激励机制,即FIL [14]。Le等[28]提出了一种基于拍卖机制的FIL算法,可以保证个人在FL过程中的合理性、真实性和有效性。Liu等[29]提出了一种隐私保护的FIL方法,可以根据本地模型上传的贡献在私有数据泄露和模型准确性之间达到平衡。

3 FBL框架

BL和FL的融合可以更好地解决模型训练和数据隐私泄露问题[13,27]。考虑到车辆与建筑物之间的信道阻断,引入RIS来提高信道质量[30]。图1显示了IoV的FBL中的数据流和通信组件,其中,异步FBL集成了FL、BL和RIS。假设车辆集合为 V = 1 ,   . . . , V,其中,V为车辆数量。本地BL模型学习参数集定义为 W 1 , . . . , W k,其中,客户端车辆 k V。时隙t的效益定义为 u ^ 1 t ,    . . . , u ^ k ( t )。在边缘计算(EC)服务器辅助下,RSU可以实现RIS配置、参数聚合、利益分配和资源分配。为了避免实体干扰(如建筑物和其他障碍物)阻碍无线通信信道,本文在车辆、RIS和RSU之间建立了一个知识共享信道。RIS控制器可以在EC服务器下配置RIS并为车辆分配资源。获得的收益也由EC服务器分配。系统模型的五大主要功能如下:

(1)本地模型训练。每辆车都将BL模型设置为数据学习模型。当车辆用户完成模型训练后,用户将模型参数上传到服务器。

(2)参数聚合。服务器接收所有的本地模型,并采用给定的参数聚合方法计算全局模型。最后,把全局模型返回给每个本地客户端。

(3)资源配置。在下一轮训练之前,服务器可以根据每个用户的贡献来分配奖励。在本部分中,资源分配的主要目的是在FL期间分配带宽。

(4)RIS配置。由于车辆具有很高的移动性,RIS参数的配置应适应当前环境。因此,需要能够智能地控制RIS相关参数以提高信道性能[31]。

(5)奖励分配。由于每个客户端都有一定的计算和通信开销,因此本文设计了一个基于FIL的奖励机制。这增加了客户共享知识的热情,同时也给了客户获得收益的机会。

以下是FBL中知识提取、联邦聚合和RIS辅助信道中参数上传和下载的详细流程。

3.1 基于BL的数据知识抽取

车辆收集或生成的数据包含有价值的驾驶行为信息和潜在的驾驶经验知识。传统的DL模型需要大量的训练时间来使用梯度下降法提取信息。与DL相比,BL更注重特征的增量。广义BL模型包括两层:特征映射层F和增强节点层EF主要使用不同权重将输入数据集 X 映射到多个隐藏节点,隐藏节点映射后的特征 Z 就是 X 的隐藏信息。增强节点层主要增强特征映射层映射的特征,进一步提取训练集的特征相关性。在广义BL中,假设特征映射层输出n个特征映射,每个映射可生成l个节点。节点组i与输入数据集 X 之间的关系如下:

Z i = ϕ X W e i + β e i

式中, W e iF中节点组i随机生成的权重; β e iF中节点i的偏差; e i指节点组i的适当维度; ϕ是特征映射层的映射函数。式(1)中, Z i表示F层中第i   i = 1,2 , 3 , , n组节点的映射特征。特征映射层F中所有输出的组合为 Z n = { Z 1 , Z 2 , , Z n }

假设增强节点层E中的映射特征数为m Z nE中经过非线性变换得到输出特征。与上一层一样, H j j = 1,2 , 3 , , mE中节点组j对应随机生成的映射特征。特征映射层F的输出与增强节点层E的输出之间的关系如下:

H j = ξ Z n W h j + β h j

式中, W h jE中维度为h的增强节点组 j的权重;权重 β h jE中节点组 j的偏差; ξ是增强节点层的映射函数; h j指节点组j的适当维度,根据任务的复杂程度,ij可以不同。

假设 A Z 1 , . . . , Z n | H 1 , . . . , H m,即特征映射层和增强节点层的输出组合矩阵;输出 Y 的计算如下:

Y = Z 1 , . . . , Z n | H 1 , . . . , H m W o = A W o

式中, W o是宽度结构的连接权重,可通过增量学习进行更新。训练时间用于求解 W o W o的解法比梯度下降法更有效[32]。因此,在FL中部署BL将大大提高车辆任务学习的效率。

3.2 本地模型

在FL中,全局模型放置在拥有强大计算资源的EC服务器中[33]。IoV中经常访问的一些数据和任务在靠近客户端的EC服务器执行。同时,每个服务提供商也有自己的模型来训练数据。本地模型的参数将在客户端之间共享。在FL中,关键是如何有效地聚合BL模型参数。一般来说,采用加权平均法来聚合参数,具体如下:

W g ( e ) = k = 1 V s i z e ( D k ) s i z e ( D ) W k ( e )

式中, W g ( e )指的是EC服务器第e轮训练的全局模型参数; W k ( e )指客户车辆k中BL模型的参数;Dk 是客户车辆k的本地原始数据,而D是包括所有客户车辆在内的本地原始数据集( D = { D 1 , D 2 , , D k }); s i z e ( D k )指客户车辆k本地原始数据集的大小; s i z e ( D )表示所有车辆原始数据集的大小。

传统的FL和BL聚合的目的是学习输入和输出之间的连接权重 W o W o即数据集的属性信息。每个本地模型都使用聚合参数 W g ( e )以增量学习的方式继续训练。在BL模型中,增量学习主要有两种形式:增加特征节点和增加增强节点。因此,在每个轮次训练中,参数都是通过增量学习更新的。也就是说,

A ' + = ( A ) + - D B T B T                

式中, A '是增量学习中特征映射层和增强节点层的更新输出组合矩阵。

B T = ( C ) + ,      i f   C 0                             ( 1 + D T D ) - 1 D T ( A ) + ,      i f   C = 0

C = Z n + 1 | ξ Z n + 1 W h 1 + β h 1 , , ξ Z n + 1 W h m + β h m - A D , c o n d i t o n   1 ξ Z n W h m + 1 + β h m + 1 - A D ,   c o n d i t o n   2                                                      

式中,条件1是指添加第(n+1)个特征节点,条件2是指添加第(m+1)个增强节点,结果是:

D = ( A ) + ξ Z n W h m + 1 + β h m + 1                                                    ( A ) + Z n + 1 | ξ Z n + 1 W h 1 + β h 1 , , ξ Z n + 1 W h m + β h m

式中, B C D是临时变量, Z n = [ Z 1 , . . . , Z n ] W h m + 1 β h m + 1是随机参数。

因此,在下一轮FBL训练之前,新权重 W g '的更新如下:

W g ' = W g - D B T Y B T Y              

式中, W g '是相对于 W g的变更矩阵, W g是全局权重。它与之前接收到的所有客户的本地权重以及下一轮聚合中客户的本地权重相关。这种增量学习确保了模型最初学到的知识不会被遗忘[27]。

3.3 RIS辅助参数上传和下载

客户端k需要计算和通信成本。在RIS辅助下,可以通过减少障碍物干扰来提高信道增益[34]。客户端k与服务器之间的上行链路传输速率 R k , s u p如下所示:

R k , s u p ( t ) = B k , s u p ( t ) l o g 2   1 + p k u p ( t ) w k H ( t ) h k ( t ) 2 k = 1 V p k u p ( t ) w k H ( t ) h k ( t ) 2 + N 0 ( t )

式中, B k , s u p是上行链路带宽; w k t是波束成形权重[18][即 w k t w k H t = 1]; N 0 ( t )是高斯白噪声; p k u p ( t )是客户端k与服务器之间的上行链路传输功率; h k ( t )是车辆k与服务器之间的总信道增益;客户端k与服务器之间的总信道增益由以下公式给出:

h k ( t ) = h k , s ( t ) + G ( t ) Θ ( t ) h r , s ( t )

式中, Θ ( t )是对角矩阵。 Θ ( t ) = d i a g α 1 e j θ 1 ( t ) , α 2 e j θ 2 ( t ) , . . . ,

α N e j θ N ( t ),其中,θN α N分别表示RIS的元素ee= 1, 2, ..., ϑ)的相移和振幅反射系数。 ϑ是RIS尺度参数。 G ( t )是RIS与车辆k之间的信道增益矩阵。 h r , s ( t )是RIS与服务器之间的信道增益。 h k , s ( t )是车辆k与服务器之间的直接信道增益。

客户端k上行和下载传输的延迟 L k , s u p L k , s d o w n可表示如下:

L k , s u p ( t ) = s i z e W k ( t ) R k , s u p ( t )
L k , s d o w n ( t ) = s i z e W g ( t ) R k , s d o w n ( t )

式中, W k是客户端k要上传的BL模型参数。 W g是BL模型的全局参数。 s i z e ( W k ) W k的大小, s i z e ( W g ) W g的大小。

下行链路的传输速率 R k , s d o w n表示如下:

R k , s d o w n ( t ) = B k , s d o w n ( t ) l o g 2 1 + p k d o w n ( t ) w k H ( t ) h k ( t ) 2 k = 1 V p k d o w n ( t ) w k H ( t ) h k ( t ) 2 + N 0 ( t )

式中, p k d o w n ( t )是客户端k与服务器之间的下行链路传输功率; B k , s d o w n是下行链路带宽。

然而,传统的FBL存在异步训练、资源分配和客户激励等问题。因此,本文首先改进了本地训练模型,设计了一种新颖的参数聚合方法(第4节)。然后,构建资源分配优化问题以增加带宽并自适应地调整RIS参数。最后,基于FIL算法,根据客户的FL贡献给予奖励(第5节)。

4 本地模型训练和异步参数聚合

在此节,本文将介绍提出的本地模式BFCM的流程。此节还将介绍联邦参数聚合过程。

4.1 宽度全连接模型

目前,一些BL模型不考虑权重维度的差异,而是增加节点数量以简单提高训练过程的性能。在具有级联型的宽度学习模型(CFBLS)中,随机特征提取只与输入数据相关,不考虑特征之间的依赖关系[35]。金字塔型CFBLS(CFBLS-pyramid)过于重视各层节点组之间的相关性,忽略了F中输入的随机特征。随着子层数量的增加,其子节点组数量也急剧增加,导致CFBLS-pyramid的训练效率下降。CFBLS dropout可以丢弃一些节点以防止模型过拟合,但容易造成特征信息丢失问题[35]。为了解决这些问题,本文提出了一种类似全连接神经网络的结构BFCM,其基于DL中的全连接神经网络结构。

BFCM的主要结构如图2所示。相较于传统的BL模型,BFCM中的每一节点组均与上一节点组全连接,就像DL中的全连接层一样。在该模型中,客户端可以自定义每一子层中隐藏神经元的数量。也就是说,每一节点组的子节点组数可以不同,每一子层的节点组数也可以不同。X的特征提取过程表示如下:

Z i , j = ϕ X W e i , j + β e i , j , i = 1 , . . . , n ;   j = 1            ϕ X W e i , j + β e i , j , i = 1 , . . . , n ;   j = 2 , . . . , L i z

式中, L i z表示节点组i L i z个子节点组。 Z i , j是有j个子节点组的节点组i在特征映射层F中的映射特征。在每一层中,每一节点的第一节点组的输出与X相关。 W e i , j β e i , j分别为节点组i中子节点组j的权重和偏差。 W e i , j β e i , j是随机化参数,可以因节点而异。

那么,特征节点层F的输出组合为 Z = Z 1,1 , . . . , Z 1 , L 1 z , . . . , Z m , 1 , Z m , L m z。将 Z 输入增强节点层E,并生成所有增强节点 H = H 1,1 , . . . , H 1 , L 1 h , . . . , H m , 1 , . . . , H m , L m h。节点组i的子节点组j可由下式得出:

H i , j = ξ Z W h i , j + β h i , j , i = 1 , . . . , m ;   j = 1                   ξ H i , j - 1 W h i , j + β h i , j , i = 1 , . . . , m ;   j = 2 , . . . , L i h

式中, W h i , j β h i , j是增强节点层E中的随机参数; L i h表示节点组iE中有 L i h个子节点组。

因此,训练输入 X 和输出 Y 之间的关系是:

Y = Z | H W = A W

式中,权重 W 的计算公式为 Z | H + Y Z | H + Z | H的伪逆矩阵。

4.2 异步增量学习方法

在BL中,模型可以采用增量学习的方式来实现更高的性能。如图3所示,在原有参数的基础上,模型可以选择在特征节点层F或增强节点层E中增加节点,不需要重新初始化参数,通过保留之前学到的知识来进一步提高学习能力。因此,客户可以根据自己的计算能力选择增加节点的数量。假设在原有的特征映射层中N个节点组或增强节点层中M个节点组中增加一组节点,本文将分两部分介绍如何增加一个新组 H m +1 Z n +1,即增加第(m+1)个组或第(n+1)个组。

4.2.1 FL中的异步增量特征节点

如果某个客户增加了BFCM中的第(n+1)个节点组,则新的输出 Z n +1如下:

Z n + 1 , j = ϕ X W e i , j + β e i , j ;   i = n + 1 ,   j = 1                  ϕ Z i , j - 1 W e i , j + β e i , j ;   i = n + 1 ,   j = 2 , . . . , L i z

式中, W e n + 1 , j β e n + 1 , j是当 i = n + 1时更新后的参数。

假设客户k总共添加了 n ^ k个节点组。因此,将全局模型的新特征节点序列定义如下:

W e g = C o n c a t i = 1 m a x n ^ k , . . . , n ^ V C o n c a t j = 1 L i z η j = 1 L i z k = 1 , W e i , j k V W e i , j k
β e g = C o n c a t i = 1 m a x n ^ k , . . . , n ^ V C o n c a t j = 1 L i z η j = 1 L i z k = 1 , β e i , j k V β e i , j k

式中,Concat表示服务器将平均参数添加到序列 W e g β e g η j = 1 L i z是与本地训练数据比例相关的聚合权重。由于每个客户端添加的节点组数量不一致,因此本文检索每个客户端参数序列的下标(i, j),检索长度为客户端参数序列中最长的长度 m a x n ^ k , . . . , n ^ V。如果下标(i, j)参数非空,则可以参与聚合。

参数聚合后,服务器发送参数序列 β e g W e g给客户端。因此,增量学习的新特征映射节点 Z '表示如下:

Z ' = Z ( n + 1 ) , N ' , . . . , Z ( n + 1 ) , L n + 1 z ' , . . . , Z m a x n ^ k , . . . , n ^ V , 1 ' , . . . , Z m a x n ^ k , . . . , n ^ V , L m a x n ^ k , . . . , n ^ V z '

由于 β e i , j g β e g W e i , j g W e g公式(18)可改写如下:

Z ( n + 1 ) , j ' = ϕ X W e i , j g + β e i , j g ;      i = n + 1 ,   j = 1                 ϕ Z i , j - 1 W e i , j g + β e i , j g ;     i = n + 1 ,   j = 2 , . . . , L i z

因此,增量节点的增强节点层E的新输出定义为 H ' = H 1,1 ' , . . . , H 1 , L 1 h ' , . . . , H m , 1 ' , . . . , H m , L m h '

H i , j ' = ξ Z ( n + 1 ) , j ' W h j + β h i , j ;   i = 1 , . . . , m ,    j = 1             ξ H i , j - 1 ' W h i , j + β h i , j ;   i = 1 , . . . , m ,    j = 2 , . . . , L i h

增量学习中特征映射层和增强节点层更新的输出组合矩阵 A '及其伪逆矩阵( A ')+的更新参照公式(5)~(9)。

4.2.2 FL中的异步增量增强节点

如果某个客户增加了BFCM的增强节点层E中的第(m+1)个节点组,则输出Hm +1如下:

H ( m + 1 ) , j = ξ Z W h i , j + β h i , j ;   i = m + 1 ,   j = 1                   ξ H i , j - 1 W h i , j + β h i , j ;   i = m + 1 ,   j = 2 , . . . , L i h

假设客户k总共添加了 m ^ k个节点组。因此,将全局模型的新增强节点序列定义如下:

W h g = C o n c a t i = 1 m a x m ^ k , . . . , m ^ V C o n c a t j = 1 L i h η j = 1 L i h k = 1 , W h i , j k V W h i , j k
β h g = C o n c a t i = 1 m a x m ^ k , . . . , m ^ V C o n c a t j = 1 L i h η j = 1 L i h k = 1 , β h i , j k V β h i , j k

式中,Concat表示服务器将平均参数添加到序列 W h g β h g η j = 1 L i h是与本地训练数据比例相关的聚合权重。由于每个客户端添加的节点组数量不一致,因此本文检索每个客户端参数序列的下标(i, j),检索长度为客户端参数序列中最长的长度 m a x m ^ k , . . . , m ^ V。如果下标(i, j)的参数非空,则可以参与聚合。

因此,对增量节点的增强节点层E的新输出定义为: H ' = H 1,1 ' , . . . , H 1 , L 1 h ' , . . . , H m , 1 ' , . . . , H m , L m h '。每个节点的输出为:

H ( m + 1 ) , j ' = ξ Z W h i , j g + β h i , j g ;   i = m + 1 ,   j = 1                    ξ H i , j - 1 W h i , j g + β h i , j g ;   i = m + 1 ,   j = 2 , . . . , L i h

根据公式(5)~(9)更新输出组合矩阵 A '及其伪逆矩阵( A ')+

4.2.3 FBL中异步聚合

考虑到客户端可以同时增加增强节点和特征节点,客户端k可以发送 W h i , j k , W e i , j k , β h i , j k , β e i , j kWk 参与FBL。最后,服务器可将聚合参数 W g = W e g , β e g , W h g , β h g , W打包发送给每个客户端。具体如算法1所示。

5 FBL中资源和收益分配

在本节中,使用Davidon-Fletcher-Powell (DFP) [36]算法来解决FIL中涉及的资源分配问题和RIS配置问题。此外,还介绍了提出的基于FIL算法的收益分配算法的流程。在FL中,RIS可以提高信道质量,降低FIL期间的通信成本[14,37]。

5.1 FBL资源分配

根据公式(28),客户端的目的是最大化个人收益,可能不会太在意网络体验。但对于运营商来说,网络性能对FBL的效果有重要影响,因此必须高度重视网络的整体性能。提高客户端的传输速率可以最大限度地保证服务质量(QoS)。优化函数可改写为两个子问题P1和P2。

P 1 :   m a x R k , s u p ( t )

s.t.

C 1 :   θ e ( t ) 0,2 π ,   e ϑ C 2 : k = 1 V B k , s u p ( t ) B m a x u p ( t ) C 3 : α e t 0,1 ,   e ϑ

其中,根据子问题P1,应使上行链路速率最大化。C1确保RIS中的相移角范围,C2限制总传输速率,使其在时隙t不能大于 B m a x u p t C3限制振幅反射系数值。 B k , s t θ e ( t ) α e t决定总传输速率。

同样,根据子问题P2,应使下行链路速率最大化。在P2中,约束条件确保了资源限制:

P 2 :   m a x R k , s d o w n ( t )

s.t.

C 1 :    θ e ( t ) 0,2 π ,   e ϑ C 2 : k = 1 V B k , s d o w n ( t ) B d o w n m a x ( t ) C 3 : α e t 0,1 ,   e ϑ

由P1和P2的约束条件可知,P1和P2是两个非凸问题。首先,去掉约束条件,将原P1问题转化为广义拉格朗日函数,如下所示:

m i n   R u p ( t ) = m i n - k = 1 V R k , s u p ( t ) + e = 1 ϑ λ e a , u p θ e ( t ) - 2 π + e = 1 ϑ λ e b , u p - θ e ( t ) + v a , u p k = 1 V B k , s u p ( t ) - B m a x u p ( t ) + v b , u p k = 1 V - B k , s u p ( t ) + e = 1 ϑ μ e a , u p α e t - 2 π + e = 1 ϑ μ e b , u p - α e t

本文目标是最小化 R u p ( t ) λ e a , u p λ e b , u p v a , u p v b , u p μ e a , u p μ e b , u p是惩罚系数。

同样,下行链路速率也应按如下方式最大化:

m i n   R d o w n t = m i n - k = 1 V R k , s d o w n t + e = 1 ϑ λ e a , d o w n θ e t - 2 π + e = 1 ϑ λ e b , d o w n - θ e t + v a , d o w n k = 1 V B k , s d o w n t - B m a x d o w n t + v b , d o w n k = 1 V - B k , s d o w n t + e = 1 ϑ μ i a , d o w n α e t - 2 π + e = 1 ϑ μ e b , d o w n - α e t

式中, λ e a , d o w n λ e b , d o w n v a , d o w n v b , d o w n μ e a , d o w n μ e b , d o w n也是惩罚系数。

总之,总时隙的优化目标是:

m i n   R = m i n t = 1 T R d o w n ( t ) + R u p ( t )

式中, T指总时隙数。

因此,将惩罚因子表Pen、RIS控制参数表I和网络资源参数表 B W定义如下:

P e n = λ b , u p , λ a , u p , v a , u p , v b , u p , μ b , u p , μ a , u p , λ b , d o w n , λ a , d o w n , v a , d o w n , v b , d o w n , μ b , d o w n , μ a , d o w n I = θ , α B W = B u p , B d o w n

因此,目标是通过确定Pen、IB的值来权衡FBL的性能和客户的收益。根据这一分析,将问题解耦为上行/下行链路问题和RIS配置问题。本文提出了一种基于DFP方法[36]的DDFP算法来解决这两个问题。首先,固定反射系数,然后使用DFP算法分别求解参数上传和参数下载的最佳传输带宽。最后,根据资源优化情况,再次使用DFP算法求解最佳反射系数配置。具体算法见算法2。假设最大迭代次数为r max,最大增量节点组为 m a x n ^ m a x , m ^ m a x,其中, n ^ m a x m ^ m a x分别代表所有客户端中增加的最大特征映射节点组数和最大特征增强节点组数。总时间复杂度为 O m a x T V m a x n ^ m a x , m ^ m a x , T r m a x。在IoV中,车辆节点总数V的值会很大。因此 T V m a x n ^ m a x , m ^ m a x T r m a x,总时间复杂度约等于 O T V m a x n ^ m a x , m ^ m a x。与解决资源分配问题的DL方法相比,DFP算法不需要大规模的可训练参数,这在一定程度上优化了算法实现所需的大量存储空间。通过对复杂问题的解耦,在一定程度上降低了问题处理的难度,提高了算法的效率。

5.2 基于FIL收益分配的RFL

由于IoV中FL训练的不平衡和高移动性,很难评估FL在客户中的贡献。一方面,服务提供商希望获得高质量的知识,不希望从客户那里获得肮脏和无用的数据。另一方面,客户需要消耗本地计算资源用于模型训练,消耗通信资源来传输参数。因此,他们需要通过盈利来弥补知识共享所带来的费用。

根据公式(14)中给出的RIS辅助的信道模型,时隙t中通信和计算的延迟 L k ( t )及能量消耗 E k ( t )的计算公式确定如下:

L k t = L k , s u p t + L k , s d o w n t + s i z e W k t θ c f k t + s i z e W g t θ c f s t + L w a i t
E k t = a 1 L k , s u p t + a 2 L k , s d o w n t + a 3 s i z e W k t θ c f k t + a 4 s i z e W g t θ c f s t + a 5 L w a i t

式中,a 1 ~a 5是能量消耗的能量因子。设置a 1a 2为0.05,设置a 3a4 为10-21,设置a5 为0.5。RSU需要一定的等待延迟来收集所有参数。因此,等待延迟时间为 L w a i t,表示收集所有参数所需的时间。在异步学习过程中,模型参数到达服务器的时间是不一致的。虽然 L w a i t虽然远小于模型计算和通信所需的延迟,但在仿真中仍将其设置为常数。 f k t是用户k的计算频率,而 f s t是RSU的计算频率。 θ c指计算密度。

客户端k的总成本 c k定义如下:

c k ( t ) = ξ l L k t + ξ e E k t

式(36)表明,成本主要来自能耗和延迟。 ξ l ξ e代表价格因素。总之,训练时间越长,客户端k的成本就越高。这表明,为了更好地激励客户参与FL并尽可能贡献自己的知识,服务器必须对客户产生的成本进行补偿。

为了鼓励客户参与FL,服务器可以向客户提供好处,让他们下载IoV中的高质量知识。对于时隙t的每个客户k,客户的收益为 u k t,客户对FL的贡献为 q k t。无人驾驶主要基于图像分类或实时路况分析进行车辆性能评估。因此,提高任务的预测精度ACCk 是IoV的关键。贡献 q k t与预测精度有关,因此将 q k t定义如下:

q k t = A C C k y k , Ω k x k ; W k

式中,(xk,yk )是模型参数 W k下客户k的训练数据。 Ω k ( · )指本地BFCM模型。

根据式(36)式(37),将客户k的预期边际收益函数 u k e定义为:

u k e t = a r c t a n q k t - s i g m o i d c k t + β u

式中,sigmoid函数主要用于将成本归一化为[0,1]。由于 q k t也在[0,1]范围内, q k t - s i g m o i d c k t为负值。arctan函数的优势在于输入和输出是正相关的。因此,使用arctan函数修正 q k t - s i g m o i d c k t以确保输出值大于0,这样输出值越大,收益就越大。 β u是给出的偏移量。

对于每个客户,FL管理者可以长期监测客户的奖励。将 Y k t定义为客户k目前已获得的奖励与客户在时隙t本应获得的奖励之间的差额。

Y k t + 1 m a x Y k t + c k t - u ^ k t , 0

式中, Y k t越大,客户k需要的补偿就越多。

由于客户的模型训练是异步的,客户获得的收益不同。但是,由于服务器的资金有限,一些客户可能需要等待很长时间才能获得全部收益。因此,将等待时间队列定义为 Q k t Q k t的动态更新可表示为:

Q k t + 1 m a x Q k t + λ k t - u ^ k t , 0

式中, λ k t与历史成本相关。

λ k t = c ^ k ,     i f   Y k t = 0 0 ,       o t h e r w i s e   

根据指数加权平均法计算历史成本为:

c ^ k = i = 1 t β i c i - 1 1 - β c i c k i

式中, β i c是一个超参数。越接近当前时间,成本的权重就越大。此外,公式(42)还能适应客户成本的变化趋势。

因此,客户k的实际收益为

u ^ k ( t ) = u k t k = 1 V u k t I n c ( t )

式中,Inc(t)表示FL管理者在时隙t的总预算。 u ^ k ( t )和Inc(t)以及其他客户的收益有关; u k ( t )定义如下:

u k ( t ) = 1 2 ω u u k e ( t ) + Y k t + c k t + Q k t + λ k t

式中, ω u是权重系数,公式(44)表示客户k在时隙t的预期收益, u ^ k t总是小于或等于 u k ( t ),期望 u ^ k t接近 u k ( t )。对收益率定义如下:

U k r a t e ( t ) = u ^ k t u k ( t )

式中, U k r a t e ( t )用于评估客户k的收益。

6 仿真结果

在本节中,使用数据集来验证和分析所提出的算法性能。然后,使用不同的数据集、参数设置和比较模型分析仿真结果。

6.1 参数设置

图4所示,使用Python 3.7对秦皇岛主城区车辆运行和路网结构进行仿真,使用第11代英特尔酷睿i7-11800H@ 2.30GHz 8核处理器。一些重要参数的主要参考值见表1

6.2 数据集

本文使用了以下数据集:

(1)美国国家标准与技术研究院混合数据集(MNIST)。MNIST数据集是一个手写数字识别数据集,包含10个类别(0~9)。将数据集的80%作为训练数据,20%作为测试数据。

(2)Car Evaluation。汽车评价数据集直接与6个输入属性相关用于评价汽车性能,即购买、维护(maint)、车门、人员、行李箱(lug_boot)和安全。汽车性能有4个类别,数据类型为字符串,因此采用HashCode方法对原始数据进行编码。该数据集的详细信息如表2所示。

6.3 性能比较

本文采用以下几种模型来评估所提算法的预测性能:

(1)支持向量机(SVM)。SVM是一种监督学习算法,可通过核方法进行非线性分类。在SVM中,使用scikit-learn软件包来搜索最佳优化参数:核函数和惩罚。

(2)全连接网络(FCN)。FCN是由多个全连接层组成的网络。在FCN中,为MNIST设置了三层全连接网络,每层输出的特征数分别为120、84和10。在carevaluation中,设置了两层全连接网络,每层输出的特征数分别为10和4。

(3)BLS。传统的BLS包括多个特征节点和增强节点。参数设置详情见表3表4

(4)CFBLS。与BLS相比,CFBLS在特征节点上具有级联结构。参数设置详情见表3表4

(5)CFBLS-pyramid。与CFBLS相比,CFBLS-pyramid的特征节点呈金字塔形结构。参数设置详情见表3表4

(6)BFCM。如果将特征映射层和特征增强层的数量设为1,BFCM就变成了CFBLS。参数设置详情见表3表4

(7)联邦平均算法(FedAVG)。该模型采用加权平均法聚合参数。一般来说,本地模型采用DL模型。本文使用长短期记忆(LSTM)、卷积神经网络(CNN)和FCN作为本地训练模型来评估FedAVG的性能。

6.4 性能分析

表3显示了不同参数设置下MNIST数据集的分类精度。从5个特征节点或节点组和5个增强节点或节点组开始。经过增量学习后,BLS、CFBLS、CFBLS-pyramid和BFCM的最后一个特征节点分别为3000、3000、5500和1220。更具体地,将BFCM中的每组节点分别定义为80、32和25。BLS、CFBLS、CFBLS-pyramid和BFCM的最后增强节点分别为3000、3000、5000和1220。与其他模型相比,提出的模型可以在集中学习模式上,以最少的节点总数获得最好的平均分类精度。

表4显示了carevaluation数据集在不同参数设置下的分类精度。从10个特征节点或节点组和5个增强节点或节点组开始。更具体地说,将BFCM中的每组节点分别定义为10、5和10。增量学习后,BLS、CFBLS、CFBLS-pyramid和BFCM的最后特征节点分别为500、500、275和250。BLS、CFBLS、CFBLS-pyramid和BFCM最后增强节点分别为500、500、50和250。中间产生的大量特征并不一定能提高分类精度,相反,可能会产生过拟合现象。但提出的模型可以根据实际情况灵活设置每组特征节点或增强节点的数量,提高了数据学习的泛化能力。

集中学习的性能如表3表4所示。集中学习允许将所有客户端数据上传到服务器。在集中式模型中掌握所有数据有利于模型参数的训练。随着节点数量的增加,映射特征也会增加,参数的随机性导致的分类误差也会增加。

图5图6显示了FL在不同模型下的性能。与传统的机器学习或DL相比,BL在效率和预测精度上都有优势。提出的FBL采用异步参数聚合方法,可以有效解决异步BL过程中由于模型间节点不一致而无法直接聚合参数的问题。然而,由于车辆移动速度快,RSU的服务范围有限,因此高效地训练和聚合参数十分必要。传统的DL算法(如CNN、LSTM或FCN)被用作本地模型。由于训练时间较长或距离服务范围较远,RSU无法接收客户端参数,因此FedAVG的效果并不显著。由于本地模型的轻量级特性,FBL可以满足IoV中频繁交换参数的要求,并能提高全局模型的学习能力。

图7图8显示,提出的FBL比对比算法更能降低成本。但是,随着训练时间和客户端的增加会导致模型训练成本逐渐增加。进一步分析表明,FL的成本通常来源于频繁的参数交换,因此需要合理分配通信资源。增加对客户的奖励有利于提高客户参与FL的意愿。图9图10显示了不同数量客户端的分布式学习能力。在RIS的辅助下,FBL可以根据环境动态分配资源,提高资源利用率,鼓励客户为FL做出贡献。FBL能够保持90%以上的收益率,这表明高效的本地模型能够促进客户更频繁地参与FL。更重要的是,合理的资源分配和RIS配置算法可以提高信道质量,提高IoV知识共享的效率。

图11显示了不同数量的反射元对FBL算法的影响。很明显,反射元素的增加确实改善了FBL的整体效果,这表现在收益率的增加上。更重要的是,随着FL客户端数量的增加,资源利用率也随之提高,使收益率接近100%。

7 结论

在本文中,提出了一种用于车联网知识共享的异步FBL框架。FBL整合了BL和FL,不仅保护了数据隐私,还加快了本地模型的训练效率,提高了联邦聚合的准确度。为了提高本地训练的性能,提出了一种改进的BFCM。为了解决资源分配和RIS配置问题,将其划分为两个凸子问题。为了降低通信成本,使用了DDFP算法在不同时隙分配网络带宽和配置RIS。本文还提出了一种RFL算法来提高客户端的收益,以补偿其在通信和计算过程中的成本。仿真结果表明,与其他算法相比,所提算法平均提高了至少2.0%的分类准确度,客户收益提高了约2.5%。在奖励分配方面,所提算法可以接近100%,并使用户收益最大化。此外,所提算法在有许多车辆节点的大规模数据集上的效率提高了约6倍。在未来的工作中,将继续研究FL的客户端选择问题。

参考文献

[1]

Niu Z, Shen XS, Zhang Q, Tang Y. Space-air-ground integrated vehicular network for connected and automated vehicles: challenges and solutions. Intell Converg Netw 2020;1(2):142‒69. . 10.23919/icn.2020.0009

[2]

Xu M, Ng WC, Lim WYB, Kang J, Xiong Z, Niyato D, et al. A full dive into realizing the edge-enabled metaverse: visions, enabling technologies, and challenges. IEEE Commun Surv Tutor 2023;25(1):656‒700. . 10.1109/comst.2022.3221119

[3]

Chai H, Leng S, Chen Y, Zhang K. A hierarchical blockchain-enabled federated learning algorithm for knowledge sharing in Internet of Vehicles. IEEE Trans Intell Transp Syst 2021;22(7):3975‒86. . 10.1109/tits.2020.3002712

[4]

Wang W, Xia F, Nie H, Chen Z, Gong Z, Kong X, et al. Vehicle trajectory clustering based on dynamic representation learning of Internet of Vehicles. IEEE Trans Intell Transp Syst 2021;22(6):3567‒76. . 10.1109/tits.2020.2995856

[5]

Wang Z, Shi Y, Zhou Y, Zhou H, Zhang N. Wireless-powered over-the-air computation in intelligent reflecting surface-aided IoT networks. IEEE Internet Things J 2021;8(3):1585‒98. . 10.1109/jiot.2020.3015489

[6]

Di Renzo M, Zappone A, Debbah M, Alouini MS, Yuen C, de Rosny J, et al. Smart radio environments empowered by reconfigurable intelligent surfaces: how it works, state of research, and the road ahead. IEEE J Sel Areas Commun 2020;38(11):2450‒525. . 10.1109/jsac.2020.3007211

[7]

Du H, Wang J, Niyato D, Kang J, Xiong Z, Zhang J, et al. Semantic communications for wireless sensing: RIS-aided encoding and selfsupervised decoding. 2022. arXiv:10.1109/jsac.2023.3288231

[8]

Yuan X, Chen J, Zhang N, Zhu C, Ye Q, Shen XS. FedTSE: low-cost federated learning for privacy-preserved traffic state estimation in IoV. In: Proceedings of 2022 IEEE Conference on Computer Communications Workshops, 2022 May 2‒5, New York City, NY, USA; 2022. . 10.1109/infocomwkshps54753.2022.9798018

[9]

Nguyen DC, Cheng P, Ding M, Lopez-Perez D, Pathirana PN, Li J, et al. Enabling AI in future wireless networks: a data life cycle perspective. IEEE Commun Surv Tutor 2021;23(1):553‒95. . 10.1109/comst.2020.3024783

[10]

Ni W, Liu Y, Eldar YC, Yang Z, Tian H. STAR-RIS integrated nonorthogonal multiple access and over-the air federated learning: framework, analysis, and optimization. IEEE Internet Things J 2022;9(18):17136‒56. . 10.1109/jiot.2022.3188544

[11]

Feng J, Zhang W, Pei Q, Wu J, Lin X. Heterogeneous computation and resource allocation for wireless powered federated edge learning systems. IEEE Trans Commun 2022;70(5):3220‒33. . 10.1109/tcomm.2022.3163439

[12]

Chen CLP, Liu Z. Broad learning system: an effective and efficient incremental learning system without the need for deep architecture. IEEE Trans Neural Netw Learn Syst 2018;29(1):10‒24. . 10.1109/tnnls.2017.2716952

[13]

Yuan X, Chen J, Zhang N, Fang X, Liu D. A federated bidirectional connection broad learning scheme for secure data sharing in Internet of Vehicles. China Commun 2021;18(7):117‒33. . 10.23919/jcc.2021.07.010

[14]

Yu H, Liu Z, Liu Y, Chen T, Cong M, Weng X, et al. A fairness-aware incentive scheme for federated learning. In: Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society; 2020 Feb 7‒8; New York City, NY, USA; 2020. . 10.1145/3375627.3375840

[15]

Yang B, Cao X, Huang C, Yuen C, Di Renzo M, Yong LG, et al. Federated spectrum learning for reconfigurable intelligent surfaces-aided wireless edge networks. IEEE Trans Wirel Commun 2022;21(11):9610‒26. . 10.1109/twc.2022.3178445

[16]

Li L, Ma D, Ren H, Wang P, Lin W, Han Z. Towards energy-efficient multiple IRSs: federated learning based configuration optimization. IEEE Trans Green Commun Netw 2022;6(2):755‒65. . 10.1109/tgcn.2021.3136306

[17]

Wang Z, Qiu J, Zhou Y, Shi Y, Fu L, Chen W, et al. Federated learning via intelligent reflecting surface. IEEE Trans Wirel Commun 2022;21(2):808‒22. . 10.1109/twc.2021.3099505

[18]

Huang S, Wang S, Wang R, Wen M, Huang K. Reconfigurable intelligent surface assisted mobile edge computing with heterogeneous learning tasks. IEEE Trans Cogn Commun Netw 2021;7(2):369‒82. . 10.1109/tccn.2021.3056707

[19]

Liu L, Zhao M, Yu M, Jan MA, Lan D, Taherkordi A. Mobility-aware multi-hop task offloading for autonomous driving in vehicular edge computing and networks. IEEE Trans Intell Transp Syst 2023;24(2):2169‒82.

[20]

Mao R, Cui R, Chen CLP. Broad learning with reinforcement learning signal feedback: theory and applications. IEEE Trans Neural Netw Learn Syst 2022;33(7):2952‒64. . 10.1109/tnnls.2020.3047941

[21]

Peng X, Ota K, Dong M. A broad learningdriven network traffic analysis system based on fog computing paradigm. China Commun 2020;17(2):1‒13. . 10.23919/jcc.2020.02.001

[22]

Guo L, Li R, Jiang B. An ensemble broad learning scheme for semisupervised vehicle type classification. IEEE Trans Neural Netw Learn Syst 2021;32(12):5287‒97. . 10.1109/tnnls.2021.3083508

[23]

Wei X, Zhao J, Zhou L, Qian Y. Broad reinforcement learning for supporting fast autonomous IoT. IEEE Internet Things J 2020;7(8):7010‒20. . 10.1109/jiot.2020.2980198

[24]

Liu Y, Yu JJQ, Kang J, Niyato D, Zhang S. Privacy-preserving traffic flow prediction: a federated learning approach. IEEE Internet Things J 2020;7(8):7751‒63. . 10.1109/jiot.2020.2991401

[25]

Du Z, Wu C, Yoshinaga T, Yau KLA, Ji Y, Li J. Federated learning for vehicular Internet of Things: recent advances and open issues. IEEE Open J Comput Soc 2020;1:45‒61. . 10.1109/ojcs.2020.2992630

[26]

Lu Y, Huang X, Zhang K, Maharjan S, Zhang Y. Blockchain empowered asynchronous federated learning for secure data sharing in Internet of Vehicles. IEEE Trans Veh Technol 2020;69(4):4298‒311. . 10.1109/tvt.2020.2973651

[27]

Le J, Lei X, Mu N, Zhang H, Zeng K, Liao X. Federated continuous learning with broad network architecture. IEEE Trans Cybern 2021;51(8):3874‒88. . 10.1109/tcyb.2021.3090260

[28]

Le THT, Tran NH, Tun YK, Nguyen MNH, Pandey SR, Han Z, et al. An incentive mechanism for federated learning in wireless cellular networks: an auction approach. IEEE Trans Wirel Commun 2021;20(8):4874‒87. . 10.1109/twc.2021.3062708

[29]

Liu T, Di B, An P, Song L. Privacy-preserving incentive mechanism design for federated cloud-edge learning. IEEE Trans Netw Sci Eng 2021;8(3):2588‒600. . 10.1109/tnse.2021.3100096

[30]

Chu Z, Xiao P, Shojafar M, Mi D, Mao J, Hao W. Intelligent reflecting surface assisted mobile edge computing for Internet of Things. IEEE Wirel Commun Lett 2021;10(3):619‒23. . 10.1109/lwc.2020.3040607

[31]

Huang C, Zappone A, Alexandropoulos GC, Debbah M, Yuen C. Reconfigurable intelligent surfaces for energy efficiency in wireless communication. IEEE Trans Wirel Commun 2019;18(8):4157‒70. . 10.1109/twc.2019.2922609

[32]

Gong X, Zhang T, Chen CLP, Liu Z. Research review for broad learning system: algorithms, theory, and applications. IEEE Trans Cybern 2022;52(9):8922‒50. . 10.1109/tcyb.2021.3061094

[33]

Ko B, Liu K, Son SH, Park KJ. RSU-assisted adaptive scheduling for vehicle-tovehicle data sharing in bidirectional road scenarios. IEEE Trans Intell Transp Syst 2021;22(2):977‒89. . 10.1109/tits.2019.2961705

[34]

Mao S, Zhang N, Liu L, Wu J, Dong M, Ota K, et al. Computation rate maximization for intelligent reflecting surface enhanced wireless powered mobile edge computing networks. IEEE Trans Veh Technol 2021;70(10):10820‒31. . 10.1109/tvt.2021.3105270

[35]

Zhang L, Li J, Lu G, Shen P, Bennamoun M, Shah SAA, et al. Analysis and variants of broad learning system. IEEE Trans Syst Man Cybern Syst 2022;52(1):334‒44. . 10.1109/tsmc.2020.2995205

[36]

Boyd S, Vandenberghe L, Faybusovich L. Convex optimization. IEEE Trans Autom Control 2006;51(11):1859.

[37]

Ng KL, Chen Z, Liu Z, Yu H, Liu Y, Yang Q. A multi-player game for studying federated learning incentive schemes. In: Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence; 2020 Jul 22; Yokohama, Japan; 2020. . 10.24963/ijcai.2020/769

AI Summary AI Mindmap
PDF (2603KB)

1957

访问

0

被引

详细

导航
相关文章

AI思维导图

/