首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 171 毫秒
1.
为了优化分层联邦学习(FL)全局模型的训练时延,针对实际场景中终端设备存在自私性的问题,该文提出一种基于博弈论的激励机制。在激励预算有限的条件下,得到了终端设备和边缘服务器之间的均衡解和最小的边缘模型训练时延。考虑终端设备数量不同,设计了基于主从博弈的可变激励训练加速算法,使得一次全局模型训练时延达到最小。仿真结果显示,所提出的算法能够有效降低终端设备自私性带来的影响,提高分层联邦学习全局模型的训练速度。  相似文献   

2.
为了克服异构边缘计算环境下联邦学习的3个关键挑战,边缘异构性、非独立同分布数据及通信资源约束,提出了一种分组异步联邦学习(FedGA)机制,将边缘节点分为多个组,各个分组间通过异步方式与全局模型聚合进行全局更新,每个分组内部节点通过分时方式与参数服务器通信。理论分析建立了FedGA的收敛界与分组间数据分布之间的定量关系。针对分组内节点的通信提出了分时调度策略魔镜法(MMM)优化模型单轮更新的完成时间。基于FedGA的理论分析和MMM,设计了一种有效的分组算法来最小化整体训练的完成时间。实验结果表明,FedGA和MMM相对于现有最先进的方法能降低30.1%~87.4%的模型训练时间。  相似文献   

3.
为了应对终端设备网络带宽受限对联邦学习通信效率的影响,高效地传输本地模型更新以完成模型聚合,提出了一种冗余数据去除的联邦学习高效通信方法。该方法通过分析冗余更新参数产生的本质原因,根据联邦学习中数据非独立同分布特性和模型分布式训练特点,给出新的核心数据集敏感度和损失函数容忍度定义,提出联邦核心数据集构建算法。此外,为了适配所提取的核心数据,设计了分布式自适应模型演化机制,在每次训练迭代前动态调整训练模型的结构和大小,在减少终端与云服务器通信比特数传输的同时,保证了训练模型的准确率。仿真实验表明,与目前最优的方法相比,所提方法减少了17%的通信比特数,且只有0.5%的模型准确率降低。  相似文献   

4.
联邦学习可以在保护数据隐私的同时,快速地从大量分布式数据中提炼智能模型,已经成为实现边缘人工智能的主流解决方案。然而,现有的联邦学习工作聚焦于在无线网络边缘部署传统的深度神经网络(如卷积神经网络等),给移动设备带来了巨大的计算负载和能量消耗。因此,提出将一种新的低消耗神经网络——脉冲神经网络,应用于联邦边缘学习中。相较于传统的深度神经网络,它训练所需的计算量和能量消耗更低。同时,为了减少通信开销,在每一轮的联邦学习训练中,提出利用空中计算技术来聚合所有局部模型的参数。整个问题是一个二次约束二次规划问题,为解决该问题,提出了一种基于分枝定界算法的算法。通过在CIFAR10数据集上的大量实验表明,该算法优于现有方法,如半正定松弛等。  相似文献   

5.
计算卸载是移动边缘网络中的一个关键问题,基于深度学习的算法为高效生成卸载策略提供了一种解决方法。但考虑到移动终端设备的动态性以及不同任务场景之间的转换,需要大量的训练数据和较长的训练时间重新训练神经网络模型,即这些方法对新环境的适应能力较弱。针对这些不足,提出了一种基于元强化学习(Meta Reinforcement Learning, MRL)的自适应卸载方法,先对外部模型进行预训练,处理具体任务时再基于外部模型训练内部模型。该方法能快速适应具有少量梯度更新的样本的新环境。仿真实验表明,该算法能够适应新的任务场景,效果良好。  相似文献   

6.
涂勇峰  陈文 《信号处理》2022,38(12):2486-2495
语义通信是一种有发展潜力的新型通信技术,通过挖掘信源中的语义信息从而减少传输所需要的数据量。语义通信通常采用深度学习的方式建立编解码模型,在收发端共享模型参数的前提下实现端到端的数据传输,但在实际场景中,由于多用户的存在,端到端的传输具有局限性,语义通信系统的部署有更多需要考虑的问题。为了使语义通信能应用于多用户的场景,本文提出了语义通信系统模型的联邦学习部署方式,利用用户端的数据对深度学习模型进行更为有效的训练。从而在不直接使用用户数据的前提下,使模型学习到用户数据的特征,实现了多用户场景下语义通信系统的部署。仿真结果表明,通过联邦学习训练得到的模型可以达到接近于集中训练的效果,并且保护了用户隐私。  相似文献   

7.
随着互联网社交平台的崛起和移动智能终端设备的普及,自媒体短视频、直播等视频业务蓬勃发展,人们对高质量视频服务的需求也急剧上升。与此同时,连接到核心网络的大量智能设备增加了回程链路的负载,传统的云计算难以满足用户对视频服务的低延迟要求。移动边缘计算(MEC)通过在网络边缘部署具有计算和存储能力的边缘节点,通过在更靠近用户的边缘侧提高计算和存储服务,降低了数据传输时延进而缓解了网络阻塞。因此,基于MEC架构,该文充分利用网络边缘资源,提出了基于联邦学习的视频请求预测和视频协作缓存策略。通过利用多个边缘节点对提出的深度请求预测模型(DRPN)视频请求预测模型进行联邦训练,预测视频未来的请求情况,然后量化缓存内容所带来的时延收益并协作地以最大化该时延收益为目的进行缓存决策。该文分析了真实数据集MovieLens,模拟了视频请求缓存场景并进行实验。仿真结果表明,相比于其他策略,所提策略不仅能有效降低用户等待时延,在有限的缓存空间中提高内容多样性,从而提高缓存命中率,降低缓存成本,还能降低整个系统的通信成本。  相似文献   

8.
联邦学习框架正逐渐被广泛应用于车联网领域,针对车辆的移动性特点以及大量车辆联邦学习时同时接入参数服务器交互参数易产生的通信拥塞的问题,提出了一种基于模糊逻辑的车辆选择和基于演化博弈的参数服务器选择算法。通过设计模糊逻辑算法,考虑车辆的移动性、设备条件以及数据量因素来选择通信连接较稳定、计算能力较强和数据量多的车辆参与联邦学习。采用演化博弈进一步刻画选出的车辆自主决策选择参数服务器的过程,平衡联邦学习模型准确度以及产生的通信和计算成本,从而避免通信拥塞并最大化车辆个体利益和整体利益。仿真验证了大量车辆场景下所提出算法的性能,实现模型训练的低成本、高精度。  相似文献   

9.
为了应对以云服务器为中心的深度学习模型存在实时性较差的缺点,提出一种基于边缘计算的按需优化的深度学习模型,模型基于通信带宽和延时限制,自适应地将深度学习模型分配到终端设备和边缘服务器上并进行裁剪,从而最大化计算精度。仿真实验结果表明,相比仅仅将深度学习模型部署在终端设备或边缘服务器上,该算法具有更强的计算优势。  相似文献   

10.
针对蜂群无人机在复杂战场环境下的能效均衡需求,提出一种紫外光通信协作蜂群无人机网络动态能效均衡算法。该算法结合紫外光抗干扰、高保密的优点,为蜂群无人机提供一种可靠的通信方式,并通过引入自适应节点度、无人机能效和距离稳定度参数加权分簇来选举簇首,使算法更加适用于动态场景。最后结合无线紫外光通信及能量消耗模型,在高斯马尔可夫移动模型下对蜂群无人机进行了仿真分析,结果表明,本算法相比LEACH算法可以将网络生存周期提升16%,同时可将平均簇首数量降低57%,数据传输量提升近两倍。  相似文献   

11.
针对海量数据下,基于区块链的联邦学习数据共享平台面临的效率低下和隐私泄露问题,该文提出基于混合隐私的区块链高效模型协同训练共享方案。在该方案中,首先根据欧氏距离设计了一种基于相似度的训练成员选择算法来选择训练成员,组成联邦社区,即通过选取少量的高匹配训练节点来提高训练的效率和效果。然后,结合阈值同态加密和差分隐私,设计一种基于混合隐私技术的模型协同训练共享方案来保证训练和共享过程中的隐私性。实验结果和系统实现表明,所提方案可以在保证训练结果准确率的情况下,实现高效训练和隐私保护下的数据共享。  相似文献   

12.
周世阳  程郁凡  徐丰  雷霞 《信号处理》2022,38(7):1424-1433
由于无人机组网灵活、快速、低成本的特性,空中基站被视为在未来无线通信中有前景的技术。无人机集群可以通过相互协调和合作,完成的复杂任务,具有重大的研究和实用价值,而无人机间的高效通信是当下面临的重大挑战。为了在满足无人机间通信速率的前提下,尽可能节省发射功率,本文提出基于深度强化学习的集群方案和功率控制的智能决策算法。首先,本文设计了三种无人机集群方案,以对地面用户提供无缝的无线覆盖;然后,本文提出了基于深度Q网络(Deep Q-network)算法的集群方案和功率控制决策算法,用深度神经网络输出不同条件下联合决策的无人机集群方案和发射功率,并研究了重要性采样技术,提高训练效率。仿真结果表明,本文提出的深度强化学习算法能够正确决策无人机集群方案和发射功率,与不带强化学习的深度学习(Deep Learning Without Reinforcement Learning, DL-WO-RL)算法相比,用更低的发射功率满足无人机之间的通信速率要求,并且重要性采样技术能够缩短DQN算法的收敛时间。   相似文献   

13.
胡逸文  杨晨阳  刘婷婷 《信号处理》2021,37(10):1930-1940
通过预测无线信道可以解决高速移动导致的信道过时问题、或利用预测资源分配提升无线系统的资源利用率和用户体验。尽管对机器学习进行离线训练的时间较长,但利用训练后得到的模型进行在线推断时计算复杂度低,有望解决信道预测这类对实时性要求高的无线任务。联邦学习可以充分利用移动设备采集的数据和计算资源,同时保护隐私敏感的用户数据。对于隐私不敏感的无线数据,应用联邦学习的主要动机之一是相对于需上传原始训练数据的集中式学习能降低通信开销。本文考虑平均信道、瞬时信道和未来接入小区这三个预测问题,对经过模型压缩后联邦学习的上行总数据量与集中式学习进行了比较。研究结果表明,对于所考虑的预测任务,即使经过了几千倍的压缩,联邦学习所需的上行数据量也不一定低于集中式学习,这意味着联邦学习的通信效率依然需要大幅度提高。   相似文献   

14.
Federated learning is a new type of distributed learning framework that allows multiple participants to share training results without revealing their data privacy. As data privacy becomes more important, it becomes difficult to collect data from multiple data owners to make machine learning predictions due to the lack of data security. Data is forced to be stored independently between companies, creating “data silos”. With the goal of safeguarding data privacy and security, the federated learning framework greatly expands the amount of training data, effectively improving the shortcomings of traditional machine learning and deep learning, and bringing AI algorithms closer to our reality. In the context of the current international data security issues, federated learning is developing rapidly and has gradually moved from the theoretical to the applied level. The paper first introduces the federated learning framework, analyzes its advantages, reviews the results of federated learning applications in industries such as communication and healthcare, then analyzes the pitfalls of federated learning and discusses the security issues that should be considered in applications, and finally looks into the future of federated learning and the application layer.  相似文献   

15.
The advancement of the Internet of Things (IoT) brings new opportunities for collecting real-time data and deploying machine learning models. Nonetheless, an individual IoT device may not have adequate computing resources to train and deploy an entire learning model. At the same time, transmitting continuous real-time data to a central server with high computing resource incurs enormous communication costs and raises issues in data security and privacy. Federated learning, a distributed machine learning framework, is a promising solution to train machine learning models with resource-limited devices and edge servers. Yet, the majority of existing works assume an impractically synchronous parameter update manner with homogeneous IoT nodes under stable communication connections. In this paper, we develop an asynchronous federated learning scheme to improve training efficiency for heterogeneous IoT devices under unstable communication network. Particularly, we formulate an asynchronous federated learning model and develop a lightweight node selection algorithm to carry out learning tasks effectively. The proposed algorithm iteratively selects heterogeneous IoT nodes to participate in the global learning aggregation while considering their local computing resource and communication condition. Extensive experimental results demonstrate that our proposed asynchronous federated learning scheme outperforms the state-of-the-art schemes in various settings on independent and identically distributed (i.i.d.) and non-i.i.d. data distribution.  相似文献   

16.
董少鹏  杨晨阳  刘婷婷 《信号处理》2021,37(8):1365-1377
作为一种分布式训练框架,联邦学习在无线通信领域有着广阔的应用前景,也面临着多方面的技术挑战,其中之一源于参与训练用户数据集的非独立同分布(Independent and identically distributed,IID)。不少文献提出了解决方法,以减轻户数据集非IID造成的联邦学习性能损失。本文以平均信道增益预测、正交幅度调制信号的解调这两个无线任务以及两个图像分类任务为例,分析用户数据集非IID对联邦学习性能的影响,通过神经网络损失函数的可视化和对模型参数的偏移量进行分析,尝试解释非IID数据集对不同任务影响程度不同的原因。分析结果表明,用户数据集非IID未必导致联邦学习性能的下降。在不同数据集上通过联邦平均算法训练得到的模型参数偏移程度和损失函数形状有很大的差异,二者共同导致了不同任务受数据非IID影响程度的不同;在同一个回归问题中,数据集非IID是否影响联邦学习的性能与引起数据非IID的具体因素有关。   相似文献   

17.
针对目前较少研究去中心化联邦学习中的激励机制设计,且已有联邦学习激励机制较少以全局模型效果为出发点的现状,该文为去中心化联邦学习加入了基于合同理论的联邦学习激励机制,提出一种新的可激励的联邦学习模型。使用区块链与星际文件系统(IPFS)取代传统联邦学习的中央服务器,用于模型参数存储与分发,在此基础上使用一个合同发布者来负责合同的制定和发布,各个联邦学习参与方结合本地数据质量选择签订合同。每轮本地训练结束后合同发布者将对各个本地训练模型进行评估,若满足签订合同时约定的奖励发放条件则发放相应的奖励,同时全局模型的聚合也基于奖励结果进行模型参数的聚合。通过在MNIST数据集以及行业用电量数据集上进行实验验证,相比于传统联邦学习,加入激励机制后的联邦学习训练得到的全局模型效果更优,同时去中心化的结构也提高了联邦学习的鲁棒性。  相似文献   

18.
针对在数据异构和资源异构的无线网络中联邦学习训练效率低及训练能耗高的问题,面向图像识别任务,提出了基于优化引导的异步联邦学习算法AFedGuide。利用较高样本多样性的客户端模型的引导作用,提高单轮聚合有效性。采用基于训练状态的模型增量异步更新机制,提高模型更新实时性以及信息整合能力。设计基于模型差异性的训练决策,修正优化方向。仿真结果显示,相较于对比算法,AFedGuide的训练时长平均减少67.78%,系统能耗平均节省65.49%,客户端的准确率方差平均减少25.5%,说明在客户端数据异构和资源异构的无线网络下,AFedGuide可以在较短的训练时间内以较小的训练能耗完成训练目标,并维持较高的训练公平性和模型适用性。  相似文献   

19.
The classification of network traffic, which involves classifying and identifying the type of network traffic, is the most fundamental step to network service improvement and modern network management. Classic machine learning and deep learning methods have widely adopted in the field of network traffic classification. However, there are two major challenges in practice. One is the user privacy concern in cross-domain traffic data sharing for the purpose of training a global classification model, and the other is the difficulty to obtain large amount of labeled data for training. In this paper, we propose a novel approach using federated semi-supervised learning for network traffic classification, in which the federated server and clients from different domains work together to train a global classification model. Among them, unlabeled data are used on the client side, and labeled data are used on the server side. The experimental results derived from a public dataset show that the accuracy of the proposed approach can reach 97.81%, and the accuracy gap between the federated learning approach and the centralized training method is minimal.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号