首页 | 本学科首页   官方微博 | 高级检索  
     

冗余数据去除的联邦学习高效通信方法
引用本文:李开菊,许强,王豪.冗余数据去除的联邦学习高效通信方法[J].通信学报,2023(5):79-93.
作者姓名:李开菊  许强  王豪
作者单位:1. 重庆邮电大学计算机科学与技术学院;2. 重庆大学计算机学院;3. 香港城市大学电机工程系;4. 旅游多源数据感知与决策技术文化和旅游部重点实验室
基金项目:国家自然科学基金资助项目(No.42001398);;重庆市自然科学基金资助项目(No.cstc2020jcyj-msxmX0635);;重庆市博士后研究项目特别资助项目(No.2021XM3009);;中国博士后基金资助项目(No.2021M693929)~~;
摘    要:为了应对终端设备网络带宽受限对联邦学习通信效率的影响,高效地传输本地模型更新以完成模型聚合,提出了一种冗余数据去除的联邦学习高效通信方法。该方法通过分析冗余更新参数产生的本质原因,根据联邦学习中数据非独立同分布特性和模型分布式训练特点,给出新的核心数据集敏感度和损失函数容忍度定义,提出联邦核心数据集构建算法。此外,为了适配所提取的核心数据,设计了分布式自适应模型演化机制,在每次训练迭代前动态调整训练模型的结构和大小,在减少终端与云服务器通信比特数传输的同时,保证了训练模型的准确率。仿真实验表明,与目前最优的方法相比,所提方法减少了17%的通信比特数,且只有0.5%的模型准确率降低。

关 键 词:联邦学习  通信效率  核心数据  模型演化  准确率
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号