冗余数据去除的联邦学习高效通信方法 |
| |
引用本文: | 李开菊,许强,王豪.冗余数据去除的联邦学习高效通信方法[J].通信学报,2023(5):79-93. |
| |
作者姓名: | 李开菊 许强 王豪 |
| |
作者单位: | 1. 重庆邮电大学计算机科学与技术学院;2. 重庆大学计算机学院;3. 香港城市大学电机工程系;4. 旅游多源数据感知与决策技术文化和旅游部重点实验室 |
| |
基金项目: | 国家自然科学基金资助项目(No.42001398);;重庆市自然科学基金资助项目(No.cstc2020jcyj-msxmX0635);;重庆市博士后研究项目特别资助项目(No.2021XM3009);;中国博士后基金资助项目(No.2021M693929)~~; |
| |
摘 要: | 为了应对终端设备网络带宽受限对联邦学习通信效率的影响,高效地传输本地模型更新以完成模型聚合,提出了一种冗余数据去除的联邦学习高效通信方法。该方法通过分析冗余更新参数产生的本质原因,根据联邦学习中数据非独立同分布特性和模型分布式训练特点,给出新的核心数据集敏感度和损失函数容忍度定义,提出联邦核心数据集构建算法。此外,为了适配所提取的核心数据,设计了分布式自适应模型演化机制,在每次训练迭代前动态调整训练模型的结构和大小,在减少终端与云服务器通信比特数传输的同时,保证了训练模型的准确率。仿真实验表明,与目前最优的方法相比,所提方法减少了17%的通信比特数,且只有0.5%的模型准确率降低。
|
关 键 词: | 联邦学习 通信效率 核心数据 模型演化 准确率 |
|