摘 要: | 联邦学习系统中,在资源受限的边缘端进行本地模型训练存在一定的挑战.计算、存储、能耗等方面的限制时刻影响着模型规模及效果.传统的联邦剪枝方法在联邦训练过程中对模型进行剪裁,但仍存在无法根据模型所处环境自适应修剪以及移除一些重要参数导致模型性能下降的情况.本文提出基于联邦强化学习的分布式模型剪枝方法以解决此问题.首先,将模型剪枝过程抽象化,建立马尔可夫决策过程,使用DQN算法构建通用强化剪枝模型,动态调整剪枝率,提高模型的泛化性能.其次设计针对稀疏模型的聚合方法,辅助强化泛化剪枝方法,更好地优化模型结构,降低模型的复杂度.最后,在多个公开数据集上将本方法与不同基线方法进行比较.实验结果表明,本文所提出的方法在保持模型效果的同时减少模型复杂度.
|