首页 | 本学科首页   官方微博 | 高级检索  
     

基于差分隐私保护知识迁移的联邦学习方法
作者姓名:徐晨阳  葛丽娜  王哲  周永权  秦霞  田蕾
作者单位:广西民族大学人工智能学院,南宁530006;广西民族大学网络通信工程重点实验室,南宁530006;广西民族大学人工智能学院,南宁530006;广西民族大学网络通信工程重点实验室,南宁530006;广西混杂计算与集成电路设计分析重点实验室,南宁530006;广西民族大学人工智能学院,南宁530006;广西混杂计算与集成电路设计分析重点实验室,南宁530006;广西民族大学网络通信工程重点实验室,南宁530006;广西民族大学电子信息学院,南宁530006
基金项目:国家自然科学基金资助项目(61862007);广西自然科学基金资助项目(2020GXNSFBA297103)
摘    要:联邦学习解决了机器学习的数据孤岛问题,然而,各方的数据集在数据样本空间和特征空间上可能存在较大差异,导致联邦模型的预测精度下降。针对上述问题,提出了一种基于差分隐私保护知识迁移的联邦学习方法。该方法使用边界扩展局部敏感散列计算各方实例之间的相似度,根据相似度对实例进行加权训练,实现基于实例的联邦迁移学习,在此过程中,实例本身无须透露给其他方,防止了隐私的直接泄露。同时,为了减少知识迁移过程的隐私间接泄露,在知识迁移过程中引入差分隐私机制,对需要在各方之间传输的梯度数据进行扰动,实现知识迁移过程的隐私保护。理论分析表明,知识迁移过程满足ε-差分隐私保护。在XGBoost梯度提升树模型上实现了所提方法,实验结果表明,与无知识迁移方法相比,所提方法使联邦模型测试误差平均下降6%以上。

关 键 词:联邦学习  迁移学习  局部敏感散列  差分隐私  梯度提升树
收稿时间:2022-12-04
修稿时间:2023-07-06
本文献已被 万方数据 等数据库收录!
点击此处可从《计算机应用研究》浏览原始摘要信息
点击此处可从《计算机应用研究》下载全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号