基于差分隐私保护知识迁移的联邦学习方法 |
| |
作者姓名: | 徐晨阳 葛丽娜 王哲 周永权 秦霞 田蕾 |
| |
作者单位: | 广西民族大学人工智能学院,南宁530006;广西民族大学网络通信工程重点实验室,南宁530006;广西民族大学人工智能学院,南宁530006;广西民族大学网络通信工程重点实验室,南宁530006;广西混杂计算与集成电路设计分析重点实验室,南宁530006;广西民族大学人工智能学院,南宁530006;广西混杂计算与集成电路设计分析重点实验室,南宁530006;广西民族大学网络通信工程重点实验室,南宁530006;广西民族大学电子信息学院,南宁530006 |
| |
基金项目: | 国家自然科学基金资助项目(61862007);广西自然科学基金资助项目(2020GXNSFBA297103) |
| |
摘 要: | 联邦学习解决了机器学习的数据孤岛问题,然而,各方的数据集在数据样本空间和特征空间上可能存在较大差异,导致联邦模型的预测精度下降。针对上述问题,提出了一种基于差分隐私保护知识迁移的联邦学习方法。该方法使用边界扩展局部敏感散列计算各方实例之间的相似度,根据相似度对实例进行加权训练,实现基于实例的联邦迁移学习,在此过程中,实例本身无须透露给其他方,防止了隐私的直接泄露。同时,为了减少知识迁移过程的隐私间接泄露,在知识迁移过程中引入差分隐私机制,对需要在各方之间传输的梯度数据进行扰动,实现知识迁移过程的隐私保护。理论分析表明,知识迁移过程满足ε-差分隐私保护。在XGBoost梯度提升树模型上实现了所提方法,实验结果表明,与无知识迁移方法相比,所提方法使联邦模型测试误差平均下降6%以上。
|
关 键 词: | 联邦学习 迁移学习 局部敏感散列 差分隐私 梯度提升树 |
收稿时间: | 2022-12-04 |
修稿时间: | 2023-07-06 |
本文献已被 万方数据 等数据库收录! |
| 点击此处可从《计算机应用研究》浏览原始摘要信息 |
|
点击此处可从《计算机应用研究》下载全文 |
|