首页 | 本学科首页   官方微博 | 高级检索  
     

基于安全多方计算和差分隐私的联邦学习方案
引用本文:汤凌韬,王迪,张鲁飞,刘盛云.基于安全多方计算和差分隐私的联邦学习方案[J].计算机科学,2022(9):297-305.
作者姓名:汤凌韬  王迪  张鲁飞  刘盛云
作者单位:1. 数学工程与先进计算国家重点实验室;2. 上海交通大学网络空间安全学院
基金项目:国家重点研发计划(2016YFB1000500);;国家科技重大专项课题(2018ZX01028102)~~;
摘    要:联邦学习为非互信实体间的合作学习提供了一种新的解决思路,通过本地训练和中央聚合的模式,在训练全局模型的同时保护各实体的本地数据隐私。然而相关研究表明,该模式下无论是用户上传的局部模型,还是中央聚合的全局模型,都会泄露用户数据的信息。安全多方计算和差分隐私作为两种主流的隐私保护技术,分别保护计算过程和计算结果的隐私。目前很少有工作结合这两种技术的优势,用于联邦学习训练全流程的防护。将安全多方计算、差分隐私相结合,设计了一种面向深度学习的隐私保护联邦学习方案,用户对本地训练得到的局部模型添加扰动,并秘密共享至多个中央服务器,服务器间通过多方计算协议对局部模型进行聚合,得到一个共享的秘密全局模型。该方案在保护用户上传的局部信息不被窃取的同时,防止敌手从聚合模型等全局共享信息展开恶意推断,并具有容忍用户掉线和兼容多种聚合函数等优点。此外,针对不存在可信中心的现实应用,上述方案可自然拓展至去中心化场景。实验表明,所提方案与相同条件下的明文联邦学习效率相近,且能取得同水平的模型准确率。

关 键 词:联邦学习  安全多方计算  差分隐私  隐私保护  深度学习
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号