首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 62 毫秒
1.
利用不同来源的数据参与机器学习模型的训练,能够使得训练出的模型的预测结果更加准确,然而大量的数据收集则会产生隐私方面的相关问题。FATE联邦迁移学习是一种基于同态加密的联邦学习框架,但FATE联邦迁移学习中同态加密计算复杂,收敛速度相对较慢,导致模型训练效率低。提出一种基于茫然传输协议的安全矩阵计算方案。通过实现矩阵加法和乘法及数乘的安全计算,完成参与两方交互下具有数据隐私保护特性机器学习模型的损失函数计算与梯度更新,并以此构造更高效的FATE联邦迁移学习算法方案。在此基础上,通过茫然传输扩展协议和通信批量处理,减少需要调用的茫然传输协议的数量,缩减通信轮数,从而降低茫然传输协议带来的通信消耗。性能分析结果表明,该方案的安全模型满足安全性和隐私保护性,并且具有一定的可扩展性,在局域网环境下,相比基于同态加密的方案,模型收敛的平均时间缩短约25%,并且随着数据样本特征维度的增加,该方案仍能保持稳定的收敛速度。  相似文献   

2.
机器学习的发展依赖大量可用的数据.但是,在现实中数据分布在大量不同的企业和组织中,并且受到很多法律和现实情况的限制,将这些分散在各处的数据合并成一个拥有大量数据的数据集并不现实.为了解决机器学习领域的这一挑战,引入了一个新的算法和框架,称之为联邦迁移学习(Federated Transfer Learning,FTL)...  相似文献   

3.
近年来,联邦学习成为解决机器学习中数据孤岛与隐私泄露问题的新思路。联邦学习架构不需要多方共享数据资源,只要参与方在本地数据上训练局部模型,并周期性地将参数上传至服务器来更新全局模型,就可以获得在大规模全局数据上建立的机器学习模型。联邦学习架构具有数据隐私保护的特质,是未来大规模数据机器学习的新方案。然而,该架构的参数交互方式可能导致数据隐私泄露。目前,研究如何加强联邦学习架构中的隐私保护机制已经成为新的热点。从联邦学习中存在的隐私泄露问题出发,探讨了联邦学习中的攻击模型与敏感信息泄露途径,并重点综述了联邦学习中的几类隐私保护技术:以差分隐私为基础的隐私保护技术、以同态加密为基础的隐私保护技术、以安全多方计算(SMC)为基础的隐私保护技术。最后,探讨了联邦学习中隐私保护中的若干关键问题,并展望了未来研究方向。  相似文献   

4.
随着数据交易市场的建立和规范化,多方协同进行机器学习建模成为新需求。联邦学习允许多个数据拥有方联合训练一个机器学习模型,适用于模型共建共用场景,但现有联邦学习计算框架无法适用于数据拥有方和模型需求方诉求不同、模型共建不共用的场景。提出一种不依赖于第三方计算平台且基于同态加密的隐私保护逻辑回归协同计算方案,包括由数据拥有方、模型需求方和密钥生成者构成的多方协同计算框架,以及基于该框架的多方交互协同计算流程,在不泄露模型信息及各方数据隐私的前提下协作完成模型训练任务,通过建立攻击模型分析协同计算方案的安全性。基于先进的浮点数全同态加密方案CKKS在小型计算机集群上实现协同计算的原型系统,并对原型系统进行计算和通信优化,包括提前终止训练和将密文同态运算卸载到GPU上提高计算效率。实验结果表明,计算优化措施获得了约50倍的速度提升,协同计算原型系统在中小规模的数据集上可满足实用性要求。  相似文献   

5.
大规模数据收集大幅提升了机器学习算法的性能,实现了经济效益和社会效益的共赢,但也令个人隐私保护面临更大的风险与挑战.机器学习的训练模式主要分为集中学习和联邦学习2类,前者在模型训练前需统一收集各方数据,尽管易于部署,却存在极大数据隐私与安全隐患;后者实现了将各方数据保留在本地的同时进行模型训练,但该方式目前正处于研究的起步阶段,无论在技术还是部署中仍面临诸多问题与挑战.现有的隐私保护技术研究大致分为2条主线,即以同态加密和安全多方计算为代表的加密方法和以差分隐私为代表的扰动方法,二者各有利弊.为综述当前机器学习的隐私问题,并对现有隐私保护研究工作进行梳理和总结,首先分别针对传统机器学习和深度学习2类情况,探讨集中学习下差分隐私保护的算法设计;之后概述联邦学习中存在的隐私问题及保护方法;最后总结目前隐私保护中面临的主要挑战,并着重指出隐私保护与模型可解释性研究、数据透明之间的问题与联系.  相似文献   

6.
在多数据源的情况下,隐私保护机器学习是一个具有重要现实意义的研究课题,直接影响着人工智能在现实社会中的发展和推广。目前,已有许多致力于解决机器学习算法中隐私问题的方案,文章阐述并分析了四种常见的隐私保护技术,它们包括同态加密、秘密共享、乱码电路和差分隐私。介绍了近年来一种流行的联合学习解决方案框架—联邦学习,并对其存在的不足进行了讨论。基于对现有技术和方案的分析,文章提出了一种适用于多数据源场景的隐私保护方案,方案具有良好的安全性、健壮性和可校验性三个特点。  相似文献   

7.
联邦学习解决了机器学习的数据孤岛问题,然而,各方的数据集在数据样本空间和特征空间上可能存在较大差异,导致联邦模型的预测精度下降。针对上述问题,提出了一种基于差分隐私保护知识迁移的联邦学习方法。该方法使用边界扩展局部敏感散列计算各方实例之间的相似度,根据相似度对实例进行加权训练,实现基于实例的联邦迁移学习,在此过程中,实例本身无须透露给其他方,防止了隐私的直接泄露。同时,为了减少知识迁移过程的隐私间接泄露,在知识迁移过程中引入差分隐私机制,对需要在各方之间传输的梯度数据进行扰动,实现知识迁移过程的隐私保护。理论分析表明,知识迁移过程满足ε-差分隐私保护。在XGBoost梯度提升树模型上实现了所提方法,实验结果表明,与无知识迁移方法相比,所提方法使联邦模型测试误差平均下降6%以上。  相似文献   

8.
联邦学习(FL)是一种新兴的分布式机器学习技术,只需将数据留在本地即可通过各方协作训练一个共有模型,解决了传统机器学习中数据难以采集和隐私安全的问题。随着联邦学习技术的应用和发展,相关研究发现联邦学习仍可能受到各类攻击。为了确保联邦学习的安全性,研究联邦学习中的攻击方式及相应的隐私保护技术显得尤为重要。首先介绍了联邦学习的背景知识及相关定义,总结概括了联邦学习的发展历程及分类;接着阐述了联邦学习的安全三要素,从基于安全来源和基于安全三要素2个角度分类概述了联邦学习中的安全问题及研究进展;然后对隐私保护技术进行分类,结合相关研究应用综述了联邦学习中安全多方计算(SMC)、同态加密(HE)、差分隐私(DP)、可信执行环境(TEE)4种常用隐私保护技术;最后对联邦学习的未来研究方向进行展望。  相似文献   

9.
针对传统的基于机器学习的航班延误预测模型存在隐私风险及数据信息共享不充分导致的数据孤岛问题,提出一种基于纵向联邦学习框架融合改进逻辑回归模型的方法。在不共享本地隐私数据的前提下,利用纵向联邦学习处理不同参与方拥有的垂直分区数据,利用Paillier同态加密技术对模型参数进行加密,解决模型重要参数泄露问题,建立安全的逻辑回归模型。将仿真结果与其它集中式模型范式进行比较,验证了联邦模型在二分类实验中既有效提高了预测准确率又保证了数据隐私安全。为民航相关部门制定战略性业务决策提供了安全有效的依据。  相似文献   

10.
大数据时代,数据安全性和隐私性受到越来越多的关注和重视。联邦学习被视为是一种隐私保护的可行技术,允许从去中心化的数据中训练深度模型。针对电力投资系统中各部门因担心数据隐私信息泄露而带来的数据孤岛和隐私保护问题,提出了一种隐私保护的联邦学习框架,允许各部门自有数据在不出本地的情况下,联合训练模型。首先,提出了联邦学习的架构,支持分布式地训练模型;其次,引入同态加密技术,提出了隐私保护的联邦平均学习流程,在数据隐私保护的情况下,实现联合训练模型;最后,实验结果表明,该框架具有较好的收敛性,而且联合训练得到的模型具有较好的精度。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号