首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 10 毫秒
1.
区域交通流量预测是智慧交通系统的一项重要功能。联邦学习可以支持多位置服务提供商(Location Service Provider, LSP)的联合训练,使得训练数据集可以更加全面地覆盖整个区域的交通流量,提高预测准确率。但是,当前基于联邦学习的区域交通流量预测方案存在车辆数据去重、训练节点背叛以及隐私泄露等问题。为此,构建了基于联邦学习的隐私保护区域交通流量预测(Privacy-Preserving Regional Traffic Flow Prediction based on Federated Learning, PPRTFP-FL)模型。模型采用中心部署架构,由联邦中央服务器协调各个LSP联合完成模型的训练,并对全局模型进行梯度聚合与模型更新;采用交叉评价加权聚合的策略来防御部分不可信节点对全局模型的恶意攻击,提升了全局模型的鲁棒性;预测阶段使用同态加密聚合算法,各LSP在不泄露自身运营数据的情况下实现了更准确的流量预测。利用相关数据集进行测试,测试结果表明当训练数据集覆盖区域流量充分的情况下,本模型相比本地模型的预测准确率有明显的提升。对模型进行不同比例的恶意节点攻击实验...  相似文献   

2.
当前已经有研究将雾环境与联邦学习结合应用在车联网隐私保护中,但是缺乏对车辆移动性可能导致隐私需求改变的问题的考虑。为此,文中基于区域内车辆终端数目,提出了在不同的隐私需求下实施不同的隐私保护和效率调整的方案,在同态加密方案中进行双重加密聚合并且动态调整本地迭代次数,在差分隐私方案中动态调整每轮云聚合与雾聚合次数。实验表明,在区域内车辆终端数不同的情况下,本方案满足在隐私计算的同时保持较高精度。  相似文献   

3.
联邦学习与群体学习作为当前热门的分布式机器学习范式,前者能够保护用户数据不被第三方获得的前提下在服务器中实现模型参数共享计算,后者在无中心服务器的前提下利用区块链技术实现所有用户同等地聚合模型参数。但是,通过分析模型训练后的参数,如深度神经网络训练的权值,仍然可能泄露用户的隐私信息。目前,在联邦学习下运用本地化差分隐私(LDP)保护模型参数的方法层出不穷,但皆难以在较小的隐私预算和用户数量下缩小模型测试精度差。针对此问题,该文提出正负分段机制(PNPM),在聚合前对本地模型参数进行扰动。首先,证明了该机制满足严格的差分隐私定义,保证了算法的隐私性;其次分析了该机制能够在较少的用户数量下保证模型的精度,保证了机制的有效性;最后,在3种主流图像分类数据集上与其他最先进的方法在模型准确性、隐私保护方面进行了比较,表现出了较好的性能。  相似文献   

4.
联邦学习作为一种新兴的人工智能计算框架,旨在解决分布式环境下数据安全交换与隐私保护,然而联邦学习在应用时仍然存在安全问题.鉴于此,文章从多个层面分析联邦学习的隐私安全问题,并针对性地提出了防御措施;面向联邦学习安全高速数据交换,提出了一种基于改进同态加密算法的联邦学习模型,为联邦学习落地实施提供借鉴和参考.  相似文献   

5.
6.
黄精武 《通信技术》2022,(12):1618-1625
联邦学习方法在大数据时代有效解决了“数据孤岛”问题,也在一定程度上保障了数据隐私安全。然而,联邦学习的许多方面仍面临隐私风险。首先归纳总结了联邦学习面临的常见隐私威胁,并针对不同类型的隐私威胁归纳出对应的隐私保护措施;其次重点针对差分隐私方法进行了探讨,归纳总结了一些差分隐私的实现方法;最后基于差分隐私设计了一种适用于联邦学习系统的隐私保护手段。  相似文献   

7.
为提升电力物联网中用户数据安全性,提出了电力物联网LDP联邦学习框架。该框架将物联网用户分为常规用户和敏感用户两部分。常规用户通过与电力供应商互通模型与数据,基于横向联邦学习技术学习局部模型并参与更新全局模型;敏感用户利用异构联邦迁移学习技术将全局模型关联到局部模型中,从而保证敏感用户数据安全性。将联邦学习框架应用于GRU、LSTM网络,验证了所提联邦学习框架能够提升网络性能。  相似文献   

8.
在联邦学习中,交换模型参数或梯度信息通常被视作是安全的。但近期研究表明,模型参数或者梯度信息也会导致训练数据的泄露。基于保护客户端数据安全的目的,提出了一种基于生成模型的联邦学习算法。为了验证该算法的有效性,在DermaMNIST数据集上进行了仿真实验,采用梯度泄露攻击对算法进行验证。实验结果表明,提出的基于生成模型的联邦学习算法与联邦学习经典算法在准确率上仅仅相差0.02%,并且通过MSE、PSNR、SSIM等评价指标可以判断出该算法可以有效地保护数据隐私。  相似文献   

9.
联邦学习是一种高效隐私保护技术,其能在不直接获得数据源的情景下,通过参与方的本地训练及传输主要参数,进而成功训练出一个完整的学习模型。但联邦学习本体也有很多隐患因素,文章简单介绍联邦学习的概念,分析联邦学习内的威胁因素,包括投毒攻击、对抗攻击及隐私泄露,探究相关防御思路与策略。  相似文献   

10.
深度学习的应用日益广泛,训练样本是深度学习模型的基础.但是在军事、 商业和金融等领域中,往往会出现模型训练时样本数据分散不易集中和隐私保护等问题.因此,数据隐私安全的研究非常重要.以某领域命名实体识别为应用场景,提出了FedPBert模型,采取了横向联邦学习的方式对Bert模型进行了预训练和微调.为了提高模型的精度,采...  相似文献   

11.
联邦学习存在来自梯度的参与方隐私泄露,现有基于同态加密的梯度保护方案产生较大时间开销且潜在参与方与聚合服务器合谋导致梯度外泄的风险,为此,该文提出一种新的联邦学习方法FastProtector,在采用同态加密保护参与方梯度时引入符号随机梯度下降(SignSGD)思想,利用梯度中正负的多数决定聚合结果也能使模型收敛的特性,量化梯度并改进梯度更新机制,降低梯度加密的开销;同时给出一种加性秘密共享方案保护梯度密文以抵抗恶意聚合服务器和参与方之间共谋攻击;在MNIST和CIFAR-10数据集上进行了实验,结果表明所提方法在降低80%左右加解密总时间的同时仍可保证较高的模型准确率。  相似文献   

12.
为满足在可用性、实用性的前提下实现大数据安全融合共享,设计了基于联邦学习的分布式数据安全融合模型,并运用差分隐私、安全多方计算、同态加密、函数加密四种方法进行实现,以保证分布式数据融合的安全性和可行性.  相似文献   

13.
为了解决联邦学习数据安全以及加密后通信开销大等问题,提出了一种基于同态加密的高效安全联邦聚合框架。在联邦学习过程中,用户数据的隐私安全问题亟须解决,然而在训练过程中采用加密方案带来的计算和通信开销又会影响训练效率。在既要保护数据安全又要保证训练效率的情况下,首先,采用Top-K梯度选择方法对模型梯度进行筛选,减少了需要上传的梯度数量,提出适合多边缘节点的候选量化协议和安全候选索引合并算法,进一步降低通信开销、加速同态加密计算。其次,由于神经网络每层模型参数具有高斯分布的特性,对选择的模型梯度进行裁剪量化,并采用梯度无符号量化协议以加速同态加密计算。最后,实验结果表明,在联邦学习的场景下,所提框架既保证了数据隐私安全,又具有较高的准确率和高效的性能。  相似文献   

14.
15.
针对联邦学习算法中存在的训练效率低、通信成本高等问题,提出基于纵向联邦学习的快速提升树算法,在模型传递一阶导数和二阶导数时使用差分隐私方案,并在初始化预测类标签时增加随机扰动。相比于目前常见联邦学习框架FATE中依靠半同态加密实现的安全提升树(SecureBoost)模型,本算法在不降低模型精度的情况下,在相同8.5万样本的数据上,运行速度提升了60.79%,传输数据量减少了31.65%。相同65万样本的数据上,运行速度提升了50.54%,传输数据量减少了12.05%。  相似文献   

16.
联邦学习系统较好地解决了“数据孤岛”问题,也在一定程度上保护了私密训练数据,然而目前联邦学习仍然存在一些隐私安全风险。首先根据联邦学习系统的不同运行阶段归纳总结了其中的隐私安全威胁,并给出了一些解决办法;其次重点讨论了纵向联邦学习系统中的样本对齐问题,讨论和分析了现有的私密求交的基本方法,提出了一种基于零知识证明的私密求交方法并给出了一些改进方向;最后,基于该私密求交方法,讨论了该方法如何与其他方法结合进行联邦学习隐私保护。  相似文献   

17.
联邦学习安全与隐私在现实场景中受数据异构性的影响很大,为了研究隐私推断攻击、后门攻击与数据异构性的相互作用机理,提出一种基于隐私推断的高隐蔽后门攻击方案。首先基于生成对抗网络进行客户端的多样化数据重建,生成用于改善攻击者本地数据分布的补充数据集;在此基础上,实现一种源类别定向的后门攻击策略,不仅允许使用隐蔽触发器控制后门是否生效,还允许攻击者任意指定后门针对的源类别数据。基于MNIST、CIFAR 10和YouTube Aligned Face三个公开数据集的仿真实验表明,所提方案在数据非独立同分布的联邦学习场景下有着较高的攻击成功率和隐蔽性。  相似文献   

18.
海量数据价值虽高但与用户隐私关联也十分密切,以高效安全地共享多方数据且避免隐私泄露为目标,介绍了非聚合式数据共享领域的研究发展.首先,简述安全多方计算及其相关技术,包括同态加密、不经意传输、秘密共享等;其次,分析联邦学习架构,从源数据节点和通信传输优化方面探讨现有研究;最后,整理对比面向隐私保护的非聚合式数据共享框架,...  相似文献   

19.
随着大数据时代的到来,应用数据带来一定的经济和社会效益已成为常态。然而在数据分析的过程中,必不可少会涉及隐私和敏感数据,如何保障数据安全与隐私信息不被泄露,是在数据分析中不可忽略的问题。因此,文章基于对大数据分析工作中面临的数据隐私安全问题,分析其产生的原因并提出解决方法,并展望了其未来发展趋势。  相似文献   

20.
同步辐射光源产生超高速的衍射图像数据流,需要通过数据筛选降低数据传输和存储的压力。但互相竞争的研究小组不愿意分享数据,现有基于深度学习的筛选方法难以应对隐私保护下有效训练的挑战,因此首次将联邦学习技术应用在辐射光源衍射图像筛选中,通过数据和模型分离,实现隐私保护下的训练数据增广。提出筛选方法 Federated Kullback-Leibler (FedKL),基于改进的KL散度和数据量权重,对全局模型更新进行改进,在获得高准确率的同时降低算法的复杂度,满足高速数据流高精度处理要求。针对异地光源多中心数据同步训练的困难,又提出同步和异步相结合的混合训练方式,在不降低模型识别准确率的同时,显著提升了模型的训练速度。在光源CXIDB-76公开数据集上的实验结果表明,相比FedAvg,FedKL能够提升准确率和F1分数,分别提升了25.2个百分点和0.419。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号