排序方式: 共有22条查询结果,搜索用时 0 毫秒
1.
联邦学习(FL,federatedlearning)是一种新兴的分布式机器学习技术,利用分散在各个机构的数据,通过传输中间结果(如模型参数、参数梯度、嵌入信息等)实现机器学习模型的联合构建。联邦学习中机构的训练数据不允许离开本地,因此降低了数据泄露的风险。根据机构之间数据分布的差异,FL通常分为横向联邦学习(HFL,horizontalFL)、纵向联邦学习(VFL,verticalFL),以及联邦迁移学习(TFL,transferFL)。其中,VFL适用于机构具有相同样本空间但不同特征空间的场景,广泛应用于医疗诊断、金融评估和教育服务等领域。尽管VFL在现实应用中有出色的表现,但其本身仍然面临诸多隐私和安全问题,尚缺少对VFL方法与安全性展开全面综述的工作。为了构建高效且安全的VFL系统,从VFL方法及其隐私和安全两个方面展开,首先从边缘模型、通信机制、对齐机制以及标签处理机制4个角度对现有的VFL方法进行详细总结和归纳;其次介绍并分析了VFL面临的隐私和安全风险;进一步对其防御方法进行介绍和总结;此外,介绍了适用于VFL的常见数据集及平台框架。结合VFL面临的安全性挑战给出了VFL的... 相似文献
2.
随着人工智能技术与大数据科学的不断发展,联邦学习在金融、医疗、工业制造等重要领域中得到广泛运用.同集中式学习相比,联邦学习在效率和安全性上都有明显的优势.然而,随着应用层次的逐步深入,联邦学习也随之暴露出一些安全问题,例如:隐私窃取、中毒攻击等.为了更好的挖掘联邦学习中存在的安全漏洞,本文提出了一种面向联邦学习的神经通路中毒攻击方法(Neural Path Poisoning Attack, NPFA).首先利用准备的中毒数据集生成与目标模型等价的中毒模型,然后提取中毒模型中的神经通路并替换目标模型的神经通路,使得联邦模型在聚合的过程中中毒,并在保持中毒能力的同时克服中毒模型与正常模型差异较大这一问题,实现隐蔽的中毒攻击,绕过防御方法.大量实验验证了植入神经通路后的中毒成功率可以达到85%以上,并且联邦学习主任务性能略有提升.值得一提的是,在一些联邦防御方法下,NPFA依旧有很好的攻击效果. 相似文献
3.
活体检测技术已经成为日常生活中的重要应用,手机刷脸解锁、刷脸支付、远程身份验证等场景都会用到这一技术。但如果攻击者利用虚假视频生成技术生成逼真的换脸视频来攻击上述场景的活体检测系统,将会对这些场景的安全性产生巨大的威胁。针对这个问题使用4种先进的Deepfake技术生成大量的换脸图片和视频作为测试样本,用这些样本来对百度、腾讯等商用活体检测平台的在线API接口进行测试。测试实验结果显示常用的各大商用活体检测平台对Deepfake图像的检测成功率普遍很低,并且对图像的质量较为敏感,对真实图像的误检率也很高。其主要原因可能是这些平台设计时针对的是打印照片攻击、屏幕二次翻拍攻击、硅胶面具攻击等传统的活体检测攻击方法,并未将先进的换脸检测技术集成到他们的活体检测算法中,这些平台因此不能够有效应对Deepfake攻击。因此,提出了一种集成活体检测方法Integranet,该方法由4种针对不同图像特征的检测算法集成所得,既能够有效检测出打印照片、屏幕二次翻拍等传统的攻击手段,也能够有效应对先进的Deepfake攻击。在测试数据集上验证Integranet的检测效果,结果显示Integranet检测... 相似文献
4.
5.
塔式起重机起重臂有限元模态及动态分析 总被引:3,自引:0,他引:3
对塔式起重机起重臂的建模、约定处理作了探讨,在此基础上就QTZ630塔式起重机起重臂进行了模态和动态有限元分析,得到起重臂的振型和位移响应时间历程。其成果对于塔式起重机设计中如何避免在工作频率范围上共振现象的产生以及限制在动载时过大动变形的产生有实际意义。 相似文献
6.
支持向量机(Support Vector Machine,SVM)对内部参数有着极高的依赖性,因此参数的好坏直接决定了SVM的分类效果,比如径向基核函数的参数。为了寻找出与分类问题相契合的参数,将样本数据投影到高维度特征空间,从而在特征空间中计算类内平均距离与类外中心距离之差,并将其作为参数评估的适应值;利用粒子群算法的全局寻优能力,在定义域内生成种群以代表不同的参数取值;利用粒子的随机游走来进行最优参数搜索,并将结果代入SVM进行样本训练。将所提算法与网格算法等进行了比较,结果表明所提算法的参数设定更加准确,分类准确率有显著提高,且算法复杂度并没有明显增加。 相似文献
7.
深度学习是机器学习研究中的一个重要领域,它具有强大的特征提取能力,且在许多应用中表现出先进的性能,因此在工业界中被广泛应用.然而,由于训练数据标注和模型设计存在偏见,现有的研究表明深度学习在某些应用中可能会强化人类的偏见和歧视,导致决策过程中的不公平现象产生,从而对个人和社会产生潜在的负面影响.为提高深度学习的应用可靠性、推动其在公平领域的发展,针对已有的研究工作,从数据和模型2方面出发,综述了深度学习应用中的偏见来源、针对不同类型偏见的去偏方法、评估去偏效果的公平性评价指标、以及目前主流的去偏平台,最后总结现有公平性研究领域存在的开放问题以及未来的发展趋势. 相似文献
8.
随着深度学习的广泛应用,研究者在关注模型分类性能的同时,还需要关注模型的决策是否公平可信。存在决策偏见的深度模型会造成极大的负面影响,因此如何维持深度模型的分类正确率,同时提高模型的决策公平至关重要。目前已有工作提出了较多方法,用于改善模型的个体公平,但是这些方法仍然在去偏效果、去偏后模型可用性、去偏效率等方面存在缺陷。为此,文中分析了深度模型存在个体偏见时神经元异常激活现象,提出了一种基于偏见神经元抑制的模型去偏方法NeuronSup,具有显著降低个体偏见、对主任务性能影响小、时间复杂度低等优势。具体而言,首先根据深度模型部分神经元由于个体偏见而产生异常激活的现象提出了偏见神经元的概念。然后,利用歧视样本对查找深度模型中的偏见神经元,通过抑制偏见神经元的异常激活大幅降低深度模型的个体偏见,并且根据每个神经元的最大权重边确定主任务性能神经元,通过保持深度模型的主任务性能神经元参数不变,来减小去偏操作对深度模型分类性能造成的影响。因为NeuronSup只对深度模型中的特定神经元进行去偏操作,所以时间复杂度更低,效率更高。最后,在3个真实数据集的6种敏感属性上开展去偏实验,与5种对比算法相... 相似文献
9.
深度学习模型由于其出色的性能表现而在各个领域被广泛应用,但它们在面对不确定输入时,往往会出现意料之外的错误行为,在诸如自动驾驶系统等安全关键应用,可能会造成灾难性的后果。深度模型的可靠性问题引起了学术界和工业界的广泛关注。因此,在深度模型部署前迫切需要对模型进行系统性测试,通过生成测试样本,并由模型的输出得到测试报告,以评估模型的可靠性,提前发现潜在缺陷。一大批学者分别从不同测试目标出发,对模型进行测试,并且提出了一系列测试方法。目前对测试方法的综述工作只关注到模型的安全性,而忽略了其他测试目标,且缺少对最新出版的方法的介绍。因此,本文拟对模型任务性能、安全性、公平性和隐私性4个方面对现有测试技术展开全方位综述,对其进行全面梳理、分析和总结。具体而言,首先介绍了深度模型测试的相关概念;其次根据不同测试目标对79篇论文中的测试方法和指标进行分类介绍;然后总结了目前深度模型可靠性测试在自动驾驶、语音识别和自然语言处理三个工业场景的应用,并提供了可用于深度模型测试的24个数据集、7个在线模型库和常用工具包;最后结合面临的挑战和机遇,对深度模型可靠性测试的未来研究方向进行总结和展望,为构建系统、高效、可信的深度模型测试研究提供参考。值得一提的是,本文将涉及的数据集、模型、测试方法代码、评价指标等资料归纳整理在https://github.com/Allen-piexl/Testing-Zoo,方便研究人员下载使用。 相似文献
10.
车牌识别系统的黑盒对抗攻击 总被引:1,自引:0,他引:1
深度神经网络(Deep neural network, DNN)作为最常用的深度学习方法之一, 广泛应用于各个领域. 然而, DNN容易受到对抗攻击的威胁, 因此通过对抗攻击来检测应用系统中DNN的漏洞至关重要. 针对车牌识别系统进行漏洞检测, 在完全未知模型内部结构信息的前提下展开黑盒攻击, 发现商用车牌识别系统存在安全漏洞. 提出基于精英策略的非支配排序遗传算法(NSGA-II)的车牌识别黑盒攻击方法, 仅获得输出类标及对应置信度, 即可产生对环境变化较为鲁棒的对抗样本, 而且该算法将扰动控制为纯黑色块, 可用淤泥块代替, 具有较强的迷惑性. 为验证本方法在真实场景的攻击可复现性, 分别在实验室和真实环境中对车牌识别系统展开攻击, 并且将对抗样本用于开源的商业软件中进行测试, 验证了攻击的迁移性. 相似文献