排序方式: 共有21条查询结果,搜索用时 15 毫秒
1.
针对基于离散对数多重签名方案的一种攻击 总被引:13,自引:1,他引:13
作为一种特殊的数字签名,多重签名由签名群体中的所有成员合作对给定的消息进行处理后形成整个群体的签名;而验证者只需要利用群体的唯一公钥即可对签名进行有效性检验.Harn和Ji等人提出了两个基于离散对数的多重签名方案.但陆浪如等指出了这两个方案的一个共同缺点:若部分成员合谋作弊,则群体所产生的多重签名也可以解释为由其他诚实成员所产生的多重签名.这样,在必要时,作弊成员就可以否认他们与某些多重签名有关.为了克服这一缺点,陆浪如等对这两个多重签名方案的密钥生成部分提出了两种改进.该文给出一种攻击方法以表明陆浪如等的改进多重签名方案仍然是不安全的.在这一攻击中,单个成员就能够控制群体私钥,从而能以群体的名义伪造对任何消息的多重签名.与此同时,其他成员仍可正常地产生签名,所以他们觉察不到欺诈的存在.另外,该文提出的攻击方法对改进前的方案也有效. 相似文献
2.
随着开源软件技术的不断发展,为提高开发效率并降低人力成本,组件化开发模式逐渐得到行业的认可,开发人员可以利用相关工具便捷地使用第三方组件,也可将自己开发的组件贡献给开发社区,从而形成了软件供应链.然而,这种开发模式必然会导致高危漏洞随组件之间的依赖链条扩散到其他组件或项目,从而造成漏洞影响的扩大化,例如2021年底披露的Log4j2漏洞,通过软件供应链对Java生态安全造成了巨大影响.当前针对Java语言软件供应链安全的分析与研究大多是对组件或项目进行抽样调研,这忽略了组件或项目对整个开源生态的影响,无法精准衡量其对生态所产生的影响.为此,本文针对Java语言生态软件供应链安全分析技术展开研究,首次给出了软件供应链安全领域的组件依赖关系和影响力等重要指标的形式化定义,并依据此提出了基于索引文件的增量式组件配置收集和基于POM语义的多核并行依赖解析,设计实现了Java开源生态组件依赖关系提取与解析框架,收集并提取超过880万个组件版本和6500万条依赖关系.在此基础上,本文以受到漏洞影响的日志库Log4j2为例,全面评估其对生态的影响以及修复比例,结果表明该漏洞影响了生态15.12%的组件(71082个)以及16.87%的组件版本(1488971个)同时仅有29.13%的组件在最新版本中进行了修复. 相似文献
3.
建立了120T HY分子筛模型,采用量子力学与分子力学(QM/MM)相结合的方法,揭示了叔丁基烷氧基团(TBA)〖JP〗与异丁烯/2 丁烯发生加成反应的细节,并比较了二者的异同。结果表明,叔丁基碳正离子是加成反应的过渡态,且TBA与2 丁烯分子发生加成反应的能垒值是与异丁烯反应的2倍左右。这是由于过渡态的碳正离子与异丁烯之间的电荷转移明显大于与2 丁烯的,二者之间的相互作用力更强,故过渡态能量更低。另外,由于TBA与2 丁烯发生加成反应后中心C原子稳定性降低,故需要首先生成“三角形结构”中间产物,再形成C8碳正离子,最终形成C8烷氧基团完成加成反应。 相似文献
4.
5.
6.
对抗样本攻击是近年来计算机视觉领域的热点研究方向,通过对图像添加细微的噪声,对抗样本使计算机视觉系统做出错误判断.对抗样本攻击的研究起初重点关注于图像分类任务,随着研究的深入逐步拓展到目标检测、人脸识别等更加复杂的计算机视觉任务中.然而,现有的对抗样本综述缺乏对新兴图像分类攻击方案的梳理总结以及针对目标检测、人脸识别等复杂任务攻击的分析总结.本论文聚焦于计算机视觉系统中的对抗样本攻击,对其理论与前沿技术进行了系统性的综述研究.首先,本论文介绍了对抗样本的关键概念与敌手模型.其次,分类总结和对比分析了对抗样本存在原因的三大类相关假设.再次,根据数字域与物理域两大应用场景,分类概述和对比分析图像分类系统中的对抗样本攻击技术.根据不同的敌手模型,我们进一步地将图像分类任务数字域的攻击方案划分为白盒和黑盒两种场景,并重点总结梳理了新兴的攻击类别.同时,在目标检测、人脸识别、语义分割、图像检索、视觉跟踪五类复杂计算机视觉任务上,根据适用场景分类总结各类任务中的对抗样本攻击方案.进一步地,从攻击场景、攻击目标、攻击效果等方面对于不同攻击方案进行详细地对比分析.最后,基于现有对抗样本攻击方法的总结,... 相似文献
7.
固体酸催化剂在异丁烷/丁烯烷基化领域具有良好的应用前景,但催化剂易失活,寿命较短。综述了固体酸烷基化催化剂的反应-失活过程、积炭前身物组成及结构的分析方法、催化剂的失活方式、积炭前身物的控制手段,以及金属临氢再生的方式。指出开发周期寿命长、抗积炭的固体酸催化剂是今后进一步改进和发展固体酸烷基化技术的研究重点。 相似文献
8.
人工智能和深度学习算法正在高速发展,这些新兴技术在音视频识别、自然语言处理等领域已经得到了广泛应用。然而,近年来研究者发现,当前主流的人工智能模型中存在着诸多安全隐患,并且这些隐患会限制人工智能技术的进一步发展。因此,研究了人工智能模型中的数据安全与隐私保护问题。对于数据与隐私泄露问题,主要研究了基于模型输出的数据泄露问题和基于模型更新的数据泄露问题。在基于模型输出的数据泄露问题中,主要探讨了模型窃取攻击、模型逆向攻击、成员推断攻击的原理和研究现状;在基于模型更新的数据泄露问题中,探讨了在分布式训练过程中,攻击者如何窃取隐私数据的相关研究。对于数据与隐私保护问题,主要研究了常用的3类防御方法,即模型结构防御,信息混淆防御,查询控制防御。综上,围绕人工智能深度学习模型的数据安全与隐私保护领域中最前沿的研究成果,探讨了人工智能深度学习模型的数据窃取和防御技术的理论基础、重要成果以及相关应用。 相似文献
9.
10.
现有的加密流量检测技术缺少对数据和模型的隐私性保护,不仅违反了隐私保护法律法规,而且会导致严重的敏感信息泄露。主要研究了基于梯度提升决策树(GBDT)算法的加密流量检测模型,结合差分隐私技术,设计并实现了一个隐私保护的加密流量检测系统。在CICIDS2017数据集下检测了DDoS攻击和端口扫描的恶意流量,并对系统性能进行测试。实验结果表明,当隐私预算ε取值为1时,两个数据集下流量识别准确率分别为91.7%和92.4%,并且模型的训练效率、预测效率较高,训练时间为5.16 s和5.59 s,仅是GBDT算法的2~3倍,预测时间与GBDT算法的预测时间相近,达到了系统安全性和可用性的平衡。 相似文献