首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 296 毫秒
1.
为了提高生成对抗网络模型对抗样本的多样性和攻击成功率,提出了一种GAN图像对抗样本生成方法.首先,利用原始样本集整体训练一个深度卷积对抗生成网络G1,模拟原始样本集分布;其次,在黑盒攻击场景下,利用模型蒸馏方法对目标模型进行黑盒复制,获取目标模型的本地复制;然后以G1的输出作为输入,以蒸馏模型作为目标模型,训练生成对抗...  相似文献   

2.
目前,使用单样本训练生成对抗网络已经成为研究人员关注的重点。但是,网络模型不容易收敛,生成的图像结构易崩塌,训练速度慢等问题依旧亟待解决。研究人员提出在生成对抗网络中使用自注意力模型用以获取样本更大范围的结构,提高生成图像的质量。但是,传统的卷积自注意力模型由于注意力图谱中的信息冗余,容易造成计算资源浪费。提出了一种新的线性注意力模型,在该模型中使用了双重归一化方法来缓解注意力模型对输入特征敏感的问题,并且基于该模型搭建了一种新的单样本生成对抗网络模型。此外,模型还使用了残差网络和光谱归一化方法用于稳定训练,降低了发生崩塌的风险。实验结果表明,相较于使用已有的网络结构,该模型具有训练速度快,生成图像的分辨率高且评价指标改善明显等特点。  相似文献   

3.
近年来深度哈希技术被广泛研究,可应用于大规模图像检索且取得了良好的性能,然而其安全性问题却相对被忽视.为此,本文提出了一种针对深度检索哈希的无目标攻击算法,可用于深度检索哈希的鲁棒性评估和优化设计.在该算法中我们构建了一个用于获得无目标攻击对抗样本的生成对抗网络模型UntargetedGAN.模型训练过程中,首先利用原型网络(PrototypeNet)将图像标签转换为原型网络编码,之后结合原型网络编码、解码器和鉴别器进行联合训练得到期望的UntargetedGAN模型;在测试阶段输入查询图像及其标签即可快速生成对抗样本.实验结果表明,UntargetedGAN生成的对抗样本可有效实现无目标攻击,且与现有的无目标攻击算法相比在攻击性能和对抗样本生成效率方面有显著提升.  相似文献   

4.
人工智能目前在诸多领域均得到较好应用,然而通过对抗样本会使神经网络模型输出错误的分类.研究提升神经网络模型鲁棒性的同时如何兼顾算法运行效率,对于深度学习在现实中的落地使用意义重大.针对上述问题,本文提出一种基于条件对抗生成网络的对抗样本防御方法Defense-CGAN.首先使用对抗生成网络生成器根据输入噪声与标签信息生...  相似文献   

5.
基于条件深度卷积生成对抗网络的图像识别方法   总被引:7,自引:0,他引:7  
生成对抗网络(Generative adversarial networks,GAN)是目前热门的生成式模型.深度卷积生成对抗网络(Deep convolutional GAN,DCGAN)在传统生成对抗网络的基础上,引入卷积神经网络(Convolutional neural networks,CNN)进行无监督训练;条件生成对抗网络(Conditional GAN,CGAN)在GAN的基础上加上条件扩展为条件模型.结合深度卷积生成对抗网络和条件生成对抗网络的优点,建立条件深度卷积生成对抗网络模型(Conditional-DCGAN,C-DCGAN),利用卷积神经网络强大的特征提取能力,在此基础上加以条件辅助生成样本,将此结构再进行优化改进并用于图像识别中,实验结果表明,该方法能有效提高图像的识别准确率.  相似文献   

6.
针对生成对抗网络(Generative adversarial network,GAN)不适用于原油物性回归预测的问题,本文提出一种回归生成对抗网络(Regression GAN,RGAN)结构,该结构由生成模型G、判别模型D及回归模型R组成.通过判别模型D与生成模型G间的对抗学习,D提取原油物性核磁共振氢谱(1H NMR)谱图的潜在特征.首层潜在特征是样本空间的浅层表示利于解决回归问题,采用首层潜在特征建立回归模型R,提高了预测的精度及稳定性.通过增加条件变量和生成样本间的互信息约束,并采用回归模型R的MSE损失函数估计互信息下界,生成模型G产生更真实的样本.实验结果表明,RGAN有效地提高了原油总氢物性回归预测精度及稳定性,同时加快了生成模型的收敛速度,提高了谱图的生成质量.  相似文献   

7.
在生成式对抗网络的对抗训练中,目标样本训练集不足会导致模型无法准确学习到对应的特征,但对于需要人工制作、标记的目标样本训练集又很难获取。针对这一问题,提出了基于迁移学习的双层生成式对抗网络模型,在第一层网络中通过伪目标样本让模型学习到目标样本在结构空间的大致分布后,利用迁移学习的思想进行模型迁移,并在第二层网络中根据少量目标样本进行调整。实验中,验证了该模型在中文字体生成与图片框架图转换中的提高,有效地在少量目标样本训练集中训练出更好的模型。  相似文献   

8.
基于生成对抗网络的图像识别方法拥有很高的识别率,但训练时需要大量有标签样本,在有标签样本较少的情况时识别效果不佳。针对这个问题,结合深度卷积生成对抗网络和半监督生成对抗网络的特点建立半监督深度生成对抗网络。根据有标签样本和无标签样本分布,模型生成拟合真实分布的样本输入并训练分类器,增加了训练样本数从而提升识别率。将模型优化调整并进行图像识别实验,结果表明,该方法仅用少量有标签样本即可实现准确的图像识别。  相似文献   

9.
王耀杰  钮可  杨晓元 《计算机应用》2018,38(10):2923-2928
针对信息隐藏中含密载体会留有修改痕迹,从根本上难以抵抗基于统计的隐写分析算法检测的问题,提出一种基于生成对抗网络(GAN)的信息隐藏方案。该方案首先利用生成对抗网络中的生成模型G以噪声为驱动生成原始载体信息;其次,使用±1嵌入算法,将秘密消息嵌入到生成的载体信息中生成含密信息;最终,将含密信息与真实图像样本作为生成对抗网络中判别模型D的输入,进行迭代优化,同时使用判别模型S来检测图像是否存在隐写操作,反馈生成图像质量的特性,G&D&S三者在迭代过程中相互竞争,性能不断提高。该方案所采用的策略与SGAN(Steganographic GAN)和SSGAN(Secure Steganography based on GAN)两种方案不同,主要区别是将含密信息与真实图像样本作为判别模型的输入,对于判别网络D进行重构,使网络更好地评估生成图像的性能。与SGAN和SSGAN相比,该方案使得攻击者在隐写分析正确性上分别降低了13.1%和6.4%。实验结果表明,新的信息隐藏方案通过生成更合适的载体信息来保证信息隐藏的安全性,能够有效抵抗隐写算法的检测,在抗隐写分析和安全性指标上明显优于对比方案。  相似文献   

10.
基于条件Wassertein生成对抗网络的图像生成   总被引:1,自引:0,他引:1  
生成对抗网络(GAN)能够自动生成目标图像,对相似地块的建筑物排布生成具有重要意义.而目前训练模型的过程中存在生成图像精度不高、模式崩溃、模型训练效率太低的问题.针对这些问题,提出了一种面向图像生成的条件Wassertein生成对抗网络(C-WGAN)模型.首先,该模型需要识别真实样本和目标样本之间特征对应关系,然后,...  相似文献   

11.
孙全  曾晓勤 《计算机科学》2018,45(12):229-234, 261
针对现有图像修复算法存在受损区域的形状和大小受限以及修复痕迹明显、修复边缘不连续的问题,文中提出一种基于生成对抗网络的图像修复方法。该方法采用生成对抗网络(Generative Adversarial Networks,GAN)这种新的生成模型作为基本架构,结合Wasserstein距离,同时融入条件对抗网络(CGAN)的思想;以破损图像作为附加条件信息,采用对抗损失与内容损失相结合的方式来训练网络模型,以修复破损区域。此方法能够修复大多数破损情况下的图像。在CelebA和LFW两个数据集上的实验结果表明,所提方法能够取得很好的修复效果。  相似文献   

12.
丁赛赛  吕佳 《计算机应用研究》2020,37(12):3607-3611
针对生成对抗网络中鉴别器在少量标记样本上的分类精度较差以及对流形局部扰动的鲁棒性不足的问题,提出一种基于可变损失和流形正则化的生成对抗网络算法。当标记样本较少时,该算法在鉴别器中利用可变损失代替原有对抗损失以解决训练前期分类性能较差的鉴别器对半监督分类任务的不利影响。此外,在鉴别器可变损失的基础上加入流形正则项,通过惩罚鉴别器在流形上分类决策的变化提高鉴别器对局部扰动的鲁棒性。以生成样本的质量和半监督的分类精度作为算法的评价标准,并在数据集SVHN和CIFAR-10上完成了数值实验。与其他半监督算法的对比结果表明,该算法在使用少量带标记数据的情况下能得到质量更高的生成样本和精度更高的分类结果。  相似文献   

13.
深度学习是目前路面图像裂缝检测的主流方法,但是需要大量人工标注的真值图进行训练,而现实中获取人工标注的真值图既费时又费力,本文提出一种基于改进的生成对抗网络的路面图像裂缝检测方法,将路面图像裂缝检测问题视为一类基于图像跨域转换的异常检测问题,采用定点生成对抗网络将裂缝图像无监督自动转换为与之一一对应的无裂缝图像,进而将原图像与生成图像进行差分,差分图中的显著目标对应裂缝检测结果.在公开数据集CrackIT上的测试结果表明,本文方法在不依赖于人工标注的真值图条件下能够实现裂缝的精准检测,本文方法在准确率、召回率、F1分数上取得了与有监督深度学习方法相当的性能.  相似文献   

14.
马宾  韩作伟  徐健  王春鹏  李健  王玉立 《软件学报》2023,34(7):3385-3407
人工智能的发展为信息隐藏技术带来越来越多的挑战,提高现有隐写方法的安全性迫在眉睫.为提高图像的信息隐藏能力,提出一种基于U-Net结构的生成式多重对抗隐写算法.所提算法通过生成对抗网络与隐写分析器优化网络、隐写分析对抗网络间的多重对抗训练,构建生成式多重对抗隐写网络模型,生成适合信息隐写的载体图像,提高隐写图像抗隐写分析能力;同时,针对现有生成对抗网络只能生成随机图像,且图像质量不高的问题,设计基于U-Net结构的生成式网络模型,将参考图像的细节信息传递到生成载体图像中,可控地生成高质量目标载体图像,增强信息隐藏能力;其次,采用图像判别损失、均方误差(MSE)损失和隐写分析损失动态加权组合作为网络迭代优化总损失,保障生成式多重对抗隐写网络快速稳定收敛.实验表明,基于U-Net结构的生成式多重对抗隐写算法生成的载体图像PSNR最高可达到48.60 dB,隐写分析器对生成载体图像及其隐写图像的判别率为50.02%,所提算法能够生成适合信息嵌入的高质量载体图像,保障隐写网络快速稳定收敛,提高了图像隐写安全性,可以有效抵御当前优秀的隐写分析算法的检测.  相似文献   

15.
为定量评价使用生成对抗网络生成的恒星和星系图像的质量,提出了感知损失函数与Mode score相结合的双样本评价方法。通过对几种常用的生成图像定量评价方法的优缺点的分析以及对感知损失函数进行的改进,得到了能够定量评价生成图像多样性和视觉质量的双样本评价模型。为了验证提出方法的有效性,分别采用Inception score,Kernal MMD,Wasse-rstein distance及双样本评价方法对生成的两种分辨率的恒星和星系图像进行评价,并将评价结果进行了对比分析。结果表明双样本评价方法能够全面且客观的评价生成的恒星和星系图像,对利用生成的天文图像预测未知的恒星和星系具有重要意义。  相似文献   

16.
目标检测被广泛应用到自动驾驶、工业、医疗等各个领域. 利用目标检测算法解决不同领域中的关键任务逐渐成为主流. 然而基于深度学习的目标检测模型在对抗样本攻击下, 模型的鲁棒性存在严重不足, 通过加入微小扰动构造的对抗样本很容易使模型预测出错. 这极大地限制了目标检测模型在关键安全领域的应用. 在实际应用中的模型普遍是黑盒模型, 现有的针对目标检测模型的黑盒攻击相关研究不足, 存在鲁棒性评测不全面, 黑盒攻击成功率较低, 攻击消耗资源较高等问题. 针对上述问题, 提出基于生成对抗网络的目标检测黑盒攻击算法, 所提算法利用融合注意力机制的生成网络直接输出对抗扰动, 并使用替代模型的损失和所提的类别注意力损失共同优化生成网络参数, 可以支持定向攻击和消失攻击两种场景. 在Pascal VOC数据集和MS COCO数据集上的实验结果表明, 所提方法比目前攻击方法的黑盒迁移攻击成功率更高, 并且可以在不同数据集之间进行迁移攻击.  相似文献   

17.
目的 由MRI(magnetic resonance imaging)得到的影像具有分辨率高、软组织对比好等优点,使得医生能更精确地获得需要的信息,精确的前列腺MRI分割是计算机辅助检测和诊断算法的必要预处理阶段。因此临床上需要一种自动或半自动的前列腺分割算法,为各种各样的临床应用提供具有鲁棒性、高质量的结果。提出一种多尺度判别条件生成对抗网络对前列腺MRI图像进行自动分割以满足临床实践的需求。方法 提出的分割方法是基于条件生成对抗网络,由生成器和判别器两部分组成。生成器由类似U-Net的卷积神经网络组成,根据输入的MRI生成前列腺区域的掩膜;判别器是一个多尺度判别器,同一网络结构,输入图像尺寸不同的两个判别器。为了训练稳定,本文方法使用了特征匹配损失。在网络训练过程中使用对抗训练机制迭代地优化生成器和判别器,直至判别器和生成器同时收敛为止。训练好的生成器即可完成前列腺MRI分割。结果 实验数据来自PROMISE12前列腺分割比赛和安徽医科大学第一附属医院,以Dice相似性系数和Hausdorff距离作为评价指标,本文算法的Dice相似性系数为88.9%,Hausdorff距离为5.3 mm,与U-Net、DSCNN(deeply-supervised convolutional neured network)等方法相比,本文算法分割更准确,鲁棒性更高。在测试阶段,每幅图像仅需不到1 s的时间即可完成分割,超出了专门医生的分割速度。结论 提出了一种多尺度判别条件生成对抗网络来分割前列腺,从定量和定性分析可以看出本文算法的有效性,能够准确地对前列腺进行分割,达到了实时分割要求,符合临床诊断和治疗需求。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号