首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 296 毫秒
1.
为解决复杂场景中的非均匀模糊问题,提出一种端到端的多尺度条件生成对抗网络用于图像去模糊。在生成器网络中,针对现有的基于分层级联方式的多尺度策略会导致网络规模过大的不足,提出一种多尺度残差模块,通过在单个块内构造分级连接和增加不同感受野分支的方式来提高多尺度特征提取能力;在多尺度残差块和瓶颈层之间添加跳跃连接,自适应地提取不同尺度的特征信息。实验结果表明,与其它去模糊方法相比,该方法在去模糊效果和处理速度上表现更优。  相似文献   

2.
针对水下退化图像细节模糊、对比度低和蓝绿色偏问题,提出了一种基于多尺度特征融合生成对抗网络的水下图像增强算法。算法以生成对抗网络为基本框架,结合传统白平衡算法和多尺度增强网络实现对水下退化图像的增强。通过改进的通道补偿白平衡算法矫正蓝绿色偏,并以卷积神经网络提取偏色校正后图像的特征;提取图像多尺度特征,结合提出的残差密集块将每一层的局部特征增强为捕获语义信息的全局特征,并与偏色校正图像的特征相融合;通过重建模块将融合特征重建为清晰图像,恢复图像的细节信息。实验结果表明,该算法增强的水下图像去雾效果较好且颜色更真实,有效改善了水下图像色偏和模糊的问题,在主观指标和客观指标上的实验结果均优于对比算法。  相似文献   

3.
多聚焦图像融合能够融合同一场景下具有不同聚焦部分的一系列图像.为了克服多聚焦图像融合模糊特征提取中存在的不足,提出一种基于U-Net的生成对抗网络模型.首先,生成器采用U-Net和SSE对多聚焦图像的特征进行提取,并完成图像融合;其次,判别器采用卷积层对已知的融合结果和生成器生成的融合图像进行分辨;然后,损失函数采用生成器的对抗损失、映射损失、梯度损失、均方误差损失和判别器对抗损失对生成网络进行参数调节;最后,将生成器、判别器和损失函数组成生成对抗网络模型,并进行实验.Pascal VOC2012数据集作为生成对抗网络的训练集,包括近焦图像、远焦图像、映射图像和融合图像.实验结果证明,该生成对抗网络模型能够有效地提取多聚焦图像中的模糊特征,且融合图像在互信息、相位一致性和感知相似性等方面表现优异.  相似文献   

4.
针对图像生成过程中由于物体运动或相机抖动产生的运动模糊问题,提出了利用残差密集网络的运动模糊图像复原方法。设计对抗网络结构,以残差密集网络为生成器,通过长短连接实现不同层次特征的融合,生成复原图像,以深度卷积网络为判别器,判断图像真伪,在生成器和判别器的对抗中提高网络性能;采用对抗损失和内容损失结合的损失函数,提高网络的复原效果;以端到端的方式,省略模糊核的估计过程,输入模糊图像直接获取复原图像。实验结果表明,该方法能够取得较好的复原效果。  相似文献   

5.
为解决复原后的运动模糊人像图像的轮廓模糊、细节丢失等问题,提出了基于多级跳跃残差组生成对抗网络(GAN)的运动人像去模糊方法。首先,改进残差块以构造多级跳跃残差组模块,并改进PatchGAN的结构以使GAN能够更好地结合各层的图像特征;其次,使用多损失融合的方法优化网络,从而增强重建后图像的真实纹理;最后,采用端到端的模式将运动模糊的人像图像进行盲去模糊操作,并输出清晰的人像图像。在CelebA数据集上的实验结果表明,相较于DeblurGAN(DeblurGAN)、尺度循环网络(SRN)和MSRAN(Multi-ScaleRecurrentAttention Network)等基于卷积神经网络(CNN)的方法,所提方法的峰值信噪比(PSNR)和结构相似度(SSIM)分别至少提高了0.46 dB和0.05;同时,所提方法的模型参数更少,修复速度更快,且复原后的人像图像具有更多的纹理细节。  相似文献   

6.
针对拍摄场景中物体运动不一致所带来的非均匀模糊,为提高复杂运动场景中去模糊的效果,提出一种多尺度编解码深度卷积网络。该网络采用"从粗到细"的多尺度级联结构,在模糊核未知条件下,实现盲去模糊;其中,在该网络的编解码模块中,提出一种快速多尺度残差块,使用两个感受野不同的分支增强网络对多尺度特征的适应能力;此外,在编解码之间增加跳跃连接,丰富解码端信息。与2018年国际计算机视觉与模式识别会议(CVPR)上提出的多尺度循环网络相比,峰值信噪比(PSNR)高出0.06 dB;与2017年CVPR上提出的深度多尺度卷积网络相比,峰值信噪比和平均结构相似性(MSSIM)分别提高了1.4%和3.2%。实验结果表明,该网络能快速去除图像模糊,恢复出图像原有的边缘结构和纹理细节。  相似文献   

7.
动态场景的非均匀盲去模糊一直是图像复原领域中的一个难题。针对目前的模糊图像复原算法不能很好地解决多样性模糊源的问题,提出了一种端到端的基于多尺度网络的运动模糊图像复原算法。所提算法使用修剪过的残差块作为基本单元,且在每一级尺度上都采用相同的非对称编解码网络。为了更好地提取输入图像特征,在编码端使用引入注意力机制的残差模块,还加入了空间金字塔池化层。编码端和解码端中间的循环单元可以获取图像的空间信息,从而利用图像空间的连续性来进行非均匀运动模糊图像的复原。测试结果显示,在GoPro数据集上所提算法的峰值信噪比(PSNR)达到33.69 dB,结构相似性(SSIM)达到0.953 7,且能够更好地复原模糊图像的细节信息,而在Blur数据集上所提算法的PSNR为31.47 dB,SSIM为0.904 7。实验结果表明,与尺度递归网络和深度层次化多patch网络相比,所提算法取得了更优的模糊图像复原效果。  相似文献   

8.
针对相机成像时相机抖动、物体运动等导致图像产生运动模糊这一十分具有挑战性的问题,提出基于生成对抗网络的深度卷积神经网络来复原模糊图像的解决方案。该方案省略了模糊核估计的过程,采用端对端的方式直接获取复原图像;通过引入生成对抗网络思想的对抗损失和对残差网络进行改进,有效地复原了图像的细节信息。最后通过训练此深度卷积神经网络模型并在相关模糊复原基准数据集上测试,证明了该方案取得了较好的结果。  相似文献   

9.
针对生成对抗网络在训练中损失函数收敛慢,难以恢复图像细节的问题,提出一种基于编解码器与多尺度损失函数的生成对抗网络模型.使用含残差连接的编解码器作为生成器,该网络易于训练,能够加快对抗损失函数的收敛;引入噪声损失,与使用VGG19模型的感知损失构成多尺度损失函数,使图像在视觉上的纹理细节达到更细致的恢复效果.实验结果表...  相似文献   

10.
针对现有全局光照图像重建高频特征效果模糊的问题,提出一种基于生成对抗模型及光路分解的全局光照绘制网络,以各类图形辅助属性(法线、深度、粗糙度等)为主要输入,学习光照传输的抽象表示并编码,用于推理光照图像。第一,将光照解耦为漫反射和镜面反射两部分,设计独立的生成对抗网络端到端地学习和推理光照子图,避免混频光照的相互干扰,保证高频细节的清晰重现。第二,使用自编码器作为绘制网络的基本结构,添加多尺度特征融合模块用于不同感受野下的特征合成,以促进阴影、镜面反射等复杂特效的有效表达。第三,使用旋转损失和特征损失两种增强的对抗损失函数,增加网络训练的稳定性。实验结果表明,与现有降噪或图像生成模型相比,该方法能够有效地生成视觉上更逼真的全局光照图像,保留更多高频细节,PSNR指标提升8%~20%。  相似文献   

11.
零样本分类算法旨在解决样本极少甚至缺失类别情况下的分类问题。随着深度学习的发展,生成模型在零样本分类中的应用取得了一定的突破,通过生成缺失类别的图像,将零样本图像分类转化为传统的基于监督学习的图像分类问题,但生成图像的质量不稳定,如细节缺失、颜色失真等,影响图像分类准确性。为此,提出一种融合变分自编码(variational auto-encoder, VAE)和分阶段生成对抗网络(stack generative adversarial networks, StackGAN)的零样本图像分类方法,基于VAE/GAN模型引入StackGAN,用于生成缺失类别的数据,同时使用深度学习方法训练并获取各类别的句向量作为辅助信息,构建新的生成模型stc-CLS-VAEStackGAN,提高生成图像的质量,进而提高零样本图像分类准确性。在公用数据集上进行对比实验,实验结果验证了本文方法的有效性与优越性。  相似文献   

12.
杨婉香  严严  陈思  张小康  王菡子 《软件学报》2020,31(7):1943-1958
行人重识别是指在多个非重叠摄像头拍摄的场景下,给定一幅查询行人图像,从大规模行人图像库中检索出具有相同身份的行人图像,是一类特殊的图像检索任务.随着深度学习的不断发展,行人重识别方法的性能得到了显著提升.但是行人重识别在实际应用中经常遭遇遮挡问题(例如背景遮挡、行人互相遮挡等).由于遮挡图像不仅丢失了部分目标信息,而且引入了额外的干扰,使得现有方法往往难以学习到鲁棒的特征表示,从而导致识别性能严重下降.最近,生成对抗网络在各类计算机视觉任务上展现出强大的图像生成能力.受到生成对抗网络的启发,提出了一种基于多尺度生成对抗网络的遮挡行人重识别方法.首先,利用成对的遮挡图像和非遮挡图像训练一个多尺度生成器和一个判别器.多尺度生成器能够对随机遮挡区域进行去遮挡操作,生成高质量的重构图;而判别器能够区分输入图像是真实图像还是生成图像.其次,利用训练好的多尺度生成器,生成去除随机遮挡的训练图像,添加到原始训练图像集,用于增加训练样本的多样性.最后,基于此扩充训练图像集,训练分类识别模型,有效地提高模型在测试图像集上的泛化性.在多个有挑战性的行人重识别数据集上的实验结果,验证了所提出方法的有效性.  相似文献   

13.
近年来, 通过自动生成方法获取多模态MR图像得到了广泛研究, 但仍难以通过一种模态直接生成其他各类模态的图像. 针对该问题, 本文提出了动态生成对抗网络. 新模型通过将生成对抗网络与动态卷积相结合, 同时加入任务标签这一条件, 实现从一种MR模态同时生成其他3种MR模态. 同时为了提高图像生成质量, 进一步提出了多尺度判别策略, 通过融合多个尺度来提升判别效果. 基于BRATS19数据集进行生成验证, 实验结果表明, 新方法不但可以同时生成多种模态的数据, 而且提高了生成图像的质量.  相似文献   

14.
近年来, 随着人工智能的研究和发展, 深度学习被广泛应用。深度学习在自然语言处理、计算机视觉等多个领域表现出良好的效果。特别是计算机视觉方面, 在图像识别和图像分类中, 深度学习具备非常高的准确性。然而越来越多的研究表明, 深度神经网络存在着安全隐患, 其中就包括对抗样本攻击。对抗样本是一种人为加入特定扰动的数据样本, 这种特殊样本在传递给已训练好的模型时, 神经网络模型会输出与预期结果不同的结果。在安全性要求较高的场景下, 对抗样本显然会对采用深度神经网络的应用产生威胁。目前国内外对于对抗样本的研究主要集中在图片领域, 图像对抗样本就是在图片中加入特殊信息的图片数据, 使基于神经网络的图像分类模型做出错误的分类。已有的图像对抗样本方法主要采用全局扰动方法,即将这些扰动信息添加在整张图片上。相比于全局扰动, 局部扰动将生成的扰动信息添加到图片的非重点区域, 从而使得对抗样本隐蔽性更强, 更难被人眼发现。本文提出了一种生成局部扰动的图像对抗样本方法。该方法首先使用 Yolo 目标检测方法识别出图片中的重点位置区域, 然后以 MIFGSM 方法为基础, 结合 Curls 方法中提到的先梯度下降再梯度上升的思想,在非重点区域添加扰动信息, 从而生成局部扰动的对抗样本。实验结果表明, 在对抗扰动区域减小的情况下可以实现与全局扰动相同的攻击成功率。  相似文献   

15.
交通标志的正确识别是智能车辆规范行驶、道路交通安全的前提。为解决智能车采集目标图像模糊、分辨率低,造成识别精度低且时效性差的问题,构建一种基于级联深度网络的交通标志识别模型,该模型级联超分辨率处理网络ESPCN与目标检测识别网络RFCN,ESPCN网络提高输入采集图像的分辨率,为低分辨率图像实现超分辨率处理,RFCN网络提取图像全局特征,实现交通标志的检测与分类识别。平衡采样及多尺度的训练策略结合数据增强的预处理方法,增强了网络模型的鲁棒性及扩展性。经实验验证,算法模型针对常见交通标志识别率达到98.16%,召回率达到96.2%,且鲁棒性较好。  相似文献   

16.
为解决机载遥感图像质量易受环境影响的问题,对其进行超分辨率重建,对现有深度学习机载遥感图像超分辨率重建方法存在的特征提取能力差、重建图像边缘平滑、模型训练困难的问题进行改进,增强图像重建效果。将生成对抗网络作为模型的整体框架,使用密集剩余残差块增强模型特征提取能力,增加跳跃连接,有效提取机载遥感图像的浅层和深层特征,引入沃瑟斯坦式生成对抗网络优化模型训练。该方法能够有效对机载遥感图像进行4倍重建,在峰值信噪比评价上较对比方法约有2 dB增益,重建出的机载遥感图像在视觉上更清晰、细节更丰富、边缘更锐利。实验结果表明,该方法有效提升了模型特征提取能力,优化了训练过程,重建的机载遥感图像效果较好。  相似文献   

17.
生成对抗网络已经成为深度学习领域最热门的研究方向之一,其最大的优势在于能够以无监督的方式来拟合一个未知的分布。目前,生成对抗网络在图像生成领域大放异彩,其能够产生一些高质量的图像,但也暴露了一些弊端。在生成图像的过程中,经常会出现模式坍塌问题,从而导致生成的样本过于单一。为了解决这个问题,对生成对抗网络的模型结构和损失函数加以改进,使判别器能够从多个角度来度量生成数据的分布和真实数据的分布之间的差异,从而改善了生成样本的多样性。通过在多个数据集上进行实验,结果显示,提出的模型在很大程度上缓解了模式坍塌问题。  相似文献   

18.
针对高分辨率液晶显示器产品(liquid crystal display, LCD)质量在线检测需求,基于深度学习提出一种LCD缺陷自动检测方法。通过设计自适应浅层特征提取层,并引入稀疏卷积结构,多维度、多尺度的提取深层特征,采用迁移学习和深度卷积生成对抗生网络扩充数据强化训练,构建基于小样本学习的LCD表面缺陷检测模型。其特征在于,采用设计的自动分割与定位预处理软件将高分辨率图像划分成适于卷积神经网络学习的图像子块,并根据模型对图像子块的判定类别和定位坐标,同时获取多类型缺陷检测结果。实验结果表明,本文模型可以有效提高检出率,并减少漏检率。  相似文献   

19.
为方便非专业用户修图,提出一种基于Transformer的图像编辑模型TMGAN,使用户可通过自然语言描述自动修改图像属性。TMGAN整体框架采用生成对抗网络,生成器采用Transformer编码器结构提取全局上下文信息,解决生成图像不够真实的问题;判别器包含基于Transformer的多尺度判别器和词级判别器两部分,给生成器细粒度的反馈,生成符合文本描述的目标图像且保留原始图像中与文本描述无关的内容。实验表明,此模型在CUB Bird数据集上,IS(inception score)、FID(Fréchet inception distance)以及MP(manipulation precision)度量指标分别达到了9.07、8.64和0.081。提出的TMGAN模型对比现有模型效果更好,生成图像既满足了给定文本的属性要求又具有高语义性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号