首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
目前中华传统刺绣工艺传承保护问题中的修复任务主要以人工为主,修复过程需要大量的人力、物力。随着深度学习的高速发展,不同类型的刺绣文物损伤可以利用生成对抗网络进行修复。针对上述问题,提出一种基于改进深度卷积生成对抗网络(DCGAN)的刺绣图像修复方法。首先,在生成器部分引入空洞卷积层扩大感受野,并添加卷积注意力机制模块,在通道与空间2个维度增强重要特征的指导作用;在判别器部分增加全连接层数提升网络解决非线性问题的能力;在损失函数部分联合均方误差损失与对抗损失通过网络训练相互博弈的过程实现刺绣图像修复。实验结果表明:引入空洞卷积层与注意力机制提升了网络性能与修复效果,最终得到修复图像的结构相似性高达0.955,能够得到较为自然的刺绣图像修复效果,可以为专家提供纹理、色彩等信息作为参考辅助后续的修复。  相似文献   

2.
为了获取包含更多高频感知信息与纹理细节信息的遥感重建图像,并解决超分辨率重建算法训练难和重建图像细节缺失的问题,提出一种融合多尺度感受野模块的生成对抗网络(GAN)遥感图像超分辨率重建算法。首先,使用多尺度卷积级联增强全局特征获取、去除GAN中的归一化层,提升网络训练效率去除伪影并降低计算复杂度;其次,利用多尺度感受野模块与密集残差模块作为生成网络的细节特征提取模块,提升网络重建质量获取更多细节纹理信息;最后,结合Charbonnier损失函数与全变分损失函数提升网络训练稳定性加速收敛。实验结果表明,所提算法在Kaggle、WHURS19、AID数据集上的平均检测结果较超分辨率GAN在峰值信噪比、结构相似性、特征相似性等方面分别高出约1.65 dB、约0.040(5.2%)、约0.010(1.1%)。  相似文献   

3.
高分辨率遥感图像的语义分割问题是目前遥感图像处理领域中的研究热点之一。传统的有监督分割方法需要大量的标记数据,而标记过程又较为困难和耗时。针对这一问题,提出一种基于生成式对抗网络的半监督高分辨率遥感图像语义分割方法,只需要少量样本标签即可得到较好的分割结果。该方法为分割网络添加全卷积形式的辅助对抗网络,以助于保持高分辨率遥感图像分割结果中的标签连续性;更进一步,提出一种新颖的能够进行注意力选择的对抗损失,以解决分割结果较好时判别器约束的分割网络更新过程中存在的难易样本不均衡问题。在ISPRS Vaihingen 2D语义标记挑战数据集上的实验结果表明,与现有其它语义分割方法相比,所提出方法能够较大幅度地提高遥感图像的语义分割精度。  相似文献   

4.
王军  申政文  陈晓玲  潘在宇 《信号处理》2020,36(11):1819-1828
为解决在识别过程中因手背静脉图像信息缺失而造成识别效率低下的问题,本文提出了分层级联生成对抗网络的手背静脉图像修复框架。该网络框架分别以级联与并行分层的方式进行修复操作,通过并行分层结构创新性的融合了不同静脉图像的特征信息;为有效地利用静脉图像的上下文信息对缺失的静脉图像信息进行预测与补全,在网络中创新性的引入了空洞卷积核与非局部注意力网络;为保证修复静脉图像质量与其真实图像的一致性,创新性的结合对抗损失与感知损失进行优化。实验结果表明,本文算法在视觉效果、峰值信噪比(Peak Signal to Noise Ratio,PSNR)和结构相似性(Structural Similarity Index,SSIM)等方面表现优于已有算法,并在两个公开的掌纹与指纹数据集上进行了有效的泛化验证。此外,修复图像相较于缺失图像在身份识别效率方面有了一定的提高。   相似文献   

5.
为增强融合图像的视觉效果,减少计算的复杂度,解决传统红外与可见光图像融合算法存在的背景细节丢失问题,提出了一种生成对抗网络框架下基于深度可分离卷积的红外与可见光图像融合方法。首先,在生成器中对源图像进行深度卷积与逐点卷积运算,得到源图像的特征映射信息;其次,通过前向传播的方式更新网络参数,得到初步的单通道融合图像;再次,在红外及可见光判别器中,使用深度可分离卷积分别对源图像与初步融合图像进行像素判别;最后,在损失函数的约束下,双判别器不断将更多的细节信息添加到融合图像中。实验结果表明,相比于传统的融合算法,该方法在信息熵、平均梯度、空间频率、标准差、结构相似性损失和峰值信噪比等评价指标上分别平均提高了1.63%、1.02%、3.54%、5.49%、1.05%、0.23%,在一定程度上提升了融合图像的质量,丰富了背景的细节信息。  相似文献   

6.
针对人脸图像修复的深度学习网络存在修复后的人脸图像面部语义信息不合理和面部轮廓不协调的问题,提出了一种基于人脸结构信息引导的人脸图像修复网络。首先,采用编码器-解码器网络技术构建人脸结构草图生成网络,并在结构草图生成网络的生成器中加入跳跃连接和引入带膨胀卷积的残差块以生成待修复区域的结构草图。其次,在构建人脸修复网络时,在修复网络生成器中引入注意力机制,让修复网络在修复过程中更多关注待修复区域,并以生成的人脸结构草图为引导从而实现人脸图像面部语义结构和纹理信息的生动修复。最后,在结构草图生成网络的损失函数中引入特征匹配损失进行模型训练,从而约束生成器生成与真实结构草图更相似的结果;在修复网络的损失函数中联合感知损失和风格损失进行模型训练,从而更好地重建待修复区域的人脸图像面部轮廓结构和颜色纹理,使修复后的图像更接近真实图像。对比实验结果表明,在人脸图像数据集中,本文所设计的网络模型的修复性能有较高的提升。  相似文献   

7.
现有残缺文字图像的修复需要确定Mask区域后对其填补,如果文字残缺部分剩余信息量过于稀疏,将无法确定Mask区域。针对该问题,提出了一种基于内容风格迁移的残缺稀疏文字图像盲修复方法。利用循环生成对抗网络构建修复前后文字图像间的全局关联像素信息,将残缺文字的图像内容风格特征迁移为完整文字图像从而进行修复;并在网络中加入自注意力机制对稀疏像素进行全局约束,解决迁移过程中相隔较远文字稀疏像素之间依赖关系较弱的问题;同时在自注意力机制中使用最大池化,提高迁移修复后的文字图像纹理特征;使用最小二乘损失替换原网络模型中的sigmoid交叉熵损失函数,提高迁移精度。实验结果表明,所提方法不借助Mask指导,能够盲修复稀疏性残缺文字图像中的随机未知缺失区域。  相似文献   

8.
针对图像采集和传输过程中所产生噪声导致后续图像处理能力下降的问题,提出基于生成对抗网络(GAN)的多通道图像去噪算法。所提算法将含噪彩色图像分离为RGB三通道,各通道基于具有相同架构的端到端可训练的GAN实现去噪。GAN生成网络基于U-net衍生网络以及残差块构建,从而可参考低级特征信息以有效提取深度特征进而避免丢失细节信息;判别网络则基于全卷积网络构造,因而可获得像素级分类从而提升判别精确性。此外,为改善去噪能力且尽可能保留图像细节信息,所构建去噪网络基于对抗损失、视觉感知损失和均方误差损失这3类损失度量构建复合损失函数。最后,利用算术平均方法融合三通道输出信息以获得最终去噪图像。实验结果表明,与主流算法相比,所提算法可有效去除图像噪声,且可较好地恢复原始图像细节。  相似文献   

9.
闵莉  曹思健  赵怀慈  刘鹏飞 《红外与激光工程》2022,51(4):20210291-1-20210291-10
红外与可见光图像融合技术能够同时提供红外图像的热辐射信息和可见光图像的纹理细节信息,在智能监控、目标探测和跟踪等领域具有广泛的应用。两种图像基于不同的成像原理,如何融合各自图像的优点并保证图像不失真是融合技术的关键,传统融合算法只是叠加图像信息而忽略了图像的语义信息。针对该问题,提出了一种改进的生成对抗网络,生成器设计了局部细节特征和全局语义特征两路分支捕获源图像的细节和语义信息;在判别器中引入谱归一化模块,解决传统生成对抗网络不易训练的问题,加速网络收敛;引入了感知损失,保持融合图像与源图像的结构相似性,进一步提升了融合精度。实验结果表明,提出的方法在主观评价与客观指标上均优于其他代表性方法,对比基于全变分模型方法,平均梯度和空间频率分别提升了55.84%和49.95%。  相似文献   

10.
该文提出一种基于全卷积深度残差网络、结合生成式对抗网络思想的基于属性一致的物体轮廓划分模型。采用物体轮廓划分网络作为生成器进行物体轮廓划分;该网络运用结构相似性作为区域划分的重构损失,从视觉系统的角度监督指导模型学习;使用全局和局部上下文判别网络作为双路判别器,对区域划分结果进行真伪判别的同时,结合对抗式损失提出一种联合损失用于监督模型的训练,使区域划分内容真实、自然且具有属性一致性。通过实例验证了该方法的实时性、有效性。  相似文献   

11.
该文提出一种基于全卷积深度残差网络、结合生成式对抗网络思想的基于属性一致的物体轮廓划分模型.采用物体轮廓划分网络作为生成器进行物体轮廓划分;该网络运用结构相似性作为区域划分的重构损失,从视觉系统的角度监督指导模型学习;使用全局和局部上下文判别网络作为双路判别器,对区域划分结果进行真伪判别的同时,结合对抗式损失提出一种联合损失用于监督模型的训练,使区域划分内容真实、自然且具有属性一致性.通过实例验证了该方法的实时性、有效性.  相似文献   

12.
针对传统颜色迁移算法在处理图像时存在颜色误传递,色彩不够自然等问题,提出一种基于密集连接生成对抗网络的图像颜色迁移方法。在训练过程中,训练生成网络生成颜色迁移图像。生成网络中的编码层利用密集连接网络跨层连接的优点促进颜色特征重用,加快网络的收敛速度,同时在转换层采用3层残差模块代替原始的两层残差模块更好地组合图像的不同特征。训练判别网络使其辨别原图像与生成的迁移图像间的差别。本文判别网络中用-log函数计算模型损失,加快训练初期更新速度。实验结果表明,与同类模型相比,本文方法结果图像保留更多细节,且能够抑制部分噪声,整体更接近自然图像。  相似文献   

13.
针对当前灰度图像彩色化算法容易出现色彩枯燥、颜色溢出和图像细节损失等问题,本文提出一种结合全局语义优化的对抗性灰度图像彩色化算法。其中,生成网络采用自主改进的U-Net网络。一方面,改进的U-Net网络利用多层卷积对输入图像进行逐步下采样,在获取多尺度层级特征和全局特征的同时,在跳跃连接中将全局特征和多尺度层级特征进行自适应融合,从而有效增强算法对全局语义信息的理解能力并缓解颜色溢出的现象;另一方面,改进的U-Net网络在上采样过程中融合通道注意力模块,使得在提取卷积特征时能够有效抑制噪声并降低特征冗余性。判别网络主要采用全卷积结构,通过反向传播误差以达到优化生成网络的目的。此外,本文算法的损失函数将WGAN-GP网络的优化思想和颜色损失相结合,从而解决传统生成对抗网络训练时出现的梯度消失和模式崩溃等问题。本文算法在Place365测试集上所获取的峰值信噪比、结构相似性和信息熵指标分别为24.455dB、0.943和7.489。实验结果表明,本文算法能够缓解颜色溢出,且细节保持和颜色饱和度方面都具有一定优势。  相似文献   

14.
针对目前石化危险品装车过程中海量监控视频图像人为处理效率低下、模糊图像识别率低等问题,提出一种基于生成式对抗网络(GAN)和卷积神经网络(CNN)与极限学习机(ELM)相结合的监控模糊图像智能修复及检测方法.首先,使用深度学习网络作为 目标检测框架,利用GAN网络中生成器与判别器间的零和博弈对模糊图像进行复原,得到清晰完整的作业图像;其次,利用CNN自适应学习图像特征的能力,对修复后的图像进行自主特征提取;最后,将提取的图像特征输入ELM分类器中进行目标识别与分类,判断作业过程是否存在违规行为.试验结果表明:所提方法图像修复速度快,视觉效果自然,且目标识别准确率高,具有很好的泛化能力.  相似文献   

15.
针对传统深度卷积生成网络收敛速度慢、稳定性较差的问题,本文在传统深度卷积生成对抗网络的基础上,提出了深度卷积生成对抗网络的优化算法。首先在预处理部分,融合了Canny算子和Prewitt算子的多个方向的卷积核来初始化输入图片参数,同时训练模块。为了减少训练时间,将训练分为3个阶段,每个阶段都采用不同的损失函数,从而提升网络的收敛速度及识别效果。最后再将训练后的判别网络中的卷积神经网络用来提取图像特征。LFW和CIFAR-100的实验证明,本文提出的算法具有很高的可行性和有效性,比传统生成对抗网络、CNN等图像识别具有更高的识别成功率,达到89.5%,为生成对抗网络在计算机视觉领域的应用提供了有益的参考。  相似文献   

16.
文本生成图像是指将语句形式的文本描述翻译成与文本具有相似语义的图像。在早期研究中,图像生成任务主要基于关键字或语句的检索来实现与文本匹配的视觉内容的对齐。随着生成对抗网络的出现,文本生成图像的方法在视觉真实感、多样性和语义相似性方面取得了重大进展。生成对抗网络通过生成器和鉴别器之间的对抗来生成合理且真实的图像,并在图像修复和超分辨率生成等领域显示出良好的能力。在回顾并总结文本生成图像领域最新研究成果的基础上,文中提出了一种新的分类方法,即注意力增强、多阶段增强、场景布局增强和普适性增强,并讨论了文本生成图像面临的挑战和未来的发展方向。  相似文献   

17.
图像间的风格迁移是一类将图片在不同领域进行转换的方法。随着生成式对抗网络在深度学习中的快速发展,其在图像风格迁移领域中的应用被日益关注。但经典算法存在配对训练数据较难获取,生成图片效果差的缺点。该文提出一种改进循环生成式对抗网络(CycleGAN++),取消了环形网络,并在图像生成阶段将目标域与源域的先验信息与相应图片进行纵深级联;优化了损失函数,采用分类损失代替循环一致损失,实现了不依赖训练数据映射的图像风格迁移。采用CelebA和Cityscapes数据集进行实验评测,结果表明在亚马逊劳务平台感知研究(AMT perceptual studies)与全卷积网络得分(FCN score)两个经典测试指标中,该文算法比CycleGAN, IcGAN, CoGAN, DIAT等经典算法取得了更高的精度。  相似文献   

18.
现有的层级式文本生成图像的方法在初始图像生成阶段仅使用上采样进行特征提取,上采样过程本质是卷积运算,卷积运算的局限性会造成全局信息被忽略并且远程语义无法交互。虽然已经有方法在模型中加入自注意力机制,但依然存在图像细节缺失、图像结构性错误等问题。针对上述存在的问题,提出一种基于自监督注意和图像特征融合的生成对抗网络模型SAF-GAN。将基于ContNet的自监督模块加入到初始特征生成阶段,利用注意机制进行图像特征之间的自主映射学习,通过特征的上下文关系引导动态注意矩阵,实现上下文挖掘和自注意学习的高度结合,提高低分辨率图像特征的生成效果,后续通过不同阶段网络的交替训练实现高分辨率图像的细化生成。同时加入了特征融合增强模块,通过将模型上一阶段的低分辨率特征与当前阶段的特征进行融合,生成网络可以充分利用低层特征的高语义信息和高层特征的高分辨率信息,更加保证了不同分辨率特征图的语义一致性,从而实现高分辨率的逼真的图像生成。实验结果表明,相较于基准模型(AttnGAN),SAF-GAN模型在IS和FID指标上均有改善,在CUB数据集上的IS分数提升了0.31,FID指标降低了3.45;在COCO...  相似文献   

19.
针对条件对抗领域适应(CDAN)方法未能充分挖掘样本的可迁移性,仍然存在部分难以迁移的源域样本扰乱目标域数据分布的问题,该文提出一种基于迁移权重的条件对抗领域适应(TW-CDAN)方法。首先利用领域判别模型的判别结果作为衡量样本迁移性能的主要度量指标,使不同的样本具有不同的迁移性能;其次将样本的可迁移性作为权重应用在分类损失和最小熵损失上,旨在消除条件对抗领域适应中难以迁移样本对模型造成的影响;最后使用Office-31数据集的6个迁移任务和Office-Home数据集的12个迁移任务进行了实验,该方法在14个迁移任务上取得了提升,在平均精度上分别提升1.4%和3.1%。  相似文献   

20.
针对轻量化微光增强网络Zero-DCE在处理亮度变化范围较大的微光图像时,存在不同区域亮度增强不一致导致的图像不清晰问题,本文提出了一种基于伽马变换的自适应损失函数,在原损失函数的基础上降低了网络对图像曝光差异的敏感性,明显改善了微光增强效果。该方法通过在卷积神经网络 (convolutional neural network,CNN) 中添加CBAM模块提高网络对微光图像特征的表达能力,使用网络增强图像灰度平均值与增强特征图均值的对数距离作为伽马变换自适应系数,最后计算网络增强图像和伽马变换后的图像之间的灰度参数距离。实验表明,与原网络相比,改进后的方法处理效果提升显著,其中在图像评价指标方面,均方误差提升9.7%,峰值信噪比提升13.8%,结构相似性提升6.7%。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号