首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 62 毫秒
1.
为了获得更好的图像超分辨率重建质量,提高网络训练的稳定性,对生成对抗网络、损失函数进行研究.首先,介绍了SRGAN和DenseNet,并设计了基于DenseNet的生成网络用以生成图像,且将子像素卷积模块加入到DenseNet中.接着,移除了原本DenseNet中冗余的BN层,提高了模型的训练效率.最后,介绍了SRGA...  相似文献   

2.
针对现有基于像素损失的超分辨率图像重建算法对纹理等高频细节的重建效果差问题,提出了一种基于改进超分辨率生成对抗网络(SRGAN)的图像重建算法.首先,去除了生成器中的批归一化层,并结合多级残差网络和密集连接,用残差套残差密集块提高了网络提取特征的能力.然后,结合均方误差与感知损失作为指导生成器训练的损失函数,既保留了图...  相似文献   

3.
马乐  陈峰  李敏 《激光与红外》2020,50(2):246-251
由于硬件成本和拍摄条件等限制,很难直接获取高分辨率红外图像。生成对抗网络可以实现红外图像的超分辨率重建,但仍存在训练不稳定,训练时不收敛等不足。针对这些问题,本文使用Wasserstein距离代替KL散度,结合图像间的欧式距离构造新的损失函数,优化原有网络结构和算法流程,使网络更准确地学习低分辨率图像与重建图像的对应特征映射关系,网络训练更加稳定。实验结果表明,重建图像的边缘过渡平缓,目标细节得到有效保证,并获得了更好的客观评价结果。  相似文献   

4.
激光雷达作为一种新兴的传感器,为多种智能设备和无人驾驶汽车提供了精确的环境感知能力,而激光雷达的线束通道数量直接影响其作为传感器的探测能力.然而通过硬件升级增加激光雷达的线束通道数成本极高.因此本文提出基于生成对抗网络的超分辨率方法,基于卷积神经网络分别构建了激光雷达线束超分辨率模型和判别模型,并采用蒙特卡罗方法去除噪...  相似文献   

5.
针对现有的图像超分辨率重建算法仍存在细节上处理不足的问题,提出一种基于改进增强型超分辨率生成对抗网络(ESRGAN)的图像超分辨率重建算法.首先,使用多尺度密集连接模块(MDB)代替密集连接模块(DB),并且在MDB后添加通道注意力机制,以调整不同通道的特征响应值,从而改进了ESRGAN的生成网络模型中的深层信息提取模...  相似文献   

6.
7.
高分辨率红外图像的获取受到了硬件性能的限制,利用信号处理的方法实现红外图像的超分辨率重建可以有效地提高红外图像的分辨率.将基于深度学习的超分辨方法应用于红外图像,实现了单帧红外图像的超分辨率重建,获得了更好的评价结果.通过引入对抗训练的思想,以及添加基于判别网络的损失函数分量,提高了放大倍数的同时,获得更好的高频细节恢复,图像边缘锐化,避免了超分辨率红外图像过于模糊.  相似文献   

8.
生成对抗网络是机器学习的研究方向之一,广泛应用在图像生成上,如图像超分辨率.首先介绍了生成对抗网络的起源,简述了其概念和组成部分,回顾了各种生成对抗网络改进模型,如深度卷积生成对抗神经网络、无监督式生成对抗网络;然后介绍了生成对抗网络在图像生成、超分辨率、风格迁移方面的应用,如超分辨率生成对抗网络在图像超分辨率上的应用...  相似文献   

9.
为了获取包含更多高频感知信息与纹理细节信息的遥感重建图像,并解决超分辨率重建算法训练难和重建图像细节缺失的问题,提出一种融合多尺度感受野模块的生成对抗网络(GAN)遥感图像超分辨率重建算法。首先,使用多尺度卷积级联增强全局特征获取、去除GAN中的归一化层,提升网络训练效率去除伪影并降低计算复杂度;其次,利用多尺度感受野模块与密集残差模块作为生成网络的细节特征提取模块,提升网络重建质量获取更多细节纹理信息;最后,结合Charbonnier损失函数与全变分损失函数提升网络训练稳定性加速收敛。实验结果表明,所提算法在Kaggle、WHURS19、AID数据集上的平均检测结果较超分辨率GAN在峰值信噪比、结构相似性、特征相似性等方面分别高出约1.65 dB、约0.040(5.2%)、约0.010(1.1%)。  相似文献   

10.
针对人脸超分辨率算法中图像失真大、缺乏细节特征等问题,提出了一种基于先验知识的人脸超分辨率重建模型。通过在超分网络中加入纹理辅助分支,为重建过程提供额外纹理结构先验,以生成精细的面部纹理,恢复高分辨率纹理图。同时引入级联叠加模块对纹理辅助分支进行反馈。设计特征融合模块,将纹理特征图与超分分支特征图融合,获得更好的纹理细节;将纹理损失融入损失函数,以提高网络恢复纹理细节的能力。4倍放大因子下,该方法的峰值信噪比(Peak Signal-to-Noise Ratio, PSNR)、结构相似性指数(Structural Similarity Index, SSIM)比现有方法至少提升1.082 5 dB和0.036,无参考图像质量评价(Natural Image Quality Evaluator, NIQE)至少降低1.690 2;8倍放大因子下,该方法的PSNR与SSIM值分别至少提升0.787 5 dB和0.046 85,NIQE值最小降低3.92。  相似文献   

11.
郭伟  庞晨 《电讯技术》2022,62(3):281-287
针对现有深度学习中图像数据集缺乏的问题,提出了一种基于深度卷积生成式对抗网络(Deep Convolutional Generative Adversarial Network, DCGAN)的图像数据集增强算法。该算法对DCGAN网络进行改进,首先在不过多增加计算量的前提下改进现有的激活函数,增强生成特征的丰富性与多样性;然后通过引入相对判别器有效缓解模式坍塌现象,从而提升模型稳定性;最后在现有生成器结构中引入残差块,获得相对高分辨率的生成图像。实验结果表明,将所提方法应用在MNIST、SAR和医学血细胞数据集上,图像数据增强效果与未改进的DCGAN网络相比显著提升。  相似文献   

12.
Advances in generative adversarial network   总被引:1,自引:0,他引:1  
Generative adversarial network (GAN) have swiftly become the focus of considerable research in generative models soon after its emergence,whose academic research and industry applications have yielded a stream of further progress along with the remarkable achievements of deep learning.A broad survey of the recent advances in generative adversarial network was provided.Firstly,the research background and motivation of GAN was introduced.Then the recent theoretical advances of GAN on modeling,architectures,training and evaluation metrics were reviewed.Its state-of-the-art applications and the extensively used open source tools for GAN were introduced.Finally,issues that require urgent solutions and works that deserve further investigation were discussed.  相似文献   

13.
生成式对抗神经网络的多帧红外图像超分辨率重建   总被引:4,自引:0,他引:4       下载免费PDF全文
李方彪  何昕  魏仲慧  何家维  何丁龙 《红外与激光工程》2018,47(2):203003-0203003(8)
生成式对抗神经网络在约束图像生成表现出了巨大潜力,使得其适合运用于图像超分辨率重建。但是使用生成式对抗神经网络重建后的超分辨率图像存在过度平滑,缺少高频细节信息的缺点。针对单帧图像超分辨率重建方法不能有效利用图像序列间的时间-空间相关性的问题,提出了一种基于生成式对抗神经网络的多帧红外图像超分辨率重建方法(M-GANs)。首先,对低分辨率图像序列进行运动补偿;其次,使用权值表示卷积层对运动补偿后的图像序列进行权值转换计算;最后,将其输入生成式对抗重建网络,输出重建后的高分辨率图像。实验结果表明:文中方法在主观及客观评价中均优于当前代表性的超分辨率重建方法。  相似文献   

14.
针对不同分布噪声下生成对抗网络生成样本质量差异明显的问题,提出了一种噪声稳健性的卡方生成对抗网络。所提网络结合了卡方散度量化敏感性和稀疏不变性的优势,引入卡方散度计算生成样本分布和真实样本分布的距离,减小不同噪声对生成样本的影响且降低对真实样本的质量要求;搭建了网络架构,构建全局优化目标函数,促进网络不断优化并增强博弈的有效性。实验结果表明,所提网络在不同噪声下的生成样本质量和稳健性优于目前几种主流网络,且图像质量差异较小。卡方散度的引入不仅提高了生成样本质量,而且提升了网络在不同噪声下的稳健性。  相似文献   

15.
为增强融合图像的视觉效果,减少计算的复杂度,解决传统红外与可见光图像融合算法存在的背景细节丢失问题,提出了一种生成对抗网络框架下基于深度可分离卷积的红外与可见光图像融合方法。首先,在生成器中对源图像进行深度卷积与逐点卷积运算,得到源图像的特征映射信息;其次,通过前向传播的方式更新网络参数,得到初步的单通道融合图像;再次,在红外及可见光判别器中,使用深度可分离卷积分别对源图像与初步融合图像进行像素判别;最后,在损失函数的约束下,双判别器不断将更多的细节信息添加到融合图像中。实验结果表明,相比于传统的融合算法,该方法在信息熵、平均梯度、空间频率、标准差、结构相似性损失和峰值信噪比等评价指标上分别平均提高了1.63%、1.02%、3.54%、5.49%、1.05%、0.23%,在一定程度上提升了融合图像的质量,丰富了背景的细节信息。  相似文献   

16.
Underwater images play an essential role in acquiring and understanding underwater information. High-quality underwater images can guarantee the reliability of underwater intelligent systems. Unfortunately, underwater images are characterized by low contrast, color casts, blurring, low light, and uneven illumination, which severely affects the perception and processing of underwater information. To improve the quality of acquired underwater images, numerous methods have been proposed, particularly with the emergence of deep learning technologies. However, the performance of underwater image enhancement methods is still unsatisfactory due to lacking sufficient training data and effective network structures. In this paper, we solve this problem based on a conditional generative adversarial network (cGAN), where the clear underwater image is achieved by a multi-scale generator. Besides, we employ a dual discriminator to grab local and global semantic information, which enforces the generated results by the multi-scale generator realistic and natural. Experiments on real-world and synthetic underwater images demonstrate that the proposed method performs favorable against the state-of-the-art underwater image enhancement methods.  相似文献   

17.
基于对抗生成网络的纹理合成方法   总被引:2,自引:0,他引:2       下载免费PDF全文
余思泉  韩志  唐延东  吴成东 《红外与激光工程》2018,47(2):203005-0203005(6)
纹理合成是计算机图形学、计算机视觉和图像处理领域的研究热点之一。传统的纹理合成方法往往通过提取有效的特征样式或统计量并在该特征信息的约束下生成随机图像来实现。对抗生成网络作为一种较新的深度网络形式,通过生成器和判别器的对抗训练能够随机生成与观测数据具有相同分布的新数据。鉴于此,提出了一种基于对抗生成网络的纹理合成方法。该算法的优点是不需要经过多次迭代就能够生成更真实纹理图像,且生成图像在视觉上与观测纹理图像一致的同时具有一定随机性。一系列针对随机纹理和结构性纹理的合成实验验证了该算法的有效性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号