共查询到20条相似文献,搜索用时 62 毫秒
1.
提出了一种基于深度残差神经网络的红外灰度图像超分辨率重构算法。首先使用残差卷积模块增加网络深度提高了网络的学习能力,使得卷积层在学习过程中能够利用到更多的邻域信息对于复杂场景有更好的学习能力。然后使用跳跃连接方式增加高频信息传输以实现对于图像细节的增强。实验结果表明,该网络能够有效地丰富重构图像的细节,重构图像中的目标轮廓有明显改善。 相似文献
2.
3.
4.
5.
由于器件及工艺等技术限制,红外图像分辨率相对可见光图像较低,存在细节纹理特征模糊等不足。对此,本文提出一种基于深度卷积神经网络(convolutional neural network,CNN)的红外图像超分辨率重建方法。该方法改进残差模块,降低激活函数对信息流影响的同时加深网络,充分利用低分辨率红外图像的原始信息。结合高效通道注意力机制和通道-空间注意力模块,使重建过程中有选择性地捕获更多特征信息,有利于对红外图像高频细节更准确地进行重建。实验结果表明,本文方法重建红外图像峰值信噪比(peak signal to noise ratio,PSNR)优于传统的Bicubic插值法以及基于CNN的SRResNet、EDSR、RCAN模型。当尺度因子为×2和×4时,重建图像的平均PSNR值比传统Bicubic插值法分别提高了4.57 dB和3.37 dB。 相似文献
6.
生成式对抗神经网络在约束图像生成表现出了巨大潜力,使得其适合运用于图像超分辨率重建。但是使用生成式对抗神经网络重建后的超分辨率图像存在过度平滑,缺少高频细节信息的缺点。针对单帧图像超分辨率重建方法不能有效利用图像序列间的时间-空间相关性的问题,提出了一种基于生成式对抗神经网络的多帧红外图像超分辨率重建方法(M-GANs)。首先,对低分辨率图像序列进行运动补偿;其次,使用权值表示卷积层对运动补偿后的图像序列进行权值转换计算;最后,将其输入生成式对抗重建网络,输出重建后的高分辨率图像。实验结果表明:文中方法在主观及客观评价中均优于当前代表性的超分辨率重建方法。 相似文献
7.
为了提高红外图像的超分辨率重建效果,提出基于深度学习的红外图像超分辨率重建方法。利用红外图像的反射特性与红外辐射特性建立红外图像的显著性区域检测模型;通过可见光与近红外图像之间样貌差异度水平检测图像的边缘轮廓特征,提取可见光与近红外光融合性特征参数;根据融合层次不同对图像信号级、像素级、特征级、决策级四个维度进行重建,提取图像的边缘、形状、纹理特征;根据特征分布的噪声水平与配准质量,采用深度学习算法实现对红外图像超分辨率重建。仿真测试结果得出,该方法进行红外图像重建的显著性特征检测能力较强,重建后将图像分辨率提升到1 280×960 PPI,模板匹配准确率为49.4%,峰值信噪比PSNR值高于36.34 dB,结构相似度SSIM值高于0.972,重建效果较好,更适合用于特定场景下的红外图像目标特征识别。 相似文献
8.
单幅图像超分辨率问题是典型的图像反问题。近年来深度学习广泛应用于图像超分辨率重建。为提高超分辨率算法的性能,本文利用多尺度和残差训练的思想,提出一种利用多尺度卷积神经网络的图像超分辨率算法。该算法采用多尺度的卷积核及收缩--扩展的网络结构来提取图像多尺度的信息,并在网络结构中使用跳跃连接,以便更好的传递信息并弥补由于使用下采样和上采样而造成的图像细节信息的损失,来提高图像的重建质量。通过与其它算法的对比实验表明了本文算法不仅可以取得更好的性能,并且训练的收敛速度较快。 相似文献
9.
本文通过分析红外图像特性,提出了一种自适应金字塔的红外图像超分辨率重建算法,利用多层信息互补实现图像重建。本算法通过金字塔架构获取不同尺度字典的结构信息,并通过一个自适应均值融合计算单元,用于细节重组。实验结果表明,本文提出的算法能够获得清晰的图像,且视觉质量高。 相似文献
10.
现有的红外图像超分辨率重建方法主要依赖实验数据进行设计,但在面对真实环境中的复杂退化情况时,它们往往无法稳定地表现。针对这一挑战,本文提出了一种基于深度学习的新颖方法,专门针对真实场景下的红外图像超分辨率重建,构建了一个模拟真实场景下红外图像退化的模型,并提出了一个融合通道注意力与密集连接的网络结构。该结构旨在增强特征提取和图像重建能力,从而有效地提升真实场景下低分辨率红外图像的空间分辨率。通过一系列消融实验和与现有超分辨率方法的对比实验,本文方法展现了其在真实场景下红外图像处理中的有效性和优越性。实验结果显示,本文方法能够生成更锐利的边缘,并有效地消除噪声和模糊,从而显著提高图像的视觉质量。 相似文献
11.
12.
提出了一种新的红外灰度图像伪彩色变换方法。在用于
红外灰度图像处理时,该方法不仅可以增强目标的自身细节,而且还可以提高目标与背景之间的对比度。
实验结果表明,本文方法能够使目标与背景之间的区分变得更加明显,目标边缘
变得更清晰,有利于对复杂海空背景下的运动目标进行分析和判读。 相似文献
13.
14.
15.
16.
非下采样剪切波变换(NSST)域中低频子带的融合需要人工给定融合模式,因此未能充分捕获源图像的空间连续性和轮廓细节信息.针对上述问题,提出了基于深度卷积神经网络的红外与可见光图像融合算法.首先,使用孪生双通道卷积神经网络学习NSST域低频子带的特征来输出衡量子带空间细节信息的特征图.然后,根据高斯滤波处理的特征图设计了基于局部相似性的测量函数来自适应地调整NSST域低频子带的融合模式.最后,根据NSST域高频子带的方差、局部区域能量以及可见度特征来自适应地设置脉冲耦合神经网络参数完成NSST域高频子带的融合.实验结果表明:该算法QAB/F指标略弱于对比算法,但SF、SP、SSIM以及VIFF指标分别提高了约50.42%、14.25%、7.91%以及61.67%,有效地解决了低频子带融合模式给定的问题,同时又克服了手动设置PCNN参数的缺陷. 相似文献
17.
18.
为了有效提高深度图像的分辨率,文中借鉴经典SqueezeNet网络结构,提出一种基于Fire Module的卷积神经网络模型。该算法实现了直接从低分辨率图像到高分辨率图像的映射和转化,其中Fire Module作为网络的非线性映射模块,在减少参数的同时可学习图像的深层特征。为了避免插值预处理,在网络的输出层引入反卷积层,实现3倍上采样和高分辨率图像的输出。实验表明,采用该基于Fire Module的卷积神经网络模型的反卷积算法得到的超分辨率图像细节更加丰富,客观指标PSNR值和SSIM值的评价也明显优于其他算法。 相似文献
19.
复杂背景下的红外图像往往由于噪声较多、背景区域重叠、目标与背景对比度较差等因素,在对目标区域分割时会造成过分割或欠分割。针对此现象,提出了一种将全卷积神经网络和动态自适应区域生长法相结合的红外分割算法。首先利用全卷积神经网络对目标区域在像素级别进行特征提取,通过神经网络强大的自学习能力获得目标区域的粗分割结果;然后根据粗分割结果,对其取外接最小面积矩形框,并根据矩形框位置在原始图像上确定目标区域,并以此矩形区域进行动态自适应区域生长,形成第二次分割结果。最后融合全卷积网络(FCN)的粗分割结果和区域生长分割结果,实现目标区域的最终分割和提取。仿真实验表明,该方法能有效利用FCN对红外图像复杂背景的消除能力,而区域生长法对分割细节的敏感也同时弥补了FCN分割精度的不足,取得了较好的分割效果。 相似文献