首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 163 毫秒
1.
针对传统图像去雨算法未考虑多尺度雨条纹及图像去雨后细节信息丢失的问题,提出一种基于多流扩张残差稠密网络的图像去雨算法,利用导向滤波器将图像分解为基础层和细节层。通过直接学习含雨图像细节层和无雨图像细节层的残差来训练网络,缩小映射范围。采用3条带有不同扩张因子的扩张卷积对细节层进行多尺度特征提取,获得更多上下文信息,提取复杂多向的雨线特征;同时,将扩张残差密集块作为网络的参数层,加强特征传播,扩大接受域。在合成图片和真实图片上的实验结果表明,所提算法能有效去除不同密度的雨条纹,并较好地恢复图像细节信息。通过对比其他算法,证明了所提算法在主观效果和客观指标上都有提升。  相似文献   

2.
基于深度展开网络的分块压缩感知(BCS)方法,在迭代去块伪影时通常会同时去除部分信号和保留部分块伪影,不利于信号恢复。为了改善重建性能,在学习去噪的迭代阈值(LDIT)算法基础上,该文提出基于伪监督注意力短期记忆与多尺度去伪影网络(MSD-Net)的图像BCS迭代方法(PSASM-MD)。首先,在每步迭代中,利用残差网络并行地对每个图像子块单独去噪后再拼接。然后,对拼接后的图像采用含有伪监督注意力模块(PSAM)的MSD-Net进行特征提取,以更好地去除块伪影以提高重建性能。其中,PSAM被用于从含有块伪影的残差中抽取部分有用信号,并传递到下一步迭代实现短期记忆,以尽量避免去除有用信号。实验结果表明,该文方法相比现有先进的同类BCS方法在主观视觉感知和客观评价指标上均取得了更优的结果。  相似文献   

3.
针对一类JPEG图像伪造的被动盲取证   总被引:4,自引:0,他引:4  
图像合成是一种最常见的图像伪造手段。该文针对一类JPEG图像合成伪造,根据篡改区域与非篡改区域块效应的不一致性,提出了一种简单有效的检测算法。首先利用估计的一次压缩质量因子对待检测图像进行裁剪再压缩,然后通过计算压缩前后的失真提取图像的块效应指数映射图,最后采用图像分割的方法实现篡改区域的自动检测与定位。实验结果表明,算法对于各种质量的JPEG图像和较小的篡改区域均能有效检测,当二次压缩与一次压缩的质量因子之差在15以上,虚警率控制在5%以内时,检测率可达93%以上。  相似文献   

4.
近年来卷积神经网络广泛应用于单幅图像去模糊问题,卷积神经网络的感受野大小、网络深度等会影响图像去模糊算法性能。为了增大感受野以提高图像去模糊算法的性能,该文提出一种基于深度多级小波变换的图像盲去模糊算法。将小波变换嵌入编-解码结构中,在增大感受野的同时加强图像特征的稀疏性。为在小波域重构高质量图像,该文利用多尺度扩张稠密块提取图像的多尺度信息,同时引入特征融合块以自适应地融合编-解码之间的特征。此外,由于小波域和空间域对图像信息的表示存在差异,为融合这些不同的特征表示,该文利用空间域重建模块在空间域进一步提高重构图像的质量。实验结果表明该文方法在结构相似度(SSIM)和峰值信噪比(PSNR)上具有更好的性能,而且在真实模糊图像上具有更好的视觉效果。  相似文献   

5.
近年来卷积神经网络广泛应用于单幅图像去模糊问题,卷积神经网络的感受野大小、网络深度等会影响图像去模糊算法性能.为了增大感受野以提高图像去模糊算法的性能,该文提出一种基于深度多级小波变换的图像盲去模糊算法.将小波变换嵌入编-解码结构中,在增大感受野的同时加强图像特征的稀疏性.为在小波域重构高质量图像,该文利用多尺度扩张稠密块提取图像的多尺度信息,同时引入特征融合块以自适应地融合编-解码之间的特征.此外,由于小波域和空间域对图像信息的表示存在差异,为融合这些不同的特征表示,该文利用空间域重建模块在空间域进一步提高重构图像的质量.实验结果表明该文方法在结构相似度(SSIM)和峰值信噪比(PSNR)上具有更好的性能,而且在真实模糊图像上具有更好的视觉效果.  相似文献   

6.
为了将超分辨率重建算法应用于医学影像领域,提升各类医学影像的分辨率,针对当前主流算法网络结构和分辨率提升倍数的尺度单一性问题,提出了一种应用于CT图像的多尺度残差网络模型。首先,通过级联多层残差块构建模型框架,残差块内采用3种尺度的卷积核提取低分辨率图像的细节特征。然后,将特征图融合在一个维度进行特征映射和数据降维,并将多尺度特征信息导入下一残差块。最后,将网络学习到的残差图与低分辨率图像融合,重建高分辨率图像。采用经过多种放大倍数处理的CT图像对网络进行混合训练,实现了一个模型可以同时支持多种倍数的分辨率提升。实验结果表明:在2,3,4倍放大因子下,该模型重建的CT图像PSNR平均较VDSR算法高0.87,0.83,1.16dB。因此,本文模型有效提升了CT图像的超分辨率重建效果,更锐利地恢复了其细节特征,同时大大提升了算法实用性。  相似文献   

7.
针对小尺寸JPEG压缩图像携带有效信息较少、中值滤波痕迹不明显的问题,提出一种基于多残差学习与注意力融合的图像中值滤波检测算法。该算法将多个高通滤波器与注意力模块相结合,获取带权值的多残差特征图作为特征提取层的输入,特征提取层采用分组卷积形式,对输入的多残差特征图进行多尺度特征提取,融合不同尺度的特征信息,同时采用密集连接方式,每一层卷积的输入来自前面所有卷积层的输出和。实验结果表明,针对小尺寸JPEG压缩图像的中值滤波检测,本文算法比现有算法具有更高的检测精度,且能更有效地检测与定位局部篡改区域。  相似文献   

8.
基于局部块效应的JPEG伪造图像的盲取证   总被引:1,自引:0,他引:1       下载免费PDF全文
赵峰  刘晓腾  荆涛  李兴华  霍炎 《信号处理》2010,26(12):1805-1811
本文基于对JPEG图像整体块效应的分析,定义了新的针对图像局部区域的块效应评价,并由此提出了一种有效的JPEG伪造图像盲取证方法。首先获得图像在水平方向和垂直方向的差分图像,然后将两个方向的差分图像分别进行特定大小的分块,再计算每个分块局部区域的块效应评价,根据待测图像不同区域局部块效应评价的明显差异检测出图像被篡改的位置。实验结果表明,该方法可以有效的检测出经过JPEG双压缩的伪造图像。   相似文献   

9.
针对JPEG的中低码率压缩图像即高压缩率图像存在较严重的块效应以及量化噪声,提出了一种对JPEG标准压缩图像进行优化的重建-采样方法.该方法对JPEG压缩图像采用三维块匹配算法(BM3D)进行去噪,去除图像中存在的块效应和量化噪声,进而提高超分辨率重建的映射准确性,再使用外部库对去噪后图像进行基于稀疏表示的超分辨率重建,补充一定的高频信息,最后对重建后的高分辨率图进行双三次下采样,得到与原始图像大小一致的图像作为最终优化图像.实验结果表明,该方法在中低码率情况下能够有效地提高JPEG压缩图像的质量,对高码率压缩图像也有一定效果.  相似文献   

10.
图像的重采样篡改检测和JPEG双重压缩的篡改检测都是图像篡改取证的重要方法.大多数重采样篡改检测都会忽略JPEG压缩对图像的影响,而文中提出的方法主要是利用图像经过重采样和JPEG压缩之后的周期性、图像的自然统计特征对重采样图像进行检测,首先提取出可以区分原图像和重采样图像的重采样因子和JPEG压缩因子,然后提取图像的4个统计特征,最后将6个因子组合成特征向量,利用支持向量机对其进行训练和分类.实验证明,该算法对于缩放因子小于1的图像和原图像都有较好的检测率.  相似文献   

11.
沈宁静  袁健 《电子科技》2022,35(6):6-12
现有人群计数算法采用多列融合结构来解决单一图像的多尺度问题,但该处理方法不能有效利用低层特征信息,从而导致最终人群计数结果不准确。针对这一缺陷,文中提出一种基于残差密集连接与注意力融合的人群计数算法。该算法的前端利用改进VGG16网络提取低级特征信息。算法后端主分支基于残差密集连接结构,利用残差网络和密集网络结合方式捕获层与层间的特征信息,可高效捕获多尺度信息。侧分支通过引入注意力机制,生成对应尺度注意力图,有效区分特征图的背景和前景,降低了背景噪声的影响。采用3个主流公开数据集对该算法进行验证。实验结果表明,该算法计数有效且计数准确率优于其他算法。  相似文献   

12.
The wireless sensor network utilizes image compression algorithms like JPEG, JPEG2000, and SPIHT for image transmission with high coding efficiency. During compression, discrete cosine transform (DCT)–based JPEG has blocking artifacts at low bit-rates. But this effect is reduced by discrete wavelet transform (DWT)–based JPEG2000 and SPIHT algorithm but it possess high computational complexity. This paper proposes an efficient lapped biorthogonal transform (LBT)–based low-complexity zerotree codec (LZC), an entropy coder for image coding algorithm to achieve high compression. The LBT-LZC algorithm yields high compression, better visual quality with low computational complexity. The performance of the proposed method is compared with other popular coding schemes based on LBT, DCT and wavelet transforms. The simulation results reveal that the proposed algorithm reduces the blocking artifacts and achieves high compression. Besides, it is analyzed for noise resilience.  相似文献   

13.
To save bandwidth and storage space as well as speed up data transmission, people usually perform lossy compression on images. Although the JPEG standard is a simple and effective compression method, it usually introduces various visually unpleasing artifacts, especially the notorious blocking artifacts. In recent years, deep convolutional neural networks (CNNs) have seen remarkable development in compression artifacts reduction. Despite the excellent performance, most deep CNNs suffer from heavy computation due to very deep and wide architectures. In this paper, we propose an enhanced wide-activated residual network (EWARN) for efficient and accurate image deblocking. Specifically, we propose an enhanced wide-activated residual block (EWARB) as basic construction module. Our EWARB gives rise to larger activation width, better use of interdependencies among channels, and more informative and discriminative non-linearity activation features without more parameters than residual block (RB) and wide-activated residual block (WARB). Furthermore, we introduce an overlapping patches extraction and combination (OPEC) strategy into our network in a full convolution way, leading to large receptive field, enforced compatibility among adjacent blocks, and efficient deblocking. Extensive experiments demonstrate that our EWARN outperforms several state-of-the-art methods quantitatively and qualitatively with relatively small model size and less running time, achieving a good trade-off between performance and complexity.  相似文献   

14.
针对现有图像拼接检测网络模型存在边缘信息关注度不够、像素级精准定位效果不够好等问题,提出一种融入残差注意力机制的DeepLabV3+图像拼接篡改取证方法,该方法利用编-解码结构实现像素级图像的拼接篡改定位。在编码阶段,将高效注意力模块融入ResNet101的残差模块中,通过残差模块的堆叠以减小不重要的特征比重,凸显拼接篡改痕迹;其次,利用带有空洞卷积的空间金字塔池化模块进行多尺度特征提取,将得到的特征图进行拼接后通过空间和通道注意力机制进行语义信息建模。在解码阶段,通过融合多尺度的浅层和深层图像特征提升图像的拼接伪造区域的定位精度。实验结果表明,在CASIA 1.0、COLUMBIA和CARVALHO数据集上的拼接篡改定位精度分别达到了0.761、0.742和0.745,所提方法的图像拼接伪造区域定位性能优于一些现有的方法,同时该方法对JPEG压缩也具有更好的鲁棒性。  相似文献   

15.
As a novel virtual reality (VR) format, panorama maps are attracting increasing attention, while the compression of panorama images is still a concern. In this paper, a densely connected convolutional network block (dense block) based autoencoder is proposed to compress panorama maps. In the proposed autoencoder, dense blocks are specially designed to reuse feature maps and reduce redundancy of features. Meanwhile, a loss function, which imports a position-dependent weight item for each pixel, is proposed to train and adjust network parameters, in order to make the autoencoder fit to properties of panorama maps. Based on the proposed autoencoder and the weighted loss function, a greedy block-wise training scheme is also designed to avoid gradient vanishing problem and speed up training. During training process, the autoencoder is divided into several sub-nets. After each sub-net is trained separately, the whole network is fine-tuned to achieve the best performance. Experimental results demonstrate that the proposed autoencoder, compared with JPEG, saves up to 79.69 % bit rates, and obtains 7.27dB gain in BD-WS-PSNR or 0.0789 gain in BD-WS-SSIM. The proposed autoencoder also outperforms JPEG 2000, HEVC and VVC in both BD-WS-PSNR and BD-WS-SSIM. Meanwhile, subjective results show that the proposed autoencoder can recover details of panorama images, and reconstruct maps with high visual quality.  相似文献   

16.
密集人群计数是计算机视觉领域的一个经典问题,仍然受制于尺度不均匀、噪声和遮挡等因素的影响.该文提出一种基于新型多尺度注意力机制的密集人群计数方法.深度网络包括主干网络、特征提取网络和特征融合网络.其中,特征提取网络包括特征支路和注意力支路,采用由并行卷积核函数组成的新型多尺度模块,能够更好地获取不同尺度下的人群特征,以...  相似文献   

17.
Down-scaling for better transform compression   总被引:1,自引:0,他引:1  
The most popular lossy image compression method used on the Internet is the JPEG standard. JPEG's good compression performance and low computational and memory complexity make it an attractive method for natural image compression. Nevertheless, as we go to low bit rates that imply lower quality, JPEG introduces disturbing artifacts. It is known that, at low bit rates, a down-sampled image, when JPEG compressed, visually beats the high resolution image compressed via JPEG to be represented by the same number of bits. Motivated by this idea, we show how down-sampling an image to a low resolution, then using JPEG at the lower resolution, and subsequently interpolating the result to the original resolution can improve the overall PSNR performance of the compression process. We give an analytical model and a numerical analysis of the down-sampling, compression and up-sampling process, that makes explicit the possible quality/compression trade-offs. We show that the image auto-correlation can provide a good estimate for establishing the down-sampling factor that achieves optimal performance. Given a specific budget of bits, we determine the down-sampling factor necessary to get the best possible recovered image in terms of PSNR.  相似文献   

18.
左岑  杨秀杰  张捷  王璇 《红外技术》2021,43(3):251-257
现有的红外制导武器严重依赖操作手对目标的捕获,其捕获的精度与目标的纹理细节正相关。为了提升弱小区域的显示质量,满足现有导引头小型化、模块化、低成本的设计要求,本文设计了一种基于轻量级金字塔密集残差网络的图像增强模型,该模型在密集残差网络基础上通过密集连接层和残差网络来学习不同尺度图像之间的非线性映射,充分利用多尺度特征进行高频残差预测。同时,采用深度监督模块指导网络训练,有利于实现较大上采样因子的超分辨增强,提高其泛化能力。大量仿真实验结果表明本文所提出的超分辨模型能够获得高倍率的超分辨增强效果,其重建质量也优于对比算法。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号