首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到15条相似文献,搜索用时 171 毫秒
1.
目的 现存的去噪算法中很多在去除噪声的同时都存在边缘信息过光滑、易产生彩色伪影的问题,为了解决这些缺点,本文提出了一种基于联合感知损失的深度残差去噪网络。方法 首先利用低通滤波器将噪声图片分解成高频层和低频层,然后将包含噪声和边缘信息的高频层输入设计好的残差网络中,通过常规逐像素损失方法学习端到端的残差映射预测出噪声残差图片,再由一个从输入直接通往输出的全局跳跃连接处理得到初始较模糊的去噪结果,最后级联一个预训练好的语义分割网络用来定义感知损失,指导前面的去噪模型学习更多语义特征信息来增强被模糊的边缘细节,得到更清晰真实的去噪结果。结果 本文从定性和定量两个方面进行对比实验。以峰值信噪比(PSNR)作为量化指标来评价算法性能,结果表明所提出的网络在同其他对比方法一样使用逐像素损失训练时能产生最好的指标结果,在Set5、Set14和BSD100测试集25噪声级别时的结果分别为30.51 dB、30.60 dB和29.38 dB。在视觉定性分析上,本文提出的感知损失模型明显取得了更清晰的去噪结果,相比其他方法产生的模糊区域该方法保留了更多的边缘信息和纹理细节。此外还进行了盲去噪测试实验,对一张含有不同噪声级别的图片进行去噪处理,结果表明本文训练好的算法模型可以一次性处理多种未知级别的噪声并产生满意的去噪输出而且没有多余伪影。结论 基于边缘增强的感知损失残差网络的图像去噪算法在去除噪声的同时可以保留更多容易被模糊的边缘细节,改善去噪结果过平滑的问题,提高图像视觉效果。  相似文献   

2.
低剂量计算机断层扫描(LDCT)能够有效降低X射线辐射对人体健康造成的危害,已广泛应用于医学临床诊断。针对LDCT图像中存在大量的斑点噪声和条形伪影的问题,提出一种结合改进的VGG网络和深层字典的图像去噪算法,以弥补深层字典去噪能力的不足。在深层字典学习到第一层字典原子和稀疏矩阵后,通过改进的VGG网络将字典原子区分为信息原子和噪声原子,同时将稀疏矩阵中噪声原子所对应的元素设置为零,降低噪声原子对图像去噪效果的影响。实验结果表明,与K-SVD算法、正则化K-SVD算法和深层字典学习算法相比,该算法的峰值信噪比和结构相似性指数平均提高了1.4 dB和0.03,能够有效抑制LDCT图像噪声和伪影,且保留较多的边缘和细节信息。  相似文献   

3.
近年来,生成对抗网络(GAN)用于低剂量CT(LDCT)伪影抑制表现出一定性能优势,已成为该领域新的研究热点。由于伪影分布不规律且与正常组织位置息息相关,现有GAN网络的降噪性能受限。针对上述问题,提出了一种基于伪影感知GAN的LDCT降噪算法。首先,设计了伪影方向感知生成器,该生成器在U型残差编解码结构的基础上增加了伪影方向感知子模块(ADSS),从而提高生成器对伪影方向特征的敏感度;其次,设计了注意力判别器(AttD)来提高对噪声伪影的鉴别能力;最后,设计了与网络功能相对应的损失函数,通过多种损失函数协同作用来提高网络的降噪性能。实验结果表明,与高频敏感GAN(HFSGAN)相比,该降噪算法的平均峰值信噪比(PSNR)和结构相似度(SSIM)分别提升了4.9%和2.8%,伪影抑制效果良好。  相似文献   

4.
为去除低剂量计算机断层扫描(LDCT)图像中的噪声,增强去噪后图像的显示效果,提出一种生成对抗网络(GAN)下的LDCT图像增强算法。首先,将GAN与感知损失、结构损失相结合对LDCT图像进行去噪;然后,对去噪后的图像分别进行动态灰度增强和边缘轮廓增强;最后,利用非下采样轮廓波变换(NSCT)将增强后的图像在频域上分解为具有多方向性的系数子图,并将配对的高低频子图使用卷积神经网络(CNN)进行自适应融合,以重构得到增强后的计算机断层扫描(CT)图像。使用AAPM比赛公开的真实临床数据作为实验数据集,进行图像去噪、增强、融合实验,所提方法在峰值信噪比(PSNR)、结构相似度(SSIM)和均方根误差(RMSE)上的结果分别为33.015 5 dB、0.918 5和5.99。实验结果表明,所提算法在去除噪声的同时能保留CT图像的细节信息,提高图像的亮度和对比度,有助于医生更加准确地分析病情。  相似文献   

5.
一种基于边缘检测的图像去噪优化方法   总被引:2,自引:2,他引:2  
黄剑玲  郑雪梅 《计算机仿真》2009,26(11):260-263
为了消除或衰减存在于图像上的噪声,同时尽可能地保留图像细节,提出基于边缘检测的图像去噪算法.先通过小波边缘检测法求出有噪图像的边缘图像;再通过小波边缘检测方法确定哪些小波系数是图像的边缘特征,这些小波系数将不受阈值去噪的影响,因此,可以只是根据噪声方差来设置去噪的阈值,对原有噪图像进行小波去噪,得到平滑图像;最后,将边缘图像嵌入平滑图像中,得到去噪后的图像.实验结果表明,与普通的小波阈值去噪方法相比,上述算法不但能在有效去噪的同时保留图像的细节信息,而且能提高去噪后图像的峰值信噪比.  相似文献   

6.
充分保持细节的图像去噪在图像处理领域具有重要的意义。一种新的将Contourlet收缩和全变差相结合的混合去噪算法被提出。利用空域自适应的全变差,对含噪图像与Contourlet硬阈值收缩图像的差值图像进行滤波。再和收缩图像相叠加,从而得到最终的去噪图像。实验结果表明,和现有的典型去噪方法相比较,所提出的算法在有效去除噪声和Gibbs伪影的同时,更好地保持了边缘和纹理等重要的细节信息。  相似文献   

7.
针对深度学习图像去噪算法存在网络过深导致细节丢失的问题,提出一种双通道扩张卷积注意力网络CEANet。拼接信息保留模块将每一层的输出特征图融合,弥补卷积过程中丢失的图像细节特征进行密集学习;扩张卷积可以在去噪性能和效率之间进行权衡,用更少的参数获取更多的信息,增强模型对噪声图像的表示能力,基于扩张卷积的稀疏模块通过扩大感受野获得重要的结构信息和边缘特征,恢复复杂噪声图像的细节;基于注意力机制的特征增强模块通过全局特征和局部特征进行融合,进一步指导网络去噪。实验结果表明,在高斯白噪声等级为25和50时,CEANet都获得了较高的峰值信噪比均值和结构相似性均值,能够更高效地捕获图像细节信息,在边缘保持和噪声抑制方面,具有较好的性能。相关实验证明了该算法进行图像去噪的有效性。  相似文献   

8.
为了解决图像压缩感知重建研究领域中通过有效的图像先验信息重构与原图相似性高且保留细节消除伪影的高质量图像的问题, 针对不足采样的K空间数据, 在经典的CNN算法CBDNet算法的基础上, 通过融合深度学习先验信息及传统图像恢复各自优势的方法, 研究了基于深度神经网络去噪先验和BM3D块压缩感知算法的混合式重构算法. 该算法采用交互式方法训练多尺度残差网络抑制噪声水平, 借优化选择的方式将深度学习与传统块匹配多尺度结合以提取图像不同尺度的特征数据从而实现抑制伪影、快速重建高质量MRI. 实结果表明深度学习结合BM3D在MR图像重构领域能够有效降低伪影保留细节信息, 加强重构效果. 与此同时, 通过采用GPU的加速运算, 算法的计算复杂度较使用单一算法并未增加很多. 可见基于卷积盲降噪的混合式核磁共振成像效果更佳.  相似文献   

9.
图像去噪是图像处理中最基本、最重要的前期工作,本文提出一种基于衰减法的Garrote阈值函数,并将基于该改进阈值函数的小波阈值法用于图像去噪过程,最后通过MATLAB仿真实验验证了本文所提出算法的有效性.本文在分析小波阈值法对图像去噪效果影响的基础上,针对该去噪算法在去除噪声的同时也损失了一定量的图像细节信息的问题,改进了传统阈值函数未考虑阈值以下的小波系数可能含有图像细节信息而对阈值以下小波系数盲目置零的缺点,对Garrote阈值函数阈值以下的小波系数采取衰减方法,以保留更多的图像细节信息,并加入三个调整因子以提高其性能和灵活度,实验表明本文提出的改进小波阈值去噪算法能够有效地去除噪声,且能够保留大量的图像边缘及细节信息.  相似文献   

10.
图像去噪是图像处理领域的重要环节,也是对图像进行后续处理的基础。近年来K-SVD字典学习去噪算法因其耗时短、去噪效果好的特点得到广泛关注和应用。但该算法的适用条件为图像的噪声为加性噪声且噪声标准差已知。针对这一情况,本文先提出一种平滑图像块筛选方法,并将其与奇异值分解(Singular Value Decomposition, SVD)相结合实现对图像的噪声标准差估计。再将得到的噪声估计方法与K-SVD字典学习去噪算法结合起来,提出一种具备噪声估计特性的K-SVD字典学习去噪算法。对多种图像的去噪实验结果表明,与Donoho小波软阈值去噪算法、全变分(Total Variation, TV)去噪算法相比,本文算法不仅能够使去噪后图像的峰值信噪比提升1~3dB,并且能较好地保留图像的细节信息和边缘特征。  相似文献   

11.
针对传统基于核范数最小化(NNM)的低秩约束模型在低剂量CT(LDCT)影像去噪中易造成局部纹理细节丢失的问题,提出一种具有区域内容感知能力的加权NNM的LDCT影像去噪算法。首先采用基于奇异值分解(SVD)的方法估计LDCT影像中的局部噪声强度;然后采用基于局部统计特性的方法进行目标影像块匹配;最后根据影像局部噪声强度以及不同奇异值水平自适应设置核范数权重,以实现基于加权NNM的LDCT影像去噪。仿真实验结果表明,所提算法在均方根误差(RMSE)指标上较传统NNM算法、全变分最小化算法以及变换学习算法分别降低30.11%、14.38%和8.75%,在结构相似度(SSIM)指标上较上述3种算法分别提高34.24%、23.06%和11.52%。真实临床数据实验结果表明,所提算法处理结果的放射医生评价平均分为8.94,与常规剂量CT影像的评价平均分数仅差0.21,显著高于传统NNM算法、全变分最小化算法和变换学习算法的平均分。仿真及真实临床数据的实验结果表明,所提算法能够在滤除LDCT影像伪影噪声的同时,有效保持局部纹理细节信息。  相似文献   

12.
何琳  张权  上官宏  张文  张鹏程  刘祎  桂志国 《计算机应用》2016,36(10):2916-2921
针对低剂量计算机断层扫描(LDCT)重建图像时出现条形伪影和脉冲噪声的现象,提出一种自适应加权全变分的LDCT统计迭代重建算法。该算法克服了传统全变分(TV)算法在去除条形伪影的同时引入阶梯效应的缺点,把基于加权方差的加权因子与TV模型相结合提出自适应加权全变分模型,然后再把新模型应用到惩罚加权最小二乘(PWLS)重建算法中,这样就可以对图像的不同区域进行不同强度的去噪,从而取得噪声抑制和边缘保持的良好效果。采用Shepp-Logan模型和数字骨盆体模来验证算法的有效性,实验结果表明,所提算法的归一化均方距离和归一化平均绝对距离均比滤波反投影(FBP)、PWLS、惩罚加权最小二乘的中值先验(PWLS-MP)以及惩罚加权最小二乘的全变分(PWLS-TV)算法的值小,且可分别获得40.91 dB和42.25 dB的峰值信噪比。实验结果表明,该算法重建出的图像在有效去除条形伪影的同时对图像的边缘和细节起到很好的保护作用。  相似文献   

13.
This paper presents a new method for edge-preserving color image denoising based on the tensor voting framework, a robust perceptual grouping technique used to extract salient information from noisy data. The tensor voting framework is adapted to encode color information through tensors in order to propagate them in a neighborhood by using a specific voting process. This voting process is specifically designed for edge-preserving color image denoising by taking into account perceptual color differences, region uniformity and edginess according to a set of intuitive perceptual criteria. Perceptual color differences are estimated by means of an optimized version of the CIEDE2000 formula, while uniformity and edginess are estimated by means of saliency maps obtained from the tensor voting process. Measurements of removed noise, edge preservation and undesirable introduced artifacts, additionally to visual inspection, show that the proposed method has a better performance than the state-of-the-art image denoising algorithms for images contaminated with CCD camera noise.  相似文献   

14.
针对传统非局部均值(NLM)滤波算法中邻域间相似性计算易受噪声干扰的问题,提出了一种基于梯度特征的双核非局部均值滤波算法。通过图像块之间的欧氏距离及梯度特征度量邻域间相似性,采用双核函数代替传统指数核函数计算相似性权值,并通过衡量搜索区域中的邻域块与当前像素邻域的相似程度,对像素点的权值进行重分配,在此基础上,重估像素点去噪值并得到滤波图像。实验结果表明,提出的滤波算法与传统的NLM滤波算法及分别含有高斯核和正弦核的改进NLM滤波算法相比,可以更准确地反映邻域间的相似度,保存图像的细节及边缘信息,从而有效提升图像的去噪效果。  相似文献   

15.
目前基于深度学习的图像去噪算法无法综合考虑局部和全局的特征信息, 进而影响细节处的图像去噪效果, 针对该问题, 提出了融合CNN和Transformer的图像去噪网络(hybrid CNN and Transformer image denoising network, HCT-Net). 首先, 提出CNN和Transformer耦合模块(CNN and Transformer coupling block, CTB), 构造融合卷积和通道自注意力的双分支结构, 缓解单纯依赖Transformer造成的高额计算开销, 同时动态分配注意力权重使网络关注重要图像特征. 其次, 设计自注意力增强卷积模块(self-attention enhanced convolution module, SAConv), 采用递进式组合模块和非线性变换, 减弱噪声信号干扰, 提升在复杂噪声水平下识别局部特征的能力. 在6个基准数据集上的实验结果表明, HCT-Net相比当前一些先进的去噪方法具有更好的特征感知能力, 能够抑制高频的噪声信号从而恢复图像的边缘和细节信息.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号