首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 203 毫秒
1.
生成对抗网络(GAN)用于低剂量CT(LDCT)图像降噪具有一定的性能优势,成为近年CT图像降噪领域新的研究热点.不同剂量的LDCT图像中噪声和伪影分布的强度发生变化时,GAN网络降噪性能不稳定,网络泛化能力较差.为了克服这一缺陷,该文首先设计了一个编解码结构的噪声水平估计子网,用于生成不同剂量LD-CT图像对应的噪声图,并用原始输入图像与之相减来初步抑制噪声;其次,在主干降噪网络中,采用GAN框架,并将生成器设计为多路编码的U-Net结构,通过博弈对抗实现网络结构优化,进一步抑制CT图像噪声;最后,设计了多种损失函数来约束不同功能模块的参数优化,进一步保障了LDCT图像降噪网络的性能.实验结果表明,与目前流行算法相比,所提出的降噪网络能够在保留LDCT图像原有重要信息的基础上,取得较好的降噪效果.  相似文献   

2.
生成对抗网络(GAN)用于低剂量CT(LDCT)图像降噪具有一定的性能优势,成为近年CT图像降噪领域新的研究热点。不同剂量的LDCT图像中噪声和伪影分布的强度发生变化时,GAN网络降噪性能不稳定,网络泛化能力较差。为了克服这一缺陷,该文首先设计了一个编解码结构的噪声水平估计子网,用于生成不同剂量LDCT图像对应的噪声图,并用原始输入图像与之相减来初步抑制噪声;其次,在主干降噪网络中,采用GAN框架,并将生成器设计为多路编码的U-Net结构,通过博弈对抗实现网络结构优化,进一步抑制CT图像噪声;最后,设计了多种损失函数来约束不同功能模块的参数优化,进一步保障了LDCT图像降噪网络的性能。实验结果表明,与目前流行算法相比,所提出的降噪网络能够在保留LDCT图像原有重要信息的基础上,取得较好的降噪效果。  相似文献   

3.
相对于采用固定网络参数值的有监督深度降噪模型而言,无监督的深度图像先验(Deep Image Prior,DIP)降噪模型更具灵活性和实用性.然而,DIP模型的降噪效果远低于有监督降噪模型(尤其是在处理人工合成噪声图像时).为进一步提升DIP降噪模型的降噪效果,本文提出了双通道深度图像先验降噪模型.该降噪模型由噪声图像预处理、在线迭代训练和图像融合3个模块组成.首先,利用BM3D和FFDNet两种经典降噪方法对给定的噪声图像进行预处理,得到2张初步降噪图像,然后,将原DIP单通道逼近目标图像架构拓展为双通道工作模式.其中,第一通道以FFDNet初步降噪图像和噪声图像为双目标图像,第二通道则以BM3D预处理图像和噪声图像为双目标图像.在此基础上,按照标准的DIP在线训练方式让DIP网络输出图像在两个通道上分别逼近各自的目标图像,同时依据基于边缘能量定义的伪有参考图像质量评价值适时终止迭代过程,从而获得2张中间生成图像.最后,使用结构化图块分解融合算法将两张中间生成图像融合并作为最终的降噪后图像.实验数据表明,在合成噪声图像上,本文提出的双通道深度图像先验降噪模型在各个噪声水平上显著优于原...  相似文献   

4.
针对低剂量CT(low-dose CT,LDCT)图像去噪过程中配对数据难以获取的问题,本文提出了一种基于注意力机制和联合损失的自监督LDCT图像去噪算法。在该算法中,利用边缘增强后的U-net网络完成LDCT图像的特征提取,在网络框架中引入通道和像素注意力机制,以提高网络对噪声和伪影的抑制能力。同时使用联合损失避免传统损失对图像造成的图像过平滑问题,使得去噪后图像更加接近原图像。实验结果表明:所提出的算法可有效抑制LDCT图像的噪声,保留图像的纹理细节。经过算法处理后的LDCT图像的峰值信噪比(peak signal-to-noise ratio,PSNR)提高了16.40%,结构相似性(structural similarity,SSIM)提高了9.60%。在无配对数据下,该方法可有效保留细节并减少低剂量扫描产生的噪声,为临床LDCT图像去噪提供新思路。  相似文献   

5.
《现代电子技术》2017,(13):57-61
针对基于学习的人脸超分辨率算法噪点、伪影较多,且噪声鲁棒性较差的问题,提出一种基于在线字典学习的人脸超分辨率重建算法。以人脸图集作为训练图库,运用在线字典学习方法提高字典训练的精度。独立调整字典学习阶段的正则化参数λt和求解重建稀疏系数阶段的λr,以获取最优的超完备字典和稀疏系数用于图像重建。实验结果表明,目标图像峰值信噪比比同一类型的稀疏编码超分法平均提高了0.85 d B,结构相似性增加了0.013 3,有效地抑制了噪点和伪影。在含噪人脸图像应用中,噪声水平提高时,峰值信噪比下降相对较平缓,提升人脸超分效果的同时改善了算法的噪声鲁棒性。  相似文献   

6.
针对低剂量计算机断层扫描(Computed Tomography,CT)重建图像时容易出现明显条形伪影这一现象,提出一种基于梯度保真项的低剂量CT统计迭代重建算法。该算法克服了原始全变分(Total Variation,TV)模型在抑制条形伪影和噪声的同时引入阶梯效应的缺点,首先把梯度保真约束项和能够区分图像平滑区和细节区的边缘指示函数应用到TV模型中得到基于梯度保真项的自适应全变分模型,然后再把新模型与惩罚加权最小二乘(Penalized Weighted Least Square,PWLS)重建算法相结合,使用交替方向迭代法得到最终的图像。采用Shepp-Logan模型来验证算法的有效性,实验结果表明,该算法不仅可以有效地去除条形伪影,还可以较好地保护图像的边缘和细节信息。  相似文献   

7.
为了减少人脸超分图像的边缘伪影和图像噪点,利用基于稀疏编码的单幅图像超分辨率重建算法,在字典学习阶段,结合L1范数引入在线字典学习方法,使字典根据当前输入图像块和上次迭代生成的字典逐列更新,得到更加精确的超完备字典对,用于图像重建.实验中进行的仿真结果表明,改进算法超分结果的峰值信噪比(PSNR)和结构相似性(SSIM)比同类型的稀疏编码超分法(SCSR)和应用在线字典学习算法的超分方法(ODLSR)均有较大幅度提升,比后者平均提升0.72 dB和0.0187.同时,视觉上有效地消除了边缘伪影,且在处理含噪人脸图像时,具备更强的去噪能力和更好的鲁棒性.  相似文献   

8.
李建锋  廖胜辉  梅楚璇 《电子学报》2017,45(8):1919-1924
近年来CT成像技术在临床医学中广泛应用,但当病人体内含有金属移植物时,由于射线硬化等原因很可能在金属物体周围产生亮暗伪影,降低图像质量,影响诊断的准确性.为了消除CT图像中的金属伪影,本文提出基于Mean Shift和插值图像修复的算法,基本流程为用自适应Mean Shift算法预处理CT图像,平滑噪声和轻度伪影,用简化的Mean Shift算法快速精确分割金属物体,由修复组织信息的插值图像生成先验图像,用先验图像的投影数据替换原投影数据得到校正后的CT图像.经过对比实验,文中算法在去除金属伪影的同时,能够保护原有CT图像的组织结构,取得了更好的处理效果.  相似文献   

9.
《现代电子技术》2016,(20):159-162
噪声图像,特别是含有高密度噪声图像在经过去噪后,图像细节(图像高频)丢失较多。针对这一问题,提出一种基于字典学习和高频增强的方法。该算法首先让噪声图像经过降噪算法处理,然后由样本图像依次模拟加噪和去噪过程得到去噪样本图像,样本图像和去噪样本图像相减得到样本差分图像,最后分别训练样本差分图像和去噪样本图像,得到一对高、低分辨率字典,用于重建图像去噪后所缺失的高频。实验结果表明,所提算法在主观的人眼视觉和客观评价上要优于经典的图像降噪算法。  相似文献   

10.
为了使冗余字典能够自适应地表征图像特征,提 出了一种优化的图像字典构造算法。算法 采用了冗余字典内基元类之间的灰色关联度作为字典优化依据,建立了一种新的字典优化原 则,提出了一 种自适应的字典设计算法。算法能够根据图像结构和噪声等信息自适应地选择字典的冗余 因子,将算法运用于图像去噪,结果表明,算法效率大大提高,同时也提高了图像去噪 效果。  相似文献   

11.
本文提出一种基于标准剂量CT图像非局部权值先验的低剂量图像恢复方法,该方法首先将先前标准剂量图像与低剂量CT图像配准,并对低剂量CT图像进行预处理以抑制部分噪声,随后利用非局部均值的思想计算配准后的先前标准剂量CT图像的权值矩阵,基于该权值矩阵对预处理后的低剂量CT图像进行加权均值滤波.仿真实验和临床脑灌注数据实验表明,本文方法在消除低剂量CT图像噪声和伪影的同时,还可提升图像分辨率,对临床脑灌注CT扫描的疾病诊断中尤为有效.  相似文献   

12.
一种基于多级空间视觉词典集体的图像分类方法   总被引:1,自引:0,他引:1       下载免费PDF全文
针对单一特征时存在提取的信息量不足,对图像内容描述比较片面,提出将传统的SIFT特征与KDES-G特征进行串行融合,生成一个联合向量作为新的特征向量.针对传统的视觉词典构造方法缺乏考虑视觉词汇在空间的分布特点,本文引入图像空间信息,提出了一种空间视觉词典的构造方法,先对图像进行空间金字塔划分,再把空间各子区域内的特征分别聚类,构建属于对应子空间区域的空间视觉词典.在图像表示阶段,图像各子区域内的特征基于其对应的空间视觉词典进行LLC稀疏编码,根据各子区域对图像贡献程度的不同,把编码后各子区域的特征向量赋予不同的权重加权处理,再连接形成最终的图像描述.最后,利用线性SVM进行图像分类,实验结果表明了本文方法的有效性和鲁棒性.  相似文献   

13.
姜晓林  王志社 《红外技术》2020,42(3):272-278
传统的可见光与红外稀疏表示融合方法,采用图像块构造解析字典或者学习字典,利用字典的原子表征图像的显著特征。这类方法存在两个问题,一是没有考虑图像块与块之间的联系,二是字典的适应能力不够并且复杂度高。针对这两个问题,本文提出可见光与红外图像结构组双稀疏融合方法。该方法首先利用图像的非局部相似性,将图像块构建成图像相似结构组,然后对图像相似结构组进行字典训练,采用双稀疏分解模型,有效结合解析字典和学习字典的优势,降低了字典训练的复杂度,得到的结构字典更加灵活,适应性提高。该方法能够有效提高红外与可见光融合图像的视觉效果,经对比实验分析,在主观和客观评价上都优于传统的稀疏表示融合方法。  相似文献   

14.
基于最大互信息量熵差分割的CT金属伪影消除   总被引:4,自引:2,他引:2       下载免费PDF全文
马建华  陈武凡  黄静  杨迪  毕一鸣 《电子学报》2009,37(8):1779-1783
 本文作者提出一种基于图像最大互信息量熵差分割的CT金属伪影消除算法.新算法首先利用各向异性高斯滤波对原始CT图像进行预处理,以抑制CT图像中的部分噪声和伪影;其后配合最大互信息量熵差分割算法,对预处理CT图像进行自适应多目标分割;接着通过对分割后的金属物图像及由金属引起的伪影进行正向投影,得到金属物的投影数据,并将此投影数据与原始CT图像的正向投影数据做"与"运算,以获取金属物投影在投影空间内的索引函数,再将原始CT投影数据减除金属物对应的投影数据部分,利用索引函数完成原始CT投影数据中的反馈式插值处理,得到修正的投影数据;最后对修正的投影数据采用滤波反投影完成CT图像重建.实验表明,本文算法对含有金属伪影的真实体模CT图像和临床CT图像的伪影消除均有尚佳表现.  相似文献   

15.
Image retrieval has lagged far behind text retrieval despite more than two decades of intensive research effort. Most of the research on image retrieval in the last two decades are on content based image retrieval or image retrieval based on low level features. Recent research in this area focuses on semantic image retrieval using automatic image annotation. Most semantic image retrieval techniques in literature, however, treat an image as a bag of features/words while ignore the structural or spatial information in the image. In this paper, we propose a structural image retrieval method based on automatic image annotation and region based inverted file. In the proposed system, regions in an image are treated the same way as keywords in a structural text document, semantic concepts are learnt from image data to label image regions as keywords and weight is assigned to each keyword according to spatial position and relationship. As the result, images are indexed and retrieved in the same way as structural document retrieval. Specifically, images are broken down to regions which are represented using colour, texture and shape features. Region features are then quantized to create visual dictionaries which are similar to monolingual dictionaries like English or Chinese dictionaries. In the next step, a semantic dictionary similar to a bilingual dictionary like the English–Chinese dictionary is learnt to mapping image regions to semantic concepts. Finally, images are then indexed and retrieved using a novel region based inverted file data structure. Results show the proposed method has significant advantage over the widely used Bayesian annotation models.  相似文献   

16.
在信号的稀疏表示方法中,传统的基于变换基的稀疏逼近不能自适应性地提取图像的纹理特征,而基于过完备字典的稀疏逼近算法复杂度过高.针对该问题,文章提出了一种基于小波变换稀疏字典优化的图像稀疏表示方法.该算法在图像小波变换的基础上构建图像过完备字典,利用同一场景图像的小波变换在纹理上具有内部和外部相似的属性,对过完备字典进行灰色关联度的分类,有效提高了图像表示的稀疏性.将该新算法应用于图像信号进行稀疏表示,以及基于压缩感知理论的图像采样和重建实验,结果表明新算法总体上提升了重建图像的峰值信噪比与结构相似度,并能有效缩短图像重建时间.  相似文献   

17.
Image deblocking via sparse representation   总被引:1,自引:0,他引:1  
Image compression based on block-based Discrete Cosine Transform (BDCT) inevitably produces annoying blocking artifacts because each block is transformed and quantized independently. This paper proposes a new deblocking method for BDCT compressed images based on sparse representation. To remove blocking artifacts, we obtain a general dictionary from a set of training images using the K-singular value decomposition (K-SVD) algorithm, which can effectively describe the content of an image. Then, an error threshold for orthogonal matching pursuit (OMP) is automatically estimated to use the dictionary for image deblocking by the compression factor of compressed image. Consequently, blocking artifacts are significantly reduced by the obtained dictionary and the estimated error threshold. Experimental results indicate that the proposed method is very effective in dealing with the image deblocking problem from compressed images.  相似文献   

18.
Metal implants such as hip prostheses and dental fillings produce streak and star artifacts in the reconstructed computed tomography (CT) images. Due to these artifacts, the CT image may not be diagnostically usable. A new reconstruction procedure is proposed that reduces the streak artifacts and that might improve the diagnostic value of the CT images. The procedure starts with a maximum a posteriori (MAP) reconstruction using an iterative reconstruction algorithm and a multimodal prior. This produces an artifact-free constrained image. This constrained image is the basis for an image-based projection completion procedure. The algorithm was validated on simulations, phantom and patient data, and compared with other metal artifact reduction algorithms.   相似文献   

19.
Inverse halftoning is a challenging problem in image processing. Traditionally, this operation is known to introduce visible distortions into reconstructed images. This paper presents a learning-based method that performs a quality enhancement procedure on images reconstructed using inverse halftoning algorithms. The proposed method is implemented using a coupled dictionary learning algorithm, which is based on a patchwise sparse representation. Specifically, the training is performed using image pairs composed by images restored using an inverse halftoning algorithm and their corresponding originals. The learning model, which is based on a sparse representation of these images, is used to construct two dictionaries. One of these dictionaries represents the original images and the other dictionary represents the distorted images. Using these dictionaries, the method generates images with a smaller number of distortions than what is produced by regular inverse halftone algorithms. Experimental results show that images generated by the proposed method have a high quality, with less chromatic aberrations, blur, and white noise distortions.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号