首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 156 毫秒
1.
针对标准化稀疏先验的正则化方法估计复杂模糊核时的不准确性, 引入图像的预处理, 提出了一种图像盲去模糊的新方法。该方法将图像盲去模糊分为三个步骤:利用双边滤波器和冲击滤波器对图像进行预处理, 使得图像的噪声降低、边缘突出, 有利于模糊核的估计; 对预处理后的图像, 利用基于标准化稀疏先验的正则化方法估计模糊核; 根据估计出的模糊核利用TV正则化方法对图像进行非盲去卷积。采用快速迭代收缩阈值算法和快速总变分图像复原算法分别求解模糊核估计模型和图像非盲去卷积模型。实验结果表明, 针对单幅模糊图像, 该方法可以估计出准确的模糊核, 对噪声具有鲁棒性, 并且提高了图像复原速度, 具有较好的图像恢复效果。  相似文献   

2.
自适应全变分图像去噪模型及其快速求解*   总被引:1,自引:1,他引:0  
刘文  吴传生  许田 《计算机应用研究》2011,28(12):4797-4800
在联合冲击滤波器和非线性各向异性扩散滤波器对含噪图像做预处理的基础上,利用边缘检测算子选取自适应参数,构建能同时兼顾图像平滑去噪与边缘保留的自适应全变分模型,并基于Bregman迭代正则化方法设计了其快速迭代求解算法.实验结果表明,自适应去噪模型及其求解算法在快速去除噪声的同时保留了图像的边缘轮廓和纹理等细节信息,得到的复原图像在客观评价标准和主观视觉效果方面均有所提高.  相似文献   

3.
基于变分的保持特征的有噪图像放大算法   总被引:3,自引:0,他引:3  
针对图像放大后出现边缘模糊的现象,该文考察了典型边缘的特征,利用整体变分思想,提出了一种基于变分模型的有噪图像放大算法。利用导出的偏微分方程和图像边缘的局部梯度信息,该文算法实施一种自适应非线性滤波处理,能够较好地保持图像边缘锐度,同时有效地去除图像噪声。为了保持图像的特征和细节,文章利用图像的方向导数局部地调整正则系数.理论分析和实验结果皆表明此文算法的有效性。  相似文献   

4.
针对一幅模糊图像和一幅噪声图像的图像修复问题,提出了一种结合TV-L~1模型与TV模型的新交替修复算法.该算法首先利用TV-L~1模型对噪声图像进行去噪;然后利用TV模型,把去噪结果作为迭代初始值,对于模糊图像去模糊;最后,把去模糊结果作为迭代初始值,再利用TV-L~1模型对噪声图像进行去噪……,如此交替进行.实验效果表明,该新算法不仅继承了TV-L~1模型与TV模型能保持轮廓和细节的优点,同时也有效地克服了这两种模型会降低对比度和出现"重影"的缺点.  相似文献   

5.
自适应Shearlet域约束的全变差图像去噪   总被引:1,自引:0,他引:1  
采用传统非线性扩散图像去噪方法得到的图像边缘模糊,为此,提出一种有限自适应Shearlet域约束的极小化变分图像去噪算法。通过自适应阈值收缩Shearlet系数,保留图像纹理与边缘空间,利用全变差极小化平滑空间,建立全变差正则化的能量泛函去噪模型。实验结果表明,该算法能在减少图像噪声的同时,保留图像边缘信息,对含有丰富纹理结构的图像,去噪性能更佳。  相似文献   

6.
传统视频超分辨率重建算法在去除噪声的同时,很难有效保持图像边缘细节信息。针对该问题,构建了一种结合多阶导数数据项和自适应正则化项的视频超分辨率重建算法。在正则化重建模型的基础上,该算法对数据项进行改进,引入能更好描述噪声统计特性的噪声多阶导数,并利用去噪效果较好的全变分(TV)和非局部均值(NLM)正则化项对视频超分辨率重建过程进行约束。此外,为了更好地保持图像细节信息,采用区域空间自适应曲率差分算法提取结构信息,从而对正则化系数进行自适应加权。实验结果表明:在噪声方差为3时,与核回归算法和聚类算法相比,该算法重建视频主观效果边缘更加锐化,局部结构更加正确、清晰;重建视频的均方误差(MSE)平均下降幅度分别为25.75%和22.50%;峰值信噪比(PSNR)分别平均提升了1.35 dB和1.14 dB。所提算法能够在去除噪声的同时有效保持图像的细节特征。  相似文献   

7.
建立了广义全变分(total variation,TV)模型,分析正则项在复原算法中的作用.分别从图像的平坦区域和边缘区域入手,在平坦区域图像各向同性扩散,在边缘区域则要满足各向异性扩散,从理论上对两种情形下的扩散做深入分析,推导出广义TV模型满足的一些条件,为了防止高噪声情形下复原模型失效以及克服方块效应,在正则项中引入了 Contourlet收缩,它是一种多分辨的、局域的、多方向的更稀疏的图像表示方法,正则项中引入的Contourlet收缩具有去噪和提取图像重要信息的作用,Contourlet收缩与广义TV正则化相结合,兼顾了图像的光滑性和边缘保持,特别是在图像严重模糊、噪声越多的情形下,更加体现了这种算法比改进的TV模型有效.  相似文献   

8.
针对低照度图像具有低对比度、强噪声等问题,提出了一种自适应的低照度图像增强变分模型。根据亮度分量初步估计低照度图像取反之后图像的透射率,并利用Retinex算法进行细化,以丰富图像的细节。为了抑制噪声的放大且保持边缘信息,根据亮通道先验原理和局部方差构建权重,自适应地调节正则化参数。采用交替迭代最优化方法求解包含透射率和恢复图像的能量泛函得到最优解。实验结果表明,该模型可有效地增强低照度图像,且能保留更多的图像细节、抑制噪声放大,相比于[l1]范数正则化方法,图像尺寸越大,该模型计算效率越高,计算时间优势越明显。  相似文献   

9.
针对结构化照明显微成像系统的超分辨图像重构算法存在边界振铃效应、噪声免疫性差的问题,提出了一种基于L1范数的全变分正则化超分辨图像重构算法(简称L1/TV重构算法)。从结构化显微成像模型入手,分析了传统算法的设计原理和局限性;论述了L1/TV重构算法的原理,采用L1范数对重构图像保真度进行约束,并利用全变分正则化有效克服了重构过程的病态性,保护了重构图像边缘。对比研究传统重构算法和L1/TV重构算法的性能。实验结果表明:L1/TV重构算法具有更强的抗噪声干扰能力,重构图像空间分辨率更高。  相似文献   

10.
小波构造变正则参数变分模型在带噪图像恢复中的应用   总被引:2,自引:2,他引:2  
在利用正则化方法构造变分模型进行图像去噪时,其正则参数往往选择为恒定值.文中利用小波分解的层次性和带噪图像中噪声所具有的时频特点,构造出变正则参数的变分模型.在不同的小波分解层,通过选择不同的正则参数从而达到自适应去噪的目的.  相似文献   

11.
传统的总变差(TV)最小算法是一种基于压缩感知(CS)的经典迭代重建算法,可以从稀疏数据或含噪数据中高精度地重建图像。然而,TV算法在重建分段常数特征不明显的图像时可能会引入块状伪影,通过研究得出,在图像去噪中使用高阶总变差(HOTV)能有效压制TV模型引入的块状伪影。鉴于此,提出了一种HOTV图像重建模型及其Chambolle-Pock(CP)求解算法。具体来说,以二阶梯度构建二阶TV范数,进而设计了一种数据保真约束的二阶TV最小重建模型,并推导出了相应的CP算法。在理想数据投影和含噪数据投影条件下,分别采用基于波浪背景的Shepp-Logan模体、灰度渐变模体以及真实CT图像模体进行重建实验,并进行定性和定量分析。理想数据投影的重建结果表明,和传统TV算法相比,HOTV算法能有效压制块状伪影并提高重建精度。含噪数据投影的重建结果表明,HOTV算法和TV算法均有良好的抗噪能力,但HOTV算法的保边性能更好且抗噪性更强。在重建分段常数特征不明显而灰度波动特征明显的图像时,HOTV算法是一种比TV算法更优的重建算法。所提HOTV算法可以被推广到各种扫描模式下的CT重建及其他成像模态中。  相似文献   

12.
彩色纹理图像恢复的非局部TV模型   总被引:1,自引:0,他引:1       下载免费PDF全文
基于局部算子不同形式的TV(total variation)模型用于彩色图像的噪声去除时往往存在边缘模糊、纹理模糊、阶梯效应、Mosaic效应等问题.因此,将传统局部的Tikhonov模型、TV模型、MTV(multi-channel total variation)模型、CTV(color total variation)模型推广到基于非局部算子概念的NL-CT(non-local color Tikhonov)模型、NL-LTV(non-local layered total variation)模型、NL-MTV(non-local multi-channel total variation)模型、NL-CTV(non-local color total variation)模型,并通过引入辅助变量和Bregman迭代参数设计了相应的快速Split Bregman算法.实验结果表明,所提出的非局部TV模型都很好地解决了局部模型中出现的问题,在纹理、边缘、光滑度等特征保持方面取得了良好特性,其中NL-CTV处理效果最好,但是计算效率较低.  相似文献   

13.
鉴于有监督神经网络降噪模型的数据依赖缺陷,提出了一种基于无监督深度生成(UDIG)的盲降噪模型。首先,利用噪声水平评估(NLE)算法测定给定噪声图像中的噪声水平值并输入到主流FFDNet降噪模型中,所得到降噪后的图像(称为初步降噪图像)作为UDIG降噪模型的输入。其次,选用编码器—解码器架构作为UDIG模型的骨干网络并用UDIG模型的输出图像(即生成图像)分别与初步降噪图像、噪声图像之间的均方误差之和构建混合loss函数;再次,以loss最小化为优化目标,通过随机梯度下降(SGD)网络训练算法调整网络模型的参数值从而获得一系列生成图像;最后,当残差图像(噪声图像与生成图像之间)的标准差逼近之前NLE算法所测定的噪声水平估计值时及时终止网络迭代训练过程,从而确保生成图像(作为降噪后图像)的图像质量最佳。实验结果表明:与现有的主流降噪模型(算法)相比,UDIG降噪模型在降噪效果上具有显著优势。  相似文献   

14.
目的 全变分(TV)去噪模型具有较好的去噪效果,但对于图像的弱边缘和纹理细节的保持不够理想。自适应分数阶全变分(AFTV)模型根据图像局部信息,区分图像的纹理区域和非纹理区域,自适应计算投影算法中的软阈值,可较好地保持图像的弱边缘和纹理细节,但该方法当噪声增大时“阶梯”效应比较明显,弱边缘和纹理细节保持效果不够理想。针对该问题,提出一种改进的分数阶全变分去噪算法。方法 该算法在计算残差图像时,用分数阶全变分模型替代整数一阶全变分模型,并根据较精确的残差图像的局部方差区分图像纹理区域和平坦区域,使保真项参数的自适应选取更加合理,提高了算法的去噪性能。结果 针对3种不同类型的噪声图像,将本文模型与TV模型和AFTV模型进行对比实验,并采用峰值信噪比(PSNR)和结构相似性(SSIM)评定去噪效果和纹理保持能力。对于高斯噪声图像,本文算法在PSNR方面比TV模型和AFTV模型分别可平均提高2.72 dB和1.38 dB,SSIM分别可平均提高0.047和0.020。对于椒盐噪声图像,本文算法结合中值滤波算法在PSNR和SSIM方面比传统中值滤波算法分别可平均提高1.308 dB和0.011。对于泊松噪声图像,本文算法在PSNR、SSIM方面与AFTV较接近,比TV分别可提高1.59 dB和0.005。结论 通过对添加不同类型的噪声图像进行实验,结果表明提出的算法在去噪性能上与TV和AFTV相比均有较大提高,尤其对于噪声较大的图像效果更为显著,在去噪效率上与AFTV的时间复杂度相当,时耗接近略有降低。且本文算法普适性较好,能有效去除多种典型类型的噪声。  相似文献   

15.
基于局部算子的不同形式的TV模型用于彩色图像噪声去除时往往存在边缘模糊、纹理模糊、阶梯效应、Mosaic效应等问题。本文基于非局部算子概念将传统的Tikhonov模型、TV模型、MTV模型、CTV模型推广到NL-CT模型、NL-LTV模型、NL-MTV模型、NL-CTV模型,并通过引入辅助变量和Bregman迭代参数设计了相应的快速Split Bregman算法。实验表明,所提出的非局部TV模型在纹理、边缘、光滑度等特征保持方面具有良好特性,且差异不大,但不同模型的计算效率存在较大差异。  相似文献   

16.
基于数码相机的图象数字变焦(视图插补)算法   总被引:2,自引:0,他引:2       下载免费PDF全文
相邻象素之间的相关是图象数字变焦(视频插补)、图象平滑及滤波处理的理论基础。为此以图象的相关系数为量化参数,讨论了象素空间和灰度相关性;定义了象素的空间距离和灰度距离,并在此基础上构造了基于空间相关和灰度相关领域变焦(插值)算子,给出了该算子的离散算法、软件实现和仿真。仿真结果表明:该算法最大限度地减小了图象的几何失真和色彩失真,可满足数码相机数字变焦的视觉要求。本算法已应用于i.Photo系列数码相机。  相似文献   

17.
相邻像素之间的相关是图象数字变焦(视频插补)、图象平滑及滤波处理的理论基础。文章以图象的相关系数为量化参数,讨论了像素的空间和灰度相关性;定义了像素的空间距离和灰度距离,在此基础上构造了基于空间相关和灰度相关的邻域变焦(插值)算子,给出了该算子的离散算法、软件实现和仿真。仿真结果表明:该算法最大限度地减小了图象的几何失真和色彩失真,满足数码相机数字变焦的视觉要求。该算法已应用于eBoat系列数码相机。  相似文献   

18.
现有雾天图像处理方法能够实现较好的去雾效果,但会丢失部分细节并产生噪声放大的问题。将暗原色先验与基于TV、BH规则项的变分模型相结合,提出一种新的变分去雾模型H-TVBH。根据暗原色先验原理估计图像的初始透射率,采用四叉树分解估计大气光值,将初始透射率和大气光值输入H-TVBH模型中,采用分裂Bregman算法和快速傅立叶变换并引入辅助变量和Bregman迭代参数,通过交替迭代求得优化后的透射率和去雾图像。实验结果表明,H-TVBH在增强图像对比度的同时能够有效抑制图像中的噪声,保留图像的纹理细节,使去雾图像更加清晰自然。  相似文献   

19.
谢勤岚  桑农 《计算机工程》2009,35(8):239-240
提出一种基于多帧低分辨图像融合的超分辨率图像恢复算法。将多帧低分辨图像融合成一帧与高分辨图像分辨率一致的图像,并对其中一幅低分辨图像插值,形成迭代恢复算法的初始值,在此基础上以Tikhonov正则化方法求解原始高分辨图像。分析和实验结果表明,该算法具有良好的鲁棒性,并且计算速度较快。  相似文献   

20.
提出一种基于Hilbert扫描与弹性模型相结合的图像缩放新算法。首先将2维形式的图像通过Hilbert扫描转化为1维的灰度序列,然后将所得的灰度序列想象成一根橡皮筋,通过橡皮筋的伸缩实现图像的放大与缩小。实验结果表明,该方法操作简单,效果比较理想。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号