首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 640 毫秒
1.
目的 建立准确的数学模型并获得有效的求解算法是图像恢复面临的“两难”问题,非光滑型能量泛函有利于准确描述图像的特征,但很难获得有效的求解算法。提出一种拟合项和正则项都是非光滑型能量泛函正则化模型,并推导出有效的交替迭代算法。方法 首先,对系统和椒盐噪声模糊的图像,在紧框架域,用L1范数描述拟合项,用加权有界变差函数半范数描述正则项。其次,通过引入辅助变量,将图像恢复正则化模型转化为增广拉格朗日模型。再次,利用变量分裂技术,将转化模型分解为两个子问题。最后,利用Fenchel变换和不动点迭代原理,将子问题分别转化为对偶迭代子问题和松弛迭代子问题,并证明迭代子问题的收敛性。结果 针对图像恢复模型的非光滑性,提出一种交替迭代算法。仿真实验表明,相对传统算法,本文算法能有效地恢复系统和椒盐噪声模糊的图像,提高峰值信噪比大约0.51分贝。结论 该正则化模型能有效地恢复图像的边缘,取得较高的峰值信噪比和结构相似测度,具有较快的收敛速度,适用于恢复椒盐噪声模糊的图像。  相似文献   

2.
目的 有界变差函数容易造成恢复图像纹理信息丢失,并产生虚假边缘,为克服此缺点,在紧框架域,提出一种保护图像纹理信息,抑制虚假边缘产生的混合正则化模型,并推导出交替方向迭代乘子算法。方法 首先,在紧框架域,对系统和泊松噪声模糊的图像,用Kullback-Leibler函数作为拟合项,用有界变差函数半范数和L1范数组成混合正则项,二者加权组成能量泛函正则化模型。其次,分析混合正则化模型解的存在性和唯一性。再次,通过引入辅助变量,利用交替方向迭代乘子算法,将混合正则化模型最小化问题分解为4个容易处理的子问题。最后,子问题交替迭代形成有效的优化算法。结果 紧框架域混合正则化模型有效地克服有界变差函数容易导致纹理信息丢失、产生虚假边缘的不足。相对经典算法,本文算法提高峰值信噪比大约0.10.7 dB。结论 与其他图像恢复正则化模型相比,本文算法有利于保护图像的纹理,抑制虚假边缘,取得较高的峰值信噪比和结构相似测度,适用于恢复系统和泊松噪声模糊的图像。  相似文献   

3.
目的 在图像的获取过程中,成像设备与拍摄场景发生了相对位移,导致获取的实际图像存在信息丢失、模糊退化的现象,这极大地影响了图像的质量和人们的视觉体验,也影响了图像的后续处理。盲去卷积旨在从观测图像中估计模糊核并获得清晰图像,为此提出了一种基于强边缘的运动图像盲去模糊算法。方法 结合图像梯度稀疏性,采用自适应l0范数约束待估计图像梯度的强边缘;针对模糊核稀疏性和连续性,以l0-l2范数分别约束模糊核的像素和梯度,同时把模糊核归一化先验作为正则项引入模型中,以强边缘指导模糊核估计。在去模糊阶段,结合全变分与超拉普拉斯正则化方法的优点,将两种方法复原的图像取平均,以减轻复原图像中的振铃效应,同时保留更多的图像细节。结果 为了检验本文算法的有效性,对Levin测试集和实际拍摄的模糊图像分别进行仿真,并同现有算法进行比较。Levin测试集上的实验结果表明,提出的盲反卷积成功率为100%且在对比算法中具有最高PSNR;实际彩色图像的盲反卷积实验表明,相比于其他算法,本文算法获得的模糊核具有更准确的支撑和较少的噪点,获得的清晰图像具有较优的视觉效果。结论 该方法从定量和定性比较上都体现了较好的去运动模糊能力,可适用于遥感、医学等领域。  相似文献   

4.
目的 随着Web2.0技术的进步,以用户生成内容为中心的社交网站蓬勃发展,也使得基于图像标签的图像检索技术越来越重要。但是,由于用户标注时的随意性和个性化,导致用户提交的图像标签不够完备,降低了图像检索的准确性。方法 针对这一问题,提出一种正则化的非负矩阵分解方法来丰富图像欠完备的标签,提高图像标签的完备性。利用非负矩阵分解的方法将原始的标签-图像矩阵投影到潜在的低秩空间里消除噪声,同时利用图像的类内视觉离散度作为正则化项提高消除噪声、丰富标签的效果。结果 利用从社交网站Flickr上下载的大量社交图像进行对比实验,验证了本文方法对丰富图像标签的有效性。通过对比目前流行的优化算法,本文算法获得较高的性能提升,算法平均准确度提高了12.3%。结论 将图像类内视觉离散度作为正则化项的非负矩阵分解算法,能较好地丰富社交图像的标签,解决网络图像标签的欠完备问题。  相似文献   

5.
能量泛函正则化模型在图像恢复中的应用分析   总被引:2,自引:2,他引:0       下载免费PDF全文
目的 能量泛函正则化模型是图像恢复研究的热点。为使更多工程领域的研究者对正则化技术进行探索和应用,推动不适定问题的研究,对能量泛函正则化模型的进展进行了分析。方法 首先建立图像整体坐标与局部坐标的关系,分析图像恢复正则化模型的基本原理,给出并证明正则化模型各向同性与各向异性扩散定理。然后结合函数空间、图像分解和紧框架,评述能量泛函正则化模型国内外发展现状,并对正则化模型解的适定性进行分析。结果 推导出图像恢复正则化模型扩散基本原理,给出正则化模型通用表达式,讨论正则化模型存在的问题及未来的发展方向。结论 正则化技术在解决图像恢复、修复等反问题起着重要作用。目前,国内外学者对该问题的研究取得了一些成果,但许多理论问题有待进一步研究。  相似文献   

6.
目的 针对传统总变分方法在去除泊松噪声时容易出现“阶梯效应”和图像边缘模糊的问题,提出了一种基于分数阶变分的自适应去泊松噪声新模型。方法 首先新模型在分析了泊松噪声分布特点的基础上导出了非凸自适应正则项,它能够根据图像不同区域的特点自适应地调节正则项系数,以达到保持图像边缘的目的。然后,新模型利用分数阶离散微分向量能够结合更多图像信息的特点,将正则项中的一阶离散微分向量替换为分数阶离散微分向量,以此来达到抑制“阶梯效应”的目的。对于新模型的求解,结合交替迭代法和加权原始-对偶法提出了一种高效的数值解法。结果 新模型明显优于传统总变分去泊松噪声模型,在有效抑制“阶梯效应”的同时图像边缘也得到了较好地保护,以经典的Peppers图片为例,新模型相比于传统模型,峰值信噪比(PSNR)由28.98 dB提高到了30.24 dB,图像结构相似度(SSIM)由0.77提高到了0.87。另外,所提的数值解法具有收敛速度快、复杂度低的特点,收敛时间从偏微分方程、Chambolle投影等传统数值解法的0.5 s与0.1 s缩短至0.056 s。结论 实验结果表明,所提模型与数值解法的可行性,模型与数值解法在主要客观评价指标和图像视觉效果方面均优于传统的变分去泊松噪声模型,且模型与数值解法具有较好的普适性。但是模型中分数阶的阶次选取有待进一步优化。  相似文献   

7.
目的 半张量积压缩感知模型是一种可以有效降低压缩感知过程中随机观测矩阵所占存储空间的新方法,利用该模型可以成倍降低观测矩阵所需的存储空间。为寻求基于该模型新的重构方法,同时提升降维后观测矩阵的重构性能,提出一种采用光滑高斯函数拟合l0-范数方法进行重构。方法 构建降维随机观测矩阵,对原始信号进行采样;构建可微且期望值为零的光滑高斯函数来拟合不连续的l0-范数,采用最速下降法进行重构,最终得到稀疏信号的估计值。结果 实验分别采用1维稀疏信号和2维图像信号进行测试,并从重构概率、收敛速度、重构信号的峰值信噪比等角度进行了测试和比较。验证结果表明,本文所述算法的重构概率、收敛速度较该模型的lq-范数(0 <q <1)方法有一定的提升,且当观测矩阵大小降低为通常的1/64,甚至1/256时,仍能保持较高的重构性能。结论 本文所述的重构算法,能在更大程度上降低观测矩阵的大小,同时基本保持重构的精度。  相似文献   

8.
目的 为了提高运动模糊图像盲复原清晰度,提出一种混合特性正则化约束的运动模糊盲复原算法。方法 首先利用基于局部加权全变差的结构提取算法提取显著边缘,降低了噪声对边缘提取的影响。然后改进模糊核模型的平滑与保真正则项,在保证精确估计的同时,增强了模糊核的抗噪性能。最后改进梯度拟合策略,并加入保边正则项,使图像梯度更加符合重尾分布特性,且保证了边缘细节。结果 本文通过两组实验验证改进模型与所提算法的优越性。实验1以模拟运动模糊图像作为实验对象,通过对比分析5种组合步骤算法的复原效果,验证了本文改进模糊核模型与改进复原图像模型的鲁棒性较强。实验结果表明,本文改进模型复原图像的边缘细节更加清晰自然,评价指标明显提升。实验2以小型无人机真实运动模糊图像为实验对象,通过与传统算法进行对比,对比分析了所提算法的鲁棒性与实用性。实验结果表明,本文算法复原图像的标准差提升约11.4%,平均梯度提升约30.1%,信息熵提升约2.2%,且具有较好的主观视觉效果。结论 针对运动模糊图像盲复原,通过理论分析和实验验证,说明了本文改进模型的优越性,所提算法的复原效果较好。  相似文献   

9.
图嵌入正则化投影非负矩阵分解人脸图像特征提取   总被引:2,自引:2,他引:0       下载免费PDF全文
目的 针对投影非负矩阵分解(PNMF)不能揭示数据空间的流形几何结构和判别信息的缺点,提出一种图嵌入正则化投影非负矩阵分解(GEPNMF)人脸图像特征提取方法。 方法 首先构建了描述数据空间的流形几何结构和类间分离度的两个近邻图,然后采用它们的拉普拉斯矩阵设计了一个图嵌入正则项,并将该图嵌入正则项与PNMF的目标函数融合以建立GEPNMF的目标函数。由于引入了图嵌入正则项,GEPNMF求得的子空间能在保持数据空间的流形几何结构的同时,类间间距最大。此外,在GEPNMF目标函数中引入了一个正交正则项,以确保GEPNMF子空间基向量具有数据局部表示能力。最后,对求解GEPNMF目标函数的累乘更新规则(MUR)进行了详细推导,并从理论上证明了其收敛性。结果 在ORL、Yale和CMU PIE人脸图像数据库上分别进行了人脸识别实验,识别率分别达到了94.00%、64.33%和98.58%。结论 实验结果表明,GEPNMF提取的人脸图像特征用于人脸识别时,具有较高的识别率。  相似文献   

10.
非局部的变分正则化图像放大算法   总被引:2,自引:0,他引:2  
针对Chambolle图像放大模型存在分块效应,提出一种非局部的变分正则化图像放大算法。该算法的思想是构造一个适用于图像放大的变分泛函,该泛函由正则项和数据保真项构成,其中图像的正则项是用非局部全变差范数进行估计,进而用迭代投影方法求泛函的最小解,即为放大后的图像。与传统的图像插值方法不同,该算法是用变分的思想进行图像放大,非局部全变差的引入更使得该算法不只是利用图像的单个像素点,或某一邻域内的灰度和梯度信息进行放大,而是更大范围地利用了图像本身的信息,这将更有效地保留图像特征,避免了Chambolle方法在图像放大时出现的分块效应。实验结果表明,该算法能更好地保留边缘和细节信息,放大图像的清晰度比Chambolle图像放大方法和样条插值的效果要好。  相似文献   

11.
超分辨率图像复原是当今一个重要的热门研究课题. 本文提出了一种基于全变差模型的超分辨率复原快速解耦算法. 利用半二次正则化思想, 提出了一个新的解耦TV (Total variation)模型. 利用交替最小化方法和线性空间不变模糊的性质将上采样融合、去模糊和去噪分步进行. 算法中对上采样融合采用非迭代的直接计算方法; 去模糊过程采用基于变换的预处理共轭梯度迭代算法, 而去噪过程采用了子空间投影方法. 本文算法降低了算法复杂度; 超分辨率重建图像在去除噪声的同时, 不仅能够保证图像平坦区域的保真度, 较好地抑制阶梯效应的产生, 而且能够保持图像中边缘等重要几何结构的清晰度.  相似文献   

12.
基于正则化约束的遥感图像多尺度去模糊   总被引:1,自引:0,他引:1       下载免费PDF全文
目的遥感成像过程中的图像降质严重影响了高分辨率成像与高精度探测,为了改善遥感图像质量,提出了基于正则化约束的遥感图像多尺度去模糊方法。方法首先利用双边滤波器和冲击滤波对遥感图像进行预处理,然后结合遥感图像模糊核的稀疏特性,使用正则化方法迭代求解模糊核最优解,最后利用基于梯度稀疏的非盲反卷积方法得到去模糊结果。此外,针对图像模糊程度较严重的情况,分析了尺度信息对去模糊结果的影响,提出了多尺度迭代优化方法。结果采用本文方法对大量遥感图像进行去模糊,实验结果表明该方法能有效地去除遥感成像产生的模糊,在保持图像边缘和细节的同时,可有效抑制振铃效应。相比其他方法,本文方法恢复图像的边缘强度平均提高28.7%,对比度平均提高17.6%。结论提出一种正则化约束的遥感图像多尺度去模糊方法,主观视觉感受和客观评价指标都表明该方法可以有效提升遥感图像质量。  相似文献   

13.
郭黎  廖宇  李敏  袁海林  李军 《计算机应用》2017,37(8):2334-2342
针对常见去噪方法容易造成特定区域过度平滑、奇异结构残余噪声以及产生阶梯效应和对比度损失等问题,提出一种自适应非局部数据保真项和双边总变分的图像去噪模型,建立了自适应非局部正则化能量泛函和相应的变分框架。首先,对噪声图像利用自适应权值的非局部均值求得数据拟合项;其次,引入双边总变分正则化项,利用正则化系数来适度平衡数据拟合项和正则化项的影响;最后,通过能量函数最小化对不同的噪声统计快速求得最优解,从而达到降低残余噪声并纠正过度平滑的目的。通过理论分析和针对模拟噪声图像与真实噪声图像的实验结果表明,所提出的图像去噪模型能够较好地处理具有不同统计特性的图像噪声,与自适应非局部均值滤波去噪相比,所提算法的峰值信噪比(PSNR)值最多可以得到0.6 dB的改善;与全变分正则化图像去噪算法比较,所提算法的主观视觉效果明显更好,在去噪的同时图像纹理和边缘等细节信息保护得更好,PSNR值最多可以提高10 dB,而多尺度结构相似性度(MS-SSIM)指标可以提升0.3。因此,所提出的图像去噪模型可以在理论上更好地探讨如何合理处理噪声和图像内容本身的高频细节信息,在视频和图像分辨率提升等领域也具有良好的实际应用价值。  相似文献   

14.
Zhuang  Peixian  Huang  Yue  Zeng  Delu  Ding  Xinghao 《Multimedia Tools and Applications》2017,76(22):23607-23625

Non-blind deconvolution has been a long-standing challenge of both image structures preservation and blur and noise removal. However, most existing methods conduct the direct deconvolution on the degraded image, and overlook the difference between low-frequency and high-frequency of the image. Based on the observation that high-frequency (e.g., edges and structures) is more important than low-frequency in image deblurring, we present a novel method for non-blind deconvolution by incorporating the ? 1 -norm fidelity of image high-frequency. Firstly, the ? 1 -norm fidelity of image high-frequency is proposed in the overall objective function for image structures preservation and noise suppression, and then alternating minimization iterative method is employed to estimate high-frequency components of the image. Secondly, high-frequency estimations are taken as constraint terms, and least square integration and fast fourier transform are efficiently exploited to recover the ideal image. Finally, experimental simulations demonstrate that the proposed algorithm outperforms other state-of-the-art methods in both subjective and objective assessments.

  相似文献   

15.
Image Deblurring in the Presence of Impulsive Noise   总被引:1,自引:0,他引:1  
Consider the problem of image deblurring in the presence of impulsive noise. Standard image deconvolution methods rely on the Gaussian noise model and do not perform well with impulsive noise. The main challenge is to deblur the image, recover its discontinuities and at the same time remove the impulse noise. Median-based approaches are inadequate, because at high noise levels they induce nonlinear distortion that hampers the deblurring process. Distinguishing outliers from edge elements is difficult in current gradient-based edge-preserving restoration methods. The suggested approach integrates and extends the robust statistics, line process (half quadratic) and anisotropic diffusion points of view. We present a unified variational approach to image deblurring and impulse noise removal. The objective functional consists of a fidelity term and a regularizer. Data fidelity is quantified using the robust modified L 1 norm, and elements from the Mumford-Shah functional are used for regularization. We show that the Mumford-Shah regularizer can be viewed as an extended line process. It reflects spatial organization properties of the image edges, that do not appear in the common line process or anisotropic diffusion. This allows to distinguish outliers from edges and leads to superior experimental results.  相似文献   

16.
唐述  万盛道  杨书丽  谢显中  夏明  张旭 《软件学报》2019,30(12):3876-3891
运动模糊核的准确估计是实现单幅运动模糊图像盲复原成功的关键.但是,因为不能准确提取出有利的图像边缘以及简单的正则化约束项的设计,导致现有运动模糊核(motion blur kernel,简称MBK)的估计并不十分准确,存在瑕疵.因此,为了能够估计出准确的运动模糊核,提出了一种基于空间尺度信息的运动模糊核估计方法.首先,为了准确地提取有利的图像边缘,移除有害的图像结构,提出了一种基于图像空间尺度信息的图像平滑模型,实现有利图像边缘的准确快速提取;然后,从运动模糊核的内在特性出发,将空间域的L0范数和梯度域的L2范数结合到一起,提出了一种正则化约束模型,很好地保证了运动模糊核的稀疏平滑特性,并结合之前提取出的有利的图像边缘,共同实现运动模糊核的准确估计;最后,采用一种半二次性分裂的交互式最优化策略对提出的模型进行最优化求解.在客观的评价指标和主观的视觉效果上进行了大量实验,其结果证明所提出的方法能够估计出更准确的MBK和复原出更高质量的去模糊图像.  相似文献   

17.
Non-blind motion deblurring problems are highly ill-posed and so it is quite difficult to find the original sharp and clean image. To handle ill-posedness of the motion deblurring problem, we use nonlocal total variation (abbreviated as TV) regularization approaches. Nonlocal TV can restore periodic textures and local geometric information better than local TV. But, since nonlocal TV requires weighted difference between pixels in the whole image, it demands much more computational resources than local TV. By using the linearization of the fidelity term and the proximal function, our proposed algorithm does not require any inversion of blurring operator and nonlocal operator. Therefore, the proposed algorithm is very efficient for motion deblurring problems. We compare the numerical performance of our proposed algorithm with that of several state-of-the-art algorithms for deblurring problems. Our numerical results show that the proposed method is faster and more robust than state-of-the-art algorithms on motion deblurring problems.  相似文献   

18.
A convergent iterative regularization procedure based on the square of a dual norm is introduced for image restoration models with general (quadratic or non-quadratic) convex fidelity terms. Iterative regularization methods have been previously employed for image deblurring or denoising in the presence of Gaussian noise, which use L 2 (Tadmor et?al. in Multiscale Model. Simul. 2:554?C579, 2004; Osher et?al. in Multiscale Model. Simul. 4:460?C489, 2005; Tadmor et?al. in Commun. Math. Sci. 6(2):281?C307, 2008), and L 1 (He et?al. in J.?Math. Imaging Vis. 26:167?C184, 2005) data fidelity terms, with rigorous convergence results. Recently, Iusem and Resmerita (Set-Valued Var. Anal. 18(1):109?C120, 2010) proposed a proximal point method using inexact Bregman distance for minimizing a convex function defined on a non-reflexive Banach space (e.g. BV(??)), which is the dual of a separable Banach space. Based on this method, we investigate several approaches for image restoration such as image deblurring in the presence of noise or image deblurring via (cartoon+texture) decomposition. We show that the resulting proximal point algorithms approximate stably a true image. For image denoising-deblurring we consider Gaussian, Laplace, and Poisson noise models with the corresponding convex fidelity terms as in the Bayesian approach. We test the behavior of proposed algorithms on synthetic and real images in several numerical experiments and compare the results with other state-of-the-art iterative procedures based on the total variation penalization as well as the corresponding existing one-step gradient descent implementations. The numerical experiments indicate that the iterative procedure yields high quality reconstructions and superior results to those obtained by one-step standard gradient descent, with faster computational time.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号