共查询到19条相似文献,搜索用时 62 毫秒
1.
针对全变分(TV)模型在去除图像噪声时容易产生阶梯效应的缺点,将二阶总广义变分(TGV)作为正则项应用于全变分模型中可以有效地去除阶梯效应,并且还能够更好地保持图像边缘纹理结构;利用非局部均值滤波算法的思想来构造非局部微分算子,将非局部微分算子应用于总广义变分模型中,综合提出了一种基于非局部总广义变分的图像去噪新模型。新模型充分利用了图像的全局信息进行去噪。实验结果显示了该模型的有效性和优越性。 相似文献
2.
3.
基于总变分的鲁棒的超分辨率重建算法 总被引:1,自引:0,他引:1
提出了一种基于L1范数和总变分规整化的超分辨率图像重建算法.采用L1范数对重建图像保真度进行约束,降低了传统算法由于模型估计不精确所带来的重建误差.利用总变分规整化克服重建问题的病态性,有效地保护了图像的边缘.运用该算法对模拟低分辨率图像序列进行重建,分别从视觉效果和峰值信噪比(PSNR)两方面与基于L2范数和Tikhonov规整化的超分辨率重建结果进行比较,实验结果验证了该算法具有更强的鲁棒性和边缘保持能力. 相似文献
4.
超分辨率图像重建是指从一组降晰的低分辨率图像重建出一帧清晰的高分辨率图像的过程。建立了超分辨率图像重建的数学模型,估计出场景在观测图像中的运动参数,选择总变分规整化克服问题的病态性得到重建结果。运用算法对模拟和实际图像序列进行重建,分别从主观效果和客观衡量标准两方面与基于Tikhonov规整化的超分辨率重建结果进行比较,结果表明该算法具有更好的处理效果。 相似文献
6.
针对序列图像超分辨率重建非局部均值(Non-Local Means, NLM)算法重建结果图像边缘区域过平滑的问题,提出了一种局部参数自适应改进方法,首先将整幅图像划分为图像子块,然后根据图像子块平均像素信息计算出其对应的滤波参数, 这样有助于减少因整幅图像使用统一滤波参数而导致的某些高频信息的丢失。实验结果表明,和经典NLM重构算法相比,改进算法重建出的结果图像的轮廓边缘更清晰,字符辨识度更高;在算法实现方面,图像重构程序在CPU/GPU平台上实现,使用GPU并行化加速的程序比单CPU运算的程序,加速比最高可达到30倍,显著缩短重构程序计算时间,提高了该图像超分辨率重建算法应用于实际场所的可能性。 相似文献
7.
8.
针对基于总变分最小化的图像修复模型容易造成阶梯效应及假边缘的问题,提出了基于对数函数的非局部总变分图像修复模型。新的总变分能量泛函的被积函数为一个关于梯度幅度的对数函数。在总变分模型与各向异性扩散模型的偏微分方程框架下,首先,从理论上证明了对数总变分模型满足良好扩散所需的所有性质,并对其局部扩散行为进行了理论分析,证明了其在等照度方向及梯度方向扩散的良好特性。其次,为考虑图像块的相似性及避免局部模糊,采用非局部对数总变分进行数值实现。实验结果表明,与经典的总变分修复模型相比,基于对数函数的非局部总变分模型对图像修复的效果良好,避免了局部模糊,且在图像平滑区域能较好地抑制阶梯效应;与基于样例的修复模型相比,所提模型对纹理图像能获得更为自然的修复效果。实验结果表明,与三类总变分模型和基于样例的修复模型相比,所提模型的性能最优,且与各对比模型的平均结果(图2、图3、图4)相比,其结构相似性指数(SSIM)分别提高了0.065、0.022和0.051,峰值信噪比(PSNR)分别提高了5.94 dB、4.00 dB和6.22 dB。含噪图像的修复结果表明所提模型具有较好的鲁棒性,对含噪声的图像也能获得良好的修复效果。 相似文献
9.
单帧图像超分辨率重建是指利用一幅低分辨率图像,通过相应的算法来获取一幅高分辨率图像的技术。提出了一种基于 非负邻域嵌入和 非局部正则化 的单帧图像超分辨率重建算法,以弥补传统邻域嵌入算法的不足。在训练阶段,首先对低分辨率图像预放大2倍,以保证在放大倍数较大时,高、低分辨率图像块之间的邻域关系也能得到较好的保持;在重建阶段,使用非负邻域嵌入来有效地解决近邻数的选取问题;最后利用图像块的非局部相似性构造非局部正则项对重建结果进行修正。实验结果表明,相对于传统算法,本方法的重建结果纹理丰富、边缘清晰。 相似文献
10.
随着卷积神经网络的发展,视频超分辨率算法取得了显著的成功。因为帧与帧之间的依赖关系比较复杂,所以传统方法缺乏对复杂的依赖关系进行建模的能力,难以对视频超分辨率重建的过程进行精确地运动估计和补偿。因此提出一个基于光流残差的重建网络,在低分辨率空间使用密集残差网络得到相邻视频帧的互补信息,通过金字塔的结构来预测高分辨率视频帧的光流,通过亚像素卷积层将低分辨率的视频帧变成高分辨率视频帧,并将高分辨率的视频帧与预测的高分辨率光流进行运动补偿,将其输入到超分辨率融合网络来得到更好的效果,提出新的损失函数训练网络,能够更好地对网络进行约束。在公开数据集上的实验结果表明,重建效果在峰值信噪比、结构相似度、主观视觉的效果上均有提升。 相似文献
11.
结合非局部均值的快速FCM算法分割MR图像研究 总被引:1,自引:0,他引:1
针对FCM算法分割医学MR图像存在的运算速度慢、对初始值敏感以及难以处理MR图像中固有Rician噪声等缺陷,提出了一种结合非局部均值的快速FCM算法。该算法的核心是首先针对MR图像中存在的Rician噪声,利用非局部均值算法对图像进行去噪处理,消除噪声对分割结果的影响;然后根据所提出的新的自动获取聚类中心的规则得到初始聚类中心;最后将得到的聚类中心作为快速FCM算法的初始聚类中心用于去噪后的图像分割,解决了随机选择初始聚类中心造成的搜索速度慢和容易陷入局部极值的问题。实验表明,该算法能够快速有效地分割图像,并且具有较好的抗噪能力。 相似文献
12.
13.
为解决监控视频分辨率不足的问题,在视频流体模型的基础上,提出一种图像超分辨率重建方法。视频流体模型记录了视频对象的整体区域,及区域内各像素的时域对应关系,利用流体区域在不同时刻的像素值进行滤波和拼接,达到去噪、扩展分辨率的目的,基于等色线构建视频流体模型,使用视频流体模型实现去噪,以起始帧作为参考图像,并依次在各帧中选择补入流纹,根据补入流纹的相邻流纹计算补入流纹在初始帧的位置,如果所得位置非整数,对参考图像插值拉伸,采用补入流纹中的值代替相关坐标的像素值。实验结果表明,将添加噪声的CIF格式视频重建到2CIF格式,该方法的重建结果比最大后验估计与投影方法、梯度投影等方法的峰值信噪比提高1 dB~4 dB。 相似文献
14.
从退化的低分辨率图像重建得到高分辨率图像的本质是一病态逆问题,针对该问题,通过添加正则项进行处理。在使用传统的全变分(TV)的基础上,添加了分数阶全变分(FOTV)作为另一正则项来约束解空间。分数阶全变分正则项的使用可以更好地重建图像的细节纹理信息,弥补了全变分算子在平滑区域易出现阶梯效应的缺陷。利用交替方向乘子(ADMM)算法将问题划分为子问题,将全变分和分数阶全变分算子作为循环矩阵,通过傅里叶变换将其对角化,降低了计算的复杂程度。实验结果表明,与已有的方法相比,所提方法有效地避免了阶梯效应的产生,较好地保持了细节信息,并且具有更好的峰值信噪比(PSNR)和结构相似度(SSIM)。 相似文献
15.
16.
17.
为了对视频进行更有效的压缩,首先建立起一个从原始图像到压缩视频的成像模型,然后在此模型基础上运用Bayesian估计理论,在最大后验概率准则下表述该问题;最后通过综合使用CCD(cyclic coordinate decent)和SA(successive approximations)等方法从理论上给出了压缩视频超分辨率重构问题的一般解决方法,同时针对成像过程中原始高分辨率图像的降质函数一般为未知的情况,提出了一种基于EM(expectation-maximization)算法的降质函数的确定方法.实验结果表明,该算法不仅在峰值信噪比和重构效果方面对压缩视频有较大提高和明显改善,而且该算法易于扩展,具有广泛的应用范围. 相似文献
18.
Laurence Likforman-Sulem Jérôme Darbon Elisa H. Barney Smith 《Image and vision computing》2011,29(5):351-363
This paper proposes a novel method for document enhancement which combines two recent powerful noise-reduction steps. The first step is based on the Total Variation framework. It flattens background grey-levels and produces an intermediate image where background noise is considerably reduced. This image is used as a mask to produce an image with a cleaner background while keeping character details. The second step is applied to the cleaner image and consists of a filter based on Non-local Means: character edges are smoothed by searching for similar patch images in pixel neighborhoods. The document images to be enhanced are real historical printed documents from several periods which include several defects in their background and on character edges. These defects result from scanning, paper aging and bleed-through. The proposed method enhances document images by combining the Total Variation and the Non-local Means techniques in order to improve OCR recognition. The method is shown to be more powerful than when these techniques are used alone and than other enhancement methods. 相似文献
19.
In a recent paper Boykov et al. (LNCS, Vol. 3953, pp. 409–422, 2006) propose an approach for computing curve and surface evolution using a variational approach and the geo-cuts method of Boykov and Kolmogorov (International conference on computer vision, pp. 26–33, 2003). We recall in this paper how this is related to well-known approaches for mean curvature motion, introduced by Almgren et al.
(SIAM Journal on Control and Optimization 31(2):387–438, 1993) and Luckhaus and Sturzenhecker (Calculus of Variations and Partial Differential Equations 3(2):253–271, 1995), and show how the corresponding problems can be solved with sub-pixel accuracy using Parametric Maximum Flow techniques. This provides interesting algorithms for computing crystalline curvature motion,
possibly with a forcing term.
A. Chambolle’s research supported by ANR project “MICA”, grant ANR-08-BLAN-0082.
J. Darbon’s research supported by ONR grant N000140710810. 相似文献