首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 453 毫秒
1.

In this paper, we propose a new no-reference image quality assessment for JPEG compressed images. In contrast to the most existing approaches, the proposed method considers the compression processes for assessing the blocking effects in the JPEG compressed images. These images have blocking artifacts in high compression ratio. The quantization of the discrete cosine transform (DCT) coefficients is the main issue in JPEG algorithm to trade-off between image quality and compression ratio. When the compression ratio increases, DCT coefficients will be further decreased via quantization. The coarse quantization causes blocking effect in the compressed image. We propose to use the DCT coefficient values to score image quality in terms of blocking artifacts. An image may have uniform and non-uniform blocks, which are respectively associated with the low and high frequency information. Once an image is compressed using JPEG, inherent non-uniform blocks may become uniform due to quantization, whilst inherent uniform blocks stay uniform. In the proposed method for assessing the quality of an image, firstly, inherent non-uniform blocks are distinguished from inherent uniform blocks by using the sharpness map. If the DCT coefficients of the inherent non-uniform blocks are not significant, it indicates that the original block was quantized. Hence, the DCT coefficients of the inherent non-uniform blocks are used to assess the image quality. Experimental results on various image databases represent that the proposed blockiness metric is well correlated with the subjective metric and outperforms the existing metrics.

  相似文献   

2.
For Image Compression and reconstruction method based on Fuzzy relational equations (ICF), two optimizations are proposed. First optimization is to propose an invariant index for the design of appropriate coders in ICF, we call an overlap level of fuzzy sets. Second optimization corresponds to application of YUV color space to the existing ICF. Through the experiment of image compression and reconstruction using 1000 test images extracted from Corel Gallery, the invariance of the overlap level is confirmed. Furthermore, by the experimental comparison of the proposed method (ICF over YUV color space) and the conventional one (ICF over RGB color space) using 1000 test images, it is confirmed that the Peak Signal to Noise Ratio of the proposed method is increased at a rate of 7.1%∼13.2% compared with the conventional one, under the condition that the compression rates are 0.0234∼0.0938.  相似文献   

3.
Lp范数压缩感知图像重建优化算法   总被引:1,自引:0,他引:1       下载免费PDF全文
目的 压缩感知理论中的重构算法作为关键技术之一,在科学研究方面起到了关键的作用。常用的重构算法包括L0范数的非凸优化算法和L1范数的凸优化算法,但它们的缺点是重构精度不高,运算时间很长。为了克服这一缺陷,提高现有基于Lp范数的压缩感知图像重构算法的重建精度和算法效率,本文提出改进算法。方法 针对拉格朗日函数序列二次规划(SQP)方法中海瑟(Hesse)矩阵不正定导致计算量很大的问题,引入价值函数,修正Hesse矩阵的序列二次规划方法并结合图像分块压缩感知技术,提出了一种基于LP范数压缩感知图像重构算法。结果 在采样率同为40%情况下,本文算法下的信噪比为34.28 dB,高于BOMP(block orthogonal matching pursuit)算法信噪比2%,高于当罚函数作为修正方法时的13.2%。本文算法计算时间为190.55 s,快于BOMP算法13.4%,快于当罚函数作为修正方法时的67.5%。采样率同为50%的情况下,本文算法下的信噪比为35.42 dB,高BOMP算法信噪比2.4%,高于当罚函数作为修正方法时信噪比12.8%。本文算法的计算时间是196.67 s,快于BOMP算法68.2%,快于81.7%。在采样率同为60%的情况下,本文算法的信噪比为36.33 dB,高于BOMP算法信噪比3.2%,高于当罚函数作为修正方法时信噪比8.2%。本文算法计算时间为201.72 s,快于BOMP算法82.3%,快于当罚函数作为修正方法时86.6%。在采样率为70%的情况下,本文算法信噪比38.62 dB,高于BOMP算法信噪比2.5%,高于当罚函数作为修正方法时信噪比9.8%。本文算法计算时间为214.68 s,快于BOMP算法88.12%,快于当罚函数作为修正方法时的91.1%。实验结果显示在相同的采样率的情况下,本文改进算法在重构精度和算法时间上均优于BOMP算法等其他算法。并且采样率越高,重构图像精度越来越高,重构算法时间越来越短。结论 通过实验对本文算法、BOMP重构算法等其他算法在信噪比和算法计算时间进行对比,在不同采样率下,本文算法都明显优于其他两种算法,而且在采样率仅为20.5%时,信噪比高达85.154 3 dB,重构图像比较清晰。本文算法的最大优点在于采用了分块压缩感知技术,提高图像重构效率,降低了重构时间,缺点是在图像采样率比较低的情况下,存在图像干扰块效应。接下来研究方向是如何在采样率低的情况下,高精度地还原图片,消除图像干扰块效应。  相似文献   

4.
当前大多数的先加密后压缩ETC(encryption-then-compression)方法只能够获得有限固定的压缩率,而无法获取到实际需求的任意压缩率。针对此问题提出一种具有任意压缩率的加密彩色图像有损压缩算法,该算法采用均匀下采样和随机下采样有机结合的方式对加密图像进行压缩,以获得加密图像的任意压缩率。接收方接收到加密图像的压缩序列后通过解压解密获得解密图像,随后把从解密图像有损重构原始图像的过程表征为一个结合下采样压缩方式约束的最优化问题,并设计一种基于卷积神经网络的有损ETC系统图像重构模型ETRN(ETC-oriented reconstruction network)来求解该优化问题。ETRN模型包含浅层特征提取层SFE(shallow feature extraction)、残差堆叠模块RIR(residual in residual)、残差信息补充模块RCS(residual content supplementation)、下采样约束模块DC(down-sampling constraint)。实验仿真结果表明,提出的加密彩色图像有损压缩算法能够获得优秀的加密压缩和重构性能,充分体现了该方法的可行性和有效性。  相似文献   

5.
基于势函数模糊聚类量化的小波图象压缩   总被引:1,自引:0,他引:1       下载免费PDF全文
基于小波变换的图象压缩是图象压缩的一项成功技术 ,并且具有越来越重要的作用 ,但基于小波变换的图象压缩算法在比特率较低时出现的边缘模糊现象仍然是一个公认的难题 .为了在一定程度上减少比特率较低时 ,出现的边缘模糊现象 ,提出了一种基于势函数模糊聚类量化的新方法 ,用于对经过小波变换分解后所形成的数字图象高频子带小波系数进行量化 .在量化过程中还考虑了高频子带的小波系数的分布特性和高频子带的小波系数对保存边缘、纹理等信息的重要性程度 ,也利用了模糊集合的特性 .实验证明 ,在低比特率下 ,这种方法能较好地保存图象边缘和纹理等信息 ,从而在一定程度上提高了重构图象的主观质量 .该方法在小波图象压缩的模糊聚类量化领域进行了一定的尝试 .  相似文献   

6.
基于改进层式DCT的压缩感知图像处理   总被引:1,自引:0,他引:1       下载免费PDF全文
尹晓慧  张宝菊  王为  雷晴 《计算机工程》2012,38(9):226-227,247
为改善图像压缩质量,提出一种基于改进层式离散余弦变换(DCT)的压缩感知图像处理方法。该方法保留层式DCT变换的最高层系数,只对其余层高频子带系数进行压缩感知随机测量。利用正交匹配追踪算法对高频系数进行恢复,通过DCT反变换重构图像。实验结果表明,与基于层式DCT的方法相比,在相同压缩比的情况下,该方法重构图像的峰值信噪比较高。  相似文献   

7.
Failure mode and effects analysis (FMEA) is a widely used engineering technique for designing, identifying and eliminating known and/or potential failures, problems, errors and so on from system, design, process, and/or service before they reach the customer (Stamatis, 1995). In a typical FMEA, for each failure modes, three risk factors; severity (S), occurrence (O), and detectability (D) are evaluated and a risk priority number (RPN) is obtained by multiplying these factors. There are significant efforts which have been made in FMEA literature to overcome the shortcomings of the crisp RPN calculation. In this study a fuzzy approach, allowing experts to use linguistic variables for determining S, O, and D, is considered for FMEA by applying fuzzy ‘technique for order preference by similarity to ideal solution’ (TOPSIS) integrated with fuzzy ‘analytical hierarchy process’ (AHP). The hypothetical case study demonstrated the applicability of the model in FMEA under fuzzy environment.  相似文献   

8.
目的 基于小波域的多尺度分块压缩感知重构算法忽略了高频信号在重构过程中的作用,丢失了大量的边缘与细节信息。针对上述问题,提出一种自适应多尺度分块压缩感知算法,不仅合理利用低频信息还充分利用图像的高频信息,在图像细节复杂度提高的情况下保证图像重构质量的提高。方法 首先进行3层小波变换,得到一个低频信号和9个高频信号,分别进行小波逆变换后分成大小相同互不重叠的块,对低频部分采用2维邻块边缘自适应加权滤波的方法进行处理,对高频部分采用纹理自适应分块采样,最后利用平滑投影Landweber(SPL)算法对其进行重构。结果 与已有的分块压缩感知算法、基于边缘和方向的分块压缩感知算法和基于纹理和方向的分块压缩感知算法相比,本文算法在不同的采样率下,性能均有所提升,代表细节信息的高频信号得到充分重建,改进的算法所得到的重建图像具有较高的分辨率,尤其对细节较为丰富的图像进行重建后具有较高的峰值信噪比;2维邻块边缘自适应加权滤波有效的去除了重建图像的块效应,且重建时间平均减少了0.3 s。结论 将三层小波变换后的高频分量作为纹理部分,利用自适应多尺度分块重建出图像的轮廓与边缘;将低频分量直接视为平坦部分,邻块边缘自适应加权滤波重建出图像细节,不仅充分利用了图像的高低频信息,还减少了平坦块检测过程,使得重建时间有效缩短。经实验验证,本文算法重建图像质量较好,尤其是对复杂图像明显消除了块效应,边缘和纹理细节较清晰。因此主要适用于纹理细节较复杂的人脸图像、建筑图像和遥感图像等。  相似文献   

9.
庄燕滨  桂源  肖贤建 《计算机应用》2013,33(9):2577-2579
为了解决传统视频压缩传感方法中对视频逐帧单独重构所产生的图像模糊,将压缩传感理论与MPEG标准视频编码的相关技术相结合,提出了一种基于运动估计与运动补偿的视频压缩传感方法,以消除视频信号在空域和时域上的冗余。该方法在充分考虑视频序列时域相关性的同时,首先对视频图像进行前、后向和双向预测和补偿,然后采用回溯自适应正交匹配追踪(BAOMP)算法,对运动预测残差进行重构,最后实现当前帧的重构。实验结果表明,该方法较逐帧重构的视频图像质量有较大改善,且可获得更高的峰值信噪比。  相似文献   

10.
针对传统图像加密算法安全性能差和传输效率低等问题,提出了一种基于压缩感知CS和DNA编码相结合的图像压缩加密算法。首先,采用CS对待加密图像进行预处理,在预处理过程中由克罗内克积KP构造测量矩阵并按比例缩小原始图像。接着,利用超混沌Bao系统产生的混沌序列动态控制DNA编码、解码和运算方式,对压缩图像进行加密和解密。最后,通过重构算法得到重构图像。该算法最大限度地利用了超混沌Bao系统产生的混沌序列,通过将生成的混沌序列整数化,对原始图像进行DNA扩散操作。仿真实验和结果分析表明,该算法能有效提高图像的传输效率和安全性。  相似文献   

11.
针对小波变换图像压缩编码方法在高压缩比下得到的重构图像质量往往较差的问题,提出了一种基于谱图小波变换的编码方法.该方法首先将图像转化成图,利用谱图小波变换分解图得到谱图小波系数,这些系数的能量随着尺度的增加而衰减,然后根据谱图小波系数的特性对SPECK算法进行改进,最后对谱图小波系数进行量化,利用改进的SPECK算法对量化后的系数进行压缩编码,并在图像数据量压缩的同时从稀疏系数中恢复原始图像.实验结果表明,该编码方法对自然图像的压缩具有高效性,相比小波变换的压缩方法,重建图像的PSNR有所提高且变化平稳,与此同时还得到更大的压缩比.  相似文献   

12.
压缩视频感知(Compressed Video Sensing,CVS)是一种利用压缩感知(Compressed Sensing,CS)以及分布式视频编码(DVC)的视频压缩方法,故又被称为分布式视频压缩感知。在CVS中,每帧图像经过块划分、压缩采样后对数据进行DPCM,最后使用均匀或者非均匀量化进行量化。目前,CVS量化器的设计大多是在采样数据或残差数据服从高斯分布的前提下设计的,通过Kolmogorov-Smirnov检验进一步分析压缩采样后的数据,利用劳埃德最佳量化器准则训练量化码书,设计出一种简单、高效的量化器。经实验,设计的量化器相比于传统的量化方法在BD-Rate上减少了约14.2%,在BDPSNR上提升了约0.11?dB,提高了CVS的压缩效率和重建质量。  相似文献   

13.
为了能够精准地对煤矿皮带运输机上的异物进行检出,提出了一种基于深度生成模型的皮带异物检测方法.首先,利用常规的变分自编码器(variational autoencoder,VAE)对图像进行重构,根据原始图像与重构图像之间的重构误差对图像中是否存在异物进行检出.然后,为了解决变分自编码器所生成的重构图像通常较为模糊的问...  相似文献   

14.
赵鸿图  霍江波 《测控技术》2018,37(9):126-130
在进行图像压缩感知时发现以行或列进行压缩感知所得到的图像重构后的峰值信噪比(PSNR)是不同的。为了提高图像压缩重构的质量,提出了单层小波分解下图像行列压缩感知的选择算法。该算法首先计算图像的行与列数据的相对方差的最大偏离值,选择较小者对应的行或列作为压缩感知的对象,然后对图像进行单层小波变换分解出高频系数,在高斯观测矩阵下,对这些系数按指定的行或列进行压缩感知,最后利用正交匹配追踪算法(OMP)分别恢复压缩感知下的高频系数,并通过小波逆变换得到经过行列压缩感知后的重构图像,实验结果证明了算法的准确性。  相似文献   

15.
基于非局部相似模型的压缩感知图像恢复算法   总被引:2,自引:0,他引:2  
针对压缩感知(Compressed sensing, CS)图像恢复问题, 提出了一种基于非局部相似模型的压缩感知恢复算法, 该算法将传统意义上二维图像块的稀疏性扩展到相似图像块组在三维空间上的稀疏性, 在提高图像表示稀疏度的同时进一步提高了压缩感知图像恢复效率, 恢复图像在纹理和结构保持方面都得到了很大的提升. 在该算法模型求解过程中, 使用增广拉格朗日方法将受限优化问题转换为非受限优化问题, 为减少计算复杂度, 还使用了基于泰勒展开的线性化技术来加速算法求解. 实验结果表明, 该算法的图像恢复性能优于目前主流的压缩感知图像恢复算法.  相似文献   

16.
优化加权TV的复合正则化压缩感知图像重建   总被引:1,自引:1,他引:0       下载免费PDF全文
目的:压缩感知理论突破了传统的Shanon-Nyquist采样定理的限制,能够以较少的采样值来进行原信号的恢复。针对压缩感知图像重建问题,本文提出了一种基于优化加权全变差(Total Variation, TV)的复合正则化压缩感知图像重建模型。方法:提出的重建模型是以TV正则化模型为基础的。首先,为克服传统TV正则化会导致重建图像的边缘和纹理细节部分模糊或丢失的缺点,本文引入图像的梯度信息估计权重,构建加权TV的重建模型。其次,利用全变差去噪(Rudin–Osher–Fatemi,ROF)模型对权重进行优化估计,从而减少计算权重时受噪声的影响。再次,本文将非局部结构相似性先验和局部自回归性先验引入提出的加权TV模型,得到优化加权TV的复合正则化重建模型。最后,结合投影法和算子分裂法对优化模型求解。结果:针对自然图像的不同特性,本文使用复合正则化先验进行建模,实验表明上述重建问题通过我们的方法得到了很好的解决,加权TV正则化先验使得图像的平坦区域和强边重建较好,而非局部结构相似性先验和局部自回归性先验能够保证图像的精细结构部分的重建效果。结论:本文提出了一种新的复合正则化压缩感知重建模型。与其它基于TV正则化的重建模型相比,实验结果表明本文模型的重建性能无论是在视觉效果还是在客观评价指标上都有明显的提高。  相似文献   

17.
压缩感知理论的基本思想是原始信号在某一变换域是稀疏的或者是可压缩的,并将奈奎斯特采样定理中的采样过程和压缩过程合二为一。稀疏度自适应匹配追踪(SAMP)算法能够实现稀疏度未知情况下的重构,而广义正交匹配追踪算法每次迭代时选择多个原子,提高了算法的收敛速度。基于上述两种重构算法的优势,提出了广义稀疏度自适应匹配追踪(Generalized Sparse Adaptive Matching Pursuit,gSAMP)算法。针对重构图像的峰值信噪比、重构时间、相对误差等客观评价指标,以及主观视觉上对所提算法与传统的贪婪算法进行对比。在压缩比固定为0.5时,gSAMP算法的重构效果优于传统的MP、OMP、ROMP、SAMP以及gOMP贪婪类重构算法的效果。  相似文献   

18.
目的 为了解决利用显著区域进行图像压缩已有方法中存在的对多目标的图像内容不能有效感知,从而影响重建图像的质量问题,提出一种基于多尺度深度特征显著区域检测图像压缩方法。方法 利用改进的卷积神经网络(CNNs),进行多尺度图像深度特征检测,得到不同尺度显著区域;然后根据输入图像尺寸自适应调整显著区域图的尺寸,同时引入高斯函数,对显著区域进行滤波,得到多尺度融合显著区域;最后结合编码压缩技术,对显著区域实行近无损压缩,非显著区域利用有损编码技术进行有损压缩,完成图像的压缩和重建工作。结果 提出的图像压缩方法较JPEG压缩方法,编码码率为0.39 bit/像素左右时,在数据集Kodak PhotoCD上,峰值信噪比(PSNR)提高了2.23 dB,结构相似性(SSIM)提高了0.024;在数据集Pascal Voc上,PSNR和SSIM两个指标分别提高了1.63 dB和0.039。同时,将提出的多尺度特征显著区域方法结合多级树集合分裂(SPIHT)和游程编码(RLE)压缩技术,在Kodak数据集上,PSNR分别提高了1.85 dB、1.98 dB,SSIM分别提高了0.006、0.023。结论 提出的利用多尺度深度特征进行图像压缩方法得到了较传统编码技术更好的结果,该方法通过有效地进行图像内容的感知,使得在图像压缩过程中,减少了图像内容损失,从而提高了压缩后重建图像的质量。  相似文献   

19.
Xiang  Zhaoyang  Hu  Yu-Chen  Yao  Heng  Qin  Chuan 《Multimedia Tools and Applications》2019,78(7):7895-7909

Image compression technique is widely used in multimedia signal processing. As a conventional lossy compression technique, block truncation coding (BTC) deserves further improvements to enhance its performance of compression. The improvements of BTC mainly focus on: 1) enhancing the quality of reconstructed image and 2) decreasing the bit rate. In this paper, an adaptive and dynamic multi-grouping scheme is proposed for the absolute moment block truncation coding (AMBTC), which is mainly based on an optimized grouping mechanism with the adaptive threshold setting according to the complexity of image blocks. Besides, the values of the reconstruction levels are replaced by their compressed difference values in order to decrease the bit rate. Experimental results demonstrate that the proposed scheme can enhance the compression performance of AMBTC effectively.

  相似文献   

20.
A fast solving method of the solution for max continuous t-norm composite fuzzy relational equation of the type G(i, j)=(RT□Ai)T□Bj , i=1, 2, ..., I, j=1, 2, ..., J, where Ai∈F(X)X={x1, x2, ..., xM }, Bj∈F(Y) Y={y1, y2, ..., yN}, R∈F(X×Y), and □: max continuous t-norm composition, is proposed. It decreases the computation time IJMN(L+T+P) to JM(I+N)(L+P), where L, T, and P denote the computation time of min, t-norm, and relative pseudocomplement operations, respectively, by simplifying the conventional reconstruction equation based on the properties of t-norm and relative pseudocomplement. The method is applied to a lossy image compression and reconstruction problem, where it is confirmed that the computation time of the reconstructed image is decreased to 1/335.6 the compression rate being 0.0351, and it achieves almost equivalent performance for the conventional lossy image compression methods based on discrete cosine transform and vector quantization  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号