首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 140 毫秒
1.
基于均匀网格编码量化的超光谱图像自适应压缩   总被引:2,自引:2,他引:0  
提出一种基于小波系数分类的超光谱图像压缩方法.算法首先将各波段小波分解并将所得子带划分成子块,而后根据子块活动性将其分类.在分类基础上,使用预测差分技术去除谱间冗余,此过程中分别求取各子类的预测系数以反映子带的局部相关性,而后利用均匀网格编码量化方法来量化残差系数序列,最后使用自适应算术编码对量化码字进行熵编码,为使编码器能在所有系数序列中最优地分配比特,本文提出一个基于序列统计特性和网格编码量化器率-失真特性的比特分配算法,实验证明该方法能高效地压缩超光谱图像,表现出优异的压缩性能。  相似文献   

2.
针对星载多光谱图像压缩,提出了基于子带谱间变换的压缩算法。该算法首先对多光谱图像序列的每个波段分别进行空间二维小波变换,以此去除多光谱图像的空间相关性;为了去除多光谱图像的谱间相关性,将小波分解后的每一层子带作为整体,采用串行成对变换的方式对两个波段进行子带谱间KLT变换;最后,利用最优截断的嵌入式块编码算法对变换后的所有主成分同时进行最优率失真压缩。实验结果表明,该算法能够获得较好的压缩性能,同时具有较低的编码复杂度,适用于星载多光谱图像的压缩。  相似文献   

3.
本文结合SAR图像相干斑的抑制,研究了一种在小波域对带噪SAR图像做网格编码量化的新方法。首先将SAR图像在小波域内实施软阀值去噪声,然后根据SAR图像在小波域中各子带系数固有的树结构关系对其进行零树分类,对分类后的重要性小波系数进行网格编码量化,利用卷积编码和信号空间扩展来增大量化信号间的欧氏距离,并用维特比算法寻找最优量化序列。该方法综合了小波相干斑抑制、零树编码、网格编码量化技术,不仅利用了信号小波变换域的空间相关性,而且也较好地利用了信号间的时间相关性。在压缩的同时进行了相干斑抑制,在SAR图像的压缩中取得了很好的效果。  相似文献   

4.
陈莉  王嘉 《电视技术》2005,(9):26-28
针对应用于指纹识别系统中指纹图像的压缩编码问题,提出了一种改进的基于四叉树分类的网格编码量化(QTCQ)的指纹图像压缩算法.该算法对小波变换后的高频系数采用2×2的DCT变换进一步集中能量,并对变换后的系数进行系数重排以使得高频子带内的重要系数集中于相应子带的低频位置,再通过基于四叉树的网格编码量化进行量化编码.仿真结果表明,该算法比WSQ和JPEG2000等均具有更好的压缩性能.  相似文献   

5.
零树框架下整数小波图像编码的改进   总被引:2,自引:0,他引:2  
整数小波变换(Integer Wavelet Transform)有许多优点,但是图象经整数小波变换(IWT)后,能量集中性较第一代小波变换差很多,不利于嵌入式零树编码(Embedded Zerotree Wavelet Encoding)。因此本文提出一种新算法,从两方面加以改进。首先,采用“整数平方量化阈值选取算法”,根据整数小波变换后各子带系数幅值的动态变化较小,小波图像能量较一般小波差的特点,选取从1开始的正整数平方作为量化闽值的同时引入可调节的量化阈值系统,根据图像中不同区域的重要性选取与之相应的量化阈值,从而增加了零树的数量;其次,提出基于索引表和游程编码的小波零树编码的新思路,简化了编码与解码的过程。实验表明,本文算法充分的将整数小波变换与零树编码结合在一起,改善了压缩质量,提高了压缩效率。  相似文献   

6.
基于压缩比/失真曲线的最佳量化方法具有较高的压缩比和恢复图像质量,在正交小波变换的图像压缩编码中有很好的应用,但为得到各个子R_D曲线需要大量时间,为提高编码速度,本文在实验数据的基础上分析了小波变换各子带系统的统计特性,给出了压缩比/失真曲线的一种新的快速实现算法。  相似文献   

7.
基于压缩比/失真曲线的最佳量化方法具有较高的压缩比和恢复图像质量,在正交小波变换的图像压缩编码中有很好的应用,但为得到各个子 R-D 曲线需要大量时间,为提高编码速度,本文在实验数据的基础上分析了小波变换各子带系统的统计特性,给出了压缩比/失真曲线的一种新的快速实现算法。  相似文献   

8.
郑勇  何宁  朱维乐 《信号处理》2001,17(6):498-505
本文基于零树编码、矢量分类和网格编码量化的思想,提出了对小波图像采用空间矢量组合和分类后进行网格编码矢量量化的新方法.该方法充分利用了各高频子带系数频率相关性和空间约束性,依据组合矢量能量和零树矢量综合判定进行分类,整幅图像只需单一量化码书,分类信息占用比特数少.对重要类矢量实行加权网格编码矢量量化,利用卷积编码扩展信号空间以增大量化信号间的欧氏距离,用维特比算法搜索最优量化序列,比使用矢量量化提高了0.6db左右.该方法编码计算复杂度适中,解码简单,可达到很好的压缩效果.  相似文献   

9.
富含细节、边缘及纹理的SAR图像中重要信息大量集中于高、中频。基于小波变换的压缩方法往往视信号的高、中频部分为不重要信息,造成细节失真。我们使用更为精细的时频分析法即小波包(WP)分析,对信号的高频部分也作进一步分解以保存有用的高、中频信息。同时利用小波包分解系数的带内相关性将其分为大小及重要性不同的子块,进而对各子块实行不同精度的量化编码。在WP变换前先对原图像作“区域分割”以得到背景和目标物的粗略分布,从而针对不同的图像区域进行不同程度的压缩。实验结果表明,这种方法能较好地适应SAR图像的能量分布特点,获得较高的PSNR和重建图像质量。  相似文献   

10.
基于帧间去相关的超光谱图像压缩方法   总被引:6,自引:1,他引:6  
针对超光谱图像的特点和硬件实现的实际需要,提出了一种基于小波变换的前向预测帧间去相关超光谱图像压缩算法。通过图像匹配和帧间去相关,消除超光谱图像帧间的冗余,对残差图像的压缩采用基于小波变换的快速位平面结合自适应算术编码的压缩算法,按照率失真准则控制输出码流,实现了对超光谱图像的高保真压缩。通过实验证明了该方案的有效性,基于小波变换的快速位平面结合自适应算术编码的压缩算法速度优于SPIHT,而且易于硬件实现。  相似文献   

11.
基于小波变换的多级矢量量化图像编码算法   总被引:2,自引:0,他引:2  
结合小波变换中多分辨率分析特性以及多级矢量量化复杂度低、量化效果较好的特点提出了一种基于小波变换的多级矢量量化图像编码方法。在使用多级量化的基础上采用联合优化多级矢量量化的码本设计方法,进一步提升量化效果。试验数据表明,该方法相对于传统的矢量量化算法,量化效果进一步提高,复杂度也在可接受范围之内,达到了很好的压缩编码效果。  相似文献   

12.
基于自适应小波变换的嵌入图像压缩算法   总被引:3,自引:1,他引:2  
针对遥感、指纹、地震资料等图像纹理复杂丰富、局部相关性较弱等特点,文章通过实施自适应小波变换、合理确定系数扫描次序、分类量化小波系数等措施,提出了一种高效的图像压缩编码算法.仿真结果表明,相同压缩比下,本文算法的图像复原质量明显优于SPIHT算法(特别是对于纹理图像,如标准图像Barbara).  相似文献   

13.
该文提出了一种基于双正交小波变换(BWT)和模糊矢量量化(FVQ)的极低比特率图像编码算法。该算法通过构造符合图像小波变换系数特征的跨频带矢量,充分利用了不同频带小波系数之间的相关性,有效地提高了图像的编码效率和重构质量。该算法采用非线性插补矢量量化(NLIVQ)的思想,从大维数矢量中提取小维数的特征矢量,并提出了一种新的模糊矢量量化方法一渐进构造模糊聚类(PCFC)算法用于特征矢量的量化,从而大大提高了矢量量化的速度和码书质量。实验结果证明,该算法在比特率为0.172bpp的条件下仍能获得PSNR>30dB的高质量重构图像。  相似文献   

14.
采用提升方向波变换的异源图像融合新算法   总被引:2,自引:0,他引:2  
方向波(Directionlet)变换是一种基于格子的歪斜小波变换,与标准二维小波变换相比,它具有多方向性和各向异性,能够更好地描述图像的特征.针对异源图像融合这一研究热点,提出了一种新的基于方向波变换的图像融合方法,并采用提升算法有效地解决了该变换方法的运算速度问题.首先,对已配准的两幅图像分别沿变换和队列方向进行次数不等的提升变换,得到具有各向异性的子图;然后,采用低频子图直接平均融合,高频部分选择具有较强各向异性信息分量的方法得到融合图像的所有方向波变换系数;最后,经过反变换得到融合图像.实验结果表明:该算法的融合效果和运算速度都优于标准小波变换和其他的二代小波变换.  相似文献   

15.
为了提高超分辨率图像的重构效果,提出了一种基于小波域的压缩感知超分辨率重建方法.首先采用小波变换对低分辨率图像进行分解,得到低分辨率图像的低频子带与高频子带,然后采用压缩感知技术分别对低频子带和高频子带进行重建,并通过小波逆变换得到最终重建图像,最后在MATLAB 2012平台上进行仿真实验.结果表明,相对于其他图像重建方法,本文方法的重建图像视觉效果更加理想,不仅提高了低分辨率图像重建精度,而且提高了图像重建效率,可以满足图像处理的实时性、在线性要求.  相似文献   

16.
基于小波系数相关性的图像融合新方法   总被引:7,自引:2,他引:5  
文中在阐述小波变换原理的基础上,针对融合算子的构造,给出了一种新的基于小波系数相关性的融合方法。以分解后的高频子图像的区域均值、方差、协方差统计参量构造匹配度和加权因子,以此对高频子图像的对应区域进行融合计算;低频部分采取加权平均融合规则;最后,通过小波逆变换得到融合图像。用熵、交叉熵和交互信息量对融合结果进行了客观评价,并与其它几种算法进行了比较。实验结果表明,此方法融合效果要优于一般融合方法,计算也比较简单,有一定的工程实用价值。  相似文献   

17.
The discrete wavelet transform has recently emerged as a powerful technique for decomposing images into various multi-resolution approximations. Multi-resolution decomposition schemes have proven to be very effective for high-quality, low bit-rate image coding. In this work, we investigate the use of entropy-constrained trellis-coded quantization (ECTCQ) for encoding the wavelet coefficients of both monochrome and color images. ECTCQ is known as an effective scheme for quantizing memoryless sources with low to moderate complexity, The ECTCQ approach to data compression has led to some of the most effective source codes found to date for memoryless sources. Performance comparisons are made using the classical quadrature mirror filter bank of Johnston and nine-tap spline filters that were built from biorthogonal wavelet bases. We conclude that the encoded images obtained from the system employing nine-tap spline filters are marginally superior although at the expense of additional computational burden. Excellent peak-signal-to-noise ratios are obtained for encoding monochrome and color versions of the 512x512 "Lenna" image. Comparisons with other results from the literature reveal that the proposed wavelet coder is quite competitive.  相似文献   

18.
脱线签名的验证较难,他仅依靠签名图像的静态信息,而书写过程中的动态信息几乎完全消失。针对脱线手写签名识别的特点,提出基于提升小波变换的特征选取方法,将传统的结构特征与统计特征有机结合起来。运用K-L变换对已提取的特征向量进行降维。最后通过支持向量机进行真伪识别。实验结果表明该算法对测试样本具有高识别率。  相似文献   

19.
Schemes for image compression of black-and-white images based on the wavelet transform are presented. The multiresolution nature of the discrete wavelet transform is proven as a powerful tool to represent images decomposed along the vertical and horizontal directions using the pyramidal multiresolution scheme. The wavelet transform decomposes the image into a set of subimages called shapes with different resolutions corresponding to different frequency bands. Hence, different allocations are tested, assuming that details at high resolution and diagonal directions are less visible to the human eye. The resultant coefficients are vector quantized (VQ) using the LGB algorithm. By using an error correction method that approximates the reconstructed coefficients quantization error, we minimize distortion for a given compression rate at low computational cost. Several compression techniques are tested. In the first experiment, several 512x512 images are trained together and common table codes created. Using these tables, the training sequence black-and-white images achieve a compression ratio of 60-65 and a PSNR of 30-33. To investigate the compression on images not part of the training set, many 480x480 images of uncalibrated faces are trained together and yield global tables code. Images of faces outside the training set are compressed and reconstructed using the resulting tables. The compression ratio is 40; PSNRs are 30-36. Images from the training set have similar compression values and quality. Finally, another compression method based on the end vector bit allocation is examined.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号