首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 23 毫秒
1.
图像压缩是数字图像处理的一项重要技术。论文研究了基于统计特性的两种熵编码图像压缩编码方法——香农编码和哈夫曼编码,并以C#为工具,对两种编码方法进行实验及对比。实验表明,哈夫曼编码的编码效率远高于香农编码。香农编码占用的存储空间较大,单位码长表达的信息量少;哈夫曼编码节省存储空间,单位码长表达了更为丰富的信息量。  相似文献   

2.
图像压缩是数字图像处理的一项重要技术。本文研究基于统计特性的三种熵编码图像压缩编码方法—香农编码、香农-弗诺编码和哈夫曼编码。并以C#为工具,对三种编码方法进行实验及对比,并通过实验结果分析各算法的特点。实验表明,哈夫曼编码最节省存储空间,单位码长表达的信息量最为丰富;香农-弗诺编码所占的存储空间稍大于哈夫曼编码,单位码长表达的信息量比哈夫曼编码稍少一些;而香农编码所占存储空间最大,单位码长表达的信息量最少。  相似文献   

3.
针对卫星图像的特点及当前卫星图像在传输和存储上面临的问题,提出了一种基于稀疏表示的卫星图像二级无损压缩算法。通过传输稀疏表示后的稀疏系数来代替图像本身的传输,完成对卫星图像的第一级压缩;对非零稀疏系数先作预处理后实现聚类,然后依据聚类索引对原始非零稀疏系数的位置排序;最后对处理后的非零稀疏系数和位置数据分块,并利用改进的自适应哈夫曼算法对非零稀疏系数的数据块编码,利用差分编码和改进的自适应哈夫曼算法对位置数据块编码,完成对图像数据的第二级压缩。实验结果表明,与传统算法相比,所提算法具有明显优势,改进算法的压缩率是传统算法的1/3~1/2,且可同时实现卫星图像的高倍无损压缩与高分辨率重建。  相似文献   

4.
基于3-参数变长编码的图像无损压缩算法   总被引:1,自引:0,他引:1  
高健  饶珺  孙瑞鹏 《自动化学报》2013,39(8):1289-1294
通过对 Huffman 编码方法的研究和分析, 提出了一种基于3-参数变长编码(3-PVLC)的图像数据无损压缩算法. 在图像数据转换为混合差分数据基础上, 采用3-PVLC 对差分数据进行一次编码, 并利用一种自适应性的游长缩减法对一次编码后的二值码流进行二次编码. 本文的编解码方法较灵活, 可依据具体需要进行基于3-PVLC 方法的一次编码或在一次编码基础上完成二次编码, 且具较高压缩比.  相似文献   

5.
李超  杜赓  杨义先  钮心忻 《计算机应用》2006,26(10):2357-2359
提出了一种适合于对线状结构的条形纹线二值图像进行压缩的最优化Freeman链码压缩算法——Freeman差分链码Huffman编码。与传统的Freeman链码相比,提出的压缩算法是基于Freeman链码、差分编码和Huffman编码的一种混和编码方式。通过理论分析和在指纹二值细化图上的实验结果证明,对于指纹二值细化图像,本算法优于现有的链码压缩二值图像的算法,针对于线状结构的条形纹线二值图像,本算法也优于其他压缩算法。其平均码长为1.7651bits,低于8方向Freeman链码或者Freeman差分链码的3bits的平均码长。  相似文献   

6.
This paper presents a lossy compression technique for encrypted images using Discrete Wavelet Transform (DWT), Singular Value Decomposition (SVD) and Huffman coding. The core idea of the proposed technique lies in the selection of significant and less significant coefficients in the wavelet domain. Significant and less significant coefficients are encrypted using pseudo-random number sequence and coefficient permutation respectively. Furthermore, encrypted significant data is compressed by quantization and entropy coding while, less significant encrypted data is efficiently compressed by discarding irrelevant information using SVD and Huffman coding techniques. At receiver side, a reliable decompression and decryption technique is used to reconstruct the original image content with the help of compressed bit streams and secret keys. The performance of proposed technique is evaluated using parameters such as Compression Ratio (CR) and Peak-Signal-to-Noise Ratio (PSNR). Experimental results demonstrate the effectiveness of proposed work over prior work on compression of encrypted images and obtain the compression performance comparable to state of art work on compression of unencrypted images i.e. JPEG standard.  相似文献   

7.
根据BMP图像的特点,提出了基于Huffman编码的压缩方法,分别采用RGB统一编码和RGB分别编码两种方式对图像进行压缩和解压程序设计,然后对多幅图像进行了压缩和解压实验,最后对实验结果进行了相关的分析。  相似文献   

8.
序列图象的似分形编码方法   总被引:1,自引:0,他引:1       下载免费PDF全文
该文将目前分形图象编码中描述图象自相似性的方法,用于对序列图象中图象间互相似性的描述,并提出了一种称为似分形的序列图象编码方法。与传统的分形编码方法相比,这种方法由于在编码时不受分形编码特有条件的限制,解码时也不需要迭代,因此编码速度和编码质量都得到一定程度的提高。实验结果证明了该方法的有效性。  相似文献   

9.
第二代小波变换应用于图象的无损压缩编码   总被引:7,自引:1,他引:6       下载免费PDF全文
第二代小波变换构造方法的特点是:①继承了第一代小波变换的多分辨率特性:②不依赖傅立叶变换;③小波变换后的系数是整数;④图象的恢复质量与变换时边界采用何种延拓方式无关,利用了“整数经过第二代小波变换后的系数仍为整数”的特性,将第二代小波变换用于图象的无损压缩编码,并和Huffman编码、第一代小波变换压缩编码进行了比较,从比较结果来看,在能够无损重建图象的同时,第二代小波变换的压缩比要高于Hjffm  相似文献   

10.
为解决海量医学数据与有限存储空间和传输带宽之间的矛盾,提出一种适用于PACS(picture archiving and communication system)系统的医学图像近无损压缩算法。首先对病变区域和背景区域分别进行剪切波变换和小波变换;其次,选取一些能够近似逼近病变区域图像的重要系数达到去噪和初步压缩的目的;然后,对病变区域所选取的重要系数进行无损Huffman编码,同时对背景区域所得小波系数进行量化和多级树集合分裂算法(SPIHT)编码实现压缩;最后,融合各区域经解码和逆变换得到的图像获得整幅重构图像。实验结果表明,新算法在与小波有损压缩方法设置同样压缩比的情况下,所获取的病变区域重构图像和原病变区域的平均结构相似度(MSSIM)提高了6%,峰值信噪比(PSNR)是小波有损压缩方法的2.54倍,而整幅重构图像与原图像的MSSIM提高了2%,PSNR提高了13%。  相似文献   

11.
本文改进了Huffman编码算法,主要是针对Huffman编码生成Huffman树构造中的排序方法的改进,提出一种基于"堆排序"的新方法。采用堆排序找到最小值实现Huffman编码,经过这种改进的Huffman编码方法对内存读写的次数大为减少,从而提高了响应速度。使得Huffman编码效率有所提高。通过对JPEG的Huffman压缩算法的分析以及采用4个JPG文件对改进的和传统的Huffman算法进行了仿真实验,对比分析表明改进算法的性能无论是压缩比率还是压缩时间方面都比经典的Huffman算法性能有所提高。  相似文献   

12.
Luis Rueda 《Information Sciences》2006,176(12):1656-1683
Adaptive coding techniques have been increasingly used in lossless data compression. They are suitable for a wide range of applications, in which on-line compression is required, including communications, internet, e-mail, and e-commerce. In this paper, we present an adaptive Fano coding method applicable to binary and multi-symbol code alphabets. We introduce the corresponding partitioning procedure that deals with consecutive partitionings, and that possesses, what we have called, the nearly-equal-probability property, i.e. that satisfy the principles of Fano coding. To determine the optimal partitioning, we propose a brute-force algorithm that searches the entire space of all possible partitionings. We show that this algorithm operates in polynomial-time complexity on the size of the input alphabet, where the degree of the polynomial is given by the size of the output alphabet. As opposed to this, we also propose a greedy algorithm that quickly finds a sub-optimal, but accurate, consecutive partitioning. The empirical results on real-life benchmark data files demonstrate that our scheme compresses and decompresses faster than adaptive Huffman coding, while consuming less memory resources.  相似文献   

13.
分形图像编码的改进算法   总被引:10,自引:3,他引:10  
分形图像编码是一种基于自然图像局部自相似性的有效压缩技术。通过引入一个可以影响解码图像质量和编码时间的控制参数,该文提出了分形图像编码的一种改进方案。该方案既不需要复杂的理论分析,也不需要改变现有的分形解码过程,因此能够以直接的方式融入其它的分形图像编码算法。计算机仿真显示,对一组复杂性不同的测试图像,以PSNR(peak signal-to-noise ratio)度量的解码图像质量优于对应的分形图像编码算法的解码图像质量,同时编码时间也大幅度减少。  相似文献   

14.
为了将图像数据高质量地传输,便于图像数据的检索、分析、处理和存储,设计了一个以JPEG标准的静态图像压缩编码系统;将原始图像进行图像压缩编码,同时利用DSP芯片处理速度快的特点,进行核心算法的处理满足系统实时性的要求;经过系统的多次验证,图像压缩编码系统成功地将一个31K大小的BMP格式图像转换为3K大小的JPEG格式图像,完成了10∶1的JPEG标准静态图像压缩;因此将原始图像进行图像压缩编码是解决图像数据量大小与有限存储容量和传输带宽矛盾的最合理方法。  相似文献   

15.
Pei‐Chi Wu 《Software》1999,29(4):299-309
Allocating small code space to frequent symbols can achieve data compression. The well‐known Huffman coding technique is the optimal method that allocates code space in an integral number of bits. By allocating code space precisely to a fraction of a bit, arithmetic coding achieves a better efficiency than Huffman coding. In arithmetic coding, the range of the code points is usually kept in [1/2, 1) by applying a normalization technique. This paper proposes a method that adjusts the range in [1/2d, 1). The range is allowed to decrease below 1/2 without applying normalization each time. This method reduces the number of shifts in normalization to 1/d. When d=8, normalization can be implemented byte‐by‐byte. This is particularly advantageous to applications where inputs and outputs are handled in bytes. We apply this method both to adaptive coding and semi‐static coding. Timing results on four platforms are presented. Copyright © 1999 John Wiley & Sons, Ltd.  相似文献   

16.
基于ROI的分形图像压缩编码   总被引:1,自引:0,他引:1  
吴红梅  陈继荣 《计算机仿真》2006,23(10):206-208
分形图像压缩由于具有非常高的压缩比越来越受人们的关注,但是高压缩比的图像方块效应非常明显,这在很大程度上影响了解码图像的质量。为了解决这个问题,借鉴JPEG2000中提出的ROI概念,提出了将感兴趣区域(ROI)图像编码与分形图像压缩编码相结合的图像编码方法,使得重构的图像中感兴趣区域的保真度高于背景区。该方法很好地解决了图像的压缩比和重构图像质量之间的矛盾。实验结果证明:此方法在获得较高压缩比的同时,压缩编码时间大为降低,解码图像质量也有较大的改善,且总体编码性能优于JPEG编码。  相似文献   

17.
该文给出了基于小波变换的序列图像压缩编码的一个框架,主要内容包括自适应选取帧内或帧间编码、帧内编码方案和帧间编码方案等。为了有效的编码运动补偿金量误差图像,把EZW算法推广到了一种特殊的小波包分解,这种分解更适合余量误差图像的特性。实验结果表明,该方案可以实现高压缩比,同时能保持较高的峰值信躁比。  相似文献   

18.
网络图像的渐进传输是基于小波变换静止图像压缩技术的一个典型实例,目前网络流行的传输图像压缩格式有JPEG和GIF格式,但以这种压缩格式传输往往要耗费较长时间才能显示整幅图像,随着互联网的普及和图像应用范围的不断扩大,对图像的编码提出了新的要求.多级树集合分裂算法SPIHT(Set Partitioning In Hierarchical Trees)小波编码较好地实现了这一思想,它是嵌入式零树小波编码EZW(Embedded Zerotree Wavelets)的改进算法.对SPIHT编码算法从原理到算法进行了分析和讨论,并指出了嵌入式图像编码的研究方向.  相似文献   

19.
针对VxWorks自带压缩算法在内存受限系统下的缺陷,提出一种基于Huffman编码的VxWorks映像压缩算法;该算法利用VxWorks映像文件的格式,结合处理器指令集的特点,通过分段和分字节两种策略对VxWorks映像文件进行压缩;以SPARC V7指令集为例,对该算法测试压缩性能,实验结果表明,使用分段和分字节策略后的Huffman压缩率为67.6%,略高于VxWorks自带压缩算法,但占用内存仅为1.5kB,为VxWorks自带压缩算法的1/10。  相似文献   

20.
民用GPS数据准无损压缩算法   总被引:1,自引:0,他引:1  
为了提高民用GPS精度范围内的定位数据压缩率和压缩速度,在对霍夫曼编码和算术编码的性能进行分析比较的基础上,将预测编码与霍夫曼编码有机结合,提出了面向民用GPS精度范围的定位信息准无损压缩算法.该算法通过压缩预处理和二次量化去除冗余信息,采用预测编码提高编码效率,总压缩效率可达87%.采用MSP430单片机对该算法进行了测试,在压缩数据量为668 KB时,压缩率为87.1%, 处理时间为31.4 s,与仿真结果基本吻合.实验结果表明,该算法经过优化后对硬件要求较低,提高了压缩率和压缩速度,节约了存储资源,节省了数据传输时的通信费用.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号