首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 203 毫秒
1.
基于上下文自适应算术编码的设计与实现   总被引:1,自引:0,他引:1  
安向明  张丹  邹红 《电脑学习》2009,(3):107-108
实现了经典算术编码的流程设计,提出基于上下文自适应算术编码的算法。建立了基于上下文的多阶自适应的概率模型,使其符号的压缩码长尽量的接近其熵值。  相似文献   

2.
提出一种基于面的高效三角网格拓扑压缩算法.该算法是单分辨率无损压缩算法,是对Edgebreaker算法的改进:在网格遍历部分,通过自适应网格遍历方法使非常影响压缩比的分割图形操作尽可能少;在熵编码部分,为网格遍历后得到的每个操作符各设计一个模版,根据模版确定该操作符的二进制表示,然后采用自适应算术编码方法压缩该二进制表示得到最后的压缩结果.与网格拓扑压缩领域中基于面的最好的算法得到的压缩比相比较,该算法得到的压缩比有很大提高.  相似文献   

3.
刘迎  刘学慧  吴恩华 《软件学报》2008,19(4):1016-1025
针对三角网格模型的拓扑信息。提出了一种高效压缩方法.不同于以往的单纯利用算术编码或霍夫曼鳊码对遍历三角网格生成的拓扑流进行编码压缩,根据三角网格模型(特别是规则三角网格模型)的特点,自适应地提高编码过程中对当前编码字符发生的预测准确率,实现对三角网格模型的拓扑信息的高效压缩.算法首先遍历三角网格模型,得到操作符序列;然后对得到的操作符序列的每个操作符作模版可变的自适应算术编码.在编码过程中,根据当前编码字符的前一个操作符、三角网格模型的特点以及网格遍历方法为当前编码操作符计算一个模版,在这个模版中,预测准确率高的操作符用较短的二进制串表示.根据当前编码操作符的可变模版,可以得到该操作符的二进制表示,并对这个二进制表示的每个比特作自适应算术编码.该方法是针对流形三角网格模型的拓扑信息作单分辨率的基于面的无损压缩,可以得到很好的三角网格拓扑信息的压缩结果,其压缩比甚至比拓扑压缩领域压缩比方面最好的TG算法的压缩比还要好.  相似文献   

4.
网格拓扑压缩方法是计算机图形学的基础算法。该文方法是单分辨率,主要针对非三角网格模型的拓扑信息作无损压缩。算法首先遍历网格的所有多边形得到操作系列;然后对操作系列作霍夫曼编码;再对霍夫曼编码结果作基于上下文长度可变的算术编码得到最后的压缩结果。相比于对非三角网格拓扑信息作压缩的压缩比很高的算法,该算法得到的压缩结果更好。此算法的另一个突出优点是在解码时间和空间上有了改进——新算法可以在接收一个多边形的编码后立即完成解码并抛弃这个编码,从而使得该算法特别适用于在线传输和解码的实时与交互应用场合。此外,该算法还可以处理有空洞和柄(handle)的模型。  相似文献   

5.
基于上下文的自适应算术编码(CABAC)是H.264标准中的一个重要创新.通过算术编码与自适应上下文模型的结合使其可以获得很高的压缩比,相对于CAVLC其可以获得9%~14%码率的降低.CABAC作为一种新型的熵编码方法,其将自适应技术、上下文模型化和二进制算术编码有效的结合在了一起,并采用查表的乘法与概率估计,使得CABAC在硬件实现方面比较方便.在此提出了一种适用于1080P(@30Hz)的低硬件消耗的CABAC编码器,采用SMICO.18μmCMOS工艺实现,其理想速度可以达到200MHz.该编码器可以应用于高清视频编码领域.  相似文献   

6.
CABAC是H.264/AVC视频压缩标准主要档次中采用的熵编码机制,其压缩效率比基本档次采用的CAV-LC高20%.由于其中的上下文管理和算术编码需要进行很多存储器访问和ALU操作,CABAC计算复杂度较高,在传统的可编程器件中实现效率较低.本文设计实现了一种七级流水的CABAC熵编码器体系结构,通过将上下文存储器访问、算术编码和正规化、码流输出等任务均衡地分配到七栈流水线中,可以高效地进行二进制算术编码,最终实现每个节拍处理一个二进制符号.采用Verilog HDL语言实现该体系结构的RTL级模型,模拟结果显示其编码结果和JM10.2完全一致;在0.13μm CMOS标准单元工艺典型条件下进行综合,提出的流水线结构工作频率可以达到1.2GHz,从而可以满足RDO模式下SIF格式视频和非RDO模式下HD视频的熵编码需求.  相似文献   

7.
一般多边形网格的几何压缩   总被引:8,自引:1,他引:8  
提出一个通用的一般多边形网格的几何压缩算法,针对目前三维拓扑压缩算法大都仅适用于三角网格的现状,在巳有算法的基础上,进行了有效的推广,使得对于包含任意边数多边形的网格都可以进行有效的压缩编码;另外,根据多边形网格任一多边形中的各个顶点共面的特性,提出一种顶点坐标压缩方案,该方案与上述拓扑压缩算法有机结合可以显著地减少一般多边形网格数据在网上传输所需的带宽;最后,对编码过程产生的输出流进行流程编码与算术编码相结合的混合压缩编码,从而进一步提高压缩比。  相似文献   

8.
基于时、频域上下文模型的图像压缩算法   总被引:3,自引:0,他引:3  
结合离散小波变换和基于上下文的自适应算术编码方法,提出了一种基于时、频域上下文预测模型的图像压缩算法.它通过分析在不同子带内的小波系数和同一子带内的小波系数之间的相关性,建立一个时、频域的上下文预测模型,并通过对增加的条件熵的分析,合理地对该模型中的上下文进行量化,得到合适的编码上下文用于自适应的算术编码以降低模型开销.与此同时,这种算法的输出码流是嵌入式的,可以很好的满足渐进式的传输需求.试验结果表明,该算法在各种压缩比下都获得了比JPEG2000要好的压缩效果.  相似文献   

9.
符号在某符号序列后出现的概率往往高于其在整个信息中的概率,由此可以降低冗余度,获得高效的压缩率.对不同类型文件的试验结果表明,多阶自适应算术编码能显著提高压缩效果,特别是对于上下文相关性强的文件,其压缩效果要好于LZW和WinRAR.  相似文献   

10.
本文改进了Huffman编码算法,主要是针对Huffman编码生成Huffman树构造中的排序方法的改进,提出一种基于"堆排序"的新方法。采用堆排序找到最小值实现Huffman编码,经过这种改进的Huffman编码方法对内存读写的次数大为减少,从而提高了响应速度。使得Huffman编码效率有所提高。通过对JPEG的Huffman压缩算法的分析以及采用4个JPG文件对改进的和传统的Huffman算法进行了仿真实验,对比分析表明改进算法的性能无论是压缩比率还是压缩时间方面都比经典的Huffman算法性能有所提高。  相似文献   

11.
图像压缩是数字图像处理的一项重要技术。本文研究基于统计特性的三种熵编码图像压缩编码方法—香农编码、香农-弗诺编码和哈夫曼编码。并以C#为工具,对三种编码方法进行实验及对比,并通过实验结果分析各算法的特点。实验表明,哈夫曼编码最节省存储空间,单位码长表达的信息量最为丰富;香农-弗诺编码所占的存储空间稍大于哈夫曼编码,单位码长表达的信息量比哈夫曼编码稍少一些;而香农编码所占存储空间最大,单位码长表达的信息量最少。  相似文献   

12.
图像压缩是数字图像处理的一项重要技术。论文研究了基于统计特性的两种熵编码图像压缩编码方法——香农编码和哈夫曼编码,并以C#为工具,对两种编码方法进行实验及对比。实验表明,哈夫曼编码的编码效率远高于香农编码。香农编码占用的存储空间较大,单位码长表达的信息量少;哈夫曼编码节省存储空间,单位码长表达了更为丰富的信息量。  相似文献   

13.
一种最优化链码指纹二值细化图像压缩编码   总被引:1,自引:1,他引:0  
李超  杜赓  杨义先  钮心忻 《计算机应用》2006,26(10):2357-2359
提出了一种适合于对线状结构的条形纹线二值图像进行压缩的最优化Freeman链码压缩算法——Freeman差分链码Huffman编码。与传统的Freeman链码相比,提出的压缩算法是基于Freeman链码、差分编码和Huffman编码的一种混和编码方式。通过理论分析和在指纹二值细化图上的实验结果证明,对于指纹二值细化图像,本算法优于现有的链码压缩二值图像的算法,针对于线状结构的条形纹线二值图像,本算法也优于其他压缩算法。其平均码长为1.7651bits,低于8方向Freeman链码或者Freeman差分链码的3bits的平均码长。  相似文献   

14.
通过对Huffman编码方法的研究,文中提出了一种基于多参数的数据无损压缩算法。基于原始数据集的元素个数统计,对原始数据集进行多次的合并,使合并后所得到的新数据集满足Huffman最佳编码要求,由此生成规模较小的数据合并对应表,并将数据编码分为一元即时码(前缀)和区分码(后缀)两个部分。数据多次合并的不同起始点为文中无损压缩方法的多参数,利用这些参数结合编码前缀及后缀即可唯一表示原始数据,去除了编码表。解码时无需逐位匹配即可复原原始数据。与传统方法相比,文中构造的基于多参数的数据无损压缩方法,编码结构简单,运算开销小,编解码效率较高。  相似文献   

15.
宫法明  徐涛  周笑天 《计算机工程与设计》2007,28(19):4800-4802,4830
三维网格单一位率压缩技术将网格的几何信息和拓扑连接信息分开独立压缩.进行连接信息压缩时,通常对某种结构表示的网格连接信息进行某种形式的遍历,对遍历过程进行信息编码压缩;压缩几何信息时,一般需要经过量化、预测和熵编码3个处理过程.通过对该类算法进行研究总结,提出并设计了一个针对三角网格的单一位率压缩统一模式框架,并基于OpenGL和Visual C 6.0,以Edgebreaker算法为例进行了实验.  相似文献   

16.
Pei‐Chi Wu 《Software》1999,29(4):299-309
Allocating small code space to frequent symbols can achieve data compression. The well‐known Huffman coding technique is the optimal method that allocates code space in an integral number of bits. By allocating code space precisely to a fraction of a bit, arithmetic coding achieves a better efficiency than Huffman coding. In arithmetic coding, the range of the code points is usually kept in [1/2, 1) by applying a normalization technique. This paper proposes a method that adjusts the range in [1/2d, 1). The range is allowed to decrease below 1/2 without applying normalization each time. This method reduces the number of shifts in normalization to 1/d. When d=8, normalization can be implemented byte‐by‐byte. This is particularly advantageous to applications where inputs and outputs are handled in bytes. We apply this method both to adaptive coding and semi‐static coding. Timing results on four platforms are presented. Copyright © 1999 John Wiley & Sons, Ltd.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号