共查询到20条相似文献,搜索用时 78 毫秒
1.
小字母表的高性能算术编码 总被引:1,自引:0,他引:1
本文基于改进的算术编码,提出了适用于小字母表的高性能算术编码算法。编码部分和模型部分都在小字母表场合作了特别设计。在编码部分,我们将改进的算术编码进一步改造成无乘法算术编码器,分析表明,冗余码长不于最新的Printz等的结果,编码效率接近百分之百。在模型部分,我们提出了自适应高阶统计模型的快速算法。实验结果表明,算法实现了对小字母表的高效率快速压缩。 相似文献
2.
3.
首先对曲率尺度空间(CSS)算法进行改进,并用改进的CSS算法对任意形状物体的形状信息进行特征点的分层提取;其次,用自适应算术编码算法对固定长度的八分圆编码算法进行改进,并对所提取的特征点进行算术编码,实验结果表明,这种新的基于特征点提取的形状编码方法比MPEG-4校验模型中基于上下文的算术形状编码算法,在Dn相同的条件下,主观质量更好,且压缩比更高。 相似文献
4.
结合近年来对分形块编码的研究成果,实现了其编码和解码过程;并且通过研究存储数据之间的内在联系,提出对不同的数据按不同的原则进行分类,然后分别施行算术编码。分析数据及实验效果说明,改进的编码算法在不影响信噪比的前提下得到了较好的压缩比。 相似文献
5.
为了提高基于互联网的图象编码的压缩比和多带宽适应性,提出了一种新的嵌入式零树图象编码方法,该方法首先在连续累进量化方法中使用单队列算法,从而不仅无需使用动态队列,而且率失真特性也得到改善;其次设计了一种基于空间树递归扫描的零树编码快速算法,因而完全解决了重复扫描问题;最后基于编码符号的频带内邻域相关性,为自适应算术编码定义一种新的Markov模型,实验结果表明,该算法在保持高粒度多码率特性的同时,压缩效率较EZW算法有明显提高。 相似文献
6.
H.264是国际上最新的视频编解码标准,是未来几年内视频编码技术研究的主要方向。基于上下文的二进制算术编码算法(CABAC)是H.264中一种能适应信号统计特性的变化,容易达到渐进性能的高效率的熵编码算法。提出了基于CAB-AC的二阶二进制算术编码算法(2-CABAC),把待编码比特流binstring转换成theta string,通过对theta string进行编码提高对bin string的压缩比。给出了2-CABAC的原理、设计方法和程序流程。测试结果表明,与CABAC相比较,2-CABAC明显提高了压缩比。最后,对转换函数Phi的设计进行了讨论。 相似文献
7.
基于IFS块的快速图象编码算法 总被引:5,自引:0,他引:5
文中首先叙述了目前分形块编码研究领域大致情况,然后,提出了一种新的快速编码算法,用L1距离替换了以往算法所用的L2距离,把匹配过程转换成类似于矢量量化的搜索过程,因而采纳了许多矢量量化的加速算法,还讨论了以平坦区的处理并提出了新的剖分方法,取得了较好的效果,同其它的分形块编码方法相比,该算法大大缩短了编码时间,改善了压缩图象的质量,特别是它能较大程度地消除块效应,压缩比也有了进一步的提高。 相似文献
8.
文章介绍了自适应算术编码的基本原理和实现方法,提出了一种基于预测编码和自适应算术编码的图像编码的算法,这种方法能根据图像的区域特征自适应地选取相应的编码模式,提高编码效率。仿真结果表明该算法能有效地提高图像无损编码的效率。 相似文献
9.
10.
为了克服在低比特率下的块效应,并适应实时编、解码的需要,提出了一种对残差帧的四叉树编码算法,该算法首先采用OBMC的方法生成预测帧以有效消除块效应,并针对残差帧的统计与视觉特性,对每个2×2的小块取灰度平均值作为最小编码单位,然后用四叉树分解方法来大致标记均值大于某阈值的块的位置,并以标量量化和自适应算术编码器编码其灰度值.与基于变换的编码方法相比,该算法简单、高效,码率低,解码质量高,是一种实时的编、解码算法. 相似文献
11.
12.
对Lempel-Ziv(LZ)无损压缩算法的原理进行了剖析,在此基础上提出了一种基于"虚段"方法的混合无损压缩算法.该算法经实验验证,比传统的LZ算法具有更高的压缩比. 相似文献
13.
针对车辆全球卫星定位系统(GPS)中如何降低轨迹数据存储空间,提高数据分析及传送速度等问题,提出一种基于综合时空特性的混合式轨迹压缩算法.该算法一方面采用了新的综合时空特性的在线轨迹压缩策略,利用GPS数据的位置信息、时间信息、方向角、速度信息进行轨迹特征点的综合判断,以更准确地选取特征点;另一方面,采用了在线与批处理相结合的混合式轨迹压缩策略,定时采用道格拉斯批量压缩算法对在线压缩的轨迹集进行二次压缩,以提高轨迹的压缩效率.实验结果表明,较现有的时空特性压缩算法,新的综合时空特性在线轨迹压缩策略虽然在压缩率上略有下降,但压缩误差有显著减小.进一步采用混合式压缩策略后,通过选取适当的批处理时间周期,所提算法在压缩率和压缩误差上较现有的时空特性算法均有所改进. 相似文献
14.
传统的句子压缩方法多基于难以获得的“原句-压缩句”对齐语料库,因此提出了不依赖于对齐语料库的中文句子压缩算法。通过研究人工压缩结果并结合语言学知识,提出了词语层面和分句层面的两组压缩规则。算法在原句句法分析树和词语间依赖关系的基础上,使用两组规则进行压缩,同时为了保证压缩算法具有更强的适应性和准确性,引入词语的热度加强了压缩算法,最后通过句子整理和语法修复得到最终的压缩句。对比了人工压缩、只使用规则压缩和引入词语热度压缩三种压缩方法。实验结果表明,基于热度的启发式中文句子压缩算法可以在压缩比、语法性、信息量都损失较少的情况下,提高压缩句的热度。 相似文献
15.
16.
17.
探讨了一种基于最小均方误差准则的自适应图像压缩编码算法(MMSEACC),该算法将最小均方误差BTC、内插法和四叉树技术有机结合起来,根据图像的局部特性调节编码算法。仿真结果表明MMSEACC算法与Na-siopoulosP等提出的自适应算法相比,在相同的压缩倍数下,能得到更好的编码性能。 相似文献
18.
Yi Zhang Xiaodong Zhu Chuan Qin Chunfang Yang Xiangyang Luo 《Multimedia Tools and Applications》2018,77(14):17913-17935
In order to improve the JPEG compression resistant performance of the current steganogrpahy algorithms resisting statistic detection, an adaptive steganography algorithm resisting JPEG compression and detection based on dither modulation is proposed. Utilizing the adaptive dither modulation algorithm based on the quantization tables, the embedding domains resisting JPEG compression for spatial images and JPEG images are determined separately. Then the embedding cost function is constructed by the embedding costs calculation algorithm based on side information. Finally, the RS coding is combined with the STCs to realize the minimum costs messages embedding while improving the correct rates of the extracted messages after JPEG compression. The experimental results demonstrate that the algorithm can be applied to both spatial images and JPEG images. Compared with the current S-UNIWARD steganography, the message extraction error rates of the proposed algorithm after JPEG compression decrease from about 50 % to nearly 0; compared with the current JPEG compression and detection resistant steganography algorithms, the proposed algorithm not only possesses the comparable JPEG compression resistant ability, but also has a stronger detection resistant performance and a higher operation efficiency. 相似文献
19.
20.
曾党泉 《计算机工程与应用》2015,51(17):205-209
针对中文文本结构的特点以及传统压缩算法对中文文本压缩的不足,提出并实现了一个基于PDC编码的中文文本压缩算法。该算法采用的是字典压缩方式。根据单个汉字在中文文本出现的概率,采用Huffman编码方式进行前缀变长编码;定义由某个汉字为前缀的词组和短语的深度;对具有相同前缀和相同深度的词组和短语进行局部的定长编码,构成一部压缩编码字典。通过对相同文本分别使用该算法和传统的LZW和LZSS编码算法压缩后得到的数据结果对比,压缩率有2.53%~40.48%的提高,表明该压缩算法有较好的压缩效果。 相似文献