首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 281 毫秒
1.
王立  伍宗富 《计算机仿真》2006,23(6):147-149
JPEG2000是一种最新的静止图象压缩标准,此标准采用了很先进的压缩技术使其在压缩性能、渐进传输和灵活性等方面都优于JPEG,并且能够提供优良的压缩率控制功能。通过对压缩率的控制,使码流可在任意位置截断,并可利用截断的码流对图像进行解码,能够很方便地实现图像质量、分辨率的渐进传输。压缩率控制算法对图像压缩质量、编码效率、存贮器占用有直接影响。该文详细阐述了两种压缩率控制算法原理,其中一种是JPEG2000建议的压缩后率失真优化PCRD算法,另一种是优先扫描率分配PSRA算法,并对两种算法在算法复杂度、存贮器消耗和压缩质量进行了比较,最后用实验数据评价了两种算法的有效性。  相似文献   

2.
该文提出了一种高效的中文文本压缩算法CRecode,算法根据中文文本中字词的概率分布特点,对中文字词根据其使用频率,采用8bit、16bit和24bit三种长度的编码重新编码,克服了Huffman编码在压缩中文数据时打乱数据中蕴含的语义信息,致使其压缩数据再压缩性差的缺点。测试中,CRecode在与现有主流压缩软件联合使用时,可提高压缩率4%到30%,最大平均压缩比可达2.86。CRecode作为独立压缩算法,压缩中文文本时可获得优于Huffman编码、接近于LZ系列算法的性能。  相似文献   

3.
基于三态信号的测试数据相容压缩方法   总被引:1,自引:0,他引:1  
陈田  左永生  安鑫  任福继 《计算机应用》2019,39(6):1863-1868
针对超大规模集成电路(VLSL)的发展过程中测试数据量增加的问题,提出了一种基于三态信号的测试数据压缩方法。首先,对测试集进行优化预处理操作,即对测试集进行部分输入精简和测试向量重排序操作,在提高测试集中无关位X的比例的同时,使各测试向量之间的相容性提高;随后,对预处理后的测试集进行三态信号编码压缩,即利用三态信号的特性将测试集划分为多个扫描切片,并对扫描切片进行相容编码压缩,考虑多种相容规则使得测试集的压缩率得到提高。实验结果表明,与同类压缩方法相比,所提的方法取得了较高的压缩率,平均测试压缩率达到76.17%,同时测试功耗和面积开销也没有明显增加。  相似文献   

4.
民用GPS数据准无损压缩算法   总被引:1,自引:0,他引:1  
为了提高民用GPS精度范围内的定位数据压缩率和压缩速度,在对霍夫曼编码和算术编码的性能进行分析比较的基础上,将预测编码与霍夫曼编码有机结合,提出了面向民用GPS精度范围的定位信息准无损压缩算法.该算法通过压缩预处理和二次量化去除冗余信息,采用预测编码提高编码效率,总压缩效率可达87%.采用MSP430单片机对该算法进行了测试,在压缩数据量为668 KB时,压缩率为87.1%, 处理时间为31.4 s,与仿真结果基本吻合.实验结果表明,该算法经过优化后对硬件要求较低,提高了压缩率和压缩速度,节约了存储资源,节省了数据传输时的通信费用.  相似文献   

5.
针对目前二值图像压缩方法压缩率低的情况,提出基于九宫格的二值图像压缩算法。该算法采用多数同一化少数的思想,统计九宫格内黑白像素的数量,数量多的像素同化数量少的像素,以达到所有像素为同一种像素的目的,然后对这些像素进行压缩编码。该算法可以根据不同压缩率的要求,对九宫格做进一步的分块,每个分块都进行同一化操作,再分别对这些分块进行压缩编码,实现了压缩率分别为9,4.5和3的压缩。实验结果表明,该算法具有较高的压缩率,在图像质量要求不高,压缩率要求较高的情况下具有较大的优势。  相似文献   

6.
压缩技术在数据采集系统中的应用   总被引:1,自引:0,他引:1  
介绍了一种通用编码的数据压缩技术-LZW算法,并以此算法为核心,对采集的数据预先作有条件的有损压缩和自适应编码变换,在压缩数据的同时,使数据和LZW算法要求的数字输入格式相匹配,使之能更好地发挥作用,经实际验证,数据经有压缩,自适应编码和LZW压缩之后,达到较高的压缩率,该方法具有通用性好,易于实现的特点。  相似文献   

7.
三角形条带为三角形网格提供了一种紧凑的表示方法,使快速的绘制和传输三角形网格成为可能,因此对由三角形条带构成的网格压缩进行研究具有重要的意义.本文使用Triangle Fixer方法对三角形条带构成的三维模型拓扑信息进行了压缩,并采用3阶自适应算术编码进一步提高压缩率;同时结合量化、平行四边形顶点坐标预测以及算术编码来实现三角形网格几何信息的压缩,在几何模型质量基本没有损失的情况下,获得了很好的压缩性能.  相似文献   

8.
XCfde:高压缩率的XML文档压缩技术   总被引:1,自引:0,他引:1       下载免费PDF全文
本文提出了一种用于数据交换的XML压缩技术XCfde。XCfde采取四步压缩方案:把XML文档分离为结构数据和内容数据;自动识别数据类型并自动分类数据;对不同类型的数据采用不同的编码策略;将初步编码后的结构数据和内容数据使用7Zip进行整体压缩。XCfde拥有较高的压缩率,改善了XML数据交换的传输效率和存档中的空间利用率。  相似文献   

9.
测试数据压缩和测试功耗协同优化技术   总被引:6,自引:3,他引:6  
提出一种新的压缩编码——Variable-Tail对测试数据进行压缩,建立了两个优化模型,并提出了一种测试向量排序和不确定位定值算法,利用该算法不仅能提高测试压缩率,而且能降低测试时待测电路上损耗的功耗,理论分析和ISCAS85,ISCAS89电路的实验结果验证了文中编码和算法的有效性。  相似文献   

10.
混合定变长码的测试数据压缩方案   总被引:6,自引:0,他引:6  
文章提出了一种混合定变长码的测试数据压缩方案,该方案可以有效压缩芯片测试数据量.此压缩方案将代码字拆分为固定长度的首部和可变长度的尾部两部分.首部固定使解压过程简单,硬件开销小,尾部可变使编码灵活.同时采用了将尾部最高位隐藏的方法来进一步提高压缩率,还使用了特殊的计数器来进一步简单化解压电路.对ISCAS 89部分标准电路的实验结果显示,文中提出的方案在压缩效率和解压结构方面都明显优于同类压缩方法,如Golomb码、FDR码、VIHC码、v9C码等.  相似文献   

11.
结合中文文本中的汉字编码方式、大字符集以及重复字串不长三个不同于英文文本的结构特点对LZW算法从读取数据方式、基本码集和字典码值输出方式三方面进行了修改。改进后的算法对中文文本的压缩比平均比LZW19提高了19%且压缩和解压速度与后者相当,其对较长的中文文本的平均压缩比已接近或者超过了压缩软件WinRAR。  相似文献   

12.
在无线传感网络通信中,传感器数据需要通过无线设备发送给上位机。随着终端传感器传输数据量的增大,无线设备的发送能耗逐渐加大。在不便于及时维护的复杂环境中,这将导致无线通讯设备过早失效从而使得通讯中断。因此需要先将传感器采集到的数据进行压缩,减小发送数据量。在分析传感器数据特点和传统的LZW(Lempel-Ziv-Welch)压缩算法的基础上,提出了一种面向无线传感网络应用的改进LZW算法。该算法首先对采集到的传感器相邻数据进行差值预处理,以提高数据项的重复率;然后选择大小合适的字典,在字典上用哈希存储的方式代替传统的顺序存储,以改进字典更新方式,当检测到压缩率降低时更新字典,并保存常用单字符,释放字典空间,达到数据压缩的目的。实验数据显示,与传统的LZW算法相比,改进的LZW算法使得有序传感器数据的压缩率最高降低40%,减小了所需发送数据的数据量,压缩速度也提高了近10倍,证明了面向无线传感网络应用的改进LZW算法是有效可行的。  相似文献   

13.
介绍了独立分量分析(ICA)基本原理和算法,提出了一种基于独立分量分析和支持向量机的有限集字符识别新方法。对传统向量机解决多分类问题的“一对一”模式进行了改进,将传统向量机的“一对一”模式存在的不可分区域减小到可以忽略的程度,克服了不可分区域的影响。该算法可应用于车牌字符、手写体英文字母、手写体数字、印刷体字母、印刷体数字等有限集字符的识别。在大量的车牌汉字和手写体英文字母自动识别实验中,取得了高于95%的识别结果,证明该算法在有限集字符识别应用中的优越性。  相似文献   

14.
一种快速汉语分词算法   总被引:9,自引:2,他引:9  
温滔  朱巧明  吕强 《计算机工程》2004,30(19):119-120,128
通过对已有分词算法的分析,尤其是对快速分词算法的分析,在对已有词表进行改进的基础上,提出了一种高效的快速分词算法,理论分析表明,在大词库下,该算法也能有很好的表现。  相似文献   

15.
基于无指导学习策略的无词表条件下的汉语自动分词   总被引:16,自引:0,他引:16  
探讨了基于无指导学习策略和无词表条件下的汉语自动分词方法,以期对研制开放环境下健壮的分词系统有所裨益,全部分词知识源自从生语料库中自动获得的汉字Bigram.在字间互信息和t-测试差的基础上,提出了一种将两者线性叠加的新的统计量md,并引入了峰和谷的概念,进而设计了相应的分词算法,大规模开放测试结果显示,该算法关于字间位置的分词正确率为85.88%,较单独使用互信息或t-测试差分别提高了2.47%和5.66%。  相似文献   

16.
用户在互联网发布信息的自由性对Web信息内容过滤提出新的挑战。为此,给出一种自学习的两级内容过滤算法SAFE(self-study algorithm of filtering Chinese text content)。SAFE以数据流的方式处理文本,并根据Apriori性质,在不依赖词典的情况下,通过挖掘关键字和关键词实现对文档的两级内容过滤。利用真实世界Web文档验证了SAFE的有效性,实验表明对给定的主题进行文本内容过滤,SAFE的查全率达到93.75%以上,查准率达到100%,执行时间能够满足Web应用的实时性要求。  相似文献   

17.
基于字典的DNA序列压缩算法研究及应用*   总被引:1,自引:0,他引:1  
在现有DNA序列数据压缩算法的基础上,以DNA序列数据的存储效率及生物学解释综合考虑,设计并实现了基于字典的DNA序列压缩算法DNADCompress.算法核心包括重复子串字典建立、字典项筛选、字串压缩编码三方面.实验数据表明,数据压缩算法压缩效果达到常用DNA序列压缩算法水平,并为序列生物学解释提供了基础.  相似文献   

18.
杨晓江 《计算机工程》2003,29(21):154-155,F003
在计算机上演示汉字的规范书写过程,是许多汉语教学软件和电子汉语词典所追求的功能。提出了一种汉字智能书写的算法。该算法通过预制作收集并保存汉字的书写过程信息,书写时根据这些信息,动态地产生起笔落笔、速度变化、语音提示等各种书写效果.文中给出的算法预制作简单、数据量极小,适合于各种多媒体汉语教学软件和电子汉语词典中使用。  相似文献   

19.
目前,已经有很多文献阐述了不同的手写汉字识别算法,但是绝大多数算法都是针对单个汉字进行识别的,所以对于比较容易混淆的字,它们的识别效果都不好。该文针对这个问题,在单个汉字识别的基础上,结合汉语字典,加入了对前后汉字的语义考虑,大大地提高了这些容易混淆的汉字的识别率。  相似文献   

20.
随着运动数据越来越多地被应用于动画制作和科研领域,高效的运动数据压缩技术也逐渐成为一个热门的研究课题.基于稀疏表达提出一种新的运动数据有损压缩方法.首先对输入的运动数据进行分析生成稀疏表达字典;然后基于稀疏表达字典对运动数据中的每一帧进行稀疏线性表达;最后用K-SVD算法对字典和稀疏表示进行迭代优化.实验结果表明,本文方法可以达到较高的压缩比(50倍左右),同时保持原始运动数据的完整性,还原后可控制重建误差在肉眼不易分辨的范围内(平均RMS误差2.0以下),并且本文方法特别适用于对较短运动数据的压缩.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号