首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 203 毫秒
1.
数据压缩的综合字典模型   总被引:2,自引:0,他引:2  
文中提出一种无损的数据压缩的字典方法,被称为综合字典方法,该方法在较大程度上消除数据文件中多种形式的冗余,达到较好的压缩效果。  相似文献   

2.
张胜  舒坚  包晓玲 《计算机应用》2008,28(10):2537-2540
XML已经成为互联网上信息交换和信息表示的事实标准。然而XML文档中包含大量重复出现的标签和结构等冗余信息,导致XML文档在查询处理和数据交换时付出更高的代价,特别在带宽和资源受限的设备上显得更为突出。压缩技术是解决这一问题的重要途径。搜集了近几年提出的各种XML压缩方法,从压缩率、压缩与解压时间、内存消耗、查询性能等方面比较分析了六个具有代表性的XML压缩技术,最后简要归纳了各自的优点和存在的不足,并探讨未来努力的方向。  相似文献   

3.
4.
基于视频的道路综合信息检测系统,由于图像数据量大的特点,图像压缩效率低一直是系统设计的瓶颈。利用现场可编程门阵列(FPGA)的并行处理特点,提出了一种以FPGA芯片为核心处理器件的图像采集压缩系统设计方案,将FPGA技术、图像压缩等技术应用于设计过程中,提高了图像压缩效率,并有效防止图像信息的丢失。  相似文献   

5.
XML压缩方法的比较分析   总被引:1,自引:0,他引:1       下载免费PDF全文
张胜  包晓玲  舒坚  陈莎 《计算机工程》2009,35(11):26-28,3
搜集近几年提出的各种XML压缩方法,比较、分析具有代表性的XML压缩技术。实验表明,XMill拥有出色的压缩率、较少的压缩与解压时间、较低的内存消耗,以及最优的平均压缩性能,但不支持对压缩文档的直接查询。XGRIND与XPRESS的压缩性能不如XMill,却能较好地支持对压缩文档的直接查询。总结XML压缩方法各自的优点和不足,并探讨未来努力的方向。  相似文献   

6.
This paper presents an image lossless compression and information-hiding schemes based on the same methodology. The methodology presented here is based on the known SCAN formal language for data accessing and processing. In particular, the compression part produces a lossless compression ratio of 1.88 for the standard Lenna, while the hiding part is able to embeds digital information at 12.5% of the size of the original image. Results from various images are also provided.  相似文献   

7.
为研究基于GPU的高性能并行计算技术,利用集成448个处理核心的NVIDIA GPU GTX470实现了脉冲压缩雷达的基本数据处理算法,包括脉冲压缩算法与相参积累算法;同时根据GPU的并行处理架构,将脉冲压缩、相参积累算法完成了并行优化设计,有效地将算法并行映射到GPU GTX470的448个处理核心中,完成了脉冲压缩雷达基本处理算法的GPU并行处理实现;最后验证了并行计算的结果,并针对处理结果效果与实时性进行了评估。  相似文献   

8.
概述了分形及分形图象压缩编码的理论基础,讨论了基于迭代函数系统和新的分形图象压缩编码。  相似文献   

9.
In this paper, image data compression methods based on sample selection in the piecewise-linear transform domain will be presented. The image is subjected to a 2-dimensional piecewise-linear transformation and some coefficients will be selected using threshold method and a proposed zonal sampling method. In the proposed zonal sampling method all samples outside the selected zone will be discarded completely (no zeros are replaced). The inverse transformation in this case will have a dimension equal to that of the selected zone. Thus the number of computations needed for the inverse transformation is reduced. The Peak Signal-to-Noise Ratio (PSNR) is used as a measure of quality of the reconstructed images. Comparisons of the compression ability using piecewise-linear transforms and some selected orthogonal transforms such as Walsh and cosine transforms are given. The results obtained by using the proposed zonal sampling method show that the piecewise-linear transforms have a better performance than the orthogonal transforms.  相似文献   

10.
本文讨论用正交多小波变换对图像进行压缩处理。选择具有最优时频性质的正交多小波,采用改进的零树编码,试验结果表明该方法优于单小波压缩方法。  相似文献   

11.
并行DSP处理器上JPEG算法的实现研究   总被引:1,自引:0,他引:1  
刘杰  康克军  李政 《计算机工程》2000,26(11):50-51
JPEG算法由于效率高和实用性强获得了广泛的应用;而并行处理器DSP具有高效的并行处理能力,因而适合于图象的实时处理。提出了在TI的并行处理器DSP-C80上并行和快速实现JPEG算法的方法,实现了高速实时图象压缩。  相似文献   

12.
XML为在Web上发布和交换异质数据提供了相当的灵活性。但由于这种语言自身就有冗余的特性所以XML文档在体积都大于有相同数据内容的其他类型的文档。随着XML在web上应用的扩展其数据大小自然也会随之而增加.而这实质上增加了数据的存储量、处理量和交换量,因此XML文档的体积问题也阻碍了XML的应用,特别是阻碍了XML在具有带宽和内存容量限制的应用上如移动通讯应用。在这篇文章中,我们将大致的介绍一下最近提出的几种针对XML的压缩算法并分析它们在解决XML文档体积问题上的技术和效能。  相似文献   

13.
在常规的JPEG2000压缩框架下,提出一种面向遥感影像的JPEG2000优化压缩算法,对遥感图像整体处理传输耗时进行分段处理,在EBCOT编码中合并编码通道扫描过程及编码过程,实现对遥感图像编/解码过程用时的优化,在小波变换后清除高频子带小波系数中非重要的背景信息,并缩减相对重要信息的处理过程,从而缩短了与压缩比和图像大小密切相关的传输时间。实验结果表明,该算法在几乎不影响遥感图像质量的情况下可以显著提高遥感图像整体压缩、传输和重构的效率,缩短其处理耗时。  相似文献   

14.
XML为在Web上发布和交换异质数据提供了相当的灵活性。但由于这种语言自身就有冗余的特性所以XML文档在体积都大于有相同数据内容的其他类型的文档。随着XML在Web上应用的扩展其数据大小自然也会随之而增加,而这实质上增加了数据的存储量、处理量和交换量,因此XML文档的体积问题也阻碍了XML的应用,特别是阻碍了XML在具有带宽和内存容量限制的应用上如移动通讯应用。在这篇文章中,我们将大致的介绍一下最近提出的几种针对XML的压缩算法并分析它们在解决XML文档体积问题上的技术和效能。  相似文献   

15.
基于整数小波变换和零树编码的监控图像压缩   总被引:1,自引:0,他引:1  
图像的小波变换压缩编码是近年来图像压缩领域的热点之一。本文介绍了将小波图像编码技术应用于相对图像复杂度较少的监控图像,并在PC和DSPs两个平台上分别进行了压缩编码实验,得到了比JPEG标准更好的压缩效果。  相似文献   

16.
Comparative Analysis of XML Compression Technologies   总被引:1,自引:0,他引:1  
XML provides flexibility in publishing and exchanging heterogeneous data on the Web. However, the language is by nature verbose and thus XML documents are usually larger in size than other specifications containing the same data content. It is natural to expect that the data size will continue to grow as XML data proliferates on the Web. The size problem of XML documents hinders the applications of XML, since it substantially increases the costs of storing, processing and exchanging the data. The hindrance is more apparent in bandwidth- and memory-limited settings such as those applications related to mobile communication. In this paper, we survey a range of recently proposed XML specific compression technologies and study their efforts and capabilities to overcome the size problem. First, by categorizing XML compression technologies into queriable and unqueriable compressors, we explain the efforts in the representative technologies that aim at utilizing the exposed structure information from the input XML documents. Second, we discuss the importance of queriable XML compressors and assess whether the compressed XML documents generated from these technologies are able to support direct querying on XML data. Finally, we present a comparative analysis of the state-of-the-art XML conscious compression technologies in terms of compression ratio, compression and decompression times, memory consumption, and query performance.  相似文献   

17.
更快速的高阶细胞自动机超并行数据压缩方法   总被引:1,自引:0,他引:1  
构造出高阶置换映射,进而得出更有效的高阶细胞自动机超并行数据压缩方法,在不增加细胞自动机总体结构复杂性的情况下,比文献「1」中并行压缩方法的处理速度可以成倍地提高。证明了用遗传进化算法得到的高阶细胞自动机元胞级无失真数据压缩规则的正确性和可行性,讨论了有关的时间复杂性及高阶数据压缩方法的有效性。  相似文献   

18.
基于遗传进化的元胞级并行无失真数据压缩方法   总被引:5,自引:1,他引:4  
帅典勋  顾静 《计算机学报》1999,22(8):797-803
利用一阶和二阶细胞自动机,进行元胞级并行无失真数据压缩,细胞自动机中的数据压缩规则由遗传进化算法得到,构造相应的全局置的置换映射,分别证明了一阶和二阶细胞自动机文本压缩规则的正确性。讨论阴关的时间复杂性及符号动力学特性。  相似文献   

19.
自Barnsley提出分形图像编码的概念,特别是Jacquin给出了第一个完全由计算机自动完成的图像编码算法以来,分形图像编码得到了越来越多的关注,但分形图像压缩往往需要较长时间,这就给具体实用带来了巨大困难。本文首先给出分形图像压缩理论,然后在Jacquin所提出的分形方块编码基础上提出了改进算法,包括建立小方块被匹配概率活动表,按相似度找到匹配块,隔点计算法等。针对上述改进算法,作了具体实验。实验结果表明,与基本自动分形图像编码方法相比,在保持重建图像质量的前提下,运算时间大大下降,加快了分形图像压缩速度。  相似文献   

20.
Image authentication is becoming very important for certifying data integrity. A key issue in image authentication is the design of a compact signature that contains sufficient information to detect illegal tampering yet is robust under allowable manipulations. In this paper, we recognize that most permissible operations on images are global distortions like low-pass filtering and JPEG compression, whereas illegal data manipulations tend to be localized distortions. To exploit this observation, we propose an image authentication scheme where the signature is the result of an extremely low-bit-rate content-based compression. The content-based compression is guided by a space-variant weighting function whose values are higher in the more important and sensitive region. This spatially dependent weighting function determines a weighted norm that is particularly sensitive to the localized distortions induced by illegal tampering. It also gives a better compactness compared to the usual compression schemes that treat every spatial region as being equally important. In our implementation, the weighting function is a multifovea weighted function that resembles the biological foveated vision system. The foveae are salient points determined in the scale-space representation of the image. The desirable properties of multifovea weighted function in the wavelet domains fit nicely into our scheme. We have implemented our technique and tested its robustness and sensitivity for several manipulations.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号