共查询到19条相似文献,搜索用时 125 毫秒
1.
传真图像的信息量非常大,对其进行数据压缩,不仅可以节省存储空间,而且可以有效地降低传输时间。采用MR编码对传真图像进行数据压缩,设计了压缩和解压缩编码算法。仿真实验表明,该算法可以满足传真图像对压缩比和压缩速度的要求,且有效可行。 相似文献
2.
改进的静态图像零树编码算法 总被引:14,自引:2,他引:12
Shapiro的EZW静 图像压缩算法,由于充分利用了小波变换图像的良好性质,引起了图像数据压缩领域的广泛注意,EZW算法被认为是静态图像变换编码领域迄今为止最好的算法之一,通过分析与实验,发现该算法也存在一些不足,地此该文提出 了一种改进的零树编码算法,在一定 克服了这些不足,该算法编码流包括在发)最低了带图像的编码流,最低频的子带图像包含了原始图像的绝大春系数的绝对值比人它子图的系数要大几个数 相似文献
3.
为了进一步提高图像压缩效率和质量,提出一种离散小波变换(DWT)和最小二乘支持向量机(LSSVM)相融合的图像压缩方法(DWT-LSSVM)。采用DWT对图像分解,得到低频系数和高频系数,采用LSSVM归学习逼近高频系数,并采用混沌粒子群算法对LSSVM参数进行优化,对支持向量、权重和低频系数进行编码,得到数据压缩数据流。仿真结果表明,DWT-LSSVM获得了较高的压缩比,可以较好满足图像传输的实时性要求。 相似文献
4.
5.
结合小波系数的特点,采用了改进的均匀量化器——带截止区的均匀量化器(USDZQ)对变换后的小波系数进行量化。量化器的参数选取直接影响到ECG数据压缩的质量和压缩比,因此重点研究了USDZQ的参数优化问题,选取了蚁群优化算法(ACO)作为USDZQ参数的优化工具。最后,利用本文算法对MIT-BIH心律失常数据库的ECG信号进行了编码测试。实验结果表明,只要对USDZQ的参数进行合理优化,USDZQ就能获得优于均匀量化的性能,并可以成功地应用于ECG数据压缩中。 相似文献
6.
一种改进的过程数据压缩算法及其性能分析 总被引:1,自引:0,他引:1
过程数据压缩和趋势提取可以提高控制系统的性能.提出了一种改进的SDT过程数据压缩算法.通过应用自适应记录限和异常点判据,改进算法在压缩误差只有很小变化的前提下,较大地提高了压缩比.本算法适合离线和在线压缩,并可集成于各种过程数据处理软件包中. 相似文献
7.
设计了一种对遥测大容量速变数据的实时压缩采集方案,通过采用改善无损压缩算法的压缩比、压缩和解压速度以及算法复杂度等多个数据压缩性能,提出了综合性能较好的LZW编码作为数据压缩的核心算法并通过软件仿真确认其效果和压缩算法的执行速度;利用主控芯片FPGA完成对压缩数据的高精度采集,对研制的数据采集压缩系统进行整体测试,测试结果表明,该系统完成了6路速变参数的实时采集与压缩,压缩比达到1.8∶1以上,各项指标满足了设计要求. 相似文献
8.
EZW静态图像压缩算法,由于充分利用了小波变换图像的良好性质,引起了图像数据压缩领域的广泛注意.EZW算法被认为是静态图像变换编码领域迄今为止最好的算法之一.通过对EZW算法及其改进算法的介绍,分析了这些算法存在的不足,并提出一种简单而有效的静态图像压缩算法,根据图像经小波分解后系数的特点和人眼视觉特性对Shapiro的EZW算法进行改进.由于人眼对图像的边缘信息的丢失非常敏感,改进后的算法更加注重边缘信息的编码,实验结果表明,重构后的图像更加清晰,尤其在低比特率时更加明显. 相似文献
9.
提出了一种新颖的适合医学图像的压缩算法AR-EWC(embedded wavelet coding of arbitrary ROI).该算法保证了感兴趣区域边界与背景光滑过渡,支持任意形状ROI的无失真编码,生成内嵌有损到无损图像质量渐进优化的码流,并且可以对ROI独立随机存取.针对医学图像的特点,对包含重要临床诊断信息区域采用完全无失真的无损压缩,而对背景采用高压缩比的有损压缩,既保证了医学图像对高质量的要求,相对于传统的无损方案又大大提高了图像的整体压缩比.在临床头部MR图像数据集上的实验表明,该算法在保证了ROI区域无损压缩的前提下,达到了与经典的有损压缩算法相当的压缩比率. 相似文献
10.
基于线性分形插值函数的遥测数据压缩 总被引:1,自引:0,他引:1
文章提出了基于线性分形插值函数的一维数据压缩算法,并利用它对文献犤1犦中所列的遥测数据进行了压缩,与传统的预测编码算法比较,新方法取得了更高的压缩比。 相似文献
11.
12.
对数据压缩中的动态限长编码压缩算法进行了分析。该算法中采用了一种动态限长变化的不等长编码方法。使最短码2位,而最长码不超过8位,达到了最佳压缩效果。 相似文献
13.
代码克隆检测在剽窃检测、版权侵犯调查、软件演化分析、代码压缩、错误检测,以及寻找bug,发现复用模式等方面有重要作用。现有的代码克隆检测工具算法复杂,或需要消耗大量的计算资源,不适用于规模巨大的代码数据。为了能够在大规模的数据上检测代码克隆,提出了一种新的代码克隆检测算法。该算法结合数据消重中的基于内容可变长度分块(content-defined chunking,CDC)思想和网页查重中的Simhash算法思想,采用了对代码先分块处理再模糊匹配的方法。在一个包含多种开源项目,超过5亿个代码文件,共约10 TB代码内容的数据源上,实现了该算法。通过实验,比较了不同分块长度对代码克隆检测率和所需要时间的影响,验证了新算法可以运用于大规模代码克隆检测,并且能够检测出一些级别3的克隆代码,达到了较高的准确率。 相似文献
14.
15.
为减少测试数据存储量,提出一种有效的新型测试数据压缩编码--PTIDR编码,并构建了基于该编码的压缩/解压缩方案.PTIDR编码能够取得比FDR,EFDR, Alternating FDR等编码更高的压缩率,其解码器也较简单、易实现,且能有效地降低硬件开销.与Selective Huffman, CDCR编码相比,PTIDR编码能够得到较高的压缩率面积开销比.特别地,在差分测试集中0的概率满足p≥0.7610时,PTIDR编码能取得比FDR编码更高的压缩率,从而降低芯片测试成本. 相似文献
16.
17.
xpTools:代码压缩系统定制环境 总被引:1,自引:0,他引:1
代码压缩技术通过对整个应用程序全部或者部分指令进行压缩,能够有效地减少内存的尺寸、功耗等。但是,代码压缩技术却没有得到广泛的应用,主要原因是缺乏有效的定制环境.本文针对代码压缩的需求提出了一套可重定向的工具集xpTools用于代码压缩系统的定制,该工具集(包括编译器、仿真器、分析工具、综合工具等)可根据设计者选择的指令集自动生成,利用这些工具设计者能够针对具体应用权衡代码压缩技术对系统的性能、功耗、尺寸等方面的影响,进而定制最佳的代码压缩系统. 相似文献
18.
我们正处于一个大数据的时代.如今一个分布式存储系统需要存放PB数量级数据的情况越来越常见.这些系统一般由普通商用组件构成,其出错率相对较高.由此,分布式存储系统需要保证数据的可靠性和可用性.多副本和纠删码是现在最为常用的技术.相比多副本技术,采用纠删码能在同等容错能力下大幅降低存储开销.然而,在进行数据恢复时,使用传统的纠删码(如Reed-Solomon码)会导致系统中产生大量的网络带宽消耗及磁盘读写操作,进而导致退化读延迟过高.注意到在系统中数据的访问频率呈Zipf分布,大多数数据访问只涉及到少量数据,而绝大多数数据的被访频率很低.根据这种数据访问的偏斜性,本文提出如下存储策略以解决采用纠删码的系统退化读延迟过高的问题:对被访频率高的热数据采用低恢复延迟的纠删码(如局部恢复码Local Reconstruction Code,LRC)进行编码,而对被访频率低的冷数据采用保证最小存储开销的纠删码(如Hitchhiker码)进行编码.由于热数据占据了绝大多数的数据访问,因此绝大多数的退化读也将应用在这些热数据上,这样这一策略就能在整个系统的角度获取低恢复开销的优势.同时,冷数据占据了系统绝大多数的数据量,且冷数据由保证最小存储开销的编码进行存储,因此这一策略的存储开销会很低.然而,对于混合存储策略而言,热数据可能会变冷,而冷数据也可能会变热,因此它需要配置一种编码切换过程.一个不恰当的编码切换过程会引起巨大的数据传输量,这是难以让人接受的.为了避免这一缺陷,本文提出了一种LRC和Hitchhiker码之间的高效切换算法.这一算法可以避免上述策略在部署时因冷热数据的转换出现系统瓶颈.在精心选取了两种编码并提出它们之间的高效切换算法后,本文提出的混合存储策略避免了现阶段其余混合存储策略的主要缺点.通过实验验证,此存储策略相较传统的Reed-Solomon码在退化读延迟方面降低了55.8%.在编码切换方面,切换延迟能分别降低为重新编码算法用时的13.4%及33.1%,且当数据从LRC切换为Hitchhiker码时(更为频繁出现的情况)的数据传输量能降至10%. 相似文献
19.
简单介绍了PDF417条码的结构特征,对PDF417条码在服装防伪中的应用进行了探索性的研究。针对商标图像本文提出了一种分块量化压缩算法。选择一种算法,在输出条码前对其数据区进行处理,以达到防止条码伪造的目的。并用C#语言完成了其编码打印软件。 相似文献