首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 203 毫秒
1.
一种新的静止图像压缩标准--JPEG2000   总被引:1,自引:0,他引:1  
新一代静止图像压缩标准JPEG2000不仅在压缩性能方面明显优于目前的JPEG,同时具有支持渐进传输,感兴趣区编码,良好的误差鲁棒性,码流随机访问等特点,在Internet传输,无线通信,医疗图像等领域具有广阔的应用前景,介绍了JPEG2000编解码系统的体系结构,关键技术。主要特点等,同时给出有关JPEG2000压缩性能的一些实验结果。  相似文献   

2.
基于JPEG2000渐进过程数截断编码算法   总被引:1,自引:0,他引:1       下载免费PDF全文
对JPEG2000的率失真优化截取的嵌入式码块编码算法的各编码块截断过程数进行了分析,对大量的图像进行实验后发现,图像的每个编码块是在相近的过程数截断,于是提出了一种同一过程截断算法。在此基础上又提出了渐进过程数截断编码算法,最终这个算法舍去了复杂的率失真计算,降低了T2 编码器设计难度,提高了JPEG2000系统的处理速度,减少了存储量,对硬件实现是很好的新方法,处理512×512的8bits位深的图像16倍压缩为250fps。  相似文献   

3.
针对JPEG2000标准使用的两种感兴趣编码方法,最大位移法和一般位移法对医学图像处理的不足,采用了一种分步提升方法,以完成医学图像感兴趣区域编码,以及图像中病灶区域和非病灶区域图像质量的自由调整。并根据率失真优化策略组织压缩码流,实现医学图像的感兴趣区域编码与渐进传输。实验结果表明,该方法可在低码率下实现感兴趣区域的高保真度压缩,有效提高图像压缩和传输的效率。  相似文献   

4.
一种支持密文转码的JPEG2000图像加密算法   总被引:1,自引:0,他引:1  
傅勇  易小伟  马恒太 《计算机科学》2014,41(6):84-88,93
针对异构化程度不断加剧的通信网络环境对码率转换能力的需求,提出了一种支持密文域转码的层次化加密算法CT-HEA。与以往基于JPEG2000图像的加密算法相比,CT-HEA针对率失真优化截断模型的特点,按照图像质量层和分辨率对压缩流重新进行截断与合并,对重组后的码流采用密码学算法进行分层加密。该算法支持对加密压缩流的透明码率转换。仿真实验结果表明,CT-HEA算法复杂度低、保密性好,具有灵活的安全转码特性和低的转码代价。  相似文献   

5.
一种基于SPIHT算法的感兴趣区域编码新方法*   总被引:6,自引:2,他引:4  
在研究JPEG2000中的感兴趣区域(ROI)编码算法优缺点的基础上,结合嵌入式编码理论和人眼视觉特性,利用等级树分集(SPIHT)编码算法的特性,提出了一种高效的ROI编码方法,压缩后的码流具有嵌入式特点,支持渐进传输.实验结果表明:尽管在低码率下,该算法整体峰值信噪比较低,但主观视觉效果明显好于SPIHT算法,结果令人满意.  相似文献   

6.
韩猛  钟广军 《微机发展》2007,17(12):8-11
为了使位流可以适应网络带宽的异构、时变以及各个网络终端的不同图形处理能力,提出了一种基于小波变换的三维网格分块渐进传输的压缩算法。利用细分曲面的模型表示方法,按照控制网格将几何体分块,采用嵌入式位平面编码方法对小波变换后每个小波子带的系数进行独立编码,生成多条独立的渐进压缩码流。该算法支持动态的质量可扩展性和分辨率可扩展性,能够从压缩结果中直接获得视点相关的模型表示。实验结果表明,该算法有利于提高多分辨率表示和传输效率,降低网络带宽需求。  相似文献   

7.
目的 针对异构网络环境下,不同终端用户对遥感影像质量的不同需求而导致的影像数据量过大、传输及显示延迟过长等问题,提出一种在线压缩—实时传输—实时解压缩的遥感影像渐进传输模型。方法 模型采用多线程流水线同步处理的加速算法,将基于质量渐进压缩的SPIHT算法与多线程流水线技术相结合,在VC++环境下,将遥感影像在线压缩成码流,在压缩的同时,启动多线程采用Socket信道对压缩码流实时发送,客户端收到码流后,利用多线程实时解压缩并显示。通过采用多线程技术,使得压缩、传输和解压缩同步进行,从而减少了整体处理时间。结果 实验结果表明,提出的实时压缩渐进传输模型,在不影响影像质量的前提下,算法处理速度提高近2倍。每个渐进分层影像与原影像的相似度比多分辨率渐进压缩分层影像与原影像的相似度平均增加20%。结论 该模型有效地解决了遥感影像渐进传输过程中压缩、传输和解压缩的不同步问题,从而提高了渐进传输效率。与多分辨率渐进传输比较,此渐进传输模型具有更好的视觉效果。  相似文献   

8.
一种适用于网络环境的三维网格压缩算法   总被引:1,自引:0,他引:1  
为了使位流可以适应网络带宽的异构、时变以及各个网络终端的不同图形处理能力,提出了一种基于小波变换的三维网格分块渐进传输的压缩算法。利用细分曲面的模型表示方法,按照控制网格将几何体分块,采用嵌入式位平面编码方法对小波变换后每个小波子带的系数进行独立编码,生成多条独立的渐进压缩码流。该算法支持动态的质量可扩展性和分辨率可扩展性,能够从压缩结果中直接获得视点相关的模型表示。实验结果表明,该算法有利于提高多分辨率表示和传输效率,降低网络带宽需求。  相似文献   

9.
JPEG 2000--新的静止图像压缩标准   总被引:9,自引:2,他引:9  
为满足不同应用需求而制定的新的静止图像压缩标准——JPEG2000已于2000年12月正式成为国际标准,对JPEG2000进行了系统的分析,对其采用的许多新算法及关键技术进行了详细的描述,包括基于提升法的第2代小波变换,位平面编码,自适应算术编码,标识树编码,感兴趣区域编码及基于渐进顺序的码流组织方式等。  相似文献   

10.
在静止图像的压缩中 ,为得到固定大小的码流文件 ,有必要根据输入图像的特点 ,自适应地控制量化器的参数 ,从而控制输出压缩图像的比特率 .JPEG标准未给出比特率控制方法 ,而一些传统的比特率控制方法为专用的压缩解压缩系统设计 ,并不适用在于开放的基于交换格式的 JPEG压缩系统 .本文提出一种和 JPEG标准完全兼容的比特率控制算法 ,按照输入图像的活动性 ,计算相应的压缩质量因子 ,自适应地为每个 8× 8的块分配比特数 ,并且在熵编码时调整各块的比特数 ,适时启动块截除 ,保证压缩文件的大小不超过预先给定值 .本算法适用于存储容量有限的静止图像压缩的场合 ,可以保证存储规定帧数的压缩文件图像  相似文献   

11.
针对静态医学图像压缩,介绍了两种压缩标准JPEG与JPEG2000,通过对它们的比较,突出JPEG2000的优势,诠释了JPEG2000的基本结构与编码、解码技术,描述了基于DSP的图像压缩设计方案。系统采用CCD采集数字图像,用16位定点DSP进行小波压缩,主要为了减小传输费用,试验结果表明JPEG2000对图像重现与压缩比率效果较优。  相似文献   

12.
王琪  郭雷 《计算机工程》2003,29(22):163-164,172
JPEG2000不仅比现有的标准例如JPEG有更好的客观图像质量,而且提供了很多新的特性和功能。可以对感兴趣区域进行最高质量的压缩或者无损压缩就是一个非常重要的功能,而现有标准不能有效实现或根本无法实现。文章从JPEG2000的算法原理开始,对如何进行感兴趣区域编码进行了阐述,并且给出了实验结果。  相似文献   

13.
在分析图象整数小波变换的基础上 ,提出了基于子带比特平面编码的压缩算法 .该算法将整数小波系数按子带分为若干比特平面 ,称之为子带比特平面 ,并采用简单高效的率失真优化算法确定子带比特平面的编码顺序 ,且这一顺序与图象无关 .按此顺序对子带比特平面进行自适应 MQ算术编码 ,便得到嵌入式压缩码流 .该算法可以从无损到有损 ,以任意倍率或质量进行图象压缩 ,压缩效率达到了浮点 EZW算法和 JPEG2 0 0 0整数小波编码方案的水平 ,而速度远快于这两者的速度 .该算法还具有复杂度低 ,占用内存少的优点 .  相似文献   

14.
为了给P帧和B帧作参考帧.保证编码序列在解码时能正确地开始和进行,H.264中的I帧编码是一种独立消除空间冗余度的适度图像压缩算法,没有使用帧间预测和补偿。在某种程度上,I帧编码可以被认为是一种静态图像编码。JPEG2000是ISO推出的新一代静态图像压缩标准。通过对目前这两种最先进的图像压缩标准的分析和比较,得出在较低的码率下,针对小尺度图像,H.264的帧内压缩有着比JPEG2000更好的性能,而在其他条件下JPEG2000的算法占优。  相似文献   

15.
随着科学技术的不断发展,为保证图像的实时数据传输,传统的JPEG标准开始不能满足实际应用的需要,新一代静止图像压缩JPEG2000应运而生。通过阐述JPEG2000图像压缩编解码的原理,并与传统的JPEG标准比较,分析JPEG2000的优点和存在的不足,为提高获取图像数据的实时传输性能提供理论依据。  相似文献   

16.
Bin  Danian  Lifeng  Shiqiang 《Neurocomputing》2007,70(16-18):3068
Unlike traditional neural networks that require predefined topology of the network, support vector regression (SVR) approach can model the data within the given level of accuracy with only a small subset of the training data, which are called support vectors (SVs). This property of sparsity has been exploited as the basis for image compression. In this paper, for still image compression, we propose a multi-scale support vector regression (MS-SVR) approach, which can model the images with steep variations and smooth variations very well resulting in good performance. We test our proposed MS-SVR based algorithm on some standard images. The experimental results verify that the proposed MS-SVR achieves better performance than standard SVR. And in a wide range of compression ratio, MS-SVR is very close to JPEG in terms of peak signal-to-noise ratio (PSNR) but exhibits better subjective quality. Furthermore, MS-SVR even outperforms JPEG on both PSNR and subjective quality when the compression ratio is higher enough, for example 25:1 for Lena image. Even when compared with JPEG-2000, the results show greatly similar trend as those in JPEG experiments, except that the compression ratio is a bit higher where our proposed MS-SVR will outperform JPEG-2000.  相似文献   

17.
为满足异构网络环境下不同终端用户对遥感影像质量的各种需求,提出一种离线压缩-实时传输-实时解压缩的遥感影像渐进传输模型。采用多线程流水线同步处理的加速算法,解决遥感影像渐进传输过程中压缩、传输和解压缩的不同步而导致的相互等待问题,以提高渐进传输效率。引入JPEG2000多分辨率影像压缩算法,提高压缩比,减少传输流量,从而减轻网络传输负担。实验结果表明,与传统的影像渐进传输模型相比,该模型在不影响影像质量的前提下,处理速度提高近2倍,具有更好的压缩与加速效果。  相似文献   

18.
一种基于JPEG2000的医学图像感兴趣区域编码技术   总被引:1,自引:1,他引:0  
感兴趣区域编码是静态图像压缩标准JPEG2000支持的一种非常重要的功能,该标准提供了两种感兴趣区域编码的方法,这两种方法用于医学图像的处理却存在不同的不足之处。该文结合这两种编码方法各自的优点,提出了一种分步位移的处理方法,该方法不仅支持多个感兴趣区域的编码,而且还能自由调整感兴趣区与背景区图像的压缩质量。实验结果表明,医学图像的压缩性能得到了明显的改善。  相似文献   

19.
The JPEG algorithm is one of the most used tools for compressing images. The main factor affecting the performance of the JPEG compression is the quantization process, which exploits the values contained in two tables, called quantization tables. The compression ratio and the quality of the decoded images are determined by these values. Thus, the correct choice of the quantization tables is crucial to the performance of the JPEG algorithm. In this paper, a two-objective evolutionary algorithm is applied to generate a family of optimal quantization tables which produce different trade-offs between image compression and quality. Compression is measured in terms of difference in percentage between the sizes of the original and compressed images, whereas quality is computed as mean squared error between the reconstructed and the original images. We discuss the application of the proposed approach to well-known benchmark images and show how the quantization tables determined by our method improve the performance of the JPEG algorithm with respect to the default tables suggested in Annex K of the JPEG standard.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号