共查询到20条相似文献,搜索用时 125 毫秒
1.
针对JPEG的中低码率压缩图像即高压缩率图像存在较严重的块效应以及量化噪声,提出了一种对JPEG标准压缩图像进行优化的重建-采样方法.该方法对JPEG压缩图像采用三维块匹配算法(BM3D)进行去噪,去除图像中存在的块效应和量化噪声,进而提高超分辨率重建的映射准确性,再使用外部库对去噪后图像进行基于稀疏表示的超分辨率重建,补充一定的高频信息,最后对重建后的高分辨率图进行双三次下采样,得到与原始图像大小一致的图像作为最终优化图像.实验结果表明,该方法在中低码率情况下能够有效地提高JPEG压缩图像的质量,对高码率压缩图像也有一定效果. 相似文献
2.
基于小波域的JPEG2000压缩编码算法,对重建图像造成的失真是结构信息的丢失,从而使人眼的图像感知质量下降。为了解决这个问题,该文提出一种基于人眼感知预测的JPEG2000码率控制算法(SIRA),首先提出了一种度量图像感知质量下降的参数模型,然后建立了一个能在编码之前预测JPEG2000压缩图像感知质量下降的单端预测模型,基于预测模型实现了JPEG2000标准的码率分配。仿真实验结果验证了模型的正确性及算法的有效性。 相似文献
3.
H.264/AVC编码中的码率控制是通过有效控制输出码流的码率来提高其压缩视频质量的重要技术。本文基于H.264/AVC中的JVT-H017码率控制方案提出了一种改进算法。新算法根据H.264中DCT系数的分布特征,将柯西分布引入到码率控制模块,用更精确的柯西率失真模型取代了原先的二次率失真模型。在此基础上,进一步引入了一种联合PSNR比率和MAD比率进行图像复杂度预测的方法,并依此来调整帧级比特的分配和量化参数,克服了在出现复杂运动或场景切换时,因视频序列相邻帧之间相关性降低而导致的MAD预测失准的情况。实验结果表明,与JVT-H017方案及文献[5]中的算法比较,新的算法不仅具有更精确的码率控制,而且明显改善了输出码率的平稳性及重建图像的PSNR。 相似文献
4.
5.
6.
提出一种实时编码实时截断的码率控制算法.它根据已分解的小波子带内码块有效位平面数来预测未分解的小波子带内码块有效位平面数,并根据编码通道数和小波/量化权系数为当前编码码块分配码率.并提出一种JPEG2000编码实时截断,两级码率控制的编码体系结构.第一级采用本文提出的算法实时截断码流和编码通道.第二级在低码率下采用JPEG2000标准的PCRD优化算法搜索精确的分层截断点.在最优分层截断之前多数码流和编码通道被预先截断,存储器损耗小,实时性高.低码率下,图像质量跟JPEG2000标准一致. 相似文献
7.
8.
提出一种基于双重截断的JPEG 2000码率控制算法,并给出其VLSI架构。双重截断包括基于熵估计的码率预分配的粗略截断和易于硬件实现的Tier-2快速截断。首先根据各个码块的熵估计值在所有码块熵估计值总和中所占的比例,提前分配码率,实时控制Tier-1编码部分对码流的第一次截断;再利用一种Tier-2快速码流截断法寻找最优截断点,进行码流的第二次精细截断。实验结果表明,通过双重截断所得的压缩图像,与标准PCRD-opt压缩图像的峰值信噪比差值最大不超过0.5 dB。 相似文献
9.
10.
对经验数据分解算法进行了研究,从滤波器完全重构出发,研究了经验数据分解滤波器与两通道滤波器组对应滤波器参数的关系,得出分析和综合滤波器都为FIR滤波器应满足的条件.可根据不同的应用对分析高通滤波器进行灵活地设计,并保证重建滤波器是FIR滤波器.利用离散线性定常系统的最优滤波和预测技术对分析高通滤波器的系数进行了预测,使用超光谱图像数据进行测试分析,确定了最佳预测滤波器的系数.结合JPEG2000的核心算法EBCOT对超光谱图像数据进行处理,并比较了该算法的输出码率同JPEG2000中无损压缩输出码率.结果表明经验数据分解算法产生的图像输出码率比JPEG2000中无损压缩输出码率平均小0.217bpp,是一种对非平稳数据有效的分析方法. 相似文献
11.
12.
《Signal Processing: Image Communication》2009,24(5):397-404
High dynamic range (HDR) image requires a higher number of bits per color channel than traditional images. This brings about problems to storage and transmission. Color space quantization has been extensively studied to achieve bit encodings for each pixel and still yields prohibitively large files. This paper explores the possibility of further compressing HDR images quantized in color space. The compression schemes presented in this paper extends existing lossless image compression standards to encode HDR images. They separate HDR images in their bit encoding formats into images in grayscale or RGB domain, which can be directly compressed by existing lossless compression standards such as JPEG, JPEG 2000 and JPEG-LS. The efficacy of the compression schemes is illustrated by presenting extensive results of encoding a series of synthetic and natural HDR images. Significant bit savings of up to 53% are observed when comparing with original HDR formats and HD Photo compressed version. This is beneficial to the storage and transmission of HDR images. 相似文献
13.
14.
On RD optimized progressive image coding using JPEG 总被引:3,自引:0,他引:3
Among the many different modes of operations allowed in the current JPEG standard, the sequential and progressive modes are the most widely used. While the sequential JPEG mode yields essentially the same level of compression performance for most encoder implementations, the performance of progressive JPEG depends highly upon the designed encoder structure. This is due to the flexibility the standard leaves open in designing progressive JPEG encoders. In this work, a rate-distortion (RD) optimized JPEG compliant progressive encoder is presented that produces a sequence of scans, ordered in terms of decreasing importance. Our encoder outperforms an optimized sequential JPEG encoder in terms of compression efficiency, substantially at low and high bit rates. Moreover, unlike existing JPEG compliant encoders, our encoder can achieve precise rate/distortion control. Substantially better compression performance and precise rate control, provided by our progressive JPEG compliant encoding algorithm, are two highly desired features currently sought for the emerging JPEG-2000 standard. 相似文献
15.
16.
Joint Optimization of Run-Length Coding, Huffman Coding, and Quantization Table With Complete Baseline JPEG Decoder Compatibility 总被引:1,自引:0,他引:1
《IEEE transactions on image processing》2009,18(1):63-74
17.
JPEG2000中的感兴趣区域编码 总被引:1,自引:0,他引:1
图像的感兴趣区域编码技术,即在图像中的感兴趣区域进行无损或近无损压缩,而在其它区域采用有损压缩,从而既可以获得所期望的高质量的图像信息,又保持了较高的压缩比,很好地解决了压缩比和图像质量之间的矛盾。JPEG2000是国际标准组织IEO/IEC正在制定的新的静止图像压缩标准,JPEG2000中一项关键技术就是支持对感兴趣区域的编码。JPEG2000进行感兴趣区域编码采用了MAXSHIFT算法。 相似文献
18.
JPEG2000: standard for interactive imaging 总被引:4,自引:0,他引:4
Taubman D.S. Marcellin M.W. 《Proceedings of the IEEE. Institute of Electrical and Electronics Engineers》2002,90(8):1336-1357
JPEG2000 is the latest image compression standard to emerge from the Joint Photographic Experts Group (JPEG) working under the auspices of the International Standards Organization. Although the new standard does offer superior compression performance to JPEG, JPEG2000 provides a whole new way of interacting with compressed imagery in a scalable and interoperable fashion. This paper provides a tutorial-style review of the new standard, explaining the technology on which it is based and drawing comparisons with JPEG and other compression standards. The paper also describes new work, exploiting the capabilities of JPEG2000 in client-server systems for efficient interactive browsing of images over the Internet. 相似文献
19.
JPEG2000是ISO/ITU-T既推出JPEG静态图像压缩标准后推出的有一种高效能图像压缩标准。JPEG2000相比JPEG压缩算法,具有更高的压缩比,更高的图像压缩质量,其特有的具有图像多分辨率的特点,使其适合多种应用场合。在对JPEG2000压缩标准作了简介后,针对ADV202芯片提出了JPEG2000压缩解压缩实现方案。该实现方案,具有体积小、功耗低、成本低、调试简单的特点。 相似文献
20.
针对联合图像专家组(JPEG)标准设计了一种基于自适应下采样和超分辨力重建的图像压缩编码框架。在编码器端,为待编码的原始图像设计了多种不同的下采样模式和量化模式,通过率失真优化算法从多种模式中选择最优的下采样模式(DSM)和量化模式(QM),最后待编码图像将在选择的模式下进行下采样和JPEG编码;在解码器端,采用基于卷积神经网络的超分辨力重建算法对解码后的下采样图像进行重建。此外,所提出的框架扩展到JPEG2000压缩标准下同样有效可行。仿真实验结果表明,相比于主流的编解码标准和先进的编解码方法,提出的框架能有效地提升编码图像的率失真性能,并能获得更好的视觉效果。 相似文献