首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 171 毫秒
1.
基于上下文的自适应算术编码(CABAC)是H.264标准中的一个重要创新.通过算术编码与自适应上下文模型的结合使其可以获得很高的压缩比,相对于CAVLC其可以获得9%~14%码率的降低.CABAC作为一种新型的熵编码方法,其将自适应技术、上下文模型化和二进制算术编码有效的结合在了一起,并采用查表的乘法与概率估计,使得CABAC在硬件实现方面比较方便.在此提出了一种适用于1080P(@30Hz)的低硬件消耗的CABAC编码器,采用SMICO.18μmCMOS工艺实现,其理想速度可以达到200MHz.该编码器可以应用于高清视频编码领域.  相似文献   

2.
本文提出了一种改进的基于上下文的自适应算术编码算法,为了在算术编码中选择合适的上下文,该算法法使用加权最小均方误差法来预测当前变换系数的值,并给出评测本算法性能的实验结果。  相似文献   

3.
相对于其他熵编码而言,基于上下文的自适应二进制算术熵编码(CABAC)具有更大的数据压缩率,但由于其运算复杂,访问存储设备频繁,导致编/解码率较低。针对影响CABAC解码速度的“瓶颈”问题,提出了一种高效的CABAC解码器硬件结构,包括新的存储访问方式、优化的解码核心单元结构以及子解码器级联的方式。实验结果表明,该硬件结构可显著提高CABAC的解码效率。  相似文献   

4.
基于时、频域上下文模型的图像压缩算法   总被引:3,自引:0,他引:3  
结合离散小波变换和基于上下文的自适应算术编码方法,提出了一种基于时、频域上下文预测模型的图像压缩算法.它通过分析在不同子带内的小波系数和同一子带内的小波系数之间的相关性,建立一个时、频域的上下文预测模型,并通过对增加的条件熵的分析,合理地对该模型中的上下文进行量化,得到合适的编码上下文用于自适应的算术编码以降低模型开销.与此同时,这种算法的输出码流是嵌入式的,可以很好的满足渐进式的传输需求.试验结果表明,该算法在各种压缩比下都获得了比JPEG2000要好的压缩效果.  相似文献   

5.
基于概率估计更新的CABAC加速算法   总被引:1,自引:0,他引:1       下载免费PDF全文
基于上下文的自适应二进制算术编码(context-based adaptive binary coding,CABAC)是一种高效的熵编码方法,但是其高计算复杂度制约了该算法的编码速度,已成为其应用的一个主要瓶颈。为解决此问题,在分析CABAC算法及其计算复杂度的基础上,对其概率估计更新部分进行了改进,提出了一种提高其编码速度的有效方法。该方法首先以N个符号的包为单位进行编码,仅每个包编码完成后再进行一次概率估计的更新,因而成倍地降低了概率估计更新的频度。实验数据表明,该方法较以往的方法使CABAC的编码速度平均提高了133%~307%,同时编码效率平均下降187%~298%。  相似文献   

6.
H.264视频编码标准在基本档次和扩展档次采用基于上下文的自适应可变长编码(CAVLC)熵编码方法,但标准并未明确规定CAVLC的具体编码方法。从CAVLC的解码原理出发,详细分析H.264视频编码标准中的CAVLC编码算法,提出一种应用于H.264/AVC标准的高速CAVLC编码器方案,设计中综合采用了多时钟域处理技术与并行处理技术,提高了系统的处理性能;通过算术运算替换部分静态码表,降低系统对存储资源的消耗。给出了各个功能模块的详细设计原理与FPGA硬件实现方法。FPGA实验验证表明,该方案编码系统时钟可达107.97MHz,编码时延小于36个时钟周期,能满足对高清、实时应用的编码要求。  相似文献   

7.
陈杰  丁丹丹  虞露 《计算机工程》2012,38(23):273-276
针对基于上下文的自适应二进制算术编码(CABAC)解码过程中数据依赖性强、并行度低的问题,提出一种优化的硬件结构来实现H.264/AVC高级档次高清视频序列的实时解码。该结构基于二级存储结构,采用语法元素合并和预测技术,对解码判决过程进行优化并对反二值化模块的电路进行复用。测试结果表明,该系统在较小的面积下能达到较高的性能,在FPGA上可以满足高清视频序列的实时CABAC解码需求。  相似文献   

8.
在分析和研究基于上下文的自适应可变长度编码(CAVLC)码表结构特点的基础上,结合码表统计规律,提出一种新的CAVLC解码码表查找算法。根据码字前缀0的个数和码字长度之间的关系共同决定输入码字后缀位数和数值,实现对输入码流的快速确定,对确定的输入码字,只需再查一次表便可以得到其对应的解码输出。测试结果表明,该优化算法在解码查表速度方面比原算法提高约20%。  相似文献   

9.
提出了一种普遍适用于网格拓扑压缩的高效熵编码方法.不同于以往的单纯利用算术编码或Huffman编码对遍历网格生成的拓扑流进行编码压缩,对这些拓扑流的每个符号先计算其Huffman编码,然后采用基于上下文(已编码序列的倒数第2个符号作为上下文)的算术编码方法来编码其Huffman值,从而实现对网格模型拓扑信息的有效压缩.实验结果表明,熵编码方法普遍适用于各种网格拓扑压缩方法得到的拓扑流的压缩,其压缩结果普遍高于拓扑流序列的熵值——绝大多数拓扑压缩算法各自最好的压缩比.  相似文献   

10.
在层次式可变大小块匹配(HVSBM)运动估计/补偿中,运动信息由两部分组成:映射信息和运动向量。在传统的运动编码方案中,映射信息为直接编码和Huffman编码,而运动向量为差分算术编码。文章提出了基于上下文的自适应编码方法对这两部分信息进行编码。实验结果表明,采用新方法可以提高运动向量编码效率25%以上,提高视频编码的性能,特别是在低码率场合下。  相似文献   

11.
为提高压缩后视频在无线信道中的容错能力,结合当前无线通信系统中广泛使用的自适应调制编码(AMC)技术和自动重传请求(ARQ)技术,提出一种新的基于跨层反馈的自适应编码方案。利用该设计方案,应用层可以利用底层的反馈信息感知到当前的信道变化并调整相应的码控策略来提高视频传输的鲁棒性。实验结果表明,与没有利用跨层反馈的其他方法相比,本文编码策略能提供更好的视频传输质量。  相似文献   

12.
In this paper, a Context-based 2D Variable Length Coding (C2DVLC) method for coding the transformed residuals in AVS video coding standard is presented. One feature in C2DVLC is the usage of multiple 2D-VLC tables and another feature is the usage of simple Exponential-Golomb codes. C2DVLC employs context-based adaptive multiple table coding to exploit the statistical correlation between DCT coefficients of one block for higher coding efficiency. ExpGolomb codes are applied to code the pairs of the run-length of zero coefficients and the nonzero coefficient for lower storage requirement. C2DVLC is a low complexity coder in terms of both computational time and memory requirement. The experimental results show that C2DVLC can gain 0.34dB in average for the tested videos when compared with the traditional 2D-VLC coding method like that used in MPEG-2. And compared with CAVLC in H.264/AVC, C2DVLC shows similar coding efficiency.  相似文献   

13.
基于时空白适应预测的无损视频压缩   总被引:2,自引:0,他引:2       下载免费PDF全文
本文提出了一种时间预测和空间预测相结合的视频压缩方法,配合自适应的融合技术,然后采用基于上下文的熵编码技术,对视频序列进行无损压缩,使无损视频压缩的效果比JPEG-LS和CALIC平均优30%。  相似文献   

14.
改进的H.264视频编码方案   总被引:6,自引:6,他引:0  
提出了一种改进的H264视频编码方案。针对H264中具有7种不同块模式运动估值的特点,在帧间预测过程中使用一种扩展的变换编码概念——自适应块变换,把运动估值的块大小和变换块大小联系起来,通过限制最大的变换块尺寸对自适应块变换做了简化,以适应实际应用的需要;通过扩展帧内预测的块模式,将简化的自适应块变换也应用到帧内预测编码中:鉴于不同块尺寸的变换系数矩阵的概率分布不同,提出在熵编码过程中采用自适应通用变长编码对码表进行动态重组,以进一步提高编码效率。比较了与现有H.264视频编码方案的性能差异。  相似文献   

15.
内存需求量大、计算复杂度高等问题很大程度上限制了JPEG2000的应用。基于行小波变换的图像压缩算法以累进方式完成列向小波变换,在不影响变换结果的前提下降低了对存储容量的需求。应用三项加法单元形式的提升格式代替原基于行的小波变换算法中的Mallat算法,充分利用了提升格式的全替换特性,加快了计算速度,节省了内存。同时针对基于行的小波变换的特点,设计了相应的上下文模板,可以简洁、高效地进行概率估计。应用该方法对JPEG2000进行改进,可大大提高其实用性。  相似文献   

16.
Conventional video coding standards, such as MPEGx and H.26x, use a hybrid architecture of block-based motion compensation and discrete cosine transform (DCT) within the structure of a complex encoder and a simple decoder. Contrary to conventional video codecs, Wyner-Ziv (WZ) video coding, which is a practical application of distributed video coding (DVC) based on the Slepian-Wolf and WZ theorems, exploits the source correlation at the decoder, thereby allowing for the development of simpler encoders. However, the current WZ video coding algorithms cannot match the coding performance of conventional video coding. In order to improve the coding performance of transform-domain WZ video coding, an adaptive two-step side-information generation method is thus proposed for evaluation and analysis in this study. The proposed method uses decoded WZ frames in the down-sampled spatial resolution along with already decoded coefficients to successively improve rate-distortion (RD) performance as the decoding progresses. The experimental results show that the proposed method, compared to previous WZ video coding method, shows improved coding performance, particularly under critical conditions, such as cases with high motion content.  相似文献   

17.
本文主要研究网络编码在抗污染攻击中的应用,针对中间节点对收到的所有编码包进行验证浪费网络资源和目的节点解码速率慢等问题,提出一种高效自适应的抗污染攻击网络编码传输方案-EANC(Efficient and Adaptive Network Coding transmission scheme against pollution attack)。EANC方案在数据分组编码阶段,利用按照网络编码的时间和空间特性构造的线性子空间签名方案准确地验证数据分组是否被污染从而有效控制污染数据分组的传播,并且能使中间节点调节验证步骤使之自适应于当前网络的污染程度,从而提高验证效率;在目的节点解码阶段,EANC方案利用目的节点重传恢复机制降低解码恢复时延。仿真结果表明,EANC方案能够减少子空间的签名长度并且降低目的节点解码恢复的平均时延。  相似文献   

18.
针对CPU-GPU平台提供了一种能显著降低高效视频编码(high efficiency video coding,简称HEVC)复杂度的优化方案.根据编码器的复杂度分布及不同模块的特点,针对帧内预测、帧间预测以及环路滤波分别进行了优化.在帧内预测中,基于相邻编码单元(coding unit,简称CU)之间的相关性,提出了一种CU的深度决策方法以及一种减少率失真优化(RDO)的模式数量的方法,降低了帧内编码的复杂度.在帧间预测中,提出将耗时最大的运动估计模块完善在图形处理单元(GPU)上,通过中央处理单元(CPU)和GPU的流水线工作获得了明显的加速,并基于预测残差的能量提出了一种编码单元提前终止划分的方法,有效降低了帧间编码复杂度.在环路滤波中,提出了一种GPU端的自适应样本点补偿(sample adaptive offset,简称SAO)参数决策方法及去块滤波方法,有效分担了CPU端的复杂度.上述优化实现在HM16.2上,实验结果表明,提出的优化方案可以获得高达68%的编码复杂度节省,而平均性能损失仅为0.5%.  相似文献   

19.
In this paper, we propose a secure and efficient software framework for non-repudiation service based on an adaptive secure methodology in e-commerce (electronic commerce). First, we introduce an explicit security framework of the e-commerce transaction called notary service. The proposed framework supports non-repudiation of service for a successful e-commerce transaction in terms of generation, delivery, retrieval, and verification of the evidence for resolving disputes. Second, we propose an adaptive secure methodology to support secure and efficient non-repudiation of service in the proposed framework. Our adaptive secure methodology dynamically adapts security classes based on the nature and sensitivity of interactions among participants. The security classes incorporate security levels of cryptographic techniques with a degree of information sensitivity. As Internet e-businesses exponentially grow, a need for high security level categories to identify a group of connections or individual transactions is manifest. Therefore, development of an efficient and secure methodology is in high demand. We have done extensive experiments on the performance of the proposed adaptive secure methodology. Experimental results show that the adaptive secure methodology provides e-commerce transactions with high quality of security services. Our software framework incorporating the adaptive secure methodology is compared with existing well-known e-commerce frameworks such as SSL (Secure Socket Layer) and SET (Secure Electronic Transaction).  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号