首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 46 毫秒
1.
帧内预测的模式选择快速算法研究及其实现   总被引:1,自引:0,他引:1  
简要分析了H.264/AVC中的帧内预测模式选择,研究了基于边缘方向信息的模式选择快速算法.通过Sobel算子获得图像的边缘方向信息,并以此为依据确定相应的最优、次优预测模式,有效的减少了候选模式数.另外,在率失真模式选择过程中充分考虑算法的并行效能,减少了冗余计算.仿真结果表明,该方法可以有效的降低帧内预测计算开销,提高编码效率.  相似文献   

2.
H.264采用RDO技术选择帧内预测模式以进一步提高编码的效率,但同时大幅度增加了预测的复杂度.本文提出一种快速帧内模式选择算法,该算法首先依据图像的纹理特征从9种Intra-4×4的预测模式中选出4种备选模式,然后再根据SATD的特征以及相邻块的预测模式之间的相关性,选出最佳预测模式,从而有效减少预测模式,避免了不必要的RD_Cost计算.实验证明,该算法提高编码时间效率约为35%,而峰值信噪比的减少很小.  相似文献   

3.
为了降低质量可分级高性能视频编码的复杂度,提出了帧内预测快速算法。首先,利用层间和空间编码单元深度相关性,预测增强层编码单元的深度值范围;然后,在每一编码深度层下,通过Jarque-Bera检验层间预测模式的残差系数是否服从正态分布,判断层间预测模式是否为最优模式,以便跳过高复杂度的帧内预测;最后,对当前的深度进行假设检验,判断编码单元内残差系数是否呈现显著性差异,以便提前终止深度划分。实验结果表明,与标准可分级高性能视频编码编码器相比,所提出算法在保持整体编码效率的前提下,平均降低了约79%的增强层编码时间。  相似文献   

4.
为了解决H.264帧内预测中运动物体边缘预测不精确的问题,提出了一种基于块内相邻像素的帧内预测算法.根据块内相邻像素相关性更强的特点,采用层次结构,分阶段预测待编码块内像素.在保证模式方向特性的前提下,充分利用块内已经预测过的像素作为参考,预测其他像素,重新统计最优模式的分布规律,基于统计结果确定该算法的预测模式顺序.实验结果证明,这种基于相邻像素的帧内预测算法可以解决预测不精确的问题,提高帧内编码效率.  相似文献   

5.
高效视频编码(High Efficiency Video Coding,HEVC)大部分编码时间消耗在帧间预测,为了缩短编码时间,本文提出了一种基于CU (Coding Unit)块运动特性的帧间模式快速选择算法。首先,运用本文定义的运动特征对帧间预测模式分类;然后让CU进行尺寸N×N的帧间预测,获取子PU (Prediction Unit)块运动矢量,根据4个运动矢量的关系确定当前CU块的运动特性;最后通过运动特性确定要遍历的帧间预测模式,从而实现快速编码算法。实验结果表明,与HM16.15相比,本文提出的算法在低时延和随机接入配置下分别降低了31.6%和27.4%的编码时间,而编码器的编码性能基本不受影响。  相似文献   

6.
一种新颖的H.264帧内预测快速算法   总被引:2,自引:0,他引:2  
提出了一种新颖的H.264帧内预测算法.该算法把9种4×4帧内预测(Intra_4×4)模式分为3类,用左面和上面相邻块的模式类预测当前4×4块适合采用的模式类;基于定义的变换系数索引加权绝对值和设计了一种新颖的Intra_4×4模式选择方法;利用连续I帧中16×16帧内预测(Intra_16×16)宏块位置的准平稳性降低了帧内预测的计算复杂度;利用亮度块和色度块帧内预测模式间的相关性加速了色度块的模式选择过程.实验结果表明,本文提出的帧内预测快速算法比Joint Video Team (JVT)-G013平均节省了25%的编码时间,且编码率失真性能较好. :  相似文献   

7.
为了进一步提高编码的效率,提出了一种基于离散余弦变换(discrete cosine transform,简称DCT)的能量函数的快速Intra-4×4模式选择算法.该算法通过估计帧内预测残差的纹理复杂度达到减少进行率失真最优化计算的模式数量.实验结果表明,该算法在保持原有编码效率的基础上能节省约一半的编码时间.  相似文献   

8.
高效视频编码(High Efficiency Video Coding,HEVC)的帧间预测部分存在很高的计算复杂度,为了降低编码时间复杂度,提出了一种基于深度特性的帧间预测快速算法.首先,对帧间PU(Prediction Unit,PU)模式进行分类为规则和不规则块;然后运用本文的方式定义当前CTU(Coding T...  相似文献   

9.
提出了一种利用整数变换快速实现帧内预测的新算法,首先对原图像做DCT变换,然后利用整数变换的系数求出图像块的纹理方向,根据求出的纹理方向及相邻块的最佳预测模式确定候选模式集。这样就可以减少候选模式数目,进而减少计算量,节省编码时间。实验结果表明,该算法与校验模型HM5.0相比,在保持峰值信噪比基本不变和码率略增的情况下,可节省约50%的帧内编码时间。  相似文献   

10.
基于宏块特征的H.264快速帧内预测算法   总被引:2,自引:0,他引:2  
为了降低H.264的计算复杂度以满足实时应用, 在对H.264帧内编码模式深入研究的基础上, 提出利用宏块灰度直方图特征在Intra4×4和Intra16×16模式中预判, 针对Intra4×4模式采用基于子块预测方向特征的快速帧内预测算法.综合以上2种优化策略, 该优化算法平均码率增加了3.2%, 峰值信噪比基本不变的情况下, 编码速度平均提高了32.8%.  相似文献   

11.
为了提升可分级视频编码的层间帧内预测(ILIP)性能,提出了一种基于维纳滤波器的块级别自适应ILIP方法. 首先,将一帧图像分块;其次,逐块选取原始增强层图像和对应的基本层上采样图像逐帧进行训练,得到维纳滤波器系数;最后,采用获取的滤波器系数对基本层上的采样图像进行滤波,并在块级别加以控制,以便降低预测误差能量. 实验结果表明,与传统ILIP方法相比,新方法可以获得更精确的预测结果,编码器输出比特率下降最高可达14.45%.  相似文献   

12.
帧内预测当前块处于运动物体的边缘或者2个物体的边界时,帧内模式不能充分体现像素之间的差别.为解决该问题,提出算法:当进行水平预测时,利用垂直方向上相邻块的像素作为水平预测的参考,形成垂直距离矩阵;在进行垂直方向预测时,利用水平方向相邻块的像素作为参考,形成水平距离矩阵.基于空间距离不同相关性之间的差异,改变了H.264标准中9种预测模式中的5种.实验结果证明,这种方法对于不同分辨率的视频序列都有很好的编码效果.  相似文献   

13.
H.264帧内快速预测算法的研究   总被引:1,自引:0,他引:1  
新一代视频压缩标准H.264/AVC使用率失真优化算法在提高压缩率的同时增加了计算复杂度。为了减少计算复杂度,提出了一种快速帧内预测算法。通过MAD(平均绝对误差)均值对宏块进行4×4块和16×16块预判,再根据SATD(残差绝对值总和)代价函数计算Cost值,排除较小可能性的模式,缩小4×4块的预测模式范围。用标准视频序列对该算法验证,结果表明该算法在保证峰值信噪比的前提下,节省了预测时间.  相似文献   

14.
HEVC快速帧内模式和深度决策算法   总被引:1,自引:1,他引:1       下载免费PDF全文
针对HEVC帧内预测过程计算复杂度较大的问题,提出基于隔点模式抽取、像素梯度统计和子PU残差相对比的快速帧内预测算法.对应HEVC的33种帧内角度模式,按区间划分33类梯度方向并计算PU各个像素的梯度方向.先对偶数编号的角度模式计算排序,再快速比较得到候选模式集.然后根据所属各类梯度方向的像素累计个数,舍弃部分候选模式.在计算当前PU的哈达玛变换预测残差(Sum of Absolute Transformed Difference, SATD)的同时,记录该PU内4个子PU的SATD,并通过对这4个SATD之间的相对比,跳过当前PU之后深度的计算.实验结果表明,与HEVC标准测试模型HM13.0的算法相比,本文所提出的算法可节省约54%的帧内编码时间,而码率只有约1%的增加.  相似文献   

15.
多模式运动估计使H.264比其它视频编码算法具有更高的编码效率,但同时也使计算复杂度明显提升.如果能在搜索进行之前先对模式进行筛选,除去不适用的模式,就可以减少不必要计算,大大提高运动估计的运算速度.通过分析各编码模式的特点和最佳模式分布规律,提出了帧间/帧内预测模式快速选择算法.按照从帧间模式到帧内模式、从大尺寸划分到小尺寸划分的模式选择顺序准则,基于最优匹配的检测来进行帧间/帧内模式的快速选择,略过不可能进一步降低率失真代价的模式,以降低编码过程的计算复杂度,从而提高编码速度.实验结果表明,该模式与全模式搜索相比,在图像质量和码率有少量变化的前提下,编码速度显著提高.  相似文献   

16.
提出一种新颖的帧内预测方法.比较每种预测模式的预测块与直流(DC)预测模式的预测块之间的绝对差和.进而判断当前块在各种预测模式下的预测块是否相似.若当前块的各种预测块都相似,则将所有预测块的均值作为当前块的最终预测结果,且不必编码预测模式.实验结果表明,提出的方法较H.264/AVC能够获得更高的编码性能,在恢复视频客观质量PSNR相同时,码率平均下降2.40%,编码时间平均减少25.83%.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号