共查询到20条相似文献,搜索用时 140 毫秒
1.
针对UMHexagonS算法冗余搜索的问题,使用大十字搜索判定结果,改进原有的运动估计算法。改进算法判断最优点可能分布区域,使用相应改进搜索模板搜索,降低搜索点个数,达到避免冗余搜索的目的,提高运动估计搜索效率。在多组视频序列中测试,图像质量相近情况下,改进算法比UMHexagonS算法有了显著的提高。特别是在剧烈运动的视频序列中,改进算法比UMHexagonS算法的运动估计时间减少了45.78%,编码耗时缩短了34.97%,比EPZS算法运动估计时间减少了35.25%,编码耗时缩短了25.45%。 相似文献
2.
3.
针对H.264中UMHexagonS算法存在的不足,提出了一种改进的快速运动估计算法。改进算法根据起始预测运动矢量成为最佳点的可能性大小对起始预测运动矢量的检测顺序进行了优化,提高了编码效率;设计了一种改进的5×5螺旋全搜索模板,减少了5×5螺旋全搜索模板的搜索点数;增加了一种针对亚宏块的提前终止策略,进一步减少了运动估计带来的运算量。实验结果表明,改进算法在基本保持UMHexagonS算法编码性能的同时,有效减少了运动估计时间,提高了编码效率,并且可适用于不同运动强度的视频序列。 相似文献
4.
视频编码标准H.264已经正式采纳了UMHexagonS算法作为整像素的快速运动估计算法。文章对UMHexagonS算法进行了介绍,对其特点进行详尽分析后,提出了一种改进方法,即在预测起点处增加一个内容自适应的中止搜索阈值判断,以判断是否可立即结束搜索。模拟实验表明,相比原算法,在基本保持了原算法的的编码效果,还明显减少了搜索点减少了运动量,从而节省了编码时间。 相似文献
5.
在分析UMHexagonS算法的基础上,对UMHexagonS算法中的搜索长度进行改进,提出用自适应的动态搜索窗口代替固定的搜索窗口,同时针对它在高效的起点预测后陷入搜索冗余的可能,引入了调节因子,用于提前终止判断。实验结果表明,改进的算法在不影响图片质量的情况下,可以较少10~30%的运动估计时耗,提高编码的实时性。 相似文献
6.
由于对编码的高精度和低复杂度的要求,H.264视频编码标准已经采用了UMHexagonS算法作为其可行的块运动估计实施方案。提出了一种新的UMHexagonS改进算法,改进主要在三个方面:第一,增加了一个新的初始预测矢量,以避免过早陷入局部最优;第二,一个小八边形搜索和两个后续的小菱形搜索取代了UMHexagonS算法中的5×5全搜索,这在一定程度上减少了计算量;第三,多八边形格点搜索取代了多六边形格点搜索,这不仅减轻了运算量负担,也在方向上能更好更快地搜索到最佳运动矢量。实验结果表明,所提出的方法不仅能保证UMHexagonS算法的编码效果,同时还能减少5%~10%的运算量,从而节省编码时间。 相似文献
7.
为了提高运动估计的搜索效率,提出了一种基于JM模型的UMHexagonS算法的改进方案。该方案减少了搜索点数,从而减小了运算量。经过实验测试,改进后的UMHexagonS算法在保证编码图像的质量基本不变的同时,能显著减少搜索时间。 相似文献
8.
为了降低运动估计的计算量,提出一种基于H.264/AVC的快速运动估计算法。该算法使用了提前终止策略和自适应的搜索范围,结合运动矢量预测以及多模板搜索。实验结果表明,在编码性能接近全搜索(fullsearch,FS)算法的同时,本算法比FS和UMHexagonS算法平均节省了65.42%和32.76%的运动估计时间,大幅度提高了编码速度。 相似文献
9.
在UMHexagonS算法的基础上,最新的H.264/AVC视频编码采用一种简单、有效的混合快速运动估计算法。该文介绍一种新的快速搜索算法,初步研究和分析其综合性能的优越性,并提出改进策略,如增加终止搜索的判定、进一步划分运动类型、采用自适应的方向性搜索模板。实验结果表明,改进的策略能减少“简化UMHexagonS算法”8%~30%的搜索时间,而码率和率失真性能的变化可以忽略不计,对一些特殊序列,率失真性能略优于“简化UMHexagonS算法”。 相似文献
10.
11.
《Pattern recognition letters》2001,22(3-4):373-379
Vector quantization (VQ) is a well-known data compression technique. In the codebook design phase as well as the encoding phase, given a block represented as a vector, searching the closest codeword in the codebook is a time-consuming task. Based on the mean pyramid structure and the range search approach, an improved search algorithm for VQ is presented in this paper. Conceptually, the proposed algorithm has the bandpass filter effect. Each time, using the derived formula, the search range becomes narrower due to the elimination of some portion of the previous search range. This reduces search times and improves the previous result by Lee and Chen (A fast search algorithm for vector quantization using mean pyramids of codewords. IEEE Trans. Commun. 43(2/3/4), (1995) 1697–1702). Some experimental results demonstrate the computational advantage of the proposed algorithm. 相似文献
12.
矢量量化是近年来图像压缩研究中的重要技术,在该技术中,减小编码运算时间和降低平均编码比特率是当前研究的重要问题,目前,已经提出了许多快速编码算法。为了进一步减少图像矢量量化编码的时间和降低编码比特率,提出了一种超前相关预测与快速搜索相结合的快速矢量量化编码算法。该算法在对当前图像块完成编码后,再根据该图像块与相邻的未编码图像块的相关性来预测相邻块的编码值,如果预测成功,则用低比特率表示编码值;否则用绝对误差不等式删除(AEI)算法来求得高比特率编码值,以减少总编码时间和降低平均比特率。测试结果表明,该算法比传统的穷尽搜索算法的编码速度快,且比特率低,同时对编码质量的影响很小。 相似文献
13.
Vector quantization (VQ) for image compression requires expensive time to find the closest codevector in the encoding process. In this paper, a fast search algorithm is proposed for projection pyramid vector quantization using a lighter modified distortion with Hadamard transform of the vector. The algorithm uses projection pyramids of the vectors and codevectors after applying Hadamard transform and one elimination criterion based on deviation characteristic values in the Hadamard transform domain to eliminate unlikely codevectors. Experimental results are presented on image block data. These results confirm the effectiveness of the proposed algorithm with the same quality of the image as the full search algorithm. 相似文献
14.
基于图像块叉迹的快速分形图像编码算法 总被引:20,自引:1,他引:19
摘要分形图像编码能够在高压缩比下高质量地重构图像,但需要较长的编码时间.因此,迫切需要各种快速编码算法以扩大其应用领域.分形编码的时间主要花费于在一个海量码本中搜索每个输入子块的最佳匹配块.针对这个问题,该文提出一种快速分形编码算法,它基于图像块的一种新特征——叉迹,能够在较小的搜索范围内完成输入子块的最佳匹配.实验显示,该算法能够大大缩短编码时间,同时实现和全搜索分形编码算法相同或更好的图像质量. 相似文献
15.
16.
17.
Hadamard transform based fast codeword search algorithm for high-dimensional VQ encoding 总被引:1,自引:0,他引:1
An efficient nearest neighbor codeword search algorithm for vector quantization based on the Hadamard transform is presented in this paper. Four elimination criteria are derived from two important inequalities based on three characteristic values in the Hadamard transform domain. Before the encoding process, the Hadamard transform is performed on all the codewords in the codebook and then the transformed codewords are sorted in the ascending order of their first elements. During the encoding process, firstly the Hadamard transform is applied to the input vector and its characteristic values are calculated; secondly, the codeword search is initialized with the codeword whose Hadamard-transformed first element is nearest to that of the input vector; and finally the closest codeword is found by an up-and-down search procedure using the four elimination criteria. Experimental results demonstrate that the proposed algorithm is much more efficient than the most existing nearest neighbor codeword search algorithms in the case of problems of high dimensionality. 相似文献
18.
19.
块匹配运动估计是视频编码国际标准中广泛采用的关键技术.许多快速块匹配法通过限制搜索点数来减少运算量,但与全搜索算法相比极易出现匹配误差.该文介绍了一种应用新的判别条件的多级顺序排除算法(MSEA),并在此基础上提出一种新的算法,该算法引入了尺度化的部分失真消除(PDE)技术,用于尺度化累积部分误差和当前最小误差.实验证明,相对于一脉相承的同为穷举搜索算法的全搜索算法(FS)、顺序排除算法(SEA)、多级顺序排除算法(MSEA)等,该算法大幅度提高了搜索效率.与多级顺序排除算法相比,平均每宏块节省了大约75%的运算次数.该算法在保证图像质量的前提下,使视频编码的速度大大提高. 相似文献
20.
《IEEE transactions on pattern analysis and machine intelligence》2001,23(9):964-976
A new fast nearest-neighbor algorithm is described that uses principal component analysis to build an efficient search tree. At each node in the tree, the data set is partitioned along the direction of maximum variance. The search algorithm efficiently uses a depth-first search and a new elimination criterion. The new algorithm was compared to 16 other fast nearest-neighbor algorithms on three types of common benchmark data sets including problems from time series prediction and image vector quantization. This comparative study illustrates the strengths and weaknesses of all of the leading algorithms. The new algorithm performed very well on all of the data sets and was consistently ranked among the top three algorithms 相似文献