首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
针对图像矢量量化编码的复杂性,提出了一种新颖的快速最近邻码字搜索算法。该算法首先计算出每个码字和输入矢量的哈德码变换,然后为输入矢量选取范数距离最近的初始匹配码字,利用多控制点的三角不等式和两条有效的码字排除准则,把不匹配的码字排除,最后选取与输入矢量最匹配的码字。实验结果表明,新算法相比于其他算法,在保证编码质量的前提下,码字搜索时间和计算量均有了明显降低。  相似文献   

2.
An efficient nearest neighbor codeword search algorithm for vector quantization based on the Hadamard transform is presented in this paper. Four elimination criteria are derived from two important inequalities based on three characteristic values in the Hadamard transform domain. Before the encoding process, the Hadamard transform is performed on all the codewords in the codebook and then the transformed codewords are sorted in the ascending order of their first elements. During the encoding process, firstly the Hadamard transform is applied to the input vector and its characteristic values are calculated; secondly, the codeword search is initialized with the codeword whose Hadamard-transformed first element is nearest to that of the input vector; and finally the closest codeword is found by an up-and-down search procedure using the four elimination criteria. Experimental results demonstrate that the proposed algorithm is much more efficient than the most existing nearest neighbor codeword search algorithms in the case of problems of high dimensionality.  相似文献   

3.
一种基于覆盖域密度的LBG算法   总被引:1,自引:0,他引:1  
针对矢量量化中Linde-Buzo-Gray(LBG)算法产生大量无效或重复码向量问题,提出了一种基于覆盖域密度分割码向量方法.在LBG算法的更新迭代步骤,记录各码向量的覆盖域及其平均失真率,计算覆盖域密度;码向量分割时,只对"坏的"码向量进行分割,"好的"码向量直接复制到下一代码书中.实验表明,修改后的算法提高了LBG的鲁棒性,码书质量也得到一定程度提高.  相似文献   

4.

Transform coding is commonly used in image processing algorithms to provide high compression ratios, often at the expense of processing time and simplicity of the system. We have recently proposed a pixel value prediction scheme in order to exploit adjacent pixel correlation, providing a low-complexity model for image coding. However, the proposed model was unable to reach high compression ratios retaining high quality of reconstructed image at the same time. In this paper we propose a new segmentation algorithm which further utilizes adjacent pixel correlation, provides higher compression ratios and it is based on application of Hadamard transform coding. Additional compression is provided by using vector quantization for a low number of quantization levels and by simplifying generalized Lloyd’s algorithm where the special attention is paid to determination of optimal partitions for vector quantization, making a fixed quantizer. The proposed method is quite simple and experimental results show that it ensures better or similar rate-distortion ratio for very low bit-rates, comparing to the other similar methods that are based on wavelet or curvelet transform coding and support or core vector machine application. Furthermore, the proposed method requires very low processing time since the proposed quantizers are fixed, much less than the required time for the aforementioned methods that we compare with as well as much less than the time required for fractal image coding. In the end, the appropriate discussion is provided comparing the results with a scheme based on linear prediction and dual-mode quantization.

  相似文献   

5.
在编码前,首先计算码书中所有码字在主轴上的投影值,然后按照这些投影值从小到大对码字进行排序;在编码过程中,利用邻近图像块的高度相关性和当前输人矢量在主轴上的投影值共同确定相应的码字搜索范围.实验结果表明,与传统穷尽搜索矢量量化编码法相比,虽然文中算法的编码质量略有下降,但编码速度和压缩效率都有了显著的提高.  相似文献   

6.
针对矢量量化压缩速度慢、图像复原效果不理想等问题,根据图像小波分解后高频子带稀疏的特点,提出了一种基于压缩感知(compressed sensing,CS)理论的分类量化图像编码算法。仿真结果表明,与LBG矢量量化编码算法相比,重构图像质量得到极大提升,在相似压缩比下,该算法取得了较好的效果,PSNR 平均有1~3 dB 的明显提高;在相似信噪比(PSNR)下,该算法在图像压缩方面也有很大改进。  相似文献   

7.
改进的分形矢量量化编码   总被引:1,自引:0,他引:1  
为了提高图象的分形矢量量化编码效果,在利用四叉树对图象进行自适应分割的基础上,基于正交基三维分量投影准则,提出了图象块非平面近似方法,进而形成一种新的静态图象分形矢量量化编码方法。该方法首先通过对投影参数进行DPCM编码来构造粗糙图象,然后由此来构成差值图象编码的码书。由于该方法把分形和矢量量化编码结合起来,因此解码时只需查找码书,并仅进行对比度变换。计算机编、解码实验结果表明,该编码方法具有码书不需外部训练,解码也不需迭代等优点,且与其他同类编码器相比,该方法在压缩比和恢复图象质量(PSRN)方面均有明显改善。  相似文献   

8.
一种基于Tabu搜索的模糊学习矢量量化图像编码算法   总被引:1,自引:0,他引:1       下载免费PDF全文
模糊学习矢量量化算法(FLVQ)虽然解决了硬的竞争学习对初始码本的依赖性问题,但收敛速度变慢,且仍无法克服陷入局部最小。为此在分析模糊学习矢量量化图象编码原理的基础上,探讨了FLVQ算法的几种优化途径,进而进出了一种基于Tabu搜索(TS)的模糊学习矢量量化的新算法(TS-FLVQ),并给出了该算法的具体实现方法及步骤。该算法首先利用TS技术产生一个面向全局搜索的寻优列表,然后再进行模糊学习以得到最优解,实验结果表明,该算法在收敛速度及编码效果上均较FLVQ有较大的提高。。  相似文献   

9.
针对H.264标准推荐使用的快速运动估计算法——非对称十字型多层次六边形格点搜索(Unsymmetrical cross multi-hexagon grid search, UMHexagonS)算法搜索速度慢的问题,提出了一种改进算法。在起始搜索点的预测环节,建立预测矢量集,并根据预测矢量集的长度信息决定后续的搜索策略;在全局搜索环节,利用预测运动矢量之间的相关性适当跳过某些搜索步骤,并更换一些搜索模板;并且,根据整数变换和量化的特性检测全零系数块,提前终止运动估计过程。实验结果表明,在量化步长为28时,本文算法比UMHexagonS算法平均减少了34.80%的运动估计时间,同时编码性能基本不变。该算法在不同量化步长的条件下能够适应不同运动强度的视频序列,是一种适合H.264的速度快且性能好的快速运动估计算法。  相似文献   

10.
现有的哈希方法难以快速实现原始特征空间的近似映射.针对此问题,文中提出基于小波投影的哈希方法.基于Haar小波变换构造投影矩阵,使用迭代算法优化投影矩阵和离散优化二进制码,重构量化误差.利用投影矩阵将图像的原始特征向量快速投影至低维空间,并进行二进制嵌入,完成图像的哈希编码.在图像数据集上的实验表明,文中方法可有效提升编码效率.  相似文献   

11.
模糊学习矢量量化算法 (FL VQ)虽然解决了硬的竞争学习对初始码本的依赖性问题 ,但收敛速度变慢 ,且仍无法克服陷入局部最小 .为此在分析模糊学习矢量量化图象编码原理的基础上 ,探讨了 FL VQ算法的几种优化途径 ,进而提出了一种基于 Tabu搜索 (TS)的模糊学习矢量量化的新算法 (TS- FL VQ) ,并给出了该算法的具体实现方法及步骤 .该算法首先利用 TS技术产生一个面向全局搜索的寻优列表 ,然后再进行模糊学习以得到最优解 .实验结果表明 ,该算法在收敛速度及编码效果上均较 FL VQ有较大的提高 .  相似文献   

12.
作为一种有损图像编码技术,块截短编码算法(BTC)的计算量较少,速度快,有较好的信道容错力,重建图像质量较高。然而,标准BTC算法的主要缺点是其压缩比特率比其他基于块图像编码的算法(如变换编码和矢量量化)高。为了降低比特率,提出了几种有效的BTC算法,还提出了一种简单的查表算法对每块的BTC量化数据编码,另外还引入了矢量量化技术以减少对位平面编码的比特数。为了减少由改进算法引入的额外失真,在每种提出的算法中,采用最优阈值而不用平均值作为量化阈值。  相似文献   

13.
一种基于小波变换的图像压缩方法   总被引:8,自引:0,他引:8  
提出一种基于小波变换的灰度图像数据压缩编码方法,基本思路是利用小波变换实现图像的多分辨分解,用矢量量化(VQ)对分解后的图像进行编码,在矢量量化LBG算法的初始码书的选取中根据矢量中各分量的特性提出一种改进的随机选取法,避免了可能的胞腔不均现象,提高了码书的质量,而且重构的图像质量也有所提高。  相似文献   

14.
目的 海量图像检索技术是计算机视觉领域研究热点之一,一个基本的思路是对数据库中所有图像提取特征,然后定义特征相似性度量,进行近邻检索。海量图像检索技术,关键的是设计满足存储需求和效率的近邻检索算法。为了提高图像视觉特征的近似表示精度和降低图像视觉特征的存储空间需求,提出了一种多索引加法量化方法。方法 由于线性搜索算法复杂度高,而且为了满足检索的实时性,需把图像描述符存储在内存中,不能满足大规模检索系统的需求。基于非线性检索的优越性,本文对非穷尽搜索的多索引结构和量化编码进行了探索新研究。利用多索引结构将原始数据空间划分成多个子空间,把每个子空间数据项分配到不同的倒排列表中,然后使用压缩编码的加法量化方法编码倒排列表中的残差数据项,进一步减少对原始空间的量化损失。在近邻检索时采用非穷尽搜索的策略,只在少数倒排列表中检索近邻项,可以大大减少检索时间成本,而且检索过程中不用存储原始数据,只需存储数据集中每个数据项在加法量化码书中的码字索引,大大减少内存消耗。结果 为了验证算法的有效性,在3个数据集SIFT、GIST、MNIST上进行测试,召回率相比近几年算法提升4%~15%,平均查准率提高12%左右,检索时间与最快的算法持平。结论 本文提出的多索引加法量化编码算法,有效改善了图像视觉特征的近似表示精度和存储空间需求,并提升了在大规模数据集的检索准确率和召回率。本文算法主要针对特征进行近邻检索,适用于海量图像以及其他多媒体数据的近邻检索。  相似文献   

15.
This paper proposes a fast algorithm for Walsh Hadamard Transform on sliding windows which can be used to implement pattern matching most efficiently. The computational requirement of the proposed algorithm is about 1.5 additions per projection vector per sample, which is the lowest among existing fast algorithms for Walsh Hadamard Transform on sliding windows.  相似文献   

16.
基于快速相关矢量量化的图象编码算法   总被引:7,自引:1,他引:6       下载免费PDF全文
图象编码已经成为当今计算机世界的重要问题,而矢量量化(VQ)又是近年来有损图象压缩的一种重要技术,它的优点是比特率低以及解码简单,但是其穷尽搜索编码计算量较大,为了降低编码时间,已经有多种快速算法出现在一些文献中,然而这些算法往往不能进一步降低比特率,为了解决这一问题,因此提出了一种新颖快速相关矢量量化(CVQ)图象编码算法,该算法对图象块的编码采用对角顺序,即在编码过程中根据当前图象块(CVQ)  相似文献   

17.
文章提出了一个新的基于矢量量化的数字水印算法,与基于DCT(DiscreteCosineTransform)、DFT(DiscreteFourierTransform)及DWT(DiscreteWaveletTransform)等的传统水印算法不同,该算法利用码书分割方法和矢量量化索引的特点,在矢量量化的不同阶段分别嵌入水印来保护原始图像的版权,水印检测不需要原始图像。实验结果表明,该方法实现的水印具有良好的不可见性,并对JPEG压缩、矢量量化压缩、旋转以及剪切等空域操作也具有较好的稳健性。  相似文献   

18.
自适应补偿矢量量化   总被引:2,自引:0,他引:2  
提出了一种基于LBG码书设计的新的图像矢量量化算法。该算法利用图像信号在正交矢量空间中的能量集中性,有效地减小了码书的搜索范围,加快了矢量量化速度。同时利用原始图像和重建图像之间的差值进行了自适应补偿,在保证较高压缩比的同时,有效地克服了矢量量化的致命缺陷,即重建图像存在严重的方块效应。  相似文献   

19.
基于二维小波分解的图象编码   总被引:1,自引:0,他引:1  
本文给出一个基于二维小波分解来进行图象压缩编码的方法。这里是使用正交小波变换来由行图象分解,得到一个图象的多分辨率表示,各频道分量对图象结构的把握是整体的,从更大程度上解除了图象象素之间的相关性,克服了由JPEG方法进行图象压缩编码而产生的块效应。对图象进行二维正交小波分解后,我们使用CVQ对小波系数进行编码,得到了较高的编码效率和重建图象质量。  相似文献   

20.
In this paper we present a blind audio watermarking algorithm based on the vector norm and the logarithmic quantization index modulation (LQIM) in the wavelet domain, integrating the robustness of the vector norm with the imperceptibility of the logarithmic quantization index modulation based on μ-Law (or mu-Law) companding. Firstly μ-Law companding is adopted to transform the vector norm of the segmented wavelet approximation components of the original audio signal. And then a binary image scrambled by the chaotic sequence as watermark is embedded in the transformed domain with a uniform quantization scheme. Experimental results demonstrate that even if the capacity of the proposed algorithm is high, up to 102.4 bps, this algorithm can still maintain a high quality of the audio signal, and achieve a better performance, such as imperceptibility, robustness and complexity in comparison with the uniform quantization based algorithms against common attacks. What’s more, it can resist amplitude scaling attack effectively.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号