共查询到16条相似文献,搜索用时 484 毫秒
1.
2.
为了提高模拟退火算法的最终解的质量,文中对控制算法进程的冷却进度表进行了优化选取,尤其在控制马尔可夫链长方面,给出了依据算法搜索过程的反馈信息来控制马尔可夫链长的方法.将该算法与LBG算法相结合,应用于矢量量化图像编码,既保持了模拟退火对初始码书依赖性小、不容易陷入局部极值的优点,又具备LBG算法的易于实现和计算量小的特点.仿真实验表明,该算法提高了码书的编码性能. 相似文献
3.
一种指数型模糊学习矢量量化图像编码算法 总被引:6,自引:0,他引:6
本文分析了模糊矢量量化(FVQ)图像编码的原理,提出了一种指数型模糊学习矢量量化算法(EFLVQ)。实验结果表明,该算法具有快速收敛性能,设计的图像码书峰值信噪比与FVQ算法相比也略有改善。 相似文献
4.
5.
一种快速模糊矢量量化图像编码算法 总被引:5,自引:3,他引:2
本文在学习矢量量化和模糊矢量量化算法的基础上,设计了一种新的训练矢量超球体收缩方案和码书学习公式,提出了一种快速模糊矢量量化算法。该算法具有对初始码书选取信赖性小,不会陷入局部最小和运算最小的优点。实验表明,FFVQ设计的图像码书性能与FVA算法相比,训练时间大大缩短,峰值信噪比也有改善。 相似文献
6.
7.
本文给出了一种新的图像矢量量化码书的优化设计方法.传统矢量量化方法只考虑了码字与训练矢量之间的吸引影响,所以约束了最优解的寻解空间.本文提出了一种新的学习机理--模糊强化学习机制,该机制在传统的吸引因子基础上,引入新的排斥因子,极大地释放了吸引因子对最优解的寻解空间的约束.新的模糊强化学习机制没有采用引入随机扰动的方法来避免陷入局部最优码书,而是通过吸引因子和排斥因子的合力作用,较准确地确定了每个码字的最佳移动方向,从而使整体码书向全局最优解靠近.实验结果表明,基于模糊强化学习机制的矢量量化算法始终稳定地取得显著优于模糊K-means算法的性能,较好地解决了矢量量化中的码书设计容易陷入局部极小和初始码书影响优化结果的问题. 相似文献
8.
9.
基于改进SMVQ的图像压缩算法 总被引:1,自引:0,他引:1
在图像编码方法中,矢量量化被认为是一种有效的低比特率图像编码方法.边匹配有限状态矢量量化利用相邻图像块之间的相关性避免了图像块边界之间大的灰度跃变.本文提出了一种改进的边匹配有限状态矢量量化,即双向低复杂度基于改进梯度的边匹配有限状态矢量量化.在双向低复杂度基于改进梯度的边匹配有限状态矢量量化中,第一次量化的状态码书尺寸由相邻图像块的梯度确定,第二次量化对第一次量化后的矢量中梯度值大于设定门限的矢量重新进行量化以提高图像质量.此外,和传统边匹配有限状态矢量量化利用上邻矢量和左邻矢量确定状态码书不同,新算法利用上、下、左、右四个相邻矢量来确定状态码书.试验结果表明,该算法的第二层编码在峰值信噪比上有1.5dB的改善;和传统的边匹配矢量量化相比较,在比特率相同时峰值信噪比平均有1.54dB的改善. 相似文献
10.
该文提出了一种基于双正交小波变换(BWT)和模糊矢量量化(FVQ)的极低比特率图像编码算法.该算法通过构造符合图像小波变换系数特征的跨频带矢量,充分利用了不同频带小波系数之间的相关性,有效地提高了图像的编码效率和重构质量.该算法采用非线性插补矢量量化(NLIVQ)的思想,从大维数矢量中提取小维数的特征矢量,并提出了一种新的模糊矢量量化方法——渐进构造模糊聚类(PCFC)算法用于特征矢量的量化,从而大大提高了矢量量化的速度和码书质量.实验结果证明,该算法在比特率为0.172bpp的条件下仍能获得PSNR>30dB的高质量重构图像。 相似文献
11.
电子封装常用名称及术语汇集下面,按英文字母顺序,汇集并解释了与目前LSI(包括IC)正在采用的主要封装形式相关联的名称术语等。这些名称术语参考并引用了日本国内12个半导体制造公司,其他国家7个半导体制造公司*与LSI封装相关的资料、日本电子机械工业会... 相似文献
12.
本文依据部分失真定理提出了一种应用于矢量量化的竞争学习新算法--部分失真均衡竞争学习算法,与目前流行的多种竞争学习算法相比,该算法对于不同尺寸码书的设计均取得了最好的结果,特别是对于大尺寸码书的设计,效果更为明显。 相似文献
13.
K. Masselos P. Merakos T. Stouraitis C.E. Goutis 《The Journal of VLSI Signal Processing》1998,18(1):65-80
In this paper, a novel algorithm for low-power image coding and decoding is presented and the various inherent trade-offs are described and investigated in detail. The algorithm reduces the memory requirements of vector quantization, i.e., the size of memory required for the codebook and the number of memory accesses by using small codebooks. This significantly reduces the memory-related power consumption, which is an important part of the total power budget. To compensate for the loss of quality introduced by the small codebook size, simple transformations are applied on the codewords during coding. Thus, small codebooks are extended through computations and the main coding task becomes computation-based rather than memory-based. Each image block is encoded by a codeword index and a set of transformation parameters. The algorithm leads to power savings of a factor of 10 in coding and of a factor of 3 in decoding, at least in comparison to classical full-search vector quantization. In terms of SNR, the image quality is better than or comparable to that corresponding to full-search vector quantization, depending on the size of the codebook that is used. The main disadvantage of the proposed algorithm is the decrease of the compression ratio in comparison to vector quantization. The trade-off between image quality and power consumption is dominant in this algorithm and is mainly determined by the size of the codebook. 相似文献
14.
提出一种新的低功耗图像及视频编解码算法。该算法主要基于矢量量化,认为编码算法的质量和功耗地码本尺寸的大小,通过采用小尺寸码本,降低算法所需要的内存数量,从而降低功耗。编码时,利用分形理论中的同构变换计算虚拟码本,弥补由于采用小码本造成的图像质量损失,并使编码过程较少依赖于码本内存。编解码结果与全搜索型矢量量化算法相比,在不损失图像质量的前提下,可以极大地降低编解码功耗。 相似文献
15.
A review and a performance comparison of several often-used vector quantization (VQ) codebook generation algorithms are presented. The codebook generation algorithms discussed include the Linde-Buzo-Gray (LBG) binary-splitting algorithm, the pairwise nearest-neighbor algorithm, the simulated annealing algorithm, and the fuzzy c-means clustering analysis algorithm. A new directed-search binary-splitting method which reduces the complexity of the LBG algorithm, is presented. Also, a new initial codebook selection method which can obtain a good initial codebook is presented. By using this initial codebook selection algorithm, the overall LBG codebook generation time can be reduced by a factor of 1.5-2. 相似文献
16.
This paper evaluates the performance of an image compression system based on wavelet-based subband decomposition and vector quantization. The images are decomposed using wavelet filters into a set of subbands with different resolutions corresponding to different frequency bands. The resulting subbands are vector quantized using the Linde-Buzo-Gray (1980) algorithm and various fuzzy algorithms for learning vector quantization (FALVQ). These algorithms perform vector quantization by updating all prototypes of a competitive neural network through an unsupervised learning process. The quality of the multiresolution codebooks designed by these algorithms is measured on the reconstructed images belonging to the training set used for multiresolution codebook design and the reconstructed images from a testing set. 相似文献