首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 125 毫秒
1.
基于自组织特征映射网络的模糊矢量量化算法   总被引:1,自引:0,他引:1  
自组织特征映射(SOFM)是一种常用的矢量量化算法,它具有设计码书不依赖于初始码书等优点。模糊矢量量化算法(FVQ)将模糊关系引入码书的设计,训练矢量与码矢之间的模糊关系用隶属函数表示。本文提出了一种基于自组织特征映射网络的模糊矢量量化算法(FSOFM),FSOFM算法将SOFM网络的调节节点邻域看作训练矢量的模糊集,网络权值学习步长的选择依赖于隶属函数。由于设计码书的评价一般采用最小均方误差准则,而隶属函数是训练矢量与码矢之间距离的函数,FSOFM算法保证了网络的全局成优化和网络权值的局部调整一致;因此,FSOFM算法能够优化码书的设计,改善设计码书的性能。此外,FSOOFM算法还具良好的适应性,当网络的将LBG、SOFM、FVQ和FOSOFM算法用于一组具有不同边缘特性的图像的矢量量化中,我们发现采用FSOFM算法进行矢量量化的所有图像都具有最高的峰值信噪比PSNR。  相似文献   

2.
对自组织特征映射(SOFM)神经网络学习算法进行阐述.讨论SOFM神经网络学习算法,通过研究基于SOFM学习算法的矢量码书设计中存在的问题,提出一种改进算法.最后把这种算法应用在IP电话语音压缩编码的参数矢量量化上.计算机仿真结果表明,SOFM神经网络对于语音码书训练是非常有效的,改进的SOFM学习算法能够大大减少训练时间,提高整个系统的性能.  相似文献   

3.
对自组织特征映射(SOFM)神经网络学习算法作了简单介绍。从SOFM神经网络学习算法的基本思想出发,通过研究SOFM学习算法在设计矢量码书中存在的问题,提出了一种改进算法。最后把这种算法应用在口电话语音压缩编码的参数矢量量化上。计算机仿真结果表明,SOFM神经网络是一种训练语音码书的好工具,改进的SOFM学习算法能够大大减少训练时间,提高整个系统的性能。  相似文献   

4.
针对自组织特征映射(SOFM)神经网络应用于矢量量化具有收敛速度慢、计算量大等缺点,本文提出了一种基于PCA/SOFM混合神经网络的矢量量化的算法,先用主元分析(PCA)线性神经网络对输入矢量进行降维处理,再用SOFM神经网络进行矢量量化。通过调整SOFM神经网络的学习函数、邻域权值及初始码书对网络进行优化。实验表明,改进算法缩短了图像压缩的时间,提高了码书的性能。  相似文献   

5.
基于CL多小波与SOFM的图像矢量量化*   总被引:3,自引:0,他引:3  
针对CL多小波变换后的图像系数特点,综合考虑子带各分量图像间的相关性,构造矢量,并根据系数在不同方向上的分布,提出了分块码本的设计方法;用SOFM网络来训练得到的矢量,完成矢量量化。通过实验,表明了用该方法得到的码本空间不仅具有良好的性能,运算速度快,并且具有很强的通用性,这对未知海底图像的摄取尤其重要。  相似文献   

6.
基于自组织特征映射神经网络的图像压缩   总被引:2,自引:0,他引:2  
朱翔  吴贻鼎 《计算机工程》2003,29(20):121-123
简要介绍了基于自组织特征映射(SOFM)神经网络的图像压缩的传统算法。通过对传统方法的优缺点分析,提出了一种新的简单的矢量量化压缩方法。新算法采用分类码书设计和残留编码,大大提高了图像的客观指标和主观视觉效果。实验表明此方法明显优于传统的SOFM算法,而且易于硬件实现。  相似文献   

7.
根据低延迟语音编码算法训练码书的尺寸和码字维数的特点,提出了一种改进的自组织特征映射(SOFM)神经网络的码书设计方法。对输入训练矢量以及连接权矢量进行归一化,为降低计算量和提高码书训练质量,采用快速的网络学习决定获胜的神经元并对网络权值分阶段进行自适应调整,最后应用于低延迟语音编码中。实验表明,与传统LBG算法比较,采用SOFM神经网络训练的码书其合成语音的主、客观质量均有较大提高。  相似文献   

8.
基于主分量分析的矢量量化数字水印算法   总被引:3,自引:2,他引:1       下载免费PDF全文
针对矢量量化过程中码书训练复杂的缺点,基于主分量分析方法对图像进行降维,根据降维后各主分量熵和标准差的差异性对其进行分类,采用非均匀矢量量化方法生成码书。在水印嵌入过程中,将水印图像嵌入降维后主分量能量适中的码书中以提高水印图像质量,利用EENNS算法代替完全搜索算法缩短编码时间。实验结果表明,该算法在提高码书质量的同时,能有效减少码书训练时间,对JPEG压缩、剪切、旋转等图像攻击也具有较强的鲁棒性。  相似文献   

9.
首先利用分类的方法,得到同一地物在不同波段的光谱反射特性,在此基础上构造谱间预测器,去除谱间相关性,再对残差图像采用S+P变换去除空间相关性,然后,利用改进的分级树的集合划分(SPIHT)方法,实现遥感图像的高效无损编码,实验表明本方法取得满意的结果,显示了本方法在多波段遥感图像压缩中的潜力。  相似文献   

10.
针对高光谱影像光谱维的数据量大、传统影像压缩方法不易于保存光谱内信息的特点,对矢量量化数据压缩方法中码书设计和码字搜索两个关键技术进行详细地研究,提出针对高光谱影像压缩的改进方法,并在此基础上实现了对高光谱影像的矢量量化压缩算法。最后通过对不同波段组合的AVIRIS的高光谱数据的实验,从压缩后的压缩率、速率和失真率等方面进行观察和对比,证明矢量量化压缩算法对高光谱影像具有显著的压缩效果。  相似文献   

11.
一种多光谱遥感图象的近无损压缩方法   总被引:5,自引:1,他引:5       下载免费PDF全文
近无损压缩是在无损压缩和有损压缩之间的一种折衷。多光谱遥感图象的近无损压缩通常用K-L变换去除谱间冗余,用数字余弦变换(DCT)去除空间冗余来实现。本文分析了多光谱遥感图象空间冗余和谱间冗余的特点,提出用K-L变换和预测树方法去除两类冗余。该方法更好地去除了谱间冗余,取得了较好的实验结果。  相似文献   

12.
在建的高能同步辐射光源预计会产生海量原始数据,其中硬X射线实验线站产生的图像数据占比最高且具有高分辨率和高帧率的特点,亟需有效的无损压缩方法缓解存储和传输压力,然而现有通用无损压缩方法对该类图像压缩效果不佳,基于深度学习的无损压缩方法又耗时较长。结合同步辐射光源图像的特点,提出一种在保证图像压缩比前提下的可并行智能无损图像压缩方法。通过参数自适应的可逆分区量化方法,大幅缩小图像经过时间差分后的像素值分布范围,能够节省20%以上的存储空间。将以CNN为基础架构的时空学习网络C-Zip作为概率预测器,同时以数据集为单位过拟合训练模型进一步优化图像压缩比。针对压缩过程中耗时较长的算术编码过程,利用概率距离量化代替算术编码,结合深度学习进行无损编码,增加编码过程的并行度。实验结果表明,该方法的图像压缩比相比于PNG、FLIF等传统图像无损压缩方法提升了0.23~0.58,对于同步辐射光源图像具有更好的压缩效果。  相似文献   

13.
基于整数小波变换的机载多光谱图像无损压缩   总被引:4,自引:0,他引:4  
首先探讨了基于提升方案的整数小波变换,结合线性预测技术,提出了一种机载多光谱遥感图像的无损压缩方法。该方法通过整数小波变换减少图像的空间冗余,然后根据多光谱图像谱间的相关性对整数小波变换后的结果进行预测,并且加进了相关性判断这一环节保证了预测的有效性。算法适合并行处理和硬件实现。对机载64波段多光谱遥感图像的试验结果表明,该方法与改进的预测树方法相比其无损压缩比平均提高了16%,压缩时间缩短了三分之二。  相似文献   

14.
提出一种基于有序决策二叉图(OBDD)的灰度图像无损压缩算法,该算法将灰度图像划分成独立的位平面,利用二值图像的开关性,用OBDD模型来表征位平面,然后对OBDD进行有效的编码,最后用算术编码压缩进一步减少冗余.实验结果表明,本算法的压缩比优于WinZIP.  相似文献   

15.
由于K—means聚类要求每个像素要和所有聚类中心求欧氏距离,因此当聚类数很多时,这是一个相当耗时的工作。改进后的K—means聚类算法使类内像素只通过和相邻的聚类中心进行距离计算来聚类,由于随着算法的迭代进行,大量类的状态基本固定,因此使得聚类速度不断加快。多层次聚类无损压缩就是利用改进的K—means聚类算法具有快速收敛的特点,和利用分层次去冗余的方法来聚类,因此可最大限度消除残差冗余。基于SP整数小波变换的多层次聚类由于其不仅能消除空间冗余、结构冗余,还能进一步对残差数据去冗余,因而实现了多光谱遥感图象无损压缩的突破。最后通过不同算法对TM图象进行压缩的比较和参数分析,论证了多层次聚类无损压缩的高效及合理性。  相似文献   

16.
提出了YCoCg和减影混合变换去除谱间冗余、2D-CDF(2,2)DWT去除空间冗余,该变换可完全由加法和移位完成便于硬件实现,改进的EBCOT算法进行编码。实验结果表明,无损压缩性能远好于JPEG-LS、WinZip、ARJ、DPCM、中国科学院一小组、NMST、MST的结果,以JPL的Canal测试图像为例,平均而言无损压缩比分别比上述算法提高了41%、36%、34%、29%、16%、14%、11%左右。  相似文献   

17.
一种基于网格编码量化的高光谱图像无损压缩方法   总被引:3,自引:1,他引:3       下载免费PDF全文
由于遥感图像的数据量非常庞大,给有限的存储空间和传输带宽带来很大的压力,同时,由于高光谱图像获取代价昂贵,具有广泛的应用领域,且压缩时一般不能丢失任何信息,即要求无损压缩,因此没有有效的压缩方法,高光谱图像的普及应用将受到极大的限制.网格编码量化(TCQ)借鉴了网格编码调制(TCM)中信号集合扩展、信号集合划分和网格状态转移的思想,其虽具有良好的均方误差(MSE)性能,而且计算复杂度适中,但目前TCQ主要被应用于图像的有损压缩,为了对高光谱图像进行有效的无损压缩,通过将TCQ引入高光谱图像的无损压缩,并根据高光谱图像的特点,提出了一种基于小波变换和TCQ的高光谱图像无损压缩方法.实验结果表明,与JPEG2000和JPEG-LS中无损压缩算法相比,该算法对高光谱图像具有更好的压缩性能.  相似文献   

18.
S+P变换是由AmirSaid犤7犦提出的一种多分辨表示方法,能够实现整数到整数的变换,从而成功地应用于图像的无损压缩,其性能优于基于线性预测的JPEG标准。为了进一步提高压缩性能,论文提出了一种基于DPCM与S+P变换的图像无损压缩算法。首先,对原始图像进行线性预测,得到差值图像;其次,对差值图像进行S+P变换;最后,对变换系数进行熵编码压缩。新算法利用像素间的相关性,给出了一种新的利用一维S+P变换实现图像变换的方法,减少了变换增加的数据量,有效地解决了边界处理问题。实验结果与性能比较表明:新算法有效的,优于其它著名的基于多分辨分解的无损图像压缩编码算法犤7,10,12犦。  相似文献   

19.
Effective compression technique of on-board hyperspectral images has been an active topic in the field of hyperspectral remote sensintg.In order to solve the effective compression of on-board hyperspectral images,a new distributed near lossless compression algorithm based on multilevel coset codes is proposed.Due to the diverse importance of each band,a new adaptive rate allocation algorithm is proposed,which allocates rational rate for each band according to the size of weight factor defined for hyperspectral images subject to the target rate constraints.Multiband prediction is introduced for Slepian-Wolf lossless coding and an optimal quantization algorithm is presented under the correct reconstruction of Slepian-Wolf decoder,which minimizes the distortion of reconstructed hyperspectral images under the target rate.Then Slepian-Wolf encoder exploits the correlation of the quantized values to generate the final bit streams.Experimental results show that the proposed algorithm has both higher compression efficiency and lower encoder complexity than several existing classical algorithms.  相似文献   

20.
In this paper a Human Visual System based adaptive quantization scheme is proposed. The proposed algorithm supports perceptually lossless as well as lossy compression. The algorithm uses a transform based compression approach using the wavelet transform, and has incorporated vision models for the compression of both luminance and chrominance components. The major strength of the coder is the incorporation of the vision model for the chrominance components and the optimum way in which the scales are distributed among the luminance and chrominance components to achieve higher compression ratios. The perceptual model developed for the color components gives flexibility for giving more compression for the color components without causing any color degradations. For each image the visual thresholds are evaluated and an optimum bit allocation is done in such a way that the quantization error is always less than the visual distortion for the given rate. To validate the strength of the proposed algorithm, the perceptual quality of the images reconstructed using the proposed coder is compared with the images reconstructed with JPEG2000 standard coder, for the same compression. To evaluate the perceptual quality of the compressed images latest perceptual quality matrices such as Structural Similarity Index, Visual Information Fidelity and Visual Signal-to-Noise Ratio are used. The results obtained reveal that the proposed structure gives excellent improvement in perceptual quality compared to the existing schemes, for both lossy as well as lossless compression. These advantages make the proposed algorithm a good candidate for replacing the quantizer stage of the current image compression standards.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号