首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 78 毫秒
1.
针对面向分类的传统字典学习方法在大数据集上批量学习时计算代价较高的问题,提出一种类特定的增量式字典学习算法。该算法在初始训练集上进行类特定的字典学习得到初始字典,通过增量数据集选取增量字典原子初始值。根据不能在初始字典上稀疏表示且互信息最大的原则,从增量样本集中选取若干样本作为增量字典原子的初始值。在保持原有字典原子不变的情况下,迭代更新编码系数和增量字典原子,直至收敛得到新的字典。利用稀疏表示分类器,在Eclipse数据集和ORL人脸图像数据库上的实验结果验证了该算法的分类有效性和计算代价上的优越性。  相似文献   

2.
在现有的基于稀疏表示分类算法的人脸识别中,使用通过稀疏学习得到的精简字典可以提高识别速度和精确度。metaface学习(Metaface Learning,MFL)算法在字典学习过程中没有考虑同类样本稀疏编码系数之间具有相似性的特点。为了利用这一信息来提高字典的区分性,提出了一种基于系数相似性的metaface学习(Coefficient-Simi-larity-based Metaface earning,CS-MFL)算法。CS-MFL算法的学习过程中,在更新稀疏表示系数阶段加入同类训练样本稀疏编码系数相似的约束项。为了求解包含系数相似性约束的新的最优化问题,将目标函数中的两个l2范数约束项进行合并,将原问题转化为典型l2- l1问题进行求解。在不同的人脸库上进行实验,结果表明,提出的CS-MFL算法能够获得比MFL算法更高的识别率,说明由CS-MFL算法学习得到的字典更高效且更具区分性。  相似文献   

3.
针对图像去噪过程中会导致细节和纹理结构信息丢失的不足,本文提出了基于字典学习和原子聚类的图像去噪算法。该算法首先利用含噪图像通过字典学习算法得到自适应的冗余字典,然后提取字典中每个原子的HOG特征和灰度统计特征构成特征集,并利用原子的特征集将冗余字典中的原子分成两类(不含噪原子和噪声原子),最后利用不含噪原子恢复图像,达到去噪的目的。实验结果表明,本文提出的算法无需知道噪声的先验信息,峰值信噪比好于现有的流行算法,且能较好地保持图像细节和纹理结构信息,提高了视觉效果。  相似文献   

4.
为了提高基于稀疏表示的人脸识别速度和对图像的噪声、遮挡、损坏的鲁棒性,提出了拓展的稀疏表示模型和D-KSVD(Discrimination K-SVD)的人脸识别算法。在原始的稀疏表示模型中添加了残差向量作为系数修正向量,使得拓展的稀疏表示模型具有更强的鲁棒性。针对字典学习中只包含表示能力没有包含类别信息的问题,在字典学习中添加了稀疏编码和分类器参数约束项,在字典学习的过程中同时更新稀疏编码和分类器参数,使字典中包含很好的表示能力和判别分类能力,用其稀疏编码系数进行人脸识别分类时能获得更好的识别性能。  相似文献   

5.
为了增强编码系数的判别性能,提出编码系数矩阵行向量(Profiles)的Fisher判别字典(Profiles of fisher discriminative dictionary learning,PFDDL)学习算法。首先,根据Profiles能反映原子在字典学习中的使用情况,提出一种自适应的原子类标构造方法。然后,利用Profiles与原子间的一一对应关系,设计Profiles的Fisher判别准则作为判别式项,使得同类原子对应Profiles的类内散度尽可能小,不同类原子对应Profiles的类间散度尽可能大,促使字典中的同类原子尽量表示同类训练样本,提高编码系数的判别性能。在3个人脸和1个手写字体数据库上的实验结果表明,提出的算法比其他稀疏编码和字典学习算法能取得更高的分类性能。  相似文献   

6.
随着稀疏表示理论的日渐完善,利用信号的稀疏性对图像进行修复得到广泛应用。本文针对传统的字典仅是一种无结构的扁平的原子的集合,没有充分利用原子之间相关性的问题,提出基于结构字典的图像修复算法。实验结果表明了该算法的有效性。基于结构字典的图像修复算法不仅可以训练字典更紧致地完成图像修复任务,而且训练得到的字典具有平移不变性、尺度灵活性等优点。  相似文献   

7.
字典学习通常采用线性函数捕获数据潜在特征, 该方式无法充分提取数据的内在特征结构, 近年来深度学习方法因其强大的特征表示能力而备受关注, 由此本文提出一种结合深度学习与字典学习的非线性特征表示策略, 基于深度神经网络的字典学习(deep neural network-based dictionary learning, DNNDL). DNNDL将字典学习模块融入传统深度学习网络结构中, 在通过自编码器进行映射获取的低维嵌入空间中同时学习数据字典及在其上的稀疏表示系数, 从而实现端到端方式的数据潜在特征提取. DNNDL可为已有数据以及样本外点数据生成紧凑且具判别性的表示. DNNDL不仅是一种新的深度学习网络结构, 并且可将其看作为字典学习和深度学习相结合的统一框架. 通过在4个真实数据集上进行的大量实验, 验证表明所提方法较常用方法具有更好数据表示能力.  相似文献   

8.
最近,双字典训练已成为在计算机视觉和图像领域解决超分辨率复原问题的有力工具。针对基于双字典训练的图像超分辨率算法中字典训练与重构阶段的重构误差,提出了一种基于自适应多字典对的超分辨
  率复原算法。通过对样本进行聚类并训练多特征字典来适应不同类型的输入图像。在字典训练阶段,充分利用了不同次训练字典产生的差异,在重建中筛选高频补丁,进行多次重构,有效地提升了重构图像的质量。实验仿真与比较表明,该方法在重构图像的质量上有所提高,且能提供更清晰的细节。  相似文献   

9.
张蕾  朱义鑫  徐春  于凯 《计算机应用》2016,36(9):2486-2491
针对目前存在的字典学习方法不能有效构造具有鉴别能力字典的问题,提出具有鉴别表示能力的字典学习算法,并将其应用于软件缺陷检测。首先,重新构建稀疏表示模型,通过在目标函数中设计字典鉴别项学习具有鉴别表示能力的字典,使某一类的字典对于本类的样本具有较强的表示能力,对于异类样本的表示效果则很差;其次,添加Fisher准则系数鉴别项,使得不同类的表示系数具有较好的鉴别能力;最后对设计的字典学习模型进行优化求解,以获得具有强鉴别和稀疏表示能力的结构化字典。选择经过预处理的NASA软件缺陷数据集作为实验数据,与主成分分析(PCA)、逻辑回归、决策树、支持向量机(SVM)和代表性的字典学习方法进行对比,结果表明所提出的具有鉴别表示能力的字典学习算法的准确率与F-measure值均有提高,能在改善分类器性能的基础上提高检测精度。  相似文献   

10.
针对稀疏编码学习的字典过大而导致字典冗余和计算复杂的问题,提出了一种M近邻判别性低秩字典学习( MLR)算法。该算法首先引入低秩表示,去除字典的噪声,使同类字典原子之间具有更强的线性相关性,可增强字典的紧凑性和纯粹性,提高字典的质量。然后用K-奇异值分解( KSVD)算法更新字典,保持字典的表示性能,获取最优的稀疏解。在分类中,结合M近邻思想,可得到与测试样本能量相近的字典原子,增强其聚类能力,并能提高分类的精确度。基于扩展的YaleB和AR人脸数据库上的实验结果表明,该方法用较小的字典得到更好的分类性能,并优于对比的算法。  相似文献   

11.
针对图像自动标注中底层视觉特征与高层语义之间的语义鸿沟问题,在传统字典学习的基础上,提出一种基于多标签判别字典学习的图像自动标注方法。首先,为每幅图像提取多种类型特征,将多种特征组合作为字典学习输入特征空间的输入信息;然后,设计一个标签一致性正则化项,将原始样本的标签信息融入到初始的输入特征数据中,结合标签一致性判别字典和标签一致性正则化项进行字典学习;最后,通过得到的字典和稀疏编码矩阵求解标签稀疏编向量,实现未知图像的语义标注。在Corel 5K数据集上测试其标注性能,所提标注方法平均查准率和平均查全率分别可达到35%和48%;与传统的稀疏编码方法(MSC)相比,分别提高了10个百分点和16个百分点;与距离约束稀疏/组稀疏编码方法(DCSC/DCGSC)相比,分别提高了3个百分点和14个百分点。实验结果表明,所提方法能够较好地预测未知图像的语义信息,与当前几种流行的图像标注方法进行比较,所提方法具有较好的标注性能。  相似文献   

12.
针对彩色图像在去噪时易产生模糊现象和伪色彩的问题,提出多信息结合字典算法。首先提出了基于RGB颜色空间各通道模值的加权梯度定义,并在此基础上建立了由彩色图像的亮度、加权梯度、颜色信息结合的一种过完备结构字典。其次利用噪声图像的稀疏性,通过不断更新迭代的字典训练过程,找到最优稀疏系数和最优学习字典,从而将噪声信息和图像有用信息分离开,精确重构图像并单求其颜色,进而得到去噪后的彩色图像。实验结果显示,与已有算法相比,本文提出的算法在不同的噪声强度下都取得了更好的视觉效果和更高的客观评价指标值,表明该算法具有良好的去噪性能。  相似文献   

13.
高健  宋奥  刘万  陈耀 《计算机应用》2011,31(6):1578-1580
结合前像素预测编码方法和Lempel-Ziv-Welch(LZW)编码思想并针对其对于变化频率较高的信号压缩效率较低的问题,提出了一种通过利用图像像素之间相关性构建静态串表对数字图像进行无损压缩的编码方法。通过对前向预测编码处理后的图像数据进行查表编码来实现图像无损压缩。实验结果表明该方法实现简单,压缩效率高于LZW算法和WinZIP算法。  相似文献   

14.
为解决深度卷积神经网络模型占用存储空间较大的问题,提出一种基于K-SVD字典学习的卷积神经网络压缩方法。用字典中少数原子的线性组合来近似表示单个卷积核的参数,对原子的系数进行量化,存储卷积核参数时,只须存储原子的索引及其量化后的系数,达到模型压缩的目的。在MNIST数据集上对LeNet-C5和CIFAR-10数据集上对DenseNet的压缩实验结果表明,在准确率波动不足0.1%的情况下,将网络模型占用的存储空间降低至12%左右。  相似文献   

15.
冯辉  荆晓远  朱小柯 《计算机应用》2017,37(7):1960-1966
针对目前存在的合成解析字典学习方法不能有效地消除同类样本之间的差异性和忽略了不同特征对分类的不同影响的问题,提出了一种基于多视图特征投影与合成解析字典学习(MFPSDL)的图像分类方法。首先,在合成解析字典学习过程中为每种特征学习不同的特征投影矩阵,减小了类内样本间的差异对识别带来的影响;其次,对合成解析字典添加鉴别性的约束,使得同类样本具有相似的稀疏表示系数;最后通过为不同类型的特征学习权重,充分地融合多种特征。在公开人脸数据库(LFW)和手写体识别数据库(MNIST)上进行多项对比实验,MFPSDL方法在LFW和MNIST数据库上的训练时间分别为61.236 s和52.281 s,MFPSDL方法相比Fisher鉴别字典学习(FDDL)、类别一致的K奇异值分解(LC-KSVD)、字典对学习(DPL)等字典学习方法,在LFW和MNIST上的识别率提高了至少2.15和2.08个百分点。实验结果表明,所提方法在保证较低的时间复杂度的同时,获得了更好的识别效果,适用于图像分类。  相似文献   

16.
在稀疏表示理论研究的基础上,提出了基于不同冗余字典的图像修补算法。首先设计采用离散余弦变换或K-SVD算法获得冗余DCT字典、KSVDG全局字典及KSVDA自适应字典等三种不同的字典;然后分别基于上述三种不同的冗余字典,稀疏表示待处理图像;最终图像中缺损的部分将通过冗余字典和稀疏系数有效地表示出来。实验结果表明,提出的算法修补后的图像视觉效果好,并在峰值信噪比、特征相似度等主要图像质量评价指标上优于现有几种经典的图像修补方法。  相似文献   

17.
为了提高多光谱图像与全色图像的融合质量,利用稀疏表示理论,提出了一种基于训练字典的融合算法。该算法对多光谱图像的亮度分量进行亮度平滑滤波(SFIM)得到新的亮度分量,利用图像块随机采样学习得到的训练字典对全色图像和新的亮度分量进行稀疏表示,采用空间频率取大的融合规则对稀疏系数进行融合,通过重构和IHS逆变换得到融合结果。对不同场景、不同卫星的多光谱图像和全色图像进行实验,结果表明,该方法能在提高空间分辨率的同时更好地保持光谱特性。  相似文献   

18.
基于稀疏表示的图像处理技术近年来成为研究热点,多种字典学习算法如K-SVD,OLM(Online dictionary learning Method)等予以提出;这类算法使用重叠的图像块来构建字典进行稀疏表示,产生了大量稀疏系数,致使计算过缓,且不能确保收敛。针对此问题开展研究,提出了基于近端梯度的快速字典学习算法;该算法结合了多凸优化求解,采用近端梯度算法求解字典学习过程中涉及的优化问题,有效地降低了每次迭代的复杂度,减少了迭代开销,同时能够确保收敛。合成数据上的实验表明,相较于其它经典算法,该算法进行字典学习速度更快,所耗时间较短,获得的字典更好;且在图像稀疏去噪的应用中,该算法的去噪效果表现优异。  相似文献   

19.
The use of sparse representation in signal and image processing has gradually increased over the past few years.Obtaining an over-complete dictionary from a set of signals allows us to represent these signals as a sparse linear combination of dictionary atoms.By considering the relativity among the multi-polarimetric synthetic aperture radar(SAR)images,a new compression scheme for multi-polarimetric SAR image based sparse representation is proposed.The multilevel dictionary is learned iteratively in the 9/7 wavelet domain using a single channel SAR image,and the other channels are compressed by sparse approximation,also in the 9/7 wavelet domain,followed by entropy coding of the sparse coefficients.The experimental results are compared with two state-of-the-art compression methods:SPIHT(set partitioning in hierarchical trees)and JPEG2000.Because of the efficiency of the coding scheme,our method outperforms both SPIHT and JPEG2000 in terms of peak signal-to-noise ratio(PSNR)and edge preservation index(EPI).  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号