首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 140 毫秒
1.
文章介绍了一种DCT过完备字典和MOD算法相结合的图像稀疏表示去噪算法。首先将噪声图像分成小图像块,并运用正交匹配跟踪算法(0MP)在图像的初始化DCT过完备字典上对小图像块进行稀疏分解;然后使用MOD字典学习算法对DCT过完备字典进行更新;最后重复该过程以获得图像的稀疏表示并重构图像。试验结果表明:该方法在实现图像去噪的同时,其去噪性能比传统的方法更有优势。  相似文献   

2.
对于图像超分辨率重建而言,通常会将图像的整体信息作为研究对象。然而图像本身含有的大量结构信息并没有得到充分利用。为了提高超分辨率重建的效果,实现对不同特征信息的利用,提出了一种融合邻域回归和稀疏表示的图像超分辨率重构算法。依据图像所具有的低秩性对高分辨率图像进行分解,获得高分辨率图像的低秩部分和稀疏部分;将对应的低分辨率图像与高分辨率图像的低秩部分和稀疏部分进行训练,学习得到对应的特征字典;基于高分辨率图像的低秩部分和稀疏部分分别基于稀疏表示和邻域嵌入进行高分辨率重构;基于低秩矩阵恢复理论,融合邻域回归和稀疏表示重构的高分辨率图像,得到最终的高分辨率图像。在测试集Set5和Set14上将提出的算法与几种经典算法进行对比实验,可视化和量化结果均表明,相比传统超分辨率算法,提出的算法在PSNR和SSIM都有很好的提升。  相似文献   

3.
针对现有基于字典学习的增强算法依赖先验信息的问题,基于矩阵的稀疏低秩分解提出一种无监督的单通道语音增强算法。该算法首先通过稀疏低秩分解将带噪语音的幅度谱分解为低秩、稀疏和噪声三部分,然后通过对低秩部分进行自学习构建出噪声字典,最后利用所得噪声字典和乘性迭代准则于低秩和稀疏部分中分离出纯净语音。相较于其他基于字典学习的语音增强算法,本文所提算法无需语音或噪声的先验信息,因而更加方便和实用。实验结果显示,本文算法能够在保留语音谐波结构的同时有效抑制噪声,增强效果明显优于鲁棒主成分分析和多带谱减法。  相似文献   

4.
针对基于稀疏表示分类器(Sparse Representation-based Classification,SRC)的人脸识别方法用单位阵作误差字典不能很好地描述人脸图像噪声和误差以及由于训练样本不足可能造成字典不完备的问题,提出一种基于低秩恢复稀疏表示分类器(Low Rank Recovery Sparse Representation-based Classification,LRR_SRC)的人脸识别方法。该方法首先采用低秩矩阵恢复(LRR)算法将训练样本矩阵分解为一个低秩逼近矩阵和一个稀疏误差矩阵。然后,由低秩逼近矩阵和误差矩阵组成字典。在此基础上,得到测试样本在该字典下的稀疏表示。更进一步,基于测试样本的稀疏表示系数和字典,对测试样本进行类关联重构,并计算其类关联重构误差。最后,基于类关联重构误差,完成测试样本的分类识别。在YaleB和CMU PIE人脸数据库上的实验结果表明,提出的基于LRR_SRC的人脸识别方法具有较高的识别率。  相似文献   

5.
提出一种基于过完备字典稀疏表示的通用图像超分辨率算法。利用过完备字典代替稀疏基,采用学习的方法得到低分辨率图像和高分辨率图像之间的关系,最终从高分辨率图像块的字典中重构出超分辨率图像。实现了基于matlab的稀疏表示(omp算法)和字典更新(K-SVD算法)的字典学习算法,并通过仿真实验,以PSNR等指标论证了编码算法的有效性。  相似文献   

6.
基于人类视觉系统及信号的过完备稀疏表示理论,提出一种新的多聚焦图像融合算法。首先从待融合图像中随机取块构成训练样本集,经迭代运算获取过完备字典;然后由正交匹配追踪算法完成图像块的稀疏分解;再按分解系数的显著性选择融合系数并完成图像块的重构;重构块经重新排列并取平均后获得最后的融合图像。实验结果表明:该算法继承了目前较为优秀的多尺度几何分析方法的融合效果;在噪声存在的情况下,该算法表现出较好的噪声抑制能力,随噪声方差的升高,融合图像的主观质量及客观评价指标均要好于传统方法。  相似文献   

7.
基于双正交基字典学习的图像去噪方法   总被引:1,自引:0,他引:1  
解凯  张芬 《计算机应用》2012,32(4):1119-1121
为了提高图像去除白高斯噪声的性能,利用超完备字典作为图像的稀疏表示。超完备字典的冗余性可以有效地表示图像的各种几何奇异特征。在贝叶斯框架下,以图像块的稀疏表示定义了全局图像先验概率模型,给出了最大后验概率模型下的优化图像去噪算法。超完备字典使用两个不同的正交基构成,给出了基于奇异值分解(SVD)的优化字典计算方法。该方法充分利用正交基的特点,采用SVD方法进行高效的字典学习。基于双正交基字典的去噪算法提高了图像去噪性能,实验结果证实了所提方法的有效性。  相似文献   

8.
图像重构问题中一个关键的问题是如何选取变换基实现对图像的稀疏分解。根据Meyer图像模型将图像分割为卡通部分(cartoon,or piecewise smooth)和纹理部分(texture),并用Symlet系列小波基、Contourlet基和离散余弦变换基、波原子分别构造级联字典表示图像的卡通部分和纹理部分。然后利用块坐标松弛法求解优化问题提出结合级联字典和双层稀疏分解的图像重构算法。实验结果表明,与基于单一最佳小波基的重构算法和基于级联字典的匹配追踪算法比较,该算法获得更高的图像重构质量。  相似文献   

9.
低秩张量填充旨在基于不同张量分解模型恢复缺失数据,由于在挖掘一些高阶数据结构的具有明显的优势,低秩张量环模型已经被广泛应用于张量填充问题。先前的研究已经提出很多关于张量核范数的定义。然而,它们不能很好地近似张量真实的秩,也不能在优化环节利用低秩特性。因此,基于很好近似张量秩的截断平衡展开核范数,提出一种基于截断平衡展开核范数的鲁棒张量环填充模型。在算法优化部分,利用以前提出的矩阵奇异值分解和交替方向乘子法。实验证明,在图像恢复和视频的背景建模问题上,效果比其他算法好。  相似文献   

10.
近年来,基于矩阵低秩表示模型的图像显著性目标检测受到了广泛关注。在传统模型中通常对秩最小化问题进行凸松弛,即引入最小化核范数将原始输入图像分解为低秩矩阵和稀疏矩阵。但是,这种方法在每次迭代中必须执行矩阵奇异值分解(SVD),计算复杂度较高。为此,本文提出了一种低秩矩阵双因子分解和结构化稀疏矩阵分解联合优化模型,并应用于显著性目标检测。算法不仅利用低秩矩阵双因子分解和交替方向法(ADM)来降低时间开销,而且引入分层稀疏正则化刻画稀疏矩阵中元素之间的空间关系。此外,所提算法能够无缝集成高层先验知识指导矩阵分解过程。实验结果表明,提出模型和算法的检测性能优于当前主流无监督显著性目标检测算法,且具有较低的时间复杂度。  相似文献   

11.
针对以往稀疏编码在图像去噪过程中存在的噪声残留和缺乏对图像的边缘与细节的本质特征的保护等问题,提出了一种结合第二代Bandelet变换分块的字典学习图像去噪算法,其更好地利用了图像的几何特性进行去噪。首先,通过第二代Bandelet变换可以灵活地根据图像几何流的正则性特征并能够自适应地获得图像的最稀疏表示来准确估计图像信息,并能自适应地选择最优的几何方向;然后,根据K-奇异值分解(K-Singular Value Decomposition,K-SVD)算法来训练学习字典;最后,通过四叉树分割对噪声图像进行自适应分块,从而去除噪声并保护图像的边缘与细节。实验结果表明,相比于其他学习字典,所提算法能更有效地保留图像的边缘特征与图像的精细结构。  相似文献   

12.
基于过完备字典的图像稀疏表示是一种新的图像表示理论,利用过完备字典的冗余性可以有效地捕捉图像的各种结构特征,从而实现图像的有效表示。采用基于过完备字典稀疏表示的方法实现SAR图像的压缩。为了得到表示图像所需要的信息,只需要存储稀疏分解的系数极其对应的坐标,实现压缩的目的。采用K-SVD算法实现过完备字典的构造。K-SVD算法是一种基于学习的算法,由于训练样本全部来自于图像本身,因此字典能够更好地逼近图像本身的结构,实现稀疏表示。仿真表明对于SAR图像的压缩,算法是有效的,并且优于基于DCT的Jpeg算法和基于小波变换的EZW和SPIHT算法。  相似文献   

13.
针对非局部均值去噪算法中噪声对结构聚类影响的问题,提出了一种基于联合滤波预处理的聚类稀疏表示图像去噪算法。利用维纳滤波和巴特沃斯滤波联合滤波处理提取含噪图像中的高频分量,同时减小了噪声对聚类的影响;利用非局部均值去噪的思想将高频图像块进行聚类,每一类图像块单独进行字典学习,增强字典的自适应性;利用多循环字典更新的K-SVD算法进行类内字典学习,增强字典的描述能力。实验结果表明,与传统的K-SVD算法相比,该算法能有效保留图像的结构信息,并且提升了图像的去噪效果。  相似文献   

14.
目的 针对因采集的人脸图像样本受到污染而严重干扰人脸识别及训练样本较少(小样本)时会由于错误的稀疏系数导致性能急剧下降从而影响人脸识别的问题,提出了一种基于判别性非凸低秩矩阵分解的叠加线性稀疏表示算法。方法 首先由γ范数取代传统核范数,克服了传统低秩矩阵分解方法求解核范数时因矩阵奇异值倍数缩放导致的识别误差问题;然后引入结构不相干判别项,以增加不同类低秩字典间的非相干性,达到抑制类内变化和去除类间相关性的目的;最后利用叠加线性稀疏表示方法完成分类。结果 所提算法在AR人脸库中的识别率达到了98.67±0.57%,高于SRC(sparse representation-based classification)、ESRC(extended SRC)、RPCA(robust principal component analysis)+SRC、LRSI(low rank matrix decomposition with structural incoherence)、SLRC(superposed linear representation based classification)-l1等算法;同时,遮挡实验表明,算法对遮挡图像具有更好的鲁棒性,在不同遮挡比例下,相比其他算法均有更高的识别率。在CMU PIE人脸库中,对无遮挡图像添加0、10%、20%、30%、40%的椒盐噪声,算法识别率分别达到90.1%、85.5%、77.8%、65.3%和46.1%,均高于其他算法。结论 不同人脸库、不同比例遮挡和噪声的实验结果表明,所提算法针对人脸遮挡、表情和光照等噪声因素依然保持较高的识别率,鲁棒性更好。  相似文献   

15.
裴春阳  樊宽刚  马政 《计算机应用》2021,41(7):2092-2099
针对多模态医学图像融合中容易产生伪影且存在细节缺失的问题,提出一种利用多尺度边缘保留分解和稀疏表示的二尺度多模态医学图像融合方法框架。首先利用边缘保留滤波器对源图像进行多尺度分解,得到源图像的平滑层和细节层。然后,将改进的稀疏表示算法用于融合平滑层,并在此基础上提出一种基于图像块筛选的策略来构建过完备字典的数据集,再利用字典学习算法训练出一种联合字典,同时引入一种多范数的活跃度度量方法选择稀疏系数;细节层的融合则采用自适应加权局部区域能量的融合规则。最后将融合后的平滑层和细节层进行多尺度重构得到融合图像。针对三类不同成像模态的医学图像进行对比实验,结果表明,该方法较其他多尺度变换和稀疏表示的方法能够保留更多显著的边缘特征,对比度也有明显提升,在视觉效果和客观评价上都具有一定优势。  相似文献   

16.
自适应超完备字典学习的SAR图像降噪   总被引:1,自引:0,他引:1       下载免费PDF全文
提出一种基于自适应超完备字典学习的SAR图像降噪。该算法建立在超完备字典稀疏表示基础上,具有较强的数据稀疏性和稳健的建模假设。算法依据相干斑噪声统计特性,通过分步优化字典原子和变换系数自适应构造超完备字典,利用获得的超完备字典将图像局部信息投影到高维空间中,实现图像的稀疏表示,运用正则化方法建立多目标优化模型。最后通过对优化问题的求解重建SAR图像场景分辨单元的平均强度,实现SAR图像的降噪。实验结果表明,该算法对相干斑噪声有很好的抑制效果,并且具有保持图像细节信息的优点。  相似文献   

17.
随着信号稀疏表示原理的深入研究,稀疏分解越来越广泛地应用于图像处理领域。针对过完备字典构造和稀疏分解运算量巨大的问题,提出一种基于稀疏分解和聚类相结合的自适应图像去噪新方法。该方法首先通过改进的K均值(K-means)聚类算法训练样本,构造过完备字典;其次,通过训练过程中每一次迭代,自适应地更新字典的原子,使字典更适应样本的稀疏表示;然后利用正交匹配追踪(OMP)算法实现图像的稀疏表示,从而达到图像去噪的目的。实验结果表明:与传统的字典训练方法相比,新算法有效地降低了运算复杂度,并取得更好的图像去噪效果。  相似文献   

18.
稀疏表示以其出色的分类性能成为说话人确认研究的热点,其中过完备字典的构建是关键,直接影响其性能。为了提高说话人确认系统的鲁棒性,同时解决稀疏表示过完备字典中存在噪声及信道干扰信息的问题,提出一种基于i-向量的主成分稀疏表示字典学习算法。该算法在高斯通用背景模型的基础上提取说话人的i-向量,并使用类内协方差归一化技术对i-向量进行信道补偿;根据信道补偿后的说话人i-向量的均值向量估计其信道偏移空间,在该空间采用主成分分析方法提取低维信道偏移主分量,用于重新计算说话人i-向量,从而达到进一步抑制i-向量中信道干扰的目的;将新的i-向量作为字典原子构建高鲁棒性稀疏表示过完备字典。在测试阶段,测试语音的i-向量在该字典上寻找其稀疏表示系数向量,根据系数向量对测试i-向量的重构误差确定目标说话人。仿真实验表明,该算法具有良好的识别性能。  相似文献   

19.
目的 针对目前基于稀疏表示的超分辨率重建算法中对字典原子的选取效率低、图像重建效果欠佳的问题,本文提出了核方法与一种高效的字典原子相关度筛选方法相融合的图像超分辨重建算法,充分利用字典原子与图像的相关度,选用对重建的贡献最大的原子来提高重建的效率和效果。方法 首先,通过预处理高分辨率图像得到高、低分辨率图像样本集,再用字典学习得到高、低分辨率字典对;然后,对字典原子进行非相关处理提高字典原子的表达能力;此后,再利用低分辨率字典,引入核方法和字典原子筛选方法进行稀疏表示,设置阈值筛选高相关原子,低相关度原子对重建贡献度低,在迭代过程中耗费计算量,所以舍去低相关原子,再对普通原子进行正则化处理后加入支撑集,处理后的字典原子对于重建具有很好的表达能力;最后,利用处理后的字典原子对低分辨率图求解稀疏表示问题得到稀疏表示系数,结合高分辨率字典重建出高分辨率图像。结果 实验通过与其他学习算法对比,得到结构相似度(SSIM)、峰值信噪比(PSNR)以及重建时间的结果。实验结果表明:本文方法与对比方法相比,图像重建时间提高了22.2%;图像结构相似度提高了9.06%;峰值信噪比提高了2.30 dB。原有的基于字典学习的方法对于字典选取具有一定的盲目性,所选取的原子与重建图像相关度较低,使重建效果差,本文方法获得的字典原子可以减少稀疏表示过程的时耗,同时提高稀疏表示的精度。引入核方法,改善经典算法中对原子选取的低精度问题,经实验证明,本方法能有效提高重建算法性能。结论 实验结果表明,图像的稀疏表示过程的重建时间明显减少,重建效果也有一定的提高,并且在训练样本较少的情况下同样有良好的重建效率和效果,适合在实际中使用。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号