首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 156 毫秒
1.
显著性检测是指计算机通过算法自动识别出图像中的显著性目标,广泛应用于目标识别、图像检索与图像分类等领域。针对现有基于稀疏与低秩矩阵恢复的显著性检测模型中低秩转换矩阵的获取、前景稀疏矩阵的处理以及超像素块之间的关系,需对现有的稀疏与低秩矩阵恢复模型进行优化,使之更好地适用于图像的显著性检测。首先,根据背景的对比度和连通度原则获取图像低秩的背景字典,采用3种尺度分割图像的多个特征矩阵获得图像的前景稀疏矩阵;其次,通过计算邻居像素点之间的影响因子矩阵与置信度矩阵对显著图的结果进行结构约束,并且采用稀疏与低秩矩阵恢复模型对图像进行显著性检测;最后,利用K-means聚类算法的传播机制优化得到的显著图。在公开数据集上进行实验验证,结果证明本文方法能够准确有效地检测出显著性目标。  相似文献   

2.
模糊局部信息C-均值(FLICM)聚类算法是目前应用较广泛的图像分割算法,然而仅适用于处理低噪声图像。FLICM算法与像素引导隶属度滤波的结合在一定程度上提高了噪声抑制能力,但仍无法满足强噪声图像的分割需求。联合引导滤波与基于核度量的加权模糊局部信息C-均值(KWFLICM)聚类算法,提出一种隶属度与像素值交替引导的核模糊聚类算法。将像素引导隶属度滤波模块和隶属度引导像素滤波模块引入KWFLICM算法,构造一种引导滤波约束的多目标核模糊聚类优化模型,采用最小二乘法对该模型进行迭代求解。在迭代过程中,通过像素引导隶属度滤波和隶属度引导像素滤波,分别修正输入图像的隶属度和像素值,进一步提高核模糊聚类算法对含噪图像的鲁棒性。实验结果表明,与同类核模糊聚类算法相比,该算法在莱斯噪声干扰下的误分率、精确度、峰值信噪比、Jaccard相似系数等评价指标上表现突出,具有更好的分割性能和更强的鲁棒性。  相似文献   

3.
程晓雅  王春红 《计算机应用》2016,36(12):3423-3428
针对现有低秩表示(LRR)算法中全局与局部人脸特征信息融合不足的问题,提出了一种新的人脸识别算法——基于特征化字典的低秩表示(LRR-CD)。首先,将每张人脸照片表示成一个个特征化字典的集合,然后同时最小化基于训练样本的低秩重构特征系数以及与之相对应的类内特征差异。为了获得高效且具有高判别性的人脸图像的特征块重构系数矩阵,提出了一种新的数学公式模型,通过同时求解训练样本中相对应的特征块以及对应的类内特征差异词典的低秩约束问题,尽可能完整地保留原始高维人脸图像中的全局和局部信息,尤其是局部类内差异特征。另外,由于对特征块中信息的充分挖掘,所提算法对于一般程度上的面部遮挡和光照等噪声影响具有良好的鲁棒性。在AR、CMU-PIE和Extended Yale B人脸数据库进行多项对比实验,由实验结果可知LRR-CD相较于对比的稀疏表示(SRC)、协从表示(CRC)、低秩表示正规切(LRR-NCUT)和低秩递归最小二乘(LRR-RLS)算法在平均识别率上有2.58~17.24个百分点的提高。实验结果表明LRR-CD性能优于与之对比的算法,可以更高效地用于人脸全局和局部特征信息的融合,且具有优良的识别率。  相似文献   

4.
针对目前基于稀疏表示的显著性检测算法中存在的边界显著性检测不足、字典表达能力不够等问题,提出一种基于稀疏恢复与优化的检测算法。首先对图像进行滤波平滑和超像素分割,并从边界与内部超像素中挑选可靠的背景种子构建稀疏字典;然后基于该字典对整幅图像进行稀疏恢复,根据稀疏恢复误差生成初始显著图;再运用改进的基于聚类的二次优化模型对初始显著图进行优化;最后经过多尺度融合得到最终显著图。在三大公开测试数据集上的实验结果表明,所提算法能够保持高效快速、无训练等优点,同时性能优于目前主流的非训练类算法,在处理边界显著性方面表现优异,具有较强的鲁棒性。  相似文献   

5.
在低秩表示算法的基础上,提出了一个新模型。新模型构建了揭示数据内在特征联系的亲和度图以实现聚类任务。首先,根据矩阵分解原理对原始数据重新生成数据字典,在算法初始输入时筛除部分噪声。其次,利用数据间的稀疏性加强局部约束,为给定的数据向量构建非负低秩亲和度图。亲和度图中边的权重由非负低秩稀疏系数矩阵获得,系数矩阵通过每个数据样本作为其他数据样本的线性组合完成构建,如此获得的亲和度图显示了数据的子空间结构,同时表现局部线性结构。与现存的子空间算法相比,非负局部约束低秩子空间算法在聚类效果上有明显的提升。  相似文献   

6.
针对过完备字典直接对图像进行稀疏表示不能很好地剔除高频噪声的影响,压缩感知后图像重构质量不高的问题,提出了基于截断核范数低秩分解的自适应字典学习算法。该算法首先利用截断核范数正则化低秩分解模型对图像矩阵低秩分解得到低秩部分和稀疏部分,其中低秩部分保留了图像的主要信息,稀疏部分主要包含高频噪声及部分物体轮廓信息;然后对图像低秩部分进行分块,依据图像块纹理复杂度对图像块进行分类;最后使用K奇异值分解(K-single value decomposition, K-SVD)字典学习算法,针对不同类别训练出多个不同大小的过完备字典。仿真结果表明,本文所提算法能够对图像进行较好的稀疏表示,并在很好地保持图像块特征一致性的同时显著提升图像重构质量。  相似文献   

7.
字典模型(BOW)是一种经典的图像描述方法,模型中特征字典的构造方法至关重要。针对特征字典构造问题,提出了一种类别约束下的低秩优化特征字典构造方法LRC-DT,通过低秩优化的方法使训练出来的特征字典在描述同类图像时表示系数矩阵的秩相对较低,从而将类别信息引入到字典学习中,提高字典对图像描述的可分辨性。在标准公测库Caltech-101和Caltech-256上的实验结果表明:将SPM、稀疏编码下的SPM(ScSPM)、局部线性编码(LLC)和线性核函数的SPM(LSPM)编码方法中的特征字典替换为加入低秩约束(LRC)的特征字典后,随着训练样本数目增多,字典模型的分类准确率与未引入低秩约束的方法相比有所提高。  相似文献   

8.
为进一步提高分割精度、得到视觉效果更好的分割结果,提出一种融合多种特征的简单线性迭代聚类(SLIC)算法与由FCM和PCM算法(FCM-PCM)结合的图像分割方法。算法先将局部同质性特征与纹理特征融入传统SLIC算法特征中,提出一种融合多种特征的SLIC超像素分割算法(SLICHT);然后对由SLICHT超像素分割算法得到的超像素块运用FCM-PCM算法进行聚类合并,实现图像分割。与其他图像分割方法相比,该算法的实验结果在分割精度和视觉效果方面都有很好的表现。  相似文献   

9.
基于聚类的单帧图像超分辨率重建方法   总被引:1,自引:0,他引:1  
为解决单幅图像的超分辨重建问题,提出一种基于聚类的单帧图像超分辨率重建方法.从高分辨率样本图像中学习一个结构聚类型的高分辨率字典,利用迭代收缩算法优化目标方程,求得高分辨率图像的表示系数,使用学习到的高分辨率字典对低分辨率图像进行重构.实验结果表明,与总变分方法、软切割方法和稀疏表示方法相比,该方法的单帧图像超分辨率重建效果较好.  相似文献   

10.
对于图像超分辨率重建而言,通常会将图像的整体信息作为研究对象。然而图像本身含有的大量结构信息并没有得到充分利用。为了提高超分辨率重建的效果,实现对不同特征信息的利用,提出了一种融合邻域回归和稀疏表示的图像超分辨率重构算法。依据图像所具有的低秩性对高分辨率图像进行分解,获得高分辨率图像的低秩部分和稀疏部分;将对应的低分辨率图像与高分辨率图像的低秩部分和稀疏部分进行训练,学习得到对应的特征字典;基于高分辨率图像的低秩部分和稀疏部分分别基于稀疏表示和邻域嵌入进行高分辨率重构;基于低秩矩阵恢复理论,融合邻域回归和稀疏表示重构的高分辨率图像,得到最终的高分辨率图像。在测试集Set5和Set14上将提出的算法与几种经典算法进行对比实验,可视化和量化结果均表明,相比传统超分辨率算法,提出的算法在PSNR和SSIM都有很好的提升。  相似文献   

11.
针对图像色彩处理技术,提出基于超像素的图像色彩迁移方法,其以图像语义区域进行引导,以LAB色彩空间进行映射。首先,采用K-means和SLIC算法对输入图像进行分割;其次,对每一子区域块进行区域协方差处理,获得其二阶语义特征并生成超像素,并利用相似度测量函数构造相似矩阵,对区域块聚类可生成图像超像素;最后,再对图像内语义信息相似的像素基于LAB空间映射,完成色彩迁移。结果显示,该方法具有处理复杂图像能力较高及颜色迁移效果准确的优点。  相似文献   

12.
针对现有的多聚焦图像融合方法对聚焦/散焦边界(FDB)信息捕捉不准确的问题,提出了一种新的基于线性稀疏表示和图像抠图的多聚焦图像融合方法。首先,引入一种基于线性稀疏表示的焦点测度,它利用自然图像形成的字典与输入图像在局部窗口上的线性关系,通过求解线性系数来表示图像的焦点信息。然后,利用焦点测度获取源图像的焦点图和一个由聚焦区域、散焦区域以及包含FDB的未知区域组成的三元图,并将三元图作为一个输入,采用图像抠图技术处理源图像的FDB区域,从而得到较精确的全聚焦图像。最后,为了进一步提高融合图像的质量,将得到的全聚焦图像作为新字典实现融合过程的迭代进行,在经过设定的更新次数后得到最终的全聚焦融合图像。实验结果表明,相比于11种最先进的多聚焦图像融合方法,该方法具有较好的融合性能和视觉效果,且有较高的计算效率。  相似文献   

13.
针对彩色印刷行业中,印刷品色差在线检测准确率低、速度慢的问题,提出一种新的检测方法.基于超像素的思想,采用简单线性迭代聚类(SLIC,simple linear iterative clustering)算法,对具有相似特征的相邻像素进行聚类,形成结构紧凑、近似均匀的像素块,每个像素块即为一个超像素.用超像素代替像素块内多个相似像素,分别提取标准图像和待检测图像的颜色特征.再用CIEDE2000色差公式进行色差计算.实验结果表明,该方法在保证检测结果准确率的基础上,能够有效地减少数据计算量,提高检测效率.  相似文献   

14.
王书朋  赵瑶 《计算机应用》2020,40(1):252-257
针对传统多曝光图像融合存在颜色和细节信息保留不完整的问题,提出了一种新的基于自适应分割的多曝光图像融合算法。首先,采用超像素分割将输入图像分割为颜色一致的图像块,再利用结构分解将图像块分解为三个独立分量。根据各分量特点设计不同融合规则,以保留源图像中的颜色和细节信息。然后,采用引导滤波平滑各分量的权重图以及信号强度分量和亮度分量,有效地克服块效应缺陷,保留源图像中的边缘信息,减少伪影。最后,重构融合后的三个分量,得到最终的融合图像。实验结果表明,与传统的融合算法相比,所提算法在互信息(MI)上平均提升了53.6%、标准差(SD)上平均提升了24.0%。该算法能够有效地保留输入图像的颜色和细节纹理信息。  相似文献   

15.
针对引导滤波产生的光晕、梯度反转现象,以及图像融合边缘细节丢失的现象,提出一种改进引导滤波的自适应多曝光图像融合算法。在引导滤波中根据梯度信息设定权重函数,并结合图像像素点和一定区域的均值创建函数,共同实现不同区域的纹理特性自适应;利用平均亮度与对比度、饱和度及曝光适中度的关系,设置权值函数,使加权平均融合过程中的权重值不再是固定的数值,而能够根据不同的图像亮度自适应调整,权重值也不同,使得融合后的图像质量更好;将原序列图的细节信息叠加到改进的引导滤波图像中,构建纹理细节层。实验结果削弱了光晕及梯度反转现象,使图像更加真实,细节更加清晰,并且对有小光源的图像处理效果更好。算法结果明显优于多曝光融合算法及引导滤波的多曝光图像融合,在信息熵、互信息和边缘信息评价中分别取得最高2.5%、30%和30%左右的质量提升。  相似文献   

16.
赵秀锋  魏伟一  陈金寿  陈帼 《计算机工程》2022,48(4):223-230+239
图像拼接将来源不同的图像合并成一幅图,由此引起图像中光照方向、噪声等特性出现不一致的情况。目前多数方法根据拼接图像中噪声的不一致性来检测伪造区域,但是普遍对不同大小图像块的噪声估计准确性不高,导致真阳性率较低,且当噪声差异较小时会检测失败。针对该问题,提出一种基于自适应四元数奇异值分解(QSVD)的噪声估计方法。对图像进行超像素分割,利用自适应QSVD估计超像素的噪声,结合图像亮度并利用多项式拟合建立图像噪声-亮度函数,得到各超像素到该函数曲线的最小距离测度。为提高检测精确率,利用色温估计算法提取超像素的色温特征,将距离测度与色温特征相融合作为最终的特征向量,利用FCM模糊聚类定位拼接区域。在Columbia IPDED拼接图像数据集上进行实验,结果表明,该方法在未经后处理图像集上的检测TPR值较对比方法至少提升8.21个百分点,且对高斯模糊、JPEG压缩和伽马校正表现出较好的鲁棒性。  相似文献   

17.
为了克服基于块的融合方法对块的大小敏感以及融合图像中存在伪影等问题,提出一种新的基于四叉树分解和自适应焦点测度的多聚焦图像融合方法。首先,设计一种新的基于修正拉普拉斯能量和(SML)和导向滤波的自适应焦点测度,用于获得源图像的焦点图。然后,采用一种新的四叉树分解策略,并结合已经得到的焦点图,进一步将源图像分解成最优大小的树块;同时,从树块中检测出聚焦区域,并构成决策图。最后,对决策图进行优化和一致性验证,并重构出一幅全聚焦图像。通过公共多聚焦图像数据集进行实验,与11种先进的融合方法进行视觉质量和客观指标比较。实验结果表明,本文所提出的融合方法取得了更好的性能。  相似文献   

18.
针对目前许多局部双目立体匹配方法在缺乏纹理区域、遮挡区域、深度不连续区域匹配精度低的问题,提出了基于多特征表示和超像素优化的立体匹配算法。通过在代价计算步骤中加入边缘信息特征,与图像局部信息代价相融合,增加了在视差计算时边缘区域的辨识度;在代价聚合步骤,基于超像素分割形成的超像素区域,利用米字骨架自适应搜索,得到聚合区域,对初始代价进行聚合;在视差精化步骤利用超像素分割信息,对匹配错误视差进行修正,提高匹配精度。基于Middlebury立体视觉数据集测试平台,与自适应权重AD-Census、FA等方法得出的视差图进行比较,该算法在深度不连续区域和缺乏纹理区域的匹配效果显著改善,提高了立体匹配精度。  相似文献   

19.
ABSTRACT

This article presents a novel change detection (CD) approach for high-resolution remote-sensing images, which incorporates visual saliency and random forest (RF). First, highly homogeneous and compact image super-pixels are generated using super-pixel segmentation, and the optimal segmentation result is obtained through image superimposition and principal component analysis. Second, saliency detection is used to guide the search of interest regions in the initial difference image obtained via the improved robust change vector analysis algorithm. The salient regions within the difference image that correspond to the binarized saliency map are extracted, and the regions are subject to the fuzzy c-means (FCM) clustering to obtain the pixel-level pre-classification result, which can be used as a prerequisite for super-pixel-based analysis. Third, on the basis of the optimal segmentation and pixel-level pre-classification results, different super-pixel change possibilities are calculated. Furthermore, the changed and unchanged super-pixels that serve as the training samples are automatically selected. The spectral features and Gabor features of each super-pixel are extracted. Finally, super-pixel-based CD is implemented by applying RF based on these samples. Experimental results on Quickbird, Ziyuan 3 (ZY3), and Gaofen 2 (GF2) multi-spectral images show that the proposed method outperforms the compared methods in the accuracy of CD, and also confirm the feasibility and effectiveness of the proposed approach.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号