首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 218 毫秒
1.
目的 为了进一步提高噪声图像分割的抗噪性和准确性,提出一种结合类内距离和类间距离的改进可能聚类算法并将其应用于图像分割。方法 该算法避免了传统可能性聚类分割算法中仅仅考虑以样本点到聚类中心的距离作为算法的测度,将类内距离与类间距离相结合作为算法的新测度,即考虑了类内紧密程度又考虑了类间离散程度,以便对不同的聚类结构有较强的稳定性和更好的抗噪能力,并且将直方图融入可能模糊聚类分割算法中提出快速可能模糊聚类分割算法,使其对各种较复杂图像的分割具有即时性。结果 通过人工合成图像和实际遥感图像分割测试结果表明,本文改进可能聚类算法是有效的,其分割轮廓清晰,分类准确且噪声较小,其误分率相比其他算法至少降低了2个百分点,同时能获得更满意的分割效果。结论 针对模糊C-均值聚类分割算法和可能性聚类分割算法对于背景和目标颜色相近的图像分类不准确的缺陷,将类内距离与类间距离相结合作为算法的测度有效的解决了图像分割归类问题,并且结合直方图提出快速可能模糊聚类分割算法使其对于大篇幅复杂图像也具有适用性。  相似文献   

2.
目的 传统模糊C-均值聚类应用于图像分割仅考虑像素本身的聚类问题,无法克服噪声干扰对图像分割结果的影响,不利于受到噪声干扰的工业图像、医学影像和高分遥感影像等进行目标提取、识别和解译。嵌入像素空间邻域信息或局部信息的鲁棒模糊C-均值聚类分割算法是近年来图像分割理论研究中的热点课题。为此,针对现有的鲁棒核空间模糊聚类算法非常耗时且抑制噪声能力弱、不适合强噪声干扰下大幅面图像快速分割等问题,提出一种快速鲁棒核空间模糊聚类分割算法。方法 利用待分割图像中像素邻域的灰度信息和空间位置等信息构建线性加权滤波图像,对其进行鲁棒核空间模糊聚类。为了进一步提高算法实时性,引入当前聚类像素与其邻域像素均值所对应的2维直方图信息,构造一种基于2维直方图的鲁棒核空间模糊聚类快速分割最优化数学模型,采用拉格朗日乘子法获得图像分割的像素聚类迭代表达式。结果 对大幅面图像添加一定强度的高斯、椒盐以及混合噪声,以及未加噪标准图像的分割测试结果表明,本文算法比基于邻域空间约束的核模糊C-均值聚类等算法的峰值信噪比至少提高1.5 dB,误分率降低约5%,聚类性能评价的划分系数提高约10%,运行速度比核模糊C-均值聚类和基于邻域空间约束的鲁棒核模糊C-均值聚类算法至少提高30%,与1维直方图核空间模糊C-均值聚类算法具有相当的时间开销,所得分割结果具有较好的主观视觉效果。结论 通过理论分析和实验验证,本文算法相比现有空间邻域信息约束的鲁棒核空间模糊聚类等算法具有更强的抗噪鲁棒性、更优的分割性能和实时性,对大幅面遥感、医学等影像快速解译具有积极的促进作用,能更好地满足实时性要求较高场合的图像分割需要。  相似文献   

3.
目的 传统FCM算法及其改进算法均只采用隶属度作为分割判据实现图像分割。然而,在分割过程中聚类中心易受到同质区域内几何噪声的影响,导致此类算法难以有效分割具有几何噪声的图像。为了解决这一类问题,提出一种利用包含度和隶属度的遥感影像模糊分割算法。方法 该算法假设同一聚类对每个像素都有不同程度的包含度,将包含度作为一种新测度来描述聚类与像素间关系,并将包含度纳入目标函数中。该算法通过迭代最小化目标函数来得到最优的隶属度和包含度,然后,通过反模糊化隶属度和包含度之积实现带有几何噪声的遥感图像的分割。结果 采用本文算法分别对模拟图像,真实遥感影像进行分割实验,并与FCM算法和FLICM算法进行对比,定性结果表明,对含有几何噪声的区域,提出算法的用户精度和产品精度均高于FCM算法和FLICM算法,且总精度和Kappa值也高于对比算法。实验结果表明,本文算法能够抵抗几何噪声对图像分割的影响,且分割精度远远高于其他两种算法的分割精度。结论 提出算法通过考虑聚类对像素的包含性,能够有效抵抗几何噪声对图像分割的影响,使得算法具有较高的抗几何噪声能力,进而提高该算法对含有几何噪声图像的分割精度。提出算法适用于包含几何噪声的高分辨率遥感图像,具有很好的抗几何噪声性。  相似文献   

4.
目的 为了更有效地提高中智模糊C-均值聚类对非凸不规则数据的聚类性能和噪声污染图像的分割效果,提出了核空间中智模糊均值聚类算法。方法 引入核函数概念。利用满足Mercer条件的非线性问题,用非线性变换把低维空间线性不可分的输入模式空间映射到一个先行可分的高维特征空间进行中智模糊聚类分割。结果 通过对大量图像添加不同的加性和乘性噪声进行分割测试获得的核空间中智模糊聚类算法提高了现有算法的对含噪声聚类的鲁棒性和分类性能。峰值信噪比至少提高0.8 dB。结论 本文算法具有显著的分割效果和良好的鲁棒性,并适应于医学,遥感图像处理需要。  相似文献   

5.
模糊相关图割的非监督层次化彩色图像分割   总被引:1,自引:0,他引:1       下载免费PDF全文
目的 基于阈值的分割方法能根据像素的信息将图像划分为同类的区域,其中常用的最大模糊相关分割方法,因能利用模糊相关度量划分的适当性,得到较好的分割结果,而广受关注。然而该算法存在划分数需预先确定,阈值的分割结果存在孤立噪声,无法对彩色图像实施分割的问题。为此,提出基于模糊相关图割的非监督层次化分割策略来解决该问题。方法 算法首先将图像划分为若干超像素,以提高层次化图像分割的效率;随后将快速模糊相关算法与图割结合,构成模糊相关图割2-划分算子,在确保分割效率的基础上,解决单一阈值分割存在孤立噪声的问题;最后设计了自顶向下层次化分割策略,利用构建的2-划分算子选择合适的区域及通道,迭代地对超像素实施层次化分割,直到算法收敛,划分数自动确定。结果 对Berkeley分割数据库上300幅图像进行了测试,结果表明算法能有效分割彩色图像,分割精度优于Ncut、JSEG方法,运行时间较这两种方法也提高了近20%。结论 本文算法为最大模糊相关算法在非监督彩色图像分割领域的应用提供指导依据,能用于目标检测和识别领域。  相似文献   

6.
目的 为了提高2维直方图模糊C均值聚类分割算法的抗噪性和普适性,提出了属性加权2维直方图模糊C均值聚类分割新方法。方法 针对2维直方图模糊C均值聚类分割算法存在阈值参数选取不当导致抗噪性能差的不足,将属性加权引入2维直方图模糊C均值聚类并有效解决了每维属性聚类贡献度的问题。结果 本文算法相比2维直方图模糊C均值聚类分割法抗椒盐和高斯噪声性能平均提高了2~3 dB;同时,相比模糊局部C均值聚类分割法抗椒盐噪声性能平均提高了2~3 dB且抗高斯噪声性能稍差大约1 dB,但本文算法相比模糊局部C均值聚类分割法的速度平均提高了大约40倍。结论 实验结果表明,本文算法相比现有2维直方图模糊C均值聚类算法更适合噪声图像分割;同时,相比模糊局部C均值聚类算法更有利于实时性要求较高场合的目标跟踪和识别等需要。同时从大量图像测试得出,本文算法对于一般人工合成图像、智能交通图像及遥感图像等具有普遍适用性。  相似文献   

7.
目的 针对模糊C-均值聚类图像分割方法存在的对初始值敏感及抗噪性能差的问题,提出一种结合基因表达式编程与空间模糊聚类的图像分割方法。方法 首先,利用基因表达式编程算法对图像进行初次分割,即将聚类中心编码成染色体,通过适应度评价引导搜索获得优化的聚类中心;然后在隶属度计算中引入空间函数,以初次分割结果作为初始值,使用空间模糊聚类对图像进行二次分割。结果 对加噪的合成图像和Berkeley图像的分割实验显示,本文方法在聚类划分系数(VPC)、聚类划分熵(VPE)和峰值信噪比(PSNR)等评价指标上总体性能优于经典的模糊C-均值聚类和空间模糊C-均值聚类分割算法,其中VPC值平均高出0.062 4和0.061 1,VPE值平均降低0.117 0和0.101 1,而PSNR值平均提升了约13.312 1 dB和3.308 4 dB;在对Berkeley图像库中的6幅图片的分割实验显示,本文方法对图像分割的VPC值均在0.93以上,相比两种对比方法平均提高0.157 6和0.013 3,VPE值保持在0.1附近,均低于对比方法,PSNR值平均提高2.896 3 dB和1.934 4 dB;在多目标分割实验上,随着聚类数目增加,3种方法的分割性能均有下降,但本文方法性能曲线最为平缓,受聚类数目的影响最小。虽然本文方法所需的运行时间略有增加,但求解所需的迭代次数却极大地减少。结论 本文提出的图像分割方法具有很强的抗噪性、更高的分割精度和稳定性,适用于需要更精确结果、对时间要求不高的分割场景。  相似文献   

8.
目的 为了在未知或无法建立图像模型的情况下,实现统计图像分割,提出一种结合Voronoi几何划分、K-S(Kolmogorov-Smirnov)统计以及M-H(Metropolis-Hastings)算法的图像分割方法.方法 首先利用Voronoi划分将图像域划分成不同的子区域,而每个子区域为待分割同质区域的一个组成部分,并利用K-S统计定义类属异质性势能函数,然后应用非约束吉布斯表达式构建概率分布函数,最后采用M-H算法进行采样,从而实现图像分割.结果 采用本文算法,分别对模拟图像、合成图像、真实光学和SAR图像进行分割实验,针对模拟图像和合成图像,分割结果精度均达到98%以上,取得较好的分割结果.结论 提出基于区域的图像分割算法,由于该算法中图像分割模型的建立无需原先假设同质区域内像素光谱测度的概率分布,因此提出算法具有广泛的适用性.为未知或无法建立图像模型的统计图像分割提供了一种新思路.  相似文献   

9.
目的 针对现有广义均衡模糊C-均值聚类不收敛问题,提出一种改进广义均衡模糊聚类新算法,并将其推广至再生希尔伯特核空间以便提高该类算法的普适性。方法 在现有广义均衡模糊C-均值聚类目标函数的基础上,利用Schweizer T范数极限表达式的性质构造了新的广义均衡模糊C-均值聚类最优化目标函数,然后采用拉格朗日乘子法获取其迭代求解所对应的隶属度和聚类中心表达式,同时对其聚类中心迭代表达式进行修改并得到一类聚类性能显著改善的修正聚类算法;最后利用非线性函数将数据样本映射至高维特征空间获得核空间广义均衡模糊聚类算法。结果 对Iris标准文本数据聚类和灰度图像分割测试表明,提出的改进广义均衡模模糊聚类新算法及其修正算法具有良好的分类性能,核空间广义均衡模糊聚类算法对比现有融入类间距离的改进模糊C-均值聚类(FCS)算法和改进再生核空间的模糊局部C-均值聚类(KFLICM)算法能将图像分割的误分率降低10%30%。结论 本文算法克服了现有广义均衡模糊C-均值聚类算法的缺陷,同时改善了聚类性能,适合复杂数据聚类分析的需要。  相似文献   

10.
空间可变有限混合模型   总被引:1,自引:1,他引:0       下载免费PDF全文
目的 有限混合模型是一种无监督学习方法,它被广泛的应用到数据分类任务中。然而,在图像分割过程中,由于有限混合模型没有引入邻域像素间的空间关系,导致了图像分割结果对噪声非常敏感。为了增强有限混合模型的抗噪性,提出一种新的空间可变有限混合模型。方法 该模型通过在像素的先验分布中引入一种新的空间关系来降低噪声对图像分割结果的干扰。在构建空间关系的过程中,利用形态学膨胀原理将空间邻域内特征值出现的概率而不是特征值本身进行膨胀操作,然后通过根据具有最大概率的分类标记在高斯混合模型迭代地计算过程中进行局部像素空间平滑,从而起到抑制噪声干扰的作用。结果 本文实验包含了人工合成图像和医学CT图像的图像分割实验。在人工合成图像分割实验中,对人工合成图像添加了不同程度的噪声来测试本文模型和对比模型对噪声抑制能力的高低;对医学CT图像进行图像分割实验,以是比较本文模型与对比模型之间在实际图像分割中的效果。结论 实验数据显示,本文提出的模型在噪声抑制能力上,图像分割精度和计算效率上均有更优的性能。  相似文献   

11.

Objective

Accurate brain tissue segmentation from magnetic resonance (MR) images is an essential step in quantitative brain image analysis, and hence has attracted extensive research attention. However, due to the existence of noise and intensity inhomogeneity in brain MR images, many segmentation algorithms suffer from limited robustness to outliers, over-smoothness for segmentations and limited segmentation accuracy for image details. To further improve the accuracy for brain MR image segmentation, a robust spatially constrained fuzzy c-means (RSCFCM) algorithm is proposed in this paper.

Method

Firstly, a novel spatial factor is proposed to overcome the impact of noise in the images. By incorporating the spatial information amongst neighborhood pixels, the proposed spatial factor is constructed based on the posterior probabilities and prior probabilities, and takes the spatial direction into account. It plays a role as linear filters for smoothing and restoring images corrupted by noise. Therefore, the proposed spatial factor is fast and easy to implement, and can preserve more details. Secondly, the negative log-posterior is utilized as dissimilarity function by taking the prior probabilities into account, which can further improve the ability to identify the class for each pixel. Finally, to overcome the impact of intensity inhomogeneity, we approximate the bias field at the pixel-by-pixel level by using a linear combination of orthogonal polynomials. The fuzzy objective function is then integrated with the bias field estimation model to overcome the intensity inhomogeneity in the image and segment the brain MR images simultaneously.

Results

To demonstrate the performances of the proposed algorithm for the images with/without skull stripping, the first group of experiments is carried out in clinical 3T-weighted brain MR images which contain quite serious intensity inhomogeneity and noise. Then we quantitatively compare our algorithm to state-of-the-art segmentation approaches by using Jaccard similarity on benchmark images obtained from IBSR and BrainWeb with different level of noise and intensity inhomogeneity. The comparison results demonstrate that the proposed algorithm can produce higher accuracy segmentation and has stronger ability of denoising, especially in the area with abundant textures and details.

Conclusion

In this paper, the RSCFCM algorithm is proposed by utilizing the negative log-posterior as the dissimilarity function, introducing a novel factor and integrating the bias field estimation model into the fuzzy objective function. This algorithm successfully overcomes the drawbacks of existing FCM-type clustering schemes and EM-type mixture models. Our statistical results (mean and standard deviation of Jaccard similarity for each tissue) on both synthetic and clinical images show that the proposed algorithm can overcome the difficulties caused by noise and bias fields, and is capable of improving over 5% segmentation accuracy comparing with several state-of-the-art algorithms.  相似文献   

12.
In quantitative brain image analysis, accurate brain tissue segmentation from brain magnetic resonance image (MRI) is a critical step. It is considered to be the most important and difficult issue in the field of medical image processing. The quality of MR images is influenced by partial volume effect, noise, and intensity inhomogeneity, which render the segmentation task extremely challenging. We present a novel fuzzy c-means algorithm (RCLFCM) for segmentation and bias field correction of brain MR images. We employ a new gray-difference coefficient and design a new impact factor to measure the effect of neighbor pixels, so that the robustness of anti-noise can be enhanced. Moreover, we redefine the objective function of FCM (fuzzy c-means) by adding the bias field estimation model to overcome the intensity inhomogeneity in the image and segment the brain MR images simultaneously. We also construct a new spatial function by combining pixel gray value dissimilarity with its membership, and make full use of the space information between pixels to update the membership. Compared with other state-of-the-art approaches by using similarity accuracy on synthetic MR images with different levels of noise and intensity inhomogeneity, the proposed algorithm generates the results with high accuracy and robustness to noise.  相似文献   

13.
犹豫模糊C-均值(hesitant fuzzy C-means, HFCM)聚类算法在一定程度上处理了图像中不同像素块之间的不确定性, 但由于其目标函数中不包含任何局部空间信息, 因此对噪声比较敏感, 当噪声较大时无法获得较好的分割精度. 针对上述问题, 提出了一种改进犹豫模糊C-均值(improved hesitant fuzzy C-means, IHFCM)的图像分割方法. 首先给出了犹豫模糊元(hesitant fuzzy element)的补齐方法, 然后提出了犹豫模糊元之间的相似性度量, 利用犹豫模糊元之间的相似性度量构造了新颖的模糊因子融合到HFCM的目标函数中, 新的模糊因子不仅考虑了局部窗口中的空间信息而且考虑了像素间的相似性, 平衡噪声带来的影响且保留了图像细节. 最后, 在合成图像、BSDS500数据集图像以及自然图像上的分割实验结果表明, 所提出的IHFCM算法对噪声有良好的鲁棒性, 提升了分割精度.  相似文献   

14.
Image Segmentation Based on Adaptive Cluster Prototype Estimation   总被引:8,自引:0,他引:8  
An image segmentation algorithm based on adaptive fuzzy c-means (FCM) clustering is presented in this paper. In the conventional FCM clustering algorithm, cluster assignment is based solely on the distribution of pixel attributes in the feature space, and does not take into consideration the spatial distribution of pixels in an image. By introducing a novel dissimilarity index in the modified FCM objective function, the new adaptive fuzzy clustering algorithm is capable of utilizing local contextual information to impose local spatial continuity, thus exploiting the high inter-pixel correlation inherent in most real-world images. The incorporation of local spatial continuity allows the suppression of noise and helps to resolve classification ambiguity. To account for smooth intensity variation within each homogenous region in an image, a multiplicative field is introduced to each of the fixed FCM cluster prototype. The multiplicative field effectively makes the fixed cluster prototype adaptive to slow smooth within-cluster intensity variation, and allows homogenous regions with slow smooth intensity variation to be segmented as a whole. Experimental results with synthetic and real color images have shown the effectiveness of the proposed algorithm.  相似文献   

15.
针对传统模糊C-均值聚类(FCM)算法对噪声鲁棒性差的问题, 提出一种自适应非局部空间约束与K-L信息 的模糊C-均值噪声图像分割算法. 首先, 通过定义平滑度, 设计自适应匹配函数, 实现非局部空间信息项搜索窗口和 邻域窗口的自适应计算, 克服非局部空间信息窗口大小固定的问题. 其次, 将K-L信息引入目标函数, 利用隐马尔可 夫模型计算图像像素的上下文信息, 减少分割的模糊性. 最后, 利用原始图像和非局部空间信息项局部方差的绝对 差和其倒数自适应约束原始图像和非局部空间信息项, 实现约束项参数的自适应选择, 提高算法的灵活性. 含噪合 成图像和彩色图像分割实验表明, 该算法在分割精准度、平均交互比、归一化互信息、模糊分割系数和模糊划分熵 等性能方面均优于其他几种FCM算法. 例如, 在混合噪声密度为15%的条件下, 算法的模糊分割系数和模糊划分熵 分别达到99.92%和0.14%.  相似文献   

16.
自适应梯度重建分水岭分割算法   总被引:3,自引:3,他引:0       下载免费PDF全文
目的 针对灰度分水岭算法存在过分割且难以直接应用到彩色图像分割的问题,提出一种自适应梯度重建分水岭分割算法。方法 该方法首先利用PCA技术对彩色图像降维,然后计算降维后的梯度图像,并采用自适应重建算法修正梯度图像,最后对优化后的梯度图像应用分水岭变换实现对彩色图像的正确分割。结果 采用融合了颜色距离、均方差和区域信息的性能指标和分割区域数对分割效果进行评估,对不同类型的彩色图像进行分割实验,本文算法在正确分割图像的同时获得了较高的性能指标。与现有的分水岭分割算法相比,提出的方法能有效剔除图像中的伪极小值,减少图像中的极小值数目,从而解决了过分割问题,有效提升了分割效果。结论 本文算法具有较好的适用性和较高的鲁棒性。  相似文献   

17.
FLICM算法是一种基于FCM框架的有效的分割方法。然而,它对于强噪声图像的分割仍然不够准确。本文使用MRF模型的局部先验概率,对FLICM算法从两方面进行了改进。首先,在计算模糊因子时,使用先验概率对距离函数进行加权。改进的模糊因子考虑了更大范围的邻域约束,从而使算法受噪声的影响程度减弱。其次,在分割阶段,进一步使用局部先验概率对FLICM算法的隶属度进行加权。使用改进后的隶属度进行标记判决,使得每一标记的确定需要考虑邻域标记的影响,使分割结果的区域性更好。利用新算法对模拟影像和真实影像进行了分割实验,并与几个考虑空间信息约束的FCM分割算法进行了对比分析,结果证明该算法具有更强的抗噪性能。  相似文献   

18.
Conventional Fuzzy C-means (FCM) algorithm uses Euclidean distance to describe the dissimilarity between data and cluster prototypes. Since the Euclidean distance based dissimilarity measure only characterizes the mean information of a cluster, it is sensitive to noise and cluster divergence. In this paper, we propose a novel fuzzy clustering algorithm for image segmentation, in which the Mahalanobis distance is utilized to define the dissimilarity measure. We add a new regularization term to the objective function of the proposed algorithm, reflecting the covariance of the cluster. We experimentally demonstrate the effectiveness of the proposed algorithm on a generated 2D dataset and a subset of Berkeley benchmark images.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号