共查询到20条相似文献,搜索用时 62 毫秒
1.
K均值算法是一种常用的基于原型的聚类算法。但该算法要求用户随机选择初始质心,使得K均值算法受初始化影响较大。二分K均值算法虽然改善了这个问题,但仍然要求用户指定聚类个数,影响了聚类效果。用层次聚类对二分法进行改进,解决了二分K均值算法受用户指定的聚类个数的影响的问题。并结合Chameleon算法,合并划分过细簇,优化聚类结果。仿真实验证明改进的聚类算法的抱团性和分离性优于二分K均值聚类算法。 相似文献
2.
粗糙集理论是一种处理边界对象不确定的有效方法。将粗糙集与K均值结合的粗糙K均值聚类算法,具有简单高效且可处理聚类边界元素的特点,但同时存在缺陷。针对粗糙K均值聚类算法对初始点敏感,经验权重设置忽略数据差异性,阈值设置不合理导致聚类结果波动性大的缺陷,本文提出结合蚁群算法的改进粗糙K均值聚类算法,改进的算法中使用蚁群算法中随机概率选择策略和信息素更新的正负反馈机制,以及采用动态调整算法阈值和相关权重的方法,对粗糙K均值聚类算法进行优化。最后采用UCI的Iris、Balance-scale和Wine数据集分别对算法进行实验。实验结果表明,改进后的粗糙K均值聚类算法得到的聚类结果准确率更高。 相似文献
3.
胡伟 《计算机工程与应用》2013,49(2):157-159
针对传统K均值聚类方法采用聚类前随机选择聚类个数K而导致的聚类结果不理想的问题,结合空间中的层次结构,提出一种改进的层次K均值聚类算法。该方法通过初步聚类,判断是否达到理想结果,从而决定是否继续进行更细层次的聚类,如此迭代执行,从而生成一棵层次型K均值聚类树,在该树形结构上可以自动地选择聚类的个数。标准数据集上的实验结果表明,与传统的K均值聚类方法相比,提出的改进的层次聚类方法的确能够取得较优秀的聚类效果。 相似文献
4.
传统K均值聚类(KMC)算法过分依赖初始值的设置,容易陷入局部最优;混合蛙跳算法(SFLA)存在收敛速度和搜索速度较慢、局部和全局信息交流不全面等缺点。针对以上缺点,首先提出一种改进的混合蛙跳算法(MSFLA)。该算法根据粒子群优化和差分进化思想,在青蛙个体变异时,引入上一次移动距离的权重惯性系数和缩放因子,从种群中的最优位置和历史最优位置之间的随机点出发,以子群内的青蛙的平均值和最差位置差值为步长进行青蛙个体的更新操作。再将MSFLA与KMC算法结合提出MSFLA-KMC算法,有效地克服了KMC算法过分依赖初始值设置问题,同时降低了KMC算法陷入局部最优的可能性。实验结果表明,MSFLA具有较强的寻优能力,MSFLA-KMC算法则具有更好的聚类性能。 相似文献
5.
针对传统K均值聚类算法对初始化敏感和容易陷入局部最优的缺点,提出了一种基于扰动免疫粒子群和K均值的混合聚类算法。该算法采用K均值将粒子群进行分类,选择平均适应度值最高的聚类域用于产生疫苗,在粒子更新过程中采用疫苗接种机制和免疫选择机制提高粒子的多样性。当个体极值和全局极值连续停滞代数超过所设置的阀值时,算法使用扰动算子改变粒子群的运动方向,提高算法跳出局部极值的能力。当扰动次数达到设置的最大值时,对各个粒子进行K均值操作,提高收敛精度。实验结果表明,该算法具有较高的正确率和较好的稳定性。 相似文献
6.
针对K均值聚类(KMC)算法全局搜索能力差、初始聚类中心选择敏感,以及原始人工蜂群(ABC)算法的初始化随机性、易早熟、后期收敛速度慢等问题,提出了一种改进人工蜂群算法(IABC)。该算法利用最大最小距离积方法初始化蜂群,构造出适应KMC算法的适应度函数以及一种基于全局引导的位置更新公式以提高迭代寻优过程的效率。将改进的人工蜂群算法与KMC算法结合提出IABC-Kmeans算法以改善聚类性能。通过Sphere、Rastrigin、Rosenbrock和Griewank四个标准测试函数和UCI标准数据集上进行测试的仿真实验表明,IABC算法收敛速度快,克服了原始算法易陷入局部最优解的缺点;IABC-Kmeans算法则具有更好的聚类质量和综合性能。 相似文献
7.
该文提出了一种基于K近邻加权的混合C均值聚类算法。首先该文利用模糊C均值聚类和可能性C均值聚类的优点,设计出一种混合C均值聚类算法。然后以K近邻规则为基础,计算出样本集的加权矩阵,最后得到基于K近邻加权的混合C均值聚类算法。由于该算法考虑到了不同样本点对分类的影响程度,对较复杂的样本集合,能明显提高分类的正确性和鲁棒性。 相似文献
8.
针对高分辨率天文图像中的星点聚类研究中存在的 2 个问题:①天文图像的分辨率 较高,且图像处理速度较慢;②选取何种聚类算法对天文图像中的星点进行聚类分析效果较好。 在研究中,问题 1 采用图像分块的方法提高图像的处理速度;问题 2 提出了一种改进的 K 均值聚 类算法,以解决传统的 K 均值聚类算法的聚类结果易受到 k 值和初始聚类中心随机选择影响的问 题。该算法首先在用 K 均值聚类算法对数据初步聚类的基础上确定合适的 k 值,其次用层次聚类 对数据聚类确定初始聚类中心,最后在此基础上再采用 K 均值聚类算法进行聚类。通过 MATLAB 仿真实验的结果表明,该算法的聚类结果与效率优于其他聚类算法。 相似文献
9.
针对K均值聚类算法存在的对初始值敏感且容易陷入局部最优的缺点,提出一种改进的混合蛙跳算法(SFLA)和K均值相结合的聚类算法。该算法通过混沌搜索优化初始解,变异操作生成新个体,在更新青蛙位置时,设计了一种新的搜索策略,提高了算法寻优能力;根据青蛙群体的适应度方差来确定K均值算法的操作时机,抑制早熟收敛。实验结果表明,改进的算法提高了聚类精度,在全局寻优能力和收敛速度方面具有优势。 相似文献
10.
一种改进的遗传K-均值聚类算法 总被引:1,自引:0,他引:1
文章提出一种基于改进遗传算法的K-均值聚类算法。主要对算法遗传算子进行改进:交叉操作通过交换两条染色体问的聚类中心进行重组,将一次K-均值方法当作变异操作,并加入跨世代精英选择机制。通过实验证明:该算法比传统的K-均值算法具有较好的性能,同时比其他基于遗传算法的K-均值算法具有更高的效率且更适用于规模较大的数据集。 相似文献
11.
12.
一种改进K-means算法的聚类算法CARDBK 总被引:1,自引:0,他引:1
CARDBK聚类算法与批K-means算法的不同之处在于,每个点不是只归属于一个簇,而是同时影响多个簇的质心值,一个点影响某一个簇的质心值的程度取决于该点与其它离该点更近的簇的质心之间的距离值。 从聚类结果的熵、纯度、F1值、Rand Index和NMI等5个性能指标值来看,与多个不同算法在多个不同数据集上分别聚类相比, 该算法具有较好的聚类结果;与多个不同算法在同一数据集上很多不同的初始化条件下分别聚类相比,该算法具有较好且稳定的聚类结果;该算法在不同大小数据集上聚类时具有线性伸缩性且速度较快。 相似文献
13.
14.
针对传统K-means算法对初始中心十分敏感,聚类结果不稳定问题,提出了一种改进K-means聚类算法。该算法首先计算样本间的距离,根据样本距离找出距离最近的两点形成集合,根据点与集合的计算公式找出其他所有离集合最近的点,直到集合内数据数目大于或等于[α]([α]为样本集数据点数目与聚类的簇类数目的比值),再把该集合从样本集中删除,重复以上步骤得到K(K为簇类数目)个集合,计算每个集合的均值作为初始中心,并根据K-means算法得到最终的聚类结果。在Wine、Hayes-Roth、Iris、Tae、Heart-stalog、Ionosphere、Haberman数据集中,改进算法比传统K-means、K-means++算法的聚类结果更稳定;在Wine、Iris、Tae数据集中,比最小方差优化初始聚类中心的K-means算法聚类准确率更高,且在7组数据集中改进算法得到的轮廓系数和F1值最大。对于密度差异较大数据集,聚类结果比传统K-means、K-means++算法更稳定,更准确,且比最小方差优化初始聚类中心的K-means算法更高效。 相似文献
15.
16.
17.
基于K-均值聚类的改进非选择算法研究 总被引:3,自引:0,他引:3
文章提出了一种基于K-均值聚类的改进非选择算法,其核心是对检测器集进行K-均值聚类,将检测器集分为多个子类,根据子类中心和待检测数据的亲和度选择若干个合适的子类进行实际检测。文中对算法的检测过程进行了分析,并给出了该算法用于入侵检测时的测试实验结果。实验结果表明,文章算法在检测速度上有明显改善。 相似文献
18.
在目前聚类方法中, k-means与势函数是最常用的算法,虽然两种算法有很多优点,但也存在自身的局限性。 k-means聚类算法:其聚类数目无法确定,需要提前进行预估,同时对初始聚类中心敏感,且容易受到异常点干扰;势函数聚类算法:其聚类区间范围有限,对多维数据进行聚类其效率低。针对以上两种算法的缺点,提出了一种基于 K-means 与势函数法的改进聚类算法。它首先采用势函数法确定聚类数目与初始中心,然后利用K-means法进行聚类,该改进算法具有势函数法“盲”特性及K-means法高效性的优点。实验对改进算法的有效性进行了验证,结果表明,改进算法在聚类精度及收敛速度方面有很大提高。 相似文献
19.
传统聚类方法将对象严格地划分到某一类,但很多时候边界对象不能被严格地划分.粗糙集用上近似集和下近似集表示一个类,对这种边界不确定的处理非常有效,典型算法有基于粗糙集的k-means聚类算法和基于粗糙集的leader聚类算法.本文针对RFA(R0ughFuzzyApproach)算法存在的不足,提出了一种新的基于粗糙集的leader聚类算法(NRL,Novel Rough-based Leader).其基本思想是首先数据项由于与其最近类中心的距离不同,分别被划分到leader集或者supporting leader集,然后对leader集和supporting leader集进行标号,得到聚类结果.实验结果表明NRL算法非常有效. 相似文献