共查询到20条相似文献,搜索用时 15 毫秒
1.
概率聚类的算法已经广泛地应用于聚类分析领域,但是这些算法都没有回答如何选择一个最佳的聚类个数的问题。该文首先分析了通用的确定概率聚类个数的方法,然后针对蒙特卡罗交叉验证算法不能解决后验概率分散的问题,提出一种改进的蒙特卡罗交叉验证算法(iMCCV)。实验结果证明该算法可以有效地确定最佳K值。 相似文献
2.
K均值算法是一种常用的基于原型的聚类算法。但该算法要求用户随机选择初始质心,使得K均值算法受初始化影响较大。二分K均值算法虽然改善了这个问题,但仍然要求用户指定聚类个数,影响了聚类效果。用层次聚类对二分法进行改进,解决了二分K均值算法受用户指定的聚类个数的影响的问题。并结合Chameleon算法,合并划分过细簇,优化聚类结果。仿真实验证明改进的聚类算法的抱团性和分离性优于二分K均值聚类算法。 相似文献
3.
4.
随着数据维度的增加,传统聚类算法会出现聚类性能差的现象.SubKMeans是一种功能强大的子空间聚类算法,旨在为K-Means类算法搜索出一个最佳子空间,降低高维度影响,但是该算法需要用户事先指定聚类数目K值,而在实际使用中有时无法给出准确的K值.针对这一问题,引入成对约束,将成对约束与轮廓系数进行结合,提出了一种基于成对约束的SubKMeans聚类数确定算法.改进后的轮廓系数能够更加准确的评价聚类性能,从而实现K值确定,实验结果证明该方法的有效性. 相似文献
5.
6.
7.
谱聚类能识别非线性数据,且优于传统聚类.谱聚类中度量相似性的高斯核函数尺度参数σ和聚类个数k对聚类效果影响较大,但需要人工判断.用向量之间夹角余弦代替σ并且通过特征值的跳跃性确定聚类个数,对于非线性高维数据,提出一种自适应谱聚类算法,将数据通过显式构造映射到随机特征空间,在随机特征空间中实现聚类.实验结果表明,在UCI数据上该算法与传统算法相比效果更好. 相似文献
8.
提出一种新的自适应中文网页的聚类算法,该算法无需用户指定聚类的个数,而能够自动地确定聚类的个数,从而避免用户使用过程中聚类个数难以准确指定的问题。实验效果表明,利用本文的算法,用户可以更加快速地从搜索引擎返回的检索结果中取得自己所要寻找的信息。 相似文献
9.
在K均值聚类算法中,K值需事先确定且在整个聚类过程中不能改变其大小,而按照经验K值划分所得的最终聚类结果一般并非最佳结果。通过求解所构造适应度函数的值,在变异操作中实现最佳聚类数K值的自动寻优,同时借助遗传操作完成聚类中心点的优化选取并利用遗传算法的全局寻优能力克服了K均值聚类算法的局部性。通过对Iris等数据集的实验分析,证明该算法具有良好的全局收敛性,且通过K值的自动调整,有效提高了聚类结果的划分。 相似文献
10.
基于熵聚类的RBF神经网络学习算法 总被引:2,自引:2,他引:0
RBF神经网络中心向量的确定是整个网络学习的关键,最常用确定中心向量的方法是K均值聚类算法,对聚类中心的初值选择非常敏感,选择的不好,容易减低网络的训练性能.为克服以上问题,提出了一种熵聚类的方法来自动确定RBF神经网络隐结点的中心个数及其初始值,实现K均值聚类算法的初始化,再用改进的K均值聚类算法调整RBF神经网络的中心和训练宽度.并将上述算法用于函数逼近问题.实验结果表明:改进的算法与常规的K均值聚类算法相比,提高了训练速度和逼近精度. 相似文献
11.
12.
13.
聚类个数的确定是聚类分析中一个富有挑战性的难题。现有的聚类个数确定方法主要采用随机选取初始聚类中心的策略,导致聚类过程中迭代次数的稳定性不强。基于此,在利用含有类标签的先验信息优化初始类中心的基础上,提出了一种基于先验信息的混合数据聚类个数确定算法。实验证明,该算法是有效的。 相似文献
14.
随机选取初始聚类中心和根据经验设置[K]值对[K]-means聚类结果都有一定的影响,针对这一问题,提出了一种基于加权密度和最大最小距离的[K]-means聚类算法,称为[KWDM]算法。该算法利用加权密度法选取初始聚类中心点集,减少了离群点对聚类结果的影响,通过最大最小距离准则启发式地选择聚类中心,避免了聚类结果陷入局部最优,最后使用准则函数即簇内距离和簇间距离的比值来确定[K]值,防止了根据经验来设置[K]值。在人工数据集和UCI数据集上的实验结果表明,KWDM算法不仅提高了聚类的准确率,而且减少了算法的平均迭代次数,增强了算法的稳定性。 相似文献
15.
赵文均 《数字社区&智能家居》2020,(9):24-26
在数据挖掘中,K均值聚类算法作为最典型、最常见、实用度最广的一种聚类算法,具有简单易操作等优点。但K均值聚类算法也存在部分缺点,其在训练前需要提前设定聚类中心个数,在训练过程中容易陷入局部最优,面对多维数据样本其效果不佳,得到的聚类结果受初始聚类中心个数的设定影响较大。对k均值聚类算法的优化方案较多,本文主要针对前人提出的基于BP神经网络的K均值聚类算法和基于SOM网络改进的K均值聚类算法效果进行分析,为后续的进一步改进提供基础。 相似文献
16.
基于遗传算法学习聚类算法的中心个数 总被引:2,自引:0,他引:2
无导师聚类算法的目标是将一个数据集划分为若干个类,使得类内相似性尽可能大且类间相似性尽可能小。聚类过程中对数据集合分割成多少个类是一个很难确定的问题,目前还没有较好的解决方法。文章使用遗传算法对无导师聚类K-均值(K-means)算法中中心个数K值进行学习,实现了使用遗传算法进行聚类中心个数的确定,旨在提供一种选择中心参数个数的方法。通过对UCI机器学习数据库中的7个数据库进行实验,证实此方法是比较有效的。 相似文献
17.
18.
随着数据爆发式的增长,数据挖掘算法的使用更加频繁,因此选取合适的数据挖掘算法进行数据分析是非常有必要的。本文对确定K-means算法初始值的问题,提出了一种数据预处理的优化方案。通过对目标数据集进行Canopy算法处理,并对Canopy算法执行后的分组进行降噪、合并,以最终的分组个数作为K-means算法的分组K值,并以各分组的重心作为初始聚类重心,从而确定K-means算法的初始值。对比实验的结果显示,优化后的K-means算法具有更好的聚类效果。 相似文献
19.
传统K-means算法除了对初始聚类中心的选择非常敏感,易收敛到局部最优解外,还存在着K值难以确定的问题,不合适的K值往往会得到较差的聚类结果。而K值问题也是聚类分析中的一个重要的研究方向,在粒子群聚类算法的基础上,结合K-means算法,提出了自适应K值的粒子群聚类算法。当算法收敛时,可通过比较不同K值时全局最优适应度值之间的关系来决定K值的增大与减小。实验表明改进的算法可以有效指导K值的选取,并且具有较好的聚类效果。 相似文献
20.
针对滑坡预测聚类研究中由于难以确定传统聚类算法需要预先设置的簇个数和无法精准衡量不确定因素降雨量导致预测效果欠佳的问题,提出一种新的聚类算法—不确定PAHT(partition algorithm on the hierarchical thinking)算法,该算法引入一种不确定数据模型——M-D距离,其有效刻画了不确定的雨量数据;并结合层次聚类思想,通过找出最佳阙值p*自动确定k值。以延安宝塔区为实例进行对比实验,实验结果验证了不确定M-D距离和PAHT算法的有效性及不确定PAHT算法在滑坡危险性预测上的可行性。 相似文献