共查询到18条相似文献,搜索用时 140 毫秒
1.
K-means聚类与SVDD结合的新的分类算法* 总被引:2,自引:1,他引:1
为了提高支持向量数据描述(SVDD)的分类精度,引入局部疏密度提出了改进的SVDD算法。该算法提高了分类精度,但增加了计算复杂度。为此,先用K-means聚类将整个数据集划分为k个簇,再用改进的SVDD算法并行训练k个簇,最后再对获得的k个局部支持向量集训练,即得到最终的全局决策边界。由于采用了分而治之并行计算的方法,提高了算法的效率。对合成数据(200个)和实际数据的实验结果表明,所提算法较SVDD算法,训练时间降低为原来的10%,分类错误率较原来的降低了近一半。因此,所提算法提高了分类精度和算法效率。 相似文献
2.
3.
针对大数据环境下传统并行密度聚类算法中存在的数据划分不合理,聚类结果准确度不高,结果受参数影响较大以及并行效率低等问题,提出一种MapReduce下使用均值距离与关联性标记的并行OPTICS算法——POMDRM-MR。算法使用一种基于维度稀疏度的减少边界点划分策略(DS-PRBP),划分数据集;针对各个分区,提出标记点排序识别簇算法(MOPTICS),构建数据点与核心点之间的关联性,并标记数据点迭代次数,在距离度量中,使用领域均值距离策略(FMD),计算数据点的领域均值距离,代替可达距离排序,输出关联性标记序列;最后结合重排序序列提取簇算法(REC),对输出序列进行二次排序并提取簇,提高算法局部聚类的准确性和稳定性;在合并全局簇时,算法提出边界密度筛选策略(BD-FLC),计算筛选密度相近局部簇;又基于n叉树的并集型合并与MapReduce模型,提出并行局部簇合并算法(MCNT-MR),加快局部簇收敛,并行合并局部簇,提升全局簇合并效率。对照实验表明,POMDRM-MR算法聚类效果更佳,且在大规模数据集下算法的并行化性能更好。 相似文献
4.
5.
为改善传统的基因表达数据聚类方法正确率偏低的问题,研究了支持向量数据描述(SVDD)算法在基因表达数据聚类中的应用,该方法通过寻找最优分类超球实现对数据集的有效聚类.将类间信息融入聚类有效性评估准则中,通过模拟退火优化算法寻找SVDD算法中的最优核函数参数和惩罚因子,在训练时引入非样本数据提高运算效率.对酵母细胞生长周期的基因表达数据集的仿真实验结果表明,在新的聚类有效性评估准则下进行参数寻优,能够更快更好地得到最佳参数,同时,算法具有聚类精度高和运算速度快的优点. 相似文献
6.
为解决利用层次方法的平衡迭代规约和聚类(BIRCH)算法聚类结果依赖于数据对象的添加顺序,且对非球状的簇聚类效果不好以及受簇直径阈值的限制每个簇只能包含数量相近的数据对象的问题,提出一种改进的BIRCH算法。该算法用描述数据对象个体间连通性的连通距离和连通强度阈值替代簇直径阈值,还将簇合并的步骤加入到聚类特征树的生成过程中。在自定义及iris、wine、pendigits数据集上的实验结果表明,该算法比多阈值BIRCH、密度改进BIRCH等现有改进算法的聚类准确率更高,尤其在大数据集上比密度改进BIRCH准确率提高6个百分点,耗时降低61%。说明该算法能够适用于在线实时增量数据,可以识别非球形簇和体积不均匀簇,具有去噪功能,且时间和空间复杂度明显降低。 相似文献
7.
针对支持向量机(Support Vector Machine,SVM)处理大规模数据集的学习时间长、泛化能力下降等问题,提出基于边界样本选择的支持向量机加速算法。首先,进行无监督的K均值聚类;然后,在各个聚簇内依照簇的混合度、支持度因素应用K近邻算法剔除非边界样本,获得最终的类别边界区域样本,参与SVM模型训练。在标准数据集上的实验结果表明,算法在保持传统支持向量机的分类泛化能力的同时,显著降低了模型训练时间。 相似文献
8.
基于聚类和SVDD的一类入侵检测模型 总被引:1,自引:0,他引:1
为了解决传统支持向量数据描述算法(SVDD)中样本不集中导致算法包括非己空间样本,从而形成噪声影响检测性能的问题,建立一种基于SVDD算法和聚类算法相结合的入侵检测模型.首先通过K-means算法对正常样本数据进行聚类;然后利用SVDD对聚类后的数据集合进行描述;最后利用多个判决函数对样本进行判别.实验中对核函数参数的选择进行了分析,并同其他检测算法比较,验证了该思想的正确性. 相似文献
9.
针对直推式支持向量机(TSVM)学习模型求解难度大的问题,提出了一种基于k均值聚类的直推式支持向量机学习算法——TSVMKMC。该算法利用k均值聚类算法,将无标签样本分为若干簇,对每一簇样本赋予相同的类别标签,将无标签样本和有标签样本合并进行直推式学习。由于TSVMKMC算法有效地降低了状态空间的规模,因此运行速度较传统算法有了很大的提高。实验结果表明,TSVMSC算法能够以较快的速度达到较高的分类准确率。 相似文献
10.
11.
12.
13.
14.
15.
16.
17.
支持向量引导的字典学习算法依据大间隔分类原则,仅考虑每类编码向量边界条件建立决策超平面,未利用数据的分布信息,在一定程度上限制了模型的泛化能力.为解决该问题,提出最小类内方差支持向量引导的字典学习算法.将融合Fisher线性鉴别分析和支持向量机大间隔分类准则的最小类内方差支持向量机作为鉴别条件,在模型分类器的交替优化过程中,充分考虑编码向量的分布信息,保障同类编码向量总体一致的同时降低向量间的耦合度并修正分类矢量,从而挖掘编码向量鉴别信息,使其更好地引导字典学习以提高算法分类性能.在人脸、物体和手写数字识别数据集上的实验结果表明,在大部分样本和原子数量条件下,该算法的识别率和原子鲁棒性均优于K奇异值分解、局部特征和类标嵌入约束等经典字典学习算法. 相似文献
18.
核函数、惩罚因子、核参数是影响支持向量数据描述(SVDD)分类方法分类效果的重要因素。研究了多核支持向量数据描述(MKSVDD)分类方法,给出了多核支持向量数据描述分类方法的实现步骤,基于banana数据集分析了惩罚因子和核参数对分类效果的影响,重点讨论了多核函数的权值对支持向量数据描述边界分布的影响。仿真实验结果表明,与单核支持向量数据描述分类方法相比较,多核支持向量数据描述分类方法的分类效果更佳,为实际应用时参数的选择提供了参考。 相似文献