共查询到10条相似文献,搜索用时 15 毫秒
1.
传统SVM在训练大规模数据集时,训练速度慢,时间消耗代价大.针对此问题,提出利用FCM算法对训练样本集进行预处理,依据样本隶属度提取出所有可能的支持向量进行SVM训练.利用原始数据集对算法进行验证,此算法在保证SVM分类精度的同时,大大提高了训练速度,算法具有可行性. 相似文献
2.
针对BGP数据中两类样本在分布上的非平衡性,本文引入Under-s锄pling算法对训练数据集进行预处理,结合SVM学习过程,通过改变SVM中训练集的样本分布来消除非平衡分布带来的不良影响.实验结果表明:引入Under-sampling算法,SVM有更好的分类效果,能更有效地检测出BGP异常流量. 相似文献
3.
康世瑜 《微电子学与计算机》2011,28(8):74-76
提出了一种基于SVM特征选择和C4.5数据挖掘算法的高效入侵检测模型.通过使用该模型对经过特征提取后的攻击数据的训练学习,可以有效地识别各种入侵,并提高检测速度.在经典的KDD 1999入侵检测数据集上的测试说明:该数据挖掘模型能够高效地对攻击模式进行训练学习,能够采用选择的特征正确有效地检测网络攻击. 相似文献
4.
为了能在PC机上处理大规模数据集问题,提出了使用CUDA架构对LP-SVM的加速实现方法。该方法针对PC机内存小的缺点,对SVM的分解算法进行改编,得到求解LP-SVM的分解算法。LP—SVM分解算法每次只需要求解一个小规模的线性规划问题,避免一次性把所有训练数据都装进内存。同时把求解线性规划中比较耗时的矩阵运算,移植到CUDA上进行,提高了求解效率。实验结果表明:LP—SVM算法在经过CUDA加速以后,算法的执行效率提高了10—35倍。 相似文献
5.
大规模的netflow训练数据集是构建高质量、高稳定网络流量分类器的必然要求。但随着网络流特征维数的提高和数据集规模的扩大,无论是网络流的分析处理还是基于支持向量机(SVM)的分类器模型的训练,都无法在有效的时间内得到有效的处理结果。本文基于Hadoop云计算平台,采用MapReduce技术对SVM网络流量分类器进行分布式学习和训练,构建CloudSVM网络流量分类器。通过对来自校园网出口镜像的近2 T的大规模网络流量的跟踪文件的分布式存储和处理,对抽取的样本数据集进行分类,实验验证了基于Hadoop平台分布式存储和并行处理大规模网络数据集的高效率性,也验证了CloudSVM分类器在不降低分类准确度的情况下可以快速收敛到最佳,并随着大规模网络流样本的增加,SVM分类器训练的时间趋近平稳。 相似文献
6.
7.
序列最小优化(SMO)是一种常见的训练支持向量机(SVM)的算法,但在求解大规模问题时,它需要耗费大量的计算时间。文章提供SMO的一种并行实现方法。并行SMO是利用信息传递接口(MPI)开发的。首先将整个训练数据集分为多个小的子集,然后同时运行多个CPU处理器处理每一个分离的数据集。实验结果表明.当采用多处理器时,在Adult数据集上并行SMO有较大的加速比。 相似文献
8.
9.