首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 15 毫秒
1.
传统SVM在训练大规模数据集时,训练速度慢,时间消耗代价大.针对此问题,提出利用FCM算法对训练样本集进行预处理,依据样本隶属度提取出所有可能的支持向量进行SVM训练.利用原始数据集对算法进行验证,此算法在保证SVM分类精度的同时,大大提高了训练速度,算法具有可行性.  相似文献   

2.
针对BGP数据中两类样本在分布上的非平衡性,本文引入Under-s锄pling算法对训练数据集进行预处理,结合SVM学习过程,通过改变SVM中训练集的样本分布来消除非平衡分布带来的不良影响.实验结果表明:引入Under-sampling算法,SVM有更好的分类效果,能更有效地检测出BGP异常流量.  相似文献   

3.
提出了一种基于SVM特征选择和C4.5数据挖掘算法的高效入侵检测模型.通过使用该模型对经过特征提取后的攻击数据的训练学习,可以有效地识别各种入侵,并提高检测速度.在经典的KDD 1999入侵检测数据集上的测试说明:该数据挖掘模型能够高效地对攻击模式进行训练学习,能够采用选择的特征正确有效地检测网络攻击.  相似文献   

4.
为了能在PC机上处理大规模数据集问题,提出了使用CUDA架构对LP-SVM的加速实现方法。该方法针对PC机内存小的缺点,对SVM的分解算法进行改编,得到求解LP-SVM的分解算法。LP—SVM分解算法每次只需要求解一个小规模的线性规划问题,避免一次性把所有训练数据都装进内存。同时把求解线性规划中比较耗时的矩阵运算,移植到CUDA上进行,提高了求解效率。实验结果表明:LP—SVM算法在经过CUDA加速以后,算法的执行效率提高了10—35倍。  相似文献   

5.
大规模的netflow训练数据集是构建高质量、高稳定网络流量分类器的必然要求。但随着网络流特征维数的提高和数据集规模的扩大,无论是网络流的分析处理还是基于支持向量机(SVM)的分类器模型的训练,都无法在有效的时间内得到有效的处理结果。本文基于Hadoop云计算平台,采用MapReduce技术对SVM网络流量分类器进行分布式学习和训练,构建CloudSVM网络流量分类器。通过对来自校园网出口镜像的近2 T的大规模网络流量的跟踪文件的分布式存储和处理,对抽取的样本数据集进行分类,实验验证了基于Hadoop平台分布式存储和并行处理大规模网络数据集的高效率性,也验证了CloudSVM分类器在不降低分类准确度的情况下可以快速收敛到最佳,并随着大规模网络流样本的增加,SVM分类器训练的时间趋近平稳。  相似文献   

6.
训练SVM的本质是解决二次规划问题,在实际应用中,如果用于训练的样本很大,标准的二次型优化技术很难应用.最近有学者将S-K算法和核方法相结合,用L2代价函数来解决SVM问题.这种算法解决了非线性情况和数据不可分的情况.由于它所需的记忆存储和数据量之间呈线性关系,因此这种算法可以用来解决大规模样本集的训练问题.文章对由S-K算法构造最大间隔分类器进行了研究,并用基于S-K算法的核方法构造C-SVM分类器,并取得了令人满意的效果.  相似文献   

7.
序列最小优化(SMO)是一种常见的训练支持向量机(SVM)的算法,但在求解大规模问题时,它需要耗费大量的计算时间。文章提供SMO的一种并行实现方法。并行SMO是利用信息传递接口(MPI)开发的。首先将整个训练数据集分为多个小的子集,然后同时运行多个CPU处理器处理每一个分离的数据集。实验结果表明.当采用多处理器时,在Adult数据集上并行SMO有较大的加速比。  相似文献   

8.
通过对训练样本集的几何特征和机器学习迭代过程中支持向量的变化情况分析,文章提出一种改进的基于KKT条件和壳向量的SVM增量学习算法。算法使用包含原支持向量集的小规模扩展集—壳向量,将其作为新一轮迭代的初始训练样本集。同时,基于样本是否违背KKT条件的错误驱动策略,对新增的大量样本进行筛选,以此得到更加精简有效的新增样本集。实验结果表明,与传统的增量学习算法相比,改进的算法在模型训练的收敛速度和对未知样本集的分类准确度方面都有明显的提高。  相似文献   

9.
《信息技术》2017,(1):5-8
文中针对不平衡数据导致分类结果倾斜现象,提出了一种结合SMOTE和GEPSVM的分类方法。该方法利用SMOTE过采样重构训练集,使训练集达到相对平衡,避免了重复样本数据带来的过学习问题,最后用GEPSVM进行分类学习。在UCI数据集上的实验证明了该算法在不平衡数据集上与传统的SVM算法相比有更好的分类效果,在计算时间上也有一定的优势。  相似文献   

10.
近年来,随机梯度下降算法用于求解SVM模型的原问题得到了人们的广泛关注。随机梯度下降算法每次只处理一个训练样例,它可以快速训练出线性可分数据集的SVM分类器。由于随机梯度下降算法的运算时间与迭代次数呈线性相关关系,而与训练集样例的个数无关,所以文章提出了一个基于线性SGD的两层迭代算法,在算法的第二步,可以筛选出一个远远小于原始训练集的子训练集来完成最终SVM的训练。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号