首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 671 毫秒
1.
为了提高钢板表面缺陷分类识别,提出一种新的全局和局部支持向量机分类模型。首先,通过样本提取算法将整个训练样本划分为非边界样本和边界样本。非边界样本用于训练全局支持向量机,并获得两条全局决策边界。边界样本用于寻找测试样本的K-近邻样本,通过训练K-近邻样本获得相应的局部支持向量机。若测试样本位于全局决策边界线两侧,直接给出分类结果,否则,由局部支持向量机进行分类决策。最终,新的模型结合二叉树算法实现了4种钢板表面缺陷的分类问题。实验结果显示,全局和局部支持向量机模型有令人满意的综合性能。  相似文献   

2.
基于K最近邻的支持向量机快速训练算法   总被引:2,自引:0,他引:2  
传统支持向量机训练大规模样本时间和空间开销大,使其应用受到了很大限制。为了提高支持向量机的训练速度,根据支持向量机的基本原理,应用K最近邻思想来筛选训练样本集,提出了基于K最近邻的支持向量机快速训练算法(KNN-SVM)。算法首先选取一部分最有可能成为支持向量的样本——边界向量,然后用边界向量集代替训练样本集进行支持向量机训练,大幅度减少了训练样本的数量,使支持向量机的训练速度显著提高。同时,由于边界向量包含了支持向量,因此,支持向量机的分类能力没有受到影响。仿真实验结果表明,与传统支持向量机相比,在分类精度相同的情况下,算法能够有效地提高支持向量机的训练速度,而且还可以提高支持向量机的分类速度和推广能力。  相似文献   

3.
支持向量机在大样本情况下训练速度慢,支持向量预选取可以解决这个问题.AdaBoost算法重点关注错分样本,而错分样本一般都处于分类边界,支持向量就由分类边界样本构成.因此,提出基于错分样本的AdaBoost支持向量预选取算法,该算法通过AdaBoost提升过程,使得越是容易被错分的样本权值越大,从而实现支持向量的预选取,通过仿真实验验证了算法的有效性.  相似文献   

4.
根据粗糙集理论的边界区域和V-支持向量机的优点对支持向量聚类算法进行改进。使用核函数进行特征空间的映射,发现最小粗糙球的包络点。根据上近似集与下近似集,定义粗糙球的内半径r和外半径为R。数据点映射若位于下近似区,则属于一个确定的聚类;若边界的点位于上近似区,属于不确定的聚类,位于球体外的点属于孤立点。实验结果表明,该聚类算法可以不需要额外的计算开销,能够解决任意形状的软聚类问题,有效地处理边界点。  相似文献   

5.
最小二乘支持向量机的一种非均衡数据分类算法   总被引:2,自引:2,他引:0  
为了提高支持向量机的非平衡数据分类能力,分析了最小二乘支持向量机的本质特征,提出了一种基于中心距离比的非平衡数据分类算法,同时通过修剪边界样本,解决了最小二乘支持向量机缺失稀疏性的问题.在UCI标准数据集上进行的试验表明:该算法能够有效地提高支持向量机对非均衡分布数据的正确性,且该算法在不影响训练精度的前提下,可以得到稀疏解,算法的训练速度也有了一定的提高.  相似文献   

6.
采用支持向量机算法来验证脱机中文签名。针对支持向量机算法的不足,将粗糙集和支持向量机相结合,利用粗糙集理论对数据属性进行约简,在某种程度上减少支持向量机求解的计算量。不但避免了特征提取中维数灾问题,还有效改善了训练时间。实验结果表明:粗糙集和支持向量机算法应用于离线签名识别,在相同条件下的识别效果优于支持向量机算法。  相似文献   

7.
基于密度敏感最大软间隔SVDD不均衡数据分类算法   总被引:1,自引:0,他引:1       下载免费PDF全文
陶新民  李晨曦  沈微  常瑞  王若彤  刘艳超 《电子学报》2018,46(11):2725-2732
为了提高传统支持向量域描述(C-SVDD)算法处理不均衡数据集的分类能力,提出一种基于密度敏感最大软间隔支持向量域描述(DSMSM-SVDD)算法.该算法通过对多数类样本引入相对密度来体现训练样本原始空间分布对求解最优分类界面的影响,通过在目标函数中增加最大软间隔正则项,使C-SVDD的分类边界向少数类偏移,进而提高算法分类性能.算法首先对每个多数类样本计算相对密度来反映样本的重要性,然后将训练样本输入到DSMSM-SVDD中实现数据分类.实验部分,讨论了算法参数间的关系及其对算法分类性能的影响,给出算法参数取值建议.最后通过与C-SVDD的对比实验,表明本文建议的算法在不均衡数据情况下的分类性能优于C-SVDD算法.  相似文献   

8.
传统的支持向量机分类算法对训练样本数目敏感且不具备增量学习的能力,而空间目标识别的工程应用需要积累样本进行大样本的增量学习。根据样本在特征空间分布,提取几何意义上边缘的样本点,成功约减了应用于支持向量机学习的基于雷达散射截面统计特征的训练样本集。利用中心距离比和特征空间多维高斯分布特性,分别提取两类边界样本集和单类边缘样本集;再采用直推式实验设计方法再采样,根据样本潜在结构分布信息选择最能代表样本集结构分布的高价值样本。实验结果表明:样本初选算法能够在有效约减样本集规模的同时保持支持向量机训练分类的精度。  相似文献   

9.
本文介绍了粗糙集和决策粗糙集理论,提出一种基于决策粗糙集理论的两步信息过滤算法,相比原始的此类算法,该算法缩小了负域范围,采取两步策略进行分类,当发现新样本和未知样本时,能确保它是否属于负域,从而尽量减少将不属于负域的样本划分到负域,降低了分类错误和损耗。与传统朴素贝叶斯方法和一般决策粗糙集理论算法比较结果证明,本文提出的基于决策糙集的两步信息过滤算法,可以提高分类精度和降低分类损耗。  相似文献   

10.
电信用户欠费预测是一个不平衡数据集分类问题.针对传统支持向量机(SVM)对不均衡数据集中少数类检测精度低的问题,基于分类平面由边界样本的位置决定,提出了一种通过删除部分多数类边界样本的方法来改善传统SVM算法的不足,将该算法和其他几种算法在电信数据和多个不平衡UCI数据集上的实验结果进行对比,验证所提算法对少数类的检测精度和总体评价指标都有所提高.  相似文献   

11.
Abnormal samples are usually difficult to obtain in production systems, resulting in imbalanced training sample sets. Namely, the number of positive samples is far less than the number of negative samples. Traditional Support Vector Machine (SVM)‐based anomaly detection algorithms perform poorly for highly imbalanced datasets: the learned classification hyperplane skews toward the positive samples, resulting in a high false‐negative rate. This article proposes a new imbalanced SVM (termed ImSVM)‐based anomaly detection algorithm, which assigns a different weight for each positive support vector in the decision function. ImSVM adjusts the learned classification hyperplane to make the decision function achieve a maximum GMean measure value on the dataset. The above problem is converted into an unconstrained optimization problem to search the optimal weight vector. Experiments are carried out on both Cloud datasets and Knowledge Discovery and Data Mining datasets to evaluate ImSVM. Highly imbalanced training sample sets are constructed. The experimental results show that ImSVM outperforms over‐sampling techniques and several existing imbalanced SVM‐based techniques.  相似文献   

12.
针对现有部分支持向量机在多类分类过程中存在的数据不均衡性、对算法结构依赖性强的问题,提出一种新的基于遗传算法的支持向量机多类分类算法。以遗传算法中的交叉作为支持向量机中类的选择,以变异改善分类过程中的纠错能力,以适应度函数作为最优分类结果的确定。在不同特性的样本集上进行仿真测试,结果证明,该算法在类数较多的情况下,有更好的数据均衡性,在分类速度及准确度上均有一定的优越性。  相似文献   

13.
粗糙集理论中属性相对约简算法   总被引:35,自引:2,他引:33       下载免费PDF全文
张腾飞  肖健梅  王锡淮 《电子学报》2005,33(11):2080-2083
粗糙集理论是近年来发展起来的一种有效地处理模糊和不确定性知识的数学工具,而求核与约简是粗糙集理论中的两个重要问题,现已证明求决策表所有约简和最小约简是一个典型的NP难题.本文在分析粗糙集理论的基础上,发现了正区域的一些有用性质,提出了一种利用正区域直接求核的方法,并利用正区域的启发式信息给出了两种相对约简算法.  相似文献   

14.
适用于不平衡样本数据处理的支持向量机方法   总被引:6,自引:0,他引:6  
吴洪兴彭宇  彭喜元 《电子学报》2006,34(B12):2395-2398
支持向量机算法在处理不平衡样本数据时,其分类器预测具有倾向性.样本数量多的类别,其分类误差小,而样本数量少的类别,其分类误差大.本文针对这种倾向性问题,在分析其产生原因的基础上,提出了基于遗传交叉运算的改进方法.对于小类别训练样本,利用交叉运算产生新的样本,从而补偿了因训练数据类别大小差异而造成的影响.基于UCI标准数据集的仿真实验结果表明,改进方法比标准支持向量机方法具有更好的分类准确率.  相似文献   

15.
基于QPSO的属性约简在NIDS中的应用研究   总被引:1,自引:0,他引:1  
支持向量机作为一种优良的分类算法应用在网络入侵检测系统中,但是训练时间过长是它的主要缺陷.文中提出了基于量子粒子群优化的属性约简和支持向量机(SVM)的入侵检测方法,利用量子粒子群优化的属性约简算法对训练样本集进行属性约简,剔除了对入侵检测结果影响较小的冗余特征,从而使入侵检测系统在获取用户特征的时间减少,整个入侵检测系统的性能得到提高.实验结果表明,该方法是有效的.  相似文献   

16.
Soft margin support vector machine (SVM) with hinge loss function is an important classification algorithm, which has been widely used in image recognition, text classification and so on. However, solving soft margin SVM with hinge loss function generally entails the sub-gradient projection algorithm, which is very time-consuming when processing big training data set. To achieve it, an efficient quantum algorithm is proposed. Specifically, this algorithm implements the key task of the sub-gradient projection algorithm to obtain the classical sub-gradients in each iteration, which is mainly based on quantum amplitude estimation and amplification algorithm and the controlled rotation operator. Compared with its classical counterpart, this algorithm has a quadratic speedup on the number of training data points. It is worth emphasizing that the optimal model parameters obtained by this algorithm are in the classical form rather than in the quantum state form. This enables the algorithm to classify new data at little cost when the optimal model parameters are determined.  相似文献   

17.
基于人工蜂群算法的支持向量机参数优化及应用   总被引:2,自引:1,他引:1  
为了解决常用的支持向量机(SVM)参数优化方法在寻优过程不同程度的陷入局部最优解的问题,提出一种基于人工蜂群(ABC)算法的SVM参数优化方法。将SVM的惩罚因子和核函数参数作为食物源位置,分类正确率作为适应度,利用ABC算法寻找适应度最高的食物源位置。利用4个标准数据集,将其与遗传(GA)算法、蚁群(ACO)算法、标准粒子群(PSO)算法优化的SVM进行性能比较,结果表明,本文方法能克服局部最优解,获得更高的分类正确率,并在小数目分类问题上有效降低运行时间。将本文方法运用到计算机笔迹鉴别,对提取的笔迹特征进行分类,与GA算法、ACO算法、PSO算法优化的SVM相比,得到了更高的分类正确率。  相似文献   

18.
支持向量机方法在文本分类中的改进   总被引:1,自引:0,他引:1  
谭冠群  丁华福 《信息技术》2008,32(1):83-84,88
提出了一种应用于文本分类的KNN和SVM相结合的算法,将SVM近似看成每类只有一个代表点的1NN分类器,对于待识别样本,如果其离支持向量机的最优分界面较远,则用SVM分类;如果其离分界面较近,采用KNN对测试样本分类,将每个支持向量作为代表点,计算待识别样本和每个支持向量的距离对其作出判断.该算法综合了KNN和SVM在分类问题中的优势,既有效地降低了分类候选的数目,又提高了文本分类的精度.最后用实验验证了该算法的有效性.  相似文献   

19.
去噪声的加权SVM分类方法   总被引:3,自引:0,他引:3  
针对支持向量机(SVM)本身抗噪声能力低和训练数据类别不均匀会造成分类结果偏向数目较大一类的倾向性等问题,本文提出了去噪声的加权SVM分类方法。在该方法中,通过引入主成分分析方法来降维去除噪声,再通过引入加权系数的方式,补偿了上述倾向性造成的不利影响,提高了预测分类精度。对污水处理过程运行状态的分类实验表明该方法的有效性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号