共查询到16条相似文献,搜索用时 93 毫秒
1.
支持向量机利用接近边界的少数向量来构造一个最优分类面。但是若两分类问题中的样本呈现非平衡分布时,即两类样本数目相差很大时,分类能力就会有所下降。提出分别使用重复数量少的一类样本、选择数量多的类样本以及引入类惩罚因子的三个方法来改善分类能力。实验表明,三种方法对不同类型数据集合,一定程度上都改善了支持向量的分类能力。 相似文献
2.
一种基于拟牛顿法的大类别分类算法 总被引:2,自引:0,他引:2
支持向量机利用接近边界的少数向量来构造一个最优分类面。然而当两类中的样本数量差别悬殊时,PSVM算法则会过度拟合样本量大的那一类,而对样本量很小的那一类的错分率相当高。为解决此问题,本文提出了一种改进的支持向量机算于拟牛顿法的大类别分类算法。同时,这个问题也是大类别分类问题所采用的留一法面临的问题,在DFP-PSVM的基础上,提出了基于拟牛顿法的大类别分类算法。通过仿真实验证实了此算法在精度上优于PSVM算法。 相似文献
3.
一种适合于增量学习的支持向量机的快速循环算法 总被引:5,自引:0,他引:5
当样本数量大到计算机内存中放不下时,常规支持向量机方法就失去了学习能力,为了解决这一问题,提高支持向量机的训练速度,文章分析了支持向量机分类的本质特征,根据支持向量机分类仅与支持向量有关的特点,提出了一种适合于支持向量机增量学习的快速循环算法(PFI-SVM),提高了支持向量机的训练速度和大样本学习的能力,而支持向量机的分类能力不受任何影响,取得了较好的效果。 相似文献
4.
支持向量机是在统计学习理论基础上发展起来的一种十分有效的分类方法。然而当两类样本数量相差悬殊时,会引起支持向量机分类能力的下降。为了提高支持向量机的非平衡数据分类能力,文章分析了最小二乘支持向量机的本质特征,提出了一种非平衡数据分类算法。在UCI标准数据集上进行的实验表明,该算法能够有效提高支持向量机对非均衡分布数据的正确性,尤其对于大规模训练集的情况,该算法在保证不损失训练精度的前提下,使训练速度有较大提高。 相似文献
5.
提出了一种改进的AdaBoost算法与支持向量机组合的分类方法,用来处理多类别分类。采用规则抽样来解决支持向量机分类中正负样本的不平衡性,改进AdaBoost算法,使其在初始化时考虑样本分布稀疏的重要性,有利于稀有类样本的正确划分。实验结果表明,此方法与标准支持向量机分类器相比,泛化性能有一定程度的提高。 相似文献
6.
当两类中的样本数量差别较大时,支持向量机的分类能力将会下降。该文提出了一种支持向量机新算法——DFP-PSVM,将有约束条件的二次规划问题转换为无约束二次规划问题,并通过优化计算来实现。为了克服传统的蛇形算法不能收敛于边缘凹陷处以及初始化过于敏感的缺点,采用基于可变形模型的梯度矢量流方法,提取了乳腺X光片中的肿瘤区域,分析了3个基于边缘的价矩。将其他肿瘤形状特征作为DFP-PSVM分类算法的特征输入,进行恶性肿瘤和良性肿瘤的计算机辅助诊断。实验表明,在小样本、两类样本数量“严重不均衡”的情况下,该算法有着较强的分类能力。 相似文献
7.
基于决策二叉树的多类支持向量机在大气质量评定中的应用 总被引:7,自引:0,他引:7
经典的支持向量机(Support Vector Machine,简称SVM)是针对二类分类的,在解决大气质量等级这种典型的多类分类问题时存在困难,本文提出了基于决策二叉树支持向量机的大气质量分类算法,将分类器分布在各个结点上,从而构成了多类支持向量机,减少了分类器数量和重复训练样本的数量。实验结果表明该方法能够正确地对大气质量进行识别。 相似文献
8.
9.
支持向量机是一种新的统计学习算法,其学习原则是使结构风险最小,与经典的学习方法的经验风险最小原则不同,这使得支持向量机具有很强的泛化能力。因为支持向量机算法是一个凸二次优化问题,能够保证所求的局部最优解就是全局最优解。目前,研究的绝大多数是两类问题。然而,即使我们能够将两类问题正确分类,也不能意味着实际应用中多类分类问题的解决。在这篇文章中,我们介绍了支持向量机算法,并且通过多类字母图象分类问题说明支持向量机算法在多类分类问题中的应用。 相似文献
10.
预抽取支持向量机的支持向量 总被引:6,自引:0,他引:6
训练支持向量机,可以归结为求解二次规划问题,而求解二次规划时的复杂度随着样本数量的增加而显著增长,这样就大大延长了支持向量机的训练时间。为了提高支持向量机的训练速度,根据支持向量机的基本原理,该文提出了一种从给定训练样本中预抽取支持向量的新方法,即两凸包相对边界向量方法(FFEVM),此方法大幅度减小了训练支持向量机的训练样本的数量,从而大大提高了支持向量的训练速度,而支持向量机的分类能力不受任何影响。 相似文献
11.
12.
支持向量机在处理两类分类问题时,当两类样本混杂严重时会降低分类精度。在NN-SVM分类算法的基础上,通过计算样本点与其最近邻点类别的异同以及该点与其k个同类近邻点在核空间的平均距离修剪混淆点,进而提出了一种改进的NN-SVM算法——KCNN-SVM。实验数据表明,KCNN-SVM算法与SVM以及NN-SVM相比,有着更高的分类精度和更快的训练、分类时间。 相似文献
13.
14.
本文分析了现有二类分类支持向量机算法的不足,在此基础上提出了基于类中心和属性权重的二类分类支持向量机算法。实验结果表明该算法可提高分类精度。 相似文献
15.
We present two new classifiers for two-class classification problems using a new Beta-SVM kernel transformation and an iterative
algorithm to concurrently select the support vectors for a support vector machine (SVM) and the hidden units for a single
hidden layer neural network to achieve a better generalization performance. To construct the classifiers, the contributing
data points are chosen on the basis of a thresholding scheme of the outputs of a single perceptron trained using all training
data samples. The chosen support vectors are used to construct a new SVM classifier that we call Beta-SVN. The number of chosen
support vectors is used to determine the structure of the hidden layer in a single hidden layer neural network that we call
Beta-NN. The Beta-SVN and Beta-NN structures produced by our method outperformed other commonly used classifiers when tested
on a 2-dimensional non-linearly separable data set. 相似文献
16.
由于支持向量机(SVM)在模式识别和回归分析中有着独特优势,因此成为近来研究的热点,其优势主要体现在处理非线性和高维数据问题方面。最初的SVM特别适合解决两类目标分类问题,而对于多类目标分类,则需将其转化为多个两类目标分类问题,相应地即可构造多个两类目标子分类器,但由于这种情况导致了分类器结构的过于复杂,从而导致判决速度的降低。为了快速地进行分类.提出了一种简化结构的多类目标分类器,其不仅使得子分类器数目大大减少,而且使分类速度明显提高;同时对其分类精度和复杂度进行了对比分析。实验结果证明。该分类器是有效的。 相似文献