共查询到18条相似文献,搜索用时 78 毫秒
1.
支持向量机和最小二乘支持向量机的比较及应用研究 总被引:56,自引:3,他引:56
介绍和比较了支持向量机分类器和量小二乘支持向量机分类器的算法。并将支持向量机分类器和量小二乘支持向量机分类器应用于心脏病诊断,取得了较高的准确率。所用数据来自UCI bench—mark数据集。实验结果表明,支持向量机和量小二乘支持向量机在医疗诊断中有很大的应用潜力。 相似文献
2.
3.
以医疗数据为应用对象,应用网格搜索和交叉验证的方法选择参数,建立最小二乘支持向量机分类器,进行实际验证,并与使用K近邻分类器(K-NN)和C4.5决策树两种方法的结果进行比较.结果表明,LS-SVM分类器取得较高的准确率,表明最小二乘支持向量机在医疗诊断研究中具有很大的应用潜力. 相似文献
4.
一种改进的支持向量机NN-SVM 总被引:39,自引:0,他引:39
支持向量机(SVM)是一种较新的机器学习方法,它利用靠近边界的少数向量构造一个最优分类超平面。在训练分类器时,SVM的着眼点在于两类的交界部分,那些混杂在另一类中的点往往无助于提高分类器的性能,反而会大大增加训练器的计算负担,同时它们的存在还可能造成过学习,使泛化能力减弱.为了改善支持向量机的泛化能力,该文在其基础上提出了一种改进的SVM—NN-SVM:它先对训练集进行修剪,根据每个样本与其最近邻类标的异同决定其取舍,然后再用SVM训练得到分类器.实验表明,NN-SVM相比SVM在分类正确率、分类速度以及适用的样本规模上都表现出了一定的优越性. 相似文献
5.
支持向量机及其在模式识别中的应用 总被引:17,自引:0,他引:17
Statistical learning theory(SLT)and support vector machine(SVM) are effective to solve problems of machine learning under the condition of finite samples.It is known that the performance of support vector machine is often better than that of some neural networks in pattern recognition,especially in high dimensional space,and they arewell used in many domains for recognition.This paper at first introduces the basic theory of SLT and SVM,then points out the key problems of SVM and its research situation in recent years,and at last describes some applications of SVM in the field of pattern recognition. 相似文献
6.
7.
支持向量机是一种新型的机器学习方法,该学习方法以结构风险最小化原则取代传统机器学习方法中的经验风险最小化原则,在小样本的机器学习中显示出了优异的性能。将这种新的统计学习方法应用到非线性时间序列预测,并将结果与BP神经网络预测的结果进行比较,结果表明该方法有更高的预测精度。 相似文献
8.
支持向量机在入侵检测系统中的应用 总被引:1,自引:0,他引:1
为了提高信息系统的安全性,本文将基于统计学习理论的支持向量机方法应用到入侵检测系统中,保证了在先验知识不足的情况下,支持向量机分类器仍有较好的分类正确率,达到了能够对系统异常情况准确预测的目的。该方法避免了基于传统机器学习的局限性,保证了较强的推广能力,从而使整个入侵检测系统具有较好的检测性能。 相似文献
9.
支持向量机多值分类器的研究 总被引:4,自引:0,他引:4
在阐述二值支持向量机分类器的基础上,针对M类问题重点讨论了一对多与一对一分类器组合求解方案。对于纽合方案中出现的不可分类问题,论述了引入模糊隶属函数、构造有向非循环图等相关的解决思路,针对标准数据库分类问题比较了不同组合方案的分类性能。 相似文献
10.
传统的支持向量机(SVM)是两类分类问题,如何有效地将其推广到多类分类问题仍是一项有待研究的课题。本文在对现有主要的四种多类支持向量机分类算法讨论的基础上,结合文本分类的特点,详细介绍了决策树支持向量机和几种改进多类支持向量机方法在文本分类中的应用。 相似文献
11.
最小二乘支持向量机算法研究 总被引:17,自引:0,他引:17
1 引言支持向量机(SVM,Support Vector Machines)是基于结构风险最小化的统计学习方法,它具有完备的统计学习理论基础和出色的学习性能,在模式识别和函数估计中得到了有效的应用(Vapnik,1995,1998)。支持向量机方法一方面通过把数据映射到高维空间,解决原始空间中数据线性不可分问题;另一方面,通过构造最优分类超平面进行数据分类。神经网络通过基于梯度迭代的方法进行数据学习,容易陷入局部最小值,支持向量机是通过解决一个二次规划问题,来获得 相似文献
12.
Support vector machine (SVM), as an effective method in classification problems, tries to find the optimal hyperplane that
maximizes the margin between two classes and can be obtained by solving a constrained optimization criterion using quadratic
programming (QP). This QP leads to higher computational cost. Least squares support vector machine (LS-SVM), as a variant
of SVM, tries to avoid the above shortcoming and obtain an analytical solution directly from solving a set of linear equations
instead of QP. Both SVM and LS-SVM operate directly on patterns represented by vector, i.e., before applying SVM or LS-SVM
to a pattern, any non-vector pattern such as an image has to be first vectorized into a vector pattern by some techniques
like concatenation. However, some implicit structural or local contextual information may be lost in this transformation.
Moreover, as the dimension d of the weight vector in SVM or LS-SVM with the linear kernel is equal to the dimension d
1 × d
2 of the original input pattern, as a result, the higher the dimension of a vector pattern is, the more space is needed for
storing it. In this paper, inspired by the method of feature extraction directly based on matrix patterns and the advantages
of LS-SVM, we propose a new classifier design method based on matrix patterns, called MatLSSVM, such that the new method can
not only directly operate on original matrix patterns, but also efficiently reduce memory for the weight vector (d) from d
1 × d
2 to d
1 + d
2. However like LS-SVM, MatLSSVM inherits LS-SVM’s existence of unclassifiable regions when extended to multi-class problems.
Thus with the fuzzy version of LS-SVM, a corresponding fuzzy version of MatLSSVM (MatFLSSVM) is further proposed to remove
unclassifiable regions effectively for multi-class problems. Experimental results on some benchmark datasets show that the
proposed method is competitive in classification performance compared to LS-SVM, fuzzy LS-SVM (FLS-SVM), more-recent MatPCA
and MatFLDA. In addition, more importantly, the idea used here has a possibility of providing a novel way of constructing
learning model. 相似文献
13.
Digital Least Squares Support Vector Machines 总被引:1,自引:0,他引:1
This paper presents a very simple digital architecture that implements a Least-Squares Support Vector Machine. The simplicity of the whole system and its good behavior when used to solve classification problems hold good prospects for the application of such a kind of learning machines to build embedded systems. 相似文献
14.
15.
16.
最小二乘支持向量机的一种稀疏化算法 总被引:7,自引:0,他引:7
介绍了一种稀疏化最小二乘支持向量机的剪枝算法。由于支持值图谱中小的支持值所对应的训练样本在算法执行阶段所起的作用较小,所以删除它们不会引起性能的显著下降。仿真实验表明,该算法不但简单、易于实现,而且能够保持良好的分类性能。 相似文献
17.
基于核方法的学习算法在机器学习领域占有很重要的地位(如支持向量机support vector machines,简称SVM)。但该方法在处理回归问题时的计算复杂度为数据量的立方级。最小二乘支持向量机(least squares support vector machines 简称LS-SVM)在计算复杂性方面对传统的支持向量机的作了很大改进,但是它的计算量也达到样本点数目的平方级。在处理海量数据回归问题时,求解LS-SVM占用大量的CPU和内存资源。本文提出了一种带非齐次多项式核的最小二乘支持向量机算法,由于特征向量中含有常数分量,所以本文去掉了模型中的偏差因子,简化了LS-SVM的回归模型。新方法特别适合于海量数据回归问题。实验显示新方法的求解速度比传统LS-SVM要快很多,同时新方法的准确性却丝毫不亚于LS-SVM 相似文献