共查询到20条相似文献,搜索用时 171 毫秒
1.
刘静 《计算机与数字工程》2015,(7)
最小二乘支持向量机是一种新的有效的机器学习算法。论文介绍了最小二乘支持向量机模型,研究了最小二乘支持向量机算法和经典的多类分类算法,提取车牌字符的奇异值特征,将奇异值系数特征作为最小二乘支持向量机的输入进行训练和分类。实验采用 LS‐SVM 工具箱,得到了较好的结果。 相似文献
2.
宋杰 《计算机工程与应用》2011,47(26):32-34
基于线性规划的ν-支持向量机(ν-LPSVM)是在基于二次规划的ν-支持向量机(ν-QPSVM)的基础上提出的。ν-LPSVM和ν-QPSVM模型中的参数ν都可以控制支持向量的数目和误差,但ν-LPSVM的模型更为简单,应用前景更广。讨论了这种新型支持向量机的线性规划问题的最小2-范数解,在此基础上给出了一个快速、有限步终止的牛顿算法。数值实验表明,ν-LPSVM的牛顿算法快速而且有效。 相似文献
3.
4.
加权稳健支撑向量回归方法 总被引:8,自引:0,他引:8
给出一类基于奇异值软剔除的加权稳健支撑向量回归方法(WRSVR).该方法的基本思想是首先由支撑向量回归方法(SVR)得到一个近似支撑向量回归函数,基于这个近似模型给出了加权SVR目标函数并利用高效的SVR求解技巧得到一个新的近似模型,然后再利用这个新的近似模型重新给出一个加权SVR目标函数并求解得到一个更为精确的近似模型,重复这一过程直至收敛.加权的目的是为了对奇异值进行软剔除.该方法具有思路简捷、稳健性强、容易实现等优点.实验表明,新算法WRSVR比标准SVR方法、稳健支撑向量网(RSVR)方法和加权最小二乘支撑向量机方法(WLS—SVM)更加稳健,算法的逼近精度受奇异值的影响远小于SVM、RSVR和WLS—SVM算法. 相似文献
5.
为了克服k-均值聚类算法容易受到数据空间分布影响的缺点,将线性规划下的一类支持向量机算法与K-均值聚类方法相结合提出一种支持向量聚类算法,该算法的每次循环都采用线性规划下的一类支持向量机进行运算.该算法实现简单,与二次规划下的支持向量机聚类算法相比,该算法能够大大减小计算的复杂性,而且能保持良好的聚类效果.与K-均值聚类算法、自组织映射聚类算法等进行仿真比较,人工数据和实际数据表明了该算法的有效性和可行性. 相似文献
6.
最小二乘孪生支持向量机通过求解两个线性规划问题来代替求解复杂的二次规划问题,具有计算简单和训练速度快的优势。然而,最小二乘孪生支持向量机得到的超平面易受异常点影响且解缺乏稀疏性。针对这一问题,基于截断最小二乘损失提出了一种鲁棒最小二乘孪生支持向量机模型,并从理论上验证了模型对异常点具有鲁棒性。为使模型可处理大规模数据,基于表示定理和不完全Cholesky分解得到了新模型的稀疏解,并提出了适合处理带异常点的大规模数据的稀疏鲁棒最小二乘孪生支持向量机算法。数值实验表明,新算法比已有算法分类准确率、稀疏性、收敛速度分别提高了1.97%~37.7%、26~199倍和6.6~2 027.4倍。 相似文献
7.
8.
Mangasarian最近提出的用于分类的无参数鲁棒线性规划支持向量机克服了标准支持向最机的一些缺点,而且模型简单,容易实现。该文讨论了这种新型支持向最机的线性规划问题的最小2-范数解,在此基础上给出了一个快速的牛顿算法。 相似文献
9.
介绍并比较了支持向量机分类器和最小二乘支持向量机分类器的算法,提出了基于支持向量机的二叉树多分类变压器故障诊断模型.将标准支持向量机(C-SVM)分类器和最小二乘支持向量机(LS-SVM)分类器分别用于变压器故障诊断,通过网格搜索和交叉验证法取得支持向量机的参数,准确率较高.试验结果表明,支持向量机和最小二乘支持向量机在变压器故障诊断中具有很大的应用潜力. 相似文献
10.
11.
图像中的异常检测是计算机视觉中非常重要的研究主题, 它可以定义为单分类问题;针对图像数据集的规模大,维度高等特性,一种新的深度卷积自编码器(Convolutional Autoencoder, CAE)与核近似单分类支持向量机(One Class Support Vector Machine, OCSVM)相结合的异常检测模型CAE-OCSVM被提出;模型中的深度卷积自编码器负责学习图像的本质特征表示,然后使用随机傅里叶特征对卷积自编码器学习本质特征进行核近似,核近似后输入线性单类支持向量机进行图像异常检测。核近似技术克服了核学习技术时间复杂度高的问题;同时深度卷积自编码器与核近似单类支持向量机通过梯度下降法实现了端到端的学习;模型的AUC性能在四个公开的图像基准数据集上进行了实验验证,同时模型与其它常用的异常检测模型在不同的异常率的情况下进行了性能对比;实验结果证实CAE-OCSVM模型在四个公开图像数据集上的性能都优于其它异常检测模型,表明了CAE-OCSVM模型更适合大规模高维数据集的异常检测 相似文献
12.
13.
14.
Haihong Zhang Weimin Huang Zhiyong Huang Bailing Zhang 《IEEE transactions on systems, man, and cybernetics. Part B, Cybernetics》2005,35(3):593-606
Autoassociators are a special type of neural networks which, by learning to reproduce a given set of patterns, grasp the underlying concept that is useful for pattern classification. In this paper, we present a novel nonlinear model referred to as kernel autoassociators based on kernel methods. While conventional non-linear autoassociation models emphasize searching for the non-linear representations of input patterns, a kernel autoassociator takes a kernel feature space as the nonlinear manifold, and places emphasis on the reconstruction of input patterns from the kernel feature space. Two methods are proposed to address the reconstruction problem, using linear and multivariate polynomial functions, respectively. We apply the proposed model to novelty detection with or without novelty examples and study it on the promoter detection and sonar target recognition problems. We also apply the model to mclass classification problems including wine recognition, glass recognition, handwritten digit recognition, and face recognition. The experimental results show that, compared with conventional autoassociators and other recognition systems, kernel autoassociators can provide better or comparable performance for concept learning and recognition in various domains. 相似文献
15.
16.
多核学习(MKL)方法在分类及回归任务中均取得了优于单核学习方法的性能,但传统的MKL方法均用于处理两类或多类分类问题.为了使MKL方法适用于处理单类分类(OCC)问题,提出了基于中心核对齐(CKA)的单类支持向量机(OCSVM).首先利用CKA计算每个核矩阵的权重,然后将所得权重用作线性组合系数,进而将不同类型的核函... 相似文献
17.
18.
正则化FDA的核化及与SVM的比较研究* 总被引:1,自引:0,他引:1
无论是Fisher判别分析(FDA)还是基于核的FDA(KFDA),在小样本情况下都会面临矩阵的病态问题,正则化技术是解决该问题的有效途径。为了便于研究正则化FDA与支持向量机(SVM)的关系,推导了一种正则化FDA的核化算法。将约束优化问题转换为对偶的优化问题,得到了与SVM相似的形式,分析了该核化算法与SVM的联系。针对Tenessee-Eastman(TE)过程的故障诊断结果表明,正则化KFDA的诊断效果明显好于LS-SVM。 相似文献
19.
20.
A binary classification problem is reduced to the minimization of convex regularized empirical risk functionals in a reproducing
kernel Hilbert space. The solution is searched for in the form of a finite linear combination of kernel support functions
(Vapnik’s support vector machines). Risk estimates for a misclassification as a function of the training sample size and other
model parameters are obtained. 相似文献