首页 | 本学科首页   官方微博 | 高级检索  
     

基于混合梯度下降算法的支持向量机参数优化
引用本文:莫赞,刘希良,谢海涛.基于混合梯度下降算法的支持向量机参数优化[J].网络新媒体技术,2014(2):54-58.
作者姓名:莫赞  刘希良  谢海涛
作者单位:广东工业大学管理学院,广州510090
基金项目:基金项目:国家自然科学基金项目(71171062);“十二五”国家科技支撑计划课题(2011BAD13811);广东省自然科学博士启动项目($2011040004285);广东工业大学教学质量工程项目(402102283).
摘    要:在解决有限样本、非线性和高维度问题中,建立在统计学习理论和结构风险最小化原则上的支持向量机表现出良好的性能和独特的优势。然而,支持向量机参数对模型的识别精度和泛化能力有很大影响,基于这样的事实,运用混合梯度下降算法对支持向量机的参数进行优化选择,结合量子遗传算法出色的全局优化能力和梯度下降法局部寻优能力,较好地解决了传统的支持向量机中参数优化的难题。最后,用实例验证了该算法的有效性。

关 键 词:支持向量机(SVM)  混合梯度下降  梯度下降法  量子遗传算法  参数优化

Parameter Optimization of SVM Based on HGD
MO Zan,LIU Xiliang,XIE Haitao.Parameter Optimization of SVM Based on HGD[J].Microcomputer Applications,2014(2):54-58.
Authors:MO Zan  LIU Xiliang  XIE Haitao
Affiliation:(School of Management, Guangdong University of Technology, Guangzhou, 510520, China)
Abstract:SVM ( Support Vector Machine) based on statistical learning theory and structural risk minimization principle has shown good performance and unique advantages in resolving the non -linear and high dimension problems with limited samples. However, the pa- rameters of SVM have a significant impact on the identifying accuracy and generalization ability of SVM. It is based on the fact that this paper uses HGD ( Hybrid Gradient Descent) ) to optimize the parameters of SVM. HGD combined with the excellent global optimiza- tion capability of QGA ( Quantum Genetic Algorithms) and the excellent local optimization ability of GD ( Gradient Descent) gives a better solution to the traditional problem on Parameter optimization of SVM. Final example demonstrates this algorithm very well.
Keywords:SVM  HGD  GD  QGA  Parameter Optimization
本文献已被 维普 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号