首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 31 毫秒
1.
基于PSO优化的SMO算法研究及应用   总被引:1,自引:0,他引:1  
顺序优化(SMO)是支持向量机(SVM)的一种有效训练算法,但SMO的参数选择问题是算法性能优劣的关键所在,只有选择了合适的参数才能使算法性能达到最优。因此,在详细介绍了SMO算法的基础上,着重研究了基于微粒群优化(PSO)的SMO算法的双层优化原理,并通过仿真进行了应用研究,将该方法的有效性进行了验证。实验结果表明,经过PSO优化的SMO算法与其他算法相比具有更高的准确性。  相似文献   

2.
半径-间隔界中最小包含球半径R的计算需要求解二次规划问题,增加了算法的计算量。为提高计算效率,提出一种基于改进RM界的二次损失函数支持向量机模式选择。用所有训练样本的最大距离D逼近半径R,用D替换R构成新的RM界,然后基于改进的RM界对二次损失函数支持向量机(L2-SVM)进行模式选择,并用梯度下降法调节最优参数。对算法的分类精度和计算效率进行仿真实验讨论,结果表明,与基于RM界的模式选择相比,虽然该算法的分类精度没有明显改变,但其计算效率至少提高1倍。  相似文献   

3.
本文在Fedorov算法的基础上,引入了Schmidt初始化策略,对原算法进行了改进。更进一步地,结合最小体积闭包椭球问题的理论、支持向量机中序列最小最优化(Sequential minimal optimization,简记为SMO)算法思想[2],和Schmidt初始化策略给出了D-最优设计一个新的数值算法——SMO更新算法,并对其复杂度进行了分析。  相似文献   

4.
支持向量机是统计学习理论的一个重要的学习方法,也是解决模式识别问题的有效工具.本文把支持向量机应用在说话人识别系统中,对支持向量机的SMO算法进行了论述,并对SMO中有关两个待优化拉格朗日乘子的选取做了改进,用简单的排列算法取代函数集中的遍历操作来使目标函数值下降,实验证明SMO算法具有占用内存少,运算速度快等优点,本文中的SMO改进算法可以节省50%时间.  相似文献   

5.
序列最小化算法(SMO)是支持向量机重要的常用分解方法。而工作集的选择是实现序列最小优化算法的关键。通过重写KKT条件,提出了一种改进的新工作集选择方法,并相应提出最小化步骤。通过将改进的支持向量机方法应用于网络用户行为数据的分析,与现有方法进行对比测试,验证了新工作集选择方法将减少支持向量机的学习时间并加快收敛过程,改进的支持向量机方法在运行效率和准确度上都有不同程度的提高。  相似文献   

6.
支持向量机改进序列最小优化学习算法   总被引:2,自引:0,他引:2  
为提高支持向量机序列最小优化学习算法的学习性能,提出了一种支持向量机改进序列最小优化学习算法,对传统SMO学习方法进行了多方面改进,从优化变量的选择和2个变量的优化方法分别提出具体可行的改进方法.改进后的SMO学习算法提高了学习速度,加快了网络收敛速度.基于改进SMO算法的仿真结果验证了改进SMO算法的有效性和优越性,并通过仿真,与原始算法进行了比较,显示了改进SMO算法的快速性.  相似文献   

7.
为加快支持向量机的训练速度,提出一种新型的"多重三叉级联(MTC)"学习结构,具有反馈速度快、计算节点利用率高、反馈的支持向量多等优点。基于该结构设计了支持向量机的并行训练算法,并严格证明了新算法能够收敛到支持向量机的最优解。数值实验结果表明,新算法具有非常高的加速比和并行效率,需要的训练时间显著地少于Graf等提出的Cascade SVM算法。  相似文献   

8.
摘要:为加快支持向量机的训练速度,提出一种新型的“多重三叉级联(MTC)”学习结构,具有反馈速度快、计算节点利用率高、反馈的支持向量多等优点。基于该结构设计了支持向量机的并行训练算法,并严格证明了新算法能够收敛到支持向量机的最优解。数值实验结果表明,新算法具有非常高的加速比和并行效率,需要的训练时间显著地少于Graf等提出的Cascade SVM算法。  相似文献   

9.
为有效求得背包约束条件下不同问题的解,我们往往采取不同的方式,以获得其最优解。但更多情况下,我们无法找出其精确最优解,这时我们将选取不同的变量,通过有效的算法,以获得该问题的近似解。我们利用线性规划的知识,分析最大化非减下模集函数在背包约束下近似算法,得出该算法计算复杂性为O(n5),性能保证为1-e-1。  相似文献   

10.
当样本集很大时,训练支持向量机需要很大的内存空间和很长的CPU占用时间.为了减轻支持向量机训练过程中的计算负担,提出一种快速的改进算法,该算法只选择靠近最优超平面的样本.实验结果表明:当训练集很大时,训练时间及预处理的时间都得到了削减,同时,分类精度并没有损失.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号