首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   3篇
  免费   1篇
  国内免费   1篇
综合类   1篇
自动化技术   4篇
  2019年   1篇
  2011年   2篇
  2010年   2篇
排序方式: 共有5条查询结果,搜索用时 0 毫秒
1
1.
快速支持向量机增量学习算法   总被引:3,自引:0,他引:3  
支持向量机对数据的学习往往因为规模过大造成学习困难,增量学习通过把数据集分割成历史样本集和新增样本集,利用历史样本集的几何分布信息,通过定义样本的遗忘因子,提取历史样本集中的那些可能成为支持向量的边界向量进行初始训练.在增量学习过程中对学习样本的知识进行积累,有选择地淘汰学习样本.实验结果表明,该算法在保证学习的精度和推广能力的同时,提高了训练速度,适合于大规模分类和在线学习问题.  相似文献   
2.
为提高含有异常值数据集的学习性能,对基于支持向量机的鲁棒算法进行了研究,深入分析了异常值降低标准支持向量机推广能力的本质原因,从基于支持向量机的异常值检测和抑制异常值对支持向量机的影响两个方面,较为系统地回顾了国内外在该领域的研究发展现状和最新研究进展,其中包括各种算法的基本思想和主要特点.归纳总结了支持向量机关于异常值问题的主要研究内容、方法、研究成果以及存在的问题,并进一步提出了在应用方面的研究方向.  相似文献   
3.
鲁棒SVR在金融时间序列预测中的应用   总被引:1,自引:0,他引:1       下载免费PDF全文
王快妮  钟萍  赵耀红 《计算机工程》2011,37(15):155-157,163
针对标准支持向量机对噪声和异常值比较敏感的问题,通过限定噪声和异常值的损失上界,提出一种基于不对称Ramp损失函数的鲁棒支持向量回归机模型,应用凹凸过程将其由非凸优化问题转化为凸优化问题并利用牛顿法进行求解.对上证指数和香港恒生指数收盘价的预测结果表明,该模型能在一定程度上抑制噪声和异常值的影响,从而提高预测精度及减少...  相似文献   
4.
针对最小二乘支持向量回归机(LS-SVR)对异常值较敏感的问题,通过设置异常值所造成的损失上界,提出一种非凸的Ramp损失函数。该损失函数导致相应的优化问题的非凸性,利用凹凸过程(CCCP)将非凸优化问题转化为凸优化问题。给出Newton算法进行求解并分析了算法的计算复杂度。数据集测试的结果表明,与最小二乘支持向量回归机相比,该算法对异常值具有较强的鲁棒性,获得了更优的泛化能力,同时在运行时间上也具有明显优势。  相似文献   
5.
对噪声和异常值较敏感、鲁棒性差是超限学习机(ELM)的主要问题.在1-范数损失函数的基础上,提出截断1-范数损失函数来抑制噪声和异常值的影响,建立了基于截断1-范数损失函数的鲁棒ELM模型.通过迭代重赋权算法求解对应的优化问题,并利用4个模拟数据集和9个真实数据集验证模型的有效性.数值实验结果表明,在噪声环境下鲁棒ELM的泛化性能优于对比方法,并且具有较强的鲁棒性,尤其是在异常值比例较大的情形下.  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号