首页 | 本学科首页   官方微博 | 高级检索  
     

关于AdaBoost有效性的分析
引用本文:付忠良. 关于AdaBoost有效性的分析[J]. 计算机研究与发展, 2008, 45(10): 1747-1755.
作者姓名:付忠良
作者单位:1.(中国科学院成都计算机应用研究所 成都 610041) (fzliang@netease.com)
基金项目:中国科学院西部之光人才培养基金
摘    要:在机器学习领域,弱学习定理指明只要能够寻找到比随机猜测略好的弱学习算法,则可以通过一定方式,构造出任意误差精度的强学习算法.基于该理论下最常用的方法有AdaBoost和Bagging.AdaBoost和Bagging 的误差分析还不统一;AdaBoost使用的训练误差并不是真正的训练误差,而是基于样本权值的一种误差,是否合理需要解释;确保AdaBoost有效的条件也需要有直观的解释以便使用.在调整Bagging错误率并采取加权投票法后,对AdaBoost和Bagging的算法流程和误差分析进行了统一,在基于大数定理对弱学习定理进行解释与证明基础之上,对AdaBoost的有效性进行了分析.指出AdaBoost采取的样本权值调整策略其目的是确保正确分类样本分布的均匀性,其使用的训练误差与真正的训练误差概率是相等的,并指出了为确保AdaBoost的有效性在训练弱学习算法时需要遵循的原则,不仅对AdaBoost的有效性进行了解释,还为构造新集成学习算法提供了方法.还仿照AdaBoost对Bagging的训练集选取策略提出了一些建议.

关 键 词:机器学习  弱学习定理  大数定理  AdaBoost  Bagging

Effectiveness Analysis of AdaBoost
Fu Zhongliang. Effectiveness Analysis of AdaBoost[J]. Journal of Computer Research and Development, 2008, 45(10): 1747-1755.
Authors:Fu Zhongliang
Affiliation:1.(Chengdu Institute of Computer Application, Chinese Academy of Sciences, Chengdu 610041)
Abstract:Weak learning theorem in machine learning area shows that if the weak learning algorithm slightly better than random guess can be found,the strong learning algorithm with any precision can be constructed.AdaBoost and Bagging are the methods most in use based on this theorem.But many problems about AdaBoost and Bagging have not been well solved:The error analyses of AdaBoost and Bagging are not uniformed;The training errors used in AdaBoost are not the real training errors,but the errors based on sample weig...
Keywords:AdaBoost  Bagging
本文献已被 CNKI 维普 万方数据 等数据库收录!
点击此处可从《计算机研究与发展》浏览原始摘要信息
点击此处可从《计算机研究与发展》下载全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号