首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 125 毫秒
1.
基于AdaBoost分类器的车牌字符识别算法研究   总被引:1,自引:1,他引:1  
张艳阳  顾明 《计算机应用研究》2006,23(5):242-243,247
提出了一种基于模板匹配的改进AdaBoost算法的字符识别方法。针对AdaBoost算法的退化现象,根据样本在权重上的分布情况,对权重进行适当的调整,较好地解决了经典AdaBoost算法中存在的退化现象:最后给出了实验结果及实现方案。  相似文献   

2.
提出了一种基于模板匹配的改进AdaBoost算法的字符识别方法。针对AdaBoost算法的退化现象,根据样本在权重上的分布情况,对权重进行适当的调整,较好地解决了经典 AdaBoost算法中存在的退化现象。最后给出了实验结果及实现方案。  相似文献   

3.
针对Haar-like特征的缺陷以及AdaBoost算法存在训练耗时的问题,提出一种基于协方差特征的改进AdaBoost人脸检测算法。该方法用协方差特征代替Haar-like特征进行特征提取;然后使用特征裁剪和动态权重裁剪相结合的裁剪AdaBoost算法,训练得到基于协方差特征的强分类器。实验结果表明,相对于基于Haar-like特征的AdaBoost算法,该算法性能没有明显退化且很大程度上提高了训练速度。  相似文献   

4.
朱亮  徐华  崔鑫 《计算机应用》2021,41(8):2225-2231
针对传统AdaBoost算法的基分类器线性组合效率低以及过适应的问题,提出了一种基于基分类器系数与多样性的改进算法——WD AdaBoost。首先,根据基分类器的错误率与样本权重的分布状态,给出新的基分类器系数求解方法,以提高基分类器的组合效率;其次,在基分类器的选择策略上,WD AdaBoost算法引入双误度量以增加基分类器间的多样性。在五个来自不同实际应用领域的数据集上,与传统AdaBoost算法相比,CeffAda算法使用新的基分类器系数求解方法使测试误差平均降低了1.2个百分点;同时,WD AdaBoost算法与WLDF_Ada、AD_Ada、sk_AdaBoost等算法相对比,具有更低的错误率。实验结果表明,WD AdaBoost算法能够更高效地集成基分类器,抵抗过拟合,并可以提高分类性能。  相似文献   

5.
一种改进AdaBoost算法的车牌检测方法   总被引:1,自引:1,他引:0  
针对传统AdaBoost算法的不足,分析了分类器训练耗时和训练过程中容易出现样本权重扭曲的问题,并提出了解决这一问题的有效方法。新方法主要对特征值和排序结果进行缓存以及对样本权重的更新规则进行适当调整。实验结果表明,使用该方法训练级联车牌检测器能较好地解决传统AdaBoost算法中所出现的权重扭曲及训练时间长的问题,在提高检测率的同时训练时间缩短了50%左右。  相似文献   

6.
链路预测是复杂网络的重要研究方向,当前的链路预测算法因可利用的网络信息有限,导致预测算法的精确度受限。为了提高预测算法的性能,采用改进的AdaBoost算法进行链路预测。首先根据复杂网络样本建立邻接矩阵,完成样本的矩阵化处理;然后采用AdaBoost算法进行分类训练,通过权重投票获取预测结果;最后,考虑到复杂网络弱分类器预测正负误差分布的不均衡问题,设置权重调整因子η及其调整范围[η1,η2],并根据η值动态调整AdaBoost算法的多个弱分类器分类结果的权重,从而获得准确的链路预测结果。实验结果证明,相比其他常用网络链路预测算法及传统AdaBoost算法,改进的AdaBoost算法的预测准确率优势明显,且在节点数量较多时,其预测时间性能和其他算法的差距较小。  相似文献   

7.
针对传统的AdaBoost算法只关注分类错误率最小的问题,在分析传统的AdaBoost算法实质基础上,提出一种基于代价敏感的改进AdaBoost算法。首先在训练基分类器阶段,对于数据集上的不同类别样本根据其错分后造成的损失大小不同来更新样本权值,使算法由关注分类错误率最小转而关注分类代价最小。然后,在组合分类器输出时采用预测概率加权方法来取代传统AdaBoost算法采用的预测类别加权的方法。最后通过实验验证了改进算法的有效性。  相似文献   

8.
基于改进AdaBoost算法的人脸检测   总被引:1,自引:0,他引:1  
研究人脸识别实现自动化检测,针对实时定位准确识别人脸,采用传统AdaBoost算法构建人脸检测器时存在的过拟合现象和特征冗余缺欠,提出一种自适应样本权重更新规则和遗传算法的改进AdaBoost人脸检测方法.可把正负样本错分率引入样本权重更新过程,将分类效果反馈给分类器,实现对分类器结构的有效控制.用遗传算法进一步优化所选特征及其参数,达到使用较少的弱分类器实现高检出率和低误判率的双重要求.仿真结果表明,与传统AdaBoost算法相比,采用文中算法训练人脸检测器可有效避免样本权重扭曲现象,消除分类器冗余,在保证较高检出率的同时降低误检率,使人脸检测更加快速和精确.  相似文献   

9.
改进的基于AdaBoost算法的人脸检测方法*   总被引:4,自引:0,他引:4  
针对传统AdaBoost算法的不足,分析了训练过程中出现的退化问题及样本权重扭曲的现象,并提出了解决这一问题的有效方法.该方法对样本权重的更新规则进行了适当的调整,即为每一轮循环设定一个权重更新阈值,根据样本是否被错误分类以及当前权重是否大于该阈值来更新样本权重,从而限制了困难样本权重的过分增大.使用该方法训练级联人脸检测器,试验结果表明,该方法较好地解决了传统AdaBoost算法所出现的退化问题,在保证检测率的同时降低了误检率.  相似文献   

10.
基于AdaBoost算法的故障诊断仿真研究   总被引:1,自引:1,他引:1  
徐启华  杨瑞 《计算机工程与设计》2005,26(12):3210-3212,3227
AdaBoost算法是提高预测学习系统预测能力的有效工具。提出一种基于AdaBoost算法的神经网络故障诊断方法,利用多层前向神经网络作为故障弱分类器,实现了对多类故障的诊断。为了克服AdaBoost对数据噪声比较敏感的不足,通过降低错分样本的权重改进了算法。针对一个涡轮喷气发动机气路部件故障的仿真实验表明,这种方法提高了最终故障分类器的泛化能力,改善了其噪声鲁棒性,便于工程应用。  相似文献   

11.
基于改进的AdaBoost算法的人脸检测与定位   总被引:1,自引:1,他引:0  
针对传统AdaBoost算法在训练过程中出现的退化现象和检测率低的问题,提出了一种有效的解决方法。该方法在传统AdaBoost算法的基础上,对样本的权值参数和弱分类器的加权参数加以改进,有效地抑制了困难样本权值的过分增大,加强了分类器对样本的识别能力,并提高了系统的检测率。实验证明:使用该方法训练的级联人脸检测器具有良好的性能。  相似文献   

12.
鉴于特征属性选择在网络流量分类中占据重要地位,为了确定最优特征子集,利用CFS作为适应度函数的改进遗传算法(GA-CFS),从网络流量的249个属性空间中提取主要属性并最终选定18个特征组合作为最优特征子集。通过AdaBoost算法把一系列的弱分类器提升为强分类器,对网络流量进行了深入的分类研究。实验结果表明,基于GA-CFS和AdaBoost的流量组合分类方法较弱分类器具有较高的分类准确率。  相似文献   

13.
提出一种基于汉语语块结构并利用AdaBoost-SVM集成学习算法的汉语韵律短语识别方法。首先,对语料进行自动分词、词性标注和初语块标注,然后基于结合紧密度获取语块归并规则并利用规则对初语块进行归并,得到最终的语块结构。其次,基于语块结构并利用AdaBoost-SVM集成算法,构建汉语韵律短语识别模型。同时,该文利用多种算法分别构建了利用语块信息和不利用语块的多个模型,对比实验结果表明,表示浅层句法信息的语块能够在韵律短语识别中做出积极有效的贡献;利用AdaBoos-SVM集成算法实现的模型性能更佳。  相似文献   

14.
多阈值划分的连续AdaBoost人脸检测   总被引:1,自引:0,他引:1  
连续AdaBoost算法要求对样本空间进行划分,传统的等距划分无法体现正负样本各自的分布规律.对基于连续AdaBoost算法的人脸检测方法进行了改进,结合离散AdaBoost中弱分类器的阈值选取策略,通过多重最优阈值选择方法实现了样本空间的合理划分.在MIT-CBCL数据库上的实验结果表明,改进后的方法比等距划分和连续AdaBoost算法检测率提高0.5%和2%,错误率降低0.15%和0.27%,算法收敛速度更快.  相似文献   

15.
AdaBoost算法研究进展与展望   总被引:21,自引:0,他引:21  
AdaBoost是最优秀的Boosting算法之一, 有着坚实的理论基础, 在实践中得到了很好的推广和应用. 算法能够将比随机猜测略好的弱分类器提升为分类精度高的强分类器, 为学习算法的设计提供了新的思想和新的方法. 本文首先介绍Boosting猜想提出以及被证实的过程, 在此基础上, 引出AdaBoost算法的起源与最初设计思想;接着, 介绍AdaBoost算法训练误差与泛化误差分析方法, 解释了算法能够提高学习精度的原因;然后, 分析了AdaBoost算法的不同理论分析模型, 以及从这些模型衍生出的变种算法;之后, 介绍AdaBoost算法从二分类到多分类的推广. 同时, 介绍了AdaBoost及其变种算法在实际问题中的应用情况. 本文围绕AdaBoost及其变种算法来介绍在集成学习中有着重要地位的Boosting理论, 探讨Boosting理论研究的发展过程以及未来的研究方向, 为相关研究人员提供一些有用的线索. 最后,对今后研究进行了展望, 对于推导更紧致的泛化误差界、多分类问题中的弱分类器条件、更适合多分类问题的损失函数、 更精确的迭代停止条件、提高算法抗噪声能力以及从子分类器的多样性角度优化AdaBoost算法等问题值得进一步深入与完善.  相似文献   

16.
AdaBoost demonstrates excellent performance in remote sensing (RS) image classification, but as it works on only one classification algorithm, the disadvantage of the classification algorithm itself is difficult to overcome, resulting in limitations in the improvement of classification accuracy. In this article, a modified AdaBoost, a multiple classification algorithm-based AdaBoost (MCA AdaBoost), is proposed to improve remote sensing image classification. The new method works on more than one classification algorithm and can make full use of the advantages of different learning algorithms. Based on a Landsat 8 Operational Land Imager (OLI) image whose spatial resolution was enhanced to 15 m with a panchromatic band, a C4.5 decision tree, Naïve Bayes, and artificial neural network were used as objects to verify and compare the performance of both AdaBoost and MCA AdaBoost. The experimental results show that MCA AdaBoost successfully inherits the benefits of the original AdaBoost, combines the advantages of different classification algorithms and lowers overfitting. By increasing diversity and complementarity among base classifiers, MCA AdaBoost outperforms AdaBoost in terms of RS classification accuracy improvement.  相似文献   

17.
Multi-Class Learning by Smoothed Boosting   总被引:1,自引:0,他引:1  
AdaBoost.OC has been shown to be an effective method in boosting “weak” binary classifiers for multi-class learning. It employs the Error-Correcting Output Code (ECOC) method to convert a multi-class learning problem into a set of binary classification problems, and applies the AdaBoost algorithm to solve them efficiently. One of the main drawbacks with the AdaBoost.OC algorithm is that it is sensitive to the noisy examples and tends to overfit training examples when they are noisy. In this paper, we propose a new boosting algorithm, named “MSmoothBoost”, which introduces a smoothing mechanism into the boosting procedure to explicitly address the overfitting problem with AdaBoost.OC. We proved the bounds for both the empirical training error and the marginal training error of the proposed boosting algorithm. Empirical studies with seven UCI datasets and one real-world application have indicated that the proposed boosting algorithm is more robust and effective than the AdaBoost.OC algorithm for multi-class learning. Editor: Nicolo Cesa-Bianchi  相似文献   

18.
AdaBoost is a method for improving the classification accuracy of a given learning algorithm by combining hypotheses created by the learning alogorithms. One of the drawbacks of AdaBoost is that it worsens its performance when training examples include noisy examples or exceptional examples, which are called hard examples. The phenomenon causes that AdaBoost assigns too high weights to hard examples. In this research, we introduce the thresholds into the weighting rule of AdaBoost in order to prevent weights from being assigned too high value. During learning process, we compare the upper bound of the classification error of our method with that of AdaBoost, and we set the thresholds such that the upper bound of our method can be superior to that of AdaBoost. Our method shows better performance than AdaBoost.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号