首页 | 本学科首页   官方微博 | 高级检索  
     

决策树分类算法研究
引用本文:张琳,陈燕,李桃迎,牟向伟.决策树分类算法研究[J].计算机工程,2011,37(13):66-67,70.
作者姓名:张琳  陈燕  李桃迎  牟向伟
作者单位:大连海事大学交通运输管理学院,辽宁,大连,116026
基金项目:国家自然科学基金资助项目,高等学校博士学科点专项科研基金资助项目
摘    要:ID3算法在选择分裂属性时偏向于选取属性取值较多的属性。针对该问题,引入属性重要性和属性取值数量2个参数对ID3算法的信息增益公式进行改进,从而提高取值数量少但较为关键的属性的重要性,使算法更好地反映实际决策情况,并根据凸函数的性质简化信息熵的计算,提高决策树的构造效率。通过实例介绍改进算法的具体应用方法,证明其性能相比原算法有所提高。

关 键 词:ID3算法  信息增益  属性重要性  属性取值数量  信息熵
收稿时间:2010-11-15

Research on Decision Tree Classification Algorithms
ZHANG Lin,CHEN Yan,LI Tao-ying,MU Xiang-wei.Research on Decision Tree Classification Algorithms[J].Computer Engineering,2011,37(13):66-67,70.
Authors:ZHANG Lin  CHEN Yan  LI Tao-ying  MU Xiang-wei
Affiliation:(College of Transportation Management,Dalian Maritime University,Dalian 116026,China)
Abstract:ID3 algorithm tends to choose the attributes of more values as the splitting attributes.Aiming at the problem,this paper introduces two parameters including attribute importance and number of attribute values to improve the existed formula of information gain of ID3 algorithm.This contributes to enhancing the importance of the critical attributes with fewer values and making the algorithm better reflect the actual decision-making situation.According to the properties of the convex function,it simplifies the calculating formula of information entropy to improve the efficiency of constructing a decision tree.A concrete example is given to describe the specific application of improved algorithm,and the result shows that it is more efficient than the original algorithm
Keywords:ID3 algorithm  information gain  attribute importance  number of attribute values  information entropy
本文献已被 CNKI 维普 万方数据 等数据库收录!
点击此处可从《计算机工程》浏览原始摘要信息
点击此处可从《计算机工程》下载全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号