首页 | 本学科首页   官方微博 | 高级检索  
     

基于互信息最大化的特征选择算法及应用
引用本文:唐亮,段建国,许洪波,梁玲.基于互信息最大化的特征选择算法及应用[J].计算机工程与应用,2008,44(13):130-133.
作者姓名:唐亮  段建国  许洪波  梁玲
作者单位:1. 解放军信息工程大学,信息工程学院,郑州,450002
2. 中国科学院,计算技术研究所,网络科学技术部,北京,100080
基金项目:国家重点基础研究发展计划(973计划)
摘    要:该文以互信息最大化原则为指导,经过推导和分析后提出了一种基于信息论模型的新的特征选择算法,称之为基于互信息最大化的特征选择算法(MaxMI)。基本思想就是特征选择后,应当尽可能多地保留关于类别的信息。该算法与传统的信息增益、互信息和交叉熵在表达形式上具有一定的相似性,但是并不完全相同。从实验上验证了基于互信息最大化的特征选择算法优于其它三种算法。

关 键 词:文本分类  特征选择  交叉熵  信息增益  互信息最大化
文章编号:1002-8331(2008)13-0130-04
收稿时间:2007-10-25
修稿时间:2007年10月25

Mutual information maximization based feature selection algorithm in text classification
TANG Liang,DUAN Jian-guo,XU Hong-bo,LIANG Ling.Mutual information maximization based feature selection algorithm in text classification[J].Computer Engineering and Applications,2008,44(13):130-133.
Authors:TANG Liang  DUAN Jian-guo  XU Hong-bo  LIANG Ling
Affiliation:1.Information Engineering College,PLA Information Engineering University,Zhengzhou 450002,China 2.Ministry of Science and Technology Network,Institute of Computing Technology,CAS,Beijing 100080,China
Abstract:With the guide of mutual information maximization principles,this paper proposes a new feature selection algorithm which is based on the information theory models,namely,mutual information maximization based feature selection algorithm(MaxMI).The basic idea is after the feature selection,the information of the categories should be retained as much as possible.This algorithm is a little similar with the traditional information gain,mutual information and cross entropy in the expression format,but is not the same essentially.From the experiments,We can see that our algorithm is superior to the other three algorithms.
Keywords:text classification  feature selection  cross-entropy  information gain  mutual information maximization
本文献已被 CNKI 万方数据 等数据库收录!
点击此处可从《计算机工程与应用》浏览原始摘要信息
点击此处可从《计算机工程与应用》下载全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号