排序方式: 共有5条查询结果,搜索用时 0 毫秒
1
1.
在分析了传统特征选择方法构造的4项基本信息元素的基础上提出一种强类别信息的度量标准,并在此基础上,提出一种适用于不平衡文本的特征选择方法。该方法综合考虑了类别信息因子、词频因子,分别用于提高少数类和多数类类别分类精度。该方法在reuter-21578数据集上进行了实验,实验结果表明,该特征选择方法比IG、CHI方法都更好,不但微平均指标有一定程度的提高,而且宏平均指标也有一定程度的提高。 相似文献
2.
廖一星 《计算机工程与应用》2009,45(33):117-119
Sprinkling方法是一种集成了训练样本类别信息的监督潜在语义模型。但是该方法特征权重采用词频,降低了文本分类效果,同时该模型并没有考虑不同样本对分类的贡献能力,而是认为样本对分类的贡献相同,另外,该模型采用多个特征映射一个类别来加强类别知识对分类的贡献。为此,文章在Sprinkling方法的基础上提出了一种新的监督潜在语义模型。实验结果表明,该文方法的总体性能优于原始的Sprinkling方法,在特征数为1 100时,获得了最高分类精度,提高幅度达到1.71%。 相似文献
3.
4.
5.
廖一星 《计算机应用与软件》2009,26(9):234-236,239
为了提高文本分类精度,根据训练集的样本密度的不同,提出了一种基于k最近邻密度估计的样本加权算法,从而使得样本密度较大的样本权重得到加强,处于样本密度平均水平的样本权重保持不变,而样本密度较小的样本权重得到减弱.并将这种方法所构成的神经网络分类器用于文本分类.实验结果表明,这种方法可以在一定程度上提高文本分类精度,优于原始的未加权的分类方法. 相似文献
1