共查询到17条相似文献,搜索用时 125 毫秒
1.
2.
为了高效地解决Web文档分类问题,提出了一种基于核鉴别分析方法KDA和SVM的文档分类算法。该算法首先利用KDA对训练集中的高维Web文档空间进行降维,然后在降维后的低维特征空间中利用乘性更新规则优化的SVM进行分类预测。采用了文档分类领域两个著名的数据集Reuters-21578和20-Newsgroup进行实验,实验结果表明该算法不仅获得了更高的分类准确率,而且具有较少的运行时间。 相似文献
3.
4.
5.
针对高维大样本空间中支持向量机( SVM)存在计算复杂度高、分类精度低等问题,在随机子空间方法与主成分分析方法的基础上,提出一种特征加权支持向量机的高维隐写盲检测方法。通过随机子空间对原始高维样本的特征空间进行随机采样,产生多个低维的特征子集,在特征子集中采用主成分分析法进行特征提取,并利用卡方统计计算特征权重,运用特征加权核函数训练各基SVM分类器,并用多数投票法融合各基分类器结果得到最终分类结果。对HUGO隐写算法的实验结果表明,该方法能有效降低SVM计算复杂度,与传统方法相比,具有较高的隐写检测率和更快的分类速度。 相似文献
6.
云制造资源的有效分类是资源服务化封装及后续制造资源服务检索的前提条件,针对高维度特征、多类别加工设备资源的分类问题。依据描述云制造加工设备资源属性特征的XML文档,提取资源属性特征并进行向量化处理。基于SVM算法建立制造资源自动分类预测算法模型,引入SMO算法提升SVM分类算法的分类效率,并利用网格搜索寻求SVM算法的最优参数从而优化SVM算法效果。最后基于某设备资源集的原始设备信息对不同加工设备进行分类实验,验证了该分类模型的有效性以及可行性。 相似文献
7.
提出了一种应用遗传算法优化子空间的SVM分类算法GS-SVM。该算法首先改进样本选择策略,采用基于置信度和凸包的样本选择方法,考虑类间距离和样本分布等因素,选择典型代表样本作为SVM的新训练集;然后采用矩阵式混合编码方式,利用遗传算法一并优化代表样本的特征子空间和SVM分类参数,并根据特征优化后的代表样本,构建SVM分类模型。在UCI的11个数据集上进行的仿真实验结果表明,该算法在大部分数据集上均可获得较小的样本规模和特征维数,以及较高的分类精度。 相似文献
8.
利用CHI值特征选取和前向神经网络的覆盖算法,通过对文本进行分词的预处理后,实现文本的自动分类。该方法利用CHI值进行特征选取即特征降维,应用覆盖算法进行文本分类。该方法将CHI值特征选取和覆盖算法充分结合,在提高了分类速度的同时还保证了分类的准确度。应用该方法对标准数据集中的文本进行实验,并在不同的维数上与SVM算法、朴素贝叶斯方法的实验结果进行了比较。结果表明,与SVM算法和朴素贝叶斯方法相比较,覆盖算法在准确度上更好。并且,维数的选择对分类的精确度影响很大。 相似文献
9.
为解决图像隐密检测中图像特征维数过高导致的"维数灾难"问题,在保持图像特征内在低维结构的基础上降低特征向量的维数,方便构造更有效的分类器,提出了一种基于保局投影(locality preserving projections,LPP)降维的图像隐密检测算法,对待测图像进行小波变换形成图像特征后,利用LPP算法实现对图像高维特征的降维,得到图像特征集的低维流形.使用支持向量机(SVM)算法将降维后的特征映射到分类特征空间,实现对正常图像和隐密图像分类.实验结果表明,与不使用降维算法的检测方案相比,基于LPP降维的检测算法能够显著地提高检测的准确率. 相似文献
10.
11.
12.
基于潜在语义标引的WEB文档自动分类 总被引:7,自引:1,他引:6
Web挖掘技术在商业上有广泛的应用前景,但现有的Web挖掘技术存在计算量大,精度不高等问题。论文提出的LSIWAC算法,首先运用潜在语义标引技术将Web页面词空间压缩到低维的特征空间;然后,在得到的特征空间上运用最优聚类将样本集合分为若干簇;对得到的每簇鉴别特征再利用最佳鉴别变换进行压缩和特征抽取,并用最终得到的特征矢量进行分类。该方法克服了样本高维效应,有效提高分类准确率,降低计算量。实验结果验证所提方法的有效性。 相似文献
13.
14.
15.
Recently, local discriminant embedding (LDE) was proposed as a means of addressing manifold learning and pattern classification.
In the LDE framework, the neighbor and class of data points are used to construct the graph embedding for classification problems.
From a high dimensional to a low dimensional subspace, data points of the same class maintain their intrinsic neighbor relations,
whereas neighboring data points of different classes no longer stick to one another. But, neighboring data points of different
classes are not deemphasized efficiently by LDE and it may degrade the performance of classification. In this paper, we investigate
its extension, called class mean embedding (CME), using class mean of data points to enhance its discriminant power in their
mapping into a low dimensional space. After joined class mean data points, (1) CME may cause each class of data points to
be more compact in the high dimension space; (2) CME may increase the quantity of data points, and solves the small sample
size (SSS) problem; (3) CME may preserve well the local geometry of the data manifolds in the embedding space. Experimental
results on ORL, Yale, AR, and FERET face databases show the effectiveness of the proposed method. 相似文献
16.
Kernel sparse representation based classification 总被引:5,自引:0,他引:5
Jun YinAuthor Vitae Zhonghua LiuAuthor VitaeZhong JinAuthor Vitae Wankou YangAuthor Vitae 《Neurocomputing》2012,77(1):120-128
Sparse representation has attracted great attention in the past few years. Sparse representation based classification (SRC) algorithm was developed and successfully used for classification. In this paper, a kernel sparse representation based classification (KSRC) algorithm is proposed. Samples are mapped into a high dimensional feature space first and then SRC is performed in this new feature space by utilizing kernel trick. Since samples in the high dimensional feature space are unknown, we cannot perform KSRC directly. In order to overcome this difficulty, we give the method to solve the problem of sparse representation in the high dimensional feature space. If an appropriate kernel is selected, in the high dimensional feature space, a test sample is probably represented as the linear combination of training samples of the same class more accurately. Therefore, KSRC has more powerful classification ability than SRC. Experiments of face recognition, palmprint recognition and finger-knuckle-print recognition demonstrate the effectiveness of KSRC. 相似文献