共查询到20条相似文献,搜索用时 156 毫秒
1.
2.
现有的大多数流形学习算法偏重保持流形的几何结构,并未考虑到样本点的标签信息,这在一定程度上限制了流形学习算法在数据分类中的应用.因此文中提出一种基于近邻元分析的半监督流形学习算法,采用近邻元分析学习距离度量矩阵,在距离度量方式下选择样本点的局部邻域点.基于距离度量方式构造样本点和邻域点的局部几何结构,并在样本点的低维嵌入坐标中保持这种局部几何结构不变.3个不同数据集上的分类实验验证了文中算法的有效性. 相似文献
3.
通过学习数据集的低维流形结构,给出一种流形距离测度;结合成对约束信息,调整数据的相似度矩阵,将其作为近邻传播算法的输入,提出了基于流形距离的半监督近邻传播聚类算法(SAP-MD)。通过在UCI标准数据集上的仿真实验表明,SAP-MD算法相比于仅利用成对约束信息的聚类算法,在聚类性能上有很大提高。 相似文献
4.
认知科学表明基于流形学习的人脸图像检索能准确反映人脸图片的内在相似性和人类的视觉感知本质. 提出一种基于相关反馈的人脸高维索引方法--NDL,以提高人脸图像检索的性能.同时在该索引基础上提出一种流形空间下的相似查询--虚拟k近邻查询(Vk-NN), 该查询方法特别为基于NDL的人脸检索而设计.首先通过在一定阈值约束下计算任何两个人脸图片的相似度,建立一个称为邻接距离表(NDL)的二维距离图. 同时将距离值用B+-树建立索引.最后, 高维流形空间的Vk-NN查询转化为一维空间的基于B+树的查询. 实验表明:NDL索引在流形空间的检索效率明显优于顺序检索,特别适合海量人脸图片的检索. 相似文献
5.
6.
7.
基于近邻传播学习的半监督流量分类方法 总被引:1,自引:0,他引:1
准确的流量分类是进行网络管理、安全检测以及应用趋势分析的基础.针对完全监督和无监督分类的缺陷, 提出了一种基于近邻传播学习的半监督流量分类方法.通过引入近邻传播聚类机制构建分类模型, 使得分类器实现过程简单、运行高效. 应用半监督学习的思想, 抽象出少量已标记样本流约束和流形空间先验信息, 定义了流形相似度的距离测度, 既降低了标记流量样本的复杂度, 又提高了流量分类器的性能.理论分析和实验结果表明:算法具有较高的分类准确性和较好的凝聚性. 相似文献
8.
与传统的基于流形的数据分类算法大都假设数据位于同一个流形上不同,假设多类数据分别位于不同的流形上。提出了一种基于多流形的数据分类算法,算法大致分为两步:学习过程和测试过程。学习过程采用线性流形学习方法获得训练数据的低维坐标和映射矩阵,测试阶段则利用嵌入空间中对应测试数据点与其k个邻域点的重构误差值来决定其类别。在人工合成数据和coil-20数据库上的实验都表明了该算法的有效性。 相似文献
9.
基于流形学习理论的近邻保持嵌入算法(Neighborhood Preserving Embedding,NPE)能够发现数据集中隐含的内蕴结构,但当训练样本不足时,无法准确发现数据的内在流形结构,从而影响算法的识别效果.针对这一问题,对NPE算法进行改进,提出了监督协同近邻保持投影算法(Supervised Collaborative Neighborhood Preserving Projection,SCNPP).该算法在类别信息的指导下构建近邻图,使同类样本间的几何关系得到保持,利用协同表示弥补NPE因样本不足造成的表示误差,以一个有效保持样本近邻关系、准确发现数据内在流形结构的权值矩阵计算投影矩阵,提高分类效果.在FERET、AR和Extended Yale B人脸数据集上的实验验证了该算法的有效性. 相似文献
10.
实际图像检索过程中,用户提供的相关反馈有限,但存在大量未标记图像数据.本文在前期半监督流形图像检索工作的基础上,提出一种基于Nystr¨om低阶近似的半监督流形排序图像检索方法.通过采用半监督的流形正则化框架,将图像数据嵌入到低维流形结构中进行分类排序,以充分利用大量未标记数据,并兼顾分类误差、数据分布的几何结构以及分类函数的复杂性.针对半监督学习速度缓慢的问题,基于Nystrm低阶近似对学习过程进行加速.在较大规模的Corel图像数据集上进行了检索实验,实验结果表明该方法能获得较好的效果. 相似文献
11.
12.
为了高效地解决Web文档分类问题,提出了一种基于核鉴别分析方法KDA和SVM的文档分类算法。该算法首先利用KDA对训练集中的高维Web文档空间进行降维,然后在降维后的低维特征空间中利用乘性更新规则优化的SVM进行分类预测。采用了文档分类领域两个著名的数据集Reuters-21578和20-Newsgroup进行实验,实验结果表明该算法不仅获得了更高的分类准确率,而且具有较少的运行时间。 相似文献
13.
为了获得更好的文本分类准确率和更快的执行效率, 研究了多种Web文本的特征提取方法, 通过对互信息(MI)、文档频率(DF)、信息增益(IG)和χ2统计(CHI)算法的研究, 利用其各自的优势互补, 提出一种基于主成分分析(PCA)的多重组合特征提取算法(PCA-CFEA)。通过PCA算法的正交变换快速地将文本特征空间降维, 再通过多重组合特征提取算法在降维后的特征空间中快速提取出更具代表性的特征项, 过滤掉一些代表性较弱的特征项, 最后使用SVM分类器对文本进行分类。实验结果表明, PCA-CFEA能有效地提高文本分类的正确率和执行效率。 相似文献
14.
基于潜在语义标引的WEB文档自动分类 总被引:6,自引:1,他引:6
Web挖掘技术在商业上有广泛的应用前景,但现有的Web挖掘技术存在计算量大,精度不高等问题。论文提出的LSIWAC算法,首先运用潜在语义标引技术将Web页面词空间压缩到低维的特征空间;然后,在得到的特征空间上运用最优聚类将样本集合分为若干簇;对得到的每簇鉴别特征再利用最佳鉴别变换进行压缩和特征抽取,并用最终得到的特征矢量进行分类。该方法克服了样本高维效应,有效提高分类准确率,降低计算量。实验结果验证所提方法的有效性。 相似文献
15.
将SVM和KNN算法结合在一起,组成一种新的Web文本分类算法——SVM-KNN算法。当Web文本和SVM最优超平面的距离大于预选设定的阈值,则采用SVM进行分类,反之采用SVM作为代表点的KNN算法对样本分类。实证结果表明,SVM-KNN分类算法的分类精度比单纯SVM或KNN分类算法有不同程度的提高,为Web数据挖掘提供了一种有效的分类方法。 相似文献
16.
社会标注是一种用户对网络资源的大众分类,蕴含了丰富的语义信息,因此将社会标注应用到信息检索技术中有助于提高信息检索的质量。研究了一种基于社会标注的文本分类改进算法以提高网页分类的效果。由于社会标注属于大众分类,标注的产生具有很大的随意性,标注的质量差别很大,因此首先利用文档间的语义相似度以及标注间的语义相似度来对标注的质量进行量化评估。在此基础上对标注进行质量过滤,利用质量相对较好的标注对文档向量空间模型进行扩展,将文档表示成由文档单词以及文档标注信息组成的扩展向量。同时采用支持向量机分类算法进行分类实验。实验结果表明,通过对标注进行质量评估并过滤质量差的标注,同时结合文档内容以及标注来对文档能提高分类的效果,同传统的基于文档内容的分类算法相比,分类结果的F1度量值提高了6.2%。 相似文献
17.
18.
随着Internet的飞速发展,Web文本分类研究已经得到了人们密切的关注,并取得了大量的研究成果。文中讨论了Web文本分类过程中的几个关键技术;针对传统的Web文本分类方法缺乏认知自主性和不能再学习的特点,提出了一种扩展的Web文本分类模型和算法。通过系列实验表明,该算法具有较高的分类精度和查准率。 相似文献
19.
20.
Deep Web自动分类是建立深网数据集成系统的前提和基础。提出了一种基于领域特征文本的Deep Web分类方法。首先借助本体知识对表达同一语义的不同词汇进行了概念抽象,进而给出了领域相关度的定义,并将其作为特征文本选择的量化标准,避免了人为选取的主观性和不确定性;在接口向量模型构建中,考虑了不同特征文本对于分类作用的差异,提出了一种改进的W-TFIDF权重计算方法;最后采用KNN算法对接口向量进行了分类。对比实验证明,利用所提方法选择的特征文本是准确有效的,新的特征文本权重计算方法能显著地提高分类精度,且在KNN算法中表现出较好的稳定性。 相似文献