首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 175 毫秒
1.
对稀疏表示在人脸识别中的应用进行了研究,提出了人脸识别的非负稀疏表示方法和采样方法.提出了非负稀疏表示的乘性迭代算法,分析了该方法与非负矩阵分解的联系,设计了基于非负稀疏表示的分类算法.在仿射传播算法的基础上,提出了人脸数据集的采样方法,并在人脸图像集上进行了实验.与稀疏表示相比,非负稀疏表示在计算复杂度和鲁棒性上具有优越性;与随机采样方法相比,该采样方法具有较高的识别精度.  相似文献   

2.
目的 传统的稀疏表示分类方法运用高维数据提升算法的稀疏分类能力,早已引起了广泛关注,但其忽视了测试样本与训练样本间的信息冗余,导致了不确定性的决策分类问题。为此,本文提出一种基于卷积神经网络和PCA约束优化模型的稀疏表示分类方法(EPCNN-SRC)。方法 首先通过深度卷积神经网络计算,在输出层提取对应的特征图像,用以表征原始样本的鲁棒人脸特征。然后在此特征基础上,构建一个PCA(principal component analysis)约束优化模型来线性表示测试样本,计算对应的PCA系数。最后使用稀疏表示分类算法重构测试样本与每类训练样本的PCA系数来完成分类。结果 本文设计的分类模型与一些典型的稀疏分类方法相比,取得了更好的分类性能,在AR、FERET、FRGC和LFW人脸数据库上的实验结果显示,当每类仅有一个训练样本时,EPCNN-SRC算法的识别率分别达到96.92%、96.15%、86.94%和42.44%,均高于传统的表示分类方法,充分验证了本文算法的有效性。同时,本文方法不仅提升了对测试样本稀疏表示的鲁棒性,而且在保证识别率的基础上,有效降低了算法的时间复杂度,在FERET数据库上的运行时间为4.92 s,均低于一些传统方法的运行时间。结论 基于卷积神经网络和PCA约束优化模型的稀疏表示分类方法,将深度学习特征与PCA方法相结合,不仅具有较好的识别准确度,而且对稀疏分类也具有很好的鲁棒性,尤其在小样本问题上优势显著。  相似文献   

3.
针对微博的短文本、口语化和大数据等特性,提出基于词向量的微博话题发现方法。爬取实验数据结合中文语料库训练得到词的向量表示,再通过定义的文本词向量模型得到文本的词向量表示,相较于传统的向量空间表示模型,词向量表示模型能够解决微博短文本特征稀疏、高维度问题,同时,能够解决文本语义信息丢失问题;采用改进的Canopy算法对文本进行模糊聚类;对相同Canopy内的数据用K-means算法做精确聚类。实验结果表明,该方法与经典Single-Pass聚类算法相比,话题发现综合指标提高4%,证明了所提方法的有效性和准确性。  相似文献   

4.
针对现有中文短文本分类算法通常存在特征稀疏、用词不规范和数据海量等问题,提出一种基于Transformer的双向编码器表示(BERT)的中文短文本分类算法,使用BERT预训练语言模型对短文本进行句子层面的特征向量表示,并将获得的特征向量输入Softmax回归模型进行训练与分类。实验结果表明,随着搜狐新闻文本数据量的增加,该算法在测试集上的整体F1值最高达到93%,相比基于TextCNN模型的短文本分类算法提升6个百分点,说明其能有效表示句子层面的语义信息,具有更好的中文短文本分类效果。  相似文献   

5.
针对卫星图像的特点及当前卫星图像在传输和存储上面临的问题,提出了一种基于稀疏表示的卫星图像二级无损压缩算法。通过传输稀疏表示后的稀疏系数来代替图像本身的传输,完成对卫星图像的第一级压缩;对非零稀疏系数先作预处理后实现聚类,然后依据聚类索引对原始非零稀疏系数的位置排序;最后对处理后的非零稀疏系数和位置数据分块,并利用改进的自适应哈夫曼算法对非零稀疏系数的数据块编码,利用差分编码和改进的自适应哈夫曼算法对位置数据块编码,完成对图像数据的第二级压缩。实验结果表明,与传统算法相比,所提算法具有明显优势,改进算法的压缩率是传统算法的1/3~1/2,且可同时实现卫星图像的高倍无损压缩与高分辨率重建。  相似文献   

6.
局部坐标稀疏表示可以使测试样本由其近邻样本线性近似表示,借鉴此思想,在稀疏表示模型中引入局部距离加权并添加非负约束,求解得到测试样本在训练集上的表示系数,根据表示系数的大小剔除训练集中的噪声点,在新的训练集上进行最小二乘子空间分类。在6个基因表达数据集上的实验结果表明,所提算法可以进一步改善分类质量。  相似文献   

7.
针对基于稀疏表示分类方法的训练样本于与类别标签信息提取不足,特别是在训练样本和待测样本都受到噪声污染的情况下将会明显下降及算法复杂度较高的问题,提出以Gabor特征以及加权协同为基础的人脸识别算法;最初需要对人脸图像内所包含的各个尺度以及方向的Gabor特征完成提取,在稀疏表示中引入Gabor特征,将降维后的Gabor特征矩阵作为超完备字典,再用稀疏表示增强加权协同表示得到该字典下的的稀疏表示系数,然后利用增强系数与训练样本的标签矩阵完成对测试样本进行分类识别,从而得到Gabor特征以及加权的协同表示分类方法,在Yale人脸数据库、Extended Yale B和AR人脸数据库上以及在FERET人脸数据库对人脸姿态变化的实验表明新算法具有更好的识别率和较短的计算时间.  相似文献   

8.
改进的加权稀疏表示人脸识别算法   总被引:1,自引:0,他引:1  
针对传统的加权稀疏表示分类方法在获取训练样本权重以及求解l1范数最小化问题中计算效率低的问题,提出了一种加权稀疏表示和对偶增广拉格朗日乘子法(DALM)相结合的人脸识别算法WSRC_DALM算法.该算法主要采用高斯核函数计算每个训练样本与测试样本之间的相关性,即获得训练样本相对于测试样本的权重;接着利用DALM算法求解l1范数最小化模型,实现测试样本的精准重构和分类,最后在ORL和FEI人脸数据集上进行算法验证.在ORL数据集中,WSRC_DALM算法的识别率高达99%,相比经典的SRC和WSRC算法,识别率分别提高了7%和4.8%,同时计算效率比WSRC算法提高了约20倍;在FEI数据集中,多姿态变化下的人脸识别率接近于92%.实验结果表明,WSRC_DALM算法在识别准确度和计算效率上具有明显的优势,并且对较大类内变化具有较好的鲁棒性.  相似文献   

9.
特征加权组稀疏判别投影分析算法   总被引:2,自引:0,他引:2  
近来, 稀疏表示分类算法已经在模式识别和特征提取领域获得了广泛的关注. 受最近提出的稀疏表示判别投影算法启发, 本文提出了一种新的特征加权组稀疏判别投影算法(Feature weighted group sparse classification steered discriminative projection, FWGSDP). 首先, 提出特征加权组稀疏分类算法(Feature weighted group sparsebased classification, FWGSC)进行稀疏系数编码, 该算法采用带特征加权约束的保局性信息, 能够鲁棒地重构给定的输入数据; 其次, 通过类内重构散度最小、类间重构散度最大为目标计算最优投影判别矩阵, 使得输入数据具有最佳的模式分类效果; 最后, 提出迭代重约束稀疏编码方法并结合特征分解操作进行FWGSDP模型高效求解. 在ExYaleB, PIE和AR三个人脸数据库的实验验证了所提算法在普通数据和带噪数据中的分类效果都优于现存的算法.  相似文献   

10.
目的 稀疏编码是图像特征表示的有效方法,但不足之处是编码不稳定,即相似的特征可能会被编码成不同的码字。且在现有的图像分类方法中,图像特征表示和图像分类是相互独立的过程,提取的图像特征并没有有效保留图像特征之间的语义联系。针对这两个问题,提出非负局部Laplacian稀疏编码和上下文信息的图像分类算法。方法 图像特征表示包含两个阶段,第一阶段利用非负局部的Laplacian稀疏编码方法对局部特征进行编码,并通过最大值融合得到原始的图像表示,从而有效改善编码的不稳定性;第二阶段在所有图像特征表示中随机选择部分图像生成基于上下文信息的联合空间,并通过分类器将图像映射到这些空间中,将映射后的特征表示作为最终的图像表示,使得图像特征之间的上下文信息更多地被保留。结果 在4个公共的图像数据集Corel-10、Scene-15、Caltech-101以及Caltech-256上进行仿真实验,并和目前与稀疏编码相关的算法进行实验对比,分类准确率提高了约3%~18%。结论 本文提出的非负局部Laplacian稀疏编码和上下文信息的图像分类算法,改善了编码的不稳定性并保留了特征之间的相互依赖性。实验结果表明,该算法与现有算法相比的分类效果更好。另外,该方法也适用于图像分割、标注以及检索等计算机视觉领域的应用。  相似文献   

11.
文本分类为一个文档自动分配一组预定义的类别或主题。文本分类中,文档的表示对学习机的学习性能有很大的影响。以实现哈萨克语文本分类为目的,根据哈萨克语语法规则设计实现哈萨克语文本的词干提取,完成哈萨克语文本的预处理。提出基于最近支持向量机的样本距离公式,避免k参数的选定,以SVM与KNN分类算法的特殊组合算法(SV-NN)实现了哈萨克语文本的分类。结合自己构建的哈萨克语文本语料库的语料进行文本分类仿真实验,数值实验展示了提出算法的有效性并证实了理论结果。  相似文献   

12.
文本特征表示是在文本自动分类中最重要的一个环节。在基于向量空间模型(VSM)的文本表示中特征单元粒度的选择直接影响到文本分类的效果。对于基于词袋模型(BOW)的维吾尔文文本分类效果不理想的问题,提出了一种基于统计方法的维吾尔语短语抽取算法并将抽取到的短语作为文本特征项,采用支持向量机(SVM)算法对维吾尔文文本进行了分类实验。实验结果表明,与以词为特征的文本分类相比,短语作为文本特征能够提高维吾尔文文本分类的准确率和召回率。  相似文献   

13.
基于聚类算法的KNN文本分类算法研究   总被引:4,自引:1,他引:4       下载免费PDF全文
KNN算法是一种在人工智能领域如专家系统、数据挖掘、模式识别等方面广泛应用的算法。该算法简单有效,易于实现。但是KNN算法在决定测试样本的类别时,是把所求的该测试样本的K个最近邻是等同看待的,即不考虑这K个最近邻能表达所属类别的程度。由于训练样本的分布是不均匀的,每个样本对分类的贡献也就不一样,因此有必要有区别的对待训练样本集合中的每个样本。利用聚类算法,求出训练样本集合中每个训练样本的隶属度,利用隶属度来区别对待测试样本的K个最近邻。通过实验证明,改进后的KNN算法较好的精确性。  相似文献   

14.
基于改进KNN算法的中文文本分类方法   总被引:1,自引:0,他引:1  
介绍了中心向量算法和KNN算法两种分类方法。针对KNN分类方法在计算文本相似度时存在的不足,提出了改进方案。新方案引入了中心向量分类法的思想。通过实验,对改进的KNN算法、中心向量算法和传统的KNN算法应用于文本分类效果进行了比较。实验结果表明,改进的KNN算法较中心向量法和传统的KNN算法在处理中文文本分类问题上有较好的分类效果,验证了对KNN算法改进的有效性和可行性。  相似文献   

15.
刘文  吴陈 《微机发展》2012,(5):83-86
中文文本分类在数据库及搜索引擎中得到广泛的应用,K-近邻(KNN)算法是常用于中文文本分类中的分类方法,但K-近邻在分类过程中需要存储所有的训练样本,并且直到待测样本需要分类时才建立分类,而且还存在类倾斜现象以及存储和计算的开销大等缺陷。单类SVM对只有一类的分类问题具有很好的效果,但不适用于多类分类问题,因此针对KNN存在的缺陷及单类SVM的特点提出OneClassSVM—KNN算法,并给出了算法的定义及详细分析。通过实验证明此方法很好地克服了KNN算法的缺陷,并且查全率、查准率明显优于K-近邻算法。  相似文献   

16.
雷军程  黄同成  柳小文 《计算机科学》2012,39(7):250-252,275
在分析比较几种常用的特征选择方法的基础上,提出了一种引入文本类区分加权频率的特征选择方法TFIDF_Ci。它将具体类的文档出现频率引入TFIDF函数,提高了特征项所在文档所属类区分其他类的能力。实验中采用KNN分类算法对该方法和其他特征选择方法进行了比较测试。结果表明,TFIDF_Ci方法较其他方法在不同的训练集规模情况下具有更高的分类精度和稳定性。  相似文献   

17.
文本分类是信息检索与数据挖掘领域的研究热点与核心技术,近年来得到了广泛的关注和快速的发展。概念格是规则提取和数据分析的有效工具,然而概念格的构造效率始终是概念格应用的一大难题。本文研究了基于扩展概念格模型的文本分类规则提取,利用粗糙集和扩展概念格模型来进行分类规则提取。该方法利用概念树,极大地除去了冗余的概念,只需要建造很少的概念就能够提取出全部的分类规则,不仅效率较高,而且同时提取的分类规则与概念格相同。本文算法在MATLAB7.0的环境中运行的实验表明,查全率比KNN算法和SVM算法稍低,但是查准率比它们都高,因此该分类规则用于文本分类时效果与KNN和SVM相当。  相似文献   

18.
《Applied Soft Computing》2007,7(3):908-914
This paper presents a least square support vector machine (LS-SVM) that performs text classification of noisy document titles according to different predetermined categories. The system's potential is demonstrated with a corpus of 91,229 words from University of Denver's Penrose Library catalogue. The classification accuracy of the proposed LS-SVM based system is found to be over 99.9%. The final classifier is an LS-SVM array with Gaussian radial basis function (GRBF) kernel, which uses the coefficients generated by the latent semantic indexing algorithm for classification of the text titles. These coefficients are also used to generate the confidence factors for the inference engine that present the final decision of the entire classifier. The system is also compared with a K-nearest neighbor (KNN) and Naïve Bayes (NB) classifier and the comparison clearly claims that the proposed LS-SVM based architecture outperforms the KNN and NB based system. The comparison between the conventional linear SVM based classifiers and neural network based classifying agents shows that the LS-SVM with LSI based classifying agents improves text categorization performance significantly and holds a lot of potential for developing robust learning based agents for text classification.  相似文献   

19.
本文介绍了基于KNN算法的文本分类流程及相关技术,针对KNN文本分类算法过分依赖K值和文本集分布情况的不足之处,提出了一种改进的KNN文本分类算法一类内均值KNN算法。通过实验表明,相对于传统的KNN算法,该算法提高了文本分类系统的稳定性和分类性能,具有一定的应用价值。  相似文献   

20.
为解决多标记数据的分类问题,提出基于稀疏表示的多标记学习算法。首先将待分类样本表示为训练样本集上的稀疏线性组合,基于l1-最小化方法求得最稀疏的系数解。然后利用稀疏系数的判别信息提出一个计算待分类样本对各标记的隶属度的方法。最后根据隶属度对标记进行排序,进而完成分类。在Yeast基因功能分析、自然场景分类和web页面分类上的实验表明,该算法能够有效解决多标记数据的分类问题,与其它方法相比取得更好的结果。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号