首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 155 毫秒
1.
针对乳腺病理图像分类,提出一种非相干字典学习及其稀疏表示算法.首先针对不同类别的图像,基于在线字典学习算法分别学习各类特定的子字典;其次利用紧框架建立一种非相干字典学习模型,通过交替投影优化字典的相干性、秩与紧框架性,从而有效地约束字典的格拉姆矩阵与参考格拉姆矩阵的距离,获得判别性更强的非相干字典;最后采用子空间旋转方法优化非相干字典的稀疏表示性能.利用乳腺癌数据集BreaKHis进行实验的结果证明,该算法所学习的非相干字典能平衡字典的判别性与稀疏表示性能,在良性肿瘤与恶性肿瘤图像分类上获得了86.0%的分类精度;在良性肿瘤图像中的腺病与纤维腺瘤的分类上获得92.5%的分类精度.  相似文献   

2.
《计算机科学与探索》2016,(7):1035-1043
为提高目标跟踪算法在复杂条件下的鲁棒性和准确性,研究了一种基于贝叶斯分类的结构稀疏表示目标跟踪算法。首先通过首帧图像获得含有目标与背景模板的稀疏字典和正负样本;然后采用结构稀疏表示的思想对样本进行线性重构,获得其稀疏系数;进而设计一款贝叶斯分类器,分类器通过正负样本的稀疏系数进行训练,并对每个候选目标进行分类,获得其相似度信息;最后采用稀疏表示与增量学习结合的方法对稀疏字典进行更新。将该算法与其他4种先进算法在6组测试视频中进行比较,实验证明了该算法具有更好的性能。  相似文献   

3.
陈思宝  赵令  罗斌 《自动化学报》2014,40(10):2295-2305
为了利用核技巧提高分类性能, 在局部保持的稀疏表示 字典学习的基础上, 提出了两种核化的稀疏表示字典学习方法. 首先, 原始训练数据被投影到高维核空间, 进行基于局部保持的核稀疏表示字典学习; 其次, 在稀疏系数上强加核局部保持约束, 进行基于核局部保持的核稀疏表示字典学习. 实验结果表明, 该方法的分类识别结果优于其他方法.  相似文献   

4.
针对基于传统的稀疏表示分类算法的单特征鉴别性较弱这一不足,提出一种基于自适应学习的多特征元素协同表示分类算法SLMCE_CRC。该算法结合多特征子字典的思想,对样本提出特征元素的双重分解,并分别从特征和元素角度分别进行相应的协同表示,自适应地学习出各个特征的稀疏权重和元素的残差权重,并进行线性加权,从而实现目标的分类。实验结果表明,使用该方法能显著提高识别率,尤其对含有较多特征细节的图像数据,具有一定的实用价值。  相似文献   

5.
提出了一种基于多特征字典的稀疏表示算法。该算法针对SRC的单特征鉴别性较弱这一不足,对样本提出多个不同特征并分别进行相应的稀疏表示。并根据SRC算法计算各个特征的鉴别性,自适应地学习出稀疏权重并进行线性加权,从而提高分类的性能。实验表明,基于自适应权重的多重稀疏表示分类算法,具有更好的分类效果。  相似文献   

6.
针对现有基于稀疏表示的目标检测算法采用同心双窗口构建背景字典的过程中,目标像元将会对背景字典产生干扰的问题,提出基于背景字典构造的稀疏表示高光谱目标检测算法.该算法将高光谱图像分解成低秩背景和稀疏目标,引入目标字典作为稀疏目标的先验信息,更好地分离目标和背景,构建纯净背景字典.通过在4个公开高光谱图像数据集上仿真分析,...  相似文献   

7.
姜伟  毕婷婷  李克秋  杨炳儒 《软件学报》2015,26(7):1812-1823
最近的研究表明:在许多计算机视觉任务中,将对称正定矩阵表示为黎曼流形上的点能够获得更好的识别性能.然而,已有大多数算法仅由切空间局部逼近黎曼流形,不能有效地刻画样本分布.受核方法的启发,提出了一种新的黎曼核局部线性编码方法,并成功地应用于视觉分类问题.首先,借助于最近所提出的黎曼核,把对称正定矩阵映射到再生核希尔伯特空间中,通过局部线性编码理论建立稀疏编码和黎曼字典学习数学模型;其次,结合凸优化方法,给出了黎曼核局部线性编码的字典学习算法;最后,构造一个迭代更新算法优化目标函数,并且利用最近邻分类器完成测试样本的鉴别.在3个视觉分类数据集上的实验结果表明,该算法在分类精度上获得了相当大的提升.  相似文献   

8.
针对过完备字典直接对图像进行稀疏表示不能很好地剔除高频噪声的影响,压缩感知后图像重构质量不高的问题,提出了基于截断核范数低秩分解的自适应字典学习算法。该算法首先利用截断核范数正则化低秩分解模型对图像矩阵低秩分解得到低秩部分和稀疏部分,其中低秩部分保留了图像的主要信息,稀疏部分主要包含高频噪声及部分物体轮廓信息;然后对图像低秩部分进行分块,依据图像块纹理复杂度对图像块进行分类;最后使用K奇异值分解(K-single value decomposition, K-SVD)字典学习算法,针对不同类别训练出多个不同大小的过完备字典。仿真结果表明,本文所提算法能够对图像进行较好的稀疏表示,并在很好地保持图像块特征一致性的同时显著提升图像重构质量。  相似文献   

9.
限速标志识别是模式识别领域中一个重要的研究课题。目前,利用稀疏表示识别图像是一个流行的方法。为了提高限速标志图像的识别率,通过对在线字典学习(ODL)算法的研究,将在线字典学习算法和稀疏表示的识别方法相结合,提出了一种基于在线字典学习的分类稀疏表示限速标志图像识别算法。将该方法与直接求解稀疏表示的方法和分类求解稀疏表示的方法作对比,实验结果表明:该方法能够取得很好的识别效果,证明了该方法的有效性和可行性。  相似文献   

10.
张蕾  朱义鑫  徐春  于凯 《计算机应用》2016,36(9):2486-2491
针对目前存在的字典学习方法不能有效构造具有鉴别能力字典的问题,提出具有鉴别表示能力的字典学习算法,并将其应用于软件缺陷检测。首先,重新构建稀疏表示模型,通过在目标函数中设计字典鉴别项学习具有鉴别表示能力的字典,使某一类的字典对于本类的样本具有较强的表示能力,对于异类样本的表示效果则很差;其次,添加Fisher准则系数鉴别项,使得不同类的表示系数具有较好的鉴别能力;最后对设计的字典学习模型进行优化求解,以获得具有强鉴别和稀疏表示能力的结构化字典。选择经过预处理的NASA软件缺陷数据集作为实验数据,与主成分分析(PCA)、逻辑回归、决策树、支持向量机(SVM)和代表性的字典学习方法进行对比,结果表明所提出的具有鉴别表示能力的字典学习算法的准确率与F-measure值均有提高,能在改善分类器性能的基础上提高检测精度。  相似文献   

11.
针对人脸识别中由于姿态、光照及噪声等影响造成的识别率不高的问题,提出一种基于多任务联合判别稀疏表示的人脸识别方法。首先提取人脸的局部二值特征,并基于多个特征建立一个联合分类误差与表示误差的过完备字典学习目标函数。然后,使用一种多任务联合判别字典学习方法,将多任务联合判别字典与最优线性分类器参数联合学习,得到具有良好表征和鉴别能力的字典及相应的分类器,进而提高人脸识别效果。实验结果表明,所提方法相比其他稀疏人脸识别方法具有更好的识别性能。  相似文献   

12.
面向运动想象的脑机接口(brain computer interface,BCI)能够利用自主想象的特定动作触发脑电信号直接实时控制外部电子设备。运动想象脑电信号(motor imagery electroencephalogram,MI-EEG)存在信噪比低、类内差异大、类间差异小等特点,导致MI-EEG的识别率较低且不稳定。针对这一问题,提出了多层判别字典对学习(multilayer discriminant dictionary pair learning,MDDPL)方法。与基于字典学习的MI-EEG识别方法不同,MDDPL将字典对学习融入多层学习模型,通过一系列非线性方法将数据投影到更具判别力的子空间。在综合字典和分析字典的共同作用下,前一层的编码向量作为当前层的输入,同时在每一层模型上构建基于分析字典的多分类项,以保证稀疏编码的分类误差最小化,增强模型的类别区分能力。另外,对最后一层的稀疏编码施加低秩约束,以保证同类编码的紧凑性和相似性。在目标式求解中,使用交替更新策略得到每个参数的解析解,使得参数同时得到最优解。在国际BCI竞赛数据集上的实验结果表明,MDDPL方法在所有对比算法中取得了最佳的分类性能。  相似文献   

13.
为了提高信道变化下说话人确认系统的识别率和鲁棒性,提出一种基于i-向量和加权线性判别分析的稀疏表示分类算法。首先借助于加权线性判别分析的信道补偿和降维性能,消除i-向量中信道干扰信息并降低i-向量的维数;紧接着在i-向量集上构建训练语音样本过完备字典矩阵,采用MAP算法求解测试语音在字典矩阵上的稀疏系数向量,最后利用稀疏系数向量重构测试语音样本,根据重构误差确定目标说话人。仿真实验结果验证了该算法的有效性和可行性。  相似文献   

14.
现有基于学习的人脸超分辨率算法假设高低分辨率特征具有流形一致性(耦合字典学习),然而低分辨率图像的降质过程使得高低分辨率特征产生了“一对多”的映射关系偏差,减少了极低分辨率图像特征的判决信息,降低了超分辨率重建图像的识别率。针对这一问题,引入了半耦合稀疏字典学习模型,松弛高低分辨率流形一致性假设,同时学习稀疏表达字典和稀疏表达系数之间的映射函数,提升高低分辨率判决特征的一致性,在此基础上,引入协同分类模型,实现半耦合特征的高效分类。实验表明:相比于传统稀疏表达分类算法,算法不仅提高了识别率,并且还大幅度降低了时间开销,验证了半耦合稀疏学习字典在人脸识别中的有效性。  相似文献   

15.
A novel sparse kernel density estimation method is proposed based on the sparse Bayesian learning with random iterative dictionary preprocessing. Using empirical cumulative distribution function as the response vectors, the sparse weights of density estimation are estimated by sparse Bayesian learning. The proposed iterative dictionary learning algorithm is used to reduce the number of kernel computations, which is an essential step of the sparse Bayesian learning. With the sparse kernel density estimation, the quadratic Renyi entropy based normalized mutual information feature selection method is proposed. The simulation of three examples demonstrates that the proposed method is comparable to the typical Parzen kernel density estimations. And compared with other state-of-art sparse kernel density estimations, our method also has a shown very good performance as to the number of kernels required in density estimation. For the last example, the Friedman data and Housing data are used to show the property of the proposed feature variables selection method.  相似文献   

16.
受Metafaces方法的启发,提出一种基于字典学习方法的核稀疏表示方法并成功应用于人脸识别。首先,采用核技术将稀疏表示方法推广到高维空间得到核稀疏表示方法。其次,借鉴Metaface字典学习方法,进行字典学习得到一组核基向量构成核稀疏表示字典。最后,利用学习得到的核字典基重构样本,并根据样本与重构样本之间的残差最小原则对人脸图像进行分类。在AR、ORL和Yale人脸数据库上的实验表明该方法的良好识别性能。  相似文献   

17.
Video semantic analysis (VSA) has received significant attention in the area of Machine Learning for some time now, particularly video surveillance applications with sparse representation and dictionary learning. Studies have shown that the duo has significantly impacted on the classification performance of video detection analysis. In VSA, the locality structure of video semantic data containing more discriminative information is very essential for classification. However, there has been modest feat by the current SR-based approaches to fully utilize the discriminative information for high performance. Furthermore, similar coding outcomes are missing from current video features with the same video category. To handle these issues, we first propose an improved deep learning algorithm—locality deep convolutional neural network algorithm (LDCNN) to better extract salient features and obtain local information from semantic video. Second, we propose a novel DL method, called deep locality-sensitive discriminative dictionary learning (DLSDDL) for VSA. In the proposed DLSDDL, a discriminant loss function for the video category based on sparse coding of sparse coefficients is introduced into the structure of the locality-sensitive dictionary learning (LSDL) method. After solving the optimized dictionary, the sparse coefficients for the testing video feature samples are obtained, and then the classification result for video semantic is realized by reducing the error existing between the original and recreated samples. The experiment results show that the proposed DLSDDL technique considerably increases the efficiency of video semantic detection as against competing methods used in our experiment.  相似文献   

18.
Hua  Juliang  Wang  Huan  Ren  Mingu  Huang  Heyan 《Neural computing & applications》2016,28(1):225-231

Recently, sparse representation (SR) theory gets much success in the fields of pattern recognition and machine learning. Many researchers use SR to design classification methods and dictionary learning via reconstruction residual. It was shown that collaborative representation (CR) is the key part in sparse representation-based classification (SRC) and collaborative representation-based classification (CRC). Both SRC and CRC are good classification methods. Here, we give a collaborative representation analysis (CRA) method for feature extraction. Not like SRC-/CRC-based methods (e.g., SPP and CRP), CRA could directly extract the features like PCA and LDA. Further, a Kernel CRA (KCRA) is developed via kernel tricks. The experimental results on FERET and AR face databases show that CRA and KCRA are two effective feature extraction methods and could get good performance.

  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号