首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 218 毫秒
1.
选择性集成学习已经成为分析基因表达数据、获取生物学信息的有力工具.为了更好地挖掘基因表达数据,利用极限学习机的集成,克服单个ELM用于数据分类时性能欠稳定的缺点,文中提出了一种基于输出不一致测度的ELM相异性集成算法(D-D-ELM).算法首先以输出不一致测度为标准对多个ELM模型进行相异性判断,其次根据ELM的平均分类精度剔除掉相应的模型,最后对筛选后的分类模型用多数投票法进行集成.算法被运用到Breast、Leukemia、Colon、Heart基因表达数据上,并通过理论和实验得到验证.实验结果的统计学分析表明D-D-ELM能够以更少的模型数量达到较稳定的分类精度.  相似文献   

2.
为提高极限学习机在失衡数据中的整体分类性能,提出一种基于代价敏感学习的自适应加权极限学习机分类算法。考虑各类间样本的差异性和同一类内样本的丰富性,利用类样本数量差异构造初始惩罚权重,分析样本附近异类样本数量确定额外代价权重,将两种代价权重相加构建自适应代价敏感惩罚矩阵。在公共数据集上的一系列对比实验结果表明,采用的自适应加权策略兼顾了不同类别样本的分布,在不平衡数据集上有效提高了算法整体分类精度。  相似文献   

3.
特征选择是机器学习和数据挖据中一个重要的预处理步骤,而类别不均衡数据的特征选择是机器学习和模式识别中的一个热点研究问题。多数传统的特征选择分类算法追求高精度,并假设数据没有误分类代价或者有同样的代价。在现实应用中,不同的误分类往往会产生不同的误分类代价。为了得到最小误分类代价下的特征子集,本文提出一种基于样本邻域保持的代价敏感特征选择算法。该算法的核心思想是把样本邻域引入现有的代价敏感特征选择框架。在8个真实数据集上的实验结果表明了该算法的优越性。  相似文献   

4.
针对多输出极限学习机(MELM)分类模型输入层权值和阈值随机选取导致的分类精度波动问题,提出一种基于改进花粉算法(CS-ACFPA)的极限学习机多分类模型(CS-ACFPA-MELM)。利用自适应算子和Tent策略优化花粉算法的寻优方式,构造一种基于代价敏感的适应度函数,使花粉算法能够更好地匹配MELM模型的输出,最后使用改进的花粉算法和基于代价敏感的适应度函数优化极限学习机的输入权值和阈值,以提高MELM模型的的分类性能。通过对比实验验证了CS-ACFPA算法对MELM模型改进的有效性,并且体现了CS-ACFPA-MELM模型在大规模样本上的优势以及小样本上的适用性。  相似文献   

5.
极限学习机是一种随机化算法,它随机生成单隐含层神经网络输入层连接权和隐含层偏置,用分析的方法确定输出层连接权。给定网络结构,用极限学习机重复训练网络,会得到不同的学习模型。本文提出了一种集成模型对数据进行分类的方法。首先用极限学习机算法重复训练若干个单隐含层前馈神经网络,然后用多数投票法集成训练好的神经网络,最后用集成模型对数据进行分类,并在10个数据集上和极限学习机及集成极限学习机进行了实验比较。实验结果表明,本文提出的方法优于极限学习机和集成极限学习机。  相似文献   

6.
在分析核极限学习机原理的基础上,将小波函数作为核函数运用于极限学习机中,形成小波核极限学习机(WKELM)。实验表明,该算法提高了分类性能,增加了鲁棒性。在此基础上利用探测粒子群(Detecting Particle Swarm Optimization,DPSO)对WKELM参数优化,最终得到分类效果较优的DPSO-WKELM分类器。通过采用UCI基因数据进行仿真,将该分类结果与径向基核极限学习机(KELM)、WKELM等算法结果进行比较,得出所提算法具有较高的分类精度。  相似文献   

7.
杨浩  王宇  张中原 《计算机应用》2019,39(7):1883-1887
为了解决不均衡数据集的分类问题和一般的代价敏感学习算法无法扩展到多分类情况的问题,提出了一种基于K最近邻(KNN)样本平均距离的代价敏感算法的集成方法。首先,根据最大化最小间隔的思想提出一种降低决策边界样本密度的重采样方法;接着,采用每类样本的平均距离作为分类结果的判断依据,并提出一种符合贝叶斯决策理论的学习算法,使得改进后的算法具备代价敏感性;最后,对改进后的代价敏感算法按K值进行集成,以代价最小为原则,调整各基学习器的权重,得到一个以总体误分代价最低为目标的代价敏感AdaBoost算法。实验结果表明,与传统的KNN算法相比,改进后的算法在平均误分代价上下降了31.4个百分点,并且代价敏感性能更好。  相似文献   

8.
相关向量机(RVM)是在稀疏贝叶斯框架下提出的稀疏模型,由于其强大的稀疏性和泛化能力,近年来在机器学习领域得到了广泛研究和应用,但和传统的决策树、神经网络算法及支持向量机一样,RVM不具有代价敏感性,不能直接用于代价敏感学习。针对监督学习中错误分类带来的代价问题,提出代价敏感相关向量分类(CS-RVC)算法,在相关向量机的基础上,通过赋予每类样本不同的误分代价,使其更加注重误分类代价较高的样本分类准确率,使得整体误分类代价降低以实现代价敏感挖掘。实验结果表明,该算法具有良好的稀疏性并能够有效地解决代价敏感分类问题。  相似文献   

9.
代价敏感属性选择问题的目的是通过权衡测试代价和误分类代价,得到一个具有最小总代价的属性子集。目前,多数代价敏感属性选择方法只考虑误分类代价固定不变的情况,不能较好地解决类分布不均衡等问题。而在大规模数据集上,算法效率不理想也是代价敏感属性选择的主要问题之一。针对这些问题,以总代价最小为目标,设计了一种新的动态误分类代价机制。结合分治思想,根据数据集规模按列自适应拆分各数据集。基于动态误分类代价重新定义最小代价属性选择问题,提出了动态误分类代价下的代价敏感属性选择分治算法。通过实验表明,该算法能在提高效率的同时获得最优误分类代价,从而保证所得属性子集的总代价最小。  相似文献   

10.
集成分类通过将若干个弱分类器依据某种规则进行组合,能有效改善分类性能。在组合过程中,各个弱分类器对分类结果的重要程度往往不一样。极限学习机是最近提出的一个新的训练单隐层前馈神经网络的学习算法。以极限学习机为基分类器,提出了一个基于差分进化的极限学习机加权集成方法。提出的方法通过差分进化算法来优化集成方法中各个基分类器的权值。实验结果表明,该方法与基于简单投票集成方法和基于Adaboost集成方法相比,具有较高的分类准确性和较好的泛化能力。  相似文献   

11.
基分类器之间的差异性和单个基分类器自身的准确性是影响集成系统泛化性能的两个重要因素,针对差异性和准确性难以平衡的问题,提出了一种基于差异性和准确性的加权调和平均(D-A-WHA)度量基因表达数据的选择性集成算法。以核超限学习机(KELM)作为基分类器,通过D-A-WHA度量调节基分类器之间的差异性和准确性,最后选择一组准确性较高并且与其他基分类器差异性较大的基分类器组合进行集成。通过在UCI基因数据集上进行仿真实验,实验结果表明,与传统的Bagging、Adaboost等集成算法相比,基于D-A-WHA度量的选择性集成算法分类精度和稳定性都有显著的提高,且能有效应用于癌症基因数据的分类中。  相似文献   

12.
自适应混沌粒子群算法对极限学习机参数的优化   总被引:1,自引:0,他引:1  
陈晓青  陆慧娟  郑文斌  严珂 《计算机应用》2016,36(11):3123-3126
针对极限学习机(ELM)在处理非线性数据时效果不理想,并且ELM的参数随机化不利于模型泛化的特点,提出了一种改进的极限学习机算法。结合自适应混沌粒子群(ACPSO)算法对ELM的参数进行优化,以增强算法的稳定性,提高ELM对基因表达数据分类的精度。在UCI基因数据集上进行仿真实验,实验结果表明,与探测粒子群-极限学习机(DPSO-ELM)、粒子群-极限学习机(PSO-ELM)等算法相比,自适应混沌粒子群-极限学习机(ACPSO-ELM)算法具有较好的稳定性、可靠性,且能有效提高基因分类精度。  相似文献   

13.
针对现有机器学习算法难以有效提高贯序不均衡数据分类问题中少类样本分类精度的问题,提出一种基于混合采样策略的在线贯序极限学习机。该算法可在提高少类样本分类精度的前提下,减少多类样本的分类精度损失,主要包括离线和在线两个阶段:离线阶段采用均衡采样策略,利用主曲线分别构建多类和少类样本的可信区域,在不改变样本分布特性的前提下,利用可信区域扩充少类样本和削减多类样本,进而得到均衡的离线样本集,建立初始模型;在线阶段仅对贯序到达的多类数据进行欠采样,根据样本重要度挑选最具价值的多类样本,进而动态更新网络权值。通过理论分析证明所提算法在理论上存在损失信息上界。采用UCI标准数据集和实际的澳门空气污染预报数据进行仿真实验,结果表明,与现有在线贯序极限学习机(OS-ELM)、极限学习机(ELM)和元认知在线贯序极限学习机(MCOS-ELM)算法相比,所提算法对少类样本的预测精度更高,且数值稳定性良好。  相似文献   

14.
为了克服极限学习机(ELM)稳定性差、识别率不高的缺陷, 利用支持向量机(SVM)一对一投票式分类算法准确度高的优势, 提出一种改进的表情识别方法. 该方法将一对一分类算法和ELM算法相结合形成一个新的算法即OAO-ELM(One-Against-One-Extreme Learning Machine), 首先, 对样本采用一对一的分类并利用ELM训练成一个弱分类器, 然后, 将这些弱分类器组合成一个最终的强分类器. 预测结果, 采用投票方式. 用Gabor滤波提取表情特征, 由于提取后特征维度很高, 冗余大, 引入主成分分析(PCA)来降维. 基于JAFFE数据库实验结果表明, 该算法在人脸表情识别上具有较高分类识别率和稳定性.  相似文献   

15.
针对现有学习算法难以有效提高不均衡在线贯序数据中少类样本分类精度的问题,提出一种基于不均衡样本重构的加权在线贯序极限学习机。该算法从提取在线贯序数据的分布特性入手,主要包括离线和在线两个阶段:离线阶段主要采用主曲线构建少类样本的可信区域,并通过对该区域内样本进行过采样,来构建符合样本分布趋势的均衡样本集,进而建立初始模型;而在线阶段则对贯序到达的数据根据训练误差赋予各样本相应权重,同时动态更新网络权值。采用UCI标准数据集和澳门实测气象数据进行实验对比,结果表明,与现有在线贯序极限学习机(OS-ELM)、极限学习机(ELM)和元认知在线贯序极限学习机(MCOS-ELM)相比,所提算法对少类样本的识别能力更高,且所提算法的模型训练时间与其他三种算法相差不大。结果表明在不影响算法复杂度的情况下,所提算法能有效提高少类样本的分类精度。  相似文献   

16.
极限学习机(ELM)作为一种无监督分类方法,具有学习速度快、泛化性能高、逼近能力好的优点。随着无监督学习的发展,将ELM与自动编码器集成已成为无标签数据集提取特征的新视角,如极限学习机自动编码器(ELM-AE)是一种无监督的神经网络,无需迭代即可找到代表原始样本和其学习过程的主要成分。其重建输入信号获取原始样本的主要特征,且考虑了原始数据的全局信息以避免信息的丢失,然而这类方法未考虑数据的固有流形结构即样本间的近邻结构关系。借鉴极限学习机自动编码器的思想,提出了一种基于流形的极限学习机自动编码器算法(M-ELM)。该算法是一种非线性无监督特征提取方法,结合流形学习保持数据的局部信息,且在特征提取过程中同时对相似度矩阵进行学习。通过在IRIS数据集、脑电数据集和基因表达数据集上进行实验,将该算法与其他无监督学习方法PCA、LPP、NPE、LE和ELM-AE算法经过[k]-means聚类后的准确率进行了比较,以表明该算法的有效性。  相似文献   

17.
叶松林  韩飞  赵敏汝 《计算机应用》2014,34(4):1089-1093
为了增大各成员间的差异度以改善集成系统的性能,提出了一种基于成员间相似性选择的集成极端学习机(ELM)。首先,筛选出分类性能较高的备选极端学习机;其次,根据成员间的相似性运用微粒群算法(PSO)进一步选出最优的集成成员集合。通过选出相似度低的极端学习机来提高集成成员间差异度,从而有效提高集成系统的分类能力。选出的成员学习机在不同的集成规则下都具有良好性能。在四个UCI数据集上的实验结果表明,与经典的集成极端学习机相比,基于成员相似性选择的集成极端学习机具有更优的泛化性能和稳定性。  相似文献   

18.
Minimal Learning Machine (MLM) is a recently proposed supervised learning algorithm with performance comparable to most state-of-the-art machine learning methods. In this work, we propose ensemble methods for classification and regression using MLMs. The goal of ensemble strategies is to produce more robust and accurate models when compared to a single classifier or regression model. Despite its successful application, MLM employs a computationally intensive optimization problem as part of its test procedure (out-of-sample data estimation). This becomes even more noticeable in the context of ensemble learning, where multiple models are used. Aiming to provide fast alternatives to the standard MLM, we also propose the Nearest Neighbor Minimal Learning Machine and the Cubic Equation Minimal Learning Machine to cope with classification and single-output regression problems, respectively. The experimental assessment conducted on real-world datasets reports that ensemble of fast MLMs perform comparably or superiorly to reference machine learning algorithms.  相似文献   

19.
An automated system for early diagnosis of type 2-diabetes mellitus is proposed in this paper, by using the Extreme Learning Machine neural network for classification and the evolutionary genetic algorithms for feature extraction, to be employed on a real data set from Saudi Arabian patients. The dimension of the feature space is reduced by the genetic algorithms and only the effective features are selected. The data is then fed to an Extreme Learning Machine neural network for classification. Diabetes is a major health problem in both industrial and developing countries, and when it appears in pregnancies it may cause many complications, hence its early diagnosis is beneficial for both mother and fetus. Our hybrid algorithm, the GA-ELM algorithm, has produced an optimized diagnosis of type 2-diabetes patients and classified the data set with an accuracy of 97.5% and with six effective features, out of the original eight features given in the dataset. Moreover, comparisons of the GA-ELM method with other available methods were conducted and the results are promising.  相似文献   

20.
Li  Li  Zhao  Kaiyi  Sun  Ruizhi  Cai  Saihua  Liu  Yongtao 《Neural Processing Letters》2022,54(4):2675-2693
Neural Processing Letters - Extreme Learning Machine (ELM) is a representative learning algorithm commonly used in data classification and prediction. In the previous literature on ELM, there are...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号