首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 171 毫秒
1.
陈盛双 《计算机工程》2011,37(19):177-178,182
研究基于极限学习机(ELM)的XML文档分类方法。为优化文档的相似性计算,在结构链接向量模型的基础上,提出一种改进的特征向量模型RS-VSM,将有效的结构化信息合并到向量模型中。应用ELM对XML文档进行分类,为提高ELM分类的准确率,提出一种基于投票机制的Voting-ELM算法。实验结果证明,该算法的分类效果较优。  相似文献   

2.
为提高脑卒中经颅多普勒(Transcranial Doppler,TCD)数据分类的效率和准确率,应用蝙蝠算法(Bat Algorithm,BA)优化极限学习机(Extreme Learning Machine,ELM)模型进行脑卒中分类预测。在训练ELM模型时,隐含层输入权值矩阵和隐含层阈值矩阵元素产生的随机性影响了模型性能。为此,利用BA对ELM参数中的输入权值矩阵和隐含层阈值矩阵进行了优化,并用BA-ELM模型对实验所用的TCD数据集进行分类。实验结果表明,BA-ELM模型的分类准确率比ELM提高了22.77%,能有效进行脑卒中预测。  相似文献   

3.
自适应混沌粒子群算法对极限学习机参数的优化   总被引:1,自引:0,他引:1  
陈晓青  陆慧娟  郑文斌  严珂 《计算机应用》2016,36(11):3123-3126
针对极限学习机(ELM)在处理非线性数据时效果不理想,并且ELM的参数随机化不利于模型泛化的特点,提出了一种改进的极限学习机算法。结合自适应混沌粒子群(ACPSO)算法对ELM的参数进行优化,以增强算法的稳定性,提高ELM对基因表达数据分类的精度。在UCI基因数据集上进行仿真实验,实验结果表明,与探测粒子群-极限学习机(DPSO-ELM)、粒子群-极限学习机(PSO-ELM)等算法相比,自适应混沌粒子群-极限学习机(ACPSO-ELM)算法具有较好的稳定性、可靠性,且能有效提高基因分类精度。  相似文献   

4.
极限学习机(Extreme Learning Machine,ELM)是一种高效率的单隐层前馈神经网络,由于其训练速度快与泛化性能好,在各个领域中都有广泛的应用。但是极限学习机随机生成输入权值与隐含层偏置矩阵,随机性影响训练模型的泛化性能与稳定性,降低模型分类的精度。为了解决这一问题,借鉴蚁狮优化算法中利用蚁狮种群中的多个个体进行并行寻优的能力,改进优化极限学习机的输入权值与隐含层偏置矩阵,得到一个分类精度更高模型。以UCI标准数据库中数据进行分类实验分析验证,实验结果表明,在5类UCI数据集上基于蚁狮优化的极限学习机(ALO-ELM)相比于PSO-ELM和SaDE-ELM具有更高的分类精度。  相似文献   

5.
基于结构与文本关键词相关度的XML网页分类研究   总被引:9,自引:0,他引:9  
针对XML网页特点,提出了计算XML文档结构相似性、文档关键词出现的位置以及关键词频度的方法,根据计算的结果提取XML网页特征,同时设计了一种基于支持向量机的XML网页多类分类算法.算法通过XML文档的训练样本集为每一类文档建立基于相似公共特征的聚类核,计算测试样本中的文档与每个聚类核的相似度,判断该文档的所属类.实验证明该分类算法具有比较高的分类查全率和查准率,能够较好地解决XML文档同时属于多个类的问题.  相似文献   

6.
改进人工蜂群算法优化ELM分类模型   总被引:2,自引:0,他引:2  
针对极限学习机(Extreme Learning Machine,ELM)参数优化问题,提出改进人工蜂群算法(Improvement Artificial bee colony, IABC)优化ELM分类模型。算法采用解更新策略池代替固定不变的更新策略,将邻域搜索自适应化;优化侦察蜂搜索方式,利用Kent映射产生均匀性更优的初始随机数序列。在分类数据集中,将IABC-ELM分类模型同ELM、PSO-ELM分类模型进行对比实验。实验中,IABC-ELM模型取得了最佳的分类结果,得到了最低的输出权重范数。结果表明,IABC-ELM模型分类效果显著优于对比模型,证实了IABC算法优化ELM分类模型的有效性和优越性。  相似文献   

7.
为降低特征噪声对分类性能的影响,提出一种基于极限学习机(extreme learning machine,ELM)的收缩极限学习机鲁棒算法模型(CELM)。采用自编码器对输入数据进行重构,将隐层输出值关于输入的雅克比矩阵的F范数引入到目标函数中,提取出更具鲁棒性的抽象特征表示,利用提取到的新特征对常规的ELM层进行训练,提高方法的鲁棒性。对Mnist、UCI数据集、TE过程数据集以及添加不同强度的混合高斯噪声之后的Mnist数据集进行仿真,实验结果表明,提出的方法较ELM、HELM具有更高的分类精度和更好的鲁棒性。  相似文献   

8.
针对传统智能故障诊断方法在滚动轴承的故障诊断中诊断准确率不高的问题,引入了一种启发式搜索算法——蝙蝠算法(BA)优化极限学习机(ELM)的方法,利用ELM构建滚动轴承故障诊断分类模型。首先采用滚动轴承振动信号的五种代表性时域无量纲指标作为诊断模型输入特征,然后,利用蝙蝠算法的全局寻优能力对ELM模型的参数进行优化,获取最优输入权重和隐含层偏置的ELM分类模型,最后采用美国西储大学轴承数据中心网站公开发布的轴承探伤数据集验证算法诊断效果。实验结果表明:该方法可以有效地对滚动轴承不同故障状态进行识别,与BP神经网络、支持向量机(SVM)和极限学习机(ELM)方法比较,所提出的方法能够提高故障诊断准确率,达到99.17%。  相似文献   

9.
本文提出一种Alexnet与极限学习机相结合的网络模型。Alexnet是一种很好的特征提取器,但是大量的网络参数集中在后三层用作分类的全连接层中,同时要在调整和训练参数上花费大量时间,而极限学习机具有训练参数少,学习速度快的优点,所以本文运用Alexnet进行特征提取,再用极限学习机对图片进行分类,结合了Alexnet和ELM的优点。本文方法能在CIFAR10数据集上有效分类,同时节省训练时间。  相似文献   

10.
XML文档分类技术可以高效地管理海量存在的数据,XML文档同时拥有结构信息和文本信息。为充分利用XML特点,优化分类效果,在结构链接表达模型(structured link vector model,简称SLVM)的基础上,提出了一种新的特征表达方法,即P-SLVM表达模型。该模型在传统的tf*idf的权重设置方式基础上,根据特征词在类中的分布情况,对特征词权重设置进行改进,同时利用泊松分布理论、特征词所在位置等对结构单元进行加权,以更为有效地表达结构信息和内容信息。实验结果表明,在P-SLVM表达模型下进行的XML文档的分类,有更好的分类效果。  相似文献   

11.
针对大数据分类问题应用设计了一种快速隐层优化方法来解决分布式超限学习机(Extreme Learning Machine,ELM)在训练过程中存在的突出问题--需要独立重复运行多次才能优化隐层结点个数或模型泛化性能。在不增加算法时间复杂度的前提下,新算法能同时训练多个ELM隐层网络,全面兼顾模型泛化能力和隐层结点个数的优化,并通过分布式计算避免大量重复计算。同时,在算法求解过程中通过这种方式能更精确、更直观地学习隐含层结点个数变化带来的影响。比较多种类型标准测试函数的实验结果,相对于分布式ELM,新算法在求解精度、泛化能力、稳定性上大大提高。  相似文献   

12.
已有的急速学习机(Extreme Learning Machine)的学习精度受隐节点数目的影响很大。无论是已提出的单隐层急速学习机还是多隐层神经网络,都是先确定隐藏层数,再通过增加每一层的神经元个数来提高精度。但当训练集规模很大时,往往需要引入很多的隐节点,导致违逆矩阵计算复杂度大,从而不利于学习效率的提高。提出逐层可加的急速学习机MHL-ELM(Extreme Learning Machine with Incremental Hidden Layers),其思想是首先对当前隐藏层神经元(数目不大且不寻优,因而复杂度小)的权值进行随机赋值,用ELM思想求出逼近误差;若误差达不到要求,再增加一个隐含层。然后运用ELM的思想对当前隐含层优化。逐渐增加隐含层,直至满足误差精度为止。除此以外,MHL-ELM的算法复杂度为[l=1MO(N3l)]。实验使用10个UCI,keel真实数据集,通过与BP,OP-ELM等传统方法进行比较,表明MHL-ELM学习方法具有更好的泛化性,在学习精度和学习速度方面都有很大的提升。  相似文献   

13.
针对股票价格预测中应用极限学习机预测存在稳定性不理想的问题,提出了一种改进果蝇优化极限学习机(IFOA-ELM)预测模型的算法。在该算法中,果蝇群通过不断调整群半径来优化ELM的输入层与隐含层连接权值和隐含层阈值,并以优化后的结果为基础,构建ELM预测模型。将IFOA-ELM模型用于股票价格预测。实验表明,与ELM和FOA-ELM相比,IFOA-ELM在股票价格预测中具有更高的预测精度和更好的稳定性。  相似文献   

14.
正负模糊规则系统、极限学习机与图像分类   总被引:1,自引:1,他引:0       下载免费PDF全文
传统的图像分类一般只利用了图像的正规则,忽略了负规则在图像分类中的作用。Nguyen将负规则引入图像分类,提出将正负模糊规则相结合形成正负模糊规则系统,并将其用于遥感图像和自然图像的分类。实验证明,其在图像分类过程中取得了很好的效果。他们提出的前馈神经网络模型在调整权值时利用了梯度下降法,由于步长选择不合理或陷入局部最优从而使训练速度受到了限制。极限学习机(ELM)是一种单隐层前馈神经网络(SLFN)学习算法,具有学习速度快,泛化性能好的优点。本文证明了极限学习机与正负模糊规则系统的实质是等价的,遂将其用于图像分类。实验结果说明了极限学习机能很好的利用正负模糊规则相结合的方法对图像进行分类,实验结果较为理想。  相似文献   

15.
隐层节点数是影响极端学习机(ELM)泛化性能的关键参数,针对传统的ELM隐层节点数确定算法中优化过程复杂、容易过学习或陷入局部最优的问题,提出结构风险最小化-极端学习机(SRM-ELM)算法。通过分析VC维与隐层节点数量之间的关联,对VC信任函数进行近似改进,使其为凹函数,并结合经验风险重构近似的SRM。在此基础上,将粒子群优化的位置值直接作为ELM的隐层节点数,利用粒子群算法最小化结构风险函数获得极端学习机的隐层节点数,作为最优节点数。使用6组UCI数据和胶囊缺陷数据进行仿真验证,结果表明,该算法能获得极端学习机的最优节点数,并具有更好的泛化能力。  相似文献   

16.
来杰  王晓丹  李睿  赵振冲 《计算机应用》2019,39(6):1619-1625
针对极限学习机算法(ELM)参数随机赋值降低算法鲁棒性及性能受噪声影响显著的问题,将去噪自编码器(DAE)与ELM算法相结合,提出了基于去噪自编码器的极限学习机算法(DAE-ELM)。首先,通过去噪自编码器产生ELM的输入数据、输入权值与隐含层参数;然后,以ELM求得隐含层输出权值,完成对分类器的训练。该算法一方面继承了DAE的优点,自动提取的特征更具代表性与鲁棒性,对于噪声有较强的抑制作用;另一方面克服了ELM参数赋值的随机性,增强了算法鲁棒性。实验结果表明,在不含噪声影响下DAE-ELM相较于ELM、PCA-ELM、SAA-2算法,其分类错误率在MNIST数据集中至少下降了5.6%,在Fashion MNIST数据集中至少下降了3.0%,在Rectangles数据集中至少下降了2.0%,在Convex数据集中至少下降了12.7%。  相似文献   

17.
周馨  王国胤  于洪 《计算机应用》2017,37(3):668-672
极限学习机(ELM)因其泛化能力好和学习速度快而成为软测量的新方法,但当应用到铝电解工艺参数建模时,ELM通常需要较多隐层节点并且泛化能力较低。针对这一问题,提出一种基于改进极限学习机(IELM)的软测量模型。首先,利用粗糙集中的约简理论剔除输入变量中的冗余或不相关属性,以降低ELM的输入复杂性;然后,利用偏相关系数对输入变量和输出变量间的相关性进行分析,将输入数据分为正输入和负输入两部分,分别对这两部分建立输入单元,重新构建ELM网络;最后,建立了基于改进极限学习机的铝电解分子比软测量模型。仿真实验结果表明,基于改进极限学习机的软测量模型具有较好的泛化能力和稳定性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号