首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 234 毫秒
1.
李书玲  刘蓉  刘红 《计算机科学》2015,42(4):316-320
针对已有的RBF神经网络多标签算法未充分考虑多个样本标签之间的关联性,从而导致泛化性能受到一定影响的问题,研究分析了一种改进型RBF神经网络的多标签算法.该算法首先优化隐含层RBF神经网络基函数中心求取算法——k-均值聚类.采用AP聚类自动寻找k值以获得隐含层节点数目,并构造Huff man树来选取初始聚类中心以防k-均值聚类结果陷入局部最优.然后构造体现标签类之间信息的标签计数向量C,并将其与由优化k-均值聚类得到的聚类中心进行线性叠乘,进而改进RBF神经网络基函数中心,建立RBF神经网络.在公共多标签数据集emotion上的实验表明了该算法能够有效地进行多标签分类.  相似文献   

2.
基于正则化RBF神经网络的钢包精炼炉电极系统智能建模   总被引:12,自引:1,他引:12  
通过RBF神经网络和模糊推理系统的比较,得出正则化RBF神经网络的输出特性,在此基础上利用改进的最近邻聚类算法确定网络的隐层节点个数和高斯函数中心,并估计输出层权值。仿真结果表明了所提方案的有效性。  相似文献   

3.
极限学习机(extreme learning machine,ELM)是一种简单易用、有效的单隐层前馈神经网络(single hidden layer feedforward neural networks,SLFNs)学习算法,近几年来已成为机器学习研究的热门领域之一。但是ELM单个隐层节点的判断能力不足,分类正确率的高低在一定程度上取决于隐层节点数。为了提高ELM单个隐层节点的判断能力,将支持向量机(support vector machine,SVM)和ELM结合,建立一种精简的SVM-ELM模型。同时,该模型为了避免人为选择参数的主观性,利用粒子群算法(particle swarm optimization,PSO)的全局搜索最优解对参数进行自动优化选取,建立了PSO-SVM-ELM模型。实验证明,该模型较SVMELM和ELM分类精度有较大的提高,具有很好的稳健性和泛化性。  相似文献   

4.
针对径向基函数(RBF)网络隐层结构难以确定的问题,基于自适应共振理论(ART)网络良好的在线分类特性,提出一种RBF网络结构设计算法。该算法将ART网络的聚类特性用于RBF网络结构设计中,通过对输入向量与已存模式的相似度比较将输入向量进行分类,确定隐含层节点个数和初始参数,使网络具有精简的结构。对典型非线性函数逼近的仿真结果表明,所提出的结构具有快速的学习能力和良好的逼近能力。  相似文献   

5.
主要内容是建立一种基于RBF神经网络的语音识别系统,探讨RBF神经网络在语音识别中的应用.利用有序聚类算法对语音信号进行时间归整,构建一个RBF神经网络,采用自适应的方法确定网络隐节点的个数,用线性最小二乘法确定隐层到输出层的权值,用语音信号的LPCC参数的训练和识别.在Matlab中完成实验,语音信号的识别率达到85%,并且还有很大的提升空间.实验表明RBF神经网络在语音识别中有发展的前景.  相似文献   

6.
郭鑫  李文静  乔俊飞 《控制工程》2021,28(1):114-119
为确定径向基函数RBF(radial basis function)神经网络隐含层结构,并针对基于距离或密度聚类的RBF神经网络的限制,提出一种基于距离和密度聚类(GDD)算法的RBF神经网络。GDD算法通过计算每个样本的密度,各样本间的距离及相似条件(密度标准、距离标准),相似条件是根据样本分布而改变的,进行样本空间划分,实现无需先验知识及参数,就可以精确识别任意形状的聚类。采用GDD算法聚类,RBF神经网络能确定合适的隐含层节点个数及径向基函数中心。对典型非线性函数逼近及UCI机器学习库实例样本进行实验,结果表明基于GDD算法设计的RBF神经网络具有良好的逼近能力和分类效果,且网络结构更加紧凑。  相似文献   

7.
针对传统优化方法提高径向基函数神经网络(RBFNN)分类能力存在的问题,提出一种基于合作型协同进化群体并行搜索的CO-RBFNN学习算法.该算法首先利用K-均值算法对最近邻方法确定的网络初始隐节点聚类,然后以聚类后的隐节点群作为子种群进行协同进化操作,最终获得网络的最优结构.算法采用包含整个网络隐节点结构和控制向量的矩阵式混合编码方式,隐层和输出层之间的连接权值由伪逆法确定.在UCI的8个数据集上进行的仿真实验结果验证该算法的有效性和可行性.  相似文献   

8.
提出一种基于减聚类、K-means算法及改进的粒子群优化(PSO)算法的径向基函数(RBF)神经网络混合学习算法. 该算法首先使用减聚类确定隐层节点数和K-means初始聚类中心; 然后通过K-means算法求取RBF网络所有参数, 作为PSO的初始粒子群; 为了提高PSO算法的收敛性和稳定性, 对基本PSO算法进行了优化改进, 最后使用改进的PSO算法训练RBF神经网络中的所有参数. 对IRIS数据集分类识别的仿真结果表明, 改进的混合算法具有更高的分类准确率和更好的稳定性.  相似文献   

9.
基于熵聚类的RBF神经网络学习算法   总被引:2,自引:2,他引:0  
RBF神经网络中心向量的确定是整个网络学习的关键,最常用确定中心向量的方法是K均值聚类算法,对聚类中心的初值选择非常敏感,选择的不好,容易减低网络的训练性能.为克服以上问题,提出了一种熵聚类的方法来自动确定RBF神经网络隐结点的中心个数及其初始值,实现K均值聚类算法的初始化,再用改进的K均值聚类算法调整RBF神经网络的中心和训练宽度.并将上述算法用于函数逼近问题.实验结果表明:改进的算法与常规的K均值聚类算法相比,提高了训练速度和逼近精度.  相似文献   

10.
一种改进PSO优化RBF神经网络的新方法   总被引:3,自引:0,他引:3  
段其昌  赵敏  王大兴 《计算机仿真》2009,26(12):126-129
为了克服神经网络模型结构和参数难以设置的缺点,提出了一种改进粒子群优化的径向基函数(RBF)神经网络的新方法.首先将最近邻聚类用于RBF神经网络隐层中心向量的确定,同时对引入适应度值择优选取的原则对基本粒子群算法进行改进,采用改进粒子群(IMPSO)算法对最近邻聚类的聚类半径进行优化,合理的确定了RBF神经网络的隐层结构.将改进PSO优化的RBF神经网络应用于非线性函数逼近和混沌时间序列预测,经实验仿真验证.与基本粒子群(PSO)算法,收缩因子粒子群(CFA PSO)算法优化的RBF神经网络相比较,其在识别精度和收敛速度上都有了显著的提高.  相似文献   

11.
Many neural network methods such as ML-RBF and BP-MLL have been used for multi-label classification. Recently, extreme learning machine (ELM) is used as the basic elements to handle multi-label classification problem because of its fast training time. Extreme learning machine based auto encoder (ELM-AE) is a novel method of neural network which can reproduce the input signal as well as auto encoder, but it can not solve the over-fitting problem in neural networks elegantly. Introducing weight uncertainty into ELM-AE, we can treat the input weights as random variables following Gaussian distribution and propose weight uncertainty ELM-AE (WuELM-AE). In this paper, a neural network named multi layer ELM-RBF for multi-label learning (ML-ELM-RBF) is proposed. It is derived from radial basis function for multi-label learning (ML-RBF) and WuELM-AE. ML-ELM-RBF firstly stacks WuELM-AE to create a deep network, and then it conducts clustering analysis on samples features of each possible class to compose the last hidden layer. ML-ELM-RBF has achieved satisfactory results on single-label and multi-label data sets. Experimental results show that WuELM-AE and ML-ELM-RBF are effective learning algorithms.  相似文献   

12.
In this paper, a novel self-adaptive extreme learning machine (ELM) based on affinity propagation (AP) is proposed to optimize the radial basis function neural network (RBFNN). As is well known, the parameters of original ELM which developed by G.-B. Huang are randomly determined. However, that cannot objectively obtain a set of optimal parameters of RBFNN trained by ELM algorithm for different realistic datasets. The AP algorithm can automatically produce a set of clustering centers for the different datasets. According to the results of AP, we can, respectively, get the cluster number and the radius value of each cluster. In that case, the above cluster number and radius value can be used to initialize the number and widths of hidden layer neurons in RBFNN and that is also the parameters of coefficient matrix H of ELM. This may successfully avoid the subjectivity prior knowledge and randomness of training RBFNN. Experimental results show that the method proposed in this thesis has a more powerful generalization capability than conventional ELM for an RBFNN.  相似文献   

13.
基于极限学习机(ELM)的多标记学习算法多使用ELM分类模式,忽略标记之间存在的相关性.为此,文中提出结合关联规则与回归核极限学习机的多标记学习算法(ML-ASRKELM).首先通过关联规则分析标记空间,提取标记之间的规则向量.然后通过提出的多标记回归核极限学习机(ML-RKELM)得出预测结果.若规则向量不为空,将规则向量与预测结果运算得出最终预测结果,否则最终结果即为ML-RKELM的预测结果.对比实验表明ML-ASRKELM与ML-RKELM性能较优,统计假设检验进一步说明文中算法的有效性.  相似文献   

14.
In order to overcome the disadvantage of the traditional algorithm for SLFN (single-hidden layer feedforward neural network), an improved algorithm for SLFN, called extreme learning machine (ELM), is proposed by Huang et al. However, ELM is sensitive to the neuron number in hidden layer and its selection is a difficult-to-solve problem. In this paper, a self-adaptive mechanism is introduced into the ELM. Herein, a new variant of ELM, called self-adaptive extreme learning machine (SaELM), is proposed. SaELM is a self-adaptive learning algorithm that can always select the best neuron number in hidden layer to form the neural networks. There is no need to adjust any parameters in the training process. In order to prove the performance of the SaELM, it is used to solve the Italian wine and iris classification problems. Through the comparisons between SaELM and the traditional back propagation, basic ELM and general regression neural network, the results have proven that SaELM has a faster learning speed and better generalization performance when solving the classification problem.  相似文献   

15.
极限学习机(ELM)是一种新型单馈层神经网络算法,在训练过程中只需要设置合适的隐藏层节点个数,随机赋值输入权值和隐藏层偏差,一次完成无需迭代.结合遗传算法在预测模型参数寻优方面的优势,找到极限学习机的最优参数取值,建立成都双流国际机场旅客吞吐量预测模型,通过对比支持向量机、BP神经网络,分析遗传-极限学习机算法在旅客吞吐量预测中的可行性和优势.仿真结果表明遗传-极限学习机算法不仅可行,并且与原始极限学习机算法相比,在预测精度和训练速度上具有比较明显的优势.  相似文献   

16.
极限学习机与支持向量机在储层渗透率预测中的对比研究   总被引:4,自引:0,他引:4  
极限学习机ELM是一种简单易用、有效的单隐层前馈神经网络SLFNs学习算法。传统的神经网络学习算法(如BP算法)需要人为设置大量的网络训练参数,并且很容易产生局部最优解。极限学习机只需要设置网络的隐层节点个数,在算法执行过程中不需要调整网络的输入权值以及隐元的偏置,并且产生唯一的最优解,因此具有学习速度快且泛化性能好的优点。本文将极限学习机引入到储层渗透率的预测中,通过对比支持向量机,分析其在储层渗透率预测中的可行性和优势。实验结果表明,极限学习机与支持向量机有近似的预测精度,但在参数选择以及学习速度上极限学习机具有明显的优势。  相似文献   

17.
正则化极限学习机RELM是一种单隐层前馈神经网络,不同于传统神经网络算法,RELM通过随机设置输入层权重和偏置值,可以快速求得输出层权重,并且引入正则化因子,能够提高模型的泛化能力。针对文本信息高维度、多类别的问题,提出一种基于快速自编码的正则化极限学习机FARELM。将由RELM改进后的快速自编码神经网络对样本进行无监督特征学习,并对特征提取后的数据使用RELM进行分类。实验表明,FA-RELM的学习速度和分类精度较优。  相似文献   

18.
传统模糊聚类算法在处理复杂非线性数据时学习能力较差。针对此问题,文中基于极限学习机(ELM)理论,结合局部保留投影(LPP)与ELM特征映射,提出压缩隐空间特征映射算法,从而将原始数据从原空间映射至压缩ELM隐空间中。通过连接多个压缩隐空间特征映射,结合模糊聚类技术,提出基于LPP的堆叠隐空间模糊C均值算法。大量实验表明,文中算法对模糊指数的变化不敏感,在处理复杂非线性数据和存在类内差异的图像数据时,能够取得更精确、高效、稳定的学习效果。  相似文献   

19.
极限学习机( Extreme Learning Machine , ELM)是一种新型的单馈层神经网络算法,克服了传统的误差反向传播方法需要多次迭代,算法的计算量和搜索空间大的缺点,只需要设置合适的隐含层节点个数,为输入权和隐含层偏差进行随机赋值,一次完成无需迭代。研究表明股票市场是一个非常复杂的非线性系统,需要用到人工智能理论、统计学理论和经济学理论。本文将极限学习机方法引入股票价格预测中,通过对比支持向量机( Support Vector Machine , SVM)和误差反传神经网络( Back Propagation Neural Network , BP神经网络),分析极限学习机在股票价格预测中的可行性和优势。结果表明极限学习机预测精度高,并且在参数选择及训练速度上具有较明显的优势。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号