首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 78 毫秒
1.
提出一种基于模糊逻辑和神经网络的自学习网络模型。该模型通过特定的学习算法训练样本,能自动生成模糊逻辑规则,调节输入、输出变量的隶属函数。同时,提出了一种结合自组织学习和BP学习的混合学习算法──BPSOM,这种算法比通常的BP机学习算法收敛性好,速度快。  相似文献   

2.
提高BP神经网络学习速度的算法研究   总被引:6,自引:0,他引:6  
本文在深入分析BP人工神经网络学习算法的基础上,研究了采用增加动量项,成批训练及综合法来提高BP网络的学习速度,取得了显著效果。  相似文献   

3.
一种模糊规则动态调整BP算法中参数的方法   总被引:8,自引:0,他引:8  
文中首先对标准的BP算法进行了分析。然后在此基础上提出了通过模糊规则推理动态调整学习率和动量因子的改进的方法,并通过模糊推理系统实现了BP算法的模糊控制。最后通过实例将该算法与标准BP算法和Vogl改进的算法进行了比较,实验结果表明通过模糊推理来改善神经网络的BP算法性能是一种很有前途的方法。  相似文献   

4.
本文针对BP网络进行心电数据压缩学习速度慢的问题提出了几项改进措施,形成了新的TP-IBP数据压缩算法,有效改善了BP网络用于压缩学习速度慢的问题。  相似文献   

5.
多层神经网络BP算法的研究   总被引:7,自引:0,他引:7  
影响多层神经网络BP算法学习效率的因素不少。但BP算法中误差函数不能有效地表征样本学习精度是其中主要的因素之一。本文对BP算法中的误差函数进行了修正。计算机模拟结果表明这种修正有助于提高学习精度和学习效率。  相似文献   

6.
该文提出了高精度RBP-模糊推理复合学习系统.系统主要由基于鲁棒估计的鲁棒BP学习环节和基于混合合成推理的模糊推理环节构成.该学习系统的主要特点是可由鲁棒BP算法和min-max,max-min模糊推理算法简单地实现.最后通过在目标跟踪问题中应用结果,表示了该算法的高精度和鲁棒性.  相似文献   

7.
王士同 《控制与决策》1998,13(A07):504-507,512
首先提出变形的BP算法IBP,然后将它与Solia和Wets的随机优化算法相结合,提出了新型混合学习算法NHLA。算法具有能以概率1全局收敛于误差函数最小值的性质,从而有效地克服了BP算法不能保证全局收敛于误差函数最小值的缺点。  相似文献   

8.
本文从神经元的解剖学到种经网络理论的研究作了一个简要的概述,介绍了几种重要的典型网络的模型结构和学习算法。对误差反向传播学习算法进行了详细的推导,给出了采用S型作用函数的BP网络具体学习算法,说明了BP网络学习算法存在的问题。  相似文献   

9.
关于BP算法的初步研究   总被引:3,自引:0,他引:3  
本文提出了两种改进BP学习算法的方法:常系数法和变系数法,加快了网络的收敛速度,增强了BP算法的可用性与实用性。  相似文献   

10.
本文针对多层前馈神经网络中反向误差传播BP算法的固有缺点,提出了一种新的十分有效的自寻优OBP学习算法。OBP在每次迭代中都自动选择一个使目标函数函数全局最小的步长,从而极大地改善了网络的收敛速度和收敛稳定性。.  相似文献   

11.
基于MPSO的BP网络及其在入侵检测中的应用   总被引:4,自引:0,他引:4       下载免费PDF全文
提出一种基于变异粒子群优化(MPSO)的BP网络学习算法,该算法用PSO算法替代了传统BP算法,且在学习过程中,引入变异操作,克服传统BP算法易陷入局部极小和PSO算法早熟的不足。并把该算法应用于入侵检测中,通过KDD99 CUP数据集分别对基于不同算法的BP神经网络进行了仿真实验比较,结果表明,该算法的收敛速度快,迭代次数较少,而且测试平均准确率高达96.5%。  相似文献   

12.
一种新的基于粒群优化的BP网络学习算法   总被引:4,自引:0,他引:4       下载免费PDF全文
宋乃华  邢清华 《计算机工程》2006,32(14):181-183
标准BP学习算法是多层感知器的一种训练学习算法,是基于无约束极值问题的梯度法而设计的。针对标准算法存在的收敛速度慢、目标函数易陷入局部极小等缺点,该文提出了一种基于粒群优化的全新学习算法——粒群学习算法。该算法采用并行全局寻优策略,使网络以更快的速度收敛至全局最优解,且更易于编程实现。仿真实例证明,该算法是一种简洁高效的BP神经网络学习算法,有着极为广泛的应用前景。  相似文献   

13.
The slow convergence of back-propagation neural network (BPNN) has become a challenge in data-mining and knowledge discovery applications due to the drawbacks of the gradient descent (GD) optimization method, which is widely adopted in BPNN learning. To solve this problem, some standard optimization techniques such as conjugate-gradient and Newton method have been proposed to improve the convergence rate of BP learning algorithm. This paper presents a heuristic method that adds an adaptive smoothing momentum term to original BP learning algorithm to speedup the convergence. In this improved BP learning algorithm, adaptive smoothing technique is used to adjust the momentums of weight updating formula automatically in terms of “3 σ limits theory.” Using the adaptive smoothing momentum terms, the improved BP learning algorithm can make the network training and convergence process faster, and the network’s generalization performance stronger than the standard BP learning algorithm can do. In order to verify the effectiveness of the proposed BP learning algorithm, three typical foreign exchange rates, British pound (GBP), Euro (EUR), and Japanese yen (JPY), are chosen as the forecasting targets for illustration purpose. Experimental results from homogeneous algorithm comparisons reveal that the proposed BP learning algorithm outperforms the other comparable BP algorithms in performance and convergence rate. Furthermore, empirical results from heterogeneous model comparisons also show the effectiveness of the proposed BP learning algorithm.  相似文献   

14.
本文在对BP神经网络算法分析的基础上,提出一种基于演化算法的BP改进算法(EBP)。该算法将演化算法运用到BP算法学习率的求解中,从而达到学习率的自适应、自组织的目的。实验结果表明,使用EBP算法进行求解函数逼近、优化和建模等BP神经网络应用问题,都要比传统的BP算法具有更好的精确度和收敛速度,并且能够克服传统BP算法易陷入局部最优解、学习过程出现震荡等缺点。  相似文献   

15.
介绍了BP神经网络的基本结构及原理,分析了其收敛慢的原因。为加快其收敛速度,结合带动量梯度下降法提出一种新的算法(PBBP),用多个学习速率不同但结构相同的网络进行并行训练,在每次迭代后都根据误差找出处于最佳状态的网络,并使其它网络的训练参数作适当变化再进行下一次迭代,直到整个网络的误差减小到允许范围内或达到训练次数要求,加快了其收敛速度,能够很好地脱离平坦区。通过在Matlab里编程进行仿真实验证明,该算法是可行的。  相似文献   

16.
前馈网络的一种超线性收敛BP学习算法   总被引:19,自引:0,他引:19  
梁久祯  何新贵  黄德双 《软件学报》2000,11(8):1094-1096
分析传统BP算法存在的缺点,并针对这些缺点提出一种改进的BP学习算法.证明该算法在一定 条件下是超线性收敛的,并且该算法能够克服传统BP算法的某些弊端,算法的计算复杂度与简 单BP算法是同阶的.实验结果说明这种改进的BP算法是高效的、可行的.  相似文献   

17.
Error back-propagation (BP) is one of the most popular ideas used in learning algorithms for multilayer neural networks. In BP algorithms, there are two types of learning schemes, online learning and batch learning. The online BP has been applied to various problems in practice, because of its simplicity of implementation. However, efficient implementation of the online BP usually requires an ad hoc rule for determining the learning rate of the algorithm. In this paper, we propose a new learning algorithm called SPM, which is derived from the successive projection method for solving a system of nonlinear inequalities. Although SPM can be regarded as a modification of online BP, the former algorithm determines the learning rate (step-size) adoptively based on the output for each input pattern. SPM may also be considered a modification of the globally guided back-propagation (GGBP) proposed by Tang and Koehler. Although no theoretical proof of the convergence for SPM is given, some simulation results on pattern classification problems indicate that SPM is more effective and robust than the standard online BP and GGBP  相似文献   

18.
基于改进BP神经网络的函数逼近性能对比研究   总被引:1,自引:0,他引:1  
为了正确反映实际应用中经常采用的6种典型BP神经网络的改进算法的非线性函数逼近能力,本文从数学角度详细阐述这6种典型BP神经网络的改进算法的学习过程,简要地介绍MATLAB工具箱中设计BP网络的训练函数,最后在MATLAB环境下设计具体的网络来对指定的非线性函数进行逼近实验,并对这6种典型BP神经网络的改进算法的性能差异进行对比。仿真结果表明,对于中小规模网络而言,LM优化算法逼近性能最佳,其次是拟牛顿算法、共轭梯度法、弹性BP算法、自适应学习速率算法和动量BP算法。  相似文献   

19.
一种混合学习算法   总被引:2,自引:0,他引:2  
沈智鹏  郭晨 《计算机工程》2003,29(21):12-13,27
提出了一种基于模糊逻辑和神经网络的自学习网络模型和一种结合自组织学习和BP学习的BPSOM混合学习算法。该模型通过BPSOM算法训练样本,能自动生成模糊逻辑规则,调节输入、输出变量的隶属函数;而且该算法比通常的BP学习算法收敛性好、速度快.  相似文献   

20.
针对特征层融合识别中全局自适应BP算法存在的收敛速度慢、学习不稳定等问题,基于对动量BP算法的详细分析,提出了一种新的全局自适应BP算法——回弹全局自适应动量BP算法(RGMOBP),该算法具有在误差增大时进行权值回弹并减小学习步长以保证权值的调节功能、使误差减小的特点。仿真结果表明:RGMOBP在学习性能上优于其它已有经典全局算法,是一种简单有效的神经网络特征层融合识别算法。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号