共查询到20条相似文献,搜索用时 78 毫秒
1.
提出一种基于模糊逻辑和神经网络的自学习网络模型。该模型通过特定的学习算法训练样本,能自动生成模糊逻辑规则,调节输入、输出变量的隶属函数。同时,提出了一种结合自组织学习和BP学习的混合学习算法──BPSOM,这种算法比通常的BP机学习算法收敛性好,速度快。 相似文献
2.
提高BP神经网络学习速度的算法研究 总被引:6,自引:0,他引:6
本文在深入分析BP人工神经网络学习算法的基础上,研究了采用增加动量项,成批训练及综合法来提高BP网络的学习速度,取得了显著效果。 相似文献
3.
一种模糊规则动态调整BP算法中参数的方法 总被引:8,自引:0,他引:8
文中首先对标准的BP算法进行了分析。然后在此基础上提出了通过模糊规则推理动态调整学习率和动量因子的改进的方法,并通过模糊推理系统实现了BP算法的模糊控制。最后通过实例将该算法与标准BP算法和Vogl改进的算法进行了比较,实验结果表明通过模糊推理来改善神经网络的BP算法性能是一种很有前途的方法。 相似文献
4.
本文针对BP网络进行心电数据压缩学习速度慢的问题提出了几项改进措施,形成了新的TP-IBP数据压缩算法,有效改善了BP网络用于压缩学习速度慢的问题。 相似文献
5.
多层神经网络BP算法的研究 总被引:7,自引:0,他引:7
影响多层神经网络BP算法学习效率的因素不少。但BP算法中误差函数不能有效地表征样本学习精度是其中主要的因素之一。本文对BP算法中的误差函数进行了修正。计算机模拟结果表明这种修正有助于提高学习精度和学习效率。 相似文献
6.
该文提出了高精度RBP-模糊推理复合学习系统.系统主要由基于鲁棒估计的鲁棒BP学习环节和基于混合合成推理的模糊推理环节构成.该学习系统的主要特点是可由鲁棒BP算法和min-max,max-min模糊推理算法简单地实现.最后通过在目标跟踪问题中应用结果,表示了该算法的高精度和鲁棒性. 相似文献
7.
首先提出变形的BP算法IBP,然后将它与Solia和Wets的随机优化算法相结合,提出了新型混合学习算法NHLA。算法具有能以概率1全局收敛于误差函数最小值的性质,从而有效地克服了BP算法不能保证全局收敛于误差函数最小值的缺点。 相似文献
8.
本文从神经元的解剖学到种经网络理论的研究作了一个简要的概述,介绍了几种重要的典型网络的模型结构和学习算法。对误差反向传播学习算法进行了详细的推导,给出了采用S型作用函数的BP网络具体学习算法,说明了BP网络学习算法存在的问题。 相似文献
9.
10.
本文针对多层前馈神经网络中反向误差传播BP算法的固有缺点,提出了一种新的十分有效的自寻优OBP学习算法。OBP在每次迭代中都自动选择一个使目标函数函数全局最小的步长,从而极大地改善了网络的收敛速度和收敛稳定性。. 相似文献
11.
12.
13.
The slow convergence of back-propagation neural network (BPNN) has become a challenge in data-mining and knowledge discovery
applications due to the drawbacks of the gradient descent (GD) optimization method, which is widely adopted in BPNN learning.
To solve this problem, some standard optimization techniques such as conjugate-gradient and Newton method have been proposed
to improve the convergence rate of BP learning algorithm. This paper presents a heuristic method that adds an adaptive smoothing
momentum term to original BP learning algorithm to speedup the convergence. In this improved BP learning algorithm, adaptive
smoothing technique is used to adjust the momentums of weight updating formula automatically in terms of “3 σ limits theory.”
Using the adaptive smoothing momentum terms, the improved BP learning algorithm can make the network training and convergence
process faster, and the network’s generalization performance stronger than the standard BP learning algorithm can do. In order
to verify the effectiveness of the proposed BP learning algorithm, three typical foreign exchange rates, British pound (GBP),
Euro (EUR), and Japanese yen (JPY), are chosen as the forecasting targets for illustration purpose. Experimental results from
homogeneous algorithm comparisons reveal that the proposed BP learning algorithm outperforms the other comparable BP algorithms
in performance and convergence rate. Furthermore, empirical results from heterogeneous model comparisons also show the effectiveness
of the proposed BP learning algorithm. 相似文献
14.
本文在对BP神经网络算法分析的基础上,提出一种基于演化算法的BP改进算法(EBP)。该算法将演化算法运用到BP算法学习率的求解中,从而达到学习率的自适应、自组织的目的。实验结果表明,使用EBP算法进行求解函数逼近、优化和建模等BP神经网络应用问题,都要比传统的BP算法具有更好的精确度和收敛速度,并且能够克服传统BP算法易陷入局部最优解、学习过程出现震荡等缺点。 相似文献
15.
介绍了BP神经网络的基本结构及原理,分析了其收敛慢的原因。为加快其收敛速度,结合带动量梯度下降法提出一种新的算法(PBBP),用多个学习速率不同但结构相同的网络进行并行训练,在每次迭代后都根据误差找出处于最佳状态的网络,并使其它网络的训练参数作适当变化再进行下一次迭代,直到整个网络的误差减小到允许范围内或达到训练次数要求,加快了其收敛速度,能够很好地脱离平坦区。通过在Matlab里编程进行仿真实验证明,该算法是可行的。 相似文献
16.
17.
Error back-propagation (BP) is one of the most popular ideas used in learning algorithms for multilayer neural networks. In BP algorithms, there are two types of learning schemes, online learning and batch learning. The online BP has been applied to various problems in practice, because of its simplicity of implementation. However, efficient implementation of the online BP usually requires an ad hoc rule for determining the learning rate of the algorithm. In this paper, we propose a new learning algorithm called SPM, which is derived from the successive projection method for solving a system of nonlinear inequalities. Although SPM can be regarded as a modification of online BP, the former algorithm determines the learning rate (step-size) adoptively based on the output for each input pattern. SPM may also be considered a modification of the globally guided back-propagation (GGBP) proposed by Tang and Koehler. Although no theoretical proof of the convergence for SPM is given, some simulation results on pattern classification problems indicate that SPM is more effective and robust than the standard online BP and GGBP 相似文献
18.
基于改进BP神经网络的函数逼近性能对比研究 总被引:1,自引:0,他引:1
为了正确反映实际应用中经常采用的6种典型BP神经网络的改进算法的非线性函数逼近能力,本文从数学角度详细阐述这6种典型BP神经网络的改进算法的学习过程,简要地介绍MATLAB工具箱中设计BP网络的训练函数,最后在MATLAB环境下设计具体的网络来对指定的非线性函数进行逼近实验,并对这6种典型BP神经网络的改进算法的性能差异进行对比。仿真结果表明,对于中小规模网络而言,LM优化算法逼近性能最佳,其次是拟牛顿算法、共轭梯度法、弹性BP算法、自适应学习速率算法和动量BP算法。 相似文献
19.