共查询到18条相似文献,搜索用时 78 毫秒
1.
本文针对三层前馈网络提出一种全新的学习算法,该法克服了传统BP算法因用梯度下降和误差逆向传播而拖慢收敛速度及易陷于局部极小的缺点。所提出的算法是代数型的,计算复杂度为多项式阶。文中给出的一个非线笥时间序列训练算例表明:新算法较BP算法在计算精度和速度方面均有大幅度提高,在网络规模变大时此算法的优点尤为明显。 相似文献
2.
3.
本文利用两片神经网络处理芯片NLX420实现了多层感知机的硬件设计,并针对已实现的硬件环境中进行了限定精度的学习算法研究,给出相应的实验测试结果。 相似文献
4.
前馈神经网络的一种有效学习算法 总被引:4,自引:1,他引:3
本文提出了基于混合GN-BFGS法进行前馈神经网络学习的新算法,该算法结合GN法与BFGS法的特点,既利用了问题本身的特殊结构,又能取得超线性甚至二次渐近收敛率。与BP算法相比,这种算法可取得更快和更可靠的学习特性,在学习过程中利用该方法能够区分非零残量和零残量问题的特点,提出了自动调整隐单元数的方法,从而可以保证网络学习与归纳能力,示例系统的结果表明了所提方法的有效性。 相似文献
5.
采用基于知识的方法对隐层训练加以指导,有效地改善了训练算法的效果,并使隐层节点数可以明确地确定.在增加新模式时,训练不必完全重新开始,使训练时间大为缩减. 相似文献
6.
前馈神经网络隐层结构点设计的一个学习算法 总被引:4,自引:0,他引:4
考虑三层前馈神经网络隐结点学习问题。在分析同类民不同类训练样本在隐层输出上体现的差异的基础上,提出了一种在权值学习过程中动态地删除网络隐结点数的学习算法。数值结果表明本文算法法可行的。 相似文献
7.
复数前馈神经网络的全局最优和快速学习算法 总被引:1,自引:0,他引:1
提出了一种新型复数前馈神经网络的学习算法。当输入层和隐层之间的权值计算出来后,就可以通过求解线性方程组得到隐层和输出层之间的权值。这些权值是全局最小点。另一方面,本文算法很容易确定全局最小点时隐层神经元的个数。本文算法具有很高的训练精度和学习速度。 相似文献
8.
考虑三层前馈神经网络隐结点学习问题.在分析同类与不同类训练样本在隐层输出上体现的差异的基础上,提出了一种在权值学习过程中动态地用除网络隐结点数的学习算法.数值结果表明本文算法是可行的. 相似文献
9.
改进的非线性最小二乘算法训练多层前馈神经网络 总被引:4,自引:0,他引:4
本文通过在普通非线性最小二乘算法的准则函数中加一个正则项,推导出一种改进的非线性最小二乘算法,包括地的批处理形式和递推形式,使用该算法的递推形式训练多层前馈神经网络能克服病态,减少计算量和内存占用量,文中给出的仿真结果说明该算法具有比常的BP算法更好的收敛性能。 相似文献
10.
函数逼近神经网络的一种快速学习算法 总被引:1,自引:0,他引:1
通过分析特学习参数的不同特性,提出一种快速收敛方法,使网络的收敛速度大大提高。通过对多种函数的实验,与不同的网络结构对比,表明此方法具有很强的普遍性。 相似文献
11.
本文提出一种适用于训练大型BP神经网的学习算法,即比例式学习算法。通过理论分析和计算机模拟结果表明,比例式学习算法学习速度快,是一种可行的学习算法。 相似文献
12.
13.
前向多层神经网络模糊自适应算法 总被引:10,自引:0,他引:10
本文将模糊集理论与人工神经网络的研究相结合,提出一种模糊自适应BP算法,用典型异或问题与规模更大的打印机磁泄漏信息识别问题进行计算机模拟表明,该算法可使BP算法的收敛速度明显提高。此项工作为神经网络与模糊系统相结合探索了一条新的途径。 相似文献
14.
Analog VLSI Implementation of Artificial Neural Networks with Supervised On-Chip Learning 总被引:1,自引:0,他引:1
Maurizio Valle 《Analog Integrated Circuits and Signal Processing》2002,33(3):263-287
Analog VLSI on-chip learning Neural Networks represent a mature technology for a large number of applications involving industrial as well as consumer appliances. This is particularly the case when low power consumption, small size and/or very high speed are required. This approach exploits the computational features of Neural Networks, the implementation efficiency of analog VLSI circuits and the adaptation capabilities of the on-chip learning feedback schema.Many experimental chips and microelectronic implementations have been reported in the literature based on the research carried out over the last few years by several research groups. The author presents and discusses the motivations, the system and circuit issues, the design methodology as well as the limitations of this kind of approach. Attention is focused on supervised learning algorithms because of their reliability and popularity within the neural network research community. In particular, the Back Propagation and Weight Perturbation learning algorithms are introduced and reviewed with respect to their analog VLSI implementation.Finally, the author also reviews and compares the main results reported in the literature, highlighting the efficiency and the reliability of the on-chip implementation of these algorithms. 相似文献
15.
RBF神经网络的梯度下降训练方法中的学习步长优化 总被引:9,自引:0,他引:9
梯度下降法是训练RBF神经网络的一种有效方法。和其他基于下降法的算法一样,RBF神经网络的梯度下降训练方法中也存在学习步长的取值问题。本文基于误差能量函数对学习步长的二阶Taylor展开,构造了一种优化学习步长的方法,进行了较详细的推导:实验表明,本方法可有效地加速梯度下降法的收敛速度、提高其性能。该方法的思想可以用于其他基于下降法的学习步长的优化中。 相似文献
16.
17.