共查询到19条相似文献,搜索用时 429 毫秒
1.
提出了一种基于0.618法求解具有线性约束的二次规划问题的神经网络学习新算法。与已有的求解线性约束的二次规划问题的神经网络学习算法相比,该算法的适用范围更广,计算精度更高。其目的是为具有线性约束的二次规划问题的求解提供一种新方法。仿真实验验证了新算法的有效性。 相似文献
2.
3.
多层前向神经网络的快速学习算法及其应用 总被引:4,自引:1,他引:4
针对目前多层前向神经网络学习算法存在的不足,提出一种多层前向神经网络的快速学习算法,它不仅符合生物神经网络的基本特征,而且算法简单,学习收敛速度快,具有线性,非线性逼近精度高等特性,以二杆机构手逆运动学建模作为应用实例,仿真结果表明该方法是有效的,其算法与收敛速度更优于BP网络。 相似文献
4.
5.
一种改进的粒子群优化RBF网络学习算法 总被引:2,自引:1,他引:2
提出了一种新的用粒子群优化RBF网络学习的算法,即分组训练合成优化。该算法利用粒子之间的合作与竞争以实现对多维复杂空间的高维搜索能力,找出神经网络权值的最优解,以达到优化神经网络学习的目的。通过与用最小二乘法优化的神经网络进行了比较,结果表明算法所优化的神经网络收敛效果明显、收敛速度快。 相似文献
6.
自反馈神经网络的椭球学习算法 总被引:4,自引:0,他引:4
本文讨论自反馈神经网络的学习问题,指出联想记忆的神经网络的学习可以化为某种规划(优化)的问题来解,于是可借用规划数学中发展得成熟的优化技术来解自反馈神经网络的学习问题,文中给出一种称为椭球算法的学习方法,其计算复杂性是多项式型。 相似文献
7.
大规模前馈神经网络的一种有效学习算法及其应用 总被引:3,自引:0,他引:3
前馈神经网络在复杂系统建模中局限于小型或中等规模的系统,主要原因是:对于大规模问题,现有的神经网络学习算法或者收敛太慢,或者难以收敛.针对这一问题,本文提出一种基于改进的拟牛顿方法的神经网络学习算法该算法内存需要量小,收敛速度快,适合高维神经网络的训练.本文利用该算法训练神经网络建立32输入工业产品质量模型,结果表明了该算法的有效性. 相似文献
8.
9.
本文介绍一种新的前馈神经网络的随机学习方法,着重讨论该算法的实现,并讨论了将它和BP算法相结合,从而得到一种非常实用的神经网络学习算法。 相似文献
10.
11.
Bo Zhang Ling Zhaog Fachao Wu 《Neural Networks, IEEE Transactions on》1995,6(3):771-775
Discusses the learning problem of neural networks with self-feedback connections and shows that when the neural network is used as associative memory, the learning problem can be transformed into some sort of programming (optimization) problem. Thus, the rather mature optimization technique in programming mathematics can be used for solving the learning problem of neural networks with self-feedback connections. Two learning algorithms based on programming technique are presented. Their complexity is just polynomial. Then, the optimization of the radius of attraction of the training samples is discussed using quadratic programming techniques and the corresponding algorithm is given. Finally, the comparison is made between the given learning algorithm and some other known algorithms 相似文献
12.
A class of artificial neural networks with a two‐layer feedback topology to solve nonlinear discrete dynamic optimization problems is developed. Generalized recurrent neuron models are introduced. A direct method to assign the weights of neural networks is presented. The method is based on Bellmann's Optimality Principle and on the interchange of information which occurs during the synaptic chemical processing among neurons. A comparative analysis of the computational requirements is made. The analysis shows advantages of this approach as compared to the standard dynamic programming algorithm. The technique has been applied to several important optimization problems, such as shortest path and control optimal problems. 相似文献
13.
神经网络中克服局部最小的BP—EP混合算法 总被引:4,自引:0,他引:4
人工神经网络在很多领域有着成功的应用,神经网络有许多学习算法,BP算法是前向多层神经网络的典型算法,但BP算法有时会陷入局部最小解,进化规划(EP)是一种随机优化技术,它可以发现全局成解,当网络学习过程陷入局部最小时,利用EP确定BP算法中的学习速率,使学习过程逸出局部最小,结合具体例子给出了算法实现的具体操作步骤和实验结果。 相似文献
14.
王继成 《计算机工程与科学》2000,22(3):6-9
通过对人类学习机理和机制的研究,以及对现有BP神经网络学习算法及其改进的深入分析,本文提出了一种新的学习算法。该学习算法使神经网络学习由纯数学推导向智能化(启发式)学习发展,获取解决问题的最佳结构中神经元数及神经元间的联接数随问题的变化而动态变化,克服了目前神经网络学习算法普遍存在的学习时间长、局部极小小等问题。 相似文献
15.
基于粒子群优化的BP网络学习算法 总被引:25,自引:0,他引:25
本文提出一种新颖的基于粒子群优化的BP网络学习算法,该算法是一种全局随机优化算法。用Iris分类问题,将所提出的算法与BP算法作了对比实验。实验结果表明:所提出的算法性能优于BP算法,而且具有良好的收敛性。 相似文献
16.
提出一种新的基于粒子群优化的BP网络学习算法,该算法是一种全局随机优化算法,将该算法与传统BP—PSO算法对比实验表明:提出的算法性能优于BP算法,而且具有良好的收敛性,并成功应用于水泥水化过程仿真。 相似文献
17.
Wilfredo J. Puma-VillanuevaAuthor Vitae Eurípedes P. dos SantosAuthor Vitae 《Neurocomputing》2012,75(1):14-32
In this work we present a constructive algorithm capable of producing arbitrarily connected feedforward neural network architectures for classification problems. Architecture and synaptic weights of the neural network should be defined by the learning procedure. The main purpose is to obtain a parsimonious neural network, in the form of a hybrid and dedicate linear/nonlinear classification model, which can guide to high levels of performance in terms of generalization. Though not being a global optimization algorithm, nor a population-based metaheuristics, the constructive approach has mechanisms to avoid premature convergence, by mixing growing and pruning processes, and also by implementing a relaxation strategy for the learning error. The synaptic weights of the neural networks produced by the constructive mechanism are adjusted by a quasi-Newton method, and the decision to grow or prune the current network is based on a mutual information criterion. A set of benchmark experiments, including artificial and real datasets, indicates that the new proposal presents a favorable performance when compared with alternative approaches in the literature, such as traditional MLP, mixture of heterogeneous experts, cascade correlation networks and an evolutionary programming system, in terms of both classification accuracy and parsimony of the obtained classifier. 相似文献
18.
19.
遗传算法在人工神经网络中的应用综述 总被引:15,自引:0,他引:15
本文介绍正被逐渐广泛应用的新型的、随机性的全局优化方法-遗传算法,系统地讨论了遗传算法在人工神经网络中的主要应用,实验结果显示了遗传算法快速学习网络权重的能力,并且能够摆脱局部极小点的困扰。 相似文献