共查询到20条相似文献,搜索用时 0 毫秒
1.
一种基于前馈式神经网络的数据挖掘方法 总被引:2,自引:0,他引:2
神经网络是目前公认的高精度分类器,尽管其具有结构复杂,网络训练时间长,分类过程难以理解等不足,但其较高的正确率是其他方法所不及的,本文介绍了一种基于前馈式神经网络的数据挖掘的分类方法,并给出了一个例子说明。 相似文献
2.
一、前言最近十多年来,人工神经网络,尤其是前馈神经网络和BP算法获得了极其广泛的应用。BP(Back Propagation Error)算法是由Werbos在1974年首先提出的,它有效地克服了多层网络无法解决非线性分类问题的缺陷,但在当时并没有引起重视。直到1986年,Rumelhart和McClelland等人对Werbos的算法进行了总结和分析,提出了PDP(并行分布处理)理论,并进一 相似文献
3.
4.
本语文对非学习方法和前馈神经网络的结构进行了一些简单的改进,用改进后的结构和学习方法寝化前馈神经网络的权值,使前馈神经网络的训练速度和逼近精度显著提高。最后本语文通过仿真实例验证了该方法。 相似文献
5.
6.
多层前馈神经网络改进算法及其应用 总被引:9,自引:0,他引:9
从前馈神经网络原理分析出发,提出一种速率适应因子方法用于对多层前馈神经网络中BP算法的改进,并将改进的算法用于XOR问题的学习及多重XOR分类器问题的学习。仿真结果表明,改进后BP的算法可显著加速网络的学习速度,并且学习过程具有良好的收敛性及较强的鲁棒性。 相似文献
7.
前馈神经网络的一种新的学习算法 总被引:4,自引:0,他引:4
本文将变尺度法引入到神经网络的学习中。在修改权值时,引入串行修正权值的思想。基于以上两点提出的算法具有收敛速度快、实习精度高等特点。 相似文献
8.
1.引言前馈神经网络是目前应用最广的一种神经网络,其学习算法是由Rumelhart等人于1986年提出的反向传播(Back Propagation,BP)算法,故这种神经网络也常被称为BP神经网络。人们对前馈神经网络学习算法的研究,以前主要着重对各层之间联接权值优化的研究,如BP算法以 相似文献
9.
提出的算法是利用凸函数共轭性质中的Young不等式构造优化目标函数,这个优化目标函数对于权值和隐层输出来说为凸函数,不存在局部最小。首先把隐层输出作为变量进行优化更新,然后快速计算出隐层前后的权值。数值实验表明:此算法简单,收敛速度快,泛化能力强,并大大降低了学习误差。 相似文献
10.
11.
12.
针对神经网络学习问题,研究将微分方程数值解法--阿当姆斯法用于神经网络的权值修正.考虑BP算法在网络学习初始阶段误差函数下降速度较快,而阿当姆斯算法在网络学习后期具有较高学习精度的特点,给出了前馈神经网络一种BP与Adamas方法相融合的BP-Adamas结合算法.文中对BP算法、Adamas算法和BP-Adamas结合算法的性质进行了对比分析,并以随机模式识别和旋转机械故障自动诊断问题为例验证了算法的有效性. 相似文献
13.
前馈神经网络的新算法及其收敛性 总被引:1,自引:0,他引:1
从一般前馈神经网络模型出发,构造出一组关于权重的非线性方程组,给出不同于传统BP算法的新型神经元算法。理论证明了该算法的收敛性,从而避免了BP算法的局限性。 相似文献
14.
前馈神经网络的混沌学习方法研究 总被引:4,自引:0,他引:4
采用混沌优化策略,提出一种前馈神经网络权参数的最优学习方案.由于BP算法优化神经网络权参数时存在收敛速度慢、自身参数选取困难、易陷入局部极小等缺陷.采用混沌变量优化神经网络权参数,具有全局性、快速性、并行性的特点.仿真实验表明采用该方案对强非线性问题的逼近具有精度较高、学习较快的优点. 相似文献
15.
张代远 《模式识别与人工智能》2000,13(1)
本文提出了实三层前馈网络的一种新型学习算法.该算法采用的是分层优化方法,将隐层的非线性神经元线性化,线性化产生的误差通过罚项而受到限制.分层优化使得每一层权值整体优化,而与另一层无关,这样使得整个优化过程更为有效. 相似文献
16.
17.
文章探讨应用反向传播算法建立一个能预测、推理、诊断、分析并确定污染源的生态系统环保神经网络,这种网络是一个具有自适应学习能力的模式识别系统,能从经验中学习适合不同需要的判别函数,是一种有指导的训练。 相似文献
18.
本文介绍一种新的前馈神经网络的随机学习方法,着重讨论该算法的实现,并讨论了将它和BP算法相结合,从而得到一种非常实用的神经网络学习算法。 相似文献
19.
前馈神经网隐层节点的动态删除法 总被引:5,自引:0,他引:5
本文首先针对BP算法中存在的缺陷对误差函数作了简单的修改,使网络的收敛速度比原来的大大提高,此外本文提提出了一种基于线性回归分析算法来确定隐层节点数。当已训练好的网络具有过多的隐层单元,可以用这种算法来计算隐层节点输出之间的线性相关性,并估计多余隐层单元数目,然后删除这部分多余的节点,就能获得一个合适的网络结构。 相似文献
20.
基于Metropolis准则的BP神经网络学习算法研究 总被引:9,自引:0,他引:9
本文针对BP神经网络训练学习过程中,连接权在调整时容易陷入局部极小使得进一步调整失去作用的问题,提出了一种有助于提高BP神经网络逼近精度的方法——基于M!缸。酬逸准则的神经网络学习算法。该算法整体采用传统的BP算法,但在一定条件下依据概率进行连接权的调整,使权值以一定的概率跳跃,跳出局部极小区,最终达到全局极小。仿真结果表明了这一算法的有效性。 相似文献